ABOUT THE SPEAKER
Jonathan Haidt - Social psychologist
Jonathan Haidt studies how -- and why -- we evolved to be moral and political creatures.

Why you should listen

By understanding more about our moral psychology and its biases, Jonathan Haidt says we can design better institutions (including companies, universities and democracy itself), and we can learn to be more civil and open-minded toward those who are not on our team.

Haidt is a social psychologist whose research on morality across cultures led to his 2008 TED Talk on the psychological roots of the American culture war, and his 2013 TED Talk on how "common threats can make common ground." In both of those talks he asks, "Can't we all disagree more constructively?" Haidt's 2012 TED Talk explored the intersection of his work on morality with his work on happiness to talk about "hive psychology" -- the ability that humans have to lose themselves in groups pursuing larger projects, almost like bees in a hive. This hivish ability is crucial, he argues, for understanding the origins of morality, politics, and religion. These are ideas that Haidt develops at greater length in his book, The Righteous Mind: Why Good People are Divided by Politics and Religion.

Haidt joined New York University Stern School of Business in July 2011. He is the Thomas Cooley Professor of Ethical Leadership, based in the Business and Society Program. Before coming to Stern, Professor Haidt taught for 16 years at the University of Virginia in the department of psychology.

Haidt's writings appear frequently in the New York Times and The Wall Street Journal. He was named one of the top global thinkers by Foreign Policy magazine and by Prospect magazine. Haidt received a B.A. in Philosophy from Yale University, and an M.A. and Ph.D. in Psychology from the University of Pennsylvania.

More profile about the speaker
Jonathan Haidt | Speaker | TED.com
TED2008

Jonathan Haidt: The moral roots of liberals and conservatives

Johnathan Haidt o korzeniach moralnych liberałów i konserwatystów

Filmed:
3,635,704 views

Psycholog Jonathan Haidt przygląda się pięciu wartościom moralnym, które leżą u podstaw politycznych wyborów, niezależnie od tego czy sympatyzuje się z lewicą, prawicą czy centrum. Podczas tej oświecającej przemowy indentyfikuje on wartości moralne, które są najbliższe konserwatystom i liberałom.
- Social psychologist
Jonathan Haidt studies how -- and why -- we evolved to be moral and political creatures. Full bio

Double-click the English transcript below to play the video.

00:19
SupposeZałóżmy, że that two AmericanAmerykański friendsprzyjaciele are travelingpodróżny togetherRazem in ItalyWłochy.
0
1000
3000
Wyobraźmy sobie, że dwóch Amerykanów pojechało razem do Włoch.
00:22
They go to see Michelangelo'sMichała Anioła "DavidDavid,"
1
4000
2000
Pojechali, żeby zobaczyć "Dawida" Michała Anioła,
00:24
and when they finallywreszcie come facetwarz to facetwarz with the statuestatua,
2
6000
2000
a kiedy wreszcie znaleźli się twarzą w twarz z rzeźbą,
00:26
they bothobie freezezamrażać deadnie żyje in theirich tracksutwory.
3
8000
2000
obydwaj stanęli jak wryci.
00:28
The first guy -- we'lldobrze call him AdamAdam --
4
10000
2000
Ten pierwszy, nazwijmy go Adamem,
00:30
is transfixedprzeszyty by the beautypiękno of the perfectidealny humanczłowiek formformularz.
5
12000
3000
jest porażony pięknem doskonałości ludzkiej postaci.
00:33
The seconddruga guy -- we'lldobrze call him BillBill --
6
15000
2000
Ten drugi, Bill
00:35
is transfixedprzeszyty by embarrassmentzakłopotanie, at staringgapiowski at the thing there in the centercentrum.
7
17000
4000
jest sparaliżowany przez zażenowanie wywołane przez to coś pośrodku.
00:40
So here'soto jest my questionpytanie for you:
8
22000
2000
Teraz zadam wam pytanie:
00:42
whichktóry one of these two guys was more likelyprawdopodobne to have votedgłosowało for GeorgeGeorge BushBush,
9
24000
4000
który z tych dwóch panów głosował na George'a Busha,
00:46
whichktóry for AlAl GoreGore?
10
28000
2000
a który na Ala Gore'a?
00:48
I don't need a showpokazać of handsręce
11
30000
1000
Nie potrzebuję głosowania, bo wszyscy dzielimy te same polityczne stereotypy.
00:49
because we all have the samepodobnie politicalpolityczny stereotypesstereotypy.
12
31000
3000
Nie potrzebuję głosowania, bo wszyscy dzielimy te same polityczne stereotypy.
00:52
We all know that it's BillBill.
13
34000
2000
Wszyscy wiemy, że chodzi o Billa.
00:54
And in this casewalizka, the stereotypestereotyp correspondsodpowiada to realityrzeczywistość.
14
36000
4000
W tym wypadku, stereotyp odpowiada rzeczywistości.
00:58
It really is a factfakt that liberalsLiberałowie are much higherwyższy than conservativesKonserwatyści
15
40000
3000
Liberałowie plasują się znacznie wyżej niż konserwatyści
01:01
on a majorpoważny personalityosobowość traitcecha callednazywa opennessotwartość to experiencedoświadczenie.
16
43000
3000
w skali jednej z głównych cech osobowości: otwartości na doświadczenia.
01:04
People who are highwysoki in opennessotwartość to experiencedoświadczenie
17
46000
2000
Ludzie cechujący się dużą otwartością na doświadczenia
01:06
just cravepragnąć noveltynowość, varietyróżnorodność, diversityróżnorodność, newNowy ideaspomysły, travelpodróżować.
18
48000
4000
pragną nowości, zróżnicowania, rozmaitości, nowych pomysłów i podróży.
01:10
People lowNiska on it like things that are familiarznajomy, that are safebezpieczny and dependableniezawodne.
19
52000
5000
Ludzie, u których ta cecha jest niska, lubią rzeczy znane, bezpieczne i pewne.
01:15
If you know about this traitcecha,
20
57000
2000
Jeżeli o tym wiecie, łatwiej wam zrozumieć zagadki ludzkiego zachowania.
01:17
you can understandzrozumieć a lot of puzzleszagadki about humanczłowiek behaviorzachowanie.
21
59000
2000
Jeżeli o tym wiecie, łatwiej wam zrozumieć zagadki ludzkiego zachowania.
01:19
You can understandzrozumieć why artistsartyści are so differentróżne from accountantsksięgowi.
22
61000
3000
Można zrozumieć, dlaczego artyści tak się różnią od księgowych.
01:22
You can actuallytak właściwie predictprzepowiadać, wywróżyć what kindsrodzaje of booksksiążki they like to readczytać,
23
64000
2000
Można przewidzieć, jakie rodzaje książek lubią czytać,
01:24
what kindsrodzaje of placesmiejsca they like to travelpodróżować to,
24
66000
2000
dokąd lubią podróżować
01:26
and what kindsrodzaje of foodjedzenie they like to eatjeść.
25
68000
2000
oraz jakie lubią jeść potrawy.
01:28
OnceRaz you understandzrozumieć this traitcecha, you can understandzrozumieć
26
70000
3000
Ta wiedza pozwala nam zrozumieć,
01:31
why anybodyktoś would eatjeść at Applebee'sApplebee's, but not anybodyktoś that you know.
27
73000
4000
dlaczego niektórzy lubią pachnieć "Zielonym Jabłuszkiem".
01:35
(LaughterŚmiech)
28
77000
6000
(Śmiech)
01:41
This traitcecha alsorównież tellsmówi us a lot about politicsPolityka.
29
83000
2000
Cecha ta mówi nam też wiele o polityce.
01:43
The mainGłówny researchernaukowiec of this traitcecha, RobertRobert McCraeMcCrae saysmówi that,
30
85000
3000
Badający tę cechę naukowiec, Robert McCrae twierdzi, że
01:46
"OpenOtwarte individualsosoby prywatne have an affinitypowinowactwo for liberalliberalne, progressiveprogresywny, left-wingLewica politicalpolityczny viewswidoki" --
31
88000
4000
"Ludzie otwarci sympatyzują z liberalnymi, postępowymi, lewicowymi poglądami politycznymi" -
01:50
they like a societyspołeczeństwo whichktóry is openotwarty and changingwymiana pieniędzy --
32
92000
2000
lubią otwarte i zmieniające się społeczeństwo -
01:52
"whereasnatomiast closedZamknięte individualsosoby prywatne preferwoleć conservativekonserwatywny, traditionaltradycyjny, right-wingprawicy viewswidoki."
33
94000
5000
"a ludzie zamknięci preferują konserwatywne, prawicowe poglądy."
01:57
This traitcecha alsorównież tellsmówi us a lot about the kindsrodzaje of groupsgrupy people joinprzyłączyć się.
34
99000
4000
Cecha ta wiele mówi o rodzajach grup, do których ludzie wstępują.
02:01
So here'soto jest the descriptionopis of a groupGrupa I founduznany on the WebSieci Web.
35
103000
2000
A to opis grupy, który znalazłem w Internecie.
02:03
What kindsrodzaje of people would joinprzyłączyć się a globalświatowy communityspołeczność
36
105000
2000
Jacy ludzie wstąpiliby do globalnej społeczności,
02:05
welcomingpowitanie people from everykażdy disciplinedyscyplina and culturekultura,
37
107000
2000
która zrzesza przedstawicieli wielu dyscyplin i kultur,
02:07
who seekszukać a deepergłębiej understandingzrozumienie of the worldświat,
38
109000
2000
poszukujących głębszego zrozumienia świata
02:09
and who hopenadzieja to turnskręcać that understandingzrozumienie into a better futureprzyszłość for us all?
39
111000
3000
i chcących przekształcić to zrozumienie w lepszą przyszłość dla wszystkich?
02:12
This is from some guy namedo imieniu TedTed.
40
114000
2000
To od jakiegoś faceta imieniem TED.
02:14
(LaughterŚmiech)
41
116000
2000
(Śmiech)
02:16
Well, let's see now, if opennessotwartość predictsprzewiduje who becomesstaje się liberalliberalne,
42
118000
4000
Teraz pomyślmy, jeśli otwartość decyduje, kto zostanie liberałem
02:20
and opennessotwartość predictsprzewiduje who becomesstaje się a TEDsterTeda,
43
122000
2000
oraz to kto zostanie członkiem TED,
02:22
then mightmoc we predictprzepowiadać, wywróżyć that mostwiększość TEDstersTed are liberalliberalne?
44
124000
3000
to czy można przewidzieć, że większość ludzi z TED będzie liberałami?
02:25
Let's find out.
45
127000
1000
Sprawdźmy to.
02:26
I'm going to askzapytać you to raisepodnieść your handdłoń, whetherczy you are liberalliberalne, left of centercentrum --
46
128000
4000
Podnieście ręce zależnie od tego, czy jesteście liberałami, na lewo od centrum -
02:30
on socialspołeczny issuesproblemy, we're talkingmówić about, primarilyprzede wszystkim --
47
132000
2000
chodzi głównie o kwestie społeczne -
02:32
or conservativekonserwatywny, and I'll give a thirdtrzeci optionopcja,
48
134000
2000
czy konserwatystami; dam też trzecią opcję,
02:34
because I know there are a numbernumer of libertariansLibertarianie in the audiencepubliczność.
49
136000
2000
bo wiem, że na widowni jest kilku zwolenników libertarianizmu.
02:36
So, right now, please raisepodnieść your handdłoń --
50
138000
2000
Więc, proszę, podnieście ręce...
02:38
down in the simulcastsimulcast roomspokoje, too,
51
140000
1000
także osoby w innych pomieszczeniach,
02:39
let's let everybodywszyscy see who'skto jest here --
52
141000
2000
żeby wszyscy mogli zobaczyć, kto tu jest.
02:41
please raisepodnieść your handdłoń if you would say that you are liberalliberalne or left of centercentrum.
53
143000
3000
Proszę, podnieście ręce, jeśli jesteście liberałami lub na lewo od centrum. OK.
02:44
Please raisepodnieść your handdłoń highwysoki right now. OK.
54
146000
3000
Proszę, podnieście ręce, jeśli jesteście liberałami lub na lewo od centrum. OK.
02:48
Please raisepodnieść your handdłoń if you'dty byś say you're libertarianLibertarian.
55
150000
2000
A teraz podnieście ręce, jeśli jesteście libertarianami.
02:51
OK, about a -- two dozentuzin.
56
153000
2000
OK, jakieś dwa tuziny.
02:53
And please raisepodnieść your handdłoń if you'dty byś say you are right of centercentrum or conservativekonserwatywny.
57
155000
3000
A teraz, jeśli jesteście konserwatystami lub na prawo od centrum.
02:56
One, two, threetrzy, fourcztery, fivepięć -- about eightosiem or 10.
58
158000
5000
Jedna, dwie, trzy, cztery, pięć... jakieś osiem lub dziesięć.
03:02
OK. This is a bitkawałek of a problemproblem.
59
164000
3000
OK. To jest pewien problem.
03:05
Because if our goalcel is to understandzrozumieć the worldświat,
60
167000
3000
Bo jeśli naszym celem jest zrozumienie świata,
03:08
to seekszukać a deepergłębiej understandingzrozumienie of the worldświat,
61
170000
2000
poszukiwanie głębszego zrozumienia,
03:10
our generalgenerał lackbrak of moralmorał diversityróżnorodność here is going to make it hardertrudniejsze.
62
172000
3000
to brak moralnej różnorodności sprawi, że będzie to trudniejsze.
03:13
Because when people all sharedzielić valueswartości, when people all sharedzielić moralsmoralność,
63
175000
4000
Bo gdy ludzie podzielają wartości i zasady moralne,
03:17
they becomestają się a teamzespół, and oncepewnego razu you engageangażować the psychologyPsychologia of teamszespoły,
64
179000
3000
stają się grupą, a kiedy zaczyna działać psychologia grup,
03:20
it shutszamyka down open-mindedotwarty thinkingmyślący.
65
182000
2000
zamyka się otwarte myślenie.
03:25
When the liberalliberalne teamzespół losestraci, as it did in 2004,
66
187000
4000
Kiedy liberałowie przegrywają, tak jak w 2004
03:29
and as it almostprawie did in 2000, we comfortkomfort ourselvesmy sami.
67
191000
4000
i tak jak prawie przegrali w 2000, pocieszamy się.
03:33
(LaughterŚmiech)
68
195000
2000
(Śmiech)
03:35
We try to explainwyjaśniać why halfpół of AmericaAmeryka votedgłosowało for the other teamzespół.
69
197000
4000
Staramy się zrozumieć, dlaczego połowa Ameryki głosowała na ten drugi obóz.
03:39
We think they mustmusi be blindedzaślepieni by religionreligia, or by simpleprosty stupiditygłupota.
70
201000
5000
Myślimy, że zaślepiła ich religia albo zwykła głupota.
03:44
(LaughterŚmiech)
71
206000
3000
(Śmiech)
03:47
(ApplauseAplauz)
72
209000
8000
(Brawa)
03:55
So, if you think that halfpół of AmericaAmeryka votesgłosów RepublicanRepublikański
73
217000
6000
Więc jeśli wydaje wam się, że połowa Ameryki głosuje na Republikanów,
04:01
because they are blindedzaślepieni in this way,
74
223000
3000
bo są zaślepieni,
04:04
then my messagewiadomość to you is that you're trappeduwięziony in a moralmorał matrixMacierz,
75
226000
3000
to powiem, że jesteście zamknięci w moralnym matriksie,
04:07
in a particularszczególny moralmorał matrixMacierz.
76
229000
1000
w szczególnym moralnym matriksie.
04:08
And by the matrixMacierz, I mean literallydosłownie the matrixMacierz, like the moviefilm "The MatrixMacierz."
77
230000
4000
A mam na myśli dosłownie taki matriks z filmu "Matrix"
04:12
But I'm here todaydzisiaj to give you a choicewybór.
78
234000
2000
Ale dziś jestem tu, by dać wam wybór.
04:14
You can eitherzarówno take the blueniebieski pillpigułka and stickkij to your comfortingpocieszając delusionsurojenia,
79
236000
4000
Możecie wziąć niebieską pigułkę i trzymać się złudzeń
04:18
or you can take the redczerwony pillpigułka,
80
240000
2000
albo możecie wziąć czerwoną pigułkę,
04:20
learnuczyć się some moralmorał psychologyPsychologia and stepkrok outsidena zewnątrz the moralmorał matrixMacierz.
81
242000
3000
zapoznać się z psychologią moralności i wystąpić z moralnego matriksu.
04:23
Now, because I know --
82
245000
2000
A że wiem...
04:25
(ApplauseAplauz) --
83
247000
3000
(Brawa)
04:28
OK, I assumezałożyć that answersodpowiedzi my questionpytanie.
84
250000
2000
Ok, zakładam, że to odpowiedź na moje pytanie.
04:30
I was going to askzapytać you whichktóry one you pickeddoborowy, but no need.
85
252000
2000
Chciałem spytać, którą opcję wybieracie, ale nieważne.
04:32
You're all highwysoki in opennessotwartość to experiencedoświadczenie, and besidesoprócz,
86
254000
2000
Wszyscy jesteście otwarci na doświadczenia, a oprócz tego
04:34
it lookswygląda like it mightmoc even tastesmak good, and you're all epicureskoneserów.
87
256000
3000
wydaje się, że może być smaczna, a wszyscy jesteście smakoszami.
04:37
So anywaytak czy inaczej, let's go with the redczerwony pillpigułka.
88
259000
2000
Tak więc, wybierzmy czerwoną pigułkę.
04:39
Let's studybadanie some moralmorał psychologyPsychologia and see where it takes us.
89
261000
2000
Dowiedzmy się więcej o psychologii moralności i zobaczmy, dokąd trafimy.
04:41
Let's startpoczątek at the beginningpoczątek.
90
263000
2000
Zacznijmy od podstaw.
04:43
What is moralitymoralność and where does it come from?
91
265000
2000
Czym jest moralność i skąd się bierze?
04:45
The worstnajgorszy ideapomysł in all of psychologyPsychologia
92
267000
2000
Najgorszym pomysłem w całej psychologii jest to,
04:47
is the ideapomysł that the mindumysł is a blankpusty slateŁupek at birthnarodziny.
93
269000
3000
że umysł zaraz po urodzeniu jest pustą kartką.
04:50
DevelopmentalRozwojowych psychologyPsychologia has shownpokazane
94
272000
2000
Psychologia rozwojowa wykazała,
04:52
that kidsdzieciaki come into the worldświat alreadyjuż knowingporozumiewawczy so much
95
274000
2000
że przychodzące na świat dzieci od początku dużo wiedzą
04:54
about the physicalfizyczny and socialspołeczny worldsświaty,
96
276000
2000
o fizycznych i społecznych realiach świata
04:56
and programmedzaprogramowany to make it really easyłatwo for them to learnuczyć się certainpewny things
97
278000
4000
i są tak zaprogramowane, by było im łatwiej uczyć się jednych rzeczy,
05:00
and hardciężko to learnuczyć się othersinni.
98
282000
1000
a innych trudniej.
05:01
The bestNajlepiej definitiondefinicja of innatenesswrodzoności I've ever seenwidziany --
99
283000
2000
Najlepsza definicja cech wrodzonych, którą znam -
05:03
this just clarifieswyjaśnia so manywiele things for me --
100
285000
2000
i która tłumaczy wiele spraw -
05:05
is from the brainmózg scientistnaukowiec GaryGary MarcusMarcus.
101
287000
2000
pochodzi od badacza mózgu, Gary'ego Marcusa.
05:07
He saysmówi, "The initialInicjał organizationorganizacja of the brainmózg does not dependzależeć that much on experiencedoświadczenie.
102
289000
5000
Powiedział: "Początkowa organizacja mózgu nie zależy od doświadczenia.
05:12
NatureNatura provideszapewnia a first draftwersja robocza, whichktóry experiencedoświadczenie then revisesRedaguj.
103
294000
3000
Natura dostarcza szkic, który doświadczenie potem poprawia.
05:15
Built-inWbudowany doesn't mean unmalleableunmalleable;
104
297000
2000
'Wbudowane' nie oznacza 'nieplastyczne',
05:17
it meansznaczy organizedzorganizowany in advancepostęp of experiencedoświadczenie."
105
299000
3000
a 'zorganizowane pierwotnie w stosunku do doświadczenia'."
05:20
OK, so what's on the first draftwersja robocza of the moralmorał mindumysł?
106
302000
2000
OK, więc czym jest szkic moralności mózgu ?
05:22
To find out, my colleaguekolega, CraigCraig JosephJózef, and I
107
304000
3000
Aby to zbadać, ja i mój współpracownik, Craig Joseph,
05:25
readczytać throughprzez the literatureliteratura on anthropologyantropologia,
108
307000
2000
przebrnęliśmy przez literaturę dotyczącą antropologii,
05:27
on culturekultura variationzmienność in moralitymoralność
109
309000
2000
kulturowych różnic w moralności
05:29
and alsorównież on evolutionaryewolucyjny psychologyPsychologia, looking for matchesmecze.
110
311000
2000
i psychologii ewolucyjnej, poszukując wspólnych idei.
05:31
What are the sortssortuje of things that people talk about acrossprzez disciplinesdyscypliny?
111
313000
3000
O jakich podobieństwach międzykulturowych, a nawet międzygatunkowych,
05:34
That you find acrossprzez cultureskultury and even acrossprzez speciesgatunki?
112
316000
2000
mogą dyskutować ludzie zajmujący się całkiem różnymi dyscyplinami?
05:36
We founduznany fivepięć -- fivepięć bestNajlepiej matchesmecze,
113
318000
2000
Znaleźliśmy pięć najczęściej występujących wspólnych punktów,
05:38
whichktóry we call the fivepięć foundationsfundamenty of moralitymoralność.
114
320000
2000
które można nazwać pięcioma filarami moralności.
05:40
The first one is harmszkoda/careopieka.
115
322000
2000
Pierwszym jest krzywda-opieka.
05:42
We're all mammalsssaki here, we all have a lot of neuralnerwowy and hormonalhormonalne programmingprogramowanie
116
324000
4000
Jesteśmy ssakami z masą neuronowego i hormonalnego oprogramowania,
05:46
that makesczyni us really bondwięź with othersinni, careopieka for othersinni,
117
328000
2000
które sprawia, że tworzymy więzi z innymi, troszczymy się o nich,
05:48
feel compassionwspółczucie for othersinni, especiallyszczególnie the weaksłaby and vulnerablewrażliwy.
118
330000
3000
czujemy współczucie, szczególnie w stosunku do słabych i bezbronnych.
05:51
It givesdaje us very strongsilny feelingsuczucia about those who causeprzyczyna harmszkoda.
119
333000
3000
To sprawia, że w starciu z tymi, którzy ich krzywdzą, odczuwamy silne emocje.
05:54
This moralmorał foundationfundacja underliesleży u podstaw about 70 percentprocent
120
336000
3000
Ten filar moralności jest odpowiedzialny za około 70%
05:57
of the moralmorał statementssprawozdania I've heardsłyszał here at TEDTED.
121
339000
2000
twierdzeń moralnych, które usłyszałem na TED.
05:59
The seconddruga foundationfundacja is fairnessuczciwość/reciprocitywzajemności.
122
341000
3000
Drugim filarem jest sprawiedliwość-wzajemność.
06:02
There's actuallytak właściwie ambiguousniejednoznaczne evidencedowód
123
344000
2000
Istnieją dwuznaczne przesłanki co do tego,
06:04
as to whetherczy you find reciprocitywzajemności in other animalszwierzęta,
124
346000
2000
czy można znaleźć wzajemność u innych zwierząt,
06:06
but the evidencedowód for people could not be clearerjaśniejsze.
125
348000
2000
ale dla ludzi dane nie mogłyby być bardziej przejrzyste.
06:08
This NormanNorman RockwellRockwell paintingobraz is callednazywa "The GoldenZłoty RuleReguła,"
126
350000
2000
To obraz Normana Rockwella "Złota Zasada" ("The Golden Rule").
06:10
and we heardsłyszał about this from KarenKaren ArmstrongArmstrong, of coursekurs,
127
352000
2000
Karen Armstrong mówiła o nim wcześniej
06:12
as the foundationfundacja of so manywiele religionsreligie.
128
354000
3000
jako o podstawie wielu religii.
06:15
That seconddruga foundationfundacja underliesleży u podstaw the other 30 percentprocent
129
357000
2000
Ta druga podstawa stanowi podłoże pozostałych 30%
06:17
of the moralmorał statementssprawozdania I've heardsłyszał here at TEDTED.
130
359000
2000
twierdzeń moralnych, które słyszałem na TED.
06:19
The thirdtrzeci foundationfundacja is in-groupSławmy/loyaltylojalność.
131
361000
2000
Trzecią podstawą jest lojalność wewnątrzgrupowa.
06:21
You do find groupsgrupy in the animalzwierzę kingdomKrólestwo --
132
363000
2000
W królestwie zwierząt można znaleźć grupy oparte na współpracy
06:23
you do find cooperativeSpółdzielnia groupsgrupy --
133
365000
2000
W królestwie zwierząt można znaleźć grupy oparte na współpracy,
06:25
but these groupsgrupy are always eitherzarówno very smallmały or they're all siblingsrodzeństwo.
134
367000
3000
ale zawsze są one bardzo małe albo składające się tylko z rodzeństwa.
06:28
It's only amongpośród humansludzie that you find very largeduży groupsgrupy of people
135
370000
3000
Tylko wśród ludzi można znaleźć duże grupy,
06:31
who are ablezdolny to cooperatewspółpracy, joinprzyłączyć się togetherRazem into groupsgrupy,
136
373000
3000
które są w stanie współpracować, tworzyć wspólnoty...
06:34
but in this casewalizka, groupsgrupy that are unitedzjednoczony to fightwalka other groupsgrupy.
137
376000
4000
W tym wypadku, grupy zjednoczone, by walczyć z innymi grupami.
06:38
This probablyprawdopodobnie comespochodzi from our long historyhistoria of tribalplemienny livingżycie, of tribalplemienny psychologyPsychologia.
138
380000
4000
Jest to chyba pozostałość po życiu plemiennym, plemiennej psychologii,
06:42
And this tribalplemienny psychologyPsychologia is so deeplygłęboko pleasurablePrzyjemny
139
384000
2000
która jest tak głęboko zadowalająca,
06:44
that even when we don't have tribesplemiona,
140
386000
2000
że nawet mimo braku plemion
06:46
we go aheadprzed siebie and make them, because it's funzabawa.
141
388000
3000
staramy się je tworzyć, bo to fajne.
06:49
(LaughterŚmiech)
142
391000
3000
(Śmiech)
06:52
SportsSportowe is to warwojna as pornographyPornografia is to sexseks.
143
394000
3000
Sport ma się do wojny tak, jak pornografia do seksu.
06:55
We get to exercisećwiczenie some ancientstarożytny, ancientstarożytny drivesdyski.
144
397000
3000
Dzięki niemu możemy zaspokoić pradawne, odwieczne pragnienia.
06:58
The fourthczwarty foundationfundacja is authorityautorytet/respectPoszanowanie.
145
400000
3000
Czwartym filarem jest autorytet-szacunek.
07:01
Here you see submissiveuległe gesturesgesty from two membersczłonków of very closelydokładnie relatedzwiązane z speciesgatunki.
146
403000
3000
Widać oznaki hierarchicznej zależności przedstawicieli pokrewnych gatunków,
07:04
But authorityautorytet in humansludzie is not so closelydokładnie basedna podstawie on powermoc and brutalitybrutalność,
147
406000
4000
ale autorytet u ludzi nie jest tak ściśle związany z władzą i brutalnością,
07:08
as it is in other primatesnaczelne ssaki.
148
410000
2000
jak u innych ssaków naczelnych.
07:10
It's basedna podstawie on more voluntarydobrowolny deferencepoważanie,
149
412000
2000
Jego podstawą jest dobrowolny szacunek,
07:12
and even elementselementy of love, at timesczasy.
150
414000
2000
czasem nawet połączony z miłością.
07:14
The fifthpiąty foundationfundacja is purityczystość/sanctityświętość.
151
416000
2000
Piątym filarem jest czystość-świętość.
07:16
This paintingobraz is callednazywa "The AllegoryAlegoria Of ChastityCzystości,"
152
418000
3000
Ten obraz nazywa się "Alegoria Czystości",
07:19
but purity'sczystości w not just about suppressingPomijanie femalePłeć żeńska sexualityseksualność.
153
421000
3000
ale czystość nie polega tylko na tłumieniu kobiecej seksualności.
07:22
It's about any kinduprzejmy of ideologyideologii, any kinduprzejmy of ideapomysł
154
424000
3000
Odnosi się do każdej ideologii, każdej idei,
07:25
that tellsmówi you that you can attainosiągnięcia virtueCnota
155
427000
2000
która mówi, że można być bardziej cnotliwym
07:27
by controllingkontrolowanie what you do with your bodyciało,
156
429000
1000
dzięki kontroli tego, co się dzieje z ciałem i czym się je karmi.
07:28
by controllingkontrolowanie what you put into your bodyciało.
157
430000
2000
dzięki kontroli tego, co się dzieje z ciałem i czym się je karmi.
07:30
And while the politicalpolityczny right maymoże moralizemoralizować sexseks much more,
158
432000
4000
Podczas gdy prawica bardziej moralizuje seks,
07:34
the politicalpolityczny left is really doing a lot of it with foodjedzenie.
159
436000
2000
lewica robi to samo w stosunku do jedzenia.
07:36
FoodJedzenie is becomingtwarzowy extremelyniezwykle moralizedmoralized nowadaysdzisiaj,
160
438000
2000
Dziś jedzenie jest niesamowicie moralizowane,
07:38
and a lot of it is ideaspomysły about purityczystość,
161
440000
2000
tak jak i wiele idei na temat czystości,
07:40
about what you're willingskłonny to touchdotknąć, or put into your bodyciało.
162
442000
3000
tego, czego jesteśmy skłonni dotknąć lub czym się żywimy.
07:43
I believe these are the fivepięć bestNajlepiej candidatesKandydaci
163
445000
3000
Sądzę, że przedstawiłem pięciu najlepszych kandydatów
07:46
for what's writtenpisemny on the first draftwersja robocza of the moralmorał mindumysł.
164
448000
2000
na treść szkicu moralności umysłu.
07:48
I think this is what we come with, at leastnajmniej
165
450000
1000
Myślę, że zaczynamy co najmniej z gotowością uczenia się tych rzeczy.
07:49
a preparednessgotowość to learnuczyć się all of these things.
166
451000
3000
Myślę, że zaczynamy co najmniej z gotowością uczenia się tych rzeczy.
07:52
But as my sonsyn, MaxMax, growsrośnie up in a liberalliberalne collegeSzkoła Wyższa townmiasto,
167
454000
3000
Skoro mój syn Max dorasta w liberalnym miasteczku akademickim,
07:56
how is this first draftwersja robocza going to get revisedpoprawione?
168
458000
2000
to w jaki sposób jego szkic zostanie zmieniony?
07:58
And how will it endkoniec up beingistota differentróżne
169
460000
2000
W jaki sposób stanie się inny od tego,
08:00
from a kiddziecko bornurodzony 60 milesmile southpołudnie of us in LynchburgLynchburg, VirginiaVirginia?
170
462000
3000
który ma dziecko urodzone 60 mil na południe od Lynchburga w Wirginii?
08:03
To think about culturekultura variationzmienność, let's try a differentróżne metaphormetafora.
171
465000
2000
By zrozumieć wariacje kulturowe, przyjrzyjmy się innej metaforze.
08:05
If there really are fivepięć systemssystemy at work in the mindumysł --
172
467000
3000
Jeśli naprawdę w umyśle istnieje pięć systemów -
08:08
fivepięć sourcesźródła of intuitionsintuicje and emotionsemocje --
173
470000
2000
pięć źródeł intuicji i emocji -
08:10
then we can think of the moralmorał mindumysł
174
472000
2000
to o moralnym umyśle możemy myśleć
08:12
as beingistota like one of those audioaudio equalizerskorektory that has fivepięć channelskanały,
175
474000
2000
jak o pięciokanałowym korektorze dźwięku,
08:14
where you can setzestaw it to a differentróżne settingoprawa on everykażdy channelkanał.
176
476000
2000
gdzie dla każdego kanału można wprowadzić inne ustawienie.
08:16
And my colleagueskoledzy, BrianBrian NosekNosek and JesseJesse GrahamGraham, and I,
177
478000
3000
Ja i moi współpracownicy, Brian Nosek i Jesse Graham
08:19
madezrobiony a questionnairekwestionariusz, whichktóry we put up on the WebSieci Web at wwwwww.YourMoralsYourMorals.orgorg.
178
481000
5000
stworzyliśmy kwestionariusz - jest w sieci na www.YourMorals.org
08:24
And so fardaleko, 30,000 people have takenwzięty this questionnairekwestionariusz, and you can too.
179
486000
5000
Jak dotąd, wypełniło go 30.000 osób - możecie i wy.
08:29
Here are the resultswyniki.
180
491000
1000
A to są wyniki.
08:30
Here are the resultswyniki from about 23,000 AmericanAmerykański citizensobywatele.
181
492000
3000
Te pochodzą od około 23.000 obywateli amerykańskich.
08:33
On the left, I've plottedkreślone the scoreswyniki for liberalsLiberałowie;
182
495000
2000
Po lewej stronie wykreśliłem wyniki dla liberałów,
08:35
on the right, those for conservativesKonserwatyści; in the middleśrodkowy, the moderatesumiarkowani.
183
497000
2000
a po prawej dla konserwatystów, w środku dla centrum.
08:37
The blueniebieski linelinia showsprzedstawia you people'sludzie responsesodpowiedzi
184
499000
2000
Niebieska linia pokazuje średnią odpowiedzi
08:39
on the averageśredni of all the harmszkoda questionspytania.
185
501000
2000
na pytania dotyczące krzywdy.
08:41
So, as you see, people careopieka about harmszkoda and careopieka issuesproblemy.
186
503000
3000
Jak widać, ludzie przejmują się sprawami krzywdy i opieki.
08:44
They give highwysoki endorsementindos of these sortssortuje of statementssprawozdania
187
506000
2000
Na tego rodzaju pytania odpowiadają z pełnym poparciem,
08:46
all acrossprzez the boardtablica, but as you alsorównież see,
188
508000
2000
i to wszyscy, ale jak też widać,
08:48
liberalsLiberałowie careopieka about it a little more than conservativesKonserwatyści -- the linelinia slopesstoki down.
189
510000
3000
liberałowie przejmują się nimi bardziej niż konserwatyści, linia jest pochyła.
08:51
SameTym samym storyfabuła for fairnessuczciwość.
190
513000
2000
Podobnie rzecz się ma ze sprawiedliwością.
08:53
But look at the other threetrzy lineskwestia.
191
515000
2000
Ale spójrzmy na pozostałe trzy linie,
08:55
For liberalsLiberałowie, the scoreswyniki are very lowNiska.
192
517000
2000
dla liberałów wyniki są bardzo niskie.
08:57
LiberalsLiberałowie are basicallygruntownie sayingpowiedzenie, "No, this is not moralitymoralność.
193
519000
2000
Liberałowie mówią "Nie, to nie jest moralność.
08:59
In-groupSławmy, authorityautorytet, purityczystość -- this stuffrzeczy has nothing to do with moralitymoralność. I rejectodrzucić it."
194
521000
3000
Autorytety, czystość... Nie mają nic wspólnego z moralnością. Odrzucam je."
09:02
But as people get more conservativekonserwatywny, the valueswartości risewzrost.
195
524000
2000
Wartości rosną wraz ze stopniem konserwatyzmu.
09:04
We can say that liberalsLiberałowie have a kinduprzejmy of a two-channel2 kanałowy,
196
526000
3000
Liberałowie opierają się na dwukanałowej,
09:07
or two-foundationdwa Fundacja moralitymoralność.
197
529000
1000
dwubazowej moralności.
09:08
ConservativesKonserwatyści have more of a five-foundationpięć Fundacja,
198
530000
2000
Konserwatyści na pięciobazowej
09:10
or five-channel5 kanałowy moralitymoralność.
199
532000
2000
albo pięciokanałowej moralności.
09:12
We find this in everykażdy countrykraj we look at.
200
534000
1000
Tak jest dla każdego badanego kraju.
09:13
Here'sTutaj jest the datadane for 1,100 CanadiansKanadyjczycy.
201
535000
2000
To są dane dla 1100 Kanadyjczyków.
09:15
I'll just fliptrzepnięcie throughprzez a fewkilka other slidesslajdy.
202
537000
2000
Szybko pokażę też kilka innych slajdów.
09:17
The U.K., AustraliaAustralia, NewNowy ZealandZelandia, WesternWestern EuropeEuropy, EasternWschodniej EuropeEuropy,
203
539000
3000
Wielka Brytania, Australia, Nowa Zelandia, Europa Zachodnia i Wschodnia,
09:20
LatinŁaciński AmericaAmeryka, the MiddleŚrodkowy EastWschód, EastWschód AsiaAsia and SouthPołudniowa AsiaAsia.
204
542000
4000
Ameryka Łacińska, Bliski Wschód, Wschodnia Azja, Południowa Azja.
09:24
NoticePowiadomienia alsorównież that on all of these graphswykresy,
205
546000
2000
Zauważcie, że na wszystkich wykresach
09:26
the slopenachylenie is steeperstroma on in-groupSławmy, authorityautorytet, purityczystość.
206
548000
3000
nachylenie jest większe dla grup, autorytetów, czystości.
09:29
WhichCo showsprzedstawia that withinw ciągu any countrykraj,
207
551000
2000
Co pokazuje, że wewnątrz każdego kraju
09:31
the disagreementnieporozumienia isn't over harmszkoda and fairnessuczciwość.
208
553000
3000
różnica zdań nie dotyczy krzywdy i sprawiedliwości.
09:34
EverybodyKażdy -- I mean, we debatedebata over what's fairtargi --
209
556000
2000
Nadal dyskutujemy o tym, co jest sprawiedliwe,
09:36
but everybodywszyscy agreeszgadza się that harmszkoda and fairnessuczciwość mattermateria.
210
558000
3000
ale wszyscy się zgadzają, że krzywda i sprawiedliwość są istotne.
09:39
MoralMoralne argumentsargumenty withinw ciągu cultureskultury
211
561000
2000
Wewnątrzkulturowe dysputy moralne
09:41
are especiallyszczególnie about issuesproblemy of in-groupSławmy, authorityautorytet, purityczystość.
212
563000
3000
występują przy tematach grup, autorytetów i czystości.
09:44
This effectefekt is so robustkrzepki that we find it no mattermateria how we askzapytać the questionpytanie.
213
566000
3000
Efekt jest tak znaczny, że widać go niezależnie od zadanego pytania.
09:47
In one recentniedawny studybadanie,
214
569000
2000
W niedawnym opracowaniu
09:49
we askedspytał people to supposeprzypuszczać you're about to get a dogpies.
215
571000
2000
poprosiliśmy ludzi, by wyobrazili sobie, że dostaną psa.
09:51
You pickeddoborowy a particularszczególny breedrasa,
216
573000
1000
Wybierali konkretną rasę psów
09:52
you learnednauczyli some newNowy informationInformacja about the breedrasa.
217
574000
2000
i dowiadywali się nowych informacji na jej temat.
09:54
SupposeZałóżmy, że you learnuczyć się that this particularszczególny breedrasa is independent-mindedniezależnych poglądach,
218
576000
3000
Załózmy, że dowiedzieli się, że ta rasa jest niezależna
09:57
and relatesdotyczy to its ownerwłaściciel as a friendprzyjaciel and an equalrówny?
219
579000
2000
i postrzega swojego właściciela jako przyjaciela równego sobie?
09:59
Well, if you are a liberalliberalne, you say, "Hey, that's great!"
220
581000
2000
Jeśli jesteś liberałem, mówisz: "Hej! To super!",
10:01
Because liberalsLiberałowie like to say, "FetchFetch, please."
221
583000
2000
bo liberałowie lubią mówić "Aport, proszę."
10:03
(LaughterŚmiech)
222
585000
4000
(Śmiech)
10:08
But if you're conservativekonserwatywny, that's not so attractiveatrakcyjny.
223
590000
3000
Ale jeśli jesteś konserwatystą, to już nie jest tak atrakcyjne.
10:11
If you're conservativekonserwatywny, and you learnuczyć się that a dog'spsa extremelyniezwykle loyalwierny
224
593000
3000
Jeśli konserwatysta się dowie, że pies jest bardzo lojalny
10:14
to its home and familyrodzina, and doesn't warmciepły up quicklyszybko to strangersobcy,
225
596000
2000
w stosunku do domu i rodziny, i nie ufa nieznajomym -
10:16
for conservativesKonserwatyści, well, loyaltylojalność is good -- dogspsy oughtpowinni to be loyalwierny.
226
598000
3000
dla konserwatystów lojalność jest dobra; pies powinien być lojalny.
10:19
But to a liberalliberalne, it soundsDźwięki like this dogpies
227
601000
2000
Ale dla liberałów brzmi to jakby ten pies był republikaninem.
10:21
is runningbieganie for the RepublicanRepublikański nominationnominację.
228
603000
2000
Ale dla liberałów brzmi to jakby ten pies był republikaninem.
10:23
(LaughterŚmiech)
229
605000
1000
(Śmiech)
10:24
So, you mightmoc say, OK,
230
606000
2000
Można powiedzieć, OK,
10:26
there are these differencesróżnice betweenpomiędzy liberalsLiberałowie and conservativesKonserwatyści,
231
608000
2000
więc są różnice między liberałami i konserwatystami,
10:28
but what makesczyni those threetrzy other foundationsfundamenty moralmorał?
232
610000
2000
ale co sprawia, że te trzy inne filary są moralne?
10:30
Aren'tNie są those just the foundationsfundamenty of xenophobiaksenofobia
233
612000
2000
Czy nie są one filarami ksenofobii,
10:32
and authoritarianismautorytaryzm and PuritanismPurytanizmu?
234
614000
2000
autokratyzmu i purytanizmu? Co sprawia, że są moralne?
10:34
What makesczyni them moralmorał?
235
616000
1000
autokratyzmu i purytanizmu? Co sprawia, że są moralne?
10:35
The answerodpowiedź, I think, is containedzawarte in this incredibleniesamowite triptychTryptyk from HieronymusHieronim BoschBosch,
236
617000
3000
Odpowiedź jest zawarta w tym niesamowitym tryptyku Hieronima Boscha
10:38
"The GardenOgród of EarthlyZiemskie DelightsPrzysmaki."
237
620000
2000
"Ogród Ziemskich Rozkoszy"
10:40
In the first panelpłyta, we see the momentza chwilę of creationkreacja.
238
622000
3000
Na pierwszym panelu widać moment stworzenia.
10:43
All is orderedzamówione, all is beautifulpiękny, all the people and animalszwierzęta
239
625000
4000
Wszystko jest uporządkowane, piękne, ludzie i zwierzęta
10:47
are doing what they're supposeddomniemany to be doing, where they're supposeddomniemany to be.
240
629000
3000
robią to, co powinni i są tam, gdzie powinni być.
10:50
But then, givendany the way of the worldświat, things changezmiana.
241
632000
3000
Potem, tak jak to już jest ze światem, coś się zmienia.
10:53
We get everykażdy personosoba doing whatevercokolwiek he wants,
242
635000
2000
Wszyscy zaczynają robić, co tylko chcą,
10:55
with everykażdy apertureotwór of everykażdy other personosoba and everykażdy other animalzwierzę.
243
637000
3000
z każdą szparą innych ludzi lub zwierząt.
10:58
Some of you mightmoc recognizerozpoznać this as the '60s.
244
640000
2000
Niektórzy z was rozpoznają to jako lata 60.
11:00
(LaughterŚmiech)
245
642000
1000
(Śmiech)
11:01
But the '60s inevitablynieuchronnie givesdaje way to the '70s,
246
643000
4000
Ale lata 60. ustępują latom 70.,
11:05
where the cuttingsSadzonki of the aperturesotwory hurtból a little bitkawałek more.
247
647000
4000
kiedy to rozczłonkowanie boli trochę bardziej.
11:09
Of coursekurs, BoschBosch callednazywa this hellpiekło.
248
651000
2000
Oczywiście dla Boscha to było Piekło.
11:11
So this triptychTryptyk, these threetrzy panelspanele
249
653000
3000
Więc ten tryptyk, te trzy panele,
11:14
portrayprzedstawiać the timelessponadczasowy truthprawda that orderzamówienie tendsdąży to decayPróchnica.
250
656000
5000
pokazują odwieczą prawdę o tym, że porządek ustępuje chaosowi
11:19
The truthprawda of socialspołeczny entropyentropii.
251
661000
2000
Prawdę społecznej entropii.
11:21
But lestzeby nie you think this is just some partczęść of the ChristianChrześcijańskie imaginationwyobraźnia
252
663000
3000
Jeśli sądzicie, że to tylko część chrześcijańskiej wizji świata,
11:24
where ChristiansChrześcijanie have this weirddziwne problemproblem with pleasureprzyjemność,
253
666000
2000
bo Chrześcijanie mają dziwny problem z przyjemnościami,
11:26
here'soto jest the samepodobnie storyfabuła, the samepodobnie progressionpostęp,
254
668000
3000
to przedstawię tę samą historię, to samo następstwo
11:29
told in a paperpapier that was publishedopublikowany in NatureNatura a fewkilka yearslat agotemu,
255
671000
3000
opowiedziane w pracy opublikowanej kilka lat temu przez '"Nature".
11:32
in whichktóry ErnstErnst FehrFehr and SimonSimon GachterGachter had people playgrać a commonslud dilemmadylemat.
256
674000
4000
Ernst Fehr i Simon Gachter obserwowali ludzi grających w dylemat dobra ogółu.
11:36
A gamegra in whichktóry you give people moneypieniądze,
257
678000
2000
Grę w której daje się graczom pieniądze,
11:38
and then, on eachkażdy roundokrągły of the gamegra,
258
680000
2000
a podczas każdej tury
11:40
they can put moneypieniądze into a commonpospolity potgarnek,
259
682000
2000
mogą oni dać pieniądze do wspólnej puli,
11:42
and then the experimentereksperymentator doublesdebel what's in there,
260
684000
2000
i eksperymentator podwaja to, co tam jest,
11:44
and then it's all dividedpodzielony amongpośród the playersgracze.
261
686000
2000
a potem wszystko dzieli po równo między graczy.
11:46
So it's a really nicemiły analoganalog for all sortssortuje of environmentalśrodowiskowy issuesproblemy,
262
688000
3000
To dobra analogia dla wszystkich kwestii środowiskowych,
11:49
where we're askingpytając people to make a sacrificepoświęcać się
263
691000
2000
gdy prosimy ludzi o poświęcenie,
11:51
and they themselvessami don't really benefitzasiłek from theirich ownwłasny sacrificepoświęcać się.
264
693000
2000
a oni nic na własnym poświęceniu nie zyskują.
11:53
But you really want everybodywszyscy elsejeszcze to sacrificepoświęcać się,
265
695000
2000
Naprawdę chce się, by wszyscy inni się poświęcali,
11:55
but everybodywszyscy has a temptationpokusa to a freewolny ridejazda.
266
697000
2000
ale każdy ma ochotę przejechać się za darmo.
11:57
And what happensdzieje się is that, at first, people startpoczątek off reasonablyracjonalnie cooperativeSpółdzielnia --
267
699000
4000
Na początku ludzie współpracują -
12:01
and this is all playedgrał anonymouslyanonimowo.
268
703000
2000
gra jest anonimowa -
12:03
On the first roundokrągły, people give about halfpół of the moneypieniądze that they can.
269
705000
3000
podczas pierwszej tury, ludzie dają około połowy pieniędzy.
12:06
But they quicklyszybko see, "You know what, other people aren'tnie są doing so much thoughchociaż.
270
708000
3000
Ale szybko zauważają, "Wiesz co, inni nie robią tak dużo, jak ja,
12:09
I don't want to be a suckerŻółtodziób. I'm not going to cooperatewspółpracy."
271
711000
2000
nie chcę być frajerem. Nie będę współpracować."
12:11
And so cooperationwspółpraca quicklyszybko decaysrozpady from reasonablyracjonalnie good, down to closeblisko to zerozero.
272
713000
4000
I współpraca szybko spada z całkiem niezłej do prawie zerowej.
12:15
But then -- and here'soto jest the tricksztuczka --
273
717000
2000
Ale wtedy - i to jest sedno -
12:17
FehrFehr and GachterGachter said, on the seventhsiódmy roundokrągły, they told people,
274
719000
2000
Fehr i Gachter powiedzieli podczas siódmej tury:
12:19
"You know what? NewNowy rulereguła.
275
721000
2000
"Wiecie co? Jest nowa zasada.
12:21
If you want to give some of your ownwłasny moneypieniądze
276
723000
2000
Możecie przeznaczyć część swoich pieniędzy, by ukarać tych, którzy nie współpracują.
12:23
to punishkarać people who aren'tnie są contributingprzyczynianie się, you can do that."
277
725000
4000
Możecie przeznaczyć część swoich pieniędzy, by ukarać tych, którzy nie współpracują.
12:27
And as soonwkrótce as people heardsłyszał about the punishmentkara issuekwestia going on,
278
729000
3000
Jak wszyscy dowiedzieli się o karach,
12:30
cooperationwspółpraca shootsstrzela up.
279
732000
2000
współpraca szybko wzrosła.
12:32
It shootsstrzela up and it keepstrzyma going up.
280
734000
2000
Wzrosła i utrzymała tendencję wzrostową.
12:34
There's a lot of researchBadania showingseans that to solverozwiązać cooperativeSpółdzielnia problemsproblemy, it really helpspomaga.
281
736000
3000
Wiele badań potwierdza, że kara pobudza współpracę.
12:37
It's not enoughdość to just appealapel to people'sludzie good motivesmotywy.
282
739000
2000
Nie wystarczy odwoływać się do dobrych pobudek,
12:39
It really helpspomaga to have some sortsortować of punishmentkara.
283
741000
2000
system kar naprawdę pomaga.
12:41
Even if it's just shamewstyd or embarrassmentzakłopotanie or gossipplotka,
284
743000
2000
Nawet jeśli to tylko wstyd, zakłopotanie lub plotki,
12:43
you need some sortsortować of punishmentkara to bringprzynieść people,
285
745000
3000
kara jest potrzebna, by zmusić duże grupy ludzi do współpracy.
12:46
when they're in largeduży groupsgrupy, to cooperatewspółpracy.
286
748000
2000
kara jest potrzebna, by zmusić duże grupy ludzi do współpracy.
12:48
There's even some recentniedawny researchBadania suggestingsugestia that religionreligia --
287
750000
3000
Istnieją nawet badania dowodzące, że religia -
12:51
priminggruntowanie God, makingzrobienie people think about God --
288
753000
2000
- głównie Bóg, sprawianie, by ludzie myśleli o Bogu -
12:53
oftenczęsto, in some situationssytuacje, leadswskazówki to more cooperativeSpółdzielnia, more pro-socialPro-społeczne behaviorzachowanie.
289
755000
5000
w pewnych sytuacjach promuje zachowania kooperatywne i pro-społeczne.
12:59
Some people think that religionreligia is an adaptationdostosowanie
290
761000
2000
Niektórzy myślą, że religia jest adaptacją
13:01
evolvedewoluował bothobie by culturalkulturalny and biologicalbiologiczny evolutionewolucja
291
763000
2000
powstałą dzięki kulturowej i biologicznej ewolucji
13:03
to make groupsgrupy to coherestają się spójne,
292
765000
2000
w celu zwiększenia spójności grup
13:05
in partczęść for the purposecel, powód of trustingufając eachkażdy other,
293
767000
2000
po części, by ludzie sobie ufali
13:07
and then beingistota more effectiveefektywny at competingkonkurowanie with other groupsgrupy.
294
769000
2000
i żeby byli lepiej przystosowani do współzawodnictwa.
13:09
I think that's probablyprawdopodobnie right,
295
771000
1000
Pewnie tak było, ale to jest kontrowersyjny temat.
13:10
althoughmimo że this is a controversialkontrowersyjny issuekwestia.
296
772000
2000
Pewnie tak było, ale to jest kontrowersyjny temat.
13:12
But I'm particularlyszczególnie interestedzainteresowany in religionreligia,
297
774000
2000
Jestem szczególnie zainteresowany religią,
13:14
and the originpochodzenie of religionreligia, and in what it does to us and for us.
298
776000
3000
początkami religii i tym, co ona robi z nami i dla nas.
13:17
Because I think that the greatestnajwiększy wondercud in the worldświat is not the GrandGrand CanyonKanion.
299
779000
4000
Sądzę, że najwspanialszym cudem świata nie jest Wielki Kanion.
13:21
The GrandGrand CanyonKanion is really simpleprosty.
300
783000
2000
Wielki Kanion jest naprawdę prosty.
13:23
It's just a lot of rockskała, and then a lot of waterwoda and windwiatr, and a lot of time,
301
785000
3000
Potrzebne jest tylko dużo skał, wody, wiatru i czasu,
13:26
and you get the GrandGrand CanyonKanion.
302
788000
2000
i mamy Wielki Kanion.
13:28
It's not that complicatedskomplikowane.
303
790000
1000
Nie tak skomplikowane. Skomplikowane jest to,
13:29
This is what's really complicatedskomplikowane,
304
791000
2000
Nie tak skomplikowane. Skomplikowane jest to,
13:31
that there were people livingżycie in placesmiejsca like the GrandGrand CanyonKanion,
305
793000
2000
że ludzie żyją w miejscach takich, jak Wielki Kanion
13:33
cooperatingwspółpracujących with eachkażdy other, or on the savannahssawanny of AfricaAfryka,
306
795000
2000
współpracując ze sobą, albo na Afrykańskich sawannach,
13:35
or on the frozenmrożony shoresbrzegi of AlaskaAlaska, and then some of these villageswioski
307
797000
3000
albo zamarzniętych wybrzeżach Alaski, a niektóre z takich wiosek
13:38
grewrósł into the mightyMighty citiesmiasta of BabylonBabilon, and RomeRome, and TenochtitlanTenochtitlan.
308
800000
4000
wyrosły na wielkie miasta, takie jak Babilon, Rzym czy Tenochtitlan.
13:42
How did this happenzdarzyć?
309
804000
1000
Jak to się stało?
13:43
This is an absoluteabsolutny miraclecud, much hardertrudniejsze to explainwyjaśniać than the GrandGrand CanyonKanion.
310
805000
3000
To jest właśnie cud, znacznie trudniejszy do wyjaśnienia, niż Wielki Kanion.
13:46
The answerodpowiedź, I think, is that they used everykażdy toolnarzędzie in the toolboxzestaw narzędzi.
311
808000
3000
Odpowiedzią jest to, że użyli oni każdego danego im narzędzia.
13:49
It tookwziął all of our moralmorał psychologyPsychologia
312
811000
2000
Wymagało to całej psychologii moralności,
13:51
to createStwórz these cooperativeSpółdzielnia groupsgrupy.
313
813000
2000
by móc stworzyć grupy oparte na współpracy
13:53
Yes, you do need to be concernedzaniepokojony about harmszkoda,
314
815000
2000
Tak, należy się przejmować krzywdą,
13:55
you do need a psychologyPsychologia of justicesprawiedliwość.
315
817000
1000
psychologia sprawiedliwości jest potrzebna.
13:56
But it really helpspomaga to organizezorganizować a groupGrupa if you can have sub-groupspodgrupy,
316
818000
3000
Ale tworzenie podgrup pomaga w organizacji większych grup,
13:59
and if those sub-groupspodgrupy have some internalwewnętrzny structureStruktura,
317
821000
3000
jeśli te podgrupy mają wewnętrzną strukturę
14:02
and if you have some ideologyideologii that tellsmówi people
318
824000
2000
i jeśli istnieje ideologia, która mówi ludziom,
14:04
to suppressstłumić theirich carnalitycielesność, to pursuekontynuować higherwyższy, noblerszlachetniejsze endskończy się.
319
826000
4000
by poskramiali swoją cielesność, dążyli do szlachetnych celów.
14:08
And now we get to the cruxCrux of the disagreementnieporozumienia
320
830000
2000
Teraz docieramy do sedna niezgody
14:10
betweenpomiędzy liberalsLiberałowie and conservativesKonserwatyści.
321
832000
2000
między liberałami a konserwatystami.
14:12
Because liberalsLiberałowie rejectodrzucić threetrzy of these foundationsfundamenty.
322
834000
2000
Ponieważ liberałowie odrzucają trzy z tych filarów.
14:14
They say "No, let's celebrateświętować diversityróżnorodność, not commonpospolity in-groupSławmy membershipczłonkostwo."
323
836000
3000
Mówią "Sławmy różnorodność, a nie pospolitą przynależność do grup."
14:17
They say, "Let's questionpytanie authorityautorytet."
324
839000
2000
Mówią, "Nie wierzmy autorytetom."
14:19
And they say, "Keep your lawsprawa off my bodyciało."
325
841000
2000
I "Trzymajcie swoje prawa z dala od mojego ciała."
14:21
LiberalsLiberałowie have very nobleszlachetny motivesmotywy for doing this.
326
843000
3000
Liberałowie kierują się szlachetnymi pobudkami.
14:24
TraditionalTradycyjne authorityautorytet, traditionaltradycyjny moralitymoralność can be quitecałkiem repressiverepresyjny,
327
846000
3000
Tradycyjne autorytet i moralność mogą być bardzo represyjne
14:27
and restrictiverestrykcyjne to those at the bottomDolny, to womenkobiety, to people that don't fitdopasowanie in.
328
849000
3000
i restrykcyjne dla tych na dole, dla kobiet, dla niedostosowanych.
14:30
So liberalsLiberałowie speakmówić for the weaksłaby and oppresseduciśnionych.
329
852000
2000
Liberałowie opowiadają się za słabymi i uciskanymi.
14:32
They want changezmiana and justicesprawiedliwość, even at the riskryzyko of chaoschaos.
330
854000
2000
Pragną zmian i sprawiedliwości, nawet za cenę chaosu.
14:34
This guy'sfaceta shirtkoszula saysmówi, "Stop bitchingskarżenie się, startpoczątek a revolutionrewolucja."
331
856000
3000
Koszulka tego mężczyzny mówi, "Skończcie z narzekaniem, czas na rewolucję."
14:37
If you're highwysoki in opennessotwartość to experiencedoświadczenie, revolutionrewolucja is good,
332
859000
2000
Dla tych wysoko w skali otwartości na doświadczenia, rewolucja jest dobra.
14:39
it's changezmiana, it's funzabawa.
333
861000
2000
To zmiany, to zabawa.
14:41
ConservativesKonserwatyści, on the other handdłoń, speakmówić for institutionsinstytucje and traditionstradycje.
334
863000
3000
Z drugiej strony, konserwatyści opowiadają się za instytucjami i tradycjami.
14:44
They want orderzamówienie, even at some costkoszt to those at the bottomDolny.
335
866000
4000
Chcą porządku, nawet jeśli ci na dole muszą zapłacić cenę.
14:48
The great conservativekonserwatywny insightwgląd is that orderzamówienie is really hardciężko to achieveosiągać.
336
870000
2000
Konserwatyści dobrze wiedzą, że porządek trudno osiągnąć.
14:50
It's really preciouscenny, and it's really easyłatwo to losestracić.
337
872000
3000
Jest bardzo cenny i łatwo go stracić.
14:53
So as EdmundEdmund BurkeBurke said, "The restraintsumocowania on menmężczyźni,
338
875000
2000
Jak powiedział Edmund Burke, "Ograniczenia ludzi,
14:55
as well as theirich libertieswolności, are to be reckonedliczyć amongpośród theirich rightsprawa."
339
877000
3000
tak jak i ich wolności, powinny być postrzegane jako ich prawa."
14:58
This was after the chaoschaos of the FrenchFrancuski RevolutionRewolucja.
340
880000
2000
To było tuż po chaosie Rewolucji Francuskiej.
15:00
So oncepewnego razu you see this -- oncepewnego razu you see
341
882000
2000
Kiedy dostrzeże się, że i liberałowie, i konserwatyści mają coś do zaoferowania,
15:02
that liberalsLiberałowie and conservativesKonserwatyści bothobie have something to contributeprzyczynić się,
342
884000
3000
Kiedy dostrzeże się, że i liberałowie, i konserwatyści mają coś do zaoferowania,
15:05
that they formformularz a balancesaldo on changezmiana versusprzeciw stabilitystabilność --
343
887000
3000
że tworzą równowagę między zmianami a trwałością,
15:08
then I think the way is openotwarty to stepkrok outsidena zewnątrz the moralmorał matrixMacierz.
344
890000
3000
wtedy droga do wyjścia z moralnego matriksu stoi otworem.
15:11
This is the great insightwgląd that all the AsianAzjatycki religionsreligie have attainedosiągnięte.
345
893000
5000
To jest cenne spostrzeżenie, dzielone przez wszystkie Azjatyckie religie.
15:16
Think about yinYin and yangYang.
346
898000
2000
Pomyślcie on Yin i Yang.
15:18
YinYin and yangYang aren'tnie są enemieswrogowie. YinYin and yangYang don't hatenienawidzić eachkażdy other.
347
900000
2000
Yin i Yang nie są wrogami. Nie pałają do siebie nienawiścią.
15:20
YinYin and yangYang are bothobie necessaryniezbędny, like night and day,
348
902000
2000
Yin i Yang są potrzebne, jak dzień i noc,
15:22
for the functioningfunkcjonowanie of the worldświat.
349
904000
2000
dla funkcjonowania świata.
15:24
You find the samepodobnie thing in HinduismHinduizm.
350
906000
2000
To samo można znaleźć w Hinduizmie.
15:26
There are manywiele highwysoki godsbogowie in HinduismHinduizm.
351
908000
2000
W Hinduizmie istnieje wielu wyższych bogów.
15:28
Two of them are VishnuWisznu, the preserverobrońcy, and ShivaShiva, the destroyerniszczyciel.
352
910000
3000
Dwóch z nich to Vishnu - obrońca i Shiva - niszczyciel.
15:31
This imageobraz actuallytak właściwie is bothobie of those godsbogowie sharingdzielenie się the samepodobnie bodyciało.
353
913000
3000
To zdjęcie pokazuje, że obydwaj bogowie są w tym samym ciele.
15:34
You have the markingsoznaczenia of VishnuWisznu on the left,
354
916000
2000
Po lewej widać znaki Vishnu,
15:36
so we could think of VishnuWisznu as the conservativekonserwatywny god.
355
918000
3000
możemy myśleć o nim jako o konserwatywnym bogu.
15:39
You have the markingsoznaczenia of ShivaShiva on the right,
356
921000
2000
Znaki Shivy są po prawej,
15:41
Shiva'sShiva's the liberalliberalne god. And they work togetherRazem.
357
923000
2000
Shiva to bóg liberalny - oni współpracują.
15:43
You find the samepodobnie thing in BuddhismBuddyzm.
358
925000
2000
To samo można znaleźć w Buddyzmie.
15:45
These two stanzasStrofy containzawierać, I think, the deepestnajgłębszy insightswgląd
359
927000
2000
Te dwie zwrotki zawierają najważniejsze spostrzeżenia
15:47
that have ever been attainedosiągnięte into moralmorał psychologyPsychologia.
360
929000
3000
kiedykolwiek osiągnięte w psychologii moralności.
15:50
From the ZenZen mastermistrz Seng-ts'anSeng ts'ana:
361
932000
2000
Pochodzą od mistrza Zen Seng-ts'ana:
15:52
"If you want the truthprawda to standstoisko clearjasny before you, never be for or againstprzeciwko.
362
934000
4000
"Jeśli chcesz, by prawda ci się objawiła, nigdy nie bądź za lub przeciw,
15:56
The struggleborykać się betweenpomiędzy for and againstprzeciwko is the mind'sumysłu worstnajgorszy diseasechoroba."
363
938000
4000
wojna między za i przeciw jest najgorszą chorobą umysłu."
16:00
Now unfortunatelyNiestety, it's a diseasechoroba
364
942000
2000
Niestety, jest chorobą, którą zarażona jest większość światowych przywódców.
16:02
that has been caughtzłapany by manywiele of the world'srecyrodycyjstwo diecystwo recyrodycyjstwo diecystwo recy sektorcy leadersprzywódcy.
365
944000
2000
Niestety, jest chorobą, którą zarażona jest większość światowych przywódców.
16:04
But before you feel superiorlepszy to GeorgeGeorge BushBush,
366
946000
3000
Ale zanim poczujecie się lepsi od George'a Busha,
16:07
before you throwrzucać a stonekamień, askzapytać yourselfsiebie, do you acceptzaakceptować this?
367
949000
4000
zanim rzucicie kamieniem, spytajcie siebie: czy wy to akceptujecie?
16:11
Do you acceptzaakceptować steppingwzmocnienie out of the battlebitwa of good and evilzło?
368
953000
3000
Czy akceptujecie zrezygnowanie z walki między dobrem a złem?
16:14
Can you be not for or againstprzeciwko anything?
369
956000
3000
Czy możecie nie być za lub przeciw?
16:18
So, what's the pointpunkt? What should you do?
370
960000
3000
Więc o co chodzi? Co powinniście zrobić?
16:21
Well, if you take the greatestnajwiększy insightswgląd
371
963000
2000
Jeśli zbierzecie najważniejsze spostrzeżenia
16:23
from ancientstarożytny AsianAzjatycki philosophiesfilozofie and religionsreligie,
372
965000
2000
z antycznych religii i filozofii Azji
16:25
and you combinepołączyć them with the latestnajnowszy researchBadania on moralmorał psychologyPsychologia,
373
967000
2000
i połączycie je z najnowszymi badaniami psychologii moralności,
16:27
I think you come to these conclusionswnioski:
374
969000
2000
myślę, że dojdziecie do tych wniosków:
16:29
that our righteoussprawiedliwy mindsumysły were designedzaprojektowany by evolutionewolucja
375
971000
4000
nasze sprawiedliwe umysły były zaprojektowane przez ewolucję,
16:33
to unitezjednoczyć us into teamszespoły, to dividepodzielić us againstprzeciwko other teamszespoły
376
975000
3000
by zjednoczyć nas w drużyny, by nastawić nas przeciwko innym
16:36
and then to blindślepy us to the truthprawda.
377
978000
2000
i by zaślepić nas na prawdę.
16:39
So what should you do? Am I tellingwymowny you to not strivedążyć?
378
981000
4000
Co powinniście zrobić? Czy mówię wam, byście nie walczyli?
16:43
Am I tellingwymowny you to embraceuścisk Seng-ts'anSeng ts'ana and stop,
379
985000
3000
Czy mówię, byście żyli według reguł Seng-ts'ana
16:46
stop with this struggleborykać się of for and againstprzeciwko?
380
988000
3000
i zarzucili walkę za lub przeciw?
16:49
No, absolutelyabsolutnie not. I'm not sayingpowiedzenie that.
381
991000
2000
Nie, zdecydowanie tak nie twierdzę.
16:51
This is an amazingniesamowity groupGrupa of people who are doing so much,
382
993000
3000
Jesteście niesamowitą grupą ludzi, którzy robią tak wiele,
16:54
usingza pomocą so much of theirich talenttalent, theirich brillianceblask, theirich energyenergia, theirich moneypieniądze,
383
996000
4000
używają swoich talentów, błyskotliwości, energii, pieniędzy
16:58
to make the worldświat a better placemiejsce, to fightwalka --
384
1000000
2000
by sprawić, żeby świat stał się lepszy,
17:00
to fightwalka wrongskrzywdy, to solverozwiązać problemsproblemy.
385
1002000
3000
by walczyć z krzywdami, by rozwiązywać problemy.
17:04
But as we learnednauczyli from SamanthaSamantha PowerZasilania, in her storyfabuła
386
1006000
4000
Jak nauczyliśmy się z historii Samanthy Power
17:08
about SergioSergio VieiraVieira dede MelloMello, you can't just go chargingładowanie in,
387
1010000
5000
opowiadającej o Sergio Vieira de Mello, nie można tylko szarżować
17:13
sayingpowiedzenie, "You're wrongźle, and I'm right."
388
1015000
2000
mówiąc: "Ty się mylisz, a ja mam rację."
17:15
Because, as we just heardsłyszał, everybodywszyscy thinksmyśli they are right.
389
1017000
4000
Bo, jak słyszeliśmy, wszyscy myślą, że mają rację.
17:19
A lot of the problemsproblemy we have to solverozwiązać
390
1021000
2000
Wiele rozwiązań problemów
17:21
are problemsproblemy that requirewymagać us to changezmiana other people.
391
1023000
3000
polega na zmienianiu innych ludzi.
17:24
And if you want to changezmiana other people, a much better way to do it
392
1026000
3000
A jeśli chce się zmieniać innych, najlepszym sposobem jest
17:27
is to first understandzrozumieć who we are -- understandzrozumieć our moralmorał psychologyPsychologia,
393
1029000
4000
zrozumienie, kim jesteśmy... Zrozumienie psychologii moralności,
17:31
understandzrozumieć that we all think we're right -- and then stepkrok out,
394
1033000
3000
że wszyscy myślimy, że mamy rację... A potem wystąpienie -
17:34
even if it's just for a momentza chwilę, stepkrok out -- checkczek in with Seng-ts'anSeng ts'ana.
395
1036000
4000
nawet jeśli tylko na moment - stańcie obok Seng-ts'ana.
17:38
StepKrok out of the moralmorał matrixMacierz,
396
1040000
2000
Wystąpcie z moralnego matriksu;
17:40
just try to see it as a struggleborykać się playinggra out,
397
1042000
2000
dobrze jest o tym myśleć jak o konflikcie,
17:42
in whichktóry everybodywszyscy does think they're right,
398
1044000
2000
w którym wszyscy myślą, że mają rację,
17:44
and everybodywszyscy, at leastnajmniej, has some reasonspowody -- even if you disagreenie zgadzać się with them --
399
1046000
2000
wszyscy mają swoje pobudki - nawet jeśli się z nimi nie zgadzamy.
17:46
everybodywszyscy has some reasonspowody for what they're doing.
400
1048000
2000
Wszyscy mają powody, by robić to, co robią. Wystąpcie.
17:48
StepKrok out.
401
1050000
1000
Wszyscy mają powody, by robić to, co robią. Wystąpcie.
17:49
And if you do that, that's the essentialistotny moveruszaj się to cultivatepielęgnować moralmorał humilitypokora,
402
1051000
4000
Zrobienie tego będzie krokiem do doskonalenia moralnej pokory,
17:53
to get yourselfsiebie out of this self-righteousnessobłudy,
403
1055000
1000
do odcięcia się od przekonania o swojej nieomylności, które jest typowe dla ludzi.
17:54
whichktóry is the normalnormalna humanczłowiek conditionstan.
404
1056000
2000
do odcięcia się od przekonania o swojej nieomylności, które jest typowe dla ludzi.
17:56
Think about the DalaiDalachów LamaLama.
405
1058000
2000
Pomyślcie o Dalajlamie.
17:58
Think about the enormousogromny moralmorał authorityautorytet of the DalaiDalachów LamaLama --
406
1060000
3000
Pomyślcie o niesamowitym autorytecie moralnym Dalajlamy...
18:01
and it comespochodzi from his moralmorał humilitypokora.
407
1063000
2000
Ma on swoje źródło w moralnej pokorze.
18:05
So I think the pointpunkt -- the pointpunkt of my talk,
408
1067000
2000
Sądzę, że głównym celem mojej przemowy,
18:07
and I think the pointpunkt of TEDTED --
409
1069000
3000
jak i celem konferencji TED
18:10
is that this is a groupGrupa that is passionatelyz pasją engagedzaręczony
410
1072000
3000
jest stworzenie grupy, która jest żarliwie zaangażowana
18:13
in the pursuitpościg of changingwymiana pieniędzy the worldświat for the better.
411
1075000
2000
w zmienianie świata na lepsze.
18:15
People here are passionatelyz pasją engagedzaręczony
412
1077000
3000
Ludzie tutaj są gorąco zaangażowani
18:18
in tryingpróbować to make the worldświat a better placemiejsce.
413
1080000
2000
w sprawianie, żeby świat stał się lepszym miejscem.
18:20
But there is alsorównież a passionatenamiętny commitmentzaangażowanie to the truthprawda.
414
1082000
3000
Ale wykazują oni także żarliwe oddanie prawdzie.
18:23
And so I think that the answerodpowiedź is to use that passionatenamiętny commitmentzaangażowanie
415
1085000
4000
Sądzę, że rozwiązaniem jest użycie tego gorącego oddania
18:27
to the truthprawda to try to turnskręcać it into a better futureprzyszłość for us all.
416
1089000
4000
i przekształcenie go w lepszą przyszłość dla nas wszystkich.
18:31
Thank you.
417
1093000
1000
Dziękuję za uwagę.
18:32
(ApplauseAplauz)
418
1094000
3000
(Brawa)
Translated by Kinga Skorupska
Reviewed by Magdalena Daniel

▲Back to top

ABOUT THE SPEAKER
Jonathan Haidt - Social psychologist
Jonathan Haidt studies how -- and why -- we evolved to be moral and political creatures.

Why you should listen

By understanding more about our moral psychology and its biases, Jonathan Haidt says we can design better institutions (including companies, universities and democracy itself), and we can learn to be more civil and open-minded toward those who are not on our team.

Haidt is a social psychologist whose research on morality across cultures led to his 2008 TED Talk on the psychological roots of the American culture war, and his 2013 TED Talk on how "common threats can make common ground." In both of those talks he asks, "Can't we all disagree more constructively?" Haidt's 2012 TED Talk explored the intersection of his work on morality with his work on happiness to talk about "hive psychology" -- the ability that humans have to lose themselves in groups pursuing larger projects, almost like bees in a hive. This hivish ability is crucial, he argues, for understanding the origins of morality, politics, and religion. These are ideas that Haidt develops at greater length in his book, The Righteous Mind: Why Good People are Divided by Politics and Religion.

Haidt joined New York University Stern School of Business in July 2011. He is the Thomas Cooley Professor of Ethical Leadership, based in the Business and Society Program. Before coming to Stern, Professor Haidt taught for 16 years at the University of Virginia in the department of psychology.

Haidt's writings appear frequently in the New York Times and The Wall Street Journal. He was named one of the top global thinkers by Foreign Policy magazine and by Prospect magazine. Haidt received a B.A. in Philosophy from Yale University, and an M.A. and Ph.D. in Psychology from the University of Pennsylvania.

More profile about the speaker
Jonathan Haidt | Speaker | TED.com