ABOUT THE SPEAKER
Jonathan Haidt - Social psychologist
Jonathan Haidt studies how -- and why -- we evolved to be moral and political creatures.

Why you should listen

By understanding more about our moral psychology and its biases, Jonathan Haidt says we can design better institutions (including companies, universities and democracy itself), and we can learn to be more civil and open-minded toward those who are not on our team.

Haidt is a social psychologist whose research on morality across cultures led to his 2008 TED Talk on the psychological roots of the American culture war, and his 2013 TED Talk on how "common threats can make common ground." In both of those talks he asks, "Can't we all disagree more constructively?" Haidt's 2012 TED Talk explored the intersection of his work on morality with his work on happiness to talk about "hive psychology" -- the ability that humans have to lose themselves in groups pursuing larger projects, almost like bees in a hive. This hivish ability is crucial, he argues, for understanding the origins of morality, politics, and religion. These are ideas that Haidt develops at greater length in his book, The Righteous Mind: Why Good People are Divided by Politics and Religion.

Haidt joined New York University Stern School of Business in July 2011. He is the Thomas Cooley Professor of Ethical Leadership, based in the Business and Society Program. Before coming to Stern, Professor Haidt taught for 16 years at the University of Virginia in the department of psychology.

Haidt's writings appear frequently in the New York Times and The Wall Street Journal. He was named one of the top global thinkers by Foreign Policy magazine and by Prospect magazine. Haidt received a B.A. in Philosophy from Yale University, and an M.A. and Ph.D. in Psychology from the University of Pennsylvania.

More profile about the speaker
Jonathan Haidt | Speaker | TED.com
TED2008

Jonathan Haidt: The moral roots of liberals and conservatives

جاناتان هایت در باره ریشه های اخلاقی "لیبرالها" و "محافظه کارها" صحبت میکند.

Filmed:
3,635,704 views

جاناتان هایت - روانشناس - پنج ارزش اخلاقی که مبنای گرایشهای سیاسی ما و اینکه آیا ما چپ گرا یا راست گرا یا میانه رو هستیم را بررسی می کند. این سخنرانی نگاه تازه ای به ارزشهایی است که لیبرالها یا محافظه کارها به آنها بیشتر اهمیت می دهند.
- Social psychologist
Jonathan Haidt studies how -- and why -- we evolved to be moral and political creatures. Full bio

Double-click the English transcript below to play the video.

00:19
Supposeفرض کنید that two Americanآمریکایی friendsدوستان are travelingمسافرت togetherبا یکدیگر in Italyایتالیا.
0
1000
3000
در نظر بگیرید دو دوست آمریکایی با هم میرن به ایتالیا.
00:22
They go to see Michelangelo'sمیکل آنژ "Davidدیوید,"
1
4000
2000
بعد در اونجا مجسمه "داوود" میکل آنژ رو میبینند.
00:24
and when they finallyسرانجام come faceصورت to faceصورت with the statueمجسمه,
2
6000
2000
وقتی حسابی بهش نزدیک شدن از شگفتی خشکشون میزنه.
00:26
they bothهر دو freezeیخ زدگی deadمرده in theirخودشان tracksآهنگ های.
3
8000
2000
وقتی حسابی بهش نزدیک شدن از شگفتی خشکشون میزنه.
00:28
The first guy -- we'llخوب call him Adamآدم --
4
10000
2000
اولی میگه -- که اسمشو میگزاریم آدم-- محو زیبایی شکل بی نظیر بدن انسان در این مجسمه شده.
00:30
is transfixedترانسفکشن by the beautyزیبایی of the perfectکامل humanانسان formفرم.
5
12000
3000
اولی میگه -- که اسمشو میگزاریم آدم-- محو زیبایی شکل بی نظیر بدن انسان در این مجسمه شده.
00:33
The secondدومین guy -- we'llخوب call him Billبیل --
6
15000
2000
دومی میگه -- که اسمشو بگزاریم بیل-- از اون چیزی که وسط این تصویر می بینید کلی احساس خجالت کرده.
00:35
is transfixedترانسفکشن by embarrassmentخجالت, at staringخیره شدن at the thing there in the centerمرکز.
7
17000
4000
دومی میگه -- که اسمشو بگزاریم بیل-- از اون چیزی که وسط این تصویر می بینید کلی احساس خجالت کرده.
00:40
So here'sاینجاست my questionسوال for you:
8
22000
2000
حالا سوال من از شما اینه:
00:42
whichکه one of these two guys was more likelyاحتمال دارد to have votedرای دادم for Georgeجورج Bushبوته,
9
24000
4000
بنظرشما کدام یک از اونا به جرج بوش رای میده، کدام به الگور؟
00:46
whichکه for Alآل Goreگور?
10
28000
2000
بنظرشما کدام یک از اونا به جرج بوش رای میده، کدام به الگور؟
00:48
I don't need a showنشان بده of handsدست ها
11
30000
1000
نمیخواد دستاتونو بالا ببرید، چراکه ما همه کلیشه های سیاسی مشابهی داریم.
00:49
because we all have the sameیکسان politicalسیاسی stereotypesکلیشه ها.
12
31000
3000
نمیخواد دستاتونو بالا ببرید، چراکه ما همه کلیشه های سیاسی مشابهی داریم.
00:52
We all know that it's Billبیل.
13
34000
2000
همه میدونیم،جواب بیل خواهدبود. در این مورد کلیشه ذهنی ما با واقعیت منطبق است.
00:54
And in this caseمورد, the stereotypeکلیشه correspondsمطابق است to realityواقعیت.
14
36000
4000
همه میدونیم،جواب بیل خواهدبود. در این مورد کلیشه ذهنی ما با واقعیت منطبق است.
00:58
It really is a factواقعیت that liberalsلیبرال ها are much higherبالاتر than conservativesمحافظه کاران
15
40000
3000
این یه واقعیته که این خصوصیت که اسمش را «آمادگی برای تجربیات جدید» می گزاریم بین لیبرالها بیشتر از محافظه کار ها دیده می شه،
01:01
on a majorعمده personalityشخصیت traitصفات calledبه نام opennessباز بودن to experienceتجربه.
16
43000
3000
این یه واقعیته که این خصوصیت که اسمش را «آمادگی برای تجربیات جدید» می گزاریم بین لیبرالها بیشتر از محافظه کار ها دیده می شه،
01:04
People who are highبالا in opennessباز بودن to experienceتجربه
17
46000
2000
افرادی که تجربه گرا هستند مشتاق تازگی، تنوع، ایده های جدید ومسافرت هستند.
01:06
just craveطعنه زدن noveltyتازگی, varietyتنوع, diversityتنوع, newجدید ideasایده ها, travelمسافرت رفتن.
18
48000
4000
افرادی که تجربه گرا هستند مشتاق تازگی، تنوع، ایده های جدید ومسافرت هستند.
01:10
People lowکم on it like things that are familiarآشنا, that are safeبی خطر and dependableقابل اعتماد.
19
52000
5000
افرادی که کمتر از این خصوصیت برخوردار هستند، به چیزهای آشنا و امن و قابل اعتماد علاقه دارند.
01:15
If you know about this traitصفات,
20
57000
2000
اگر با این خصوصیت انسان ها آشنا باشید، میتونین معماهای زیادی راجع به رفتار انسانها رو درک کنید.
01:17
you can understandفهمیدن a lot of puzzlesپازل about humanانسان behaviorرفتار.
21
59000
2000
اگر با این خصوصیت انسان ها آشنا باشید، میتونین معماهای زیادی راجع به رفتار انسانها رو درک کنید.
01:19
You can understandفهمیدن why artistsهنرمندان are so differentناهمسان from accountantsحسابداران.
22
61000
3000
میتونید بفهمید چرا هنرمندا اینقدر با حسابدارها تفاوت دارن.
01:22
You can actuallyدر واقع predictپیش بینی what kindsانواع of booksکتاب ها they like to readخواندن,
23
64000
2000
حتی میتونید حدس بزنید اونا دوست دارن چه کتابایی بخونن؟ کجا مسافرت برن؟ چه غذایی بخورن؟
01:24
what kindsانواع of placesمکان ها they like to travelمسافرت رفتن to,
24
66000
2000
حتی میتونید حدس بزنید اونا دوست دارن چه کتابایی بخونن؟ کجا مسافرت برن؟ چه غذایی بخورن؟
01:26
and what kindsانواع of foodغذا they like to eatخوردن.
25
68000
2000
حتی میتونید حدس بزنید اونا دوست دارن چه کتابایی بخونن؟ کجا مسافرت برن؟ چه غذایی بخورن؟
01:28
Onceیک بار you understandفهمیدن this traitصفات, you can understandفهمیدن
26
70000
3000
وقتی اینو گرفتی، میفهمی چرا بعضی آدما به فست فود"Applebee's"میرن، ولی نه اون آدمایی که تو میشناسی.
01:31
why anybodyهر شخصی would eatخوردن at Applebee'sاپلبای, but not anybodyهر شخصی that you know.
27
73000
4000
وقتی اینو گرفتی، میفهمی چرا بعضی آدما به فست فود"Applebee's"میرن، ولی نه اون آدمایی که تو میشناسی.
01:35
(Laughterخنده)
28
77000
6000
(خنده)
01:41
This traitصفات alsoهمچنین tellsمی گوید us a lot about politicsسیاست.
29
83000
2000
این خصوصیت جهت گیریهای سیاسی آدما رو هم توضیح میده.
01:43
The mainاصلی researcherپژوهشگر of this traitصفات, Robertرابرت McCraeمک کری saysمی گوید that,
30
85000
3000
محقق مشهور در این زمینه،Robert McCrae، میگه:
01:46
"Openباز کن individualsاشخاص حقیقی have an affinityوابستگی for liberalلیبرال, progressiveترقی خواه, left-wingجناح چپ politicalسیاسی viewsنمایش ها" --
31
88000
4000
" افراد تجربه گرا میل به لیبرالیسم، پیشرفت و دیدگاه جناح چپ سیاسی دارن."--
01:50
they like a societyجامعه whichکه is openباز کن and changingتغییر دادن --
32
92000
2000
اونا جامعه باز و پویا رو دوست دارن، --
01:52
"whereasدر حالی که closedبسته شد individualsاشخاص حقیقی preferترجیح می دهند conservativeمحافظه کار, traditionalسنتی, right-wingبال سمت راست viewsنمایش ها."
33
94000
5000
"در حالی که افراد بسته محافظه کار ، دیدگاه های سنتی جناح راست ترجیح می دهند."
01:57
This traitصفات alsoهمچنین tellsمی گوید us a lot about the kindsانواع of groupsگروه ها people joinپیوستن.
34
99000
4000
این ویژگی حتی به ما میگه مردم به چه نوع گروههایی گرایش دارن.
02:01
So here'sاینجاست the descriptionشرح of a groupگروه I foundپیدا شد on the Webوب.
35
103000
2000
خوب این توضیحات مربوط به یه گروهیه، که من توی اینترنت دیدم.
02:03
What kindsانواع of people would joinپیوستن a globalجهانی است communityجامعه
36
105000
2000
چه نوع افرادی به یک گروه جهانی میپیوندند که افراد از همه فرهنگی را پذیرا است،
02:05
welcomingاستقبال people from everyهرکدام disciplineانضباط and cultureفرهنگ,
37
107000
2000
چه نوع افرادی به یک گروه جهانی میپیوندند که افراد از همه فرهنگی را پذیرا است،
02:07
who seekبه دنبال a deeperعمیق تر understandingدرك كردن of the worldجهان,
38
109000
2000
و دنبال یه معنای عمیقتر از جهان میگرده، و آرزو داره که با اون درک بهتر از جهان برای همه ما یه آینده بهتر بسازه؟
02:09
and who hopeامید to turnدور زدن that understandingدرك كردن into a better futureآینده for us all?
39
111000
3000
و دنبال یه معنای عمیقتر از جهان میگرده، و آرزو داره که با اون درک بهتر از جهان برای همه ما یه آینده بهتر بسازه؟
02:12
This is from some guy namedتحت عنوان Tedتد.
40
114000
2000
این رو راستی یه نفر نوشته بنام TED. (خنده)
02:14
(Laughterخنده)
41
116000
2000
این رو راستی یه نفر نوشته بنام TED. (خنده)
02:16
Well, let's see now, if opennessباز بودن predictsپیش بینی می کند who becomesتبدیل می شود liberalلیبرال,
42
118000
4000
خوب اگه «تجربه گرایی»، لیبرال شدن رو پیشبینی میکنه، و اینکه چه کسی عضو TED میشه،
02:20
and opennessباز بودن predictsپیش بینی می کند who becomesتبدیل می شود a TEDsterTEDster,
43
122000
2000
خوب اگه «تجربه گرایی»، لیبرال شدن رو پیشبینی میکنه، و اینکه چه کسی عضو TED میشه،
02:22
then mightممکن we predictپیش بینی that mostاکثر TEDstersTEDsters are liberalلیبرال?
44
124000
3000
پس باید بشه این نتیجه رو گرفت که اکثر اعضای TEDلیبرال اند؟
02:25
Let's find out.
45
127000
1000
بگذارید ببینیم.
02:26
I'm going to askپرسیدن you to raiseبالا بردن your handدست, whetherچه you are liberalلیبرال, left of centerمرکز --
46
128000
4000
میخوام ازتون تقاضا کنم که اگر لیبرال هستید یعنی متمایل به چپ هستید (منظورم در مسایل اجتماعی است) دستتونو بالا ببرید،
02:30
on socialاجتماعی issuesمسائل, we're talkingصحبت کردن about, primarilyدر درجه اول --
47
132000
2000
میخوام ازتون تقاضا کنم که اگر لیبرال هستید یعنی متمایل به چپ هستید (منظورم در مسایل اجتماعی است) دستتونو بالا ببرید،
02:32
or conservativeمحافظه کار, and I'll give a thirdسوم optionگزینه,
48
134000
2000
بعد نوبت محافظه کارها است و بعد من یک گزینه سومی هم اضافه میکنم، چون میدونم تعدادی هم "طرفدار ازادی فردی" اینجا هستند.
02:34
because I know there are a numberعدد of libertariansآزادیخواهان in the audienceحضار.
49
136000
2000
بعد نوبت محافظه کارها است و بعد من یک گزینه سومی هم اضافه میکنم، چون میدونم تعدادی هم "طرفدار ازادی فردی" اینجا هستند.
02:36
So, right now, please raiseبالا بردن your handدست --
50
138000
2000
خوب حالا لطفا همه کسانی که لیبرال یا چپ گرا هستند دستشون را بالا ببرند
02:38
down in the simulcastsimulcast roomsاتاق ها, too,
51
140000
1000
خوب حالا لطفا همه کسانی که لیبرال یا چپ گرا هستند دستشون را بالا ببرند
02:39
let's let everybodyهمه see who'sچه کسی است here --
52
141000
2000
خوب حالا لطفا همه کسانی که لیبرال یا چپ گرا هستند دستشون را بالا ببرند
02:41
please raiseبالا بردن your handدست if you would say that you are liberalلیبرال or left of centerمرکز.
53
143000
3000
اونایی که فکرمیکنن لیبرال یا چپگرا هستن دستاشونو ببرن بالا.خوبه. بالا!
02:44
Please raiseبالا بردن your handدست highبالا right now. OK.
54
146000
3000
اونایی که فکرمیکنن لیبرال یا چپگرا هستن دستاشونو ببرن بالا.خوبه. بالا!
02:48
Please raiseبالا بردن your handدست if you'dمی خواهی say you're libertarianآزادیخواه.
55
150000
2000
حالا طرفداران آزادی فردی دستشون را بالا ببرند. خوبه ده دوازده نفر هستند
02:51
OK, about a -- two dozenدوازده.
56
153000
2000
حالا طرفداران آزادی فردی دستشون را بالا ببرند. خوبه ده دوازده نفر هستند
02:53
And please raiseبالا بردن your handدست if you'dمی خواهی say you are right of centerمرکز or conservativeمحافظه کار.
57
155000
3000
حالا اونایی که فکر میکنن محافظه کار یا راستگرا هستند. ١،٢،٣،٤،٥ -- یه ده تایی میشن.
02:56
One, two, threeسه, fourچهار, fiveپنج -- about eightهشت or 10.
58
158000
5000
حالا اونایی که فکر میکنن محافظه کار یا راستگرا هستند. ١،٢،٣،٤،٥ -- یه ده تایی میشن.
03:02
OK. This is a bitبیت of a problemمسئله.
59
164000
3000
این یه کم سخت میشه، اگه هدفمون اینه که دنیا رو بهتر بفهمیم،
03:05
Because if our goalهدف is to understandفهمیدن the worldجهان,
60
167000
3000
این یه کم سخت میشه، اگه هدفمون اینه که دنیا رو بهتر بفهمیم،
03:08
to seekبه دنبال a deeperعمیق تر understandingدرك كردن of the worldجهان,
61
170000
2000
این یه کم سخت میشه، اگه هدفمون اینه که دنیا رو بهتر بفهمیم،
03:10
our generalعمومی lackعدم of moralاخلاقی diversityتنوع here is going to make it harderسخت تر.
62
172000
3000
عدم گوناگونی اخلاقی ما کار رو سخت میکنه.
03:13
Because when people all shareاشتراک گذاری valuesارزش های, when people all shareاشتراک گذاری moralsاخلاق,
63
175000
4000
چون وقتی آدما همه به یه عقیده واحد و ارزشهای واحد معتقد باشند، با هم یه تیم می شوند، و در یک تیم نمیشه آزادانه فکر کرد
03:17
they becomeتبدیل شدن به a teamتیم, and onceیک بار you engageمشغول کردن the psychologyروانشناسی of teamsتیم ها,
64
179000
3000
چون وقتی آدما همه به یه عقیده واحد و ارزشهای واحد معتقد باشند، با هم یه تیم می شوند، و در یک تیم نمیشه آزادانه فکر کرد
03:20
it shutsخاموش می شود down open-mindedروشنفکر thinkingفكر كردن.
65
182000
2000
چون وقتی آدما همه به یه عقیده واحد و ارزشهای واحد معتقد باشند، با هم یه تیم می شوند، و در یک تیم نمیشه آزادانه فکر کرد
03:25
When the liberalلیبرال teamتیم losesاز دست می دهد, as it did in 2004,
66
187000
4000
وقتی تیم لیبرالها ببازن، مثل٢٠٠٤ و تقریبا ٢٠٠٠ که باختند، ما به خودمون دلداری می دهیم.
03:29
and as it almostتقریبا did in 2000, we comfortراحتی ourselvesخودمان.
67
191000
4000
وقتی تیم لیبرالها ببازن، مثل٢٠٠٤ و تقریبا ٢٠٠٠ که باختند، ما به خودمون دلداری می دهیم.
03:33
(Laughterخنده)
68
195000
2000
( خنده)
03:35
We try to explainتوضیح why halfنیم of Americaآمریکا votedرای دادم for the other teamتیم.
69
197000
4000
سعی میکنیم توضیح بدیم چرا نصف آمریکا به اون یکی تیم رای داد. پیش خودمون میگیم یا مذهب کورشون کرده، یا احمقن.
03:39
We think they mustباید be blindedکور by religionمذهب, or by simpleساده stupidityحماقت.
70
201000
5000
سعی میکنیم توضیح بدیم چرا نصف آمریکا به اون یکی تیم رای داد. پیش خودمون میگیم یا مذهب کورشون کرده، یا احمقن.
03:44
(Laughterخنده)
71
206000
3000
سعی میکنیم توضیح بدیم چرا نصف آمریکا به اون یکی تیم رای داد. پیش خودمون میگیم یا مذهب کورشون کرده، یا احمقن. ( خنده) (تشویق)
03:47
(Applauseتشویق و تمجید)
72
209000
8000
سعی میکنیم توضیح بدیم چرا نصف آمریکا به اون یکی تیم رای داد. پیش خودمون میگیم یا مذهب کورشون کرده، یا احمقن. ( خنده) (تشویق)
03:55
So, if you think that halfنیم of Americaآمریکا votesرای Republicanجمهوری خواه
73
217000
6000
اگه فکر میکنید نصف آمریکا به جمهوری خواه ها رای میده ، چون چشمشون نمیبینه ،
04:01
because they are blindedکور in this way,
74
223000
3000
اگه فکر میکنید نصف آمریکا به جمهوری خواه ها رای میده ، چون چشمشون نمیبینه ،
04:04
then my messageپیام to you is that you're trappedبه دام افتاده in a moralاخلاقی matrixماتریس,
75
226000
3000
باید به شما بگم که در یک ماتریس اخلاقی گیر افتادین، یک ماتریس اخلاقی ویژه.
04:07
in a particularخاص moralاخلاقی matrixماتریس.
76
229000
1000
باید به شما بگم که در یک ماتریس اخلاقی گیر افتادین، یک ماتریس اخلاقی ویژه.
04:08
And by the matrixماتریس, I mean literallyعینا the matrixماتریس, like the movieفیلم سینما "The Matrixماتریکس."
77
230000
4000
منظورم از ماتریس، همون فیلم ماتریسه. ولی من امروز اینجام که به شما امکان انتخاب بدم.
04:12
But I'm here todayامروز to give you a choiceانتخابی.
78
234000
2000
منظورم از ماتریس، همون فیلم ماتریسه. ولی من امروز اینجام که به شما امکان انتخاب بدم.
04:14
You can eitherیا take the blueآبی pillقرص and stickچوب to your comfortingآرامش delusionsتوهمات,
79
236000
4000
شما یا قرص آبی رو میخورید و به توهمی آرامبخش میچسبید، یا قرص قرمز رو انتخاب میکنید،
04:18
or you can take the redقرمز pillقرص,
80
240000
2000
شما یا قرص آبی رو میخورید و به توهمی آرامبخش میچسبید، یا قرص قرمز رو انتخاب میکنید،
04:20
learnیاد گرفتن some moralاخلاقی psychologyروانشناسی and stepگام outsideخارج از the moralاخلاقی matrixماتریس.
81
242000
3000
و روانشناسی اخلاقی رو یاد میگیرید و از ماتریس اخلافی بیرون میاید.
04:23
Now, because I know --
82
245000
2000
خوب از اونجا که من میدونم --
04:25
(Applauseتشویق و تمجید) --
83
247000
3000
( تشویق)
04:28
OK, I assumeفرض that answersپاسخ ها my questionسوال.
84
250000
2000
خوب، تصور میکنم جوابم رو گرفتم.
04:30
I was going to askپرسیدن you whichکه one you pickedبرداشت, but no need.
85
252000
2000
میخواستم بپرسم کدوم قرص رو شما میخورید، ولی دیگه نیازی نیست.
04:32
You're all highبالا in opennessباز بودن to experienceتجربه, and besidesعلاوه بر این,
86
254000
2000
شما همه بطرز خوبی نسبت به تجربیات جدید مشتاق هستید، بنظر میرسه حتی خوشمزه باشه،
04:34
it looksبه نظر می رسد like it mightممکن even tasteطعم و مزه good, and you're all epicuresحماسه.
87
256000
3000
شما همه بطرز خوبی نسبت به تجربیات جدید مشتاق هستید، بنظر میرسه حتی خوشمزه باشه،
04:37
So anywayبه هر حال, let's go with the redقرمز pillقرص.
88
259000
2000
خوب پس قرص قرمز رو انتخاب میکنیم. یه کم رو روانشناسی اخلاقی کار کنیم، ببینیم ما رو کجا میبره.
04:39
Let's studyمطالعه some moralاخلاقی psychologyروانشناسی and see where it takes us.
89
261000
2000
خوب پس قرص قرمز رو انتخاب میکنیم. یه کم رو روانشناسی اخلاقی کار کنیم، ببینیم ما رو کجا میبره.
04:41
Let's startشروع کن at the beginningشروع.
90
263000
2000
از ابتدا شروع میکنیم. اخلاقیات چیه و از کجا مییاد؟
04:43
What is moralityاخلاق and where does it come from?
91
265000
2000
از ابتدا شروع میکنیم. اخلاقیات چیه و از کجا مییاد؟
04:45
The worstبدترین ideaاندیشه in all of psychologyروانشناسی
92
267000
2000
بدترین ایده روانشناسی اینه که ذهن هنگام تولد یه تخته سنگ خالیه.
04:47
is the ideaاندیشه that the mindذهن is a blankجای خالی slateتخته سنگ at birthتولد.
93
269000
3000
بدترین ایده روانشناسی اینه که ذهن هنگام تولد یه تخته سنگ خالیه.
04:50
Developmentalرشد psychologyروانشناسی has shownنشان داده شده
94
272000
2000
روانشناسی تکاملی نشان داده بچه ها در بدو تولد اطلاعات زیادی درباره دنیای فیزیکی و اجتماع دارن،
04:52
that kidsبچه ها come into the worldجهان alreadyقبلا knowingدانستن so much
95
274000
2000
روانشناسی تکاملی نشان داده بچه ها در بدو تولد اطلاعات زیادی درباره دنیای فیزیکی و اجتماع دارن،
04:54
about the physicalفیزیکی and socialاجتماعی worldsجهان ها,
96
276000
2000
روانشناسی تکاملی نشان داده بچه ها در بدو تولد اطلاعات زیادی درباره دنیای فیزیکی و اجتماع دارن،
04:56
and programmedبرنامه ریزی شده to make it really easyآسان for them to learnیاد گرفتن certainمسلم - قطعی things
97
278000
4000
و طوری برنامه ریزی شدن که یه سری چیزا رو براحتی یاد بگیرن و یه سری رو کمی سختتر.
05:00
and hardسخت to learnیاد گرفتن othersدیگران.
98
282000
1000
و طوری برنامه ریزی شدن که یه سری چیزا رو براحتی یاد بگیرن و یه سری رو کمی سختتر.
05:01
The bestبهترین definitionتعریف of innatenessذاتی I've ever seenمشاهده گردید --
99
283000
2000
بهترین تعریفی که تا به حال شنیدم برای ذاتی بودن -- که خیلی چیزا رو توضیح میده --
05:03
this just clarifiesروشن می کند so manyبسیاری things for me --
100
285000
2000
بهتری تعریفی که تا به حال شنیدم برای ذاتی بودن -- که خیلی چیزا رو توضیح میده --
05:05
is from the brainمغز scientistدانشمند Garyگری Marcusمارکوس.
101
287000
2000
از دانشمند معروف،Gary Marcusهست، که اینطور میگه:
05:07
He saysمی گوید, "The initialاولیه organizationسازمان of the brainمغز does not dependبستگی دارد that much on experienceتجربه.
102
289000
5000
"سازمان اولیه مغز زیاد به تجربیات وابسته نیست. طبیعت در ابتدا یه پیش نویس مینویسه که تجربیات بعدا روی اون بازنویسی می کنند.
05:12
Natureطبیعت providesفراهم می کند a first draftپیش نویس, whichکه experienceتجربه then revisesتجدید نظر می کند.
103
294000
3000
"سازمان اولیه مغز زیاد به تجربیات وابسته نیست. طبیعت در ابتدا یه پیش نویس مینویسه که تجربیات بعدا روی اون بازنویسی می کنند.
05:15
Built-inساخته شده در doesn't mean unmalleableunmarleable;
104
297000
2000
پیش نویس شده به معنی غیر انعطاف پذیر نیست ، بلکه یعنی پیش از تجربیات ساخته شده."
05:17
it meansبه معنای organizedسازمان یافته است in advanceپیشرفت of experienceتجربه."
105
299000
3000
پیش نویس شده به معنی غیر انعطاف پذیر نیست ، بلکه یعنی پیش از تجربیات ساخته شده."
05:20
OK, so what's on the first draftپیش نویس of the moralاخلاقی mindذهن?
106
302000
2000
خوب حالا روی اولین پیش نویس اخلاقیات در ذهن چی نوشته؟
05:22
To find out, my colleagueهمکار, Craigکریگ Josephجوزف, and I
107
304000
3000
برای پی بردن به این مطلب من و همکارم Craig Joseph،
05:25
readخواندن throughاز طریق the literatureادبیات on anthropologyمردم شناسی,
108
307000
2000
بین مقالات مردم شناسی، گوناگونی فرهنگی اخلاق و روانشناسی فرگشتی، بدنبال شباهتها گشتیم.
05:27
on cultureفرهنگ variationتغییر in moralityاخلاق
109
309000
2000
بین مقالات مردم شناسی، گوناگونی فرهنگی اخلاق و روانشناسی فرگشتی، بدنبال شباهتها گشتیم.
05:29
and alsoهمچنین on evolutionaryتکامل یافته psychologyروانشناسی, looking for matchesمسابقات.
110
311000
2000
بین مقالات مردم شناسی، گوناگونی فرهنگی اخلاق و روانشناسی فرگشتی، بدنبال شباهتها گشتیم.
05:31
What are the sortsانواع of things that people talk about acrossدر سراسر disciplinesرشته ها?
111
313000
3000
دنبال اصول مشترک اخلاقی بودیم که مردم در رشته های مختلف یا توی فرهنگهای مختلف، حتی بین گونه های مختلف از انها صحبت می کنند
05:34
That you find acrossدر سراسر culturesفرهنگ ها and even acrossدر سراسر speciesگونه ها?
112
316000
2000
دنبال اصول مشترک اخلاقی بودیم که مردم در رشته های مختلف یا توی فرهنگهای مختلف، حتی بین گونه های مختلف از انها صحبت می کنند
05:36
We foundپیدا شد fiveپنج -- fiveپنج bestبهترین matchesمسابقات,
113
318000
2000
ما 5 تا تشابه توی همه اینا پیدا کردیم، که اسمشو گذاشتیم پنج اصل اخلاق.
05:38
whichکه we call the fiveپنج foundationsپایه ها of moralityاخلاق.
114
320000
2000
ما 5 تا تشابه توی همه اینا پیدا کردیم، که اسمشو گذاشتیم پنج اصل اخلاق.
05:40
The first one is harmصدمه/careاهميت دادن.
115
322000
2000
اولیش هست "مواظبت از آسیب". ما همه از پستانداران هستیم با یه عالمه تنظیمات هرمونی-عصبی،
05:42
We're all mammalsپستانداران here, we all have a lot of neuralعصبی and hormonalهورمونی programmingبرنامه نويسي
116
324000
4000
اولیش هست "مواظبت از آسیب". ما همه از پستانداران هستیم با یه عالمه تنظیمات هرمونی-عصبی،
05:46
that makesباعث می شود us really bondرابطه with othersدیگران, careاهميت دادن for othersدیگران,
117
328000
2000
که ما رو به هم پیوند میده، که باعث میشه با دیگران، به خصوص با ناتوانها حس همدردی داشته باشیم.
05:48
feel compassionمحبت for othersدیگران, especiallyبه خصوص the weakضعیف and vulnerableآسیب پذیر.
118
330000
3000
که ما رو به هم پیوند میده، که باعث میشه با دیگران، به خصوص با ناتوانها حس همدردی داشته باشیم.
05:51
It givesمی دهد us very strongقوی feelingsاحساسات about those who causeسبب می شود harmصدمه.
119
333000
3000
به ما یه حس قوی علیه کسانیکه باعث آزار دیگران میشن میده.
05:54
This moralاخلاقی foundationپایه underliesبستگی دارد about 70 percentدرصد
120
336000
3000
این اصل اخلاقی 70٪ بیانیه های اخلاقی که تا حالا در TEDشنیدم رو در بر میگیره.
05:57
of the moralاخلاقی statementsبیانیه I've heardشنیدم here at TEDTED.
121
339000
2000
این اصل اخلاقی 70٪ بیانیه های اخلاقی که تا حالا در TEDشنیدم رو در بر میگیره.
05:59
The secondدومین foundationپایه is fairnessعدالت/reciprocityمتقابل.
122
341000
3000
دومیش "انصاف متقابل" هست. در مورد حیوانات زیاد آشکار نیست ولی در انسانها کاملا مشهوده.
06:02
There's actuallyدر واقع ambiguousمبهم evidenceشواهد
123
344000
2000
دومیش "انصاف متقابل" هست. در مورد حیوانات زیاد آشکار نیست ولی در انسانها کاملا مشهوده.
06:04
as to whetherچه you find reciprocityمتقابل in other animalsحیوانات,
124
346000
2000
دومیش "انصاف متقابل" هست. در مورد حیوانات زیاد آشکار نیست ولی در انسانها کاملا مشهوده.
06:06
but the evidenceشواهد for people could not be clearerواضح تر.
125
348000
2000
دومیش "انصاف متقابل" هست. در مورد حیوانات زیاد آشکار نیست ولی در انسانها کاملا مشهوده.
06:08
This Normanنورمن Rockwellراکول paintingرنگ آمیزی is calledبه نام "The Goldenطلایی Ruleقانون,"
126
350000
2000
نقاشیNorman Rockwell "قانون طلایی" نامیده میشه.
06:10
and we heardشنیدم about this from Karenکارن Armstrongآرمسترانگ, of courseدوره,
127
352000
2000
و به قول کارن ارمسترانگ مبنای بسیاری از دینهاست. اصل دومی 30٪بیانات اخلاقی گفته شده در TEDرو تشکیل میده.
06:12
as the foundationپایه of so manyبسیاری religionsادیان.
128
354000
3000
و به قول کارن ارمسترانگ مبنای بسیاری از دینهاست. اصل دومی 30٪بیانات اخلاقی گفته شده در TEDرو تشکیل میده.
06:15
That secondدومین foundationپایه underliesبستگی دارد the other 30 percentدرصد
129
357000
2000
و به قول کارن ارمسترانگ مبنای بسیاری از دینهاست. اصل دومی 30٪بیانات اخلاقی گفته شده در TEDرو تشکیل میده.
06:17
of the moralاخلاقی statementsبیانیه I've heardشنیدم here at TEDTED.
130
359000
2000
و به قول کارن ارمسترانگ مبنای بسیاری از دینهاست. اصل دومی 30٪بیانات اخلاقی گفته شده در TEDرو تشکیل میده.
06:19
The thirdسوم foundationپایه is in-groupدر گروه/loyaltyوفاداری.
131
361000
2000
اصل سوم"وفاداری به گروه" هست. در بین حیوانات هم، گروه پیدا میشه البته گروه های معمولا خیلی کوچک و عمدتا فقط شامل افراد خانواده.
06:21
You do find groupsگروه ها in the animalحیوانات kingdomپادشاهی --
132
363000
2000
اصل سوم"وفاداری به گروه" هست. در بین حیوانات هم، گروه پیدا میشه البته گروه های معمولا خیلی کوچک و عمدتا فقط شامل افراد خانواده.
06:23
you do find cooperativeتعاونی groupsگروه ها --
133
365000
2000
اصل سوم"وفاداری به گروه" هست. در بین حیوانات هم، گروه پیدا میشه البته گروه های معمولا خیلی کوچک و عمدتا فقط شامل افراد خانواده.
06:25
but these groupsگروه ها are always eitherیا very smallکوچک or they're all siblingsخواهران و برادران.
134
367000
3000
اصل سوم"وفاداری به گروه" هست. در بین حیوانات هم، گروه پیدا میشه البته گروه های معمولا خیلی کوچک و عمدتا فقط شامل افراد خانواده.
06:28
It's only amongدر میان humansانسان that you find very largeبزرگ groupsگروه ها of people
135
370000
3000
فقط بین انسانها گروههای خیلی بزرگ پیدامیشن، که با هم همکاری میکنند و متحد میشن--
06:31
who are ableتوانایی to cooperateهمکاری کردن, joinپیوستن togetherبا یکدیگر into groupsگروه ها,
136
373000
3000
فقط بین انسانها گروههای خیلی بزرگ پیدامیشن، که با هم همکاری میکنند و متحد میشن--
06:34
but in this caseمورد, groupsگروه ها that are unitedمتحد to fightمبارزه کردن other groupsگروه ها.
137
376000
4000
که البته متحد میشن که با گروههای دیگر بجنگند.
06:38
This probablyشاید comesمی آید from our long historyتاریخ of tribalقبیلهای livingزندگي كردن, of tribalقبیلهای psychologyروانشناسی.
138
380000
4000
این احتمالا ریشه در زندگی قبیله ای گذشته ما داره،
06:42
And this tribalقبیلهای psychologyروانشناسی is so deeplyعمیقا pleasurableلذت بخش
139
384000
2000
و ظاهرا اونقدر لذت بخشه که ما حتی اگه قبیله ای نداشته باشیم، یکی واسه خودمون میسازیم.
06:44
that even when we don't have tribesقبایل,
140
386000
2000
و ظاهرا اونقدر لذت بخشه که ما حتی اگه قبیله ای نداشته باشیم، یکی واسه خودمون میسازیم.
06:46
we go aheadدر پیش and make them, because it's funسرگرم کننده.
141
388000
3000
و ظاهرا اونقدر لذت بخشه که ما حتی اگه قبیله ای نداشته باشیم، یکی واسه خودمون میسازیم.
06:49
(Laughterخنده)
142
391000
3000
( خنده)
06:52
Sportsورزش ها is to warجنگ as pornographyپورنوگرافی is to sexارتباط جنسی.
143
394000
3000
نسبت ورزش به جنگ مثل نسبت پورنوگرافی به سکسه.
06:55
We get to exerciseورزش some ancientباستانی, ancientباستانی drivesدرایوها.
144
397000
3000
ما میخوایم یه سری انگیزه های خیلی خیلی باستانی رو تمرین و پرورش بدیم.
06:58
The fourthچهارم foundationپایه is authorityقدرت/respectتوجه.
145
400000
3000
اصل چهارم "احترام به قدرت" هست.
07:01
Here you see submissiveمطیع gesturesحرکات from two membersاعضا of very closelyنزدیک است relatedمربوط speciesگونه ها.
146
403000
3000
در اینجا شما دوژست مطیعانه از دوگونه خیلی نزدیک به هم را میبینین
07:04
But authorityقدرت in humansانسان is not so closelyنزدیک است basedمستقر on powerقدرت and brutalityوحشیگری,
147
406000
4000
ولی اقتدار در انسان به اندازه دیگر پستانداران برپایه زور و وحشیگری نیست.
07:08
as it is in other primatesاولیها.
148
410000
2000
ولی اقتدار در انسان به اندازه دیگر پستانداران برپایه زور و وحشیگری نیست.
07:10
It's basedمستقر on more voluntaryداوطلبانه deferenceاحترام,
149
412000
2000
بیشتر بر اساس احترام داوطلبانه و دوست داشتن هست.
07:12
and even elementsعناصر of love, at timesبار.
150
414000
2000
بیشتر بر اساس احترام داوطلبانه و دوست داشتن هست.
07:14
The fifthپنجم foundationپایه is purityخلوص/sanctityتقدس.
151
416000
2000
اصل پنجم "پاکی و تقدس" هست. نام این تابلو "تمثیل عفت" هست.
07:16
This paintingرنگ آمیزی is calledبه نام "The Allegoryتمثیل Of Chastityعفاف,"
152
418000
3000
اصل پنجم "پاکی و تقدس" هست.نام این تابلو "تمثیل عفت" هست.
07:19
but purity'sخلوص not just about suppressingسرکوب کردن femaleزن sexualityجنسیت.
153
421000
3000
اما خلوص فقط در مورد سرکوب تمایلات جنسی زنان نیست.
07:22
It's about any kindنوع of ideologyایدئولوژی, any kindنوع of ideaاندیشه
154
424000
3000
بلکه در باره هر ایده ای که به شما میگه چطور میتونید خالص بشید با کنترل داشتن بر بدنتان وخوراکتان.
07:25
that tellsمی گوید you that you can attainرسیدن virtueتقوا
155
427000
2000
بلکه در باره هر ایده ای که بشما میگه چطور میتونید خالص بشید با کنترل داشتن بر بدنتان وخوراکتان.
07:27
by controllingکنترل what you do with your bodyبدن,
156
429000
1000
بلکه در باره هر ایده ای که بشما میگه چطور میتونید خالص بشید با کنترل داشتن بر بدنتان وخوراکتان.
07:28
by controllingکنترل what you put into your bodyبدن.
157
430000
2000
بلکه در باره هر ایده ای که بشما میگه چطور میتونید خالص بشید با کنترل داشتن بر بدنتان وخوراکتان.
07:30
And while the politicalسیاسی right mayممکن است moralizeاخلاقی کردن sexارتباط جنسی much more,
158
432000
4000
راستگراهای سیاسی بیشتر درباره اخلاقیات درسکس حرف میزنن
07:34
the politicalسیاسی left is really doing a lot of it with foodغذا.
159
436000
2000
در حالیکه چپگراها بیشتر از غذا خوردن درستتر وبهترحرف میزنن.
07:36
Foodغذا is becomingتبدیل شدن به extremelyفوق العاده moralizedاخلاقی nowadaysامروزه,
160
438000
2000
امروزه غذا یه مقوله بسیار اخلاقی شده، مردم در مورد سلامت غذا بسیار حرف میزنن،
07:38
and a lot of it is ideasایده ها about purityخلوص,
161
440000
2000
امروزه غذا یه مقوله بسیار اخلاقی شده، مردم در مورد سلامت غذا بسیار حرف میزنن،
07:40
about what you're willingمایلم to touchدست زدن به, or put into your bodyبدن.
162
442000
3000
بعنوان چیزیکه قراره وارد بدن بشه.
07:43
I believe these are the fiveپنج bestبهترین candidatesنامزدهای
163
445000
3000
تصور میکنم این پنج تا اصولی هستن که در ذهن کودک نوزاد پیشنویس شده اند
07:46
for what's writtenنوشته شده است on the first draftپیش نویس of the moralاخلاقی mindذهن.
164
448000
2000
تصور میکنم این پنج تا اصولی هستن که در ذهن کودک نوزاد پیشنویس شده اند
07:48
I think this is what we come with, at leastکمترین
165
450000
1000
فکر میکنم اینا، اون چیزایی اند که ما از بدو تولد بهمراه داریم و بعدا روی اونا کار میکنیم.
07:49
a preparednessآمادگی to learnیاد گرفتن all of these things.
166
451000
3000
فکر میکنم اینا، اون چیزایی اند که ما از بدو تولد بهمراه داریم و بعدا روی اونا کار میکنیم.
07:52
But as my sonفرزند پسر, Maxحداکثر, growsرشد می کند up in a liberalلیبرال collegeکالج townشهر,
167
454000
3000
اما همینطورکه فرزندم Max در یک شهر دانشگاهی لیبرال رشد میکند،این پیشنوشته ها چطور بارورمیشه؟
07:56
how is this first draftپیش نویس going to get revisedتجدید نظر شده?
168
458000
2000
اما همینطورکه فرزندم Max در یک شهر دانشگاهی لیبرال رشد میکند،این پیشنوشته ها چطور بارورمیشه؟
07:58
And how will it endپایان up beingبودن differentناهمسان
169
460000
2000
و درنهایت متفاوت میشه با کودکی که 100کیلومتر اونورتر ازما درVirginia بزرگ میشه؟
08:00
from a kidبچه bornبدنیا آمدن 60 milesمایل southجنوب of us in Lynchburgلینچبرگ, Virginiaویرجینیا?
170
462000
3000
و درنهایت متفاوت میشه با کودکی که 100کیلومتر اونورتر ازما درVirginia بزرگ میشه؟
08:03
To think about cultureفرهنگ variationتغییر, let's try a differentناهمسان metaphorاستعاره.
171
465000
2000
برای فکر کردن در مورد تنوع فرهنگ، بیایید مثال متفاوتی رو درنظر بگیریم.
08:05
If there really are fiveپنج systemsسیستم های at work in the mindذهن --
172
467000
3000
اگر واقعا پنج اصل در نحوه کار ذهن وجود دارد -- پنج اصل ذاتی و احساسی --
08:08
fiveپنج sourcesمنابع of intuitionsشهوات and emotionsاحساسات --
173
470000
2000
اگر واقعا پنج اصل در نحوه کار ذهن وجود دارد -- پنج اصل ذاتی و احساسی --
08:10
then we can think of the moralاخلاقی mindذهن
174
472000
2000
پس میشه به ذهن اخلاقی مثل یه رادیو که 5 کانال داره و میشه تنظیماتش روتغییرداد نگاه کرد.
08:12
as beingبودن like one of those audioسمعی equalizersاکولایزرها that has fiveپنج channelsکانال ها,
175
474000
2000
پس میشه به ذهن اخلاقی مثل یه رادیو که 5 کانال داره و میشه تنظیماتش روتغییرداد نگاه کرد.
08:14
where you can setتنظیم it to a differentناهمسان settingتنظیمات on everyهرکدام channelکانال.
176
476000
2000
پس میشه به ذهن اخلاقی مثل یه رادیو که 5 کانال داره و میشه تنظیماتش روتغییرداد نگاه کرد.
08:16
And my colleaguesهمکاران, Brianبراان Nosekنوشک and Jesseجسی Grahamگراهام, and I,
177
478000
3000
من و همکارام "Brian Nosek و Jesse Graham"،یه پرسشنامه درست کردیم
08:19
madeساخته شده a questionnaireپرسشنامه, whichکه we put up on the Webوب at wwwwww.YourMoralsYourMorals.orgاردن.
178
481000
5000
که گذاشتیمش روی سایت www.YourMorals.org
08:24
And so farدور, 30,000 people have takenگرفته شده this questionnaireپرسشنامه, and you can too.
179
486000
5000
که تا حالا 30,000 نفر امتحانش کردن، شما هم میتونید.نتیجه اش بدین صورته.
08:29
Here are the resultsنتایج.
180
491000
1000
که تا حالا 30,000 نفر امتحانش کردن، شما هم میتونید.نتیجه اش بدین صورته.
08:30
Here are the resultsنتایج from about 23,000 Americanآمریکایی citizensشهروندان.
181
492000
3000
این نتیجه تست23,000 نفراز شهروندای آمریکایی هست.
08:33
On the left, I've plottedطراحی شده the scoresنمرات for liberalsلیبرال ها;
182
495000
2000
سمت چپ امتیاز لیبرال ها رسم شده،سمت راست امتیاز محافظه کاران ، دروسط میانه روها.
08:35
on the right, those for conservativesمحافظه کاران; in the middleوسط, the moderatesمعتدل است.
183
497000
2000
سمت چپ امتیاز لیبرال ها رسم شده،سمت راست امتیاز محافظه کاران ، دروسط میانه روها.
08:37
The blueآبی lineخط showsنشان می دهد you people'sمردم responsesپاسخ
184
499000
2000
خط آبی پاسخ مردم را بطور متوسط به سوالهای مربوط به «آسیب» نشان می دهد.
08:39
on the averageمیانگین of all the harmصدمه questionsسوالات.
185
501000
2000
خط آبی پاسخ مردم را بطور متوسط به سوالهای مربوط به «آسیب» نشان می دهد.
08:41
So, as you see, people careاهميت دادن about harmصدمه and careاهميت دادن issuesمسائل.
186
503000
3000
پس، میشه دید که مردم به «مراقبت در برابر آسیب» اهمیت میدهند.
08:44
They give highبالا endorsementتایید of these sortsانواع of statementsبیانیه
187
506000
2000
اونا اغلب به مقوله های اینچنینی اهمیت میدهند.
08:46
all acrossدر سراسر the boardهیئت مدیره, but as you alsoهمچنین see,
188
508000
2000
البته همینطور که از شیب نمودار بر میاد، لیبرالها کمی بیشتر اهمیت میدهند.
08:48
liberalsلیبرال ها careاهميت دادن about it a little more than conservativesمحافظه کاران -- the lineخط slopesدامنه ها down.
189
510000
3000
البته همینطور که از شیب نمودار بر میاد، لیبرالها کمی بیشتر اهمیت میدهند.
08:51
Sameیکسان storyداستان for fairnessعدالت.
190
513000
2000
و به همین ترتیب برای عدالت.
08:53
But look at the other threeسه linesخطوط.
191
515000
2000
اما به سه خط دیگر نگاهی بیندازید، برای لیبرال ها امتیازها بسیار پایین است.
08:55
For liberalsلیبرال ها, the scoresنمرات are very lowکم.
192
517000
2000
اما به سه خط دیگر نگاهی بیندازید، برای لیبرال ها امتیازها بسیار پایین است.
08:57
Liberalsلیبرال ها are basicallyاساسا sayingگفت:, "No, this is not moralityاخلاق.
193
519000
2000
لیبرال ها در واقع دارن میگن، "نه، این ها مربوط به اخلاق نیست. اقتدار گروهی، خلوص و اینا ربطی به اخلاق ندارن."
08:59
In-groupدر گروه, authorityقدرت, purityخلوص -- this stuffچیز has nothing to do with moralityاخلاق. I rejectرد کنید it."
194
521000
3000
لیبرال ها در واقع دارن میگن، "نه، این ها مربوط به اخلاق نیست. اقتدار گروهی، خلوص و اینا ربطی به اخلاق ندارن."
09:02
But as people get more conservativeمحافظه کار, the valuesارزش های riseبالا آمدن.
195
524000
2000
اما وقتی مردم محافظه کارتر باشند این مقادیر بالا میره.
09:04
We can say that liberalsلیبرال ها have a kindنوع of a two-channelدو کانال,
196
526000
3000
میشه گفت لیبرالها بنوعی دوکانالی یا دارای اخلاق دو وجهی اند.
09:07
or two-foundationدو پایه moralityاخلاق.
197
529000
1000
میشه گفت لیبرالها بنوعی دوکانالی یا دارای اخلاق دو وجهی اند.
09:08
Conservativesمحافظه کاران have more of a five-foundationپنج پایه,
198
530000
2000
در حالیکه محافظه کارها 5 کاناله یا دارای اخلاق پنج وجهی اند.
09:10
or five-channelپنج کانال moralityاخلاق.
199
532000
2000
در حالیکه محافظه کارها 5 کاناله یا دارای اخلاق پنج وجهی اند.
09:12
We find this in everyهرکدام countryکشور we look at.
200
534000
1000
این یافته ها در همه کشورهایی که ما تحقیق کردیم صادق بوده. این داده های 1،100کاندیداست.
09:13
Here'sاینجاست the dataداده ها for 1,100 Canadiansکانادایی ها.
201
535000
2000
این یافته ها در همه کشورهایی که ما تحقیق کردیم صادق بوده. این داده های 1،100کاندیداست.
09:15
I'll just flipتلنگر throughاز طریق a fewتعداد کمی other slidesاسلایدها.
202
537000
2000
من چندتا از اسلایدها رو همینطور رد میکنم.
09:17
The U.K., Australiaاسترالیا, Newجدید Zealandزلال, Westernغربی Europeاروپا, Easternشرق Europeاروپا,
203
539000
3000
انگلستان ، استرالیا ، نیوزیلند ، غرب اروپا ، شرق اروپا،
09:20
Latinلاتین Americaآمریکا, the Middleمیانه Eastشرق, Eastشرق Asiaآسیا and Southجنوب Asiaآسیا.
204
542000
4000
امریکا لاتین، شرق میانه ، شرق آسیا و آسیای جنوبی.
09:24
Noticeاطلاع alsoهمچنین that on all of these graphsنمودارها,
205
546000
2000
توجه کردید که در همه این نمودارها، شیب قسمت گروهمندی اقتدار،و خلوص پایینتره.
09:26
the slopeشیب is steeperتندتر on in-groupدر گروه, authorityقدرت, purityخلوص.
206
548000
3000
توجه کردید که در همه این نمودارها، شیب قسمت گروهمندی اقتدار،و خلوص پایینتره.
09:29
Whichکدام showsنشان می دهد that withinدر داخل any countryکشور,
207
551000
2000
که نشان دهنده اینه که درهیچ کشوری عدم تفاهمی روی آزار و عدالت وجود نداره.
09:31
the disagreementاختلاف نظر isn't over harmصدمه and fairnessعدالت.
208
553000
3000
که نشان دهنده اینه که درهیچ کشوری عدم تفاهمی روی آزار و عدالت وجود نداره.
09:34
Everybodyهمه -- I mean, we debateمناظره over what's fairنمایشگاه --
209
556000
2000
هرکسی -- گرچه سر اینکه چی عادلانه است میشه بحث کرد --
09:36
but everybodyهمه agreesموافق است that harmصدمه and fairnessعدالت matterموضوع.
210
558000
3000
ولی همه بر این عقیده اند که آزار نرساندن و عدالت مهمه.
09:39
Moralاخلاقی argumentsاستدلال withinدر داخل culturesفرهنگ ها
211
561000
2000
مباحث اخلاقی در بین فرهنگها عمدتا درمورد گروهمند بودن اقتدار و خلوص هست.
09:41
are especiallyبه خصوص about issuesمسائل of in-groupدر گروه, authorityقدرت, purityخلوص.
212
563000
3000
مباحث اخلاقی در بین فرهنگها عمدتا درمورد گروهمند بودن اقتدارو خلوص هست.
09:44
This effectاثر is so robustقدرتمند that we find it no matterموضوع how we askپرسیدن the questionسوال.
213
566000
3000
این اثر اونقدر قویه که بدون اهمیت به اینکه ما چطور سوال کنیم، به همین جواب میرسیم.
09:47
In one recentاخیر studyمطالعه,
214
569000
2000
در یه مطالعه اخیر، از افراد خواستیم تصور کنن میخوان یه سگ بخرن.
09:49
we askedپرسید: people to supposeفرض کنید you're about to get a dogسگ.
215
571000
2000
در یه مطالعه اخیر، از افراد خواستیم تصور کنن میخوان یه سگ بخرن.
09:51
You pickedبرداشت a particularخاص breedنژاد,
216
573000
1000
یه نژاد خاص رو انتخاب میکنید، که ازش اطلاع دارید.
09:52
you learnedیاد گرفتم some newجدید informationاطلاعات about the breedنژاد.
217
574000
2000
یه نژاد خاص رو انتخاب میکنید، که ازش اطلاع دارید.
09:54
Supposeفرض کنید you learnیاد گرفتن that this particularخاص breedنژاد is independent-mindedمستقل,
218
576000
3000
تصور کنید این گونه خاص دارای یه ذهن مستقل هست، و برای صاحبش مثل یه دوسته.در نتیجه؟
09:57
and relatesمربوط می شود to its ownerصاحب as a friendدوست and an equalبرابر?
219
579000
2000
تصور کنید این گونه خاص دارای یه ذهن مستقل هست، و برای صاحبش مثل یه دوسته.در نتیجه؟
09:59
Well, if you are a liberalلیبرال, you say, "Hey, that's great!"
220
581000
2000
خوب اگه شما لیبرال باشید، میگید "هی، این عالیه!"
10:01
Because liberalsلیبرال ها like to say, "Fetchرفتن و آوردن, please."
221
583000
2000
چون لیبرالها دوست دارن به سگشون بگن"«لطفا» اون تیکه چوب را بیار!" ( خنده)
10:03
(Laughterخنده)
222
585000
4000
چون لیبرالها دوست دارن به سگشون بگن"«لطفا» اون تیکه چوب را بیار!"( خنده)
10:08
But if you're conservativeمحافظه کار, that's not so attractiveجذاب.
223
590000
3000
ولی اگه محافظه کار هستید، این براتون نمیتونه جالب باشه.
10:11
If you're conservativeمحافظه کار, and you learnیاد گرفتن that a dog'sسگ ها extremelyفوق العاده loyalوفادار
224
593000
3000
اگه محافظه کارهستید، و درمی یابید که یه سگ به صاحبش وفاداره، وباغریبه ها سریع خونمیگیره،
10:14
to its home and familyخانواده, and doesn't warmگرم up quicklyبه سرعت to strangersغریبه ها,
225
596000
2000
اگه محافظه کارهستید، و درمی یابید که یه سگ به صاحبش وفاداره، وباغریبه ها سریع خونمیگیره،
10:16
for conservativesمحافظه کاران, well, loyaltyوفاداری is good -- dogsسگ ها oughtباید to be loyalوفادار.
226
598000
3000
برای محافظه کارا -- وفاداری خوبه -- سگ هم که وفاداره.
10:19
But to a liberalلیبرال, it soundsبرای تلفن های موبایل like this dogسگ
227
601000
2000
ولی برای لیبرالها، مثل اینه که این سگ نامزد انتخابات جمهوریخواهان شده باشه.
10:21
is runningدر حال اجرا for the Republicanجمهوری خواه nominationنامزد شدن.
228
603000
2000
ولی برای لیبرالها، مثل اینه که این سگ نامزد انتخابات جمهوریخواهان شده باشه.
10:23
(Laughterخنده)
229
605000
1000
( خنده)
10:24
So, you mightممکن say, OK,
230
606000
2000
خوب ممکنه حالا بگین، بسیار خوب، این تفاوتها بین لیبرالها و محافظه کارا وجود داره،
10:26
there are these differencesتفاوت ها betweenبین liberalsلیبرال ها and conservativesمحافظه کاران,
231
608000
2000
خوب ممکنه حالا بگین، بسیار خوب، این تفاوتها بین لیبرالها و محافظه کارا وجود داره،
10:28
but what makesباعث می شود those threeسه other foundationsپایه ها moralاخلاقی?
232
610000
2000
ولی چه چیزی اون سه تا اصل دیگه رو اخلاقی میکنه؟
10:30
Aren'tنه those just the foundationsپایه ها of xenophobiaبیگانه بودن
233
612000
2000
ایا اونا اساس "بیگانه ترسی" و "اقتدارگرایی"و "پاک گرایی"نیستن؟
10:32
and authoritarianismاقتدارگرا and Puritanismبی نظیری?
234
614000
2000
ایا اونا اساس "بیگانه ترسی" و "اقتدارگرایی"و "پاک گرایی"نیستن؟
10:34
What makesباعث می شود them moralاخلاقی?
235
616000
1000
چه چیزی اونا رو اخلاقی میکنه؟
10:35
The answerپاسخ, I think, is containedحاوی in this incredibleباور نکردنی triptychtriptych from Hieronymusهیرونیموس Boschبوش,
236
617000
3000
جوابش، فکر میکنم در این تابلوی سه وجهیHieronymus Bosch نهفته باشه،
10:38
"The Gardenباغ of Earthlyزمینی Delightsلذت ها."
237
620000
2000
"باغ دلخوشیهای زمینی."
10:40
In the first panelپانل, we see the momentلحظه of creationایجاد.
238
622000
3000
در بخش اول، لحظه ابتدای خلقت رو میبینیم. همه چی مرتبه، همه چی زیباست، همه مردم و حیوانات
10:43
All is orderedدستور داد, all is beautifulخوشگل, all the people and animalsحیوانات
239
625000
4000
در بخش اول، لحظه ابتدای خلقت رو میبینیم. همه چی مرتبه، همه چی زیباست، همه مردم و حیوانات
10:47
are doing what they're supposedقرار است to be doing, where they're supposedقرار است to be.
240
629000
3000
دارن همون کاری رو میکنن که باید، همون جایی هستن که باید.
10:50
But then, givenداده شده the way of the worldجهان, things changeتغییر دادن.
241
632000
3000
ولی بعد، مثل رسم دنیا، چیزا عوض میشن. هر آدمی هر کاری میکنه که دلش میخواد.
10:53
We get everyهرکدام personفرد doing whateverهر چه he wants,
242
635000
2000
ولی بعد، مثل رسم دنیا، چیزا عوض میشن. هر آدمی هر کاری میکنه که دلش میخواد.
10:55
with everyهرکدام apertureدیافراگم of everyهرکدام other personفرد and everyهرکدام other animalحیوانات.
243
637000
3000
ولی بعد، مثل رسم دنیا، چیزا عوض میشن. هر آدمی هر کاری میکنه که دلش میخواد.
10:58
Some of you mightممکن recognizeتشخیص this as the '60s.
244
640000
2000
بعضی از شما ممکنه بگید شبیه دهه 60 هست.
11:00
(Laughterخنده)
245
642000
1000
( خنده)
11:01
But the '60s inevitablyبه ناچار givesمی دهد way to the '70s,
246
643000
4000
ولی دهه 60 نهایتا به دهه 70 ختم میشه، که این خط شکنیها حتی قدری هم بیشتر میشه.
11:05
where the cuttingsقلمه ها of the aperturesدیافراگم hurtصدمه a little bitبیت more.
247
647000
4000
ولی دهه 60 نهایتا به دهه 70 ختم میشه، که این خط شکنیها حتی قدری هم بیشتر میشه.
11:09
Of courseدوره, Boschبوش calledبه نام this hellجهنم.
248
651000
2000
البته Bosch به این میگه جهنم.
11:11
So this triptychtriptych, these threeسه panelsپانل ها
249
653000
3000
پس این تابلو سه گانه نقشی بر این واقعیت میزند که نظم تمایل به واپاشی داره.
11:14
portrayتصویر کشیدن the timelessبی انتها truthحقیقت that orderسفارش tendsتمایل دارد to decayفرو ریختن.
250
656000
5000
پس این تابلو سه گانه نقشی بر این واقعیت میزند که نظم تمایل به واپاشی داره.
11:19
The truthحقیقت of socialاجتماعی entropyآنتروپی.
251
661000
2000
واقیتی بنام آنتروپی اجتماعی.
11:21
But lestمبادا you think this is just some partبخشی of the Christianمسیحی imaginationخیال پردازی
252
663000
3000
ولی برای اونایی که فکر میکنند این یه عقیده مسیحیه، چون مسیحیا با لذت بردن مشکل دارن،
11:24
where Christiansمسیحیان have this weirdعجیب و غریب problemمسئله with pleasureلذت,
253
666000
2000
ولی برای اونایی که فکر میکنند این یه عقیده مسیحیه، چون مسیحیا با لذت بردن مشکل دارن،
11:26
here'sاینجاست the sameیکسان storyداستان, the sameیکسان progressionپیشرفت,
254
668000
3000
این یه داستان مشابه دیگه است که بصورت مقاله در مجله Natureمنتشر شده؛
11:29
told in a paperکاغذ that was publishedمنتشر شده in Natureطبیعت a fewتعداد کمی yearsسالها agoپیش,
255
671000
3000
این یه داستان مشابه دیگه است که بصورت مقاله در مجله Natureمنتشر شده؛
11:32
in whichکه Ernstارنست Fehrفهر and Simonسیمون Gachterگچر had people playبازی a commonsرایج dilemmaدوراهی.
256
674000
4000
کهErnst Fehr و Simon Gachter مردم رو واداشتن این معضل مشترک رو دوباره بازی کنن.
11:36
A gameبازی in whichکه you give people moneyپول,
257
678000
2000
در این بازی به آدما پول میدی، بعد در هر دوره اونا میتونن پولشون رو در یه ظرف به اشتراک بگذارن،
11:38
and then, on eachهر یک roundدور of the gameبازی,
258
680000
2000
در این بازی به آدما پول میدی، بعد در هر دوره اونا میتونن پولشون رو در یه ظرف به اشتراک بگذارن،
11:40
they can put moneyپول into a commonمشترک potگلدان,
259
682000
2000
در این بازی به آدما پول میدی، بعد در هر دوره اونا میتونن پولشون رو در یه ظرف به اشتراک بگذارن،
11:42
and then the experimenterآزمایش کننده doublesدو برابر میشود what's in there,
260
684000
2000
بعد آزمایشگر پول داخل ظرف رو دوبرابر میکنه، وبین اونا تقسیم میکنه.
11:44
and then it's all dividedتقسیم شده amongدر میان the playersبازیکنان.
261
686000
2000
بعد آزمایشگر پول داخل ظرف رو دوبرابر میکنه، وبین اونا تقسیم میکنه.
11:46
So it's a really niceخوب analogآنالوگ for all sortsانواع of environmentalمحیطی issuesمسائل,
262
688000
3000
این یه داستان تکراریه، وقتی از مردم میخوای پولشونو در راهی خرج کنن که سود شخصی برای اونا نداره.
11:49
where we're askingدرخواست people to make a sacrificeقربانی
263
691000
2000
وقتی از آدما میخوای که چیزی رو اهدا کنن درحالیکه شخصا سودی نمیبرن.
11:51
and they themselvesخودشان don't really benefitسود from theirخودشان ownخودت sacrificeقربانی.
264
693000
2000
وقتی از آدما میخوای که چیزی رو اهدا کنن درحالیکه شخصا سودی نمیبرن.
11:53
But you really want everybodyهمه elseچیز دیگری to sacrificeقربانی,
265
695000
2000
و انتظار دارن که بقیه این کار رو بکنن، در حالی که اونا هم از یه سواری گرفتن بدشون نمیاد.
11:55
but everybodyهمه has a temptationوسوسه to a freeرایگان rideسوار شدن.
266
697000
2000
و انتظار دارن که بقیه این کار رو بکنن، در حالی که اونا هم از یه سواری گرفتن بدشون نمیاد.
11:57
And what happensاتفاق می افتد is that, at first, people startشروع کن off reasonablyمنطقی cooperativeتعاونی --
267
699000
4000
اول بازی تقریبا همه همکاری میکنن -- البته کاملا ناشناس بازی میشه --
12:01
and this is all playedبازی کرد anonymouslyناشناس.
268
703000
2000
اول بازی تقریبا همه همکاری میکنن -- البته کاملا ناشناس بازی میشه --
12:03
On the first roundدور, people give about halfنیم of the moneyپول that they can.
269
705000
3000
دور اول نیمی از پولشون رو میدن.بعد زود میگن "اما دیگران همچین زیاد مایه نمیگذارن.
12:06
But they quicklyبه سرعت see, "You know what, other people aren'tنه doing so much thoughگرچه.
270
708000
3000
دور اول نیمی از پولشون رو میدن.بعد زود میگن "اما دیگران همچین زیاد مایه نمیگذارن.
12:09
I don't want to be a suckerمکنده. I'm not going to cooperateهمکاری کردن."
271
711000
2000
من نمیخوام ازم سو استفاده بشه، دیگه پول نمیگذارم."
12:11
And so cooperationهمکاری quicklyبه سرعت decaysفرو می ریزد from reasonablyمنطقی good, down to closeبستن to zeroصفر.
272
713000
4000
و بدین ترتیب همکاری خوب شروع میشه و بتدریج در حد صفر کاهش پیدا میشه.
12:15
But then -- and here'sاینجاست the trickترفند --
273
717000
2000
و بعد -- نکته اینجاست -- دور 7ام بازی به افراد گفتن"حالا یه قانون جدید!
12:17
Fehrفهر and Gachterگچر said, on the seventhهفتم roundدور, they told people,
274
719000
2000
و بعد -- نکته اینجاست -- دور 7ام بازی به افراد گفتن"حالا یه قانون جدید!
12:19
"You know what? Newجدید ruleقانون.
275
721000
2000
و بعد -- نکته اینجاست -- دور 7ام بازی به افراد گفتن"حالا یه قانون جدید!
12:21
If you want to give some of your ownخودت moneyپول
276
723000
2000
اگه بخواید میتونید مقداری پول بدید برای تنبیه کردن اونایی که همکاری نمیکنن."
12:23
to punishتنبیه کردن people who aren'tنه contributingمشارکت, you can do that."
277
725000
4000
اگه بخواید میتونید مقداری پول بدید برای تنبیه کردن اونایی که همکاری نمیکنن."
12:27
And as soonبه زودی as people heardشنیدم about the punishmentمجازات issueموضوع going on,
278
729000
3000
بمحض اینکه افراد این رو شنیدند دوباره همکاریها زیاد شد.
12:30
cooperationهمکاری shootsشاخه ها up.
279
732000
2000
بمحض اینکه افراد این رو شنیدند دوباره همکاریها زیاد شد.
12:32
It shootsشاخه ها up and it keepsنگه می دارد going up.
280
734000
2000
بمحض اینکه افراد این رو شنیدند دوباره همکاریها زیاد شد.
12:34
There's a lot of researchپژوهش showingنشان دادن that to solveحل cooperativeتعاونی problemsمشکلات, it really helpsکمک می کند.
281
736000
3000
در این زمینه تحقیقات زیادی شده و این تنبیه کردن واقعا جواب میده.
12:37
It's not enoughکافی to just appealدرخواست to people'sمردم good motivesانگیزه ها.
282
739000
2000
فقط کارای خوب کافی نیست، گاهی تنبیه هم جواب میده.
12:39
It really helpsکمک می کند to have some sortمرتب سازی of punishmentمجازات.
283
741000
2000
فقط کارای خوب کافی نیست، گاهی تنبیه هم جواب میده.
12:41
Even if it's just shameشرم آور or embarrassmentخجالت or gossipشایعات بی اساس,
284
743000
2000
حتی اگه خجالت دادن و یا شایعات بی اساس باشه.
12:43
you need some sortمرتب سازی of punishmentمجازات to bringآوردن people,
285
745000
3000
برای اینکه گروه بزرگی از مردم رو وادار به همکاری کنید به تنبیه هم نیاز دارید.
12:46
when they're in largeبزرگ groupsگروه ها, to cooperateهمکاری کردن.
286
748000
2000
برای اینکه گروه بزرگی از مردم رو وادار به همکاری کنید به تنبیه هم نیاز دارید.
12:48
There's even some recentاخیر researchپژوهش suggestingپیشنهاد میکنم that religionمذهب --
287
750000
3000
حتی تحقیقات نشون میده که مذهب -- یا مجبور کردن مردم در پرستش خدا --
12:51
primingپر کردن God, makingساخت people think about God --
288
753000
2000
حتی تحقیقات نشون میده که مذهب -- یا مجبور کردن مردم در پرستش خدا --
12:53
oftenغالبا, in some situationsموقعیت ها, leadsمنجر می شود to more cooperativeتعاونی, more pro-socialطرفدار اجتماعی behaviorرفتار.
289
755000
5000
اغلب جامعه رو به سمت همکاری اجتماعی هدایت میکنه.
12:59
Some people think that religionمذهب is an adaptationانطباق
290
761000
2000
بعضی میگن مذهب چیزیه که با تحولات فرهنگی و بیولوژیکی تکامل یافته
13:01
evolvedتکامل یافته است bothهر دو by culturalفرهنگی and biologicalبیولوژیکی evolutionسیر تکاملی
291
763000
2000
بعضی میگن مذهب چیزیه که با تحولات فرهنگی و بیولوژیکی تکامل یافته
13:03
to make groupsگروه ها to cohereکوه,
292
765000
2000
که اعتماد رو بین گروهها از طرفی هرچه بیشتر بکنه،
13:05
in partبخشی for the purposeهدف of trustingاعتماد به نفس eachهر یک other,
293
767000
2000
که اعتماد رو بین گروهها از طرفی هرچه بیشتر بکنه،
13:07
and then beingبودن more effectiveتاثير گذار at competingرقابت with other groupsگروه ها.
294
769000
2000
تا بعد بتونن رقابت موثرتری با بقیه گروهها داشته باشن.
13:09
I think that's probablyشاید right,
295
771000
1000
من فکر میکنم این درست باشه، اگر چه قابل بحثه.
13:10
althoughبا اينكه this is a controversialبحث برانگیز issueموضوع.
296
772000
2000
من فکر میکنم این درست باشه، اگر چه قابل بحثه.
13:12
But I'm particularlyبه خصوص interestedعلاقه مند in religionمذهب,
297
774000
2000
ولی من شخصا مذهب برام جالبه، ریشه مذهب و اینکه برای ما و برما چه کرده.
13:14
and the originاصل و نسب of religionمذهب, and in what it does to us and for us.
298
776000
3000
ولی من شخصا مذهب برام جالبه، ریشه مذهب و اینکه برای ما و برما چه کرده.
13:17
Because I think that the greatestبزرگترین wonderتعجب in the worldجهان is not the Grandگراند Canyonکانیون.
299
779000
4000
چون من فکر میکنم بزرگترین عجایب جهان گراند کانیون نیست.گراند کانیون واقعا ساده است.
13:21
The Grandگراند Canyonکانیون is really simpleساده.
300
783000
2000
چون من فکر میکنم بزرگترین عجایب جهان گراند کانیون نیست.گراند کانیون واقعا ساده است.
13:23
It's just a lot of rockسنگ, and then a lot of waterاب and windباد, and a lot of time,
301
785000
3000
فقط بخاطر آب زیاد باد و زمان زیاد بوجود اومده، و در نهایت گراند کانیون ساخته شده.
13:26
and you get the Grandگراند Canyonکانیون.
302
788000
2000
فقط بخاطر آب زیاد باد و زمان زیاد بوجود اومده، و در نهایت گراند کانیون ساخته شده.
13:28
It's not that complicatedبغرنج.
303
790000
1000
پیچیده نیست.
13:29
This is what's really complicatedبغرنج,
304
791000
2000
پیچیده اینه که توی همین گراند کانیون یا دشت آفریقا یا در سواحل یخ زده آلاسکا
13:31
that there were people livingزندگي كردن in placesمکان ها like the Grandگراند Canyonکانیون,
305
793000
2000
پیچیده اینه که توی همین گراند کانیون یا دشت آفریقا یا در سواحل یخ زده آلاسکا
13:33
cooperatingهمکاری with eachهر یک other, or on the savannahsساواناها of Africaآفریقا,
306
795000
2000
مردمی بودن که بصورت گروهی باهم زندگی کردن،
13:35
or on the frozenمنجمد shoresسواحل of Alaskaآلاسکا, and then some of these villagesروستاها
307
797000
3000
بعد همین روستاهای کوچک به شهرهای قدرتمندی مثل بابل و رم تبدیل شدن.
13:38
grewرشد کرد into the mightyتوانا citiesشهرها of Babylonبابل, and Romeرم, and TenochtitlanTenochtitlan.
308
800000
4000
بعد همین روستاهای کوچک به شهرهای قدرتمندی مثل بابل و رم تبدیل شدن.
13:42
How did this happenبه وقوع پیوستن?
309
804000
1000
این واقعا چطوری اتفاق افتاده؟
13:43
This is an absoluteمطلق miracleمعجزه, much harderسخت تر to explainتوضیح than the Grandگراند Canyonکانیون.
310
805000
3000
این یه معجزه واقعیه، توضیحش سختتر از گراند کانیون هست.
13:46
The answerپاسخ, I think, is that they used everyهرکدام toolابزار in the toolboxجعبه ابزار.
311
808000
3000
بنظر میاد اونا همه 5 ابزار روانشناسی اخلاقی رو یکجا استفاده کردن.
13:49
It tookگرفت all of our moralاخلاقی psychologyروانشناسی
312
811000
2000
بنظر میاد اونا همه 5 ابزار روانشناسی اخلاقی رو یکجا استفاده کردن.
13:51
to createايجاد كردن these cooperativeتعاونی groupsگروه ها.
313
813000
2000
بنظر میاد اونا همه 5 ابزار روانشناسی اخلاقی رو یکجا استفاده کردن.
13:53
Yes, you do need to be concernedنگران about harmصدمه,
314
815000
2000
بله شما حتما نسبت به آزار نگران میشید، حتما به سیستم قضاوت نیاز دارید.
13:55
you do need a psychologyروانشناسی of justiceعدالت.
315
817000
1000
بله شما حتما نسبت به آزار نگران میشید، حتما به سیستم قضاوت نیاز دارید.
13:56
But it really helpsکمک می کند to organizeسازمان دادن a groupگروه if you can have sub-groupsزیر گروه ها,
316
818000
3000
داشتن زیر گروه به ساختن یک گروه بزرگتر کمک میکنه،
13:59
and if those sub-groupsزیر گروه ها have some internalداخلی structureساختار,
317
821000
3000
بشرطیکه زیرگروهها هم بنوبه خود ساختار داخلی داشته باشن،
14:02
and if you have some ideologyایدئولوژی that tellsمی گوید people
318
824000
2000
و بشرطیکه شما یه ایدئولوژی هم داشته باشید که نفس اماره رو سرکوب کنه تا به درجه اعلا برسید.
14:04
to suppressسرکوب کردن theirخودشان carnalityبدنی, to pursueدنبال کردن higherبالاتر, noblerنجیب زاده endsبه پایان می رسد.
319
826000
4000
و بشرطیکه شما یه ایدئولوژی هم داشته باشید که نفس اماره رو سرکوب کنه تا به درجه اعلا برسید.
14:08
And now we get to the cruxکرم of the disagreementاختلاف نظر
320
830000
2000
و حالا به معمای لاینحل بین لیبرالها و محافظه کارها میپردازیم.
14:10
betweenبین liberalsلیبرال ها and conservativesمحافظه کاران.
321
832000
2000
و حالا به معمای لاینحل بین لیبرالها و محافظه کارها میپردازیم.
14:12
Because liberalsلیبرال ها rejectرد کنید threeسه of these foundationsپایه ها.
322
834000
2000
چراکه لیبرالها سه تا از این اصول رو رد میکنند.
14:14
They say "No, let's celebrateجشن گرفتن diversityتنوع, not commonمشترک in-groupدر گروه membershipعضویت."
323
836000
3000
اونا میگن"بیاید از گوناگونی استقبال کنیم، نه از عضو بودن در یک گروه."
14:17
They say, "Let's questionسوال authorityقدرت."
324
839000
2000
اونا میگن،"بیاید اقتدار رو زیر سوال ببریم."
14:19
And they say, "Keep your lawsقوانین off my bodyبدن."
325
841000
2000
و باز میگن،"قانوناتون رو روی ما پیاده نکنید."
14:21
Liberalsلیبرال ها have very nobleنجیب motivesانگیزه ها for doing this.
326
843000
3000
لیبرالها یه الگوی عالی برای این دارن. اقتدار سنتی، اخلاقیات سنتی،
14:24
Traditionalسنتی authorityقدرت, traditionalسنتی moralityاخلاق can be quiteکاملا repressiveسرکوبگر,
327
846000
3000
لیبرالها یه الگوی عالی برای این دارن. اقتدار سنتی، اخلاقیات سنتی،
14:27
and restrictiveمحدود کننده to those at the bottomپایین, to womenزنان, to people that don't fitمناسب in.
328
849000
3000
میتونه برای زنها و یه عده از آدمها سرکوب کننده باشه.
14:30
So liberalsلیبرال ها speakصحبت for the weakضعیف and oppressedستمدیدگان.
329
852000
2000
لیبرالها به طرفداری از ضعیفها و مظلومها صحبت میکنن.
14:32
They want changeتغییر دادن and justiceعدالت, even at the riskخطر of chaosهرج و مرج.
330
854000
2000
اونا تغییر و عدالت میخوان، حتی اگر به بینظمی بیانجامد.
14:34
This guy'sپسر shirtپیراهن saysمی گوید, "Stop bitchingجادوگر, startشروع کن a revolutionانقلاب."
331
856000
3000
روی تی شرت این نوشته،"حماقت بسه، بیاید انقلاب کنیم."
14:37
If you're highبالا in opennessباز بودن to experienceتجربه, revolutionانقلاب is good,
332
859000
2000
از یه طرف،اگه به آزادی افکار معتقد باشی، انقلاب خوبه، تغییره، چیزه جالبیه.
14:39
it's changeتغییر دادن, it's funسرگرم کننده.
333
861000
2000
از یه طرف،اگه به آزادی افکار معتقد باشی، انقلاب خوبه، تغییره، چیزه جالبیه.
14:41
Conservativesمحافظه کاران, on the other handدست, speakصحبت for institutionsمؤسسات and traditionsرسم و رسوم.
334
863000
3000
از طرف دیگه محافظه کاران طرفدار سنت هستند. اونا نظم میخوان حتی اگه برای بعضی گرون تموم بشه.
14:44
They want orderسفارش, even at some costهزینه to those at the bottomپایین.
335
866000
4000
از طرف دیگه محافظه کاران طرفدار سنت هستند. اونا نظم میخوان حتی اگه برای بعضی گرون تموم بشه.
14:48
The great conservativeمحافظه کار insightبینش، بصیرت، درون بینی is that orderسفارش is really hardسخت to achieveرسیدن.
336
870000
2000
بزرگترین دیدگاه محافظه کاران اینه که نظم بسختی بدست میاد. ارزشمنده و براحتی هم از دست میره.
14:50
It's really preciousگرانبها, and it's really easyآسان to loseاز دست دادن.
337
872000
3000
بزرگترین دیدگاه محافظه کاران اینه که نظم بسختی بدست میاد. ارزشمنده و براحتی هم از دست میره.
14:53
So as Edmundادموند Burkeبرک said, "The restraintsمحدودیت ها on menمردان,
338
875000
2000
طبق گفته Edmund Burke"محدودیتهای بشری، همچنین آزادی بشری باید در حقوق وی گنجانده شوند."
14:55
as well as theirخودشان libertiesآزادی ها, are to be reckonedحساب شده amongدر میان theirخودشان rightsحقوق."
339
877000
3000
طبق گفته Edmund Burke"محدودیتهای بشری، همچنین آزادی بشری باید در حقوق وی گنجانده شوند."
14:58
This was after the chaosهرج و مرج of the Frenchفرانسوی Revolutionانقلاب.
340
880000
2000
این حرف بعد از آشفتگی ناشی از انقلاب فرانسه زده میشه.
15:00
So onceیک بار you see this -- onceیک بار you see
341
882000
2000
پس وقتی اینها رو درک کردید -- دیدین که لیبرالها و محافظه کارها هر یک بنوعی کمک میکنن،
15:02
that liberalsلیبرال ها and conservativesمحافظه کاران bothهر دو have something to contributeمشارکت,
342
884000
3000
پس وقتی اینها رو درک کردید -- دیدین که لیبرالها و محافظه کارها هر یک بنوعی کمک میکنن،
15:05
that they formفرم a balanceتعادل on changeتغییر دادن versusدر مقابل stabilityثبات --
343
887000
3000
برای تشکیل یه تعادل-- بعد فکر میکنم راه باز میشه برای بیرون آمدن از ماتریس اخلاقی.
15:08
then I think the way is openباز کن to stepگام outsideخارج از the moralاخلاقی matrixماتریس.
344
890000
3000
برای تشکیل یه تعادل-- بعد فکر میکنم راه باز میشه برای بیرون آمدن از ماتریس اخلاقی.
15:11
This is the great insightبینش، بصیرت، درون بینی that all the Asianآسیایی religionsادیان have attainedدست یافتنی.
345
893000
5000
این در عمق همه تعلیمات مذهبی آسیایی نهفته است.به یین و یانگ فکر کنید.
15:16
Think about yinیین and yangیانگ.
346
898000
2000
این در عمق همه تعلیمات مذهبی آسیایی نهفته است.به یین و یانگ فکر کنید.
15:18
Yinیین and yangیانگ aren'tنه enemiesدشمنان. Yinیین and yangیانگ don't hateنفرت eachهر یک other.
347
900000
2000
یین و یانگ با هم دشمن نیستند. از همدیگه هم بدشون نمیاد.
15:20
Yinیین and yangیانگ are bothهر دو necessaryلازم است, like night and day,
348
902000
2000
یین و یانگ هر دو لازم هستند. مثل شب و روز، برای پیشبرد دنیا.
15:22
for the functioningعملکرد of the worldجهان.
349
904000
2000
یین و یانگ هر دو لازم هستند. مثل شب و روز، برای پیشبرد دنیا.
15:24
You find the sameیکسان thing in Hinduismهندوئیسم.
350
906000
2000
شبیه به این در هندوئیسم هم اومده.
15:26
There are manyبسیاری highبالا godsخدایان in Hinduismهندوئیسم.
351
908000
2000
خدایان زیادی در هندوئیسم اومده. یکیشون ویشنو،خدای سازنده و یکی هم شیوا، خدای نابودگر است.
15:28
Two of them are Vishnuویشنو, the preserverنگهدارنده, and Shivaشیوا, the destroyerنابودگر.
352
910000
3000
خدایان زیادی در هندوئیسم اومده. یکیشون ویشنو،خدای سازنده و یکی هم شیوا، خدای نابودگر است.
15:31
This imageتصویر actuallyدر واقع is bothهر دو of those godsخدایان sharingبه اشتراک گذاری the sameیکسان bodyبدن.
353
913000
3000
این خدایان در واقع مثل دو روح در یک بدن هستن.
15:34
You have the markingsنشانه گذاری of Vishnuویشنو on the left,
354
916000
2000
ویشنو در سمت چپه، پس ما میتونیم بعنوان خدای محافظه کار از او یاد کنیم،
15:36
so we could think of Vishnuویشنو as the conservativeمحافظه کار god.
355
918000
3000
ویشنو در سمت چپه، پس ما میتونیم بعنوان خدای محافظه کار از او یاد کنیم،
15:39
You have the markingsنشانه گذاری of Shivaشیوا on the right,
356
921000
2000
شیوا در سمت راسته، پس شیوا یه خدای لیبراله -- و همه با هم کار میکنن.
15:41
Shiva'sشوی the liberalلیبرال god. And they work togetherبا یکدیگر.
357
923000
2000
شیوا در سمت راسته، پس شیوا یه خدای لیبراله -- و همه با هم کار میکنن.
15:43
You find the sameیکسان thing in Buddhismبودیسم.
358
925000
2000
شبیه همین رو در بودیسم هم میبینید.
15:45
These two stanzasstanzas containحاوی, I think, the deepestعمیق ترین insightsبینش
359
927000
2000
این دو بند، بنظر من عمیقترین دیدگاهی هستند که تابحال در روانشناسی اخلاقی بدست امده اند.
15:47
that have ever been attainedدست یافتنی into moralاخلاقی psychologyروانشناسی.
360
929000
3000
این دو بند، بنظر من عمیقترین دیدگاهی هستند که تابحال در روانشناسی اخلاقی بدست امده اند.
15:50
From the Zenذن masterاستاد Seng-ts'anSeng-ts'an:
361
932000
2000
استاد ذن، سنگ-تسان میگه:
15:52
"If you want the truthحقیقت to standایستادن clearروشن است before you, never be for or againstدر برابر.
362
934000
4000
"اگر میخوای که حقیقت رو دریابی، هرگز طرفدار یا مخالف چیزی نباش،
15:56
The struggleتقلا betweenبین for and againstدر برابر is the mind'sذهن worstبدترین diseaseمرض."
363
938000
4000
کشمکش بین طرفدار یا مخالف چیزی بودن، بدترین بیماری ذهنه"
16:00
Now unfortunatelyمتاسفانه, it's a diseaseمرض
364
942000
2000
حال متاسفانه، این بیماری است که بسیاری از رهبران دنیا رو مبتلا کرده.
16:02
that has been caughtگرفتار by manyبسیاری of the world'sجهان leadersرهبران.
365
944000
2000
حال متاسفانه، این بیماری است که بسیاری از رهبران دنیا رو مبتلا کرده.
16:04
But before you feel superiorبرتر to Georgeجورج Bushبوته,
366
946000
3000
ولی قبل از اینکه احساس برتری نسبت به جرج بوش بکنید،
16:07
before you throwپرت كردن a stoneسنگ, askپرسیدن yourselfخودت, do you acceptقبول کردن this?
367
949000
4000
یا سنگ پرتاب کنید، از خودتون بپرسید: آیا تو اینو میپذیری؟
16:11
Do you acceptقبول کردن steppingقدم زدن out of the battleنبرد of good and evilبد?
368
953000
3000
آیا میپذیری که پاتو از "جبهه جنگ خوب" و بد بیرون بگذاری؟
16:14
Can you be not for or againstدر برابر anything?
369
956000
3000
میتونی نه طرفدار و نه مخالف چیزی باشی؟
16:18
So, what's the pointنقطه? What should you do?
370
960000
3000
حالا نکته اش کجاست؟ باید چیکار کرد؟ خوب اگه دیدگاه عالی فیلسوفهای آسیایی رو برداری
16:21
Well, if you take the greatestبزرگترین insightsبینش
371
963000
2000
حالا نکته اش کجاست؟ باید چیکار کرد؟ خوب اگه دیدگاه عالی فیلسوفهای آسیایی رو برداری
16:23
from ancientباستانی Asianآسیایی philosophiesفلسفه ها and religionsادیان,
372
965000
2000
حالا نکته اش کجاست؟ باید چیکار کرد؟ خوب اگه دیدگاه عالی فیلسوفهای آسیایی رو برداری
16:25
and you combineترکیب کردن them with the latestآخرین researchپژوهش on moralاخلاقی psychologyروانشناسی,
373
967000
2000
و با تحقیقات اخیر روانشناسی اخلاقی ترکیب کنی، فکر میکنم به این نتایج برسی:
16:27
I think you come to these conclusionsنتیجه گیری:
374
969000
2000
و با تحقیقات اخیر روانشناسی اخلاقی ترکیب کنی، فکر میکنم به این نتایج برسی:
16:29
that our righteousصالح mindsذهنها were designedطراحی شده by evolutionسیر تکاملی
375
971000
4000
که ذهن حق گرای ما با فرگشت طراحی شده،که ما رو در گروهها گرد هم بیاره
16:33
to uniteمتحد کردن us into teamsتیم ها, to divideتقسیم کنید us againstدر برابر other teamsتیم ها
376
975000
3000
که ذهن حق گرای ما با فرگشت طراحی شده،که ما رو در گروهها گرد هم بیاره
16:36
and then to blindنابینا us to the truthحقیقت.
377
978000
2000
و علیه گروههای دیگه بر انگیزه و بعد ما رو نسبت به حقیقت کور کنه.
16:39
So what should you do? Am I tellingگفتن you to not striveتلاش کن?
378
981000
4000
پس حالا شما باید چکار کنید؟ آیا من دارم میگم که تلاش نکنید؟ که به سنگ-تسان رو بیارید
16:43
Am I tellingگفتن you to embraceپذیرفتن Seng-ts'anSeng-ts'an and stop,
379
985000
3000
پس حالا شما باید چکار کنید؟ آیا من دارم میگم که تلاش نکنید؟ که به سنگ-تسان رو بیارید
16:46
stop with this struggleتقلا of for and againstدر برابر?
380
988000
3000
و تلاش برای طرفدار یا ضد چیزی بودن رو کنار بگذارید؟ نه ابدا. من اینو نمیگم.
16:49
No, absolutelyکاملا not. I'm not sayingگفت: that.
381
991000
2000
و تلاش برای طرفدار یا ضد چیزی بودن رو کنار بگذارید؟ نه ابدا. من اینو نمیگم.
16:51
This is an amazingحیرت آور groupگروه of people who are doing so much,
382
993000
3000
گروههای زیادی هستند که دارن بسیار زحمت میکشن، بسیار از استعدادشون استفاده میکنن،
16:54
usingاستفاده كردن so much of theirخودشان talentاستعداد, theirخودشان brillianceدرخشان, theirخودشان energyانرژی, theirخودشان moneyپول,
383
996000
4000
گروههای زیادی هستند که دارن بسیار زحمت میکشن، بسیار از استعدادشون استفاده میکنن،
16:58
to make the worldجهان a better placeمحل, to fightمبارزه کردن --
384
1000000
2000
که جهان رو به یه جای بهتری تبدیل کنن، با اشتباهها میجنگن، مشکلات رو حل میکنن.
17:00
to fightمبارزه کردن wrongsاشتباهات, to solveحل problemsمشکلات.
385
1002000
3000
که جهان رو به یه جای بهتری تبدیل کنن، با اشتباهها میجنگن، مشکلات رو حل میکنن.
17:04
But as we learnedیاد گرفتم from Samanthaسامانتا Powerقدرت, in her storyداستان
386
1006000
4000
ولی همونطور که ما از سامانتا در داستانش یاد گرفتیم نمیشه فقط گفت:"تو غلط میگی و من درست."
17:08
about Sergioسرجیو VieiraVieira deد Melloملودی, you can't just go chargingشارژ in,
387
1010000
5000
ولی همونطور که ما از سامانتا در داستانش یاد گرفتیم نمیشه فقط گفت:"تو غلط میگی و من درست."
17:13
sayingگفت:, "You're wrongاشتباه, and I'm right."
388
1015000
2000
ولی همونطور که ما از سامانتا در داستانش یاد گرفتیم نمیشه فقط گفت:"تو غلط میگی و من درست."
17:15
Because, as we just heardشنیدم, everybodyهمه thinksفکر می کند they are right.
389
1017000
4000
چون همینطو که شنیدید، هر کسی فکر میکنه خودش درست میگه.
17:19
A lot of the problemsمشکلات we have to solveحل
390
1021000
2000
مشکلات زیادی برای حل کردن وجود داره، به ما نیاز هست که درآدمهای دیگر تغییر ایجاد کنیم.
17:21
are problemsمشکلات that requireنیاز us to changeتغییر دادن other people.
391
1023000
3000
مشکلات زیادی برای حل کردن وجود داره، به ما نیاز هست که درآدمهای دیگر تغییر ایجاد کنیم.
17:24
And if you want to changeتغییر دادن other people, a much better way to do it
392
1026000
3000
و اگه میخوای بقیه افراد رو تغییر بدی، اول باید بفهمیم ما کی هستیم -- روانشناسی اخلاقیمون چی هست،
17:27
is to first understandفهمیدن who we are -- understandفهمیدن our moralاخلاقی psychologyروانشناسی,
393
1029000
4000
و اگه میخوای بقیه افراد رو تغییر بدی، اول باید بفهمیم ما کی هستیم -- روانشناسی اخلاقیمون چی هست،
17:31
understandفهمیدن that we all think we're right -- and then stepگام out,
394
1033000
3000
بفهمیم که همه ما فکر میکنیم که ما درست میگیم -- بعد پا بیرون گذاشته --
17:34
even if it's just for a momentلحظه, stepگام out -- checkبررسی in with Seng-ts'anSeng-ts'an.
395
1036000
4000
حتی برای یک لحظه، پا بیرون گذاشته و با سنگ تسان بسنجیدش.
17:38
Stepگام out of the moralاخلاقی matrixماتریس,
396
1040000
2000
از ماترسی اخلاقی بیرون بیاید، سعی کنید مثل یه بازی ببینید که در اون هر کسی فکر میکنه حق با اونه،
17:40
just try to see it as a struggleتقلا playingبازی کردن out,
397
1042000
2000
از ماترسی اخلاقی بیرون بیاید، سعی کنید مثل یه بازی ببینید که در اون هر کسی فکر میکنه حق با اونه،
17:42
in whichکه everybodyهمه does think they're right,
398
1044000
2000
از ماترسی اخلاقی بیرون بیاید، سعی کنید مثل یه بازی ببینید که در اون هر کسی فکر میکنه حق با اونه،
17:44
and everybodyهمه, at leastکمترین, has some reasonsدلایل -- even if you disagreeمخالف بودن with them --
399
1046000
2000
و هر کسی، حد اقل، یه دلیل برای خودش داره -- حتی اگه شما باهاش مخالف باشید --
17:46
everybodyهمه has some reasonsدلایل for what they're doing.
400
1048000
2000
و هر کسی، حد اقل، یه دلیل برای خودش داره -- حتی اگه شما باهاش مخالف باشید --
17:48
Stepگام out.
401
1050000
1000
پا بیرون بگذارید.
17:49
And if you do that, that's the essentialضروری است moveحرکت to cultivateکشت کن moralاخلاقی humilityفروتنی,
402
1051000
4000
و اکه ابن کار رو بکنید، اولین قدم اساسی برای یک فروتنی اخلاقی برداشتید،
17:53
to get yourselfخودت out of this self-righteousnessخود عدالت,
403
1055000
1000
برای اینکه خودتون رو از حق به جانب بودن، که یک حالت نرمال بشریه بیرون بیارید.
17:54
whichکه is the normalطبیعی humanانسان conditionوضعیت.
404
1056000
2000
برای اینکه خودتون رو از حق به جانب بودن، که یک حالت نرمال بشریه بیرون بیارید.
17:56
Think about the Dalaiدالای Lamaلاما.
405
1058000
2000
به دالایلاما فکر کنید. به گستره وسیع اقتدار روحانی دالایلاما فکر کنید --
17:58
Think about the enormousعظیم moralاخلاقی authorityقدرت of the Dalaiدالای Lamaلاما --
406
1060000
3000
به دالایلاما فکر کنید. به گستره وسیع اقتدار روحانی دالایلاما فکر کنید --
18:01
and it comesمی آید from his moralاخلاقی humilityفروتنی.
407
1063000
2000
همه این قدرت ناشی از فروتنی اوست.
18:05
So I think the pointنقطه -- the pointنقطه of my talk,
408
1067000
2000
فکر میکنم هدف من از این کنفرانس و هدف TED اینه که ما یه گروهیم که مشتاقیم
18:07
and I think the pointنقطه of TEDTED --
409
1069000
3000
فکر میکنم هدف من از این کنفرانس و هدف TED اینه که ما یه گروهیم که مشتاقیم
18:10
is that this is a groupگروه that is passionatelyپرشور engagedنامزد شده
410
1072000
3000
فکر میکنم هدف من از این کنفرانس و هدف TED اینه که ما یه گروهیم که مشتاقیم
18:13
in the pursuitدستیابی of changingتغییر دادن the worldجهان for the better.
411
1075000
2000
جهان رو به یک جای بهتر تبدیل کنیم.
18:15
People here are passionatelyپرشور engagedنامزد شده
412
1077000
3000
افراد در اینجا مشتاق بهتر کردن جهان هستند.
18:18
in tryingتلاش کن to make the worldجهان a better placeمحل.
413
1080000
2000
افراد در اینجا مشتاق بهتر کردن جهان هستند.
18:20
But there is alsoهمچنین a passionateپرشور commitmentتعهد to the truthحقیقت.
414
1082000
3000
و همچنین یه تعهد احساسی به این واقعیت وجود داره.
18:23
And so I think that the answerپاسخ is to use that passionateپرشور commitmentتعهد
415
1085000
4000
پس فکر میکنم جواب اینه که بیاید از این تعهد احساسی استفاده کنیم،در جهت ساخت یک آینده بهتر.
18:27
to the truthحقیقت to try to turnدور زدن it into a better futureآینده for us all.
416
1089000
4000
پس فکر میکنم جواب اینه که بیاید از این تعهد احساسی استفاده کنیم،در جهت ساخت یک آینده بهتر.
18:31
Thank you.
417
1093000
1000
ممنون.
18:32
(Applauseتشویق و تمجید)
418
1094000
3000
(تشویق)
Translated by zahra soleimanian
Reviewed by Ali Moeeny

▲Back to top

ABOUT THE SPEAKER
Jonathan Haidt - Social psychologist
Jonathan Haidt studies how -- and why -- we evolved to be moral and political creatures.

Why you should listen

By understanding more about our moral psychology and its biases, Jonathan Haidt says we can design better institutions (including companies, universities and democracy itself), and we can learn to be more civil and open-minded toward those who are not on our team.

Haidt is a social psychologist whose research on morality across cultures led to his 2008 TED Talk on the psychological roots of the American culture war, and his 2013 TED Talk on how "common threats can make common ground." In both of those talks he asks, "Can't we all disagree more constructively?" Haidt's 2012 TED Talk explored the intersection of his work on morality with his work on happiness to talk about "hive psychology" -- the ability that humans have to lose themselves in groups pursuing larger projects, almost like bees in a hive. This hivish ability is crucial, he argues, for understanding the origins of morality, politics, and religion. These are ideas that Haidt develops at greater length in his book, The Righteous Mind: Why Good People are Divided by Politics and Religion.

Haidt joined New York University Stern School of Business in July 2011. He is the Thomas Cooley Professor of Ethical Leadership, based in the Business and Society Program. Before coming to Stern, Professor Haidt taught for 16 years at the University of Virginia in the department of psychology.

Haidt's writings appear frequently in the New York Times and The Wall Street Journal. He was named one of the top global thinkers by Foreign Policy magazine and by Prospect magazine. Haidt received a B.A. in Philosophy from Yale University, and an M.A. and Ph.D. in Psychology from the University of Pennsylvania.

More profile about the speaker
Jonathan Haidt | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee