ABOUT THE SPEAKER
Jonathan Haidt - Social psychologist
Jonathan Haidt studies how -- and why -- we evolved to be moral and political creatures.

Why you should listen

By understanding more about our moral psychology and its biases, Jonathan Haidt says we can design better institutions (including companies, universities and democracy itself), and we can learn to be more civil and open-minded toward those who are not on our team.

Haidt is a social psychologist whose research on morality across cultures led to his 2008 TED Talk on the psychological roots of the American culture war, and his 2013 TED Talk on how "common threats can make common ground." In both of those talks he asks, "Can't we all disagree more constructively?" Haidt's 2012 TED Talk explored the intersection of his work on morality with his work on happiness to talk about "hive psychology" -- the ability that humans have to lose themselves in groups pursuing larger projects, almost like bees in a hive. This hivish ability is crucial, he argues, for understanding the origins of morality, politics, and religion. These are ideas that Haidt develops at greater length in his book, The Righteous Mind: Why Good People are Divided by Politics and Religion.

Haidt joined New York University Stern School of Business in July 2011. He is the Thomas Cooley Professor of Ethical Leadership, based in the Business and Society Program. Before coming to Stern, Professor Haidt taught for 16 years at the University of Virginia in the department of psychology.

Haidt's writings appear frequently in the New York Times and The Wall Street Journal. He was named one of the top global thinkers by Foreign Policy magazine and by Prospect magazine. Haidt received a B.A. in Philosophy from Yale University, and an M.A. and Ph.D. in Psychology from the University of Pennsylvania.

More profile about the speaker
Jonathan Haidt | Speaker | TED.com
TED2008

Jonathan Haidt: The moral roots of liberals and conservatives

ג'ונתן היידט על שורשי המוסר של ליברלים ושמרנים (שמאלנים וימניים)

Filmed:
3,635,704 views

הפסיכולוג ג'ונתן היידט לומד את חמשת הערכים המוסריים שנמצאים בבסיס הבחירות הפוליטיות שלנו, בין אם אנחנו שמאל, ימין או מרכז. בשיחה מאירת עיניים זו, הוא מצביע על הערכים המוסריים שליברלים ושמרנים הכי נוטים לכבד.
- Social psychologist
Jonathan Haidt studies how -- and why -- we evolved to be moral and political creatures. Full bio

Double-click the English transcript below to play the video.

00:19
Supposeלְהַנִיחַ that two Americanאֲמֶרִיקָאִי friendsחברים are travelingנסיעה togetherיַחַד in Italyאִיטַלִיָה.
0
1000
3000
נניח ששני חברים אמריקאים מטיילים ביחד באיטליה
00:22
They go to see Michelangelo'sמיכלאנג'לו "Davidדוד,"
1
4000
2000
הם הולכים לראות את הפסל "דויד" של מיכאלנג'לו,
00:24
and when they finallyסוף כל סוף come faceפָּנִים to faceפָּנִים with the statueפסל,
2
6000
2000
וכאשר הם סוף סוף ניצבים מול הפסל
00:26
they bothשניהם freezeהַקפָּאָה deadמֵת in theirשֶׁלָהֶם tracksמסלולים.
3
8000
2000
שניהם קופאים על מקומם.
00:28
The first guy -- we'llטוֹב call him Adamאדם --
4
10000
2000
הבחור הראשון -- נקרא לו אדם --
00:30
is transfixedמסומנת by the beautyיוֹפִי of the perfectמושלם humanבן אנוש formטופס.
5
12000
3000
משותק מהיופי של דמות האדם המושלמת.
00:33
The secondשְׁנִיָה guy -- we'llטוֹב call him Billשטר כסף --
6
15000
2000
הבחור השני -- נקרא לו ביל --
00:35
is transfixedמסומנת by embarrassmentמְבוּכָה, at staringבוהה at the thing there in the centerמֶרְכָּז.
7
17000
4000
משותק במבוכה מנעיצת מבט בדבר שיש לפסל במרכז.
00:40
So here'sהנה my questionשְׁאֵלָה for you:
8
22000
2000
אז הנה השאלה שלי אליכם:
00:42
whichאיזה one of these two guys was more likelyסָבִיר to have votedהצביעו for Georgeג 'ורג' Bushשיח,
9
24000
4000
מי משני הבחורים האלה היה צפוי יותר להצביע עבור ג'ורג' בוש,
00:46
whichאיזה for Alאל Goreלִנְגוֹחַ?
10
28000
2000
ומי עבור אל גור?
00:48
I don't need a showלְהַצִיג of handsידיים
11
30000
1000
אני לא צריך ידיים מורמות
00:49
because we all have the sameאותו politicalפּוֹלִיטִי stereotypesסטריאוטיפים.
12
31000
3000
מכיוון שלכולנו יש את אותם סטראוטיפים.
00:52
We all know that it's Billשטר כסף.
13
34000
2000
כלנו יודעים שבשזה ביל (שיצביע עבור בוש)
00:54
And in this caseמקרה, the stereotypeסטֵרֵאוֹטִיפּ correspondsתואמת to realityמְצִיאוּת.
14
36000
4000
ובמקרה הזה הסטראוטיפ מתאים למציאות.
00:58
It really is a factעוּבדָה that liberalsליברלים are much higherגבוה יותר than conservativesשמרנים
15
40000
3000
זאת עובדה שליברלים נמצאים במקום גבוה יותר
01:01
on a majorגדול personalityאִישִׁיוּת traitתְכוּנָה calledשקוראים לו opennessפְּתִיחוּת to experienceניסיון.
16
43000
3000
בנוגע למאפיין אישיות עיקרי הנקרא "פתיחות עבור התנסות חדשה".
01:04
People who are highגָבוֹהַ in opennessפְּתִיחוּת to experienceניסיון
17
46000
2000
אנשים הפתוחים להתנסויות חדשות
01:06
just craveלְהִשְׁתוֹקֵק noveltyטְרִיוּת, varietyמגוון, diversityגיוון, newחָדָשׁ ideasרעיונות, travelלִנְסוֹעַ.
18
48000
4000
משתוקקים לחידוש, למבחר, לגיוון, לרעיונות חדשים, לטיולים.
01:10
People lowנָמוּך on it like things that are familiarמוּכָּר, that are safeבטוח and dependableמְהֵימָן.
19
52000
5000
אנשים שהם פחות כך אוהבים דברים שהם מוכרים , שהם בטוחים וניתן להסתמך עליהם.
01:15
If you know about this traitתְכוּנָה,
20
57000
2000
אם אתה מודע למאפיין הזה,
01:17
you can understandמבין a lot of puzzlesפאזלים about humanבן אנוש behaviorהִתְנַהֲגוּת.
21
59000
2000
אתה יכול להבין הרבה מהמורכבויות של ההתנהגות האנושית.
01:19
You can understandמבין why artistsאמנים are so differentשונה from accountantsרואי חשבון.
22
61000
3000
אתה יכול להבין מדוע אומנים כל כך שונים מרואי חשבון.
01:22
You can actuallyלמעשה predictלַחֲזוֹת what kindsמיני of booksספרים they like to readלקרוא,
23
64000
2000
אתה יכול למעשה לחזות איזה סוגי ספרים הם אוהבים לקרוא,
01:24
what kindsמיני of placesמקומות they like to travelלִנְסוֹעַ to,
24
66000
2000
באיזה מקומות הם אוהבים לטייל,
01:26
and what kindsמיני of foodמזון they like to eatלאכול.
25
68000
2000
ואיזה סוגי אוכל הם אוהבים לאכול.
01:28
Onceפַּעַם you understandמבין this traitתְכוּנָה, you can understandמבין
26
70000
3000
ברגע שהבנת את המאפיין הזה, אתה יכול להבין
01:31
why anybodyמִישֶׁהוּ would eatלאכול at Applebee'sApplebee של, but not anybodyמִישֶׁהוּ that you know.
27
73000
4000
מדוע מישהו יאכל באפלביי (רשת מסעדות המשרתת בעיקר את המעמד הנמוך) אבל לא מישהו שאתה מכיר
01:35
(Laughterצחוק)
28
77000
6000
(צחוק)
01:41
This traitתְכוּנָה alsoגַם tellsאומר us a lot about politicsפּוֹלִיטִיקָה.
29
83000
2000
המאפיין הזה מספר לנו המון על פוליטיקה.
01:43
The mainרָאשִׁי researcherחוֹקֵר of this traitתְכוּנָה, Robertרוברט McCraeמק'קרה saysאומר that,
30
85000
3000
החוקר הבולט של המאפיין הזה ,רוברט מקריי, אומר ש,
01:46
"Openלִפְתוֹחַ individualsיחידים have an affinityזִיקָה for liberalלִיבֵּרָלִי, progressiveפּרוֹגרֵסִיבִי, left-wingשמאלני politicalפּוֹלִיטִי viewsתצוגות" --
31
88000
4000
"לאנשים פתוחים ישנה משיכה לדיעות פוליטיות שמאלניות ליברליות מתקדמות --
01:50
they like a societyחֶברָה whichאיזה is openלִפְתוֹחַ and changingמִשְׁתַנֶה --
32
92000
2000
הם אוהבים חברה פתוחה ומשתנה --
01:52
"whereasואילו closedסָגוּר individualsיחידים preferלְהַעֲדִיף conservativeשמרני, traditionalמָסוֹרתִי, right-wingאגף ימני viewsתצוגות."
33
94000
5000
בעוד אנשים סגורים מעדיפים דיעות שמרניות, מסורתיות, ימניות".
01:57
This traitתְכוּנָה alsoגַם tellsאומר us a lot about the kindsמיני of groupsקבוצות people joinלְהִצְטַרֵף.
34
99000
4000
המאפיין גם מספר לנו הרבה על סוגי הקבוצות שאנשים מצטרפים אליהן.
02:01
So here'sהנה the descriptionתיאור of a groupקְבוּצָה I foundמצאתי on the Webאינטרנט.
35
103000
2000
אז הנה תאור של קבוצה שמצאתי באינטרנט.
02:03
What kindsמיני of people would joinלְהִצְטַרֵף a globalגלוֹבָּלִי communityהקהילה
36
105000
2000
איזה סוגי אנשים יצטרפו לקבוצה עולמית
02:05
welcomingמסביר פנים people from everyכֹּל disciplineמשמעת and cultureתַרְבּוּת,
37
107000
2000
המקבלת אנשים מכל דיסציפלינה ותרבות,
02:07
who seekלְחַפֵּשׂ a deeperעמוק יותר understandingהֲבָנָה of the worldעוֹלָם,
38
109000
2000
המחפשים הבנה עמוקה יותר של העולם,
02:09
and who hopeלְקַווֹת to turnלפנות that understandingהֲבָנָה into a better futureעתיד for us all?
39
111000
3000
ואשר מקווים להפוך את ההבנה הזאת לעתיד טוב יותר עבור כולנו?
02:12
This is from some guy namedבשם Tedטד.
40
114000
2000
וזה מבחור כלשהו בשם : TED.
02:14
(Laughterצחוק)
41
116000
2000
(צחוק)
02:16
Well, let's see now, if opennessפְּתִיחוּת predictsצופה who becomesהופך liberalלִיבֵּרָלִי,
42
118000
4000
טוב, בואו נראה, אם פתיחות מעידה על ליברליות ,
02:20
and opennessפְּתִיחוּת predictsצופה who becomesהופך a TEDsterטדסטר,
43
122000
2000
ופתיחות צופה מי יהפוך לחבר ב-TED
02:22
then mightאולי we predictלַחֲזוֹת that mostרוב TEDstersטדסטרים are liberalלִיבֵּרָלִי?
44
124000
3000
האם ניתן להגיד שרוב האנשים ב-TED הם ליברלים ?
02:25
Let's find out.
45
127000
1000
באו נברר.
02:26
I'm going to askלִשְׁאוֹל you to raiseהַעֲלָאָה your handיד, whetherהאם you are liberalלִיבֵּרָלִי, left of centerמֶרְכָּז --
46
128000
4000
אני הולך לבקש מכם להרים את ידכם אם אתם ליברלים- שמלאה מהמרכז--
02:30
on socialחֶברָתִי issuesנושאים, we're talkingשִׂיחָה about, primarilyבְּרֹאשׁ וּבְרִאשׁוֹנָה --
47
132000
2000
בנושאים חברתיים שאנחנו מדברים עליהם, בעיקר --
02:32
or conservativeשמרני, and I'll give a thirdשְׁלִישִׁי optionאוֹפְּצִיָה,
48
134000
2000
או שמרנים, ואני אתן גם אפשרות שלישית
02:34
because I know there are a numberמספר of libertariansליברטריאנים in the audienceקהל.
49
136000
2000
מכיוון שאני יודע שישנם אנשים ליברטריאנים (דוגל בחופש כמעט מוחלט) בקהל.
02:36
So, right now, please raiseהַעֲלָאָה your handיד --
50
138000
2000
אז ממש עכשיו ,בבקשה הרימו את ידכם --
02:38
down in the simulcastסימולציה roomsחדרים, too,
51
140000
1000
גם אתם למטה בחדר הסימולטני
02:39
let's let everybodyכולם see who'sמי זה here --
52
141000
2000
בואו ניתן לכולם לראות מי כאן.
02:41
please raiseהַעֲלָאָה your handיד if you would say that you are liberalלִיבֵּרָלִי or left of centerמֶרְכָּז.
53
143000
3000
בבקשה הרימו את ידכם אם הייתם אומרים שאתם ליברלים שמאלה מהמרכז.
02:44
Please raiseהַעֲלָאָה your handיד highגָבוֹהַ right now. OK.
54
146000
3000
.בבקשה הרימו את ידכם גובה עכשיו. או קיי.
02:48
Please raiseהַעֲלָאָה your handיד if you'dהיית רוצה say you're libertarianליברטי.
55
150000
2000
בקשה הרימו את ידכם אם אתם מגדירים את עצמכם כליברטריאנים.
02:51
OK, about a -- two dozenתְרֵיסַר.
56
153000
2000
או קיי. בערך שני תריסר.
02:53
And please raiseהַעֲלָאָה your handיד if you'dהיית רוצה say you are right of centerמֶרְכָּז or conservativeשמרני.
57
155000
3000
ובבקשה הרימו את ידכם אם הייתם אומרים שאתם ימינה מהמרכז או שמרניים.
02:56
One, two, threeשְׁלוֹשָׁה, fourארבעה, fiveחָמֵשׁ -- about eightשמונה or 10.
58
158000
5000
אחד, שנים, שלושה, ארבעה, חמישה -- בערך שמונה או עשרה.
03:02
OK. This is a bitbit of a problemבְּעָיָה.
59
164000
3000
או קיי. זאת בעצם קצת בעיה.
03:05
Because if our goalמטרה is to understandמבין the worldעוֹלָם,
60
167000
3000
מכיוון שאם מטרתנו היא להבין את העולם,
03:08
to seekלְחַפֵּשׂ a deeperעמוק יותר understandingהֲבָנָה of the worldעוֹלָם,
61
170000
2000
לחפש הבנה עמוקה יותר של העולם,
03:10
our generalכללי lackחוֹסֶר of moralמוסר השכל diversityגיוון here is going to make it harderקשה יותר.
62
172000
3000
החוסר הכללי שלנו בגיוון מוסרי הולך להפוך את זה לקשה יותר.
03:13
Because when people all shareלַחֲלוֹק valuesערכים, when people all shareלַחֲלוֹק moralsמוֹרָל,
63
175000
4000
מכיוון שכאשר אנשים כולם חולקים את אותם ערכים, כאשר אנשים חולקים כולם את אותה מוסריות,
03:17
they becomeהפכו a teamקְבוּצָה, and onceפַּעַם you engageלְהַעֲסִיק the psychologyפְּסִיכוֹלוֹגִיָה of teamsצוותים,
64
179000
3000
הם הופכים לקבוצה, וכאשר נכנסים לפסיכולוגיה של קבוצות,
03:20
it shutsנסגר down open-mindedראש פתוח thinkingחושב.
65
182000
2000
זה סותם את הגולל על פתיחות מחשבתית.
03:25
When the liberalלִיבֵּרָלִי teamקְבוּצָה losesמאבד, as it did in 2004,
66
187000
4000
כאשר הקבוצה הליברלית מפסידה, כמו שקרה ב-2004,
03:29
and as it almostכִּמעַט did in 2000, we comfortנוחות ourselvesבְּעָצמֵנוּ.
67
191000
4000
וכמעט קרה ב-2000, אנחנו מנחמים את עצמינו.
03:33
(Laughterצחוק)
68
195000
2000
באדום - ארצות הברית של קנדה, בירוק - הארץ של ישו
03:35
We try to explainלהסביר why halfחֲצִי of Americaאמריקה votedהצביעו for the other teamקְבוּצָה.
69
197000
4000
אנחנו מנסים להסביר מדוע חצי מאמריקה הצביעו עבור הקבוצה השניה
03:39
We think they mustצריך be blindedעיוור by religionדָת, or by simpleפָּשׁוּט stupidityטִפּשׁוּת.
70
201000
5000
אנחנו חושבים שהם כנראה עוורו ע"י הדת או פשוט ע"י טיפשות.
03:44
(Laughterצחוק)
71
206000
3000
באמצע - טמבליסטן
03:47
(Applauseתְשׁוּאוֹת)
72
209000
8000
(מחיאות כפיים)
03:55
So, if you think that halfחֲצִי of Americaאמריקה votesקולות Republicanרֶפּוּבּלִיקָנִי
73
217000
6000
אז אם אתם חושבים שחצי מאמריקה הצביעו לרפובליקנים
04:01
because they are blindedעיוור in this way,
74
223000
3000
מכיוון שהם עוורו בצורה הזאת,
04:04
then my messageהוֹדָעָה to you is that you're trappedלכודים in a moralמוסר השכל matrixמַטרִיצָה,
75
226000
3000
אז המסר שלי אליכם הוא שאתם כלואים במטריצת (מטריקס) מוסר
04:07
in a particularמיוחד moralמוסר השכל matrixמַטרִיצָה.
76
229000
1000
במטריצת מוסר מאוד מסויימת.
04:08
And by the matrixמַטרִיצָה, I mean literallyפשוטו כמשמעו the matrixמַטרִיצָה, like the movieסרט "The Matrixמַטרִיצָה."
77
230000
4000
וכאשר אני אומר מטריקס (מטריצה), אני מתכוון מטריקס פשוטו כמשמעו ממש כמו בסרט "המטריקס".
04:12
But I'm here todayהיום to give you a choiceבְּחִירָה.
78
234000
2000
אבל אני כאן היום לתת לכם בחירה
04:14
You can eitherאוֹ take the blueכָּחוֹל pillכַּדוּר and stickמקל to your comfortingמנחם delusionsאשליות,
79
236000
4000
אתם יכולים לבחור לקחת את הגלולה הכחולה ולהישאר עם האשליות הנוחות שלכם
04:18
or you can take the redאָדוֹם pillכַּדוּר,
80
240000
2000
או לקחת את הגלולה האדומה,
04:20
learnלִלמוֹד some moralמוסר השכל psychologyפְּסִיכוֹלוֹגִיָה and stepשלב outsideבחוץ the moralמוסר השכל matrixמַטרִיצָה.
81
242000
3000
ללמוד קצת על הפסיכולוגיה של המוסר, ולצאת ממטריצת המוסר.
04:23
Now, because I know --
82
245000
2000
עכשיו, מכיוון שאני יודע --
04:25
(Applauseתְשׁוּאוֹת) --
83
247000
3000
(מחיאות כפיים)
04:28
OK, I assumeלְהַנִיחַ that answersתשובות my questionשְׁאֵלָה.
84
250000
2000
או קיי, אני מניח שזאת התשובה לשאלה שלי.
04:30
I was going to askלִשְׁאוֹל you whichאיזה one you pickedהרים, but no need.
85
252000
2000
עמדתי לשאול אתכם באיזה אפשרות בחרתם, אבל אין צורך.
04:32
You're all highגָבוֹהַ in opennessפְּתִיחוּת to experienceניסיון, and besidesחוץ מזה,
86
254000
2000
אתם כולכם נמצאים גבוה ב"פתיחות עבור התנסויות חדשות", ובכלל
04:34
it looksנראה like it mightאולי even tasteטַעַם good, and you're all epicuresאפיקורסים.
87
256000
3000
זה נראה כאילו יש לזה טעם טוב, וכולכם כאן אניני טעם.
04:37
So anywayבכל מקרה, let's go with the redאָדוֹם pillכַּדוּר.
88
259000
2000
אז בכל אופן, באו נלך על הגלולה האדומה.
04:39
Let's studyלימוד some moralמוסר השכל psychologyפְּסִיכוֹלוֹגִיָה and see where it takes us.
89
261000
2000
בואו נלמד קצת פסיכולוגיה של המוסר ונראה לאן זה לוקח אותנו.
04:41
Let's startהַתחָלָה at the beginningהתחלה.
90
263000
2000
בואו נתחיל בהתחלה.
04:43
What is moralityמוּסָרִיוּת and where does it come from?
91
265000
2000
מהי מוסריות ומאיפה היא באה?
04:45
The worstהכי גרוע ideaרַעְיוֹן in all of psychologyפְּסִיכוֹלוֹגִיָה
92
267000
2000
הרעיון הגרוע ביותר בכל הפסיכולוגיה הוא
04:47
is the ideaרַעְיוֹן that the mindאכפת is a blankרֵיק slateצִפחָה at birthהוּלֶדֶת.
93
269000
3000
הרעיון שהמוח נמצא במצב ריק בלידה.
04:50
Developmentalהִתפַּתְחוּתִי psychologyפְּסִיכוֹלוֹגִיָה has shownמוצג
94
272000
2000
פסיכולוגיה התפתחותית הראתה
04:52
that kidsילדים come into the worldעוֹלָם alreadyכְּבָר knowingיוֹדֵעַ so much
95
274000
2000
שילדים שרק באו לעלום כבר יודעים המון
04:54
about the physicalגוּפָנִי and socialחֶברָתִי worldsעולמות,
96
276000
2000
על העולם הפיזיקלי והחברתי,
04:56
and programmedאלחוטי to make it really easyקַל for them to learnלִלמוֹד certainמסוים things
97
278000
4000
ומתוכנתים כך שיהיה להם קל מאוד ללמוד דברים מסויימים
05:00
and hardקָשֶׁה to learnלִלמוֹד othersאחרים.
98
282000
1000
וקשה ללמוד דברים אחרים.
05:01
The bestהטוב ביותר definitionהַגדָרָה of innatenessאי-נוחות I've ever seenלראות --
99
283000
2000
ההגדרה הטובה ביותר של מולדות שראיתי מעולם --
05:03
this just clarifiesמבהיר so manyרב things for me --
100
285000
2000
זה פשוט מבהיר דברים כה רבים בשבילי --
05:05
is from the brainמוֹחַ scientistמַדְעָן Garyגארי Marcusמרקוס.
101
287000
2000
זה ממדען המוח גריי מרקוס
05:07
He saysאומר, "The initialהתחלתי organizationאִרגוּן of the brainמוֹחַ does not dependלִסְמוֹך that much on experienceניסיון.
102
289000
5000
הוא אומר, "הארגון הראשוני של המוח אינו תלוי כל כך בנסיון.
05:12
Natureטֶבַע providesמספק a first draftטְיוּטָה, whichאיזה experienceניסיון then revisesמתעדכן.
103
294000
3000
הטבע מספק טיוטה ראשונית, שהניסיון משפר.
05:15
Built-inמובנה doesn't mean unmalleableללא תחרות;
104
297000
2000
מובנה פירוש אינו בלתי ניתן לעיצוב;
05:17
it meansאומר organizedמְאוּרגָן in advanceלְקַדֵם of experienceניסיון."
105
299000
3000
פירושו מאורגן בהתאם להתקדמות הנסיון."
05:20
OK, so what's on the first draftטְיוּטָה of the moralמוסר השכל mindאכפת?
106
302000
2000
או קיי, אז מה נמצא בטיוטה הראשונית של המוח?
05:22
To find out, my colleagueעמית, Craigקרייג Josephיוסף, and I
107
304000
3000
כדי למצוא את התשובה לכך, עמיתי קרייג ג'וסף, ואני
05:25
readלקרוא throughדרך the literatureסִפְרוּת on anthropologyאַנתרוֹפּוֹלוֹגִיָה,
108
307000
2000
עברנו על הספרות בנושא אנתרופולוגיה,
05:27
on cultureתַרְבּוּת variationוָרִיאַצִיָה in moralityמוּסָרִיוּת
109
309000
2000
על ההבדלים התרבותיים במוסר
05:29
and alsoגַם on evolutionaryאֵבוֹלוּצִיוֹנִי psychologyפְּסִיכוֹלוֹגִיָה, looking for matchesהתאמות.
110
311000
2000
וגם על פסיכולוגיה התפתחותית, בחיפוש אחר התאמות.
05:31
What are the sortsמיני of things that people talk about acrossלְרוֹחָב disciplinesדיסציפלינות?
111
313000
3000
מה הם הדברים שאנשים מדברים עליהם בכל הדיסציפלינות,
05:34
That you find acrossלְרוֹחָב culturesתרבויות and even acrossלְרוֹחָב speciesמִין?
112
316000
2000
דברים שאתה מוצא לאורך תרבויות ואפילו מינים אחרים?
05:36
We foundמצאתי fiveחָמֵשׁ -- fiveחָמֵשׁ bestהטוב ביותר matchesהתאמות,
113
318000
2000
מצאנו חמש -- חמש ההתאמות הטובות ביותר,
05:38
whichאיזה we call the fiveחָמֵשׁ foundationsיסודות of moralityמוּסָרִיוּת.
114
320000
2000
ואנחנו קוראים להם חמש היסודות של המוסר.
05:40
The first one is harmלפגוע/careלְטַפֵּל.
115
322000
2000
הראשון הוא פגיעה בחלש- דאגה לאחר.
05:42
We're all mammalsיונקים here, we all have a lot of neuralעֲצַבִּי and hormonalהורמונלית programmingתִכנוּת
116
324000
4000
כולנו יונקים כאן, לכולנו יש תכנות נוירוני והורמונלי
05:46
that makesעושה us really bondאגרת חוב with othersאחרים, careלְטַפֵּל for othersאחרים,
117
328000
2000
שהופך אותנו מאוד קשורים לאחר, לדאוג לזולת,
05:48
feel compassionחֶמלָה for othersאחרים, especiallyבמיוחד the weakחלש and vulnerableפָּגִיעַ.
118
330000
3000
להרגיש רחמים לאחרים, במיוחד לחלשים ופגיעים.
05:51
It givesנותן us very strongחָזָק feelingsרגשות about those who causeגורם harmלפגוע.
119
333000
3000
זה גורם לנו להרגיש רגשות חזקים מאוד נגד אלו שפוגעים.
05:54
This moralמוסר השכל foundationקרן underliesבבסיס about 70 percentאָחוּז
120
336000
3000
היסוד המוסרי הזה נמצא בערך ב-70 אחוז
05:57
of the moralמוסר השכל statementsהצהרות I've heardשמע here at TEDTED.
121
339000
2000
מההצהרות המוסריות ששמעתי כאן ב-TED.
05:59
The secondשְׁנִיָה foundationקרן is fairnessהֲגִינוּת/reciprocityהֲדָדִיוּת.
122
341000
3000
היסוד השני הוא הגינות-הדדיות
06:02
There's actuallyלמעשה ambiguousדו - משמעי evidenceעֵדוּת
123
344000
2000
ישנן ,למעשה, ראיות שנויות במחלוקת
06:04
as to whetherהאם you find reciprocityהֲדָדִיוּת in other animalsבעלי חיים,
124
346000
2000
ניתן למצוא הדדיות אצל בעלי חיים,
06:06
but the evidenceעֵדוּת for people could not be clearerיותר ברור.
125
348000
2000
אבל הראיות לכך בבני אדם אינן יכולות להיות ברורות יותר.
06:08
This Normanנורמן Rockwellרוקוול paintingצִיוּר is calledשקוראים לו "The Goldenזָהוּב Ruleכְּלָל,"
126
350000
2000
הציור הזה של נורמן רוקוול נקרא "חוק הזהב",
06:10
and we heardשמע about this from Karenקארן Armstrongארמסטרונג, of courseקוּרס,
127
352000
2000
ושמענו על כך מקרן ארמסטרונג, כמובן,
06:12
as the foundationקרן of so manyרב religionsדתות.
128
354000
3000
כיסוד של כל כך הרבה דתות
06:15
That secondשְׁנִיָה foundationקרן underliesבבסיס the other 30 percentאָחוּז
129
357000
2000
היסוד השני נמצא בכ-30 אחוז
06:17
of the moralמוסר השכל statementsהצהרות I've heardשמע here at TEDTED.
130
359000
2000
מההצהרות ששמעתי כאן ב-TED.
06:19
The thirdשְׁלִישִׁי foundationקרן is in-groupבקבוצה/loyaltyנֶאֱמָנוּת.
131
361000
2000
היסוד השלישי הוא נאמנות קבוצתית.
06:21
You do find groupsקבוצות in the animalבעל חיים kingdomמַלְכוּת --
132
363000
2000
אנו מוצאים קבוצות בתוך ממלכת החיות--
06:23
you do find cooperativeשיתופי groupsקבוצות --
133
365000
2000
אנו מוצאים קבוצות שיתופיות --
06:25
but these groupsקבוצות are always eitherאוֹ very smallקָטָן or they're all siblingsאחים.
134
367000
3000
אבל כל הקבוצות האלו או שהן קטנות או שמדובר באחים.
06:28
It's only amongבין humansבני אנוש that you find very largeגָדוֹל groupsקבוצות of people
135
370000
3000
זה רק בקרב בני אדם שאנו מוצאים קבוצות גדולות
06:31
who are ableיכול to cooperateלְשַׁתֵף פְּעוּלָה, joinלְהִצְטַרֵף togetherיַחַד into groupsקבוצות,
136
373000
3000
המסוגלות לשתף פעולה, ולהתקבץ לקבוצות --
06:34
but in this caseמקרה, groupsקבוצות that are unitedמאוחד to fightמַאֲבָק other groupsקבוצות.
137
376000
4000
אבל במקרה הזה, קבוצות המאוחדות להילחם בקבוצות אחרות.
06:38
This probablyכנראה comesבא from our long historyהִיסטוֹרִיָה of tribalשִׁבטִי livingחַי, of tribalשִׁבטִי psychologyפְּסִיכוֹלוֹגִיָה.
138
380000
4000
זה כנראה מגיע מההיסטוריה הארוכה שלנו של קיום שבטי, של פסיכולוגיה שבטית
06:42
And this tribalשִׁבטִי psychologyפְּסִיכוֹלוֹגִיָה is so deeplyבאופן מעמיק pleasurableמְהַנֶה
139
384000
2000
והפסיכולוגיה השבטית הזו היא מהנה באופן כה עמוק,
06:44
that even when we don't have tribesשבטים,
140
386000
2000
שאפילו כשאין לנו שבטים,
06:46
we go aheadקָדִימָה and make them, because it's funכֵּיף.
141
388000
3000
אנחנו הולכים ויוצרים אותם, מכיוון שזה כיף.
06:49
(Laughterצחוק)
142
391000
3000
(צחוק)
06:52
Sportsספורט is to warמִלחָמָה as pornographyפּוֹרנוֹגרַפִיָה is to sexמִין.
143
394000
3000
ספורט הוא למלחמה מה שהפורנוגרפיה היא למין.
06:55
We get to exerciseתרגיל some ancientעָתִיק, ancientעָתִיק drivesכוננים.
144
397000
3000
אנחנו מתרגלים דחפים עתיקים ביותר.
06:58
The fourthרביעי foundationקרן is authorityרָשׁוּת/respectכבוד.
145
400000
3000
היסוד הרביעי הוא כבוד- סמכותיות.
07:01
Here you see submissiveכָּנוּעַ gesturesמחוות from two membersחברים of very closelyמקרוב relatedקָשׁוּר speciesמִין.
146
403000
3000
כאן אתם רואים מחוות כניעה משני פרטים הבאים ממינים קרובים מאוד --
07:04
But authorityרָשׁוּת in humansבני אנוש is not so closelyמקרוב basedמבוסס on powerכּוֹחַ and brutalityהִתעַלְלוּת,
147
406000
4000
אך סמכות אצל בני אדם היא לא כל כך מבוססת על כוח וברוטאליות,
07:08
as it is in other primatesפרימטים.
148
410000
2000
כמו שהיא אצל יונקים אחרים.
07:10
It's basedמבוסס on more voluntaryמִרָצוֹן deferenceכָּבוֹד,
149
412000
2000
היא מבוססת יותר על הסכמה התנדבותית,
07:12
and even elementsאלמנטים of love, at timesפִּי.
150
414000
2000
ואפילו על אלמנטים של אהבה, לעיתים.
07:14
The fifthחמישי foundationקרן is purityטוֹהַר/sanctityקְדוּשָׁה.
151
416000
2000
היסוד החמישי הוא טוהר - קדושה.
07:16
This paintingצִיוּר is calledשקוראים לו "The Allegoryאַלֵגוֹרִיָה Of Chastityצְנִיעוּת,"
152
418000
3000
הציור הזה נקרא "האלגוריה של הטהרט"
07:19
but purity'sטוהר not just about suppressingמדכא femaleנְקֵבָה sexualityמִינִיוּת.
153
421000
3000
אך טוהר אינו בהכרח על דיכוי מיניות האישה.
07:22
It's about any kindסוג of ideologyאִידֵאוֹלוֹגִיָה, any kindסוג of ideaרַעְיוֹן
154
424000
3000
הוא על כל סוג של אידאולוגיה, כל סוג של רעיון
07:25
that tellsאומר you that you can attainלְהַשִׂיג virtueמַעֲלָה
155
427000
2000
האומרים לנו שאנו יכולים להשיג טוהר
07:27
by controllingשליטה what you do with your bodyגוּף,
156
429000
1000
על ידי שליטה על גופנו,
07:28
by controllingשליטה what you put into your bodyגוּף.
157
430000
2000
על ידי שליטה על מה שאנו מכניסים לגופנו.
07:30
And while the politicalפּוֹלִיטִי right mayמאי moralizeלְהַטִיף מוּסָר sexמִין much more,
158
432000
4000
ובעוד הימין הפוליטי מטיף מוסר לגבי טוהר מיני,
07:34
the politicalפּוֹלִיטִי left is really doing a lot of it with foodמזון.
159
436000
2000
השמאל הפוליטי עושה כך לגבי אוכל.
07:36
Foodמזון is becomingהִתהַוּוּת extremelyמְאוֹד moralizedמוסרית nowadaysכַּיוֹם,
160
438000
2000
אוכל הפך לדבר שמטיפים עליו הרבה בימים אלו
07:38
and a lot of it is ideasרעיונות about purityטוֹהַר,
161
440000
2000
והרבה מכך הם רעיונות על טוהר,
07:40
about what you're willingמוּכָן to touchלגעת, or put into your bodyגוּף.
162
442000
3000
לגבי מה שאנחנו רוצים לגעת בו או להכניס לגופנו.
07:43
I believe these are the fiveחָמֵשׁ bestהטוב ביותר candidatesמועמדים
163
445000
3000
אני מאמין שאלו חמשת המועמדים הטובים ביותר
07:46
for what's writtenכתוב on the first draftטְיוּטָה of the moralמוסר השכל mindאכפת.
164
448000
2000
עבור מה שקיים במוחנו כטיוטה ראשונית של בינה מוסרית.
07:48
I think this is what we come with, at leastהכי פחות
165
450000
1000
אני חושב שזה מה שאנו מגיעים איתו או לפחות,
07:49
a preparednessכּוֹנְנוּת to learnלִלמוֹד all of these things.
166
451000
3000
עם המוכנות ללמוד את הדברים הנ"ל
07:52
But as my sonבֵּן, Maxמקסימלי, growsגדל up in a liberalלִיבֵּרָלִי collegeמִכלָלָה townהעיר,
167
454000
3000
אולם בעוד בני מקס גדל בעיירת קולג' ליברלית
07:56
how is this first draftטְיוּטָה going to get revisedמתוקן?
168
458000
2000
כיצד הטיוטה הראשונית הזו תתפתח?
07:58
And how will it endסוֹף up beingלהיות differentשונה
169
460000
2000
וכיצד לבסוף היא תהיה שונה
08:00
from a kidיֶלֶד bornנוֹלָד 60 milesstomach southדָרוֹם of us in Lynchburgלינצ'בורג, Virginiaוירג'יניה?
170
462000
3000
מהטיוטה המוסרית של נער 96 קילומטר דרומה משם בלינצ'ברג, וירג'יניה?
08:03
To think about cultureתַרְבּוּת variationוָרִיאַצִיָה, let's try a differentשונה metaphorמֵטָפוֹרָה.
171
465000
2000
על מנת לחשוב על שונות תרבותית, בואו ננסה מטאפורה שונה.
08:05
If there really are fiveחָמֵשׁ systemsמערכות at work in the mindאכפת --
172
467000
3000
אם באמת ישנם חמש יסודות הפועלים במוח --
08:08
fiveחָמֵשׁ sourcesמקורות of intuitionsאינטואיציות and emotionsרגשות --
173
470000
2000
חמשה מקורות של אינטואיציה ורגשות --
08:10
then we can think of the moralמוסר השכל mindאכפת
174
472000
2000
אז אנו יכולים לחשוב על המוח המוסרי
08:12
as beingלהיות like one of those audioשֶׁמַע equalizersהשוואות that has fiveחָמֵשׁ channelsערוצים,
175
474000
2000
כעל סט של חמשה ערוצים אקוליזרים (כמו במערכת סטריאו)
08:14
where you can setמַעֲרֶכֶת it to a differentשונה settingהגדרה on everyכֹּל channelעָרוּץ.
176
476000
2000
הניתנים להגדרה בצורה שונה בכל ערוץ.
08:16
And my colleaguesעמיתים, Brianבריאן Nosekנוסק and Jesseג'סי Grahamגרהם, and I,
177
478000
3000
והקולגות שלי, בראיין נוסק וג'ס גראם ואנוכי,
08:19
madeעָשׂוּי a questionnaireשְׁאֵלוֹן, whichאיזה we put up on the Webאינטרנט at wwwwww.YourMoralsמורמלים.orgorg.
178
481000
5000
ערכנו שאלון, שהעלנו לרשת ב - www.yourMorals.org
08:24
And so farרָחוֹק, 30,000 people have takenנלקח this questionnaireשְׁאֵלוֹן, and you can too.
179
486000
5000
ועד כה, 30,000 אנשים ענו על השאלון, וגם אתם יכולים.
08:29
Here are the resultsתוצאות.
180
491000
1000
והנה התוצאות.
08:30
Here are the resultsתוצאות from about 23,000 Americanאֲמֶרִיקָאִי citizensאזרחים.
181
492000
3000
הנה התוצאות מבערך 23,000 אזרחים אמריקאים.
08:33
On the left, I've plottedזממו the scoresציונים for liberalsליברלים;
182
495000
2000
בצד השמאלי הצבתי את התוצאות עבור ליברלים,
08:35
on the right, those for conservativesשמרנים; in the middleאֶמצַע, the moderatesמתונים.
183
497000
2000
בימין עבור שמרנים, ובאמצע עבור מתונים.
08:37
The blueכָּחוֹל lineקַו showsמופעים you people'sשל אנשים responsesהתגובות
184
499000
2000
הקו הכחול מראה לכם את הממוצע של תגובות האנשים
08:39
on the averageמְמוּצָע of all the harmלפגוע questionsשאלות.
185
501000
2000
על השאלות לגבי פגיעה בחלש (היסוד הראשון)
08:41
So, as you see, people careלְטַפֵּל about harmלפגוע and careלְטַפֵּל issuesנושאים.
186
503000
3000
ובכן, כמו שאתם יכולים לראות, לאנשים אכפת בנושאים של פגיעה בחלש ודאגה לאחר.
08:44
They give highגָבוֹהַ endorsementהֲסָבָה of these sortsמיני of statementsהצהרות
187
506000
2000
הם נותנים עדיפות גבוהה להצהרות מהסוג הזה
08:46
all acrossלְרוֹחָב the boardלוּחַ, but as you alsoגַם see,
188
508000
2000
לכל אורך הלוח, אבל כפי שאתם יכולים לראות,
08:48
liberalsליברלים careלְטַפֵּל about it a little more than conservativesשמרנים -- the lineקַו slopesמדרונות down.
189
510000
3000
לליברלים אכפת מעט יותר מאשר שמרנים, הקו יורד בשיפוע למטה
08:51
Sameאותו storyכַּתָבָה for fairnessהֲגִינוּת.
190
513000
2000
אותו סיפור לגבי שוויון-הדדיות
08:53
But look at the other threeשְׁלוֹשָׁה linesקווים.
191
515000
2000
אבל ראו לגבי שלושת הקווים הנותרים,
08:55
For liberalsליברלים, the scoresציונים are very lowנָמוּך.
192
517000
2000
לגבי ליברלים התוצאות מאוד נמוכות.
08:57
Liberalsהליברלים are basicallyבעיקרון sayingפִּתגָם, "No, this is not moralityמוּסָרִיוּת.
193
519000
2000
ליברלים למעשה אומרים "לא, זה לא מוסר.
08:59
In-groupבקבוצה, authorityרָשׁוּת, purityטוֹהַר -- this stuffדברים has nothing to do with moralityמוּסָרִיוּת. I rejectלִדחוֹת it."
194
521000
3000
סמכות בקבוצה, טוהר -- לדברים האלה אין כל קשר למוסר. אנו דוחים אותם."
09:02
But as people get more conservativeשמרני, the valuesערכים riseלעלות.
195
524000
2000
אך ככל שאנשים נעשים יותר שמרניים , הערכים עולים.
09:04
We can say that liberalsליברלים have a kindסוג of a two-channelשני ערוצים,
196
526000
3000
אנו יכולים לומר שלליברלים יש - סט של שני ערוצים,
09:07
or two-foundationשני יסודות moralityמוּסָרִיוּת.
197
529000
1000
לגבי יסודות ערכי המוסר.
09:08
Conservativesשמרנים have more of a five-foundationחמש יסוד,
198
530000
2000
בעוד לשמרנים יש 5 ערוצים של יסודות
09:10
or five-channelחמישה ערוצים moralityמוּסָרִיוּת.
199
532000
2000
ערכי המוסר.
09:12
We find this in everyכֹּל countryמדינה we look at.
200
534000
1000
מצאנו זאת בכל ארץ שביצענו בה את השאלון.
09:13
Here'sהנה the dataנתונים for 1,100 Canadiansקנדים.
201
535000
2000
הנה התוצאות עבור 1,100 קנדיים
09:15
I'll just flipלְהַעִיף throughדרך a fewמְעַטִים other slidesשקופיות.
202
537000
2000
אני פשוט ארפרף לאורך כמה שקופיות.
09:17
The U.K., Australiaאוֹסטְרַלִיָה, Newחָדָשׁ Zealandזילנד, Westernהמערבי Europeאֵירוֹפָּה, Easternמזרחי Europeאֵירוֹפָּה,
203
539000
3000
בריטניה, אוסטרליה, ניו זילנד, מערב ארופה, מזרח ארופה,
09:20
Latinלָטִינִית Americaאמריקה, the Middleאֶמצַע Eastמזרח, Eastמזרח Asiaאַסְיָה and Southדָרוֹם Asiaאַסְיָה.
204
542000
4000
אמריקה הלטינית, המזרח התיכון, מזרח אסיה ודרום אסיה.
09:24
Noticeהודעה alsoגַם that on all of these graphsגרפים,
205
546000
2000
שימו לב גם שבכל הגרפים הנ"ל,
09:26
the slopeמִדרוֹן is steeperתלולה יותר on in-groupבקבוצה, authorityרָשׁוּת, purityטוֹהַר.
206
548000
3000
השיפוע לגבי נאמנות לקבוצה, סמכות וטוהר הוא תלול יותר.
09:29
Whichאיזה showsמופעים that withinבְּתוֹך any countryמדינה,
207
551000
2000
שמראה שבתוך כל ארץ,
09:31
the disagreementמחלוקת isn't over harmלפגוע and fairnessהֲגִינוּת.
208
553000
3000
הוויכוח הוא לא לגבי פגיעה בחלש והדדיות.
09:34
Everybodyכולם -- I mean, we debateעימות over what's fairהוֹגֶן --
209
556000
2000
כולם -- אני מתכוון, אנו מתווכחים על מה הוא צדק --
09:36
but everybodyכולם agreesמסכים that harmלפגוע and fairnessהֲגִינוּת matterחוֹמֶר.
210
558000
3000
אבל כולם מסכימים שפגיעה בחלש והדדיות הם חשובים.
09:39
Moralמוסר השכל argumentsארגומנטים withinבְּתוֹך culturesתרבויות
211
561000
2000
ויכוח מוסרי בתוך תרבויות
09:41
are especiallyבמיוחד about issuesנושאים of in-groupבקבוצה, authorityרָשׁוּת, purityטוֹהַר.
212
563000
3000
הוא בעיקר על נושאים של נאמנות לקבוצה, סמכות וטוהר.
09:44
This effectהשפעה is so robustחָסוֹן that we find it no matterחוֹמֶר how we askלִשְׁאוֹל the questionשְׁאֵלָה.
213
566000
3000
האפקט הזה הוא כל כך עמיד שמצאנו את זה לא משנה כיצד שאלנו את השאלה.
09:47
In one recentלאחרונה studyלימוד,
214
569000
2000
במחקר שהתבצע לאחרונה,
09:49
we askedשאל people to supposeלְהַנִיחַ you're about to get a dogכֶּלֶב.
215
571000
2000
שאלנו אנשים נניח שאתה עומד לקנות כלב.
09:51
You pickedהרים a particularמיוחד breedגֶזַע,
216
573000
1000
בחרת גזע מסויים,
09:52
you learnedמְלוּמָד some newחָדָשׁ informationמֵידָע about the breedגֶזַע.
217
574000
2000
ולמדת מידע חדש לגבי הגזע.
09:54
Supposeלְהַנִיחַ you learnלִלמוֹד that this particularמיוחד breedגֶזַע is independent-mindedעצמאית,
218
576000
3000
נניח שלמדת שהגזע המסויים הזה הוא בעל מחשבה חופשית,
09:57
and relatesמספרת to its ownerבעלים as a friendחָבֵר and an equalשווה?
219
579000
2000
ומתייחס לסובבים אותו כאל חברים ושווים אליו ?
09:59
Well, if you are a liberalלִיבֵּרָלִי, you say, "Hey, that's great!"
220
581000
2000
ובכן, אם אתה ליברלי אתה אומר, "היי, זה נהדר!"
10:01
Because liberalsליברלים like to say, "Fetchלְהָבִיא, please."
221
583000
2000
מכיוון שליברלים אוהבים לומר "לך תביא, בבקשה."
10:03
(Laughterצחוק)
222
585000
4000
(צחוק)
10:08
But if you're conservativeשמרני, that's not so attractiveמוֹשֵׁך.
223
590000
3000
אבל אם אתה שמרן זה לא כל כך מושך.
10:11
If you're conservativeשמרני, and you learnלִלמוֹד that a dog'sכלב extremelyמְאוֹד loyalנֶאֱמָן
224
593000
3000
אם אתה שמרן, ולמדת שהכלב הוא מאוד נאמן
10:14
to its home and familyמִשׁפָּחָה, and doesn't warmחַם up quicklyבִּמְהִירוּת to strangersזרים,
225
596000
2000
לביתו ומשפחתו, ואינו מסביר פנים לזרים במהירות,
10:16
for conservativesשמרנים, well, loyaltyנֶאֱמָנוּת is good -- dogsכלבים oughtצריך to be loyalנֶאֱמָן.
226
598000
3000
עבור שמרניים -- ובכן נאמנות זה טוב -- עדיף כלבים נאמנים.
10:19
But to a liberalלִיבֵּרָלִי, it soundsקולות like this dogכֶּלֶב
227
601000
2000
אבל עבור ליברלים, זה נשמע כאילו הכלב הזה
10:21
is runningרץ for the Republicanרֶפּוּבּלִיקָנִי nominationהְתמַנוּת.
228
603000
2000
רץ למועמדות במפלגה הרפובליקנית.
10:23
(Laughterצחוק)
229
605000
1000
(צחוק)
10:24
So, you mightאולי say, OK,
230
606000
2000
אז אתה עלול לומר, או קיי,
10:26
there are these differencesהבדלים betweenבֵּין liberalsליברלים and conservativesשמרנים,
231
608000
2000
ישנם ההבדלים האלו בין ליברלים ושמרניים,
10:28
but what makesעושה those threeשְׁלוֹשָׁה other foundationsיסודות moralמוסר השכל?
232
610000
2000
אבל מה עושה את שלושת הערוצים האלו מוסריים?
10:30
Aren'tלא those just the foundationsיסודות of xenophobiaשנאת זרים
233
612000
2000
האם אלו לא היסודות של פחד מפני זרים
10:32
and authoritarianismסמכותיות and Puritanismפוריטניות?
234
614000
2000
של סמכותיות של פוריטניות?
10:34
What makesעושה them moralמוסר השכל?
235
616000
1000
מה עושה אותם מוסריים?
10:35
The answerתשובה, I think, is containedהכיל in this incredibleמדהים triptychטריפטיך from Hieronymusהירונימוס Boschבוש,
236
617000
3000
התשובה לכך, אני חושב, מצויה בתמונה התלת שיכבתית הזאת מהירנומוס באש,
10:38
"The Gardenגן of Earthlyאַרְצִי Delightsתענוגות."
237
620000
2000
"הגן של תענוגות הארץ."
10:40
In the first panelלוּחַ, we see the momentרֶגַע of creationיצירה.
238
622000
3000
בשיכבה הראשונה, אנו רואים את רגע היצירה.
10:43
All is orderedהורה, all is beautifulיפה, all the people and animalsבעלי חיים
239
625000
4000
הכל מסודר, הכל יפה, כל האנשים והחיות
10:47
are doing what they're supposedאמור to be doing, where they're supposedאמור to be.
240
629000
3000
עושים מה שהם אמורים לעשות, ונמצאים היכן שהם אמורים להימצא.
10:50
But then, givenנָתוּן the way of the worldעוֹלָם, things changeשינוי.
241
632000
3000
אבל אז, כמנהגו של העולם, דברים מתחילים להשתנות.
10:53
We get everyכֹּל personאדם doing whateverמה שתגיד he wants,
242
635000
2000
אנו מקבלים כל אחד עושה ככל העולה על רוחו,
10:55
with everyכֹּל apertureצוֹהַר of everyכֹּל other personאדם and everyכֹּל other animalבעל חיים.
243
637000
3000
עם כל פתח של כל אדם אחר וכל חיה אחרת.
10:58
Some of you mightאולי recognizeלזהות this as the '60s.
244
640000
2000
כמה מכם עשויים לזהות זאת כשנות ה-60.
11:00
(Laughterצחוק)
245
642000
1000
(צחוק)
11:01
But the '60s inevitablyבאופן בלתי נמנע givesנותן way to the '70s,
246
643000
4000
אבל שנות ה-60, באופן בלתי נמנע, מפנים את מקומם לשנות ה-70
11:05
where the cuttingsייחורים of the aperturesפתחים hurtכאב a little bitbit more.
247
647000
4000
כאשר הקצוות של הפתחים מכאיבים קצת יותר.
11:09
Of courseקוּרס, Boschבוש calledשקוראים לו this hellגֵיהִנוֹם.
248
651000
2000
וכמובן, בוש קרא לזה גיהנום.
11:11
So this triptychטריפטיך, these threeשְׁלוֹשָׁה panelsלוחות
249
653000
3000
ובכן התמונה הזאת, שלוש השכבות האלו,
11:14
portrayלתאר the timelessנִצחִי truthאֶמֶת that orderלהזמין tendsנוטה to decayריקבון.
250
656000
5000
מכילות בתוכן את האמת הנצחית שהסדר נוטה להתנוון.
11:19
The truthאֶמֶת of socialחֶברָתִי entropyאנטרופיה.
251
661000
2000
האמת של אנטרופיה חברתית.
11:21
But lestפֶּן you think this is just some partחֵלֶק of the Christianנוצרי imaginationדִמיוֹן
252
663000
3000
אך אל לכם לחשוב שזה סתם חלק מהדמיון הנוצרי.
11:24
where Christiansנוצרים have this weirdמְשׁוּנֶה problemבְּעָיָה with pleasureהנאה,
253
666000
2000
שבו לנוצרים ישנה בעיה מוזרה עם עונג,
11:26
here'sהנה the sameאותו storyכַּתָבָה, the sameאותו progressionהִתקַדְמוּת,
254
668000
3000
הנה אותו סיפור, אותה התפתחות,
11:29
told in a paperעיתון that was publishedיצא לאור in Natureטֶבַע a fewמְעַטִים yearsשנים agoלִפנֵי,
255
671000
3000
במאמר שפורסם במגזין טבע כמה שנים קודם,
11:32
in whichאיזה Ernstארנסט Fehrפאהר and Simonסיימון Gachterגאכטר had people playלְשַׂחֵק a commonsנחלת הכלל dilemmaדִילֶמָה.
256
674000
4000
שבו הרנסט פהר וסימון גאצ'טר נתנו לאנשים לשחק דילמה נפוצה.
11:36
A gameמִשְׂחָק in whichאיזה you give people moneyכֶּסֶף,
257
678000
2000
משחק שבו אתה מחלק לאנשים כסף,
11:38
and then, on eachכל אחד roundעָגוֹל of the gameמִשְׂחָק,
258
680000
2000
ואז בכל סיבוב של המשחק,
11:40
they can put moneyכֶּסֶף into a commonמשותף potסיר,
259
682000
2000
הם יכולים לתרום כסף לקופסה משותפת,
11:42
and then the experimenterנסיין doublesזוגות what's in there,
260
684000
2000
ואז מבצע הניסוי, מכפיל את כמות הכסף שנמצאת בקופסה,
11:44
and then it's all dividedמחולק amongבין the playersשחקנים.
261
686000
2000
והסכום מתחלק בין משתתפי המשחק (לא משנה אם הוא תרם או לא).
11:46
So it's a really niceנֶחְמָד analogאנלוגי for all sortsמיני of environmentalסְבִיבָתִי issuesנושאים,
262
688000
3000
ובכן זאת אנלוגיה נחמדה מאוד עבור על מיני סוגיות חברתיות סביבתיות
11:49
where we're askingשואל people to make a sacrificeלְהַקְרִיב
263
691000
2000
בהם אנו מבקשים מאנשים להקריב מעצמם
11:51
and they themselvesעצמם don't really benefitתועלת from theirשֶׁלָהֶם ownשֶׁלוֹ sacrificeלְהַקְרִיב.
264
693000
2000
והם אינם באמת מרווחים מההקרבה הזאת.
11:53
But you really want everybodyכולם elseאַחֵר to sacrificeלְהַקְרִיב,
265
695000
2000
אבל אתה רוצה שכל אחד אחר יקריב,
11:55
but everybodyכולם has a temptationפיתוי to a freeחופשי rideנסיעה.
266
697000
2000
אבל כל אחד צריך לעמוד בפיתוי של לקחת טרמפ בחינם.
11:57
And what happensקורה is that, at first, people startהַתחָלָה off reasonablyסביר cooperativeשיתופי --
267
699000
4000
ומה שקרה הוא שבהתחלה, אנשים שיתפו פעולה --
12:01
and this is all playedשיחק anonymouslyבעילום שם.
268
703000
2000
וכל זה שוחק באופן אנונימי --
12:03
On the first roundעָגוֹל, people give about halfחֲצִי of the moneyכֶּסֶף that they can.
269
705000
3000
בסיבוב הראשון, אנשים נתנו בערך מחצית מכספם.
12:06
But they quicklyבִּמְהִירוּת see, "You know what, other people aren'tלא doing so much thoughאם כי.
270
708000
3000
אבל מהר מאוד הוא אומרים, "אתם יודעים מה, אחרים אינם עושים הרבה כמוני.
12:09
I don't want to be a suckerפֶּתִי. I'm not going to cooperateלְשַׁתֵף פְּעוּלָה."
271
711000
2000
אני לא רוצה להיות פראייר. אני לא הולך לשתף פעולה. "
12:11
And so cooperationשיתוף פעולה quicklyבִּמְהִירוּת decaysדועך from reasonablyסביר good, down to closeלִסְגוֹר to zeroאֶפֶס.
272
713000
4000
וכך שיתוף הפעולה מהר מאוד מתנוון מסביר ביותר, לכמעט כלום.
12:15
But then -- and here'sהנה the trickטריק --
273
717000
2000
אבל אז -- והנה הטריק --
12:17
Fehrפאהר and Gachterגאכטר said, on the seventhשְׁבִיעִית roundעָגוֹל, they told people,
274
719000
2000
פהר וגאצ'טר -- בסיבוב השביעי הם אמרו לאנשים,
12:19
"You know what? Newחָדָשׁ ruleכְּלָל.
275
721000
2000
אתם יודעים מה? יש חוק חדש.
12:21
If you want to give some of your ownשֶׁלוֹ moneyכֶּסֶף
276
723000
2000
אם אתה רוצה להביא חלק מכספך
12:23
to punishלְהַעֲנִישׁ people who aren'tלא contributingתורם, you can do that."
277
725000
4000
להעניש אנשים אחרים שלא הביאו, אתה יכול לעשות זאת. "
12:27
And as soonבקרוב as people heardשמע about the punishmentעֲנִישָׁה issueנושא going on,
278
729000
3000
וברגע שאנשים שמעו על העונש שהם עלולים לקבל,
12:30
cooperationשיתוף פעולה shootsיורה up.
279
732000
2000
שיתוף הפעולה ממריא.
12:32
It shootsיורה up and it keepsשומר going up.
280
734000
2000
הוא ממריא וממשיך לעלות.
12:34
There's a lot of researchמחקר showingמראה that to solveלִפְתוֹר cooperativeשיתופי problemsבעיות, it really helpsעוזר.
281
736000
3000
ישנם הרבה מחקרים המראים שעל מנת לפתור בעיות שיתוף פעולה, זה עוזר מאוד.
12:37
It's not enoughמספיק to just appealעִרעוּר to people'sשל אנשים good motivesמניעים.
282
739000
2000
זה לא מספיק להסתמך על טוב ליבם של אנשים,
12:39
It really helpsעוזר to have some sortסוג of punishmentעֲנִישָׁה.
283
741000
2000
זה עוזר מאוד שיהיה איזה סוג של עונש.
12:41
Even if it's just shameבושה or embarrassmentמְבוּכָה or gossipרְכִילוּת,
284
743000
2000
אפילו אם זאת רק בושה מבוכה או רכילות,
12:43
you need some sortסוג of punishmentעֲנִישָׁה to bringלְהָבִיא people,
285
745000
3000
אתה צריך איזה סוג של עונש על מנת להביא אנשים,
12:46
when they're in largeגָדוֹל groupsקבוצות, to cooperateלְשַׁתֵף פְּעוּלָה.
286
748000
2000
כאשר הם בקבוצות גדולות, לשתף פעולה ביניהם.
12:48
There's even some recentלאחרונה researchמחקר suggestingמציע that religionדָת --
287
750000
3000
ישנם אפילו מחקרים שנערכו לאחרונה הגורסים שהדת --
12:51
primingתִחוּל God, makingהֲכָנָה people think about God --
288
753000
2000
להזכיר את האל, לגרום לאנשים לדבר על האל --
12:53
oftenלעתים קרובות, in some situationsמצבים, leadsמוביל to more cooperativeשיתופי, more pro-socialפרו-חברתי behaviorהִתְנַהֲגוּת.
289
755000
5000
לעתים קרובות, במצבים מסויימים מוביל לשיתוף פעולה, להתנהגות פרו חברתית יותר.
12:59
Some people think that religionדָת is an adaptationהִסתַגְלוּת
290
761000
2000
ישנם אנשים שחושבים שדת הוא הסתגלות
13:01
evolvedהתפתח bothשניהם by culturalתַרְבּוּתִי and biologicalבִּיוֹלוֹגִי evolutionאבולוציה
291
763000
2000
שהתפתחה ע"י אבולוציה תרבותית וביולוגית גם יחד
13:03
to make groupsקבוצות to cohereלִדבּוֹק יָחָד,
292
765000
2000
לגרום לקבוצות להיות עקביות,
13:05
in partחֵלֶק for the purposeמַטָרָה of trustingאמון eachכל אחד other,
293
767000
2000
כחלק מהמטרה להיות מסוגלים לסמוך זה על זה,
13:07
and then beingלהיות more effectiveיָעִיל at competingמתחרים with other groupsקבוצות.
294
769000
2000
ואז להיות יותר יעילים במאבק נגד קבוצות אחרות.
13:09
I think that's probablyכנראה right,
295
771000
1000
אני חושב שהם כנראה צודקים,
13:10
althoughלמרות ש this is a controversialשנוי במחלוקת issueנושא.
296
772000
2000
למרות שזהו נושא השנוי במחלוקת.
13:12
But I'm particularlyבִּמְיוּחָד interestedמעוניין in religionדָת,
297
774000
2000
אבל אני במיוחד מתעניין בדת,
13:14
and the originמָקוֹר of religionדָת, and in what it does to us and for us.
298
776000
3000
ובמקור הדת, ומה שהיא עושה לנו ועבורנו.
13:17
Because I think that the greatestהגדול ביותר wonderפֶּלֶא in the worldעוֹלָם is not the Grandגָדוֹל Canyonקֶנִיוֹן.
299
779000
4000
מכיוון שאני חושב שאחד מפלאי העולם הגדול מכולם הוא לא הקניון הגדול.
13:21
The Grandגָדוֹל Canyonקֶנִיוֹן is really simpleפָּשׁוּט.
300
783000
2000
הקניון הגדול הוא מאוד פשוט.
13:23
It's just a lot of rockסלע, and then a lot of waterמַיִם and windרוּחַ, and a lot of time,
301
785000
3000
זה רק הרבה סלע, ואז הרבה מים ורוח, והרבה מאוד זמן,
13:26
and you get the Grandגָדוֹל Canyonקֶנִיוֹן.
302
788000
2000
ואז אתה מקבל את הקניון הגדול.
13:28
It's not that complicatedמסובך.
303
790000
1000
זה לא כזה מסובך.
13:29
This is what's really complicatedמסובך,
304
791000
2000
הנה מה שבאמת מסובך,
13:31
that there were people livingחַי in placesמקומות like the Grandגָדוֹל Canyonקֶנִיוֹן,
305
793000
2000
שישנם אנשים הגרים במקומות כמו הקניון הגדול,
13:33
cooperatingשיתוף פעולה with eachכל אחד other, or on the savannahsסוואנה of Africaאַפְרִיקָה,
306
795000
2000
משתפים פעולה ביניהם, או בסאוונה של אפריקה.
13:35
or on the frozenקָפוּא shoresחופי of Alaskaאלסקה, and then some of these villagesכפרים
307
797000
3000
או בחופים הקפואים של אלסקה, ואז כמה מהכפרים האלו
13:38
grewגדל into the mightyאדיר citiesערים of Babylonבָּבֶל, and Romeרומא, and Tenochtitlanטנוכטיטלן.
308
800000
4000
גדלים לערים האמתניות של בבל, רומא וטנוצ'טיטלאן (בירת הממלכה האצ'קית)
13:42
How did this happenלִקְרוֹת?
309
804000
1000
כיצד זה קרה?
13:43
This is an absoluteמוּחלָט miracleנֵס, much harderקשה יותר to explainלהסביר than the Grandגָדוֹל Canyonקֶנִיוֹן.
310
805000
3000
זהו נס אמיתי, קשה להסברה הרבה יותר מאשר הקניון הגדול.
13:46
The answerתשובה, I think, is that they used everyכֹּל toolכְּלִי in the toolboxארגז כלים.
311
808000
3000
התשובה, אני חושב, היא שהם השתמשו בכל כלי בתיבת הכלים.
13:49
It tookלקח all of our moralמוסר השכל psychologyפְּסִיכוֹלוֹגִיָה
312
811000
2000
זה הצריך את כל הפסיכולוגיה המוסרית שלנו
13:51
to createלִיצוֹר these cooperativeשיתופי groupsקבוצות.
313
813000
2000
ליצור את הקבוצות השיתופיות הללו.
13:53
Yes, you do need to be concernedמודאג about harmלפגוע,
314
815000
2000
כן, צריך להיות איכפת לכם לגבי פגיעה בחלש\ דאגה לאחר
13:55
you do need a psychologyפְּסִיכוֹלוֹגִיָה of justiceצֶדֶק.
315
817000
1000
אתם אכן צריכים פסיכולוגיה של צדק.
13:56
But it really helpsעוזר to organizeלְאַרגֵן a groupקְבוּצָה if you can have sub-groupsתת-קבוצות,
316
818000
3000
אבל זה מאוד עוזר לארגן קבוצה או להתארגן בתתי קבוצות,
13:59
and if those sub-groupsתת-קבוצות have some internalפְּנִימִי structureמִבְנֶה,
317
821000
3000
וזה עוזר אם לאותן תתי קבוצות יש מבנה פנימי,
14:02
and if you have some ideologyאִידֵאוֹלוֹגִיָה that tellsאומר people
318
824000
2000
וזה עוזר אם יש לך איזו שהיא אידיאולוגיה שאומרת לאנשים
14:04
to suppressלדכא theirשֶׁלָהֶם carnalityקרנאליות, to pursueלרדוף higherגבוה יותר, noblerאציל יותר endsמסתיים.
319
826000
4000
לתמוך בקבוצה שלהם,ולשאוף למטרות אציליות וראויות.
14:08
And now we get to the cruxעִקָר of the disagreementמחלוקת
320
830000
2000
ועכשיו אנחנו מגיעים ללב הבעיה של חילוקי הדיעות
14:10
betweenבֵּין liberalsליברלים and conservativesשמרנים.
321
832000
2000
בין ליברלים לבין שמרנים.
14:12
Because liberalsליברלים rejectלִדחוֹת threeשְׁלוֹשָׁה of these foundationsיסודות.
322
834000
2000
מכיוון שליברלים דוחים 3 מהיסודות הנ"ל.
14:14
They say "No, let's celebrateלַחֲגוֹג diversityגיוון, not commonמשותף in-groupבקבוצה membershipחֲבֵרוּת."
323
836000
3000
הם אומרים לא!, בואו נחגוג את הגיוון, ולא נתקבץ בקבוצות סגורות.
14:17
They say, "Let's questionשְׁאֵלָה authorityרָשׁוּת."
324
839000
2000
הם אומרים, "בואו נמרוד בסמכות"
14:19
And they say, "Keep your lawsחוקי off my bodyגוּף."
325
841000
2000
והם אומרים, "תשמור את החוקים שלך לעצמך".
14:21
Liberalsהליברלים have very nobleאֲצִילִי motivesמניעים for doing this.
326
843000
3000
לליברלים יש מניעים מאוד אציליים לומר זאת.
14:24
Traditionalמָסוֹרתִי authorityרָשׁוּת, traditionalמָסוֹרתִי moralityמוּסָרִיוּת can be quiteדַי repressiveמְדַכֵּא,
327
846000
3000
סמכות מסורתית, מוסר מסורתי, יכולים להיות מאוד מדכאים,
14:27
and restrictiveמַגְבִּיל to those at the bottomתַחתִית, to womenנשים, to people that don't fitלְהַתְאִים in.
328
849000
3000
ומגבילים עבור אלה שלמטה, עבור נשים, עבור אנשים שאינם מתאימים.
14:30
So liberalsליברלים speakלְדַבֵּר for the weakחלש and oppressedעָשׁוּק.
329
852000
2000
אז ליברלים מדברים עבור החלש והמדוכא.
14:32
They want changeשינוי and justiceצֶדֶק, even at the riskלְהִסְתָכֵּן of chaosאי סדר.
330
854000
2000
הם רוצים שינוי וצדק, גם במחיר של כאוס.
14:34
This guy'sשל הבחור shirtחוּלצָה saysאומר, "Stop bitchingכלבה, startהַתחָלָה a revolutionמַהְפֵּכָה."
331
856000
3000
על החולצה של הבחור הזה כתוב, "תפסיקו לקטר, התחילו מהפכה."
14:37
If you're highגָבוֹהַ in opennessפְּתִיחוּת to experienceניסיון, revolutionמַהְפֵּכָה is good,
332
859000
2000
אם אתה נמצא גבוה ב"פתיחות עבור התנסות חדשה", מהפכה זה טוב
14:39
it's changeשינוי, it's funכֵּיף.
333
861000
2000
זה שינוי, זה כיף.
14:41
Conservativesשמרנים, on the other handיד, speakלְדַבֵּר for institutionsמוסדות and traditionsמסורות.
334
863000
3000
שמרניים, מצד שני, מדברים עבור המוסדות, והמסורת.
14:44
They want orderלהזמין, even at some costעֲלוּת to those at the bottomתַחתִית.
335
866000
4000
הם רוצים סדר , גם במחיר מסויים עבור אלה שלמטה.
14:48
The great conservativeשמרני insightתוֹבָנָה is that orderלהזמין is really hardקָשֶׁה to achieveלְהַשִׂיג.
336
870000
2000
התובנה הגדולה של השמרנים היא שסדר מאוד קשה להשיג.
14:50
It's really preciousיָקָר, and it's really easyקַל to loseלאבד.
337
872000
3000
הוא מאוד יקר, ומאוד קל לאבד אותו.
14:53
So as Edmundאדמונד Burkeבורקה said, "The restraintsרסן on menגברים,
338
875000
2000
אז כמו שאדמונד ברוק אמר, "הרסן על האדם,
14:55
as well as theirשֶׁלָהֶם libertiesחירויות, are to be reckonedמחושב amongבין theirשֶׁלָהֶם rightsזכויות."
339
877000
3000
וכן גם החירויות שלו, צריכים להילקח בחשבון בהתאם לזכויותיו."
14:58
This was after the chaosאי סדר of the Frenchצָרְפָתִית Revolutionמַהְפֵּכָה.
340
880000
2000
זה נאמר לאחר הכאוס של המהפכה הצרפתית.
15:00
So onceפַּעַם you see this -- onceפַּעַם you see
341
882000
2000
אז לאחר שאתה רואה את זה -- לאחר שאתה רואה
15:02
that liberalsליברלים and conservativesשמרנים bothשניהם have something to contributeלתרום,
342
884000
3000
שלליברליים ושמרניים יש מה לתרום גם יחד,
15:05
that they formטופס a balanceאיזון on changeשינוי versusנגד stabilityיַצִיבוּת --
343
887000
3000
שהם יוצרים איזון של שינוי מול יציבות --
15:08
then I think the way is openלִפְתוֹחַ to stepשלב outsideבחוץ the moralמוסר השכל matrixמַטרִיצָה.
344
890000
3000
אז, אני חושב, הדרך פתוחה לצעוד אל מחוץ למטריצת המוסר.
15:11
This is the great insightתוֹבָנָה that all the Asianאסיה religionsדתות have attainedמוּשָׂג.
345
893000
5000
זוהי תובנה גדולה שכל הדתות האסיאתיות הגשימו.
15:16
Think about yinיין and yangיאנג.
346
898000
2000
תחשבו על יין ויאנג.
15:18
Yinיין and yangיאנג aren'tלא enemiesאויבים. Yinיין and yangיאנג don't hateשִׂנאָה eachכל אחד other.
347
900000
2000
יין ויאנג אינם אוייבים. יין ויאנג אינם שונאים זה את זה
15:20
Yinיין and yangיאנג are bothשניהם necessaryנחוץ, like night and day,
348
902000
2000
יין ויאנג שניהם נחוצים, כמו יום ולילה,
15:22
for the functioningתִפקוּד of the worldעוֹלָם.
349
904000
2000
עבור התפקוד של העולם.
15:24
You find the sameאותו thing in Hinduismהינדואיזם.
350
906000
2000
אתה מוצא את אותו דבר בהינואיזים.
15:26
There are manyרב highגָבוֹהַ godsאלים in Hinduismהינדואיזם.
351
908000
2000
ישנם הרבה אלים בהינדואיזים.
15:28
Two of them are Vishnuוישנו, the preserverשומר, and Shivaשיווה, the destroyerמַשׁחֶתֶת.
352
910000
3000
שנים מהם הם וישנו המשמר, ושיווא ההורס.
15:31
This imageתמונה actuallyלמעשה is bothשניהם of those godsאלים sharingשיתוף the sameאותו bodyגוּף.
353
913000
3000
התמונה הזאת היא בעצם שני האלים חולקים את אותו הגוף.
15:34
You have the markingsסימונים of Vishnuוישנו on the left,
354
916000
2000
יש את הסימנים של וישנו בצד שמאל,
15:36
so we could think of Vishnuוישנו as the conservativeשמרני god.
355
918000
3000
אז אנחנו יכולים לחשוב על וישנו כאל השמרני.
15:39
You have the markingsסימונים of Shivaשיווה on the right,
356
921000
2000
ויש את הסימנים של שוייא בצד ימין,
15:41
Shiva'sשל שיווה the liberalלִיבֵּרָלִי god. And they work togetherיַחַד.
357
923000
2000
שיווא האל הליברלי -- והם עובדים ביחד.
15:43
You find the sameאותו thing in Buddhismבודהיזם.
358
925000
2000
אפשר למצוא את אותו דבר בבודהיזם.
15:45
These two stanzasסטנזה containלְהַכִיל, I think, the deepestהעמוק ביותר insightsתובנות
359
927000
2000
שני הבתים האלה מכילים, לדעתי, את התובנות העמוקות ביותר
15:47
that have ever been attainedמוּשָׂג into moralמוסר השכל psychologyפְּסִיכוֹלוֹגִיָה.
360
929000
3000
שהושגו ע"י פסיכולוגיית המוסר מעולם.
15:50
From the Zenזן masterלִשְׁלוֹט Seng-ts'anסנג-צאן:
361
932000
2000
ממסטר הזן, סנג צ'אן:
15:52
"If you want the truthאֶמֶת to standלַעֲמוֹד clearברור before you, never be for or againstמול.
362
934000
4000
אם אתה רוצה שהאמת תעמוד ברורה לפניך, לעולם אל תהיה בעד או נגד,
15:56
The struggleמַאֲבָק betweenבֵּין for and againstמול is the mind'sשל הנפש worstהכי גרוע diseaseמַחֲלָה."
363
938000
4000
המאבק בין בעד ונגד הוא המחלה הגדולה ביותר של הנפש.
16:00
Now unfortunatelyלצערי, it's a diseaseמַחֲלָה
364
942000
2000
עכשיו לרוע המזל, זאת מחלה
16:02
that has been caughtנתפס by manyרב of the world'sשל העולם leadersמנהיגים.
365
944000
2000
שהדביקה הרבה ממנהיגי העולם.
16:04
But before you feel superiorעליון to Georgeג 'ורג' Bushשיח,
366
946000
3000
אבל לפני שתרגישו עליונים על ג'ורג' בוש,
16:07
before you throwלזרוק a stoneאֶבֶן, askלִשְׁאוֹל yourselfעַצמְךָ, do you acceptלְקַבֵּל this?
367
949000
4000
לפני שתזרקו אבן, שאלו את עצמכם: האם אתם מקבלים זאת?
16:11
Do you acceptלְקַבֵּל steppingדְרִיכָה out of the battleקרב of good and evilרוע?
368
953000
3000
האם אתם מקבלים את היציאה אל מחוץ לקרב של טוב ורע?
16:14
Can you be not for or againstמול anything?
369
956000
3000
האם אתם יכולים להיות לא בעד או נגד?
16:18
So, what's the pointנְקוּדָה? What should you do?
370
960000
3000
אז מהי הנקודה? מה לעשות?
16:21
Well, if you take the greatestהגדול ביותר insightsתובנות
371
963000
2000
ובכן, אם אתם לוקחים את התובנות הגדולות
16:23
from ancientעָתִיק Asianאסיה philosophiesפילוסופיות and religionsדתות,
372
965000
2000
מהפילוסופים והדתות האסיאתיים העתיקים,
16:25
and you combineלְשַׁלֵב them with the latestהכי מאוחר researchמחקר on moralמוסר השכל psychologyפְּסִיכוֹלוֹגִיָה,
373
967000
2000
ואתם מחברים אותם עם המחקרים האחרונים על פסיכולוגיית המוסר,
16:27
I think you come to these conclusionsמסקנות:
374
969000
2000
אני חושב שאתם מגיעים למסקנה הבא:
16:29
that our righteousצַדִיק mindsמוחות were designedמְעוּצָב by evolutionאבולוציה
375
971000
4000
שהמוח הצדקני שלנו עוצב ע"י האבולוציה
16:33
to uniteלהתאחד us into teamsצוותים, to divideלחלק us againstמול other teamsצוותים
376
975000
3000
לאחד אותנו לקבוצות כדי לעמת אותנו עם קבוצות אחרות
16:36
and then to blindסומא us to the truthאֶמֶת.
377
978000
2000
ואז לעוור אותנו מפני האמת.
16:39
So what should you do? Am I tellingאומר you to not striveלִשְׁאוֹף?
378
981000
4000
אז מה עליך לעשות? האם אני אומר לכם לא להתאמץ?
16:43
Am I tellingאומר you to embraceלְחַבֵּק Seng-ts'anסנג-צאן and stop,
379
985000
3000
האם אני אומר לכם לאמץ את סנג צ'אן ולעצור,
16:46
stop with this struggleמַאֲבָק of for and againstמול?
380
988000
3000
לעצור באמצע הקרב בין בעד ונגד?
16:49
No, absolutelyבהחלט not. I'm not sayingפִּתגָם that.
381
991000
2000
לא, בהחלט לא. אני לא אומר זאת.
16:51
This is an amazingמדהים groupקְבוּצָה of people who are doing so much,
382
993000
3000
זוהי קבוצה מדהימה של אנשים שעשו כל כך הרבה,
16:54
usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני so much of theirשֶׁלָהֶם talentכִּשָׁרוֹן, theirשֶׁלָהֶם brillianceזוֹהַר, theirשֶׁלָהֶם energyאֵנֶרְגִיָה, theirשֶׁלָהֶם moneyכֶּסֶף,
383
996000
4000
ע"י שימוש בכישרון, בחוכמה, באנרגיה ובכסף שלהם
16:58
to make the worldעוֹלָם a better placeמקום, to fightמַאֲבָק --
384
1000000
2000
להפוך את העולם לעולם טוב יותר, להילחם --
17:00
to fightמַאֲבָק wrongsעוולות, to solveלִפְתוֹר problemsבעיות.
385
1002000
3000
להילחם בעוול, לפתור בעיות.
17:04
But as we learnedמְלוּמָד from Samanthaסמנתה Powerכּוֹחַ, in her storyכַּתָבָה
386
1006000
4000
אבל כמו שאנו למדים מסמנטה פאוור והסיפור שלה
17:08
about Sergioסרג'יו Vieiraויירה dede Melloמלו, you can't just go chargingטְעִינָה in,
387
1010000
5000
על סרג'יו ואריה דה מולו, אתה יכול פשוט להסתער
17:13
sayingפִּתגָם, "You're wrongלא בסדר, and I'm right."
388
1015000
2000
ולומר, "אתה טועה ואני צודק."
17:15
Because, as we just heardשמע, everybodyכולם thinksחושב they are right.
389
1017000
4000
מכיוון,כפי שרק עכשיו שמענו, כל אחד חושב שהוא צודק.
17:19
A lot of the problemsבעיות we have to solveלִפְתוֹר
390
1021000
2000
הרבה מהבעיות שיש עלינו לפתור
17:21
are problemsבעיות that requireלִדרוֹשׁ us to changeשינוי other people.
391
1023000
3000
הן בעיות המצריכות מאיתנו לשנות אנשים אחרים.
17:24
And if you want to changeשינוי other people, a much better way to do it
392
1026000
3000
ואם אתה רוצה לשנות אנשים אחרים, דרך טובה יותר לעשות זאת
17:27
is to first understandמבין who we are -- understandמבין our moralמוסר השכל psychologyפְּסִיכוֹלוֹגִיָה,
393
1029000
4000
היא קודם להבין מי אנחנו -- להבין את פסיכולוגיית המוסר שלנו,
17:31
understandמבין that we all think we're right -- and then stepשלב out,
394
1033000
3000
להבין שכולנו חושבים שאנחנו צודקים -- ואז לצעוד צעד החוצה --
17:34
even if it's just for a momentרֶגַע, stepשלב out -- checkלבדוק in with Seng-ts'anסנג-צאן.
395
1036000
4000
אפילו אם זה רק לרגע, צעד החוצה -- תירשם אצל סנג צ'אן.
17:38
Stepשלב out of the moralמוסר השכל matrixמַטרִיצָה,
396
1040000
2000
צעד אל מחוץ למטריצת המוסר,
17:40
just try to see it as a struggleמַאֲבָק playingמשחק out,
397
1042000
2000
רק תנסה לראות זאת כמאבק שמתחולל
17:42
in whichאיזה everybodyכולם does think they're right,
398
1044000
2000
בו כולם חושבים שהם צודקים,
17:44
and everybodyכולם, at leastהכי פחות, has some reasonsסיבות -- even if you disagreeלא מסכים with them --
399
1046000
2000
ולכולם, לפחות, יש הגיון מסויים -- אפילו אם אינך מסכים איתם --
17:46
everybodyכולם has some reasonsסיבות for what they're doing.
400
1048000
2000
לכל אחד יש הגיון מסויים למה שהם עושים.
17:48
Stepשלב out.
401
1050000
1000
צעד החוצה.
17:49
And if you do that, that's the essentialחִיוּנִי moveמהלך \ לזוז \ לעבור to cultivateלְטַפֵּחַ moralמוסר השכל humilityעֲנָוָה,
402
1051000
4000
ואם תעשה זאת, זהו הצעד החיוני לטפח הומניות מוסרית,
17:53
to get yourselfעַצמְךָ out of this self-righteousnessצדקנות עצמית,
403
1055000
1000
להוציא עצמך אל מחוץ לצדקנות,
17:54
whichאיזה is the normalנוֹרמָלִי humanבן אנוש conditionמַצָב.
404
1056000
2000
שהיא המצב האנושי הנורמלי.
17:56
Think about the Dalaiדלאי Lamaלאמה.
405
1058000
2000
תחשבו על הדאלי למה.
17:58
Think about the enormousעֲנָקִי moralמוסר השכל authorityרָשׁוּת of the Dalaiדלאי Lamaלאמה --
406
1060000
3000
תחשבו על הסמכות המוסרית העצומה של הדאלי למה --
18:01
and it comesבא from his moralמוסר השכל humilityעֲנָוָה.
407
1063000
2000
והיא באה מההומניות המוסרית שלו.
18:05
So I think the pointנְקוּדָה -- the pointנְקוּדָה of my talk,
408
1067000
2000
אז אני חושב שהנקודה -- הנקודה העיקרית של השיחה שלי,
18:07
and I think the pointנְקוּדָה of TEDTED --
409
1069000
3000
ואני חושב שהנקודה העיקרית של טד,
18:10
is that this is a groupקְבוּצָה that is passionatelyבלהט engagedמְאוּרָס
410
1072000
3000
היא שהקבוצה הזאת היא מונעת בהתלהבות
18:13
in the pursuitמִרדָף of changingמִשְׁתַנֶה the worldעוֹלָם for the better.
411
1075000
2000
במרדף אחרי שינוי העולם לטובה.
18:15
People here are passionatelyבלהט engagedמְאוּרָס
412
1077000
3000
אנשים כאן מונעים בלהט
18:18
in tryingמנסה to make the worldעוֹלָם a better placeמקום.
413
1080000
2000
בנסיון להפוך את העולם למקום טוב יותר.
18:20
But there is alsoגַם a passionateמלא רגש commitmentמְחוּיָבוּת to the truthאֶמֶת.
414
1082000
3000
אבל ישנה גם מחוייבות לאמת.
18:23
And so I think that the answerתשובה is to use that passionateמלא רגש commitmentמְחוּיָבוּת
415
1085000
4000
ואני חושב שהתשובה היא להשתמש במחוייבות הזאת
18:27
to the truthאֶמֶת to try to turnלפנות it into a better futureעתיד for us all.
416
1089000
4000
לאמת ולנסות להפוך זאת לעתיד טוב יותר עבור כולנו.
18:31
Thank you.
417
1093000
1000
תודה לכם.
18:32
(Applauseתְשׁוּאוֹת)
418
1094000
3000
(מחיאות כפיים)
Translated by Moshe Hadad
Reviewed by uriel schachter

▲Back to top

ABOUT THE SPEAKER
Jonathan Haidt - Social psychologist
Jonathan Haidt studies how -- and why -- we evolved to be moral and political creatures.

Why you should listen

By understanding more about our moral psychology and its biases, Jonathan Haidt says we can design better institutions (including companies, universities and democracy itself), and we can learn to be more civil and open-minded toward those who are not on our team.

Haidt is a social psychologist whose research on morality across cultures led to his 2008 TED Talk on the psychological roots of the American culture war, and his 2013 TED Talk on how "common threats can make common ground." In both of those talks he asks, "Can't we all disagree more constructively?" Haidt's 2012 TED Talk explored the intersection of his work on morality with his work on happiness to talk about "hive psychology" -- the ability that humans have to lose themselves in groups pursuing larger projects, almost like bees in a hive. This hivish ability is crucial, he argues, for understanding the origins of morality, politics, and religion. These are ideas that Haidt develops at greater length in his book, The Righteous Mind: Why Good People are Divided by Politics and Religion.

Haidt joined New York University Stern School of Business in July 2011. He is the Thomas Cooley Professor of Ethical Leadership, based in the Business and Society Program. Before coming to Stern, Professor Haidt taught for 16 years at the University of Virginia in the department of psychology.

Haidt's writings appear frequently in the New York Times and The Wall Street Journal. He was named one of the top global thinkers by Foreign Policy magazine and by Prospect magazine. Haidt received a B.A. in Philosophy from Yale University, and an M.A. and Ph.D. in Psychology from the University of Pennsylvania.

More profile about the speaker
Jonathan Haidt | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee