ABOUT THE SPEAKER
Laurie Santos - Cognitive psychologist
Laurie Santos studies primate psychology and monkeynomics -- testing problems in human psychology on primates, who (not so surprisingly) have many of the same predictable irrationalities we do.

Why you should listen

Laurie Santos runs the Comparative Cognition Laboratory (CapLab) at Yale, where she and collaborators across departments (from psychology to primatology to neurobiology) explore the evolutionary origins of the human mind by studying lemurs, capuchin monkeys and other primates. The twist: Santos looks not only for positive humanlike traits, like tool-using and altruism, but irrational ones, like biased decisionmaking.

In elegant, carefully constructed experiments, Santos and CapLab have studied how primates understand and categorize objects in the physical world -- for instance, that monkeys understand an object is still whole even when part of it is obscured. Going deeper, their experiments also search for clues that primates possess a theory of mind -- an ability to think about what other people think.

Most recently, the lab has been looking at behaviors that were once the province mainly of novelists: jealousy, frustration, judgment of others' intentions, poor economic choices. In one experiment, Santos and her team taught monkeys to use a form of money, tradeable for food. When certain foods became cheaper, monkeys would, like humans, overbuy. As we humans search for clues to our own irrational behaviors, Santos' research suggests that the source of our genius for bad decisions might be our monkey brains.

More profile about the speaker
Laurie Santos | Speaker | TED.com
TEDGlobal 2010

Laurie Santos: A monkey economy as irrational as ours

לורי סנטוס: כלכלת קופים חסרת הגיון כשלנו

Filmed:
1,506,660 views

לורי סנטוס מחפשת את מקורות אי-הרציונליות האנושית על-ידי התבוננות בדרך קבלת ההחלטות של קרובינו הפרימאטים. סדרה חכמה של ניסויים בכלכלת קופים מראה שהם שותפים לחלק מהבחירות הטפשיות שאנו עושים.
- Cognitive psychologist
Laurie Santos studies primate psychology and monkeynomics -- testing problems in human psychology on primates, who (not so surprisingly) have many of the same predictable irrationalities we do. Full bio

Double-click the English transcript below to play the video.

00:17
I want to startהַתחָלָה my talk todayהיום with two observationsתצפיות
0
2000
2000
אני רוצה לפתוח בשתי הבחנות
00:19
about the humanבן אנוש speciesמִין.
1
4000
2000
על המין האנושי.
00:21
The first observationתַצְפִּית is something that you mightאולי think is quiteדַי obviousברור,
2
6000
3000
ההבחנה הראשונה היא אולי ברורה מאליה,
00:24
and that's that our speciesמִין, Homoהומו sapiensסאפיינס,
3
9000
2000
והיא שהמין שלנו, הומו ספייאנס,
00:26
is actuallyלמעשה really, really smartלִכאוֹב --
4
11000
2000
הוא ממש, אבל ממש חכם,
00:28
like, ridiculouslyמגוחך smartלִכאוֹב --
5
13000
2000
חכם באופן מגוחך.
00:30
like you're all doing things
6
15000
2000
אתם עושים דברים
00:32
that no other speciesמִין on the planetכוכב לכת does right now.
7
17000
3000
שאף מין אחר בכדה"א לא עושה.
00:35
And this is, of courseקוּרס,
8
20000
2000
וזה כמובן
00:37
not the first time you've probablyכנראה recognizedמוּכָּר this.
9
22000
2000
לא חדש לכם.
00:39
Of courseקוּרס, in additionבנוסף to beingלהיות smartלִכאוֹב, we're alsoגַם an extremelyמְאוֹד vainשָׁוא speciesמִין.
10
24000
3000
בנוסף להיותנו חכמים, אנחנו גם מאוד יהירים.
00:42
So we like pointingמצביע out the factעוּבדָה that we're smartלִכאוֹב.
11
27000
3000
אז אנחנו אוהבים להדגיש את חכמתנו.
00:45
You know, so I could turnלפנות to prettyיפה much any sageמרווה
12
30000
2000
אז אני יכולה לפנות לכל גאון,
00:47
from Shakespeareשייקספיר to Stephenסטיבן Colbertקולבר
13
32000
2000
משייקספיר ועד סטיבן קולברט,
00:49
to pointנְקוּדָה out things like the factעוּבדָה that
14
34000
2000
ולהצביע על כך שאנחנו
00:51
we're nobleאֲצִילִי in reasonסיבה and infiniteאֵינְסוֹף in facultiesפקולטות
15
36000
2000
אצילים בתבונה, אינסופיים בכישרונות,
00:53
and just kindסוג of awesome-erמדהים than anything elseאַחֵר on the planetכוכב לכת
16
38000
2000
ובעצם הכי מדהימים בעולם
00:55
when it comesבא to all things cerebralמוֹחִי.
17
40000
3000
כשזה מגיע לעניינים שכליים.
00:58
But of courseקוּרס, there's a secondשְׁנִיָה observationתַצְפִּית about the humanבן אנוש speciesמִין
18
43000
2000
אבל יש כמובן גם הבחנה שניה לגבי המין האנושי
01:00
that I want to focusמוֹקֵד on a little bitbit more,
19
45000
2000
בה אני רוצה להתמקד,
01:02
and that's the factעוּבדָה that
20
47000
2000
וזו העובדה
01:04
even thoughאם כי we're actuallyלמעשה really smartלִכאוֹב, sometimesלִפְעָמִים uniquelyבאופן ייחודי smartלִכאוֹב,
21
49000
3000
שלמרות שאנחנו ממש חכמים, חכמים במיוחד,
01:07
we can alsoגַם be incrediblyבצורה מדהימה, incrediblyבצורה מדהימה dumbמְטוּמטָם
22
52000
3000
אנחנו יכולים גם להיות ממש טיפשים
01:10
when it comesבא to some aspectsהיבטים of our decisionהַחְלָטָה makingהֲכָנָה.
23
55000
3000
כשזה מגיע לכמה אספקטים בקבלת החלטות.
01:13
Now I'm seeingרְאִיָה lots of smirksגיחוכים out there.
24
58000
2000
אני רואה הרבה חיוכים בקהל.
01:15
Don't worryדאגה, I'm not going to call anyoneכֹּל אֶחָד in particularמיוחד out
25
60000
2000
אל תדאגו, לא אציג את הטעויות
01:17
on any aspectsהיבטים of your ownשֶׁלוֹ mistakesטעויות.
26
62000
2000
של אף אחד מכם.
01:19
But of courseקוּרס, just in the last two yearsשנים
27
64000
2000
אבל רק בשנתיים האחרונות
01:21
we see these unprecedentedחֲסַר תַקְדִים examplesדוגמאות of humanבן אנוש ineptitudeחוסר אונים.
28
66000
3000
ראינו דוגמאות חסרות תקדים של חוסר יכולת אנושית.
01:24
And we'veיש לנו watchedצפה as the toolsכלים we uniquelyבאופן ייחודי make
29
69000
3000
וראינו איך השיטות שתכננו במיוחד
01:27
to pullמְשׁוֹך the resourcesאֶמְצָעִי out of our environmentסביבה
30
72000
2000
כדי להוציא משאבים מהסביבה
01:29
kindסוג of just blowלנשוף up in our faceפָּנִים.
31
74000
2000
קורסות בחוסר הצלחה.
01:31
We'veללא שם: יש לנו watchedצפה the financialכַּספִּי marketsשווקים that we uniquelyבאופן ייחודי createלִיצוֹר --
32
76000
2000
ראינו את השווקים הכלכליים שייצרנו,
01:33
these marketsשווקים that were supposedאמור to be foolproofחֲסִין סִכּוּן --
33
78000
3000
שווקים שאמורים היו להיות חסיני-כל,
01:36
we'veיש לנו watchedצפה them kindסוג of collapseהִתמוֹטְטוּת before our eyesעיניים.
34
81000
2000
מתמוטטים מול עינינו.
01:38
But bothשניהם of these two embarrassingמֵבִיך examplesדוגמאות, I think,
35
83000
2000
אבל שתי הדוגמאות המביכות האלה, אני חושבת,
01:40
don't highlightשִׂיא what I think is mostרוב embarrassingמֵבִיך
36
85000
3000
לא מדגישות את מה שהכי מביך
01:43
about the mistakesטעויות that humansבני אנוש make,
37
88000
2000
בטעויות האנושיות,
01:45
whichאיזה is that we'dלהתחתן like to think that the mistakesטעויות we make
38
90000
3000
והוא שהיינו רוצים לחשוב שהטעויות שלנו
01:48
are really just the resultתוֹצָאָה of a coupleזוּג badרַע applesתפוחים
39
93000
2000
הן תוצאה של כמה תפוחים רקובים,
01:50
or a coupleזוּג really sortסוג of FAILלְהִכָּשֵׁל Blog-worthyבלוג ראוי decisionsהחלטות.
40
95000
3000
טעויות מקריות חסרות חשיבות.
01:53
But it turnsפונה out, what socialחֶברָתִי scientistsמדענים are actuallyלמעשה learningלְמִידָה
41
98000
3000
אבל מה שאנחנו לומדים ממדעי החברה
01:56
is that mostרוב of us, when put in certainמסוים contextsהקשרים,
42
101000
3000
הוא שרובנו, במצבים מסויימים,
01:59
will actuallyלמעשה make very specificספֵּצִיפִי mistakesטעויות.
43
104000
3000
נבצע טעויות מאוד ספציפיות.
02:02
The errorsשגיאות we make are actuallyלמעשה predictableצָפוּי.
44
107000
2000
טעויות ניתנות לניבוי.
02:04
We make them again and again.
45
109000
2000
ואנחנו נבצע אותן שוב ושוב.
02:06
And they're actuallyלמעשה immuneחֲסִין to lots of evidenceעֵדוּת.
46
111000
2000
והן חסינות בפני הוכחות.
02:08
When we get negativeשלילי feedbackמָשׁוֹב,
47
113000
2000
כשאנחנו מקבלים משוב שלילי,
02:10
we still, the nextהַבָּא time we're faceפָּנִים with a certainמסוים contextהֶקשֵׁר,
48
115000
3000
עדיין בפעם הבאה באותו מצב,
02:13
tendנוטה to make the sameאותו errorsשגיאות.
49
118000
2000
אנחנו נוטים לחזור על אותן טעויות.
02:15
And so this has been a realאמיתי puzzleחִידָה to me
50
120000
2000
אז זו היתה חידה בעיני
02:17
as a sortסוג of scholarמְלוּמָד of humanבן אנוש natureטֶבַע.
51
122000
2000
כחוקרת של הטבע האנושי.
02:19
What I'm mostרוב curiousסקרן about is,
52
124000
2000
מה שמסקרן אותי
02:21
how is a speciesמִין that's as smartלִכאוֹב as we are
53
126000
3000
זה איך מין חכם כמו שלנו
02:24
capableבעל יכולת of suchכגון badרַע
54
129000
2000
מסוגל לבצע טעויות
02:26
and suchכגון consistentעִקבִי errorsשגיאות all the time?
55
131000
2000
כה גרועות ועקביות?
02:28
You know, we're the smartestהכי חכם thing out there, why can't we figureדמות this out?
56
133000
3000
אנחנו הכי חכמים, איך אנחנו לא פותרים את זה?
02:31
In some senseלָחוּשׁ, where do our mistakesטעויות really come from?
57
136000
3000
מאין מגיעות הטעויות האלה?
02:34
And havingשיש thought about this a little bitbit, I see a coupleזוּג differentשונה possibilitiesאפשרויות.
58
139000
3000
וחשבתי על שתי אפשרויות שונות.
02:37
One possibilityאפשרות is, in some senseלָחוּשׁ, it's not really our faultאשמה.
59
142000
3000
אחת, זו לא באמת אשמתנו.
02:40
Because we're a smartלִכאוֹב speciesמִין,
60
145000
2000
משום שאנחנו מין חכם
02:42
we can actuallyלמעשה createלִיצוֹר all kindsמיני of environmentsסביבות
61
147000
2000
אנחנו מייצרים סביבות
02:44
that are superסוּפֶּר, superסוּפֶּר complicatedמסובך,
62
149000
2000
שהן מאוד מסובכות,
02:46
sometimesלִפְעָמִים too complicatedמסובך for us to even actuallyלמעשה understandמבין,
63
151000
3000
לפעמים מסובכות מכדי שנבין אותן,
02:49
even thoughאם כי we'veיש לנו actuallyלמעשה createdשנוצר them.
64
154000
2000
למרות שיצרנו אותן.
02:51
We createלִיצוֹר financialכַּספִּי marketsשווקים that are superסוּפֶּר complexמורכב.
65
156000
2000
אנחנו יוצרים שווקים פיננסיים מאוד מורכבים.
02:53
We createלִיצוֹר mortgageמשכנתא termsמונחים that we can't actuallyלמעשה dealעִסקָה with.
66
158000
3000
אנחנו יוצרים תנאי משכנתא שאי אפשר להתמודד איתם.
02:56
And of courseקוּרס, if we are put in environmentsסביבות where we can't dealעִסקָה with it,
67
161000
3000
וכמובן, אם שמים אותנו בסביבות איתן קשה להתמודד,
02:59
in some senseלָחוּשׁ makesעושה senseלָחוּשׁ that we actuallyלמעשה
68
164000
2000
הגיוני שאולי
03:01
mightאולי messאי סדר certainמסוים things up.
69
166000
2000
נהרוס כמה דברים.
03:03
If this was the caseמקרה, we'dלהתחתן have a really easyקַל solutionפִּתָרוֹן
70
168000
2000
אם זה היה המצב, היה לנו פתרון פשוט
03:05
to the problemבְּעָיָה of humanבן אנוש errorשְׁגִיאָה.
71
170000
2000
לבעיית הטעות האנושית.
03:07
We'dלהתחתן actuallyלמעשה just say, okay, let's figureדמות out
72
172000
2000
היינו אומרים, טוב, בואו נראה
03:09
the kindsמיני of technologiesטכנולוגיות we can't dealעִסקָה with,
73
174000
2000
עם אלו טכנולוגיות קשה לנו להתמודד,
03:11
the kindsמיני of environmentsסביבות that are badרַע --
74
176000
2000
אותן סביבות בעייתיות -
03:13
get ridלְשַׁחְרֵר of those, designלְעַצֵב things better,
75
178000
2000
ניפטר מהן, נתכנן טוב יותר,
03:15
and we should be the nobleאֲצִילִי speciesמִין
76
180000
2000
ונהיה המין האציל
03:17
that we expectלְצַפּוֹת ourselvesבְּעָצמֵנוּ to be.
77
182000
2000
שאנחנו מצפים להיות.
03:19
But there's anotherאַחֵר possibilityאפשרות that I find a little bitbit more worryingמדאיגה,
78
184000
3000
אבל ישנה אפשרות מדאיגה יותר,
03:22
whichאיזה is, maybe it's not our environmentsסביבות that are messedבלגן up.
79
187000
3000
והיא שאולי לא הסביבה היא שדפוקה.
03:25
Maybe it's actuallyלמעשה us that's designedמְעוּצָב badlyרע.
80
190000
3000
אולי זה אנחנו שמתוכננים לא טוב.
03:28
This is a hintרֶמֶז that I've gottenקיבל
81
193000
2000
זה רמז שקיבלתי
03:30
from watchingצופה the waysדרכים that socialחֶברָתִי scientistsמדענים have learnedמְלוּמָד about humanבן אנוש errorsשגיאות.
82
195000
3000
מהסתכלות בדרכים בהן מדענים למדו על טעויות אנוש.
03:33
And what we see is that people tendנוטה to keep makingהֲכָנָה errorsשגיאות
83
198000
3000
ומה שאנחנו רואים הוא שאנשים נוטים לבצע את אותן שגיאות
03:36
exactlyבְּדִיוּק the sameאותו way, over and over again.
84
201000
3000
באותו אופן, שוב ושוב.
03:39
It feelsמרגיש like we mightאולי almostכִּמעַט just be builtבנוי
85
204000
2000
נראה כאילו אנו בנויים
03:41
to make errorsשגיאות in certainמסוים waysדרכים.
86
206000
2000
לשגות בדרכים מסויימות.
03:43
This is a possibilityאפשרות that I worryדאגה a little bitbit more about,
87
208000
3000
זו אפשרות שמדאיגה אותי יותר,
03:46
because, if it's us that's messedבלגן up,
88
211000
2000
כי אם אנחנו הדפוקים,
03:48
it's not actuallyלמעשה clearברור how we go about dealingעסק with it.
89
213000
2000
לא ממש ברור איך נתמודד עם זה.
03:50
We mightאולי just have to acceptלְקַבֵּל the factעוּבדָה that we're errorשְׁגִיאָה proneנוֹטֶה
90
215000
3000
אולי אנחנו צריכים לקבל את זה שאנחנו נוטים לטעויות,
03:53
and try to designלְעַצֵב things around it.
91
218000
2000
ולנסות לתכנן דברים בהתאם.
03:55
So this is the questionשְׁאֵלָה my studentsסטודנטים and I wanted to get at.
92
220000
3000
אז זו השאלה שרציתי לבחון עם הסטודנטים שלי.
03:58
How can we tell the differenceהֶבדֵל betweenבֵּין possibilityאפשרות one and possibilityאפשרות two?
93
223000
3000
איך אפשר להבחין בין שתי האפשרויות הללו?
04:01
What we need is a populationאוּכְלוֹסִיָה
94
226000
2000
אנחנו זקוקים לאוכלוסיה
04:03
that's basicallyבעיקרון smartלִכאוֹב, can make lots of decisionsהחלטות,
95
228000
2000
חכמה, שיכולה לקבל הרבה החלטות,
04:05
but doesn't have accessגִישָׁה to any of the systemsמערכות we have,
96
230000
2000
אבל שאין לה גישה למערכות שיש לנו,
04:07
any of the things that mightאולי messאי סדר us up --
97
232000
2000
כל הדברים שיכולים להרוס אותנו -
04:09
no humanבן אנוש technologyטֶכנוֹלוֹגִיָה, humanבן אנוש cultureתַרְבּוּת,
98
234000
2000
לא טכנולוגיה, לא תרבות אנושית,
04:11
maybe even not humanבן אנוש languageשפה.
99
236000
2000
אפילו לא שפה אנושית.
04:13
And so this is why we turnedפנה to these guys here.
100
238000
2000
ולכן פנינו לחברה האלה.
04:15
These are one of the guys I work with. This is a brownחום capuchinקפוצ'ין monkeyקוֹף.
101
240000
3000
הנה אחד הבחורים איתם אני עובדת. זה קוף קפוצ'ין חום.
04:18
These guys are Newחָדָשׁ Worldעוֹלָם primatesפרימטים,
102
243000
2000
אלה פרימאטים מהעולם החדש,
04:20
whichאיזה meansאומר they brokeחסר פרוטה off from the humanבן אנוש branchענף
103
245000
2000
מה שאומר שהם נפרדו מהענף האנושי
04:22
about 35 millionמִילִיוֹן yearsשנים agoלִפנֵי.
104
247000
2000
לפני 35 מיליון שנה בערך.
04:24
This meansאומר that your great, great, great great, great, great --
105
249000
2000
זה אומר שסבתא רבא, רבא, רבא שלכם -
04:26
with about fiveחָמֵשׁ millionמִילִיוֹן "greatsנהדר" in there --
106
251000
2000
עם בערך 5 מיליון "רבא" -
04:28
grandmotherסַבתָא was probablyכנראה the sameאותו great, great, great, great
107
253000
2000
היתה כנראה אותה סבתא רבא, רבא, רבא -
04:30
grandmotherסַבתָא with fiveחָמֵשׁ millionמִילִיוֹן "greatsנהדר" in there
108
255000
2000
עם 5 מיליון "רבא",
04:32
as Hollyהולי up here.
109
257000
2000
של הולי שאתם רואים כאן.
04:34
You know, so you can take comfortנוחות in the factעוּבדָה that this guy up here is a really really distantרָחוֹק,
110
259000
3000
אז אפשר להתנחם בכך שהבחור הזה ממש רחוק מאיתנו,
04:37
but albeitאַף כִּי evolutionaryאֵבוֹלוּצִיוֹנִי, relativeקרוב משפחה.
111
262000
2000
אבל מבחינה אבולוציונית, הוא קרוב משפחה.
04:39
The good newsחֲדָשׁוֹת about Hollyהולי thoughאם כי is that
112
264000
2000
החדשות הטובות לגבי הולי הן
04:41
she doesn't actuallyלמעשה have the sameאותו kindsמיני of technologiesטכנולוגיות we do.
113
266000
3000
שאין לה את הטכנולוגיות שיש לנו.
04:44
You know, she's a smartלִכאוֹב, very cutגזירה creatureיְצוּר, a primateפּרִימַט as well,
114
269000
3000
אתם יודעים, היא חכמה, חמודה, גם היא פרימאטית,
04:47
but she lacksחסר all the stuffדברים we think mightאולי be messingמתעסק us up.
115
272000
2000
אבל אין לה את כל החפצים שאולי הורסים אותנו.
04:49
So she's the perfectמושלם testמִבְחָן caseמקרה.
116
274000
2000
אז היא מקרה מבחן מצוין.
04:51
What if we put Hollyהולי into the sameאותו contextהֶקשֵׁר as humansבני אנוש?
117
276000
3000
מה אם נשים את הולי בהקשר אנושי?
04:54
Does she make the sameאותו mistakesטעויות as us?
118
279000
2000
האם היא תעשה את אותן טעויות?
04:56
Does she not learnלִלמוֹד from them? And so on.
119
281000
2000
האם היא לא תלמד מהן?
04:58
And so this is the kindסוג of thing we decidedהחליט to do.
120
283000
2000
אז זה מה שניסינו לעשות.
05:00
My studentsסטודנטים and I got very excitedנִרגָשׁ about this a fewמְעַטִים yearsשנים agoלִפנֵי.
121
285000
2000
הסטודנטים שלי ואני התלהבנו מהרעיון הזה לפני כמה שנים.
05:02
We said, all right, let's, you know, throwלזרוק so problemsבעיות at Hollyהולי,
122
287000
2000
אמרנו, טוב, בואו נזרוק לה כמה בעיות,
05:04
see if she messesבלגן these things up.
123
289000
2000
ונראה אם היא מפשלת.
05:06
First problemבְּעָיָה is just, well, where should we startהַתחָלָה?
124
291000
3000
בעיה ראשונה, בעצם, איפה נתחיל?
05:09
Because, you know, it's great for us, but badרַע for humansבני אנוש.
125
294000
2000
כי אתם יודעים, זה טוב עבורנו, אבל גרוע לבני אדם,
05:11
We make a lot of mistakesטעויות in a lot of differentשונה contextsהקשרים.
126
296000
2000
אנחנו עושים מלא טעויות בהרבה הקשרים.
05:13
You know, where are we actuallyלמעשה going to startהַתחָלָה with this?
127
298000
2000
אז איפה נתחיל?
05:15
And because we startedהתחיל this work around the time of the financialכַּספִּי collapseהִתמוֹטְטוּת,
128
300000
3000
ומשום שהתחלנו בערך בזמן המשבר הכלכלי,
05:18
around the time when foreclosuresforeclosures were hittingלהכות the newsחֲדָשׁוֹת,
129
303000
2000
כשהעיקולים הופיעו בחדשות,
05:20
we said, hhmmhhmm, maybe we should
130
305000
2000
אמרנו, הממ... אולי נתחיל
05:22
actuallyלמעשה startהַתחָלָה in the financialכַּספִּי domainתְחוּם.
131
307000
2000
בתחום הפיננסי.
05:24
Maybe we should look at monkey'sשל קוף economicכַּלְכָּלִי decisionsהחלטות
132
309000
3000
אולי נסתכל על קבלת החלטות כלכלית של קופים,
05:27
and try to see if they do the sameאותו kindsמיני of dumbמְטוּמטָם things that we do.
133
312000
3000
וננסה לראות אם הם עושים את אותן שטויות שאנחנו עושים.
05:30
Of courseקוּרס, that's when we hitמכה a sortסוג secondשְׁנִיָה problemבְּעָיָה --
134
315000
2000
ואז כמובן נתקלנו בבעיה שניה -
05:32
a little bitbit more methodologicalמתודולוגית --
135
317000
2000
יותר מתודולוגית -
05:34
whichאיזה is that, maybe you guys don't know,
136
319000
2000
והיא, אולי לא ידעתם,
05:36
but monkeysקופים don't actuallyלמעשה use moneyכֶּסֶף. I know, you haven'tלא metנפגש them.
137
321000
3000
אבל קופים לא באמת משתמשים בכסף. אני יודעת, טרם פגשתם אותם.
05:39
But this is why, you know, they're not in the queueתוֹר behindמֵאָחוֹר you
138
324000
2000
אבל בגלל זה הם לא עומדים בתור מאחוריכם
05:41
at the groceryמַכּוֹלֶת storeחֲנוּת or the ATMכַּספּוֹמָט -- you know, they don't do this stuffדברים.
139
326000
3000
במכולת או בכספומט - הם לא עושים את הדברים האלה.
05:44
So now we facedפנים, you know, a little bitbit of a problemבְּעָיָה here.
140
329000
3000
אז היתה לנו כאן בעיה.
05:47
How are we actuallyלמעשה going to askלִשְׁאוֹל monkeysקופים about moneyכֶּסֶף
141
332000
2000
איך נשאל את קופים על כסף
05:49
if they don't actuallyלמעשה use it?
142
334000
2000
כשהם לא באמת משתמשים בו?
05:51
So we said, well, maybe we should just, actuallyלמעשה just suckלִמְצוֹץ it up
143
336000
2000
אז אמרנו, טוב, אולי פשוט צריך
05:53
and teachלְלַמֵד monkeysקופים how to use moneyכֶּסֶף.
144
338000
2000
ללמד אותם איך להשתמש בכסף.
05:55
So that's just what we did.
145
340000
2000
וזה בדיוק מה שעשינו.
05:57
What you're looking at over here is actuallyלמעשה the first unitיחידה that I know of
146
342000
3000
מה שאתם רואים כאן זו היחידה הראשונה הידועה לי
06:00
of non-humanלא אנושי currencyמַטְבֵּעַ.
147
345000
2000
של מטבע לא אנושי.
06:02
We weren'tלא היו very creativeיְצִירָתִי at the time we startedהתחיל these studiesלימודים,
148
347000
2000
לא היינו מאוד יצירתיים,
06:04
so we just calledשקוראים לו it a tokenאֲסִימוֹן.
149
349000
2000
אז קראנו לזה אסימון.
06:06
But this is the unitיחידה of currencyמַטְבֵּעַ that we'veיש לנו taughtלימד our monkeysקופים at Yaleייל
150
351000
3000
אבל זהו המטבע שלימדנו את הקופים בייל
06:09
to actuallyלמעשה use with humansבני אנוש,
151
354000
2000
להשתמש בו עם אנשים,
06:11
to actuallyלמעשה buyלִקְנוֹת differentשונה piecesחתיכות of foodמזון.
152
356000
3000
לקנות באמצעותו חתיכות מזון שונות.
06:14
It doesn't look like much -- in factעוּבדָה, it isn't like much.
153
359000
2000
זה לא נראה משהו - זה באמת לא משהו.
06:16
Like mostרוב of our moneyכֶּסֶף, it's just a pieceלְחַבֵּר of metalמַתֶכֶת.
154
361000
2000
כמו רוב הכסף שלנו, זו רק חתיכת מתכת.
06:18
As those of you who'veמי takenנלקח currenciesמטבעות home from your tripטיול know,
155
363000
3000
כפי שאתם יודעים אם לקחתם מטבעות מחו"ל,
06:21
onceפַּעַם you get home, it's actuallyלמעשה prettyיפה uselessחֲסַר תוֹעֶלֶת.
156
366000
2000
כשמגיעים הביתה, הם די חסרי ערך.
06:23
It was uselessחֲסַר תוֹעֶלֶת to the monkeysקופים at first
157
368000
2000
זה היה חסר ערך עבור הקופים בתחילה,
06:25
before they realizedהבין what they could do with it.
158
370000
2000
לפני שהם הבינו מה הם יכולים לעשות איתו.
06:27
When we first gaveנתן it to them in theirשֶׁלָהֶם enclosuresמארזים,
159
372000
2000
כשנתנו להם את זה במתחם שלהם,
06:29
they actuallyלמעשה kindסוג of pickedהרים them up, lookedהביט at them.
160
374000
2000
הם הרימו אותם, הסתכלו עליהם.
06:31
They were these kindסוג of weirdמְשׁוּנֶה things.
161
376000
2000
הם היו עבורם דברים מוזרים.
06:33
But very quicklyבִּמְהִירוּת, the monkeysקופים realizedהבין
162
378000
2000
אבל מהר מאוד הקופים הבינו
06:35
that they could actuallyלמעשה handיד these tokensאסימונים over
163
380000
2000
שהם יכולים לתת את האסימונים האלה
06:37
to differentשונה humansבני אנוש in the labמַעבָּדָה for some foodמזון.
164
382000
3000
לאנשים במעבדה ולקבל תמורתם מזון.
06:40
And so you see one of our monkeysקופים, Maydayמאידי, up here doing this.
165
385000
2000
אז כאן רואים את מיידיי עושה את זה.
06:42
This is A and B are kindסוג of the pointsנקודות where she's sortסוג of a little bitbit
166
387000
3000
בנקודה A בB היא קצת
06:45
curiousסקרן about these things -- doesn't know.
167
390000
2000
סקרנית לגבי זה, לא יודעת.
06:47
There's this waitingהַמתָנָה handיד from a humanבן אנוש experimenterנסיין,
168
392000
2000
הנה היד המחכה של הנסיין האנושי,
06:49
and Maydayמאידי quicklyבִּמְהִירוּת figuresדמויות out, apparentlyככל הנראה the humanבן אנוש wants this.
169
394000
3000
ומיידיי מבינה מהר שהאדם רוצה את זה.
06:52
Handsידיים it over, and then getsמקבל some foodמזון.
170
397000
2000
היא מושיטה לו, ומקבלת קצת אוכל.
06:54
It turnsפונה out not just Maydayמאידי, all of our monkeysקופים get good
171
399000
2000
מתברר שכל הקופים שלנו משתפרים
06:56
at tradingמִסְחָר tokensאסימונים with humanבן אנוש salesmanאיש מכירות.
172
401000
2000
בסחר האסימונים עם איש המכירות האנושי.
06:58
So here'sהנה just a quickמָהִיר videoוִידֵאוֹ of what this looksנראה like.
173
403000
2000
אז הנה וידאו קצר שמראה את זה.
07:00
Here'sהנה Maydayמאידי. She's going to be tradingמִסְחָר a tokenאֲסִימוֹן for some foodמזון
174
405000
3000
הנה מיידיי. היא עומדת להחליף אסימון עבור מזון,
07:03
and waitingהַמתָנָה happilyבשמחה and gettingמקבל her foodמזון.
175
408000
3000
מחכה בשמחה ומקבלת את האוכל שלה.
07:06
Here'sהנה Felixפליקס, I think. He's our alphaאלפא maleזָכָר; he's a kindסוג of bigגָדוֹל guy.
176
411000
2000
הנה פליקס. הוא זכר האלפא שלנו, די גדול.
07:08
But he too waitsממתין patientlyבסבלנות, getsמקבל his foodמזון and goesהולך on.
177
413000
3000
אבל גם הוא מחכה בסבלנות, מקבל את האוכל וממשיך.
07:11
So the monkeysקופים get really good at this.
178
416000
2000
אז הקופים ממש נהיים טובים בזה.
07:13
They're surprisinglyלמרבה ההפתעה good at this with very little trainingהַדְרָכָה.
179
418000
3000
באופן מפתיע, עם מעט מאוד אימון.
07:16
We just allowedמוּתָר them to pickלִבחוֹר this up on theirשֶׁלָהֶם ownשֶׁלוֹ.
180
421000
2000
רק נתנו להם לתפוס את זה בעצמם.
07:18
The questionשְׁאֵלָה is: is this anything like humanבן אנוש moneyכֶּסֶף?
181
423000
2000
השאלה היא: האם זה דומה לכסף אנושי?
07:20
Is this a marketשׁוּק at all,
182
425000
2000
האם זה באמת שוק,
07:22
or did we just do a weirdמְשׁוּנֶה psychologist'sפסיכולוג trickטריק
183
427000
2000
או שזה סתם טריק פסיכולוגי
07:24
by gettingמקבל monkeysקופים to do something,
184
429000
2000
שגורם לקופים לעשות משהו,
07:26
looking smartלִכאוֹב, but not really beingלהיות smartלִכאוֹב.
185
431000
2000
להיראות חכמים, אבל בעצם לא להיות חכמים.
07:28
And so we said, well, what would the monkeysקופים spontaneouslyבאופן ספונטני do
186
433000
3000
אז שאלנו, מה הקופים היו עושים באופן ספונטני
07:31
if this was really theirשֶׁלָהֶם currencyמַטְבֵּעַ, if they were really usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני it like moneyכֶּסֶף?
187
436000
3000
אם זה באמת היה הכסף שלהם?
07:34
Well, you mightאולי actuallyלמעשה imagineלדמיין them
188
439000
2000
אפשר לדמיין אותם
07:36
to do all the kindsמיני of smartלִכאוֹב things
189
441000
2000
עושים את כל הדברים החכמים
07:38
that humansבני אנוש do when they startהַתחָלָה exchangingהחלפה moneyכֶּסֶף with eachכל אחד other.
190
443000
3000
שבני אדם עושים כשהם מחליפים כסף זה עם זה.
07:41
You mightאולי have them startהַתחָלָה payingמשלמים attentionתשומת הלב to priceמחיר,
191
446000
3000
אולי הם ישימו לב למחיר,
07:44
payingמשלמים attentionתשומת הלב to how much they buyלִקְנוֹת --
192
449000
2000
ישימו לב לכמות שהם קונים,
07:46
sortסוג of keepingשְׁמִירָה trackמַסלוּל of theirשֶׁלָהֶם monkeyקוֹף tokenאֲסִימוֹן, as it were.
193
451000
3000
בעצם עוקבים אחרי ערך הכסף.
07:49
Do the monkeysקופים do anything like this?
194
454000
2000
האם הקופים עושים משהו כזה?
07:51
And so our monkeyקוֹף marketplaceשוק was bornנוֹלָד.
195
456000
3000
אז שוק הקופים שלנו נולד.
07:54
The way this worksעובד is that
196
459000
2000
וכך זה עובד.
07:56
our monkeysקופים normallyבדרך כלל liveלחיות in a kindסוג of bigגָדוֹל zooגַן חַיוֹת socialחֶברָתִי enclosureקַרפִּיף.
197
461000
3000
הקופים שלנו חיים במתקן חברתי גדול.
07:59
When they get a hankeringעֲרִיגָה for some treatsפינוקים,
198
464000
2000
כשמתחשק להם ממתק,
08:01
we actuallyלמעשה allowedמוּתָר them a way out
199
466000
2000
אפשרנו להם לצאת
08:03
into a little smallerקטן יותר enclosureקַרפִּיף where they could enterלהיכנס the marketשׁוּק.
200
468000
2000
למתחם קטן יותר דרכו הם נכנסים לשוק.
08:05
Uponעַל enteringכניסה the marketשׁוּק --
201
470000
2000
כשהם נכנסים לשוק,
08:07
it was actuallyלמעשה a much more funכֵּיף marketשׁוּק for the monkeysקופים than mostרוב humanבן אנוש marketsשווקים
202
472000
2000
זה בעצם יותר כיף אצלהם מאשר אצלנו,
08:09
because, as the monkeysקופים enteredנכנס the doorדלת of the marketשׁוּק,
203
474000
3000
כי כשהם נכנסים בדלת של השוק
08:12
a humanבן אנוש would give them a bigגָדוֹל walletארנק fullמלא of tokensאסימונים
204
477000
2000
אדם נותן להם ארנק גדול מלא אסימונים
08:14
so they could actuallyלמעשה tradeסַחַר the tokensאסימונים
205
479000
2000
כך שהם יכולים להחליף את האסימונים
08:16
with one of these two guys here --
206
481000
2000
עם אחד מהשניים האלה -
08:18
two differentשונה possibleאפשרי humanבן אנוש salesmenאנשי מכירות
207
483000
2000
שני אנשי מכירות שונים
08:20
that they could actuallyלמעשה buyלִקְנוֹת stuffדברים from.
208
485000
2000
מהם ניתן לקנות דברים.
08:22
The salesmenאנשי מכירות were studentsסטודנטים from my labמַעבָּדָה.
209
487000
2000
אנשי המכירות היו סטודנטים מהמעבדה שלי.
08:24
They dressedלָבוּשׁ differentlyבאופן שונה; they were differentשונה people.
210
489000
2000
הם התלבשו אחרת, הם היו אנשים שונים.
08:26
And over time, they did basicallyבעיקרון the sameאותו thing
211
491000
3000
ולאורך זמן הם עשו למעשה את אותו הדבר.
08:29
so the monkeysקופים could learnלִלמוֹד, you know,
212
494000
2000
כך הקופים יכלו ללמוד
08:31
who soldנמכר what at what priceמחיר -- you know, who was reliableאָמִין, who wasn'tלא היה, and so on.
213
496000
3000
מי מכר מה ובאיזה מחיר. אתם יודעים - מי אמין וכן הלאה.
08:34
And you can see that eachכל אחד of the experimentersהניסויים
214
499000
2000
ואתם יכולים לראות שכל אחד מהנסיינים
08:36
is actuallyלמעשה holdingהַחזָקָה up a little, yellowצהוב foodמזון dishצַלַחַת.
215
501000
3000
מחזיק צלחת אוכל צהובה
08:39
and that's what the monkeyקוֹף can for a singleיחיד tokenאֲסִימוֹן.
216
504000
2000
וזה מה שהקוף יכול לקבל תמורת אסימון אחד.
08:41
So everything costsעלויות one tokenאֲסִימוֹן,
217
506000
2000
אז הכל עולה אסימון אחד,
08:43
but as you can see, sometimesלִפְעָמִים tokensאסימונים buyלִקְנוֹת more than othersאחרים,
218
508000
2000
אבל לפעמים האסימון קונה יותר,
08:45
sometimesלִפְעָמִים more grapesענבים than othersאחרים.
219
510000
2000
לפעמים מקבלים יותר ענבים.
08:47
So I'll showלְהַצִיג you a quickמָהִיר videoוִידֵאוֹ of what this marketplaceשוק actuallyלמעשה looksנראה like.
220
512000
3000
אז אראה לכם וידאו קצר של השוק.
08:50
Here'sהנה a monkey-eye-viewעין קוף. Monkeysקופים are shorterקצר יותר, so it's a little shortקצר.
221
515000
3000
כאן מזוית הראייה של הקופים, שהם יותר נמוכים.
08:53
But here'sהנה Honeyדבש.
222
518000
2000
והנה האני.
08:55
She's waitingהַמתָנָה for the marketשׁוּק to openלִפְתוֹחַ a little impatientlyבחוסר סבלנות.
223
520000
2000
היא מחכה שהשוק יפתח, מעט בחוסר סבלנות.
08:57
All of a suddenפִּתְאוֹמִי the marketשׁוּק opensנפתח. Here'sהנה her choiceבְּחִירָה: one grapesענבים or two grapesענבים.
224
522000
3000
פתאום השוק נפתח. הנה הבחירה שלה: ענב אחד או שניים.
09:00
You can see Honeyדבש, very good marketשׁוּק economistכַּלכָּלָן,
225
525000
2000
אתם רואים שהאני, כלכלנית שוק טובה,
09:02
goesהולך with the guy who givesנותן more.
226
527000
3000
הולכת לבחור שנותן יותר.
09:05
She could teachלְלַמֵד our financialכַּספִּי advisersיועצים a fewמְעַטִים things or two.
227
530000
2000
היא יכולה ללמד את המומחים כמה דברים.
09:07
So not just Honeyדבש,
228
532000
2000
ולא רק האני,
09:09
mostרוב of the monkeysקופים wentהלך with guys who had more.
229
534000
3000
רוב הקופים הלכו למי שנתן יותר.
09:12
Mostרוב of the monkeysקופים wentהלך with guys who had better foodמזון.
230
537000
2000
רוב הקופים הלכו למי שנתן אוכל טוב יותר.
09:14
When we introducedהציג salesמכירות, we saw the monkeysקופים paidשילם attentionתשומת הלב to that.
231
539000
3000
כשהכנסנו מבצעים ראינו שהקופים שמו לב לכך.
09:17
They really caredדאגתי about theirשֶׁלָהֶם monkeyקוֹף tokenאֲסִימוֹן dollarדוֹלָר.
232
542000
3000
הם ממש דאגו לאסימונים שלהם.
09:20
The more surprisingמַפתִיעַ thing was that when we collaboratedשיתף פעולה with economistsכלכלנים
233
545000
3000
מה שהפתיע אותנו יותר היה שכששיתפנו פעולה עם כלכלנים
09:23
to actuallyלמעשה look at the monkeys'קופים ' dataנתונים usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני economicכַּלְכָּלִי toolsכלים,
234
548000
3000
כדי לראות איך הקופים משתמשים בכלים כלכליים,
09:26
they basicallyבעיקרון matchedבהתאמה, not just qualitativelyאיכותית,
235
551000
3000
הם התאימו, לא רק איכותנית,
09:29
but quantitativelyכמותית with what we saw
236
554000
2000
אלא גם כמותית למה שראינו
09:31
humansבני אנוש doing in a realאמיתי marketשׁוּק.
237
556000
2000
שאנשים עושים בשוק אמיתי.
09:33
So much so that, if you saw the monkeys'קופים ' numbersמספרים,
238
558000
2000
עד כדי כך שאם ראיתם את הנתונים מהקופים,
09:35
you couldn'tלא יכול tell whetherהאם they cameבא from a monkeyקוֹף or a humanבן אנוש in the sameאותו marketשׁוּק.
239
560000
3000
לא יכולתם לדעת אם הם הגיעו מקוף או מאדם באותו שוק.
09:38
And what we'dלהתחתן really thought we'dלהתחתן doneבוצע
240
563000
2000
ומה שחשבנו שעשינו
09:40
is like we'dלהתחתן actuallyלמעשה introducedהציג something
241
565000
2000
היה שיצרנו משהו
09:42
that, at leastהכי פחות for the monkeysקופים and us,
242
567000
2000
שלפחות עבורנו ועבור הקופים,
09:44
worksעובד like a realאמיתי financialכַּספִּי currencyמַטְבֵּעַ.
243
569000
2000
פועל כמו מטבע פיננסי אמיתי.
09:46
Questionשְׁאֵלָה is: do the monkeysקופים startהַתחָלָה messingמתעסק up in the sameאותו waysדרכים we do?
244
571000
3000
השאלה היא: האם הקופים מתחילים לפשל באותן דרכים שאנחנו מפשלים?
09:49
Well, we alreadyכְּבָר saw anecdotallyאנקדוטלית a coupleזוּג of signsשלטים that they mightאולי.
245
574000
3000
אז כבר ראינו באנקדוטה כמה סימנים שכן.
09:52
One thing we never saw in the monkeyקוֹף marketplaceשוק
246
577000
2000
מה שלא ראינו אף פעם אצל הקופים
09:54
was any evidenceעֵדוּת of savingחִסָכוֹן --
247
579000
2000
הוא עדות לחסכון -
09:56
you know, just like our ownשֶׁלוֹ speciesמִין.
248
581000
2000
אתם יודעים, כמו אצלנו.
09:58
The monkeysקופים enteredנכנס the marketשׁוּק, spentמוּתַשׁ theirשֶׁלָהֶם entireשלם budgetתַקצִיב
249
583000
2000
הקופים נכנסו לשוק, בזבזו את כל התקציב שלהם
10:00
and then wentהלך back to everyoneכל אחד elseאַחֵר.
250
585000
2000
ואז חזרו לשאר.
10:02
The other thing we alsoגַם spontaneouslyבאופן ספונטני saw,
251
587000
2000
מה שעוד ראינו
10:04
embarrassinglyבמבוכה enoughמספיק,
252
589000
2000
וזה היה מביך,
10:06
is spontaneousספּוֹנטָנִי evidenceעֵדוּת of larcenyגְנֵבָה.
253
591000
2000
זו עדות ספונטנית לגניבה.
10:08
The monkeysקופים would rip-offרמאות the tokensאסימונים at everyכֹּל availableזמין opportunityהִזדַמְנוּת --
254
593000
3000
הקופים היו גונבים אסימונים בכל הזדמנות,
10:11
from eachכל אחד other, oftenלעתים קרובות from us --
255
596000
2000
מקופים אחרים, לפעמים גם מאיתנו,
10:13
you know, things we didn't necessarilyבהכרח think we were introducingמציגה,
256
598000
2000
אתם יודעים, תופעות שלא ידענו שאנחנו בודקים,
10:15
but things we spontaneouslyבאופן ספונטני saw.
257
600000
2000
אבל ראינו באופן ספונטני.
10:17
So we said, this looksנראה badרַע.
258
602000
2000
אז אמרנו, זה נראה רע.
10:19
Can we actuallyלמעשה see if the monkeysקופים
259
604000
2000
האם אפשר ממש לבדוק אם הקופים
10:21
are doing exactlyבְּדִיוּק the sameאותו dumbמְטוּמטָם things as humansבני אנוש do?
260
606000
3000
עושים בדיוק את אותן השטויות שאנשים עושים?
10:24
One possibilityאפשרות is just kindסוג of let
261
609000
2000
אפשרות אחת היא פשוט
10:26
the monkeyקוֹף financialכַּספִּי systemמערכת playלְשַׂחֵק out,
262
611000
2000
למצות את המערכת הפיננסית של הקופים,
10:28
you know, see if they startהַתחָלָה callingיִעוּד us for bailoutsחילוץ in a fewמְעַטִים yearsשנים.
263
613000
2000
לראות אם הם יבקשו מאיתנו למנוע את קריסתם בעוד כמה שנים.
10:30
We were a little impatientחסר סבלנות so we wanted
264
615000
2000
היינו חסרי סבלנות, אז רצינו
10:32
to sortסוג of speedמְהִירוּת things up a bitbit.
265
617000
2000
להאיץ את התהליכים.
10:34
So we said, let's actuallyלמעשה give the monkeysקופים
266
619000
2000
אז אמרנו, בואו נציג לקופים
10:36
the sameאותו kindsמיני of problemsבעיות
267
621000
2000
את אותן הבעיות
10:38
that humansבני אנוש tendנוטה to get wrongלא בסדר
268
623000
2000
בהן אנשים נוטים לשגות
10:40
in certainמסוים kindsמיני of economicכַּלְכָּלִי challengesאתגרים,
269
625000
2000
באתגרים כלכליים מסויימים,
10:42
or certainמסוים kindsמיני of economicכַּלְכָּלִי experimentsניסויים.
270
627000
2000
בניסויים כלכליים מסויימים.
10:44
And so, sinceמאז the bestהטוב ביותר way to see how people go wrongלא בסדר
271
629000
3000
אז מכיוון שהדרך הטובה ביותר לראות היכן אנשים טועים
10:47
is to actuallyלמעשה do it yourselfעַצמְךָ,
272
632000
2000
היא לנסות זאת בעצמכם,
10:49
I'm going to give you guys a quickמָהִיר experimentלְנַסוֹת
273
634000
2000
אני אתן לכם ניסוי קטן
10:51
to sortסוג of watch your ownשֶׁלוֹ financialכַּספִּי intuitionsאינטואיציות in actionפעולה.
274
636000
2000
כדי לראות את האינטואיציות הפיננסיות שלכם בפעולה.
10:53
So imagineלדמיין that right now
275
638000
2000
אז דמיינו שעכשיו
10:55
I handedביד eachכל אחד and everyכֹּל one of you
276
640000
2000
הייתי נותנת לכ"א מכם
10:57
a thousandאלף U.S. dollarsדולר -- so 10 crispפָּרִיך hundredמֵאָה dollarדוֹלָר billsשטרות.
277
642000
3000
1000 דולר. 10 שטרות חדשים של $100.
11:00
Take these, put it in your walletארנק
278
645000
2000
שימו אותם בארנק שלכם
11:02
and spendלְבַלוֹת a secondשְׁנִיָה thinkingחושב about what you're going to do with it.
279
647000
2000
ותחשבו כמה שניות על מה תעשו איתם.
11:04
Because it's yoursשלך now; you can buyלִקְנוֹת whateverמה שתגיד you want.
280
649000
2000
כי הם עכשיו שלכם, אתם יכולים לקנות מה שתרצו.
11:06
Donateלִתְרוֹם it, take it, and so on.
281
651000
2000
לתרום, לקחת וכן הלאה.
11:08
Soundsנשמע great, but you get one more choiceבְּחִירָה to earnלהרוויח a little bitbit more moneyכֶּסֶף.
282
653000
3000
נשמע מצוין, אבל יש לכם אפשרות להרוויח יותר כסף.
11:11
And here'sהנה your choiceבְּחִירָה: you can eitherאוֹ be riskyמְסוּכָּן,
283
656000
3000
והנה הבחירה: אתם יכולים להסתכן,
11:14
in whichאיזה caseמקרה I'm going to flipלְהַעִיף one of these monkeyקוֹף tokensאסימונים.
284
659000
2000
ואז אני אזרוק את מטבע הקופים הזה.
11:16
If it comesבא up headsראשים, you're going to get a thousandאלף dollarsדולר more.
285
661000
2000
אם זה עץ - אתם מקבלים עוד 1000 דולר,
11:18
If it comesבא up tailsפרָאק, you get nothing.
286
663000
2000
אם זה פלי, אתם לא מקבלים כלום.
11:20
So it's a chanceהִזדַמְנוּת to get more, but it's prettyיפה riskyמְסוּכָּן.
287
665000
3000
אז יש אפשרות להרוויח, אבל יש סיכון.
11:23
Your other optionאוֹפְּצִיָה is a bitbit safeבטוח. Your just going to get some moneyכֶּסֶף for sure.
288
668000
3000
האפשרות השניה היא יותר בטוחה. אתם בטוח תקבלו כסף.
11:26
I'm just going to give you 500 bucksדולר.
289
671000
2000
אני אתן לכם 500 דולר.
11:28
You can stickמקל it in your walletארנק and use it immediatelyמיד.
290
673000
3000
אתם יכולים להכניס אותם לארנק ולהשתמש בהם מיד.
11:31
So see what your intuitionאינטואיציה is here.
291
676000
2000
אז מה האינטואיציה שלכם כאן.
11:33
Mostרוב people actuallyלמעשה go with the play-it-safeלשחק את זה בטוח optionאוֹפְּצִיָה.
292
678000
3000
רוב האנשים מעדיפים את האפשרות הבטוחה.
11:36
Mostרוב people say, why should I be riskyמְסוּכָּן when I can get 1,500 dollarsדולר for sure?
293
681000
3000
רוב האנשים אומרים, למה להסתכן אם אני יכול לקבל 1500 דולר בודאות?
11:39
This seemsנראה like a good betלְהַמֵר. I'm going to go with that.
294
684000
2000
זה נשמע כמו הימור טוב.
11:41
You mightאולי say, ehאה, that's not really irrationalלא הגיוני.
295
686000
2000
אתם יכולים לומר שזה לא ממש אי-רציונלי.
11:43
People are a little risk-averseשונאי סיכון. So what?
296
688000
2000
אנשים הם קצת שונאי סיכון, אז מה?
11:45
Well, the "so what?" comesבא when startהַתחָלָה thinkingחושב
297
690000
2000
נסו לחשוב
11:47
about the sameאותו problemבְּעָיָה
298
692000
2000
על אותה הבעיה
11:49
setמַעֲרֶכֶת up just a little bitbit differentlyבאופן שונה.
299
694000
2000
אבל מוצגת קצת שונה.
11:51
So now imagineלדמיין that I give eachכל אחד and everyכֹּל one of you
300
696000
2000
דמיינו שכ"א מכם מקבל ממני
11:53
2,000 dollarsדולר -- 20 crispפָּרִיך hundredמֵאָה dollarדוֹלָר billsשטרות.
301
698000
3000
2000 דולר, 20 שטרות חדשים של 100 דולר.
11:56
Now you can buyלִקְנוֹת doubleלְהַכפִּיל to stuffדברים you were going to get before.
302
701000
2000
עכשיו אתם יכולים לקנות פי שניים מאשר קודם.
11:58
Think about how you'dהיית רוצה feel stickingדִבּוּק it in your walletארנק.
303
703000
2000
דמיינו אתכם מכניסים את הכסף לארנק.
12:00
And now imagineלדמיין that I have you make anotherאַחֵר choiceבְּחִירָה
304
705000
2000
עכשיו דמיינו שיש לכם בחירה
12:02
But this time, it's a little bitbit worseרע יותר.
305
707000
2000
אבל הפעם זה קצת יותר קשה.
12:04
Now, you're going to be decidingמחליט how you're going to loseלאבד moneyכֶּסֶף,
306
709000
3000
עכשיו אתם צריכים להחליט איך תפסידו את הכסף,
12:07
but you're going to get the sameאותו choiceבְּחִירָה.
307
712000
2000
אבל עם אותן אפשרויות.
12:09
You can eitherאוֹ take a riskyמְסוּכָּן lossהֶפסֵד --
308
714000
2000
או שתבחרו הפסד בסיכון -
12:11
so I'll flipלְהַעִיף a coinמַטְבֵּעַ. If it comesבא up headsראשים, you're going to actuallyלמעשה loseלאבד a lot.
309
716000
3000
אז אני אזרוק מטבע, אם זה עץ תפסידו הרבה,
12:14
If it comesבא up tailsפרָאק, you loseלאבד nothing, you're fine, get to keep the wholeכֹּל thing --
310
719000
3000
אם זה פלי לא תפסידו כלום, תישארו עם כל הכסף.
12:17
or you could playלְשַׂחֵק it safeבטוח, whichאיזה meansאומר you have to reachלְהַגִיעַ back into your walletארנק
311
722000
3000
או שתשחקו בזהירות, כלומר תתנו לי
12:20
and give me fiveחָמֵשׁ of those $100 billsשטרות, for certainמסוים.
312
725000
3000
500 דולר, בוודאות.
12:23
And I'm seeingרְאִיָה a lot of furrowedמקומטת browsגלים out there.
313
728000
3000
ואני רואה כאן גבות מורמות.
12:26
So maybe you're havingשיש the sameאותו intuitionsאינטואיציות
314
731000
2000
אז אולי יש לכם את אותן האינטואיציות
12:28
as the subjectsנושאים that were actuallyלמעשה testedבָּדוּק in this,
315
733000
2000
של הנבדקים שנבחנו בזה באמת,
12:30
whichאיזה is when presentedמוצג with these optionsאפשרויות,
316
735000
2000
והן שכשמציגים להם את האופציות הללו,
12:32
people don't chooseבחר to playלְשַׂחֵק it safeבטוח.
317
737000
2000
אנשים לא בוחרים להיות זהירים.
12:34
They actuallyלמעשה tendנוטה to go a little riskyמְסוּכָּן.
318
739000
2000
הם בוחרים לקחת קצת יותר סיכון.
12:36
The reasonסיבה this is irrationalלא הגיוני is that we'veיש לנו givenנָתוּן people in bothשניהם situationsמצבים
319
741000
3000
הסיבה לכך שזה לא רציונלי היא משום שבשני המצבים האנשים מקבלים
12:39
the sameאותו choiceבְּחִירָה.
320
744000
2000
את אותה הבחירה.
12:41
It's a 50/50 shotבְּעִיטָה of a thousandאלף or 2,000,
321
746000
3000
זה סיכוי של 50/50 לקבל 1000 או 2000
12:44
or just 1,500 dollarsדולר with certaintyוַדָאוּת.
322
749000
2000
או ודאות לקבל 1500.
12:46
But people'sשל אנשים intuitionsאינטואיציות about how much riskלְהִסְתָכֵּן to take
323
751000
3000
אבל האינטואיציות של אנשים לגבי רמת הסיכון שהם יקחו
12:49
variesמשתנה dependingתלוי on where they startedהתחיל with.
324
754000
2000
משתנה בהתאם למצב ההתחלתי שלהם.
12:51
So what's going on?
325
756000
2000
אז מה קורה כאן?
12:53
Well, it turnsפונה out that this seemsנראה to be the resultתוֹצָאָה
326
758000
2000
נראה שזו התוצאה
12:55
of at leastהכי פחות two biasesהטיות that we have at the psychologicalפְּסִיכוֹלוֹגִי levelרָמָה.
327
760000
3000
של לפחות שתי הטיות ברמה הפסיכולוגית.
12:58
One is that we have a really hardקָשֶׁה time thinkingחושב in absoluteמוּחלָט termsמונחים.
328
763000
3000
הראשונה היא שקשה לנו מאוד לחשוב במושגים אבסולוטיים.
13:01
You really have to do work to figureדמות out,
329
766000
2000
צריך לעבוד קשה כדי לחשב,
13:03
well, one option'sאפשרויות a thousandאלף, 2,000;
330
768000
2000
טוב, אפשרות אחת היא 1000, 2000
13:05
one is 1,500.
331
770000
2000
אחרת היא 1500.
13:07
Insteadבמקום זאת, we find it very easyקַל to think in very relativeקרוב משפחה termsמונחים
332
772000
3000
במקום זה, קל לנו מאוד לחשוב במושגים יחסיים
13:10
as optionsאפשרויות changeשינוי from one time to anotherאַחֵר.
333
775000
3000
כשאפשרויות משתנות עם הזמן.
13:13
So we think of things as, "Oh, I'm going to get more," or "Oh, I'm going to get lessפָּחוּת."
334
778000
3000
אז אנחנו חושבים: "אה, אני אקבל יותר" או "אה, אני אקבל פחות."
13:16
This is all well and good, exceptמלבד that
335
781000
2000
זה בסדר, פרט לכך
13:18
changesשינויים in differentשונה directionsכיוונים
336
783000
2000
ששינויים בכיוונים שונים
13:20
actuallyלמעשה effectהשפעה whetherהאם or not we think
337
785000
2000
משפיעים על ההערכה
13:22
optionsאפשרויות are good or not.
338
787000
2000
שלנו את האפשרויות כטובות או לא.
13:24
And this leadsמוביל to the secondשְׁנִיָה biasהֲטָיָה,
339
789000
2000
וזה מוביל להטיה השנייה,
13:26
whichאיזה economistsכלכלנים have calledשקוראים לו lossהֶפסֵד aversionסְלִידָה.
340
791000
2000
שכלכלנים קוראים לה שנאת סיכון.
13:28
The ideaרַעְיוֹן is that we really hateשִׂנאָה it when things go into the redאָדוֹם.
341
793000
3000
הרעיון הוא שאנחנו ממש שונאים להיכנס לחוב.
13:31
We really hateשִׂנאָה it when we have to loseלאבד out on some moneyכֶּסֶף.
342
796000
2000
אנחנו ממש שונאים להפסיד כסף.
13:33
And this meansאומר that sometimesלִפְעָמִים we'llטוֹב actuallyלמעשה
343
798000
2000
וזה אומר שלפעמים אנחנו
13:35
switchהחלף our preferencesהעדפות to avoidלְהִמָנַע this.
344
800000
2000
נשנה את ההעדפות שלנו כדי להימנע מכך.
13:37
What you saw in that last scenarioתַרחִישׁ is that
345
802000
2000
מה שראיתם בסצנריו האחרון הוא
13:39
subjectsנושאים get riskyמְסוּכָּן
346
804000
2000
שנבדקים מסתכנים יותר
13:41
because they want the smallקָטָן shotבְּעִיטָה that there won'tרָגִיל be any lossהֶפסֵד.
347
806000
3000
כי הם רוצים סיכוי קטן שלא יהיה הפסד.
13:44
That meansאומר when we're in a riskלְהִסְתָכֵּן mindsetחשיבה --
348
809000
2000
זה אומר שכשאנחנו בסט מחשבתי --
13:46
excuseסְלִיחָה me, when we're in a lossהֶפסֵד mindsetחשיבה,
349
811000
2000
כשאנחנו בסט מחשבתי של הפסד,
13:48
we actuallyלמעשה becomeהפכו more riskyמְסוּכָּן,
350
813000
2000
אנחנו בעצם לוקחים יותר סיכונים,
13:50
whichאיזה can actuallyלמעשה be really worryingמדאיגה.
351
815000
2000
וזה עלול להיות ממש מדאיג.
13:52
These kindsמיני of things playלְשַׂחֵק out in lots of badרַע waysדרכים in humansבני אנוש.
352
817000
3000
הדברים האלה יכולים לפעול לרעתם של בני האדם.
13:55
They're why stockהמניה investorsמשקיעים holdלְהַחזִיק ontoעַל גַבֵּי losingלאבד stocksמניות longerארוך יותר --
353
820000
3000
הם הסיבה לכך שמשקיעים בבורסה מחזיקים מניות מפסידות יותר מדי זמן -
13:58
because they're evaluatingהערכה them in relativeקרוב משפחה termsמונחים.
354
823000
2000
כי הם מעריכים אותם במושגים יחסיים.
14:00
They're why people in the housingדיור marketשׁוּק refusedסירב to sellמכירה theirשֶׁלָהֶם houseבַּיִת --
355
825000
2000
הם הסיבה לכך שאנשים מסרבים למכור את הבית שלהם -
14:02
because they don't want to sellמכירה at a lossהֶפסֵד.
356
827000
2000
כי הם לא רוצים למכור במחיר הפסד.
14:04
The questionשְׁאֵלָה we were interestedמעוניין in
357
829000
2000
השאלה שמעניינת אותנו
14:06
is whetherהאם the monkeysקופים showלְהַצִיג the sameאותו biasesהטיות.
358
831000
2000
היא אם הקופים מראים את אותן ההטיות.
14:08
If we setמַעֲרֶכֶת up those sameאותו scenariosתרחישים in our little monkeyקוֹף marketשׁוּק,
359
833000
3000
אם נייצר את אותם סצנריו בשוק הקופים שלנו,
14:11
would they do the sameאותו thing as people?
360
836000
2000
האם הם יפעלו כמו בני אדם?
14:13
And so this is what we did, we gaveנתן the monkeysקופים choicesבחירות
361
838000
2000
אז זה מה שעשינו, נתנו לקופים בחירות
14:15
betweenבֵּין guys who were safeבטוח -- they did the sameאותו thing everyכֹּל time --
362
840000
3000
בין מוכרים שהיו בטוחים - תמיד עשו את אותו הדבר -
14:18
or guys who were riskyמְסוּכָּן --
363
843000
2000
לבין מוכרים שהיו עם סיכון -
14:20
they did things differentlyבאופן שונה halfחֲצִי the time.
364
845000
2000
עשו דברים שונים מחצית מהזמן.
14:22
And then we gaveנתן them optionsאפשרויות that were bonusesבונוסים --
365
847000
2000
ואז נתנו להם אפשרויות בונוס -
14:24
like you guys did in the first scenarioתַרחִישׁ --
366
849000
2000
כמו שנתנו לכם בסצנריו הראשון -
14:26
so they actuallyלמעשה have a chanceהִזדַמְנוּת more,
367
851000
2000
כך שיש להם יותר סיכוי,
14:28
or piecesחתיכות where they were experiencingהִתנַסוּת lossesאֲבֵדוֹת --
368
853000
3000
או קטעים בהם הם חווים הפסדים -
14:31
they actuallyלמעשה thought they were going to get more than they really got.
369
856000
2000
הם חשבו שהם יקבלו יותר ממה שהם קיבלו.
14:33
And so this is what this looksנראה like.
370
858000
2000
וכך זה נראה.
14:35
We introducedהציג the monkeysקופים to two newחָדָשׁ monkeyקוֹף salesmenאנשי מכירות.
371
860000
2000
הצגנו לקופים שלנו שני מוכרים חדשים.
14:37
The guy on the left and right bothשניהם startהַתחָלָה with one pieceלְחַבֵּר of grapeעַנָב,
372
862000
2000
הבחורים משמאל ומימין מתחילים עם ענב אחד,
14:39
so it looksנראה prettyיפה good.
373
864000
2000
אז זה נראה טוב.
14:41
But they're going to give the monkeysקופים bonusesבונוסים.
374
866000
2000
אבל הם עומדים לתת לקופים בונוסים.
14:43
The guy on the left is a safeבטוח bonusמַעֲנָק.
375
868000
2000
הבחור משמאל הוא בונוס בטוח.
14:45
All the time, he addsמוסיף one, to give the monkeysקופים two.
376
870000
3000
הוא תמיד מוסיף אחד כך שהקוף מקבל שניים.
14:48
The guy on the right is actuallyלמעשה a riskyמְסוּכָּן bonusמַעֲנָק.
377
873000
2000
הבחור מימין הוא בעצם בונוס עם סיכון.
14:50
Sometimesלִפְעָמִים the monkeysקופים get no bonusמַעֲנָק -- so this is a bonusמַעֲנָק of zeroאֶפֶס.
378
875000
3000
לפעמים הקוף לא קיבל בונוס - כלומר בונוס 0,
14:53
Sometimesלִפְעָמִים the monkeysקופים get two extraתוֹסֶפֶת.
379
878000
3000
לפעמים הקוף קיבל 2 בונוס,
14:56
For a bigגָדוֹל bonusמַעֲנָק, now they get threeשְׁלוֹשָׁה.
380
881000
2000
לבונוס גדול, עכשיו הם מקבלים שלושה.
14:58
But this is the sameאותו choiceבְּחִירָה you guys just facedפנים.
381
883000
2000
אבל זו אותה בחירה שעמדה בפניכם.
15:00
Do the monkeysקופים actuallyלמעשה want to playלְשַׂחֵק it safeבטוח
382
885000
3000
האם הקופים רוצים לשחק על בטוח
15:03
and then go with the guy who'sמי זה going to do the sameאותו thing on everyכֹּל trialמִשׁפָּט,
383
888000
2000
וללכת עם הבחור שתמיד עושה אותו הדבר,
15:05
or do they want to be riskyמְסוּכָּן
384
890000
2000
או שהם רוצים להסתכן
15:07
and try to get a riskyמְסוּכָּן, but bigגָדוֹל, bonusמַעֲנָק,
385
892000
2000
ולנסות ללכת על בונוס גדול,
15:09
but riskלְהִסְתָכֵּן the possibilityאפשרות of gettingמקבל no bonusמַעֲנָק.
386
894000
2000
אך עם סיכון לא לקבל בונוס.
15:11
People here playedשיחק it safeבטוח.
387
896000
2000
אנשים כאן שיחקו על בטוח.
15:13
Turnsמסתובב out, the monkeysקופים playלְשַׂחֵק it safeבטוח too.
388
898000
2000
מתברר שגם הקופים שחקו על בטוח.
15:15
Qualitativelyאיכותית and quantitativelyכמותית,
389
900000
2000
איכותית וכמותית,
15:17
they chooseבחר exactlyבְּדִיוּק the sameאותו way as people,
390
902000
2000
הם בוחרים בדיוק באותו אופן כמו בני האדם,
15:19
when testedבָּדוּק in the sameאותו thing.
391
904000
2000
שנבדקים במצב דומה.
15:21
You mightאולי say, well, maybe the monkeysקופים just don't like riskלְהִסְתָכֵּן.
392
906000
2000
אתם יכולים לומר - אולי הקופים פשוט לא אוהבים סיכון.
15:23
Maybe we should see how they do with lossesאֲבֵדוֹת.
393
908000
2000
אולי צריך לראות איך הם מתמודדים עם הפסדים.
15:25
And so we ranרץ a secondשְׁנִיָה versionגִרְסָה of this.
394
910000
2000
אז הרצנו את הגרסה השנייה של זה.
15:27
Now, the monkeysקופים meetלִפְגוֹשׁ two guys
395
912000
2000
עכשיו הקופים פוגשים שני מוכרים
15:29
who aren'tלא givingמַתָן them bonusesבונוסים;
396
914000
2000
שלא נותנים להם בונוסים,
15:31
they're actuallyלמעשה givingמַתָן them lessפָּחוּת than they expectלְצַפּוֹת.
397
916000
2000
הם בעצם נותנים להם פחות ממה שהם מצפים.
15:33
So they look like they're startingהחל out with a bigגָדוֹל amountכמות.
398
918000
2000
אז נראה שהם מתחילים עם כמות גדולה.
15:35
These are threeשְׁלוֹשָׁה grapesענבים; the monkey'sשל קוף really psychedמתוח for this.
399
920000
2000
אלה 3 ענבים, הקופים ממש רוצים את זה.
15:37
But now they learnלִלמוֹד these guys are going to give them lessפָּחוּת than they expectלְצַפּוֹת.
400
922000
3000
אבל עכשיו הם לומדים שהמוכרים יתנו להם פחות ממה שהם מצפים.
15:40
They guy on the left is a safeבטוח lossהֶפסֵד.
401
925000
2000
הבחור משמאל הוא הפסד בטוח.
15:42
Everyכֹּל singleיחיד time, he's going to take one of these away
402
927000
3000
כל פעם הוא יוריד את אחד הענבים
15:45
and give the monkeysקופים just two.
403
930000
2000
ויתן לקופים רק שניים.
15:47
the guy on the right is the riskyמְסוּכָּן lossהֶפסֵד.
404
932000
2000
הבחור מימין הוא הפסד עם סיכון.
15:49
Sometimesלִפְעָמִים he givesנותן no lossהֶפסֵד, so the monkeysקופים are really psychedמתוח,
405
934000
3000
לפעמים לא יהיה הפסד, כך שהקופים ממש מתלהבים,
15:52
but sometimesלִפְעָמִים he actuallyלמעשה givesנותן a bigגָדוֹל lossהֶפסֵד,
406
937000
2000
אבל לפעמים יש הפסד גדול,
15:54
takingלְקִיחָה away two to give the monkeysקופים only one.
407
939000
2000
הוא מוריד שניים ומשאיר רק אחד.
15:56
And so what do the monkeysקופים do?
408
941000
2000
אז מה הקופים עושים?
15:58
Again, sameאותו choiceבְּחִירָה; they can playלְשַׂחֵק it safeבטוח
409
943000
2000
שוב, אותה בחירה, הם יכולים ללכת על בטוח
16:00
for always gettingמקבל two grapesענבים everyכֹּל singleיחיד time,
410
945000
3000
ותמיד לקבל שני ענבים,
16:03
or they can take a riskyמְסוּכָּן betלְהַמֵר and chooseבחר betweenבֵּין one and threeשְׁלוֹשָׁה.
411
948000
3000
או שהם יכולים להסתכן ולקבל 1 או 3.
16:06
The remarkableראוי לציון thing to us is that, when you give monkeysקופים this choiceבְּחִירָה,
412
951000
3000
מה שמדהים עבורנו הוא שכשנותנים לקופים לבחור,
16:09
they do the sameאותו irrationalלא הגיוני thing that people do.
413
954000
2000
הם עושים את אותה פעולה לא רציונלית שאנשים עושים.
16:11
They actuallyלמעשה becomeהפכו more riskyמְסוּכָּן
414
956000
2000
הם לוקחים יותר סיכונים
16:13
dependingתלוי on how the experimentersהניסויים startedהתחיל.
415
958000
3000
בהתאם למצב בו החלו הנסיינים.
16:16
This is crazyמְטוּרָף because it suggestsמציע that the monkeysקופים too
416
961000
2000
זה מטורף, כי זה רומז לכך שגם הקופים
16:18
are evaluatingהערכה things in relativeקרוב משפחה termsמונחים
417
963000
2000
מעריכים דברים באופן יחסי
16:20
and actuallyלמעשה treatingטיפול lossesאֲבֵדוֹת differentlyבאופן שונה than they treatטיפול gainsרווח.
418
965000
3000
ובעצם מתייחסים אחרת להפסדים ולרווחים.
16:23
So what does all of this mean?
419
968000
2000
אז מה המשמעות של כל זה?
16:25
Well, what we'veיש לנו shownמוצג is that, first of all,
420
970000
2000
אז קודם כל, מה שהראינו
16:27
we can actuallyלמעשה give the monkeysקופים a financialכַּספִּי currencyמַטְבֵּעַ,
421
972000
2000
זה שאנחנו יכולים לתת לקופים כסף,
16:29
and they do very similarדוֹמֶה things with it.
422
974000
2000
והם יעשו איתו דברים דומים לנו.
16:31
They do some of the smartלִכאוֹב things we do,
423
976000
2000
הם עושים דברים חכמים כמונו,
16:33
some of the kindסוג of not so niceנֶחְמָד things we do,
424
978000
2000
כמה דברים לא יפים כמונו,
16:35
like stealלִגנוֹב it and so on.
425
980000
2000
כמו לגנוב ועוד.
16:37
But they alsoגַם do some of the irrationalלא הגיוני things we do.
426
982000
2000
אבל הם גם עושים כמה דברים לא רציונליים כמונו.
16:39
They systematicallyבאופן שיטתי get things wrongלא בסדר
427
984000
2000
באופן שיטתי הם טועים
16:41
and in the sameאותו waysדרכים that we do.
428
986000
2000
ובאותן דרכים בה אנו טועים.
16:43
This is the first take-homeלקחת הביתה messageהוֹדָעָה of the Talk,
429
988000
2000
זה המסר הראשון של ההרצאה,
16:45
whichאיזה is that if you saw the beginningהתחלה of this and you thought,
430
990000
2000
והוא שאם חשבתם
16:47
oh, I'm totallyלְגַמרֵי going to go home and hireלִשְׂכּוֹר a capuchinקפוצ'ין monkeyקוֹף financialכַּספִּי adviserיוֹעֵץ.
431
992000
2000
לשכור קוף קפוצ'ין כיועץ כלכלי.
16:49
They're way cutercuter than the one at ... you know --
432
994000
2000
הם הרבה יותר חמודים מהיועץ...
16:51
Don't do that; they're probablyכנראה going to be just as dumbמְטוּמטָם
433
996000
2000
אל תעשו את זה. הם כנראה יהיו טפשים
16:53
as the humanבן אנוש one you alreadyכְּבָר have.
434
998000
3000
בדיוק כמו היועץ האנושי שלכם.
16:56
So, you know, a little badרַע -- Sorry, sorry, sorry.
435
1001000
2000
אז - סליחה, סליחה, סליחה,
16:58
A little badרַע for monkeyקוֹף investorsמשקיעים.
436
1003000
2000
חדשות רעות לקופים משקיעים.
17:00
But of courseקוּרס, you know, the reasonסיבה you're laughingצוחק is badרַע for humansבני אנוש too.
437
1005000
3000
אבל כמובן, הסיבה שאתם צוחקים היא רעה גם עבור בני אדם.
17:03
Because we'veיש לנו answeredענה the questionשְׁאֵלָה we startedהתחיל out with.
438
1008000
3000
כי ענינו על השאלה שאיתה התחלנו.
17:06
We wanted to know where these kindsמיני of errorsשגיאות cameבא from.
439
1011000
2000
רצינו לדעת מאין מגיעות השגיאות האלה.
17:08
And we startedהתחיל with the hopeלְקַווֹת that maybe we can
440
1013000
2000
והתחלנו עם התקווה שאולי נוכל
17:10
sortסוג of tweakלִצבּוֹט our financialכַּספִּי institutionsמוסדות,
441
1015000
2000
לתקן את המוסדות הפיננסיים שלנו,
17:12
tweakלִצבּוֹט our technologiesטכנולוגיות to make ourselvesבְּעָצמֵנוּ better.
442
1017000
3000
לתקן את הטכנולוגיות כדי לשפר את עצמנו.
17:15
But what we'veיש לנו learnלִלמוֹד is that these biasesהטיות mightאולי be a deeperעמוק יותר partחֵלֶק of us than that.
443
1020000
3000
אבל מה שלמדנו הוא שההטיות האלה הן אולי חלק עמוק בנו.
17:18
In factעוּבדָה, they mightאולי be dueעקב to the very natureטֶבַע
444
1023000
2000
למעשה, יתכן שהן נובעות מהטבע
17:20
of our evolutionaryאֵבוֹלוּצִיוֹנִי historyהִיסטוֹרִיָה.
445
1025000
2000
של ההיסטוריה האבולוציונית שלנו.
17:22
You know, maybe it's not just humansבני אנוש
446
1027000
2000
אתם יודעים, אולי לא רק בני האדם
17:24
at the right sideצַד of this chainשַׁרשֶׁרֶת that's dunceyמטומטם.
447
1029000
2000
בצד הימני של השרשרת הם טיפשים.
17:26
Maybe it's sortסוג of dunceyמטומטם all the way back.
448
1031000
2000
אולי יש כאן טפשות לאורך כל הדרך.
17:28
And this, if we believe the capuchinקפוצ'ין monkeyקוֹף resultsתוצאות,
449
1033000
3000
ואם אנחנו מקבלים את הממצאים של קופי הקפוצ'ין,
17:31
meansאומר that these dunceyמטומטם strategiesאסטרטגיות
450
1036000
2000
זה אומר שהאסטרטגיות הטיפשות האלה
17:33
mightאולי be 35 millionמִילִיוֹן yearsשנים oldישן.
451
1038000
2000
הן אולי בנות 35 מיליון שנה.
17:35
That's a long time for a strategyאִסטרָטֶגִיָה
452
1040000
2000
זה זמן ארוך מאוד לאסטרטגיה
17:37
to potentiallyפוטנציאל get changedהשתנה around -- really, really oldישן.
453
1042000
3000
כדי שניתן יהיה להפוך אותן - ממש, ממש עתיקות.
17:40
What do we know about other oldישן strategiesאסטרטגיות like this?
454
1045000
2000
מה אנחנו יודעים על אסטרטגיות עתיקות כמו אלה?
17:42
Well, one thing we know is that they tendנוטה to be really hardקָשֶׁה to overcomeלְהִתְגַבֵּר.
455
1047000
3000
אחד הדברים שאנחנו יודעים הוא שקשה מאוד לשנות אותן.
17:45
You know, think of our evolutionaryאֵבוֹלוּצִיוֹנִי predilectionהַעֲדָפָה
456
1050000
2000
חשבו למשל על הנטיה האבולוציונית שלנו
17:47
for eatingאֲכִילָה sweetמתוק things, fattyשמן things like cheesecakeעוגת גבינה.
457
1052000
3000
לאכול דברים מתוקים ושומניים כמו עוגת גבינה.
17:50
You can't just shutלִסְגוֹר that off.
458
1055000
2000
אי אפשר לכבות את זה.
17:52
You can't just look at the dessertקינוח cartעֲגָלָה as say, "No, no, no. That looksנראה disgustingמגעיל to me."
459
1057000
3000
אי אפשר להסתכל על עגלת הקינוחים ולומר "לא, לא, לא, זה מגעיל אותי."
17:55
We're just builtבנוי differentlyבאופן שונה.
460
1060000
2000
אנחנו פשוט בנויים אחרת.
17:57
We're going to perceiveלִתְפּוֹס it as a good thing to go after.
461
1062000
2000
אנחנו נראה בזה דבר טוב שצריך לשאוף אליו.
17:59
My guessלְנַחֵשׁ is that the sameאותו thing is going to be trueנָכוֹן
462
1064000
2000
הניחוש שלי הוא שאותו הדבר קורה
18:01
when humansבני אנוש are perceivingלתפוס
463
1066000
2000
כשאנשים תופסים
18:03
differentשונה financialכַּספִּי decisionsהחלטות.
464
1068000
2000
החלטות פיננסיות שונות.
18:05
When you're watchingצופה your stocksמניות plummetמְטוּטֶלֶת into the redאָדוֹם,
465
1070000
2000
כשאתם רואים את המניות שלכם מתרסקות,
18:07
when you're watchingצופה your houseבַּיִת priceמחיר go down,
466
1072000
2000
כשאתם רואים את מחיר הבית שלכם נופל,
18:09
you're not going to be ableיכול to see that
467
1074000
2000
אתם לא תוכלו לראות את זה
18:11
in anything but oldישן evolutionaryאֵבוֹלוּצִיוֹנִי termsמונחים.
468
1076000
2000
במושגים שונים מהמושגים האבולוציוניים הישנים.
18:13
This meansאומר that the biasesהטיות
469
1078000
2000
זה אומר שההטיות
18:15
that leadעוֹפֶרֶת investorsמשקיעים to do badlyרע,
470
1080000
2000
שהובילו את המשקיעים להיכשל,
18:17
that leadעוֹפֶרֶת to the foreclosureטִרפָּה crisisמַשׁבֵּר
471
1082000
2000
שגרמו למשבר העיקולים,
18:19
are going to be really hardקָשֶׁה to overcomeלְהִתְגַבֵּר.
472
1084000
2000
יהיו קשות לשינוי.
18:21
So that's the badרַע newsחֲדָשׁוֹת. The questionשְׁאֵלָה is: is there any good newsחֲדָשׁוֹת?
473
1086000
2000
אז אלה החדשות הרעות. השאלה היא: האם יש חדשות טובות?
18:23
I'm supposedאמור to be up here tellingאומר you the good newsחֲדָשׁוֹת.
474
1088000
2000
אני אמורה לספר לכם כאן על החדשות הטובות.
18:25
Well, the good newsחֲדָשׁוֹת, I think,
475
1090000
2000
אז החדשות הטובות, אני חושבת,
18:27
is what I startedהתחיל with at the beginningהתחלה of the Talk,
476
1092000
2000
הם מה שדיברתי עליו בפתיחה,
18:29
whichאיזה is that humansבני אנוש are not only smartלִכאוֹב;
477
1094000
2000
והוא שבני האדם לא סתם חכמים,
18:31
we're really inspirationallyמעוררת השראה smartלִכאוֹב
478
1096000
2000
אנחנו חכמים באופן מעורר השראה
18:33
to the restמנוחה of the animalsבעלי חיים in the biologicalבִּיוֹלוֹגִי kingdomמַלְכוּת.
479
1098000
3000
יחסית לשאר החיות בממלכה הביולוגית.
18:36
We're so good at overcomingהתגברות our biologicalבִּיוֹלוֹגִי limitationsמגבלות --
480
1101000
3000
אנחנו כ"כ טובים בהתגברות על המגבלות הביולוגיות שלנו -
18:39
you know, I flewטס over here in an airplaneמטוס.
481
1104000
2000
אתם יודעים, אני הגעתי לכאן במטוס.
18:41
I didn't have to try to flapמַדָף my wingsכנפיים.
482
1106000
2000
לא הייתי צריכה לנופף בכנפי.
18:43
I'm wearingלובש contactאיש קשר lensesעדשות now so that I can see all of you.
483
1108000
3000
יש לי עדשות מגע כך שאוכל לראות אתכם.
18:46
I don't have to relyלִסְמוֹך on my ownשֶׁלוֹ near-sightednessכמעט ללא ראייה.
484
1111000
3000
אני לא צריכה להסתמך על קוצר-הראייה שלי.
18:49
We actuallyלמעשה have all of these casesבמקרים
485
1114000
2000
יש לנו הרבה מקרים
18:51
where we overcomeלְהִתְגַבֵּר our biologicalבִּיוֹלוֹגִי limitationsמגבלות
486
1116000
3000
בהם התגברנו על המגבלות הביולוגיות שלנו
18:54
throughדרך technologyטֶכנוֹלוֹגִיָה and other meansאומר, seeminglyלִכאוֹרָה prettyיפה easilyבְּקַלוּת.
487
1119000
3000
באמצעות טכנולוגיה ודרכים אחרות, די בקלות.
18:57
But we have to recognizeלזהות that we have those limitationsמגבלות.
488
1122000
3000
אבל אנחנו צריכים להכיר בכך שיש לנו את אותן מגבלות.
19:00
And here'sהנה the rubלְשַׁפשֵׁף.
489
1125000
2000
והנה הבעיה.
19:02
It was Camusקאמי who onceפַּעַם said that, "Man is the only speciesמִין
490
1127000
2000
קאמי היה זה שאמר: "האדם הוא המין היחיד
19:04
who refusesמסרב to be what he really is."
491
1129000
3000
המסרב להיות מה שהוא באמת."
19:07
But the ironyאִירוֹנִיָה is that
492
1132000
2000
אבל האירוניה היא
19:09
it mightאולי only be in recognizingזיהוי our limitationsמגבלות
493
1134000
2000
שרק באמצעות הכרה במגבלות שלנו
19:11
that we can really actuallyלמעשה overcomeלְהִתְגַבֵּר them.
494
1136000
2000
אנחנו יכולים באמת להתגבר עליהן.
19:13
The hopeלְקַווֹת is that you all will think about your limitationsמגבלות,
495
1138000
3000
התקווה היא שכל אחד מכם יחשוב על המגבלות שלו,
19:16
not necessarilyבהכרח as unovercomableבלתי ניתן לביטוי,
496
1141000
3000
לא בהכרח כבלתי-ניתנות להתמודדות,
19:19
but to recognizeלזהות them, acceptלְקַבֵּל them
497
1144000
2000
אבל להכיר בהם, לקבל אותן
19:21
and then use the worldעוֹלָם of designלְעַצֵב to actuallyלמעשה figureדמות them out.
498
1146000
3000
ואז להשתמש בעולם התכנון כדי ממש להבין אותם.
19:24
That mightאולי be the only way that we will really be ableיכול
499
1149000
3000
זו אולי הדרך היחידה בה נוכל באמת
19:27
to achieveלְהַשִׂיג our ownשֶׁלוֹ humanבן אנוש potentialפוטנציאל
500
1152000
2000
להגשים את הפוטנציאל האנושי שלנו
19:29
and really be the nobleאֲצִילִי speciesמִין we hopeלְקַווֹת to all be.
501
1154000
3000
ולהיות אותו מין אצילי שכולנו מקווים להיות.
19:32
Thank you.
502
1157000
2000
תודה רבה.
19:34
(Applauseתְשׁוּאוֹת)
503
1159000
5000
(מחיאות כפיים)
Translated by Sigal Tifferet
Reviewed by Ido Dekkers

▲Back to top

ABOUT THE SPEAKER
Laurie Santos - Cognitive psychologist
Laurie Santos studies primate psychology and monkeynomics -- testing problems in human psychology on primates, who (not so surprisingly) have many of the same predictable irrationalities we do.

Why you should listen

Laurie Santos runs the Comparative Cognition Laboratory (CapLab) at Yale, where she and collaborators across departments (from psychology to primatology to neurobiology) explore the evolutionary origins of the human mind by studying lemurs, capuchin monkeys and other primates. The twist: Santos looks not only for positive humanlike traits, like tool-using and altruism, but irrational ones, like biased decisionmaking.

In elegant, carefully constructed experiments, Santos and CapLab have studied how primates understand and categorize objects in the physical world -- for instance, that monkeys understand an object is still whole even when part of it is obscured. Going deeper, their experiments also search for clues that primates possess a theory of mind -- an ability to think about what other people think.

Most recently, the lab has been looking at behaviors that were once the province mainly of novelists: jealousy, frustration, judgment of others' intentions, poor economic choices. In one experiment, Santos and her team taught monkeys to use a form of money, tradeable for food. When certain foods became cheaper, monkeys would, like humans, overbuy. As we humans search for clues to our own irrational behaviors, Santos' research suggests that the source of our genius for bad decisions might be our monkey brains.

More profile about the speaker
Laurie Santos | Speaker | TED.com