ABOUT THE SPEAKER
Laurie Santos - Cognitive psychologist
Laurie Santos studies primate psychology and monkeynomics -- testing problems in human psychology on primates, who (not so surprisingly) have many of the same predictable irrationalities we do.

Why you should listen

Laurie Santos runs the Comparative Cognition Laboratory (CapLab) at Yale, where she and collaborators across departments (from psychology to primatology to neurobiology) explore the evolutionary origins of the human mind by studying lemurs, capuchin monkeys and other primates. The twist: Santos looks not only for positive humanlike traits, like tool-using and altruism, but irrational ones, like biased decisionmaking.

In elegant, carefully constructed experiments, Santos and CapLab have studied how primates understand and categorize objects in the physical world -- for instance, that monkeys understand an object is still whole even when part of it is obscured. Going deeper, their experiments also search for clues that primates possess a theory of mind -- an ability to think about what other people think.

Most recently, the lab has been looking at behaviors that were once the province mainly of novelists: jealousy, frustration, judgment of others' intentions, poor economic choices. In one experiment, Santos and her team taught monkeys to use a form of money, tradeable for food. When certain foods became cheaper, monkeys would, like humans, overbuy. As we humans search for clues to our own irrational behaviors, Santos' research suggests that the source of our genius for bad decisions might be our monkey brains.

More profile about the speaker
Laurie Santos | Speaker | TED.com
TEDGlobal 2010

Laurie Santos: A monkey economy as irrational as ours

لائوری سانتوز: اقتصاد میون‌وار نامعقول به اندازه‌ی اقتصاد ما

Filmed:
1,506,660 views

لائوری سانتوز ریشه‌های نامعقول بودن آدمی را، با مشاهده‌ی روش تصمیم‌گیری خویشاوندان نخستی‌سان ما، بررسی می‌کند. او با انجام یک سری آزمایش‌های هوشمند در زمینه‌ی «اقتصاد میمونی» نشان می‌دهد که میمون‌ها هم مرتکب برخی اشتباهات احمقانه‌ای می‌شوند که ما انجام می‌دهیم.
- Cognitive psychologist
Laurie Santos studies primate psychology and monkeynomics -- testing problems in human psychology on primates, who (not so surprisingly) have many of the same predictable irrationalities we do. Full bio

Double-click the English transcript below to play the video.

00:17
I want to startشروع کن my talk todayامروز with two observationsمشاهدات
0
2000
2000
من می‌خوام امروز سخن‌ام را با دو مشاهده بر گونه‌های بشری آغاز کنم.
00:19
about the humanانسان speciesگونه ها.
1
4000
2000
من می‌خوام امروز سخن‌ام را با دو مشاهده بر گونه‌های بشری آغاز کنم.
00:21
The first observationمشاهده is something that you mightممکن think is quiteکاملا obviousآشکار,
2
6000
3000
مشاهده‌ی نخست چیزی‌ست که شاید به نظر شما واضح بیاد،
00:24
and that's that our speciesگونه ها, Homoهومو sapienssapiens,
3
9000
2000
و آن این است که گونه‌ی ما، هموسِپین‌ها (انسان اندیشه‌ورز)،
00:26
is actuallyدر واقع really, really smartهوشمندانه --
4
11000
2000
در واقع بسیار بسیار باهوش‌ست -
00:28
like, ridiculouslyمسخره smartهوشمندانه --
5
13000
2000
یعنی، به طور مضحکی باهوش‌ -
00:30
like you're all doing things
6
15000
2000
یعنی اینطور که همه‌تون کارهایی را انجام می‌دید
00:32
that no other speciesگونه ها on the planetسیاره does right now.
7
17000
3000
که هیچ گونه‌ی دیگری بر روی کره‌ی زمین در حال حاضر نمی‌تونه انجام بده.
00:35
And this is, of courseدوره,
8
20000
2000
و البته این، احتمالا نخستین بار نیست که شما به این نتیجه رسیدید.
00:37
not the first time you've probablyشاید recognizedشناسایی شده this.
9
22000
2000
و البته این، احتمالا نخستین بار نیست که شما به این نتیجه رسیدید.
00:39
Of courseدوره, in additionعلاوه بر این to beingبودن smartهوشمندانه, we're alsoهمچنین an extremelyفوق العاده vainبیهوده speciesگونه ها.
10
24000
3000
البته، علاوه بر باهوش بودن، ما به شدت گونه‌ی مغروری هستیم.
00:42
So we like pointingاشاره کردن out the factواقعیت that we're smartهوشمندانه.
11
27000
3000
ما می‌خوایم این حقیقت را که باهوشیم تو چشمِ دیگران فرو کنیم.
00:45
You know, so I could turnدور زدن to prettyبسیار much any sageحکیم
12
30000
2000
می‌دونید، خب من می‌تونم تقریبا سراغ هر انسان فرزانه‌ای برم
00:47
from Shakespeareشکسپیر to Stephenاستفان Colbertکلبرت
13
32000
2000
از شکسپیر بگیر تا استفان کالبرت
00:49
to pointنقطه out things like the factواقعیت that
14
34000
2000
تا این حقیقت را خاطرنشان کنم که
00:51
we're nobleنجیب in reasonدلیل and infiniteبي نهايت in facultiesدانشکده ها
15
36000
2000
ما در استدلال بی‌همتا و در توانایی ذهنی بی‌انتها هستیم
00:53
and just kindنوع of awesome-erعالی than anything elseچیز دیگری on the planetسیاره
16
38000
2000
و وقتی نوبت به امور ذهنی می‌رسه، از هر موجود دیگر کره‌ی زمین فوق‌العاده‌تر از فوق‌العاده‌ایم.
00:55
when it comesمی آید to all things cerebralمغزی.
17
40000
3000
و وقتی نوبت به امور ذهنی می‌رسه، از هر موجود دیگر کره‌ی زمین فوق‌العاده‌تر از فوق‌العاده‌ایم.
00:58
But of courseدوره, there's a secondدومین observationمشاهده about the humanانسان speciesگونه ها
18
43000
2000
اما مسلما، مشاهده‌ی دیگری هم درباره‌ی گونه‌ی بشر وجود دارد
01:00
that I want to focusتمرکز on a little bitبیت more,
19
45000
2000
که می‌خوام کمی بیشتر روش متمرکز بشم،
01:02
and that's the factواقعیت that
20
47000
2000
و آن این حقیقت‌ست که
01:04
even thoughگرچه we're actuallyدر واقع really smartهوشمندانه, sometimesگاه گاهی uniquelyمنحصر به فرد smartهوشمندانه,
21
49000
3000
با وجود اینکه در اصل ما بسیار هوشمندیم، و گاهی به طور بی‌مانندی هوشمند،
01:07
we can alsoهمچنین be incrediblyطور باور نکردنی, incrediblyطور باور نکردنی dumbگنگ
22
52000
3000
می‌تونیم وقتی نوبت به برخی جنبه‌های تصمیم‌گیری می‌رسه، ناباورانه هالو باشیم.
01:10
when it comesمی آید to some aspectsجنبه های of our decisionتصمیم گیری makingساخت.
23
55000
3000
می‌تونیم وقتی نوبت به برخی جنبه‌های تصمیم‌گیری می‌رسه، ناباورانه هالو باشیم.
01:13
Now I'm seeingدیدن lots of smirkssmirks out there.
24
58000
2000
حالا من دارم پوزخندهای زیادی اینجا می‌بینم.
01:15
Don't worryنگرانی, I'm not going to call anyoneهر کسی in particularخاص out
25
60000
2000
نگران نباشید، من نمی‌خوام به کس خاصی به خاطر اشتباهاتش اشاره کنم.
01:17
on any aspectsجنبه های of your ownخودت mistakesاشتباهات.
26
62000
2000
نگران نباشید، من نمی‌خوام به کس خاصی به خاطر اشتباهاتش اشاره کنم.
01:19
But of courseدوره, just in the last two yearsسالها
27
64000
2000
اما مسلما، تنها در دوسال گذشته
01:21
we see these unprecedentedبی سابقه examplesمثال ها of humanانسان ineptitudeبی نظمی.
28
66000
3000
ما نمونه‌های بی‌سابقه‌ای را از ناکارایی بشر دیدیم
01:24
And we'veما هستیم watchedتماشا کردم as the toolsابزار we uniquelyمنحصر به فرد make
29
69000
3000
و شاهد بودیم که ابزارهایی که منحصرا ما سازنده‌ی آن هستیم
01:27
to pullکشیدن the resourcesمنابع out of our environmentمحیط
30
72000
2000
تا منابع را از محیط زیست‌مان بیرون بکشیم
01:29
kindنوع of just blowفوت کردن، دمیدن up in our faceصورت.
31
74000
2000
یه جورایی داره جلوی چشمامون از هم می‌پاشد.
01:31
We'veما هستیم watchedتماشا کردم the financialمالی marketsبازارها that we uniquelyمنحصر به فرد createايجاد كردن --
32
76000
2000
ما شاهد بازارهای مالی که منحصرا ساختیم بوده‌ایم -
01:33
these marketsبازارها that were supposedقرار است to be foolproofاحمقانه --
33
78000
3000
این بازارهایی که قرار بوده خطاناپذیر باشند -
01:36
we'veما هستیم watchedتماشا کردم them kindنوع of collapseسقوط - فروپاشی - اضمحلال before our eyesچشم ها.
34
81000
2000
ما شاهد بوده‌ایم که در برابر چشمامون فرو ریختند.
01:38
But bothهر دو of these two embarrassingشرم آور examplesمثال ها, I think,
35
83000
2000
اما به نظر من، هر دوی این مثال‌های شرم‌آور،
01:40
don't highlightبرجسته what I think is mostاکثر embarrassingشرم آور
36
85000
3000
نمی‌تونن سرپوش بر چیزی بگذارند که به گمان من شرم‌آورترین چیز درباره‌ی خطاهای بشرست،
01:43
about the mistakesاشتباهات that humansانسان make,
37
88000
2000
نمی‌تونن سرپوش بر چیزی بگذارند که به گمان من شرم‌آورترین چیز درباره‌ی خطاهای بشرست،
01:45
whichکه is that we'dما می خواهیم like to think that the mistakesاشتباهات we make
38
90000
3000
و آن اینکه ما ترجیح می‌دیم خیال کنیم که اشتباهاتی که مرتکب می‌شیم
01:48
are really just the resultنتيجه of a coupleزن و شوهر badبد applesسیب
39
93000
2000
واقعا فقط نتیجه‌ی کار یکی دو تا آدم ناباب
01:50
or a coupleزن و شوهر really sortمرتب سازی of FAILشکست Blog-worthyوبلاگ ارزشمند decisionsتصمیمات.
40
95000
3000
یا چند تا تصمیم وبلاگی شکست خورده‌ست.
01:53
But it turnsچرخش out, what socialاجتماعی scientistsدانشمندان are actuallyدر واقع learningیادگیری
41
98000
3000
اما با توجه به یافته‌های جامعه‌شناسان، به نظر میاد
01:56
is that mostاکثر of us, when put in certainمسلم - قطعی contextsزمینه ها,
42
101000
3000
که بیشترِ ما، هنگامی که در بستر مشخصی قرار می‌گیریم،
01:59
will actuallyدر واقع make very specificخاص mistakesاشتباهات.
43
104000
3000
مرتکب اشتباهات بسیار مشخصی می‌شویم.
02:02
The errorsاشتباهات we make are actuallyدر واقع predictableقابل پیش بینی.
44
107000
2000
خطاهایی که می‌کنیم در واقع پیش‌بینی پذیر هستند.
02:04
We make them again and again.
45
109000
2000
ما آنها را دوباره و دوباره انجام می‌دیم.
02:06
And they're actuallyدر واقع immuneایمنی to lots of evidenceشواهد.
46
111000
2000
و آنها در واقع بر اساس بسیاری مستندات تغییرناپذیرند.
02:08
When we get negativeمنفی feedbackبازخورد,
47
113000
2000
هنگامی که ما بازخورد منفی دریافت می‌کنیم،
02:10
we still, the nextبعد time we're faceصورت with a certainمسلم - قطعی contextزمینه,
48
115000
3000
هنوز، دفعه‌ی بعد که دوباره در معرض همان شرایط قرار می‌گیریم،
02:13
tendگرایش داشتن to make the sameیکسان errorsاشتباهات.
49
118000
2000
به ارتکاب همان خطاها گرایش داریم.
02:15
And so this has been a realواقعی puzzleپازل to me
50
120000
2000
و این واقعا برای من، به عنوان یک پژوهشگر سرشت انسانی یک معما بود.
02:17
as a sortمرتب سازی of scholarمحقق of humanانسان natureطبیعت.
51
122000
2000
و این واقعا برای من، به عنوان یک پژوهشگر سرشت انسانی یک معما بود.
02:19
What I'm mostاکثر curiousکنجکاو about is,
52
124000
2000
چیزی که بیش از همه دربارش کنجکاوم اینه که،
02:21
how is a speciesگونه ها that's as smartهوشمندانه as we are
53
126000
3000
چگونه‌است که یک گونه‌ که به اندازه‌ی ما باهوش است
02:24
capableقادر به of suchچنین badبد
54
129000
2000
می‌تواند همواره خطاهایی به این بدی را تا این‌حد مداوم انجام دهد؟
02:26
and suchچنین consistentاستوار errorsاشتباهات all the time?
55
131000
2000
می‌تواند همواره خطاهایی به این بدی را تا این‌حد مداوم انجام دهد؟
02:28
You know, we're the smartestهوشمندانه thing out there, why can't we figureشکل this out?
56
133000
3000
می‌دونید، ما باهوش‌ترین چیزی هستیم که وجود داره، چرا نتونیم ازش سر در بیاریم؟
02:31
In some senseاحساس, where do our mistakesاشتباهات really come from?
57
136000
3000
به دیگر معنی، اشتباهات ما واقعا از کجا ناشی می‌شه؟
02:34
And havingداشتن thought about this a little bitبیت, I see a coupleزن و شوهر differentناهمسان possibilitiesامکانات.
58
139000
3000
با کمی فکر به این موضوع، به دو احتمال رسیدم.
02:37
One possibilityامکان پذیری is, in some senseاحساس, it's not really our faultعیب.
59
142000
3000
یک احتمال اینه که، به عبارتی، این اصلا تقصیر ما نیست.
02:40
Because we're a smartهوشمندانه speciesگونه ها,
60
145000
2000
چون ما گونه‌‌ی هوشمندی هستیم،
02:42
we can actuallyدر واقع createايجاد كردن all kindsانواع of environmentsمحیط ها
61
147000
2000
می‌تونیم در اصل فضاهایی بیافرینیم
02:44
that are superفوق العاده, superفوق العاده complicatedبغرنج,
62
149000
2000
که بسیار بسیار پیچیده هستند،
02:46
sometimesگاه گاهی too complicatedبغرنج for us to even actuallyدر واقع understandفهمیدن,
63
151000
3000
گاهی آنقدر پیچیده که حتی خودمان نمی‌تونیم درکش کنیم،
02:49
even thoughگرچه we'veما هستیم actuallyدر واقع createdایجاد شده them.
64
154000
2000
با وجود اینکه خودمان آنها را آفریده‌ایم.
02:51
We createايجاد كردن financialمالی marketsبازارها that are superفوق العاده complexپیچیده.
65
156000
2000
ما بازارهای مالی را خلق می‌کنیم که به شدت پیچیده هستند.
02:53
We createايجاد كردن mortgageرهن termsاصطلاحات that we can't actuallyدر واقع dealمعامله with.
66
158000
3000
ما قراردادهای رهنی ایجاد می‌کنیم که نمی‌تونیم باهاشون دست و پنجه نرم کنیم.
02:56
And of courseدوره, if we are put in environmentsمحیط ها where we can't dealمعامله with it,
67
161000
3000
و معلومه، اگر ما در فضایی قرار داده بشیم که نتونیم از پَسِش بر بیایم،
02:59
in some senseاحساس makesباعث می شود senseاحساس that we actuallyدر واقع
68
164000
2000
تا اندازه‌ای منطقی به نظر میاد که ممکنه گند بزنیم.
03:01
mightممکن messبهم ریختگی certainمسلم - قطعی things up.
69
166000
2000
تا اندازه‌ای منطقی به نظر میاد که ممکنه گند بزنیم.
03:03
If this was the caseمورد, we'dما می خواهیم have a really easyآسان solutionراه حل
70
168000
2000
و اگر این درست بود، راه حل بسیار ساده‌ای برای مشکل خطاهای بشری می‌داشتیم.
03:05
to the problemمسئله of humanانسان errorخطا.
71
170000
2000
و اگر این درست بود، راه حل بسیار ساده‌ای برای مشکل خطاهای بشری می‌داشتیم.
03:07
We'dما می خواهیم actuallyدر واقع just say, okay, let's figureشکل out
72
172000
2000
تنها می‌گفتیم، بیاید ماهیت فن‌آوری‌هایی که نمی‌تونیم از پسشون بربیایم را بفهمیم،
03:09
the kindsانواع of technologiesفن آوری ها we can't dealمعامله with,
73
174000
2000
تنها می‌گفتیم، بیاید ماهیت فن‌آوری‌هایی که نمی‌تونیم از پسشون بربیایم را بفهمیم،
03:11
the kindsانواع of environmentsمحیط ها that are badبد --
74
176000
2000
آن دست از فضاها که نامطلوب هستند -
03:13
get ridخلاص شدن از شر of those, designطرح things better,
75
178000
2000
از دستشان خلاص بشیم، چیزها را بهتر طراحی کنیم،
03:15
and we should be the nobleنجیب speciesگونه ها
76
180000
2000
آنوقت باید همان گونه‌ی ارزشمندی بشیم که از خودمان انتظار داریم.
03:17
that we expectانتظار ourselvesخودمان to be.
77
182000
2000
آنوقت باید همان گونه‌ی ارزشمندی بشیم که از خودمان انتظار داریم.
03:19
But there's anotherیکی دیگر possibilityامکان پذیری that I find a little bitبیت more worryingنگرانی,
78
184000
3000
اما احتمال دیگری هم وجود داره که به نظر من اندکی نگران‌کننده‌تره،
03:22
whichکه is, maybe it's not our environmentsمحیط ها that are messedmessed up.
79
187000
3000
این که که شاید محیط رندگی ما آشفته نیست.
03:25
Maybe it's actuallyدر واقع us that's designedطراحی شده badlyبدی.
80
190000
3000
شاید در واقع این ما هستیم که بد طراحی شدیم.
03:28
This is a hintاشاره کردن that I've gottenدریافت کردم
81
193000
2000
این اشاره‌ای‌ است که من دریافت کردم
03:30
from watchingتماشا کردن the waysراه ها that socialاجتماعی scientistsدانشمندان have learnedیاد گرفتم about humanانسان errorsاشتباهات.
82
195000
3000
از بررسی روش‌هایی که جامعه‌شناسان درباره‌ی خطاهای انسانی دریافته‌اند.
03:33
And what we see is that people tendگرایش داشتن to keep makingساخت errorsاشتباهات
83
198000
3000
و آنچه ما می‌بینیم این است که مردم به اشتباه کردن، دقیقا به شیوه‌ی یکسان، دوباره و دوباره ادامه می‌دن.
03:36
exactlyدقیقا the sameیکسان way, over and over again.
84
201000
3000
و آنچه ما می‌بینیم این است که مردم به اشتباه کردن، دقیقا به شیوه‌ی یکسان، دوباره و دوباره ادامه می‌دن.
03:39
It feelsاحساس می کند like we mightممکن almostتقریبا just be builtساخته شده
85
204000
2000
انگار احتمال داره که ما فقط ساخته شدیم
03:41
to make errorsاشتباهات in certainمسلم - قطعی waysراه ها.
86
206000
2000
که اشتباهاتی را به شیوه‌های مشخص مرتکب بشیم.
03:43
This is a possibilityامکان پذیری that I worryنگرانی a little bitبیت more about,
87
208000
3000
این احتمالی‌ست که من کمی بیشتر دربارش نگران هستم،
03:46
because, if it's us that's messedmessed up,
88
211000
2000
زیرا، اگر این ما باشیم که گند بالا میاریم،
03:48
it's not actuallyدر واقع clearروشن است how we go about dealingمعامله with it.
89
213000
2000
خیلی معلوم نیست که چطور قراره باهاش دست و پنجه نرم کنیم.
03:50
We mightممکن just have to acceptقبول کردن the factواقعیت that we're errorخطا proneدمر
90
215000
3000
تنها باید این حقیقت را بپذیریم که ما مهیای خطا کردن هستیم
03:53
and try to designطرح things around it.
91
218000
2000
و تلاش کنیم با توجه به این بقیه چیزها را طراحی کنیم.
03:55
So this is the questionسوال my studentsدانش آموزان and I wanted to get at.
92
220000
3000
خب، این مسئله‌ای بود که من و دانشجویانم می‌خواستیم به آن بپردازیم.
03:58
How can we tell the differenceتفاوت betweenبین possibilityامکان پذیری one and possibilityامکان پذیری two?
93
223000
3000
چطور می‌تونیم میان احتمال نخست و دوم تمایز قائل بشیم؟
04:01
What we need is a populationجمعیت
94
226000
2000
چیزی که نیاز داریم جمعیت نمونه‌ای است که
04:03
that's basicallyاساسا smartهوشمندانه, can make lots of decisionsتصمیمات,
95
228000
2000
در اساس باهوش باشند، بتونن تصمیم‌های زیادی بگیرند،
04:05
but doesn't have accessدسترسی به to any of the systemsسیستم های we have,
96
230000
2000
اما به هیچ‌یک از سازمان‌هایی که ما داریم دسترسی نداشته باشند،
04:07
any of the things that mightممکن messبهم ریختگی us up --
97
232000
2000
هیچ‌کدام از آن چیزهایی که ممکن است ما را آشفته کنند -
04:09
no humanانسان technologyتکنولوژی, humanانسان cultureفرهنگ,
98
234000
2000
هیچ فن‌آوری انسانی، هیچ فرهنگ بشری،
04:11
maybe even not humanانسان languageزبان.
99
236000
2000
حتی شاید به هیچ زبان انسانی.
04:13
And so this is why we turnedتبدیل شد to these guys here.
100
238000
2000
برای همین بود که ما به سمت این بروبچه‌ها متمایل شدیم.
04:15
These are one of the guys I work with. This is a brownرنگ قهوه ای capuchinکاپوچین monkeyمیمون.
101
240000
3000
این یکی از بچه‌هایی‌ست که من باهاشون کار می‌کنم. این یک میمون کاپوچین قهوه‌ای‌است.
04:18
These guys are Newجدید Worldجهان primatesاولیها,
102
243000
2000
اینها از نخستی‌سانان ینگه دنیا هستند،
04:20
whichکه meansبه معنای they brokeشکست off from the humanانسان branchشاخه
103
245000
2000
که یعنی آنها حدود ۳۵ میلیون‌سال پیش از شاخه‌ی بشری جدا افتادند.
04:22
about 35 millionمیلیون yearsسالها agoپیش.
104
247000
2000
که یعنی آنها حدود ۳۵ میلیون‌سال پیش از شاخه‌ی بشری جدا افتادند.
04:24
This meansبه معنای that your great, great, great great, great, great --
105
249000
2000
این یعنی مادرِ مادرِ مادرِ مادرِ مادرِ مادرِ مادرِ -
04:26
with about fiveپنج millionمیلیون "greatsبزرگان" in there --
106
251000
2000
با حدود پنج میلیون مادر در این عبارت -
04:28
grandmotherمادر بزرگ was probablyشاید the sameیکسان great, great, great, great
107
253000
2000
مادربزرگتون احتمالا با مادرِ مادرِ مادربزرگِ -با پنج میلیون مادر- هالی یکی‌ست.
04:30
grandmotherمادر بزرگ with fiveپنج millionمیلیون "greatsبزرگان" in there
108
255000
2000
مادربزرگتون احتمالا با مادرِ مادرِ مادربزرگِ -با پنج میلیون مادر- هالی یکی‌ست.
04:32
as Hollyهالی up here.
109
257000
2000
مادربزرگتون احتمالا با مادرِ مادرِ مادربزرگِ -با پنج میلیون مادر- هالی یکی‌ست.
04:34
You know, so you can take comfortراحتی in the factواقعیت that this guy up here is a really really distantدور,
110
259000
3000
می‌دونید که، خیالتون راحت باشه که این بچه فامیل خیلی خیلی دور شماست،
04:37
but albeitهر چند evolutionaryتکامل یافته, relativeنسبت فامیلی.
111
262000
2000
اما با این وجود یک فامیل تکاملی‌ست.
04:39
The good newsاخبار about Hollyهالی thoughگرچه is that
112
264000
2000
با این همه، خبر خوب درباره‌ی هالی اینه که
04:41
she doesn't actuallyدر واقع have the sameیکسان kindsانواع of technologiesفن آوری ها we do.
113
266000
3000
او درواقع فن‌آوری‌هایی که ما داریم را در اختیار ندارد.
04:44
You know, she's a smartهوشمندانه, very cutبرش creatureموجود, a primateپرایمکت as well,
114
269000
3000
می‌دانید، او باهوشه، یک موجود بسیار خوش‌بر و رو، و همچنین یک نخستی‌سان،
04:47
but she lacksفاقد all the stuffچیز we think mightممکن be messingمسخره کردن us up.
115
272000
2000
اما او فاقد همه‌ی چیزهایی‌ست که ممکنه باعث شده باشه که ما گند بزنیم.
04:49
So she's the perfectکامل testتست caseمورد.
116
274000
2000
بنابراین یک مورد آزمایش بی عیب‌ست.
04:51
What if we put Hollyهالی into the sameیکسان contextزمینه as humansانسان?
117
276000
3000
چی می‌شه اگر هالی را در همان بستری قرار بدیم که انسان‌ها قرار دارند؟
04:54
Does she make the sameیکسان mistakesاشتباهات as us?
118
279000
2000
آیا همان اشتباهات ما را می‌کند؟
04:56
Does she not learnیاد گرفتن from them? And so on.
119
281000
2000
آیا او از اشتباهاتش درس نمی‌گیره؟ و همچین چیزهایی.
04:58
And so this is the kindنوع of thing we decidedقرار بر این شد to do.
120
283000
2000
و این کاری بود که تصمیم گرفتیم انجام بدیم.
05:00
My studentsدانش آموزان and I got very excitedبرانگیخته about this a fewتعداد کمی yearsسالها agoپیش.
121
285000
2000
من و دانشجوهام چندسال پیش در این باره بسیار هیجان‌زده بودیم.
05:02
We said, all right, let's, you know, throwپرت كردن so problemsمشکلات at Hollyهالی,
122
287000
2000
ما گفتیم، بسیار خوب، بذار هالی را در معرض چند مشکل قرار بدیم،
05:04
see if she messesmesses these things up.
123
289000
2000
و ببینیم که آشفته می‌شه یا نه.
05:06
First problemمسئله is just, well, where should we startشروع کن?
124
291000
3000
مسئله‌ی اول دقیقا این بود که، خب، از کجا شروع کنیم؟
05:09
Because, you know, it's great for us, but badبد for humansانسان.
125
294000
2000
چون، می‌دانید، این برای ما عالی‌ست، اما برای انسان بده.
05:11
We make a lot of mistakesاشتباهات in a lot of differentناهمسان contextsزمینه ها.
126
296000
2000
ما اشتباهات زیادی را در بسترهای گوناگون مرتکب می‌شیم.
05:13
You know, where are we actuallyدر واقع going to startشروع کن with this?
127
298000
2000
خب، حالا با این باید از کجا شروع کنیم؟
05:15
And because we startedآغاز شده this work around the time of the financialمالی collapseسقوط - فروپاشی - اضمحلال,
128
300000
3000
و چون ما این کار را تقریبا هم‌زمان با بحران اقتصادی آغاز کردیم،
05:18
around the time when foreclosuresسلب حق اقامه دعوی were hittingضربه زدن the newsاخبار,
129
303000
2000
زمانی که از دست رفتن وثیقه‌‌های بانکی هر روز در صدر اخبار بود،
05:20
we said, hhmmباشه, maybe we should
130
305000
2000
گفتیم، آها، شاید ما باید
05:22
actuallyدر واقع startشروع کن in the financialمالی domainدامنه.
131
307000
2000
در واقع از حیطه‌ی اقتصاد آغاز کنیم.
05:24
Maybe we should look at monkey'sمیمون economicاقتصادی decisionsتصمیمات
132
309000
3000
شاید ما باید تصمیم‌های اقتصادی میمون‌ها را بررسی کنیم
05:27
and try to see if they do the sameیکسان kindsانواع of dumbگنگ things that we do.
133
312000
3000
و ببینیم که آیا آنها همان اشتباه‌های مسخره‌ای را می‌کنند که ما هم می‌کنیم.
05:30
Of courseدوره, that's when we hitاصابت a sortمرتب سازی secondدومین problemمسئله --
134
315000
2000
البته، این زمانی بود که ما به مشکل دوم برخورده بودیم -
05:32
a little bitبیت more methodologicalروش شناسی --
135
317000
2000
یک کمی روش‌مند تر -
05:34
whichکه is that, maybe you guys don't know,
136
319000
2000
که عبارت بود از، شاید شماها ندانید،
05:36
but monkeysمیمون ها don't actuallyدر واقع use moneyپول. I know, you haven'tنه metملاقات کرد them.
137
321000
3000
اما میمون‌ها در اصل از پول استفاده نمی‌کنند. می‌دونم، شما تا حالا باهاشون دیدار نداشتید.
05:39
But this is why, you know, they're not in the queueصف behindپشت you
138
324000
2000
اما به همین دلیل‌ست که، آنها در صف بقالی یا خودپرداز پشت شما نایستادند - آنها از این کارها نمی‌کنند.
05:41
at the groceryخواربار storeفروشگاه or the ATMدستگاه خودپرداز -- you know, they don't do this stuffچیز.
139
326000
3000
اما به همین دلیل‌ست که، آنها در صف بقالی یا خودپرداز پشت شما نایستادند - آنها از این کارها نمی‌کنند.
05:44
So now we facedدر مواجهه, you know, a little bitبیت of a problemمسئله here.
140
329000
3000
پس ما در اینجا یک کمی با مشکل روبرو شدیم.
05:47
How are we actuallyدر واقع going to askپرسیدن monkeysمیمون ها about moneyپول
141
332000
2000
چطور می‌خوایم از میمون‌ها درباره‌ی پول بپرسیم
05:49
if they don't actuallyدر واقع use it?
142
334000
2000
اگر آنها در اصل ازش استفاده نمی‌کنند؟
05:51
So we said, well, maybe we should just, actuallyدر واقع just suckمکیدن it up
143
336000
2000
پس ما گفتیم، خب، دندان روی جگر می‌گذاریم
05:53
and teachتدریس کنید monkeysمیمون ها how to use moneyپول.
144
338000
2000
و به میمون‌ها یاد می‌دیم که چطور از پول استفاده کنند.
05:55
So that's just what we did.
145
340000
2000
بنابراین همین کار را کردیم.
05:57
What you're looking at over here is actuallyدر واقع the first unitواحد that I know of
146
342000
3000
آنچه شما در اینجا می‌بینید درواقع نخستین واحد ارزی غیر بشری‌ست که می‌شناسم.
06:00
of non-humanغیر انسانی currencyواحد پول.
147
345000
2000
آنچه شما در اینجا می‌بینید درواقع نخستین واحد ارزی غیر بشری‌ست که می‌شناسم.
06:02
We weren'tنبودند very creativeخلاقانه at the time we startedآغاز شده these studiesمطالعات,
148
347000
2000
ما در زمان آغاز این مطالعه خیلی خلاقیت نداشتیم.
06:04
so we just calledبه نام it a tokenنشانه.
149
349000
2000
بنابراین اسمش را گذاشتیم ژِتون.
06:06
But this is the unitواحد of currencyواحد پول that we'veما هستیم taughtتدریس کرد our monkeysمیمون ها at Yaleییل
150
351000
3000
اما این واحد ارزی بود که ما به میمون‌‌هامون در دانشگاه ییل آموزش دادیم که
06:09
to actuallyدر واقع use with humansانسان,
151
354000
2000
در واقع در تبادل با انسان‌ها ازش استفاده کنند،
06:11
to actuallyدر واقع buyخرید differentناهمسان piecesقطعات of foodغذا.
152
356000
3000
تا در واقع بتونن انواع غذاها را بخرند.
06:14
It doesn't look like much -- in factواقعیت, it isn't like much.
153
359000
2000
به نظر نمی‌آمد خیلی - در واقع خیلی شبیه نیست.
06:16
Like mostاکثر of our moneyپول, it's just a pieceقطعه of metalفلز.
154
361000
2000
شبیه بیشتر پول‌های ما نیست، تنها یک تکه آهن‌ست.
06:18
As those of you who'veچه کسی takenگرفته شده currenciesارزها home from your tripسفر know,
155
363000
3000
شماهایی که پس از سفرهاتون ارز به خانه می‌برید می‌دونید که،
06:21
onceیک بار you get home, it's actuallyدر واقع prettyبسیار uselessبلا استفاده.
156
366000
2000
به محضی که برگردید خانه، آن ارز کاملا بی‌مصرف می‌شه.
06:23
It was uselessبلا استفاده to the monkeysمیمون ها at first
157
368000
2000
این اولش برای میمون‌ها بی‌استفاده بود
06:25
before they realizedمتوجه شدم what they could do with it.
158
370000
2000
پیش از آنکه پی ببرن باهاش چی‌کار می‌تونن بکنن.
06:27
When we first gaveداد it to them in theirخودشان enclosuresمحوطه,
159
372000
2000
وقتی در آغاز در قفس‌هاشان این را بهشون دادیم،
06:29
they actuallyدر واقع kindنوع of pickedبرداشت them up, lookedنگاه کرد at them.
160
374000
2000
درواقع برش داشتند و بهش خیره شدند.
06:31
They were these kindنوع of weirdعجیب و غریب things.
161
376000
2000
در این حد براشون عجیب بود.
06:33
But very quicklyبه سرعت, the monkeysمیمون ها realizedمتوجه شدم
162
378000
2000
اما میمون‌ها به سرعت تشخیص دادند
06:35
that they could actuallyدر واقع handدست these tokensنشانه ها over
163
380000
2000
که در حقیقت می‌تونن این ژِتون را در ازای غذا به آدم‌ها در آزمایشگاه بدن.
06:37
to differentناهمسان humansانسان in the labآزمایشگاه for some foodغذا.
164
382000
3000
که در حقیقت می‌تونن این ژِتون را در ازای غذا به آدم‌ها در آزمایشگاه بدن.
06:40
And so you see one of our monkeysمیمون ها, Maydayمهدی, up here doing this.
165
385000
2000
و می‌بینید که یکی از میمون‌های ما، می‌دِی، اینجا داره همین‌کار را می‌کند.
06:42
This is A and B are kindنوع of the pointsنکته ها where she's sortمرتب سازی of a little bitبیت
166
387000
3000
A و B مراحلی هستند که در آنها او تقریبا درباره این‌چیزها کنجکاو بود - چیزی نمی‌دانست.
06:45
curiousکنجکاو about these things -- doesn't know.
167
390000
2000
A و B مراحلی هستند که در آنها او تقریبا درباره این‌چیزها کنجکاو بود - چیزی نمی‌دانست.
06:47
There's this waitingدر انتظار handدست from a humanانسان experimenterآزمایش کننده,
168
392000
2000
این دستِ منتظرِ یک انسان آزمایشگر است،
06:49
and Maydayمهدی quicklyبه سرعت figuresارقام out, apparentlyظاهرا the humanانسان wants this.
169
394000
3000
و می‌دی به سرعت فهمید، که ظاهرا انسان از او این را می‌خواد.
06:52
Handsدست ها it over, and then getsمی شود some foodغذا.
170
397000
2000
آن را بهش تحویل می‌ده، و سپس مقداری غذا می‌گیرد.
06:54
It turnsچرخش out not just Maydayمهدی, all of our monkeysمیمون ها get good
171
399000
2000
معلوم شد که نه تنها می‌دی، بلکه همه‌ی میمون‌های ما در تجارت با ژِتون با فروشندگان انسان پیشرفت کردند.
06:56
at tradingتجارت tokensنشانه ها with humanانسان salesmanفروشنده.
172
401000
2000
معلوم شد که نه تنها می‌دی، بلکه همه‌ی میمون‌های ما در تجارت با ژِتون با فروشندگان انسان پیشرفت کردند.
06:58
So here'sاینجاست just a quickسریع videoویدئو of what this looksبه نظر می رسد like.
173
403000
2000
خب، اینجا یک ویدئوی کوتاه از این جریان داریم.
07:00
Here'sاینجاست Maydayمهدی. She's going to be tradingتجارت a tokenنشانه for some foodغذا
174
405000
3000
این می‌دی است. او می‌خواد چند ژِتون برای گرفتن غذا خرج کند
07:03
and waitingدر انتظار happilyبا خوشحالی and gettingگرفتن her foodغذا.
175
408000
3000
و با خوشحالی منتظرست که غذا بگیرد.
07:06
Here'sاینجاست Felixفلیکس, I think. He's our alphaآلفا maleنر; he's a kindنوع of bigبزرگ guy.
176
411000
2000
فکر می‌کنم این فلیکس‌ باشه، او قوی‌ترین نر ماست؛ هیکلش خیلی بزرگ‌ست.
07:08
But he too waitsمنتظر patientlyصبر کن, getsمی شود his foodغذا and goesمی رود on.
177
413000
3000
اما او هم با شکیبایی منتظرست، غذاش را می‌گیرد و می‌ره.
07:11
So the monkeysمیمون ها get really good at this.
178
416000
2000
بنابراین میمون‌ها پیشرفت خیلی خوبی داشتند.
07:13
They're surprisinglyشگفت آور good at this with very little trainingآموزش.
179
418000
3000
آنها به طور غافلگیرانه‌ای با اندکی تمرین در این پیشرفت کردند.
07:16
We just allowedمجاز them to pickانتخاب کنید this up on theirخودشان ownخودت.
180
421000
2000
ما تنها به آنها اجازه دادیم این را خودشان به عهده بگیرند.
07:18
The questionسوال is: is this anything like humanانسان moneyپول?
181
423000
2000
پرسش اینه که: آیا این چیزی شبیه به پول انسان است؟
07:20
Is this a marketبازار at all,
182
425000
2000
آیا این اصلا یک بازار است،
07:22
or did we just do a weirdعجیب و غریب psychologist'sروانشناس trickترفند
183
427000
2000
یا اینکه ما تنها با واداشتن میمون‌ها به انجام این کار یک حقه‌ی عجیب روانشناسی زدیم،
07:24
by gettingگرفتن monkeysمیمون ها to do something,
184
429000
2000
یا اینکه ما تنها با واداشتن میمون‌ها به انجام این کار یک حقه‌ی عجیب روانشناسی زدیم،
07:26
looking smartهوشمندانه, but not really beingبودن smartهوشمندانه.
185
431000
2000
به نظر باهوش میان، اما واقعا هوشمند نیستند.
07:28
And so we said, well, what would the monkeysمیمون ها spontaneouslyبه خودی خود do
186
433000
3000
بنابراین گفتیم، میمون‌ها خودبخود چه کار می‌کنند
07:31
if this was really theirخودشان currencyواحد پول, if they were really usingاستفاده كردن it like moneyپول?
187
436000
3000
اگر این واقعا واحد پول آنها باشه، اگر واقعا از آن به عنوان پول استفاده کنند؟
07:34
Well, you mightممکن actuallyدر واقع imagineتصور کن them
188
439000
2000
خب، می‌شه آنها را تصور کنی
07:36
to do all the kindsانواع of smartهوشمندانه things
189
441000
2000
که همان کارهای هوشمندانه‌ای را انجام می‌دن
07:38
that humansانسان do when they startشروع کن exchangingمبادله moneyپول with eachهر یک other.
190
443000
3000
که انسان‌ها وقتی شروع به مبادله‌ی پول با یکدیگر کردند، می‌کنند.
07:41
You mightممکن have them startشروع کن payingپرداخت attentionتوجه to priceقیمت,
191
446000
3000
ممکنه بشه آنها را واداشت که به قیمت توجه کنند،
07:44
payingپرداخت attentionتوجه to how much they buyخرید --
192
449000
2000
حواسشان باشه که چقدر خرید می‌کنند -
07:46
sortمرتب سازی of keepingنگه داشتن trackمسیر of theirخودشان monkeyمیمون tokenنشانه, as it were.
193
451000
3000
که حساب پولی که خرج می‌کنند را نگه‌ دارند،
07:49
Do the monkeysمیمون ها do anything like this?
194
454000
2000
آیا میمون‌ها کاری شبیه به این انجام می‌دن؟
07:51
And so our monkeyمیمون marketplaceبازار was bornبدنیا آمدن.
195
456000
3000
و به این ترتیب بازرگانی میمون‌ها متولد شد.
07:54
The way this worksآثار is that
196
459000
2000
روش کار به این صورت است که
07:56
our monkeysمیمون ها normallyبه طور معمول liveزنده in a kindنوع of bigبزرگ zooباغ وحش socialاجتماعی enclosureمحفظه.
197
461000
3000
میمون‌های ما معمولا در یک حصار بزرگ مانند باغ‌وحش همزیستی دارند.
07:59
When they get a hankeringتکان دهنده for some treatsرفتار می کند,
198
464000
2000
هنگامی‌که هوس چیز خوشمزه‌ای می‌کنند،
08:01
we actuallyدر واقع allowedمجاز them a way out
199
466000
2000
ما در اصل بهشون اجازه دادیم که بیرون برن
08:03
into a little smallerکوچکتر enclosureمحفظه where they could enterوارد the marketبازار.
200
468000
2000
و وارد محوطه‌ی کوچک‌تری بشن که از آنجا می‌تونن وارد بازار بشن.
08:05
Uponبر enteringورود the marketبازار --
201
470000
2000
به محض ورود به بازار -
08:07
it was actuallyدر واقع a much more funسرگرم کننده marketبازار for the monkeysمیمون ها than mostاکثر humanانسان marketsبازارها
202
472000
2000
بازار میمون‌‌ها در واقع از خیلی از بازارهای انسانی جذاب‌تر بود
08:09
because, as the monkeysمیمون ها enteredوارد شد the doorدرب of the marketبازار,
203
474000
3000
چون، به محض ورود میمون‌ها به آستانه‌ی این بازار،
08:12
a humanانسان would give them a bigبزرگ walletکیف پول fullپر شده of tokensنشانه ها
204
477000
2000
یک انسان به آنها یک کیف پر از ژِتون می‌ده
08:14
so they could actuallyدر واقع tradeتجارت the tokensنشانه ها
205
479000
2000
بنابراین آنها می‌تونن این پول‌ها را با یکی از دو نفری که اینجا هستند مبادله کنند -
08:16
with one of these two guys here --
206
481000
2000
بنابراین آنها می‌تونن این پول‌ها را با یکی از دو نفری که اینجا هستند مبادله کنند -
08:18
two differentناهمسان possibleامکان پذیر است humanانسان salesmenفروشندگان
207
483000
2000
دو امکان متفاوت برای خرید خرت و پرت از دو فروشنده‌ی انسان.
08:20
that they could actuallyدر واقع buyخرید stuffچیز from.
208
485000
2000
دو امکان متفاوت برای خرید خرت و پرت از دو فروشنده‌ی انسان.
08:22
The salesmenفروشندگان were studentsدانش آموزان from my labآزمایشگاه.
209
487000
2000
این فروشنده‌ها دو تا از دانشجویان آزمایشگاه من بودند.
08:24
They dressedلباس پوشیده differentlyمتفاوت است; they were differentناهمسان people.
210
489000
2000
آنها لباس‌های متفاوتی می‌پوشیدند؛ آدم‌های متفاوتی بودند.
08:26
And over time, they did basicallyاساسا the sameیکسان thing
211
491000
3000
و آنها در طی زمان کار مشابهی را تکرار می‌کردند
08:29
so the monkeysمیمون ها could learnیاد گرفتن, you know,
212
494000
2000
بنابراین میمون‌ها می‌تونستن یاد بگیرن، می‌دانید،
08:31
who soldفروخته شد what at what priceقیمت -- you know, who was reliableقابل اعتماد, who wasn'tنبود, and so on.
213
496000
3000
این‌که کی چی را به چه قیمتی می‌فروشد - کی قابل اعتماده، کی نیست، و...
08:34
And you can see that eachهر یک of the experimentersآزمایشکنندگان
214
499000
2000
و می‌تونید ببینید که هر کدام از آزمایش‌گرها
08:36
is actuallyدر واقع holdingبرگزاری up a little, yellowرنگ زرد foodغذا dishظرف.
215
501000
3000
دراصل یک بشقاب کوچک و زرد غذا به دست دارد.
08:39
and that's what the monkeyمیمون can for a singleتنها tokenنشانه.
216
504000
2000
و این چیزی‌ست که میمون‌ها در ازای یک ژِتون دریافت می‌کنند.
08:41
So everything costsهزینه ها one tokenنشانه,
217
506000
2000
پس همه‌چیز یک ژِتون می‌ارزد،
08:43
but as you can see, sometimesگاه گاهی tokensنشانه ها buyخرید more than othersدیگران,
218
508000
2000
اما همانطور که می‌بینید، گاهی ژِتون‌ها بیش از بقیه اوقات توانایی خرید دارند،
08:45
sometimesگاه گاهی more grapesانگور than othersدیگران.
219
510000
2000
گاهی انگورهای بیشتری می‌ارزند.
08:47
So I'll showنشان بده you a quickسریع videoویدئو of what this marketplaceبازار actuallyدر واقع looksبه نظر می رسد like.
220
512000
3000
‍خب، من به شما یک ویدئوی کوتاه نشان می‌دم تا این دادوستد را از نزدیک ببینید.
08:50
Here'sاینجاست a monkey-eye-viewمیمون چشم. Monkeysمیمون ها are shorterکوتاه تر, so it's a little shortکوتاه.
221
515000
3000
از نگاه یک میمون درستش کردیم. میمون‌ها کوتاه‌ترند، بنابراین بازار هم کوتاه‌تر است.
08:53
But here'sاینجاست Honeyعسل.
222
518000
2000
این هانی‌ ست.
08:55
She's waitingدر انتظار for the marketبازار to openباز کن a little impatientlyبی صبرانه.
223
520000
2000
او کمی برای باز شدن بازار بیتابی می‌کنه.
08:57
All of a suddenناگهانی the marketبازار opensباز می شود. Here'sاینجاست her choiceانتخابی: one grapesانگور or two grapesانگور.
224
522000
3000
ناگهان بازار باز می‌شه. انتخابش اینه: یک انگور یا دو انگور.
09:00
You can see Honeyعسل, very good marketبازار economistاقتصاددان,
225
525000
2000
می‌تونید هانی را، که یک اقتصاددان بازاری خیلی خوبه، ببینید،
09:02
goesمی رود with the guy who givesمی دهد more.
226
527000
3000
که سمت کسی می‌ره که بهش انگور بیشتری می‌ده.
09:05
She could teachتدریس کنید our financialمالی advisersمشاوران a fewتعداد کمی things or two.
227
530000
2000
او می‌تونه به مشاوران مالی یکی-دو چیز یاد بده.
09:07
So not just Honeyعسل,
228
532000
2000
نه تنها هانی،
09:09
mostاکثر of the monkeysمیمون ها wentرفتی with guys who had more.
229
534000
3000
بلکه بیشتر میمون‌ها به سوی کسی رفتند که بیشتر می‌فروخت.
09:12
Mostاکثر of the monkeysمیمون ها wentرفتی with guys who had better foodغذا.
230
537000
2000
بیشتر میمون‌ها سراغ کسی رفتند که غذای بهتری داشت.
09:14
When we introducedمعرفی کرد salesحراجی, we saw the monkeysمیمون ها paidپرداخت شده attentionتوجه to that.
231
539000
3000
وقتی حراجی برگزار کردیم، دیدیم که میمون‌ها بهش توجه نشان دادند.
09:17
They really caredمراقب باشید about theirخودشان monkeyمیمون tokenنشانه dollarدلار.
232
542000
3000
آنها واقعا مراقب ارز میمونی بودند.
09:20
The more surprisingشگفت آور thing was that when we collaboratedهمکاری کرد with economistsاقتصاددانان
233
545000
3000
موضوع جالب‌تر اینه که وقتی ما با اقتصاددان‌ها همکاری کردیم
09:23
to actuallyدر واقع look at the monkeys'میمون ها dataداده ها usingاستفاده كردن economicاقتصادی toolsابزار,
234
548000
3000
تا اساسا داده‌های فعالیت میمون‌ها که از ابزارهای اقتصادی استفاده می‌کردند بررسی کنیم،
09:26
they basicallyاساسا matchedتطبیق, not just qualitativelyکیفی,
235
551000
3000
این داده‌ها نه تنها به صورت کیفی، بلکه از نظر کمّی با فعالیت انسان‌ها در بازار واقعی می‌کردند، منطبق بود.
09:29
but quantitativelyکمی with what we saw
236
554000
2000
این داده‌ها نه تنها به صورت کیفی، بلکه از نظر کمّی با فعالیت انسان‌ها در بازار واقعی می‌کردند، منطبق بود.
09:31
humansانسان doing in a realواقعی marketبازار.
237
556000
2000
این داده‌ها نه تنها به صورت کیفی، بلکه از نظر کمّی با فعالیت انسان‌ها در بازار واقعی، منطبق بود.
09:33
So much so that, if you saw the monkeys'میمون ها numbersشماره,
238
558000
2000
به اندازه‌ای که، اگر آمار میمون‌ها را می‌دیدید،
09:35
you couldn'tنمی توانستم tell whetherچه they cameآمد from a monkeyمیمون or a humanانسان in the sameیکسان marketبازار.
239
560000
3000
نمی‌تونستید بگید که آیا این در یک بازار مربوط به انسان‌ست یا مربوط به یک میمون.
09:38
And what we'dما می خواهیم really thought we'dما می خواهیم doneانجام شده
240
563000
2000
و آنچه ما واقعا می‌خواستیم انجام بدیم
09:40
is like we'dما می خواهیم actuallyدر واقع introducedمعرفی کرد something
241
565000
2000
این بود که در واقع چیزی را معرفی کنیم
09:42
that, at leastکمترین for the monkeysمیمون ها and us,
242
567000
2000
که دست‌کم برای میمون‌ها و ما،
09:44
worksآثار like a realواقعی financialمالی currencyواحد پول.
243
569000
2000
مانند یک ارز مالی، موثر باشه.
09:46
Questionسوال is: do the monkeysمیمون ها startشروع کن messingمسخره کردن up in the sameیکسان waysراه ها we do?
244
571000
3000
پرسش اینه: آیا میمون‌‌ها هم شروع به اشتباهاتی می‌کنند که ما مرتکب شدیم؟
09:49
Well, we alreadyقبلا saw anecdotallyعاقلانه a coupleزن و شوهر of signsعلائم that they mightممکن.
245
574000
3000
خب، ما بر اساس یکی- دو نشانه شواهدی داشتیم که ممکنه اینطور باشه.
09:52
One thing we never saw in the monkeyمیمون marketplaceبازار
246
577000
2000
یکی اینکه ما در دادوستد میمون‌ها هیچ مدرکی دال بر پس‌انداز ندیدیم -
09:54
was any evidenceشواهد of savingصرفه جویی در --
247
579000
2000
یکی اینکه ما در دادوستد میمون‌ها هیچ مدرکی دال بر پس‌انداز ندیدیم -
09:56
you know, just like our ownخودت speciesگونه ها.
248
581000
2000
می‌دونید، درست مانند گونه‌ی انسان،
09:58
The monkeysمیمون ها enteredوارد شد the marketبازار, spentصرف شده theirخودشان entireکل budgetبودجه
249
583000
2000
میمون‌ها وارد بازار شدند، همه‌ی دارایی‌شان را خرج کردند،
10:00
and then wentرفتی back to everyoneهر کس elseچیز دیگری.
250
585000
2000
و سپس سراغ همدیگر رفتند.
10:02
The other thing we alsoهمچنین spontaneouslyبه خودی خود saw,
251
587000
2000
چیز دیگری که ما به صورت خودجوش مشاهده کردیم،
10:04
embarrassinglyشرم آور enoughکافی,
252
589000
2000
و کاملا شرم‌آور بود،
10:06
is spontaneousخود به خود evidenceشواهد of larcenyلارسن.
253
591000
2000
شواهدی مبنی بر دزدی خودانگیخته بود.
10:08
The monkeysمیمون ها would rip-offخراب کردن the tokensنشانه ها at everyهرکدام availableدر دسترس است opportunityفرصت --
254
593000
3000
میمون‌ها ژِتونها را در هرفرصتی که به دست‌می‌آوردند کِش می‌رفتند -
10:11
from eachهر یک other, oftenغالبا from us --
255
596000
2000
از همدیگر، و اغلب از ما -
10:13
you know, things we didn't necessarilyلزوما think we were introducingمعرفی,
256
598000
2000
می‌دانید، چیزهایی که ما فکر نمی‌کردیم ضرورتا پیش بیاد،
10:15
but things we spontaneouslyبه خودی خود saw.
257
600000
2000
اما آنها را به صورت خودانگیخته در میمون‌ها مشاهده کردیم.
10:17
So we said, this looksبه نظر می رسد badبد.
258
602000
2000
و گفتیم، این به نظر ناخوشایند میاد.
10:19
Can we actuallyدر واقع see if the monkeysمیمون ها
259
604000
2000
آیا می‌تونیم ببینیم که میمون‌ها
10:21
are doing exactlyدقیقا the sameیکسان dumbگنگ things as humansانسان do?
260
606000
3000
دارند دقیقا همان کارهای احمقانه‌ای را می‌کنند که انسان‌ها انجام می‌دن؟
10:24
One possibilityامکان پذیری is just kindنوع of let
261
609000
2000
یک امکان اینه که ما اجازه بدیم
10:26
the monkeyمیمون financialمالی systemسیستم playبازی out,
262
611000
2000
سازمان مالی میمون‌ها تا پایان پیش بره،
10:28
you know, see if they startشروع کن callingصدا زدن us for bailoutsکمک های مالی in a fewتعداد کمی yearsسالها.
263
613000
2000
می‌دانید، تا ببینیم آیا آنها در عرض چند سال اعلام ورشکستگی می‌کنند.
10:30
We were a little impatientبی صبر so we wanted
264
615000
2000
ما کمی ناشکیبا بودیم، آنفدر که می‌خواستیم
10:32
to sortمرتب سازی of speedسرعت things up a bitبیت.
265
617000
2000
کمی به ماجرا سرعت ببخشیم.
10:34
So we said, let's actuallyدر واقع give the monkeysمیمون ها
266
619000
2000
بنابراین گفتیم، بذار میمون‌‌ها را با همان مشکلاتی روبرو کنیم
10:36
the sameیکسان kindsانواع of problemsمشکلات
267
621000
2000
بنابراین گفتیم، بذار میمون‌‌ها را با همان مشکلاتی روبرو کنیم
10:38
that humansانسان tendگرایش داشتن to get wrongاشتباه
268
623000
2000
که انسان‌ها در چالش‌های اقتصادی خاص گرایش به انجام‌شان دارند،
10:40
in certainمسلم - قطعی kindsانواع of economicاقتصادی challengesچالش ها,
269
625000
2000
که انسان‌ها در چالش‌های اقتصادی خاص گرایش به انجام‌شان دارند،
10:42
or certainمسلم - قطعی kindsانواع of economicاقتصادی experimentsآزمایشات.
270
627000
2000
یا انواع خاصی از آزمایش‌های اقتصادی.
10:44
And so, sinceاز آنجا که the bestبهترین way to see how people go wrongاشتباه
271
629000
3000
و خب، چون بهترین راه برای فهمیدن اینکه چرا آدم‌ها اشتباه می‌کنند
10:47
is to actuallyدر واقع do it yourselfخودت,
272
632000
2000
اینه که خودت واقعا انجامش بدی،
10:49
I'm going to give you guys a quickسریع experimentآزمایشی
273
634000
2000
من می‌خوام یک آزمایش سریع روی شماها بکنم
10:51
to sortمرتب سازی of watch your ownخودت financialمالی intuitionsشهوات in actionعمل.
274
636000
2000
تا در عمل به برآورد درستی از غرایز مالی خودتان برسید.
10:53
So imagineتصور کن that right now
275
638000
2000
بنابراین همین الان تصور کنید
10:55
I handedدست eachهر یک and everyهرکدام one of you
276
640000
2000
که من به تک تک شما
10:57
a thousandهزار U.S. dollarsدلار -- so 10 crispترد hundredصد dollarدلار billsصورتحساب.
277
642000
3000
هزار دلار آمریکا دادم - ده‌تا اسکناس نوی صد دلاری.
11:00
Take these, put it in your walletکیف پول
278
645000
2000
این را می‌گیرید، و در کیف‌پولتان می‌گذارید
11:02
and spendخرج کردن a secondدومین thinkingفكر كردن about what you're going to do with it.
279
647000
2000
و یک لحظه درباره‌ی این فکر می‌کنید که می‌خواید باهاش چی‌کار کنید.
11:04
Because it's yoursشما now; you can buyخرید whateverهر چه you want.
280
649000
2000
چون حالا این مال شماست؛ می‌تونید هر چی که می‌خواید بخرید.
11:06
Donateاهدا کنید it, take it, and so on.
281
651000
2000
آن را ببخشید، یا هرکاری.
11:08
Soundsصدا great, but you get one more choiceانتخابی to earnبدست آوردن a little bitبیت more moneyپول.
282
653000
3000
به نظر عالی میاد، اما شما یک گزینه‌ی دیگر هم دارید که بتونید پول بیشتری در بیارید.
11:11
And here'sاینجاست your choiceانتخابی: you can eitherیا be riskyخطرناک,
283
656000
3000
و گزینه‌ی شما اینه: می‌تونید خطر کنید،
11:14
in whichکه caseمورد I'm going to flipتلنگر one of these monkeyمیمون tokensنشانه ها.
284
659000
2000
در این حالت من می‌خوام با یکی از ژِتون‌های میمون‌ها شیر یا خط بندازم.
11:16
If it comesمی آید up headsسر, you're going to get a thousandهزار dollarsدلار more.
285
661000
2000
اگر شیر آمد، هزار دلار بیشتر گیرت میاد.
11:18
If it comesمی آید up tailsدم, you get nothing.
286
663000
2000
اگر خط آمد، هیچی دستت را نمی‌گیره.
11:20
So it's a chanceشانس to get more, but it's prettyبسیار riskyخطرناک.
287
665000
3000
بنابراین یک فرصت‌ست برای اینکه بیشتر به دست بیاری، اما کم و بیش پرمخاطره‌ست.
11:23
Your other optionگزینه is a bitبیت safeبی خطر. Your just going to get some moneyپول for sure.
288
668000
3000
گزینه‌ی بعدی‌ات مطمئن‌تره. قراره بی‌بروبرگرد مقداری پول گیرت بیاد.
11:26
I'm just going to give you 500 bucksدلارها.
289
671000
2000
من قصد دارم بهتون ۵۰۰ چوق بدم.
11:28
You can stickچوب it in your walletکیف پول and use it immediatelyبلافاصله.
290
673000
3000
می‌تونید سریع در کیف پولتان بچپبانید و بلافاصله خرجش کنید.
11:31
So see what your intuitionبینش is here.
291
676000
2000
خب ببینید که بینش شما دراین‌باره چیه.
11:33
Mostاکثر people actuallyدر واقع go with the play-it-safeبازی امن است optionگزینه.
292
678000
3000
بیشتر مردم گزینه‌ی امن‌تر را انتخاب می‌:کنند.
11:36
Mostاکثر people say, why should I be riskyخطرناک when I can get 1,500 dollarsدلار for sure?
293
681000
3000
بیشتر مردم می‌گن، چرا باید خطر کنم وقتی بی‌بروبرگرد ۱٫۵۰۰ دلار گیرم میاد؟
11:39
This seemsبه نظر می رسد like a good betشرط. I'm going to go with that.
294
684000
2000
به نظر قمار خوبی میاد. من می‌خوام این را امتحان کنم.
11:41
You mightممکن say, ehخب, that's not really irrationalغیر منطقی.
295
686000
2000
ممکنه بگید، خب این خیلی غیر منطقی نیست.
11:43
People are a little risk-averseریسک پذیری. So what?
296
688000
2000
مردم کمی ریسک-گریز هستند. خب که چی؟
11:45
Well, the "so what?" comesمی آید when startشروع کن thinkingفكر كردن
297
690000
2000
خب، این «خب که چی؟» برمی‌گرده وقتی شروع به فکر کردن به همان مسئله می‌کنی
11:47
about the sameیکسان problemمسئله
298
692000
2000
خب، این «خب که چی؟» برمی‌گرده وقتی شروع به فکر کردن به همان مسئله می‌کنی
11:49
setتنظیم up just a little bitبیت differentlyمتفاوت است.
299
694000
2000
که حالا فقط کمی دست‌کاری شده.
11:51
So now imagineتصور کن that I give eachهر یک and everyهرکدام one of you
300
696000
2000
خب، حالا تصور کنید که من به هرکدام از شما
11:53
2,000 dollarsدلار -- 20 crispترد hundredصد dollarدلار billsصورتحساب.
301
698000
3000
۲٫۰۰۰ دلار می‌دم، ۲۰ تا اسکناس نوی صد دلاری.
11:56
Now you can buyخرید doubleدو برابر to stuffچیز you were going to get before.
302
701000
2000
حالا قدرت خریدتان نسبت به آنچه که بود دوبرابر بیشتر شده‌‌است.
11:58
Think about how you'dمی خواهی feel stickingچسبیده it in your walletکیف پول.
303
703000
2000
به این فکر کنید که وقتی دارید در کیف پولتان می‌چپانیدش چه احساسی دارید.
12:00
And now imagineتصور کن that I have you make anotherیکی دیگر choiceانتخابی
304
705000
2000
حالا فکر کنید که من حالا شما را در معرض یک گزینه‌ی دیگر قرار می‌دم
12:02
But this time, it's a little bitبیت worseبدتر.
305
707000
2000
اما این بار، کمی بدتر.
12:04
Now, you're going to be decidingتصمیم گیری how you're going to loseاز دست دادن moneyپول,
306
709000
3000
حالا شما باید تصمیم بگیرید که چطور این پول را از دست بدید،
12:07
but you're going to get the sameیکسان choiceانتخابی.
307
712000
2000
اما انتخابتان از همان روند پیش تبعیت می‌کند.
12:09
You can eitherیا take a riskyخطرناک lossاز دست دادن --
308
714000
2000
می‌تونید برای از دست دادن پولتان خطر کنید -
12:11
so I'll flipتلنگر a coinسکه. If it comesمی آید up headsسر, you're going to actuallyدر واقع loseاز دست دادن a lot.
309
716000
3000
بنابراین من یک سکه می‌اندازم، اگر شیر آمد، درواقع کلی پول از دست می‌دید.
12:14
If it comesمی آید up tailsدم, you loseاز دست دادن nothing, you're fine, get to keep the wholeکل thing --
310
719000
3000
اگر خط آمد، هیچی از دست نمی‌دید، همه چی درسته، می‌تونی همش را نگه‌داری -
12:17
or you could playبازی it safeبی خطر, whichکه meansبه معنای you have to reachنائل شدن back into your walletکیف پول
311
722000
3000
یا اینکه خطر نکنی، که یعنی باید دست کنی تو کیفت
12:20
and give me fiveپنج of those $100 billsصورتحساب, for certainمسلم - قطعی.
312
725000
3000
و پنج تا از این صد دلاری‌ها را بی برو برگرد به من پس بدی.
12:23
And I'm seeingدیدن a lot of furrowedسوراخ شده browsبرادرها out there.
313
728000
3000
حالا دارم کلی پیشانی چین خورده می‌بینم.
12:26
So maybe you're havingداشتن the sameیکسان intuitionsشهوات
314
731000
2000
بنابراین شاید شما هم دریافت مشابهی از موضوعاتی که ما آزمایش کردیم دارید،
12:28
as the subjectsفاعل، موضوع that were actuallyدر واقع testedتست شده in this,
315
733000
2000
بنابراین شاید شما هم دریافت مشابهی از موضوعاتی که ما آزمایش کردیم دارید،
12:30
whichکه is when presentedارایه شده with these optionsگزینه ها,
316
735000
2000
که هنگام رویارویی با چنین گزینه‌هایی، مردم گزینه‌ی بی‌خطر را انتخاب نمی‌کنند.
12:32
people don't chooseانتخاب کنید to playبازی it safeبی خطر.
317
737000
2000
که هنگام رویارویی با چنین گزینه‌هایی، مردم گزینه‌ی بی‌خطر را انتخاب نمی‌کنند.
12:34
They actuallyدر واقع tendگرایش داشتن to go a little riskyخطرناک.
318
739000
2000
آنها در اصل به خطرپذیری گرایش پیدا می‌کنند.
12:36
The reasonدلیل this is irrationalغیر منطقی is that we'veما هستیم givenداده شده people in bothهر دو situationsموقعیت ها
319
741000
3000
دلیل غیرمنطقی بودن چنین چیزی اینه که ما در هردو موقعیت آدم‌ها را در معرض یک انتخاب قرار دادیم.
12:39
the sameیکسان choiceانتخابی.
320
744000
2000
دلیل غیرمنطقی بودن چنین چیزی اینه که ما در هردو موقعیت آدم‌ها را در معرض یک انتخاب قرار دادیم.
12:41
It's a 50/50 shotشات of a thousandهزار or 2,000,
321
746000
3000
یک فرصت پنجاه - پنجاه‌ست که هزارتا داشته باشید یا ۲٫۰۰۰ تا،
12:44
or just 1,500 dollarsدلار with certaintyیقین.
322
749000
2000
یا اینکه ۱٫۵۰۰ دلار را با اطمینان به جیب بزنید.
12:46
But people'sمردم intuitionsشهوات about how much riskخطر to take
323
751000
3000
اما شهود آدم‌ها برای میزان ریسکی که باید بپذیرند
12:49
variesمتفاوت است dependingبستگی دارد on where they startedآغاز شده with.
324
754000
2000
براساس جایی که باهاش شروع کردند فرق می‌کند.
12:51
So what's going on?
325
756000
2000
خب یعنی چه خبره؟
12:53
Well, it turnsچرخش out that this seemsبه نظر می رسد to be the resultنتيجه
326
758000
2000
خب، به نظر میاد که این باید نتیجه‌ی
12:55
of at leastکمترین two biasesتعصب ها that we have at the psychologicalروانشناسی levelسطح.
327
760000
3000
دست‌کم دو محرک باشد که در سطح روانشناسی دارای آنها هستیم.
12:58
One is that we have a really hardسخت time thinkingفكر كردن in absoluteمطلق termsاصطلاحات.
328
763000
3000
یکی اینه که ما برامون بسیار سخت‌ست که به طور مطلق و محض فکر کنیم.
13:01
You really have to do work to figureشکل out,
329
766000
2000
باید خیلی تلاش کنید که بتونید سر در بیارید،
13:03
well, one option'sگزینه ها a thousandهزار, 2,000;
330
768000
2000
خب، یک گزینه عبارت‌ست از یک دوراهی هزار یا ۲٫۰۰۰؛
13:05
one is 1,500.
331
770000
2000
و دیگری ۱٫۵۰۰ تا.
13:07
Insteadبجای, we find it very easyآسان to think in very relativeنسبت فامیلی termsاصطلاحات
332
772000
3000
به جاش، برامون بسیار آسان‌ست که وقتی گزینه‌ها هربار عوض می‌شن به‌طور نسبی فکر کنیم.
13:10
as optionsگزینه ها changeتغییر دادن from one time to anotherیکی دیگر.
333
775000
3000
به جاش، برامون بسیار آسان‌ست که وقتی گزینه‌ها هربار عوض می‌شن به‌طور نسبی فکر کنیم.
13:13
So we think of things as, "Oh, I'm going to get more," or "Oh, I'm going to get lessکمتر."
334
778000
3000
برای‌همین اینطوری فکر‌ می‌کنیم: «اوه، قراره بیشتر گیرم بیاد،» یا «اوه، قراره کمتر گیرم بیاد.»
13:16
This is all well and good, exceptبجز that
335
781000
2000
این هیچ ضرری ندارد، جز اینکه
13:18
changesتغییرات in differentناهمسان directionsجهت ها
336
783000
2000
تغییرات در جنبه‌های گوناگون
13:20
actuallyدر واقع effectاثر whetherچه or not we think
337
785000
2000
در واقع بر قضاوت ما، که یک گزینه بده یا خوب، تاثیر می‌گذارن.
13:22
optionsگزینه ها are good or not.
338
787000
2000
در واقع بر قضاوت ما، که یک گزینه بده یا خوب، تاثیر می‌گذارن.
13:24
And this leadsمنجر می شود to the secondدومین biasتعصب,
339
789000
2000
و این ما را به سوی محرک دوم هدایت می‌کنه،
13:26
whichکه economistsاقتصاددانان have calledبه نام lossاز دست دادن aversionناامیدی.
340
791000
2000
که اقتصاددان‌ها بهش می‌گن زیان-گریزی.
13:28
The ideaاندیشه is that we really hateنفرت it when things go into the redقرمز.
341
793000
3000
قضیه اینه که ما واقعا از این که اوضاع قاطی بشه متنفریم.
13:31
We really hateنفرت it when we have to loseاز دست دادن out on some moneyپول.
342
796000
2000
ما از اینکه مجبور بشیم پول از دست بدیم واقعا بدمون میاد.
13:33
And this meansبه معنای that sometimesگاه گاهی we'llخوب actuallyدر واقع
343
798000
2000
و این یعنی ما گاهی اولویت‌هامون را تغییر می‌دیم تا از این اجتناب کنیم.
13:35
switchسوئیچ our preferencesاولویت ها to avoidاجتناب کردن this.
344
800000
2000
و این یعنی ما گاهی اولویت‌هامون را تغییر می‌دیم تا از این اجتناب کنیم.
13:37
What you saw in that last scenarioسناریو is that
345
802000
2000
آنچه شما در مورد اخیر دیدید اینه که
13:39
subjectsفاعل، موضوع get riskyخطرناک
346
804000
2000
سوژه‌های آزمایش ریسک‌پذیر می‌شن
13:41
because they want the smallکوچک shotشات that there won'tنخواهد بود be any lossاز دست دادن.
347
806000
3000
چون آنها خواهان آن فرصت نادری هستند که توش چیزی را نبازند.
13:44
That meansبه معنای when we're in a riskخطر mindsetذهنیت --
348
809000
2000
این یعنی وقتی ما در چارچوب فکری خطر کردن هستیم -
13:46
excuseبهانه me, when we're in a lossاز دست دادن mindsetذهنیت,
349
811000
2000
ببخشید، وقتی در فضای فکری باختن قرار بگیریم،
13:48
we actuallyدر واقع becomeتبدیل شدن به more riskyخطرناک,
350
813000
2000
در واقع خطرپذیرتر می‌شیم،
13:50
whichکه can actuallyدر واقع be really worryingنگرانی.
351
815000
2000
که می‌تونه بسیار نگران‌کننده باشد.
13:52
These kindsانواع of things playبازی out in lots of badبد waysراه ها in humansانسان.
352
817000
3000
این چیزها نقش مهمی در بسیار روش‌های نادرست انسان بازی می‌کند.
13:55
They're why stockموجودی investorsسرمایه گذاران holdنگه دارید ontoبه سوی losingاز دست دادن stocksسهام longerطولانی تر --
353
820000
3000
این دلیل اینه که چرا سهام‌داران سهام‌های ضررده را بیشتر نگه‌می‌دارند -
13:58
because they're evaluatingارزیابی them in relativeنسبت فامیلی termsاصطلاحات.
354
823000
2000
چون دارن آنها را به طور نسبی ارزیابی می‌کنند.
14:00
They're why people in the housingمسکن marketبازار refusedرد to sellفروش theirخودشان houseخانه --
355
825000
2000
این دلیل اینه که مردم در بازار مسکن از فروختن خانه‌هاشون سر باز می‌زنند -
14:02
because they don't want to sellفروش at a lossاز دست دادن.
356
827000
2000
چون نمی‌خوان به قیمت کمتر بفروشند.
14:04
The questionسوال we were interestedعلاقه مند in
357
829000
2000
پرسشی که برای ما جالب بود این بود که
14:06
is whetherچه the monkeysمیمون ها showنشان بده the sameیکسان biasesتعصب ها.
358
831000
2000
آیا میمون‌ها هم همان انگیزه‌ها را از خودشان نشان می‌دن.
14:08
If we setتنظیم up those sameیکسان scenariosسناریوها in our little monkeyمیمون marketبازار,
359
833000
3000
اگر همان شرایط را در بازار کوچک میمون‌ها اجرا کنیم،
14:11
would they do the sameیکسان thing as people?
360
836000
2000
آنها به عنوان ساکنان بازار چه می‌کردند؟
14:13
And so this is what we did, we gaveداد the monkeysمیمون ها choicesگزینه های
361
838000
2000
خب پس این کاری بود که کردیم، ما به میمون‌ها انتخاب‌‌هایی را واگذار کردیم
14:15
betweenبین guys who were safeبی خطر -- they did the sameیکسان thing everyهرکدام time --
362
840000
3000
میان کسانی که معامله باهاشون امن بود- همیشه کار یکسانی می‌کردند -
14:18
or guys who were riskyخطرناک --
363
843000
2000
یا افراد پرمخاطره -
14:20
they did things differentlyمتفاوت است halfنیم the time.
364
845000
2000
آنها نصف اوقات رَوش‌شون را عوض می‌کردند.
14:22
And then we gaveداد them optionsگزینه ها that were bonusesجوایز --
365
847000
2000
و بهشون گزینه‌هایی پیشنهاد می‌دادند که حاوی پاداش بود -
14:24
like you guys did in the first scenarioسناریو --
366
849000
2000
مثل شرایط اولی که شما در آن قرار گرفتید -
14:26
so they actuallyدر واقع have a chanceشانس more,
367
851000
2000
پس آنها در اصل شانس این را داشتند که بیشتر گیرشان بیاد،
14:28
or piecesقطعات where they were experiencingتجربه کردن lossesضرر و زیان --
368
853000
3000
یا گاهی از دست دادن را تجربه می‌‌کردند -
14:31
they actuallyدر واقع thought they were going to get more than they really got.
369
856000
2000
به آنها آموزش داده شد که که قراره گاهی بیش از حد معمول به دست بیارن.
14:33
And so this is what this looksبه نظر می رسد like.
370
858000
2000
و این چیزی‌ست که رخ داد.
14:35
We introducedمعرفی کرد the monkeysمیمون ها to two newجدید monkeyمیمون salesmenفروشندگان.
371
860000
2000
ما آنها را به دو فروشنده‌ی تازه معرفی کردیم.
14:37
The guy on the left and right bothهر دو startشروع کن with one pieceقطعه of grapeانگور,
372
862000
2000
افراد راست و چپ هر دو با یک انگور شروع کردند،
14:39
so it looksبه نظر می رسد prettyبسیار good.
373
864000
2000
که به نظر مناسب میاد.
14:41
But they're going to give the monkeysمیمون ها bonusesجوایز.
374
866000
2000
اما آنها قراره به میمون‌ها پاداش بدن.
14:43
The guy on the left is a safeبی خطر bonusجایزه.
375
868000
2000
فروشنده‌ی سمت چپ یک پاداش‌دهنده‌ی بی‌مخاطره‌ست.
14:45
All the time, he addsمی افزاید one, to give the monkeysمیمون ها two.
376
870000
3000
همیشه، یکی اضافه می‌کنه، و به میمون‌ها دوتا می‌ده.
14:48
The guy on the right is actuallyدر واقع a riskyخطرناک bonusجایزه.
377
873000
2000
و یاروی سمت چپی یک پاداش‌دهنده‌ی نامطمئن‌ست.
14:50
Sometimesگاهی the monkeysمیمون ها get no bonusجایزه -- so this is a bonusجایزه of zeroصفر.
378
875000
3000
گاهی میمون‌ها هیچ پاداشی نمی‌گرفتند - این پاداشِ صفر است.
14:53
Sometimesگاهی the monkeysمیمون ها get two extraاضافی.
379
878000
3000
و گاهی میمون‌ها دوتا اضافی می‌گرفتند.
14:56
For a bigبزرگ bonusجایزه, now they get threeسه.
380
881000
2000
و به عنوان یک پاداش استثنایی، سه تا دریافت می‌کردند.
14:58
But this is the sameیکسان choiceانتخابی you guys just facedدر مواجهه.
381
883000
2000
اما این همان انتخابی‌ست که شماها باهاش روبرو شدید.
15:00
Do the monkeysمیمون ها actuallyدر واقع want to playبازی it safeبی خطر
382
885000
3000
آیا میمون‌ها می‌خوان که در امنیت پیش برن
15:03
and then go with the guy who'sچه کسی است going to do the sameیکسان thing on everyهرکدام trialآزمایش,
383
888000
2000
و سراغ کسی برن که در هر آزمون همان کار همیشگی را می‌کند،
15:05
or do they want to be riskyخطرناک
384
890000
2000
یا می‌خوان خطر کنند،
15:07
and try to get a riskyخطرناک, but bigبزرگ, bonusجایزه,
385
892000
2000
و پاداش نامطمئن، اما بزرگ را دریافت کنند،
15:09
but riskخطر the possibilityامکان پذیری of gettingگرفتن no bonusجایزه.
386
894000
2000
و خطر احتمال دریافت هیچ پاداشی را به جان بخرند.
15:11
People here playedبازی کرد it safeبی خطر.
387
896000
2000
مردم اینجا گزینه‌ی بی‌خطر را انتخاب کردند.
15:13
Turnsچرخش out, the monkeysمیمون ها playبازی it safeبی خطر too.
388
898000
2000
معلوم شد، که میمون‌‌ها هم سراغ گزینه‌ی امن رفتند.
15:15
Qualitativelyبه طور کافی and quantitativelyکمی,
389
900000
2000
هم از نظر کمّی و هم کیفی،
15:17
they chooseانتخاب کنید exactlyدقیقا the sameیکسان way as people,
390
902000
2000
آنها در این آزمایش یکسان دقیقا به همان روشی پیش رفتند که مردم.
15:19
when testedتست شده in the sameیکسان thing.
391
904000
2000
آنها در این آزمایش یکسان دقیقا به همان روشی پیش رفتند که مردم.
15:21
You mightممکن say, well, maybe the monkeysمیمون ها just don't like riskخطر.
392
906000
2000
ممکنه بگید، شاید میمون‌ها اصلا ریسک‌پذیر نیستند.
15:23
Maybe we should see how they do with lossesضرر و زیان.
393
908000
2000
باید ببینیم که با ضررکردن چطور کنار میان.
15:25
And so we ranفرار کرد a secondدومین versionنسخه of this.
394
910000
2000
پس ما نسخه‌ی دوم این آزمایش را اجرا کردیم.
15:27
Now, the monkeysمیمون ها meetملاقات two guys
395
912000
2000
حالا، میمون‌ها این دو نفر را ملاقات کردند
15:29
who aren'tنه givingدادن them bonusesجوایز;
396
914000
2000
که بهشان پاداش نمی‌دادند؛
15:31
they're actuallyدر واقع givingدادن them lessکمتر than they expectانتظار.
397
916000
2000
درواقع کمتر از آنچه انتظار داشتند تحویل می‌دادند.
15:33
So they look like they're startingراه افتادن out with a bigبزرگ amountمیزان.
398
918000
2000
خب، شبیه این بود که آنها قصد دادن پاداش زیادی را داشتند.
15:35
These are threeسه grapesانگور; the monkey'sمیمون really psychedروحانی for this.
399
920000
2000
اینجا سه تا انگور هست؛ میمون‌ها واقعا برای این مشتاق بودند.
15:37
But now they learnیاد گرفتن these guys are going to give them lessکمتر than they expectانتظار.
400
922000
3000
اما کم کم یاد گرفتند که این افراد قراره کمتر از حد انتظار بهشون انگور بدن.
15:40
They guy on the left is a safeبی خطر lossاز دست دادن.
401
925000
2000
فروشنده‌ی سمت چپ ضرر بدون ریسک وارد می‌کند.
15:42
Everyهرکدام singleتنها time, he's going to take one of these away
402
927000
3000
هربار، قراره یکی از اینها را کم کند
15:45
and give the monkeysمیمون ها just two.
403
930000
2000
و بهشان تنها دو انگور بده.
15:47
the guy on the right is the riskyخطرناک lossاز دست دادن.
404
932000
2000
فروشنده‌ی سمت راست یک زیان ده نامطمئن‌ست.
15:49
Sometimesگاهی he givesمی دهد no lossاز دست دادن, so the monkeysمیمون ها are really psychedروحانی,
405
934000
3000
گاهی هیچ زیانی وارد نمی‌کند، بنابراین میمون‌ها به شدت ذوق‌زده می‌شن،
15:52
but sometimesگاه گاهی he actuallyدر واقع givesمی دهد a bigبزرگ lossاز دست دادن,
406
937000
2000
اما گاهی او یک ضرر اساسی بهشان وارد می‌کند،
15:54
takingگرفتن away two to give the monkeysمیمون ها only one.
407
939000
2000
دو تا کم می‌کند و بهشان تنها یکی می‌ده.
15:56
And so what do the monkeysمیمون ها do?
408
941000
2000
حالا میمون‌ها چه می‌کنند؟
15:58
Again, sameیکسان choiceانتخابی; they can playبازی it safeبی خطر
409
943000
2000
دوباره، انتخاب یکسان؛ آنها می‌تونن بازی امن را انتخاب کنند
16:00
for always gettingگرفتن two grapesانگور everyهرکدام singleتنها time,
410
945000
3000
تا همیشه دو تا انگور را با اطمینان دریافت کنند،
16:03
or they can take a riskyخطرناک betشرط and chooseانتخاب کنید betweenبین one and threeسه.
411
948000
3000
یا قمار مخاطره‌آمیز را بپذیرند و میان یکی یا سه تا انتخاب کنند.
16:06
The remarkableقابل توجه thing to us is that, when you give monkeysمیمون ها this choiceانتخابی,
412
951000
3000
نکته‌ی قابل توجه اینه که، وقتی به میمون‌ها این گزینه را می‌دی،
16:09
they do the sameیکسان irrationalغیر منطقی thing that people do.
413
954000
2000
آنها همان کار غیرمنطقی انسان‌ها را تکرار می‌کنند.
16:11
They actuallyدر واقع becomeتبدیل شدن به more riskyخطرناک
414
956000
2000
آنها بسته به چگونگی شروع آزمایش بیشتر ریسک پذیر می‌شن.
16:13
dependingبستگی دارد on how the experimentersآزمایشکنندگان startedآغاز شده.
415
958000
3000
آنها بسته به چگونگی شروع آزمایش بیشتر ریسک پذیر می‌شن.
16:16
This is crazyدیوانه because it suggestsحاکی از that the monkeysمیمون ها too
416
961000
2000
این دیوانه‌کننده است چون به ما می‌:گه میمون‌ها هم
16:18
are evaluatingارزیابی things in relativeنسبت فامیلی termsاصطلاحات
417
963000
2000
چیزها را به روش نسبی ارزیابی می‌کنند
16:20
and actuallyدر واقع treatingدرمان lossesضرر و زیان differentlyمتفاوت است than they treatدرمان شود gainsدستاوردها.
418
965000
3000
و در اصل در برابر زیان، جور دیگری نسبت به سود رفتار می‌کنند.
16:23
So what does all of this mean?
419
968000
2000
خب، همه‌ی اینها چه مفهومی داره؟
16:25
Well, what we'veما هستیم shownنشان داده شده is that, first of all,
420
970000
2000
خب، آنچه ثابت کردیم اینه که، اول از همه،
16:27
we can actuallyدر واقع give the monkeysمیمون ها a financialمالی currencyواحد پول,
421
972000
2000
ما می‌تونیم به میمون‌ها یک ارز مالی تحمیل کنیم،
16:29
and they do very similarمشابه things with it.
422
974000
2000
و آنها کارهای بسیار مشابهی را با آن انجام‌ می‌دن.
16:31
They do some of the smartهوشمندانه things we do,
423
976000
2000
آنها بعضی کارهای هوشمندانه‌ و بعضی کارهای نه‌چندان خوشایند ما را انجام می‌دن،
16:33
some of the kindنوع of not so niceخوب things we do,
424
978000
2000
آنها بعضی کارهای هوشمندانه‌ و بعضی کارهای نه‌چندان خوشایند ما را انجام می‌دن،
16:35
like stealسرقت کن it and so on.
425
980000
2000
مانند دزدی و غیره.
16:37
But they alsoهمچنین do some of the irrationalغیر منطقی things we do.
426
982000
2000
اما آنها بعضی کارهای غیرمنطقی ما را هم انجام می‌دن.
16:39
They systematicallyبه طور سیستماتیک get things wrongاشتباه
427
984000
2000
آنها درست مانند ما، به صورت سازمان یافته با مسائل به نادرستی برخورد می‌کنند.
16:41
and in the sameیکسان waysراه ها that we do.
428
986000
2000
آنها درست مانند ما، به صورت سازمان یافته با مسائل به نادرستی برخورد می‌کنند.
16:43
This is the first take-homeخانه را بگیر messageپیام of the Talk,
429
988000
2000
این نخستین پیام اخلاقی این سخنرانی‌ست،
16:45
whichکه is that if you saw the beginningشروع of this and you thought,
430
990000
2000
که به دردتون می‌خوره اگر، شما در آغاز با خودتون فکر کردید
16:47
oh, I'm totallyکاملا going to go home and hireاستخدام a capuchinکاپوچین monkeyمیمون financialمالی adviserمشاور.
431
992000
2000
اوه، من حتما می‌خوام به خونه برم و یک میمون استخدام کنم تا مشاور مالی‌ام بشه.
16:49
They're way cutercuter than the one at ... you know --
432
994000
2000
آنها از نظرهایی خیلی بامزه‌ترن ... می‌دونید -
16:51
Don't do that; they're probablyشاید going to be just as dumbگنگ
433
996000
2000
اما این کار را نکنید، آنها هم احتمالا قراره به همان خنگی مشاورِ انسان شما باشن.
16:53
as the humanانسان one you alreadyقبلا have.
434
998000
3000
اما این کار را نکنید، آنها هم احتمالا قراره به همان خنگی مشاورِ انسان شما باشن.
16:56
So, you know, a little badبد -- Sorry, sorry, sorry.
435
1001000
2000
خب می‌دونید، ناخوشاینده - متاسفم، خیلی متاسفم.
16:58
A little badبد for monkeyمیمون investorsسرمایه گذاران.
436
1003000
2000
این کمی برای کسانی که به میمون‌ها امید بسته بودند هم ناامید کننده‌ست.
17:00
But of courseدوره, you know, the reasonدلیل you're laughingخندیدن is badبد for humansانسان too.
437
1005000
3000
اما مسلما، دلیل خندیدن شما برای انسان‌ها هم ناخوشاینده.
17:03
Because we'veما هستیم answeredجواب داد the questionسوال we startedآغاز شده out with.
438
1008000
3000
چون ما به پرسشی که با آن گفتگو را آغاز کردیم، پاسخ دادیم.
17:06
We wanted to know where these kindsانواع of errorsاشتباهات cameآمد from.
439
1011000
2000
ما می‌خواستیم بدانیم این خطاها از کجا ناشی می‌شن؟
17:08
And we startedآغاز شده with the hopeامید that maybe we can
440
1013000
2000
و امیدوار بودیم که شاید بتونیم
17:10
sortمرتب سازی of tweakنیشگون گرفتن our financialمالی institutionsمؤسسات,
441
1015000
2000
یه جورایی کارایی سازمان‌های مالی‌مون را بهبود ببخشیم،
17:12
tweakنیشگون گرفتن our technologiesفن آوری ها to make ourselvesخودمان better.
442
1017000
3000
فن‌آوری‌هامون را تغییر بدیم تا خودمان را بهتر کنیم.
17:15
But what we'veما هستیم learnیاد گرفتن is that these biasesتعصب ها mightممکن be a deeperعمیق تر partبخشی of us than that.
443
1020000
3000
اما دریافتیم که این محرک‌ها ممکن‌ست بخش ژرف‌تری از ما باشد.
17:18
In factواقعیت, they mightممکن be dueناشی از to the very natureطبیعت
444
1023000
2000
درحقیقت، آنها ممکن‌ست برآمده از خودِ سرشت تاریخ تکاملی ما باشد.
17:20
of our evolutionaryتکامل یافته historyتاریخ.
445
1025000
2000
درحقیقت، آنها ممکن‌ست برآمده از خودِ سرشت تاریخ تکاملی ما باشد.
17:22
You know, maybe it's not just humansانسان
446
1027000
2000
می‌دانید، شاید این تنها انسان‌ها نباشند که در این زنجیره‌ی نادانی گرفتارند.
17:24
at the right sideسمت of this chainزنجیر that's dunceyduncey.
447
1029000
2000
می‌دانید، شاید این تنها انسان‌ها نباشند که در این زنجیره‌ی نادانی گرفتارند.
17:26
Maybe it's sortمرتب سازی of dunceyduncey all the way back.
448
1031000
2000
شاید این یه جور نادانی در تمام تاریخ بوده.
17:28
And this, if we believe the capuchinکاپوچین monkeyمیمون resultsنتایج,
449
1033000
3000
و این، اگر ما نتایج میمون‌های کاپوچین را باور کنیم،
17:31
meansبه معنای that these dunceyduncey strategiesاستراتژی ها
450
1036000
2000
به این معنی‌ست که همه‌ی این راهبردهای حماقت‌بار
17:33
mightممکن be 35 millionمیلیون yearsسالها oldقدیمی.
451
1038000
2000
ممکن‌ست ۳۵ میلیون‌سال قدمت داشته باشد.
17:35
That's a long time for a strategyاستراتژی
452
1040000
2000
این زمان طولانی برای یک خطِ مشی‌ست
17:37
to potentiallyبالقوه get changedتغییر کرد around -- really, really oldقدیمی.
453
1042000
3000
که توان تغییر کردن داشته باشد - خیلی خیلی قدیمی.
17:40
What do we know about other oldقدیمی strategiesاستراتژی ها like this?
454
1045000
2000
ما درباره‌ی راهبردهای قدیمی مانند این چی می‌دانیم؟
17:42
Well, one thing we know is that they tendگرایش داشتن to be really hardسخت to overcomeغلبه بر.
455
1047000
3000
خب، یک چیزی که می‌دانیم اینه که خیلی سخت بشه بهشان چیره شد.
17:45
You know, think of our evolutionaryتکامل یافته predilectionدلبستگی
456
1050000
2000
می‌دانید، مثلا به این خواست ذاتی تکاملی‌مون فکر کنید
17:47
for eatingغذا خوردن sweetشیرین things, fattyچرب things like cheesecakeپنیر کیک.
457
1052000
3000
برای خوردن چیزهای شیرین، یا چیزهای چرب مانند چیزکیک.
17:50
You can't just shutبسته شدن that off.
458
1055000
2000
شما نمی‌تونید یک‌باره آن را از کار بندازید.
17:52
You can't just look at the dessertدسر cartسبد خرید as say, "No, no, no. That looksبه نظر می رسد disgustingچندش آور to me."
459
1057000
3000
نمی‌تونید یک‌باره به منوی دسر نگاه کنید و بگید: «نه، نه، از این چندشم می‌شه.»
17:55
We're just builtساخته شده differentlyمتفاوت است.
460
1060000
2000
ما جور دیگری ساخته شده‌ایم.
17:57
We're going to perceiveدرک it as a good thing to go after.
461
1062000
2000
ما می‌خوایم به آن به چشم یک چیز خوب نگاه کنیم و آن را دنبال کنیم.
17:59
My guessحدس بزن is that the sameیکسان thing is going to be trueدرست است
462
1064000
2000
حدس من اینه که همچین چیزی وقتی انسان تصمیم‌های مالی متفاوت می‌گیره هم برقراره.
18:01
when humansانسان are perceivingدرک
463
1066000
2000
حدس من اینه که همچین چیزی وقتی انسان تصمیم‌های مالی متفاوت می‌گیره هم برقراره.
18:03
differentناهمسان financialمالی decisionsتصمیمات.
464
1068000
2000
حدس من اینه که همچین چیزی وقتی انسان تصمیم‌های مالی متفاوت می‌گیره هم برقراره.
18:05
When you're watchingتماشا کردن your stocksسهام plummetافتادن into the redقرمز,
465
1070000
2000
وقتی می‌بینید سهام‌تان داره ناگهان به نقطه‌ی هشدار سقوط می‌کند،
18:07
when you're watchingتماشا کردن your houseخانه priceقیمت go down,
466
1072000
2000
هنگامی شاهد کاهش قیمت خانه‌تان هستید،
18:09
you're not going to be ableتوانایی to see that
467
1074000
2000
شما نمی‌تونید آن را به شیوه‌ای جز از راه تکاملی ببینید.
18:11
in anything but oldقدیمی evolutionaryتکامل یافته termsاصطلاحات.
468
1076000
2000
شما نمی‌تونید آن را به شیوه‌ای جز از راه تکاملی ببینید.
18:13
This meansبه معنای that the biasesتعصب ها
469
1078000
2000
این یعنی محرک‌هایی که سرمایه‌گذاران را وامی‌دارند که بد عمل کنند،
18:15
that leadسرب investorsسرمایه گذاران to do badlyبدی,
470
1080000
2000
این یعنی محرک‌هایی که سرمایه‌گذاران را وامی‌دارند که بد عمل کنند،
18:17
that leadسرب to the foreclosureسلب حق اقامه دعوی crisisبحران
471
1082000
2000
که بحران دیون بانکی را پدید میارن
18:19
are going to be really hardسخت to overcomeغلبه بر.
472
1084000
2000
یه جورایی شکست‌ناپذیرند.
18:21
So that's the badبد newsاخبار. The questionسوال is: is there any good newsاخبار?
473
1086000
2000
خب این خبر بدی‌ست. سوال اینه: آیا اصلا خبر خوبی وجود داره؟
18:23
I'm supposedقرار است to be up here tellingگفتن you the good newsاخبار.
474
1088000
2000
من قراره قاصد خبرهای خوبی برای شما باشم.
18:25
Well, the good newsاخبار, I think,
475
1090000
2000
خب، خبر خوب، به گمان من،
18:27
is what I startedآغاز شده with at the beginningشروع of the Talk,
476
1092000
2000
چیزی‌ست که من سخنم را با‌ ‌آن آغاز کردم،
18:29
whichکه is that humansانسان are not only smartهوشمندانه;
477
1094000
2000
این‌که انسان‌ها تنها باهوش نیستند؛
18:31
we're really inspirationallyالهام بخش smartهوشمندانه
478
1096000
2000
ما واقعا به طور الهام‌بخشی نسبت به دیگر جانداران این قلمرو زیستی هوشمندیم.
18:33
to the restباقی مانده of the animalsحیوانات in the biologicalبیولوژیکی kingdomپادشاهی.
479
1098000
3000
ما واقعا به طور الهام‌بخشی نسبت به دیگر جانداران این قلمرو زیستی هوشمندیم.
18:36
We're so good at overcomingفائق آمدن our biologicalبیولوژیکی limitationsمحدودیت ها --
480
1101000
3000
ما در چیره شدن به محدودیت‌های زیستی‌مان بسیار واردیم -
18:39
you know, I flewپرواز کرد over here in an airplaneهواپیما.
481
1104000
2000
می‌دانید، من با هواپیما به اینجا آمدم.
18:41
I didn't have to try to flapفلاپ my wingsبال ها.
482
1106000
2000
لازم نبود بال بزنم،
18:43
I'm wearingپوشیدن contactتماس lensesلنزها now so that I can see all of you.
483
1108000
3000
من از لنز طبی استفاده می‌کنم که بتونم همه‌ی شما را ببینم.
18:46
I don't have to relyتکیه on my ownخودت near-sightednessنزدیکی نزدیک.
484
1111000
3000
من نیازی ندارم که به نزدیک‌بینی خودم تکیه کنم.
18:49
We actuallyدر واقع have all of these casesموارد
485
1114000
2000
درواقع همه‌ی ما چنین مواردی داریم
18:51
where we overcomeغلبه بر our biologicalبیولوژیکی limitationsمحدودیت ها
486
1116000
3000
که در آنها بر محدودیت‌‌های زیستی‌مان با فن‌آوری و دیگر ابزارها به آسانی چیره بشیم.
18:54
throughاز طریق technologyتکنولوژی and other meansبه معنای, seeminglyظاهرا prettyبسیار easilyبه آسانی.
487
1119000
3000
که در آنها بر محدودیت‌‌های زیستی‌مان با فن‌آوری و دیگر ابزارها به آسانی چیره بشیم.
18:57
But we have to recognizeتشخیص that we have those limitationsمحدودیت ها.
488
1122000
3000
اما باید تشخیص بدیم که ما دارای این محدودیت‌ها هستیم.
19:00
And here'sاینجاست the rubمالش دادن.
489
1125000
2000
و دردسر همین‌جاست.
19:02
It was Camusکامو who onceیک بار said that, "Man is the only speciesگونه ها
490
1127000
2000
کامو یک بار درجایی گفت: «بشر تنها گونه‌ای است
19:04
who refusesامتناع می کند to be what he really is."
491
1129000
3000
که از زیستن آنچه که هست سرباز می‌زند.»
19:07
But the ironyطنز is that
492
1132000
2000
اما طعنه‌ی روزگار اینجاست که
19:09
it mightممکن only be in recognizingشناختن our limitationsمحدودیت ها
493
1134000
2000
ممکن‌ست تنها با تشخیص محدودیت‌هامان بتونیم بر آنها چیره بشیم.
19:11
that we can really actuallyدر واقع overcomeغلبه بر them.
494
1136000
2000
ممکن‌ست تنها با تشخیص محدودیت‌هامان بتونیم بر آنها چیره بشیم.
19:13
The hopeامید is that you all will think about your limitationsمحدودیت ها,
495
1138000
3000
امیدوارم که همه‌ی شما به محدودیت‌‌هاتون فکر کنید،
19:16
not necessarilyلزوما as unovercomableغیر قابل اجتناب است,
496
1141000
3000
نه اینکه ضرورتا آنها را شکست‌ناپذیر بدانید،
19:19
but to recognizeتشخیص them, acceptقبول کردن them
497
1144000
2000
اما آنها را به رسمیت بشناسید، آنها را بپذیرید
19:21
and then use the worldجهان of designطرح to actuallyدر واقع figureشکل them out.
498
1146000
3000
و سپس از دنیای طراحی سود ببرید تا بتونید براشون راه حل پیدا کنید.
19:24
That mightممکن be the only way that we will really be ableتوانایی
499
1149000
3000
این شاید تنها راهی باشه که بتونیم با آن به قابلیت‌های انسانی‌مان دست بیابیم
19:27
to achieveرسیدن our ownخودت humanانسان potentialپتانسیل
500
1152000
2000
این شاید تنها راهی باشه که بتونیم با آن به قابلیت‌های انسانی‌مان دست بیابیم
19:29
and really be the nobleنجیب speciesگونه ها we hopeامید to all be.
501
1154000
3000
و واقعا گونه‌ی یگانه‌ای بشیم که هممون بهش امید داریم.
19:32
Thank you.
502
1157000
2000
سپاسگزارم.
19:34
(Applauseتشویق و تمجید)
503
1159000
5000
(تشویق)
Translated by Mana Ahmady
Reviewed by Hedia Balkhi

▲Back to top

ABOUT THE SPEAKER
Laurie Santos - Cognitive psychologist
Laurie Santos studies primate psychology and monkeynomics -- testing problems in human psychology on primates, who (not so surprisingly) have many of the same predictable irrationalities we do.

Why you should listen

Laurie Santos runs the Comparative Cognition Laboratory (CapLab) at Yale, where she and collaborators across departments (from psychology to primatology to neurobiology) explore the evolutionary origins of the human mind by studying lemurs, capuchin monkeys and other primates. The twist: Santos looks not only for positive humanlike traits, like tool-using and altruism, but irrational ones, like biased decisionmaking.

In elegant, carefully constructed experiments, Santos and CapLab have studied how primates understand and categorize objects in the physical world -- for instance, that monkeys understand an object is still whole even when part of it is obscured. Going deeper, their experiments also search for clues that primates possess a theory of mind -- an ability to think about what other people think.

Most recently, the lab has been looking at behaviors that were once the province mainly of novelists: jealousy, frustration, judgment of others' intentions, poor economic choices. In one experiment, Santos and her team taught monkeys to use a form of money, tradeable for food. When certain foods became cheaper, monkeys would, like humans, overbuy. As we humans search for clues to our own irrational behaviors, Santos' research suggests that the source of our genius for bad decisions might be our monkey brains.

More profile about the speaker
Laurie Santos | Speaker | TED.com