ABOUT THE SPEAKER
Dan Ariely - Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why.

Why you should listen

Dan Ariely is a professor of psychology and behavioral economics at Duke University and a founding member of the Center for Advanced Hindsight. He is the author of the bestsellers Predictably IrrationalThe Upside of Irrationality, and The Honest Truth About Dishonesty -- as well as the TED Book Payoff: The Hidden Logic that Shapes Our Motivations.

Through his research and his (often amusing and unorthodox) experiments, he questions the forces that influence human behavior and the irrational ways in which we often all behave.

More profile about the speaker
Dan Ariely | Speaker | TED.com
TED2011

Dan Ariely: Beware conflicts of interest

دن آریلی : ملتفت تضاد منافع باشید

Filmed:
1,284,831 views

در این بحث کوتاه، روانشناس دن آریلی دو داستان شخصی را که به بررسی تضاد منافع علمی می پردازد را بیان می کند : چگونه پیگیرد دانش و بینش را می توان تحت تاثیر قرار گیرد، آگاهانه یا نه، توسط اهداف کوته نظرانه شخصی . هنگامی که ما درباره این پرسش های بزرگ فکر می کنیم ، او به ما یادآوری می کند که ، اجازه دهید آگاه به مغز انسان باشیم.
- Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why. Full bio

Double-click the English transcript below to play the video.

00:16
So, I was in the hospitalبیمارستان for a long time.
0
1000
3000
خوب، من برای مدت زیادی دراین بیمارستان بودم.
00:19
And a fewتعداد کمی yearsسالها after I left, I wentرفتی back,
1
4000
3000
و چند سال بعد از اینکه که آنجا را ترک کردم ، دوباره به آنجا بازگشتم،
00:22
and the chairmanرئيس of the burnسوزاندن departmentبخش was very excitedبرانگیخته to see me --
2
7000
3000
رئیس بخش سوختگی از دیدن من خیلی هیجان زده بود --
00:25
said, "Danدن, I have a fantasticخارق العاده newجدید treatmentرفتار for you."
3
10000
3000
او گفت: " دن من یک درمان جدید عالی برای تو دارم."
00:28
I was very excitedبرانگیخته. I walkedراه می رفت with him to his officeدفتر.
4
13000
2000
من خیلی هیجان داشتم. با او به دفترش رفتم.
00:30
And he explainedتوضیح داد to me that, when I shaveتراشیدن,
5
15000
3000
او برای من توضیح داد که هنگامی که من ریشم را می تراشم،
00:33
I have little blackسیاه dotsنقطه ها on the left sideسمت of my faceصورت where the hairمو is,
6
18000
3000
من لکه ها ریز کوچکی در سمت چپ صورتم جایی که مو در میآید دارم،
00:36
but on the right sideسمت of my faceصورت
7
21000
2000
اما در سمت راست صورتم
00:38
I was badlyبدی burnedسوخته so I have no hairمو,
8
23000
2000
که خیلی بد سوخته بودم مویی ندارم،
00:40
and this createsایجاد می کند lackعدم of symmetryتقارن.
9
25000
2000
و این باعث عدم تقارن می شود.
00:42
And what's the brilliantدرخشان ideaاندیشه he had?
10
27000
2000
این ایده عالی چه بود،
00:44
He was going to tattooخال کوبی little blackسیاه dotsنقطه ها
11
29000
2000
او قصد داشت روی سمت راست صورتم
00:46
on the right sideسمت of my faceصورت
12
31000
3000
من کمی خالکوبی سیاه کند
00:49
and make me look very symmetricمتقارن.
13
34000
2000
و ظاهر مرا خیلی متقارن کند.
00:51
It soundedصدای interestingجالب هست. He askedپرسید: me to go and shaveتراشیدن.
14
36000
3000
این به نظر جالب می آمد. او از من خواست که بروم و ریشم را بزنم.
00:54
Let me tell you, this was a strangeعجیب way to shaveتراشیدن,
15
39000
2000
اجازه بدهید که بگویم این روش عجیبی برای ریش تراشیدن بود،
00:56
because I thought about it
16
41000
2000
من راجع به آن فکر کردم
00:58
and I realizedمتوجه شدم that the way I was shavingاصلاح then
17
43000
2000
و متوجه شدم که به روشی که من ریشم را می زنم
01:00
would be the way I would shaveتراشیدن for the restباقی مانده of my life --
18
45000
2000
روشی خواهد بود که من برای همه عمرم ریشم را خواهم زد--
01:02
because I had to keep the widthعرض the sameیکسان.
19
47000
2000
زیرا من باید عرض یکنواختی را نگه می داشتم.
01:04
When I got back to his officeدفتر,
20
49000
2000
و هنگامی که من به دفتر او برگشتم،
01:06
I wasn'tنبود really sure.
21
51000
2000
من خیلی مطمئن نبودم.
01:08
I said, "Can I see some evidenceشواهد for this?"
22
53000
2000
گفتم، " می توانم شواهدی برای این ببینم؟"
01:10
So he showedنشان داد me some picturesتصاویر
23
55000
2000
خوب او چند عکس
01:12
of little cheeksگونه ها with little blackسیاه dotsنقطه ها --
24
57000
2000
از چانه کوچکی با چند خال سیا نشان داد--
01:14
not very informativeآموزنده.
25
59000
2000
اطلاعات طیادی به من ندادند.
01:16
I said, "What happensاتفاق می افتد when I growرشد olderمسن تر and my hairمو becomesتبدیل می شود whiteسفید?
26
61000
2000
گفتم، " هنگامی که من پیرتر شوم و موهای من سفید شوند چه اتفاقی می افتد؟
01:18
What would happenبه وقوع پیوستن then?"
27
63000
2000
سپس اتفاقی خواهد افتاد؟
01:20
"Oh, don't worryنگرانی about it," he said.
28
65000
2000
" آه در این مورد نگران نباش،" او گفت.
01:22
"We have lasersلیزرها; we can whitenسفید شدن it out."
29
67000
3000
" ما لیزر داریم؛ ما می توانیم آن را سفید کنیم."
01:25
But I was still concernedنگران,
30
70000
2000
اما من هنوز نگران بودم
01:27
so I said, "You know what, I'm not going to do it."
31
72000
3000
خوب من گفتم، " میدانید، من قصد ندارم اینکار را بکنم."
01:30
And then cameآمد one of the biggestبزرگترین guiltگناه tripsسفرها of my life.
32
75000
4000
و بعد از آن بزرگترین سفرهای احساس گناه و مجرمیت زندگی من وارد شد.
01:34
This is comingآینده from a Jewishیهودی guy, all right, so that meansبه معنای a lot.
33
79000
3000
این را یک یهودی گفته که معنی زیادی دارد.
01:37
(Laughterخنده)
34
82000
2000
( خنده تماشاگران)
01:39
And he said, "Danدن, what's wrongاشتباه with you?
35
84000
3000
او گفت، " دن، چه مشکلی پیش آمده؟
01:42
Do you enjoyلذت بردن looking non-symmetricغیر متقارن?
36
87000
2000
آیا از نامتقارن بودن لذت می بری؟
01:44
Do you have some kindنوع of pervertedمنحرف شده pleasureلذت from this?
37
89000
5000
آیا هیچ احساس بدی از این داری؟
01:49
Do womenزنان feel pityتاسف for you
38
94000
2000
آیا زنان اغلب که با تو سکس دارند
01:51
and have sexارتباط جنسی with you more frequentlyمکررا?"
39
96000
3000
احساس دلسوزی برای تو می کنند؟"
01:54
Noneهیچ یک of those happenedاتفاق افتاد.
40
99000
3000
هیچ کدام از اینها اتفاق نیفتاده بوده.
01:58
And this was very surprisingشگفت آور to me,
41
103000
2000
و این روش برای من خیلی تعجب آور بود،
02:00
because I've goneرفته throughاز طریق manyبسیاری treatmentsدرمان ها --
42
105000
2000
زیرا من به برای درمان رفته بودم--
02:02
there were manyبسیاری treatmentsدرمان ها I decidedقرار بر این شد not to do --
43
107000
2000
و روشهای درمانی زیادی بود که من تصمیم گرفته بودم آنها انجام ندهم--
02:04
and I never got this guiltگناه tripسفر to this extentمحدوده.
44
109000
2000
و من هرگز تا این حد احساس گناه نکرده بودم.
02:06
But I decidedقرار بر این شد not to have this treatmentرفتار.
45
111000
2000
تصمیم گرفتم که این روش درمانی را نجام ندهم.
02:08
And I wentرفتی to his deputyقائم مقام and askedپرسید: him, "What was going on?
46
113000
2000
رفتم پیش جانشین او و ازش سوال کردم " اینجا چه خبر است؟
02:10
Where was this guiltگناه tripسفر comingآینده from?"
47
115000
2000
این احساس گناه از کجا می آید؟"
02:12
And he explainedتوضیح داد that they have doneانجام شده this procedureروش on two patientsبیماران alreadyقبلا,
48
117000
4000
او به من گفت که آنها این روش را قبلا برای دو بیمار انجام داده اند،
02:16
and they need the thirdسوم patientصبور for a paperکاغذ they were writingنوشتن.
49
121000
3000
و برای مقاله ای را که می نویسند به بیمار سومی نیازمندند .
02:19
(Laughterخنده)
50
124000
2000
( خنده تماشاگران)
02:21
Now you probablyشاید think that this guy'sپسر a schmuckاسمک.
51
126000
2000
احتمالا فکر می کنید که این مرد یک پستی است.
02:23
Right, that's what he seemsبه نظر می رسد like.
52
128000
2000
درست، این چیزی که او به نظر می رسید.
02:25
But let me give you a differentناهمسان perspectiveچشم انداز on the sameیکسان storyداستان.
53
130000
3000
اما اجازه دهید دیدگاه متفاوتی از داستان مشابهی را برایتان بگویم.
02:28
A fewتعداد کمی yearsسالها agoپیش, I was runningدر حال اجرا some of my ownخودت experimentsآزمایشات in the labآزمایشگاه.
54
133000
3000
چند سال پیش، من در حال انجام یکی از آزمایشاتم در آزمایشگاه بودم
02:31
And when we runاجرا کن experimentsآزمایشات,
55
136000
2000
هنگامی که آزمایش تمام شد،
02:33
we usuallyمعمولا hopeامید that one groupگروه will behaveرفتار كردن differentlyمتفاوت است than anotherیکی دیگر.
56
138000
3000
ما معمولا امیدواریم که یک گروه از رفتار متفاوتی از دیگران داشته باشد.
02:36
So we had one groupگروه that I hopedامیدوار بودم theirخودشان performanceکارایی would be very highبالا,
57
141000
3000
خوب ما یک گروه داشتیم که من امیدوار بودم کارآیی آنها بسیار بالا باشد،
02:39
anotherیکی دیگر groupگروه that I thought theirخودشان performanceکارایی would be very lowکم,
58
144000
3000
و فکر کردم گروه دیگرکارایی پائینی داشته باشند.
02:42
and when I got the resultsنتایج, that's what we got --
59
147000
2000
وقتی نتیجه را دیدم، این چیزی بود که دریافت کردم--
02:44
I was very happyخوشحال -- asideگذشته از from one personفرد.
60
149000
3000
من بسیار خوشحال بودم-گذشته از یک فرد.
02:47
There was one personفرد in the groupگروه
61
152000
2000
یک نفر در این گروه بود
02:49
that was supposedقرار است to have very highبالا performanceکارایی
62
154000
2000
که گمان می رفت کارایی بسیار بالایی داشته باشد
02:51
that was actuallyدر واقع performingاجرای terriblyوحشتناک.
63
156000
2000
که در واقع کارایی وحشناک بدی داشت.
02:53
And he pulledکشیده the wholeکل mean down,
64
158000
2000
او همه متوسط را پائین کشیده بود،
02:55
destroyingاز بین بردن my statisticalآماری significanceاهمیت of the testتست.
65
160000
3000
و آمار معنی دار آزمون مرا خراب کرده بود.
02:59
So I lookedنگاه کرد carefullyبا دقت at this guy.
66
164000
2000
خب، به این فرد خیلی خوب نگاه کردم.
03:01
He was 20-some-مقداری yearsسالها olderمسن تر than anybodyهر شخصی elseچیز دیگری in the sampleنمونه.
67
166000
3000
او حدود بیست و چند ساله بزرگتر از بقیه نمونه بود.
03:04
And I rememberedبه یاد داشته باشید that the oldقدیمی and drunkenمستی guy
68
169000
2000
و به خاطر آوردم که یک پیرمرد و الکلی
03:06
cameآمد one day to the labآزمایشگاه
69
171000
2000
یک روز به آزمایشگاه آمد
03:08
wantingمیخواهم to make some easyآسان cashپول نقد
70
173000
2000
و خواست که پول نقد آسانی را بدست آورد
03:10
and this was the guy.
71
175000
2000
و این همان مرد بود.
03:12
"Fantasticخارق العاده!" I thought. "Let's throwپرت كردن him out.
72
177000
2000
" عالی" فکر کردم بگذار بی اندازمش بیرون.
03:14
Who would ever includeعبارتند از a drunkenمستی guy in a sampleنمونه?"
73
179000
3000
چه کسی یک مرد الکلی را هرگز در یک نمونه قرار می دهد؟"
03:17
But a coupleزن و شوهر of daysروزها laterبعد,
74
182000
2000
اما چند روز بعد،
03:19
we thought about it with my studentsدانش آموزان,
75
184000
2000
من با شاگردانم راجع به او فکر کردیم،
03:21
and we said, "What would have happenedاتفاق افتاد if this drunkenمستی guy was not in that conditionوضعیت?
76
186000
3000
و ما گفتیم" چه اتفاقی می افتد اگر این مرد الکلی در این شرایط نبود؟"
03:24
What would have happenedاتفاق افتاد if he was in the other groupگروه?
77
189000
2000
چه انفاقی می افتاد اگر او در گروه دیگرمی بود؟
03:26
Would we have thrownپرتاب شده him out then?"
78
191000
2000
آیا باید او را ازآزمون بیرون می انداختیم؟
03:28
We probablyشاید wouldn'tنمی خواهم have lookedنگاه کرد at the dataداده ها at all,
79
193000
2000
ما احتمالا به همه داده ها نگاه نکرد بودیم ،
03:30
and if we did look at the dataداده ها,
80
195000
2000
و اگربه اطلاعات نگاه می کردیم ،
03:32
we'dما می خواهیم probablyشاید have said, "Fantasticخارق العاده! What a smartهوشمندانه guy who is performingاجرای this lowکم,"
81
197000
3000
احتمالا می گفتیم :"بسیار عالی! چه فرد باهوشی که کارایی به این پائینی دارد،"
03:35
because he would have pulledکشیده the mean of the groupگروه lowerپایین تر,
82
200000
2000
زیرا او متوسط گروه را پائین آورده بود،
03:37
givingدادن us even strongerقوی تر statisticalآماری resultsنتایج than we could.
83
202000
3000
به ما نتیجه آماری قوی تری که می توانستیم داشته باشیم داده بود.
03:41
So we decidedقرار بر این شد not to throwپرت كردن the guy out and to rerunتجدید نظر the experimentآزمایشی.
84
206000
3000
ما تصمیم گرفتیم ک داده های او را دور نریزیم و آزمون را دوباره انجام ندهیم.
03:44
But you know, these storiesداستان ها,
85
209000
3000
این داستان
03:47
and lots of other experimentsآزمایشات that we'veما هستیم doneانجام شده on conflictsدرگیری ها of interestعلاقه,
86
212000
3000
و تعداد زیادی از آزمونهایی که ما انجام دادیم در مورد تضاد منافع است،
03:50
basicallyاساسا kindنوع of bringآوردن two pointsنکته ها
87
215000
2000
که اساسا" یک جوری دو نقطه را
03:52
to the foregroundپیش زمینه for me.
88
217000
2000
برای من به هم نزدیک می کند.
03:54
The first one is that in life we encounterرویارویی manyبسیاری people
89
219000
3000
اولی اینکه در زندگی ما با مردم زیادی برخورد می کنیم
03:57
who, in some way or anotherیکی دیگر,
90
222000
3000
که به شیوه ای
04:00
try to tattooخال کوبی our facesچهره ها.
91
225000
2000
سعی می کنند که صورت تو را خالکوبی کنند.
04:02
They just have the incentivesانگیزه that get them to be blindedکور to realityواقعیت
92
227000
3000
آنها فقط انگیزیی آن را دارند که بر واقعیت چشم ببندند و
04:05
and give us adviceمشاوره that is inherentlyذاتا biasedجانبدارانه.
93
230000
3000
به ما توصیه ذاتا" مغرضانه ای کنند.
04:08
And I'm sure that it's something that we all recognizeتشخیص,
94
233000
2000
و من مطمئن هستم این چیزی است که ما آن را می توانیم تشخیص دهیم،
04:10
and we see that it happensاتفاق می افتد.
95
235000
2000
و این که اتفاق می افتد می بینیم.
04:12
Maybe we don't recognizeتشخیص it everyهرکدام time,
96
237000
2000
شاید همواره آن را تشخیص ندهیم
04:14
but we understandفهمیدن that it happensاتفاق می افتد.
97
239000
2000
ولی ما وقتی اتفاق می افتد درک می کنیم.
04:16
The mostاکثر difficultدشوار thing, of courseدوره, is to recognizeتشخیص
98
241000
2000
البته ، سخت ترین چیز، تشخیص
04:18
that sometimesگاه گاهی we too
99
243000
2000
اینکه گاهی ما با
04:20
are blindedکور by our ownخودت incentivesانگیزه.
100
245000
2000
انگیزه های خودمان کور هستیم.
04:22
And that's a much, much more difficultدشوار lessonدرس to take into accountحساب.
101
247000
3000
این درس بسیار بسیار مشکل تر که رویش حساب باز کردیم.
04:25
Because we don't see how conflictsدرگیری ها of interestعلاقه work on us.
102
250000
4000
زیرا ما نمی دانیم چگونه تضاد منافع بر روی ما کار می کند.
04:29
When I was doing these experimentsآزمایشات,
103
254000
2000
هنگامی که من این آزمون را انجام می دادم،
04:31
in my mindذهن, I was helpingکمک scienceعلوم پایه.
104
256000
2000
در ذهنم، من به علم کمک می کردم.
04:33
I was eliminatingاز بین بردن the dataداده ها
105
258000
2000
من داده ها را حذف می کردم
04:35
to get the trueدرست است patternالگو of the dataداده ها to shineدرخشش throughاز طریق.
106
260000
2000
برای دریافت الگوی واقعی از داده ها برای از طریق آن درخشیدن
04:37
I wasn'tنبود doing something badبد.
107
262000
2000
من کار بدی می کردم.
04:39
In my mindذهن, I was actuallyدر واقع a knightشوالیه
108
264000
2000
در ذهنم، در واقع من یک شوالیه بودم
04:41
tryingتلاش کن to help scienceعلوم پایه moveحرکت alongدر امتداد.
109
266000
2000
که تلاش می کرد که علم به جلو حرکت کند.
04:43
But this was not the caseمورد.
110
268000
2000
اما این مورد نبود.
04:45
I was actuallyدر واقع interferingدخالت with the processروند with lots of good intentionsاهداف.
111
270000
3000
درواقع من فرایند کار را با تعداد زیادی نیت خوب قاطی کردم بودم.
04:48
And I think the realواقعی challengeچالش is to figureشکل out
112
273000
2000
گمان کنم چالش واقعی این است که بفهمیم
04:50
where are the casesموارد in our livesزندگی می کند
113
275000
2000
در کجای زندگی ما
04:52
where conflictsدرگیری ها of interestعلاقه work on us,
114
277000
2000
موارد نضاد منافع وجود دارد،
04:54
and try not to trustاعتماد our ownخودت intuitionبینش to overcomeغلبه بر it,
115
279000
3000
و سعی کنیم که به شهود خودمان اعتماد نکرده و بر آن فائق آیم،
04:57
but to try to do things
116
282000
2000
ولی سعی بر انجام چیزی کنید
04:59
that preventجلوگیری کردن us from fallingافتادن preyطعمه to these behaviorsرفتار,
117
284000
2000
که جلوگبری کند از به دام افتادن این گونه رفتارها،
05:01
because we can createايجاد كردن lots of undesirableنامطلوب circumstancesشرایط.
118
286000
3000
زیرا می توانیم از شرایط نامطلوب زیادی را ایجاد کنیم.
05:05
I do want to leaveترک کردن you with one positiveمثبت thought.
119
290000
2000
می خواهم شما را با یک فکر مثبت ترک کنم.
05:07
I mean, this is all very depressingافسرده, right --
120
292000
2000
منظورم این است همه اینها بسیار نامید کنند است، درسته--
05:09
people have conflictsدرگیری ها of interestعلاقه, we don't see it, and so on.
121
294000
3000
مردم تضاد منافع دارند، ما این را نمی بینیم،
05:12
The positiveمثبت perspectiveچشم انداز, I think, of all of this
122
297000
2000
گمان کنم با توجه به همه این چیزها ، دیدگاه مثبت
05:14
is that, if we do understandفهمیدن when we go wrongاشتباه,
123
299000
3000
این است که اگر ما فهمیدیم که در مسیر غلط هستیم،
05:17
if we understandفهمیدن the deepعمیق mechanismsمکانیسم ها
124
302000
2000
اگر ما مکانیسمهای عمیقی
05:19
of why we failشکست and where we failشکست,
125
304000
2000
از اینکه چرا ما موفق نشدیم و کجا موفق نشدیم،
05:21
we can actuallyدر واقع hopeامید to fixثابت things.
126
306000
2000
در واقع می توانیم امیدوار باشیم که آن را درست کنیم.
05:23
And that, I think, is the hopeامید. Thank you very much.
127
308000
2000
و گمان کنم، این امید است. بسیار سپاسگزارم
05:25
(Applauseتشویق و تمجید)
128
310000
4000
(تشویق تماشاگران)
Translated by soheila Jafari
Reviewed by Saeed Salehi

▲Back to top

ABOUT THE SPEAKER
Dan Ariely - Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why.

Why you should listen

Dan Ariely is a professor of psychology and behavioral economics at Duke University and a founding member of the Center for Advanced Hindsight. He is the author of the bestsellers Predictably IrrationalThe Upside of Irrationality, and The Honest Truth About Dishonesty -- as well as the TED Book Payoff: The Hidden Logic that Shapes Our Motivations.

Through his research and his (often amusing and unorthodox) experiments, he questions the forces that influence human behavior and the irrational ways in which we often all behave.

More profile about the speaker
Dan Ariely | Speaker | TED.com