ABOUT THE SPEAKER
Dan Ariely - Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why.

Why you should listen

Dan Ariely is a professor of psychology and behavioral economics at Duke University and a founding member of the Center for Advanced Hindsight. He is the author of the bestsellers Predictably IrrationalThe Upside of Irrationality, and The Honest Truth About Dishonesty -- as well as the TED Book Payoff: The Hidden Logic that Shapes Our Motivations.

Through his research and his (often amusing and unorthodox) experiments, he questions the forces that influence human behavior and the irrational ways in which we often all behave.

More profile about the speaker
Dan Ariely | Speaker | TED.com
TED2011

Dan Ariely: Beware conflicts of interest

Դեն Ըրայլի․ Զգուշացեք շահերի բախումից

Filmed:
1,284,831 views

Այս կարճ ելույթով հոգեբան Դեն Ըրայլին կիսվում է շահերի բախման մասին երկու պատմություններով. թե ինչպես անձնական նպատակները կարող են խեղաթյուրել մեր ներըբռնումը և գիտելիքը՝ գիտակցաբար կամ անգիտակից կերպով։ Նա հիշեցնում է մեզ, որ մեծ հարցերի շուրջ մտածելիս, գիտակցենք, որ մեր բոլորիս ուղեղները չափից ավելի մարդկային են։
- Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why. Full bio

Double-click the English transcript below to play the video.

00:16
So, I was in the hospital for a long time.
0
1000
3000
Ես երկար ժամանակ հիվանդանոցում եմ եղել։
00:19
And a few years after I left, I went back,
1
4000
3000
Իմ այնտեղից դուրս գրվելուց մի քանի տարի անց, ես վերադարձա այնտեղ,
00:22
and the chairman of the burn department was very excited to see me --
2
7000
3000
և այրվածքների բաժանմունքի նախագահը շատ ուրախ էր ինձ տեսնել,
00:25
said, "Dan, I have a fantastic new treatment for you."
3
10000
3000
նա ասաց․ «Դեն, ես հրաշալի նոր բուժում ունեմ քո համար»։
00:28
I was very excited. I walked with him to his office.
4
13000
2000
Ես շատ ուրախացա։ Ես գնացի նրա սենյակ։
00:30
And he explained to me that, when I shave,
5
15000
3000
Եվ նա բացատրեց ինձ, որ երբ ես սափրվում եմ,
00:33
I have little black dots on the left side of my face where the hair is,
6
18000
3000
իմ դեմքի ձախ մասում, որտեղ մազերն են, սև կետեր են հայտնվում,
00:36
but on the right side of my face
7
21000
2000
իսկ իմ դեմքը աջ մասը
00:38
I was badly burned so I have no hair,
8
23000
2000
այրված է, և այնտեղ մազեր չկան,
00:40
and this creates lack of symmetry.
9
25000
2000
և դա խախտում է համաչափությունը։
00:42
And what's the brilliant idea he had?
10
27000
2000
Եվ ո՞րն էր նրա հրաշալի գաղափարը։
00:44
He was going to tattoo little black dots
11
29000
2000
Նա պատրաստվում էր փոքրիկ սև կետեր դաջել
00:46
on the right side of my face
12
31000
3000
իմ դեմքի աջ մասում,
00:49
and make me look very symmetric.
13
34000
2000
դարձնելով այն համաչափ։
00:51
It sounded interesting. He asked me to go and shave.
14
36000
3000
Միտքը հետաքրքիր էր։ Նա խնդրեց, որ ես գնամ ու սափրվեմ։
00:54
Let me tell you, this was a strange way to shave,
15
39000
2000
Թույլ տվեք ասել, որ շատ տարօրինակ էր այդպես սափրվել,
00:56
because I thought about it
16
41000
2000
որովհետև ես մտածեցի ու հասկացա,
00:58
and I realized that the way I was shaving then
17
43000
2000
որ այն, ինչպես սափրվում էի այդ ժամանակ,
01:00
would be the way I would shave for the rest of my life --
18
45000
2000
պիտի դառնա սափրվելու միակ ձևը մինչև կյանքիս վերջ,
01:02
because I had to keep the width the same.
19
47000
2000
որովհետև պիտի նույն լայնությունը պահպանեմ։
01:04
When I got back to his office,
20
49000
2000
Երբ ես վերադարձա բժիշկի սենյակ,
01:06
I wasn't really sure.
21
51000
2000
ես համոզված չէի, որ ուզում եմ դա անել։
01:08
I said, "Can I see some evidence for this?"
22
53000
2000
Ես հարցեցի․ «Կարո՞ղ եմ տեսնել որոշ արդյունքներ»։
01:10
So he showed me some pictures
23
55000
2000
Նա ցույց տվեց ինձ որոշ լուսանկարներ, որտեղ պատկերված էին
01:12
of little cheeks with little black dots --
24
57000
2000
փոքր այտեր փոքր սև կետերով,
01:14
not very informative.
25
59000
2000
դրանք առանձնապես ինֆորմատիվ բնույթ չունեին։
01:16
I said, "What happens when I grow older and my hair becomes white?
26
61000
2000
Ես հարցեցի․ «Իսկ ի՞նչ է լինելու, երբ ես ծերանամ և իմ մազերը ճերմակեն։
01:18
What would happen then?"
27
63000
2000
Ի՞նչ է լինելու այդ ժամանակ»։
01:20
"Oh, don't worry about it," he said.
28
65000
2000
«Օ՜, մի անհանգստացիր այդ մասին», ասաց նա։
01:22
"We have lasers; we can whiten it out."
29
67000
3000
«Մենք ունենք լազերներ, որոնք կճերմակացնեն կետերը»։
01:25
But I was still concerned,
30
70000
2000
Բայց ես դեռ մտահոգված էի,
01:27
so I said, "You know what, I'm not going to do it."
31
72000
3000
և ասացի․ «Գիտեք ինչ, ես չեմ ուզում դա անել»։
01:30
And then came one of the biggest guilt trips of my life.
32
75000
4000
Դրանից հետո իմ մոտ սարսափելի մեղքի զգացում առաջացավ։
01:34
This is coming from a Jewish guy, all right, so that means a lot.
33
79000
3000
Քանի որ, ես հրեա եմ, դա շատ մեծ բան է։
01:37
(Laughter)
34
82000
2000
(Ծիծաղ)
01:39
And he said, "Dan, what's wrong with you?
35
84000
3000
Եվ նա ասաց․ «Դեն, ինչու՞մն է բանը։
01:42
Do you enjoy looking non-symmetric?
36
87000
2000
Քեզ դու՞ր է գալիս անհամաչափ լինել։
01:44
Do you have some kind of perverted pleasure from this?
37
89000
5000
Դու դրանից ինչ որ հաճու՞յք ես ստանում։
01:49
Do women feel pity for you
38
94000
2000
Միգուցե կանայք խղճու՞մ են քեզ
01:51
and have sex with you more frequently?"
39
96000
3000
և ավելի հաճախ ենք քեզ հետ սեքսով զբաղվում»։
01:54
None of those happened.
40
99000
3000
Դրանցից որևէ մեկը ճիշտ չէ։
01:58
And this was very surprising to me,
41
103000
2000
Եվ ինձ համար շատ զարմանալի էր,
02:00
because I've gone through many treatments --
42
105000
2000
որովհետև ես շատ բուժումներ եմ անցել,
02:02
there were many treatments I decided not to do --
43
107000
2000
շատ բուժումներից էլ հրաժարվել եմ,
02:04
and I never got this guilt trip to this extent.
44
109000
2000
բայց երբեք այդքան մեծ մեղքի զգացում չեմ ունեցել։
02:06
But I decided not to have this treatment.
45
111000
2000
Բայց ես որոշեցի հրաժարվել այս բուժումից։
02:08
And I went to his deputy and asked him, "What was going on?
46
113000
2000
Ես գնացի նրա օգնականի մոտ և հարցրեցի․ «Ի՞նչ է կատարվում։
02:10
Where was this guilt trip coming from?"
47
115000
2000
Ինչո՞ւ եմ ես ինձ այսքան մեղավոր զգում»։
02:12
And he explained that they have done this procedure on two patients already,
48
117000
4000
Նա բացատրեց, որ նրանք իրականացրել են այդ գործողությունը երկու հիվանդների վրա,
02:16
and they need the third patient for a paper they were writing.
49
121000
3000
և ևս մեկ հիվանդի կարիք ունեն` հոդված գրելու համար։
02:19
(Laughter)
50
124000
2000
(Ծիծաղ)
02:21
Now you probably think that this guy's a schmuck.
51
126000
2000
Դուք հավանաբար մտածում եք, որ այդ մարդը ստոր է։
02:23
Right, that's what he seems like.
52
128000
2000
Այդպես է ստացվում։
02:25
But let me give you a different perspective on the same story.
53
130000
3000
Բայց թույլ տվեք մեկ այլ տեսանկյունից դիտարկել նույն պատմությունը։
02:28
A few years ago, I was running some of my own experiments in the lab.
54
133000
3000
Մի քանի տարի առաջ, ես իմ սեփական փորձարկումներն էի անցկացնում լաբում։
02:31
And when we run experiments,
55
136000
2000
Երբ մենք փորձարկումներ ենք անցկացնում,
02:33
we usually hope that one group will behave differently than another.
56
138000
3000
մենք սովորաբար հույս ունենք, որ մի խումբն իրեն այլ կերպ կդրսևորի քան մյուսը։
02:36
So we had one group that I hoped their performance would be very high,
57
141000
3000
Այսպիսով, ես հույս ունեի, որ մի խումբը բարձր արդյունքներ կցուցաբերի,
02:39
another group that I thought their performance would be very low,
58
144000
3000
իսկ մյուս խումբը՝ ցածր։
02:42
and when I got the results, that's what we got --
59
147000
2000
Եվ երբ մենք պատասխանները ստացանք, այդպես էլ եղավ։
02:44
I was very happy -- aside from one person.
60
149000
3000
Ես շատ ուրախ էի արդյունքներով, բացի մեկ մարդու դեպքից։
02:47
There was one person in the group
61
152000
2000
Խմբում կար մեկը,
02:49
that was supposed to have very high performance
62
154000
2000
որ պիտի որ շատ բարձր արդյունք ունենար,
02:51
that was actually performing terribly.
63
156000
2000
սակայն իրականում սարսափելի էր իրեն ցուցադրել։
02:53
And he pulled the whole mean down,
64
158000
2000
Նրա պատճառով իջան ամբողջ խմբի արդյունքները,
02:55
destroying my statistical significance of the test.
65
160000
3000
ոչնչացնելով փորձի վիճակագրական կարևորությունը։
02:59
So I looked carefully at this guy.
66
164000
2000
Ես ուշադիր նայեցի այդ մարդուն։
03:01
He was 20-some years older than anybody else in the sample.
67
166000
3000
Նա 20 տարի մեծ էր խմբում եղած մյուս բոլոր մարդկանցից։
03:04
And I remembered that the old and drunken guy
68
169000
2000
Ես հիշեցի, որ նա այն ծեր և հարբած մարդն էր,
03:06
came one day to the lab
69
171000
2000
որ մի օր եկել էր մեր մոտ լաբ,
03:08
wanting to make some easy cash
70
173000
2000
հուսալով հեշտ կերպով
03:10
and this was the guy.
71
175000
2000
գումար աշխատել։
03:12
"Fantastic!" I thought. "Let's throw him out.
72
177000
2000
«Հիանալի է», մտածեցի ես, «Կարող ենք նրան հաշվի չառնել։
03:14
Who would ever include a drunken guy in a sample?"
73
179000
3000
Ո՞վ հարբեցողին երբևէ կմտցներ խմբի մեջ»։
03:17
But a couple of days later,
74
182000
2000
Բայց մի քանի օր անց,
03:19
we thought about it with my students,
75
184000
2000
իմ ուսանողների հետ մենք մտածեցինք դրա մասին,
03:21
and we said, "What would have happened if this drunken guy was not in that condition?
76
186000
3000
և ասացինք․ «Ի՞նչ կլիներ, եթե այդ հարբած մարդը չլիներ այդ վիճակում։
03:24
What would have happened if he was in the other group?
77
189000
2000
Ի՞նչ կլիներ, եթե նա լիներ մյուս խմբում։
03:26
Would we have thrown him out then?"
78
191000
2000
Արդյո՞ք մենք նրան դուրս կնետեինք այդ պարագայում»։
03:28
We probably wouldn't have looked at the data at all,
79
193000
2000
Մենք, հավանաբար, ոչ էլ կնայեինք տվյալներին,
03:30
and if we did look at the data,
80
195000
2000
իսկ եթե նույնսիկ նայենք էլ,
03:32
we'd probably have said, "Fantastic! What a smart guy who is performing this low,"
81
197000
3000
հավանաբար կասեինք․ «Հիանալի է։ Ինչ լավ մարդ է, որ այսքան ցածր արդյունք ունի»,
03:35
because he would have pulled the mean of the group lower,
82
200000
2000
որովհետև նա էլ ավելի կիջեցներ խմբի միջին արդյունքը,
03:37
giving us even stronger statistical results than we could.
83
202000
3000
ամրապնդելով վիճակագրական կարևորությունը։
03:41
So we decided not to throw the guy out and to rerun the experiment.
84
206000
3000
Այդպիսով, մենք որոշեցինք դուրս չնետել այդ մարդուն, և կրկնել փորձը։
03:44
But you know, these stories,
85
209000
3000
Բայց գիտեք, այդ պատմությունները,
03:47
and lots of other experiments that we've done on conflicts of interest,
86
212000
3000
և շատ ուրիշ փորձեր, որոնք մենք անցկացրել ենք շահերի բախման հետ կապված,
03:50
basically kind of bring two points
87
215000
2000
հիմնականում երկու կարևոր բան են
03:52
to the foreground for me.
88
217000
2000
առաջ բերում ինձ համար։
03:54
The first one is that in life we encounter many people
89
219000
3000
Առաջինն այն է, որ կյանքում մենք հանդիպում ենք շատ մարդկանց,
03:57
who, in some way or another,
90
222000
3000
որոնք այս կամ այլ կերպ,
04:00
try to tattoo our faces.
91
225000
2000
փորձում են դաջել մեր դեմքերը։
04:02
They just have the incentives that get them to be blinded to reality
92
227000
3000
Նրանք պարզապես այնքան ուժեղ դրդապատճառ ունեն, որ կուրացած են,
04:05
and give us advice that is inherently biased.
93
230000
3000
և տալիս եմ մեզ այնպիսի խորհուրդ, որն ի սկզբանե կողմնակալ է։
04:08
And I'm sure that it's something that we all recognize,
94
233000
2000
Համոզված եմ, որ սա մի բան է, որ մենք բոլորս ճանաչում ենք,
04:10
and we see that it happens.
95
235000
2000
երբ տեսնում ենք այն։
04:12
Maybe we don't recognize it every time,
96
237000
2000
Միգուցե միշտ չէ, որ ճանաչում ենք դա,
04:14
but we understand that it happens.
97
239000
2000
բայց մենք հասկանում ենք, որ նման բան տեղի է ունենում։
04:16
The most difficult thing, of course, is to recognize
98
241000
2000
Իհարկե ամենադժվարը ընդունելն է,
04:18
that sometimes we too
99
243000
2000
որ երբեմն, մենք նույնպես
04:20
are blinded by our own incentives.
100
245000
2000
կուրացած ենք մեր իսկ դրդապատճառներով։
04:22
And that's a much, much more difficult lesson to take into account.
101
247000
3000
Եվ դա շատ ավելի դժվար դաս է, որ պետք է հաշվի առնենք։
04:25
Because we don't see how conflicts of interest work on us.
102
250000
4000
Պատճառն այն է, որ մենք չենք տեսնում, թե ինչպես է շահերի բախումն ազդում մեր վրա։
04:29
When I was doing these experiments,
103
254000
2000
Երբ ես անում էի այս փորձերը,
04:31
in my mind, I was helping science.
104
256000
2000
իմ կարծիքով, ես զարգացնում էի գիտությունը։
04:33
I was eliminating the data
105
258000
2000
Ես դեն էի նետում տվյալներ,
04:35
to get the true pattern of the data to shine through.
106
260000
2000
որպեսզի ստանամ իրական պատկերը ճիշտ տվյալների օգնությամբ։
04:37
I wasn't doing something bad.
107
262000
2000
Ես վատ բան չէի անում։
04:39
In my mind, I was actually a knight
108
264000
2000
Իմ կարծիքով, ես իրականում ասպետ էի,
04:41
trying to help science move along.
109
266000
2000
ով օգնում է, որ գիտությունն առաջ շարժվի։
04:43
But this was not the case.
110
268000
2000
Բայց դա այդպես չէր։
04:45
I was actually interfering with the process with lots of good intentions.
111
270000
3000
Ես իրականում միջամտում էի գործընթացին իմ լավ մտադրություններով։
04:48
And I think the real challenge is to figure out
112
273000
2000
Եվ կարծում եմ, ամենադժվարը հասկանալն է,
04:50
where are the cases in our lives
113
275000
2000
թե մեր կյանքում ո՞ր դեպքերում է
04:52
where conflicts of interest work on us,
114
277000
2000
շահերի բախումը ազդում մեր վրա,
04:54
and try not to trust our own intuition to overcome it,
115
279000
3000
վստահելու փոխարեն, թե մեր սեփական ինտուիցիան կհաղթահարի այն,
04:57
but to try to do things
116
282000
2000
փորձել անել այնպես,
04:59
that prevent us from falling prey to these behaviors,
117
284000
2000
որ հեռու մնանք նման վարք ցուցաբերելուց,
05:01
because we can create lots of undesirable circumstances.
118
286000
3000
քանի որ դա ստեղծում է ոչ ցանկալի արդյունք։
05:05
I do want to leave you with one positive thought.
119
290000
2000
Ես ցանկանում եմ ավարտել մի դրական միտք ձեզ հաղորդելով։
05:07
I mean, this is all very depressing, right --
120
292000
2000
Այս ամենը շատ ճնշող է, չէ՞,
05:09
people have conflicts of interest, we don't see it, and so on.
121
294000
3000
մարդիկ ունեն շահերի բախում, մենք դա չենք տեսնում, և այլն։
05:12
The positive perspective, I think, of all of this
122
297000
2000
Դրականն այստեղ այն է, որ
05:14
is that, if we do understand when we go wrong,
123
299000
3000
եթե մենք հասկանանք, երբ ենք սխալվում,
05:17
if we understand the deep mechanisms
124
302000
2000
եթե մենք հասկանանք մեխանիզմը,
05:19
of why we fail and where we fail,
125
304000
2000
որով սխալներ ենք գործում,
05:21
we can actually hope to fix things.
126
306000
2000
մենք իրականում իրավիճակը շտկելու հույս կունենանք։
05:23
And that, I think, is the hope. Thank you very much.
127
308000
2000
Եվ դա կարծում եմ, միակ հույսն է։ Շատ շնորհակալություն։
05:25
(Applause)
128
310000
4000
(Ծափահարություններ)
Translated by Gohar Khachatryan
Reviewed by Arpiné Grigoryan

▲Back to top

ABOUT THE SPEAKER
Dan Ariely - Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why.

Why you should listen

Dan Ariely is a professor of psychology and behavioral economics at Duke University and a founding member of the Center for Advanced Hindsight. He is the author of the bestsellers Predictably IrrationalThe Upside of Irrationality, and The Honest Truth About Dishonesty -- as well as the TED Book Payoff: The Hidden Logic that Shapes Our Motivations.

Through his research and his (often amusing and unorthodox) experiments, he questions the forces that influence human behavior and the irrational ways in which we often all behave.

More profile about the speaker
Dan Ariely | Speaker | TED.com