ABOUT THE SPEAKER
Dan Ariely - Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why.

Why you should listen

Dan Ariely is a professor of psychology and behavioral economics at Duke University and a founding member of the Center for Advanced Hindsight. He is the author of the bestsellers Predictably IrrationalThe Upside of Irrationality, and The Honest Truth About Dishonesty -- as well as the TED Book Payoff: The Hidden Logic that Shapes Our Motivations.

Through his research and his (often amusing and unorthodox) experiments, he questions the forces that influence human behavior and the irrational ways in which we often all behave.

More profile about the speaker
Dan Ariely | Speaker | TED.com
TED2011

Dan Ariely: Beware conflicts of interest

დენ არიელი: გახსოვდეთ ინტერესთა კონფლიქტი

Filmed:
1,284,831 views

ამ პატარა ვიდეოთი ფსიქოლოგი დენ არიელი ცდილობს მოგვითხროს ორი პირადი ისტორიის შესახებ რომელიც დაკავშირებულია ინტერესთა კონფლიქტთან.
- Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why. Full bio

Double-click the English transcript below to play the video.

00:16
So, I was in the hospital for a long time.
0
1000
3000
მოკლედ,საკმაოდ დიდ ხნის განმავლობაში მომიწია საავადმყოფოში ყოფნამ.
00:19
And a few years after I left, I went back,
1
4000
3000
რომლის დატოვებიდან რამდენიმე წლის შემდეგ ისევ მომიხდა იქ დაბრუნება.
00:22
and the chairman of the burn department was very excited to see me --
2
7000
3000
ჩემი დანახვით გახარებულმა დამწვრობის დეპარტამენტის ხელმღვანელმა აღტაცებით მითხრა:
00:25
said, "Dan, I have a fantastic new treatment for you."
3
10000
3000
"დენ მე მაქვს მკურნალობის სრულიად ახალი, ფანტასტიკური მეთოდი თქვენთვის“.
00:28
I was very excited. I walked with him to his office.
4
13000
2000
ამ ამბავმა მეც ძალიან გამახარა და მას თავის კაბინეტში გავყევი,
00:30
And he explained to me that, when I shave,
5
15000
3000
და მან ამიხსნა რომ, როცა ვიპარსავ,
00:33
I have little black dots on the left side of my face where the hair is,
6
18000
3000
სახის მარცხენა მხარეს, წვერთან ერთად მაქვს პატარა შავი წერტილები,
00:36
but on the right side of my face
7
21000
2000
თუმცა სახის მარჯვენა მხარეს
00:38
I was badly burned so I have no hair,
8
23000
2000
მძიმე დამწვრობის გამო წვერი არ ამომდის.
00:40
and this creates lack of symmetry.
9
25000
2000
რაც თავის მხრივ იწვევს შესამჩნევ ასიმეტრიას.
00:42
And what's the brilliant idea he had?
10
27000
2000
და აი, რაში მდგომარეობდა მისი შესანიშნავი იდეა?
00:44
He was going to tattoo little black dots
11
29000
2000
ის აპირებდა ჩემს ტატუირებას პატარა შავი წერტილებით
00:46
on the right side of my face
12
31000
3000
ჩემი სახის მარჯვენა მხარეს.
00:49
and make me look very symmetric.
13
34000
2000
რათა ამით ის უფრო სიმეტრიული გაეხადა.
00:51
It sounded interesting. He asked me to go and shave.
14
36000
3000
ეს რა თქმა უნდა საინტერესოდ ჟღერდა და მან მთხოვა რომ წავსულიყავი და გამეპარსა წვერი.
00:54
Let me tell you, this was a strange way to shave,
15
39000
2000
მინდა გითხრათ, რომ ეს იყო გაპარსვის ძალიან უჩვეულო ფორმა,
00:56
because I thought about it
16
41000
2000
რადგან ამაზე ფიქრისას
00:58
and I realized that the way I was shaving then
17
43000
2000
მივხვდი რომ ეს იქნებოდა გაპარსვის სწორედ ის ფორმა
01:00
would be the way I would shave for the rest of my life --
18
45000
2000
რომელიც უნდა გამომეყენებინა მთელი დარჩენილი სიცოცხლის განმავლობაში,
01:02
because I had to keep the width the same.
19
47000
2000
საიმისოდ, რომ შემენარჩუნებინა სიმეტრია.
01:04
When I got back to his office,
20
49000
2000
ექიმის კაბინეტში დაბრუნების შემდეგ,
01:06
I wasn't really sure.
21
51000
2000
მე ნამდვილად არ ვიყავი დარწმუნებული.
01:08
I said, "Can I see some evidence for this?"
22
53000
2000
და ვთხოვე მას რომ, ეჩვენებინა მკურნალობის ამ ახალი მეთოდის შედეგები,
01:10
So he showed me some pictures
23
55000
2000
და მან მაჩვენა რამდენიმე სურათი
01:12
of little cheeks with little black dots --
24
57000
2000
პატარა ლოყების, პატარა შავი წერტილებით.
01:14
not very informative.
25
59000
2000
რაც სრულებითაც არ იყო საკმარისად ინფორმაციული.
01:16
I said, "What happens when I grow older and my hair becomes white?
26
61000
2000
მაშინ მე ვკითხე, „რა მოხდება მაშინ როდესაც ასაკი მომემატება და ჩემი წვერი გათეთრდება?
01:18
What would happen then?"
27
63000
2000
რა მოხდება ამის შემდეგ“?
01:20
"Oh, don't worry about it," he said.
28
65000
2000
"ო, ამაზე ნუ ინერვიულებ", მითხრა მან.
01:22
"We have lasers; we can whiten it out."
29
67000
3000
"ჩვენ გვაქვს ლაზერი, რომლის მეშვეობითაც შეგვიძლია მათი გათეთრება."
01:25
But I was still concerned,
30
70000
2000
მაგრამ მე ჯერ კიდევ არ ვიყავი დარწმუნებული
01:27
so I said, "You know what, I'm not going to do it."
31
72000
3000
და ვუთხარი: "იცი რა, მე არ ვაპირებ ამის გაკეთებას."
01:30
And then came one of the biggest guilt trips of my life.
32
75000
4000
ამის შემდეგ კი მე თავი ვიგრძენი დამნაშავედ ისე როგორც არასდროს.
01:34
This is coming from a Jewish guy, all right, so that means a lot.
33
79000
3000
და რადგან ეს ერთ ებრაელ ბიჭს უკავშირდება, ეს უკვე ბევრს ნიშნავს.
01:37
(Laughter)
34
82000
2000
(სიცილი)
01:39
And he said, "Dan, what's wrong with you?
35
84000
3000
და მან მითხრა, "დენ, რა ხდება შენს თავს?"
01:42
Do you enjoy looking non-symmetric?
36
87000
2000
გსიამოვნებს რომ ასიმეტრიულად გამოიყურები?
01:44
Do you have some kind of perverted pleasure from this?
37
89000
5000
იღებ ამისგან რაიმე გარყვნილ სიამოვნებას?
01:49
Do women feel pity for you
38
94000
2000
ეცოდები ქალებს
01:51
and have sex with you more frequently?"
39
96000
3000
და უფრო ხშირად ატარებენ შენთან ღამეს"?
01:54
None of those happened.
40
99000
3000
არცერთ მათგანს არ ჰქონია ადგილი.
01:58
And this was very surprising to me,
41
103000
2000
და ეს ძალიან გასაოცარი იყო ჩემთვის.
02:00
because I've gone through many treatments --
42
105000
2000
რადგან მე მკურნალობის არაერთი მეთოდისთვის მიმიმართავს
02:02
there were many treatments I decided not to do --
43
107000
2000
თუმცა, ასევე იყო არაერთი მეთოდი რომლის გამოყენებაზეც მე უარი ვთქვი.
02:04
and I never got this guilt trip to this extent.
44
109000
2000
მაგრამ არასოდეს მიგრძვნია დანაშაულის გრძნობა ასე მძაფრად.
02:06
But I decided not to have this treatment.
45
111000
2000
თუმცა მაინც გადავწყვიტე, რომ არ გამომეყენებინა მკურნალობის ეს მეთოდი.
02:08
And I went to his deputy and asked him, "What was going on?
46
113000
2000
და მივედი მის მოადგილესთან, რომელსაც ვკითხე,"თუ რაში იყო საქმე?
02:10
Where was this guilt trip coming from?"
47
115000
2000
თუ საიდან მოდიოდა დანაშაულის ეს გრძნობა?"
02:12
And he explained that they have done this procedure on two patients already,
48
117000
4000
და მან მითხრა, რომ მათ უკვე გამოიყენეს მკურნალობის ეს მეთოდი ორ სხვა პაციენტთან,
02:16
and they need the third patient for a paper they were writing.
49
121000
3000
და მათ სჭირდებოდათ მესამეც იმ კვლევისთვის რომელზეც მუშაობდნენ.
02:19
(Laughter)
50
124000
2000
(სიცილი)
02:21
Now you probably think that this guy's a schmuck.
51
126000
2000
თქვენ ახლა ალბათ ფიქრობთ რომ ეს ყმაწვილი გონებაჩლუნგია.
02:23
Right, that's what he seems like.
52
128000
2000
მართალია, ის სწორედ ასეთია.
02:25
But let me give you a different perspective on the same story.
53
130000
3000
მაგრამ, ნება მომეცით იგივე ამბავს სხვა კუთხით შეგახედოთ .
02:28
A few years ago, I was running some of my own experiments in the lab.
54
133000
3000
რამდენიმე წლის წინ, თავად ვატარებდი ერთ-ერთ ექსპერიმენტს ჩემს ლაბორატორიაში.
02:31
And when we run experiments,
55
136000
2000
და როდესაც ჩვენ ექსპერიმენტებს ვატარებთ,
02:33
we usually hope that one group will behave differently than another.
56
138000
3000
როგორც წესი იმედი გვაქვს, რომ ერთი ჯგუფი მოიქცევა მეორისაგან განსხვავებულად.
02:36
So we had one group that I hoped their performance would be very high,
57
141000
3000
ასე რომ, ჩვენ გვყავდა ერთი ჯგუფი, რომელის შედეგიც იმედი მქონდა, რომ იქნებოდა ძალიან მაღალი,
02:39
another group that I thought their performance would be very low,
58
144000
3000
და მეორე ჯგუფი, რომლის მაჩვენებელიც იმედი მქონდა რომ იქნებოდა ძალიან დაბალი,
02:42
and when I got the results, that's what we got --
59
147000
2000
და რადგან საბოლოო შედეგიც სწორედ ასეთი აღმოჩნდა
02:44
I was very happy -- aside from one person.
60
149000
3000
მე ვიყავი ძალიან ბედნიერი - თუმცა იყო გამონაკლისი ერთი ადამიანის სახით.
02:47
There was one person in the group
61
152000
2000
რომელიც იყო იმ ჯგუფში
02:49
that was supposed to have very high performance
62
154000
2000
რომელსაც ვიმედოვნებდი რომ ექნებოდა ძალიან მაღალი მაჩვენებელი,
02:51
that was actually performing terribly.
63
156000
2000
თუმცა რეალურად კი მისი შედეგი იყო ძალიან ცუდი.
02:53
And he pulled the whole mean down,
64
158000
2000
ამის შედეგად კი მან მოახერხა
02:55
destroying my statistical significance of the test.
65
160000
3000
სრულად გაენადგურებინა ტესტის სტატისტიკური მნიშვნელობა
02:59
So I looked carefully at this guy.
66
164000
2000
ამის შემდეგ, მე ყურადღებით დავაკვირდი ამ ახალგაზრდას.
03:01
He was 20-some years older than anybody else in the sample.
67
166000
3000
ის იყო ოცდა რაღაც წლის, განსხვავებით ექსპრიმენტის სხვა მონაწილეებისაგან.
03:04
And I remembered that the old and drunken guy
68
169000
2000
და მე მახსოვდა როგორ მოვიდა ერთ დღეს უფროსი ასაკის, მთვრალი ახალგაზრდა
03:06
came one day to the lab
69
171000
2000
ჩემს ლაბორატორიაში
03:08
wanting to make some easy cash
70
173000
2000
ცოტაოდენი ნაღდი ფულის მარტივი გზით გამოსამუშავებლად
03:10
and this was the guy.
71
175000
2000
და ეს სწორედ ის ახალგაზრდა კაცი იყო.
03:12
"Fantastic!" I thought. "Let's throw him out.
72
177000
2000
"ფანტასტიურია" გავიფიქრე მე. "მოდი გავაგდოთ ის ექსპერიმენტიდან
03:14
Who would ever include a drunken guy in a sample?"
73
179000
3000
განა ვინმე ჩართავდა ასეთ ადამიანს ტესტში"?
03:17
But a couple of days later,
74
182000
2000
მაგრამ რამოდენიმე დღის შემდეგ,
03:19
we thought about it with my students,
75
184000
2000
ჩემს სტუდენტებთან ამ საკითხზე მსჯელობისას
03:21
and we said, "What would have happened if this drunken guy was not in that condition?
76
186000
3000
ვთქვით, რომ "რა მოხდებოდა თუკი ეს მთვრალი ახალგაზრდა არ იქნებოდა ასეთ მდგომარეობაში?
03:24
What would have happened if he was in the other group?
77
189000
2000
ან რა მოხდება ის რომ მეორე ჯგუფში ყოფილიყო?
03:26
Would we have thrown him out then?"
78
191000
2000
ამ შემთხვევაშიც დავატოვებინებდით მას ექსპერიმენტს?"
03:28
We probably wouldn't have looked at the data at all,
79
193000
2000
ამ შემთხვევაში ჩვენ ალბათ საერთოდ არ შევხედავდით მიღებულ შედეგებს,
03:30
and if we did look at the data,
80
195000
2000
და თუკი მაინც მივაქცევდით მას ყურადღებას,
03:32
we'd probably have said, "Fantastic! What a smart guy who is performing this low,"
81
197000
3000
ვიტყოდით, რომ "ფანტასტიურია! რა ყოჩაღი ბიჭია ასე ცუდი მაჩვენებელი რომ აქვს"
03:35
because he would have pulled the mean of the group lower,
82
200000
2000
რადგან ის კიდევ უფრო ქვემოთ დასწევდა ჯგუფის საერთო შედეგს
03:37
giving us even stronger statistical results than we could.
83
202000
3000
და მოგვცემდა იმაზე უფრო ძლიერ სტატისტიკურ მაჩვენებელს ვიდრე შეგვეძლო რომ მიგვეღო.
03:41
So we decided not to throw the guy out and to rerun the experiment.
84
206000
3000
ასე რომ, გადავწყვიტეთ დაგვეტოვებინა ეს ყმაწვილი ექსპერიმენტში და კვლავ გაგვემეორებინა ის.
03:44
But you know, these stories,
85
209000
3000
მაგრამ თქვენ იცით ასეთი ისტორიების
03:47
and lots of other experiments that we've done on conflicts of interest,
86
212000
3000
და კიდევ სხვა მრავალი ექსპერიმენტის შესახებ, რომელიც ჩვენ ჩაგვიტარებია ინტერესთა კონფლიქტზე,
03:50
basically kind of bring two points
87
215000
2000
ისინი ძირითადად ორი სახის ინფორმაციას გვაწვდიან
03:52
to the foreground for me.
88
217000
2000
რომელიც ყველაზე მნიშვნელოვანია ჩემთვის.
03:54
The first one is that in life we encounter many people
89
219000
3000
პირველი მათგანია ის რომ ცხოვებაში ჩენ უამრავ ადამიანს ვხვდებით
03:57
who, in some way or another,
90
222000
3000
რომლებიც, სხვადასხვა მეთოდებით
04:00
try to tattoo our faces.
91
225000
2000
ცდილობენ ჩვენი სახეების ტატუირებას.
04:02
They just have the incentives that get them to be blinded to reality
92
227000
3000
მათ უბრალოდ სურთ რომ არ შეიმჩნიონ რეალობა
04:05
and give us advice that is inherently biased.
93
230000
3000
და მოგცენ ისეთი რჩევა რომელიც თავიდანვე მიკერძოებული და ტენდენციურია.
04:08
And I'm sure that it's something that we all recognize,
94
233000
2000
და მე დარწმუნებული ვარ, რომ ეს სწორედ ისა რასაც ჩვენ ყველა კარგად ვაცნობიერებთ
04:10
and we see that it happens.
95
235000
2000
და ვხედავთ რომ ეს ასეა.
04:12
Maybe we don't recognize it every time,
96
237000
2000
შესაძლოა ჩვენ ამას ვერ ვაცნობიერებდეთ ყოველთვის
04:14
but we understand that it happens.
97
239000
2000
მაგრამ მაინც გვესმის რომ ასეთ რამეს აქვს ადგილი.
04:16
The most difficult thing, of course, is to recognize
98
241000
2000
ყველაზე რთული ალბათ სწორედ იმის აღიარებაა
04:18
that sometimes we too
99
243000
2000
რომ ხანდახან ჩვენც
04:20
are blinded by our own incentives.
100
245000
2000
დაბრმავებულები ვართ საკუთარი მისწრაფებებით.
04:22
And that's a much, much more difficult lesson to take into account.
101
247000
3000
და ეს ბევრად, ბევრად უფრო რთული გაკვეთილია მომავალში გასათვალისწინებლად.
04:25
Because we don't see how conflicts of interest work on us.
102
250000
4000
რადგან ჩვენ ვერ ვხედავთ თუ რა გავლენა აქვს ინტერესთა კონფლიქტს ჩვენზე.
04:29
When I was doing these experiments,
103
254000
2000
როდესაც მე ამ ექსპერიმენტს ვატარებდი,
04:31
in my mind, I was helping science.
104
256000
2000
ვფიქრობდი, რომ ამით მეცნიერებას ვეხმარებოდი.
04:33
I was eliminating the data
105
258000
2000
მე უგულვებელვყოფდი ზოგიერთ მონაცემს
04:35
to get the true pattern of the data to shine through.
106
260000
2000
რათა მიმეღო მონაცემთა უფრო მკაფიო მოდელი.
04:37
I wasn't doing something bad.
107
262000
2000
მე თითქოს ცუდს არაფერს ვაკეთებდი.
04:39
In my mind, I was actually a knight
108
264000
2000
ჩემი აზრით, მე ვიყავი რაინდი
04:41
trying to help science move along.
109
266000
2000
რომელიც ცდილობდა მეცნიერების განვითარებას.
04:43
But this was not the case.
110
268000
2000
მაგრამ ეს ასე სულაც არ იყო.
04:45
I was actually interfering with the process with lots of good intentions.
111
270000
3000
მე რეალურად ვერეოდი პროცესებში უამრავი კარგი განზრახვით.
04:48
And I think the real challenge is to figure out
112
273000
2000
და მე მგონია რომ რეალური გამოწვევა სწორედ ისაა რომ გავარკვიოთ
04:50
where are the cases in our lives
113
275000
2000
თუ როდის აქვს ადგილი ჩვენს ცხოვრებაში ასეთ მომენტებს
04:52
where conflicts of interest work on us,
114
277000
2000
სად მოქმედებს ინტერესთა კონფლიქტი ჩვენზე,
04:54
and try not to trust our own intuition to overcome it,
115
279000
3000
და რომ არ ვენდოთ მხოლოდ ჩვენს საკუთარ ინტუიციას, მის დასაძლევად,
04:57
but to try to do things
116
282000
2000
მაგრამ ვცადოთ რომ მოვიქცეთ ისე
04:59
that prevent us from falling prey to these behaviors,
117
284000
2000
რომ მსხვერპლად არ ვიქცეთ მსგავსი ქმედებებისა
05:01
because we can create lots of undesirable circumstances.
118
286000
3000
რადგან ამით ჩვენ შეგვიძლია გამოვიწვიოთ უთვალავი არასასურველი შედეგი.
05:05
I do want to leave you with one positive thought.
119
290000
2000
თუმცა მე არ მინდა რომ დაგტოვოთ თუნდაც ერთი პოზიტიური იედის გარეშე.
05:07
I mean, this is all very depressing, right --
120
292000
2000
ანუ მართალია ეს ყველაფერი ძალიან დეპრესიულია,
05:09
people have conflicts of interest, we don't see it, and so on.
121
294000
3000
ადამიანებს გააჩნიათ ინტერესთა კონფლიქტი, რომელსაც ჩვენ ვერ ვხედავთ და ასე შემდეგ.
05:12
The positive perspective, I think, of all of this
122
297000
2000
თუმცა ამ ყველაფრის დადებითი მხარე ჩემი აზრით
05:14
is that, if we do understand when we go wrong,
123
299000
3000
ის არის, რომ თუ ჩვენ მივხვდებით თუ როდის არ ვიქცევით სწორად,
05:17
if we understand the deep mechanisms
124
302000
2000
და თუკი გავაცნობიერებთ იმ ღრმა მექანიზმს
05:19
of why we fail and where we fail,
125
304000
2000
თუ რატომ და რის გამო ვუშვებთ შეცდომებს
05:21
we can actually hope to fix things.
126
306000
2000
მაშინ შეგვიძლია კიდეც რომ იმედი ვიქონიოთ მათი გამოსწორების.
05:23
And that, I think, is the hope. Thank you very much.
127
308000
2000
და აი ეს კი ჩემი აზრით სწორედ რომ იმედის მომცემია.დიდ მადლობა.
05:25
(Applause)
128
310000
4000
(აპლოდისმენდები)
Translated by Amiran Makaradze
Reviewed by Michael Kaulashvili

▲Back to top

ABOUT THE SPEAKER
Dan Ariely - Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why.

Why you should listen

Dan Ariely is a professor of psychology and behavioral economics at Duke University and a founding member of the Center for Advanced Hindsight. He is the author of the bestsellers Predictably IrrationalThe Upside of Irrationality, and The Honest Truth About Dishonesty -- as well as the TED Book Payoff: The Hidden Logic that Shapes Our Motivations.

Through his research and his (often amusing and unorthodox) experiments, he questions the forces that influence human behavior and the irrational ways in which we often all behave.

More profile about the speaker
Dan Ariely | Speaker | TED.com