ABOUT THE SPEAKER
Dan Ariely - Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why.

Why you should listen

Dan Ariely is a professor of psychology and behavioral economics at Duke University and a founding member of the Center for Advanced Hindsight. He is the author of the bestsellers Predictably IrrationalThe Upside of Irrationality, and The Honest Truth About Dishonesty -- as well as the TED Book Payoff: The Hidden Logic that Shapes Our Motivations.

Through his research and his (often amusing and unorthodox) experiments, he questions the forces that influence human behavior and the irrational ways in which we often all behave.

More profile about the speaker
Dan Ariely | Speaker | TED.com
TED2011

Dan Ariely: Beware conflicts of interest

Dan Ariely: Strzeżcie się konfliktów interesów

Filmed:
1,284,831 views

W tym krótkim wykładzie, psycholog Dan Ariely opowiada dwie osobiste historie, które uwidaczniają naukowe konflikty interesów: Jak głód wiedzy i wgląd mogą być upośledzone, świadomie lub nie, przez krótkowzroczne cele osobiste. Kiedy myślimy o wielkich kwestiach, przypomina nam Ariely, bądźmy świadomi naszych ludzkich mózgów.
- Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why. Full bio

Double-click the English transcript below to play the video.

00:16
So, I was in the hospitalszpital for a long time.
0
1000
3000
Przebywałem w szpitalu przez długi czas.
00:19
And a fewkilka yearslat after I left, I wentposzedł back,
1
4000
3000
Kilka lat po jego opuszczeniu wróciłem tam.
00:22
and the chairmanprzewodniczący of the burnpalić się departmentdepartament was very excitedpodekscytowany to see me --
2
7000
3000
Ordynator oddziału oparzeń był podekscytowany widząc mnie.
00:25
said, "DanDan, I have a fantasticfantastyczny newNowy treatmentleczenie for you."
3
10000
3000
Powiedział: "Dan, mam dla ciebie fantastyczną terapię."
00:28
I was very excitedpodekscytowany. I walkedchodził with him to his officegabinet.
4
13000
2000
Ucieszyłem się i wszedłem z nim do gabinetu.
00:30
And he explainedwyjaśnione to me that, when I shavegolenie,
5
15000
3000
Wyjaśnił mi, że kiedy się golę
00:33
I have little blackczarny dotskropki on the left sidebok of my facetwarz where the hairwłosy is,
6
18000
3000
mam czarne punkty po lewej stronie twarzy tam, gdzie są włosy,
00:36
but on the right sidebok of my facetwarz
7
21000
2000
ale po prawej stronie miałem oparzenie,
00:38
I was badlyźle burnedspalony so I have no hairwłosy,
8
23000
2000
więc nie mam tam włosów
00:40
and this createstworzy lackbrak of symmetrySymetria.
9
25000
2000
i to tworzy brak symetrii.
00:42
And what's the brilliantznakomity ideapomysł he had?
10
27000
2000
Jaki więc miał pomysł?
00:44
He was going to tattootatuaż little blackczarny dotskropki
11
29000
2000
Chciał wytatuować małe czarne kropki
00:46
on the right sidebok of my facetwarz
12
31000
3000
po prawej stronie mojej twarzy
00:49
and make me look very symmetricsymetryczny.
13
34000
2000
żebym wyglądał symetrycznie.
00:51
It soundedbrzmiało interestingciekawy. He askedspytał me to go and shavegolenie.
14
36000
3000
Poprosił mnie żebym się ogolił.
00:54
Let me tell you, this was a strangedziwne way to shavegolenie,
15
39000
2000
Był to dziwny sposób golenia,
00:56
because I thought about it
16
41000
2000
bo myśląc o tym zrozumiałem,
00:58
and I realizedrealizowany that the way I was shavinggolenie then
17
43000
2000
że sposób, w jaki goliłem się wtedy
01:00
would be the way I would shavegolenie for the restodpoczynek of my life --
18
45000
2000
będzie tym, na który będę się golił już zawsze
01:02
because I had to keep the widthszerokość the samepodobnie.
19
47000
2000
żeby utrzymać stałą szerokość.
01:04
When I got back to his officegabinet,
20
49000
2000
Kiedy wróciłem do jego gabinetu
01:06
I wasn'tnie było really sure.
21
51000
2000
nie byłem całkiem przekonany.
01:08
I said, "Can I see some evidencedowód for this?"
22
53000
2000
Zapytałem czy ma jakieś dowody?
01:10
So he showedpokazał me some pictureskino
23
55000
2000
Więc pokazał mi jakieś zdjęcia
01:12
of little cheekspoliczki with little blackczarny dotskropki --
24
57000
2000
policzków z małymi czarnymi kropkami...
01:14
not very informativepouczające.
25
59000
2000
Niezbyt pouczające.
01:16
I said, "What happensdzieje się when I growrosnąć olderstarsze and my hairwłosy becomesstaje się whitebiały?
26
61000
2000
Zapytałem co się stanie gdy posiwieję
01:18
What would happenzdarzyć then?"
27
63000
2000
a moje włosy staną się białe.
01:20
"Oh, don't worrymartwić się about it," he said.
28
65000
2000
Odpowiedział, że to nie problem:
01:22
"We have laserslasery; we can whitenwybielić it out."
29
67000
3000
"Mamy lasery; możemy to wybielić."
01:25
But I was still concernedzaniepokojony,
30
70000
2000
Ale wciąż się martwiłem,
01:27
so I said, "You know what, I'm not going to do it."
31
72000
3000
więc się nie zgodziłem.
01:30
And then cameoprawa ołowiana witrażu one of the biggestnajwiększy guiltpoczucie winy tripswycieczki of my life.
32
75000
4000
Wtedy wpadłem w najgorsze poczucie winy w życiu.
01:34
This is comingprzyjście from a JewishŻydowskie guy, all right, so that meansznaczy a lot.
33
79000
3000
A jako że jestem Żydem, to znaczy całkiem sporo.
01:37
(LaughterŚmiech)
34
82000
2000
(Śmiech)
01:39
And he said, "DanDan, what's wrongźle with you?
35
84000
3000
Zapytał: "Dan, co z tobą nie tak?
01:42
Do you enjoycieszyć się looking non-symmetricsymetryczny?
36
87000
2000
Lubisz wyglądać niesymetrycznie?
01:44
Do you have some kinduprzejmy of pervertedzdemoralizowany pleasureprzyjemność from this?
37
89000
5000
Czerpiesz z tego perwersyjną przyjemność?
01:49
Do womenkobiety feel pityszkoda for you
38
94000
2000
Czy kobiety cię żałują
01:51
and have sexseks with you more frequentlyczęsto?"
39
96000
3000
i częściej uprawiają z tobą seks?"
01:54
NoneBrak of those happenedstało się.
40
99000
3000
Nic takiego się nie działo.
01:58
And this was very surprisingzaskakujący to me,
41
103000
2000
Było dla mnie bardzo zaskakujące,
02:00
because I've goneodszedł throughprzez manywiele treatmentszabiegi --
42
105000
2000
ponieważ przeszedłem wiele terapii,
02:02
there were manywiele treatmentszabiegi I decidedzdecydowany not to do --
43
107000
2000
na inne się nie zdecydowałem
02:04
and I never got this guiltpoczucie winy tripwycieczka to this extentstopień.
44
109000
2000
ale nigdy nie miałem takiego poczucia winy.
02:06
But I decidedzdecydowany not to have this treatmentleczenie.
45
111000
2000
Ale zdecydowałem nie poddawać się temu leczeniu.
02:08
And I wentposzedł to his deputyzastępca and askedspytał him, "What was going on?
46
113000
2000
Zapytałem jego zastępcę "O co tu chodzi?
02:10
Where was this guiltpoczucie winy tripwycieczka comingprzyjście from?"
47
115000
2000
Skąd się bierze to poczucie winy?"
02:12
And he explainedwyjaśnione that they have doneGotowe this procedureprocedura on two patientspacjenci alreadyjuż,
48
117000
4000
Wyjaśnił, że przeprowadzili tę procedurę już na dwóch pacjentach
02:16
and they need the thirdtrzeci patientcierpliwy for a paperpapier they were writingpisanie.
49
121000
3000
i potrzebują trzeciego pacjenta do artykułu, który piszą.
02:19
(LaughterŚmiech)
50
124000
2000
(Śmiech)
02:21
Now you probablyprawdopodobnie think that this guy'sfaceta a schmuckSchmuck.
51
126000
2000
Myślicie pewne, że ten gość jest głupi.
02:23
Right, that's what he seemswydaje się like.
52
128000
2000
To prawda, na to wygląda.
02:25
But let me give you a differentróżne perspectiveperspektywiczny on the samepodobnie storyfabuła.
53
130000
3000
Ale przedstawię wam inne spojrzenie na tę samą historię.
02:28
A fewkilka yearslat agotemu, I was runningbieganie some of my ownwłasny experimentseksperymenty in the lablaboratorium.
54
133000
3000
Kilka lat temu, przeprowadzałem własne
02:31
And when we runbiegać experimentseksperymenty,
55
136000
2000
eksperymenty w laboratorium.
02:33
we usuallyzazwyczaj hopenadzieja that one groupGrupa will behavezachować się differentlyróżnie than anotherinne.
56
138000
3000
Miałem nadzieję, że jedna grupa zachowa się inaczej niż inna.
02:36
So we had one groupGrupa that I hopedmieć nadzieję theirich performancewydajność would be very highwysoki,
57
141000
3000
Była jedna grupa, która miała sobie dobrze radzić
02:39
anotherinne groupGrupa that I thought theirich performancewydajność would be very lowNiska,
58
144000
3000
i druga grupa, która miała sobie radzić bardzo źle.
02:42
and when I got the resultswyniki, that's what we got --
59
147000
2000
Kiedy otrzymałem wyniki, oto co dostałem...
02:44
I was very happyszczęśliwy -- asidena bok from one personosoba.
60
149000
3000
Byłem bardzo szczęśliwy ale jedna osoba nie pasowała.
02:47
There was one personosoba in the groupGrupa
61
152000
2000
Była jedna osoba w grupie,
02:49
that was supposeddomniemany to have very highwysoki performancewydajność
62
154000
2000
która miała sobie radzić świetnie,
02:51
that was actuallytak właściwie performingdziałający terriblyniemożliwie.
63
156000
2000
a w rzeczywistości radziła sobie fatalnie.
02:53
And he pulledciągnięty the wholecały mean down,
64
158000
2000
Ten facet zaniżał mi średnią,
02:55
destroyingniszczenie my statisticalstatystyczny significanceznaczenie of the testtest.
65
160000
3000
niszcząc istotność statystyczną testu.
02:59
So I lookedspojrzał carefullyostrożnie at this guy.
66
164000
2000
Więc dokładnie przyjrzałem się temu gościowi.
03:01
He was 20-some-Niektóre yearslat olderstarsze than anybodyktoś elsejeszcze in the samplepróba.
67
166000
3000
Był o dwadzieścia kilka lat starszy niż reszta.
03:04
And I rememberedzapamiętany that the oldstary and drunkenpijany guy
68
169000
2000
Przypomniałem sobie, że starszy i pijany gość
03:06
cameoprawa ołowiana witrażu one day to the lablaboratorium
69
171000
2000
przyszedł pewnego dnia do laboratorium
03:08
wantingbrakujący to make some easyłatwo cashgotówka
70
173000
2000
chcąc zarobić łatwą kasę
03:10
and this was the guy.
71
175000
2000
i to był ten gość.
03:12
"FantasticFantastyczne!" I thought. "Let's throwrzucać him out.
72
177000
2000
"Fantastycznie!" pomyślałem. "Wyrzućmy go.
03:14
Who would ever includezawierać a drunkenpijany guy in a samplepróba?"
73
179000
3000
Kto by w ogóle włączał pijanego gościa do próby?"
03:17
But a couplepara of daysdni laterpóźniej,
74
182000
2000
Ale kilka dni później,
03:19
we thought about it with my studentsstudenci,
75
184000
2000
myśleliśmy o tym z moimi studentami
03:21
and we said, "What would have happenedstało się if this drunkenpijany guy was not in that conditionstan?
76
186000
3000
i pomyśleliśmy: "Co by się stało, gdyby ten pijany gość
03:24
What would have happenedstało się if he was in the other groupGrupa?
77
189000
2000
był w innej grupie?
03:26
Would we have thrownrzucony him out then?"
78
191000
2000
Kto by go wówczas wyrzucił?"
03:28
We probablyprawdopodobnie wouldn'tnie have lookedspojrzał at the datadane at all,
79
193000
2000
Pewnie wcale nie spojrzelibyśmy na te dane,
03:30
and if we did look at the datadane,
80
195000
2000
a gdybyśmy na nie spojrzeli,
03:32
we'dpoślubić probablyprawdopodobnie have said, "FantasticFantastyczne! What a smartmądry guy who is performingdziałający this lowNiska,"
81
197000
3000
cieszylibyśmy, że radzi sobie tak fatalnie
03:35
because he would have pulledciągnięty the mean of the groupGrupa lowerniższy,
82
200000
2000
ponieważ on ściągałby średnią grupy w dół,
03:37
givingdający us even strongersilniejszy statisticalstatystyczny resultswyniki than we could.
83
202000
3000
dając nam jeszcze sileniejsze wyniki statystyczne.
03:41
So we decidedzdecydowany not to throwrzucać the guy out and to rerunponowne odtworzenie the experimenteksperyment.
84
206000
3000
Nie wyrzuciliśmy go i ponownie przeprowadziliśmy eksperyment.
03:44
But you know, these storieshistorie,
85
209000
3000
Ale wiecie, te historie i inne eksperymenty,
03:47
and lots of other experimentseksperymenty that we'vemamy doneGotowe on conflictskonflikty of interestzainteresowanie,
86
212000
3000
które przeprowadziliśmy o konfliktach interesów,
03:50
basicallygruntownie kinduprzejmy of bringprzynieść two pointszwrotnica
87
215000
2000
wysuwają dwie kwestie
03:52
to the foregroundpierwszoplanowy for me.
88
217000
2000
na pierwszy plan.
03:54
The first one is that in life we encounterspotkanie manywiele people
89
219000
3000
Po pierwsze, w życiu spotykamy wielu ludzi,
03:57
who, in some way or anotherinne,
90
222000
3000
którzy na ten czy inny sposób,
04:00
try to tattootatuaż our facestwarze.
91
225000
2000
chcą nam wytatuować twarze.
04:02
They just have the incentiveszachęt that get them to be blindedzaślepieni to realityrzeczywistość
92
227000
3000
Mają motywy, które sprawiają, że są ślepi na rzeczywistość
04:05
and give us adviceRada that is inherentlywłaściwie biasedstronniczy.
93
230000
3000
i udzielają nam rad, które są z natury stronnicze.
04:08
And I'm sure that it's something that we all recognizerozpoznać,
94
233000
2000
Wszyscy to rozumiemy
04:10
and we see that it happensdzieje się.
95
235000
2000
i zdajemy sobie z tego sprawę.
04:12
Maybe we don't recognizerozpoznać it everykażdy time,
96
237000
2000
Może nie rozpoznajemy tego za każdym razem,
04:14
but we understandzrozumieć that it happensdzieje się.
97
239000
2000
ale rozumiemy, że tak się dzieje.
04:16
The mostwiększość difficulttrudny thing, of coursekurs, is to recognizerozpoznać
98
241000
2000
Najtrudniej jest oczywiście zrozumieć,
04:18
that sometimesczasami we too
99
243000
2000
że czasem my również
04:20
are blindedzaślepieni by our ownwłasny incentiveszachęt.
100
245000
2000
jesteśmy zaślepieni własnymi motywami.
04:22
And that's a much, much more difficulttrudny lessonlekcja to take into accountkonto.
101
247000
3000
To dużo trudniejsze.
04:25
Because we don't see how conflictskonflikty of interestzainteresowanie work on us.
102
250000
4000
Nie widzimy jak konflikty interesów działają na nas.
04:29
When I was doing these experimentseksperymenty,
103
254000
2000
Kiedy przeprowadzałem te eksperymenty,
04:31
in my mindumysł, I was helpingporcja jedzenia sciencenauka.
104
256000
2000
uważałem, że pomagam nauce.
04:33
I was eliminatingeliminowanie the datadane
105
258000
2000
Eliminowałem dane,
04:35
to get the trueprawdziwe patternwzór of the datadane to shineblask throughprzez.
106
260000
2000
by rozbłysła prawdziwa zależność danych.
04:37
I wasn'tnie było doing something badzły.
107
262000
2000
Nie robiłem niczego złego.
04:39
In my mindumysł, I was actuallytak właściwie a knightrycerz
108
264000
2000
Widziałem siebie jako rycerza,
04:41
tryingpróbować to help sciencenauka moveruszaj się alongwzdłuż.
109
266000
2000
który popycha naukę do przodu.
04:43
But this was not the casewalizka.
110
268000
2000
Ale to nie była prawda.
04:45
I was actuallytak właściwie interferingwścibski with the processproces with lots of good intentionsintencje.
111
270000
3000
Ingerowałem w ten proces z masą dobrych intencji.
04:48
And I think the realreal challengewyzwanie is to figurepostać out
112
273000
2000
Najtrudniejszym zadaniem jest zobaczyć
04:50
where are the casesprzypadki in our liveszyje
113
275000
2000
gdzie w naszym życiu są takie przypadki,
04:52
where conflictskonflikty of interestzainteresowanie work on us,
114
277000
2000
gdzie działają na nas konflikty interesów.
04:54
and try not to trustzaufanie our ownwłasny intuitionintuicja to overcomeprzezwyciężać it,
115
279000
3000
Wtedy nie należy ufać własnej intulicji.
04:57
but to try to do things
116
282000
2000
Trzeba robić wszystko,
04:59
that preventzapobiec us from fallingspadanie preyzdobycz to these behaviorszachowania,
117
284000
2000
by nie stać się ofiarą tych zachowań.
05:01
because we can createStwórz lots of undesirableniepożądanych circumstancesokoliczności.
118
286000
3000
Bo stwarzają one wiele niepożądanych okoliczności.
05:05
I do want to leavepozostawiać you with one positivepozytywny thought.
119
290000
2000
Chcę was zostawić z jedną pozytywną myślą.
05:07
I mean, this is all very depressingprzygnębiający, right --
120
292000
2000
To wszystko jest bardzo przygnębiające,
05:09
people have conflictskonflikty of interestzainteresowanie, we don't see it, and so on.
121
294000
3000
ludzie mają konflikty interesów, co trudno zauważyć.
05:12
The positivepozytywny perspectiveperspektywiczny, I think, of all of this
122
297000
2000
Ale pozytywną stroną tego wszystkiego jest to,
05:14
is that, if we do understandzrozumieć when we go wrongźle,
123
299000
3000
że jeśli rozumiemy gdzie popełniamy błąd,
05:17
if we understandzrozumieć the deepgłęboki mechanismsmechanizmy
124
302000
2000
jeśli zrozumiemy głębokie mechanizmy
05:19
of why we failzawieść and where we failzawieść,
125
304000
2000
tego dlaczego i gdzie zawodzimy
05:21
we can actuallytak właściwie hopenadzieja to fixnaprawić things.
126
306000
2000
możemy mieć nadzieję wszystko naprawić.
05:23
And that, I think, is the hopenadzieja. Thank you very much.
127
308000
2000
Bardzo dziękuję.
05:25
(ApplauseAplauz)
128
310000
4000
(Brawa)
Translated by Agata Lesnicka
Reviewed by Kinga Skorupska

▲Back to top

ABOUT THE SPEAKER
Dan Ariely - Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why.

Why you should listen

Dan Ariely is a professor of psychology and behavioral economics at Duke University and a founding member of the Center for Advanced Hindsight. He is the author of the bestsellers Predictably IrrationalThe Upside of Irrationality, and The Honest Truth About Dishonesty -- as well as the TED Book Payoff: The Hidden Logic that Shapes Our Motivations.

Through his research and his (often amusing and unorthodox) experiments, he questions the forces that influence human behavior and the irrational ways in which we often all behave.

More profile about the speaker
Dan Ariely | Speaker | TED.com