ABOUT THE SPEAKER
Dan Ariely - Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why.

Why you should listen

Dan Ariely is a professor of psychology and behavioral economics at Duke University and a founding member of the Center for Advanced Hindsight. He is the author of the bestsellers Predictably IrrationalThe Upside of Irrationality, and The Honest Truth About Dishonesty -- as well as the TED Book Payoff: The Hidden Logic that Shapes Our Motivations.

Through his research and his (often amusing and unorthodox) experiments, he questions the forces that influence human behavior and the irrational ways in which we often all behave.

More profile about the speaker
Dan Ariely | Speaker | TED.com
TED2011

Dan Ariely: Beware conflicts of interest

Dan Ariely: Hüten Sie sich vor Interessenskonflikten

Filmed:
1,284,831 views

In diesem kurzen Vortrag erzählt der Psychologe Dan Ariely zwei persönliche Geschichten, die Interessenskonflikte im wissenschaftlichen Bereich aufzeigen: Wie das Streben nach Wissen und Einsicht bewusst oder unbewusst durch kurzsichtige persönliche Ziele beeinflusst werden kann. Er ermahnt uns dazu, uns unseres all zu menschlichen Gehirns bewusst zu sein, wenn wir über wichtige Fragen nachdenken.
- Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why. Full bio

Double-click the English transcript below to play the video.

00:16
So, I was in the hospitalKrankenhaus for a long time.
0
1000
3000
Also, ich war lange Zeit im Krankenhaus.
00:19
And a fewwenige yearsJahre after I left, I wentging back,
1
4000
3000
Und ein paar Jahre nach der Entlassung kehrte ich zurück,
00:22
and the chairmanVorsitzende of the burnbrennen departmentAbteilung was very excitedaufgeregt to see me --
2
7000
3000
und der Vorstand der Abteilung für Brandverletzungen freute sich sehr, mich zu sehen --
00:25
said, "DanDan, I have a fantasticfantastisch newneu treatmentBehandlung for you."
3
10000
3000
er sagte: "Dan, ich habe eine fantastische neue Behandlung für Sie."
00:28
I was very excitedaufgeregt. I walkedging with him to his officeBüro.
4
13000
2000
Ich war sehr aufgeregt und folgte ihm in sein Büro.
00:30
And he explainederklärt to me that, when I shaveRasur,
5
15000
3000
Und er erklärte mir, dass ich, wenn ich mich rasiere,
00:33
I have little blackschwarz dotsPunkte on the left sideSeite of my faceGesicht where the hairHaar is,
6
18000
3000
auf der linken Seite meines Gesichts schwarze Punkte habe, wo das Haar ist,
00:36
but on the right sideSeite of my faceGesicht
7
21000
2000
aber auf der rechten Gesichtshälfte
00:38
I was badlyschlecht burnedverbrannt so I have no hairHaar,
8
23000
2000
hatte ich starke Verbrennungen und daher kein Haar,
00:40
and this createserstellt lackMangel of symmetrySymmetrie.
9
25000
2000
und das erzeugt eine symmetrische Ungleichheit.
00:42
And what's the brilliantGenial ideaIdee he had?
10
27000
2000
Und was war seine brillante Idee?
00:44
He was going to tattooTattoo little blackschwarz dotsPunkte
11
29000
2000
Er würde mir kleine schwarze Punkte
00:46
on the right sideSeite of my faceGesicht
12
31000
3000
auf die rechte Seite meines Gesichts tätowieren
00:49
and make me look very symmetricsymmetrische.
13
34000
2000
und mein Aussehen sehr symmetrisch machen.
00:51
It soundedklang interestinginteressant. He askedaufgefordert me to go and shaveRasur.
14
36000
3000
Es klang interessant. Er bat mich, mich rasieren zu gehen.
00:54
Let me tell you, this was a strangekomisch way to shaveRasur,
15
39000
2000
Ich muss sagen, dass das eine seltsame Rasur war,
00:56
because I thought about it
16
41000
2000
weil ich dabei darüber nachdachte
00:58
and I realizedrealisiert that the way I was shavingRasur then
17
43000
2000
und erkannte, dass die Art, wie ich mich gerade rasierte,
01:00
would be the way I would shaveRasur for the restsich ausruhen of my life --
18
45000
2000
die Art sein würde, auf die ich mich dann den Rest meines Lebens rasieren würde --
01:02
because I had to keep the widthBreite the samegleich.
19
47000
2000
weil ich die Breite gleich halten müsste.
01:04
When I got back to his officeBüro,
20
49000
2000
Als ich in sein Büro zurückkehrte,
01:06
I wasn'twar nicht really sure.
21
51000
2000
war ich mir nicht ganz sicher.
01:08
I said, "Can I see some evidenceBeweise for this?"
22
53000
2000
Ich sagte: "Kann ich dafür Belege sehen?"
01:10
So he showedzeigte me some picturesBilder
23
55000
2000
Also zeigte er mir ein paar Bilder
01:12
of little cheeksWangen with little blackschwarz dotsPunkte --
24
57000
2000
kleiner Wangen mit kleinen schwarzen Punkten --
01:14
not very informativeinformative.
25
59000
2000
nicht sehr informativ.
01:16
I said, "What happensdas passiert when I growgrößer werden olderälter and my hairHaar becomeswird whiteWeiß?
26
61000
2000
Ich sagte: "Was geschieht, wenn ich älter werde und mein Haar weiß wird?
01:18
What would happengeschehen then?"
27
63000
2000
Was würde dann geschehen?"
01:20
"Oh, don't worrySorge about it," he said.
28
65000
2000
"Oh, darüber müssen Sie sich keine Sorgen machen", sagte er.
01:22
"We have lasersLasern; we can whitenBleichen it out."
29
67000
3000
"Wir haben Laser, wir können es ausbleichen."
01:25
But I was still concernedbesorgt,
30
70000
2000
Aber ich hatte noch immer Zweifel,
01:27
so I said, "You know what, I'm not going to do it."
31
72000
3000
also sagte ich: "Wissen Sie was, ich werde es nicht tun."
01:30
And then camekam one of the biggestgrößte guiltSchuld tripsReisen of my life.
32
75000
4000
Und dann kamen die heftigsten Schuldzuweisungen meines Lebens.
01:34
This is comingKommen from a JewishJüdische guy, all right, so that meansmeint a lot.
33
79000
3000
Und das sagte ein jüdischer Mann, also heißt das sehr viel.
01:37
(LaughterLachen)
34
82000
2000
(Lachen)
01:39
And he said, "DanDan, what's wrongfalsch with you?
35
84000
3000
Und er sagte: "Dan, was stimmt nicht mit Ihnen?
01:42
Do you enjoygenießen looking non-symmetricnicht-symmetrische?
36
87000
2000
Gefällt es Ihnen, asymmetrisch auszusehen?
01:44
Do you have some kindArt of pervertedpervertiert pleasureVergnügen from this?
37
89000
5000
Haben Sie eine Art perverses Vergnügen daran?
01:49
Do womenFrau feel pitySchade for you
38
94000
2000
Haben Frauen Mitleid mit Ihnen
01:51
and have sexSex with you more frequentlyhäufig?"
39
96000
3000
und schlafen häufiger mit Ihnen?"
01:54
NoneKeine of those happenedpassiert.
40
99000
3000
Nichts davon traf zu.
01:58
And this was very surprisingüberraschend to me,
41
103000
2000
Und das hat mich sehr überrascht,
02:00
because I've goneWeg throughdurch manyviele treatmentsBehandlungen --
42
105000
2000
weil ich viele Behandlungen hinter mir habe --
02:02
there were manyviele treatmentsBehandlungen I decidedbeschlossen not to do --
43
107000
2000
es gab viele Behandlungen, gegen die ich mich entschieden hatte --
02:04
and I never got this guiltSchuld tripAusflug to this extentUmfang.
44
109000
2000
und nie wollte mir jemand in diesem Ausmaß Schuldgefühle bereiten.
02:06
But I decidedbeschlossen not to have this treatmentBehandlung.
45
111000
2000
Aber ich habe mich gegen diese Behandlung entschieden.
02:08
And I wentging to his deputystellvertretende and askedaufgefordert him, "What was going on?
46
113000
2000
Und ich ging zu seinem Stellvertreter und fragte: "Was ist hier los?
02:10
Where was this guiltSchuld tripAusflug comingKommen from?"
47
115000
2000
Woher kommen diese Schuldzuweisungen?"
02:12
And he explainederklärt that they have doneerledigt this procedureVerfahren on two patientsPatienten alreadybereits,
48
117000
4000
Und er erklärte mir, dass sie dieses Verfahren bereits bei zwei Patienten angewandt hatten,
02:16
and they need the thirddritte patientgeduldig for a paperPapier- they were writingSchreiben.
49
121000
3000
und dass sie einen dritten Patient für einen Artikel brauchten, den sie schrieben.
02:19
(LaughterLachen)
50
124000
2000
(Lachen)
02:21
Now you probablywahrscheinlich think that this guy'sJungs a schmuckSchmuck.
51
126000
2000
Nun denken Sie wahrscheinlich, dass dieser Typ ein Schmock ist.
02:23
Right, that's what he seemsscheint like.
52
128000
2000
Genau diesen Eindruck macht er.
02:25
But let me give you a differentanders perspectivePerspektive on the samegleich storyGeschichte.
53
130000
3000
Aber lassen Sie mich Ihnen eine andere Sicht auf die gleiche Geschichte geben.
02:28
A fewwenige yearsJahre agovor, I was runningLaufen some of my ownbesitzen experimentsExperimente in the labLabor.
54
133000
3000
Vor ein paar Jahren führte ich einige meiner Experimente im Labor durch.
02:31
And when we runLauf experimentsExperimente,
55
136000
2000
Und bei unseren Experimenten
02:33
we usuallygewöhnlich hopeHoffnung that one groupGruppe will behavesich verhalten differentlyanders than anotherein anderer.
56
138000
3000
hoffen wir normalerweise, dass eine Gruppe sich anders verhält als die andere.
02:36
So we had one groupGruppe that I hopedgehofft theirihr performancePerformance would be very highhoch,
57
141000
3000
Wir hatten also eine Gruppe, bei der ich hoffte, dass ihre Leistung sehr hoch sein würde,
02:39
anotherein anderer groupGruppe that I thought theirihr performancePerformance would be very lowniedrig,
58
144000
3000
eine andere Gruppe, deren Leistung ich als sehr niedrig einschätzte.
02:42
and when I got the resultsErgebnisse, that's what we got --
59
147000
2000
Und als ich die Resultate erhielt, kam genau das heraus --
02:44
I was very happyglücklich -- asidebeiseite from one personPerson.
60
149000
3000
ich war sehr glücklich -- abgesehen von einer Person.
02:47
There was one personPerson in the groupGruppe
61
152000
2000
Es gab in dieser Gruppe eine Person,
02:49
that was supposedsoll to have very highhoch performancePerformance
62
154000
2000
die eine sehr hohe Leistung haben sollte,
02:51
that was actuallytatsächlich performingAufführung terriblyfürchterlich.
63
156000
2000
die in Wirklichkeit aber miserabel abschnitt.
02:53
And he pulledgezogen the wholeganze mean down,
64
158000
2000
Und er senkte den Mittelwert ab
02:55
destroyingzerstörend my statisticalstatistisch significanceBedeutung of the testTest.
65
160000
3000
und zerstörte mir damit die statistische Aussagekraft des Tests.
02:59
So I lookedsah carefullyvorsichtig at this guy.
66
164000
2000
Also sah ich mir diesen Menschen näher an.
03:01
He was 20-some-einige yearsJahre olderälter than anybodyirgendjemand elsesonst in the sampleSample.
67
166000
3000
Er war etwa 20 Jahre älter als die anderen in dieser Gruppe.
03:04
And I rememberedfiel ein that the oldalt and drunkenbetrunkener guy
68
169000
2000
Und ich erinnerte mich, dass der alte und betrunkene Kerl
03:06
camekam one day to the labLabor
69
171000
2000
eines Tages ins Labor kam,
03:08
wantingwollend to make some easyeinfach cashKasse
70
173000
2000
um leichtes Geld zu verdienen,
03:10
and this was the guy.
71
175000
2000
und das war dieser Kerl.
03:12
"FantasticFantastische!" I thought. "Let's throwwerfen him out.
72
177000
2000
"Fantastisch!" dachte ich mir. "Werfen wir ihn hinaus.
03:14
Who would ever includeeinschließen a drunkenbetrunkener guy in a sampleSample?"
73
179000
3000
Wer würde schon einen betrunkenen Kerl in eine Stichprobe aufnehmen?"
03:17
But a couplePaar of daysTage laterspäter,
74
182000
2000
Aber einige Tage später
03:19
we thought about it with my studentsStudenten,
75
184000
2000
dachten wir zusammen mit unseren Studierenden darüber nach
03:21
and we said, "What would have happenedpassiert if this drunkenbetrunkener guy was not in that conditionBedingung?
76
186000
3000
und wir sagten: "Was wäre geschehen, wenn dieser betrunkene Typ nicht in diesem Zustand gewesen wäre?
03:24
What would have happenedpassiert if he was in the other groupGruppe?
77
189000
2000
Was wäre geschehen, wenn er in der anderen Gruppe gewesen wäre?
03:26
Would we have throwngeworfen him out then?"
78
191000
2000
Hätten wir ihn dann hinausgeworfen?"
03:28
We probablywahrscheinlich wouldn'twürde nicht have lookedsah at the dataDaten at all,
79
193000
2000
Wir hätten die Daten wahrscheinlich gar nicht angesehen,
03:30
and if we did look at the dataDaten,
80
195000
2000
und falls wir sie doch angesehen hätten,
03:32
we'dheiraten probablywahrscheinlich have said, "FantasticFantastische! What a smartsmart guy who is performingAufführung this lowniedrig,"
81
197000
3000
hätten wir vermutlich gesagt: "Fantastisch! Was ist das für ein klasse Kerl, der so schlecht abschneidet",
03:35
because he would have pulledgezogen the mean of the groupGruppe lowerniedriger,
82
200000
2000
weil er den Mittelwert der Gruppe heruntergezogen hätte
03:37
givinggeben us even strongerstärker statisticalstatistisch resultsErgebnisse than we could.
83
202000
3000
und uns noch prägnantere statistische Ergebnisse beschert hätte.
03:41
So we decidedbeschlossen not to throwwerfen the guy out and to rerunWiederholung the experimentExperiment.
84
206000
3000
Also beschlossen wir, den Mann nicht hinauszuwerfen und das Experiment zu wiederholen.
03:44
But you know, these storiesGeschichten,
85
209000
3000
Aber wissen Sie, diese Geschichten
03:47
and lots of other experimentsExperimente that we'vewir haben doneerledigt on conflictsKonflikte of interestinteressieren,
86
212000
3000
und viele andere Experimente, die wir zu Interessenskonflikten gemacht haben,
03:50
basicallyGrundsätzlich gilt kindArt of bringbringen two pointsPunkte
87
215000
2000
bringen für mich im Wesentlichen zwei
03:52
to the foregroundVordergrund for me.
88
217000
2000
Dinge in den Vordergrund.
03:54
The first one is that in life we encounterBegegnung manyviele people
89
219000
3000
Das erste ist, dass wir in unserem Leben vielen Menschen begegnen,
03:57
who, in some way or anotherein anderer,
90
222000
3000
die, auf die eine oder andere Weise,
04:00
try to tattooTattoo our facesGesichter.
91
225000
2000
versuchen, unsere Gesichter zu tätowieren.
04:02
They just have the incentivesAnreize that get them to be blindedgeblendet to realityWirklichkeit
92
227000
3000
Sie haben einfach die Anreize, die sie gegenüber der Realität blind machen,
04:05
and give us adviceRat that is inherentlyvon Natur aus biasedvoreingenommen.
93
230000
3000
und sie geben uns Ratschläge, die völlig einseitig sind.
04:08
And I'm sure that it's something that we all recognizeerkenne,
94
233000
2000
Und ich bin mir sicher, das ist etwas, was wir alle kennen,
04:10
and we see that it happensdas passiert.
95
235000
2000
und wir sehen, dass es geschieht.
04:12
Maybe we don't recognizeerkenne it everyjeden time,
96
237000
2000
Vielleicht erkennen wir es nicht jedes Mal,
04:14
but we understandverstehen that it happensdas passiert.
97
239000
2000
aber wir verstehen, dass es geschieht.
04:16
The mostdie meisten difficultschwer thing, of courseKurs, is to recognizeerkenne
98
241000
2000
Die größte Schwierigkeit ist natürlich zu erkennen,
04:18
that sometimesmanchmal we too
99
243000
2000
dass auch wir manchmal
04:20
are blindedgeblendet by our ownbesitzen incentivesAnreize.
100
245000
2000
durch unsere eigenen Motivationen geblendet werden.
04:22
And that's a much, much more difficultschwer lessonLektion to take into accountKonto.
101
247000
3000
Und das ist eine Lektion, der sehr viel schwieriger Rechnung zu tragen ist.
04:25
Because we don't see how conflictsKonflikte of interestinteressieren work on us.
102
250000
4000
Weil wir nicht bemerken, dass wir Interessenskonflikten unterliegen.
04:29
When I was doing these experimentsExperimente,
103
254000
2000
Als ich diese Experimente durchführte,
04:31
in my mindVerstand, I was helpingPortion scienceWissenschaft.
104
256000
2000
habe ich in meiner Vorstellung der Wissenschaft gedient.
04:33
I was eliminatingeliminieren the dataDaten
105
258000
2000
Ich habe Daten entfernt,
04:35
to get the truewahr patternMuster of the dataDaten to shinescheinen throughdurch.
106
260000
2000
um das wahre Muster der Daten transparent zu machen.
04:37
I wasn'twar nicht doing something badschlecht.
107
262000
2000
Ich habe nichts Schlechtes getan.
04:39
In my mindVerstand, I was actuallytatsächlich a knightRitter
108
264000
2000
In Wirklichkeit war ich in meiner Vorstellung ein Ritter,
04:41
tryingversuchen to help scienceWissenschaft moveBewegung alongeine lange.
109
266000
2000
der versuchte, der Wissenschaft zu helfen voranzuschreiten.
04:43
But this was not the caseFall.
110
268000
2000
Aber das war nicht der Fall.
04:45
I was actuallytatsächlich interferingstörend with the processverarbeiten with lots of good intentionsAbsichten.
111
270000
3000
In Wirklichkeit habe ich den Prozess mit jeder Menge guter Absichten gestört.
04:48
And I think the realecht challengeHerausforderung is to figureZahl out
112
273000
2000
Und ich denke, die wirkliche Herausforderung ist es herauszufinden,
04:50
where are the casesFälle in our livesLeben
113
275000
2000
an welchen Stellen in unserem Leben
04:52
where conflictsKonflikte of interestinteressieren work on us,
114
277000
2000
bei uns Interessenskonflikte auftreten,
04:54
and try not to trustVertrauen our ownbesitzen intuitionIntuition to overcomeüberwinden it,
115
279000
3000
und zu versuchen, nicht auf unsere Intuition zu vertrauen, um das zu überwinden,
04:57
but to try to do things
116
282000
2000
und stattdessen zu versuchen, etwas zu tun,
04:59
that preventverhindern us from fallingfallend preyBeute to these behaviorsVerhaltensweisen,
117
284000
2000
das uns davor schützt, diesen Verhaltensmustern zum Opfer zu fallen,
05:01
because we can createerstellen lots of undesirableunerwünschte circumstancesUmstände.
118
286000
3000
weil wir damit viele unerwünschte Umstände schaffen können.
05:05
I do want to leaveverlassen you with one positivepositiv thought.
119
290000
2000
Ich möchte mit einem positiven Gedanken enden.
05:07
I mean, this is all very depressingdeprimierend, right --
120
292000
2000
Ich meine, das ist alles sehr deprimierend, nicht wahr --
05:09
people have conflictsKonflikte of interestinteressieren, we don't see it, and so on.
121
294000
3000
die Leute haben Interessenskonflikte, wir bemerken es nicht, und so weiter.
05:12
The positivepositiv perspectivePerspektive, I think, of all of this
122
297000
2000
Die positive Seite von all dem ist, denke ich,
05:14
is that, if we do understandverstehen when we go wrongfalsch,
123
299000
3000
dass, wenn wir unsere Irrtümer verstehen,
05:17
if we understandverstehen the deeptief mechanismsMechanismen
124
302000
2000
wenn wir die zugrundeliegenden Mechanismen verstehen,
05:19
of why we failScheitern and where we failScheitern,
125
304000
2000
warum wir scheitern und wo wir scheitern,
05:21
we can actuallytatsächlich hopeHoffnung to fixFix things.
126
306000
2000
dass wir dann darauf hoffen können, das richtigzustellen.
05:23
And that, I think, is the hopeHoffnung. Thank you very much.
127
308000
2000
Und das ist, denke ich, die Hoffnung. Vielen Dank.
05:25
(ApplauseApplaus)
128
310000
4000
(Applaus)
Translated by Sabrina Gründlinger
Reviewed by Jessica Klab

▲Back to top

ABOUT THE SPEAKER
Dan Ariely - Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why.

Why you should listen

Dan Ariely is a professor of psychology and behavioral economics at Duke University and a founding member of the Center for Advanced Hindsight. He is the author of the bestsellers Predictably IrrationalThe Upside of Irrationality, and The Honest Truth About Dishonesty -- as well as the TED Book Payoff: The Hidden Logic that Shapes Our Motivations.

Through his research and his (often amusing and unorthodox) experiments, he questions the forces that influence human behavior and the irrational ways in which we often all behave.

More profile about the speaker
Dan Ariely | Speaker | TED.com