ABOUT THE SPEAKER
Dan Ariely - Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why.

Why you should listen

Dan Ariely is a professor of psychology and behavioral economics at Duke University and a founding member of the Center for Advanced Hindsight. He is the author of the bestsellers Predictably IrrationalThe Upside of Irrationality, and The Honest Truth About Dishonesty -- as well as the TED Book Payoff: The Hidden Logic that Shapes Our Motivations.

Through his research and his (often amusing and unorthodox) experiments, he questions the forces that influence human behavior and the irrational ways in which we often all behave.

More profile about the speaker
Dan Ariely | Speaker | TED.com
TED2011

Dan Ariely: Beware conflicts of interest

Dan Ariely : Attention aux conflits d'intérêts

Filmed:
1,284,831 views

Dans cette brève conférence, le psychologue Dan Ariely raconte deux histoires personnelles explorant le conflit scientifique d'intérêt : comment la recherche de la connaissance et la compréhension peuvent être affectées, consciemment ou pas, par des objectifs personnels inconsidérés. Quand nous réfléchissons aux grandes questions, nous rappelle-t-il, soyons conscients de nos cerveaux bien trop humains.
- Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why. Full bio

Double-click the English transcript below to play the video.

00:16
So, I was in the hospitalhôpital for a long time.
0
1000
3000
J'ai passé beaucoup de temps à l'hôpital.
00:19
And a fewpeu yearsannées after I left, I wentest allé back,
1
4000
3000
Et quelques années après en être sorti, j'y suis retourné,
00:22
and the chairmanprésident of the burnbrûler departmentdépartement was very excitedexcité to see me --
2
7000
3000
et le chef du service des brûlés était très excité de me voir.
00:25
said, "DanDan, I have a fantasticfantastique newNouveau treatmenttraitement for you."
3
10000
3000
Il a dit : "Dan, j'ai un nouveau traitement fantastique pour vous."
00:28
I was very excitedexcité. I walkedmarcha with him to his officeBureau.
4
13000
2000
J'étais très emballé. Je l'ai accompagné jusqu'à son bureau.
00:30
And he explainedexpliqué to me that, when I shavese raser,
5
15000
3000
Et il m'a expliqué que, quand je me rase,
00:33
I have little blacknoir dotspoints on the left sidecôté of my facevisage where the haircheveux is,
6
18000
3000
j'ai des petits points noirs sur le côté gauche de mon visage là où il y a des poils,
00:36
but on the right sidecôté of my facevisage
7
21000
2000
mais sur le côté droit de mon visage,
00:38
I was badlymal burnedbrûlé so I have no haircheveux,
8
23000
2000
j'ai été gravement brûlé donc je n'ai pas de poils,
00:40
and this createscrée lackmanquer de of symmetrysymétrie.
9
25000
2000
et cela crée une dissymétrie.
00:42
And what's the brilliantbrillant ideaidée he had?
10
27000
2000
Et quelle brillante idée a-t-il eue ?
00:44
He was going to tattootatouage little blacknoir dotspoints
11
29000
2000
Il allait tatouer de petits points noirs
00:46
on the right sidecôté of my facevisage
12
31000
3000
sur le côté droit de mon visage
00:49
and make me look very symmetricsymétrique.
13
34000
2000
pour me donner un aspect symétrique.
00:51
It soundedsonné interestingintéressant. He askeda demandé me to go and shavese raser.
14
36000
3000
Ça avait l'air intéressant. Il m'a demandé d'aller me raser.
00:54
Let me tell you, this was a strangeétrange way to shavese raser,
15
39000
2000
Je dois vous dire que c'était une étrange façon de se raser,
00:56
because I thought about it
16
41000
2000
parce que j'y réfléchissais
00:58
and I realizedréalisé that the way I was shavingrasage then
17
43000
2000
et je me suis rendu compte que la façon dont je me rasais à ce moment-là
01:00
would be the way I would shavese raser for the restdu repos of my life --
18
45000
2000
serait la même pour le reste de ma vie,
01:02
because I had to keep the widthlargeur the sameMême.
19
47000
2000
parce que je devais conserver la même largeur.
01:04
When I got back to his officeBureau,
20
49000
2000
Quand je suis rentré dans son bureau,
01:06
I wasn'tn'était pas really sure.
21
51000
2000
je n'étais pas très sûr.
01:08
I said, "Can I see some evidencepreuve for this?"
22
53000
2000
J'ai dit : "Je peux voir des preuves de cette technique ?"
01:10
So he showedmontré me some picturesdes photos
23
55000
2000
Alors il m'a montré des images
01:12
of little cheeksjoues with little blacknoir dotspoints --
24
57000
2000
de petites joues avec des petits points noirs,
01:14
not very informativeinformative.
25
59000
2000
ça ne m'en disait pas long.
01:16
I said, "What happensarrive when I growcroître olderplus âgée and my haircheveux becomesdevient whiteblanc?
26
61000
2000
J'ai dit : "Qu'est-ce qui se passe quand je vieillis et que mes poils blanchissent ?
01:18
What would happense produire then?"
27
63000
2000
Que va-t-il se passer ?"
01:20
"Oh, don't worryinquiéter about it," he said.
28
65000
2000
"Oh, ne vous inquiétez pas pour ça", a-t-il dit.
01:22
"We have laserslasers; we can whitenblanchir it out."
29
67000
3000
"Nous avons des lasers ; nous pouvons les blanchir."
01:25
But I was still concernedconcerné,
30
70000
2000
Mais j'étais encore inquiet,
01:27
so I said, "You know what, I'm not going to do it."
31
72000
3000
alors j'ai dit : "Vous savez quoi, je ne vais pas le faire."
01:30
And then camevenu one of the biggestplus grand guiltculpabilité tripsvoyages of my life.
32
75000
4000
Et alors j'ai subi une tentative de culpabilisation comme rarement.
01:34
This is comingvenir from a JewishJuif guy, all right, so that meansveux dire a lot.
33
79000
3000
Et c'est un juif qui vous le dit, alors ça veut dire beaucoup.
01:37
(LaughterRires)
34
82000
2000
(Rires)
01:39
And he said, "DanDan, what's wrongfaux with you?
35
84000
3000
Et il a dit : " Dan, qu'est-ce qui ne va pas ?
01:42
Do you enjoyprendre plaisir looking non-symmetricnon symétrique?
36
87000
2000
Ça te plait d'avoir l'air dissymétrique ?
01:44
Do you have some kindgentil of pervertedpervers pleasureplaisir from this?
37
89000
5000
Est-ce que ça te procure une sorte de plaisir tordu ?
01:49
Do womenfemmes feel pitydommage for you
38
94000
2000
Est-ce que les femmes ont pitié de toi
01:51
and have sexsexe with you more frequentlyfréquemment?"
39
96000
3000
et couchent avec toi plus souvent ?"
01:54
NoneAucun of those happenedarrivé.
40
99000
3000
Rien de tout ça ne s'est passé.
01:58
And this was very surprisingsurprenant to me,
41
103000
2000
Et ça m'a beaucoup surpris,
02:00
because I've gonedisparu throughpar manybeaucoup treatmentstraitements --
42
105000
2000
parce que j'ai suivi de nombreux traitements,
02:02
there were manybeaucoup treatmentstraitements I decideddécidé not to do --
43
107000
2000
il y a eu beaucoup de traitements que j'ai refusé de suivre,
02:04
and I never got this guiltculpabilité tripvoyage to this extentampleur.
44
109000
2000
et on ne m'a jamais autant essayé de me faire culpabiliser.
02:06
But I decideddécidé not to have this treatmenttraitement.
45
111000
2000
Mais j'ai décidé de ne pas suivre ce traitement.
02:08
And I wentest allé to his deputyadjoint and askeda demandé him, "What was going on?
46
113000
2000
Et je suis allé trouver son adjoint et je lui ai demandé : "Qu'est-ce qui se passe ?
02:10
Where was this guiltculpabilité tripvoyage comingvenir from?"
47
115000
2000
D'où vient cette tentative de culpabilisation ?"
02:12
And he explainedexpliqué that they have doneterminé this procedureprocédure on two patientsles patients alreadydéjà,
48
117000
4000
Et il a expliqué qu'ils avaient déjà appliqué cette procédure sur deux patients,
02:16
and they need the thirdtroisième patientpatient for a paperpapier they were writingl'écriture.
49
121000
3000
et il leur fallait un troisième patient pour l'article qu'ils étaient en train d'écrire.
02:19
(LaughterRires)
50
124000
2000
(Rires)
02:21
Now you probablyProbablement think that this guy'sles gars a schmuckSchmuck.
51
126000
2000
Maintenant vous pensez probablement que ce type est un con.
02:23
Right, that's what he seemssemble like.
52
128000
2000
Bien, il en a l'air.
02:25
But let me give you a differentdifférent perspectivela perspective on the sameMême storyrécit.
53
130000
3000
Mais laissez-moi vous donner une perspective différente de la même histoire.
02:28
A fewpeu yearsannées agodepuis, I was runningfonctionnement some of my ownposséder experimentsexpériences in the lablaboratoire.
54
133000
3000
Il y a quelques années, je faisais moi-même des expériences au laboratoire.
02:31
And when we runcourir experimentsexpériences,
55
136000
2000
Et quand nous faisons des expériences,
02:33
we usuallyd'habitude hopeespérer that one groupgroupe will behavese comporter differentlydifféremment than anotherun autre.
56
138000
3000
en général nous espérons qu'un groupe se comportera différemment de l'autre.
02:36
So we had one groupgroupe that I hopedespéré theirleur performanceperformance would be very highhaute,
57
141000
3000
Nous avions donc un groupe dont j'espérais que les performances seraient très élevées,
02:39
anotherun autre groupgroupe that I thought theirleur performanceperformance would be very lowfaible,
58
144000
3000
un autre groupe dont je pensais qu'elles seraient très faibles.
02:42
and when I got the resultsrésultats, that's what we got --
59
147000
2000
Et quand j'ai eu les résultats, c'est ce que nous avons obtenu
02:44
I was very happycontent -- asidede côté from one personla personne.
60
149000
3000
(j'étais très content), excepté une personne.
02:47
There was one personla personne in the groupgroupe
61
152000
2000
Il y avait une personne dans le groupe
02:49
that was supposedsupposé to have very highhaute performanceperformance
62
154000
2000
qui était supposé avoir de très hautes performances,
02:51
that was actuallyréellement performingeffectuer terriblyterriblement.
63
156000
2000
qui en fait en avait de très mauvaises.
02:53
And he pulledtiré the wholeentier mean down,
64
158000
2000
E il faisait baisser la moyenne,
02:55
destroyingdétruire my statisticalstatistique significanceimportance of the testtester.
65
160000
3000
et détruisait la significativité statistique de mon test.
02:59
So I lookedregardé carefullysoigneusement at this guy.
66
164000
2000
Alors j'ai soigneusement examiné ce type.
03:01
He was 20-some-certains yearsannées olderplus âgée than anybodyn'importe qui elseautre in the sampleéchantillon.
67
166000
3000
Il avait 20 et quelques années de plus que tous les autres dans l'échantillon.
03:04
And I rememberedsouvenir that the oldvieux and drunkenivre guy
68
169000
2000
Et je me suis souvenu que le vieux poivrot
03:06
camevenu one day to the lablaboratoire
69
171000
2000
était venu un jour au labo
03:08
wantingvouloir to make some easyfacile cashen espèces
70
173000
2000
en voulant gagner de l'argent facilement
03:10
and this was the guy.
71
175000
2000
et c'était ce type.
03:12
"FantasticFantastique!" I thought. "Let's throwjeter him out.
72
177000
2000
J'ai pensé : "Fantastique ! Virons-le.
03:14
Who would ever includecomprendre a drunkenivre guy in a sampleéchantillon?"
73
179000
3000
Qui inclurait un poivrot dans un échantillon ?"
03:17
But a couplecouple of daysjournées laterplus tard,
74
182000
2000
Mais deux ou trois jours plus tard,
03:19
we thought about it with my studentsélèves,
75
184000
2000
mes étudiants et moi y avons réfléchi
03:21
and we said, "What would have happenedarrivé if this drunkenivre guy was not in that conditioncondition?
76
186000
3000
et nous avons dit : "Que se serait-il passé si ce poivrot n'était pas dans cette condition ?
03:24
What would have happenedarrivé if he was in the other groupgroupe?
77
189000
2000
Que se serait-il passé s'il avait été dans l'autre groupe ?
03:26
Would we have thrownjeté him out then?"
78
191000
2000
L'aurions-nous viré alors ?"
03:28
We probablyProbablement wouldn'tne serait pas have lookedregardé at the dataLes données at all,
79
193000
2000
Nous n'aurions probablement pas examiné du tout les données,
03:30
and if we did look at the dataLes données,
80
195000
2000
et si nous les avions regardées,
03:32
we'dmer probablyProbablement have said, "FantasticFantastique! What a smartintelligent guy who is performingeffectuer this lowfaible,"
81
197000
3000
nous aurions probablement dit : "Fantastique ! Quel type intelligent qui a des performances si basses",
03:35
because he would have pulledtiré the mean of the groupgroupe lowerinférieur,
82
200000
2000
parce qu'il aurait fait baisser la moyenne du groupe
03:37
givingdonnant us even strongerplus forte statisticalstatistique resultsrésultats than we could.
83
202000
3000
en nous donnant des résultats statistiques encore plus forts.
03:41
So we decideddécidé not to throwjeter the guy out and to rerunrediffusion the experimentexpérience.
84
206000
3000
Alors nous avons décidé de ne pas virer ce type et de refaire l'expérience.
03:44
But you know, these storieshistoires,
85
209000
3000
Mais vous savez, ces histoires,
03:47
and lots of other experimentsexpériences that we'venous avons doneterminé on conflictsconflits of interestintérêt,
86
212000
3000
et beaucoup d'autres expériences que j'ai faites sur les conflits d'intérêts,
03:50
basicallyen gros kindgentil of bringapporter two pointspoints
87
215000
2000
mettent en évidence en gros
03:52
to the foregroundpremier plan for me.
88
217000
2000
deux points selon moi.
03:54
The first one is that in life we encounterrencontre manybeaucoup people
89
219000
3000
Le premier point est que dans la vie nous rencontrons beaucoup de gens
03:57
who, in some way or anotherun autre,
90
222000
3000
qui, d'une manière ou d'une autre,
04:00
try to tattootatouage our facesvisages.
91
225000
2000
essayent de nous tatouer le visage.
04:02
They just have the incentivesmesures incitatives that get them to be blindedaveuglé to realityréalité
92
227000
3000
Ils ont simplement des motivations qui les amènent à être aveuglés par la réalité
04:05
and give us adviceConseil that is inherentlyintrinsèquement biasedbiaisé.
93
230000
3000
et nous donnent des conseils qui manquent intrinsèquement d'objectivité.
04:08
And I'm sure that it's something that we all recognizereconnaître,
94
233000
2000
Et je suis sûr que c'est une chose que nous reconnaissons tous,
04:10
and we see that it happensarrive.
95
235000
2000
et nous voyons que ça arrive.
04:12
Maybe we don't recognizereconnaître it everychaque time,
96
237000
2000
Nous ne le reconnaissons peut-être pas à tous les coups,
04:14
but we understandcomprendre that it happensarrive.
97
239000
2000
mais nous comprenons que ça arrive.
04:16
The mostles plus difficultdifficile thing, of coursecours, is to recognizereconnaître
98
241000
2000
Le plus difficile, bien sûr, c'est de reconnaître
04:18
that sometimesparfois we too
99
243000
2000
que parfois, nous aussi,
04:20
are blindedaveuglé by our ownposséder incentivesmesures incitatives.
100
245000
2000
nous sommes aveuglés par nos propres motivations.
04:22
And that's a much, much more difficultdifficile lessonleçon to take into accountCompte.
101
247000
3000
Et c'est une leçon vraiment bien plus difficile à prendre en compte.
04:25
Because we don't see how conflictsconflits of interestintérêt work on us.
102
250000
4000
Parce que nous ne voyons pas comment les conflits d'intérêt opèrent sur nous.
04:29
When I was doing these experimentsexpériences,
103
254000
2000
Quand je faisais ces expériences,
04:31
in my mindesprit, I was helpingportion sciencescience.
104
256000
2000
pour moi, j'aidais la science.
04:33
I was eliminatingéliminer the dataLes données
105
258000
2000
J'éliminais les données
04:35
to get the truevrai patternmodèle of the dataLes données to shineéclat throughpar.
106
260000
2000
pour révéler le vrai modèle des données.
04:37
I wasn'tn'était pas doing something badmal.
107
262000
2000
Je ne faisais rien de mal.
04:39
In my mindesprit, I was actuallyréellement a knightChevalier
108
264000
2000
Pour moi, j'étais en fait un chevalier
04:41
tryingen essayant to help sciencescience movebouge toi alongle long de.
109
266000
2000
qui essayait de faire avancer la science.
04:43
But this was not the caseCas.
110
268000
2000
Mais ce n'était pas le cas.
04:45
I was actuallyréellement interferinginterférer with the processprocessus with lots of good intentionsintentions.
111
270000
3000
En fait, j'interférais avec le processus avec beaucoup de bonnes intentions.
04:48
And I think the realréal challengedéfi is to figurefigure out
112
273000
2000
Et je pense que le vrai problème est de trouver
04:50
where are the casescas in our livesvies
113
275000
2000
quels sont les cas dans nos vies
04:52
where conflictsconflits of interestintérêt work on us,
114
277000
2000
où les conflits d'intérêts opèrent sur nous,
04:54
and try not to trustconfiance our ownposséder intuitionintuition to overcomesurmonter it,
115
279000
3000
et d'essayer de ne pas nous fier à notre propre intuition pour le résoudre,
04:57
but to try to do things
116
282000
2000
mais d'essayer de faire des choses
04:59
that preventprévenir us from fallingchute preyproie to these behaviorscomportements,
117
284000
2000
qui nous empêchent d'être en proie avec ces comportements,
05:01
because we can createcréer lots of undesirableindésirables circumstancesconditions.
118
286000
3000
parce que nous pouvons créer beaucoup de circonstances indésirables.
05:05
I do want to leavelaisser you with one positivepositif thought.
119
290000
2000
Je veux vraiment vous laisser sur une pensée positive.
05:07
I mean, this is all very depressingdéprimant, right --
120
292000
2000
Je veux dire, tout ça est très déprimant,
05:09
people have conflictsconflits of interestintérêt, we don't see it, and so on.
121
294000
3000
les gens ont des conflits d'intérêt, nous ne le voyons pas et ainsi de suite.
05:12
The positivepositif perspectivela perspective, I think, of all of this
122
297000
2000
La perspective positive, je pense, de tout ça
05:14
is that, if we do understandcomprendre when we go wrongfaux,
123
299000
3000
est que, si nous comprenons vraiment où nous commettons une erreur,
05:17
if we understandcomprendre the deepProfond mechanismsmécanismes
124
302000
2000
si nous comprenons les mécanismes profonds
05:19
of why we failéchouer and where we failéchouer,
125
304000
2000
de pourquoi et où nous échouons,
05:21
we can actuallyréellement hopeespérer to fixréparer things.
126
306000
2000
nous pouvons vraiment espérer réparer les choses.
05:23
And that, I think, is the hopeespérer. Thank you very much.
127
308000
2000
Et je pense que l'espoir est là. Merci beaucoup.
05:25
(ApplauseApplaudissements)
128
310000
4000
(Applaudissements)
Translated by Elisabeth Buffard
Reviewed by Amélie Gourdon

▲Back to top

ABOUT THE SPEAKER
Dan Ariely - Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why.

Why you should listen

Dan Ariely is a professor of psychology and behavioral economics at Duke University and a founding member of the Center for Advanced Hindsight. He is the author of the bestsellers Predictably IrrationalThe Upside of Irrationality, and The Honest Truth About Dishonesty -- as well as the TED Book Payoff: The Hidden Logic that Shapes Our Motivations.

Through his research and his (often amusing and unorthodox) experiments, he questions the forces that influence human behavior and the irrational ways in which we often all behave.

More profile about the speaker
Dan Ariely | Speaker | TED.com