ABOUT THE SPEAKER
Dan Ariely - Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why.

Why you should listen

Dan Ariely is a professor of psychology and behavioral economics at Duke University and a founding member of the Center for Advanced Hindsight. He is the author of the bestsellers Predictably IrrationalThe Upside of Irrationality, and The Honest Truth About Dishonesty -- as well as the TED Book Payoff: The Hidden Logic that Shapes Our Motivations.

Through his research and his (often amusing and unorthodox) experiments, he questions the forces that influence human behavior and the irrational ways in which we often all behave.

More profile about the speaker
Dan Ariely | Speaker | TED.com
TED2011

Dan Ariely: Beware conflicts of interest

Dan Ariely : Méfiez-vous des conflits d'intérêt

Filmed:
1,284,831 views

Dans cette brève présentation, le psychologue Dan Ariely raconte deux histoires personnelles qui explorent le conflit d'intérêt scientifique : comment la recherche de la connaissance et de la compréhension peut être affectée, consciemment ou non, par des objectifs personnels immédiats. Il nous rappelle que quand nous pensons en termes de large perspective, il faut nous méfier de nos cerveaux trop humains.
- Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why. Full bio

Double-click the English transcript below to play the video.

00:16
So, I was in the hospital for a long time.
0
1000
3000
Donc je suis resté longtemps à l'hôpital.
00:19
And a few years after I left, I went back,
1
4000
3000
Et quelques années après être sorti, j'y suis retourné,
00:22
and the chairman of the burn department was very excited to see me --
2
7000
3000
et le directeur du service des grands brulés, très excité de me voir
00:25
said, "Dan, I have a fantastic new treatment for you."
3
10000
3000
m'a dit "Dan, j'ai un fantastique nouveau traitement pour vous."
00:28
I was very excited. I walked with him to his office.
4
13000
2000
J'étais très excité. Je l'ai accompagné dans son bureau.
00:30
And he explained to me that, when I shave,
5
15000
3000
Et il m'a expliqué que, quand je me rasais,
00:33
I have little black dots on the left side of my face where the hair is,
6
18000
3000
j'avais de petits points noirs sur le côté gauche de ma figure, là où j'avais des poils,
00:36
but on the right side of my face
7
21000
2000
mais que du côté droit
00:38
I was badly burned so I have no hair,
8
23000
2000
comme j'avais été gravement brûlé, je n'avais pas de poils
00:40
and this creates lack of symmetry.
9
25000
2000
et cela n'était pas symétrique.
00:42
And what's the brilliant idea he had?
10
27000
2000
Et quelle était son idée brillante ?
00:44
He was going to tattoo little black dots
11
29000
2000
Il allait tatouer des petits points noirs
00:46
on the right side of my face
12
31000
3000
sur le côté droit de ma figure
00:49
and make me look very symmetric.
13
34000
2000
pour que j'ai l'air symétrique.
00:51
It sounded interesting. He asked me to go and shave.
14
36000
3000
Ca avait l'air intéressant. Il m'a demandé de me raser.
00:54
Let me tell you, this was a strange way to shave,
15
39000
2000
Laissez moi vous dire que c'était bizarre de se raser comme cela,
00:56
because I thought about it
16
41000
2000
parce que j'y pensais
00:58
and I realized that the way I was shaving then
17
43000
2000
et j'ai réalisé que la façon dont je me rasais
01:00
would be the way I would shave for the rest of my life --
18
45000
2000
était la façon dont j'allais me raser pour le reste de ma vie,
01:02
because I had to keep the width the same.
19
47000
2000
parce qu'il faudrait que je garde les deux côtés égaux.
01:04
When I got back to his office,
20
49000
2000
Quand je suis revenu dans son bureau,
01:06
I wasn't really sure.
21
51000
2000
j'étais indécis.
01:08
I said, "Can I see some evidence for this?"
22
53000
2000
J'ai dit, "Je peux voir des exemples ?"
01:10
So he showed me some pictures
23
55000
2000
Et il m'a montré des photos
01:12
of little cheeks with little black dots --
24
57000
2000
de petites joues avec des petits points noirs,
01:14
not very informative.
25
59000
2000
pas très informatives.
01:16
I said, "What happens when I grow older and my hair becomes white?
26
61000
2000
J'ai dit, "Comment ça se passe quand je vieillis et que mes poils deviennent blancs ?
01:18
What would happen then?"
27
63000
2000
Qu'est-ce qui se passe à ce moment là ?"
01:20
"Oh, don't worry about it," he said.
28
65000
2000
"Oh, ne vous inquiétez pas," me dit-il.
01:22
"We have lasers; we can whiten it out."
29
67000
3000
"Avec les lasers nous pouvons les blanchir."
01:25
But I was still concerned,
30
70000
2000
Mais j'étais encore inquiet,
01:27
so I said, "You know what, I'm not going to do it."
31
72000
3000
alors j'ai dit, "Vous savez quoi, je ne vais pas le faire."
01:30
And then came one of the biggest guilt trips of my life.
32
75000
4000
Et là j'ai eu la plus grande crise de culpabilité de ma vie.
01:34
This is coming from a Jewish guy, all right, so that means a lot.
33
79000
3000
Et c'est un juif qui vous dit ça, alors vous imaginez.
01:37
(Laughter)
34
82000
2000
(Rires)
01:39
And he said, "Dan, what's wrong with you?
35
84000
3000
Et il dit, "Dan, c'est quoi ton problème ?
01:42
Do you enjoy looking non-symmetric?
36
87000
2000
Ca te plait de ne pas être symétrique ?
01:44
Do you have some kind of perverted pleasure from this?
37
89000
5000
Tu y prends un plaisir pervers ?
01:49
Do women feel pity for you
38
94000
2000
Est-ce que les femmes ont pitié de toi
01:51
and have sex with you more frequently?"
39
96000
3000
et couchent plus souvent avec toi ?"
01:54
None of those happened.
40
99000
3000
Rien de tout ça.
01:58
And this was very surprising to me,
41
103000
2000
Et c'était très surprenant pour moi,
02:00
because I've gone through many treatments --
42
105000
2000
parce que j'ai suivi de nombreux traitements,
02:02
there were many treatments I decided not to do --
43
107000
2000
il y a beaucoup de traitements que j'ai décidé de ne pas suivre,
02:04
and I never got this guilt trip to this extent.
44
109000
2000
et je ne me suis jamais senti aussi coupable.
02:06
But I decided not to have this treatment.
45
111000
2000
Mais j'ai décidé de ne pas suivre son traitement.
02:08
And I went to his deputy and asked him, "What was going on?
46
113000
2000
Et j'ai été voir son assistant et je lui ai demandé, "Qu'est-ce qui se passe ?
02:10
Where was this guilt trip coming from?"
47
115000
2000
D'où vient toute cette culpabilité ?"
02:12
And he explained that they have done this procedure on two patients already,
48
117000
4000
Et il m'a expliqué qu'ils avaient déjà effectué cette procédure sur deux patients
02:16
and they need the third patient for a paper they were writing.
49
121000
3000
et qu'il leur en fallait un troisième pour un article qu'ils écrivaient.
02:19
(Laughter)
50
124000
2000
(Rires)
02:21
Now you probably think that this guy's a schmuck.
51
126000
2000
Maintenant vous vous dîtes probablement que ce gars est un crétin.
02:23
Right, that's what he seems like.
52
128000
2000
C'est vrai, il en a l'air.
02:25
But let me give you a different perspective on the same story.
53
130000
3000
Mais laissez moi vous donner une autre perspective de la même histoire.
02:28
A few years ago, I was running some of my own experiments in the lab.
54
133000
3000
Il y a quelques années je faisais des expériences au labo.
02:31
And when we run experiments,
55
136000
2000
Et quand nous faisons des expériences,
02:33
we usually hope that one group will behave differently than another.
56
138000
3000
généralement nous espérons que les groupes vont se comporter différemment.
02:36
So we had one group that I hoped their performance would be very high,
57
141000
3000
Et nous avions un groupe dont j'espérais que la performance serait très élevée,
02:39
another group that I thought their performance would be very low,
58
144000
3000
et un autre groupe dont je pensais que la performance serait basse.
02:42
and when I got the results, that's what we got --
59
147000
2000
Et quand nous avons eu les résultats, c'est ce qui est arrivé,
02:44
I was very happy -- aside from one person.
60
149000
3000
j'étais très content, à part une personne.
02:47
There was one person in the group
61
152000
2000
Il y avait une personne dans le groupe
02:49
that was supposed to have very high performance
62
154000
2000
qui était supposé avoir de bons résultats
02:51
that was actually performing terribly.
63
156000
2000
qui avait en fait des résultants terribles.
02:53
And he pulled the whole mean down,
64
158000
2000
Et il faisait baisser tout le groupe,
02:55
destroying my statistical significance of the test.
65
160000
3000
détruisant la significance statistique du test.
02:59
So I looked carefully at this guy.
66
164000
2000
Alors j'ai bien étudié ce gars.
03:01
He was 20-some years older than anybody else in the sample.
67
166000
3000
Il avait une vingtaine d'années de plus que les autres personnes dans son groupe.
03:04
And I remembered that the old and drunken guy
68
169000
2000
Et je me suis rappelé d'un vieil ivrogne
03:06
came one day to the lab
69
171000
2000
qui était venu au labo un jour
03:08
wanting to make some easy cash
70
173000
2000
pour gagner un peu d'argent
03:10
and this was the guy.
71
175000
2000
et c'était ce type.
03:12
"Fantastic!" I thought. "Let's throw him out.
72
177000
2000
"Génial !" j'ai pensé. "Excluons le.
03:14
Who would ever include a drunken guy in a sample?"
73
179000
3000
Qui inclurait un ivrogne dans un groupe test ?"
03:17
But a couple of days later,
74
182000
2000
Mais quelques jours plus tard,
03:19
we thought about it with my students,
75
184000
2000
nous y avons réfléchi avec mes étudiants,
03:21
and we said, "What would have happened if this drunken guy was not in that condition?
76
186000
3000
et nous nous sommes dit, "Qu'est-ce qui ce serait passé si cet ivrogne n'était pas dans cet état ?"
03:24
What would have happened if he was in the other group?
77
189000
2000
Qu'est-ce qui se serait passé si il avait été dans l'autre groupe ?
03:26
Would we have thrown him out then?"
78
191000
2000
Est-ce qu'on l'aurait exclu dans ce cas ?"
03:28
We probably wouldn't have looked at the data at all,
79
193000
2000
On n'aurait probablement pas regardé du tout aux données,
03:30
and if we did look at the data,
80
195000
2000
et si on avait regardé les données,
03:32
we'd probably have said, "Fantastic! What a smart guy who is performing this low,"
81
197000
3000
nous nous serions surement dit, "Fantastique ! Quel homme intelligent qui a des résultats si bas,"
03:35
because he would have pulled the mean of the group lower,
82
200000
2000
parce qu'il aurait fait baisser la moyenne du groupe le plus bas,
03:37
giving us even stronger statistical results than we could.
83
202000
3000
nous donnant des résultats encore plus forts statistiquement.
03:41
So we decided not to throw the guy out and to rerun the experiment.
84
206000
3000
Alors nous avons décidé de ne pas exclure la personne et de refaire le test.
03:44
But you know, these stories,
85
209000
3000
Mais vous savez, ces histoires,
03:47
and lots of other experiments that we've done on conflicts of interest,
86
212000
3000
et beaucoup d'autres expériences que nous avons fait sur les conflits d'intérêt,
03:50
basically kind of bring two points
87
215000
2000
en gros font ressortir
03:52
to the foreground for me.
88
217000
2000
deux choses pour moi.
03:54
The first one is that in life we encounter many people
89
219000
3000
La première c'est que dans la vie on rencontre beaucoup de gens
03:57
who, in some way or another,
90
222000
3000
qui, d'une manière ou d'une autre,
04:00
try to tattoo our faces.
91
225000
2000
essayent de nous tatouer le visage.
04:02
They just have the incentives that get them to be blinded to reality
92
227000
3000
Ils ont juste des motivations qui les rendent sourds à la réalité
04:05
and give us advice that is inherently biased.
93
230000
3000
et ils nous donnent des conseils qui, par nature, ne sont pas objectifs.
04:08
And I'm sure that it's something that we all recognize,
94
233000
2000
Et je suis sûr que c'est quelque chose que nous reconnaissons tous,
04:10
and we see that it happens.
95
235000
2000
et nous voyons que ça arrive.
04:12
Maybe we don't recognize it every time,
96
237000
2000
Peut être qu'on ne le reconnait pas toujours,
04:14
but we understand that it happens.
97
239000
2000
mais nous savons que cela arrive.
04:16
The most difficult thing, of course, is to recognize
98
241000
2000
Le plus difficile, bien sur, est de reconnaître
04:18
that sometimes we too
99
243000
2000
que parfois nous aussi
04:20
are blinded by our own incentives.
100
245000
2000
nous sommes aveuglés par nos motivations.
04:22
And that's a much, much more difficult lesson to take into account.
101
247000
3000
Et c'est une leçon beaucoup, beaucoup plus difficile à prendre en compte.
04:25
Because we don't see how conflicts of interest work on us.
102
250000
4000
Parce qu'on ne voit pas les conflits d'intérêt qui font leur travail sur nous.
04:29
When I was doing these experiments,
103
254000
2000
Quand je faisais ces expériences,
04:31
in my mind, I was helping science.
104
256000
2000
dans mon esprit, j'aidais la science.
04:33
I was eliminating the data
105
258000
2000
J'éliminais des données
04:35
to get the true pattern of the data to shine through.
106
260000
2000
pour laisser le vrai modèle apparaître.
04:37
I wasn't doing something bad.
107
262000
2000
Je ne faisais rien de mal.
04:39
In my mind, I was actually a knight
108
264000
2000
Dans mon esprit, j'étais un preux chevalier
04:41
trying to help science move along.
109
266000
2000
qui essayait de faire avancer la science.
04:43
But this was not the case.
110
268000
2000
Mais ce n'était pas le cas.
04:45
I was actually interfering with the process with lots of good intentions.
111
270000
3000
En fait je m'ingérais dans le processus avec plein de bonnes intentions.
04:48
And I think the real challenge is to figure out
112
273000
2000
Et je pense que le véritable défi est de trouver
04:50
where are the cases in our lives
113
275000
2000
à quels moments dans nos vies
04:52
where conflicts of interest work on us,
114
277000
2000
les conflits d'intérêt nous influencent,
04:54
and try not to trust our own intuition to overcome it,
115
279000
3000
et d'essayer de ne pas nous fier à notre intuition pour les dépasser,
04:57
but to try to do things
116
282000
2000
mais d'essayer de faire des choses
04:59
that prevent us from falling prey to these behaviors,
117
284000
2000
qui nous empêchent d'être coupables de ces comportements,
05:01
because we can create lots of undesirable circumstances.
118
286000
3000
parce que nous pouvons créer beaucoup de circonstances qui seraient à éviter.
05:05
I do want to leave you with one positive thought.
119
290000
2000
Je veux quand même vous laisser sur une pensée positive.
05:07
I mean, this is all very depressing, right --
120
292000
2000
Je veux dire, c'est vrai, c'est très déprimant,
05:09
people have conflicts of interest, we don't see it, and so on.
121
294000
3000
les gens ont des conflits d'intérêt, on ne s'en rend pas compte, etc.
05:12
The positive perspective, I think, of all of this
122
297000
2000
La perspective positive dans tout ça, je pense,
05:14
is that, if we do understand when we go wrong,
123
299000
3000
est que si nous comprenons à quel moment nous déraillons,
05:17
if we understand the deep mechanisms
124
302000
2000
si nous comprenons les mécanismes
05:19
of why we fail and where we fail,
125
304000
2000
de pourquoi nous échouons et où nous échouons,
05:21
we can actually hope to fix things.
126
306000
2000
nous pouvons alors espérer arranger les choses.
05:23
And that, I think, is the hope. Thank you very much.
127
308000
2000
Et cela, je pense, est l'espoir. Merci beaucoup.
05:25
(Applause)
128
310000
4000
(Applaudissements)
Translated by Fabienne Der Hagopian
Reviewed by Yoanna Jaffré

▲Back to top

ABOUT THE SPEAKER
Dan Ariely - Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why.

Why you should listen

Dan Ariely is a professor of psychology and behavioral economics at Duke University and a founding member of the Center for Advanced Hindsight. He is the author of the bestsellers Predictably IrrationalThe Upside of Irrationality, and The Honest Truth About Dishonesty -- as well as the TED Book Payoff: The Hidden Logic that Shapes Our Motivations.

Through his research and his (often amusing and unorthodox) experiments, he questions the forces that influence human behavior and the irrational ways in which we often all behave.

More profile about the speaker
Dan Ariely | Speaker | TED.com