ABOUT THE SPEAKER
Dan Ariely - Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why.

Why you should listen

Dan Ariely is a professor of psychology and behavioral economics at Duke University and a founding member of the Center for Advanced Hindsight. He is the author of the bestsellers Predictably IrrationalThe Upside of Irrationality, and The Honest Truth About Dishonesty -- as well as the TED Book Payoff: The Hidden Logic that Shapes Our Motivations.

Through his research and his (often amusing and unorthodox) experiments, he questions the forces that influence human behavior and the irrational ways in which we often all behave.

More profile about the speaker
Dan Ariely | Speaker | TED.com
TED2009

Dan Ariely: Our buggy moral code

Dan Ariely sobre nosso código moral distorcido

Filmed:
3,509,395 views

Economista comportamental Dan Ariely estuda as falhas no nosso código moral: as razões ocultas pelas quais achamos certo trapacear ou roubar (às vezes). Estudos criativos apoiam sua teoria de que somos previsivelmente irracionais -- e podemos ser influenciados de formas que não conseguimos nem imaginar.
- Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why. Full bio

Double-click the English transcript below to play the video.

00:16
I want to talk to you today a little bit
0
1000
2000
Hoje eu gostaria de falar para vocês
00:18
about predictable irrationality.
1
3000
3000
um pouco sobre irracionalidade previsível.
00:21
And my interest in irrational behavior
2
6000
4000
Meu interesse em comportamento irracional
00:25
started many years ago in the hospital.
3
10000
3000
começou muitos anos atrás no hospital.
00:28
I was burned very badly.
4
13000
4000
Eu sofri uma queimadura muito séria.
00:32
And if you spend a lot of time in hospital,
5
17000
3000
E se você passa muito tempo no hospital,
00:35
you'll see a lot of types of irrationalities.
6
20000
3000
você vê muitos tipos de irracionalidades.
00:38
And the one that particularly bothered me in the burn department
7
23000
5000
E a que me incomodou em especial na enfermaria de queimados
00:43
was the process by which the nurses took the bandage off me.
8
28000
4000
foi a forma como as enfermeiras tiravam as ataduras de mim.
00:48
Now, you must have all taken a Band-Aid off at some point,
9
33000
2000
Então, vocês todos já tiraram um Band-Aid de alguém,
00:50
and you must have wondered what's the right approach.
10
35000
3000
e vocês devem ter se perguntado qual é a abordagem certa.
00:53
Do you rip it off quickly -- short duration but high intensity --
11
38000
4000
Você tira ele rapidamente -- pouca duração mas alta intensidade --
00:57
or do you take your Band-Aid off slowly --
12
42000
2000
ou você tira o Band-Aid lentamente --
00:59
you take a long time, but each second is not as painful --
13
44000
4000
você leva um longo tempo, mas cada segundo não é tão dolorido --
01:03
which one of those is the right approach?
14
48000
3000
qual destas abordagens é a abordagem certa?
01:06
The nurses in my department thought that the right approach
15
51000
4000
As enfermeiras do meu departamento pensavam que a abordagem certa
01:10
was the ripping one, so they would grab hold and they would rip,
16
55000
3000
era a de arrancar, então elas pegavam e arrancavam,
01:13
and they would grab hold and they would rip.
17
58000
2000
e elas pegavam e arrancavam.
01:15
And because I had 70 percent of my body burned, it would take about an hour.
18
60000
4000
Como tinha 70% do meu corpo queimado, isso levava uma hora.
01:19
And as you can imagine,
19
64000
3000
Como vocês podem imaginar,
01:22
I hated that moment of ripping with incredible intensity.
20
67000
4000
eu odiava esse procedimento com uma intensidade incrível.
01:26
And I would try to reason with them and say,
21
71000
2000
E eu tentava conversar com elas e dizer,
01:28
"Why don't we try something else?
22
73000
1000
“Por que não tentamos algo diferente?
01:29
Why don't we take it a little longer --
23
74000
2000
Por que não levamos um pouco mais de tempo --
01:31
maybe two hours instead of an hour -- and have less of this intensity?"
24
76000
5000
talvez duas horas ao invés de uma -- com um pouco menos de intensidade?”
01:36
And the nurses told me two things.
25
81000
2000
Elas me diziam duas coisas.
01:38
They told me that they had the right model of the patient --
26
83000
4000
Elas diziam que conheciam o perfil do paciente --
01:42
that they knew what was the right thing to do to minimize my pain --
27
87000
3000
e que sabiam qual era a forma certa de minimizar a minha dor --
01:45
and they also told me that the word patient doesn't mean
28
90000
3000
e também me diziam que a palavra paciente não significava
01:48
to make suggestions or to interfere or ...
29
93000
2000
fazer sugestões ou interferir ou ...
01:50
This is not just in Hebrew, by the way.
30
95000
3000
E esse significado para paciente não ocorre somente em Hebraico.
01:53
It's in every language I've had experience with so far.
31
98000
3000
Ocorre em todos os idiomas com que me envolvi até agora.
01:56
And, you know, there's not much -- there wasn't much I could do,
32
101000
4000
E, vocês sabem, não tem muito -- não tinha muito que eu pudesse fazer,
02:00
and they kept on doing what they were doing.
33
105000
3000
e elas continuaram fazendo o que estavam fazendo.
02:03
And about three years later, when I left the hospital,
34
108000
2000
Mais ou menos três anos depois, quando eu deixei o hospital,
02:05
I started studying at the university.
35
110000
3000
comecei a estudar na universidade.
02:08
And one of the most interesting lessons I learned
36
113000
3000
E uma das lições mais interessantes que eu aprendi
02:11
was that there is an experimental method
37
116000
2000
foi que existe um método experimental,
02:13
that if you have a question you can create a replica of this question
38
118000
4000
se você tem um problema você pode criar uma réplica deste problema
02:17
in some abstract way, and you can try to examine this question,
39
122000
4000
de alguma forma abstrata, você pode investigar esse problema,
02:21
maybe learn something about the world.
40
126000
2000
e talvez aprender algo sobre o mundo.
02:23
So that's what I did.
41
128000
2000
Então foi isso que eu fiz.
02:25
I was still interested
42
130000
1000
Eu ainda estava interessado
02:26
in this question of how do you take bandages off burn patients.
43
131000
2000
na questão de tirar ataduras de pacientes queimados.
02:28
So originally I didn't have much money,
44
133000
3000
A princípio eu não tinha muito dinheiro,
02:31
so I went to a hardware store and I bought a carpenter's vice.
45
136000
4000
então fui a uma loja de ferramentas comprar uma morsa.
02:35
And I would bring people to the lab and I would put their finger in it,
46
140000
4000
E eu trazia pessoas ao laboratório e colocava o dedo delas na morsa,
02:39
and I would crunch it a little bit.
47
144000
2000
e apertava um pouquinho.
02:41
(Laughter)
48
146000
2000
(risos)
02:43
And I would crunch it for long periods and short periods,
49
148000
3000
Eu apertava por períodos longos e por períodos curtos,
02:46
and pain that went up and pain that went down,
50
151000
2000
e com dor que aumentava e diminuía,
02:48
and with breaks and without breaks -- all kinds of versions of pain.
51
153000
4000
e com descansos e sem descansos – todas as variações da dor.
02:52
And when I finished hurting people a little bit, I would ask them,
52
157000
2000
E quando eu terminava de machucar as pessoas, eu perguntava,
02:54
so, how painful was this? Or, how painful was this?
53
159000
2000
“Então, quão dolorido foi isso?"
02:56
Or, if you had to choose between the last two,
54
161000
2000
"Se você tivesse de escolher,
02:58
which one would you choose?
55
163000
2000
qual você escolheria?”
03:00
(Laughter)
56
165000
3000
(risos)
03:03
I kept on doing this for a while.
57
168000
3000
E continuei fazendo isso por mais um tempo.
03:06
(Laughter)
58
171000
2000
(risos)
03:08
And then, like all good academic projects, I got more funding.
59
173000
4000
E depois, como todos os bons projetos acadêmicos, consegui mais recursos.
03:12
I moved to sounds, electrical shocks --
60
177000
2000
Passei para sons, choques elétricos --
03:14
I even had a pain suit that I could get people to feel much more pain.
61
179000
5000
eu até tinha uma espécie de roupa que podia fazer as pessoas sentirem muito mais dor.
03:19
But at the end of this process,
62
184000
4000
Mas no fim da pesquisa,
03:23
what I learned was that the nurses were wrong.
63
188000
3000
eu aprendi que as enfermeiras estavam erradas.
03:26
Here were wonderful people with good intentions
64
191000
3000
Aqui estavam pessoas maravilhosas com boas intenções
03:29
and plenty of experience, and nevertheless
65
194000
2000
e muita experiência, e ainda assim
03:31
they were getting things wrong predictably all the time.
66
196000
4000
elas estavam errando previsivelmente o tempo todo.
03:35
It turns out that because we don't encode duration
67
200000
3000
Uma vez que não percebemos a duração
03:38
in the way that we encode intensity,
68
203000
2000
da mesma forma que percebemos a intensidade,
03:40
I would have had less pain if the duration would have been longer
69
205000
4000
eu teria tido menos dor se a duração fosse mais longa
03:44
and the intensity was lower.
70
209000
2000
e a intensidade mais baixa.
03:46
It turns out it would have been better to start with my face,
71
211000
3000
Seria melhor começar com o meu rosto,
03:49
which was much more painful, and move toward my legs,
72
214000
2000
que era muito mais dolorido, depois as pernas,
03:51
giving me a trend of improvement over time --
73
216000
3000
me dando uma sensação de melhora ao longo do tempo --
03:54
that would have been also less painful.
74
219000
1000
o que seria menos dolorido.
03:55
And it also turns out that it would have been good
75
220000
2000
E também teria sido melhor
03:57
to give me breaks in the middle to kind of recuperate from the pain.
76
222000
2000
me dar descansos no meio para eu me recuperar da dor.
03:59
All of these would have been great things to do,
77
224000
2000
Todas estas seriam atitudes ótimas,
04:01
and my nurses had no idea.
78
226000
3000
e as minhas enfermeiras não faziam a menor idéia.
04:04
And from that point on I started thinking,
79
229000
1000
A partir daquele momento eu comecei a pensar,
04:05
are the nurses the only people in the world who get things wrong
80
230000
3000
as enfermeiras são as únicas pessoas no mundo que entendem as coisas de forma errada,
04:08
in this particular decision, or is it a more general case?
81
233000
3000
ou isto acontece de uma forma mais geral?
04:11
And it turns out it's a more general case --
82
236000
2000
No fim isto acontece de uma forma mais geral --
04:13
there's a lot of mistakes we do.
83
238000
3000
existem muitos erros que fazemos.
04:16
And I want to give you one example of one of these irrationalities,
84
241000
5000
E quero lhes dar mais um exemplo de uma destas irracionalidades,
04:21
and I want to talk to you about cheating.
85
246000
3000
quero falar para vocês sobre a trapaça.
04:24
And the reason I picked cheating is because it's interesting,
86
249000
2000
A razão pela qual escolhi a trapaça é porque é algo interessante,
04:26
but also it tells us something, I think,
87
251000
2000
mas também nos diz algo, eu acho,
04:28
about the stock market situation we're in.
88
253000
3000
sobre a situação econômica que nos encontramos.
04:31
So, my interest in cheating started
89
256000
3000
Então, meu interesse na trapaça começou
04:34
when Enron came on the scene, exploded all of a sudden,
90
259000
2000
quando a Enron entrou em cena, explodiu de repente,
04:36
and I started thinking about what is happening here.
91
261000
3000
e eu comecei a pensar sobre o que estava acontecendo aqui.
04:39
Is it the case that there was kind of
92
264000
1000
Será que era o caso onde
04:40
a few apples who are capable of doing these things,
93
265000
3000
apenas algumas maçãs podres eram capazes de fazer estas coisas,
04:43
or are we talking a more endemic situation,
94
268000
2000
ou nós estamos com uma situação mais endêmica,
04:45
that many people are actually capable of behaving this way?
95
270000
4000
onde muitas pessoas são capazes de se comportar desta forma?
04:49
So, like we usually do, I decided to do a simple experiment.
96
274000
4000
Então, como geralmente fazemos, decidi fazer um experimento simples.
04:53
And here's how it went.
97
278000
1000
E foi assim que ocorreu.
04:54
If you were in the experiment, I would pass you a sheet of paper
98
279000
3000
Se você estivesse no experimento, eu lhe entregaria uma folha de papel
04:57
with 20 simple math problems that everybody could solve,
99
282000
4000
com vinte problemas matemáticos simples que todo mundo consegue resolver,
05:01
but I wouldn't give you enough time.
100
286000
2000
mas eu não lhe daria tempo suficiente para resolve-los.
05:03
When the five minutes were over, I would say,
101
288000
2000
Depois de cinco minutos, eu diria,
05:05
"Pass me the sheets of paper, and I'll pay you a dollar per question."
102
290000
3000
“Me passem as folhas, e eu vou lhes dar um dólar por resposta correta.”
05:08
People did this. I would pay people four dollars for their task --
103
293000
4000
As pessoas obedeciam. Eu pagava quatro dólares --
05:12
on average people would solve four problems.
104
297000
2000
na média as pessoas resolviam quatro problemas.
05:14
Other people I would tempt to cheat.
105
299000
3000
Outras pessoas eu induziria à trapaça.
05:17
I would pass their sheet of paper.
106
302000
1000
Eu entregava as folhas.
05:18
When the five minutes were over, I would say,
107
303000
2000
Quando os cinco minutos tivessem acabado, eu dizia,
05:20
"Please shred the piece of paper.
108
305000
1000
“Por favor destruam a folha de papel.
05:21
Put the little pieces in your pocket or in your backpack,
109
306000
3000
Coloquem os pedaços no seu bolso ou na sua mochila,
05:24
and tell me how many questions you got correctly."
110
309000
3000
e me digam quantas respostas vocês responderam corretamente.”
05:27
People now solved seven questions on average.
111
312000
3000
As pessoas agora resolviam sete questões em média.
05:30
Now, it wasn't as if there was a few bad apples --
112
315000
5000
Então, não era como se houvessem poucas maçãs podres --
05:35
a few people cheated a lot.
113
320000
3000
poucas pessoas trapaceavam muito.
05:38
Instead, what we saw is a lot of people who cheat a little bit.
114
323000
3000
Ao invés disso, o que nós vimos foi que muitas pessoas trapaceavam um pouco.
05:41
Now, in economic theory,
115
326000
3000
Então, na teoria econômica,
05:44
cheating is a very simple cost-benefit analysis.
116
329000
3000
trapacear é uma questão de custo-benefício.
05:47
You say, what's the probability of being caught?
117
332000
2000
Você se pergunta, qual a probabilidade de ser pego?
05:49
How much do I stand to gain from cheating?
118
334000
3000
Quanto eu posso ganhar através da trapaça?
05:52
And how much punishment would I get if I get caught?
119
337000
2000
E qual a punição que eu receberia se fosse pego?
05:54
And you weigh these options out --
120
339000
2000
E você pesaria essas opções --
05:56
you do the simple cost-benefit analysis,
121
341000
2000
você analisa o custo-benefício,
05:58
and you decide whether it's worthwhile to commit the crime or not.
122
343000
3000
e você decide se vale a pena cometer o crime ou não.
06:01
So, we try to test this.
123
346000
2000
Então, nós resolvemos testar isto.
06:03
For some people, we varied how much money they could get away with --
124
348000
4000
Para algumas pessoas nós variamos quanto dinheiro elas conseguiriam --
06:07
how much money they could steal.
125
352000
1000
quanto dinheiro elas poderiam roubar.
06:08
We paid them 10 cents per correct question, 50 cents,
126
353000
3000
Nós pagamos à elas dez centavos por resposta correta, cinquenta centavos,
06:11
a dollar, five dollars, 10 dollars per correct question.
127
356000
3000
um dólar, cinco dólares, dez dólares por resposta correta.
06:14
You would expect that as the amount of money on the table increases,
128
359000
4000
Você esperaria que à medida que a quantia de dinheiro aumentasse,
06:18
people would cheat more, but in fact it wasn't the case.
129
363000
3000
as pessoas roubariam mais, mas na verdade este não foi o caso.
06:21
We got a lot of people cheating by stealing by a little bit.
130
366000
3000
Encontramos muitas pessoas roubando apenas um pouco.
06:24
What about the probability of being caught?
131
369000
3000
E quanto à probabilidade de ser pego?
06:27
Some people shredded half the sheet of paper,
132
372000
2000
Algumas pessoas destruíam metade da folha de papel,
06:29
so there was some evidence left.
133
374000
1000
de tal forma que sobrava alguma evidência.
06:30
Some people shredded the whole sheet of paper.
134
375000
2000
Outras pessoas destruíam toda a folha de papel.
06:32
Some people shredded everything, went out of the room,
135
377000
3000
Algumas pessoas destruíam toda a folha, saíam da sala,
06:35
and paid themselves from the bowl of money that had over 100 dollars.
136
380000
3000
e pegavam o dinheiro de um pote com mais de cem dólares.
06:38
You would expect that as the probability of being caught goes down,
137
383000
3000
Seria esperado que à medida que a probabilidade de ser pego diminuísse,
06:41
people would cheat more, but again, this was not the case.
138
386000
3000
as pessoas roubariam mais, mas de novo, não foi o caso.
06:44
Again, a lot of people cheated by just by a little bit,
139
389000
3000
De novo, muitas pessoas trapacearam, mas apenas por pouco dinheiro,
06:47
and they were insensitive to these economic incentives.
140
392000
3000
e elas foram insensíveis a esses incentivos econômicos.
06:50
So we said, "If people are not sensitive
141
395000
1000
Então nós nos perguntamos,
06:51
to the economic rational theory explanations, to these forces,
142
396000
5000
“Se as pessoas são insensíveis às explicações da teoria econômica, a estas forças,
06:56
what could be going on?"
143
401000
3000
o que poderia estar acontecendo?”
06:59
And we thought maybe what is happening is that there are two forces.
144
404000
3000
E pensamos que talvez existam duas forças.
07:02
At one hand, we all want to look at ourselves in the mirror
145
407000
2000
Por um lado, todos queremos olhar para o espelho
07:04
and feel good about ourselves, so we don't want to cheat.
146
409000
3000
e nos sentirmos bem, e não queremos trapacear.
07:07
On the other hand, we can cheat a little bit,
147
412000
2000
Por outro lado, podemos trapacear um pouco,
07:09
and still feel good about ourselves.
148
414000
2000
e ainda nos sentirmos bem.
07:11
So, maybe what is happening is that
149
416000
1000
Então, talvez o que esteja acontecendo
07:12
there's a level of cheating we can't go over,
150
417000
2000
é que existe um nível de trapaça que não conseguimos superar,
07:14
but we can still benefit from cheating at a low degree,
151
419000
4000
mas ainda podemos nos beneficiar trapaceando apenas um pouco,
07:18
as long as it doesn't change our impressions about ourselves.
152
423000
3000
contanto que não mude a impressão que temos sobre nós mesmos.
07:21
We call this like a personal fudge factor.
153
426000
3000
Chamamos isso de um fator pessoal de enganação.
07:25
Now, how would you test a personal fudge factor?
154
430000
4000
Agora, como se testaria um fator pessoal de enganação?
07:29
Initially we said, what can we do to shrink the fudge factor?
155
434000
4000
Inicialmente dizemos, “O que podemos fazer para diminuir o fator de enganação?”
07:33
So, we got people to the lab, and we said,
156
438000
2000
Então, chamamos pessoas ao laboratório e dizemos,
07:35
"We have two tasks for you today."
157
440000
2000
“Nós temos duas tarefas para vocês hoje.”
07:37
First, we asked half the people
158
442000
1000
Primeiro, pedimos à metade
07:38
to recall either 10 books they read in high school,
159
443000
2000
das pessoas que se lembrassem
07:40
or to recall The Ten Commandments,
160
445000
3000
ou de dez livros que leram na escola, ou dos Dez Mandamentos,
07:43
and then we tempted them with cheating.
161
448000
2000
e depois nós induzimos elas a trapacearem.
07:45
Turns out the people who tried to recall The Ten Commandments --
162
450000
3000
No fim, as pessoas que tentaram se lembrar dos Dez Mandamentos --
07:48
and in our sample nobody could recall all of The Ten Commandments --
163
453000
2000
e na nossa amostra ninguém conseguiu --
07:51
but those people who tried to recall The Ten Commandments,
164
456000
4000
mas aqueles que tentaram se lembrar dos Dez Mandamentos,
07:55
given the opportunity to cheat, did not cheat at all.
165
460000
3000
dada a oportunidade de trapacear, não trapacearam nada.
07:58
It wasn't that the more religious people --
166
463000
2000
Não aconteceu que as pessoas mais religiosas --
08:00
the people who remembered more of the Commandments -- cheated less,
167
465000
1000
as que mais se lembraram -- trapacearam menos,
08:01
and the less religious people --
168
466000
2000
e as menos religiosas --
08:03
the people who couldn't remember almost any Commandments --
169
468000
1000
as pessoas que menos se lembraram --
08:04
cheated more.
170
469000
2000
trapacearam mais.
08:06
The moment people thought about trying to recall The Ten Commandments,
171
471000
4000
No momento em que as pessoas pensaram nos Dez Mandamentos,
08:10
they stopped cheating.
172
475000
1000
elas pararam de trapacear.
08:11
In fact, even when we gave self-declared atheists
173
476000
2000
Na verdade, mesmo quando demos à ateus
08:13
the task of swearing on the Bible and we give them a chance to cheat,
174
478000
4000
a tarefa de jurar sobre a bíblia e lhes demos a oportunidade de trapacear,
08:17
they don't cheat at all.
175
482000
2000
elas não trapacearam nem um pouco.
08:21
Now, Ten Commandments is something that is hard
176
486000
2000
Agora, "Os Dez Mandamentos" é algo difícil
08:23
to bring into the education system, so we said,
177
488000
2000
de integrar ao sistema de educação, então dissemos,
08:25
"Why don't we get people to sign the honor code?"
178
490000
2000
“Por que não pedimos as pessoas para assinar um código de honra?”
08:27
So, we got people to sign,
179
492000
2000
Então, fizemos as pessoas assinarem,
08:29
"I understand that this short survey falls under the MIT Honor Code."
180
494000
4000
“Eu entendo que esta curta pesquisa se insere no Código de Honra do MIT.”
08:33
Then they shredded it. No cheating whatsoever.
181
498000
3000
Depois elas rasgaram a declaração. Nenhuma trapaça ocorreu.
08:36
And this is particularly interesting,
182
501000
1000
E isto é particularmente interessante,
08:37
because MIT doesn't have an honor code.
183
502000
2000
porque o MIT não tem um código de honra.
08:39
(Laughter)
184
504000
5000
(risos)
08:44
So, all this was about decreasing the fudge factor.
185
509000
4000
Então, tudo isto foi sobre diminuir o fator de enganação.
08:48
What about increasing the fudge factor?
186
513000
3000
E quanto a aumentar o fator de enganação?
08:51
The first experiment -- I walked around MIT
187
516000
2000
O primeiro experimento -- eu dei uma volta no MIT
08:53
and I distributed six-packs of Cokes in the refrigerators --
188
518000
3000
e distribui garrafas de Coca-Cola nas geladeiras --
08:56
these were common refrigerators for the undergrads.
189
521000
2000
estas eram geladeiras usadas pelos estudantes de graduação.
08:58
And I came back to measure what we technically call
190
523000
3000
E eu voltei com uma medida do que foi tecnicamente chamado
09:01
the half-lifetime of Coke -- how long does it last in the refrigerators?
191
526000
4000
de a meia-vida da Coca -- quanto tempo ela dura nas geladeiras?
09:05
As you can expect it doesn't last very long; people take it.
192
530000
3000
Como você pode esperar, não dura muito tempo. As pessoas tomam.
09:08
In contrast, I took a plate with six one-dollar bills,
193
533000
4000
Em contraste, eu peguei um prato com seis notas de um dólar,
09:12
and I left those plates in the same refrigerators.
194
537000
3000
e deixei os pratos dentro das mesmas geladeiras.
09:15
No bill ever disappeared.
195
540000
1000
As notas nunca desapareceram.
09:16
Now, this is not a good social science experiment,
196
541000
3000
Este não é um bom experimento de ciência social,
09:19
so to do it better I did the same experiment
197
544000
3000
então para fazê-lo melhor eu fiz a mesma experiência
09:22
as I described to you before.
198
547000
2000
que eu descrevi a vocês antes.
09:24
A third of the people we passed the sheet, they gave it back to us.
199
549000
3000
Para um terço das pessoas nós entregamos a folha, elas nos devolveram.
09:27
A third of the people we passed it to, they shredded it,
200
552000
3000
Para um terço das pessoas nós também entregamos as folhas, elas as destruíram,
09:30
they came to us and said,
201
555000
1000
e disseram para nós,
09:31
"Mr. Experimenter, I solved X problems. Give me X dollars."
202
556000
3000
“Senhor Pesquisador, eu resolvi X problemas. Dê-me X dólares.”
09:34
A third of the people, when they finished shredding the piece of paper,
203
559000
3000
Outro terço das pessoas, quando elas terminavam de destruir o pedaço de papel,
09:37
they came to us and said,
204
562000
2000
elas vinham até nós e diziam,
09:39
"Mr Experimenter, I solved X problems. Give me X tokens."
205
564000
6000
“Senhor Pesquisador, eu resolvi X problemas. Dê-me X fichas.”
09:45
We did not pay them with dollars; we paid them with something else.
206
570000
3000
Nós não as pagamos em dinheiro. Pagamos com outra coisa.
09:48
And then they took the something else, they walked 12 feet to the side,
207
573000
3000
E depois elas pegavam essa outra coisa, andavam quatro metros para o lado,
09:51
and exchanged it for dollars.
208
576000
2000
e trocavam por dinheiro.
09:53
Think about the following intuition.
209
578000
2000
Pense na seguinte situação:
09:55
How bad would you feel about taking a pencil from work home,
210
580000
3000
Quão mal você se sentiria por roubar um lápis do trabalho,
09:58
compared to how bad would you feel
211
583000
2000
comparado com quão mal você se sentiria
10:00
about taking 10 cents from a petty cash box?
212
585000
2000
por roubar dez centavos de uma caixinha de dinheiro?
10:02
These things feel very differently.
213
587000
3000
Os sentimentos gerados são muito diferentes.
10:05
Would being a step removed from cash for a few seconds
214
590000
3000
Será que estar a um passo de distância do dinheiro por alguns segundos
10:08
by being paid by token make a difference?
215
593000
3000
ao ser pago por fichas faria alguma diferença?
10:11
Our subjects doubled their cheating.
216
596000
2000
Nossos participantes trapacearam em dobro.
10:13
I'll tell you what I think
217
598000
2000
Eu vou lhes falar sobre o que penso
10:15
about this and the stock market in a minute.
218
600000
2000
sobre isto e o mercado de ações em um minuto.
10:18
But this did not solve the big problem I had with Enron yet,
219
603000
4000
Mas isto ainda não resolve o grande problema que eu tinha com a Enron,
10:22
because in Enron, there's also a social element.
220
607000
3000
porque na Enron, também existe um elemento social.
10:25
People see each other behaving.
221
610000
1000
As pessoas vêem o comportamento das outras.
10:26
In fact, every day when we open the news
222
611000
2000
Na verdade, todo o dia vemos notícias
10:28
we see examples of people cheating.
223
613000
2000
de pessoas trapaceando.
10:30
What does this cause us?
224
615000
3000
O que isto causa em nós?
10:33
So, we did another experiment.
225
618000
1000
Então, fizemos outro experimento.
10:34
We got a big group of students to be in the experiment,
226
619000
3000
Pegamos um grupo grande de estudantes para um experimento,
10:37
and we prepaid them.
227
622000
1000
e lhes demos um adiantamento.
10:38
So everybody got an envelope with all the money for the experiment,
228
623000
3000
Então todos receberam um envelope com o dinheiro da pesquisa,
10:41
and we told them that at the end, we asked them
229
626000
2000
e lhes dissemos que no fim,
10:43
to pay us back the money they didn't make. OK?
230
628000
4000
deveriam nos pagar de volta o dinheiro que eles não mereciam levar. OK?
10:47
The same thing happens.
231
632000
1000
A mesma coisa acontece.
10:48
When we give people the opportunity to cheat, they cheat.
232
633000
2000
Quando damos às pessoas a oportunidade da trapaça, elas trapaceiam.
10:50
They cheat just by a little bit, all the same.
233
635000
3000
Apenas um pouco, mas trapaceiam.
10:53
But in this experiment we also hired an acting student.
234
638000
3000
Mas neste experimento também contratamos um estudante ator.
10:56
This acting student stood up after 30 seconds, and said,
235
641000
4000
Depois de 30 segundos este estudante se levantou, e disse,
11:00
"I solved everything. What do I do now?"
236
645000
3000
“Eu resolvi tudo. O que faço agora?”
11:03
And the experimenter said, "If you've finished everything, go home.
237
648000
4000
E o pesquisador disse, “Se você terminou tudo, vá para casa.”
11:07
That's it. The task is finished."
238
652000
1000
E era isto, acabou.
11:08
So, now we had a student -- an acting student --
239
653000
4000
Então, agora nós tínhamos um estudante -- um estudante ator --
11:12
that was a part of the group.
240
657000
2000
que era parte do grupo.
11:14
Nobody knew it was an actor.
241
659000
2000
Ninguém sabia que ele era um ator.
11:16
And they clearly cheated in a very, very serious way.
242
661000
4000
E ele trapaceava de uma forma muito, muito séria.
11:20
What would happen to the other people in the group?
243
665000
3000
O que aconteceria com as outras pessoas no grupo?
11:23
Will they cheat more, or will they cheat less?
244
668000
3000
Elas trapaceariam mais, ou trapaceariam menos?
11:26
Here is what happens.
245
671000
2000
Eis o que acontece.
11:28
It turns out it depends on what kind of sweatshirt they're wearing.
246
673000
4000
No fim, depende da camiseta que elas estão usando.
11:32
Here is the thing.
247
677000
2000
Funciona assim:
11:34
We ran this at Carnegie Mellon and Pittsburgh.
248
679000
3000
Fizemos este experimento na Carnegie Mellon e Pittsburgh.
11:37
And at Pittsburgh there are two big universities,
249
682000
2000
E em Pittsburgh existem duas universidades grandes,
11:39
Carnegie Mellon and University of Pittsburgh.
250
684000
3000
Carnegie Mellon e Universidade de Pittsburgh.
11:42
All of the subjects sitting in the experiment
251
687000
2000
Todos os alunos no experimento
11:44
were Carnegie Mellon students.
252
689000
2000
eram estudantes da Carnegie Mellon.
11:46
When the actor who was getting up was a Carnegie Mellon student --
253
691000
4000
Quando o ator que levantava era um estudante da Carnegie Mellon --
11:50
he was actually a Carnegie Mellon student --
254
695000
2000
de fato ele era da Carnegie Mellon --
11:52
but he was a part of their group, cheating went up.
255
697000
4000
mas ele era parte do grupo deles, a trapaça aumentou.
11:56
But when he actually had a University of Pittsburgh sweatshirt,
256
701000
4000
Mas quando ele tinha uma camiseta da Universidade de Pittsburgh,
12:00
cheating went down.
257
705000
2000
a trapaça diminuiu.
12:02
(Laughter)
258
707000
3000
(risos)
12:05
Now, this is important, because remember,
259
710000
3000
Agora, isto é importante, porque lembrem-se,
12:08
when the moment the student stood up,
260
713000
2000
quando o estudante se levantou,
12:10
it made it clear to everybody that they could get away with cheating,
261
715000
3000
ficou claro para todo mundo que eles poderiam trapacear sem serem pegos,
12:13
because the experimenter said,
262
718000
2000
porque o pesquisador disse,
12:15
"You've finished everything. Go home," and they went with the money.
263
720000
2000
“Você terminou tudo. Vá para casa” e ele foi embora com o dinheiro.
12:17
So it wasn't so much about the probability of being caught again.
264
722000
3000
Então, de novo não era tanto sobre a probabilidade de ser pego.
12:20
It was about the norms for cheating.
265
725000
3000
Era sobre as regras da trapaça.
12:23
If somebody from our in-group cheats and we see them cheating,
266
728000
3000
Se alguém do nosso grupo faz a trapaça e nós vemos ele trapaceando,
12:26
we feel it's more appropriate, as a group, to behave this way.
267
731000
4000
sentimos que é mais apropriado, como um grupo, fazer o mesmo.
12:30
But if it's somebody from another group, these terrible people --
268
735000
2000
Mas se é alguém de outro grupo, estas pessoas terríveis --
12:32
I mean, not terrible in this --
269
737000
2000
quero dizer, não terríveis nisso --
12:34
but somebody we don't want to associate ourselves with,
270
739000
2000
mas alguém com quem nós não queremos nos associar,
12:36
from another university, another group,
271
741000
2000
de outra universidade, outro grupo,
12:38
all of a sudden people's awareness of honesty goes up --
272
743000
3000
a honestidade das pessoas aumenta --
12:41
a little bit like The Ten Commandments experiment --
273
746000
2000
um pouco semelhante ao experimento dos Dez Mandamentos --
12:43
and people cheat even less.
274
748000
4000
e as pessoas trapaceiam menos ainda.
12:47
So, what have we learned from this about cheating?
275
752000
4000
Então, o que aprendemos sobre a trapaça com isso?
12:51
We've learned that a lot of people can cheat.
276
756000
3000
Aprendemos que muitas pessoas são capazes de trapacear.
12:54
They cheat just by a little bit.
277
759000
3000
Elas trapaceiam somente um pouco.
12:57
When we remind people about their morality, they cheat less.
278
762000
4000
Quando relembramos as pessoas sobre a sua moralidade, elas trapaceiam menos.
13:01
When we get bigger distance from cheating,
279
766000
3000
Quando tomamos uma distância maior da trapaça,
13:04
from the object of money, for example, people cheat more.
280
769000
4000
do dinheiro, por exemplo, as pessoas trapaceiam mais.
13:08
And when we see cheating around us,
281
773000
2000
E quando vemos a trapaça em nossa volta,
13:10
particularly if it's a part of our in-group, cheating goes up.
282
775000
4000
especialmente se é parte do nosso grupo, a trapaça aumenta.
13:14
Now, if we think about this in terms of the stock market,
283
779000
3000
Agora, se pensamos sobre isso em termos do mercado de ações,
13:17
think about what happens.
284
782000
1000
pense no que acontece.
13:18
What happens in a situation when you create something
285
783000
3000
O que acontece na situação em que se cria algo
13:21
where you pay people a lot of money
286
786000
2000
onde se paga muito dinheiro para pessoas
13:23
to see reality in a slightly distorted way?
287
788000
3000
verem a realidade de uma forma um pouco distorcida?
13:26
Would they not be able to see it this way?
288
791000
3000
Eles não seriam capazes de ver isto desta forma?
13:29
Of course they would.
289
794000
1000
É claro que eles seriam.
13:30
What happens when you do other things,
290
795000
1000
O que acontece quando fazemos outras coisas,
13:31
like you remove things from money?
291
796000
2000
como quando afastamos as coisas do dinheiro?
13:33
You call them stock, or stock options, derivatives,
292
798000
3000
Quando as chamamos de ações, ou opções, derivativos,
13:36
mortgage-backed securities.
293
801000
1000
títulos apoiados por hipotecas comerciais.
13:37
Could it be that with those more distant things,
294
802000
3000
Seria possível que com estas coisas mais distantes,
13:40
it's not a token for one second,
295
805000
2000
que não são apenas uma ficha por um segundo,
13:42
it's something that is many steps removed from money
296
807000
2000
mas algo que está a muitos passos de distância do dinheiro
13:44
for a much longer time -- could it be that people will cheat even more?
297
809000
4000
por muito mais tempo -- será possível que as pessoas vão roubar ainda mais?
13:48
And what happens to the social environment
298
813000
2000
E o que acontece ao ambiente social
13:50
when people see other people behave around them?
299
815000
3000
quando as pessoas vêem o comportamento das outras em sua volta?
13:53
I think all of those forces worked in a very bad way
300
818000
4000
Eu acho que todas estas forças funcionam de uma forma muito ruim
13:57
in the stock market.
301
822000
2000
no mercado de ações.
13:59
More generally, I want to tell you something
302
824000
3000
De forma mais geral, gostaria de lhes falar algo
14:02
about behavioral economics.
303
827000
3000
sobre economia comportamental.
14:05
We have many intuitions in our life,
304
830000
4000
Temos muitas intuições na nossa vida,
14:09
and the point is that many of these intuitions are wrong.
305
834000
3000
e acontece que muitas destas intuições estão erradas.
14:12
The question is, are we going to test those intuitions?
306
837000
3000
A questão é, nós vamos testar estas intuições?
14:15
We can think about how we're going to test this intuition
307
840000
2000
Podemos pensar sobre como iremos testar esta intuição
14:17
in our private life, in our business life,
308
842000
2000
na nossa vida privada, nos negócios,
14:19
and most particularly when it goes to policy,
309
844000
3000
e principalmente quando ela entra na política,
14:22
when we think about things like No Child Left Behind,
310
847000
3000
quando pensamos em algo como a política do “No Child Left Behind”,
14:25
when you create new stock markets, when you create other policies --
311
850000
3000
quando criamos novos mercados de ações, quando criamos novas políticas --
14:28
taxation, health care and so on.
312
853000
3000
taxação, seguro saúde e etc.
14:31
And the difficulty of testing our intuition
313
856000
2000
E a dificuldade de testar nossa intuição
14:33
was the big lesson I learned
314
858000
2000
foi a grande lição que eu aprendi
14:35
when I went back to the nurses to talk to them.
315
860000
2000
quando voltei para falar com as enfermeiras no hospital.
14:37
So I went back to talk to them
316
862000
2000
Então eu voltei para falar para elas
14:39
and tell them what I found out about removing bandages.
317
864000
3000
as coisas que eu havia aprendido sobre remover as ataduras.
14:42
And I learned two interesting things.
318
867000
2000
E aprendi duas coisas interessantes.
14:44
One was that my favorite nurse, Ettie,
319
869000
2000
Uma foi que a minha enfermeira favorita, Ettie,
14:46
told me that I did not take her pain into consideration.
320
871000
4000
me disse que eu não levei a dor dela em consideração.
14:50
She said, "Of course, you know, it was very painful for you.
321
875000
2000
Ela disse, “Claro, você sabe, era muito dolorido para você.
14:52
But think about me as a nurse,
322
877000
2000
Mas pense em mim como uma enfermeira,
14:54
taking, removing the bandages of somebody I liked,
323
879000
2000
removendo as ataduras de alguém que eu gostava,
14:56
and had to do it repeatedly over a long period of time.
324
881000
3000
e tinha que fazer isso repetidamente em um período longo de tempo.
14:59
Creating so much torture was not something that was good for me, too."
325
884000
3000
Criar tanta tortura era algo que também não era bom para mim.”
15:02
And she said maybe part of the reason was it was difficult for her.
326
887000
5000
E ela disse, que talvez esta era parte da razão pela qual era tão difícil para ela.
15:07
But it was actually more interesting than that, because she said,
327
892000
3000
Mas na verdade era mais interessante do que isto, porque ela disse,
15:10
"I did not think that your intuition was right.
328
895000
5000
“Eu não achei que a sua intuição estava correta,
15:15
I felt my intuition was correct."
329
900000
1000
achei que a minha estava correta.”
15:16
So, if you think about all of your intuitions,
330
901000
2000
Então, se você pensar sobre suas intuições,
15:18
it's very hard to believe that your intuition is wrong.
331
903000
4000
é muito difícil acreditar que a sua intuição está errada.
15:22
And she said, "Given the fact that I thought my intuition was right ..." --
332
907000
3000
E ela disse, dado o fato de que ela achava que a sua intuição estava certa --
15:25
she thought her intuition was right --
333
910000
2000
ela pensou que a intuição dela estava certa --
15:27
it was very difficult for her to accept doing a difficult experiment
334
912000
5000
era muito difícil para ela aceitar fazer algum experimento complicado
15:32
to try and check whether she was wrong.
335
917000
2000
para verificar se ela estava errada.
15:34
But in fact, this is the situation we're all in all the time.
336
919000
4000
Mas na verdade, esta é a situação em que nos encontramos todo o tempo.
15:38
We have very strong intuitions about all kinds of things --
337
923000
3000
Temos intuições muito fortes sobre todos os tipos de coisas --
15:41
our own ability, how the economy works,
338
926000
3000
nossa própria habilidade, como a economia funciona,
15:44
how we should pay school teachers.
339
929000
2000
como deveríamos pagar professores nas escolas.
15:46
But unless we start testing those intuitions,
340
931000
3000
Mas ao menos que comecemos a testar estas intuições,
15:49
we're not going to do better.
341
934000
2000
nós não iremos melhorar.
15:51
And just think about how better my life would have been
342
936000
2000
Pense o quão melhor a minha vida teria sido
15:53
if these nurses would have been willing to check their intuition,
343
938000
2000
se aquelas enfermeiras conferissem a intuição delas,
15:55
and how everything would have been better
344
940000
1000
e como tudo seria melhor
15:56
if we just start doing more systematic experimentation of our intuitions.
345
941000
5000
se fizéssemos experimentos sistemáticos sobre a nossa intuição.
16:01
Thank you very much.
346
946000
2000
Muito obrigado.
Translated by Aurelio Tergolina Salton
Reviewed by Vagner Pagotti

▲Back to top

ABOUT THE SPEAKER
Dan Ariely - Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why.

Why you should listen

Dan Ariely is a professor of psychology and behavioral economics at Duke University and a founding member of the Center for Advanced Hindsight. He is the author of the bestsellers Predictably IrrationalThe Upside of Irrationality, and The Honest Truth About Dishonesty -- as well as the TED Book Payoff: The Hidden Logic that Shapes Our Motivations.

Through his research and his (often amusing and unorthodox) experiments, he questions the forces that influence human behavior and the irrational ways in which we often all behave.

More profile about the speaker
Dan Ariely | Speaker | TED.com