ABOUT THE SPEAKER
Dan Gilbert - Psychologist; happiness expert
Harvard psychologist Dan Gilbert says our beliefs about what will make us happy are often wrong -- a premise he supports with intriguing research, and explains in his accessible and unexpectedly funny book, Stumbling on Happiness.

Why you should listen

Dan Gilbert believes that, in our ardent, lifelong pursuit of happiness, most of us have the wrong map. In the same way that optical illusions fool our eyes -- and fool everyone's eyes in the same way -- Gilbert argues that our brains systematically misjudge what will make us happy. And these quirks in our cognition make humans very poor predictors of our own bliss.

The premise of his current research -- that our assumptions about what will make us happy are often wrong -- is supported with clinical research drawn from psychology and neuroscience. But his delivery is what sets him apart. His engaging -- and often hilarious -- style pokes fun at typical human behavior and invokes pop-culture references everyone can relate to. This winning style translates also to Gilbert's writing, which is lucid, approachable and laugh-out-loud funny. The immensely readable Stumbling on Happiness, published in 2006, became a New York Times bestseller and has been translated into 20 languages.

In fact, the title of his book could be drawn from his own life. At 19, he was a high school dropout with dreams of writing science fiction. When a creative writing class at his community college was full, he enrolled in the only available course: psychology. He found his passion there, earned a doctorate in social psychology in 1985 at Princeton, and has since won a Guggenheim Fellowship and the Phi Beta Kappa teaching prize for his work at Harvard. He has written essays and articles for The New York Times, Time and even Starbucks, while continuing his research into happiness at his Hedonic Psychology Laboratory.

More profile about the speaker
Dan Gilbert | Speaker | TED.com
TED2004

Dan Gilbert: The surprising science of happiness

Dan Gilbert pergunta: por que somos felizes?

Filmed:
18,394,509 views

Dan Gilbert, autor de "Stumbling on Happiness" (Tropeçando na Felicidade), contesta a idéia de que seremos infelizes se não tivermos o que queremos. Nosso "sistema imunológico psicológico" permite que sejamos felizes mesmo quando as coisas não são como planejamos.
- Psychologist; happiness expert
Harvard psychologist Dan Gilbert says our beliefs about what will make us happy are often wrong -- a premise he supports with intriguing research, and explains in his accessible and unexpectedly funny book, Stumbling on Happiness. Full bio

Double-click the English transcript below to play the video.

00:15
When you have 21 minutes to speak,
0
0
2000
Quando você tem 21 minutos para falar,
00:17
two million years seems like a really long time.
1
2000
3000
2 milhões de anos parece muito tempo.
00:20
But evolutionarily, two million years is nothing.
2
5000
3000
Mas na evolução, 2 milhões de anos é nada.
00:23
And yet in two million years the human brain has nearly tripled in mass,
3
8000
6000
mesmo assim em 2 milhões de anos o cérebro humano quase triplicou sua massa,
00:29
going from the one-and-a-quarter pound brain of our ancestor here, Habilis,
4
14000
3000
dos 650g do nosso ancestral Homo Habilis,
00:32
to the almost three-pound meatloaf that everybody here has between their ears.
5
17000
6000
para os quase 1,5 Kg que todos temos entre as orelhas.
00:38
What is it about a big brain that nature was so eager for every one of us to have one?
6
23000
7000
Por que a natureza teve tanta vontade de nos dar um cérebro tão grande?
00:45
Well, it turns out when brains triple in size,
7
30000
3000
Acontece que quando cérebros triplicam em tamanho,
00:48
they don't just get three times bigger; they gain new structures.
8
33000
4000
não ficam só 3 vezes maiores, ganham novas estruturas.
00:52
And one of the main reasons our brain got so big is because it got a new part,
9
37000
4000
Uma das maiores razões para ficar tão grande, é ter uma nova parte,
00:56
called the "frontal lobe." And particularly, a part called the "pre-frontal cortex."
10
41000
4000
chamada lobo frontal. E particularmente uma parte chamada córtex pré-frontal.
01:00
Now what does a pre-frontal cortex do for you that should justify
11
45000
4000
O que o córtex pré-frontal faz por você para justificar
01:04
the entire architectural overhaul of the human skull in the blink of evolutionary time?
12
49000
5000
toda a remodelagem do crânio humano em um breve momento evolucionário?
01:09
Well, it turns out the pre-frontal cortex does lots of things,
13
54000
3000
O córtex pré-frontal faz muitas coisas,
01:12
but one of the most important things it does
14
57000
2000
uma das mais importantes é ser
01:14
is it is an experience simulator.
15
59000
4000
um simulador de experiências.
01:18
Flight pilots practice in flight simulators
16
63000
4000
Pilotos praticam em simuladores de vôo
01:22
so that they don't make real mistakes in planes.
17
67000
2000
para que não cometam erros em aviões reais.
01:24
Human beings have this marvelous adaptation
18
69000
3000
Seres humanos têm uma adaptação maravilhosa
01:27
that they can actually have experiences in their heads
19
72000
4000
para simular experiências em suas cabeças
01:31
before they try them out in real life.
20
76000
2000
antes de tentar na vida real.
01:33
This is a trick that none of our ancestors could do,
21
78000
3000
É um truque que nenhum de nossos ancestrais podia fazer,
01:36
and that no other animal can do quite like we can. It's a marvelous adaptation.
22
81000
5000
que nenhum outro animal pode fazer como nós. É uma adaptação sensacional.
01:41
It's up there with opposable thumbs and standing upright and language
23
86000
4000
É como polegares opositores, ficar de pé e ter uma linguagem
01:45
as one of the things that got our species out of the trees
24
90000
3000
é uma das coisas que fizeram nossos ancestrais descer das árvores
01:48
and into the shopping mall.
25
93000
2000
e ir aos shoppings.
01:50
Now -- (Laughter) -- all of you have done this.
26
95000
3000
(Risos) -- Todos já passaram por isto.
01:53
I mean, you know,
27
98000
1000
Por exemplo,
01:54
Ben and Jerry's doesn't have liver-and-onion ice cream,
28
99000
4000
Não existe um sabor fígado-e-cebola de sorvete.
01:58
and it's not because they whipped some up, tried it and went, "Yuck."
29
103000
3000
E não é porque eles provaram um pouco e disseram "ugh".
02:01
It's because, without leaving your armchair,
30
106000
3000
É porque, sem sair da sua poltrona,
02:04
you can simulate that flavor and say "yuck" before you make it.
31
109000
4000
você pode simular o sabor e dizer "ugh" antes de fazer este sabor.
02:08
Let's see how your experience simulators are working.
32
113000
5000
Vejamos como seu simulador de experiências funciona.
02:13
Let's just run a quick diagnostic
before I proceed with the rest of the talk.
33
118000
4000
Vamos fazer um diagnóstico rápido antes de continuar.
02:17
Here's two different futures that I invite you to contemplate,
34
122000
4000
Aqui estão dois diferentes futuros que eu lhes convido a contemplar,
02:21
and you can try to simulate them and tell me which one you think you might prefer.
35
126000
4000
e vocês podem tentar imaginar e dizer qual vocês preferem.
02:25
One of them is winning the lottery. This is about 314 million dollars.
36
130000
5000
Um é ganhar a loteria, US$ 314 Milhões.
02:30
And the other is becoming paraplegic.
37
135000
3000
O outro é se tornar paraplégico.
02:33
So, just give it a moment of thought.
38
138000
3000
Pensem um pouco.
02:36
You probably don't feel like you need a moment of thought.
39
141000
3000
Vocês devem achar que não precisam de um momento.
02:39
Interestingly, there are data on these two groups of people,
40
144000
4000
O interessante é que existem informações sobre estes dois grupos,
02:43
data on how happy they are.
41
148000
2000
que dizem quão felizes são.
02:45
And this is exactly what you expected, isn't it?
42
150000
3000
E isto é o que vocês esperavam, certo?
02:48
But these aren't the data. I made these up!
43
153000
3000
Mas estes não são os dados. Eu os inventei!
02:51
These are the data. You failed the pop quiz, and you're hardly five minutes into the lecture.
44
156000
5000
Estas são as informações verdadeiras. Vocês falharam no teste, mal viram cinco minutos de aula
02:56
Because the fact is that a year after losing the use of their legs,
45
161000
4000
Porque o fato é que um ano depois de perder controle das pernas,
03:00
and a year after winning the lotto, lottery winners and paraplegics
46
165000
5000
e um ano depois de ganhar a loteria, sortudos e paraplégicos
03:05
are equally happy with their lives.
47
170000
2000
estão igualmente felizes com suas vidas.
03:07
Now, don't feel too bad about failing the first pop quiz,
48
172000
3000
Agora, não se sinta tão mal sobre seu erro no teste,
03:10
because everybody fails all of the pop quizzes all of the time.
49
175000
3000
porque todo mundo falha em testes o tempo todo.
03:13
The research that my laboratory has been doing,
50
178000
3000
A pesquisa que meu laboratório tem feito,
03:16
that economists and psychologists around the country have been doing,
51
181000
3000
que economistas e psicólogos pelo país têm feito,
03:19
have revealed something really quite startling to us,
52
184000
3000
revelou algo notável para nós.
03:22
something we call the "impact bias,"
53
187000
3000
algo que chamamos viés do impacto,
03:25
which is the tendency for the simulator to work badly.
54
190000
3000
a tendência do simulador de funcionar mal.
03:28
For the simulator to make you believe that different outcomes
55
193000
4000
de fazer você acreditar que resultados diferentes
03:32
are more different than in fact they really are.
56
197000
3000
são mais diferentes que de verdade.
03:35
From field studies to laboratory studies,
57
200000
2000
Dos estudos de campo a estudos em laboratório,
03:37
we see that winning or losing an election, gaining or losing a romantic partner,
58
202000
4000
nós vemos que ganhar ou perder uma eleição, começar ou terminar um namoro,
03:41
getting or not getting a promotion, passing or not passing a college test,
59
206000
5000
ganhar ou não ganhar uma promoção, passar ou não em um vestibular,
03:46
on and on, have far less impact, less intensity and much less duration
60
211000
5000
e tudo mais, tem muito menos impacto, menos intensidade e muito menos duração
03:51
than people expect them to have.
61
216000
3000
que as pessoas esperam que tenha.
03:54
In fact, a recent study -- this almost floors me --
62
219000
3000
Na verdade um estudo recente -- - isto quase me resume --
03:57
a recent study showing how major life traumas affect people
63
222000
5000
um estudo recente mostrando quanto grandes traumas da vida afetam as pessoas
04:02
suggests that if it happened over three months ago,
64
227000
3000
sugere que se aconteceu há mais de três meses,
04:05
with only a few exceptions,
65
230000
1000
com poucas exceções,
04:06
it has no impact whatsoever on your happiness.
66
231000
3000
não tem nenhum impacto na sua felicidade.
04:09
Why?
67
234000
3000
Por que?
04:12
Because happiness can be synthesized.
68
237000
4000
Porque a felicidade pode ser sintetizada.
04:16
Sir Thomas Brown wrote in 1642, "I am the happiest man alive.
69
241000
4000
Sir Thomas Brown escreveu em 1642, "eu sou o homem vivo mais feliz
04:20
I have that in me that can convert poverty to riches, adversity to prosperity.
70
245000
6000
Eu tenho algo em mim que pode converter pobreza em riqueza, adversidade em prosperidade.
04:26
I am more invulnerable than Achilles; fortune hath not one place to hit me."
71
251000
4000
eu sou mais invulnerável que Aquiles. O azar não tem como me atingir"
04:30
What kind of remarkable machinery does this guy have in his head?
72
255000
4000
Que máquina notável esse homem tinha na sua cabeça?
04:34
Well, it turns out it's precisely the same remarkable machinery that all off us have.
73
259000
5000
Acontece que é precisamente a mesma máquina notável que todos nós temos.
04:39
Human beings have something that we might think of as a "psychological immune system."
74
264000
6000
Seres humanos têm algo que podemos considerar um sistema imunológico psicológico.
04:45
A system of cognitive processes, largely non-conscious cognitive processes,
75
270000
5000
Um sistema que conduz seus processos, principalmente inconscientes,
04:50
that help them change their views of the world,
76
275000
4000
que os ajudam a mudar suas visões de mundo,
04:54
so that they can feel better about the worlds in which they find themselves.
77
279000
4000
para que possam se sentir melhor sobre o mundo em que estão.
04:58
Like Sir Thomas, you have this machine.
78
283000
2000
Como sir Thomas você tem esta máquina.
05:00
Unlike Sir Thomas, you seem not to know it. (Laughter)
79
285000
4000
Ao contrário dele você parece não saber.
05:04
We synthesize happiness, but we think happiness is a thing to be found.
80
289000
6000
Nós sintetizamos felicidade, mas pensamos que ela precisa ser encontrada.
05:10
Now, you don't need me to give you too many examples of people synthesizing happiness,
81
295000
5000
Vocês não precisam que eu lhes dê que muitos exemplos notórios de pessoas sintetizando felicidade,
05:15
I suspect. Though I'm going to show you some experimental evidence,
82
300000
3000
eu suspeito. Eu vou lhes mostrar algumas provas experimentais,
05:18
you don't have to look very far for evidence.
83
303000
3000
Você não precisa procurar muito longe por provas.
05:21
As a challenge to myself, since I say this once in a while in lectures,
84
306000
3000
Eu, como desafio pessoal, como eu falo isto algumas vezes em aulas,
05:24
I took a copy of the New York Times and tried to find some instances of people synthesizing happiness.
85
309000
4000
Peguei um exemplar do New York Times e tentei encontrar alguns exemplos de pessoas sintetizando felicidade.
05:28
And here are three guys synthesizing happiness.
86
313000
2000
E aqui estão três caras sintetizando felicidade.
05:30
"I am so much better off physically, financially, emotionally, mentally
87
315000
3000
“Estou muito melhor, fisicamente, financeiramente, mentalmente,
05:33
and almost every other way." "I don't have one minute's regret.
88
318000
4000
em todos os outros sentidos.” “Não me lamento um minuto,
05:37
It was a glorious experience." "I believe it turned out for the best."
89
322000
3000
foi uma experiência gloriosa.” “Eu acredito que o que aconteceu foi o melhor.”
05:40
Who are these characters who are so damn happy?
90
325000
2000
Quem são essas pessoas tão felizes?
05:42
Well, the first one is Jim Wright.
91
327000
2000
Bem, a primeira é Jim Wright.
05:44
Some of you are old enough to remember: he was the chairman of the House of Representatives
92
329000
4000
Alguns de vocês têm idade suficiente para lembrar: ele era o presidente da Câmara dos Deputados
05:48
and he resigned in disgrace when this young Republican named Newt Gingrich
93
333000
4000
e ele renunciou em desgraça quando o jovem republicano Newt Gingricht
05:52
found out about a shady book deal he had done.
94
337000
3000
descobriu um negócio obscuro que ele fez.
05:55
He lost everything. The most powerful Democrat in the country,
95
340000
2000
Ele perdeu tudo. O democrata mais poderoso do país,
05:57
he lost everything.
96
342000
1000
perdeu tudo.
05:58
He lost his money; he lost his power.
97
343000
3000
Perdeu seu dinheiro, perdeu seu poder,
06:01
What does he have to say all these years later about it?
98
346000
2000
O que ele tem a dizer depois destes anos sobre isso?
06:03
"I am so much better off physically, financially, mentally
99
348000
3000
“Estou muito melhor, fisicamente, financeiramente, mentalmente
06:06
and in almost every other way."
100
351000
2000
em todos os outros sentidos.”
06:08
What other way would there be to be better off?
101
353000
2000
Que outro sentido haveria?
06:10
Vegetably? Minerally? Animally? He's pretty much covered them there.
102
355000
4000
Vegetalmente, mineralmente, animalmente? Ele já falou tudo.
06:14
Moreese Bickham is somebody you've never heard of.
103
359000
2000
Moreese Bickham, alguém de quem você nunca ouviu falar.
06:16
Moreese Bickham uttered these words upon being released.
104
361000
4000
Moreese Bickham pronunciou estas palavras quando foi solto.
06:20
He was 78 years old. He spent 37 years
105
365000
2430
Ele tinha 78 anos. Ele passou 37 anos
em uma Penitenciária da Louisiana por um crime que não cometeu.
06:22
in a Louisiana State Penitentiary
for a crime he didn't commit.
106
367430
2790
Ele foi finalmente inocentado,
06:25
[He was ultimately
107
370220
1780
06:27
released for good behavior
halfway through his sentence.]
108
372000
3000
aos 78 anos, por provas de DNA.
06:30
And what did he have to say about his experience?
109
375000
2000
O que ele tinha a dizer sobre a experiência?
06:32
"I don't have one minute's regret. It was a glorious experience."
110
377000
2000
“Eu não lamento um minuto, foi uma experiência gloriosa.”
06:34
Glorious! This guy is not saying,
111
379000
2000
Gloriosa! Este cara não disse,
06:36
"Well, you know, there were some nice guys. They had a gym."
112
381000
2000
“Bem, tinha uns caras legais, tinha sala de ginástica.”
06:38
It's "glorious,"
113
383000
1000
É "glorioso,"
06:39
a word we usually reserve for something like a religious experience.
114
384000
4000
A palavra que geralmente reservamos para uma experiência religiosa.
06:43
Harry S. Langerman uttered these words, and he's somebody you might have known
115
388000
4000
Harry S. Langerman disse estas palavras, você poderia tê-lo conhecido
06:47
but didn't, because in 1949 he read a little article in the paper
116
392000
3000
mas não conheceu, porque em 1949 ele leu um artigo em um jornal
06:50
about a hamburger stand owned by these two brothers named McDonalds.
117
395000
4000
sobre um quiosque de hambúrguer que aqueles irmãos McDonalds tinham.
06:54
And he thought, "That's a really neat idea!"
118
399000
2000
E ele pensou “é uma bela idéia!”
06:56
So he went to find them. They said,
119
401000
2000
Então se encontrou com eles. E eles disseram,
06:58
"We can give you a franchise on this for 3,000 bucks."
120
403000
2000
“lhe damos a franquia disto por 3000 dólares.”
07:00
Harry went back to New York, asked his brother who's an investment banker
121
405000
4000
Harry voltou a Nova Iorque e pediu a seu irmão, um banqueiro,
07:04
to loan him the 3,000 dollars,
122
409000
1000
um empréstimo de 3000 dólares,
07:05
and his brother's immortal words were,
123
410000
2000
E as palabras imortais de seu irmão foram:
07:07
"You idiot, nobody eats hamburgers."
124
412000
1000
“você é um idiota, ninguém come hambúrgueres.”
07:08
He wouldn't lend him the money, and of course six months later
125
413000
3000
Ele não emprestou o dinheiro, e claro que seis meses depois
07:11
Ray Croc had exactly the same idea.
126
416000
2000
Ray Kroc teve exatamente a mesma idéia.
07:13
It turns out people do eat hamburgers,
127
418000
2000
Acontece que as pessoas comem hambúrgueres,
07:15
and Ray Croc, for a while, became the richest man in America.
128
420000
4000
e Ray Kroc por um tempo foi o homem mais rico da América.
07:20
And then finally -- you know, the best of all possible worlds --
129
425000
2000
E então finalmente -- o melhor de todos os mundos possíveis --
07:22
some of you recognize this young photo of Pete Best,
130
427000
5000
alguns de vocês reconhecem o jovem na foto, é Pete Best,
07:27
who was the original drummer for the Beatles,
131
432000
2000
que era o baterista original dos Beatles,
07:29
until they, you know, sent him out on an errand and snuck away
132
434000
3000
Até que eles o mandaram pro espaço e foram embora
07:32
and picked up Ringo on a tour.
133
437000
3000
e pegaram Ringo em uma turnê.
07:35
Well, in 1994, when Pete Best was interviewed
134
440000
2000
Já em 1994 quando Pete Best foi entrevistado
07:37
-- yes, he's still a drummer; yes, he's a studio musician --
135
442000
3000
-- sim, ele ainda é baterista, sim, ele é músico de estúdio --
07:40
he had this to say: "I'm happier than I would have been with the Beatles."
136
445000
3000
ele tinha isto para dizer: “eu sou mais feliz que se estivesse com os Beatles”
07:43
Okay. There's something important to be learned from these people,
137
448000
3000
OK. Há algo importante para aprender com estas pessoas,
07:46
and it is the secret of happiness.
138
451000
2000
que é o segredo da felicidade.
07:48
Here it is, finally to be revealed.
139
453000
2000
Aqui está, finalmente revelado.
07:50
First: accrue wealth, power, and prestige,
140
455000
3000
Primeiro: ganhe riqueza, poder e prestígio.
07:53
then lose it. (Laughter)
141
458000
3000
Então perca tudo. (Risos).
07:56
Second: spend as much of your life in prison as you possibly can.
142
461000
3000
Segundo: passe o máximo possível da sua vida na cadeia.
07:59
(Laughter) Third: make somebody else really, really rich. (Laughter)
143
464000
5000
Terceiro: torne outra pessoa muito, muito rica. (Risos).
08:04
And finally: never ever join the Beatles. (Laughter)
144
469000
4000
E finalmente, nunca, nunca mesmo, entre para os Beatles. (Risos).
08:08
OK. Now I, like Ze Frank, can predict your next thought,
145
473000
5000
OK, agora, como Ze Frank, eu posso adivinhar seu pensamento,
08:13
which is, "Yeah, right." Because when
146
478000
2000
que é: “É, claro!.” Porque quando
08:15
people synthesize happiness, as these gentlemen seem to have done,
147
480000
4000
as pessoas sintetizam felicidade, como estes senhores parecem ter feito,
08:19
we all smile at them, but we kind of roll our eyes and say,
148
484000
4000
nós todos sorrimos para eles, mas então olhamos para o lado e dizemos,
08:23
"Yeah right, you never really wanted the job."
149
488000
3000
“Claro, você não queria mesmo aquele emprego.”
08:26
"Oh yeah, right. You really didn't
150
491000
1000
“Claro, você não combinava mesmo com ela"
08:27
have that much in common with her,
151
492000
3000
vocês não tinham nada em comum,
08:30
and you figured that out just about the time
152
495000
2000
e você percebeu tudo isso bem na hora em que
08:32
she threw the engagement ring in your face."
153
497000
2000
ela atirou a aliança na sua cara.”
08:34
We smirk because we believe that synthetic happiness
154
499000
4000
Nós rimos porque acreditamos que felicidade sintética
08:38
is not of the same quality as what we might call "natural happiness."
155
503000
3000
não é da mesma qualidade da que chamaríamos felicidade natural.
08:41
What are these terms?
156
506000
1000
Que significam esses nomes?
08:42
Natural happiness is what we get when we get what we wanted,
157
507000
4000
Felicidade natural é o que obtemos quando temos o que queríamos,
08:46
and synthetic happiness is what we make when we don't get what we wanted.
158
511000
5000
felicidade sintética é o que criamos quando não temos o que queríamos.
08:51
And in our society, we have a strong belief
159
516000
3000
E nossa sociedade acredita fortemente que
08:54
that synthetic happiness is of an inferior kind.
160
519000
3000
felicidade sintética é de qualidade inferior.
08:57
Why do we have that belief?
161
522000
2000
Por que temos essa crença?
08:59
Well, it's very simple. What kind of economic engine
162
524000
4000
Bem, é simples. Que tipo de máquina econômica
09:03
would keep churning
163
528000
1000
continuaria trabalhando
09:04
if we believed that not getting what we want could make us just as happy as getting it?
164
529000
6000
se acreditássemos que não ter o que queremos poderia nos fazer tão felizes quanto ter?
09:10
With all apologies to my friend Matthieu Ricard,
165
535000
4000
Com todas as desculpas a meu amigo Matthieu Ricard,
09:14
a shopping mall full of Zen monks
166
539000
2000
um shopping cheio de monges budistas
09:16
is not going to be particularly profitable
167
541000
2000
não seria lucrativo
09:18
because they don't want stuff enough.
168
543000
4000
porque eles não querem coisas suficientes.
09:22
I want to suggest to you that synthetic happiness
169
547000
3000
Quero sugerir a você que felicidade sintética
09:25
is every bit as real and enduring
170
550000
3000
é, em todos os aspectos, tão real e durável
09:28
as the kind of happiness you stumble upon
171
553000
3000
quanto a felicidade que você obtém
09:31
when you get exactly what you were aiming for.
172
556000
3000
quando conquista exatamente o que queria.
09:34
Now, I'm a scientist, so I'm going to do this not with rhetoric,
173
559000
1000
Eu sou um cientista, então vou fazer isto não com retórica,
09:35
but by marinating you in a little bit of data.
174
560000
2000
mas mergulhando você em informação.
09:38
Let me first show you an experimental paradigm that is used
175
563000
2000
Deixe-me primeiro mostrar um paradigma experimental que é usado
09:40
to demonstrate the synthesis of happiness
176
565000
4000
para demonstrar a síntese da felicidade
09:44
among regular old folks. And this isn't mine.
177
569000
2000
entre pessoas comuns. Isto não é meu.
09:46
This is a 50-year-old paradigm called the "free choice paradigm."
178
571000
3000
É um paradigma de 50 anos de idade, chamado livre escolha.
09:49
It's very simple.
179
574000
2000
É simples.
09:51
You bring in, say, six objects,
180
576000
3000
Você mostra seis objetos
09:54
and you ask a subject to rank them from the most to the least liked.
181
579000
2000
e pede ao entrevistado que ordene do que ele gosta mais para menos.
09:56
In this case, because the experiment I'm going to tell you about uses them,
182
581000
3000
Neste caso, porque o experimento que vou mostrar usa,
09:59
these are Monet prints.
183
584000
2000
gravuras de Monet.
10:01
So, everybody can rank these Monet prints
184
586000
2000
Então todos ordenam estas gravuras de Monet
10:03
from the one they like the most, to the one they like the least.
185
588000
2000
da que mais gostam para a que menosgostam.
10:05
Now we give you a choice:
186
590000
2000
E você tem uma escolha:
10:07
"We happen to have some extra prints in the closet.
187
592000
3000
"Por acaso temos algumas gravuras a mais no depósito.
10:10
We're going to give you one as your prize to take home.
188
595000
2000
vamos lhe dar uma grátis."
10:12
We happen to have number three and number four,"
189
597000
3000
"temos o número 3 e número 4,"
10:15
we tell the subject. This is a bit of a difficult choice,
190
600000
3000
dizemos ao entrevistado. É uma escolha difícil,
10:18
because neither one is preferred strongly to the other,
191
603000
3000
nenhuma delas é preferência absoluta sobre a outra,
10:21
but naturally, people tend to pick number three
192
606000
3000
mas naturalmente tendem a escolher o 3,
10:24
because they liked it a little better than number four.
193
609000
2000
porque gostaram um pouco mais que do 4.
10:27
Sometime later -- it could be 15 minutes; it could be 15 days --
194
612000
3000
Algum tempo depois -- pode ser 15 minutos ou 15 dias --
10:30
the same stimuli are put before the subject,
195
615000
3000
você mostra a mesma coisa ao entrevistado,
10:33
and the subject is asked to re-rank the stimuli.
196
618000
2000
e lhe pedimos para classificar novamente as gravuras
10:35
"Tell us how much you like them now."
197
620000
2000
"Diga-nos de quais você gosta mais agora."
10:37
What happens? Watch as happiness is synthesized.
198
622000
3000
O que acontece? Vejam a felicidade ser sintetizada.
10:40
This is the result that has been replicated over and over again.
199
625000
4000
Este é um resultado que tem sido reproduzido várias vezes.
10:44
You're watching happiness be synthesized.
200
629000
1000
Vocês estão vendo felicidade ser sintetizada
10:45
Would you like to see it again? Happiness!
201
630000
5000
Querem ver de novo? Felicidade!
10:50
"The one I got is really better than I thought!
202
635000
2000
"O meu é melhor que eu pensava!
10:52
That other one I didn't get sucks!"
203
637000
2000
O que eu não tenho é uma droga!"
10:54
(Laughter) That's the synthesis of happiness.
204
639000
2000
(Risos). Esta é a síntese da felicidade.
10:56
Now what's the right response to that? "Yeah, right!"
205
641000
6000
Agora, qual é a resposta correta para isso? “É... claro!”
11:02
Now, here's the experiment we did,
206
647000
3000
Agora, este é o experimento que fizemos,
11:05
and I would hope this is going to convince you that
207
650000
1000
e eu espero lhe convencer que
11:06
"Yeah, right!" was not the right response.
208
651000
3000
“É... claro!” não é a resposta certa.
11:09
We did this experiment with a group of patients
209
654000
2000
Repetimos o experimento com pacientes
11:11
who had anterograde amnesia. These are hospitalized patients.
210
656000
3000
que têm amnésia antrógrada. São pacientes hospitalizados.
11:14
Most of them have Korsakoff's syndrome,
211
659000
2000
muitos deles têm síndrome de Kosarkoff,
11:16
a polyneuritic psychosis that -- they drank way too much,
212
661000
5000
uma psicose poli-neurótica que -- por que eles beberam demais,
11:21
and they can't make new memories.
213
666000
2000
e agora não conseguem construir novas memórias.
11:23
OK? They remember their childhood, but if you walk in and introduce yourself,
214
668000
4000
Eles conseguem lembrar a infância, mas se você chegar e se apresentar,
11:27
and then leave the room,
215
672000
1000
e sair da sala,
11:28
when you come back, they don't know who you are.
216
673000
2000
quando voltar eles não lembrarão quem você é.
11:31
We took our Monet prints to the hospital.
217
676000
3000
Levamos nossas gravuras de Monet ao hospital.
11:34
And we asked these patients to rank them
218
679000
4000
e pedimos aos pacientes para classificar
11:38
from the one they liked the most to the one they liked the least.
219
683000
3000
do que gostaram mais para o que gostaram menos.
11:41
We then gave them the choice between number three and number four.
220
686000
4000
Então demos a escolha entre o número 3 e o número 4
11:45
Like everybody else, they said,
221
690000
2000
Como todos os outros eles disseram,
11:47
"Gee, thanks Doc! That's great! I could use a new print.
222
692000
2000
"puxa, obrigado doutor, ótimo, eu quero a gravura.
11:49
I'll take number three."
223
694000
2000
vou ficar com o 3.”
11:51
We explained we would have number three mailed to them.
224
696000
4000
Nós dizemos que vamos enviar pelo correio;
11:55
We gathered up our materials and we went out of the room,
225
700000
3000
pegamos as coisas e saimos do quarto,
11:58
and counted to a half hour.
226
703000
2000
e esperamos meia hora.
12:00
Back into the room, we say, "Hi, we're back."
227
705000
3000
De volta ao quarto, dizemos “oi, voltamos!”
12:03
The patients, bless them, say, "Ah, Doc, I'm sorry,
228
708000
4000
os pobres pacientes dizem, “doutor, desculpe,
12:07
I've got a memory problem; that's why I'm here.
229
712000
2000
eu tenho falta de memória, é por isso que estou aqui.
12:09
If I've met you before, I don't remember."
230
714000
2000
Se nos vimos antes, não me lembro”
12:11
"Really, Jim, you don't remember? I was just here with the Monet prints?"
231
716000
3000
“Sério, Jim, não se lembra? Estivemos aqui com as gravuras de Monet?”
12:14
"Sorry, Doc, I just don't have a clue."
232
719000
3000
“Desculpe, doutor, não tenho idéia”
12:17
"No problem, Jim. All I want you to do is rank these for me
233
722000
3000
"Sem problema, Jim, só preciso que você classifique isto para mim
12:20
from the one you like the most to the one you like the least."
234
725000
5000
do que você gosta mais para o que gosta menos.”
12:25
What do they do? Well, let's first check and make sure
235
730000
2000
O que eles fazem? Vamos primeiro ver se
12:27
they're really amnesiac. We ask these
236
732000
2000
têm amnésia mesmo. Pedimos a eles
12:29
amnesiac patients to tell us which one they own,
237
734000
4000
para dizer qual gravura eles têm,
12:33
which one they chose last time, which one is theirs.
238
738000
3000
Qual eles escolheram da última vez, qual é deles.
12:36
And what we find is amnesiac patients just guess.
239
741000
4000
E o que descobrimos: pacientes com amnésia apenas chutam.
12:40
These are normal controls, where if I did this with you,
240
745000
2000
Estes são grupos de controle, se eu fizesse com vocês,
12:42
all of you would know which print you chose.
241
747000
2000
vocês saberiam quais escolheram.
12:44
But if I do this with amnesiac patients,
242
749000
2000
Mas se eu faço com os pacientes amnésicos,
12:46
they don't have a clue. They can't pick their print out of a lineup.
243
751000
6000
eles não têm idéia. eles não conseguem escolher sua gravura na lista.
12:52
Here's what normal controls do: they synthesize happiness.
244
757000
4000
Isto é o que os grupos de controle normais fazem, sintetizam felicidade.
12:56
Right? This is the change in liking score,
245
761000
2000
Certo? Esta é a mudança no grau de preferência,
12:58
the change from the first time they ranked to the second time they ranked.
246
763000
3000
a mudança da primeira vez que escolheram para a segunda.
13:01
Normal controls show
247
766000
1000
Vistos os normais
13:02
-- that was the magic I showed you;
248
767000
2000
-- esta é a mágica que lhes mostrei,
13:04
now I'm showing it to you in graphical form --
249
769000
3000
agora visto em gráfico --
13:07
"The one I own is better than I thought. The one I didn't own,
250
772000
3000
"o que eu tenho é melhor que pensei. O que não tenho,
13:10
the one I left behind, is not as good as I thought."
251
775000
3000
o que rejeitei, não é tão bom quanto pensei."
13:13
Amnesiacs do exactly the same thing. Think about this result.
252
778000
5000
Amnésicos fazem exatamente a mesma coisa. Pense neste resultado.
13:18
These people like better the one they own,
253
783000
3000
estas pessoas preferem o que elas têm,
13:21
but they don't know they own it.
254
786000
3000
mas eles não sabem qual elas têm.
13:25
"Yeah, right" is not the right response!
255
790000
3000
“É... claro!” não é a resposta certa!
13:29
What these people did when they synthesized happiness
256
794000
3000
O que estas pessoas fizeram ao sintetizar felicidade
13:32
is they really, truly changed
257
797000
3000
é que elas sinceramente mudaram
13:35
their affective, hedonic, aesthetic reactions to that poster.
258
800000
5000
suas reações estéticas, hedônicas, afetivas sobre o pôster.
13:40
They're not just saying it because they own it,
259
805000
3000
Eles não dizem só porque são donos,
13:43
because they don't know they own it.
260
808000
3000
porque não sabem que são donos.
13:47
Now, when psychologists show you bars,
261
812000
3000
Agora, quando psicólogos mostram a você gráficos,
13:50
you know that they are showing you averages of lots of people.
262
815000
3000
você sabe que estão mostrando médias de muitas pessoas.
13:53
And yet, all of us have this psychological immune system,
263
818000
4000
E ainda assim, todos nós temos estes sistemas imunológicos psicológicos,
13:57
this capacity to synthesize happiness,
264
822000
2000
esta capacidade de sintetizar felicidade,
13:59
but some of us do this trick better than others.
265
824000
3000
mas alguns de nós executamos o truque melhor que outros.
14:02
And some situations allow anybody to do it more effectively
266
827000
4000
E algumas situações permitem qualquer um executar melhor
14:06
than other situations do.
267
831000
3000
que em outras situações.
14:10
It turns out that freedom
268
835000
4000
Acontece que a liberdade
14:14
-- the ability to make up your mind and change your mind --
269
839000
3000
-- a possibilidade de ter opinião e mudar de opinião --
14:17
is the friend of natural happiness, because it allows you to choose
270
842000
3000
é amiga da felicidade natural, porque permite escolher
14:20
among all those delicious futures and find the one that you would most enjoy.
271
845000
5000
entre tantos maravilhosos futuros e encontrar o que mais gosta.
14:25
But freedom to choose
272
850000
2000
Mas a liberdade de escolha
14:27
-- to change and make up your mind -- is the enemy of synthetic happiness.
273
852000
4000
-- mudar e rever sua opinião -- é inimiga da felicidade sintética.
14:31
And I'm going to show you why.
274
856000
2000
Quero lhes mostrar por quê.
14:33
Dilbert already knows, of course.
275
858000
1000
Dilbert já sabe é claro.
14:34
You're reading the cartoon as I'm talking.
276
859000
2000
vocês estão lendo a tira enquanto falo.
14:36
"Dogbert's tech support. How may I abuse you?"
277
861000
2000
“Suporte técnico. Como posso abusar de você?”
14:38
"My printer prints a blank page after every document."
278
863000
3000
“A impressora ejeta uma página em branco após o documento”
14:41
"Why would you complain about getting free paper?"
279
866000
2000
“Qual o problema, papel grátis?”
14:43
"Free? Aren't you just giving me my own paper?"
280
868000
2000
“Grátis? Você está me dando meu próprio papel?”
14:45
"Egad, man! Look at the quality of the free paper
281
870000
2000
“Deus! Olhe a qualidade do papel grátis
14:47
compared to your lousy regular paper!
282
872000
1000
perto do seu mísero papel comum!
14:48
Only a fool or a liar would say that they look the same!"
283
873000
3000
"Só um burro ou mentiroso diriam que são iguais!"
14:51
"Ah! Now that you mention it, it does seem a little silkier!"
284
876000
3000
“Agora que você mencionou, ele até parece mais sedoso!”
14:54
"What are you doing?"
285
879000
2000
“O que você está fazendo?”
14:56
"I'm helping people accept the things they cannot change." Indeed.
286
881000
3000
“Ajudando as pessoas a aceitar coisas que não podem mudar.” Realmente.
14:59
The psychological immune system works best
287
884000
3000
O sistema imunológico psicológico funciona melhor
15:02
when we are totally stuck, when we are trapped.
288
887000
4000
quando estamos totalmente presos, encurralados.
15:06
This is the difference between dating and marriage, right?
289
891000
2000
É a diferença entre estar namorando e ter casado, certo?
15:08
I mean, you go out on a date with a guy,
290
893000
2000
Se você sai com um cara,
15:10
and he picks his nose; you don't go out on another date.
291
895000
2000
e ele mete o dedo no nariz, você não sai mais.
15:12
You're married to a guy and he picks his nose?
292
897000
2000
Você está casada com um cara que mete o dedo no nariz?
15:14
Yeah, he has a heart of gold;
293
899000
1000
Certo, ele é um coração de ouro;
15:15
don't touch the fruitcake. Right? (Laughter)
294
900000
2000
Não toque no bolo! Certo? (Risos).
15:17
You find a way to be happy with what's happened.
295
902000
4000
Você encontra um jeito de ser feliz com o que acontece.
15:21
Now what I want to show you is that
296
906000
3000
Agora, o que quero mostrar para vocês é que
15:24
people don't know this about themselves,
297
909000
3000
as pessoas não conhecem a si mesmas,
15:27
and not knowing this can work to our supreme disadvantage.
298
912000
3000
e isso é uma suprema desvantagem para elas mesmas.
15:30
Here's an experiment we did at Harvard.
299
915000
2000
Aqui está um experimento que fizemos em Harvard.
15:32
We created a photography course, a black-and-white photography course,
300
917000
3000
Criamos um curso de fotografia, para fotos em preto e branco,
15:35
and we allowed students to come in and learn how to use a darkroom.
301
920000
3000
e nós deixamos os estudantes entrar em uma sala escura e usá-la.
15:39
So we gave them cameras; they went around campus;
302
924000
2000
Demos a eles câmeras, eles percorreram o campus,
15:41
they took 12 pictures of their favorite professors and their dorm room and their dog,
303
926000
5000
tiraram doze fotos de seus professores preferidos, alojamentos, cachorros,
15:46
and all the other things they wanted to have Harvard memories of.
304
931000
2000
e todas as coisas que queriam ter como lembrança de Harvard.
15:48
They bring us the camera; we make up a contact sheet;
305
933000
3000
Eles nos trouxeram a câmera, fizemos uma folha de contatos,
15:51
they figure out which are the two best pictures;
306
936000
2000
e eles escolheram as duas melhores fotos,
15:53
and we now spend six hours teaching them about darkrooms.
307
938000
2000
e gastamos seis horas ensinando a usar a sala escura,
15:55
And they blow two of them up,
308
940000
2000
e eles ampliaram dois deles,
15:57
and they have two gorgeous eight-by-10 glossies of
309
942000
2000
fizeram dois lindos retratos de 8x10 de
15:59
meaningful things to them, and we say,
310
944000
2000
coisas importantes para eles e dissemos,
16:01
"Which one would you like to give up?"
311
946000
3000
“qual dos dois você vai nos dar?”
16:04
They say, "I have to give one up?"
312
949000
1000
Eles disseram: “tenho de dar um?”
16:05
"Oh, yes. We need one as evidence of the class project.
313
950000
3000
“Sim, precisamos para registro deste projeto.
16:08
So you have to give me one. You have to make a choice.
314
953000
3000
Você tem de me dar um. Precisa escolher.
16:11
You get to keep one, and I get to keep one."
315
956000
3000
Escolha um deles e me dê o outro.”
16:14
Now, there are two conditions in this experiment.
316
959000
3000
Há dois grupos neste experimento.
16:17
In one case, the students are told, "But you know,
317
962000
3000
Em um caso dizemos aos estudantes, “Mas, sabe,
16:20
if you want to change your mind, I'll always have the other one here,
318
965000
3000
se quiser mudar de idéia, eu vou ter o outro aqui,
16:23
and in the next four days, before I actually mail it to headquarters,
319
968000
4000
nos próximos quatro dias, antes de eu mandar para a central,
16:27
I'll be glad to" -- (Laughter) -- yeah, "headquarters" --
320
972000
3000
Eu poderei -- (Risos) -- é, "central" --
16:30
"I'll be glad to swap it out with you. In fact,
321
975000
3000
"Eu poderei trocar ela com você. Na verdade,
16:33
I'll come to your dorm room and give
322
978000
1000
Eu vou ao seu alojamento levar
16:34
-- just give me an email. Better yet, I'll check with you.
323
979000
3000
-- só me mande um e-mail. Melhor, eu verifico com você.
16:37
You ever want to change your mind, it's totally returnable."
324
982000
3000
"não se preocupe se mudar de idéia, a escolha é reversível"
16:40
The other half of the students are told exactly the opposite:
325
985000
3000
A outra metade dos estudantes ouve o exato contrário:
16:43
"Make your choice. And by the way,
326
988000
2000
"Faça sua escolha. Aliás,
16:45
the mail is going out, gosh, in two minutes, to England.
327
990000
3000
o correio está saindo, céus, em dois minutos para a Inglaterra.
16:48
Your picture will be winging its way over the Atlantic.
328
993000
2000
Em dois minutos sua foto estará sobre o Atlântico.
16:50
You will never see it again."
329
995000
2000
Você nunca a verá de novo."
16:52
Now, half of the students in each of these conditions
330
997000
3000
Para metade dos estudantes em cada grupo
16:55
are asked to make predictions about how much
331
1000000
2000
pedimos para fazer previsões sobre quanto
16:57
they're going to come to like the picture that they keep
332
1002000
3000
acham que vão gostar da foto que escolheram
17:00
and the picture they leave behind.
333
1005000
2000
comparada com a que entregaram.
17:02
Other students are just sent back to their little dorm rooms
334
1007000
3000
Outros estudantes simplesmente são dispensados
17:05
and they are measured over the next three to six days
335
1010000
5000
e os acompanhamos entre três a seis dias
17:10
on their liking, satisfaction with the pictures.
336
1015000
2000
sobre sua satisfação e apreço a respeito das fotos.
17:12
And look at what we find.
337
1017000
1000
Vejam o que descobrimos.
17:13
First of all, here's what students think is going to happen.
338
1018000
3000
Primeiro, isto é o que eles acham que vai acontecer.
17:16
They think they're going to maybe come to like the picture they chose
339
1021000
4000
Eles acham que eles vão gostar da foto que escolheram
17:20
a little more than the one they left behind,
340
1025000
3000
um pouco mais que da outra
17:23
but these are not statistically significant differences.
341
1028000
3000
mas estas diferenças não são estatisticamente significantes.
17:27
It's a very small increase, and it doesn't much matter
342
1032000
2000
Realmente é só uma pequena diferença e realmente não importa
17:29
whether they were in the reversible or irreversible condition.
343
1034000
3000
se eles estão na condição reversível ou irreversível.
17:32
Wrong-o. Bad simulators. Because here's what's really happening.
344
1037000
5000
Errado! Simulador mau! Isto é o que realmente acontece.
17:37
Both right before the swap and five days later,
345
1042000
3000
Seja logo antes da troca como cinco dias depois,
17:40
people who are stuck with that picture,
346
1045000
2000
As pessoas que estão presas à foto,
17:42
who have no choice,
347
1047000
1000
que não têm escolha,
17:43
who can never change their mind, like it a lot!
348
1048000
5000
não podem mudar de idéia, realmente adoram sua escolha!
17:48
And people who are deliberating -- "Should I return it?
349
1053000
3000
E as pessoas que estão deliberando -- “Devo trocar?
17:51
Have I gotten the right one? Maybe this isn't the good one?
350
1056000
2000
Escolhi a melhor? Talvez esta não seja melhor?
17:53
Maybe I left the good one?" -- have killed themselves.
351
1058000
2000
Será que deixei a melhor lá? -- se odeiam.
17:55
They don't like their picture, and in fact
352
1060000
2000
Elas não gostam da foto que têm, e, na verdade
17:57
even after the opportunity to swap has expired,
353
1062000
2000
depois da oportunidade de trocar ter passado,
17:59
they still don't like their picture. Why?
354
1064000
6000
elas ainda não gostam da foto que escolheram. Por que?
18:05
Because the reversible condition is not conducive
355
1070000
3000
Porque a condição reversível não é compatível
18:08
to the synthesis of happiness.
356
1073000
2000
com a síntese da felicidade.
18:10
So here's the final piece of this experiment.
357
1075000
3000
Aqui está a parte final do experimento.
18:13
We bring in a whole new group of naive Harvard students
358
1078000
4000
Escolhemos um novo grupo de estudantes ingênuos de Harvard
18:17
and we say, "You know, we're doing a photography course,
359
1082000
3000
e dizemos: "Estamos dando um curso de fotografia,”
18:20
and we can do it one of two ways.
360
1085000
2000
e podemos fazer de dois modos
18:22
We could do it so that when you take the two pictures,
361
1087000
3000
pode ser de modo que você tira duas fotos,
18:25
you'd have four days to change your mind,
362
1090000
2000
e tem 4 dias para mudar de idéia,
18:27
or we're doing another course where you take the two pictures
363
1092000
2000
ou fazemos outro curso onde você tira duas fotos
18:29
and you make up your mind right away
364
1094000
2000
e faz sua escolha na hora
18:31
and you can never change it. Which course would you like to be in?"
365
1096000
2000
e não pode mudar depois. Que curso você quer fazer?
18:33
Duh! 66 percent of the students, two-thirds,
366
1098000
5000
e 66% dos estudantes, 2/3,
18:38
prefer to be in the course where they have the opportunity to change their mind.
367
1103000
4000
preferem o curso em que têm a oportunidade de mudar de idéia.
18:42
Hello? 66 percent of the students choose to be in the course in which they will
368
1107000
4000
Sério! 66% dos estudantes escolheram estar em um curso em que eles vão
18:46
ultimately be deeply dissatisfied with the picture.
369
1111000
4000
ao final, ficar profundamente insatisfeitos com a foto.
18:50
Because they do not know the conditions under which synthetic happiness grows.
370
1115000
6000
Porque eles não conhecem as condições de produção da felicidade sintética.
18:56
The Bard said everything best, of course, and he's making my point here
371
1121000
5000
O poeta disse tudo mais bonito, claro, e ele apresenta meu argumento aqui
19:01
but he's making it hyperbolically:
372
1126000
3000
mas com hipérbole:
19:04
"'Tis nothing good or bad / But thinking makes it so."
373
1129000
3000
“Não existe nada bom ou ruim / mas pensar faz com que seja”
19:07
It's nice poetry, but that can't exactly be right.
374
1132000
3000
É bom na poesia, mas não pode estar certo.
19:10
Is there really nothing good or bad?
375
1135000
3000
Não existe mesmo nada bom ou ruim?
19:13
Is it really the case that gall bladder surgery and a trip to Paris
376
1138000
3000
É mesmo verdade que uma cirurgia renal e uma viagem a Paris
19:16
are just the same thing? That seems like a one-question IQ test.
377
1141000
7000
são a mesma coisa? Parece um teste de QI com só uma pergunta.
19:23
They can't be exactly the same.
378
1148000
2000
Bom e mau não podem ser a mesma coisa.
19:25
In more turgid prose, but closer to the truth,
379
1150000
3000
Em prosa mais empolada, mas mais verdadeira,
19:28
was the father of modern capitalism, Adam Smith, and he said this.
380
1153000
3000
o pai do capitalismo moderno, Adam Smith, disse isso.
19:31
This is worth contemplating:
381
1156000
2000
E vale a pena contemplar:
19:33
"The great source of both the misery and disorders of human life
382
1158000
4000
"A grande fonte de tanto miséria quanto desordem da vida humana
19:37
seems to arise from overrating the difference
383
1162000
3000
parece vir de superestimar a diferença
19:40
between one permanent situation and another ...
384
1165000
3000
entre uma situação permanente e outra ...
19:43
Some of these situations may, no doubt, deserve to be preferred to others,
385
1168000
5000
Algumas dessas situações podem, sem dúvida, merecer serem preferidas das outras,
19:48
but none of them can deserve to be pursued
386
1173000
6000
mas nenhuma delas pode merece ser perseguida
19:54
with that passionate ardor which drives us to violate the rules
387
1179000
4000
com tanta paixão que nos leve a violar as regras
19:58
either of prudence or of justice, or to corrupt the future tranquility of our minds,
388
1183000
5000
da prudência ou da justiça, ou corromper a tranqüilidade futura de nossas mentes,
20:03
either by shame from the remembrance of our own folly,
389
1188000
4000
tanto por vergonha da lembrança de nossa leviandade,
20:07
or by remorse for the horror of our own injustice."
390
1192000
4000
quanto pelo remorso do horror de nossa própria injustiça."
20:11
In other words: yes, some things are better than others.
391
1196000
5000
Em outras palavras: sim, algumas coisas são melhores que outras.
20:16
We should have preferences that lead us into one future over another.
392
1201000
5000
Nós devemos ter preferências que nos levem para um futuro em lugar de outro.
20:21
But when those preferences drive us too hard and too fast
393
1206000
4000
Mas quando essas preferências nos dominam com muita rapidez e rigidez
20:25
because we have overrated the difference between these futures,
394
1210000
4000
porque estamos superestimando a diferença entre esses futuros,
20:29
we are at risk.
395
1214000
3000
estamos em risco.
20:32
When our ambition is bounded, it leads us to work joyfully.
396
1217000
3000
Quando nossa ambição é contida, ela nos leva a trabalhar com prazer.
20:35
When our ambition is unbounded, it leads us to lie, to cheat, to steal, to hurt others,
397
1220000
6000
Quando nossa ambição é ilimitada, nos leva a mentir, enganar, roubar, ferir os outros,
20:41
to sacrifice things of real value. When our fears are bounded,
398
1226000
4000
sacrificar coisas realmente valiosas. Quando nossos medos são contidos,
20:45
we're prudent; we're cautious; we're thoughtful.
399
1230000
4000
nós somos prudentes, cautelosos, ponderados.
20:49
When our fears are unbounded and overblown,
400
1234000
3000
Quando nossos medos são ilimitados e reforçados,
20:52
we're reckless, and we're cowardly.
401
1237000
3000
somos irresponsáveis, e somos covardes.
20:55
The lesson I want to leave you with from these data
402
1240000
3000
A última coisa que eu quero deixar com vocês, destes dados
20:58
is that our longings and our worries are both to some degree overblown,
403
1243000
5000
é que nossos bens e preocupações são ambos em algum grau superestimados,
21:03
because we have within us the capacity to manufacture the very commodity
404
1248000
6000
porque nós temos dentro de nós a capacidade de fabricar o principal produto
21:09
we are constantly chasing when we choose experience.
405
1254000
4000
que estamos sempre caçando quando escolhemos experiências.
21:13
Thank you.
406
1258000
1000
Obrigado.
Translated by Fabio Ceconello
Reviewed by Lucia Freitas

▲Back to top

ABOUT THE SPEAKER
Dan Gilbert - Psychologist; happiness expert
Harvard psychologist Dan Gilbert says our beliefs about what will make us happy are often wrong -- a premise he supports with intriguing research, and explains in his accessible and unexpectedly funny book, Stumbling on Happiness.

Why you should listen

Dan Gilbert believes that, in our ardent, lifelong pursuit of happiness, most of us have the wrong map. In the same way that optical illusions fool our eyes -- and fool everyone's eyes in the same way -- Gilbert argues that our brains systematically misjudge what will make us happy. And these quirks in our cognition make humans very poor predictors of our own bliss.

The premise of his current research -- that our assumptions about what will make us happy are often wrong -- is supported with clinical research drawn from psychology and neuroscience. But his delivery is what sets him apart. His engaging -- and often hilarious -- style pokes fun at typical human behavior and invokes pop-culture references everyone can relate to. This winning style translates also to Gilbert's writing, which is lucid, approachable and laugh-out-loud funny. The immensely readable Stumbling on Happiness, published in 2006, became a New York Times bestseller and has been translated into 20 languages.

In fact, the title of his book could be drawn from his own life. At 19, he was a high school dropout with dreams of writing science fiction. When a creative writing class at his community college was full, he enrolled in the only available course: psychology. He found his passion there, earned a doctorate in social psychology in 1985 at Princeton, and has since won a Guggenheim Fellowship and the Phi Beta Kappa teaching prize for his work at Harvard. He has written essays and articles for The New York Times, Time and even Starbucks, while continuing his research into happiness at his Hedonic Psychology Laboratory.

More profile about the speaker
Dan Gilbert | Speaker | TED.com