ABOUT THE SPEAKER
Jonathan Haidt - Social psychologist
Jonathan Haidt studies how -- and why -- we evolved to be moral and political creatures.

Why you should listen

By understanding more about our moral psychology and its biases, Jonathan Haidt says we can design better institutions (including companies, universities and democracy itself), and we can learn to be more civil and open-minded toward those who are not on our team.

Haidt is a social psychologist whose research on morality across cultures led to his 2008 TED Talk on the psychological roots of the American culture war, and his 2013 TED Talk on how "common threats can make common ground." In both of those talks he asks, "Can't we all disagree more constructively?" Haidt's 2012 TED Talk explored the intersection of his work on morality with his work on happiness to talk about "hive psychology" -- the ability that humans have to lose themselves in groups pursuing larger projects, almost like bees in a hive. This hivish ability is crucial, he argues, for understanding the origins of morality, politics, and religion. These are ideas that Haidt develops at greater length in his book, The Righteous Mind: Why Good People are Divided by Politics and Religion.

Haidt joined New York University Stern School of Business in July 2011. He is the Thomas Cooley Professor of Ethical Leadership, based in the Business and Society Program. Before coming to Stern, Professor Haidt taught for 16 years at the University of Virginia in the department of psychology.

Haidt's writings appear frequently in the New York Times and The Wall Street Journal. He was named one of the top global thinkers by Foreign Policy magazine and by Prospect magazine. Haidt received a B.A. in Philosophy from Yale University, and an M.A. and Ph.D. in Psychology from the University of Pennsylvania.

More profile about the speaker
Jonathan Haidt | Speaker | TED.com
TED2008

Jonathan Haidt: The moral roots of liberals and conservatives

Jonathan Haidt fala sobre as raízes morais dos liberais e conservadores

Filmed:
3,635,704 views

O psicólogo Jonathan Haidt estuda cinco valores morais que formam a base de nossas escolhas políticas, quer sejamos de esquerda, direita ou centro. Nesta palestra inspiradora, ele indica os valores morais que liberais e conservadores tendem a honrar mais.
- Social psychologist
Jonathan Haidt studies how -- and why -- we evolved to be moral and political creatures. Full bio

Double-click the English transcript below to play the video.

00:19
Suppose that two American friends are traveling together in Italy.
0
1000
3000
Suponha que dois amigos americanos estejam viajando juntos pela Itália.
00:22
They go to see Michelangelo's "David,"
1
4000
2000
Eles vão ver a estátua de Davi, de Michelangelo,
00:24
and when they finally come face to face with the statue,
2
6000
2000
e quando eles finalmente estão frente a frente com ela,
00:26
they both freeze dead in their tracks.
3
8000
2000
ambos ficam perplexos.
00:28
The first guy -- we'll call him Adam --
4
10000
2000
Um deles -- que chamaremos de Adam --
00:30
is transfixed by the beauty of the perfect human form.
5
12000
3000
está fascinado pela beleza da forma humana perfeita.
00:33
The second guy -- we'll call him Bill --
6
15000
2000
O outro -- que chamaremos de Bill --
00:35
is transfixed by embarrassment, at staring at the thing there in the center.
7
17000
4000
está atônito de vergonha de olhar aquela coisa ali no meio da estátua.
00:40
So here's my question for you:
8
22000
2000
Então aqui está a minha pergunta para vocês:
00:42
which one of these two guys was more likely to have voted for George Bush,
9
24000
4000
qual desses dois tem maior chance de ter votado para George Bush,
00:46
which for Al Gore?
10
28000
2000
e qual para Al Gore?
00:48
I don't need a show of hands
11
30000
1000
Não preciso que me mostrem as mãos,
00:49
because we all have the same political stereotypes.
12
31000
3000
porque todos temos os mesmos estereótipos políticos.
00:52
We all know that it's Bill.
13
34000
2000
Todos sabemos que é Bill.
00:54
And in this case, the stereotype corresponds to reality.
14
36000
4000
E neste caso, o estereótipo corresponde a realidade.
00:58
It really is a fact that liberals are much higher than conservatives
15
40000
3000
É um fato que liberais apresentam muito mais que conservadores
01:01
on a major personality trait called openness to experience.
16
43000
3000
um traço de personalidade chamado de abertura à experiência.
01:04
People who are high in openness to experience
17
46000
2000
Pessoas que são abertas à experiência
01:06
just crave novelty, variety, diversity, new ideas, travel.
18
48000
4000
apreciam a novidade, variedade, diversidade, novas idéias, viagens.
01:10
People low on it like things that are familiar, that are safe and dependable.
19
52000
5000
Pessoas que não o são gostam de coisas familiares, seguras e confiáveis.
01:15
If you know about this trait,
20
57000
2000
Se você conhece este traço,
01:17
you can understand a lot of puzzles about human behavior.
21
59000
2000
você é capaz de entender vários quebra-cabeças sobre o comportamento humano.
01:19
You can understand why artists are so different from accountants.
22
61000
3000
Você é capaz de entender porque artistas são tão diferentes de contadores.
01:22
You can actually predict what kinds of books they like to read,
23
64000
2000
Você pode prever que tipo de livros eles vão ler,
01:24
what kinds of places they like to travel to,
24
66000
2000
para que tipo de lugares gostam de viajar,
01:26
and what kinds of food they like to eat.
25
68000
2000
e que tipo de comidas gostam de comer.
01:28
Once you understand this trait, you can understand
26
70000
3000
Uma vez que você entendeu este traço, você é capaz de entender
01:31
why anybody would eat at Applebee's, but not anybody that you know.
27
73000
4000
porque qualquer pessoa comeria no Applebee's, mas nenhuma das pessoas que você conhece.
01:35
(Laughter)
28
77000
6000
(Risadas)
01:41
This trait also tells us a lot about politics.
29
83000
2000
Este traço também nos diz muito sobre política.
01:43
The main researcher of this trait, Robert McCrae says that,
30
85000
3000
O principal pesquisador deste traço, Robert McCrae diz que,
01:46
"Open individuals have an affinity for liberal, progressive, left-wing political views" --
31
88000
4000
"Indivíduos abertos tem uma afinidade por pontos de vista liberais, progressivos, de esquerda" --
01:50
they like a society which is open and changing --
32
92000
2000
eles gostam de uma sociedade que está aberta e mudando --
01:52
"whereas closed individuals prefer conservative, traditional, right-wing views."
33
94000
5000
"enquanto indivíduos fechados preferem pontos de vista conservadores, tradicionais, de direita."
01:57
This trait also tells us a lot about the kinds of groups people join.
34
99000
4000
Este traço também nos diz muito sobre o tipo de grupos dos quais as pessoas participam.
02:01
So here's the description of a group I found on the Web.
35
103000
2000
Então aqui está a descrição de um grupo que achei na Web.
02:03
What kinds of people would join a global community
36
105000
2000
Que tipo de gente participaria de uma comunidade global
02:05
welcoming people from every discipline and culture,
37
107000
2000
à qual são bem-vindas pessoas de todas as disciplinas e culturas,
02:07
who seek a deeper understanding of the world,
38
109000
2000
que buscam um maior entendimento do mundo,
02:09
and who hope to turn that understanding into a better future for us all?
39
111000
3000
e que esperam transformar este entendimento num futuro melhor para todos nós?
02:12
This is from some guy named Ted.
40
114000
2000
Isto é de um cara chamado TED.
02:14
(Laughter)
41
116000
2000
(Risadas).
02:16
Well, let's see now, if openness predicts who becomes liberal,
42
118000
4000
Bom, vejamos agora, se a abertura prevê quem se torna liberal,
02:20
and openness predicts who becomes a TEDster,
43
122000
2000
e a abertura prevê quem se torna um participante do TED,
02:22
then might we predict that most TEDsters are liberal?
44
124000
3000
poderíamos então prever que a maioria dos participantes do TED são liberais?
02:25
Let's find out.
45
127000
1000
Vamos descobrir.
02:26
I'm going to ask you to raise your hand, whether you are liberal, left of center --
46
128000
4000
Vou pedir para que levantem as mãos, caso sejam liberais, à esquerda do centro --
02:30
on social issues, we're talking about, primarily --
47
132000
2000
nas questões sociais que estamos discutindo, primariamente --
02:32
or conservative, and I'll give a third option,
48
134000
2000
ou conservadores, e eu darei uma terceira opção,
02:34
because I know there are a number of libertarians in the audience.
49
136000
2000
porque sei que há alguns libertários na platéia.
02:36
So, right now, please raise your hand --
50
138000
2000
Então, agora, por favor levantem suas mãos --
02:38
down in the simulcast rooms, too,
51
140000
1000
nas salas de transmissão simultânea também,
02:39
let's let everybody see who's here --
52
141000
2000
deixemos que todos vejam quem está aqui.
02:41
please raise your hand if you would say that you are liberal or left of center.
53
143000
3000
Por favor levantem suas mãos caso se considerem liberais ou de esquerda.
02:44
Please raise your hand high right now. OK.
54
146000
3000
Por favor levantem suas mãos alto agora mesmo. OK.
02:48
Please raise your hand if you'd say you're libertarian.
55
150000
2000
Por favor levantem suas mãos caso se digam libertários.
02:51
OK, about a -- two dozen.
56
153000
2000
OK, cerca de -- duas dúzias.
02:53
And please raise your hand if you'd say you are right of center or conservative.
57
155000
3000
E por favor levantem as mãos caso se considerem de direita ou conservadores.
02:56
One, two, three, four, five -- about eight or 10.
58
158000
5000
Um, dois, três, quatro, cinco -- cerca de oito ou 10.
03:02
OK. This is a bit of a problem.
59
164000
3000
OK. Isto é meio problemático.
03:05
Because if our goal is to understand the world,
60
167000
3000
Porque se o nosso objetivo é entender o mundo,
03:08
to seek a deeper understanding of the world,
61
170000
2000
é buscar um maior entendimento do mundo,
03:10
our general lack of moral diversity here is going to make it harder.
62
172000
3000
nossa falta de diversidade moral aqui vai tornar isso mais difícil.
03:13
Because when people all share values, when people all share morals,
63
175000
4000
Porque quando todas as pessoas compartilham valores, quanto todas compartilham valores morais,
03:17
they become a team, and once you engage the psychology of teams,
64
179000
3000
elas se tornam um time, e uma vez que você ativa a psicologia de times,
03:20
it shuts down open-minded thinking.
65
182000
2000
isso desliga o pensamento aberto.
03:25
When the liberal team loses, as it did in 2004,
66
187000
4000
Quando o time liberal perde, como ocorreu em 2004,
03:29
and as it almost did in 2000, we comfort ourselves.
67
191000
4000
e como quase ocorreu em 2000, nos nós confortamos.
03:33
(Laughter)
68
195000
2000
(Risadas)
03:35
We try to explain why half of America voted for the other team.
69
197000
4000
Tentamos explicar porque metade dos EUA votou no outro time.
03:39
We think they must be blinded by religion, or by simple stupidity.
70
201000
5000
Pensamos que eles devem estar cegos pela religião, ou por simples estupidez.
03:44
(Laughter)
71
206000
3000
(Risadas)
03:47
(Applause)
72
209000
8000
(Aplausos)
03:55
So, if you think that half of America votes Republican
73
217000
6000
Então, se você pensa que metade dos EUA votou nos Republicanos
04:01
because they are blinded in this way,
74
223000
3000
porque eles estão cegos dessa maneira,
04:04
then my message to you is that you're trapped in a moral matrix,
75
226000
3000
minha mensagem para você é que você está preso em sua matriz moral,
04:07
in a particular moral matrix.
76
229000
1000
numa matriz moral particular.
04:08
And by the matrix, I mean literally the matrix, like the movie "The Matrix."
77
230000
4000
E por matriz, eu quero dizer literalmente a matriz como no filme "The Matrix".
04:12
But I'm here today to give you a choice.
78
234000
2000
Mas eu estou aqui hoje para lhes dar uma escolha.
04:14
You can either take the blue pill and stick to your comforting delusions,
79
236000
4000
Vocês podem tomar a pílula azul e continuar com suas ilusões confortantes,
04:18
or you can take the red pill,
80
240000
2000
ou podem tomar a pílula vermelha,
04:20
learn some moral psychology and step outside the moral matrix.
81
242000
3000
aprender alguma psicologia moral e sair da matriz moral.
04:23
Now, because I know --
82
245000
2000
Porque, agora eu sei --
04:25
(Applause) --
83
247000
3000
(Aplausos)
04:28
OK, I assume that answers my question.
84
250000
2000
OK, acho que isso responde a minha pergunta.
04:30
I was going to ask you which one you picked, but no need.
85
252000
2000
Eu ia perguntar qual delas vocês escolheriam, mas não preciso mais.
04:32
You're all high in openness to experience, and besides,
86
254000
2000
Vocês têm um alto índice de abertura a experiências, e além disso,
04:34
it looks like it might even taste good, and you're all epicures.
87
256000
3000
parece que elas têm gosto bom, e vocês são todos epicuristas..
04:37
So anyway, let's go with the red pill.
88
259000
2000
Então de qualquer forma, vamos com a pílula vermelha.
04:39
Let's study some moral psychology and see where it takes us.
89
261000
2000
Vamos estudar um pouco de psicologia moral e ver aonde isso nos leva.
04:41
Let's start at the beginning.
90
263000
2000
Vamos começar pelo começo.
04:43
What is morality and where does it come from?
91
265000
2000
O que é moralidade e de onde ela vem?
04:45
The worst idea in all of psychology
92
267000
2000
A pior idéia em toda a psicologia
04:47
is the idea that the mind is a blank slate at birth.
93
269000
3000
é a idéia de que a mente é uma folha de papel em branco ao nascermos.
04:50
Developmental psychology has shown
94
272000
2000
A psicologia do desenvolvimento mostrou
04:52
that kids come into the world already knowing so much
95
274000
2000
que crianças vem ao mundo já sabendo muito
04:54
about the physical and social worlds,
96
276000
2000
sobre os mundos físico e social,
04:56
and programmed to make it really easy for them to learn certain things
97
278000
4000
e programadas para tornar realmente fácil aprenderem certas coisas
05:00
and hard to learn others.
98
282000
1000
e difícil aprenderem outras.
05:01
The best definition of innateness I've ever seen --
99
283000
2000
A melhor definição de inato que já vi --
05:03
this just clarifies so many things for me --
100
285000
2000
que deixa muitas coisas claras para mim --
05:05
is from the brain scientist Gary Marcus.
101
287000
2000
é do neurocientista Gary Marcus.
05:07
He says, "The initial organization of the brain does not depend that much on experience.
102
289000
5000
Ele diz, "A organização inicial do cérebro não depende tanto assim da experiência.
05:12
Nature provides a first draft, which experience then revises.
103
294000
3000
A natureza provê um primeiro rascunho, o qual a experiência então revisa.
05:15
Built-in doesn't mean unmalleable;
104
297000
2000
Embutido não significa não maleável;
05:17
it means organized in advance of experience."
105
299000
3000
significa organizado antes da experiência".
05:20
OK, so what's on the first draft of the moral mind?
106
302000
2000
OK, então o que está no primeiro rascunho da mente moral?
05:22
To find out, my colleague, Craig Joseph, and I
107
304000
3000
Para descobrir, meu colega Craig Joseph e eu
05:25
read through the literature on anthropology,
108
307000
2000
pesquisamos a literatura sobre antropologia,
05:27
on culture variation in morality
109
309000
2000
sobre variações culturais na moralidade
05:29
and also on evolutionary psychology, looking for matches.
110
311000
2000
e também sobre psicologia evolucionária, procurando por padrões.
05:31
What are the sorts of things that people talk about across disciplines?
111
313000
3000
Quais são os tipos de coisas que as pessoas falam nas várias disciplinas,
05:34
That you find across cultures and even across species?
112
316000
2000
que você encontra em várias culturas e até em várias espécies?
05:36
We found five -- five best matches,
113
318000
2000
Achamos cinco -- cinco melhores padrões,
05:38
which we call the five foundations of morality.
114
320000
2000
que denominamos as cinco fundações da moralidade.
05:40
The first one is harm/care.
115
322000
2000
A primeira é cuidar do sofrimento.
05:42
We're all mammals here, we all have a lot of neural and hormonal programming
116
324000
4000
Somos todos mamíferos aqui, então temos muita programação neural e hormonal
05:46
that makes us really bond with others, care for others,
117
328000
2000
que faz com que nós realmente criemos laços com os outros, cuidemos dos outros,
05:48
feel compassion for others, especially the weak and vulnerable.
118
330000
3000
sintamos compaixão pelos outros, especialmente os fracos e vulneráveis.
05:51
It gives us very strong feelings about those who cause harm.
119
333000
3000
Nos dá sentimentos muito fortes sobre aqueles que causam sofrimento.
05:54
This moral foundation underlies about 70 percent
120
336000
3000
Esta fundação moral está por trás de cerca de 70 por cento
05:57
of the moral statements I've heard here at TED.
121
339000
2000
das afirmações morais que ouvi aqui no TED.
05:59
The second foundation is fairness/reciprocity.
122
341000
3000
A segunda fundação é reciprocidade justa.
06:02
There's actually ambiguous evidence
123
344000
2000
Há na verdade evidência ambígua
06:04
as to whether you find reciprocity in other animals,
124
346000
2000
sobre achar reciprocidade em outros animais,
06:06
but the evidence for people could not be clearer.
125
348000
2000
mas a evidência para pessoas não poderia esta mais clara.
06:08
This Norman Rockwell painting is called "The Golden Rule,"
126
350000
2000
Esta pintura de Norman Rockwell é chamada de "A Regra de Ouro",
06:10
and we heard about this from Karen Armstrong, of course,
127
352000
2000
e ouvimos a Karen Armstrong falar disso, é claro,
06:12
as the foundation of so many religions.
128
354000
3000
como sendo a fundação de tantas religiões.
06:15
That second foundation underlies the other 30 percent
129
357000
2000
Esta segunda fundação está por trás de outros 30 por cento
06:17
of the moral statements I've heard here at TED.
130
359000
2000
das afirmações morais que ouvi aqui no TED.
06:19
The third foundation is in-group/loyalty.
131
361000
2000
A terceira fundação é lealdade interna no grupo.
06:21
You do find groups in the animal kingdom --
132
363000
2000
Você encontra grupos no reino animal --
06:23
you do find cooperative groups --
133
365000
2000
você encontra grupos cooperativos --
06:25
but these groups are always either very small or they're all siblings.
134
367000
3000
mas estes grupos são sempre muito pequenos ou eles são de irmãos.
06:28
It's only among humans that you find very large groups of people
135
370000
3000
É apenas entre humanos que você encontra grupos muito grandes de pessoas
06:31
who are able to cooperate, join together into groups,
136
373000
3000
que são capazes de cooperar, se reunir em grupos --
06:34
but in this case, groups that are united to fight other groups.
137
376000
4000
mas neste caso, grupos que são unidos para lutar contra outros grupos.
06:38
This probably comes from our long history of tribal living, of tribal psychology.
138
380000
4000
Isto provavelmente vem da nossa longa história de vida tribal, de psicologia tribal.
06:42
And this tribal psychology is so deeply pleasurable
139
384000
2000
E esta psicologia tribal é tão prazerosa
06:44
that even when we don't have tribes,
140
386000
2000
que mesmo quando não temos tribos,
06:46
we go ahead and make them, because it's fun.
141
388000
3000
nos as criamos só porque é divertido.
06:49
(Laughter)
142
391000
3000
(Risadas)
06:52
Sports is to war as pornography is to sex.
143
394000
3000
O esporte está para a guerra como a pornografia está para o sexo.
06:55
We get to exercise some ancient, ancient drives.
144
397000
3000
Nós temos a oportunidade de exercitarmos alguns impulsos muito antigos.
06:58
The fourth foundation is authority/respect.
145
400000
3000
A quarta fundação é respeito à autoridade.
07:01
Here you see submissive gestures from two members of very closely related species.
146
403000
3000
Aqui você vê gestos de submissão de dois membros de espécies bem próximas --
07:04
But authority in humans is not so closely based on power and brutality,
147
406000
4000
mas a autoridade em humanos não é tão baseada no poder e na brutalidade,
07:08
as it is in other primates.
148
410000
2000
como é nos outros primatas.
07:10
It's based on more voluntary deference,
149
412000
2000
É baseada em deferência mais voluntária,
07:12
and even elements of love, at times.
150
414000
2000
e até mesmo elementos de amor, às vezes.
07:14
The fifth foundation is purity/sanctity.
151
416000
2000
A quinta fundação é a santidade da pureza.
07:16
This painting is called "The Allegory Of Chastity,"
152
418000
3000
Esta pintura é chamada "A Alegoria da Castidade",
07:19
but purity's not just about suppressing female sexuality.
153
421000
3000
mas pureza não se limita a suprimir a sexualidade feminina.
07:22
It's about any kind of ideology, any kind of idea
154
424000
3000
Aplica-se a qualquer tipo de ideologia, qualquer tipo de idéia
07:25
that tells you that you can attain virtue
155
427000
2000
que lhe diz que você pode alcançar a virtude
07:27
by controlling what you do with your body,
156
429000
1000
controlando o que você faz com seu corpo,
07:28
by controlling what you put into your body.
157
430000
2000
controlando o que você põe em seu corpo.
07:30
And while the political right may moralize sex much more,
158
432000
4000
E enquanto a direita política está mais preocupada em moralizar o sexo,
07:34
the political left is really doing a lot of it with food.
159
436000
2000
a esquerda política está fazendo mais ou menos o mesmo com a comida.
07:36
Food is becoming extremely moralized nowadays,
160
438000
2000
A comida está se tornando extremamente moralizada nos dias de hoje,
07:38
and a lot of it is ideas about purity,
161
440000
2000
e muito disso são idéias sobre pureza,
07:40
about what you're willing to touch, or put into your body.
162
442000
3000
sobre o que você está disposto a tocar ou por em seu corpo.
07:43
I believe these are the five best candidates
163
445000
3000
Eu acredito que este são os cinco melhores candidatos
07:46
for what's written on the first draft of the moral mind.
164
448000
2000
para o que está escrito no primeiro rascunho da mente moral.
07:48
I think this is what we come with, at least
165
450000
1000
Eu penso que isso é o mínimo com que nós viemos,
07:49
a preparedness to learn all of these things.
166
451000
3000
uma preparação para aprender todas essas coisas.
07:52
But as my son, Max, grows up in a liberal college town,
167
454000
3000
Mas enquanto meu filho Max estuda numa faculdade liberal,
07:56
how is this first draft going to get revised?
168
458000
2000
como este seu primeiro rascunho será revisado?
07:58
And how will it end up being different
169
460000
2000
E como será diferente do de
08:00
from a kid born 60 miles south of us in Lynchburg, Virginia?
170
462000
3000
uma criança nascida 60 milhas ao sul de nós em Lynchburg, Virginia?
08:03
To think about culture variation, let's try a different metaphor.
171
465000
2000
Para pensar em variação cultural, tentemos uma metáfora diferente.
08:05
If there really are five systems at work in the mind --
172
467000
3000
Se realmente há cinco sistemas trabalhando na mente --
08:08
five sources of intuitions and emotions --
173
470000
2000
cinco fontes de intuições e emoções --
08:10
then we can think of the moral mind
174
472000
2000
então nós podemos pensar na mente moral
08:12
as being like one of those audio equalizers that has five channels,
175
474000
2000
como sendo um daqueles equalizadores de áudio que tem cinco canais,
08:14
where you can set it to a different setting on every channel.
176
476000
2000
onde você pode ajustar uma configuração diferente em cada canal.
08:16
And my colleagues, Brian Nosek and Jesse Graham, and I,
177
478000
3000
E meus colegas, Brian Noseh e Jesse Graham e eu,
08:19
made a questionnaire, which we put up on the Web at www.YourMorals.org.
178
481000
5000
fizemos um questionário, que colocamos na Web em www.YourMorals.org.
08:24
And so far, 30,000 people have taken this questionnaire, and you can too.
179
486000
5000
E até agora, 30.000 pessoas fizeram este questionário, e você também pode.
08:29
Here are the results.
180
491000
1000
Aqui estão os resultados.
08:30
Here are the results from about 23,000 American citizens.
181
492000
3000
Aqui estão os resultados de cerca de 23.000 cidadãos americanos.
08:33
On the left, I've plotted the scores for liberals;
182
495000
2000
Na esquerda fiz o gráfico das pontuações para os liberais,
08:35
on the right, those for conservatives; in the middle, the moderates.
183
497000
2000
na direita para os conservadores, no meio para os moderados.
08:37
The blue line shows you people's responses
184
499000
2000
A linha azul mostra a resposta das pessoas,
08:39
on the average of all the harm questions.
185
501000
2000
na média em todas as questões de sofrimento.
08:41
So, as you see, people care about harm and care issues.
186
503000
3000
Então, como vocês podem ver, as pessoas se preocupam com questões de sofrimento e cuidado.
08:44
They give high endorsement of these sorts of statements
187
506000
2000
Elas dão alta aprovação para esse tipo de afirmação
08:46
all across the board, but as you also see,
188
508000
2000
ao longo de todo o quadro, mas como vocês podem ver,
08:48
liberals care about it a little more than conservatives -- the line slopes down.
189
510000
3000
liberais se importam um pouco mais do que conservadores, a reta cai.
08:51
Same story for fairness.
190
513000
2000
A mesma coisa para justiça.
08:53
But look at the other three lines.
191
515000
2000
Mas olhe para as três outras retas,
08:55
For liberals, the scores are very low.
192
517000
2000
para liberais elas tem pontuações muito baixas.
08:57
Liberals are basically saying, "No, this is not morality.
193
519000
2000
Liberais estão basicamente dizendo, "Não, isso não é moralidade.
08:59
In-group, authority, purity -- this stuff has nothing to do with morality. I reject it."
194
521000
3000
Lealdade grupal, autoridade, pureza -- essas coisas não tem nada a ver com moralidade. Eu as rejeito".
09:02
But as people get more conservative, the values rise.
195
524000
2000
Mas à medida que as pessoas ficam mais conservadoras, os valores crescem.
09:04
We can say that liberals have a kind of a two-channel,
196
526000
3000
Nós podemos dizer que liberais tem um -- tipo de
09:07
or two-foundation morality.
197
529000
1000
moralidade de dois-canais, ou duas-fundações.
09:08
Conservatives have more of a five-foundation,
198
530000
2000
Conservadores tem mais uma
09:10
or five-channel morality.
199
532000
2000
moralidade de cinco-fundações, cinco-canais.
09:12
We find this in every country we look at.
200
534000
1000
Achamos isso em todos os países que examinamos.
09:13
Here's the data for 1,100 Canadians.
201
535000
2000
Aqui estão os dados para 1.100 canadenses.
09:15
I'll just flip through a few other slides.
202
537000
2000
Passarei rapidamente por alguns outros slides.
09:17
The U.K., Australia, New Zealand, Western Europe, Eastern Europe,
203
539000
3000
O Reino Unido, Austrália, Nova Zelândia, Europa Ocidental, Europa Oriental,
09:20
Latin America, the Middle East, East Asia and South Asia.
204
542000
4000
América Latina, o Oriente Médio, a Ásia Oriental e Ásia Meridional.
09:24
Notice also that on all of these graphs,
205
546000
2000
Perceba também que em todos estes gráficos,
09:26
the slope is steeper on in-group, authority, purity.
206
548000
3000
o crescimento é mais acentuado para lealdade ao grupo, autoridade e pureza.
09:29
Which shows that within any country,
207
551000
2000
O que mostra que em qualquer país,
09:31
the disagreement isn't over harm and fairness.
208
553000
3000
a discordância não é sobre sofrimento e justiça.
09:34
Everybody -- I mean, we debate over what's fair --
209
556000
2000
Todo mundo -- quero dizer, nós debatemos sobre o que é justo --
09:36
but everybody agrees that harm and fairness matter.
210
558000
3000
mas todo mundo concorda que sofrimento e justiça importam.
09:39
Moral arguments within cultures
211
561000
2000
Discussões morais dentro das culturas
09:41
are especially about issues of in-group, authority, purity.
212
563000
3000
referem-se especialmente a questões de lealdade a membros do grupo, autoridade e pureza.
09:44
This effect is so robust that we find it no matter how we ask the question.
213
566000
3000
Este efeito é tão robusto que nós o encontramos independentemente de como fazemos a questão.
09:47
In one recent study,
214
569000
2000
Em um estudo recente,
09:49
we asked people to suppose you're about to get a dog.
215
571000
2000
pedimos que as pessoas supusessem que estavam para adquirir um cachorro.
09:51
You picked a particular breed,
216
573000
1000
Você escolheu uma raça específica,
09:52
you learned some new information about the breed.
217
574000
2000
você descobriu algumas novas informações sobre essa raça.
09:54
Suppose you learn that this particular breed is independent-minded,
218
576000
3000
Suponha que você descobriu que essa raça tem um comportamento independente,
09:57
and relates to its owner as a friend and an equal?
219
579000
2000
e se relaciona com seu dono como um amigo, um igual?
09:59
Well, if you are a liberal, you say, "Hey, that's great!"
220
581000
2000
Daí se você for um liberal vai dizer "Puxa, que bacana!"
10:01
Because liberals like to say, "Fetch, please."
221
583000
2000
porque os liberais gostam de dizer "pega, por favor."
10:03
(Laughter)
222
585000
4000
(Risos)
10:08
But if you're conservative, that's not so attractive.
223
590000
3000
Mas se você for conservador, isso não é tão atraente.
10:11
If you're conservative, and you learn that a dog's extremely loyal
224
593000
3000
Se você é conservador, e você descobre que um cachorro é extremamente leal
10:14
to its home and family, and doesn't warm up quickly to strangers,
225
596000
2000
à sua casa e sua família, e não estabelece rapidamente intimidade com estranhos,
10:16
for conservatives, well, loyalty is good -- dogs ought to be loyal.
226
598000
3000
para conservadores -- puxa, lealdade é bom -- cachorros devem ser leais.
10:19
But to a liberal, it sounds like this dog
227
601000
2000
Mas para um liberal, até parece que este cachorro
10:21
is running for the Republican nomination.
228
603000
2000
está disputando a indicação como candidato dos Republicanos.
10:23
(Laughter)
229
605000
1000
(Risos)
10:24
So, you might say, OK,
230
606000
2000
Daí você pode dizer, tudo bem,
10:26
there are these differences between liberals and conservatives,
231
608000
2000
existem mesmo essas diferenças entre liberais e conservadores,
10:28
but what makes those three other foundations moral?
232
610000
2000
mas o que faz essas três outras fundações serem morais?
10:30
Aren't those just the foundations of xenophobia
233
612000
2000
Será que elas não passam das fundações da xenofobia
10:32
and authoritarianism and Puritanism?
234
614000
2000
e autoritarismo e Puritanismo?
10:34
What makes them moral?
235
616000
1000
O que existe de moral nelas?
10:35
The answer, I think, is contained in this incredible triptych from Hieronymus Bosch,
236
617000
3000
A resposta, creio eu, encontra-se neste incrível trítico de Hieronymus Bosch
10:38
"The Garden of Earthly Delights."
237
620000
2000
"O Jardim das Delícias Terrenas."
10:40
In the first panel, we see the moment of creation.
238
622000
3000
No primeiro painel, vemos o momento da criação.
10:43
All is ordered, all is beautiful, all the people and animals
239
625000
4000
Tudo está em ordem, tudo é bonito, todas as pessoas e animais
10:47
are doing what they're supposed to be doing, where they're supposed to be.
240
629000
3000
estão fazendo o que se espera deles, onde se espera que eles estejam.
10:50
But then, given the way of the world, things change.
241
632000
3000
Mas então, considerando a jeito como o mundo é, as coisas mudam.
10:53
We get every person doing whatever he wants,
242
635000
2000
Encontramos cada pessoa fazendo o que bem entende,
10:55
with every aperture of every other person and every other animal.
243
637000
3000
com todos os orifícios de todas as outras pessoas e de todos os animais.
10:58
Some of you might recognize this as the '60s.
244
640000
2000
Alguns de vocês podem identificar isso com a década de 60.
11:00
(Laughter)
245
642000
1000
(Risos)
11:01
But the '60s inevitably gives way to the '70s,
246
643000
4000
Mas os anos 60, inevitavelmente, deram lugar aos anos 70,
11:05
where the cuttings of the apertures hurt a little bit more.
247
647000
4000
e daí as aberturas dos orifícios doeram um pouco mais.
11:09
Of course, Bosch called this hell.
248
651000
2000
É claro, Bosch chamou isso de Inferno.
11:11
So this triptych, these three panels
249
653000
3000
Então este trítico, estes três painéis,
11:14
portray the timeless truth that order tends to decay.
250
656000
5000
retratam a verdade atemporal de que a ordem tende a deteriorar.
11:19
The truth of social entropy.
251
661000
2000
A verdade da entropia social.
11:21
But lest you think this is just some part of the Christian imagination
252
663000
3000
Mas para evitar que vocês considerem que isto é apenas parte do imaginário cristão
11:24
where Christians have this weird problem with pleasure,
253
666000
2000
em que os cristãos têm esse estranho problema com o prazer,
11:26
here's the same story, the same progression,
254
668000
3000
aqui está a mesma história, a mesma progressão,
11:29
told in a paper that was published in Nature a few years ago,
255
671000
3000
relatada em um artigo publicado na revista Nature há poucos anos,
11:32
in which Ernst Fehr and Simon Gachter had people play a commons dilemma.
256
674000
4000
no qual Ernst Fehr e Simon Gachter propuseram a pessoas um 'dilema dos comuns'.
11:36
A game in which you give people money,
257
678000
2000
Um jogo em que você dá dinheiro às pessoas,
11:38
and then, on each round of the game,
258
680000
2000
e então em cada rodada do jogo,
11:40
they can put money into a common pot,
259
682000
2000
eles podem colocar dinheiro em um bolo coletivo,
11:42
and then the experimenter doubles what's in there,
260
684000
2000
e daí o experimentador dobra o que está no bolo,
11:44
and then it's all divided among the players.
261
686000
2000
e daí o bolo é dividido igualmente entre os jogadores.
11:46
So it's a really nice analog for all sorts of environmental issues,
262
688000
3000
Desse modo, é um análogo bem interessante para todos os tipos de problemas ambientais
11:49
where we're asking people to make a sacrifice
263
691000
2000
em que estamos pedindo às pessoas que façam um sacrifício
11:51
and they themselves don't really benefit from their own sacrifice.
264
693000
2000
e elas mesmas não se beneficiam de seus próprios sacrifícios.
11:53
But you really want everybody else to sacrifice,
265
695000
2000
Mas você realmente quer que todos os demais se sacrifiquem,
11:55
but everybody has a temptation to a free ride.
266
697000
2000
mas todos têm uma tentação de usufruir sem pagar nada.
11:57
And what happens is that, at first, people start off reasonably cooperative --
267
699000
4000
E o que acontece é que inicialmente as pessoas começam sendo razoavelmente cooperativas --
12:01
and this is all played anonymously.
268
703000
2000
e todas as jogadas são anônimas --
12:03
On the first round, people give about half of the money that they can.
269
705000
3000
na primeira rodada, as pessoas dão mais ou menos a metade do que elas podem dar.
12:06
But they quickly see, "You know what, other people aren't doing so much though.
270
708000
3000
Mas elas logo percebem, "Vejam só, as outras pessoas não estão ajudando muito.
12:09
I don't want to be a sucker. I'm not going to cooperate."
271
711000
2000
Não quero ser um otário. Não vou mais cooperar."
12:11
And so cooperation quickly decays from reasonably good, down to close to zero.
272
713000
4000
E daí a cooperação decai rapidamente de relativamente boa a quase nula.
12:15
But then -- and here's the trick --
273
717000
2000
Mas então -- e aqui está o truque --
12:17
Fehr and Gachter said, on the seventh round, they told people,
274
719000
2000
Fehs e Gachter disseram -- na sétima rodada eles disseram às pessoas,
12:19
"You know what? New rule.
275
721000
2000
"Sabem de uma coisa? Temos uma nova regra.
12:21
If you want to give some of your own money
276
723000
2000
Se vocês quiserem dar parte do dinheiro de vocês
12:23
to punish people who aren't contributing, you can do that."
277
725000
4000
para punir as pessoas que não estão contribuindo, vocês podem fazer isso."
12:27
And as soon as people heard about the punishment issue going on,
278
729000
3000
E assim que as pessoas tomaram conhecimento de que a punição estava acontecendo,
12:30
cooperation shoots up.
279
732000
2000
a cooperação disparou.
12:32
It shoots up and it keeps going up.
280
734000
2000
Disparou e continuou crescendo.
12:34
There's a lot of research showing that to solve cooperative problems, it really helps.
281
736000
3000
Existe um grande volume de pesquisas demonstrando que para resolver problemas cooperativos, realmente ajuda.
12:37
It's not enough to just appeal to people's good motives.
282
739000
2000
Não basta apelar para a boa vontade das pessoas,
12:39
It really helps to have some sort of punishment.
283
741000
2000
realmente ajuda muito ter alguma espécie de punição.
12:41
Even if it's just shame or embarrassment or gossip,
284
743000
2000
Mesmo que seja apenas vergonha, ou embaraço, ou fofoca,
12:43
you need some sort of punishment to bring people,
285
745000
3000
você precisa alguma espécie de punição para induzir as pessoas,
12:46
when they're in large groups, to cooperate.
286
748000
2000
quando elas estão em grupos grandes, a cooperarem.
12:48
There's even some recent research suggesting that religion --
287
750000
3000
Existem até algumas pesquisas recentes sugerindo que a religião --
12:51
priming God, making people think about God --
288
753000
2000
colocando Deus diante das pessoas, fazendo que elas pensem em Deus --
12:53
often, in some situations, leads to more cooperative, more pro-social behavior.
289
755000
5000
frequentemente, em algumas situações, estimula comportamentos mais cooperativos, mais pró-sociais.
12:59
Some people think that religion is an adaptation
290
761000
2000
Algumas pessoas acham que a religião é uma adaptação
13:01
evolved both by cultural and biological evolution
291
763000
2000
produzida simultaneamente pela evolução cultural e biológica
13:03
to make groups to cohere,
292
765000
2000
para tornar os grupos coesos,
13:05
in part for the purpose of trusting each other,
293
767000
2000
em parte com o propósito de confiarem uns nos outros,
13:07
and then being more effective at competing with other groups.
294
769000
2000
e desse modo serem mais efetivos na competição com outros grupos.
13:09
I think that's probably right,
295
771000
1000
Creio que isso provavelmente está certo,
13:10
although this is a controversial issue.
296
772000
2000
se bem que essa questão seja controversa.
13:12
But I'm particularly interested in religion,
297
774000
2000
Mas tenho um interesse especial na religião,
13:14
and the origin of religion, and in what it does to us and for us.
298
776000
3000
e na origem da religião, e no que ela faz conosco e para nós.
13:17
Because I think that the greatest wonder in the world is not the Grand Canyon.
299
779000
4000
Porque acredito que a maior maravilha do mundo não é o Grande Canyon.
13:21
The Grand Canyon is really simple.
300
783000
2000
O Grande Canyon é relativamente simples.
13:23
It's just a lot of rock, and then a lot of water and wind, and a lot of time,
301
785000
3000
é só um monte de pedra, e então uma grande quantidade de água e vento, e um bocado de tempo,
13:26
and you get the Grand Canyon.
302
788000
2000
e daí você obtém o Grande Canyon.
13:28
It's not that complicated.
303
790000
1000
Não é tão complicado.
13:29
This is what's really complicated,
304
791000
2000
Isto sim é complicado de verdade,
13:31
that there were people living in places like the Grand Canyon,
305
793000
2000
que haviam pessoas vivendo em lugares como o Grande Canyon,
13:33
cooperating with each other, or on the savannahs of Africa,
306
795000
2000
cooperando umas com as outras, ou nas savanas da África,
13:35
or on the frozen shores of Alaska, and then some of these villages
307
797000
3000
ou nas costas geladas do Alasca, e daí algumas dessas vilas
13:38
grew into the mighty cities of Babylon, and Rome, and Tenochtitlan.
308
800000
4000
cresceram e se tornaram as poderosas cidades da Babilônia, Roma e Tenochtitlan.
13:42
How did this happen?
309
804000
1000
Como isto aconteceu?
13:43
This is an absolute miracle, much harder to explain than the Grand Canyon.
310
805000
3000
Isto sim é um milagre absoluto, muito mais difícil de explicar que o Grande Canyon.
13:46
The answer, I think, is that they used every tool in the toolbox.
311
808000
3000
A resposta, estou convencido, é que eles usaram cada uma das ferramentas da caixa.
13:49
It took all of our moral psychology
312
811000
2000
Foi necessária toda nossa psicologia moral
13:51
to create these cooperative groups.
313
813000
2000
para criar estes grupos cooperativos.
13:53
Yes, you do need to be concerned about harm,
314
815000
2000
Sim, você precisa estar preocupado com o sofrimento,
13:55
you do need a psychology of justice.
315
817000
1000
você precisa uma psicologia da justiça.
13:56
But it really helps to organize a group if you can have sub-groups,
316
818000
3000
Mas, para organizar um grupo, ajuda muito se você puder ter sub-grupos,
13:59
and if those sub-groups have some internal structure,
317
821000
3000
e se esses sub-grupos tiverem alguma estrutura interna,
14:02
and if you have some ideology that tells people
318
824000
2000
e se você tiver alguma ideologia que diga às pessoas
14:04
to suppress their carnality, to pursue higher, nobler ends.
319
826000
4000
que elas devem suprimir seus desejos carnais, para perseguir propósitos mais altos, mais nobres.
14:08
And now we get to the crux of the disagreement
320
830000
2000
E agora chegamos ao ponto crucial da disputa
14:10
between liberals and conservatives.
321
832000
2000
entre liberais e conservadores.
14:12
Because liberals reject three of these foundations.
322
834000
2000
Como os liberais rejeitam três dessas fundações.
14:14
They say "No, let's celebrate diversity, not common in-group membership."
323
836000
3000
Eles dizem "Não, vamos celebrar a diversidade, não o fato de pertencermos a um mesmo grupo."
14:17
They say, "Let's question authority."
324
839000
2000
Eles dizem, "Vamos questionar a autoridade."
14:19
And they say, "Keep your laws off my body."
325
841000
2000
E dizem também, "Mantenha as leis longe do meu corpo."
14:21
Liberals have very noble motives for doing this.
326
843000
3000
Os liberais têm motivos muito nobres para fazer isso.
14:24
Traditional authority, traditional morality can be quite repressive,
327
846000
3000
A autoridade tradicional, a moralidade tradicional, podem ser muito repressivas,
14:27
and restrictive to those at the bottom, to women, to people that don't fit in.
328
849000
3000
e restritivas para aqueles que estão por baixo, para as mulheres, para os que não se ajustam ao sistema.
14:30
So liberals speak for the weak and oppressed.
329
852000
2000
De modo que os liberais falam em nome dos fracos e oprimidos.
14:32
They want change and justice, even at the risk of chaos.
330
854000
2000
Eles querem mudança e justiça, mesmo ao risco do caos.
14:34
This guy's shirt says, "Stop bitching, start a revolution."
331
856000
3000
A camiseta deste homem diz, "Pare de reclamar, comece uma revolução."
14:37
If you're high in openness to experience, revolution is good,
332
859000
2000
Se você tem muita abertura à experiência, revolução é uma coisa boa,
14:39
it's change, it's fun.
333
861000
2000
é mudança, é divertido.
14:41
Conservatives, on the other hand, speak for institutions and traditions.
334
863000
3000
Conservadores, por outro lado, falam em nome das instituições e das tradições.
14:44
They want order, even at some cost to those at the bottom.
335
866000
4000
Eles querem ordem, mesmo que isso tenha um custo para os que estão por baixo.
14:48
The great conservative insight is that order is really hard to achieve.
336
870000
2000
O grande discernimento dos conservadores é que a ordem é realmente difícil de conseguir.
14:50
It's really precious, and it's really easy to lose.
337
872000
3000
Ela é realmente preciosa, e é muito fácil de perder.
14:53
So as Edmund Burke said, "The restraints on men,
338
875000
2000
Assim, como disse Edmund Burke, "As restrições sobre os homens,
14:55
as well as their liberties, are to be reckoned among their rights."
339
877000
3000
assim como suas liberdades, devem ser computadas entre seus direitos."
14:58
This was after the chaos of the French Revolution.
340
880000
2000
Isto foi após o caos da Revolução Francesa.
15:00
So once you see this -- once you see
341
882000
2000
Então, uma vez que você veja isto -- uma vez que veja
15:02
that liberals and conservatives both have something to contribute,
342
884000
3000
que liberais e conservadores ambos possuem algo para contribuir,
15:05
that they form a balance on change versus stability --
343
887000
3000
que eles formam um equilíbrio de mudança versus estabilidade --
15:08
then I think the way is open to step outside the moral matrix.
344
890000
3000
então creio que o caminho está aberto para escapar da matriz moral.
15:11
This is the great insight that all the Asian religions have attained.
345
893000
5000
Este é o grande discernimento que todas as religiões asiáticas atingiram.
15:16
Think about yin and yang.
346
898000
2000
Pensem em Yin e Yang.
15:18
Yin and yang aren't enemies. Yin and yang don't hate each other.
347
900000
2000
Yin e Yang não são inimigos. Yin e Yang não se odeiam mutuamente.
15:20
Yin and yang are both necessary, like night and day,
348
902000
2000
Yin e Yang são ambos necessários, como noite e dia,
15:22
for the functioning of the world.
349
904000
2000
para o funcionamento do mundo.
15:24
You find the same thing in Hinduism.
350
906000
2000
Vocês encontram o mesmo no Hinduísmo.
15:26
There are many high gods in Hinduism.
351
908000
2000
Existem muitos grandes deuses no Hinduísmo.
15:28
Two of them are Vishnu, the preserver, and Shiva, the destroyer.
352
910000
3000
Dois deles são Vishnu, o preservador, e Shiva, o destruidor.
15:31
This image actually is both of those gods sharing the same body.
353
913000
3000
Esta imagem realmente representa esses dois deuses compartilhando o mesmo corpo.
15:34
You have the markings of Vishnu on the left,
354
916000
2000
Vocês encontram os sinais de Vishnu do lado esquerdo,
15:36
so we could think of Vishnu as the conservative god.
355
918000
3000
de modo que podemos pensar em Vishnu como o deus conservador.
15:39
You have the markings of Shiva on the right,
356
921000
2000
E vocês vêem os sinais de Shiva do lado direito,
15:41
Shiva's the liberal god. And they work together.
357
923000
2000
Shiva é o deus liberal -- e os dois trabalham em conjunto.
15:43
You find the same thing in Buddhism.
358
925000
2000
Vocês encontram a mesma coisa no Budismo.
15:45
These two stanzas contain, I think, the deepest insights
359
927000
2000
Estas duas estrofes contem, penso eu, o mais profundo discernimento
15:47
that have ever been attained into moral psychology.
360
929000
3000
que jamais foi atingido em termos de psicologia moral.
15:50
From the Zen master Seng-ts'an:
361
932000
2000
Do mestre Zen Seng-ts'an:
15:52
"If you want the truth to stand clear before you, never be for or against.
362
934000
4000
"Se você quer que a verdade se apresente claramente diante de você, nunca seja a favor nem contra,
15:56
The struggle between for and against is the mind's worst disease."
363
938000
4000
a luta entre a favor e contra é a pior das doenças da mente."
16:00
Now unfortunately, it's a disease
364
942000
2000
Acontece que, infelizmente,é uma doença
16:02
that has been caught by many of the world's leaders.
365
944000
2000
que infectou muitos dos líderes mundiais.
16:04
But before you feel superior to George Bush,
366
946000
3000
Mas antes que vocês comecem a sentir-se superiores a George Bush,
16:07
before you throw a stone, ask yourself, do you accept this?
367
949000
4000
antes de jogarem uma pedra, perguntem a si mesmos: Vocês aceitam isto?
16:11
Do you accept stepping out of the battle of good and evil?
368
953000
3000
Vocês aceitam sair da batalha entre o bem e o mal?
16:14
Can you be not for or against anything?
369
956000
3000
Vocês são capazes de não serem a favor nem contra qualquer coisa?
16:18
So, what's the point? What should you do?
370
960000
3000
Então, qual é o ponto? O que vocês devem fazer?
16:21
Well, if you take the greatest insights
371
963000
2000
Bem, se vocês pegarem os mais importantes discernimentos
16:23
from ancient Asian philosophies and religions,
372
965000
2000
das filosofias e religiões antigas da Ásia
16:25
and you combine them with the latest research on moral psychology,
373
967000
2000
e os combinarem com as mais recentes pesquisas em psicologia moral,
16:27
I think you come to these conclusions:
374
969000
2000
creio que chegarão a estas conclusões:
16:29
that our righteous minds were designed by evolution
375
971000
4000
Que nossa consciência moral foi projetada pela evolução
16:33
to unite us into teams, to divide us against other teams
376
975000
3000
para nos unir em equipes, para nos dividir contra outras equipes
16:36
and then to blind us to the truth.
377
978000
2000
e então para nos tornar cegos à verdade.
16:39
So what should you do? Am I telling you to not strive?
378
981000
4000
E daí, o que vocês devem fazer? Será que estou aconselhando vocês a não lutarem?
16:43
Am I telling you to embrace Seng-ts'an and stop,
379
985000
3000
Será que estou dizendo para vocês seguirem Seng-ts'an e parar,
16:46
stop with this struggle of for and against?
380
988000
3000
parar com esta batalha de a favor e contra?
16:49
No, absolutely not. I'm not saying that.
381
991000
2000
Não, absolutamente não. Não quero dizer isso.
16:51
This is an amazing group of people who are doing so much,
382
993000
3000
este é um extraordinário grupo de pessoas que estão fazendo muito,
16:54
using so much of their talent, their brilliance, their energy, their money,
383
996000
4000
Empregando tanto seus talentos, seu brilhantismo, sua energia, seu dinheiro,
16:58
to make the world a better place, to fight --
384
1000000
2000
para transformar o mundo num lugar melhor, para lutar --
17:00
to fight wrongs, to solve problems.
385
1002000
3000
para lutar contra os erros, para resolver problemas.
17:04
But as we learned from Samantha Power, in her story
386
1006000
4000
Mas como aprendemos de Samantha Power na sua história
17:08
about Sergio Vieira de Mello, you can't just go charging in,
387
1010000
5000
sobre Sergio Vieira de Mello, vocês não podem simplesmente continuar atacando
17:13
saying, "You're wrong, and I'm right."
388
1015000
2000
dizendo, "Você está errado e eu estou certo."
17:15
Because, as we just heard, everybody thinks they are right.
389
1017000
4000
Porque, como acabamos de ouvir, todos pensam que estão certos.
17:19
A lot of the problems we have to solve
390
1021000
2000
Muitos dos problemas que temos para resolver
17:21
are problems that require us to change other people.
391
1023000
3000
são problemas que nos impelem a mudar outras pessoas.
17:24
And if you want to change other people, a much better way to do it
392
1026000
3000
E se vocês querem mudar outras pessoas, uma maneira muito melhor de fazê-lo
17:27
is to first understand who we are -- understand our moral psychology,
393
1029000
4000
é, antes de mais nada, entender quem somos nós -- entender nossa psicologia moral,
17:31
understand that we all think we're right -- and then step out,
394
1033000
3000
entender que todos nós pensamos que estamos certos -- e então sair fora --
17:34
even if it's just for a moment, step out -- check in with Seng-ts'an.
395
1036000
4000
mesmo que por apenas um momento, sair fora -- fazer como Seng-ts'an.
17:38
Step out of the moral matrix,
396
1040000
2000
Sair fora da matriz moral,
17:40
just try to see it as a struggle playing out,
397
1042000
2000
apenas para vê-la como uma batalha se desenrolando
17:42
in which everybody does think they're right,
398
1044000
2000
na qual todas as pessoas estão convencidas de estarem corretas,
17:44
and everybody, at least, has some reasons -- even if you disagree with them --
399
1046000
2000
e todos, pelo menos, possuem algumas razões -- mesmo que você discorde deles --
17:46
everybody has some reasons for what they're doing.
400
1048000
2000
todos têm algumas razões para o que estão fazendo.
17:48
Step out.
401
1050000
1000
Saiam fora.
17:49
And if you do that, that's the essential move to cultivate moral humility,
402
1051000
4000
E se fizerem isso, esse é o passo essencial para cultivar a humildade moral,
17:53
to get yourself out of this self-righteousness,
403
1055000
1000
para sair fora desse farisaísmo,
17:54
which is the normal human condition.
404
1056000
2000
que é a condição humana normal.
17:56
Think about the Dalai Lama.
405
1058000
2000
Pensem no Dalai Lama.
17:58
Think about the enormous moral authority of the Dalai Lama --
406
1060000
3000
Pensem na enorme autoridade moral do Dalai Lama --
18:01
and it comes from his moral humility.
407
1063000
2000
e ela provem da humildade moral dele.
18:05
So I think the point -- the point of my talk,
408
1067000
2000
Assim entendo que meu objetivo -- o objetivo de minha exposição,
18:07
and I think the point of TED --
409
1069000
3000
e creio que o objetivo -- o objetivo do TED,
18:10
is that this is a group that is passionately engaged
410
1072000
3000
é que este é um grupo apaixonadamente engajado
18:13
in the pursuit of changing the world for the better.
411
1075000
2000
na tarefa de mudar o mundo para melhor.
18:15
People here are passionately engaged
412
1077000
3000
Aqui as pessoas estão apaixonadamente envolvidas
18:18
in trying to make the world a better place.
413
1080000
2000
em tentar fazer do mundo um lugar melhor.
18:20
But there is also a passionate commitment to the truth.
414
1082000
3000
Mas existe também um compromisso apaixonado com a verdade.
18:23
And so I think that the answer is to use that passionate commitment
415
1085000
4000
E por isso creio que a resposta é usar esse compromisso apaixonado
18:27
to the truth to try to turn it into a better future for us all.
416
1089000
4000
com a verdade para tentar transformá-lo num futuro melhor para todos nós.
18:31
Thank you.
417
1093000
1000
Obrigado.
18:32
(Applause)
418
1094000
3000
(Aplausos)
Translated by Durval Castro
Reviewed by Fers Gruendling

▲Back to top

ABOUT THE SPEAKER
Jonathan Haidt - Social psychologist
Jonathan Haidt studies how -- and why -- we evolved to be moral and political creatures.

Why you should listen

By understanding more about our moral psychology and its biases, Jonathan Haidt says we can design better institutions (including companies, universities and democracy itself), and we can learn to be more civil and open-minded toward those who are not on our team.

Haidt is a social psychologist whose research on morality across cultures led to his 2008 TED Talk on the psychological roots of the American culture war, and his 2013 TED Talk on how "common threats can make common ground." In both of those talks he asks, "Can't we all disagree more constructively?" Haidt's 2012 TED Talk explored the intersection of his work on morality with his work on happiness to talk about "hive psychology" -- the ability that humans have to lose themselves in groups pursuing larger projects, almost like bees in a hive. This hivish ability is crucial, he argues, for understanding the origins of morality, politics, and religion. These are ideas that Haidt develops at greater length in his book, The Righteous Mind: Why Good People are Divided by Politics and Religion.

Haidt joined New York University Stern School of Business in July 2011. He is the Thomas Cooley Professor of Ethical Leadership, based in the Business and Society Program. Before coming to Stern, Professor Haidt taught for 16 years at the University of Virginia in the department of psychology.

Haidt's writings appear frequently in the New York Times and The Wall Street Journal. He was named one of the top global thinkers by Foreign Policy magazine and by Prospect magazine. Haidt received a B.A. in Philosophy from Yale University, and an M.A. and Ph.D. in Psychology from the University of Pennsylvania.

More profile about the speaker
Jonathan Haidt | Speaker | TED.com