ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com
TED2010

Sam Harris: Science can answer moral questions

Sam Harris: A ciência pode responder questões morais.

Filmed:
6,257,604 views

Questões sobre o bem e o mal, o certo e o errado são geralmente aceitas como irrespondíveis pela ciência. Mas Sam Harris argumenta que a ciência pode -- e deve -- ser uma autoridade em questões morais, dar forma aos valores humanos e determinar o que constitui uma vida boa.
- Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live. Full bio

Double-click the English transcript below to play the video.

00:15
I'm going to speak today about the relationship
0
0
3000
Vou falar hoje sobre a relação
00:18
between science and human values.
1
3000
4000
entre ciência e valores humanos.
00:22
Now, it's generally understood that
2
7000
2000
É geralmente aceito que
00:24
questions of morality --
3
9000
2000
questões morais,
00:26
questions of good and evil and right and wrong --
4
11000
2000
questões sobre o bem e o mal e o certo e o errado,
00:28
are questions about which science officially has no opinion.
5
13000
3000
são questões sobre as quais a ciência oficialmente não possui opinião.
00:31
It's thought that science can help us
6
16000
3000
Pensamos que a ciência pode nos ajudar
00:34
get what we value,
7
19000
2000
a conseguir o que valorizamos,
00:36
but it can never tell us what we ought to value.
8
21000
3000
mas não pode nos dizer o que devemos valorizar.
00:39
And, consequently, most people -- I think most people
9
24000
2000
E, por consequência, a maioria das pessoas
00:41
probably here -- think that science will never answer
10
26000
3000
acha que a ciência nunca vai responder
00:44
the most important questions in human life:
11
29000
3000
as questões mais importantes na vida humana,
00:47
questions like, "What is worth living for?"
12
32000
2000
questões como, "Pelo que vale a pena viver?"
00:49
"What is worth dying for?"
13
34000
2000
"Pelo que vale a pena morrer?"
00:51
"What constitutes a good life?"
14
36000
2000
"O que constitui uma vida boa?"
00:53
So, I'm going to argue
15
38000
2000
Então irei argumentar
00:55
that this is an illusion -- that the separation between
16
40000
2000
que isto é uma ilusão, e que a separação entre
00:57
science and human values is an illusion --
17
42000
2000
ciência e valores humanos é uma ilusão.
00:59
and actually quite a dangerous one
18
44000
3000
E na verdade uma separação um tanto perigosa
01:02
at this point in human history.
19
47000
2000
neste ponto da história humana.
01:04
Now, it's often said that science
20
49000
2000
É geralmente dito que a ciência
01:06
cannot give us a foundation for morality and human values,
21
51000
3000
não pode nos dar uma base para a moralidade e valores humanos
01:09
because science deals with facts,
22
54000
3000
porque a ciência lida com fatos.
01:12
and facts and values seem to belong to different spheres.
23
57000
4000
E fatos e valores parecem pertencer a esferas diferentes.
01:16
It's often thought that there's no description
24
61000
3000
É geralmente aceito que não existe uma descrição
01:19
of the way the world is
25
64000
2000
de como o mundo é
01:21
that can tell us how the world ought to be.
26
66000
4000
que possa nos dizer como o mundo deveria ser.
01:25
But I think this is quite clearly untrue.
27
70000
2000
Mas eu acho que isto é claramente falso.
01:27
Values are a certain kind of fact.
28
72000
4000
Valores são um certo tipo de fato.
01:31
They are facts about the well-being of conscious creatures.
29
76000
4000
São fatos sobre o bem estar de criaturas conscientes.
01:35
Why is it that we don't have ethical obligations toward rocks?
30
80000
4000
Por que não possuímos obrigações éticas em relação às pedras?
01:39
Why don't we feel compassion for rocks?
31
84000
3000
Por que não sentimos compaixão pelas pedras?
01:42
It's because we don't think rocks can suffer. And if we're more
32
87000
2000
Porque não pensamos que elas possam sofrer.
01:44
concerned about our fellow primates
33
89000
2000
E se somos mais preocupados com primatas
01:46
than we are about insects, as indeed we are,
34
91000
3000
do que com insetos, como de fato somos,
01:49
it's because we think they're exposed to a greater range
35
94000
2000
é porque nós pensamos que eles estão expostos
01:51
of potential happiness and suffering.
36
96000
3000
a maior quantidade de felicidade e sofrimento em potencial.
01:54
Now, the crucial thing to notice here
37
99000
3000
O principal a ser observado aqui
01:57
is that this is a factual claim:
38
102000
2000
é que este é um argumento embasado em fatos.
01:59
This is something that we could be right or wrong about. And if we
39
104000
2000
É algo sobre o qual poderíamos estar certos ou errados.
02:01
have misconstrued the relationship between biological complexity
40
106000
3000
E se erramos sobre a relação entre complexidade biológica
02:04
and the possibilities of experience
41
109000
3000
e as possibilidades de experiência
02:07
well then we could be wrong about the inner lives of insects.
42
112000
3000
então podemos estar errados sobre as vidas dos insetos.
02:10
And there's no notion,
43
115000
4000
E não existe nenhuma noção,
02:14
no version of human morality
44
119000
2000
nenhuma versão de moralidade humana
02:16
and human values that I've ever come across
45
121000
3000
e valores humanos que encontrei
02:19
that is not at some point reducible
46
124000
2000
que não é em algum ponto redutível
02:21
to a concern about conscious experience
47
126000
3000
a uma preocupação com experiências conscientes
02:24
and its possible changes.
48
129000
2000
e suas possíveis variações.
02:26
Even if you get your values from religion,
49
131000
3000
Mesmo se os seus valores vêm da religião,
02:29
even if you think that good and evil ultimately
50
134000
2000
mesmo se você acha que o bem e o mal
02:31
relate to conditions after death --
51
136000
2000
dependem de condições após a morte,
02:33
either to an eternity of happiness with God
52
138000
3000
seja para uma eternidade de felicidade com deus
02:36
or an eternity of suffering in hell --
53
141000
2000
ou uma eternidade de sofrimento no inferno,
02:38
you are still concerned about consciousness and its changes.
54
143000
4000
você ainda está preocupado sobre a consciência e suas variações.
02:42
And to say that such changes can persist after death
55
147000
3000
E dizer que estas variações podem persistir após a morte
02:45
is itself a factual claim,
56
150000
2000
é um argumento fatual por si só que,
02:47
which, of course, may or may not be true.
57
152000
3000
é claro, pode ou não ser verdade.
02:50
Now, to speak about the conditions of well-being
58
155000
3000
Agora, para falar sobre condições de bem estar
02:53
in this life, for human beings,
59
158000
2000
nesta vida, para seres humanos,
02:55
we know that there is a continuum of such facts.
60
160000
3000
sabemos que existe um continuum destes fatos.
02:58
We know that it's possible to live in a failed state,
61
163000
3000
Sabemos que é possível viver em um estado arruinado,
03:01
where everything that can go wrong does go wrong --
62
166000
2000
onde tudo que pode dar errado dá errado,
03:03
where mothers cannot feed their children,
63
168000
3000
onde mães não conseguem alimentar suas crianças,
03:06
where strangers cannot find the basis for peaceful collaboration,
64
171000
4000
onde desconhecidos não conseguem achar as bases para colaboração pacífica,
03:10
where people are murdered indiscriminately.
65
175000
3000
onde pessoas são assassinadas indiscriminadamente.
03:13
And we know that it's possible to move along this continuum
66
178000
3000
E sabemos que é possível se mover ao longo deste continuum,
03:16
towards something quite a bit more idyllic,
67
181000
2000
para algo um pouco mais ideal,
03:18
to a place where a conference like this is even conceivable.
68
183000
5000
para um lugar onde uma conferência como esta é sequer concebível.
03:23
And we know -- we know --
69
188000
3000
E nós sabemos, sabemos,
03:26
that there are right and wrong answers
70
191000
2000
que existem respostas certas e erradas
03:28
to how to move in this space.
71
193000
2000
sobre como se mover neste espaço.
03:30
Would adding cholera to the water be a good idea?
72
195000
6000
Adicionar cólera na água seria uma boa idéia?
03:36
Probably not.
73
201000
2000
Provavelmente não.
03:38
Would it be a good idea for everyone to believe in the evil eye,
74
203000
3000
Seria uma boa idéia se todos acreditassem no "mau-olhado",
03:41
so that when bad things happened to them
75
206000
2000
tal que quando coisas ruins acontecerem
03:43
they immediately blame their neighbors? Probably not.
76
208000
4000
todos culpariam seus vizinhos? Provavelmente não.
03:47
There are truths to be known
77
212000
2000
Existem verdades a serem conhecidas
03:49
about how human communities flourish,
78
214000
3000
sobre como comunidades humanas florescem,
03:52
whether or not we understand these truths.
79
217000
2000
mesmo que não entendamos estas verdades.
03:54
And morality relates to these truths.
80
219000
3000
E a moralidade se relaciona a essas verdades.
03:57
So, in talking about values we are talking about facts.
81
222000
4000
Então, quando falamos sobre valores estamos falando sobre fatos.
04:01
Now, of course our situation in the world can be understood at many levels --
82
226000
3000
Agora, nossa situação no mundo pode ser entendida em muitos níveis.
04:04
from the level of the genome
83
229000
2000
Do nível do genoma
04:06
on up to the level of economic systems
84
231000
2000
até o nível de sistemas econômicos
04:08
and political arrangements.
85
233000
2000
e políticos.
04:10
But if we're going to talk about human well-being
86
235000
2000
Mas se vamos falar sobre o bem estar humano
04:12
we are, of necessity, talking about the human brain.
87
237000
3000
vamos, necessariamente, falar sobre o cérebro humano.
04:15
Because we know that our experience of the world and of ourselves within it
88
240000
3000
Porque sabemos que nossas experiências do mundo e de nós dentro dele
04:18
is realized in the brain --
89
243000
3000
são realizadas no cérebro.
04:21
whatever happens after death.
90
246000
2000
Seja lá o que acontece depois da morte,
04:23
Even if the suicide bomber does get 72 virgins in the afterlife,
91
248000
5000
mesmo se um homem-bomba ganha 72 virgens depois da morte,
04:28
in this life, his personality --
92
253000
3000
nesta vida, sua personalidade,
04:31
his rather unfortunate personality --
93
256000
2000
sua personalidade um tanto infeliz,
04:33
is the product of his brain.
94
258000
3000
é produto deste cérebro.
04:36
So the contributions of culture --
95
261000
3000
Então, as contribuições da cultura,
04:39
if culture changes us, as indeed it does,
96
264000
2000
se a cultura nos muda, como de fato muda,
04:41
it changes us by changing our brains.
97
266000
2000
nos muda ao mudar nossos cérebros.
04:43
And so therefore whatever cultural variation there is
98
268000
3000
E então, seja qual for a variação cultural que existe
04:46
in how human beings flourish
99
271000
2000
em como seres humanos florescem
04:48
can, at least in principle, be understood
100
273000
2000
pode, ao menos em princípio, ser entendida
04:50
in the context of a maturing science of the mind --
101
275000
3000
no contexto de uma ciência da mente em amadurecimento,
04:53
neuroscience, psychology, etc.
102
278000
3000
neurociência, psicologia, etc.
04:56
So, what I'm arguing is that
103
281000
2000
Então o que estou argumentando é que
04:58
value's reduced to facts --
104
283000
2000
valores são redutíveis à fatos,
05:00
to facts about the conscious experience
105
285000
2000
fatos sobre a experiência consciente
05:02
of conscious beings.
106
287000
3000
de seres conscientes.
05:05
And we can therefore visualize a space
107
290000
3000
E podemos, portanto, visualizar um espaço
05:08
of possible changes in the experience of these beings.
108
293000
3000
de possíveis mudanças nas experiências destes seres.
05:11
And I think of this as kind of a moral landscape,
109
296000
2000
Imagino isto como um tipo de paisagem moral
05:13
with peaks and valleys that correspond
110
298000
2000
com picos e depressões que correspondem
05:15
to differences in the well-being of conscious creatures,
111
300000
3000
as diferenças no bem estar de criaturas conscientes,
05:18
both personal and collective.
112
303000
2000
tanto pessoal como coletiva.
05:20
And one thing to notice is that perhaps
113
305000
2000
E um ponto a ser notado é que talvez
05:22
there are states of human well-being
114
307000
2000
existam estados de bem estar humano
05:24
that we rarely access, that few people access.
115
309000
3000
que poucas pessoas atingem.
05:27
And these await our discovery.
116
312000
2000
E estes esperam a nossa descoberta.
05:29
Perhaps some of these states can be appropriately called
117
314000
2000
Talvez estes estados possam ser chamados
05:31
mystical or spiritual.
118
316000
2000
de místicos ou espirituais.
05:33
Perhaps there are other states that we can't access
119
318000
2000
Talvez existam outros estados que não podemos atingir,
05:35
because of how our minds are structured
120
320000
3000
por causa de como nossas mentes são estruturadas,
05:38
but other minds possibly could access them.
121
323000
4000
mas que outras mentes poderiam possivelmente atingir.
05:42
Now, let me be clear about what I'm not saying. I'm not saying
122
327000
2000
Deixem me ser claro sobre o que não estou dizendo.
05:44
that science is guaranteed to map this space,
123
329000
5000
Não estou dizendo que é garantido que a ciência irá mapear este espaço,
05:49
or that we will have scientific answers to every
124
334000
2000
ou que teremos respostas científicas a todas
05:51
conceivable moral question.
125
336000
2000
perguntas morais concebíveis.
05:53
I don't think, for instance, that you will one day consult
126
338000
2000
Não penso, por exemplo, que você um dia irá consultar
05:55
a supercomputer to learn whether you should have a second child,
127
340000
4000
um supercomputador sobre se deveria ter um segundo filho,
05:59
or whether we should bomb Iran's nuclear facilities,
128
344000
4000
ou sobre se devemos bombardear as bases nucleares iranianas,
06:03
or whether you can deduct the full cost of TED as a business expense.
129
348000
4000
ou se você deveria deduzir o custo total do TED como despesas de trabalho.
06:07
(Laughter)
130
352000
2000
(risos)
06:09
But if questions affect human well-being
131
354000
2000
Mas se questões afetam o bem estar humano
06:11
then they do have answers, whether or not we can find them.
132
356000
3000
então elas possuem respostas, mesmo que não possamos encontrá-las.
06:14
And just admitting this --
133
359000
2000
E apenas admitir isto,
06:16
just admitting that there are right and wrong answers
134
361000
2000
admitir que existem respostas certas e erradas
06:18
to the question of how humans flourish --
135
363000
2000
as questões de como os seres humanos florescem
06:20
will change the way we talk about morality,
136
365000
2000
irá mudar a forma com a qual falamos sobre a moralidade,
06:22
and will change our expectations
137
367000
2000
e irá mudar nossas expectativas
06:24
of human cooperation in the future.
138
369000
4000
de cooperação humana no futuro.
06:28
For instance, there are 21 states in our country
139
373000
4000
Por exemplo, existem 21 estados no nosso país
06:32
where corporal punishment in the classroom is legal,
140
377000
3000
onde a punição física na sala de aula é legalizada.
06:35
where it is legal for a teacher to beat a child with a wooden board, hard,
141
380000
6000
Não é um crime se um professor bater em uma criança com uma tábua de madeira, severamente,
06:41
and raising large bruises and blisters and even breaking the skin.
142
386000
4000
gerando grandes hematomas e feridas e até mesmo rompendo a pele.
06:45
And hundreds of thousands of children, incidentally,
143
390000
2000
E centenas de milhares de crianças, a propósito,
06:47
are subjected to this every year.
144
392000
2000
são sujeitas a isto todo o ano.
06:49
The locations of these enlightened districts, I think, will fail to surprise you.
145
394000
5000
Os locais destes distritos iluminados, eu suponho, falharão em surpreendê-los.
06:54
We're not talking about Connecticut.
146
399000
3000
Não estamos falando de Connecticut.
06:57
And the rationale for this behavior is explicitly religious.
147
402000
4000
E as razões para este comportamento são explicitamente religiosas.
07:01
The creator of the universe himself
148
406000
2000
O criador do universo
07:03
has told us not to spare the rod,
149
408000
2000
nos disse para não poupar a vara,
07:05
lest we spoil the child --
150
410000
2000
para não mimar a criança.
07:07
this is in Proverbs 13 and 20, and I believe, 23.
151
412000
5000
Isto está nos Provérbios 13 e 20, e eu acho, 23.
07:12
But we can ask the obvious question:
152
417000
2000
Mas podemos perguntar a questão óbvia.
07:14
Is it a good idea, generally speaking,
153
419000
4000
É uma boa idéia, generalizando,
07:18
to subject children to pain
154
423000
3000
submeter crianças a dor
07:21
and violence and public humiliation
155
426000
3000
e violência e humilhação pública
07:24
as a way of encouraging healthy emotional development
156
429000
2000
como forma de encorajar um desenvolvimento emocional saudável
07:26
and good behavior?
157
431000
2000
e bom comportamento?
07:28
(Laughter)
158
433000
1000
(risos)
07:29
Is there any doubt
159
434000
4000
Existe a menor dúvida
07:33
that this question has an answer,
160
438000
2000
que esta questão possui uma resposta,
07:35
and that it matters?
161
440000
3000
e que ela é importante?
07:38
Now, many of you might worry
162
443000
2000
Muitos de vocês podem estar questionando
07:40
that the notion of well-being is truly undefined,
163
445000
3000
que a noção de bem estar é verdadeiramente indefinida,
07:43
and seemingly perpetually open to be re-construed.
164
448000
3000
e perpetuamente aberta a ser reconstruída.
07:46
And so, how therefore can there be an
165
451000
2000
E então, como pode existir uma
07:48
objective notion of well-being?
166
453000
3000
noção objetiva de bem estar?
07:51
Well, consider by analogy, the concept of physical health.
167
456000
3000
Bem, considerem por analogia, o conceito de saúde física.
07:54
The concept of physical health is undefined.
168
459000
3000
O conceito de saúde física é indefinido,
07:57
As we just heard from Michael Specter, it has changed over the years.
169
462000
3000
como acabamos de ouvir de Michael Specter. Ele mudou ao longo dos anos.
08:00
When this statue was carved
170
465000
2000
Quando esta estátua foi esculpida
08:02
the average life expectancy was probably 30.
171
467000
3000
a expectativa de vida era de provavelmente trinta anos.
08:05
It's now around 80 in the developed world.
172
470000
3000
Agora é em torno de oitenta no mundo desenvolvido.
08:08
There may come a time when we meddle with our genomes
173
473000
3000
Pode surgir uma era quando alteraremos nosso genoma
08:11
in such a way that not being able to run a marathon
174
476000
3000
de tal forma que não conseguir correr uma maratona
08:14
at age 200 will be considered a profound disability.
175
479000
4000
aos 200 anos de vida, seja considerado uma deficiência profunda.
08:18
People will send you donations when you're in that condition.
176
483000
3000
Pessoas mandarão doações se você estiver nessa condição.
08:21
(Laughter)
177
486000
2000
(risos)
08:23
Notice that the fact that the concept of health
178
488000
4000
Note que o fato do conceito de saúde
08:27
is open, genuinely open for revision,
179
492000
3000
ser aberto, genuinamente aberto para revisão
08:30
does not make it vacuous.
180
495000
2000
não o torna vazio.
08:32
The distinction between a healthy person
181
497000
3000
A distinção entre uma pessoa saudável
08:35
and a dead one
182
500000
2000
e uma morta
08:37
is about as clear and consequential as any we make in science.
183
502000
3000
é tão clara e conseqüente como qualquer outra que fazemos na ciência.
08:43
Another thing to notice is there may be many peaks on the moral landscape:
184
508000
3000
Agora, outro ponto a ser notado é que podem existir muitos picos na paisagem moral.
08:46
There may be equivalent ways to thrive;
185
511000
3000
Podem existir caminhos equivalentes para a prosperidade.
08:49
there may be equivalent ways to organize a human society
186
514000
2000
Podem existir formas equivalentes de se organizar uma sociedade humana
08:51
so as to maximize human flourishing.
187
516000
2000
de tal forma a maximizar o florescimento humano.
08:53
Now, why wouldn't this
188
518000
2000
Agora, por que isto não iria
08:55
undermine an objective morality?
189
520000
4000
minar uma moralidade objetiva?
08:59
Well think of how we talk about food:
190
524000
3000
Bem, pense como falamos sobre comida.
09:02
I would never be tempted to argue to you
191
527000
3000
Eu nunca tentaria discutir com você
09:05
that there must be one right food to eat.
192
530000
2000
que deve existir uma comida certa para se comer.
09:07
There is clearly a range of materials
193
532000
2000
Claramente existe uma gama de materiais
09:09
that constitute healthy food.
194
534000
2000
que constituem comidas saudáveis.
09:11
But there's nevertheless a clear distinction
195
536000
2000
Mas ainda assim existe uma clara distinção
09:13
between food and poison.
196
538000
2000
entre comida e veneno.
09:15
The fact that there are many right answers
197
540000
3000
O fato de existirem muitas respostas certas
09:18
to the question, "What is food?"
198
543000
2000
para a questão, "O que é comida?"
09:20
does not tempt us
199
545000
3000
não nos impede
09:23
to say that there are no truths to be known about human nutrition.
200
548000
5000
de dizer que existem verdades a serem conhecidas sobre a nutrição humana.
09:28
Many people worry
201
553000
2000
Muitas pessoas se preocupam
09:30
that a universal morality would require
202
555000
3000
que uma moralidade universal necessitaria
09:33
moral precepts that admit of no exceptions.
203
558000
3000
preceitos morais que não admitam exceções.
09:36
So, for instance, if it's really wrong to lie,
204
561000
2000
Então, por exemplo, se é realmente errado mentir,
09:38
it must always be wrong to lie,
205
563000
2000
deve ser sempre errado mentir,
09:40
and if you can find an exception,
206
565000
2000
e se você encontrar uma exceção,
09:42
well then there's no such thing as moral truth.
207
567000
3000
bem então a verdade moral não existe.
09:45
Why would we think this?
208
570000
2000
Por que pensaríamos isto?
09:47
Consider, by analogy, the game of chess.
209
572000
3000
Considere, por analogia, o jogo de xadrez.
09:50
Now, if you're going to play good chess,
210
575000
2000
Se você vai jogar xadrez em um bom nível,
09:52
a principle like, "Don't lose your Queen,"
211
577000
2000
um princípio como, "Não perca sua rainha."
09:54
is very good to follow.
212
579000
2000
é muito bom a ser seguido.
09:56
But it clearly admits some exceptions.
213
581000
2000
Mas claramente ele admite exceções.
09:58
There are moments when losing your Queen is a brilliant thing to do.
214
583000
3000
Existem momentos em que entregar a rainha é uma atitude brilhante.
10:01
There are moments when it is the only good thing you can do.
215
586000
4000
Existem momentos em que é a única coisa que se pode fazer.
10:05
And yet, chess is a domain of perfect objectivity.
216
590000
4000
E ainda assim, xadrez pertence à um domínio de perfeita objetividade.
10:09
The fact that there are exceptions here does not
217
594000
2000
O fato de existirem exceções
10:11
change that at all.
218
596000
3000
não altera nada.
10:14
Now, this brings us to the sorts of moves
219
599000
3000
Isto nos traz ao tipo de jogadas
10:17
that people are apt to make in the moral sphere.
220
602000
3000
que as pessoas estão aptas a fazer na esfera moral.
10:20
Consider the great problem of women's bodies:
221
605000
5000
Considere o grande problema do corpo das mulheres.
10:25
What to do about them?
222
610000
2000
O que fazer quanto a isso?
10:27
Well this is one thing you can do about them:
223
612000
2000
Bem, está é uma coisa que podemos fazer,
10:29
You can cover them up.
224
614000
2000
podemos cobri-lo.
10:31
Now, it is the position, generally speaking, of our intellectual community
225
616000
2000
É a posição, generalizando, da nossa comunidade intelectual,
10:33
that while we may not like this,
226
618000
4000
que mesmo que não gostemos disto,
10:37
we might think of this as "wrong"
227
622000
2000
podemos pensar nisto como errado
10:39
in Boston or Palo Alto,
228
624000
2000
em Boston ou Palo Alto,
10:41
who are we to say
229
626000
2000
quem somos nós para dizer
10:43
that the proud denizens of an ancient culture
230
628000
3000
que os orgulhosos cidadãos de uma cultura antiga
10:46
are wrong to force their wives and daughters
231
631000
3000
estão errados em forçar suas esposas e filhas
10:49
to live in cloth bags?
232
634000
2000
a viver dentro de sacos de tecido?
10:51
And who are we to say, even, that they're wrong
233
636000
2000
E quem somos nós para dizer que eles estão errados
10:53
to beat them with lengths of steel cable,
234
638000
2000
ao bater nelas com cabos de aço,
10:55
or throw battery acid in their faces
235
640000
2000
ou jogar ácido de bateria em suas faces
10:57
if they decline the privilege of being smothered in this way?
236
642000
4000
se elas se negarem ao privilégio de serem sufocadas desta maneira?
11:01
Well, who are we not to say this?
237
646000
3000
Ou quem somos nós para não dizer isto?
11:04
Who are we to pretend
238
649000
2000
Quem somos nós para fingir
11:06
that we know so little about human well-being
239
651000
4000
que sabemos tão pouco sobre o bem estar humano
11:10
that we have to be non-judgmental about a practice like this?
240
655000
4000
que não podemos julgar práticas como estas?
11:14
I'm not talking about voluntary wearing of a veil --
241
659000
4000
Não estou falando sobre o uso voluntário do véu,
11:18
women should be able to wear whatever they want, as far as I'm concerned.
242
663000
2000
as mulheres devem ter o direito de usar o que elas quiserem, ao que me diz respeito.
11:20
But what does voluntary mean
243
665000
3000
Mas o que significa voluntário
11:23
in a community where,
244
668000
2000
em uma comunidade onde
11:25
when a girl gets raped,
245
670000
3000
quando uma garota é estuprada
11:28
her father's first impulse,
246
673000
2000
o primeiro impulso dos pais,
11:30
rather often, is to murder her out of shame?
247
675000
5000
com freqüência, é assassinar ela por vergonha.
11:35
Just let that fact detonate in your brain for a minute:
248
680000
7000
Deixem este fato detonar no cérebro de vocês por um minuto.
11:42
Your daughter gets raped,
249
687000
2000
A sua filha é estuprada,
11:44
and what you want to do is kill her.
250
689000
3000
e o que você quer fazer é matá-la.
11:52
What are the chances that represents
251
697000
2000
Qual a probabilidade que isto representa
11:54
a peak of human flourishing?
252
699000
5000
um pico de florescimento humano?
12:02
Now, to say this is not to say that we have got the
253
707000
2000
Agora, dizer isto, não é dizer que nós temos
12:04
perfect solution in our own society.
254
709000
4000
a solução perfeita na nossa sociedade.
12:08
For instance,
255
713000
2000
Como por exemplo,
12:10
this is what it's like to go to a newsstand almost anywhere
256
715000
2000
isto é o que encontramos em qualquer banca de revistas
12:12
in the civilized world.
257
717000
2000
no mundo civilizado.
12:14
Now, granted, for many men
258
719000
2000
Agora, é certo que, para muitos homens,
12:16
it may require a degree in philosophy to see something wrong with these images.
259
721000
3000
é necessário um diploma em filosofia para ver algo de errado com estas imagens.
12:19
(Laughter)
260
724000
3000
(risos)
12:22
But if we are in a reflective mood,
261
727000
3000
Mas se estamos em um humor reflexivo
12:25
we can ask,
262
730000
2000
podemos perguntar,
12:27
"Is this the perfect expression
263
732000
2000
"Esta é a expressão perfeita
12:29
of psychological balance
264
734000
2000
de equilíbrio psicológico
12:31
with respect to variables like youth and beauty and women's bodies?"
265
736000
3000
com respeito às variáveis como juventude e beleza e corpos femininos?"
12:34
I mean, is this the optimal environment
266
739000
2000
Quero dizer, este é o ambiente ótimo
12:36
in which to raise our children?
267
741000
4000
para criar nossas crianças?
12:40
Probably not. OK, so perhaps there's some place
268
745000
2000
Provavelmente não. Então talvez exista um lugar
12:42
on the spectrum
269
747000
2000
no espectro
12:44
between these two extremes
270
749000
2000
entre estes dois extremos
12:46
that represents a place of better balance.
271
751000
3000
que represente um lugar de maior equilíbrio?
12:49
(Applause)
272
754000
8000
(aplausos)
12:57
Perhaps there are many such places --
273
762000
2000
Talvez existam muitos lugares assim.
12:59
again, given other changes in human culture
274
764000
3000
De novo, dadas outras oportunidades na cultura humana
13:02
there may be many peaks on the moral landscape.
275
767000
2000
podem existir muitos outros picos na paisagem moral.
13:04
But the thing to notice is that there will be
276
769000
2000
Mas o ponto a ser notado é que existem
13:06
many more ways not to be on a peak.
277
771000
5000
muito mais formas de não estar em um pico.
13:11
Now the irony, from my perspective,
278
776000
2000
Agora, a ironia, da minha perspectiva
13:13
is that the only people who seem to generally agree with me
279
778000
3000
é que as únicas pessoas que parecem concordar comigo
13:16
and who think that there are right and wrong answers to moral questions
280
781000
3000
e que acham que existem respostas certas e erradas no mundo moral
13:19
are religious demagogues of one form or another.
281
784000
3000
são demagogos religiosos de algum tipo.
13:22
And of course they think they have right answers to moral questions
282
787000
3000
E é claro que eles acham que possuem respostas certas para questões morais
13:25
because they got these answers from a voice in a whirlwind,
283
790000
4000
porque eles receberam essas respostas de uma voz ao vento,
13:29
not because they made an intelligent analysis of the causes
284
794000
2000
não porque eles fizeram uma análise inteligente das causas
13:31
and condition of human and animal well-being.
285
796000
4000
e das condições humanas e animais de bem estar.
13:35
In fact, the endurance of religion
286
800000
2000
Na verdade, a persistência da religião
13:37
as a lens through which most people view moral questions
287
802000
4000
como uma lente pela qual a maioria das pessoas enxergam questões morais,
13:41
has separated most moral talk
288
806000
3000
tem separado a maior parte das discussões morais
13:44
from real questions of human and animal suffering.
289
809000
4000
de questões como o sofrimento humano e animal.
13:48
This is why we spend our time
290
813000
2000
É por isso que passamos nosso tempo
13:50
talking about things like gay marriage
291
815000
2000
falando sobre coisas como casamento gay
13:52
and not about genocide or nuclear proliferation
292
817000
4000
e não sobre genocídio ou proliferação nuclear
13:56
or poverty or any other hugely consequential issue.
293
821000
5000
ou pobreza ou outras questões de conseqüências graves.
14:01
But the demagogues are right about one thing: We need
294
826000
2000
Mas os demagogos estão certos sobre uma coisa,
14:03
a universal conception of human values.
295
828000
4000
precisamos de uma concepção universal dos valores humanos.
14:07
Now, what stands in the way of this?
296
832000
2000
O que está no meio do caminho disto?
14:09
Well, one thing to notice is that we
297
834000
2000
Bem, uma coisa a ser notada é que
14:11
do something different when talking about morality --
298
836000
2000
nós fazemos algo diferente quando falamos sobre moralidade,
14:13
especially secular, academic, scientist types.
299
838000
4000
especialmente secular, acadêmica, científica.
14:17
When talking about morality we value differences of opinion
300
842000
3000
Quando falamos sobre moralidade valorizamos as diferenças de opinião
14:20
in a way that we don't in any other area of our lives.
301
845000
3000
de uma forma que não fazemos em qualquer outra área de nossas vidas.
14:23
So, for instance the Dalai Lama gets up every morning
302
848000
2000
Então, por exemplo, o Dalai Lama acorda toda as manhãs
14:25
meditating on compassion,
303
850000
2000
meditando sobre a compaixão.
14:27
and he thinks that helping other human beings is an integral component
304
852000
2000
E ele acha que ajudar outros seres humanos
14:29
of human happiness.
305
854000
3000
é um componente integral da felicidade humana.
14:32
On the other hand, we have someone like Ted Bundy;
306
857000
2000
Por outro lado temos alguém como Ted Bundy.
14:34
Ted Bundy was very fond of abducting and raping
307
859000
2000
Ted Bundy gostava muito de seqüestrar e estuprar
14:36
and torturing and killing young women.
308
861000
2000
e torturar e matar jovens mulheres.
14:38
So, we appear to have a genuine difference of opinion
309
863000
2000
Então, parece que temos uma diferença de opinião genuína
14:40
about how to profitably use one's time.
310
865000
3000
sobre como usufruir o seu tempo livre.
14:43
(Laughter)
311
868000
2000
(risos)
14:45
Most Western intellectuals
312
870000
2000
A maior parte dos intelectuais ocidentais
14:47
look at this situation
313
872000
2000
olham para esta situação
14:49
and say, "Well, there's nothing for the Dalai Lama
314
874000
2000
e dizem, "Bem, não existe nada que diga
14:51
to be really right about -- really right about --
315
876000
3000
que o Dalai Lama está realmente certo,
14:54
or for Ted Bundy to be really wrong about
316
879000
3000
ou que Ted Bundy está realmente errado
14:57
that admits of a real argument
317
882000
4000
que admita um argumento real
15:01
that potentially falls within the purview of science.
318
886000
3000
que potencialmente caia dentro do âmbito da ciência.
15:04
He likes chocolate, he likes vanilla.
319
889000
3000
Ele gosta de chocolate, ele de baunilha.
15:07
There's nothing that one should be able to say to the other
320
892000
3000
Não há nada que um poderia dizer ao outro que
15:10
that should persuade the other."
321
895000
3000
seria capaz de persuadi-lo.
15:13
Notice that we don't do this in science.
322
898000
3000
E note que não fazemos isto na ciência.
15:16
On the left you have Edward Witten.
323
901000
2000
Na esquerda temos Edward Witten.
15:18
He's a string theorist.
324
903000
3000
Um teórico da teoria das cordas.
15:21
If you ask the smartest physicists around
325
906000
2000
Se você perguntar aos físicos mais inteligentes
15:23
who is the smartest physicist around,
326
908000
2000
quem é o físico mais inteligente no mundo,
15:25
in my experience half of them will say Ed Witten.
327
910000
3000
minha experiência diz que metade deles dirão Ed Witten.
15:28
The other half will tell you they don't like the question.
328
913000
3000
E a outra metade dirá que eles não gostam da questão.
15:31
(Laughter)
329
916000
3000
(risos)
15:34
So, what would happen if I showed up at a physics conference
330
919000
4000
Então, o que aconteceria se eu aparecesse em um congresso de física
15:38
and said,"String theory is bogus.
331
923000
2000
e dissesse, "A teoria das cordas é uma farsa.
15:40
It doesn't resonate with me. It's not how I chose to
332
925000
2000
Não é a forma que eu escolho
15:42
view the universe at a small scale.
333
927000
3000
para ver o universo na escala pequena.
15:45
I'm not a fan."
334
930000
2000
Não sou um fã."
15:47
(Laughter)
335
932000
3000
(risos)
15:50
Well, nothing would happen because I'm not a physicist;
336
935000
2000
Bem, nada iria acontecer porque não sou um físico,
15:52
I don't understand string theory.
337
937000
2000
não entendo a teoria das cordas.
15:54
I'm the Ted Bundy of string theory.
338
939000
2000
Sou o Ted Bundy da teoria das cordas.
15:56
(Laughter)
339
941000
3000
(risos)
15:59
I wouldn't want to belong to any string theory club that would have me as a member.
340
944000
3000
Eu não pertenceria a nenhum clube da teoria das cordas que me aceitasse como sócio.
16:02
But this is just the point.
341
947000
2000
Mas este é exatamente o ponto.
16:04
Whenever we are talking about facts
342
949000
3000
Sempre que estamos falando sobre fatos
16:07
certain opinions must be excluded.
343
952000
2000
certas opiniões devem ser excluídas.
16:09
That is what it is to have a domain of expertise.
344
954000
3000
É isto que significa a existência de um domínio de especialistas.
16:12
That is what it is for knowledge to count.
345
957000
3000
É isto que significa o conhecimento ser levado em conta.
16:15
How have we convinced ourselves
346
960000
3000
Como nos convencemos de que
16:18
that in the moral sphere there is no such thing as moral expertise,
347
963000
4000
na esfera moral não existem especialistas morais,
16:22
or moral talent, or moral genius even?
348
967000
3000
ou talentos morais, ou até mesmo gênios morais?
16:25
How have we convinced ourselves
349
970000
2000
Como nos convencemos de que
16:27
that every opinion has to count?
350
972000
2000
todas as opiniões contam?
16:29
How have we convinced ourselves
351
974000
2000
Como nos convencemos de que
16:31
that every culture has a point of view
352
976000
2000
todas as culturas possuem um ponto de vista
16:33
on these subjects worth considering?
353
978000
3000
que vale a pena ser considerado?
16:36
Does the Taliban
354
981000
2000
O Talibã possui um
16:38
have a point of view on physics
355
983000
2000
ponto de vista sobre física
16:40
that is worth considering? No.
356
985000
3000
que vale a pena ser considerado? Não.
16:43
(Laughter)
357
988000
5000
(risos)
16:48
How is their ignorance any less obvious
358
993000
3000
Como pode a ignorância deles ser menos óbvia
16:51
on the subject of human well-being?
359
996000
2000
no assunto do bem estar humano?
16:53
(Applause)
360
998000
6000
(aplauso)
16:59
So, this, I think, is what the world needs now.
361
1004000
4000
Isto, eu penso, é o que o mundo precisa agora.
17:03
It needs people like ourselves to admit
362
1008000
3000
Precisa que pessoas como nós admitam
17:06
that there are right and wrong answers
363
1011000
3000
que existem respostas certas e erradas
17:09
to questions of human flourishing,
364
1014000
2000
para questões relacionadas ao florescimento humano,
17:11
and morality relates
365
1016000
2000
e que a moralidade pertence
17:13
to that domain of facts.
366
1018000
2000
ao domínio dos fatos.
17:15
It is possible
367
1020000
2000
É possível
17:17
for individuals, and even for whole cultures,
368
1022000
4000
que indivíduos, e até que culturas inteiras
17:21
to care about the wrong things,
369
1026000
2000
se preocupem com coisas erradas.
17:23
which is to say that it's possible for them
370
1028000
3000
Que é dizer que é possível que elas
17:26
to have beliefs and desires that reliably lead
371
1031000
2000
tenham crenças e desejos que levam
17:28
to needless human suffering.
372
1033000
2000
ao sofrimento humano desnecessário.
17:30
Just admitting this will transform our discourse about morality.
373
1035000
5000
Apenas admitir isto já vai transformar o nosso discurso sobre a moralidade.
17:35
We live in a world in which
374
1040000
3000
Vivemos em um mundo onde
17:38
the boundaries between nations mean less and less,
375
1043000
3000
as fronteiras entre as nações significam cada vez menos,
17:41
and they will one day mean nothing.
376
1046000
3000
e um dia não irão significar nada.
17:44
We live in a world filled with destructive technology,
377
1049000
2000
Vivemos em um mundo cheio de tecnologia destrutiva,
17:46
and this technology cannot be uninvented;
378
1051000
2000
e esta tecnologia pode ser "desinventada",
17:48
it will always be easier
379
1053000
2000
será sempre mais fácil
17:50
to break things than to fix them.
380
1055000
4000
quebrar as coisas do que concertá-las.
17:54
It seems to me, therefore, patently obvious
381
1059000
2000
Me parece, portanto, notadamente óbvio
17:56
that we can no more
382
1061000
4000
que não podemos
18:00
respect and tolerate
383
1065000
2000
respeitar e tolerar
18:02
vast differences in notions of human well-being
384
1067000
4000
vastas diferenças nas noções sobre o bem estar humano,
18:06
than we can respect or tolerate vast differences
385
1071000
3000
mais do que podemos respeitar e tolerar
18:09
in the notions about how disease spreads,
386
1074000
3000
as noções sobre como as doenças se espalham,
18:12
or in the safety standards of buildings and airplanes.
387
1077000
3000
ou sobre os padrões de segurança de prédios e aeronaves.
18:15
We simply must converge
388
1080000
3000
Simplesmente devemos convergir
18:18
on the answers we give to the most important questions in human life.
389
1083000
4000
nas respostas que damos as questões mais importantes da vida humana.
18:22
And to do that, we have to admit that these questions have answers.
390
1087000
5000
E para fazer isto, temos que admitir que estas perguntas possuem respostas.
18:27
Thank you very much.
391
1092000
2000
Muito obrigado
18:29
(Applause)
392
1094000
23000
(aplauso)
18:52
Chris Anderson: So, some combustible material there.
393
1117000
4000
Então... material explosivo aqui.
18:56
Whether in this audience or people elsewhere in the world,
394
1121000
3000
Seja nesta platéia ou em outras partes do mundo, as pessoas
18:59
hearing some of this, may well be doing the
395
1124000
2000
ouvindo isto, podem muito bem estar
19:01
screaming-with-rage thing, after as well, some of them.
396
1126000
5000
gritando com raiva agora.
19:06
Language seems to be really important here.
397
1131000
2000
A linguagem parece ser muito importante aqui.
19:08
When you're talking about the veil,
398
1133000
2000
Quando você estava falando sobre o véu,
19:10
you're talking about women dressed in cloth bags.
399
1135000
3000
você estava falando sobre mulheres vestidas em sacos de tecido.
19:13
I've lived in the Muslim world, spoken with a lot of Muslim women.
400
1138000
4000
Eu vivi no mundo muçulmano, falei com muitas mulheres muçulmanas.
19:17
And some of them would say something else. They would say,
401
1142000
2000
E algumas delas diriam algo diferente. Diriam,
19:19
"No, you know, this is a celebration
402
1144000
3000
"Não, isto é uma celebração
19:22
of female specialness,
403
1147000
3000
da especialidade feminina,
19:25
it helps build that and it's a result of the fact that" --
404
1150000
2000
ajuda a construir isto e é um resultado do fato de que..."
19:27
and this is arguably a sophisticated psychological view --
405
1152000
4000
e este é um ponto de vista psicológico sofisticado,
19:31
"that male lust is not to be trusted."
406
1156000
3000
"a luxúria masculina não pode ser confiada."
19:34
I mean, can you engage in a conversation
407
1159000
3000
Você poderia se engajar uma conversa
19:37
with that kind of woman without seeming kind of cultural imperialist?
408
1162000
5000
com este tipo de mulher sem parecer um imperialista cultural?
19:42
Sam Harris: Yeah, well I think I tried to broach this in a sentence,
409
1167000
3000
Bem, tentei abordar isto em uma frase
19:45
watching the clock ticking,
410
1170000
2000
cuidando o tempo passar,
19:47
but the question is:
411
1172000
2000
mas a questão é,
19:49
What is voluntary in a context
412
1174000
3000
o que é voluntário em um contexto
19:52
where men have certain expectations,
413
1177000
2000
onde homens tem certas expectativas,
19:54
and you're guaranteed to be treated in a certain way
414
1179000
4000
e é garantido que você será tratada de certa forma
19:58
if you don't veil yourself?
415
1183000
2000
se você não usar o véu.
20:00
And so, if anyone in this room
416
1185000
2000
Então, se qualquer um nesta sala
20:02
wanted to wear a veil,
417
1187000
2000
quiser usar o véu,
20:04
or a very funny hat, or tattoo their face --
418
1189000
3000
ou um chapéu engraçado, ou tatuar o seu rosto,
20:07
I think we should be free to voluntarily do whatever we want,
419
1192000
3000
acho que devemos ser livres para fazer voluntariamente o que queremos.
20:10
but we have to be honest about
420
1195000
3000
Mas temos que ser honestos sobre
20:13
the constraints that these women are placed under.
421
1198000
2000
as pressões que estas mulheres enfrentam.
20:15
And so I think we shouldn't be so eager
422
1200000
3000
E então acho não deveríamos nos apressar
20:18
to always take their word for it,
423
1203000
2000
em sempre aceitar a palavra delas,
20:20
especially when it's 120 degrees out
424
1205000
2000
especialmente quando está 50 graus
20:22
and you're wearing a full burqa.
425
1207000
3000
e elas estão usando uma burca completa.
20:25
CA: A lot of people want to believe in this
426
1210000
2000
Muitas pessoas querem acreditar
20:27
concept of moral progress.
427
1212000
2000
neste conceito de progresso moral.
20:29
But can you reconcile that?
428
1214000
2000
Mas você consegue conciliar isto?
20:31
I think I understood you to say that you could
429
1216000
2000
Se não estou enganado você diz que poderia
20:33
reconcile that with a world that doesn't become
430
1218000
2000
conciliar isto com um mundo que não se torne
20:35
one dimensional, where we all have to think the same.
431
1220000
3000
unidimensional, onde todos temos que pensar o mesmo.
20:38
Paint your picture of what
432
1223000
2000
Qual a sua visão
20:40
rolling the clock 50 years forward,
433
1225000
3000
daqui a 50 anos,
20:43
100 years forward, how you would like to think of
434
1228000
2000
100 anos, como você pensaria
20:45
the world, balancing moral progress
435
1230000
3000
sobre o mundo, equilibrando progresso moral
20:48
with richness.
436
1233000
3000
com riqueza cultural.
20:51
SH: Well, I think once you admit
437
1236000
2000
Bem, penso que uma vez que se admita
20:53
that we are on the path toward understanding our minds
438
1238000
3000
que estamos no caminho do entendimento das nossas mentes
20:56
at the level of the brain in some important detail,
439
1241000
3000
no nível do cérebro, em detalhe importante,
20:59
then you have to admit
440
1244000
2000
então você tem que admitir
21:01
that we are going to understand all of the positive
441
1246000
4000
que vamos entender todas as qualidades
21:05
and negative qualities
442
1250000
2000
positivas e negativas
21:07
of ourselves in much greater detail.
443
1252000
2000
que possuímos em grande detalhe.
21:09
So, we're going to understand positive social emotion
444
1254000
2000
Então entenderemos emoções sociais positivas
21:11
like empathy and compassion,
445
1256000
2000
como empatia e compaixão.
21:13
and we're going to understand the factors
446
1258000
2000
E entenderemos os fatos que
21:15
that encourage it -- whether they're genetic,
447
1260000
2000
estimulam elas, sejam genéticos,
21:17
whether they're how people talk to one another,
448
1262000
2000
sejam a conversa entre as pessoas,
21:19
whether they're economic systems,
449
1264000
2000
sejam sistemas econômicos.
21:21
and insofar as we begin to shine light on that
450
1266000
3000
Assim que comecemos a iluminar estas questões
21:24
we are inevitably going to converge
451
1269000
2000
iremos inevitavelmente convergir
21:26
on that fact space.
452
1271000
2000
neste espaço.
21:28
So, everything is not going to be up for grabs.
453
1273000
2000
Nem tudo estará no mesmo nível.
21:30
It's not going to be like
454
1275000
3000
Não será de tal forma que
21:33
veiling my daughter from birth
455
1278000
2000
colocar a burca na minha filha desde o nascimento
21:35
is just as good as teaching her
456
1280000
3000
é tão bom como ensinar ela
21:38
to be confident and well-educated
457
1283000
4000
a ser confiante e bem educada
21:42
in the context of men who do desire women.
458
1287000
3000
na presença de homens que desejam mulheres.
21:45
I mean I don't think we need an NSF grant to know
459
1290000
4000
Não acho que precisamos de um financiamento do governo
21:49
that compulsory veiling is a bad idea --
460
1294000
3000
para saber que o uso compulsório do véu é uma má idéia.
21:52
but at a certain point
461
1297000
2000
Mas em algum momento
21:54
we're going to be able to scan the brains of everyone involved
462
1299000
3000
seremos capazes de escanear os cérebros de todos envolvidos
21:57
and actually interrogate them.
463
1302000
3000
e de fato interrogá-los.
22:00
Do people love their daughters
464
1305000
3000
As pessoas amam suas filhas
22:03
just as much in these systems?
465
1308000
3000
da mesma forma nestes sistemas?
22:06
And I think there are clearly right answers to that.
466
1311000
2000
E acho que claramente existem respostas certas para isto.
22:08
CA: And if the results come out that actually they do,
467
1313000
3000
A se os resultados forem que de fato eles amam,
22:11
are you prepared to shift your instinctive current judgment
468
1316000
3000
você está preparado para mudar atual julgamento instintivo
22:14
on some of these issues?
469
1319000
2000
em alguns destes casos?
22:16
SH: Well yeah, modulo one obvious fact,
470
1321000
3000
A parte de um fato óbvio,
22:19
that you can love someone
471
1324000
2000
de que você pode amar alguém
22:21
in the context of a truly delusional belief system.
472
1326000
3000
no contexto de um sistema de crenças verdadeiramente falsas.
22:24
So, you can say like, "Because I knew my gay son
473
1329000
2000
Você pode dizer, "Porque eu sabia que meu filho gay
22:26
was going to go to hell if he found a boyfriend,
474
1331000
3000
iria para o inferno se ele encontrasse um namorado,
22:29
I chopped his head off. And that was the most compassionate thing I could do."
475
1334000
3000
eu o decapitei. E este foi o ato de maior compaixão que eu poderia fazer."
22:32
If you get all those parts aligned,
476
1337000
2000
Se você considerar todas estas partes,
22:34
yes I think you could probably be feeling the emotion of love.
477
1339000
3000
sim eu acho que você provavelmente poderia estar sentido amor.
22:37
But again, then we have to talk about
478
1342000
2000
Mas de novo, então teremos que falar
22:39
well-being in a larger context.
479
1344000
2000
no bem estar em um contexto mais amplo.
22:41
It's all of us in this together,
480
1346000
2000
Estamos todos juntos nisto,
22:43
not one man feeling ecstasy
481
1348000
4000
não é sobre um homem sentir êxtase
22:47
and then blowing himself up on a bus.
482
1352000
2000
e depois se explodir em um ônibus.
22:49
CA: Sam, this is a conversation I would actually love to
483
1354000
2000
Esta parece ser uma conversa a qual eu adoraria
22:51
continue for hours.
484
1356000
2000
que continuasse por horas.
22:53
We don't have that, but maybe another time. Thank you for coming to TED.
485
1358000
2000
Não temos este tempo. Obrigado por vir ao TED.
22:55
SH: Really an honor. Thank you.
486
1360000
2000
Realmente uma honra. Obrigado.
22:57
(Applause)
487
1362000
3000
(aplausos)
Translated by Aurelio Tergolina Salton
Reviewed by Durval Castro

▲Back to top

ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com