ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com
TED2010

Sam Harris: Science can answer moral questions

Sam Harris: Ştiinţa poate oferi răspunsuri problemelor morale

Filmed:
6,257,604 views

Se crede că ştiinţa nu ne poate ajuta să distingem între bine şi rău, între dreptate şi nedreptate. Dar Sam Harris susţine că ştiinţa poate - şi chiar trebuie - să fie privită ca o autoritate morală, ajutând astfel la formarea valorilor umane şi la definirea noţiunii de „viaţă bună".
- Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live. Full bio

Double-click the English transcript below to play the video.

00:15
I'm going to speakvorbi todayastăzi about the relationshiprelaţie
0
0
3000
Aş vrea să vorbesc astăzi despre relaţia
00:18
betweenîntre scienceştiinţă and humanuman valuesvalorile.
1
3000
4000
dintre ştiinţă şi valorile umane.
00:22
Now, it's generallyîn general understoodînțeles that
2
7000
2000
Opinia general acceptată este aceea că
00:24
questionsîntrebări of moralitymoralitate --
3
9000
2000
problemele morale,
00:26
questionsîntrebări of good and evilrău and right and wronggresit --
4
11000
2000
distincţia dintre bine şi rău
00:28
are questionsîntrebări about whichcare scienceştiinţă officiallyoficial has no opinionopinie.
5
13000
3000
sunt chestiuni în legătură cu care ştiinţa nu are niciun cuvânt de spus.
00:31
It's thought that scienceştiinţă can help us
6
16000
3000
Se spune că ştiinţa ne poate ajuta
00:34
get what we valuevaloare,
7
19000
2000
să obţinem ceea ce preţuim,
00:36
but it can never tell us what we oughttrebui to valuevaloare.
8
21000
3000
dar nu ne poate spune ce ar trebui să preţuim.
00:39
And, consequentlyprin urmare, mostcel mai people -- I think mostcel mai people
9
24000
2000
Prin urmare, majoritatea oamenilor - probabil majoritatea oamenilor
00:41
probablyprobabil here -- think that scienceştiinţă will never answerRăspuns
10
26000
3000
din această sală - cred că ştiinţa nu va răspunde niciodată
00:44
the mostcel mai importantimportant questionsîntrebări in humanuman life:
11
29000
3000
la cele mai importante întrebări din viaţa unui om,
00:47
questionsîntrebări like, "What is worthin valoare de livingviaţă for?"
12
32000
2000
întrebări precum: „Pentru ce merită să trăieşti?”,
00:49
"What is worthin valoare de dyingmoarte for?"
13
34000
2000
„Pentru ce merită să mori?”,
00:51
"What constitutesconstituie a good life?"
14
36000
2000
„Ce reprezintă o viaţă bună?”.
00:53
So, I'm going to argueargumenta
15
38000
2000
Eu susţin
00:55
that this is an illusionamăgire -- that the separationseparare betweenîntre
16
40000
2000
că aceasta este o iluzie, că distincţia
00:57
scienceştiinţă and humanuman valuesvalorile is an illusionamăgire --
17
42000
2000
dintre ştiinţă şi valorile umane este o iluzie,
00:59
and actuallyde fapt quitedestul de a dangerouspericulos one
18
44000
3000
şi încă una destul de periculoasă
01:02
at this pointpunct in humanuman historyistorie.
19
47000
2000
în acest punct al evoluţiei umanităţii.
01:04
Now, it's oftende multe ori said that scienceştiinţă
20
49000
2000
Se spune adeseori că ştiinţa
01:06
cannotnu poti give us a foundationfundație for moralitymoralitate and humanuman valuesvalorile,
21
51000
3000
nu ne poate oferi o bază pentru moralitate şi pentru valorile umane
01:09
because scienceştiinţă dealsoferte with factsfapte,
22
54000
3000
întrucât ştiinţa operează cu date exacte
01:12
and factsfapte and valuesvalorile seempărea to belongaparține to differentdiferit spheressfere.
23
57000
4000
iar datele exact şi valorile par să aparţină unor sfere diferite.
01:16
It's oftende multe ori thought that there's no descriptionDescriere
24
61000
3000
Se spune adesea că nu există nicio descriere
01:19
of the way the worldlume is
25
64000
2000
a lumii de azi
01:21
that can tell us how the worldlume oughttrebui to be.
26
66000
4000
care să sugereze cum ar trebui să fie lumea de mâine.
01:25
But I think this is quitedestul de clearlyclar untrueneadevărat.
27
70000
2000
Însă eu cred că asta este pur şi simplu neadevărat.
01:27
ValuesValorile are a certainanumit kinddrăguț of factfapt.
28
72000
4000
Valorile sunt şi ele un anumit tip de date exacte.
01:31
They are factsfapte about the well-beingbunăstare of consciousconştient creaturescreaturi.
29
76000
4000
Ele sunt date despre bunăstarea creaturilor conştiente.
01:35
Why is it that we don't have ethicaletic obligationsobligaţiile towardspre rocksroci?
30
80000
4000
De ce nu avem obligaţii morale faţă de pietre?
01:39
Why don't we feel compassioncompasiune for rocksroci?
31
84000
3000
De ce nu simţim compasiune faţă de pietre?
01:42
It's because we don't think rocksroci can suffersuferi. And if we're more
32
87000
2000
Pentru că nu credem că pietrele pot suferi.
01:44
concernedîngrijorat about our fellowcoleg primatesprimate
33
89000
2000
Şi dacă suntem mai preocupaţi de bunăstarea primatelor
01:46
than we are about insectsinsecte, as indeedintr-adevar we are,
34
91000
3000
decât de cea a insectelor, după cum chiar suntem,
01:49
it's because we think they're exposedexpuse to a greatermai mare rangegamă
35
94000
2000
asta se întâmplă pentru că le considerăm expuse la o paletă mai largă
01:51
of potentialpotenţial happinessfericire and sufferingsuferinţă.
36
96000
3000
de potenţiale emoţii, de fericire sau suferinţă.
01:54
Now, the crucialcrucial thing to noticeînștiințare here
37
99000
3000
Ceea ce trebuie neapărat observat
01:57
is that this is a factualfapt claimRevendicare:
38
102000
2000
este că aceasta e o afirmaţie faptică.
01:59
This is something that we could be right or wronggresit about. And if we
39
104000
2000
Este posibil ca noi să ne înşelăm în această privinţă.
02:01
have misconstruedinterpretat greşit the relationshiprelaţie betweenîntre biologicalbiologic complexitycomplexitate
40
106000
3000
Şi dacă am interpretat greşit relaţia dintre complexitatea biologică a fiinţelor
02:04
and the possibilitiesposibilităţi of experienceexperienţă
41
109000
3000
şi capacitatea lor de a simţi,
02:07
well then we could be wronggresit about the innerinterior livesvieți of insectsinsecte.
42
112000
3000
atunci se poate să ne înşelăm în privinţa vieţii interioare a insectelor.
02:10
And there's no notionnoţiune,
43
115000
4000
Nu există nicio concepţie,
02:14
no versionversiune of humanuman moralitymoralitate
44
119000
2000
nicio versiune a moralităţii umane
02:16
and humanuman valuesvalorile that I've ever come acrosspeste
45
121000
3000
şi a valorilor umane pe care să o fi întâlnit vreodată
02:19
that is not at some pointpunct reduciblereductibila
46
124000
2000
care să nu se poată reduce
02:21
to a concernîngrijorare about consciousconştient experienceexperienţă
47
126000
3000
la o grijă faţă de experienţa conştientă
02:24
and its possibleposibil changesschimbări.
48
129000
2000
şi posibilele ei alterări.
02:26
Even if you get your valuesvalorile from religionreligie,
49
131000
3000
Chiar şi când ne raportăm la valori religioase,
02:29
even if you think that good and evilrău ultimatelyîn cele din urmă
50
134000
2000
chiar şi când credem că binele şi răul se reduc
02:31
relateraporta to conditionscondiţii after deathmoarte --
51
136000
2000
la condiţia de după moarte,
02:33
eitherfie to an eternityeternitate of happinessfericire with God
52
138000
3000
fie o eternitate fericită alături de Dumnezeu,
02:36
or an eternityeternitate of sufferingsuferinţă in helliad --
53
141000
2000
fie o eternitate de suferinţă în iad,
02:38
you are still concernedîngrijorat about consciousnessconstiinta and its changesschimbări.
54
143000
4000
şi atunci tot suntem preocupaţi de percepţia conştientă şi de modificările ei.
02:42
And to say that suchastfel de changesschimbări can persistpersista after deathmoarte
55
147000
3000
Iar a spune că asemenea schimbări pot persista şi după moarte
02:45
is itselfîn sine a factualfapt claimRevendicare,
56
150000
2000
este în sine o afirmaţie factuală,
02:47
whichcare, of coursecurs, mayMai or mayMai not be trueAdevărat.
57
152000
3000
care poate, bineînţeles, să fie adevărată sau nu.
02:50
Now, to speakvorbi about the conditionscondiţii of well-beingbunăstare
58
155000
3000
Referindu-ne la condiţiile bunăstării în această viaţă,
02:53
in this life, for humanuman beingsființe,
59
158000
2000
în ceea ce priveşte fiinţele umane,
02:55
we know that there is a continuumcontinuum of suchastfel de factsfapte.
60
160000
3000
ştim că există un continuum de asemenea date.
02:58
We know that it's possibleposibil to livetrăi in a faileda eșuat statestat,
61
163000
3000
Ştim că este posibil să trăim într-o stare de eşec,
03:01
where everything that can go wronggresit does go wronggresit --
62
166000
2000
unde tot ceea ce poate merge rău chiar merge rău,
03:03
where mothersmame cannotnu poti feeda hrani theiral lor childrencopii,
63
168000
3000
unde mamele nu îşi pot hrăni copiii,
03:06
where strangersstrăini cannotnu poti find the basisbază for peacefulliniștit collaborationcolaborare,
64
171000
4000
unde străinii nu pot găsi o punte de legătură pentru o colaborare paşnică,
03:10
where people are murdereducis indiscriminatelyfără discriminare.
65
175000
3000
unde oamenii sunt omorâţi la întâmplare.
03:13
And we know that it's possibleposibil to movemișcare alongde-a lungul this continuumcontinuum
66
178000
3000
Şi ştim că este posibil să avansăm în acest continuum
03:16
towardscătre something quitedestul de a bitpic more idyllicidilic,
67
181000
2000
către un punct ceva mai idilic,
03:18
to a placeloc where a conferenceconferinţă like this is even conceivableimaginabil.
68
183000
5000
către un loc unde o asemenea conferinţă este posibilă.
03:23
And we know -- we know --
69
188000
3000
Şi ştim de asemenea
03:26
that there are right and wronggresit answersrăspunsuri
70
191000
2000
că există direcţii corecte şi direcţii greşite
03:28
to how to movemișcare in this spacespaţiu.
71
193000
2000
pentru a ne putea deplasa în acest spaţiu.
03:30
Would addingadăugare choleraholeră to the waterapă be a good ideaidee?
72
195000
6000
Ar fi o idee bună să infestăm apele cu holeră?
03:36
ProbablyProbabil not.
73
201000
2000
Probabil că nu.
03:38
Would it be a good ideaidee for everyonetoata lumea to believe in the evilrău eyeochi,
74
203000
3000
Ar fi bine dacă toată lumea ar crede în deochi,
03:41
so that when badrău things happeneds-a întâmplat to them
75
206000
2000
aşa încât să-şi acuze imediat apropiaţii
03:43
they immediatelyimediat blamevină theiral lor neighborsvecinii? ProbablyProbabil not.
76
208000
4000
de fiecare dată când li se întâmplă ceva rău? Probabil că nu.
03:47
There are truthsadevăruri to be knowncunoscut
77
212000
2000
Există anumite adevăruri
03:49
about how humanuman communitiescomunități flourishînflori,
78
214000
3000
despre modul în care comunităţile umane prosperă,
03:52
whetherdacă or not we understanda intelege these truthsadevăruri.
79
217000
2000
fie că înţelegem aceste adevăruri sau nu.
03:54
And moralitymoralitate relatesse referă to these truthsadevăruri.
80
219000
3000
Iar moralitatea are legătură cu aceste adevăruri.
03:57
So, in talkingvorbind about valuesvalorile we are talkingvorbind about factsfapte.
81
222000
4000
Aşadar, când vorbim despre valori ne raportăm la date exacte.
04:01
Now, of coursecurs our situationsituatie in the worldlume can be understoodînțeles at manymulți levelsniveluri --
82
226000
3000
Actuala realitate globală poate fi înţeleasă la multe niveluri,
04:04
from the levelnivel of the genomegenomului
83
229000
2000
de la nivelul genomului
04:06
on up to the levelnivel of economiceconomic systemssisteme
84
231000
2000
şi până la nivelul sistemelor economice
04:08
and politicalpolitic arrangementsaranjamente.
85
233000
2000
şi al structurilor politice.
04:10
But if we're going to talk about humanuman well-beingbunăstare
86
235000
2000
Însă dacă este să vorbim despre prosperitatea fiinţelor umane
04:12
we are, of necessitynecesitatea, talkingvorbind about the humanuman braincreier.
87
237000
3000
trebuie neapărat să facem referire la creierul uman.
04:15
Because we know that our experienceexperienţă of the worldlume and of ourselvesnoi insine withinîn it
88
240000
3000
Asta deoarece ştim că modul în care percepem lumea şi pe noi înşine ca parte a ei
04:18
is realizedrealizat in the braincreier --
89
243000
3000
se realizează la nivelul creierului,
04:21
whateverindiferent de happensse întâmplă after deathmoarte.
90
246000
2000
indiferent de ceea ce se întâmplă după moarte.
04:23
Even if the suicidesinucidere bomberbombardier does get 72 virginsfecioarele in the afterlifeviata de apoi,
91
248000
5000
Chiar dacă sinucigaşul cu bombă primeşte 72 de fecioare în viaţa de apoi,
04:28
in this life, his personalitypersonalitate --
92
253000
3000
personalitatea lui din această viaţă -
04:31
his rathermai degraba unfortunatenefericit personalitypersonalitate --
93
256000
2000
personalitatea lui nefericită, aş zice -
04:33
is the productprodus of his braincreier.
94
258000
3000
este rezultatul creierului său.
04:36
So the contributionscontribuţii of culturecultură --
95
261000
3000
Aşadar, contribuţia culturii,
04:39
if culturecultură changesschimbări us, as indeedintr-adevar it does,
96
264000
2000
care are cu adevărat o influenţă considerabilă,
04:41
it changesschimbări us by changingschimbare our brainscreier.
97
266000
2000
ne schimbă pe noi, schimbându-ne creierele.
04:43
And so thereforeprin urmare whateverindiferent de culturalcultural variationvariaţia there is
98
268000
3000
Aşadar, orice variaţie culturală apare
04:46
in how humanuman beingsființe flourishînflori
99
271000
2000
în modul de dezvoltare al oamenilor
04:48
can, at leastcel mai puţin in principleprincipiu, be understoodînțeles
100
273000
2000
poate, cel puţin în principiu, să fie înţeleasă
04:50
in the contextcontext of a maturingmaturizarea scienceştiinţă of the mindminte --
101
275000
3000
în contextul unei ştiinţe a minţii în plină dezvoltare -
04:53
neuroscienceneurostiintele, psychologyPsihologie, etcetc.
102
278000
3000
neuroştiinţe, psihologie, etc.
04:56
So, what I'm arguingargumentand is that
103
281000
2000
Ceea ce vreau să spun este că
04:58
value'svaloare pe reducedredus to factsfapte --
104
283000
2000
valorile pot fi reduse la date exacte,
05:00
to factsfapte about the consciousconştient experienceexperienţă
105
285000
2000
la fapte privitoare la experienţa conştientă
05:02
of consciousconştient beingsființe.
106
287000
3000
a fiinţelor conştiente.
05:05
And we can thereforeprin urmare visualizeimagina a spacespaţiu
107
290000
3000
Aşadar putem întrevedea un spaţiu
05:08
of possibleposibil changesschimbări in the experienceexperienţă of these beingsființe.
108
293000
3000
al potenţialelor schimbări în modul de a simţi al acestor fiinţe.
05:11
And I think of this as kinddrăguț of a moralmorală landscapepeisaj,
109
296000
2000
Eu privesc acest spaţiu ca pe un peisaj moral
05:13
with peaksvârfuri and valleysVai that correspondcorespundă
110
298000
2000
cu vârfuri şi văi care corespund
05:15
to differencesdiferențele in the well-beingbunăstare of consciousconştient creaturescreaturi,
111
300000
3000
diferitelor grade de prosperitate ale creaturilor conştiente,
05:18
bothambii personalpersonal and collectivecolectiv.
112
303000
2000
atât cea individuală cât şi cea colectivă.
05:20
And one thing to noticeînștiințare is that perhapspoate
113
305000
2000
Iar un lucru care transpare este că poate
05:22
there are statesstatele of humanuman well-beingbunăstare
114
307000
2000
există unele stări ale bunăstării umane
05:24
that we rarelyrar accessacces, that fewpuțini people accessacces.
115
309000
3000
la care ajungem foarte rar, la care puţini oameni ajung.
05:27
And these awaitvă aşteaptă our discoverydescoperire.
116
312000
2000
Iar aceste stări aşteaptă să fie descoperite.
05:29
PerhapsPoate că some of these statesstatele can be appropriatelyîn mod corespunzător calleddenumit
117
314000
2000
Poate că unele dintre aceste stări pot fi denumite
05:31
mysticalmistice or spiritualspiritual.
118
316000
2000
mistice sau spirituale.
05:33
PerhapsPoate că there are other statesstatele that we can't accessacces
119
318000
2000
Poate există şi alte stări pe care nu le putem accesa
05:35
because of how our mindsminți are structuredstructurate
120
320000
3000
datorită structurii noastre mentale,
05:38
but other mindsminți possiblyeventual could accessacces them.
121
323000
4000
dar la care alte minţi ar putea avea acces.
05:42
Now, let me be clearclar about what I'm not sayingzicală. I'm not sayingzicală
122
327000
2000
Acum, aş vrea să fie clar un lucru: nu susţin
05:44
that scienceştiinţă is guaranteedgarantat to mapHartă this spacespaţiu,
123
329000
5000
că ştiinţa poate cu certitudine să cartografieze acest spaţiu,
05:49
or that we will have scientificștiințific answersrăspunsuri to everyfiecare
124
334000
2000
sau că ştiinţa va avea vreodată răspunsuri pentru orice
05:51
conceivableimaginabil moralmorală questionîntrebare.
125
336000
2000
problemă morală imaginabilă.
05:53
I don't think, for instanceinstanță, that you will one day consultconsult
126
338000
2000
Spre exemplu, nu cred că va fi posibil să consultăm
05:55
a supercomputersupercomputer to learnînvăța whetherdacă you should have a secondal doilea childcopil,
127
340000
4000
un supercomputer pentru a şti dacă trebuie sau nu să avem un al doilea copil,
05:59
or whetherdacă we should bombbombă Iran'sIranului nuclearnuclear facilitiesfacilităţi,
128
344000
4000
sau dacă trebuie să bombardăm facilităţile nucleare ale Iranului,
06:03
or whetherdacă you can deductdeduce the fulldeplin costa costat of TEDTED as a businessAfaceri expensecheltuială.
129
348000
4000
sau dacă întregul cost al conferinţei TED poate fi considerat cheltuială deductibilă.
06:07
(LaughterRâs)
130
352000
2000
(Râsete)
06:09
But if questionsîntrebări affecta afecta humanuman well-beingbunăstare
131
354000
2000
Dar dacă o întrebare afectează bunăstarea fiinţelor umane,
06:11
then they do have answersrăspunsuri, whetherdacă or not we can find them.
132
356000
3000
atunci ea trebuie să aibă un răspuns, fie că îl putem găsi, fie că nu.
06:14
And just admittingadmiterea this --
133
359000
2000
Iar simplul fapt de a recunoaşte
06:16
just admittingadmiterea that there are right and wronggresit answersrăspunsuri
134
361000
2000
că există răspunsuri corecte şi răspunsuri greşite
06:18
to the questionîntrebare of how humansoameni flourishînflori --
135
363000
2000
privitoare la chestiunea bunăstării umane
06:20
will changeSchimbare the way we talk about moralitymoralitate,
136
365000
2000
va schimba modul în care vorbim despre moralitate
06:22
and will changeSchimbare our expectationsaşteptările
137
367000
2000
şi ne va schimba aşteptările
06:24
of humanuman cooperationcooperare in the futureviitor.
138
369000
4000
privitoare la cooperarea interumană pe viitor.
06:28
For instanceinstanță, there are 21 statesstatele in our countryțară
139
373000
4000
Spre exemplu, există 21 de state în ţara noastră
06:32
where corporalCaporalul punishmentpedeapsă in the classroomsală de clasă is legallegal,
140
377000
3000
în care este legală aplicarea de pedepse corporale în şcoală.
06:35
where it is legallegal for a teacherprofesor to beatbate a childcopil with a woodendin lemn boardbord, hardgreu,
141
380000
6000
Este legal ca un profesor să lovească un copil cu o scândură,
06:41
and raisingridicare largemare bruisesechimoze and blistersblistere and even breakingspargere the skinpiele.
142
386000
4000
provocându-i vânătăi şi răni, uneori până ţâşneşte sângele.
06:45
And hundredssute of thousandsmii of childrencopii, incidentallyîntâmplător,
143
390000
2000
În fiecare an, sute şi mii de copii
06:47
are subjectedsupuse to this everyfiecare yearan.
144
392000
2000
sunt supuşi la asemenea tratamente.
06:49
The locationslocații of these enlightenedluminat districtsdistricte, I think, will faileșua to surprisesurprinde you.
145
394000
5000
Nu cred că poziţia acestor state luminate vă va surprinde.
06:54
We're not talkingvorbind about ConnecticutConnecticut.
146
399000
3000
Nu este vorba despre Connecticut.
06:57
And the rationaleArgumentare for this behaviorcomportament is explicitlyexplicit religiousreligios.
147
402000
4000
Iar unui asemenea comportament i se găseşte justificarea explicită în religie.
07:01
The creatorcreator of the universeunivers himselfse
148
406000
2000
Însuşi Creatorul universului ne-a spus că
07:03
has told us not to sparede rezervă the rodtijă,
149
408000
2000
„Cine cruţă nuiaua, urăşte pe fiul său,
07:05
lestca nu cumva we spoilstrica the childcopil --
150
410000
2000
dar cine-l iubeşte, îl pedepseşte îndată”.
07:07
this is in ProverbsProverbe 13 and 20, and I believe, 23.
151
412000
5000
Găsim astfel de îndemnuri în Proverbe 13, 20 şi 23, cred.
07:12
But we can askcere the obviousevident questionîntrebare:
152
417000
2000
Însă putem adresa întrebarea evidentă:
07:14
Is it a good ideaidee, generallyîn general speakingvorbitor,
153
419000
4000
Este o idee bună, în general,
07:18
to subjectsubiect childrencopii to paindurere
154
423000
3000
să supunem copiii la durere
07:21
and violenceviolenţă and publicpublic humiliationumilire
155
426000
3000
şi violenţă şi umilire publică
07:24
as a way of encouragingîncurajator healthysănătos emotionalemoţional developmentdezvoltare
156
429000
2000
pentru a încuraja o dezvoltare emoţională sănătoasă
07:26
and good behaviorcomportament?
157
431000
2000
şi un comportament de dorit?
07:28
(LaughterRâs)
158
433000
1000
(Râsete)
07:29
Is there any doubtîndoială
159
434000
4000
Se îndoieşte cineva
07:33
that this questionîntrebare has an answerRăspuns,
160
438000
2000
că această întrebare are un răspuns,
07:35
and that it matterschestiuni?
161
440000
3000
şi că acest răspuns contează?
07:38
Now, manymulți of you mightar putea worryface griji
162
443000
2000
Mulţi dintre voi vor spune
07:40
that the notionnoţiune of well-beingbunăstare is trulycu adevărat undefinednedefinit,
163
445000
3000
că noţiunea de bunăstare rămâne nedefinită
07:43
and seeminglyaparent perpetuallymereu opendeschis to be re-construedRe-interpretată.
164
448000
3000
şi că poate fi mereu supusă revizuirilor.
07:46
And so, how thereforeprin urmare can there be an
165
451000
2000
Cum poate aşadar exista
07:48
objectiveobiectiv notionnoţiune of well-beingbunăstare?
166
453000
3000
o noţiune obiectivă de bunăstare?
07:51
Well, considerconsidera by analogyanalogie, the conceptconcept of physicalfizic healthsănătate.
167
456000
3000
Să ne gândim, prin analogie, la conceptul de sănătate fizică.
07:54
The conceptconcept of physicalfizic healthsănătate is undefinednedefinit.
168
459000
3000
Conceptul de sănătate fizică nu este definit.
07:57
As we just heardauzit from MichaelMichael SpecterSpectrul, it has changedschimbat over the yearsani.
169
462000
3000
După cum tocmai ne-a spus Michael Specter, a suferit modificări de-a lungul anilor.
08:00
When this statuestatuie was carvedsculptate
170
465000
2000
În vremea când această statuie a fost sculptată,
08:02
the averagein medie life expectancyașteptare was probablyprobabil 30.
171
467000
3000
speranţa de viaţă era în jur de 30 de ani.
08:05
It's now around 80 in the developeddezvoltat worldlume.
172
470000
3000
Acum este în jur de 80 de ani în ţările dezvoltate.
08:08
There mayMai come a time when we meddlese amesteca with our genomesgenomilor
173
473000
3000
La cum ne amestecăm în treburile geneticii, s-ar putea să ajungem
08:11
in suchastfel de a way that not beingfiind ablecapabil to runalerga a marathonmaraton
174
476000
3000
nişte vremuri când faptul de a nu putea termina un maraton
08:14
at agevârstă 200 will be consideredluate în considerare a profoundprofund disabilitypentru persoanele cu handicap.
175
479000
4000
la vârsta de 200 de ani va fi considerat o groaznică dizabilitate.
08:18
People will sendtrimite you donationsdonații when you're in that conditioncondiție.
176
483000
3000
Genul acela de afecţiune pentru care oamenii organizează acţiuni caritabile.
08:21
(LaughterRâs)
177
486000
2000
(Râsete)
08:23
NoticeNotificare that the factfapt that the conceptconcept of healthsănătate
178
488000
4000
Simplul fapt că noţiunea de sănătate
08:27
is opendeschis, genuinelycu adevărat opendeschis for revisionrevizuirea,
179
492000
3000
este mereu supusă revizuirii
08:30
does not make it vacuousvacuous.
180
495000
2000
nu înseamnă că e golită de înţeles.
08:32
The distinctiondistincţie betweenîntre a healthysănătos personpersoană
181
497000
3000
Distincţia dintre o persoană sănătoasă
08:35
and a deadmort one
182
500000
2000
şi una moartă
08:37
is about as clearclar and consequentialsubsecvente as any we make in scienceştiinţă.
183
502000
3000
e la fel de clară şi de consecventă ca oricare altă distincţie ştiinţifică.
08:43
AnotherUn alt thing to noticeînștiințare is there mayMai be manymulți peaksvârfuri on the moralmorală landscapepeisaj:
184
508000
3000
Mai trebuie observat că pot exista mai multe piscuri în acest peisaj moral.
08:46
There mayMai be equivalentechivalent waysmoduri to thriveprospera;
185
511000
3000
Pot exista mai multe moduri la fel de bune în care oamenii să prospere.
08:49
there mayMai be equivalentechivalent waysmoduri to organizeorganiza a humanuman societysocietate
186
514000
2000
Pot exista mai multe moduri de a organiza o societate umană
08:51
so as to maximizemaximiza humanuman flourishingînfloritoare.
187
516000
2000
pentru a maximiza nivelul de bunăstare.
08:53
Now, why wouldn'tnu ar fi this
188
518000
2000
Este oare astfel subminată
08:55
underminesubmina an objectiveobiectiv moralitymoralitate?
189
520000
4000
noţiunea obiectivă de moralitate?
08:59
Well think of how we talk about foodalimente:
190
524000
3000
Să ne gândim la cum vorbim despre mâncare.
09:02
I would never be temptedispitit to argueargumenta to you
191
527000
3000
Nu aş putea susţine niciodată
09:05
that there musttrebuie sa be one right foodalimente to eatmânca.
192
530000
2000
că există un singur mod sănătos de a mânca.
09:07
There is clearlyclar a rangegamă of materialsmateriale
193
532000
2000
Există cu siguranţă o gamă largă de produse
09:09
that constituteconstituie healthysănătos foodalimente.
194
534000
2000
care pot constitui o alimentaţie sănătoasă.
09:11
But there's neverthelesscu toate acestea a clearclar distinctiondistincţie
195
536000
2000
Însă există în orice caz o distincţie clară
09:13
betweenîntre foodalimente and poisonotravă.
196
538000
2000
între mâncare şi otravă.
09:15
The factfapt that there are manymulți right answersrăspunsuri
197
540000
3000
Faptul că există multe răspunsuri corecte
09:18
to the questionîntrebare, "What is foodalimente?"
198
543000
2000
la întrebarea „Ce putem mânca?”
09:20
does not tempttenta us
199
545000
3000
nu ne duce la concluzia
09:23
to say that there are no truthsadevăruri to be knowncunoscut about humanuman nutritionnutriție.
200
548000
5000
că nu există adevăruri care pot fi descoperite despre nutriţia umană.
09:28
ManyMulte people worryface griji
201
553000
2000
Mulţi oameni se tem
09:30
that a universaluniversal moralitymoralitate would requirenecesita
202
555000
3000
că o ordine morală universală presupune
09:33
moralmorală preceptspreceptele that admitadmite of no exceptionsexcepţii.
203
558000
3000
precepte morale care nu admit excepţii.
09:36
So, for instanceinstanță, if it's really wronggresit to lieminciună,
204
561000
2000
Deci, spre exemplu, dacă este greşit să minţi,
09:38
it musttrebuie sa always be wronggresit to lieminciună,
205
563000
2000
atunci trebuie să fie întotdeauna greşit să minţi,
09:40
and if you can find an exceptionexcepție,
206
565000
2000
iar dacă poţi găsi o excepţie,
09:42
well then there's no suchastfel de thing as moralmorală truthadevăr.
207
567000
3000
atunci nu există conceptul de adevăr moral.
09:45
Why would we think this?
208
570000
2000
De ce am crede aşa ceva?
09:47
ConsiderIa în considerare, by analogyanalogie, the gamejoc of chessşah.
209
572000
3000
Să ne referim, prin analogie, la jocul de şah.
09:50
Now, if you're going to playa juca good chessşah,
210
575000
2000
Dacă vrei să joci şah cu succes,
09:52
a principleprincipiu like, "Don't losepierde your QueenRegina,"
211
577000
2000
un principiu de bază ar fi
09:54
is very good to followurma.
212
579000
2000
"Nu renunţa la regină".
09:56
But it clearlyclar admitsadmite some exceptionsexcepţii.
213
581000
2000
Dar în mod evident pot exista şi excepţii.
09:58
There are momentsmomente when losingpierzând your QueenRegina is a brilliantSclipitor thing to do.
214
583000
3000
Câteodată, a renunţa la regină este o mutare genială.
10:01
There are momentsmomente when it is the only good thing you can do.
215
586000
4000
Câteodată, a renunţa la regină este singurul lucru bun de făcut.
10:05
And yetinca, chessşah is a domaindomeniu of perfectperfect objectivityobiectivitate.
216
590000
4000
Şi totuşi, şahul este un domeniul al completei obiectivităţi.
10:09
The factfapt that there are exceptionsexcepţii here does not
217
594000
2000
Faptul că există şi excepţii
10:11
changeSchimbare that at all.
218
596000
3000
nu schimbă asta cu nimic.
10:14
Now, this bringsaduce us to the sortsfelul of movesmișcări
219
599000
3000
Acum ajungem la diferitele tipuri de mutări
10:17
that people are aptapt to make in the moralmorală spheresferă.
220
602000
3000
pe care le putem face în sfera moralului.
10:20
ConsiderIa în considerare the great problemproblemă of women'sFemei bodiesorganisme:
221
605000
5000
Să ne gândim la spinoasa problemă a corpurilor femeilor.
10:25
What to do about them?
222
610000
2000
Ce să ne facem cu ele?
10:27
Well this is one thing you can do about them:
223
612000
2000
Uite un lucru pe care putem să-l facem:
10:29
You can coveracoperi them up.
224
614000
2000
putem să le acoperim.
10:31
Now, it is the positionpoziţie, generallyîn general speakingvorbitor, of our intellectualintelectual communitycomunitate
225
616000
2000
Poziţia generală a comunităţii noastre intelectuale este că,
10:33
that while we mayMai not like this,
226
618000
4000
deşi poate nu ne place,
10:37
we mightar putea think of this as "wronggresit"
227
622000
2000
deşi am considera asta „greşit”
10:39
in BostonBoston or PaloPopescu AltoAlto,
228
624000
2000
în Boston sau Palo Alto,
10:41
who are we to say
229
626000
2000
nu ţine de noi să judecăm
10:43
that the proudmândru denizenslocuitorii of an ancientvechi culturecultură
230
628000
3000
mândrii membrii ai unei culturi străvechi
10:46
are wronggresit to forceforta theiral lor wivessoții and daughtersfiice
231
631000
3000
care îşi forţează soţiile şi fiicele
10:49
to livetrăi in clothpânză bagssaci?
232
634000
2000
să se acopere cu saci de pânză.
10:51
And who are we to say, even, that they're wronggresit
233
636000
2000
Şi cine suntem noi să spunem că este greşit
10:53
to beatbate them with lengthslungimi of steeloţel cablecablu,
234
638000
2000
ca ei să le bată cu cabluri de oţel,
10:55
or throwarunca batterybaterie acidacid in theiral lor facesfețe
235
640000
2000
sau să le arunce cu acid sulfuric în faţă
10:57
if they declinedeclin the privilegeprivilegiu of beingfiind smotheredsufocat in this way?
236
642000
4000
dacă ele refuză privilegiul de a fi sufocate în acest fel?
11:01
Well, who are we not to say this?
237
646000
3000
Sau dimpotrivă, cine suntem noi să nu spunem aşa ceva?
11:04
Who are we to pretendpretinde
238
649000
2000
Cine suntem noi să ne prefacem
11:06
that we know so little about humanuman well-beingbunăstare
239
651000
4000
că ştim atât de puţin despre bunăstarea umană
11:10
that we have to be non-judgmentalNu judeca about a practicepractică like this?
240
655000
4000
încât să ne abţinem de la a judeca astfel de practici?
11:14
I'm not talkingvorbind about voluntaryvoluntar wearingpurtare of a veilvoal --
241
659000
4000
Nu vorbesc despre purtarea de bunăvoie a unui văl,
11:18
womenfemei should be ablecapabil to wearpurta whateverindiferent de they want, as fardeparte as I'm concernedîngrijorat.
242
663000
2000
femeile ar trebui să poată purta orice doresc, din punctul meu de vedere.
11:20
But what does voluntaryvoluntar mean
243
665000
3000
Dar ce înseamnă „de bunăvoie”
11:23
in a communitycomunitate where,
244
668000
2000
într-o comunitate unde,
11:25
when a girlfată getsdevine rapedviolat,
245
670000
3000
atunci când o fată este violată,
11:28
her father'statăl lui first impulseimpuls,
246
673000
2000
primul instinct al tatălui său este
11:30
rathermai degraba oftende multe ori, is to murdercrimă her out of shamerușine?
247
675000
5000
să o ucidă pentru că l-a dezonorat?
11:35
Just let that factfapt detonatedetona in your braincreier for a minuteminut:
248
680000
7000
Lăsaţi gândul acesta să vi se înfiripeze în minte pentru o clipă.
11:42
Your daughterfiică getsdevine rapedviolat,
249
687000
2000
Fiica voastră este violată,
11:44
and what you want to do is killucide her.
250
689000
3000
şi voi vreţi să o omorâţi.
11:52
What are the chancesșansele that representsreprezintă
251
697000
2000
Care sunt şansele ca acesta să reprezinte
11:54
a peakvârf of humanuman flourishingînfloritoare?
252
699000
5000
o culme al bunăstării umane?
12:02
Now, to say this is not to say that we have got the
253
707000
2000
Prin asta nu vreau să spun că noi avem
12:04
perfectperfect solutionsoluţie in our ownpropriu societysocietate.
254
709000
4000
soluţia perfectă în societatea noastră.
12:08
For instanceinstanță,
255
713000
2000
Spre exemplu,
12:10
this is what it's like to go to a newsstandchioşc de ziare almostaproape anywhereoriunde
256
715000
2000
aşa arată un stand de ziare aproape oriunde
12:12
in the civilizedcivilizat worldlume.
257
717000
2000
în lumea civilizată.
12:14
Now, grantedacordat, for manymulți menbărbați
258
719000
2000
Ce-i drept, pentru mulţi bărbaţi
12:16
it mayMai requirenecesita a degreegrad in philosophyfilozofie to see something wronggresit with these imagesimagini.
259
721000
3000
ar fi nevoie de o diplomă în filozofie pentru a vedea ce e în neregulă cu aceste imagini.
12:19
(LaughterRâs)
260
724000
3000
(Râsete)
12:22
But if we are in a reflectivereflexiv mooddispozitie,
261
727000
3000
Dar dacă suntem într-o dispoziţie reflexivă
12:25
we can askcere,
262
730000
2000
putem să ne întrebăm:
12:27
"Is this the perfectperfect expressionexpresie
263
732000
2000
Este aceasta cea mai bună expresie
12:29
of psychologicalpsihologic balanceechilibru
264
734000
2000
a echilibrului psihologic
12:31
with respectrespect to variablesvariabile like youthtineret and beautyfrumuseţe and women'sFemei bodiesorganisme?"
265
736000
3000
în ceea ce priveşte noţiuni precum tinereţea şi frumuseţea şi trupurile femeilor?”
12:34
I mean, is this the optimaloptim environmentmediu inconjurator
266
739000
2000
Este acesta mediul optim
12:36
in whichcare to raisea ridica our childrencopii?
267
741000
4000
pentru a ne creşte copiii?
12:40
ProbablyProbabil not. OK, so perhapspoate there's some placeloc
268
745000
2000
Probabil că nu. Atunci, poate că există un punct
12:42
on the spectrumspectru
269
747000
2000
în spectrul
12:44
betweenîntre these two extremesextreme
270
749000
2000
delimitat de aceste două extreme
12:46
that representsreprezintă a placeloc of better balanceechilibru.
271
751000
3000
care se situează mai aproape de echilibru.
12:49
(ApplauseAplauze)
272
754000
8000
(Aplauze)
12:57
PerhapsPoate că there are manymulți suchastfel de placeslocuri --
273
762000
2000
Poate că există multe asemenea puncte.
12:59
again, givendat other changesschimbări in humanuman culturecultură
274
764000
3000
Repet, luând în considerare alte schimbări în cultura umană,
13:02
there mayMai be manymulți peaksvârfuri on the moralmorală landscapepeisaj.
275
767000
2000
ar putea exista multe piscuri în peisajul moral.
13:04
But the thing to noticeînștiințare is that there will be
276
769000
2000
Dar ce trebuie remarcat este că avem
13:06
manymulți more waysmoduri not to be on a peakvârf.
277
771000
5000
mult mai multe moduri de a nu ajunge pe un pisc.
13:11
Now the ironyironie, from my perspectiveperspectivă,
278
776000
2000
Ceea ce eu personal găsesc ironic
13:13
is that the only people who seempărea to generallyîn general agreede acord with me
279
778000
3000
este faptul că singurii oameni care sunt în principiu de acord cu mine
13:16
and who think that there are right and wronggresit answersrăspunsuri to moralmorală questionsîntrebări
280
781000
3000
şi care cred că există răspunsuri corecte şi greşite la întrebările morale
13:19
are religiousreligios demagoguesdemagogi of one formformă or anothero alta.
281
784000
3000
sunt, într-un fel sau altul, demagogi religioşi.
13:22
And of coursecurs they think they have right answersrăspunsuri to moralmorală questionsîntrebări
282
787000
3000
Bineînţeles, ei cred că au răspunsurile corecte la problemele morale
13:25
because they got these answersrăspunsuri from a voicevoce in a whirlwindvârtej de vânt,
283
790000
4000
pentru că şi-au primit răspunsurile de la o voce dintr-un vârtej
13:29
not because they madefăcut an intelligentinteligent analysisanaliză of the causescauze
284
794000
2000
şi nu pentru că au făcut o analiză inteligentă a premiselor
13:31
and conditioncondiție of humanuman and animalanimal well-beingbunăstare.
285
796000
4000
şi condiţiilor bunăstării oamenilor şi a animalelor.
13:35
In factfapt, the endurancerezistenta of religionreligie
286
800000
2000
De fapt, permanentizarea religiei
13:37
as a lensobiectiv throughprin whichcare mostcel mai people viewvedere moralmorală questionsîntrebări
287
802000
4000
cu rolul de lentilă prin care majoritatea oamenilor privesc problemele morale
13:41
has separatedseparat mostcel mai moralmorală talk
288
806000
3000
a dus la separarea discuţiilor morale
13:44
from realreal questionsîntrebări of humanuman and animalanimal sufferingsuferinţă.
289
809000
4000
de întrebările reale referitoare la suferinţa fiinţelor vii.
13:48
This is why we spendpetrece our time
290
813000
2000
De asta ne pierdem timpul
13:50
talkingvorbind about things like gayhomosexual marriagecăsătorie
291
815000
2000
vorbind despre căsătoria între persoane de acelaşi sex
13:52
and not about genocidegenocid or nuclearnuclear proliferationproliferare
292
817000
4000
şi nu despre genocid sau despre proliferarea nucleară
13:56
or povertysărăcie or any other hugelyenorm consequentialsubsecvente issueproblema.
293
821000
5000
sau sărăcie sau orice altă problemă cu consecinţe enorme.
14:01
But the demagoguesdemagogi are right about one thing: We need
294
826000
2000
Dar demagogii au dreptate într-o privinţă, şi anume:
14:03
a universaluniversal conceptionconcepţie of humanuman valuesvalorile.
295
828000
4000
avem nevoie de o viziune universală asupra valorilor umane.
14:07
Now, what standsstanduri in the way of this?
296
832000
2000
Ce ne împiedică să avem aşa ceva?
14:09
Well, one thing to noticeînștiințare is that we
297
834000
2000
Un lucru de remarcat este faptul că
14:11
do something differentdiferit when talkingvorbind about moralitymoralitate --
298
836000
2000
facem ceva diferit când vorbim despre moralitate,
14:13
especiallyin mod deosebit secularlaic, academicacademic, scientistom de stiinta typestipuri.
299
838000
4000
mai ales dintr-o perspectivă seculară, academică, ştiinţifică.
14:17
When talkingvorbind about moralitymoralitate we valuevaloare differencesdiferențele of opinionopinie
300
842000
3000
Când vorbim despre moralitate, respectăm diferenţele de opinie
14:20
in a way that we don't in any other areazonă of our livesvieți.
301
845000
3000
mai mult decât în orice alt domeniu al vieţii noastre.
14:23
So, for instanceinstanță the DalaiDavid LamaLupu getsdevine up everyfiecare morningdimineaţă
302
848000
2000
Spre exemplu, Dalai Lama se trezeşte în fiecare dimineaţă
14:25
meditatingmeditând on compassioncompasiune,
303
850000
2000
meditând la compasiune
14:27
and he thinkscrede that helpingajutor other humanuman beingsființe is an integralintegrantă componentcomponent
304
852000
2000
El crede că a-ţi ajuta semenii este o componentă integrantă
14:29
of humanuman happinessfericire.
305
854000
3000
a fericirii umane.
14:32
On the other handmână, we have someonecineva like TedTed BundyBundy;
306
857000
2000
Pe de altă parte îl avem pe Ted Bundy,
14:34
TedTed BundyBundy was very fondmândru of abductingrăpirea and rapingviol
307
859000
2000
căruia îi făcea o plăcere deosebită să răpească şi să violeze
14:36
and torturingtorturarea and killingucidere youngtineri womenfemei.
308
861000
2000
şi să tortureze femei tinere.
14:38
So, we appearapărea to have a genuineautentic differencediferență of opinionopinie
309
863000
2000
S-ar putea spune că cei doi au o reală diferenţă de opinii
14:40
about how to profitablyprofitabil use one'sunul e time.
310
865000
3000
privitoare la cum e mai bine să-ţi petreci timpul.
14:43
(LaughterRâs)
311
868000
2000
(Râsete)
14:45
MostCele mai multe WesternWestern intellectualsintelectuali
312
870000
2000
Majoritatea intelectualilor occidentali
14:47
look at this situationsituatie
313
872000
2000
văd o asemenea situaţie
14:49
and say, "Well, there's nothing for the DalaiDavid LamaLupu
314
874000
2000
şi spun: „Păi, nu există nimic care să arate că Dalai Lama
14:51
to be really right about -- really right about --
315
876000
3000
procedează bine cu adevărat, nu cu adevărat
14:54
or for TedTed BundyBundy to be really wronggresit about
316
879000
3000
sau că Ted Bundy chiar procedează greşit
14:57
that admitsadmite of a realreal argumentargument
317
882000
4000
şi care permite o dezbatere reală
15:01
that potentiallypotenţial fallsFalls withinîn the purviewsferă of scienceştiinţă.
318
886000
3000
ce ar putea ţine de domeniul ştiinţei.
15:04
He likesîi place chocolateciocolată, he likesîi place vanillavanilie.
319
889000
3000
Unuia îi place ciocolata, celuilalt vanilia.
15:07
There's nothing that one should be ablecapabil to say to the other
320
892000
3000
N-ar trebui să existe nimic ce unul ar putea spune celuilalt
15:10
that should persuadeconvinge the other."
321
895000
3000
în aşa fel încât să-l convingă."
15:13
NoticeNotificare that we don't do this in scienceştiinţă.
322
898000
3000
Observaţi că nu facem asta în domeniul ştiinţei.
15:16
On the left you have EdwardEdward WittenWitten.
323
901000
2000
În stânga îl vedem pe Edward Witten,
15:18
He's a stringşir theoristteoretician.
324
903000
3000
expert în teoria corzilor.
15:21
If you askcere the smartestdeștept physicistsfizicienii around
325
906000
2000
Dacă îi întrebi pe cei mai buni fizicieni contemporani
15:23
who is the smartestdeștept physicistfizician around,
326
908000
2000
care e cel mai bun fizician contemporan,
15:25
in my experienceexperienţă halfjumătate of them will say EdEd WittenWitten.
327
910000
3000
jumătate vor spune că acela e Ed Witten.
15:28
The other halfjumătate will tell you they don't like the questionîntrebare.
328
913000
3000
Cealaltă jumătate vor spune că nu le place întrebarea.
15:31
(LaughterRâs)
329
916000
3000
(Râsete)
15:34
So, what would happenîntâmpla if I showeda arătat up at a physicsfizică conferenceconferinţă
330
919000
4000
Aşadar, ce s-ar întâmpla dacă m-aş duce la o conferinţă a fizicienilor
15:38
and said,"StringŞir theoryteorie is bogusfals.
331
923000
2000
şi aş spune: „Teoria corzilor e o tâmpenie.
15:40
It doesn't resonaterezonează with me. It's not how I chosea ales to
332
925000
2000
Nu pot să rezonez cu ea. Eu personal
15:42
viewvedere the universeunivers at a smallmic scalescară.
333
927000
3000
aleg să văd microuniversul altfel.
15:45
I'm not a fanventilator."
334
930000
2000
Nu îmi place şi gata.”
15:47
(LaughterRâs)
335
932000
3000
(Râsete)
15:50
Well, nothing would happenîntâmpla because I'm not a physicistfizician;
336
935000
2000
Ei bine, nimic nu s-ar întâmpla, pentru că nu sunt un fizician,
15:52
I don't understanda intelege stringşir theoryteorie.
337
937000
2000
nu înţeleg teoria corzilor.
15:54
I'm the TedTed BundyBundy of stringşir theoryteorie.
338
939000
2000
Sunt un Ted Bundy al teoriei corzilor.
15:56
(LaughterRâs)
339
941000
3000
(Râsete)
15:59
I wouldn'tnu ar fi want to belongaparține to any stringşir theoryteorie clubclub that would have me as a membermembru.
340
944000
3000
Nu aş vrea să fiu într-un club de teoria corzilor care e dispus să mă accepte ca membru.
16:02
But this is just the pointpunct.
341
947000
2000
Dar tocmai asta e ideea.
16:04
WheneverOri de câte ori we are talkingvorbind about factsfapte
342
949000
3000
Când vine vorba despre fapte,
16:07
certainanumit opinionsopinii musttrebuie sa be excludedexcluse.
343
952000
2000
opiniile personale trebuie ignorate.
16:09
That is what it is to have a domaindomeniu of expertiseexpertiză.
344
954000
3000
Asta implică existenţa unui domeniu de expertiză.
16:12
That is what it is for knowledgecunoştinţe to countnumara.
345
957000
3000
Aşa se întâmplă atunci când cunoştinţele contează.
16:15
How have we convincedconvins ourselvesnoi insine
346
960000
3000
Cum am reuşit să ne convingem
16:18
that in the moralmorală spheresferă there is no suchastfel de thing as moralmorală expertiseexpertiză,
347
963000
4000
că în sfera moralului nu există expertiză morală,
16:22
or moralmorală talenttalent, or moralmorală geniusgeniu even?
348
967000
3000
sau talent moral sau chiar geniu moral?
16:25
How have we convincedconvins ourselvesnoi insine
349
970000
2000
Cum anume ne-am convins
16:27
that everyfiecare opinionopinie has to countnumara?
350
972000
2000
că fiecare opinie trebuie să conteze?
16:29
How have we convincedconvins ourselvesnoi insine
351
974000
2000
Cum anume ne-am convins
16:31
that everyfiecare culturecultură has a pointpunct of viewvedere
352
976000
2000
că fiecare cultură are un punct de vedere aparte
16:33
on these subjectssubiecți worthin valoare de consideringavând în vedere?
353
978000
3000
care merită luat în considerare?
16:36
Does the TalibanTalibanii
354
981000
2000
Au talibanii un punct de vedere aparte
16:38
have a pointpunct of viewvedere on physicsfizică
355
983000
2000
în ceea ce priveşte fizica
16:40
that is worthin valoare de consideringavând în vedere? No.
356
985000
3000
pe care ar trebui să-l luăm în considerare? Nu.
16:43
(LaughterRâs)
357
988000
5000
(Râsete)
16:48
How is theiral lor ignoranceignoranţă any lessMai puțin obviousevident
358
993000
3000
De ce ar fi ignoranţa lor mai puţin strigătoare
16:51
on the subjectsubiect of humanuman well-beingbunăstare?
359
996000
2000
în ceea ce priveşte bunăstarea oamenilor?
16:53
(ApplauseAplauze)
360
998000
6000
(Aplauze)
16:59
So, this, I think, is what the worldlume needsare nevoie now.
361
1004000
4000
De asta cred eu că are nevoie lumea acum.
17:03
It needsare nevoie people like ourselvesnoi insine to admitadmite
362
1008000
3000
E nevoie ca oamenii ca noi să recunoască
17:06
that there are right and wronggresit answersrăspunsuri
363
1011000
3000
faptul că există răspunsuri corecte şi greşite
17:09
to questionsîntrebări of humanuman flourishingînfloritoare,
364
1014000
2000
la întrebările despre bunăstarea oamenilor,
17:11
and moralitymoralitate relatesse referă
365
1016000
2000
şi că moralitatea depinde
17:13
to that domaindomeniu of factsfapte.
366
1018000
2000
de aceste răspunsuri.
17:15
It is possibleposibil
367
1020000
2000
Este posibil
17:17
for individualspersoane fizice, and even for wholeîntreg culturesculturi,
368
1022000
4000
ca unii indivizi sau chiar ca unele culturi întregi
17:21
to careîngrijire about the wronggresit things,
369
1026000
2000
să aibă valori greşite.
17:23
whichcare is to say that it's possibleposibil for them
370
1028000
3000
Ceea ce înseamnă că e posibil ca ei
17:26
to have beliefscredințe and desiresdorințe that reliablyfiabil leadconduce
371
1031000
2000
să aibă credinţe şi aspiraţii care cu siguranţă
17:28
to needlessinutil humanuman sufferingsuferinţă.
372
1033000
2000
vor duce la suferinţă umană inutilă.
17:30
Just admittingadmiterea this will transformtransforma our discoursediscuție about moralitymoralitate.
373
1035000
5000
Simplul fapt de a recunoaşte asta ne va schimba discursul despre moralitate.
17:35
We livetrăi in a worldlume in whichcare
374
1040000
3000
Trăim într-o lume în care
17:38
the boundarieslimite betweenîntre nationsnațiuni mean lessMai puțin and lessMai puțin,
375
1043000
3000
graniţele dintre naţiuni înseamnă din ce în ce mai puţin,
17:41
and they will one day mean nothing.
376
1046000
3000
iar într-o zi nu vor mai însemna nimic.
17:44
We livetrăi in a worldlume filledumplut with destructivedistructive technologytehnologie,
377
1049000
2000
Trăim într-o lume plină de tehnologii distructive,
17:46
and this technologytehnologie cannotnu poti be uninventeduninvented;
378
1051000
2000
iar acest rău nu mai poate fi îndreptat,
17:48
it will always be easierMai uşor
379
1053000
2000
întotdeauna va fi mai uşor
17:50
to breakpauză things than to fixrepara them.
380
1055000
4000
să distrugem decât să reparăm.
17:54
It seemspare to me, thereforeprin urmare, patentlyEvident obviousevident
381
1059000
2000
Mi se pare aşadar mai mult decât evident
17:56
that we can no more
382
1061000
4000
că nu mai putem
18:00
respectrespect and toleratetolera
383
1065000
2000
respecta şi tolera
18:02
vastvast differencesdiferențele in notionsnoțiuni of humanuman well-beingbunăstare
384
1067000
4000
viziunile semnificativ diferite asupra bunăstării umane
18:06
than we can respectrespect or toleratetolera vastvast differencesdiferențele
385
1071000
3000
mai mult decât respectăm şi tolerăm viziunile semnificativ diferite
18:09
in the notionsnoțiuni about how diseaseboală spreadstartinabile,
386
1074000
3000
referitoare la modul în care se răspândesc bolile
18:12
or in the safetySiguranță standardsstandarde of buildingsclădiri and airplanesavioane.
387
1077000
3000
sau la normele de siguranţă pentru construcţii şi avioane.
18:15
We simplypur şi simplu musttrebuie sa convergeconverg
388
1080000
3000
Pur şi simplu trebuie să cădem de acord
18:18
on the answersrăspunsuri we give to the mostcel mai importantimportant questionsîntrebări in humanuman life.
389
1083000
4000
cu privire la cele mai importante întrebări despre viaţă.
18:22
And to do that, we have to admitadmite that these questionsîntrebări have answersrăspunsuri.
390
1087000
5000
Iar pentru a realiza asta, trebuie să recunoaştem că aceste întrebări au răspunsuri.
18:27
Thank you very much.
391
1092000
2000
Vă mulţumesc foarte mult.
18:29
(ApplauseAplauze)
392
1094000
23000
(Aplauze)
18:52
ChrisChris AndersonAnderson: So, some combustiblecombustibile materialmaterial there.
393
1117000
4000
Chris Anderson: Ăsta da discurs controversat.
18:56
WhetherDacă in this audiencepublic or people elsewhereîn altă parte in the worldlume,
394
1121000
3000
Membri ai acestui public sau oameni de oriunde altundeva din lume
18:59
hearingauz some of this, mayMai well be doing the
395
1124000
2000
s-ar putea să strige de furie când aud asta,
19:01
screaming-with-ragetipa cu furie thing, after as well, some of them.
396
1126000
5000
sau, în fine, unii dintre ei…
19:06
LanguageLimba seemspare to be really importantimportant here.
397
1131000
2000
Alegerea cuvintelor pare să fie foarte importantă aici.
19:08
When you're talkingvorbind about the veilvoal,
398
1133000
2000
Când vorbeai despre văl,
19:10
you're talkingvorbind about womenfemei dressedtăbăcit in clothpânză bagssaci.
399
1135000
3000
despre femeile îmbrăcate în saci de pânză,
19:13
I've livedtrăit in the MuslimMusulmane worldlume, spokenvorbit with a lot of MuslimMusulmane womenfemei.
400
1138000
4000
eu am trăit în lumea musulmană, am vorbit cu multe femei musulmane.
19:17
And some of them would say something elsealtfel. They would say,
401
1142000
2000
Şi unele dintre ele ar fi zis altceva. Ar fi zis,
19:19
"No, you know, this is a celebrationsărbătoare
402
1144000
3000
„De fapt, asta e o încununare
19:22
of femaleFemeie specialnessspecialness,
403
1147000
3000
a specificităţii feminine,
19:25
it helpsajută buildconstrui that and it's a resultrezultat of the factfapt that" --
404
1150000
2000
ajută la construirea ei şi este un rezultat al faptului că…” -
19:27
and this is arguablyfără îndoială a sophisticatedsofisticat psychologicalpsihologic viewvedere --
405
1152000
4000
şi aceasta este poate o viziune psihologică sofisticată -
19:31
"that malemasculin lustdorință is not to be trustedde încredere."
406
1156000
3000
„nu te poţi încrede în poftele bărbatului.”
19:34
I mean, can you engageangaja in a conversationconversaţie
407
1159000
3000
Vreau să spun, poţi să porţi o conversaţie
19:37
with that kinddrăguț of womanfemeie withoutfără seemingAparent kinddrăguț of culturalcultural imperialistimperialiste?
408
1162000
5000
cu o astfel de femeie fără a părea un fel de imperialist cultural?
19:42
SamSam HarrisHarris: Yeah, well I think I triedîncercat to broachintinderea this in a sentenceteză,
409
1167000
3000
Sam Harris: Înţeleg, eu am încercat să rezum totul într-o frază
19:45
watchingvizionarea the clockceas tickingticăit,
410
1170000
2000
spusă contracronometru,
19:47
but the questionîntrebare is:
411
1172000
2000
dar problema se pune,
19:49
What is voluntaryvoluntar in a contextcontext
412
1174000
3000
ce înseamnă „de bunăvoie” în contextul
19:52
where menbărbați have certainanumit expectationsaşteptările,
413
1177000
2000
în care bărbaţii au anumite aşteptări
19:54
and you're guaranteedgarantat to be treatedtratate in a certainanumit way
414
1179000
4000
şi cu siguranţă vei fi tratată într-un anume fel
19:58
if you don't veilvoal yourselftu?
415
1183000
2000
dacă nu te acoperi cu vălul?
20:00
And so, if anyoneoricine in this roomcameră
416
1185000
2000
Dacă cineva din sala aceasta
20:02
wanted to wearpurta a veilvoal,
417
1187000
2000
ar vrea să poarte un văl
20:04
or a very funnyamuzant hatpălărie, or tattootatuaj theiral lor facefață --
418
1189000
3000
sau o pălărie foarte haioasă sau să se tatueze pe faţă…
20:07
I think we should be freegratuit to voluntarilyîn mod voluntar do whateverindiferent de we want,
419
1192000
3000
Cred că ar trebui să fim liberi să facem de bunăvoie orice vrem,
20:10
but we have to be honestsincer about
420
1195000
3000
dar trebuie să fim sinceri în legătură cu
20:13
the constraintsconstrângeri that these womenfemei are placedplasat undersub.
421
1198000
2000
constrângerile la care sunt supuse aceste femei.
20:15
And so I think we shouldn'tnu ar trebui be so eagerdornici de
422
1200000
3000
Şi deci cred că nu trebuie să ne grăbim
20:18
to always take theiral lor wordcuvânt for it,
423
1203000
2000
să le credem întotdeauna pe cuvânt,
20:20
especiallyin mod deosebit when it's 120 degreesgrade out
424
1205000
2000
mai ales când afară sunt 48 de grade
20:22
and you're wearingpurtare a fulldeplin burqaburqa.
425
1207000
3000
şi ele poartă o burqua lungă până în pământ.
20:25
CACA: A lot of people want to believe in this
426
1210000
2000
C.A.: Multă lume ar vrea să creadă
20:27
conceptconcept of moralmorală progressprogres.
427
1212000
2000
în acest concept de progres moral.
20:29
But can you reconcilereconcilia that?
428
1214000
2000
Dar cum se împacă asta cu teoria ta?
20:31
I think I understoodînțeles you to say that you could
429
1216000
2000
Din câte am înţeles, poţi împăca asta
20:33
reconcilereconcilia that with a worldlume that doesn't becomedeveni
430
1218000
2000
cu o lume care să nu devină astfel
20:35
one dimensionaldimensionale, where we all have to think the samela fel.
431
1220000
3000
uni-dimensională, unde toţi trebuie să gândim la fel.
20:38
PaintVopsea your pictureimagine of what
432
1223000
2000
Descrie-ne cum,
20:40
rollingrulare the clockceas 50 yearsani forwardredirecţiona,
433
1225000
3000
călătorind în viitor cu 50 de ani,
20:43
100 yearsani forwardredirecţiona, how you would like to think of
434
1228000
2000
cu 100 de ani, cum ţi-ai imagina tu lumea,
20:45
the worldlume, balancingechilibrare moralmorală progressprogres
435
1230000
3000
echilibrând progresul moral
20:48
with richnessbogăţie.
436
1233000
3000
cu bogăţia.
20:51
SHSH: Well, I think onceo singura data you admitadmite
437
1236000
2000
S.H.: Cred că odată ce recunoaştem
20:53
that we are on the pathcale towardspre understandingînţelegere our mindsminți
438
1238000
3000
că suntem pe cale să înţelegem minţile noastre
20:56
at the levelnivel of the braincreier in some importantimportant detaildetaliu,
439
1241000
3000
la nivelul creierului, şi deci foarte detaliat,
20:59
then you have to admitadmite
440
1244000
2000
atunci trebuie să recunoaştem
21:01
that we are going to understanda intelege all of the positivepozitiv
441
1246000
4000
că o să înţelegem şi toate caracteristicile noastre
21:05
and negativenegativ qualitiescalități
442
1250000
2000
pozitive şi negative
21:07
of ourselvesnoi insine in much greatermai mare detaildetaliu.
443
1252000
2000
până în cel mai mic detaliu.
21:09
So, we're going to understanda intelege positivepozitiv socialsocial emotionemoţie
444
1254000
2000
Aşadar, vom reuşi să înţelegem emoţii sociale pozitive
21:11
like empathyempatie and compassioncompasiune,
445
1256000
2000
precum empatia şi compasiunea,
21:13
and we're going to understanda intelege the factorsfactori
446
1258000
2000
şi vom înţelege şi factorii
21:15
that encouragea incuraja it -- whetherdacă they're geneticgenetic,
447
1260000
2000
care le cauzează, fie ei genetici,
21:17
whetherdacă they're how people talk to one anothero alta,
448
1262000
2000
fie că depind de modul cum oamenii îşi vorbesc unul altuia,
21:19
whetherdacă they're economiceconomic systemssisteme,
449
1264000
2000
fie că depind de un anumit sistem economic.
21:21
and insofarîn măsura în care as we beginÎNCEPE to shinestrălucire lightușoară on that
450
1266000
3000
Pe măsură ce începem să clarificăm asta,
21:24
we are inevitablyinevitabil going to convergeconverg
451
1269000
2000
vom cădea în mod inevitabil de acord
21:26
on that factfapt spacespaţiu.
452
1271000
2000
în ceea ce priveşte aceste fapte.
21:28
So, everything is not going to be up for grabsApucă.
453
1273000
2000
Nu o să fie totul după bunul plac al fiecăruia.
21:30
It's not going to be like
454
1275000
3000
N-o să putem spune, ştiu eu,
21:33
veilinglicitaţie my daughterfiică from birthnaștere
455
1278000
2000
a-mi face fata să poarte vălul încă de la naştere
21:35
is just as good as teachingînvățătură her
456
1280000
3000
e la fel de bine ca a o învăţa
21:38
to be confidentîncrezător and well-educatedbine educati
457
1283000
4000
să fie încrezătoare şi bine educată
21:42
in the contextcontext of menbărbați who do desiredorință womenfemei.
458
1287000
3000
într-o lume în care bărbaţii doresc femei.
21:45
I mean I don't think we need an NSFNSF grantacorda to know
459
1290000
4000
Nu e nevoie de o bursă de performanţă ştiinţifică ca să-ţi dai seama
21:49
that compulsoryobligatorie veilinglicitaţie is a badrău ideaidee --
460
1294000
3000
că a forţa femeile să se acopere e o idee rea.
21:52
but at a certainanumit pointpunct
461
1297000
2000
Dar la un moment dat
21:54
we're going to be ablecapabil to scanscanda the brainscreier of everyonetoata lumea involvedimplicat
462
1299000
3000
vom putea să scanăm creierele tuturor celor implicaţi
21:57
and actuallyde fapt interrogateinteroga them.
463
1302000
3000
şi pur şi simplu să-i interogăm.
22:00
Do people love theiral lor daughtersfiice
464
1305000
3000
Putem spune că oamenii din aceste sisteme
22:03
just as much in these systemssisteme?
465
1308000
3000
îşi iubesc fiicele la fel de mult?
22:06
And I think there are clearlyclar right answersrăspunsuri to that.
466
1311000
2000
Şi cred că sunt răspunsuri evidente la această întrebare.
22:08
CACA: And if the resultsrezultate come out that actuallyde fapt they do,
467
1313000
3000
C.A.: Şi dacă rezultatele arată că într-adevăr le iubesc,
22:11
are you preparedpregătit to shiftschimb your instinctiveinstinctiv currentactual judgmenthotărâre
468
1316000
3000
eşti gata să îţi schimbi poziţia pe care acum instinctiv o adopţi
22:14
on some of these issuesprobleme?
469
1319000
2000
faţă de aceste chestiuni?
22:16
SHSH: Well yeah, moduloModulo one obviousevident factfapt,
470
1321000
3000
S.H.: Da, este evident
22:19
that you can love someonecineva
471
1324000
2000
că poţi iubi pe cineva
22:21
in the contextcontext of a trulycu adevărat delusionaldelirante beliefcredință systemsistem.
472
1326000
3000
în condiţiile unui sistem complet delirant.
22:24
So, you can say like, "Because I knewștiut my gayhomosexual sonfiu
473
1329000
2000
Se poate spune: „Pentru că ştiam că fiul meu homosexual
22:26
was going to go to helliad if he foundgăsite a boyfriendprieten,
474
1331000
3000
avea să ajungă in iad dacă îşi găsea un iubit,
22:29
I choppedtocat his headcap off. And that was the mostcel mai compassionatecompasiune thing I could do."
475
1334000
3000
i-am retezat capul. Iar acesta a fost cel mai mărinimos lucru pe care îl puteam face.”
22:32
If you get all those partspărți alignedaliniate,
476
1337000
2000
Dacă pui toate astea cap la cap
22:34
yes I think you could probablyprobabil be feelingsentiment the emotionemoţie of love.
477
1339000
3000
da, cred că reiese sentimentul de dragoste.
22:37
But again, then we have to talk about
478
1342000
2000
Însă, din nou, trebuie să ne gândim
22:39
well-beingbunăstare in a largermai mare contextcontext.
479
1344000
2000
la bunăstare într-un context mai larg.
22:41
It's all of us in this togetherîmpreună,
480
1346000
2000
E vorba despre noi toţi,
22:43
not one man feelingsentiment ecstasyextaz
481
1348000
4000
nu despre un singur om exaltat
22:47
and then blowingsuflare himselfse up on a busautobuz.
482
1352000
2000
care se aruncă în aer în autobuz.
22:49
CACA: SamSam, this is a conversationconversaţie I would actuallyde fapt love to
483
1354000
2000
C.A.: Chiar mi-ar plăcea să continuăm conversaţia
22:51
continuecontinua for hoursore.
484
1356000
2000
pentru ore în şir.
22:53
We don't have that, but maybe anothero alta time. Thank you for comingvenire to TEDTED.
485
1358000
2000
Nu avem aşa ceva la dispoziţie, poate cu altă ocazie. Mulţumim că ai participat la TED.
22:55
SHSH: Really an honoronora. Thank you.
486
1360000
2000
S.H.: A fost o onoare. Vă mulţumesc.
22:57
(ApplauseAplauze)
487
1362000
3000
(Aplauze)
Translated by Ioana Guriţă
Reviewed by Antoniu Gugu

▲Back to top

ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com