ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com
TED2010

Sam Harris: Science can answer moral questions

සෑම් හැරිස්: විද්‍යාවට සදා‍චාර ප්‍රශ්න වල‍ට පිළිතුරු සැපයිය හැක.

Filmed:
6,257,604 views

හොඳ සහ නරක, හරි සහ වැරදි කාරණා පිළිබඳ ප්‍රශ්න වලට විද්‍යාවෙන් පිළිතුරු සැපයිය නොහැකි බ‍ව බොහෝ දෙනා සිතනවා. නමුත් මිනිස් වටිනාකම් හැඩගස්වමින් සහ යහපත් දිවියක ඇතුලත් විය යුතු දෑ දක්වමින්, විද්‍යා‍වට සදාචාර කරුණු සම්බන්ධව අධිකාරියක් විය හැකි -- හා විය යුතු -- බවට සෑම් හැරිස් තර්ක කර සිටිනවා.
- Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live. Full bio

Double-click the English transcript below to play the video.

00:15
I'm going to speak today about the relationship
0
0
3000
මං අද කතා කරන්න යන්නේ සම්බන්ධය පිළිබඳවයි.
00:18
between science and human values.
1
3000
4000
විද්‍යාව සහ මිනිස් වටිනාකම් අතර ඇති
00:22
Now, it's generally understood that
2
7000
2000
දැන්, සාමාන්‍යයෙන් අප පිළිගන්න‍වා
00:24
questions of morality --
3
9000
2000
සදාචාරය පිළිබඳ ප්‍රශ්න,
00:26
questions of good and evil and right and wrong --
4
11000
2000
හොඳ සහ නරක, හරි සහ වැරදි කාරණා පිළිබඳ ප්‍රශ්න,
00:28
are questions about which science officially has no opinion.
5
13000
3000
විද්‍යාවට නිල වශයෙන් මතයක් නැති ප්‍රශ්න බව.
00:31
It's thought that science can help us
6
16000
3000
විශ්වාසයක් තියෙනවා, විද්‍යා‍වට අපිට උදව් කරන්න පුළුවන් කියලා
00:34
get what we value,
7
19000
2000
අපේ වටිනාකම් ලඟාකර ගැනීමට,
00:36
but it can never tell us what we ought to value.
8
21000
3000
නමුත් ඊට කිසිවිටෙකත් අපි වටිනාකම් ලෙස සැලකිය යුත්තේ මොනවාදැයි කියන්න බැහැ කියලා.
00:39
And, consequently, most people -- I think most people
9
24000
2000
එමෙන්ම, ප්‍රතිඵලයක් ලෙස, බොහෝ දෙනා -- මම හිතනවා බොහෝ දෙනා
00:41
probably here -- think that science will never answer
10
26000
3000
බොහෝ විට මෙහිදී සිතනවා, විද්‍යාව කිසිවිටක පිළිතුරු සපයන්නේ නැතිබව
00:44
the most important questions in human life:
11
29000
3000
මිනිස් ජීවිතයේ ඉතාම වැදගත් ප්‍රශ්න,
00:47
questions like, "What is worth living for?"
12
32000
2000
එනම් මෙ‍වගේ ප්‍රශ්න වලට, "කුමක් වෙනුවෙන් ජීවත් වීම වටී ද?"
00:49
"What is worth dying for?"
13
34000
2000
"කුමක් වෙනුවෙන් මිය යාම වටී ද?"
00:51
"What constitutes a good life?"
14
36000
2000
"යහපත් දිවියක් සමන්විත වන්නේ මොනවායින් ද?"
00:53
So, I'm going to argue
15
38000
2000
ඉතින් මම තර්ක කරන්න යන‍්නේ
00:55
that this is an illusion -- that the separation between
16
40000
2000
මෙය මායාවක් බව‍ සහ
00:57
science and human values is an illusion --
17
42000
2000
විද්‍යාව සහ මිනිස් වටිනාකම් අතර වෙන්කිරීම මායාවක් බව යි.
00:59
and actually quite a dangerous one
18
44000
3000
එවගේ ම ඇත්තෙන්ම සැලකිය යුතු තරමේ භයානක එකක් බ‍වටයි,
01:02
at this point in human history.
19
47000
2000
මානව ඉතිහාසයේ මේ මොහොතේ දී.
01:04
Now, it's often said that science
20
49000
2000
දැන්, ‍බොහෝ අවස්ථාවල කියනවා විද්‍යාවට
01:06
cannot give us a foundation for morality and human values,
21
51000
3000
මිනිස් වටිනාකම් සහ සදාචාරය සඳහා පදනමක් සැපයිය නොහැකි බව
01:09
because science deals with facts,
22
54000
3000
මොකද විද්‍යාව ගනුදෙනු කරන්නේ (පිළිගතහැකි, වලංගු) 'කරුණු' සම්බන්ධව නිසා.
01:12
and facts and values seem to belong to different spheres.
23
57000
4000
එමෙන්ම 'කරුණු' සහ වටිනාකම් අයත් වන්නේ කෂේත්‍ර දෙකකට කියලා.
01:16
It's often thought that there's no description
24
61000
3000
බොහෝ විට පිලිගැනෙනවා කිසිදු විස්තර කිරීමක් ඇතුළත් නැහැ කියලා,
01:19
of the way the world is
25
64000
2000
ලෝකය පවතින ආකාරය තුළ,
01:21
that can tell us how the world ought to be.
26
66000
4000
ලෝකය පැවතිය යුත්තේ ‍කෙසේද කියා.
01:25
But I think this is quite clearly untrue.
27
70000
2000
නමුත් මම හිතනවා මෙය ඉතා පැහැදිලිවම අසත්‍යයි කියලා.
01:27
Values are a certain kind of fact.
28
72000
4000
වටිනාකම් කියන්නෙත් එක්තරා ආකාරයක 'කරුණු'.
01:31
They are facts about the well-being of conscious creatures.
29
76000
4000
ඒවා සවිඤ්ඤානික ප්‍රාණීන්ගේ යහපැවැත්ම පිළිබඳ කාරණා වෙනවා.
01:35
Why is it that we don't have ethical obligations toward rocks?
30
80000
4000
ඇයි අපිට ගල්පර්වත වලට ආචාරධර්මීය බැඳීමක් නැත්තෙ?
01:39
Why don't we feel compassion for rocks?
31
84000
3000
ඇයි අපිට ගල්පර්වත වලට දයානුකම්පාවක් නොදැනෙන්නේ?
01:42
It's because we don't think rocks can suffer. And if we're more
32
87000
2000
ඒ, ගල්පර්වත වල‍ට දුක් විඳිය හැකියි කියා අපි නොහිතන හින්දයි. එමෙන් ම අපි වඩා
01:44
concerned about our fellow primates
33
89000
2000
සැලකිලිමත් අපේ සහචර ප්‍රයිමේටා‍වන් (වානරයින්) ගැනයි,
01:46
than we are about insects, as indeed we are,
34
91000
3000
කෘමීන්ට වඩා, ඇත්තෙන්ම අපි එහෙමයි,
01:49
it's because we think they're exposed to a greater range
35
94000
2000
මොකද කියනවානම් ඔවුන් විශාල පරාසයට අනාවෘත වෙනවා
01:51
of potential happiness and suffering.
36
96000
3000
භව්‍ය වූ (සිදු වියහැකි වූ) සතුටකට සහ දුකකට.
01:54
Now, the crucial thing to notice here
37
99000
3000
මෙහිදී සැලකිය යුතු තීරණාත්මක දේ වන්නේ
01:57
is that this is a factual claim:
38
102000
2000
මෙය 'කරුණු' මත පදනම් වූ සඳහන් කිරීමක් බවයි.
01:59
This is something that we could be right or wrong about. And if we
39
104000
2000
‍මේ, අපි හරි හෝ වැරදි වෙන්න පුළුවන් දෙයක්. එසේම අපි
02:01
have misconstrued the relationship between biological complexity
40
106000
3000
වැරදියට අර්ථ විග්‍රහ කලොත්, ජීව විද‍්‍යාත්මක සංකීර්ණත්වය
02:04
and the possibilities of experience
41
109000
3000
සහ අත්දැකීම් වල සම්භාවිතාවන්,
02:07
well then we could be wrong about the inner lives of insects.
42
112000
3000
එවිට, කෘමීන්ගේ අභ්‍යන්තර ජීවිතය පිළිබඳව අපි වැරදි ‍වෙන්න පුළුවන්.
02:10
And there's no notion,
43
115000
4000
හොඳයි. ඒවගේම කිසිම සඳහනක් නැහැ,
02:14
no version of human morality
44
119000
2000
කිසිම මිනිස් සදාචාර සංස්කරණයක
02:16
and human values that I've ever come across
45
121000
3000
සහ මට මේතාක් හමු වූ මිනිස් වටිනාකම්වල,
02:19
that is not at some point reducible
46
124000
2000
ඒවා යම් මොහොතක ඌනනය නොකල හැකියි කියා,
02:21
to a concern about conscious experience
47
126000
3000
සවිඤ්ඤානික අත්දැකීම් පිළිබඳ සැලකිලිමත්වීම් බව‍ට
02:24
and its possible changes.
48
129000
2000
සහ ඒවායේ සිදුවිය හැකි වෙනස්කම්‍වලට.
02:26
Even if you get your values from religion,
49
131000
3000
ඔබ ‍ඔබේ වටිනාකම් ආගමෙන් ලබාගත්තත්,
02:29
even if you think that good and evil ultimately
50
134000
2000
ඔබ සිතුවත්, හොඳ සහ නරක අවසාන වශයෙන් ගත්තම
02:31
relate to conditions after death --
51
136000
2000
මරණින් මතු තත්වයන්ට සම්බන්ධයි කියා,
02:33
either to an eternity of happiness with God
52
138000
3000
එක්කො ‍‍දෙවියන් සමඟ සදාකාලික සතුටට
02:36
or an eternity of suffering in hell --
53
141000
2000
නැතිනම් නිරයේ සදාකාලික දුක් විඳීමකට,
02:38
you are still concerned about consciousness and its changes.
54
143000
4000
ඔබ සැලකිලිමත් වන්නේ සවිඤ්ඤාණිකත්වය සහ එහි වෙනස් වීම් පිළිබඳවයි.
02:42
And to say that such changes can persist after death
55
147000
3000
එසේම එවන් වෙනස්කම් මරණින් මතු ද අඛන්ඩව පැවතිය හැකි යැයි කීම ම
02:45
is itself a factual claim,
56
150000
2000
'කරුණු' පිළිබඳව වූ (තථ්‍ය වූ) සඳහන් කිරීමක් වෙන‍වා,
02:47
which, of course, may or may not be true.
57
152000
3000
ඇත්තෙන්ම, සත්‍ය විහ හැකි හෝ විය නොහැකි.
02:50
Now, to speak about the conditions of well-being
58
155000
3000
දැන්, යහපැවැත්මේ තත්වයන් පිළිබඳව කතා කරද්දී
02:53
in this life, for human beings,
59
158000
2000
මේ ජීවිතයේ දී, මිනිසුන්ට,
02:55
we know that there is a continuum of such facts.
60
160000
3000
අපි දන්නවා එබඳු කාරණා පිළිබඳව සන්තතියක් තියෙනවා.
02:58
We know that it's possible to live in a failed state,
61
163000
3000
අපි දන්නවා අසමත් රාජ්‍යයක ජිවත්වීමට අපට සිදුවෙන්න පුළුවන්,
03:01
where everything that can go wrong does go wrong --
62
166000
2000
හැම දෙයක්ම වරුදිය හැකි සහ වරදින තැනක,
03:03
where mothers cannot feed their children,
63
168000
3000
අම්මලා‍ට තමන්ගේ දරුවන්ට කිරි දෙන්න බැරි තැනක,
03:06
where strangers cannot find the basis for peaceful collaboration,
64
171000
4000
ආගන්තුකයන්ට සාමකාමී සහයෝගී වැඩකටයුතුවලට පදනමක් සපයාගත නොහැකි තැනක,
03:10
where people are murdered indiscriminately.
65
175000
3000
මිනිසුන්ව වග විභාගයක් නැතිව මරාදමන තැනක.
03:13
And we know that it's possible to move along this continuum
66
178000
3000
ඒවගේම අපි දන්නවා මේ සන්තතිය දිගේ ගමන් කළහැකි බව,
03:16
towards something quite a bit more idyllic,
67
181000
2000
වඩාත් ශාන්ත වූ දෙයක් දෙසට,
03:18
to a place where a conference like this is even conceivable.
68
183000
5000
මෙවන් සමුළුවක් ගැන පවා සිතා ගත හැකි වූ.
03:23
And we know -- we know --
69
188000
3000
ඒවගේම අපි දන්න‍වා, අපි දන්නවා
03:26
that there are right and wrong answers
70
191000
2000
නිවැරදි සහ වැරදි පිළිතුරු ඇති බව
03:28
to how to move in this space.
71
193000
2000
මේ අවකාශයේ ගමන් කරීම සඳහා.
03:30
Would adding cholera to the water be a good idea?
72
195000
6000
කොලරාව විශබීජ වතුරට එකතු කිරීම හොඳ අදහසක් වෙයි ද?
03:36
Probably not.
73
201000
2000
එහෙම වෙන්න බැහැ.
03:38
Would it be a good idea for everyone to believe in the evil eye,
74
203000
3000
සැමදෙනාම ඇස්වහ ගැන විශ්වාස කිරීම හොඳ අදහසක් වෙයි ද,
03:41
so that when bad things happened to them
75
206000
2000
එතකොට කාටහරි නරක දෙයක් සිද්ධ වුනාම
03:43
they immediately blame their neighbors? Probably not.
76
208000
4000
වහාම තමන්ගේ අසල්වැසියන්ට බනින්න පුළුවන්‍ වෙන? ‍එහෙම වෙන්න බැහැ.
03:47
There are truths to be known
77
212000
2000
සත්‍යයන් තියෙනවා දැන ගත යුතු
03:49
about how human communities flourish,
78
214000
3000
මිනිස් ප්‍රජාවන් සමෘධිමත් වෙන හැටි ගැන,
03:52
whether or not we understand these truths.
79
217000
2000
එම සත්‍යයන් අපට තේරුනත් නැතත්.
03:54
And morality relates to these truths.
80
219000
3000
සදාචාරවත්බව මේ සත්‍යයන්ට අදාළ වෙනවා.
03:57
So, in talking about values we are talking about facts.
81
222000
4000
ඉතින්, වටිනාකම් ගැන කතාකරද්දි අපි කතා කරන්නෙ 'කරුණු' ගැන යි.
04:01
Now, of course our situation in the world can be understood at many levels --
82
226000
3000
දැන්, ලෝකය තුළ අපේ තත්වය බොහෝ මට්ටම් වලින් අපට තේරුම් ගන්න පුළුවන්.
04:04
from the level of the genome
83
229000
2000
මෙය පවතිනවා ගෙනෝමික (ජාන-එකතු) මට්ටමේ සිට
04:06
on up to the level of economic systems
84
231000
2000
ආර්ථික පද්ධතිවල දක්වා ඉහලට
04:08
and political arrangements.
85
233000
2000
සහ ‍දේශපානික සැකසුම් දක්වා.
04:10
But if we're going to talk about human well-being
86
235000
2000
නමුත් අපි මිනිස් යහපැවැත්ම ගැන කතා කරන්න යනවා නම්
04:12
we are, of necessity, talking about the human brain.
87
237000
3000
මිනිස් මොලය ගැන කතා කිරීමේ අත්‍යාවශ්‍යතාවක අප සිටිනවා.
04:15
Because we know that our experience of the world and of ourselves within it
88
240000
3000
මොකද අපි දන්නවා අපේ ලෝකය පිළිබඳ අපේ අත්දැකීම සහ ඒ ලොව තුළ අපව,
04:18
is realized in the brain --
89
243000
3000
අර්ථ ගැන්වෙන්නේ මොලය තුළ යි.
04:21
whatever happens after death.
90
246000
2000
මරණින් මතු කමක් සිදු වුවත්,
04:23
Even if the suicide bomber does get 72 virgins in the afterlife,
91
248000
5000
මරාගෙන මැරෙන බෝම්බකරුවාට කන්‍යාවියන් 72දෙ‍නෙක් මරණින් මතු ජීවිතයේ දී ලැබුණා වුනත්,
04:28
in this life, his personality --
92
253000
3000
මේ ජීවිතයේ දී, ඔහුගේ පෞරුෂය,
04:31
his rather unfortunate personality --
93
256000
2000
ඔහුගේ ඉතා අවාසනාවන්ත පෞරුෂය,
04:33
is the product of his brain.
94
258000
3000
ඔහුගේ මොලයේ නිශ්පාදිතයක් වෙනවා.
04:36
So the contributions of culture --
95
261000
3000
ඉතින්, සංස්කෘතියේ දායකත්ව,
04:39
if culture changes us, as indeed it does,
96
264000
2000
සංස්කෘතිය අපව වෙනස් කරනවා නම්, ඇත්තෙන් ම ඒක එහෙමයි,
04:41
it changes us by changing our brains.
97
266000
2000
එය අපව ‍වෙනස් කරන්නේ අපගේ මොලය වෙනස් කිරීම තුළිනුයි.
04:43
And so therefore whatever cultural variation there is
98
268000
3000
ඉතින් එම නිසා මොන සංස්කෘතික විවිධත්ව තිබුණත්
04:46
in how human beings flourish
99
271000
2000
‍මිනිස් වර්ගයා සමෘධියට පත්වන්නේ කෙසේ ද කියා
04:48
can, at least in principle, be understood
100
273000
2000
එය, අඩු ම තරමෙ සෛද්ධාන්තික ලෙස, අවබෝධ කර ගන්න පුළුවන්,
04:50
in the context of a maturing science of the mind --
101
275000
3000
සංදර්භය තුළ, එනම් පරිනත වෙන්නා වූ මනස පිළිබඳ විද්‍යාවේ,
04:53
neuroscience, psychology, etc.
102
278000
3000
නියුරෝන විද්‍යාවේ, මනෝ විද්‍යාවේ, සහ වෙනත් දේවල්වල.
04:56
So, what I'm arguing is that
103
281000
2000
ඉතින්, මා තර්ක කරණ කාරණය තමයි
04:58
value's reduced to facts --
104
283000
2000
වටිනාකම ඌනනය වෙනවා 'කරුණු' වලට,
05:00
to facts about the conscious experience
105
285000
2000
සවිඤ්ඤාණික අත්දැකීම් පිළිබඳ 'කරුණු' වලට,
05:02
of conscious beings.
106
287000
3000
සවිඤ්ඤාණික ප්‍රාණීන්ගේ.
05:05
And we can therefore visualize a space
107
290000
3000
ඒ නිසා අපට අවකාශයක් හිතේ මවාගන්න පුළුවන්
05:08
of possible changes in the experience of these beings.
108
293000
3000
මේ ප්‍රාණීන්ගේ අත්දැකීම්වල විය හැකි වෙනස් කම් පිළිබඳව.
05:11
And I think of this as kind of a moral landscape,
109
296000
2000
සහ මම හිතනවා මෙය එක්තරා ආකාරයක සදාචාර භූ තලයක් ලෙස
05:13
with peaks and valleys that correspond
110
298000
2000
අනුරූප වූ නිම්න සහ ශීර්ෂ සහිත,
05:15
to differences in the well-being of conscious creatures,
111
300000
3000
සවීඤ්ඤාණික ප්‍රාණීන්ගේ යහපැවැත්මේ වෙනස්කම් වලට,
05:18
both personal and collective.
112
303000
2000
පුද්ගලික සහ සාමූහික යන දෙ ආකාරයේ ම.
05:20
And one thing to notice is that perhaps
113
305000
2000
ඒ වගේම සඳහන් කළ යුතු එක් කාරණයක් තමයි
05:22
there are states of human well-being
114
307000
2000
මිනිස් යහපැවැත්මේ විවිධ තත්ව ඇති බව
05:24
that we rarely access, that few people access.
115
309000
3000
අපි ඉතා කලාතුරකින් පිවිසෙන, ඉතා ටික දෙනෙකු පිවිසෙන.
05:27
And these await our discovery.
116
312000
2000
මේවා අප සොයා ගත යුතු වෙනවා.
05:29
Perhaps some of these states can be appropriately called
117
314000
2000
අර්ථාන්විතව පවසන්න පුළුවන් සමහර විට සමහරක් මේ තත්ව
05:31
mystical or spiritual.
118
316000
2000
ගුප්ත හෝ අධ්‍යාත්මික හෝ කියලා.
05:33
Perhaps there are other states that we can't access
119
318000
2000
සමහර විට අපට පිවිසිය නොහැකි තත්ව තියෙන්න පුළුවන්
05:35
because of how our minds are structured
120
320000
3000
අපේ මනස් ව්‍යුහගත වී ඇති ආකාරය නිසා
05:38
but other minds possibly could access them.
121
323000
4000
නමුත් වෙනත් මනස් වලට ඒවාට පිවිසෙන්න පුළුවන්.
05:42
Now, let me be clear about what I'm not saying. I'm not saying
122
327000
2000
දැන් මං නොකියන්නේ මොනවා ගැනද කියලා කියන්න මට ඉඩ දෙන්න. මම කියන්නෙ නැහැ
05:44
that science is guaranteed to map this space,
123
329000
5000
විද්‍යාව අනිවාර්යයෙන් ම මේ අවකාශය සිතියම්ගත කරාවි කියලා,
05:49
or that we will have scientific answers to every
124
334000
2000
එසේ නැත්නම් අපට විද්‍යාත්මක පිළිතුරු තියෙනවා කියලා සෑම
05:51
conceivable moral question.
125
336000
2000
සිතා ගත හැකි සදාචාර ගැටළුවකට ම.
05:53
I don't think, for instance, that you will one day consult
126
338000
2000
මම හිතන්‍ නෑ, උදාරණයක‍ට ගත්තොත්, ඔබ යම් දිනක උපදෙස් පතාවි කියලා
05:55
a supercomputer to learn whether you should have a second child,
127
340000
4000
සුපිරි පරිගණකයකින්, ඔබ දෙවැනි දරැවකුත් හැදිය යුතු ද කියලා,
05:59
or whether we should bomb Iran's nuclear facilities,
128
344000
4000
නැත්නම් අපි ඉරානයේ න්‍යෂ්ටික පහුසම් වලට බෝම්බ හෙලිය යුතුද කියලා,
06:03
or whether you can deduct the full cost of TED as a business expense.
129
348000
4000
එක්කො අපිට TED වල සම්පූර්ණ පිරිවැය ව්‍යාපාර වියදමක් ලෙස අඩු කළ හැකි ද කියලා.
06:07
(Laughter)
130
352000
2000
(සිනා)
06:09
But if questions affect human well-being
131
354000
2000
නමුත් ප්‍රශ්න මිනිසුන්ගේ යහපැවැත්මට බලපෑම් කරනවා නම්
06:11
then they do have answers, whether or not we can find them.
132
356000
3000
එවිට ඒවාට පිළිතුරු තිබෙනවා, අපට ඒවා සොයා ගන්න පුළුවන් වුනත් බැරි වුනත්.
06:14
And just admitting this --
133
359000
2000
හුදෙක් මේ කාරණය පිළිගැනීමෙන් පමණක් ම,
06:16
just admitting that there are right and wrong answers
134
361000
2000
හරි සහ වැරදි පිළිතුරු තියෙනවා කියලා පිළිගැනීමෙන් පමණක් ම
06:18
to the question of how humans flourish --
135
363000
2000
මිනිසුන් ‍කොහොම ද සමෘධිමත්‍ වෙන්නේ කියන ප්‍රශ්නයට,
06:20
will change the way we talk about morality,
136
365000
2000
අප සදාචාරය පිළිබඳ කතා කරන ආකාරය වෙනස් වේවි
06:22
and will change our expectations
137
367000
2000
එමෙන් ම අපේ බලාපොරොත්තු වෙනස් වේවි
06:24
of human cooperation in the future.
138
369000
4000
අනාගත මිනිස් සහයෝගීතාව පිළිබඳව.
06:28
For instance, there are 21 states in our country
139
373000
4000
එමෙන් ම, උදාහරණයකට ගත්තොත්, අපේ රටේ ප්‍රාන්ත 21ක් තියෙනවා
06:32
where corporal punishment in the classroom is legal,
140
377000
3000
පන්ති කාමරය තුළ ශාරීරික දඬුවම් නීත්‍යානුකූල වූ.
06:35
where it is legal for a teacher to beat a child with a wooden board, hard,
141
380000
6000
ගුරුවරයෙකුට නීත්‍යානුකූල වෙනවා ළමයෙකුට ලී පතුරකින් පහර දීමට, තදින්,
06:41
and raising large bruises and blisters and even breaking the skin.
142
386000
4000
එමෙන් ම නිල්වෙනතුරු සහ දියපට්ට එනතුරු සහ හම පැලෙන තුරු පවා.
06:45
And hundreds of thousands of children, incidentally,
143
390000
2000
එමෙන් ම සිය දහස් ගණන් ළමයි, මේ නිසා,
06:47
are subjected to this every year.
144
392000
2000
මෙයට පාත්‍ර වෙනවා සෑම වසරකම.
06:49
The locations of these enlightened districts, I think, will fail to surprise you.
145
394000
5000
මේ ඥානාලෝකය ලැබූ දිස්ත්‍රික්ක වල පිහිටීම් ඔබව මවිතයට පත් කරන්න අසමත් වේවි.
06:54
We're not talking about Connecticut.
146
399000
3000
අපි කතා කරන්නේ ‍නැහැ කෙනෙක්ටිකට් ගැන.
06:57
And the rationale for this behavior is explicitly religious.
147
402000
4000
මේ චර්යාව සඳහා හේතු දැක්වීම ඉතා පැහැදිලිවම ආ‍ගමික එකක්.
07:01
The creator of the universe himself
148
406000
2000
විශ්වයේ මැවුම්කරු, තමා විසින්
07:03
has told us not to spare the rod,
149
408000
2000
කියා තිබෙනවා යෂ්ටිය පරිසම් කරන්න එපා කියලා,
07:05
lest we spoil the child --
150
410000
2000
දරුවා නරක් වීමට ඉඩහරිමින්.
07:07
this is in Proverbs 13 and 20, and I believe, 23.
151
412000
5000
‍මෙය ආප්තෝපදේශ 13 සහ 20, සහ මං හිතනවා, 23.
07:12
But we can ask the obvious question:
152
417000
2000
නමුත් අපට පැහැදිලිව පසක් වන ප්‍රකට පැණය ඇසිය හැකි යි. හොඳ ද?
07:14
Is it a good idea, generally speaking,
153
419000
4000
ඒක හොඳ අදහසක්, සාමාන්‍යයෙන් කියනවා නම්,
07:18
to subject children to pain
154
423000
3000
දරුවන් පාත්‍ර කිරීම, වේදනාවට
07:21
and violence and public humiliation
155
426000
3000
සහ ප්‍රචණ්ඩත්වයට සහ ප්‍රසිද්ධ නින්දාවට
07:24
as a way of encouraging healthy emotional development
156
429000
2000
දිරි ගන්වන ක්‍රමයක් ලෙස, සෞඛ්‍ය සම්පන්න චිත්තවේගීය වර්ධනය
07:26
and good behavior?
157
431000
2000
සහ යහපත් හැසිරීම?
07:28
(Laughter)
158
433000
1000
(සිනා)
07:29
Is there any doubt
159
434000
4000
කිසිම සැකයක් ‍තියෙනව ද
07:33
that this question has an answer,
160
438000
2000
මේ ප්‍රශ්නයට පිළිතුරක් ඇති බවට,
07:35
and that it matters?
161
440000
3000
සහ එය සැලකිය යුතු කාරණයක් බවට?
07:38
Now, many of you might worry
162
443000
2000
‍දැන්, ඔබ අතරින් බොහෝ දෙනෙක් තැවෙන්න පුළුවන්
07:40
that the notion of well-being is truly undefined,
163
445000
3000
යහපැවැත්ම පිළිබඳ සංකල්පනය ඇත්ත වශයෙන්ම නිර්වචනය නොකළ එකක් වීම ගැන,
07:43
and seemingly perpetually open to be re-construed.
164
448000
3000
සහ පිටින් පෙනෙන පරිදි යළි-ගොඩනැංවීම සඳහා නිරන්තරව විවෘත වෙනවා කියන එක ගැන.
07:46
And so, how therefore can there be an
165
451000
2000
හොඳයි ‍එහෙමනම්, කොහොම ද ඒ අනුව තියෙන්න පුළුවන් වන්නේ
07:48
objective notion of well-being?
166
453000
3000
යහපැවැත්ම පිළිබඳ වාස්තවික සඳහනක්?
07:51
Well, consider by analogy, the concept of physical health.
167
456000
3000
හොඳයි, සාම්‍යයක් ලෙස සලකමු, කායික සෞඛ්‍යය පිළිබඳ සංකල්පය.
07:54
The concept of physical health is undefined.
168
459000
3000
කායික සෞඛ්‍යය පිළිබඳ සංකල්පය නිර්වචයනය වෙලා නැහැ
07:57
As we just heard from Michael Specter, it has changed over the years.
169
462000
3000
අපි මේ දැන් මයිකල් ස්පෙක්ට(ර්) ගෙන් ඇසූ පරිදි. එය අවුරුදු ගණනාවක‍ට වෙනස් වෙලා නැහැ.
08:00
When this statue was carved
170
465000
2000
මේ පිලිමය නෙලපු කාලේ
08:02
the average life expectancy was probably 30.
171
467000
3000
සාමාන්‍ය අපේක්‍ෂිත ආයු කාලය 30 විතර වෙන්න ඇති.
08:05
It's now around 80 in the developed world.
172
470000
3000
දැන් එය 80ක් පමණ වෙනවා සංවර්ධිත රටවල් වල.
08:08
There may come a time when we meddle with our genomes
173
473000
3000
කාලයක් එන්න පුළුවන් අපි අපේ ගෙනෝමය සමඟ දඟලද් දී
08:11
in such a way that not being able to run a marathon
174
476000
3000
එක්තරා ආකාරයකට, මැරතන් එකක් දුවන්නට නොහැකි බව,
08:14
at age 200 will be considered a profound disability.
175
479000
4000
වයස අවුරුදු 200 දී, අතිශය ආබාධිත තත්වයක් ලෙස සැලකේවී.
08:18
People will send you donations when you're in that condition.
176
483000
3000
ඔබ දන්නව ද, මිනිස්සු ඔබට ආධාර දේවි ඔබ ඒ තත්වයේ ඉඳිද්දී.
08:21
(Laughter)
177
486000
2000
(සිනා)
08:23
Notice that the fact that the concept of health
178
488000
4000
මතක තබා ගන්න, මෙන්න මේ කාරණය, එනම් සෞඛ්‍යය පිළිබඳ සංකල්පය
08:27
is open, genuinely open for revision,
179
492000
3000
විවෘත වීම, අවංකව ම සංස්කරණය සඳහා විවෘත වීම,
08:30
does not make it vacuous.
180
495000
2000
එය අරුත් සුන් වූවක් කරන්නේ නැහැ.
08:32
The distinction between a healthy person
181
497000
3000
වෙනස, සෞඛ්‍යමත් අයෙකු
08:35
and a dead one
182
500000
2000
සහ මළ අයෙකු අතර
08:37
is about as clear and consequential as any we make in science.
183
502000
3000
අප විද්‍යාවේ දී කරන ඕනෑම එකක් තරමට ම පැහැදිලි සහ ආනුෂංගීය වෙනවා.
08:43
Another thing to notice is there may be many peaks on the moral landscape:
184
508000
3000
දැන්, සඳහන් කළ යුතු තව දෙයක් තමයි සදාචාර භුතලයේ බොහෝ ශීර්ෂ තිබිය හැකි බව.
08:46
There may be equivalent ways to thrive;
185
511000
3000
සඵල වීම සඳහා සමාන ආකාර තියෙන්න පුළුවන්.
08:49
there may be equivalent ways to organize a human society
186
514000
2000
මිනිස් සමාජයක් සංවිධානය සඳහා සමාන ආකාර තියෙන්න පුළුවන්
08:51
so as to maximize human flourishing.
187
516000
2000
මිනිස් සමෘධිය උපරිම කරන්නා වූ ආකාරයට.
08:53
Now, why wouldn't this
188
518000
2000
දැන්, ඇයි මෙය අවතක්සේරු නොකරන්නේ
08:55
undermine an objective morality?
189
520000
4000
වාස්තවික වූ සදාචාරයක්?
08:59
Well think of how we talk about food:
190
524000
3000
හොඳයි හිතන්න අපි ආහාර ගැන කතා කරන හැටි.
09:02
I would never be tempted to argue to you
191
527000
3000
මම කිසිවිටෙක පෙළඹෙන්නේ නැහැ ඔබ සමඟ තර්ක කරන්න
09:05
that there must be one right food to eat.
192
530000
2000
කෑම සඳහා එක ආහාරයක් තිබිය යුතු බවට.
09:07
There is clearly a range of materials
193
532000
2000
පැහැදිලිව ම ද්‍රව්‍ය පරාසයක් තියෙනවා
09:09
that constitute healthy food.
194
534000
2000
සෞඛ්‍යමත් ආහාර වලට ඇතුළත් වන්නා වූ.
09:11
But there's nevertheless a clear distinction
195
536000
2000
නමුත් ඒ කෙසේ වුවත් පැහැදිලි වෙනසක් තියෙනවා
09:13
between food and poison.
196
538000
2000
ආහාර සහ වසවිස අතර.
09:15
The fact that there are many right answers
197
540000
3000
බොහෝ නිවැරදි පිළිතුරු ඇත යන කාරණය,
09:18
to the question, "What is food?"
198
543000
2000
"ආහාර යනු මොනවා ද?" යන ප්‍රශ්නය සඳහා,
09:20
does not tempt us
199
545000
3000
අපව පොළඹවන්නේ නැහැ,
09:23
to say that there are no truths to be known about human nutrition.
200
548000
5000
මිනිස් පෝෂණය පිළිබඳ සත්‍යන් නැතැ යි කීම සඳහා.
09:28
Many people worry
201
553000
2000
දැන්, බොහෝ දෙනෙක් කලබල වෙනවා
09:30
that a universal morality would require
202
555000
3000
විශ්වීය සදාචාරයක් විසින් ඉල්ලා සිටීවි කියලා
09:33
moral precepts that admit of no exceptions.
203
558000
3000
කිසිදු ව්‍යතිරේකයක් පිළිනොගන්නා සදාචාර ප්‍රඥප්ති.
09:36
So, for instance, if it's really wrong to lie,
204
561000
2000
ඉතින්, උදාහරණයකට කියනවා නම්, බොරු කීම අතිශයින් ම වැරදියි නම්,
09:38
it must always be wrong to lie,
205
563000
2000
බොරු කීම සැම විටම වැරදි වෙන්න ඕන
09:40
and if you can find an exception,
206
565000
2000
එසේම ඔබට ව්‍යතිරේකයක් සොයාගත හැකි නම්,
09:42
well then there's no such thing as moral truth.
207
567000
3000
එහෙම නම් සදාචාරමය සත්‍යයක් කියලා දෙයක් නැහැ.
09:45
Why would we think this?
208
570000
2000
ඇයි අපි මෙසේ සිතන්නේ?
09:47
Consider, by analogy, the game of chess.
209
572000
3000
‍සාම්‍යයක් ලෙස සලකා බලමු, චෙස් ක්‍රී‍ඩාව.
09:50
Now, if you're going to play good chess,
210
575000
2000
දැන්, ඔබ හොඳින් චෙස් ක්‍රීඩා කරන්න යනව නම්,
09:52
a principle like, "Don't lose your Queen,"
211
577000
2000
ඔබේ රැජිනව කැපෙන්න දෙන්න එපා වැනි මූල ධර්මයක්
09:54
is very good to follow.
212
579000
2000
රැකීම ඉතා හොඳයි.
09:56
But it clearly admits some exceptions.
213
581000
2000
නමුත් පැහැදිලිව ම මෙහි දී ව්‍යතිරේක පිළිගන්නව.
09:58
There are moments when losing your Queen is a brilliant thing to do.
214
583000
3000
ඔබේ රැජිනව කැපෙන්න ඉඩ හැරීම අති දක්ෂ ක්‍රියාවක් වන අවස්ථා තියෙනවා.
10:01
There are moments when it is the only good thing you can do.
215
586000
4000
එය ඔබට කරන්නට ඇති එකම හොඳම දේ වන අවස්ථා කියෙනවා.
10:05
And yet, chess is a domain of perfect objectivity.
216
590000
4000
එහෙම වෙලත්, චෙස් කියන්නේ ‍පරිපූර්ණ වාස්තවිකත්වයක් සහිත විශයපථයක්.
10:09
The fact that there are exceptions here does not
217
594000
2000
මෙතන ව්‍යතිරේක තියනවා කියන කරුණ
10:11
change that at all.
218
596000
3000
කිසි‍විටෙකත් ඒ බව වෙනස් කරන්නේ නැහැ.
10:14
Now, this brings us to the sorts of moves
219
599000
3000
දැන්, මෙය ගෙන එනවා අපව ඇදීම් වල ප්‍රභවයට,
10:17
that people are apt to make in the moral sphere.
220
602000
3000
සදාචාර විශයේ දී සිදු කිරීමට, මිනිසුන් දක්ෂ වූ.
10:20
Consider the great problem of women's bodies:
221
605000
5000
සලකා බලන්න කාන්තා සිරුර පිළිබඳ මහා ප්‍රශ්නය.
10:25
What to do about them?
222
610000
2000
ඒ ගැන කුමක් කළ හැකි ද?
10:27
Well this is one thing you can do about them:
223
612000
2000
හොඳයි මෙන්න ඒ ගැන ඔබට කළ හැකි එක දෙයක්,
10:29
You can cover them up.
224
614000
2000
ඔබට පුළුවන් ඒ අයව ආවරණය කරන්න.
10:31
Now, it is the position, generally speaking, of our intellectual community
225
616000
2000
දැන්, මේක ද ස්ථාවරය පොදුවේ කතා කරනවා නම්, අපේ ප්‍රාඥ සමාජයේ
10:33
that while we may not like this,
226
618000
4000
අපි මෙයට අකමැති වෙද්දී ත්,
10:37
we might think of this as "wrong"
227
622000
2000
අපි හිතාවි මෙය වැරදියි කියලා
10:39
in Boston or Palo Alto,
228
624000
2000
බොස්ටන් හෝ පාලෝ ඇල්ටෝ වල,
10:41
who are we to say
229
626000
2000
අපි කවුද, කියන්න‍ට
10:43
that the proud denizens of an ancient culture
230
628000
3000
පෞරාණික සංස්කෘතිවල, එහිම-පෝෂිත සාඩම්බට පුරවැසියන්
10:46
are wrong to force their wives and daughters
231
631000
3000
තම බිරින්දැවරුට සහ දියණියන්ට බල කිරීම වැරදියි කියා,
10:49
to live in cloth bags?
232
634000
2000
රෙදි මළු වල ජීවත් වන්නට?
10:51
And who are we to say, even, that they're wrong
233
636000
2000
ඒ‍සේ ම අපි කවුද ඔවුන් වැරදියි කියලා කියන්නට පවා
10:53
to beat them with lengths of steel cable,
234
638000
2000
ඒ අයට වානේ කේබල් වලින් ගැසීම ගැන,
10:55
or throw battery acid in their faces
235
640000
2000
නැතිනම් බැටරි ඇසිඩ් මූණට විසි කිරීම ගැන,
10:57
if they decline the privilege of being smothered in this way?
236
642000
4000
මෙලෙස වසා හිර කර තැබීමේ වරප්‍රසාදය ඔවුන් ප්‍රති‍ක්ෂේප කළොත්?
11:01
Well, who are we not to say this?
237
646000
3000
එහෙම නැතිනම් අපි කවුද අපි මෙය නොකියා සිටින්න?
11:04
Who are we to pretend
238
649000
2000
අපි කවුද, බොරු රඟපෑම් කරන්නට,
11:06
that we know so little about human well-being
239
651000
4000
අපි මිනිස් යහ-පැවැත්ම ගැන දන්නෙ ටිකක් නිසා,
11:10
that we have to be non-judgmental about a practice like this?
240
655000
4000
මෙවන් පරිචාරයන් ගැන අපි තීන්දු තීරණ රහිත විය යුතු නිසා?
11:14
I'm not talking about voluntary wearing of a veil --
241
659000
4000
මම කතා කරන්නේ නැහැ ස්වකැමැත්තෙන්ම අඳින හිජාබයක් ගැන,
11:18
women should be able to wear whatever they want, as far as I'm concerned.
242
663000
2000
මම හිතන විදියට නම් කාන්තාවන්ට හැකියාව තියෙන්න ඕන තමන් කැමති‍ ඕනෑම දෙයක් අඳින්න.
11:20
But what does voluntary mean
243
665000
3000
නමුත් ස්වකැමැත්ත යන්නෙ හි අදහස කුමක් ද,
11:23
in a community where,
244
668000
2000
සමාජක,
11:25
when a girl gets raped,
245
670000
3000
ගැහැණු ළමයකු දූෂණයට ලක්වුනාම
11:28
her father's first impulse,
246
673000
2000
ඇයගේ තාත්තාගේ පළමු ආවේගය,
11:30
rather often, is to murder her out of shame?
247
675000
5000
බොහෝ අවස්ථාවල, ලජ්ජාව නිසාවෙන් ඇයව මරා දැමීමට නම්.
11:35
Just let that fact detonate in your brain for a minute:
248
680000
7000
ඒ කාරණයට ‍ටිකක් ඉඩ දෙන්න ඔබේ මනස තුළ පුපුරා යන්නට.
11:42
Your daughter gets raped,
249
687000
2000
ඔබේ දුව දූෂණයට ලක්වෙනවා,
11:44
and what you want to do is kill her.
250
689000
3000
එවිට ඔබට කරන්න ඕන දේ ඇයව මරා දැමීම.
11:52
What are the chances that represents
251
697000
2000
මොනවා ද සම්භාවිතාවන්, නියෝජනය කරන්නා වූ
11:54
a peak of human flourishing?
252
699000
5000
මිනිස් සමෘධියේ උච්චතම අවස්ථා?
12:02
Now, to say this is not to say that we have got the
253
707000
2000
දැන්, මෙසේ කීමෙන් කියන්නේ නැහැ අපට තියෙනව කියලා
12:04
perfect solution in our own society.
254
709000
4000
පරිපූර්ණ විසඳුමක් අපේ සමාජයේ.
12:08
For instance,
255
713000
2000
උදාහරණයකට මෙන්න මේ වගේ,
12:10
this is what it's like to go to a newsstand almost anywhere
256
715000
2000
පත්තර-සඟරා කඩේකට ගියහම මේ ආකාරයි බොහෝ ස්ථාන වල
12:12
in the civilized world.
257
717000
2000
ශිෂ්ඨාචාරවත් වූ ලෝකයේ.
12:14
Now, granted, for many men
258
719000
2000
දැන්, සත්‍ය ලෙස සැලකුවොත්, බොහෝ පුරුෂයන්ට,
12:16
it may require a degree in philosophy to see something wrong with these images.
259
721000
3000
දර්ශනය පිළිබඳ උපාධියක් අවශ්‍ය වෙන්න පුළුවන් මේ පිංතූරවල යම් වරදක් දකින්න.
12:19
(Laughter)
260
724000
3000
(සිනා)
12:22
But if we are in a reflective mood,
261
727000
3000
නමුත් අපි ගැඹුරින් සිතන මොහොතක නම් ඉන්නෙ
12:25
we can ask,
262
730000
2000
අපිට අහන්න පුළුවන්,
12:27
"Is this the perfect expression
263
732000
2000
"මේක ද හොඳම විදහා දැක්වීම,
12:29
of psychological balance
264
734000
2000
මානසික සමතුලිත බවේ,
12:31
with respect to variables like youth and beauty and women's bodies?"
265
736000
3000
තාරුණ්‍යය සහ ලස්සන සහ ස්ත්‍රී දේහය ආදී විචල්‍යයන්ට සාපේක්ෂව?"
12:34
I mean, is this the optimal environment
266
739000
2000
මං අදහස් කරන්නේ, මේක ද ප්‍රශස්තම පරිසරය
12:36
in which to raise our children?
267
741000
4000
අ‍පේ දරුවන් ලොකුමහත් කරන්නා වූ?
12:40
Probably not. OK, so perhaps there's some place
268
745000
2000
එහෙම වෙන්න බැහැ, හරි ද. ඉතින්, සමහරවිට තියෙන්න පුළුවන් යම් ස්ථානයක්
12:42
on the spectrum
269
747000
2000
මේ පරාස‍යේ
12:44
between these two extremes
270
749000
2000
මේ අන්ත දෙක අතර
12:46
that represents a place of better balance.
271
751000
3000
වඩා හොඳ තුලනයක් නිරූපණය කරන?
12:49
(Applause)
272
754000
8000
(අත්පොලසන්)
12:57
Perhaps there are many such places --
273
762000
2000
සමහර විට එවන් ස්ථාන රැසක් තිබෙන්න පුළුවන්.
12:59
again, given other changes in human culture
274
764000
3000
ඒ වගේම, මිනිස් සංස්කෘතියේ අනෙක් වෙනස් කම් ද සැලකූ පසු
13:02
there may be many peaks on the moral landscape.
275
767000
2000
සදාචාර භූ තලයේ බොහෝ ශීර්ෂ තිබෙන්න පුළුවන්.
13:04
But the thing to notice is that there will be
276
769000
2000
නමුත් සලකා බැලීමට කාරණය තමයි, අපට තියෙනවා
13:06
many more ways not to be on a peak.
277
771000
5000
බෝහෝ ආකාර මේ ශීර්ෂයක නොසිටින්න.
13:11
Now the irony, from my perspective,
278
776000
2000
දැන්, පුදුමයට කාරණය, ‍මගේ දෘශ්ටිකෝණයෙන් බලද්දී
13:13
is that the only people who seem to generally agree with me
279
778000
3000
සාමාන්‍ය වශයෙන් මා සමඟ එකඟ වන අය
13:16
and who think that there are right and wrong answers to moral questions
280
781000
3000
සහ සදාචාර ප්‍රශ්නවලට හරි සහ වැරදි පිළිතුරු තියෙනවා කියලා සිතන අය තමයි
13:19
are religious demagogues of one form or another.
281
784000
3000
එක් ආකාරයක හෝ තවත් ආකාරයක ආගමික හැඟුම්-අවුලුවන්නන්.
13:22
And of course they think they have right answers to moral questions
282
787000
3000
ඒ වගේ ම ඇත්තෙන්ම එ‍් අය හිතනවා ඒ‍ අයට නිවැරදි පිළිතුරු තියෙනවා කියලා සදාචාර ප්‍රශ්නවලට
13:25
because they got these answers from a voice in a whirlwind,
283
790000
4000
ඔවුන්ට එම පිළිතුරු ලැ‍බුණේ සුළං සුළියක හඬකින් නිසා,
13:29
not because they made an intelligent analysis of the causes
284
794000
2000
ඔවුන් බුද්ධිමත් විශ්ලේෂනයක් කළ නිසා නොවේ, හේතු සහ
13:31
and condition of human and animal well-being.
285
796000
4000
තත්ව පිළිබඳ, මිනිසුන්ගේ සහ සතුන්ගේ යහපැ‍වැත්මේ.
13:35
In fact, the endurance of religion
286
800000
2000
ඇත්තෙන් ම, ආගමෙ හි මේ දැරීමේ ශක්තිය
13:37
as a lens through which most people view moral questions
287
802000
4000
බොහෝ දෙනා සදාචාර ප්‍රශ්න දෙස බලන්නා වූ කාචයක් වශයෙන්,
13:41
has separated most moral talk
288
806000
3000
බොහෝ සදාචාර කතිකාවන් අයින් කර තියෙනවා,
13:44
from real questions of human and animal suffering.
289
809000
4000
මිනිස් සහ සත්ව‍ දුක් විඳීම් වල සැබෑ ප්‍රශ්න වලින්.
13:48
This is why we spend our time
290
813000
2000
මේ නිසා තමයි අපි වැය කරන්නේ අපේ කාලය
13:50
talking about things like gay marriage
291
815000
2000
සමලිංගික විවාහය වගේ කාරණා ගැන කතා කරමින්
13:52
and not about genocide or nuclear proliferation
292
817000
4000
සහ ජන සංහාරයන් හෝ න්‍යෂ්ටික ප්‍රගුණන වැඩසටහන්
13:56
or poverty or any other hugely consequential issue.
293
821000
5000
හෝ දිළිඳු බව හෝ වෙනත් විශාල විපාක ගෙනදෙන වාද විශය ගැන කතා නොකරමින්,
14:01
But the demagogues are right about one thing: We need
294
826000
2000
නමුත් ජන-හැඟුම්-අවුලුවන්නන් එක දෙයක් පිළිබඳව නිවැරදි යි. අපට අවශ්‍ය වෙනවා
14:03
a universal conception of human values.
295
828000
4000
මිනිස් වටිනාකම්‍ පිළිබඳ සාර්වත්‍ර, විශ්වීය සංකල්පයක්.
14:07
Now, what stands in the way of this?
296
832000
2000
දැන්, මෙහි මග අවුරා සිටින්නේ කුමක් ද?
14:09
Well, one thing to notice is that we
297
834000
2000
ඇත්තෙන්ම, සැලකිය යුතු එක දෙයක් තමා අපි
14:11
do something different when talking about morality --
298
836000
2000
වෙනස් දෙයක් කරන්නේ සදාචාරවත් බව ගැන කතා කරද්දී,
14:13
especially secular, academic, scientist types.
299
838000
4000
විශේෂයෙන් ම නිරාගමික, විද්වත්, විද්‍යාඥ ආකාර.
14:17
When talking about morality we value differences of opinion
300
842000
3000
සදාචාරය ගැන කතා කරද්දී අපි මත පිළිබඳ වෙනස්කම් ඇති බව අගය කරනවා,
14:20
in a way that we don't in any other area of our lives.
301
845000
3000
ජීවිතයේ වෙන කිසිම ක්ෂේත්‍රයක දී නොකරන ආකාරයෙන්.
14:23
So, for instance the Dalai Lama gets up every morning
302
848000
2000
ඉතින්, උදාහරණයක් වශයෙන් දලයි ලාමා සෑම උදෑසනක ම නැගිටිනවා
14:25
meditating on compassion,
303
850000
2000
කරුණා භාවනාව කරමින්.
14:27
and he thinks that helping other human beings is an integral component
304
852000
2000
ඒ වගේම එතුමා හිතනවා මිනිසුන්ට උදව් කිරීම අනිවාර්යය අංගයක් කියලා
14:29
of human happiness.
305
854000
3000
මිනිසාගේ සතුටේ.
14:32
On the other hand, we have someone like Ted Bundy;
306
857000
2000
අනෙක් අතට අපට ඉන්න‍වා 'ටෙඩ් බන්ඩි' වගේ අය.
14:34
Ted Bundy was very fond of abducting and raping
307
859000
2000
ටෙඩ් බන්ඩි හරිම ආසයි පැහැරගෙන යන්න සහ දූෂණය කරන්න
14:36
and torturing and killing young women.
308
861000
2000
සහ වද දෙන්න සහ මරන්න, තරුණ කාන්තාවන්ව.
14:38
So, we appear to have a genuine difference of opinion
309
863000
2000
ඉතින්, අපට පෙනී යනවා, අවංකවම තම මත පිළිබඳ වෙනසක්,
14:40
about how to profitably use one's time.
310
865000
3000
කොහොම ද කෙනෙකුගේ කාලය පලදායී ලෙස වැය කරන්නේ කියලා.
14:43
(Laughter)
311
868000
2000
(සිනා)
14:45
Most Western intellectuals
312
870000
2000
බොහෝ බටහිර ප්‍රාඥයන්
14:47
look at this situation
313
872000
2000
මේ තත්වය දෙස බලා
14:49
and say, "Well, there's nothing for the Dalai Lama
314
874000
2000
කියනවා, "බලන්න, දලයි ලාමා‍ට කිසිවක් නැහැ
14:51
to be really right about -- really right about --
315
876000
3000
සත්‍ය වශයෙන් ම නිවැරදි වීමට, සත්‍ය වශයෙන් ම නිවැරදි වීමට,
14:54
or for Ted Bundy to be really wrong about
316
879000
3000
නැතිනම් ටෙඩ් බන්ඩිට සත්‍ය වශයෙන්ම වැරදි වීමට,
14:57
that admits of a real argument
317
882000
4000
නියම තර්තකයක් පිළිගන්නා වූ,
15:01
that potentially falls within the purview of science.
318
886000
3000
විද්‍යාවේ වපසරිය තුළ වැටෙන්නා වූ.
15:04
He likes chocolate, he likes vanilla.
319
889000
3000
ඔහු කැමතියි චොකලට් වලට, ඔහු කැමතියි වැනිලා වලට.
15:07
There's nothing that one should be able to say to the other
320
892000
3000
එක්කෙනෙක්ට අනෙකාට කිව හැකිව ඇති කිසිම දෙයක් නැහැ
15:10
that should persuade the other."
321
895000
3000
අනෙකාව පෙළඹවිය හැකි වූ.
15:13
Notice that we don't do this in science.
322
898000
3000
ඒ වගේම සැලකිය යුතුයි අපි විද්‍යාවෙ දී මෙහෙම කරන්නෙ නැහැ.
15:16
On the left you have Edward Witten.
323
901000
2000
වම් පස සිටිනවා එඩ්වර්ඩ් විටන්.
15:18
He's a string theorist.
324
903000
3000
ඔහු තන්තු න්‍යායවාදියෙක්.
15:21
If you ask the smartest physicists around
325
906000
2000
ඔබ ඇසුවොත් දක්ෂම භෞතික විද්‍යාඥයන් ගෙන්
15:23
who is the smartest physicist around,
326
908000
2000
කවුද දැනට ඉන්න දක්ෂතම ‍භෞතික විද්‍යඥයා කියලා,
15:25
in my experience half of them will say Ed Witten.
327
910000
3000
මගේ අදහස අනුව නම් බාගයක් කට්ටිය කියාවි එඩ් විටන් කියලා.
15:28
The other half will tell you they don't like the question.
328
913000
3000
අනික් බාගේ කියාවි ඒ අය ප්‍රශ්නෙට අකමැති බව.
15:31
(Laughter)
329
916000
3000
(සිනා)
15:34
So, what would happen if I showed up at a physics conference
330
919000
4000
ඉතින් මොකද වෙන්නෙ මම භෞතික විද්‍යා සමුළුවකට ඇවිල්ලා
15:38
and said,"String theory is bogus.
331
923000
2000
මෙහෙම කිව්වොත්: "තන්තු වාදය කින්නේ කියන්නේ ප්‍රෝඩාවක්
15:40
It doesn't resonate with me. It's not how I chose to
332
925000
2000
එය මා හා අනුනාද වෙන්නේ නෑ. එය මගේ තේරීම නෙවෙයි,
15:42
view the universe at a small scale.
333
927000
3000
ක්ෂුද්‍ර පරිමානයේ දී, විශ්වය දෙස බැලීමට ගන්නා.
15:45
I'm not a fan."
334
930000
2000
මම රසිකයෙක් නෙවෙයි."
15:47
(Laughter)
335
932000
3000
(සිනා)
15:50
Well, nothing would happen because I'm not a physicist;
336
935000
2000
ඇත්තෙන් ම, කිසිම දෙයක් වෙන එකක් නැහැ මොකද මම භෞතික විද්‍යඥයෙක් නොවන නිසා,
15:52
I don't understand string theory.
337
937000
2000
මට තන්තු වාදය තේරෙන්නේ නැහැ.
15:54
I'm the Ted Bundy of string theory.
338
939000
2000
මම තමයි සුපිරි තන්තු වාදයේ ටෙඩ් බන්ඩි.
15:56
(Laughter)
339
941000
3000
(සිනා)
15:59
I wouldn't want to belong to any string theory club that would have me as a member.
340
944000
3000
මාව සාමාජිකයෙක් ලෙස ගන්න කැමති කිසිම කිසිම සුපිරි තන්තුවාදීන් ගේ සංගමයකට ඇතුළත් වෙන්න මම කැමති‍ වෙන් නෑ.
16:02
But this is just the point.
341
947000
2000
නමුත් මෙයයි ඇත්තෙන්ම කාරණය.
16:04
Whenever we are talking about facts
342
949000
3000
අපි '‍කරුණු' පිළිබඳව කතා කරන සැම වි‍ටම
16:07
certain opinions must be excluded.
343
952000
2000
සමහර ‍මත ‍බැහැර කළ යුතු මයි.
16:09
That is what it is to have a domain of expertise.
344
954000
3000
ඒක නිසයි කියන්නේ විශේෂඥ බලමණ්ඩලයක් තිබිය යුතුයි කියලා.
16:12
That is what it is for knowledge to count.
345
957000
3000
ඒක තමයි ‍දැනුම වලංගුයි කියලා කියන්න ඕන වෙන්නේ.
16:15
How have we convinced ourselves
346
960000
3000
කොහොම ද අපි අපට ප්‍රත්‍යක්ෂ කරගෙන තියෙන්නේ
16:18
that in the moral sphere there is no such thing as moral expertise,
347
963000
4000
‍සදාචාර විශය ක්ෂේත්‍රයේ සදාචාර විශේෂඥයෝ කියලා පිරිසක් නැහැ කියලා,
16:22
or moral talent, or moral genius even?
348
967000
3000
නැත්නම් සදාචාර දක්ෂතා හෝ සදාචාර ධීමතුන් පවා?
16:25
How have we convinced ourselves
349
970000
2000
කොහොම ද අපි අපිටම ඒත්තු ගන්වගෙන තියෙන්නේ
16:27
that every opinion has to count?
350
972000
2000
හැම මතයක්ම ගණන් ගත යුතුයි කියලා?
16:29
How have we convinced ourselves
351
974000
2000
කොහොම ද අපි අපිටම ඒත්තු ගන්වගෙන තියෙන්නේ
16:31
that every culture has a point of view
352
976000
2000
සෑම සංස්කෘතියකටම අදහසක් ‍තියෙනව කියලා
16:33
on these subjects worth considering?
353
978000
3000
මේ විශයන් සම්බන්ධව, සලකා බැලීමට තරම් වටිනා?
16:36
Does the Taliban
354
981000
2000
තලේබානුවන්ට
16:38
have a point of view on physics
355
983000
2000
තියෙනව ද භෞතික විද්‍යාව පිළිබඳ අදහසක්,
16:40
that is worth considering? No.
356
985000
3000
සලකා බැලීමට තරම් වටිනා? නැහැ.
16:43
(Laughter)
357
988000
5000
(සිනා)
16:48
How is their ignorance any less obvious
358
993000
3000
කොහොම ද ඒ අයගේ නොදන්නා කම මීට අඩුවෙන් පසක් වෙන්නේ
16:51
on the subject of human well-being?
359
996000
2000
මිනිස් යහ-පැවැත්ම සම්බන්ධයෙන්?
16:53
(Applause)
360
998000
6000
(සිනා)
16:59
So, this, I think, is what the world needs now.
361
1004000
4000
ඉතින්, මේක, මං හිතනවා, තමයි ලෝකෙට දැන් ඕන කරලා තියෙන්නෙ.
17:03
It needs people like ourselves to admit
362
1008000
3000
අපි වගේ මිනිසුන් අවශ්‍ය කරනවා පිළිගන්න,
17:06
that there are right and wrong answers
363
1011000
3000
හරි සහ වැරදි පිළිතුරු තියෙනවා කියලා,
17:09
to questions of human flourishing,
364
1014000
2000
මිනිස් සමෘධියේ ප්‍රශ්න වලට,
17:11
and morality relates
365
1016000
2000
සහ සදාචාරය සම්බන්ධයි කියලා
17:13
to that domain of facts.
366
1018000
2000
ඒ 'කරුණු' වල බලප්‍රදේශයට.
17:15
It is possible
367
1020000
2000
පුළුවන්
17:17
for individuals, and even for whole cultures,
368
1022000
4000
පුද්ගලයන්ට සහ සමස්ත සංකෘතීන්ටම
17:21
to care about the wrong things,
369
1026000
2000
වැරදි දේවල් ගැන සලකා බලන්න.
17:23
which is to say that it's possible for them
370
1028000
3000
තවත් විදියකින් කියනවා නම් ඔවුන්ට පුළුවන්
17:26
to have beliefs and desires that reliably lead
371
1031000
2000
විශ්වාස සහ අපේක්ෂාවන් තියාගන්ට, නිසැකවම
17:28
to needless human suffering.
372
1033000
2000
අනවශ්‍ය මිනිස් වද වේදනාවන් කරා යැවෙන.
17:30
Just admitting this will transform our discourse about morality.
373
1035000
5000
හුදෙක් මේ කාරණය පිළිගැනීමෙන් ම අපේ සදාචාරවත්බව පිළිබඳ කතිකාව පරිවර්තනයට ලක් වෙනවා.
17:35
We live in a world in which
374
1040000
3000
අපි ජීවත් වෙන්නේ ලෝකයක
17:38
the boundaries between nations mean less and less,
375
1043000
3000
රාජ්‍යන් අතර සීමාවන් එන්න එන්න ම ‍අර්ථ රහිතවන,
17:41
and they will one day mean nothing.
376
1046000
3000
සහ ඒවා යම් දවසක කිසිම තේරුමක් නැති වේවි.
17:44
We live in a world filled with destructive technology,
377
1049000
2000
අපි ජීවත් වෙන්නේ විනාශකාරී තාක්ෂණයෙන් පිරි ලෝකයක,
17:46
and this technology cannot be uninvented;
378
1051000
2000
සහ මේ තාක්ෂණය නො-සොයාගැනීමක් කරන්නට බැහැ,
17:48
it will always be easier
379
1053000
2000
සැම විටම පහසු වනු ඇති,
17:50
to break things than to fix them.
380
1055000
4000
දේවල් හදනවාට වැඩිය කඩන්න.
17:54
It seems to me, therefore, patently obvious
381
1059000
2000
ඒ නිසා මට පෙනීයන පරිදි, නිසැකවම පැහැදිලියි
17:56
that we can no more
382
1061000
4000
අපට තවදුරටත් නොහැකි බව
18:00
respect and tolerate
383
1065000
2000
ගරු කිරීමට සහ ඉවසා දරා සිටීමට
18:02
vast differences in notions of human well-being
384
1067000
4000
මිනිස් යහ-පැවැත්ම පිළිබඳ විශාල මත වෙනස්කම් වලට,
18:06
than we can respect or tolerate vast differences
385
1071000
3000
අපි මෙන්න මේවායේ ඇති විශාල වෙනස්කම් වලට ගරු කරනවාට සහ ඉවසා දරා සිටිනවාට වඩා‍:
18:09
in the notions about how disease spreads,
386
1074000
3000
ලෙඩ‍‍ රෝග ව්‍යාප්ත වන්නේ කෙසේ ද යන්න පිළිබඳ මත වල
18:12
or in the safety standards of buildings and airplanes.
387
1077000
3000
නැතිනම් ගොඩනැගිලි වල සහ ගුවන් යානාවල ආරාක්ෂක ප්‍රමිති වල.
18:15
We simply must converge
388
1080000
3000
සරලව ම අපි අභිසරණය විය යුතුයි
18:18
on the answers we give to the most important questions in human life.
389
1083000
4000
මිනිස් පැවැත්මේ වැදගත්ම ප්‍රශ්න වලට දෙන ‍පිළිතුරු සම්බන්ධව.
18:22
And to do that, we have to admit that these questions have answers.
390
1087000
5000
එමෙන් ම, එය සිදු කිරීම සඳහා, මේ ප්‍රශ්න වලට පිළිතුරු ඇති බව අප පිළිගත යුතු වෙනවා.
18:27
Thank you very much.
391
1092000
2000
ඔබ සැමට බොහොම ස්තුතියි.
18:29
(Applause)
392
1094000
23000
(අත්පොලසන්)
18:52
Chris Anderson: So, some combustible material there.
393
1117000
4000
ක්‍රිස් ඇන්ඩසන්: ඉතින්, පහසුවෙන් දැවෙන දේවල් ගොන්නක්.
18:56
Whether in this audience or people elsewhere in the world,
394
1121000
3000
මේ සභාවේ වේවා ලෝකයේ වෙනත් තැනක වේවා
18:59
hearing some of this, may well be doing the
395
1124000
2000
මේවා සමහරක් ඇසීමෙන්, කරනවා වෙන්න පුළුවන්,
19:01
screaming-with-rage thing, after as well, some of them.
396
1126000
5000
කෝපාවිෂ්ඨව කෑමොර දීම නැමැති දේත්, මින් සමහරකට පසුව.
19:06
Language seems to be really important here.
397
1131000
2000
භාෂාව මෙහි දී සැබැවින් ම වැදගත් වෙනවා.
19:08
When you're talking about the veil,
398
1133000
2000
ඔබ වේල් එක ගැන කතා කරද්දී‍,
19:10
you're talking about women dressed in cloth bags.
399
1135000
3000
ඔබ කතා කරන්නේ ‍රෙදි මළු හැඳි කතුන් ගැන.
19:13
I've lived in the Muslim world, spoken with a lot of Muslim women.
400
1138000
4000
මම ජීවත් වෙලා තියෙනවා මුස්ලිම් ලෝකයේ, මම කතා කරලා තියෙනවා බොහෝ මුස්ලිම් කාන්තාවන් සමග
19:17
And some of them would say something else. They would say,
401
1142000
2000
ඔවුන්ගෙන් සමහරක් වෙනත් දෙයක් කියාවි. ඔවුන් කියාවි
19:19
"No, you know, this is a celebration
402
1144000
3000
"නැහැ, ඔබ දන්නව ද, මෙය සැමරුමක්
19:22
of female specialness,
403
1147000
3000
ස්ත්‍රී සුවිශේෂීත්වයේ,
19:25
it helps build that and it's a result of the fact that" --
404
1150000
2000
මෙය ඒ බව ගොඩනැංවීමට උදව් කරනු ඇතිවා මෙන් ම මෙය එහි ප්‍රතිපලයක් වනු ඇති..."
19:27
and this is arguably a sophisticated psychological view --
405
1152000
4000
එමෙන්ම මෙය විවාදාත්මකව ම සංකීර්ණ මානසික දෘශ්ටියක්,
19:31
"that male lust is not to be trusted."
406
1156000
3000
"පිරිමි කාම තණ්හාව විශ්වාස නොකළ යුතු බව."
19:34
I mean, can you engage in a conversation
407
1159000
3000
මං කියන්නේ, ඔබට දෙබසක නිරත වෙන්න පුළුවන් ද
19:37
with that kind of woman without seeming kind of cultural imperialist?
408
1162000
5000
එවන් කාන්තාවක් සමග සංස්කෘතික අධිරාජ්‍යවාදියෙක් ලෙස නොපෙනී.
19:42
Sam Harris: Yeah, well I think I tried to broach this in a sentence,
409
1167000
3000
සෑම් හැරිස්: ඔව්, ඉතින් මං හිතන්නේ මම මෙය මතුකරන්න උත්සාහ කලා කියලා වැකියකින් තුළින්
19:45
watching the clock ticking,
410
1170000
2000
වේලාව දුවනවා බලමින්,
19:47
but the question is:
411
1172000
2000
නමුත් ප්‍රශ්නය තමයි,
19:49
What is voluntary in a context
412
1174000
3000
ස්‍වකැමැත්ත වන්නෙ කුමක් ද, සන්ධ‍ර්භයක,
19:52
where men have certain expectations,
413
1177000
2000
මිනිසුන් යම් බලාපොරොත්තු තියෙන,
19:54
and you're guaranteed to be treated in a certain way
414
1179000
4000
සහ ඔබ එක්තරා ආකාරයකට සැලකිල්ලට ලක්වීම‍ට සහතික වී ‍තිබෙන,
19:58
if you don't veil yourself?
415
1183000
2000
ඔබ ඔබව ආවරණය නොකලොත්.
20:00
And so, if anyone in this room
416
1185000
2000
එම නිසා, මේ කාමරයේ ඉන්න ඕනෑම කෙනෙක්
20:02
wanted to wear a veil,
417
1187000
2000
හිජාබයක් පළඳින්න කැමති නම්,
20:04
or a very funny hat, or tattoo their face --
418
1189000
3000
නැතිනම් ඉතා විසුළු තොප්පියක් නැත්නම් මූ‍හුණේ පච්ච කොටන්නට --
20:07
I think we should be free to voluntarily do whatever we want,
419
1192000
3000
මං හිතවා අපට නිදහස තියෙන්න ඕනෙ ස්වකැමැත්තෙන් ම අපට කැමැති ඕනැම දෙයක් කරන්න,
20:10
but we have to be honest about
420
1195000
3000
නමුත් අපි අවංක වෙන්න ඕන
20:13
the constraints that these women are placed under.
421
1198000
2000
මේ කාන්තාවන් සිරකර ඇති සීමා කිරීම් මොනවා ද කියලා.
20:15
And so I think we shouldn't be so eager
422
1200000
3000
ඉතින් මම හිතනවා අපි එතරම් උනන්දු නොවිය යුතුයි කියලා
20:18
to always take their word for it,
423
1203000
2000
හැම විට ම ඔවුන් කියන දේ ම පිළිගන්න,
20:20
especially when it's 120 degrees out
424
1205000
2000
විශේෂයෙන් ම එය අංශක 120 ක් පිට
20:22
and you're wearing a full burqa.
425
1207000
3000
සහ ඔබ සම්පූර්ණ බුර්කාවම ඇඳ සිටින විට.
20:25
CA: A lot of people want to believe in this
426
1210000
2000
ක්‍රි.ඇ.: බොහෝ දෙනෙක් විශ්වාස කරන්න කැමතියි ‍මේ
20:27
concept of moral progress.
427
1212000
2000
සදාචාර දියුණුව නැමති සංකල්පය.
20:29
But can you reconcile that?
428
1214000
2000
නමුත් ඔබට එය යම් එකඟතාවයකට ගෙන එන්න පුළුවන් ද?
20:31
I think I understood you to say that you could
429
1216000
2000
මං තේරුම් ගත්ත හැටියට ඔබ එහෙම පුළුවන් කිව්වා
20:33
reconcile that with a world that doesn't become
430
1218000
2000
එය එකඟතායකට ගෙන එන්න, ලෝකයක් සමඟ
20:35
one dimensional, where we all have to think the same.
431
1220000
3000
ඒක මානීය නොවන්නා වූ, අපි හැමෝම එකම අයුරින් සිතිය යුතු වූ.
20:38
Paint your picture of what
432
1223000
2000
ඔබ දකින පිංතූරය පාට කරන්න, මොන වගේ ද කියලා
20:40
rolling the clock 50 years forward,
433
1225000
3000
ඔරලෝසුව ඉදිරියට කරකැව්වොත්, අවුරුදු 50ක්
20:43
100 years forward, how you would like to think of
434
1228000
2000
අවුරුදු 100ක්, ‍ඔබ කොහොම ද හිතන්න කැමති
20:45
the world, balancing moral progress
435
1230000
3000
ලෝකය ගැන, සදාචාර දියුණුව තුලනය කරන
20:48
with richness.
436
1233000
3000
විචිත්‍රත්වය සමඟ.
20:51
SH: Well, I think once you admit
437
1236000
2000
සැ.හැ.: හොඳයි, මං හිතනවා ඔබ පිළිගත් පසු
20:53
that we are on the path toward understanding our minds
438
1238000
3000
අපි ඉන්නේ අපේ මනස තේරුම් ගැනීම කරා යන මා‍වතේ කියලා,
20:56
at the level of the brain in some important detail,
439
1241000
3000
මොළයේ මට්ටමින්, ඉතා වැදගත් විස්තර සහිතව,
20:59
then you have to admit
440
1244000
2000
එවිට ඔබ පිළිගත යුතුයි
21:01
that we are going to understand all of the positive
441
1246000
4000
අපි තේරුම්ගන්න යනවා, සියලු ම, ධනාත්මක
21:05
and negative qualities
442
1250000
2000
සහ සෘනාත්මක ගුණාංග,
21:07
of ourselves in much greater detail.
443
1252000
2000
අපේ ජීවිත වල ඇති, වඩාත් සවිස්තරාත්මකව.
21:09
So, we're going to understand positive social emotion
444
1254000
2000
ඉතිං, අපි ධනාත්මක සමාජ චිත්තවේග හඳුනාගන්නයි යන්නෙ
21:11
like empathy and compassion,
445
1256000
2000
සහවේදනය සහ දයානුකම්පාව වැනි.
21:13
and we're going to understand the factors
446
1258000
2000
එමෙන් ම අපි තේරුම් ගන්න යනවා සාධක
21:15
that encourage it -- whether they're genetic,
447
1260000
2000
එය දිරි ගන්වන, ඒවා ජානමය වේවා,
21:17
whether they're how people talk to one another,
448
1262000
2000
මිනිස්සු එකිනෙකාට කතා කරන හැටි වේවා,
21:19
whether they're economic systems,
449
1264000
2000
ආර්තික පද්ධති‍ වේවා.
21:21
and insofar as we begin to shine light on that
450
1266000
3000
එය ආලෝකමත් කිරීම ඇරඹීම දක්වා
21:24
we are inevitably going to converge
451
1269000
2000
අපි නොවැළැක් විය හැකි ලෙස එක්තැන් වෙනවා
21:26
on that fact space.
452
1271000
2000
අප කියූ 'කරුණු' අවකාශයට.
21:28
So, everything is not going to be up for grabs.
453
1273000
2000
ඉතින් හැම දෙයක් ම අපට ඩැහැගැනීමට නැහැ.
21:30
It's not going to be like
454
1275000
3000
ඒක මෙහෙම වෙන්නේ නැහැ.
21:33
veiling my daughter from birth
455
1278000
2000
මගේ දුවට උපතේ සිට ‍හිජාබයක් ඇන්දීම
21:35
is just as good as teaching her
456
1280000
3000
හොඳ වෙන්නෑ, ඇයට උගැන්වීම තරම්,
21:38
to be confident and well-educated
457
1283000
4000
ආත්ම විශ්වාසයෙන් යුතු වීමට සහ හොඳින් ඉගෙනීමට,
21:42
in the context of men who do desire women.
458
1287000
3000
ගැහැණුන් කෙරෙහි කෑදර කමින් සිටින මිනිසුන්‍ ගේ සන්දර්භයක් තුළ.
21:45
I mean I don't think we need an NSF grant to know
459
1290000
4000
මං අදහස් කරන්නේ, හිතන්න එපා එන්.එස්.එෆ් (ජාතික විද්‍යා පදනමේ) ප්‍රතිපාදනයක් ඕන කියලා තේරුම් ගන්නට
21:49
that compulsory veiling is a bad idea --
460
1294000
3000
හිජාබය අනිවාර්යය කිරීම නරක අදහසක් කියලා.
21:52
but at a certain point
461
1297000
2000
නමුත් එක්තරා ස්ථානයක දී
21:54
we're going to be able to scan the brains of everyone involved
462
1299000
3000
අපට හැකි වෙන‍වා සම්බන්ධ සෑම දෙනාගේම මොළ පරිලෝකනය (ස්කෑන්) කරන්න
21:57
and actually interrogate them.
463
1302000
3000
සහ ඇත්තෙන් ම හරස් ප්‍රශ්න අහන්න.
22:00
Do people love their daughters
464
1305000
3000
මිනිස්සු තම දරුවන්ට ආදරේ ද
22:03
just as much in these systems?
465
1308000
3000
මේ ක්‍රමයෙන් පෙනෙන පරිදීත්?
22:06
And I think there are clearly right answers to that.
466
1311000
2000
ඒ ව‍ගේම මම හිතනවා පැහැදිලිවම එයට නිවැරදි පිළිතුරු තියෙනවා කියලා.
22:08
CA: And if the results come out that actually they do,
467
1313000
3000
ක්‍රි.ඇ.: ඒ වගේම ප්‍රතිපලත් ඇත්තෙන්ම ඔවුන් ආ‍දරෙයි කියලා ආවොත්,
22:11
are you prepared to shift your instinctive current judgment
468
1316000
3000
ඔබ සූදානම් ද ඔබේ සහජාශයික වර්තමාන තීන්දුව වෙනස් කරන්න
22:14
on some of these issues?
469
1319000
2000
මේ සමහර කාරණා සම්බන්ධව?
22:16
SH: Well yeah, modulo one obvious fact,
470
1321000
3000
සැ.හැ.: ඔව් ඇත්තෙන්ම, [අපැහැදිලියි] එක් පැහැදිලි කරුණක්,
22:19
that you can love someone
471
1324000
2000
ඔබට කෙනෙකුට ආදරය කරන්න පුලුවන්
22:21
in the context of a truly delusional belief system.
472
1326000
3000
සැ‍බැවින් මායාමය විශ්වාස පද්ධතියක සන්ධර්භයේ.
22:24
So, you can say like, "Because I knew my gay son
473
1329000
2000
එවිට ඔබට මේ වගේ කියන්න පුළුවන්, "මම දැනගෙන සිටිය නිසා මගේ සමලිංගික පුතා
22:26
was going to go to hell if he found a boyfriend,
474
1331000
3000
යාළුවෙක් හොයා ගත්තොත් නිරයට යනවා කියලා,
22:29
I chopped his head off. And that was the most compassionate thing I could do."
475
1334000
3000
මම එයාගේ ගෙල සිඳ දැම්මා. ඒ වගේම එක තමයි කට කරන්නට තිබුණ හොඳම දයානුකම්පිත දේ."
22:32
If you get all those parts aligned,
476
1337000
2000
ඔබ ඒ හැම කො‍ටසක් ම පෙලගස්වා ගත්තොත්,
22:34
yes I think you could probably be feeling the emotion of love.
477
1339000
3000
ඔව් මං හිතනවා ඔබට බොහෝ විට ආදරය නමැති චිත්තවේයය දැනේවි.
22:37
But again, then we have to talk about
478
1342000
2000
නමුත් ආයෙමත්, එවිට අපිට කතා කරන්න සිද්ධ වෙනවා
22:39
well-being in a larger context.
479
1344000
2000
යහ පැවැත්ම ගැන වඩා පුළුල් සන්දර්භයක සිට.
22:41
It's all of us in this together,
480
1346000
2000
අපි සියළු දෙනාම මේකෙ එක‍ට ඉන්නෙ,
22:43
not one man feeling ecstasy
481
1348000
4000
මේක මේ එක මිනිහෙක් අතිමහත් ආනන්දයකට පත්වෙලා
22:47
and then blowing himself up on a bus.
482
1352000
2000
බස් එකත් ඇතුළේ පුපුරව ගන්නවා නෙවෙයි.
22:49
CA: Sam, this is a conversation I would actually love to
483
1354000
2000
ක්‍රි.ඇ.: මේක කතාබහක් ඇත්තෙන්ම මම ඉතා ආස
22:51
continue for hours.
484
1356000
2000
පැය ගණනාවක් දිගටම කරගෙන යන්න.
22:53
We don't have that, but maybe another time. Thank you for coming to TED.
485
1358000
2000
අපට ‍එහෙම වෙලාව නැහැ, නමුත් තවත් අවස්ථාවක බලමු. බොහොම ඉස්තුතියි TED වලට පැමිණියාට.
22:55
SH: Really an honor. Thank you.
486
1360000
2000
සැ.හැ.: සැබැවින් ම ගෞරවයක්. ස්තුතියි.
22:57
(Applause)
487
1362000
3000
(අත්පොළසන්)
Translated by Lalith Manage
Reviewed by Dulini Mudunkotuwa

▲Back to top

ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee