ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com
TEDSummit

Sam Harris: Can we build AI without losing control over it?

Sam Harris: هل بإمكاننا بناء ذكاءٍ اصطناعي دون فقدان التحكم به ؟

Filmed:
5,024,015 views

خائف من الذكاء الاصطناعي فائق الذكاء؟ يجب عليك ذلك، هكذا يقول عالم الأعصاب والفيلسوف سام هاريس -- وليس بطريقة نظرية وحسب. سنقوم ببناء آليات بشرية خارقة، يقول هاريس، ولكننا لم نتصارع بعد مع المشاكل المرتبطة مع خلق شيءٍ ربما يعاملنا بالطريقة التي نعامل بها النمل.
- Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live. Full bio

Double-click the English transcript below to play the video.

00:13
I'm going to talk
about a failureبالفشل of intuitionحدس
0
1000
2216
سأقوم بالتحدث عن فشل الحدس
00:15
that manyكثير of us sufferعانى from.
1
3240
1600
الذي يعاني معظمنا منه.
00:17
It's really a failureبالفشل
to detectالكشف a certainالمؤكد kindطيب القلب of dangerخطر.
2
5480
3040
هو في الواقع الفشل في تحرِّي نوع محدد
من الخطر.
00:21
I'm going to describeوصف a scenarioسيناريو
3
9360
1736
سوف أقوم بوصف سيناريو
00:23
that I think is bothكلا terrifyingمرعب
4
11120
3256
أظنه مخيفاً
00:26
and likelyالمحتمل أن to occurتحدث,
5
14400
1760
ومن المرجح أن يحدث،
00:28
and that's not a good combinationمزيج,
6
16840
1656
وهذا ليس مزيجاً جيداً،
00:30
as it turnsيتحول out.
7
18520
1536
كما سيبدو.
00:32
And yetبعد ratherبدلا than be scaredخائف، خواف، مذعور,
mostعظم of you will feel
8
20080
2456
ومع ذلك، بدلاً من الخوف، سيشعر معظمكم
00:34
that what I'm talkingالحديث about
is kindطيب القلب of coolبارد.
9
22560
2080
بأن ما أتحدُّث عنه مثير نوعاً ما.
00:37
I'm going to describeوصف
how the gainsمكاسب we make
10
25200
2976
سأقوم بوصف كيف أن المكاسب التي نحصل عليها
00:40
in artificialمصطنع intelligenceالمخابرات
11
28200
1776
من الذكاء الاصطناعي
00:42
could ultimatelyفي النهاية destroyهدم us.
12
30000
1776
يمكن في النهاية أن تدمرنا.
00:43
And in factحقيقة, I think it's very difficultصعب
to see how they won'tمتعود destroyهدم us
13
31800
3456
وفي الواقع، أظنه من الصعب جداً أن نرى
كيف أنها لن تدمرنا
00:47
or inspireألهم us to destroyهدم ourselvesأنفسنا.
14
35280
1680
أو تلهمنا أن ندمر أنفسنا.
00:49
And yetبعد if you're anything like me,
15
37400
1856
ومع ذلك إذا كنتم تشبهونني في شيء
00:51
you'llعليك find that it's funمرح
to think about these things.
16
39280
2656
فستجدون أنه من الممتع التفكير
بهذه الأشياء.
00:53
And that responseاستجابة is partجزء of the problemمشكلة.
17
41960
3376
وتلك الإجابة هي جزء من المشكلة.
00:57
OK? That responseاستجابة should worryقلق you.
18
45360
1720
حسناً؟ تلك الإجابة يجب أن تُقلقكم.
00:59
And if I were to convinceإقناع you in this talk
19
47920
2656
وإذا كان عليَّ أن أقنعكم في هذه المحادثة
01:02
that we were likelyالمحتمل أن
to sufferعانى a globalعالمي famineمجاعة,
20
50600
3416
أنه من المرجح أننا سوف نعاني من
مجاعة عالمية
01:06
eitherإما because of climateمناخ changeيتغيرون
or some other catastropheكارثة,
21
54040
3056
إما بسبب تغيُّر المناخ، أو بسبب
كارثة أخرى،
01:09
and that your grandchildrenأحفاد,
or theirهم grandchildrenأحفاد,
22
57120
3416
وأن أحفادكم، أو أحفادهم،
01:12
are very likelyالمحتمل أن to liveحي like this,
23
60560
1800
من المرجح جداً أن يعيشوا، هكذا
01:15
you wouldn'tلن think,
24
63200
1200
فلن يخطر ببالكم.
01:17
"Interestingمثير للإعجاب.
25
65440
1336
"مثير للاهتمام".
01:18
I like this TEDTED Talk."
26
66800
1200
تعجبني محادثة TED هذه.
01:21
Famineمجاعة isn't funمرح.
27
69200
1520
المجاعة ليست مسلية.
01:23
Deathالموت by scienceعلم fictionخيال,
on the other handيد, is funمرح,
28
71800
3376
الموت عن طريق الخيال العلمي، من ناحية
أخرى، مسلٍّ،
01:27
and one of the things that worriesالمخاوف me mostعظم
about the developmentتطوير of AIAI at this pointنقطة
29
75200
3976
وأحد الأشياء التي تقلقني للغاية بسبب تطور
الذكاء الاصطناعي عند هذه النقطة
01:31
is that we seemبدا unableغير قادر to marshalمارشال
an appropriateمناسب emotionalعاطفي responseاستجابة
30
79200
4096
هي أننا نبدو وكأننا غير قادرين على إبداء
استجابة عاطفية ملائمة
01:35
to the dangersمخاطر that lieراحه aheadالمكانية.
31
83320
1816
للأخطار التي تنتظرنا.
01:37
I am unableغير قادر to marshalمارشال this responseاستجابة,
and I'm givingإعطاء this talk.
32
85160
3200
أنا غير قادر على إبداء هذه الاستجابة،
وأنا أقوم بهذه المحادثة.
01:42
It's as thoughاعتقد we standيفهم before two doorsالأبواب.
33
90120
2696
يبدو الأمر وكأننا نقف أمام بابين.
01:44
Behindخلف doorباب numberرقم one,
34
92840
1256
خلف الباب رقم واحد،
01:46
we stop makingصناعة progressتقدم
in buildingبناء intelligentذكي machinesآلات.
35
94120
3296
نتوقف عن تحقيق التقدُّم في بناء الآليات
الذكية.
01:49
Our computerالحاسوب hardwareالمعدات and softwareالبرمجيات
just stopsتوقف gettingالحصول على better for some reasonالسبب.
36
97440
4016
معدات حاسوبنا وبرمجياته تتوقف عن التحسن
لسببٍ ما وحسب.
01:53
Now take a momentلحظة
to considerيعتبر why this mightربما happenيحدث.
37
101480
3000
خذوا الآن لحظة للتفكير لماذا قد يحدث ذلك.
01:57
I mean, givenمعطى how valuableذو قيمة
intelligenceالمخابرات and automationأتمتة are,
38
105080
3656
أعني، بافتراض مدى نفع الذكاء والأتمتة،
02:00
we will continueاستمر to improveتحسن our technologyتقنية
if we are at all ableقادر to.
39
108760
3520
فإننا سنستمر بتحسين التكنولوجيا الخاصة بنا
إذا كان بإمكاننا أصلاً.
02:05
What could stop us from doing this?
40
113200
1667
ما الذي قد يمنعنا من فعل هذا؟
02:07
A full-scaleشامل nuclearنووي warحرب?
41
115800
1800
حربٌ نووية على جميع المقاييس؟
02:11
A globalعالمي pandemicجائحة?
42
119000
1560
وباء عالمي؟
02:14
An asteroidالكويكب impactتأثير?
43
122320
1320
اصطدام كويكب؟
02:17
Justinجوستين Bieberبيبر becomingتصبح
presidentرئيس of the Unitedمتحد Statesتنص على?
44
125640
2576
أن يصبح جاستن بيبر رئيساً
للولايات المتحدة؟
02:20
(Laughterضحك)
45
128240
2280
(ضحك)
02:24
The pointنقطة is, something would have to
destroyهدم civilizationحضارة as we know it.
46
132760
3920
الخلاصة هي، شيءٌ ما عليه تدمير
الحضارة كما نعرفها.
02:29
You have to imagineتخيل
how badسيئة it would have to be
47
137360
4296
عليكم تخيُّل كم عليه أن يكون سيئاً
02:33
to preventيحول دون us from makingصناعة
improvementsتحسينات in our technologyتقنية
48
141680
3336
لكي يمنعنا من تحقيق تحسينات في
التكنولوجيا الخاصة بنا
02:37
permanentlyبشكل دائم,
49
145040
1216
بشكل دائم،
02:38
generationتوليد after generationتوليد.
50
146280
2016
جيلاً بعد جيل.
02:40
Almostتقريبيا by definitionفريف,
this is the worstأسوأ thing
51
148320
2136
تقريباً بالتعريف، هذا أسوأ شيء
02:42
that's ever happenedحدث in humanبشري historyالتاريخ.
52
150480
2016
يمكن أن يحصل في تاريخ البشرية.
02:44
So the only alternativeلبديل,
53
152520
1296
لذا البديل الوحيد،
02:45
and this is what liesالأكاذيب
behindخلف doorباب numberرقم two,
54
153840
2336
وهو الذي يوجد خلف الباب رقم اثنين،
02:48
is that we continueاستمر
to improveتحسن our intelligentذكي machinesآلات
55
156200
3136
هو أن نستمر بتحسين آلاتنا الذكية
02:51
yearعام after yearعام after yearعام.
56
159360
1600
سنة بعد سنة بعد سنة.
02:53
At a certainالمؤكد pointنقطة, we will buildبناء
machinesآلات that are smarterأكثر ذكاء than we are,
57
161720
3640
وعند نقطة معينة، سنبني آلياتٍ أذكى
مما نحن عليه،
02:58
and onceذات مرة we have machinesآلات
that are smarterأكثر ذكاء than we are,
58
166080
2616
وحالما يصبح لدينا آليات أذكى مننا،
03:00
they will beginابدأ to improveتحسن themselvesأنفسهم.
59
168720
1976
سوف تبدأ بتحسين نفسها.
03:02
And then we riskخطر what
the mathematicianرياضياتي IJاي جاي Good calledمسمي
60
170720
2736
وعندها سنواجه ما دعاه عالم
الرياضيات IJ Good
03:05
an "intelligenceالمخابرات explosionانفجار,"
61
173480
1776
"انفجاراً ذكائياً"
03:07
that the processمعالج could get away from us.
62
175280
2000
وأن العملية يمكن أن تفلت من بين أيدينا.
03:10
Now, this is oftenغالبا caricaturedرسم كاريكاتير,
as I have here,
63
178120
2816
الآن، هذا يتم عمله كرسم كاريكاتيري،
كما أفعل هنا
03:12
as a fearخوف that armiesالجيوش of maliciousخبيث robotsالروبوتات
64
180960
3216
كخوفٍ من جيوش ميليشيا من الرجال الآليين
03:16
will attackهجوم us.
65
184200
1256
التي ستهاجمنا.
03:17
But that isn't the mostعظم likelyالمحتمل أن scenarioسيناريو.
66
185480
2696
ولكن هذا ليس السيناريو الأكثر احتمالاً.
03:20
It's not that our machinesآلات
will becomeيصبح spontaneouslyبطريقة عفوية malevolentحاقد.
67
188200
4856
الأمر ليس أن آلياتنا ستصبح حاقدة بشكل عفوي
03:25
The concernالاهتمام is really
that we will buildبناء machinesآلات
68
193080
2616
المقلق حقاً هو أننا نبني آليات
03:27
that are so much
more competentمختص than we are
69
195720
2056
أكثر كفاءة مما نحن عليه
03:29
that the slightestأدنى divergenceتشعب
betweenما بين theirهم goalsأهداف and our ownخاصة
70
197800
3776
وأن أقل اختلاف بين أهدافها وأهدافنا
03:33
could destroyهدم us.
71
201600
1200
يمكن أن يدمرنا.
03:35
Just think about how we relateترتبط to antsالنمل.
72
203960
2080
فقط فكروا بكيفية علاقتنا بالنمل
03:38
We don't hateاكرهه them.
73
206600
1656
نحن لا نكرههم.
03:40
We don't go out of our way to harmضرر them.
74
208280
2056
ولا نخرج عن طريقنا لنؤذيهم.
03:42
In factحقيقة, sometimesبعض الأحيان
we take painsآلام not to harmضرر them.
75
210360
2376
في الواقع، أحياناً نتحمل آلاماً لكي
لا نؤذيهم.
03:44
We stepخطوة over them on the sidewalkرصيف.
76
212760
2016
نحن نمشي من فوقهم على الرصيف.
03:46
But wheneverكلما كان theirهم presenceحضور
77
214800
2136
ولكن عندما يكون لوجودهم
03:48
seriouslyبشكل جاد conflictsالنزاعات with one of our goalsأهداف,
78
216960
2496
تعارض جدِّي مع أحد أهدافنا،
03:51
let's say when constructingبناء
a buildingبناء like this one,
79
219480
2477
لنقل مثلاً عند إنشاء بناء كهذا،
03:53
we annihilateمحق them withoutبدون a qualmوخز الضمير.
80
221981
1960
نقوم بإبادتهم بدون أي تأنيب ضمير.
03:56
The concernالاهتمام is that we will
one day buildبناء machinesآلات
81
224480
2936
والقلق من أننا يوماً ما سوف نبني آليات
03:59
that, whetherسواء they're consciousواع or not,
82
227440
2736
والتي، سواءٌ كانت مدركة أم لا،
04:02
could treatيعالج us with similarمماثل disregardتجاهل.
83
230200
2000
قد تعاملنا بمثل هذا الاستخفاف.
04:05
Now, I suspectمشتبه فيه this seemsيبدو
far-fetchedبعيد الإحتمال to manyكثير of you.
84
233760
2760
والآن، أنا أشك أن هذا أبعد ما يكون
عن العديد منكم.
04:09
I betرهان there are those of you who doubtشك
that superintelligentsuperintelligent AIAI is possibleممكن,
85
237360
6336
وأراهن على أن هنالك منكم من يشك أن الذكاء
الاصطناعي الخارق الذكاء ممكن،
04:15
much lessأقل inevitableالمحتوم.
86
243720
1656
أو حتى محتوم.
04:17
But then you mustيجب find something wrongخطأ
with one of the followingالتالية assumptionsالافتراضات.
87
245400
3620
ولكن مع ذلك يجب عليكم أن تجدوا شيئاً ما
خاطئاً في أحد الافتراضات التالية.
04:21
And there are only threeثلاثة of them.
88
249044
1572
وهنالك ثلاثة منهم.
04:23
Intelligenceالمخابرات is a matterشيء of informationمعلومات
processingمعالجة in physicalجسدي - بدني systemsأنظمة.
89
251800
4719
الذكاء هو مسألة معالجة للمعلومات في
الأنظمة الفيزيائية.
04:29
Actuallyفعلا, this is a little bitقليلا more
than an assumptionافتراض.
90
257320
2615
في الواقع، هذا أكثر بقليل من مجرد افتراض.
04:31
We have alreadyسابقا builtمبني
narrowضيق intelligenceالمخابرات into our machinesآلات,
91
259959
3457
نحن قمنا مسبقاً ببناء ذكاء محدود
في آلياتنا،
04:35
and manyكثير of these machinesآلات performنفذ
92
263440
2016
والعديد من هذه الآليات تقوم بالأداء
04:37
at a levelمستوى of superhumanجبار
intelligenceالمخابرات alreadyسابقا.
93
265480
2640
في مستوى الذكاء البشري الخارق أصلاً.
04:40
And we know that mereمجرد matterشيء
94
268840
2576
ونعلم أن المادة المجردة
04:43
can give riseترتفع to what is calledمسمي
"generalجنرال لواء intelligenceالمخابرات,"
95
271440
2616
بإمكانها أن تعطي زيادة لما يدعى
"بالذكاء العام"،
04:46
an abilityالقدرة to think flexiblyبمرونة
acrossعبر multipleمضاعف domainsالمجالات,
96
274080
3656
القدرة على التفكير بمرونة في عدة مجالات،
04:49
because our brainsعقل have managedتمكن it. Right?
97
277760
3136
لأن دماغنا قام بتدبر الأمر. صحيح؟
04:52
I mean, there's just atomsذرات in here,
98
280920
3936
أنا أعني، هناك ذرات فقط هنا،
04:56
and as long as we continueاستمر
to buildبناء systemsأنظمة of atomsذرات
99
284880
4496
وطالما نستمر ببناء أنظمة من الذرات
05:01
that displayعرض more and more
intelligentذكي behaviorسلوك,
100
289400
2696
والتي تُبدي سلوكاً متزايداً أكثر
وأكثر من الذكاء
05:04
we will eventuallyفي النهاية,
unlessما لم we are interruptedمتقطع,
101
292120
2536
فإننا في النهاية، إلا إذا تمَّت مقاطعتنا،
05:06
we will eventuallyفي النهاية
buildبناء generalجنرال لواء intelligenceالمخابرات
102
294680
3376
في النهاية سوف نبني ذكاءً عاماً
05:10
into our machinesآلات.
103
298080
1296
في آلياتنا.
05:11
It's crucialمهم to realizeأدرك
that the rateمعدل of progressتقدم doesn't matterشيء,
104
299400
3656
من المصيري أن ندرك أن معدل التطور لا يهم،
05:15
because any progressتقدم
is enoughكافية to get us into the endالنهاية zoneمنطقة.
105
303080
3176
لأن أي تطور هو كافٍ لإيصالنا إلى
منطقة النهاية.
05:18
We don't need Moore'sمور lawالقانون to continueاستمر.
We don't need exponentialالأسي progressتقدم.
106
306280
3776
لا نحتاج قانون Moore للاستمرار.
لا نحتاج التطور الأسي.
05:22
We just need to keep going.
107
310080
1600
نحتاج فقط لأن نستمر بالمضي قدماً
05:25
The secondثانيا assumptionافتراض
is that we will keep going.
108
313480
2920
الافتراض الثاني هو أننا سنستمر
بالمضي قدماً.
05:29
We will continueاستمر to improveتحسن
our intelligentذكي machinesآلات.
109
317000
2760
سنستمر بتحسين آلياتنا الذكية.
05:33
And givenمعطى the valueالقيمة of intelligenceالمخابرات --
110
321000
4376
وبافتراض أهمية الذكاء --
05:37
I mean, intelligenceالمخابرات is eitherإما
the sourceمصدر of everything we valueالقيمة
111
325400
3536
أنا أعني، أن الذكاء هو إما مصدر
لكل شيءٍ نقدِّره
05:40
or we need it to safeguardحماية
everything we valueالقيمة.
112
328960
2776
أو أننا نحتاجه لحماية كل شيءٍ نقدُّره.
05:43
It is our mostعظم valuableذو قيمة resourceمورد.
113
331760
2256
إنه المنبع الأكثر أهمية لدينا.
05:46
So we want to do this.
114
334040
1536
لذلك نحتاج لفعل التالي.
05:47
We have problemsمشاكل
that we desperatelyفاقد الامل need to solveحل.
115
335600
3336
لدينا مشاكل نحن بحاجة ماسِّة لحلها.
05:50
We want to cureشفاء diseasesالأمراض
like Alzheimer'sمرض الزهايمر and cancerسرطان.
116
338960
3200
نريد شفاء الأمراض كالزهايمر والسرطان.
05:54
We want to understandتفهم economicاقتصادي systemsأنظمة.
We want to improveتحسن our climateمناخ scienceعلم.
117
342960
3936
نريد أن نفهم الأنظمة الاقتصادية.
نريد تحسين علم المناخ الخاص بنا.
05:58
So we will do this, if we can.
118
346920
2256
لذلك سنفعل ذلك، إذا استطعنا.
06:01
The trainقطار is alreadyسابقا out of the stationمحطة,
and there's no brakeفرامل to pullسحب. شد.
119
349200
3286
القطار غادر المحطة بالفعل، ولا
يوجد مكابح لشدها.
06:05
Finallyأخيرا, we don't standيفهم
on a peakقمة of intelligenceالمخابرات,
120
353880
5456
وأخيراً، نحن لا نقف عند قمة الذكاء،
06:11
or anywhereفي أى مكان nearقريب it, likelyالمحتمل أن.
121
359360
1800
أو في أي مكان قريب منها، على ما يبدو،
06:13
And this really is the crucialمهم insightتبصر.
122
361640
1896
وهذا حقاً هو البصيرة المصيرية.
06:15
This is what makesيصنع
our situationموقف so precariousخطورة,
123
363560
2416
هذا ما يجعل موقفنا متزعزعاً للغاية،
06:18
and this is what makesيصنع our intuitionsالحدس
about riskخطر so unreliableغير جدير بالثقة.
124
366000
4040
وهذا ما يجعل حدسنا بما يخص
الخطورة لا يُعتمد عليه أبداً.
06:23
Now, just considerيعتبر the smartestأذكى personشخص
who has ever livedيسكن.
125
371120
2720
والآن، فكروا فقط بأذكى شخص
عاش في أي وقتٍ مضى.
06:26
On almostتقريبيا everyone'sالجميع shortlistقائمة مختصرة here
is Johnيوحنا vonفون Neumannنيومان.
126
374640
3416
تقريباً على قائمة الجميع القصيرة
يوجد John von Neumann.
06:30
I mean, the impressionالانطباع that vonفون Neumannنيومان
madeمصنوع on the people around him,
127
378080
3336
أعني، الانطباع الذي تركه von Neumann
على الناس المحيطين به،
06:33
and this includedشمل the greatestأعظم
mathematiciansعلماء الرياضيات and physicistsعلماء الفيزياء of his time,
128
381440
4056
وهذا يشمل أعظم علماء الرياضيات
والفيزياء في عصره،
06:37
is fairlyتماما well-documentedوثق بشكل جيد.
129
385520
1936
بالكاد تم توثيقه بشكل جيد.
06:39
If only halfنصف the storiesقصص
about him are halfنصف trueصحيح,
130
387480
3776
إذا كانت نصف القصص فقط عنه نصف صحيحة،
06:43
there's no questionسؤال
131
391280
1216
فلا يوجد شك
06:44
he's one of the smartestأذكى people
who has ever livedيسكن.
132
392520
2456
أنه أحد أذكى الأشخاص الذين عاشوا
في أي وقتٍ مضى.
06:47
So considerيعتبر the spectrumطيف of intelligenceالمخابرات.
133
395000
2520
لذلك باعتبار طيف الذكاء.
06:50
Here we have Johnيوحنا vonفون Neumannنيومان.
134
398320
1429
هنا لدينا John von Neumann.
06:53
And then we have you and me.
135
401560
1334
وهنا لدينا أنتم وأنا.
06:56
And then we have a chickenدجاج.
136
404120
1296
وثم هنا لدينا دجاجة.
06:57
(Laughterضحك)
137
405440
1936
(ضحك)
06:59
Sorry, a chickenدجاج.
138
407400
1216
آسف، دجاجة.
07:00
(Laughterضحك)
139
408640
1256
(ضحك)
07:01
There's no reasonالسبب for me to make this talk
more depressingمحزن than it needsالاحتياجات to be.
140
409920
3736
لا يوجد سبب يجعلني أجعل هذه المحادثة أكثر
إحباطاً مما يحتاجه الأمر.
07:05
(Laughterضحك)
141
413680
1600
(ضحك)
07:08
It seemsيبدو overwhelminglyبأغلبية ساحقة likelyالمحتمل أن, howeverومع ذلك,
that the spectrumطيف of intelligenceالمخابرات
142
416339
3477
يبدو أنه ساحق على الأرجح، ومع ذلك، يمتد
طيف الذكاء
07:11
extendsيمتد much furtherبالإضافة إلى ذلك
than we currentlyحاليا conceiveتحديد,
143
419840
3120
أبعد بكثير مما نتصور حالياً،
07:15
and if we buildبناء machinesآلات
that are more intelligentذكي than we are,
144
423880
3216
وإذا قمنا ببناء آلات أذكى مما نحن عليه،
07:19
they will very likelyالمحتمل أن
exploreإستكشاف this spectrumطيف
145
427120
2296
فهي على الأرجح ستستكشف الطيف
07:21
in waysطرق that we can't imagineتخيل,
146
429440
1856
بطرقٍ لا نستطيع تخيلها،
07:23
and exceedيتجاوز us in waysطرق
that we can't imagineتخيل.
147
431320
2520
وسف تتعدانا بطرقٍ لا يمكننا تخيلها.
07:27
And it's importantمهم to recognizeتعرف that
this is trueصحيح by virtueاستنادا of speedسرعة aloneوحده.
148
435000
4336
ومن المهم أن ندرك أن هذا صحيح بخصوص
تأثير السرعة وحدها.
07:31
Right? So imagineتخيل if we just builtمبني
a superintelligentsuperintelligent AIAI
149
439360
5056
صحيح؟ إذاً تخيلوا إذا بنينا ذكاءً صنعياً
خارق الذكاء
07:36
that was no smarterأكثر ذكاء
than your averageمعدل teamالفريق of researchersالباحثين
150
444440
3456
ولم يكن أذكى من فريق الباحثين العادي
الخاص بكم
07:39
at Stanfordستانفورد or MITMIT.
151
447920
2296
في ستانفورد أو معهد ماساتشوستس
للتكنولوجيا.
07:42
Well, electronicإلكتروني circuitsالدوائر
functionوظيفة about a millionمليون timesمرات fasterبسرعة
152
450240
2976
حسناً، الدارات الالكترونية تعمل بشكل أسرع
بحوالي ملايين المرات
07:45
than biochemicalالبيوكيميائية onesمنها,
153
453240
1256
من تلك الكيميائية الحيوية،
07:46
so this machineآلة should think
about a millionمليون timesمرات fasterبسرعة
154
454520
3136
لذا هذه الآلة يجب أن تفكر أسرع بملايين
المرات
07:49
than the mindsالعقول that builtمبني it.
155
457680
1816
من العقول التي قامت ببنائها.
07:51
So you setجلس it runningجري for a weekأسبوع,
156
459520
1656
لذا إذا تركتها تعمل لمدة أسبوع،
07:53
and it will performنفذ 20,000 yearsسنوات
of human-levelعلى المستوى البشري intellectualذهني work,
157
461200
4560
فسوف تؤدي ما يعادل 20,000 سنة من
العمل بمستوى الذكاء البشري،
07:58
weekأسبوع after weekأسبوع after weekأسبوع.
158
466400
1960
أسبوع بعد أسبوع بعد أسبوع.
08:01
How could we even understandتفهم,
much lessأقل constrainتجبر,
159
469640
3096
كيف بإمكاننا حتى أن نفهم،
أو حتى أن نُقيّد،
08:04
a mindعقل makingصناعة this sortفرز of progressتقدم?
160
472760
2280
عقلاً يصنع هذا النوع من التطور؟
08:08
The other thing that's worryingمقلق, franklyبصراحة,
161
476840
2136
والأمر الآخر المقلق، بصراحة،
08:11
is that, imagineتخيل the bestالأفضل caseقضية scenarioسيناريو.
162
479000
4976
هو أن، تخيل أفضل سيناريو.
08:16
So imagineتخيل we hitنجاح uponبناء على a designالتصميم
of superintelligentsuperintelligent AIAI
163
484000
4176
إذاً تخيلوا أننا اكتشفنا تصميماً للذكاء
الصنعي فائق الذكاء
08:20
that has no safetyسلامة concernsاهتمامات.
164
488200
1376
وليس لديه مخاوف سلامة.
08:21
We have the perfectفي احسن الاحوال designالتصميم
the first time around.
165
489600
3256
لدينا التصميم المثالي للمرة الأولى.
08:24
It's as thoughاعتقد we'veقمنا been handedالوفاض an oracleوحي
166
492880
2216
وكأنه تم تسليمنا نبوءة
08:27
that behavesيسلك exactlyبالضبط as intendedمعد.
167
495120
2016
تتصرَّف تماماً كما ينبغي عليها.
08:29
Well, this machineآلة would be
the perfectفي احسن الاحوال labor-savingتوفير العمل deviceجهاز.
168
497160
3720
هذه الآلة ستكون المثلى لتوفير العمالة.
08:33
It can designالتصميم the machineآلة
that can buildبناء the machineآلة
169
501680
2429
بإمكانها تصميم آلية ستقوم ببناء الآلة
08:36
that can do any physicalجسدي - بدني work,
170
504133
1763
التي بإمكانها القيام بأي عمل فيزيائي،
08:37
poweredتعمل بالطاقة by sunlightضوء الشمس,
171
505920
1456
تعمل بضوء الشمس،
08:39
more or lessأقل for the costكلفة
of rawالخام materialsالمواد.
172
507400
2696
ومهما يكن من أجل كلفة المواد الخام.
08:42
So we're talkingالحديث about
the endالنهاية of humanبشري drudgeryكدح.
173
510120
3256
إذاً نحن نتكلم عن نهاية الكدح البشري.
08:45
We're alsoأيضا talkingالحديث about the endالنهاية
of mostعظم intellectualذهني work.
174
513400
2800
نحن أيضا نتكلم عن نهاية العمل الذكائي.
08:49
So what would apesالقرود like ourselvesأنفسنا
do in this circumstanceظرف?
175
517200
3056
فماذا قد تفعل القرود أمثالنا في هذا الظرف؟
08:52
Well, we'dكنا be freeحر to playلعب Frisbeeالطبق الطائر
and give eachكل other massagesالتدليك.
176
520280
4080
حسناً، سنكون متفرغين للعب بالصحن الطائر
وتبادل الرسائل مع بعضنا.
08:57
Addإضافة some LSDLSD and some
questionableمشكوك فيه wardrobeخزانة الثياب choicesاختيارات,
177
525840
2856
أضف بعض الـLSD
مع اختيارات اللباس المشكوك بأمرها،
09:00
and the wholeكامل worldالعالمية
could be like Burningاحتراق Man.
178
528720
2176
وبإمكان العالم كله أن يصبح
كفيلم Burning Man.
09:02
(Laughterضحك)
179
530920
1640
(ضحك)
09:06
Now, that mightربما soundصوت prettyجميلة good,
180
534320
2000
حسناً، هذا قد يبدو جيداً جداً،
09:09
but askيطلب yourselfنفسك what would happenيحدث
181
537280
2376
ولكن اسألوا أنفسكم ماذا قد يسبب هذا
09:11
underتحت our currentتيار economicاقتصادي
and politicalسياسي orderطلب?
182
539680
2736
لاقتصادنا الحالي ووضعنا السياسي؟
09:14
It seemsيبدو likelyالمحتمل أن that we would witnessالشاهد
183
542440
2416
يبدو أننا سنشهد على الأرجح
09:16
a levelمستوى of wealthثروة inequalityعدم المساواة
and unemploymentبطالة
184
544880
4136
مستوى من تفاوت الثروات والبطالة
09:21
that we have never seenرأيت before.
185
549040
1496
الذي لم نشهده أبداً من قبل
09:22
Absentغائب a willingnessاستعداد
to immediatelyفورا put this newالجديد wealthثروة
186
550560
2616
غياب الرغبة لوضع هذه الثروة الجديدة فوراً
09:25
to the serviceالخدمات of all humanityإنسانية,
187
553200
1480
في خدمة جميع البشرية،
09:27
a fewقليل trillionairestrillionaires could graceنعمة او وقت سماح
the coversأغلفة of our businessاعمال magazinesالمجلات
188
555640
3616
بعض أصحاب التريليونات سوف يُشرِّفون
أغلفة مجلات أعمالنا
09:31
while the restراحة of the worldالعالمية
would be freeحر to starveجاع.
189
559280
2440
بينما يكون باقي العالم متفرغاً لكي
يتضور جوعاً.
09:34
And what would the Russiansالروس
or the Chineseصينى do
190
562320
2296
وماذا سيفعل الروس أو الصينيون
09:36
if they heardسمعت that some companyشركة
in Siliconالسيليكون Valleyالوادي
191
564640
2616
إذا سمعوا أن شركةً ما في Silicon Valley
09:39
was about to deployنشر a superintelligentsuperintelligent AIAI?
192
567280
2736
كانت على وشك نشر الذكاء الا
فائق الذكاء؟
09:42
This machineآلة would be capableقادر على
of wagingشن warحرب,
193
570040
2856
هذه الآلة ستكون قادرة على شن حرب،
09:44
whetherسواء terrestrialأرضي or cyberالإلكترونية,
194
572920
2216
سواء كانت على الأرض أو على الإنترنت،
09:47
with unprecedentedغير مسبوق powerقوة.
195
575160
1680
بقوة غير مسبوقة.
09:50
This is a winner-take-allالرابح ياخذهم كلهم scenarioسيناريو.
196
578120
1856
هذا السيناريو هو الذي يربح كل شيء
09:52
To be sixستة monthsالشهور aheadالمكانية
of the competitionمنافسة here
197
580000
3136
أن تكون متقدماً بستة أشهر على
المنافسة في هذه الحالة
09:55
is to be 500,000 yearsسنوات aheadالمكانية,
198
583160
2776
تعني أن تكون متقدماً بـ500,000 سنة،
09:57
at a minimumالحد الأدنى.
199
585960
1496
بأقل حد.
09:59
So it seemsيبدو that even mereمجرد rumorsالشائعات
of this kindطيب القلب of breakthroughاختراق
200
587480
4736
وبالتالي يبدو أنه حتى الإشاعات المحضة
بما يخص النوع من الاكتشافات
10:04
could causeسبب our speciesمحيط to go berserkهائج.
201
592240
2376
يمكن أن تجعل فصائلنا تهتاج.
10:06
Now, one of the mostعظم frighteningمخيف things,
202
594640
2896
والآن، أكثر الأشياء إخافة،
10:09
in my viewرأي, at this momentلحظة,
203
597560
2776
من وجهة نظري، في هذه اللحظة،
10:12
are the kindsأنواع of things
that AIAI researchersالباحثين say
204
600360
4296
هي النوع من الأشياء التي يقولها باحثو
الذكاء الاصطناعي عندما
10:16
when they want to be reassuringمطمئنة.
205
604680
1560
يريدون أن يكونوا مُطمئِنين.
10:19
And the mostعظم commonمشترك reasonالسبب
we're told not to worryقلق is time.
206
607000
3456
والسبب الأكثر شيوعاً الذي يُقال لنا
ألا نقلق بسببه هو الوقت
10:22
This is all a long way off,
don't you know.
207
610480
2056
هذا كله سيمر، ألا تعلم.
10:24
This is probablyالمحتمل 50 or 100 yearsسنوات away.
208
612560
2440
هذا من المحتمل بعد 50 أو 100 سنة.
10:27
One researcherالباحث has said,
209
615720
1256
قال أحد الباحثين،
10:29
"Worryingمقلق about AIAI safetyسلامة
210
617000
1576
"القلق بشأن سلامة
الذكاء الاصطناعي
10:30
is like worryingمقلق
about overpopulationالاكتظاظ السكاني on Marsالمريخ."
211
618600
2280
هو كالقلق بشأن زيادة
التعداد السكاني على المريخ"
10:34
This is the Siliconالسيليكون Valleyالوادي versionالإصدار
212
622116
1620
هذه نسخة Silicon Valley
10:35
of "don't worryقلق your
prettyجميلة little headرئيس about it."
213
623760
2376
من "لا تُقلق رأسك الجميل الصغير بهذا".
10:38
(Laughterضحك)
214
626160
1336
(ضحك)
10:39
No one seemsيبدو to noticeتنويه
215
627520
1896
لا يبدو أن أحداً يلاحظ
10:41
that referencingالرجوع the time horizonالأفق
216
629440
2616
أن الإشارة للحد الزمني
10:44
is a totalمجموع nonعدم sequiturازمة.
217
632080
2576
ليس له عواقب بتاتاً.
10:46
If intelligenceالمخابرات is just a matterشيء
of informationمعلومات processingمعالجة,
218
634680
3256
إذا كان الذكاء هو مجرد مسألة معالجة
معلومات،
10:49
and we continueاستمر to improveتحسن our machinesآلات,
219
637960
2656
ونحن نستمر بتحسين آلياتنا،
10:52
we will produceإنتاج
some formشكل of superintelligenceالخارق.
220
640640
2880
فسنقوم بإنتاج شكلٍ ما من الذكاء الفائق.
10:56
And we have no ideaفكرة
how long it will take us
221
644320
3656
وليس لدينا فكرة كم سيستغرق هذا مننا
11:00
to createخلق the conditionsالظروف
to do that safelyبسلام.
222
648000
2400
لخلق الشروط للقيام بذلك بأمان.
11:04
Let me say that again.
223
652200
1296
دعوني أقل ذلك مرة أخرى.
11:05
We have no ideaفكرة how long it will take us
224
653520
3816
ليس لدينا فكرة كم سيستغرق الأمر مننا
11:09
to createخلق the conditionsالظروف
to do that safelyبسلام.
225
657360
2240
لخلق الشروط للقيام بذلك بأمان.
11:12
And if you haven'tلم noticedلاحظت,
50 yearsسنوات is not what it used to be.
226
660920
3456
وإذا لم تلاحظوا،
لم تعد الخمسون سنة كما كانت عليه.
11:16
This is 50 yearsسنوات in monthsالشهور.
227
664400
2456
هذه 50 سنة في أشهر.
11:18
This is how long we'veقمنا had the iPhoneايفون.
228
666880
1840
هذه المدة التي امتلكنا فيها الـiPhone
11:21
This is how long "The Simpsonsعائلة سمبسون"
has been on televisionالتلفاز.
229
669440
2600
هذه المدة التي انعرض فيها
The Simpsons على التلفاز
11:24
Fiftyخمسون yearsسنوات is not that much time
230
672680
2376
خمسون سنة هي ليست بالوقت الكثير
11:27
to meetيجتمع one of the greatestأعظم challengesالتحديات
our speciesمحيط will ever faceوجه.
231
675080
3160
لمواجهة أحد أكبر التحديات الذي سيواجه
لفصيلتنا.
11:31
Onceذات مرة again, we seemبدا to be failingفشل
to have an appropriateمناسب emotionalعاطفي responseاستجابة
232
679640
4016
مرة أخرى، يبدو أننا نفشل في امتلاك
الاستجابة العاطفية الملائمة
11:35
to what we have everyكل reasonالسبب
to believe is comingآت.
233
683680
2696
لما يوجد لدينا أكثر من سبب للإيمكان
بأنه قادم
11:38
The computerالحاسوب scientistامن Stuartستيوارت Russellراسيل
has a niceلطيف analogyتشابه جزئي here.
234
686400
3976
عالم الحاسوب Stuart Russell
لديه تحليل لطيف هنا.
11:42
He said, imagineتخيل that we receivedتم الاستلام
a messageرسالة from an alienكائن فضائي civilizationحضارة,
235
690400
4896
هو يقول، تخيلوا أننا استلمنا رسالة من
حضارة الفضائيين،
11:47
whichالتي readاقرأ:
236
695320
1696
والتي كانت:
11:49
"People of Earthأرض,
237
697040
1536
"سكان الأرض،
11:50
we will arriveيصل on your planetكوكب in 50 yearsسنوات.
238
698600
2360
سوف نصل إلى كوكبكم خلال 50 سنة.
11:53
Get readyجاهز."
239
701800
1576
استعدوا."
11:55
And now we're just countingعد down
the monthsالشهور untilحتى the mothershipالأم landsالأراضي?
240
703400
4256
والآن نقوم بالعد التنازلي للأشهر حتى تهبط
السفينة الأم؟
11:59
We would feel a little
more urgencyالاستعجال than we do.
241
707680
3000
سنشعر بالعجلة أكثر مما نفعل الآن بقليل.
12:04
Anotherآخر reasonالسبب we're told not to worryقلق
242
712680
1856
يُقال لنا ألا نقلق لسببٍ آخر
12:06
is that these machinesآلات
can't help but shareشارك our valuesالقيم
243
714560
3016
هو أن هذه الآليات ليس بوسعها
إلا مشاركتنا منافعها
12:09
because they will be literallyحرفيا
extensionsملحقات of ourselvesأنفسنا.
244
717600
2616
لأنها ستكون حرفياً امتداداً لأنفسنا.
12:12
They'llأنها سوف be graftedالمطعمة ontoعلى our brainsعقل,
245
720240
1816
ستكون مُطعَّمة مع أدمغتنا،
12:14
and we'llحسنا essentiallyبشكل أساسي
becomeيصبح theirهم limbicالحوفي systemsأنظمة.
246
722080
2360
ونحن سنصبح جوهرياً أنظمتها الحوفية.
12:17
Now take a momentلحظة to considerيعتبر
247
725120
1416
الآن خذوا لحظة للتفكير
12:18
that the safestأسلم
and only prudentحصيف pathمسار forwardإلى الأمام,
248
726560
3176
أن الطريق الوحيد الآمن والحكيم للأمام،
12:21
recommendedموصى به,
249
729760
1336
الذي يُنصح به،
12:23
is to implantزرع this technologyتقنية
directlyمباشرة into our brainsعقل.
250
731120
2800
هو زرع هذه التكنولوجيا مباشرةً في أدمغتنا.
12:26
Now, this mayقد in factحقيقة be the safestأسلم
and only prudentحصيف pathمسار forwardإلى الأمام,
251
734600
3376
قد يكون الطريق الوحيد
الآمن والحكيم للأمام،
12:30
but usuallyعادة one'sواحد من safetyسلامة concernsاهتمامات
about a technologyتقنية
252
738000
3056
ولكن عادةً يكون للمرء مخاوف
عن كون التكنولوجيا
12:33
have to be prettyجميلة much workedعمل out
before you stickعصا it insideفي داخل your headرئيس.
253
741080
3656
مفهومة لحدٍّ ما قبل أن تدخلها داخل رأسك.
12:36
(Laughterضحك)
254
744760
2016
(ضحك)
12:38
The deeperأعمق problemمشكلة is that
buildingبناء superintelligentsuperintelligent AIAI on its ownخاصة
255
746800
5336
المشكلة الأعمق أن بناء ذكاء اصطناعي فائق
الذكاء بمفرده
12:44
seemsيبدو likelyالمحتمل أن to be easierأسهل
256
752160
1736
يبدو على الأرجح أنه أسهل
12:45
than buildingبناء superintelligentsuperintelligent AIAI
257
753920
1856
من بناء ذكاء اصطناعي فائق
الذكاء
12:47
and havingوجود the completedمنجز neuroscienceعلم الأعصاب
258
755800
1776
وامتلاك علم الأعصاب الكامل
12:49
that allowsيسمح us to seamlesslyبسلاسة
integrateدمج our mindsالعقول with it.
259
757600
2680
الذي يسمح لنا بمكاملة عقولنا معه بسلاسة.
12:52
And givenمعطى that the companiesالشركات
and governmentsالحكومات doing this work
260
760800
3176
وبافتراض أن الشركات والحكومات
التي تقوم بهذا العمل
12:56
are likelyالمحتمل أن to perceiveتصور شعور themselvesأنفسهم
as beingيجرى in a raceسباق againstضد all othersالآخرين,
261
764000
3656
على الأرجح ستعي كونها في سباق ضد
الآخرين جميعاً،
12:59
givenمعطى that to winيفوز this raceسباق
is to winيفوز the worldالعالمية,
262
767680
3256
وبافتراض أن الفوز في هذا السباق
هو الفوز بالعالم،
13:02
providedقدمت you don't destroyهدم it
in the nextالتالى momentلحظة,
263
770960
2456
بفرض أنك لن تدمره في الشهر التالي،
13:05
then it seemsيبدو likelyالمحتمل أن
that whateverايا كان is easierأسهل to do
264
773440
2616
فبالتالي يبدو على الأرجح أنه مهما يكن
الأسهل فعله
13:08
will get doneفعله first.
265
776080
1200
سيتم الانتهاء منه أولاً.
13:10
Now, unfortunatelyلسوء الحظ,
I don't have a solutionحل to this problemمشكلة,
266
778560
2856
الآن، لسوء الحظ، لا أمتلك حلاً لهذه
المشكلة،
13:13
apartبعيدا، بمعزل، على حد from recommendingالتوصية
that more of us think about it.
267
781440
2616
بمعزل عن توصية أن يفكِّر المزيد مننا به.
13:16
I think we need something
like a Manhattanمانهاتن Projectمشروع
268
784080
2376
أظن أننا بحاجة شيء ما مثل "مشروع مانهاتن"
13:18
on the topicموضوع of artificialمصطنع intelligenceالمخابرات.
269
786480
2016
لموضوع الذكاء الاصطناعي.
13:20
Not to buildبناء it, because I think
we'llحسنا inevitablyلا محالة do that,
270
788520
2736
ليس لبنائه، لأنني أظننا سنفعل ذلك حتماً،
13:23
but to understandتفهم
how to avoidتجنب an armsأسلحة raceسباق
271
791280
3336
ولكن لفهم كيفية تجنب سباق الأذرع
13:26
and to buildبناء it in a way
that is alignedالانحياز with our interestsالإهتمامات.
272
794640
3496
ولبنائه بطريقة منحازة مع اهتماماتنا.
13:30
When you're talkingالحديث
about superintelligentsuperintelligent AIAI
273
798160
2136
عندما تتحدث عن ذكاء اصطناعي فائق
الذكاء
13:32
that can make changesالتغييرات to itselfبحد ذاتها,
274
800320
2256
يمكنه إحداث تغيير لنفسه،
13:34
it seemsيبدو that we only have one chanceفرصة
to get the initialمبدئي conditionsالظروف right,
275
802600
4616
يبدو أن لدينا فرصة واحدة للقيام بالشروط
الابتدائية بشكل صحيح،
13:39
and even then we will need to absorbتمتص
276
807240
2056
وحتى حينها سنكون بحاجة امتصاص
13:41
the economicاقتصادي and politicalسياسي
consequencesالآثار of gettingالحصول على them right.
277
809320
3040
العواقب الاقتصادية والسياسية من القيام
بها بشكل صحيح.
13:45
But the momentلحظة we admitيعترف
278
813760
2056
ولكن في اللحظة التي نعترف فيها
13:47
that informationمعلومات processingمعالجة
is the sourceمصدر of intelligenceالمخابرات,
279
815840
4000
أن معالجة المعلومات هي مصدر الذكاء،
13:52
that some appropriateمناسب computationalالحسابية systemالنظام
is what the basisأساس of intelligenceالمخابرات is,
280
820720
4800
وأن بعض أنظمة الحاسوب الملائمة
تُعبِّر عن أساس الذكاء،
13:58
and we admitيعترف that we will improveتحسن
these systemsأنظمة continuouslyبشكل متواصل,
281
826360
3760
ونعترف أننا سوف نحسِّن هذه الأنظمة
باستمرار،
14:03
and we admitيعترف that the horizonالأفق
of cognitionمعرفة very likelyالمحتمل أن farبعيدا exceedsيتجاوز
282
831280
4456
ونعترف أن أفق الإدراك على الأرجح يتجاوز
14:07
what we currentlyحاليا know,
283
835760
1200
الذي نعرفه حالياً بكثير،
14:10
then we have to admitيعترف
284
838120
1216
وبالتالي علينا الاعتراف
14:11
that we are in the processمعالج
of buildingبناء some sortفرز of god.
285
839360
2640
أننا في مرحلة بناء نوع ما من الآلهة.
14:15
Now would be a good time
286
843400
1576
الآن سيكون وقتاً جيداً
14:17
to make sure it's a god we can liveحي with.
287
845000
1953
للتأكد من أنه إله نستطيع العيش معه.
14:20
Thank you very much.
288
848120
1536
شكراً جزيلاً لكم.
14:21
(Applauseتصفيق)
289
849680
5093
(تصفيق)
Translated by Hani Eldalees
Reviewed by Hussain Al-Abdali

▲Back to top

ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com