ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com
TEDSummit

Sam Harris: Can we build AI without losing control over it?

سام هریس: آیا امکان ساخت نظارت شده ماشینهای ابرهوشمند را داریم؟

Filmed:
5,024,015 views

از ماشینهای ابر هوشمند می‌ترسید؟ باید بترسید،‌این را سام هریس فیلسوف و عصب شناس می‌گوید-- و آنهم نه به طریق نظریه‌ای. هریس می‌گوید، ما قرار است ماشینهای فوق بشری بسازیم، در حالیکه هنوز درک بجایی از مشکلاتی نداریم که با خلق این چیز به بار خواهد آمد و احتمالا به همان شکلی که ما مورچه‌ها را تهدید می‌کنیم ، ما را تهدید خواهد کرد.
- Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live. Full bio

Double-click the English transcript below to play the video.

00:13
I'm going to talk
about a failureشکست of intuitionبینش
0
1000
2216
میخواهم درباره فقدانِ بصیرتی صحبت کنم
00:15
that manyبسیاری of us sufferرنج بردن from.
1
3240
1600
که بسیاری از ما از آن زیان می‌بینیم.
00:17
It's really a failureشکست
to detectتشخیص a certainمسلم - قطعی kindنوع of dangerخطر.
2
5480
3040
این، در واقع ناکامی در
پیدا کردنِ نوع خاصی ازخطر است.
00:21
I'm going to describeتوصیف کردن a scenarioسناریو
3
9360
1736
میخواهم سناریویی را شرح دهم
00:23
that I think is bothهر دو terrifyingوحشتناک
4
11120
3256
که فکر می‌کنم هم ترسناک است
00:26
and likelyاحتمال دارد to occurبه وقوع پیوستن,
5
14400
1760
و هم وقوع آن محتمل،
00:28
and that's not a good combinationترکیبی,
6
16840
1656
و آنطوری که معلوم می‌شود ترکیب
00:30
as it turnsچرخش out.
7
18520
1536
خوبی نیست.
00:32
And yetهنوز ratherنسبتا than be scaredترسیده,
mostاکثر of you will feel
8
20080
2456
و بجای این که وحشت کنید،
اغلب شما احساس خواهید کرد
00:34
that what I'm talkingصحبت کردن about
is kindنوع of coolسرد.
9
22560
2080
که موضوع مورد صحبت
یکجورهایی باحال است.
00:37
I'm going to describeتوصیف کردن
how the gainsدستاوردها we make
10
25200
2976
می‌خواهم شرح دهم که چطور یافته‌های ما
00:40
in artificialمصنوعی intelligenceهوش
11
28200
1776
در هوش مصنوعی می‌تواند
00:42
could ultimatelyدر نهایت destroyاز بین رفتن us.
12
30000
1776
درنهایت به نابودی ما بیانجامد.
00:43
And in factواقعیت, I think it's very difficultدشوار
to see how they won'tنخواهد بود destroyاز بین رفتن us
13
31800
3456
و در واقع، فکر می‌کنم خیلی سخت است
که ببینیم چطور نابودمان نخواهند کرد
00:47
or inspireالهام بخشیدن us to destroyاز بین رفتن ourselvesخودمان.
14
35280
1680
یا ما را به نابود کردن خودمان سوق ندهند.
00:49
And yetهنوز if you're anything like me,
15
37400
1856
و در عین حال اگر مثل من باشید
00:51
you'llشما خواهید بود find that it's funسرگرم کننده
to think about these things.
16
39280
2656
خواهید دید فکر کردن
به این چیزها جالب است.
00:53
And that responseواکنش is partبخشی of the problemمسئله.
17
41960
3376
و آن واکنش بخشی از مشکل است.
00:57
OK? That responseواکنش should worryنگرانی you.
18
45360
1720
درسته؟ آن واکنش باید نگرانتان کند.
00:59
And if I were to convinceمتقاعد کردن you in this talk
19
47920
2656
و اگر قرار بود در این سخنرانی متقاعدتان کنم
01:02
that we were likelyاحتمال دارد
to sufferرنج بردن a globalجهانی است famineقحطی,
20
50600
3416
که احتمالا از یک قحطی جهانی بخاطر
01:06
eitherیا because of climateآب و هوا changeتغییر دادن
or some other catastropheفاجعه,
21
54040
3056
تغییرات جوی یا هر فاجعه دیگری رنج ببریم
01:09
and that your grandchildrenنوه ها,
or theirخودشان grandchildrenنوه ها,
22
57120
3416
و این که نوه‌های ما یا نوه‌های آنها
01:12
are very likelyاحتمال دارد to liveزنده like this,
23
60560
1800
هم احتمال زندگی این
شکلی را دشته باشند،
01:15
you wouldn'tنمی خواهم think,
24
63200
1200
با خودتان فکر نمی‌کردید،
01:17
"Interestingجالب هست.
25
65440
1336
«جالبه.
01:18
I like this TEDTED Talk."
26
66800
1200
از این سخنرانی TED
خوشم می‌آید.»
01:21
Famineقحطی isn't funسرگرم کننده.
27
69200
1520
قحطی جالب نیست.
01:23
Deathمرگ by scienceعلوم پایه fictionداستان,
on the other handدست, is funسرگرم کننده,
28
71800
3376
از سوی دیگر مرگ ناشی از
ژانر علمی تخیلی جالب است،
01:27
and one of the things that worriesنگرانی ها me mostاکثر
about the developmentتوسعه of AIAI at this pointنقطه
29
75200
3976
و یکی از چیزهایی که بیش از همه نسبت به
توسعه هوش صنوعی در این مرحله نگرانم می‌کند
01:31
is that we seemبه نظر می رسد unableناتوان to marshalمارشال
an appropriateمناسب emotionalعاطفی responseواکنش
30
79200
4096
این است که به نظر می‌رسد ما قادر به ایجاد
واکنش عاطفی مناسبی
01:35
to the dangersخطرات that lieدروغ aheadدر پیش.
31
83320
1816
به خطرات در پیشِ روی خود نبوده‌ایم.
01:37
I am unableناتوان to marshalمارشال this responseواکنش,
and I'm givingدادن this talk.
32
85160
3200
حتی من که این سخنرانی را انجام می‌دهم،
قادر نیستم این واکنش را ایجاد کنم.
01:42
It's as thoughگرچه we standایستادن before two doorsدرب ها.
33
90120
2696
مثل ایستادن در برابر دو در میماند.
01:44
Behindپشت doorدرب numberعدد one,
34
92840
1256
پشت درب شماره یک
01:46
we stop makingساخت progressپیش رفتن
in buildingساختمان intelligentباهوش - هوشمند machinesماشین آلات.
35
94120
3296
ما دست از پیشرفت در ساخت
ماشینهای هوشمند می‌کشیم.
01:49
Our computerکامپیوتر hardwareسخت افزار and softwareنرم افزار
just stopsمتوقف می شود gettingگرفتن better for some reasonدلیل.
36
97440
4016
سخت افزار و نرم افزار کامپیوترمان
به دلیلی دست از بهتر شدن بر می‌دارد.
01:53
Now take a momentلحظه
to considerدر نظر گرفتن why this mightممکن happenبه وقوع پیوستن.
37
101480
3000
چند لحظه در مورد چرایی این اتفاق تامل کنید.
01:57
I mean, givenداده شده how valuableبا ارزش
intelligenceهوش and automationاتوماسیون are,
38
105080
3656
منظورم این است که با فرض به دانستن این که
هوش و ماشینی شدن چقدر با ارزشند،
02:00
we will continueادامه دهید to improveبهتر کردن our technologyتکنولوژی
if we are at all ableتوانایی to.
39
108760
3520
ما به بهبود فناوری خود ادمه خواهیم داد اگر
امکانش باشد.
02:05
What could stop us from doing this?
40
113200
1667
چه چیزی قادر است سد راهمان شود؟
02:07
A full-scaleمقیاس کامل nuclearاتمی warجنگ?
41
115800
1800
یک جنگ هسته‌ای تمام عیار؟
02:11
A globalجهانی است pandemicپاندمی?
42
119000
1560
یک بیماری فراگیر جهانی؟
02:14
An asteroidسیارک impactتأثیر?
43
122320
1320
اصابت یک اخترواره؟
02:17
Justinجاستین Bieberبیبر becomingتبدیل شدن به
presidentرئيس جمهور of the Unitedیونایتد Statesایالت ها?
44
125640
2576
جاستین بیبر رییس جمهور آمریکا شود؟
02:20
(Laughterخنده)
45
128240
2280
(خنده)
02:24
The pointنقطه is, something would have to
destroyاز بین رفتن civilizationتمدن as we know it.
46
132760
3920
نکته این است که باید چیزی باشد که
تمدن را نابود کند.
02:29
You have to imagineتصور کن
how badبد it would have to be
47
137360
4296
باید تصور کنید چقدر بد باید باشد
02:33
to preventجلوگیری کردن us from makingساخت
improvementsپیشرفت ها in our technologyتکنولوژی
48
141680
3336
تا برای همیشه مانع ما در انجام اصلاحات
در این فناوری
02:37
permanentlyدائمی,
49
145040
1216
گردد،
02:38
generationنسل after generationنسل.
50
146280
2016
در همه نسلها.
02:40
Almostتقریبا by definitionتعریف,
this is the worstبدترین thing
51
148320
2136
تقریبا طبق تعریف
این بدترین چیزی است
02:42
that's ever happenedاتفاق افتاد in humanانسان historyتاریخ.
52
150480
2016
که تابحال در تاریخ بشر اتفاق افتاده.
02:44
So the only alternativeجایگزین,
53
152520
1296
بنابراین تنها جایگزین
02:45
and this is what liesدروغ
behindپشت doorدرب numberعدد two,
54
153840
2336
که خب پشت درب شماره دو خوابیده
02:48
is that we continueادامه دهید
to improveبهتر کردن our intelligentباهوش - هوشمند machinesماشین آلات
55
156200
3136
این است که به بهسازی ماشینهای
هوشمند هر سالی که بگذرد
02:51
yearسال after yearسال after yearسال.
56
159360
1600
ادامه دهیم.
02:53
At a certainمسلم - قطعی pointنقطه, we will buildساختن
machinesماشین آلات that are smarterهوشمندانه than we are,
57
161720
3640
در یک نقطه خاص، ماشینهایی را خواهیم است
که از ما باهوش‌تر هستند،
02:58
and onceیک بار we have machinesماشین آلات
that are smarterهوشمندانه than we are,
58
166080
2616
و وقتی ماشینهایی بسازیم
که از ما باهوش‌تر باشند،
03:00
they will beginشروع to improveبهتر کردن themselvesخودشان.
59
168720
1976
آنها شروع به اصلاح خود می کنند.
03:02
And then we riskخطر what
the mathematicianریاضیدان IJIJ Good calledبه نام
60
170720
2736
و بعد خطر چیزی را خواهیم داشت
که ای جی گود ریاضیدان
03:05
an "intelligenceهوش explosionانفجار,"
61
173480
1776
«انفجار هوش» نامید،
03:07
that the processروند could get away from us.
62
175280
2000
این که این پروسه از کنترل ما خارج شود.
03:10
Now, this is oftenغالبا caricaturedکاریکاتور,
as I have here,
63
178120
2816
این مساله بیشتر به شکلی که
من اینجا نشان می‌دهم
03:12
as a fearترس that armiesارتش of maliciousمخرب robotsروبات ها
64
180960
3216
مثل ترس از این که ارتش‌هایی
از رباتهای بدطینت
03:16
will attackحمله us.
65
184200
1256
به ما حمله کنند، ترسیم شده.
03:17
But that isn't the mostاکثر likelyاحتمال دارد scenarioسناریو.
66
185480
2696
اما این، سناریوی چندان محتملی نیست.
03:20
It's not that our machinesماشین آلات
will becomeتبدیل شدن به spontaneouslyبه خودی خود malevolentخشونت آمیز.
67
188200
4856
اینطور نیست که ماشینهای ساخت دست ما به یکباره هیولا شوند.
03:25
The concernنگرانی is really
that we will buildساختن machinesماشین آلات
68
193080
2616
نگرانی اینجاست که ماشین‌هایی خواهیم ساخت
03:27
that are so much
more competentصالح than we are
69
195720
2056
که بسیار توانمندتر از ما هستند
03:29
that the slightestکوچکترین divergenceواگرایی
betweenبین theirخودشان goalsاهداف and our ownخودت
70
197800
3776
جوریکه کمترین انحراف در بین
اهداف ما و آنها
03:33
could destroyاز بین رفتن us.
71
201600
1200
می تواند ما را نابود کند.
03:35
Just think about how we relateمربوط بودن to antsمورچه ها.
72
203960
2080
فقط به نحوه ارتباط ما با مورچه‌ فکر کنید.
03:38
We don't hateنفرت them.
73
206600
1656
از آنها متنفر نیستیم.
03:40
We don't go out of our way to harmصدمه them.
74
208280
2056
راه مان را برای کشتنشان کج نمی‌کنیم.
03:42
In factواقعیت, sometimesگاه گاهی
we take painsدرد not to harmصدمه them.
75
210360
2376
در واقع،‌ گاهی برای آسیب نرساندن
به آنها خود را به زحمت می‌اندازیم.
03:44
We stepگام over them on the sidewalkپیاده رو.
76
212760
2016
در پیاده رو از رویشان می‌پریم.
03:46
But wheneverهر زمان که theirخودشان presenceحضور
77
214800
2136
اما هر وقت در جایی حضورشان
03:48
seriouslyبه طور جدی conflictsدرگیری ها with one of our goalsاهداف,
78
216960
2496
بطور جدی با یکی از اهداف
ما منافعات داشته باشد،
03:51
let's say when constructingساختن
a buildingساختمان like this one,
79
219480
2477
برای مثال وقتی ساختمانی مثل این را بسازیم،
03:53
we annihilateنابود کردن them withoutبدون a qualmکرم.
80
221981
1960
آنها را بی‌درنگ قلع و قمع می‌کنیم.
03:56
The concernنگرانی is that we will
one day buildساختن machinesماشین آلات
81
224480
2936
نگرانی این است که یک روز
ماشین‌هایی را خواهیم ساخت
03:59
that, whetherچه they're consciousآگاهانه or not,
82
227440
2736
که چه آگاه باشند یا نباشند
04:02
could treatدرمان شود us with similarمشابه disregardبی توجهی.
83
230200
2000
می‌توانند این چنین بی‌ملاحظه
با ما رفتار کنند.
04:05
Now, I suspectمشکوک this seemsبه نظر می رسد
far-fetchedفراموش شده to manyبسیاری of you.
84
233760
2760
البته خیلی از شما آن را خطری
در دراز مدت می‌ببینید.
04:09
I betشرط there are those of you who doubtشک
that superintelligentفوق العاده هوشمند AIAI is possibleامکان پذیر است,
85
237360
6336
شرط می‌بندم کسانی در بین شما هستند
که به احتمال این ماشین ابرهوشمند شک داشته
04:15
much lessکمتر inevitableاجتناب ناپذیر.
86
243720
1656
و آن را کمابیش بعید می‌دانند.
04:17
But then you mustباید find something wrongاشتباه
with one of the followingذیل assumptionsمفروضات.
87
245400
3620
اما بعد باید به غلط بودن
یکی از فرضیه‌های زیر برسید.
04:21
And there are only threeسه of them.
88
249044
1572
و آنها سه تا بیشتر نیستند.
04:23
Intelligenceهوش is a matterموضوع of informationاطلاعات
processingدر حال پردازش in physicalفیزیکی systemsسیستم های.
89
251800
4719
هوشمندی موضوع پردازش اطلاعات
در سیستمهای فیزیکی است.
04:29
Actuallyدر واقع, this is a little bitبیت more
than an assumptionفرض.
90
257320
2615
راستش کمی بیشتر از یک فرض است.
04:31
We have alreadyقبلا builtساخته شده
narrowباریک intelligenceهوش into our machinesماشین آلات,
91
259959
3457
درحال حاضر میزان اندکی از هوشمندی
را در داخل ماشینهایمان بکار بردیم،
04:35
and manyبسیاری of these machinesماشین آلات performانجام دادن
92
263440
2016
و خیلی از این ماشینها همین الان نیز
04:37
at a levelسطح of superhumanفوق العاده انسان
intelligenceهوش alreadyقبلا.
93
265480
2640
عملکردی در سطح هوش
یک انسان فوق العاده باهوش دارند.
04:40
And we know that mereصرفا matterموضوع
94
268840
2576
و می‌دانیم که خود این مسله صرفا می‌تواند
04:43
can give riseبالا آمدن to what is calledبه نام
"generalعمومی intelligenceهوش,"
95
271440
2616
منجر به پیداش به اصطلاح
« هوشمندی عمومی» شود،
04:46
an abilityتوانایی to think flexiblyانعطاف پذیری
acrossدر سراسر multipleچندگانه domainsدامنه ها,
96
274080
3656
توانایی اندیشیدنِ منعطف
در سرتاسر حوزه‌های مختلف،
04:49
because our brainsمغز have managedاداره می شود it. Right?
97
277760
3136
چون که مغزهایمان در انجامش موفق بودند،
اینطور نیست؟
04:52
I mean, there's just atomsاتم ها in here,
98
280920
3936
منظورم این است که در اینجا فقط اتم است،
04:56
and as long as we continueادامه دهید
to buildساختن systemsسیستم های of atomsاتم ها
99
284880
4496
و تا مادامی که سیستمی اتمی را می‌سازیم
05:01
that displayنمایش دادن more and more
intelligentباهوش - هوشمند behaviorرفتار,
100
289400
2696
که رفتار هوشمندانه بیشتر و بیشتری نشان می‌دهند،
05:04
we will eventuallyدر نهایت,
unlessمگر اینکه we are interruptedمنقطع,
101
292120
2536
مگر این که دچار وقفه شویم، وگرنه
05:06
we will eventuallyدر نهایت
buildساختن generalعمومی intelligenceهوش
102
294680
3376
ما نهایتا هومندیش عمومی را در ماشینهایمان
05:10
into our machinesماشین آلات.
103
298080
1296
بکار خواهیم برد.
05:11
It's crucialحیاتی to realizeتحقق بخشیدن
that the rateنرخ of progressپیش رفتن doesn't matterموضوع,
104
299400
3656
مهم است که تشخیص دهیم میزان
پیشرفت اهمیت ندارد،
05:15
because any progressپیش رفتن
is enoughکافی to get us into the endپایان zoneمنطقه.
105
303080
3176
زیرا هر پیشرفتی برای رساندن ما به
منطقه نهایی کافی است.
05:18
We don't need Moore'sمور lawقانون to continueادامه دهید.
We don't need exponentialنمایشی progressپیش رفتن.
106
306280
3776
برای ادامه نیاز به قانون مورفی نداریم.
نیاز به پیشرفت تصاعدی نداریم.
05:22
We just need to keep going.
107
310080
1600
فقط باید ادامه دهیم.
05:25
The secondدومین assumptionفرض
is that we will keep going.
108
313480
2920
فرض دوم این است که
ادامه خواهیم داد.
05:29
We will continueادامه دهید to improveبهتر کردن
our intelligentباهوش - هوشمند machinesماشین آلات.
109
317000
2760
به بهسازی ماشینهای هوشمند
خود ادامه می‌دهیم.
05:33
And givenداده شده the valueارزش of intelligenceهوش --
110
321000
4376
و با فرض ارزش هوشمندی--
05:37
I mean, intelligenceهوش is eitherیا
the sourceمنبع of everything we valueارزش
111
325400
3536
منظورم این است که خواه هوشمندی منبع
همه چیزهایی است که برایمان ارزش دارد
05:40
or we need it to safeguardحفاظت
everything we valueارزش.
112
328960
2776
یا که برای محافظت از چیزهای باارزشمان
به آن نیاز داریم.
05:43
It is our mostاکثر valuableبا ارزش resourceمنابع.
113
331760
2256
مهمترین منبع باارزش ما است.
05:46
So we want to do this.
114
334040
1536
بنابراین می‌خواهیم
این را انجام دهیم.
05:47
We have problemsمشکلات
that we desperatelyبه شدت need to solveحل.
115
335600
3336
مشکلاتی که مایوسانه نیاز به حل شان داریم.
05:50
We want to cureدرمان diseasesبیماری ها
like Alzheimer'sآلزایمر and cancerسرطان.
116
338960
3200
میخواهیم امراضی چون آلزایمر
و سرطان را درمان کنیم.
05:54
We want to understandفهمیدن economicاقتصادی systemsسیستم های.
We want to improveبهتر کردن our climateآب و هوا scienceعلوم پایه.
117
342960
3936
می‌خواهیم سیستمهای اقتصادی را بفهمیم.
می‌خواهیم دانش اقلیمی خویش را بهبود ببخشیم.
05:58
So we will do this, if we can.
118
346920
2256
پس اگر بتوانیم این کار را می‌کنیم.
06:01
The trainقطار is alreadyقبلا out of the stationایستگاه,
and there's no brakeترمز to pullکشیدن.
119
349200
3286
قطار دیگر از ایستگاه خارج شده،
و ترمزی برای کشیدن نیست.
06:05
Finallyسرانجام, we don't standایستادن
on a peakاوج of intelligenceهوش,
120
353880
5456
سرآخر این که احتمالا ما در راس هوش
یا جایی نزدیک آن
06:11
or anywhereهر جا nearنزدیک it, likelyاحتمال دارد.
121
359360
1800
نخواهیم ایستاد.
06:13
And this really is the crucialحیاتی insightبینش، بصیرت، درون بینی.
122
361640
1896
و این یک بینش واقعا ضروری است.
06:15
This is what makesباعث می شود
our situationوضعیت so precariousمضر است,
123
363560
2416
این چیزی است که شرایط
ما را پرمخاطره می‌کند،
06:18
and this is what makesباعث می شود our intuitionsشهوات
about riskخطر so unreliableغیر قابل اعتماد.
124
366000
4040
و این چیزی است که درک ما از
ریسک را شدیدا غیرقابل اتکا می‌کند.
06:23
Now, just considerدر نظر گرفتن the smartestهوشمندانه personفرد
who has ever livedزندگی می کرد.
125
371120
2720
الان باهوش‌ترین فردی که تا به امروز زیسته
را در نظر بگیرید.
06:26
On almostتقریبا everyone'sهر کس shortlistفهرست کوتاه here
is Johnجان vonفون Neumannنویمان.
126
374640
3416
اینجا تقریبا در فهرست کوتاه همه
جان فان نیومن وجود دارد.
06:30
I mean, the impressionاحساس؛ عقیده؛ گمان that vonفون Neumannنویمان
madeساخته شده on the people around him,
127
378080
3336
منظورم تاثیری است
که فان نیومن بر اطرافیانش داشته
06:33
and this includedمشمول the greatestبزرگترین
mathematiciansریاضیدانان and physicistsفیزیکدانان of his time,
128
381440
4056
و این دربرگیرنده بزرگترین ریاضیدانها
و فیزیکدانهای هم دوره‌اش می‌شود،
06:37
is fairlyمنصفانه well-documentedمستند مستند.
129
385520
1936
که نسبتا بخوبی ثبت شده است.
06:39
If only halfنیم the storiesداستان ها
about him are halfنیم trueدرست است,
130
387480
3776
اگر فقط بخشی از نیمی از داستانهای
درباره او درست باشد
06:43
there's no questionسوال
131
391280
1216
شکی نیست
06:44
he's one of the smartestهوشمندانه people
who has ever livedزندگی می کرد.
132
392520
2456
که او از باهوشترین آدمهایی است
که تابحال زیسته.
06:47
So considerدر نظر گرفتن the spectrumطیف of intelligenceهوش.
133
395000
2520
بنابراین گستره هوش را در نظر بگیرید.
06:50
Here we have Johnجان vonفون Neumannنویمان.
134
398320
1429
در اینجا جان فان نیومن را داریم.
06:53
And then we have you and me.
135
401560
1334
و بعد نیز امثال من و شما.
06:56
And then we have a chickenجوجه.
136
404120
1296
و البته مرغ را هم داریم.
06:57
(Laughterخنده)
137
405440
1936
(خنده)
06:59
Sorry, a chickenجوجه.
138
407400
1216
متاسفم، یک مرغ.
07:00
(Laughterخنده)
139
408640
1256
(خنده)
07:01
There's no reasonدلیل for me to make this talk
more depressingافسرده than it needsنیاز دارد to be.
140
409920
3736
دلیلی ندارم که این سخنرانی
را نامیدکننده‌تر از حد نیاز کنم.
07:05
(Laughterخنده)
141
413680
1600
(خنده)
07:08
It seemsبه نظر می رسد overwhelminglyبه شدت likelyاحتمال دارد, howeverبا این حال,
that the spectrumطیف of intelligenceهوش
142
416339
3477
بحد قابل توجهی همینطور است،‌هر چند
گستره هوش
07:11
extendsگسترش می یابد much furtherبیشتر
than we currentlyدر حال حاضر conceiveتصور کنید,
143
419840
3120
خیلی وسیعتر از برداشت کنونی ما است،
07:15
and if we buildساختن machinesماشین آلات
that are more intelligentباهوش - هوشمند than we are,
144
423880
3216
و اگر ماشینهایی را بسازیم
که از ما هوشمندترند،
07:19
they will very likelyاحتمال دارد
exploreکاوش کنید this spectrumطیف
145
427120
2296
آنها احتمالا این گستره را بررسی
خواهند کرد
07:21
in waysراه ها that we can't imagineتصور کن,
146
429440
1856
به ترتیبی که ما قادر به تصورش نیستیم،
07:23
and exceedتجاوز us in waysراه ها
that we can't imagineتصور کن.
147
431320
2520
و طوری از ما پیشی خواهند گرفت
که تصورش را هم نمی‌کنیم.
07:27
And it's importantمهم to recognizeتشخیص that
this is trueدرست است by virtueتقوا of speedسرعت aloneتنها.
148
435000
4336
و تشخیص این نکته مهم است که این مساله
بواسطه خصیصه سرعت معتبر است.
07:31
Right? So imagineتصور کن if we just builtساخته شده
a superintelligentفوق العاده هوشمند AIAI
149
439360
5056
درسته؟ پس ساخت یک هوش مصنوعی
ابرهوشمندی را تصور کنید
07:36
that was no smarterهوشمندانه
than your averageمیانگین teamتیم of researchersمحققان
150
444440
3456
که باهوشتر از یک
تیم معمولی تحقیقاتی شما
07:39
at Stanfordاستنفورد or MITMIT.
151
447920
2296
در استانفورد یا MIT نباشد.
07:42
Well, electronicالکترونیکی circuitsمدارها
functionعملکرد about a millionمیلیون timesبار fasterسریعتر
152
450240
2976
خب، مدارهای الکترونیکی کارکردی
حدود یک میلیون بار سریعتر
07:45
than biochemicalبیوشیمیایی onesآنهایی که,
153
453240
1256
از انواع زیست شیمی دارند
07:46
so this machineدستگاه should think
about a millionمیلیون timesبار fasterسریعتر
154
454520
3136
بنابراین این ماشین شاید یک میلیون بار
سریعتر از ذهنهایی
07:49
than the mindsذهنها that builtساخته شده it.
155
457680
1816
که آن را ساختند فکر کند.
07:51
So you setتنظیم it runningدر حال اجرا for a weekهفته,
156
459520
1656
پس یک هفته‌ای که از
راه‌اندازیش بگذرد،
07:53
and it will performانجام دادن 20,000 yearsسالها
of human-levelسطح انسانی intellectualفکری work,
157
461200
4560
هر هفته‌ای که سپری بگذرد
عملکردی برابر ۲۰٫۰۰۰ سال
07:58
weekهفته after weekهفته after weekهفته.
158
466400
1960
کار اندیشمدانه در سطح بشر خواهد داشت.
08:01
How could we even understandفهمیدن,
much lessکمتر constrainمحدود کردن,
159
469640
3096
ما چطور قادر به درک ذهنی باشیم که چنین
نوعی از پیشرفت را ایجاد می‌کند
08:04
a mindذهن makingساخت this sortمرتب سازی of progressپیش رفتن?
160
472760
2280
چه برسد به محدود کردن آن؟
08:08
The other thing that's worryingنگرانی, franklyرک و پوست کنده,
161
476840
2136
صادقانه بگویم، یک از چیزهای دیگری
که نگران کننده است،
08:11
is that, imagineتصور کن the bestبهترین caseمورد scenarioسناریو.
162
479000
4976
این است که -
بهترین سناریوی ممکن را تصور کنید.
08:16
So imagineتصور کن we hitاصابت uponبر a designطرح
of superintelligentفوق العاده هوشمند AIAI
163
484000
4176
تصور کنید به طراحی از یک هوش مصنوعی
ابرهوشمند رسیده‌ایم
08:20
that has no safetyایمنی concernsنگرانی ها.
164
488200
1376
که هیچ مشکل امنیتی ندارد.
08:21
We have the perfectکامل designطرح
the first time around.
165
489600
3256
برای اولین بار بهترین طراحی را داریم.
08:24
It's as thoughگرچه we'veما هستیم been handedدست an oracleاوراکل
166
492880
2216
مثل این میماند که ما به دانشمندی
دست پیدا کرده‌ایم
08:27
that behavesرفتار می کند exactlyدقیقا as intendedمورد نظر.
167
495120
2016
که عینا طبق خواسته رفتار می‌کند.
08:29
Well, this machineدستگاه would be
the perfectکامل labor-savingصرفه جویی در کار deviceدستگاه.
168
497160
3720
خب این ماشین می‌تواند بهترین
وسیله در صرفه‌جویی نیروی کار باشد.
08:33
It can designطرح the machineدستگاه
that can buildساختن the machineدستگاه
169
501680
2429
می‌تواند ماشینی را طراحی کند
که خود ماشینی را بسازد
08:36
that can do any physicalفیزیکی work,
170
504133
1763
که توان انجام هر کار فیزیکی را دارد،
08:37
poweredطراحی شده by sunlightنور خورشید,
171
505920
1456
با استفاده از نور خورشید،
08:39
more or lessکمتر for the costهزینه
of rawخام materialsمواد.
172
507400
2696
کمابیش بخاطر هزینه مصالح خام.
08:42
So we're talkingصحبت کردن about
the endپایان of humanانسان drudgeryخشونت.
173
510120
3256
پس درباره به پایان رسیدن
جان کندن بشر صحبت می‌کنیم.
08:45
We're alsoهمچنین talkingصحبت کردن about the endپایان
of mostاکثر intellectualفکری work.
174
513400
2800
و همچنین به پایان رسیدن اغلب کارهایی
که با عقل و خِرَد سروکار دارند.
08:49
So what would apesمرد عنکبوتی like ourselvesخودمان
do in this circumstanceچگونگی، امر، تفصیل، شرایط محیط، پیش امد، شرح?
175
517200
3056
پس در شرایط این چنینی چه
بر سر میمون‌هایی مثل ما می‌آید؟
08:52
Well, we'dما می خواهیم be freeرایگان to playبازی Frisbeeفریزبی
and give eachهر یک other massagesماساژ.
176
520280
4080
خب، ما در فریزبی بازی کردن
و ماساژ دادن یکدیگر آزاد خواهیم بود.
08:57
Addاضافه کردن some LSDLSD and some
questionableسوال برانگیز wardrobeجا رختی choicesگزینه های,
177
525840
2856
و همینطور یکسری داروهای روانگردان و
انتخابهای سوال‌برانگیز توی کمد لباس،
09:00
and the wholeکل worldجهان
could be like Burningسوزش Man.
178
528720
2176
و کل دنیا چیزی شبیه به جشنواره
مرد سوزان می‌شود.
09:02
(Laughterخنده)
179
530920
1640
(خنده)
09:06
Now, that mightممکن soundصدا prettyبسیار good,
180
534320
2000
الان شاید خوشایند به گوش برسد
09:09
but askپرسیدن yourselfخودت what would happenبه وقوع پیوستن
181
537280
2376
اما از خود سوال کنید چه اتفاقی برای
09:11
underزیر our currentجاری economicاقتصادی
and politicalسیاسی orderسفارش?
182
539680
2736
نظام سیاسی و اقتصادی کنونی ما خواهد افتاد؟
09:14
It seemsبه نظر می رسد likelyاحتمال دارد that we would witnessشاهد
183
542440
2416
محتمل است که ما شاهد سطحی از نابرابری
09:16
a levelسطح of wealthثروت inequalityنابرابری
and unemploymentبیکاری
184
544880
4136
ثروت و بیکاری باشیم
09:21
that we have never seenمشاهده گردید before.
185
549040
1496
که بی‌سابقه است.
09:22
Absentغایب a willingnessتمایل
to immediatelyبلافاصله put this newجدید wealthثروت
186
550560
2616
فقدان اراده در بکارگیری فوری این ثروت تازه
09:25
to the serviceسرویس of all humanityبشریت,
187
553200
1480
در خدمت کل بشریت.
09:27
a fewتعداد کمی trillionairesتریلیون ها could graceرحمت
the coversپوشش می دهد of our businessکسب و کار magazinesمجلات
188
555640
3616
اندک تریلیونرها قادر به عرض اندام
در روی جلد مجلات تجاری هستند
09:31
while the restباقی مانده of the worldجهان
would be freeرایگان to starveگرسنگی.
189
559280
2440
در حالیکه بقیه دنیا
از گرسنگی رنج خواهد بردد.
09:34
And what would the Russiansروس ها
or the Chineseچینی ها do
190
562320
2296
روسها یا چینی‌ها
چه کار می‌کنند
09:36
if they heardشنیدم that some companyشرکت
in Siliconسیلیکون Valleyدره
191
564640
2616
اگر بشنوند که یک کمپانی
در سیلیکون ولی
09:39
was about to deployاعزام a superintelligentفوق العاده هوشمند AIAI?
192
567280
2736
در آستانه بکارگیری هوش مصنوعی
اَبَرهوشمند است؟
09:42
This machineدستگاه would be capableقادر به
of wagingدر حال انجام warجنگ,
193
570040
2856
ماشینی که قادر به ادامه جنگ است،
09:44
whetherچه terrestrialزمینی or cyberسایبری,
194
572920
2216
خواه زمینی یا سایبری،
09:47
with unprecedentedبی سابقه powerقدرت.
195
575160
1680
با قدرتی بی‌سابقه.
09:50
This is a winner-take-allبرنده همه چیز scenarioسناریو.
196
578120
1856
این یک سناریویی‌ست که در آن
برنده همه چیز را بدست می‌آورد.
09:52
To be sixشش monthsماه ها aheadدر پیش
of the competitionرقابت here
197
580000
3136
در این رقابت شش ماه پیش بودن
09:55
is to be 500,000 yearsسالها aheadدر پیش,
198
583160
2776
یعنی حداقل ۵۰۰٫۰۰۰ سال
09:57
at a minimumکمترین.
199
585960
1496
جلوتر بودن.
09:59
So it seemsبه نظر می رسد that even mereصرفا rumorsشایعات
of this kindنوع of breakthroughدستیابی به موفقیت
200
587480
4736
پس به نظر می‌رسد که حتی شایعات بیشتر از
این پیشرفتها
10:04
could causeسبب می شود our speciesگونه ها to go berserkبرسکر.
201
592240
2376
می‌تواند منجر به از خود بیخود شدن
نوع بشر شود.
10:06
Now, one of the mostاکثر frighteningترسناک things,
202
594640
2896
الان یکی از وحشتناکترین چیزها از دیدگاه من
10:09
in my viewچشم انداز, at this momentلحظه,
203
597560
2776
در این لحظه همه آن چیزهایی هست
10:12
are the kindsانواع of things
that AIAI researchersمحققان say
204
600360
4296
که محققان هوش مصنوعی
10:16
when they want to be reassuringاطمینان بخش است.
205
604680
1560
به ما می‌گویند، وقتی که
می‌خواهند اطمینان بخش باشند.
10:19
And the mostاکثر commonمشترک reasonدلیل
we're told not to worryنگرانی is time.
206
607000
3456
و شایع‌ترین دلیلی که برای
نگران نبودن به ما می‌گویند زمان است.
10:22
This is all a long way off,
don't you know.
207
610480
2056
کلی زمان‌بر است،‌ مگر خبر ندارید.
10:24
This is probablyشاید 50 or 100 yearsسالها away.
208
612560
2440
شاید ۵۰ یا ۱۰۰ سال بعد.
10:27
One researcherپژوهشگر has said,
209
615720
1256
یک محققی می‌گفت،
10:29
"Worryingنگرانی about AIAI safetyایمنی
210
617000
1576
«نگران بودن درباره امنیت هوش مصنوعی
10:30
is like worryingنگرانی
about overpopulationازدیاد جمعیت on Marsمریخ."
211
618600
2280
مثل نگران بودن درباره
رشد بیحد جمعیت در مریخ است.»
10:34
This is the Siliconسیلیکون Valleyدره versionنسخه
212
622116
1620
در واقع آنها می‌گویند:
10:35
of "don't worryنگرانی your
prettyبسیار little headسر about it."
213
623760
2376
« فکرهای کوچک تان را در این مورد نگران نکنید.»
10:38
(Laughterخنده)
214
626160
1336
(خنده)
10:39
No one seemsبه نظر می رسد to noticeاطلاع
215
627520
1896
به نظر نمیاید کسی متوجه باشد
10:41
that referencingارجاع the time horizonافق
216
629440
2616
که ارجاع دادن به افق زمانی
10:44
is a totalجمع nonغیر sequiturدنباله دار.
217
632080
2576
کلا نامربوط است.
10:46
If intelligenceهوش is just a matterموضوع
of informationاطلاعات processingدر حال پردازش,
218
634680
3256
اگر هوش صرفا مساله پردازش اطلاعات باشد
10:49
and we continueادامه دهید to improveبهتر کردن our machinesماشین آلات,
219
637960
2656
و ما به اصلاح ماشینهای خود ادامه دهیم،
10:52
we will produceتولید کردن
some formفرم of superintelligenceسوپر هوش.
220
640640
2880
شکلی از هوش ماورایی را تولید خواهیم کرد.
10:56
And we have no ideaاندیشه
how long it will take us
221
644320
3656
و ایده‌ای نداریم که چقدر زمان می‌برد
11:00
to createايجاد كردن the conditionsشرایط
to do that safelyبدون خطر.
222
648000
2400
تا شرایط انجام این کار
را به شکل ایمن فراهم کنیم.
11:04
Let me say that again.
223
652200
1296
بگذارید باز هم بگویم.
11:05
We have no ideaاندیشه how long it will take us
224
653520
3816
ایده‌ای نداریم که چقدر زمان می‌برد
11:09
to createايجاد كردن the conditionsشرایط
to do that safelyبدون خطر.
225
657360
2240
تا شرایط انجام این کار
را به شکل ایمن فراهم کنیم.
11:12
And if you haven'tنه noticedمتوجه شدم,
50 yearsسالها is not what it used to be.
226
660920
3456
و اگر متوجه نشده باشید
۵۰ سال، دیگر مثل سابق نیست.
11:16
This is 50 yearsسالها in monthsماه ها.
227
664400
2456
این، ماه‌های تشکیل دهنده‌ی ۵۰ سال است.
11:18
This is how long we'veما هستیم had the iPhoneآی فون.
228
666880
1840
این، مدتی‌ست که ما
صاحب آیفون هستیم.
11:21
This is how long "The Simpsonsسیمپسونها"
has been on televisionتلویزیون.
229
669440
2600
در این مدت سریال
خانواده سیمپسون پخش شده.
11:24
Fiftyپنجاه yearsسالها is not that much time
230
672680
2376
پنجاه سال زمان چندان زیادی
11:27
to meetملاقات one of the greatestبزرگترین challengesچالش ها
our speciesگونه ها will ever faceصورت.
231
675080
3160
برای روبرو شدن با یکی از بزرگترین
چالشهایی که نوع بشر با آن روبروست، نیست.
11:31
Onceیک بار again, we seemبه نظر می رسد to be failingشکست خوردن
to have an appropriateمناسب emotionalعاطفی responseواکنش
232
679640
4016
یکبار دیگر به نظر میاید که ما در
داشتن جواب عاطفی مناسب نسبت به آنچه
11:35
to what we have everyهرکدام reasonدلیل
to believe is comingآینده.
233
683680
2696
که دلایل کافی برای ظهورش را داریم
ناموفق عمل کرده‌ایم.
11:38
The computerکامپیوتر scientistدانشمند Stuartاستوارت Russellراسل
has a niceخوب analogyتقلید here.
234
686400
3976
دانشمند علوم رایانه‌ استورات راسل
قیاس جالبی دارد.
11:42
He said, imagineتصور کن that we receivedاخذ شده
a messageپیام from an alienبیگانه civilizationتمدن,
235
690400
4896
او گفت، تصور کنید
پیغامی را از یک تمدن فضایی دریافت کنیم
11:47
whichکه readخواندن:
236
695320
1696
که می‌گوید،
11:49
"People of Earthزمین,
237
697040
1536
«مردم زمین،
11:50
we will arriveرسیدن on your planetسیاره in 50 yearsسالها.
238
698600
2360
ما ۵۰ سال دیگر به سیاره شما می‌رسیم.
11:53
Get readyآماده."
239
701800
1576
آماده باشید.»
11:55
And now we're just countingبا احتساب down
the monthsماه ها untilتا زمان the mothershipمادران landsزمین ها?
240
703400
4256
و اکنون ما فقط به شمارش معکوس
ماه‌ها مشغولیم تا ناوِ فضایی فرود بیاید؟
11:59
We would feel a little
more urgencyضرورت than we do.
241
707680
3000
لازم است که کمی بیشتر در این باره
احساس ضرورت کنیم.
12:04
Anotherیکی دیگر reasonدلیل we're told not to worryنگرانی
242
712680
1856
دلیل دیگری که به ما می‌گویند نگران نباشید
12:06
is that these machinesماشین آلات
can't help but shareاشتراک گذاری our valuesارزش های
243
714560
3016
این است که این ماشین‌ها راهی جز
سهیم شدن در ارزشهای ما ندارند
12:09
because they will be literallyعینا
extensionsپسوند of ourselvesخودمان.
244
717600
2616
چون که آنها به معنای واقعی کلمه،
ما را بسط می‌دهند.
12:12
They'llآنها خواهند be graftedپیوند خورده ontoبه سوی our brainsمغز,
245
720240
1816
آنها به مغزهای ما پیوند زده می‌شوند
12:14
and we'llخوب essentiallyاساسا
becomeتبدیل شدن به theirخودشان limbicلنزیک systemsسیستم های.
246
722080
2360
و ما در اصل دستگاه‌های کناره‌ای
(Limbic system) آنها خواهیم شد.
12:17
Now take a momentلحظه to considerدر نظر گرفتن
247
725120
1416
الان لحظه‌ای به این فکر کنید
12:18
that the safestامن ترین
and only prudentمحتاطانه pathمسیر forwardرو به جلو,
248
726560
3176
که ایمن‌ترین و تنها مسیر محتاط رو به جلوی
12:21
recommendedتوصیه شده,
249
729760
1336
توصیه شده
12:23
is to implantایمپلنت this technologyتکنولوژی
directlyبه طور مستقیم into our brainsمغز.
250
731120
2800
تعبیه مستقیم این فناوری در مغزهای ما باشد.
12:26
Now, this mayممکن است in factواقعیت be the safestامن ترین
and only prudentمحتاطانه pathمسیر forwardرو به جلو,
251
734600
3376
اکنون، شاید این ایمن‌ترین و
تنها مسیر محتاط رو به جلوست،
12:30
but usuallyمعمولا one'sیک نفر safetyایمنی concernsنگرانی ها
about a technologyتکنولوژی
252
738000
3056
اما معمولا دغدغه‌های ایمنی
یک نفر درباره فناوری
12:33
have to be prettyبسیار much workedکار کرد out
before you stickچوب it insideداخل your headسر.
253
741080
3656
باید حسابی مورد بررسی قرار گرفته باشد
پیش از این بخواهید که آن را تو کله‌ خود فرو کنید.
12:36
(Laughterخنده)
254
744760
2016
(خنده)
12:38
The deeperعمیق تر problemمسئله is that
buildingساختمان superintelligentفوق العاده هوشمند AIAI on its ownخودت
255
746800
5336
مشکل عمیق‌تر این است
که ساختن هوش مصنوعی ابرهوشمند مستقل
12:44
seemsبه نظر می رسد likelyاحتمال دارد to be easierآسان تر
256
752160
1736
به نظر آسانتر از ساختن
12:45
than buildingساختمان superintelligentفوق العاده هوشمند AIAI
257
753920
1856
هوش مصنوعی ابرهوشمند
12:47
and havingداشتن the completedتکمیل شده neuroscienceعلوم اعصاب
258
755800
1776
و داشتن علم عصب شناسی کاملی میاید
12:49
that allowsاجازه می دهد us to seamlesslyیکپارچه
integrateادغام کردن our mindsذهنها with it.
259
757600
2680
که به ما اجازه یکپارچه کردن بی‌درز
ذهن‌های خویش با آن را می‌دهد.
12:52
And givenداده شده that the companiesشرکت ها
and governmentsدولت ها doing this work
260
760800
3176
و با فرض این که کمپانی‌ها
و دولت‌هایی این کار را می‌کنند
12:56
are likelyاحتمال دارد to perceiveدرک themselvesخودشان
as beingبودن in a raceنژاد againstدر برابر all othersدیگران,
261
764000
3656
محتمل به پی بردن به موجودیت خود
در این مسابقه علیه دیگران هستند،
12:59
givenداده شده that to winپیروزی this raceنژاد
is to winپیروزی the worldجهان,
262
767680
3256
با این فرض که بردن این مسابقه
به معنی بردن جهان است،
13:02
providedارائه شده you don't destroyاز بین رفتن it
in the nextبعد momentلحظه,
263
770960
2456
به شرطی که در لحظه بعدی آن را نابود نکنید،
13:05
then it seemsبه نظر می رسد likelyاحتمال دارد
that whateverهر چه is easierآسان تر to do
264
773440
2616
که احتمال وقوع هر چیزی که آسانتر باشد
13:08
will get doneانجام شده first.
265
776080
1200
اول از همه می‌رود.
13:10
Now, unfortunatelyمتاسفانه,
I don't have a solutionراه حل to this problemمسئله,
266
778560
2856
شوربختانه الان راه‌حلی
برای این مشکل ندارم
13:13
apartجدا از هم from recommendingتوصیه
that more of us think about it.
267
781440
2616
بجز توصیه‌ام برای بیشتر فکردن کردن
درباره آن.
13:16
I think we need something
like a Manhattanمنهتن Projectپروژه
268
784080
2376
فکر می‌کنم بیشتر به چیزی مثل
پروژه منهتن در موضوع
13:18
on the topicموضوع of artificialمصنوعی intelligenceهوش.
269
786480
2016
هوش مصنوعی نیاز داریم.
13:20
Not to buildساختن it, because I think
we'llخوب inevitablyبه ناچار do that,
270
788520
2736
نه درباره ساختن آن، چون به نظرم
بالاخره این کار را خواهیم کرد،
13:23
but to understandفهمیدن
how to avoidاجتناب کردن an armsبازوها raceنژاد
271
791280
3336
بلکه درک نحوه اجتناب
از یک مسابقه تسلیحاتی
13:26
and to buildساختن it in a way
that is alignedهم راستا with our interestsمنافع.
272
794640
3496
و ساخت آن به نحوی که
هم راستا با منافع ما باشد.
13:30
When you're talkingصحبت کردن
about superintelligentفوق العاده هوشمند AIAI
273
798160
2136
زمانی که راجع به هوش مصنوعی
ابرهوشمند صحبت می‌کنید
13:32
that can make changesتغییرات to itselfخودش,
274
800320
2256
که قادر به انجام تغییرات در خویش است،
13:34
it seemsبه نظر می رسد that we only have one chanceشانس
to get the initialاولیه conditionsشرایط right,
275
802600
4616
به نظر میاید که ما تنها از یک شانس برای
رسیدن به شرایط آغازین صحیح برخورداریم
13:39
and even then we will need to absorbجذب
276
807240
2056
و حتی بعد لازم است به جذب
13:41
the economicاقتصادی and politicalسیاسی
consequencesعواقب of gettingگرفتن them right.
277
809320
3040
پیامدهای سیاسی و اقتصادی
درست بودن آنها بپردازیم.
13:45
But the momentلحظه we admitاقرار کردن
278
813760
2056
اما لحظه‌ای که می‌پذیریم
13:47
that informationاطلاعات processingدر حال پردازش
is the sourceمنبع of intelligenceهوش,
279
815840
4000
پردازش اطلاعات منبع هوشمندی است،
13:52
that some appropriateمناسب computationalمحاسباتی systemسیستم
is what the basisپایه of intelligenceهوش is,
280
820720
4800
که یک نظام محاسباتی مناسب
مبنای هوشمندی است،
13:58
and we admitاقرار کردن that we will improveبهتر کردن
these systemsسیستم های continuouslyبه طور مداوم,
281
826360
3760
و بپذیریم که این نظامها
را در ادامه اصلاح خواهیم کرد،
14:03
and we admitاقرار کردن that the horizonافق
of cognitionشناختن very likelyاحتمال دارد farدور exceedsفراتر از
282
831280
4456
و بپذیریم که افق فرایند یادگیری و شناخت
به احتمال زیاد فراتر
14:07
what we currentlyدر حال حاضر know,
283
835760
1200
از دانش فعلی ما می‌رود
14:10
then we have to admitاقرار کردن
284
838120
1216
در ادامه باید بپذیریم
14:11
that we are in the processروند
of buildingساختمان some sortمرتب سازی of god.
285
839360
2640
که ما در فرایند ساخت نوعی از خدا هستیم.
14:15
Now would be a good time
286
843400
1576
الان زمان خوبی است
14:17
to make sure it's a god we can liveزنده with.
287
845000
1953
مطمئن شویم خدایی است
که می‌توان با آن زندگی کرد.
14:20
Thank you very much.
288
848120
1536
از شما خیلی ممنونم.
14:21
(Applauseتشویق و تمجید)
289
849680
5093
(تشویق)
Translated by Leila Ataei
Reviewed by Bidel Akbari

▲Back to top

ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com