ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com
TEDSummit

Sam Harris: Can we build AI without losing control over it?

סאם האריס: האם נוכל לבנות בינה מלאכותית מבלי לאבד שליטה עליה?

Filmed:
5,024,015 views

מפחדים מבינה מלאכותית סופר-אינטליגנטית? כדאי לכם. כך אומר מדען המוח והפילוסוף סאם האריס – ולא רק באופן תיאורטי. אנחנו הולכים לבנות מכונות על-אנושיות, כך אומר האריס, אבל אנחנו עוד לא הבנו את הבעיות המזוהות עם יצירת משהו שעלול להתייחס אלינו באותו אופן בו אנחנו מתייחסים לנמלים.
- Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live. Full bio

Double-click the English transcript below to play the video.

00:13
I'm going to talk
about a failureכישלון of intuitionאינטואיציה
0
1000
2216
אני אדבר על כשל באינטואיציה
00:15
that manyרב of us sufferסובל from.
1
3240
1600
שרבים מאיתנו סובלים ממנו.
00:17
It's really a failureכישלון
to detectלזהות a certainמסוים kindסוג of dangerסַכָּנָה.
2
5480
3040
זהו למעשה כשל בזיהוי
סכנה מסוג מסויים.
00:21
I'm going to describeלְתַאֵר a scenarioתַרחִישׁ
3
9360
1736
אני אתאר תרחיש
00:23
that I think is bothשניהם terrifyingמפחיד
4
11120
3256
שאני חושב שהוא גם מבעית
00:26
and likelyסָבִיר to occurמתרחש,
5
14400
1760
וגם סביר שיתרחש,
00:28
and that's not a good combinationקוֹמבִּינַצִיָה,
6
16840
1656
וזה לא שילוב טוב,
00:30
as it turnsפונה out.
7
18520
1536
כפי שמסתבר.
00:32
And yetעדיין ratherבמקום than be scaredמפוחד,
mostרוב of you will feel
8
20080
2456
ולמרות זאת, במקום לפחד, רובכם תרגישו
00:34
that what I'm talkingשִׂיחָה about
is kindסוג of coolמגניב.
9
22560
2080
שמה שאני מדבר עליו הוא די מגניב.
00:37
I'm going to describeלְתַאֵר
how the gainsרווח we make
10
25200
2976
אני אתאר איך ההתקדמויות שלנו
00:40
in artificialמְלָאכוּתִי intelligenceאינטליגנציה
11
28200
1776
בתחום הבינה המלאכותית
00:42
could ultimatelyבסופו של דבר destroyלהרוס us.
12
30000
1776
עלולות לבסוף להשמיד אותנו.
00:43
And in factעוּבדָה, I think it's very difficultקָשֶׁה
to see how they won'tרָגִיל destroyלהרוס us
13
31800
3456
ולמעשה, אני חושב שקשה מאוד
לראות איך הם לא ישמידו אותנו,
או ימריצו אותנו להשמיד את עצמנו.
00:47
or inspireהשראה us to destroyלהרוס ourselvesבְּעָצמֵנוּ.
14
35280
1680
00:49
And yetעדיין if you're anything like me,
15
37400
1856
ובכל זאת, אם אתם כמוני,
00:51
you'llאתה find that it's funכֵּיף
to think about these things.
16
39280
2656
אתם תגלו שכיף לחשוב על דברים כאלה.
00:53
And that responseתְגוּבָה is partחֵלֶק of the problemבְּעָיָה.
17
41960
3376
והתגובה הזו היא חלק מהבעיה.
00:57
OK? That responseתְגוּבָה should worryדאגה you.
18
45360
1720
התגובה הזו צריכה להדאיג אתכם.
00:59
And if I were to convinceלְשַׁכְנֵעַ you in this talk
19
47920
2656
אם הייתי צריך לשכנע אתכם בשיחה הזו
01:02
that we were likelyסָבִיר
to sufferסובל a globalגלוֹבָּלִי famineרָעָב,
20
50600
3416
שאנחנו צפויים לסבול מרעב עולמי,
01:06
eitherאוֹ because of climateאַקלִים changeשינוי
or some other catastropheקטסטרופה,
21
54040
3056
בגלל שינויי אקלים או קטסטרופה אחרת,
01:09
and that your grandchildrenנכדים,
or theirשֶׁלָהֶם grandchildrenנכדים,
22
57120
3416
ושסביר מאוד שהנכדים שלכם,
או הנכדים שלהם, יחיו כך
01:12
are very likelyסָבִיר to liveלחיות like this,
23
60560
1800
01:15
you wouldn'tלא think,
24
63200
1200
לא הייתם חושבים,
01:17
"Interestingמעניין.
25
65440
1336
"מעניין.
01:18
I like this TEDTED Talk."
26
66800
1200
"אני אוהב את ההרצאה הזו."
01:21
Famineרָעָב isn't funכֵּיף.
27
69200
1520
רעב זה לא כיף.
01:23
Deathמוות by scienceמַדָע fictionספרות בדיונית,
on the other handיד, is funכֵּיף,
28
71800
3376
מוות באמצעות מדע בדיוני,
לעומת זאת, הוא כיף.
01:27
and one of the things that worriesדאגות me mostרוב
about the developmentהתפתחות of AIAI at this pointנְקוּדָה
29
75200
3976
ואחד הדברים שהכי מדאיגים אותי
בנוגע להתפתחות של בינה מלאכותית כיום,
הוא שאנחנו לא מסוגלים לגייס
את התגובה הרגשית המתאימה
01:31
is that we seemנראה unableלא מסוגל to marshalמַרשַׁל
an appropriateמתאים emotionalרִגשִׁי responseתְגוּבָה
30
79200
4096
01:35
to the dangersסכנות that lieשקר aheadקָדִימָה.
31
83320
1816
לסכנות שצפויות לנו.
01:37
I am unableלא מסוגל to marshalמַרשַׁל this responseתְגוּבָה,
and I'm givingמַתָן this talk.
32
85160
3200
אני לא מסוגל לגייס את התגובה הזו,
ואני מעביר את ההרצאה הזו.
01:42
It's as thoughאם כי we standלַעֲמוֹד before two doorsדלתות.
33
90120
2696
זה כאילו שאנחנו ניצבים בפני שתי דלתות.
01:44
Behindמֵאָחוֹר doorדלת numberמספר one,
34
92840
1256
מאחורי דלת מספר אחת,
01:46
we stop makingהֲכָנָה progressהתקדמות
in buildingבִּניָן intelligentאִינְטֶלִיגֶנְטִי machinesמכונה.
35
94120
3296
אנחנו מפסיקים להתקדם
בבניית מכונות אינטליגנטיות.
01:49
Our computerמַחשֵׁב hardwareחוּמרָה and softwareתוֹכנָה
just stopsמפסיק gettingמקבל better for some reasonסיבה.
36
97440
4016
חומרות ותוכנות המחשב שלנו
מפסיקות להשתפר מסיבה כלשהי.
01:53
Now take a momentרֶגַע
to considerלשקול why this mightאולי happenלִקְרוֹת.
37
101480
3000
עכשיו קחו לעצמכם רגע
לשקול מדוע זה יכול לקרות.
01:57
I mean, givenנָתוּן how valuableבעל ערך
intelligenceאינטליגנציה and automationאוטומציה are,
38
105080
3656
בהתחשב בערך הרב של
אינטלגינציה ואוטומציה עבורנו,
02:00
we will continueלְהַמשִׁיך to improveלְשַׁפֵּר our technologyטֶכנוֹלוֹגִיָה
if we are at all ableיכול to.
39
108760
3520
אנחנו נמשיך לשפר את הטכנולוגיה,
אם נהיה מסוגלים לכך.
02:05
What could stop us from doing this?
40
113200
1667
מה יכול לעצור אותנו מלעשות זאת?
02:07
A full-scaleבקנה מידה מלא nuclearגַרעִינִי warמִלחָמָה?
41
115800
1800
מלחמה גרעינית כוללת?
02:11
A globalגלוֹבָּלִי pandemicמגיפה?
42
119000
1560
מגיפה כלל-עולמית?
02:14
An asteroidאַסטֵרוֹאִיד impactפְּגִיעָה?
43
122320
1320
פגיעת אסטרואיד?
02:17
Justinג'סטין Bieberביבר becomingהִתהַוּוּת
presidentנָשִׂיא of the Unitedמאוחד Statesמדינות?
44
125640
2576
ג'סטין ביבר ממונה לנשיא ארה"ב?
02:20
(Laughterצחוק)
45
128240
2280
(צחוק)
02:24
The pointנְקוּדָה is, something would have to
destroyלהרוס civilizationתַרְבּוּת as we know it.
46
132760
3920
הנקודה היא, משהו יצטרך להשמיד
את הציוויליזציה המוכרת לנו.
02:29
You have to imagineלדמיין
how badרַע it would have to be
47
137360
4296
אתם חייבים לדמיין כמה נורא זה צריך להיות
02:33
to preventלִמְנוֹעַ us from makingהֲכָנָה
improvementsשיפורים in our technologyטֶכנוֹלוֹגִיָה
48
141680
3336
בכדי למנוע מאיתנו לבצע
שיפורים בטכנולוגיה שלנו
02:37
permanentlyלִצְמִיתוּת,
49
145040
1216
לתמיד.
02:38
generationדוֹר after generationדוֹר.
50
146280
2016
דור אחרי דור.
02:40
Almostכִּמעַט by definitionהַגדָרָה,
this is the worstהכי גרוע thing
51
148320
2136
כמעט בהגדרה, זהו הדבר הגרוע ביותר
02:42
that's ever happenedקרה in humanבן אנוש historyהִיסטוֹרִיָה.
52
150480
2016
שאי-פעם קרה בהיסטוריה האנושית.
02:44
So the only alternativeחֲלוּפָה,
53
152520
1296
אז האלטרנטיבה היחידה,
02:45
and this is what liesשקרים
behindמֵאָחוֹר doorדלת numberמספר two,
54
153840
2336
וזה מה שנמצא מאחורי דלת מספר שתיים,
02:48
is that we continueלְהַמשִׁיך
to improveלְשַׁפֵּר our intelligentאִינְטֶלִיגֶנְטִי machinesמכונה
55
156200
3136
היא שנמשיך לשפר
את המכונות האינטליגנטיות שלנו
02:51
yearשָׁנָה after yearשָׁנָה after yearשָׁנָה.
56
159360
1600
שנה אחר שנה אחר שנה.
02:53
At a certainמסוים pointנְקוּדָה, we will buildלִבנוֹת
machinesמכונה that are smarterחכם יותר than we are,
57
161720
3640
ובנקודה מסוימת, נבנה מכונות
שהן חכמות יותר מאיתנו,
02:58
and onceפַּעַם we have machinesמכונה
that are smarterחכם יותר than we are,
58
166080
2616
וברגע שיהיו לנו מכונות חכמות מאיתנו,
הן יתחילו לשפר את עצמן.
03:00
they will beginהתחל to improveלְשַׁפֵּר themselvesעצמם.
59
168720
1976
03:02
And then we riskלְהִסְתָכֵּן what
the mathematicianמתמטיקאי IJIJ Good calledשקוראים לו
60
170720
2736
ואז אנחנו מסתכנים במה
שהמתמטיקאי איי. ג'יי. גוד קרא לו
03:05
an "intelligenceאינטליגנציה explosionהִתְפּוֹצְצוּת,"
61
173480
1776
"התפוצצות אינטליגנציה",
03:07
that the processתהליך could get away from us.
62
175280
2000
שהתהליך יכול לצאת משליטתנו.
03:10
Now, this is oftenלעתים קרובות caricaturedקריקטורה,
as I have here,
63
178120
2816
לרוב זה מתואר כפי שנראה פה,
03:12
as a fearפַּחַד that armiesצבאות of maliciousזְדוֹנִי robotsרובוטים
64
180960
3216
כפחד מצבאות של רובוטים זדוניים
03:16
will attackלִתְקוֹף us.
65
184200
1256
שיתקפו אותנו.
03:17
But that isn't the mostרוב likelyסָבִיר scenarioתַרחִישׁ.
66
185480
2696
אבל זה לא התרחיש הסביר ביותר.
03:20
It's not that our machinesמכונה
will becomeהפכו spontaneouslyבאופן ספונטני malevolentמְרוּשָׁע.
67
188200
4856
זה לא שהמכונות שלנו
יהפכו באופן ספונטני למרושעות.
03:25
The concernדְאָגָה is really
that we will buildלִבנוֹת machinesמכונה
68
193080
2616
החשש האמיתי הוא שנבנה מכונות
03:27
that are so much
more competentמוסמך than we are
69
195720
2056
שמוכשרות כל כך הרבה יותר מאיתנו,
03:29
that the slightestהקלה ביותר divergenceהִסתַעֲפוּת
betweenבֵּין theirשֶׁלָהֶם goalsמטרות and our ownשֶׁלוֹ
70
197800
3776
שהסטייה הקטנה ביותר
בין המטרות שלנו לשלהן
03:33
could destroyלהרוס us.
71
201600
1200
עלולה להשמיד אותנו.
03:35
Just think about how we relateמתייחס to antsנמלים.
72
203960
2080
רק תחשבו על היחס שלנו לנמלים.
03:38
We don't hateשִׂנאָה them.
73
206600
1656
אנחנו לא שונאים אותן.
03:40
We don't go out of our way to harmלפגוע them.
74
208280
2056
אנחנו לא עושים מאמץ מיוחד לפגוע בהן.
03:42
In factעוּבדָה, sometimesלִפְעָמִים
we take painsמַאֲמָצִים not to harmלפגוע them.
75
210360
2376
למעשה, לפעמים אנחנו מתאמצים
כדי שלא לפגוע בהן.
03:44
We stepשלב over them on the sidewalkמדרכה.
76
212760
2016
אנחנו צועדים מעליהן במדרכות.
03:46
But wheneverבְּכָל פַּעַם theirשֶׁלָהֶם presenceנוכחות
77
214800
2136
אבל ברגע שהנוכחות שלהן
03:48
seriouslyברצינות conflictsסכסוכים with one of our goalsמטרות,
78
216960
2496
נמצאת בקונפליקט רציני עם אחת המטרות שלנו,
03:51
let's say when constructingבניה
a buildingבִּניָן like this one,
79
219480
2477
למשל כשאנחנו בונים בנין כמו זה,
03:53
we annihilateלְהַשְׁמִיד them withoutלְלֹא a qualmנְקִיפַת לֵב.
80
221981
1960
אנחנו משמידים אותן ללא יסורי מצפון.
03:56
The concernדְאָגָה is that we will
one day buildלִבנוֹת machinesמכונה
81
224480
2936
החשש הוא שיום אחד אנחנו נבנה מכונות
03:59
that, whetherהאם they're consciousמוּדָע or not,
82
227440
2736
אשר במודע או שלא,
04:02
could treatטיפול us with similarדוֹמֶה disregardהִתעַלְמוּת.
83
230200
2000
יוכלו להתייחס אלינו בזלזול דומה.
04:05
Now, I suspectחָשׁוּד this seemsנראה
far-fetchedדָחוּק to manyרב of you.
84
233760
2760
עכשיו, אני חושד שכל זה
נשמע מופרך עבור רבים מכם.
04:09
I betלְהַמֵר there are those of you who doubtספק
that superintelligentsuperintelligent AIAI is possibleאפשרי,
85
237360
6336
אני בטוח שיש בכם כאלה הספקנים לגבי האפשרות
להגיע לבינה מלאכותית סופר-אינטליגנטית כזו,
04:15
much lessפָּחוּת inevitableבִּלתִי נִמנַע.
86
243720
1656
ובוודאי לחשוב שהיא בלתי נמנעת.
04:17
But then you mustצריך find something wrongלא בסדר
with one of the followingהבא assumptionsהנחות.
87
245400
3620
אבל אז אתם צריכים למצוא פגם
באחת מהנחות היסוד הבאות.
04:21
And there are only threeשְׁלוֹשָׁה of them.
88
249044
1572
ויש רק שלוש מהן.
04:23
Intelligenceאינטליגנציה is a matterחוֹמֶר of informationמֵידָע
processingמעבד in physicalגוּפָנִי systemsמערכות.
89
251800
4719
אינטליגנציה היא ענין של עיבוד מידע
במערכות פיזיות.
04:29
Actuallyבעצם, this is a little bitbit more
than an assumptionהנחה.
90
257320
2615
למעשה, זו קצת יותר מסתם הנחה.
אנחנו כבר בנינו אינטליגנציה צרה
לתוך המכונות שלנו,
04:31
We have alreadyכְּבָר builtבנוי
narrowלְצַמְצֵם intelligenceאינטליגנציה into our machinesמכונה,
91
259959
3457
04:35
and manyרב of these machinesמכונה performלְבַצֵעַ
92
263440
2016
ורבות מהמכונות האלה מתפקדות
04:37
at a levelרָמָה of superhumanעל אנושית
intelligenceאינטליגנציה alreadyכְּבָר.
93
265480
2640
ברמות של אינטליגנציה על-אנושית כבר כיום.
04:40
And we know that mereסְתָם matterחוֹמֶר
94
268840
2576
ואנחנו יודעים שחומר בלבד
04:43
can give riseלעלות to what is calledשקוראים לו
"generalכללי intelligenceאינטליגנציה,"
95
271440
2616
יכול לייצר מה שנקרא "אינטליגנציה כללית",
04:46
an abilityיְכוֹלֶת to think flexiblyבגמישות
acrossלְרוֹחָב multipleמְרוּבֶּה domainsדומיינים,
96
274080
3656
היכולת לחשוב בצורה גמישה
מעבר לתחומים רבים,
04:49
because our brainsמוֹחַ have managedמנוהל it. Right?
97
277760
3136
כי המוח שלנו מצליח לעשות זאת. נכון?
04:52
I mean, there's just atomsאטומים in here,
98
280920
3936
הרי יש כאן רק אטומים,
04:56
and as long as we continueלְהַמשִׁיך
to buildלִבנוֹת systemsמערכות of atomsאטומים
99
284880
4496
וכל עוד נמשיך לבנות מערכות של אטומים
05:01
that displayלְהַצִיג more and more
intelligentאִינְטֶלִיגֶנְטִי behaviorהִתְנַהֲגוּת,
100
289400
2696
שמפגינות התנהגות יותר ויותר אינטליגנטית,
05:04
we will eventuallyבסופו של דבר,
unlessאֶלָא אִם we are interruptedמוּפרָע,
101
292120
2536
בסוף, אלא אם כן יפריעו לנו,
05:06
we will eventuallyבסופו של דבר
buildלִבנוֹת generalכללי intelligenceאינטליגנציה
102
294680
3376
בסוף, נבנה אינטליגנציה כללית
05:10
into our machinesמכונה.
103
298080
1296
בתוך המכונות שלנו.
05:11
It's crucialמַכרִיעַ to realizeלִהַבִין
that the rateציון of progressהתקדמות doesn't matterחוֹמֶר,
104
299400
3656
זה חיוני להבין שקצב ההתקדמות אינו משנה,
05:15
because any progressהתקדמות
is enoughמספיק to get us into the endסוֹף zoneאֵזוֹר.
105
303080
3176
כיוון שכל התקדמות מספיקה
בכדי להביא אותנו לקו הסיום.
05:18
We don't need Moore'sשל מור lawחוֹק to continueלְהַמשִׁיך.
We don't need exponentialאקספוננציאלית progressהתקדמות.
106
306280
3776
אנחנו לא צריכים את חוק מור בשביל להמשיך.
אנחנו לא צריכים התקדמות אקספוננציאלית.
05:22
We just need to keep going.
107
310080
1600
אנחנו רק צריכים להמשיך.
05:25
The secondשְׁנִיָה assumptionהנחה
is that we will keep going.
108
313480
2920
ההנחה השניה היא שאנחנו נמשיך.
05:29
We will continueלְהַמשִׁיך to improveלְשַׁפֵּר
our intelligentאִינְטֶלִיגֶנְטִי machinesמכונה.
109
317000
2760
אנחנו נמשיך לשפר
את המכונות האינטליגנטיות שלנו.
05:33
And givenנָתוּן the valueערך of intelligenceאינטליגנציה --
110
321000
4376
ובהתחשב בחשיבות האינטליגנציה –
05:37
I mean, intelligenceאינטליגנציה is eitherאוֹ
the sourceמָקוֹר of everything we valueערך
111
325400
3536
אינטליגנציה היא המקור של כל מה שיקר לנו
05:40
or we need it to safeguardלְהַגֵן
everything we valueערך.
112
328960
2776
או שאנחנו זקוקים לה בשביל
לשמור על כל מה שיקר לנו.
05:43
It is our mostרוב valuableבעל ערך resourceמַשׁאָב.
113
331760
2256
זהו המשאב הכי יקר שלנו.
05:46
So we want to do this.
114
334040
1536
אז אנחנו רוצים לעשות את זה.
05:47
We have problemsבעיות
that we desperatelyנואשות need to solveלִפְתוֹר.
115
335600
3336
יש לנו בעיות שאנחנו צריכים לפתור נואשות.
05:50
We want to cureריפוי diseasesמחלות
like Alzheimer'sאלצהיימר and cancerמחלת הסרטן.
116
338960
3200
אנחנו רוצים לרפא מחלות כמו אלצהיימר וסרטן.
05:54
We want to understandמבין economicכַּלְכָּלִי systemsמערכות.
We want to improveלְשַׁפֵּר our climateאַקלִים scienceמַדָע.
117
342960
3936
אנחנו רוצים להבין מערכות כלכליות.
אנחנו רוצים לשפר את מדעי האקלים.
05:58
So we will do this, if we can.
118
346920
2256
אז אנחנו נעשה זאת, אם נוכל.
06:01
The trainרכבת is alreadyכְּבָר out of the stationתַחֲנָה,
and there's no brakeבֶּלֶם to pullמְשׁוֹך.
119
349200
3286
הרכבת כבר יצאה מהתחנה,
ואין לה מעצור שנוכל למשוך בו.
06:05
Finallyסוף כל סוף, we don't standלַעֲמוֹד
on a peakשִׂיא of intelligenceאינטליגנציה,
120
353880
5456
לבסוף, אנחנו לא עומדים
בפסגת האינטליגנציה,
06:11
or anywhereבְּכָל מָקוֹם nearליד it, likelyסָבִיר.
121
359360
1800
או אפילו קרוב אליה, ככל הנראה.
06:13
And this really is the crucialמַכרִיעַ insightתוֹבָנָה.
122
361640
1896
וזו באמת התובנה הקריטית ביותר.
זה מה שהופך את המצב שלנו לכל כך מסוכן,
06:15
This is what makesעושה
our situationמַצָב so precariousמְסוּכָּן,
123
363560
2416
06:18
and this is what makesעושה our intuitionsאינטואיציות
about riskלְהִסְתָכֵּן so unreliableלֹא מְהֵימָן.
124
366000
4040
וזה מה שהופך את האינטואיציות שלנו
לגבי הסיכון לכל כך לא אמינות.
06:23
Now, just considerלשקול the smartestהכי חכם personאדם
who has ever livedחי.
125
371120
2720
עכשיו, תחשבו על האדם
החכם ביותר שחי אי פעם.
06:26
On almostכִּמעַט everyone'sשל כולם shortlistהמועמדות here
is Johnג'ון vonפון Neumannנוימן.
126
374640
3416
כמעט כולם כאן ישימו את
ג'ון פון נוימן איפשהו בראש הרשימה.
06:30
I mean, the impressionרוֹשֶׁם that vonפון Neumannנוימן
madeעָשׂוּי on the people around him,
127
378080
3336
הרושם שפון נוימן עשה על האנשים סביבו,
06:33
and this includedכלול the greatestהגדול ביותר
mathematiciansמתמטיקאים and physicistsפיסיקאים of his time,
128
381440
4056
וזה כולל כמה מהמתמטיקאים
והפיזיקאים הגדולים של זמנו,
06:37
is fairlyלְמַדַי well-documentedמתועד היטב.
129
385520
1936
מתועד בצורה טובה למדי.
06:39
If only halfחֲצִי the storiesסיפורים
about him are halfחֲצִי trueנָכוֹן,
130
387480
3776
אילו חצי מהסיפורים עליו היו חצי נכונים,
06:43
there's no questionשְׁאֵלָה
131
391280
1216
אין ספק בכלל
06:44
he's one of the smartestהכי חכם people
who has ever livedחי.
132
392520
2456
שהוא אחד האנשים החכמים שחיו עלי אדמות.
06:47
So considerלשקול the spectrumספֵּקטרוּם of intelligenceאינטליגנציה.
133
395000
2520
אז חשבו על רצף האינטליגנציה.
06:50
Here we have Johnג'ון vonפון Neumannנוימן.
134
398320
1429
כאן נמצא ג'ון פון נוימן.
06:53
And then we have you and me.
135
401560
1334
וכאן נמצאים אתם ואני.
06:56
And then we have a chickenעוף.
136
404120
1296
ופה יש לנו תרנגולת.
06:57
(Laughterצחוק)
137
405440
1936
(צחוק)
06:59
Sorry, a chickenעוף.
138
407400
1216
מצטער – תרנגולת.
07:00
(Laughterצחוק)
139
408640
1256
(צחוק)
07:01
There's no reasonסיבה for me to make this talk
more depressingמְדַכֵּא than it needsצרכי to be.
140
409920
3736
אין סיבה שההרצאה הזו
תהיה מדכאת יותר מהנדרש.
(צחוק)
07:05
(Laughterצחוק)
141
413680
1600
07:08
It seemsנראה overwhelminglyבאופן גורף likelyסָבִיר, howeverלמרות זאת,
that the spectrumספֵּקטרוּם of intelligenceאינטליגנציה
142
416339
3477
אבל סביר מאוד שרצף האינטליגנציה
07:11
extendsמשתרע much furtherנוסף
than we currentlyכַּיוֹם conceiveלַהֲרוֹת,
143
419840
3120
ממשיך הרבה מעבר למה שאנחנו מכירים כיום,
07:15
and if we buildלִבנוֹת machinesמכונה
that are more intelligentאִינְטֶלִיגֶנְטִי than we are,
144
423880
3216
ושאם נבנה מכונות
שהן יותר אינטליגנטיות מאיתנו,
07:19
they will very likelyסָבִיר
exploreלַחקוֹר this spectrumספֵּקטרוּם
145
427120
2296
סביר מאוד שהן יחקרו את הרצף הזה
07:21
in waysדרכים that we can't imagineלדמיין,
146
429440
1856
בדרכים שאיננו יכולים לדמיין,
07:23
and exceedעולה על us in waysדרכים
that we can't imagineלדמיין.
147
431320
2520
ולעלות עלינו בדרכים שאיננו יכולים לדמיין.
07:27
And it's importantחָשׁוּב to recognizeלזהות that
this is trueנָכוֹן by virtueמַעֲלָה of speedמְהִירוּת aloneלבד.
148
435000
4336
וחשוב להבין שזה נכון ולו רק בזכות המהירות.
07:31
Right? So imagineלדמיין if we just builtבנוי
a superintelligentsuperintelligent AIAI
149
439360
5056
נכון? דמיינו שנבנה בינה מלאכותית
סופר-אינטליגנטית
07:36
that was no smarterחכם יותר
than your averageמְמוּצָע teamקְבוּצָה of researchersחוקרים
150
444440
3456
שאינה חכמה יותר מצוות ממוצע של חוקרים
07:39
at Stanfordסטנפורד or MITMIT.
151
447920
2296
בסטנפורד או ב-MIT.
07:42
Well, electronicאֶלֶקטרוֹנִי circuitsמעגלים
functionפוּנקצִיָה about a millionמִילִיוֹן timesפִּי fasterמהיר יותר
152
450240
2976
ובכן, מעגלים אלקטרוניים פועלים
בערך פי מיליון מהר יותר ממעגלים ביוכימיים,
07:45
than biochemicalביוכימי onesיחידות,
153
453240
1256
07:46
so this machineמְכוֹנָה should think
about a millionמִילִיוֹן timesפִּי fasterמהיר יותר
154
454520
3136
אז המכונה הזו תוכל לחשוב
בערך פי מיליון מהר יותר
07:49
than the mindsמוחות that builtבנוי it.
155
457680
1816
מהמוחות שבנו אותה.
07:51
So you setמַעֲרֶכֶת it runningרץ for a weekשָׁבוּעַ,
156
459520
1656
אז אתם נותנים לה לרוץ שבוע,
07:53
and it will performלְבַצֵעַ 20,000 yearsשנים
of human-levelברמה האנושית intellectualאִינטֶלֶקְטוּאַלִי work,
157
461200
4560
והיא תבצע 20,000 שנות אדם
של עבודה אינטלקטואלית,
07:58
weekשָׁבוּעַ after weekשָׁבוּעַ after weekשָׁבוּעַ.
158
466400
1960
שבוע אחרי שבוע אחרי שבוע.
08:01
How could we even understandמבין,
much lessפָּחוּת constrainלְהַכרִיחַ,
159
469640
3096
איך נוכל להבין, לא כל שכן להגביל,
08:04
a mindאכפת makingהֲכָנָה this sortסוג of progressהתקדמות?
160
472760
2280
מוח שיכול להתקדם כך?
08:08
The other thing that's worryingמדאיגה, franklyבכנות,
161
476840
2136
בכנות, הדבר הנוסף שמדאיג,
08:11
is that, imagineלדמיין the bestהטוב ביותר caseמקרה scenarioתַרחִישׁ.
162
479000
4976
הוא שאם תדמיינו את התרחיש הטוב ביותר,
08:16
So imagineלדמיין we hitמכה uponעַל a designלְעַצֵב
of superintelligentsuperintelligent AIAI
163
484000
4176
דמיינו שפתאום נתקלנו בתכן
של בינה מלאכותית סופר-אינטליגנטית
08:20
that has no safetyבְּטִיחוּת concernsחששות.
164
488200
1376
שאין בו שום דאגות בטיחותיות.
08:21
We have the perfectמושלם designלְעַצֵב
the first time around.
165
489600
3256
יש לנו את התכן המושלם על הפעם הראשונה.
08:24
It's as thoughאם כי we'veיש לנו been handedביד an oracleאוֹרַקְל
166
492880
2216
כאילו שקיבלנו אוֹרַקְל
08:27
that behavesמתנהג exactlyבְּדִיוּק as intendedהתכוון.
167
495120
2016
שמתנהג בדיוק כפי שאנו מצפים.
08:29
Well, this machineמְכוֹנָה would be
the perfectמושלם labor-savingחיסכון עבודה deviceהתקן.
168
497160
3720
אז המכונה הזו תהיה
המכשיר המושלם לחיסכון בעבודה.
08:33
It can designלְעַצֵב the machineמְכוֹנָה
that can buildלִבנוֹת the machineמְכוֹנָה
169
501680
2429
היא תוכל לתכנן את המכונה
שתוכל לבנות את המכונה
08:36
that can do any physicalגוּפָנִי work,
170
504133
1763
שתעשה כל עבודה פיזית,
08:37
poweredמְמוּנָע by sunlightאוֹר שֶׁמֶשׁ,
171
505920
1456
תופעל בכוח השמש,
08:39
more or lessפָּחוּת for the costעֲלוּת
of rawגלם materialsחומרים.
172
507400
2696
פחות או יותר במחיר של חומרי הגלם.
08:42
So we're talkingשִׂיחָה about
the endסוֹף of humanבן אנוש drudgeryעבודת פרך.
173
510120
3256
אז אנחנו מדברים על סופה
של עבודת הפרך האנושית.
08:45
We're alsoגַם talkingשִׂיחָה about the endסוֹף
of mostרוב intellectualאִינטֶלֶקְטוּאַלִי work.
174
513400
2800
אנחנו מדברים גם על סופה
של רוב העבודה האינטלקטואלית.
08:49
So what would apesקופים like ourselvesבְּעָצמֵנוּ
do in this circumstanceנסיבות?
175
517200
3056
אז מה קופים כמונו יעשו בנסיבות שכאלו?
08:52
Well, we'dלהתחתן be freeחופשי to playלְשַׂחֵק Frisbeeפריסבי
and give eachכל אחד other massagesעיסויים.
176
520280
4080
טוב, נהיה חופשיים לשחק פריסבי
ולהעניק אחד לשני עיסויים.
08:57
Addלְהוֹסִיף some LSDLSD and some
questionableמְפוּקפָּק wardrobeאָרוֹן בְּגָדִים choicesבחירות,
177
525840
2856
תוסיפו קצת אל.אס.די
ובחירת לבוש מפוקפקת,
09:00
and the wholeכֹּל worldעוֹלָם
could be like Burningשריפה Man.
178
528720
2176
וכל העולם יראה כמו אירוע של ברנינג מאן.
09:02
(Laughterצחוק)
179
530920
1640
(צחוק)
09:06
Now, that mightאולי soundנשמע prettyיפה good,
180
534320
2000
עכשיו, זה אולי נשמע די טוב,
09:09
but askלִשְׁאוֹל yourselfעַצמְךָ what would happenלִקְרוֹת
181
537280
2376
אבל תשאלו את עצמכם מה יקרה
09:11
underתַחַת our currentנוֹכְחִי economicכַּלְכָּלִי
and politicalפּוֹלִיטִי orderלהזמין?
182
539680
2736
תחת הסדר הכלכלי והפוליטי שלנו היום?
09:14
It seemsנראה likelyסָבִיר that we would witnessעֵד
183
542440
2416
נראה סביר שאנחנו נחזה
09:16
a levelרָמָה of wealthעוֹשֶׁר inequalityאי שיוויון
and unemploymentאַבטָלָה
184
544880
4136
ברמות של אי-שויון כלכלי ואבטלה
09:21
that we have never seenלראות before.
185
549040
1496
שלא נצפו קודם לכן מעולם.
09:22
Absentנֶעדָר a willingnessנְכוֹנוּת
to immediatelyמיד put this newחָדָשׁ wealthעוֹשֶׁר
186
550560
2616
ללא רצון להשקיע מיד את כל העושר הזה
09:25
to the serviceשֵׁרוּת of all humanityאֶנוֹשִׁיוּת,
187
553200
1480
לרווחת המין האנושי כולו,
09:27
a fewמְעַטִים trillionairesטריליונרים could graceחן
the coversכריכות of our businessעֵסֶק magazinesכתבי עת
188
555640
3616
מספר טריליונרים יוכלו לקשט
את השערים של כתבי העת העסקיים
09:31
while the restמנוחה of the worldעוֹלָם
would be freeחופשי to starveלְהַרְעִיב.
189
559280
2440
בזמן ששאר העולם יהיה חופשי לרעוב.
09:34
And what would the Russiansרוסים
or the Chineseסִינִית do
190
562320
2296
ומה הרוסים והסינים יעשו
09:36
if they heardשמע that some companyחֶברָה
in Siliconסִילִיקוֹן Valleyעֶמֶק
191
564640
2616
אם הם ישמעו שחברה כלשהי בעמק הסיליקון
09:39
was about to deployלפרוס a superintelligentsuperintelligent AIAI?
192
567280
2736
עומדת להשיק בינה מלאכותית
סופר-אינטליגנטית?
09:42
This machineמְכוֹנָה would be capableבעל יכולת
of wagingwaging warמִלחָמָה,
193
570040
2856
המכונה הזו תוכל לנהל מלחמה,
09:44
whetherהאם terrestrialיַבַּשׁתִי or cyberסייבר,
194
572920
2216
בין אם ארצית או במרחב הסייבר,
09:47
with unprecedentedחֲסַר תַקְדִים powerכּוֹחַ.
195
575160
1680
בעוצמה ללא תקדים.
09:50
This is a winner-take-allמנצח לוקח הכל scenarioתַרחִישׁ.
196
578120
1856
זה תרחיש שבו המנצח לוקח הכל.
09:52
To be sixשֵׁשׁ monthsחודשים aheadקָדִימָה
of the competitionתַחֲרוּת here
197
580000
3136
להקדים את התחרות הזו בשישה חודשים
09:55
is to be 500,000 yearsשנים aheadקָדִימָה,
198
583160
2776
משמעו להקדים את העולם ב-500,000 שנה לפחות.
09:57
at a minimumמִינִימוּם.
199
585960
1496
09:59
So it seemsנראה that even mereסְתָם rumorsשמועות
of this kindסוג of breakthroughפְּרִיצַת דֶרֶך
200
587480
4736
אז נראה שאפילו שמועות על פריצת דרך שכזו
10:04
could causeגורם our speciesמִין to go berserkמטורף.
201
592240
2376
יכולות לגרום למין שלנו להשתגע.
10:06
Now, one of the mostרוב frighteningמפחיד things,
202
594640
2896
עכשיו, אחד הדברים המפחידים ביותר,
10:09
in my viewנוף, at this momentרֶגַע,
203
597560
2776
לראות עיני, ברגע הזה,
10:12
are the kindsמיני of things
that AIAI researchersחוקרים say
204
600360
4296
אלה הדברים שחוקרי בינה מלאכותית אומרים
10:16
when they want to be reassuringמרגיע.
205
604680
1560
כשהם רוצים להרגיע אותנו.
10:19
And the mostרוב commonמשותף reasonסיבה
we're told not to worryדאגה is time.
206
607000
3456
והסיבה הנפוצה ביותר שאומרים
לנו שאין סיבה לדאגה היא זמן.
10:22
This is all a long way off,
don't you know.
207
610480
2056
זה עוד רחוק מאוד, אתם יודעים.
10:24
This is probablyכנראה 50 or 100 yearsשנים away.
208
612560
2440
זה כנראה רחוק מאיתנו ב-50 או 100 שנים.
10:27
One researcherחוֹקֵר has said,
209
615720
1256
חוקר אחד אמר,
10:29
"Worryingדאגה about AIAI safetyבְּטִיחוּת
210
617000
1576
"לדאוג מהבטיחות של בינה מלאכותית
10:30
is like worryingמדאיגה
about overpopulationריבוי יתר on Marsמַאְדִים."
211
618600
2280
"זה כמו לדאוג מצפיפות אוכלוסין על המאדים."
10:34
This is the Siliconסִילִיקוֹן Valleyעֶמֶק versionגִרְסָה
212
622116
1620
זו הגרסה של עמק הסיליקון
10:35
of "don't worryדאגה your
prettyיפה little headרֹאשׁ about it."
213
623760
2376
ל"אל תטרידו את עצמכם בזה."
10:38
(Laughterצחוק)
214
626160
1336
(צחוק)
10:39
No one seemsנראה to noticeהודעה
215
627520
1896
נראה שאף אחד לא שם לב
10:41
that referencingהתייחסות the time horizonהאופק
216
629440
2616
שההתייחסות לאופק הזמן
10:44
is a totalסה"כ nonלֹא sequiturשאלה משום.
217
632080
2576
מהווה נון סקוויטר מוחלט.
10:46
If intelligenceאינטליגנציה is just a matterחוֹמֶר
of informationמֵידָע processingמעבד,
218
634680
3256
אם אינטליגנציה היא רק ענין של עיבוד מידע,
10:49
and we continueלְהַמשִׁיך to improveלְשַׁפֵּר our machinesמכונה,
219
637960
2656
ואנחנו ממשיכים לשפר את המכונות שלנו,
10:52
we will produceליצר
some formטופס of superintelligenceאינטליגנציה.
220
640640
2880
אנחנו נייצר סוג כלשהו של סופר-אינטליגנציה.
10:56
And we have no ideaרַעְיוֹן
how long it will take us
221
644320
3656
ואין לנו מושג כמה זמן ייקח לנו
11:00
to createלִיצוֹר the conditionsתנאים
to do that safelyבבטחה.
222
648000
2400
לייצר את התנאים כדי
לעשות זאת באופן בטיחותי.
11:04
Let me say that again.
223
652200
1296
תרשו לי להגיד את זה שוב.
11:05
We have no ideaרַעְיוֹן how long it will take us
224
653520
3816
אין לנו מושג כמה זמן ייקח לנו
11:09
to createלִיצוֹר the conditionsתנאים
to do that safelyבבטחה.
225
657360
2240
לייצר את התנאים כדי
לעשות זאת באופן בטיחותי.
11:12
And if you haven'tלא noticedשם לב,
50 yearsשנים is not what it used to be.
226
660920
3456
ואם לא שמתם לב,
50 שנה זה לא מה שזה היה פעם.
11:16
This is 50 yearsשנים in monthsחודשים.
227
664400
2456
אלה 50 שנים מחולקים לחודשים.
11:18
This is how long we'veיש לנו had the iPhoneiPhone.
228
666880
1840
זו כמות הזמן שיש לנו אייפונים.
11:21
This is how long "The Simpsonsסימפסון"
has been on televisionטֵלֶוִיזִיָה.
229
669440
2600
זו כמות הזמן ש"הסימפסונים"
משודרים בטלויזיה.
11:24
Fiftyחמישים yearsשנים is not that much time
230
672680
2376
חמישים שנים זה לא הרבה זמן
11:27
to meetלִפְגוֹשׁ one of the greatestהגדול ביותר challengesאתגרים
our speciesמִין will ever faceפָּנִים.
231
675080
3160
כדי להתמודד עם אחד האתגרים
הגדולים ביותר שהמין שלנו יתקל בהם.
11:31
Onceפַּעַם again, we seemנראה to be failingכושל
to have an appropriateמתאים emotionalרִגשִׁי responseתְגוּבָה
232
679640
4016
שוב, נראה שאנחנו לא מצליחים
לייצר את התגובה הרגשית המתאימה
11:35
to what we have everyכֹּל reasonסיבה
to believe is comingמגיע.
233
683680
2696
למשהו שאין לנו ספק שהוא מגיע.
11:38
The computerמַחשֵׁב scientistמַדְעָן Stuartסטיוארט Russellראסל
has a niceנֶחְמָד analogyאֲנָלוֹגִיָה here.
234
686400
3976
למדען המחשבים סטיוארט ראסל
יש אנלוגיה נחמדה בנושא זה.
11:42
He said, imagineלדמיין that we receivedקיבלו
a messageהוֹדָעָה from an alienחייזר civilizationתַרְבּוּת,
235
690400
4896
הוא אמר, דמיינו שקיבלנו מסר
מתרבות חוצנית כלשהי,
11:47
whichאיזה readלקרוא:
236
695320
1696
שאומר:
11:49
"People of Earthכדור הארץ,
237
697040
1536
"תושבי כדור הארץ,
11:50
we will arriveלְהַגִיעַ on your planetכוכב לכת in 50 yearsשנים.
238
698600
2360
"אנחנו נגיע לכוכב שלכם בעוד 50 שנים.
11:53
Get readyמוּכָן."
239
701800
1576
תתכוננו."
11:55
And now we're just countingסְפִירָה down
the monthsחודשים untilעד the mothershipספינת האם landsאדמות?
240
703400
4256
ועכשיו אנחנו רק סופרים את החודשים
עד שספינת האם תנחת?
11:59
We would feel a little
more urgencyדְחִיפוּת than we do.
241
707680
3000
אנחנו נרגיש קצת יותר דחיפות
ממה שאנחנו מרגישים היום.
12:04
Anotherאַחֵר reasonסיבה we're told not to worryדאגה
242
712680
1856
סיבה נוספת שאומרים לנו לא לדאוג
12:06
is that these machinesמכונה
can't help but shareלַחֲלוֹק our valuesערכים
243
714560
3016
היא שהמכונות הללו
בהכרח יחלֵקו את הערכים שלנו
12:09
because they will be literallyפשוטו כמשמעו
extensionsהרחבות of ourselvesבְּעָצמֵנוּ.
244
717600
2616
כי הן יהיו, הלכה למעשה, שלוחות של עצמנו.
12:12
They'llהם יהיו be graftedמורכבים ontoעַל גַבֵּי our brainsמוֹחַ,
245
720240
1816
הן יושתלו למוחות שלנו,
12:14
and we'llטוֹב essentiallyלמעשה
becomeהפכו theirשֶׁלָהֶם limbicלימבי systemsמערכות.
246
722080
2360
ואנחנו נהפוך למעשה למערכת הלימבית שלהן.
12:17
Now take a momentרֶגַע to considerלשקול
247
725120
1416
קחו רגע נוסף בכדי לשקול
12:18
that the safestהבטוחה ביותר
and only prudentזָהִיר pathנָתִיב forwardקָדִימָה,
248
726560
3176
אם ההתקדמות הבטוחה והשקולה היחידה המומלצת,
12:21
recommendedמוּמלָץ,
249
729760
1336
12:23
is to implantלִשְׁתוֹל this technologyטֶכנוֹלוֹגִיָה
directlyבאופן ישיר into our brainsמוֹחַ.
250
731120
2800
היא להשתיל את הטכנולוגיה הזו
ישירות לתוך המוח שלנו.
12:26
Now, this mayמאי in factעוּבדָה be the safestהבטוחה ביותר
and only prudentזָהִיר pathנָתִיב forwardקָדִימָה,
251
734600
3376
עכשיו, זו אולי באמת הדרך
השקולה והבטוחה להתקדם,
12:30
but usuallyבְּדֶרֶך כְּלַל one'sיחידות safetyבְּטִיחוּת concernsחששות
about a technologyטֶכנוֹלוֹגִיָה
252
738000
3056
אבל מומלץ לטפל היטב בבטיחות טכנולוגיה
12:33
have to be prettyיפה much workedעבד out
before you stickמקל it insideבְּתוֹך your headרֹאשׁ.
253
741080
3656
לפני שתוקעים אותה לתוך הראש שלכם.
12:36
(Laughterצחוק)
254
744760
2016
(צחוק)
12:38
The deeperעמוק יותר problemבְּעָיָה is that
buildingבִּניָן superintelligentsuperintelligent AIAI on its ownשֶׁלוֹ
255
746800
5336
הבעיה העמוקה יותר היא שבניית
בינה מלאכותית סופר-אינטליגנטית לבדה
12:44
seemsנראה likelyסָבִיר to be easierקל יותר
256
752160
1736
נראית קלה יותר
12:45
than buildingבִּניָן superintelligentsuperintelligent AIAI
257
753920
1856
מבניית בינה מלאכותית סופר-אינטליגנטית
12:47
and havingשיש the completedהושלמה neuroscienceמדעי המוח
258
755800
1776
וגם הבנה מלאה במדעי המוח
12:49
that allowsמאפשרים us to seamlesslyבצורה חלקה
integrateלשלב our mindsמוחות with it.
259
757600
2680
שתאפשר לנו לשלב באופן מושלם
אותה עם מוחנו.
12:52
And givenנָתוּן that the companiesחברות
and governmentsממשלות doing this work
260
760800
3176
ובהתחשב בכך שחברות וממשלות
שעושות את העבודה הזו
12:56
are likelyסָבִיר to perceiveלִתְפּוֹס themselvesעצמם
as beingלהיות in a raceגזע againstמול all othersאחרים,
261
764000
3656
כנראה יראו את עצמן במרוץ כנגד כל האחרות,
12:59
givenנָתוּן that to winלנצח this raceגזע
is to winלנצח the worldעוֹלָם,
262
767680
3256
ובהתחשב שנצחון במרוץ הזה
משמעותו לזכות בעולם,
13:02
providedבתנאי you don't destroyלהרוס it
in the nextהַבָּא momentרֶגַע,
263
770960
2456
בתנאי שלא תהרסו אותו ברגע שאחרי,
13:05
then it seemsנראה likelyסָבִיר
that whateverמה שתגיד is easierקל יותר to do
264
773440
2616
אז נראה סביר שמה שקל יותר לעשות
13:08
will get doneבוצע first.
265
776080
1200
ייעשה קודם.
13:10
Now, unfortunatelyלצערי,
I don't have a solutionפִּתָרוֹן to this problemבְּעָיָה,
266
778560
2856
למרבה הצער, אין לי פתרון לבעיה הזו,
13:13
apartמלבד from recommendingהמלצה
that more of us think about it.
267
781440
2616
מלבד להמליץ שיותר מאיתנו יחשבו עליה.
אני חושב שאנחנו צריכים משהו
כמו פרויקט מנהטן
13:16
I think we need something
like a Manhattanמנהטן Projectפּרוֹיֶקט
268
784080
2376
13:18
on the topicנוֹשֵׂא of artificialמְלָאכוּתִי intelligenceאינטליגנציה.
269
786480
2016
לנושא של בינה מלאכותית.
13:20
Not to buildלִבנוֹת it, because I think
we'llטוֹב inevitablyבאופן בלתי נמנע do that,
270
788520
2736
לא כדי לבנות אותה, כי לדעתי
זה בלתי נמנע שנעשה זאת,
13:23
but to understandמבין
how to avoidלְהִמָנַע an armsנשק raceגזע
271
791280
3336
אלא כדי להבין איך נמנעים ממרוץ חימוש
13:26
and to buildלִבנוֹת it in a way
that is alignedמיושר with our interestsאינטרסים.
272
794640
3496
וכדי לבנות אותה באופן שעולה
בקנה אחד עם האינטרסים שלנו.
13:30
When you're talkingשִׂיחָה
about superintelligentsuperintelligent AIAI
273
798160
2136
כשמדברים על בינה מלאכותית סופר-אינטליגנטית
13:32
that can make changesשינויים to itselfעצמה,
274
800320
2256
שיכולה לשנות את עצמה,
13:34
it seemsנראה that we only have one chanceהִזדַמְנוּת
to get the initialהתחלתי conditionsתנאים right,
275
802600
4616
נראה שיש לנו רק הזדמנות אחת
ליצור תנאי פתיחה נכונים,
13:39
and even then we will need to absorbלִסְפּוֹג
276
807240
2056
ואפילו אז נצטרך לספוג
13:41
the economicכַּלְכָּלִי and politicalפּוֹלִיטִי
consequencesהשלכות of gettingמקבל them right.
277
809320
3040
את ההשלכות הפוליטיות והכלכליות
שקשורות בכך.
13:45
But the momentרֶגַע we admitלְהוֹדוֹת
278
813760
2056
אבל ברגע שנודה בכך
13:47
that informationמֵידָע processingמעבד
is the sourceמָקוֹר of intelligenceאינטליגנציה,
279
815840
4000
שעיבוד מידע הוא המקור לאינטליגנציה,
13:52
that some appropriateמתאים computationalחישובית systemמערכת
is what the basisבָּסִיס of intelligenceאינטליגנציה is,
280
820720
4800
שמערכת חישובית מתאימה
היא הבסיס לאינטליגנציה,
13:58
and we admitלְהוֹדוֹת that we will improveלְשַׁפֵּר
these systemsמערכות continuouslyברציפות,
281
826360
3760
ונקבל שאנחנו נמשיך לשפר
את המערכות האלו ללא הפסקה,
14:03
and we admitלְהוֹדוֹת that the horizonהאופק
of cognitionקוגניציה very likelyסָבִיר farרָחוֹק exceedsעולה על
282
831280
4456
ונקבל שככל הנראה אופק הקוגניציה רחוק בהרבה
14:07
what we currentlyכַּיוֹם know,
283
835760
1200
מזה שאנו מכירים כיום,
14:10
then we have to admitלְהוֹדוֹת
284
838120
1216
אז עלינו לקבל
14:11
that we are in the processתהליך
of buildingבִּניָן some sortסוג of god.
285
839360
2640
שאנחנו בתהליך של בניית אל כלשהו.
14:15
Now would be a good time
286
843400
1576
ועכשיו יהיה זמן טוב
14:17
to make sure it's a god we can liveלחיות with.
287
845000
1953
לוודא שזה אל שנוכל לחיות איתו.
14:20
Thank you very much.
288
848120
1536
תודה רבה לכם.
14:21
(Applauseתְשׁוּאוֹת)
289
849680
5093
(מחיאות כפיים)
Translated by Yuri Dulkin
Reviewed by zeeva Livshitz

▲Back to top

ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com