ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com
TEDGlobal 2005

Nick Bostrom: A philosophical quest for our biggest problems

ניק בוסטרום על בעיותינו הגדולות ביותר

Filmed:
967,767 views

הפילוסוף מאוקסופורד והטרנס-הומניסט ניק בוסטרום בוחן את העתיד של בני האדם ושואל האם אפשר לשנות את הטבע המהותי של האנוש כדי לפתור את הבעיות הכי אינהרנטיות שלנו.
- Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us? Full bio

Double-click the English transcript below to play the video.

00:24
I want to talk todayהיום about --
0
0
3000
אני רוצה לדבר היום על --
00:27
I've been askedשאל to take the long viewנוף, and I'm going to tell you what
1
3000
6000
התבקשתי להסתכל לטווח הארוך, ואני אגיד לכם מהן לדעתי
00:33
I think are the threeשְׁלוֹשָׁה biggestהגדול ביותר problemsבעיות for humanityאֶנוֹשִׁיוּת
2
9000
4000
שלוש הבעיות הכי גדולות של בני האדם.
00:37
from this long pointנְקוּדָה of viewנוף.
3
13000
3000
מנקודת המבט הזו
00:40
Some of these have alreadyכְּבָר been touchedנגע uponעַל by other speakersרמקולים,
4
16000
3000
על חלקן כבר דיברו מרצים אחרים
00:43
whichאיזה is encouragingמְעוֹדֵד.
5
19000
2000
שזה מעודד אותי
00:45
It seemsנראה that there's not just one personאדם
6
21000
2000
נדמה כי יש יותר מלבד איש אחד
00:47
who thinksחושב that these problemsבעיות are importantחָשׁוּב.
7
23000
2000
שחושב שהבעיות הללו חשובות.
00:49
The first is -- deathמוות is a bigגָדוֹל problemבְּעָיָה.
8
25000
4000
הראשונה היא -- המוות הוא בעיה גדולה.
00:53
If you look at the statisticsסטָטִיסטִיקָה,
9
29000
3000
אם תסתכלו על הסטטיסטיקות
00:56
the oddsקְטָטָה are not very favorableחִיוּבִי to us.
10
32000
2000
הסיכוים נגדנו.
00:58
So farרָחוֹק, mostרוב people who have livedחי have alsoגַם diedמת.
11
34000
4000
נכון לעכשיו, רוב האנשים שחיו עד כה גם מתו.
01:02
Roughlyבְּעֵרֶך 90 percentאָחוּז of everybodyכולם who has been aliveבחיים has diedמת by now.
12
38000
4000
בערך 90 אחוז מכל מי שפעם היה בחיים עכשיו מת.
01:06
So the annualשנתי deathמוות rateציון addsמוסיף up to 150,000 --
13
42000
6000
שיעור התמותה השנתי מגיע ל150,000 --
01:12
sorry, the dailyיום יומי deathמוות rateציון -- 150,000 people perלְכָל day,
14
48000
3000
סליחה, השיעור היומי -- 150,000 ביום
01:15
whichאיזה is a hugeעָצוּם numberמספר by any standardתֶקֶן.
15
51000
3000
שזה מספר ענק לפי כל קנה מידה.
01:18
The annualשנתי deathמוות rateציון, then, becomesהופך 56 millionמִילִיוֹן.
16
54000
5000
כך שהשיעור השנתי מגיע ל56 מיליון.
01:23
If we just look at the singleיחיד, biggestהגדול ביותר causeגורם of deathמוות -- agingהְזדַקְנוּת --
17
59000
5000
אם נסתכל על הגורם העקרי למוות -- זקנה --
01:29
it accountsחשבונות for roughlyבְּעֵרֶך two-thirdsשני שליש of all humanבן אנוש people who dieלָמוּת.
18
65000
5000
היא גורמת לבערך שני-שליש של כל מקרי המוות בעולם.
01:34
That addsמוסיף up to an annualשנתי deathמוות tollאַגרָה
19
70000
3000
זה מחיר דמים שנתי
01:37
of greaterגדול יותר than the populationאוּכְלוֹסִיָה of Canadaקנדה.
20
73000
2000
שיותר גדול מהאוכלוסיה של קנדה.
01:39
Sometimesלִפְעָמִים, we don't see a problemבְּעָיָה
21
75000
2000
לפעמים, אנחנו לא רואים בעיה
01:41
because eitherאוֹ it's too familiarמוּכָּר or it's too bigגָדוֹל.
22
77000
4000
מפני שהיא מוכרת מדי או שהיא גדולה מדי.
01:45
Can't see it because it's too bigגָדוֹל.
23
81000
2000
לא רואים אותה כי היא גדולה מדי.
01:47
I think deathמוות mightאולי be bothשניהם too familiarמוּכָּר and too bigגָדוֹל
24
83000
3000
לדעתי המוות גדול מדי וגם מוכר מדי
01:50
for mostרוב people to see it as a problemבְּעָיָה.
25
86000
3000
בשביל שרוב האנשים יראו אותו בתור בעיה.
01:53
Onceפַּעַם you think about it, you see this is not statisticalסטָטִיסטִי pointsנקודות;
26
89000
2000
ברגע שחושבים על זה, רואים שזה לא מידע סטטיסטי;
01:55
these are -- let's see, how farרָחוֹק have I talkedדיבר?
27
91000
2000
זה -- בואו נראה, כמה זמן כבר דברתי?
01:57
I've talkedדיבר for threeשְׁלוֹשָׁה minutesדקות.
28
93000
3000
אני מדבר כבר שלוש דקות.
02:00
So that would be, roughlyבְּעֵרֶך, 324 people have diedמת sinceמאז I've begunהתחיל speakingמדבר.
29
96000
7000
אז זה, בערך, 324 אנשים מתו מאז שהתחלתי לדבר.
02:07
People like -- it's roughlyבְּעֵרֶך the populationאוּכְלוֹסִיָה in this roomחֶדֶר has just diedמת.
30
103000
4000
אנשים כמו -- זה בערך מספר האנשים שנמצאים באולם הזה, מתו.
02:12
Now, the humanבן אנוש costעֲלוּת of that is obviousברור,
31
108000
2000
עכשיו, המחיר האנושי ברור
02:14
onceפַּעַם you startהַתחָלָה to think about it -- the sufferingסֵבֶל, the lossהֶפסֵד --
32
110000
3000
כאשר אתה מתחיל לחשוב עליו -- הסבל, האובדן --
02:17
it's alsoגַם, economicallyכלכלית, enormouslyמְאוֹד מְאוֹד wastefulבַּזבְּזָנִי.
33
113000
3000
זה גם, מבחינה כלכלית, בזבוז ענק.
02:20
I just look at the informationמֵידָע, and knowledgeיֶדַע, and experienceניסיון
34
116000
3000
אני פשוט מסתכל על המידע, הידע והניסיון
02:23
that is lostאבד dueעקב to naturalטִבעִי causesגורם ל of deathמוות in generalכללי,
35
119000
3000
שנאבדו כתוצאה של מוות טבעי באופן כללי,
02:26
and agingהְזדַקְנוּת, in particularמיוחד.
36
122000
2000
וזקנה, במיוחד.
02:28
Supposeלְהַנִיחַ we approximatedקירוב one personאדם with one bookסֵפֶר?
37
124000
3000
נגיד ונעריך בן אדם אחד כשווה לספר אחד?
02:31
Now, of courseקוּרס, this is an underestimationהַעֲרָכָה נְמוּכָה מִדַי.
38
127000
2000
עכשיו, כמובן, זו הערכת חסר.
02:33
A person'sשל אדם lifetimeלכל החיים of learningלְמִידָה and experienceניסיון
39
129000
6000
הלמידה והניסיון של תקופת חיים של בן אדם
02:39
is a lot more than you could put into a singleיחיד bookסֵפֶר.
40
135000
2000
היא הרבה יותר ממה שאפשר לשים בספר.
02:41
But let's supposeלְהַנִיחַ we did this.
41
137000
2000
אבל בואו נגיד שנשווה בינהם.
02:44
52 millionמִילִיוֹן people dieלָמוּת of naturalטִבעִי causesגורם ל eachכל אחד yearשָׁנָה
42
140000
5000
52 מיליון אנשים מתים מסיבות טבעיות כל שנה
02:49
correspondsתואמת, then, to 52 millionמִילִיוֹן volumesכרכים destroyedנהרס.
43
145000
4000
וזה משתווה ל 52 מיליון ספרים שנהרסו.
02:53
Libraryסִפְרִיָה of Congressקוֹנגרֶס holdsמחזיק 18 millionמִילִיוֹן volumesכרכים.
44
149000
3000
ספריית הקונגרס מכילה 18 מיליון ספרים.
02:57
We are upsetלהרגיז about the burningשריפה of the Libraryסִפְרִיָה of Alexandriaאלכסנדריה.
45
153000
3000
היינו בהלם כשספריית אלכסנדריה נשרפה.
03:00
It's one of the great culturalתַרְבּוּתִי tragediesטרגדיות
46
156000
2000
זה אחת הטרגדיות התרבותיות הגדולות
03:02
that we rememberלִזכּוֹר, even todayהיום.
47
158000
3000
שנזכרת עד היום.
03:06
But this is the equivalentהמקבילה of threeשְׁלוֹשָׁה Librariesספריות of Congressקוֹנגרֶס --
48
162000
2000
אבל זה שווה לשלוש ספריות קונגרס --
03:08
burntשַׂרוּף down, foreverלָנֶצַח lostאבד -- eachכל אחד yearשָׁנָה.
49
164000
3000
נשרפות, נאבדות לתמיד -- כל שנה.
03:11
So that's the first bigגָדוֹל problemבְּעָיָה.
50
167000
2000
אז זו הבעיה הראשונה.
03:13
And I wishבַּקָשָׁה GodspeedGodspeed to Aubreyאוברי dede Greyאפור,
51
169000
3000
ואני מאחל דרך צלחה לאוברי דה גריי,
03:16
and other people like him,
52
172000
2000
ועוד אנשים כמוהו,
03:18
to try to do something about this as soonבקרוב as possibleאפשרי.
53
174000
3000
שינסו לעשות משהו בנוגע לזה כמה שיותר מהר.
03:22
Existentialאקזיסטנציאלי riskלְהִסְתָכֵּן -- the secondשְׁנִיָה bigגָדוֹל problemבְּעָיָה.
54
178000
3000
סיכון אקסיסטנציאלי -- הבעיה השנייה.
03:25
Existentialאקזיסטנציאלי riskלְהִסְתָכֵּן is a threatאִיוּם to humanבן אנוש survivalהישרדות, or to the long-termטווח ארוך potentialפוטנציאל of our speciesמִין.
55
181000
7000
סיכון אקסיסטנציאלי הוא הוא סיכון להשרדותו של האדם, או לפוטנציאל לאורך טווח של גזענו.
03:32
Now, why do I say that this is a bigגָדוֹל problemבְּעָיָה?
56
188000
2000
עכשיו, מדוע אני אומר כי זו בעיה גדולה?
03:34
Well, let's first look at the probabilityהִסתַבְּרוּת --
57
190000
4000
בואו נסתכל על ההסתברות --
03:38
and this is very, very difficultקָשֶׁה to estimateלְהַעֲרִיך --
58
194000
3000
וזה מאוד, מאוד קשה להעריך --
03:41
but there have been only fourארבעה studiesלימודים on this in recentלאחרונה yearsשנים,
59
197000
3000
אבל היו רק ארבעה מחקרים בשנים אחרונות,
03:44
whichאיזה is surprisingמַפתִיעַ.
60
200000
2000
שזה מפתיע.
03:46
You would think that it would be of some interestריבית
61
202000
3000
היית חושב כי הנושא היה מעורר הרבה עניין
03:49
to try to find out more about this givenנָתוּן that the stakesהימור are so bigגָדוֹל,
62
205000
4000
בלגלות יותר בעניין זה לאור ההשלכות הגדולות.
03:53
but it's a very neglectedמוזנח areaאֵזוֹר.
63
209000
2000
אך זה תחום מוזנח למדי.
03:55
But there have been fourארבעה studiesלימודים --
64
211000
2000
אך בוצעו ארבעה מחקרים --
03:57
one by Johnג'ון Lesleyלסלי, wroteכתבתי a bookסֵפֶר on this.
65
213000
2000
אחד קים ג'ון לאסלי, מי שכתב ספר בנושא.
03:59
He estimatedמְשׁוֹעָר a probabilityהִסתַבְּרוּת that we will failלְהִכָּשֵׁל
66
215000
2000
הוא שיער את ההסתברות שנכשל
04:01
to surviveלִשְׂרוֹד the currentנוֹכְחִי centuryמֵאָה: 50 percentאָחוּז.
67
217000
3000
לשרוד את תקופת מאה השנים האלו: 50 אחוז.
04:04
Similarlyבאופן דומה, the Astronomerאַסטרוֹנוֹם Royalמלכותי, whomמִי we heardשמע speakלְדַבֵּר yesterdayאתמול,
68
220000
5000
באופן דומה, האסטרונום רויאל, שממנו שמענו אתמול,
04:09
alsoגַם has a 50 percentאָחוּז probabilityהִסתַבְּרוּת estimateלְהַעֲרִיך.
69
225000
3000
גם משער 50 אחוז הסתברות.
04:12
Anotherאַחֵר authorמְחַבֵּר doesn't give any numericalמִספָּרִי estimateלְהַעֲרִיך,
70
228000
3000
עוד חוקר אחד לא נותן השערה מספרית,
04:15
but saysאומר the probabilityהִסתַבְּרוּת is significantמשמעותי that it will failלְהִכָּשֵׁל.
71
231000
3000
אך אומר כי ההסתברות שנכשל משמעותית.
04:18
I wroteכתבתי a long paperעיתון on this.
72
234000
3000
אני כתבתי חיבור ארוך בנושא הזה.
04:21
I said assigningלהקצות a lessפָּחוּת than 20 percentאָחוּז probabilityהִסתַבְּרוּת would be a mistakeטעות
73
237000
4000
אני אמרתי שלהציע הסתברות שנמוכה מ20 אחוז תהיה טעות
04:25
in lightאוֹר of the currentנוֹכְחִי evidenceעֵדוּת we have.
74
241000
3000
לאור ההוכחות הקיימות.
04:28
Now, the exactמְדוּיָק figuresדמויות here,
75
244000
2000
עכשיו, המידע המדויק פה,
04:30
we should take with a bigגָדוֹל grainתְבוּאָה of saltמלח,
76
246000
2000
לא כדאי שנקח אותו ביותר מדי רצינות,
04:32
but there seemsנראה to be a consensusקוֹנסֶנזוּס that the riskלְהִסְתָכֵּן is substantialמַמָשִׁי.
77
248000
3000
אבל נדמה כי קיים קונצנזוס כי הסיכון הוא משמעותי.
04:35
Everybodyכולם who has lookedהביט at this and studiedמְחוֹשָׁב it agreesמסכים.
78
251000
3000
כל מי שבחן את זה וחקר את זה מסכים.
04:38
Now, if we think about what just reducingצמצום
79
254000
2000
עכשיו אם נחשוב על לצמצם
04:40
the probabilityהִסתַבְּרוּת of humanבן אנוש extinctionהַכחָדָה by just one percentageאֲחוּזִים pointנְקוּדָה --
80
256000
5000
את הסיכון של ההכחדה של האדם ברק אחוז אחד --
04:45
not very much -- so that's equivalentהמקבילה to 60 millionמִילִיוֹן livesחיים savedנשמר,
81
261000
5000
לא כל כך הרבה -- אז זה שווה ל 60 מיליון אנשים שניצלים.
04:50
if we just countלספור the currentlyכַּיוֹם livingחַי people, the currentנוֹכְחִי generationדוֹר.
82
266000
4000
אם רק נספור את מספר האנשים שחיים עתה, הדור העכשווי.
04:54
Now one percentאָחוּז of sixשֵׁשׁ billionמיליארד people is equivalentהמקבילה to 60 millionמִילִיוֹן.
83
270000
4000
עכשיו אחד אחוז של 6 מיליארד שווה 60 מיליון.
04:58
So that's a largeגָדוֹל numberמספר.
84
274000
2000
אז זה מספר גדול.
05:00
If we were to take into accountחֶשְׁבּוֹן futureעתיד generationsדורות
85
276000
3000
אם ניקח בחשבון את דורות עתידיים
05:03
that will never come into existenceקִיוּם if we blowלנשוף ourselvesבְּעָצמֵנוּ up,
86
279000
5000
שלא יתקיימו אם נפוצץ את עצמנו,
05:08
then the figureדמות becomesהופך astronomicalאסטרונומי.
87
284000
3000
אז המספרים נעשים אסטרונומיים.
05:11
If we could eventuallyבסופו של דבר colonizeלְיַשֵׁב a chunkחתיכה of the universeעוֹלָם --
88
287000
3000
אם נוכל לאכלס חלק מהיקום --
05:14
the Virgoמַזַל בְּתוּלָה superclusterסופר --
89
290000
2000
צביר-על הבתולה --
05:16
maybe it will take us 100 millionמִילִיוֹן yearsשנים to get there,
90
292000
2000
אולי יקח לנו 100 מיליון שנה להגיע לזה,
05:18
but if we go extinctנִכחָד we never will.
91
294000
3000
אבל אם נכחד לא נגיע אף פעם.
05:21
Then, even a one percentageאֲחוּזִים pointנְקוּדָה reductionצִמצוּם
92
297000
3000
אז, אפילו צמצום של אחוז אחד
05:24
in the extinctionהַכחָדָה riskלְהִסְתָכֵּן could be equivalentהמקבילה
93
300000
4000
בסיכון ההכחדה שלנו יכול להשתוות
05:28
to this astronomicalאסטרונומי numberמספר -- 10 to the powerכּוֹחַ of 32.
94
304000
3000
למספר האסטרונומי הזה -- 10 בחזקה 32.
05:31
So if you take into accountחֶשְׁבּוֹן futureעתיד generationsדורות as much as our ownשֶׁלוֹ,
95
307000
4000
אז אם לוקחים בחשבון את הדורות העתידיים
05:35
everyכֹּל other moralמוסר השכל imperativeהֶכְרֵחִי of philanthropicפילנתרופית costעֲלוּת just becomesהופך irrelevantלא רלוונטי.
96
311000
5000
כל ציווי מוסרי של מחיר פילנתרופי נעשה שולי.
05:40
The only thing you should focusמוֹקֵד on
97
316000
2000
הדבר היחיד שכדאי להתמקד בו
05:42
would be to reduceלְהַפחִית existentialקיומית riskלְהִסְתָכֵּן
98
318000
2000
הוא לצמצם את הסיכון האקסיסטנציאלי
05:44
because even the tiniestהזעיר ביותר decreaseלְהַקְטִין in existentialקיומית riskלְהִסְתָכֵּן
99
320000
4000
כי אפילו הצמצום הזעיר ביותר
05:48
would just overwhelmלְהַצִיף any other benefitתועלת you could hopeלְקַווֹת to achieveלְהַשִׂיג.
100
324000
4000
היה מכניע כל יתרון אחר שאפשר להשיג.
05:52
And even if you just look at the currentנוֹכְחִי people,
101
328000
2000
ואפילו אם נסתכל רק על האנשים הקיימים,
05:54
and ignoreלהתעלם the potentialפוטנציאל that would be lostאבד if we wentהלך extinctנִכחָד,
102
330000
5000
ונתעלם מהפוטנציאל שיאבד אם היינו נכחדים,
05:59
it should still have a highגָבוֹהַ priorityעדיפות.
103
335000
2000
זה עדיין צריך להיות בעדיפות גבוהה.
06:01
Now, let me spendלְבַלוֹת the restמנוחה of my time on the thirdשְׁלִישִׁי bigגָדוֹל problemבְּעָיָה,
104
337000
5000
עכשיו אדבר בזמן שנותר לי על הבעיה השלישית,
06:06
because it's more subtleעָדִין and perhapsאוּלַי difficultקָשֶׁה to graspלִתְפּוֹס.
105
342000
5000
כי הוא יותר עדין ואולי קשה לקלוט.
06:12
Think about some time in your life --
106
348000
4000
תחשבו על תקופה מסוימת בחייכם --
06:16
some people mightאולי never have experiencedמְנוּסֶה it -- but some people,
107
352000
3000
לאחדים מאיתנו תקופה כזאת אולי לא נחוותה -- אבל השאר
06:19
there are just those momentsרגעים that you have experiencedמְנוּסֶה
108
355000
3000
יש את החוויות שחוויתם
06:22
where life was fantasticפַנטַסטִי.
109
358000
2000
כאשר החיים היו נפלאים.
06:24
It mightאולי have been at the momentרֶגַע of some great, creativeיְצִירָתִי inspirationהַשׁרָאָה
110
360000
7000
זה אולי קרה יחד עם רגע של השראה יצירתית
06:31
you mightאולי have had when you just enteredנכנס this flowזְרִימָה stageשלב.
111
367000
2000
שהיה לכם כשנכנסתם לתקופה של מוזה
06:33
Or when you understoodהבין something you had never doneבוצע before.
112
369000
2000
או כשהבנתם משהו שלא הבנתם קודם
06:35
Or perhapsאוּלַי in the ecstasyאֶקסְטָזָה of romanticרוֹמַנטִי love.
113
371000
4000
או אולי באקסטזה של אהבה רומנטית.
06:39
Or an aestheticאֶסתֵטִי experienceניסיון -- a sunsetשקיעת החמה or a great pieceלְחַבֵּר of artאומנות.
114
375000
5000
או בחוויה אסטטית -- שקיעת שמש או יצירת אומנות.
06:44
Everyכֹּל onceפַּעַם in a while we have these momentsרגעים,
115
380000
2000
מדי פעם יש לנו רגעים כאלה,
06:46
and we realizeלִהַבִין just how good life can be when it's at its bestהטוב ביותר.
116
382000
4000
ואנו מבינים עד כמה החיים יכולים להיות טובים כשהם בשיאם.
06:50
And you wonderפֶּלֶא, why can't it be like that all the time?
117
386000
5000
ואתה תוהה למה זה לא יכול להיות ככה כל הזמן?
06:55
You just want to clingלִדבּוֹק ontoעַל גַבֵּי this.
118
391000
2000
אתה רוצה לתפוס ולא לשחרר את הרגע.
06:57
And then, of courseקוּרס, it driftsנסחף back into ordinaryרגיל life and the memoryזיכרון fadesדוהה.
119
393000
4000
ואז, כמובן, החיים חוזרים להיות רגילים והזכרון דוהה.
07:01
And it's really difficultקָשֶׁה to recallלִזכּוֹר, in a normalנוֹרמָלִי frameמִסגֶרֶת of mindאכפת,
120
397000
4000
ומאוד קשה להיזכר בו בחיים היומיומיים.
07:05
just how good life can be at its bestהטוב ביותר.
121
401000
3000
כמה יפים חיים יכולים להיות בשיאם.
07:08
Or how badרַע it can be at its worstהכי גרוע.
122
404000
3000
או כמה גרועים הם כשהם הכי גרועים.
07:11
The thirdשְׁלִישִׁי bigגָדוֹל problemבְּעָיָה is that life isn't usuallyבְּדֶרֶך כְּלַל
123
407000
3000
הבעיה השלישית היא שהחיים בדרך כלל לא
07:14
as wonderfulנִפלָא as it could be.
124
410000
2000
נפלאים כמו שהם יכולים להיות.
07:16
I think that's a bigגָדוֹל, bigגָדוֹל problemבְּעָיָה.
125
412000
4000
אני חושב שזובעיה גדולה.
07:20
It's easyקַל to say what we don't want.
126
416000
2000
קל לאמר מה אנחנו לא רוצים.
07:23
Here are a numberמספר of things that we don't want --
127
419000
3000
הנה מספר דברים שאנחנו לא רוצים --
07:26
illnessמַחֲלָה, involuntaryלֹא רְצוֹנִי deathמוות, unnecessaryמְיוּתָר sufferingסֵבֶל, crueltyאַכְזָרִיוּת,
128
422000
3000
מחלות, מוות בלתי רצוי, סבל מיותר, אכזריות,
07:29
stuntedמתנודד growthצְמִיחָה, memoryזיכרון lossהֶפסֵד, ignoranceבּוּרוּת, absenceהֶעְדֵר of creativityיְצִירָתִיוּת.
129
425000
5000
גדילה מוגבלת, אובדן זכרון, בורות, חוסר יצירתיות.
07:35
Supposeלְהַנִיחַ we fixedתוקן these things -- we did something about all of these.
130
431000
3000
נניח שנתקן את הדברים האלה - שעשינו משהו כדי לטפל בכל הדברים האלה
07:38
We were very successfulמוּצלָח.
131
434000
2000
הצלחנו מאוד.
07:40
We got ridלְשַׁחְרֵר of all of these things.
132
436000
2000
נפטרנו מכל הדברים האלה.
07:42
We mightאולי endסוֹף up with something like this,
133
438000
3000
אולי היה יוצא לנו משהו כזה,
07:45
whichאיזה is -- I mean, it's a heckלעזאזל of a lot better than that.
134
441000
4000
שזה -- כלומר זה הרבה יותר טוב מזה.
07:49
But is this really the bestהטוב ביותר we can dreamחולם of?
135
445000
5000
אבל זה באמת הכי טוב שאפשר לשאוף?
07:54
Is this the bestהטוב ביותר we can do?
136
450000
2000
זה הכי טוב שאנחנו יכולים לעשות?
07:56
Or is it possibleאפשרי to find something a little bitbit more inspiringמעורר השראה to work towardsלִקרַאת?
137
452000
6000
או קיים דבר יותר טוב שכדאי לעבוד לקראתו?
08:02
And if we think about this,
138
458000
2000
ואם נחשוב על זה,
08:04
I think it's very clearברור that there are waysדרכים
139
460000
4000
ברור מאוד שיש דרכים
08:08
in whichאיזה we could changeשינוי things, not just by eliminatingביטול negativesשליליות,
140
464000
3000
לשנות דברים, לא רק בהסרת דברים שליליים,
08:11
but addingמוֹסִיף positivesחיוביים.
141
467000
2000
אלא גם בהוספת דברים חיוביים.
08:13
On my wishבַּקָשָׁה listרשימה, at leastהכי פחות, would be:
142
469000
2000
ברשימת הבקשות שלי היו:
08:15
much longerארוך יותר, healthierבריא יותר livesחיים, greaterגדול יותר subjectiveסובייקטיבית well-beingרווחה,
143
471000
5000
חיים הרבה יותר ארוכים ובריאים, רמת רווחה יותר גבוהה באופן סוביקטיבי,
08:20
enhancedמשופרת cognitiveקוגניטיבית capacitiesקיבולת, more knowledgeיֶדַע and understandingהֲבָנָה,
144
476000
5000
יכולות מוחיות מוגברות, יותר ידע והבנה,
08:25
unlimitedללא הגבלה opportunityהִזדַמְנוּת for personalאישי growthצְמִיחָה
145
481000
2000
הזדמנויות להתפתחות אישית ללא הגבלות
08:27
beyondמעבר our currentנוֹכְחִי biologicalבִּיוֹלוֹגִי limitsגבולות, better relationshipsיחסים,
146
483000
4000
מעבר לגבולותנו הביולוגיים, קשרים יותר טובים,
08:31
an unboundedבִּלתִי מוּגבָּל potentialפוטנציאל for spiritualרוחני, moralמוסר השכל
147
487000
2000
פוטנציאל להתפתחות רוחנית, מוסרית
08:33
and intellectualאִינטֶלֶקְטוּאַלִי developmentהתפתחות.
148
489000
2000
ואינטלקטואלית בלתי מוגבלת.
08:35
If we want to achieveלְהַשִׂיג this, what, in the worldעוֹלָם, would have to changeשינוי?
149
491000
8000
אם היינו רוצים להשיג את זה, מה, בעולמנו, היה צריך להשתנות?
08:43
And this is the answerתשובה -- we would have to changeשינוי.
150
499000
5000
וזאת התשובה -- אנחנו צריכים להשתנות.
08:48
Not just the worldעוֹלָם around us, but we, ourselvesבְּעָצמֵנוּ.
151
504000
3000
לא רק את העולם מסביב, אלא אנחנו, עצמנו.
08:51
Not just the way we think about the worldעוֹלָם, but the way we are -- our very biologyביולוגיה.
152
507000
4000
לא רק איך שאנחנו חושבים על העולם, אלא גם איך שאנחנו -- הביולוגיה שלנו.
08:55
Humanבן אנוש natureטֶבַע would have to changeשינוי.
153
511000
2000
הטבע האנושי היה צריך להשתנות.
08:57
Now, when we think about changingמִשְׁתַנֶה humanבן אנוש natureטֶבַע,
154
513000
2000
עכשיו, כשאנחנו חושבים על לשנות את הטבע האנושי,
08:59
the first thing that comesבא to mindאכפת
155
515000
2000
הדבר הראשון שעולה על דעתנו
09:01
are these humanבן אנוש modificationשינוי technologiesטכנולוגיות --
156
517000
4000
הוא הטכנולוגיה לשיפור האנוש --
09:05
growthצְמִיחָה hormoneהוֹרמוֹן therapyתֶרַפּיָה, cosmeticקוֹסמֵטִי surgeryכִּירוּרגִיָה,
157
521000
2000
טיפול בהורמוני גדילה, ניתוחים פלסטיים,
09:07
stimulantsממריצים like Ritalinריטלין, AdderallAdderall, anti-depressantsנוגדי דיכאון,
158
523000
3000
סמים ממריצים כגון ריטלין, אדראל, תרופות נגד דכאון,
09:10
anabolicאנבוליים steroidsסטֵרֵאוֹדִים, artificialמְלָאכוּתִי heartsלבבות.
159
526000
2000
סטרואידים אנאבוליים, לבבות מלאכותיים.
09:12
It's a prettyיפה patheticמעורר רחמים listרשימה.
160
528000
3000
רשימה די פתטית.
09:15
They do great things for a fewמְעַטִים people
161
531000
2000
הם עושים דברים נפלאים למעטים מאיתנו
09:17
who sufferסובל from some specificספֵּצִיפִי conditionמַצָב,
162
533000
2000
שסובלים מבעיות מסוימות,
09:19
but for mostרוב people, they don't really transformשינוי צורה
163
535000
5000
אך לרובנו, הם לא ממש משנים
09:24
what it is to be humanבן אנוש.
164
540000
2000
את עצם האנושיות.
09:26
And they alsoגַם all seemנראה a little bitbit --
165
542000
2000
ובנוסף הם כולם נראים קצת --
09:28
mostרוב people have this instinctיֵצֶר that, well, sure,
166
544000
3000
לרוב האנשים יש אינסטינקט ש, ובכן,
09:31
there needsצרכי to be anti-depressantsנוגדי דיכאון for the really depressedמְדוּכָּא people.
167
547000
2000
צריכות להיות תרופות נגד דכאון לסובלי דכאון חמור.
09:33
But there's a kindסוג of queasinessבְּחִילָה
168
549000
2000
אבל יש מעין אי נוחות
09:35
that these are unnaturalלֹא טִבעִי in some way.
169
551000
3000
שהן לא טבעיות באיזשהו מובן.
09:38
It's worthשִׁוּוּי recallingנזכר that there are a lot of other
170
554000
2000
שווה לזכור שיש הרבה
09:40
modificationשינוי technologiesטכנולוגיות and enhancementהַגבָּרָה technologiesטכנולוגיות that we use.
171
556000
3000
טכנולוגיות לשיפור ושינוי האנוש אחרות שמשמשות אותנו.
09:43
We have skinעור enhancementsשיפורים, clothingהַלבָּשָׁה.
172
559000
4000
יש לנו אמצעי שיפור עור, בגדים.
09:47
As farרָחוֹק as I can see, all of you are usersמשתמשים of this
173
563000
4000
ככל הנראה, כולכם פה משתמשים
09:51
enhancementהַגבָּרָה technologyטֶכנוֹלוֹגִיָה in this roomחֶדֶר, so that's a great thing.
174
567000
5000
בטכנולוגיות האילו, אז זה דבר מעולה.
09:56
Moodמַצַב רוּחַ modifiersמכפילים have been used from time immemorialקָדוּם --
175
572000
3000
סמים שמשפיעים על מצב הרוח משמשים אותנו כבר מאז זמן שאינו זכור לנו --
09:59
caffeineקָפֵאִין, alcoholכּוֹהֶל, nicotineנִיקוֹטִין, immuneחֲסִין systemמערכת enhancementהַגבָּרָה,
176
575000
5000
קפאין, אלכוהול, ניקוטין, מגבירי מערכת החיסון,
10:04
visionחָזוֹן enhancementהַגבָּרָה, anestheticsהרדמה --
177
580000
2000
משפרי ראיה, חומרי הרדמה --
10:06
we take that very much for grantedשניתנו,
178
582000
2000
אנחנו לוקחים אתם כמובן מאליו,
10:08
but just think about how great progressהתקדמות that is --
179
584000
4000
רק חשבו על כמה התקדמות השגנו --
10:12
like, havingשיש an operationמבצע before anestheticsהרדמה was not funכֵּיף.
180
588000
4000
כלומר, לעשות ניתוח לפני שהיו חומרי הרדמה לא היה כיף.
10:16
Contraceptivesאמצעי מניעה, cosmeticsקוסמטיקה and brainמוֹחַ reprogrammingתכנות מחדש techniquesטכניקות --
181
592000
6000
אמצעי מניעה,קוסמטיקה וטכניקות לשינויים מוחיים --
10:22
that soundsקולות ominousמְאַיֵם,
182
598000
2000
זה נשמע כמבשר רעות,
10:24
but the distinctionהבחנה betweenבֵּין what is a technologyטֶכנוֹלוֹגִיָה --
183
600000
4000
אבל ההבדל בין טכנולוגיה --
10:28
a gadgetמַכשִׁיר would be the archetypeאַב טִיפּוּס --
184
604000
2000
האב-טיפוס יהיה הגאדג'ט --
10:30
and other waysדרכים of changingמִשְׁתַנֶה and rewritingשִׁכתוּב humanבן אנוש natureטֶבַע is quiteדַי subtleעָדִין.
185
606000
4000
ודרכים אחרות לשנות את טבע האנוש הוא מאוד עדין.
10:34
So if you think about what it meansאומר to learnלִלמוֹד arithmeticחֶשְׁבּוֹן or to learnלִלמוֹד to readלקרוא,
186
610000
4000
אז אם תחשוב על מה זה אומר ללמוד חשבון או ללמוד לקרוא
10:38
you're actuallyלמעשה, literallyפשוטו כמשמעו rewritingשִׁכתוּב your ownשֶׁלוֹ brainמוֹחַ.
187
614000
3000
אתה בעצם, באופן מילולי בונה את מוחך מחדש.
10:41
You're changingמִשְׁתַנֶה the microstructureמיקרו of your brainמוֹחַ as you go alongלְאוֹרֶך.
188
617000
3000
אתה משנה את מבנה המיקרו של מוחך תוך כדי.
10:45
So in a broadרָחָב senseלָחוּשׁ, we don't need to think about technologyטֶכנוֹלוֹגִיָה
189
621000
3000
אז בגדול, אנחנו לא צריכים לחשוב על טכנולוגיה
10:48
as only little gadgetsגאדג 'טים, like these things here,
190
624000
2000
רק כגאדג'טים קטנים, כמו אלה פה,
10:50
but even institutionsמוסדות and techniquesטכניקות,
191
626000
4000
אלא גם מוסדות, וטכניקות,
10:54
psychologicalפְּסִיכוֹלוֹגִי methodsשיטות and so forthהָלְאָה.
192
630000
2000
שיטות פסיכולוגיות וכו'.
10:56
Formsטפסים of organizationאִרגוּן can have a profoundעָמוֹק impactפְּגִיעָה on humanבן אנוש natureטֶבַע.
193
632000
5000
צורות אירגון חברתי יכול להשפיע באופן משמעותי על הטבע האנושי.
11:01
Looking aheadקָדִימָה, there is a rangeטווח of technologiesטכנולוגיות
194
637000
2000
במבט קדימה, יש מגוון טכנולוגיות
11:03
that are almostכִּמעַט certainמסוים to be developedמפותח soonerמוקדם יותר or laterיותר מאוחר.
195
639000
3000
שכמעט בוודאות יפתחו אותן בסופו של דבר.
11:06
We are very ignorantבור ועם הארץ about what the time scaleסוּלָם for these things are,
196
642000
4000
אנחנו מאוד לא מודעים למהו טווח הזמן של הדברים האלה,
11:10
but they all are consistentעִקבִי with everything we know
197
646000
2000
אבל הם כולם מותאמים למה שאנחנו יודעים
11:12
about physicalגוּפָנִי lawsחוקי, lawsחוקי of chemistryכִּימִיָה, etcוכו.
198
648000
4000
על חוקי הפיזיקה, כימיה, וכו'
11:16
It's possibleאפשרי to assumeלְהַנִיחַ,
199
652000
2000
אפשר להניח,
11:18
settingהגדרה asideבַּצַד a possibilityאפשרות of catastropheקטסטרופה,
200
654000
3000
אם נשים בצד את האפשרות של אסון,
11:21
that soonerמוקדם יותר or laterיותר מאוחר we will developלְפַתֵחַ all of these.
201
657000
3000
שבסופו של דבר אנחנו נפתח את כולן.
11:24
And even just a coupleזוּג of these would be enoughמספיק
202
660000
3000
ורק כמה מהן יספיקו
11:27
to transformשינוי צורה the humanבן אנוש conditionמַצָב.
203
663000
2000
לשנות את המצב האנושי.
11:29
So let's look at some of the dimensionsממדים of humanבן אנוש natureטֶבַע
204
665000
5000
אז בואו נסתכל על כמה היבטים של טבע האנוש
11:34
that seemנראה to leaveלעזוב roomחֶדֶר for improvementהַשׁבָּחָה.
205
670000
3000
שאולי יש בהם מקום לשיפור.
11:37
Healthבְּרִיאוּת spanלְהַקִיף is a bigגָדוֹל and urgentדחוף thing,
206
673000
2000
טווח הבריאות הוא דבר גדול ודחוף
11:39
because if you're not aliveבחיים,
207
675000
2000
כי אם אתה לא חי,
11:41
then all the other things will be to little availלְהוֹעִיל.
208
677000
3000
אז כל הדברים האחרים לא יעזרו.
11:44
Intellectualאִינטֶלֶקְטוּאַלִי capacityקיבולת -- let's take that boxקופסא,
209
680000
2000
יכולת אינטלקטואלית -- בואו נקח את הנושא הזה,
11:46
whichאיזה fallsנופל into a lot of differentשונה sub-categoriesקטגוריות משנה:
210
682000
5000
שנכלל בהרבה תת-קטגוריות:
11:51
memoryזיכרון, concentrationריכוז, mentalנַפשִׁי energyאֵנֶרְגִיָה, intelligenceאינטליגנציה, empathyאֶמפַּתִיָה.
211
687000
3000
זכרון, ריכוז, כוח מוחי, משכל, אמפטיה.
11:54
These are really great things.
212
690000
2000
אלה דברים ממש טובים.
11:56
Partחֵלֶק of the reasonסיבה why we valueערך these traitsתכונות
213
692000
2000
חלק מהסיבה שאנחנו מעריכים את התכונות הללו
11:58
is that they make us better at competingמתחרים with other people --
214
694000
4000
זה בגלל שהן עוזרות לנו בלהתחרות עם אנשים אחרים --
12:02
they're positionalמקומי goodsסְחוֹרוֹת.
215
698000
2000
הן משאבים מעמדיים.
12:04
But partחֵלֶק of the reasonסיבה --
216
700000
2000
אבל חלק אחר מהסיבה --
12:06
and that's the reasonסיבה why we have ethicalאֶתִי groundקרקע, אדמה for pursuingרודף these --
217
702000
4000
וזאת הסיבה שיש לנו בסיס אתי לרצות להשיג אותן --
12:10
is that they're alsoגַם intrinsicallyבאופן מהותי valuableבעל ערך.
218
706000
3000
זה שהן בעלות ערך באופן מהותי.
12:13
It's just better to be ableיכול to understandמבין more of the worldעוֹלָם around you
219
709000
4000
זה פשוט עדיף להבין יותר טוב את העולם שסביבך
12:17
and the people that you are communicatingמתקשר with,
220
713000
2000
והאנשים שאתה מתקשר איתם,
12:19
and to rememberלִזכּוֹר what you have learnedמְלוּמָד.
221
715000
4000
ולזכור את מה שלמדת עד כה.
12:23
Modalitiesשיטות and specialמיוחד facultiesפקולטות.
222
719000
2000
אפנויות ויכולות מיוחדות.
12:25
Now, the humanבן אנוש mindאכפת is not a singleיחיד unitaryיִחִידָתִי informationמֵידָע processorמעבד,
223
721000
5000
עכשיו המוח האנושי אינו מעבד מידע חד שימושי,
12:30
but it has a lot of differentשונה, specialמיוחד, evolvedהתפתח modulesמודולים
224
726000
4000
יש לו הרבה מודולים מיוחדים, מגוונים ומפותחים
12:34
that do specificספֵּצִיפִי things for us.
225
730000
2000
שעושים דברים מסוימים עבורנו.
12:36
If you think about what we normallyבדרך כלל take as givingמַתָן life a lot of its meaningמַשְׁמָעוּת --
226
732000
4000
אם תחשוב על מה שאנחנו מבינים כדברים שנותנים לחיים את משמעותם --
12:40
musicמוּסִיקָה, humorהוּמוֹר, eroticismאֵרוֹטִיוּת, spiritualityרוּחָנִיוּת, aestheticsאֶסתֵטִיקָה,
227
736000
4000
מוסיקה, הומור, ארוטיות, רוחניות, אסטתיות
12:44
nurturingמטפח and caringאכפתיות, gossipרְכִילוּת, chattingמשוחח with people --
228
740000
5000
אכפתיות, רכילות, פיטפוטים עם אנשים --
12:49
all of these, very likelyסָבִיר, are enabledמאופשר by a specialמיוחד circuitryמעגלים
229
745000
4000
כל הדברים הללו הם, קרוב לוודאי, מתאפשרים על ידי מעגל חשמלי מוחי מיוחד
12:53
that we humansבני אנוש have,
230
749000
2000
שיש לבני אדם,
12:55
but that you could have anotherאַחֵר intelligentאִינְטֶלִיגֶנְטִי life formטופס that lacksחסר these.
231
751000
3000
אבל שאפשר לדמיין יצור חי אינטליגנטי אחר בלעדיהם.
12:58
We're just luckyבַּר מַזָל that we have the requisiteנָחוּץ neuralעֲצַבִּי machineryמְכוֹנוֹת
232
754000
3000
אנחנו ברי מזל שיש לנו את המנגנונים העצביים ההכרחיים
13:01
to processתהליך musicמוּסִיקָה and to appreciateמעריך it and enjoyלהנות it.
233
757000
4000
לעבד מוזיקה ולהעריך אותה ולהנות ממנה.
13:05
All of these would enableלְאַפשֵׁר, in principleעִקָרוֹן -- be amenableמקובל to enhancementהַגבָּרָה.
234
761000
3000
אפשר -ברמת העקרון - לחזק את כל המנגנונים האלה.
13:08
Some people have a better musicalמוּסִיקָלִי abilityיְכוֹלֶת
235
764000
2000
לאחדים מאיתנו יש יכולת מוזיקלית,
13:10
and abilityיְכוֹלֶת to appreciateמעריך musicמוּסִיקָה than othersאחרים have.
236
766000
2000
ואת היכולת להעריך מוזיקה, שמפותחות יותר מאחרים.
13:12
It's alsoגַם interestingמעניין to think about what other things are --
237
768000
3000
גם מעניין לחשוב על מנגנונים אחרים --
13:15
so if these all enabledמאופשר great valuesערכים,
238
771000
3000
אז אם כל המנגנונים האלה יוצרים לנו ערכים גדולים,
13:19
why should we think that evolutionאבולוציה has happenedקרה to provideלְסַפֵּק us
239
775000
3000
למה שנחשוב שאבולוציה סיפקה אותנו
13:22
with all the modalitiesאופנות we would need to engageלְהַעֲסִיק
240
778000
3000
עם כל האפנויות שהיינו צריכים כדי
13:25
with other valuesערכים that there mightאולי be?
241
781000
2000
לעבוד עם ערכים אחרים אפשריים?
13:27
Imagineלדמיין a speciesמִין
242
783000
2000
דמיינו שיש גזע
13:29
that just didn't have this neuralעֲצַבִּי machineryמְכוֹנוֹת for processingמעבד musicמוּסִיקָה.
243
785000
4000
שהיה חסר לו את המנגנון המוחי הזה להעריך ולעבד מוזיקה.
13:33
And they would just stareלבהות at us with bafflementמבוכה
244
789000
3000
והיו בוהים בנו בתמהון
13:36
when we spendלְבַלוֹת time listeningהַקשָׁבָה to a beautifulיפה performanceביצועים,
245
792000
4000
כשהיינו מבלים זמן בהזנת מופע מוזיקלי יפה,
13:40
like the one we just heardשמע -- because of people makingהֲכָנָה stupidמְטוּפָּשׁ movementsתנועות,
246
796000
2000
כמו זה ששמענו כרגע -- כתוצעה מאנשים עושים תנועות טפשיות,
13:42
and they would be really irritatedמרוגז and wouldn'tלא see what we were up to.
247
798000
3000
והם היו מתעצבנים ולא היו מבינים מה אנחנו עושים.
13:45
But maybe they have anotherאַחֵר facultyסגל, something elseאַחֵר
248
801000
3000
אבל אולי להם הייתה איזשהי יכולת אחרת
13:48
that would seemנראה equallyבאופן שווה irrationalלא הגיוני to us,
249
804000
3000
שהייתה נראית לנו לא היגיונית באותה מידה,
13:51
but they actuallyלמעשה tapבֶּרֶז into some great possibleאפשרי valueערך there.
250
807000
3000
אבל להם הייתה גישה לאיזשהו ערך גדול אפשרי.
13:54
But we are just literallyפשוטו כמשמעו deafחירש to that kindסוג of valueערך.
251
810000
4000
אבל אנחנו פשוט חרשים לערך הזה.
13:58
So we could think of addingמוֹסִיף on differentשונה,
252
814000
2000
אז אנחנו יכולים לחשוב על להוסיף
14:00
newחָדָשׁ sensoryחוּשִׁי capacitiesקיבולת and mentalנַפשִׁי facultiesפקולטות.
253
816000
4000
יכולות חושיות ומוחיות חדשות.
14:04
Bodilyבגסות functionalityפונקציונליות and morphologyמוֹרפוֹלוֹגִיָה and affectiveרגשית self-controlשליטה עצמית.
254
820000
5000
פונקציונליות גופנית ושליטה עצמית יעילה.
14:09
Greaterגדול יותר subjectiveסובייקטיבית well-beingרווחה.
255
825000
2000
מצב עצמי טוב יותר.
14:11
Be ableיכול to switchהחלף betweenבֵּין relaxationהַרפָּיָה and activityפעילות --
256
827000
3000
היכולת להחליף בין רוגע ופעילות --
14:14
beingלהיות ableיכול to go slowלְהַאֵט when you need to do that, and to speedמְהִירוּת up.
257
830000
4000
היכולת ללכת לעט כשצריך ולמהר.
14:18
Ableיכול to switchהחלף back and forthהָלְאָה more easilyבְּקַלוּת
258
834000
2000
להשיג את היכולת להחליף יותר מהר
14:20
would be a neatנקי thing to be ableיכול to do --
259
836000
2000
היה יכול להיות מגניב --
14:22
easierקל יותר to achieveלְהַשִׂיג the flowזְרִימָה stateמדינה,
260
838000
2000
היכולת להגיע למצב של ריכוז מוחלט
14:24
when you're totallyלְגַמרֵי immersedשָׁקוּעַ in something you are doing.
261
840000
4000
כשאתה לגמרי משקיע במה שאתה עושה.
14:28
Conscientiousnessעֲבוֹדָה בְּחֲרִיצוּת and sympathyאַהֲדָה.
262
844000
2000
מצפוניות וסימפטיה.
14:30
The abilityיְכוֹלֶת to -- it's anotherאַחֵר interestingמעניין applicationיישום
263
846000
3000
היכולת -- זה עוד ישום מעניין
14:33
that would have largeגָדוֹל socialחֶברָתִי ramificationהִסתַעֲפוּת, perhapsאוּלַי.
264
849000
3000
שהיה בעל השלכות חברתיות, אולי.
14:36
If you could actuallyלמעשה chooseבחר to preserveלשמור your romanticרוֹמַנטִי attachmentsקבצים מצורפים to one personאדם,
265
852000
6000
אם יכולת להחליט להקדיש את רצונך הרומנטי לבן אדם אחד בלבד,
14:42
undiminishedלא פחתה throughדרך time,
266
858000
2000
שלא ידהה עם הזמן,
14:44
so that wouldn'tלא have to -- love would never have to fadeלִדעוֹך if you didn't want it to.
267
860000
3000
כדי שזה לא -- אהבה לא הייתה נחלשת אם לא היית רוצה.
14:49
That's probablyכנראה not all that difficultקָשֶׁה.
268
865000
3000
זה בטח לא כזה קשה.
14:52
It mightאולי just be a simpleפָּשׁוּט hormoneהוֹרמוֹן or something that could do this.
269
868000
3000
אולי זה פשוט עניין של הורמון או משהו אחר שיכול לעשות את זה.
14:57
It's been doneבוצע in volesחורים.
270
873000
2000
עשינו את זה כבר עם נברנים
15:01
You can engineerמהנדס a prairieעֲרָבָה voleנַברָן to becomeהפכו monogamousמונוגמי
271
877000
3000
אנחנו יכולים להנדס נברני שדה מונוגמיים
15:04
when it's naturallyבאופן טבעי polygamousמַרְבֵּה נָשִׁים.
272
880000
2000
למרות שהם פוליגמיים בטבע.
15:06
It's just a singleיחיד geneגֵן.
273
882000
2000
זה רק גן אחד.
15:08
Mightאולי be more complicatedמסובך in humansבני אנוש, but perhapsאוּלַי not that much.
274
884000
2000
זה אולי יהיה יותר מורכב עם בני אדם, אבל ייתכן שלא בהרבה.
15:10
This is the last pictureתְמוּנָה that I want to --
275
886000
2000
זו התמונה האחרונה שאני רוצה להציג --
15:13
now we'veיש לנו got to use the laserלייזר pointerמַצבִּיעַ.
276
889000
2000
עכשיו נצטרך להשתמש בסמן לייזר.
15:16
A possibleאפשרי modeמצב of beingלהיות here would be a way of life --
277
892000
3000
פה יש לנו צורת קיום שתהפוך לצורת חיים --
15:19
a way of beingלהיות, experiencingהִתנַסוּת, thinkingחושב, seeingרְאִיָה,
278
895000
4000
הצורה שבה אנו קיימים, חווים, חושבים, רואים,
15:23
interactingאינטראקציה with the worldעוֹלָם.
279
899000
2000
מקיימים אינטרקציה עם העולם.
15:25
Down here in this little cornerפינה, here, we have the little sub-spaceתת-מרחב
280
901000
5000
פה למטה יש לנו את התת-מרחב הקטן הזה
15:30
of this largerיותר גדול spaceמֶרחָב that is accessibleנגיש to humanבן אנוש beingsישויות --
281
906000
4000
מתוך המרחב הגדול יותר שנגיש לבני אדם --
15:34
beingsישויות with our biologicalבִּיוֹלוֹגִי capacitiesקיבולת.
282
910000
3000
יצורים עם היכולות הביולוגיות שלנו.
15:37
It's a partחֵלֶק of the spaceמֶרחָב that's accessibleנגיש to animalsבעלי חיים;
283
913000
3000
זה חלק מהמרחב שנגיש לחיות;
15:40
sinceמאז we are animalsבעלי חיים, we are a subsetמשנה of that.
284
916000
3000
היות שאנחנו חיות, אנחנו תת-קבוצה של זה.
15:43
And then you can imagineלדמיין some enhancementsשיפורים of humanבן אנוש capacitiesקיבולת.
285
919000
4000
ואז תוכלו לדמיין חיזוקים של יכולות אנושיות.
15:47
There would be differentשונה modesמצבים of beingלהיות you could experienceניסיון
286
923000
3000
יהיו צורות קיום אחרות שתוכלו לחוות
15:50
if you were ableיכול to stayשָׁהוּת aliveבחיים for, say, 200 yearsשנים.
287
926000
3000
אם יכולתם להשאר בחיים עד גיל, נגיד, 200.
15:53
Then you could liveלחיות sortsמיני of livesחיים and accumulateלִצְבּוֹר wisdomsחוכמות
288
929000
4000
אז הייתם יכולים לחיות חיים אחרים ולצבור חוכמות
15:57
that are just not possibleאפשרי for humansבני אנוש as we currentlyכַּיוֹם are.
289
933000
3000
שפשוט לא אפשריות להשיג במצבנו האנושי הנוכחי.
16:00
So then, you moveמהלך \ לזוז \ לעבור off to this largerיותר גדול sphereכַּדוּר of "humanבן אנוש +,"
290
936000
4000
אז אתה מתרחק מהתחום הזה של "אנוש +"
16:04
and you could continueלְהַמשִׁיך that processתהליך and eventuallyבסופו של דבר
291
940000
3000
ויכולת להמשיך בתהליך הזה ובסופו של דבכ
16:07
exploreלַחקוֹר a lot of this largerיותר גדול spaceמֶרחָב of possibleאפשרי modesמצבים of beingלהיות.
292
943000
4000
חוקר הרבה מהמרחב הגדול יותר של צורות הקיום האפשריות הללו.
16:11
Now, why is that a good thing to do?
293
947000
2000
עכשיו, למה זה דבר שטוב לעשות?
16:13
Well, we know alreadyכְּבָר that in this little humanבן אנוש circleמעגל there,
294
949000
4000
אנחנו יודעים כבר שבעיגול הקטן הזה פה של בני אדם,
16:17
there are these enormouslyמְאוֹד מְאוֹד wonderfulנִפלָא and worthwhileכְּדַאי modesמצבים of beingלהיות --
295
953000
4000
יש צורות קיום ממש נפלאות בעלות ערך --
16:21
humanבן אנוש life at its bestהטוב ביותר is wonderfulנִפלָא.
296
957000
3000
חיי האדם הם מעוליים במיטבם.
16:24
We have no reasonסיבה to believe that withinבְּתוֹך this much, much largerיותר גדול spaceמֶרחָב
297
960000
5000
אין לנו סיבה לחשוב שבתוך המרחב ההרבה, הרבה יותר גדול הזה
16:29
there would not alsoגַם be extremelyמְאוֹד worthwhileכְּדַאי modesמצבים of beingלהיות,
298
965000
4000
לא יהיו עוד צורות קיום ממש טובות גם כן,
16:33
perhapsאוּלַי onesיחידות that would be way beyondמעבר our wildestהפרוע abilityיְכוֹלֶת
299
969000
6000
אולי צורות קיום שיהיו מעבר למה שאנחנו
16:39
even to imagineלדמיין or dreamחולם about.
300
975000
2000
יכולים לדמיין או לחלום אפילו.
16:41
And so, to fixלתקן this thirdשְׁלִישִׁי problemבְּעָיָה,
301
977000
2000
ולכן, לתקן את הבעיה השלישית הזו,
16:43
I think we need -- slowlyלאט, carefullyבקפידה, with ethicalאֶתִי wisdomחוכמה and constraintאילוץ --
302
979000
6000
אני חושב שאני צריכים -- לאט, בזהירות, עם חוכמה מוסרית ובאופן מחושב --
16:49
developלְפַתֵחַ the meansאומר that enableלְאַפשֵׁר us to go out in this largerיותר גדול spaceמֶרחָב and exploreלַחקוֹר it
303
985000
5000
לפתח את האמצעים לצאת למרחב הגדול הזה ולגלות אותו
16:54
and find the great valuesערכים that mightאולי hideלהתחבא there.
304
990000
2000
ולמצוא את הערכים הגדולים שייתכן נמצא שם.
16:56
Thanksתודה.
305
992000
2000
תודה.
Translated by Adam Golub
Reviewed by Ido Dekkers

▲Back to top

ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee