ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com
TEDGlobal 2005

Nick Bostrom: A philosophical quest for our biggest problems

Nick Bostrom über unsere grössten Probleme

Filmed:
967,767 views

Der oxforder Philosoph und Transhumanist Nick Bostrom untersucht die Zukunft der Menschheit und fragt, ob wir die grundlegende Natur der Menschlichkeit verändern können, um unsere wesentlichsten Probleme zu lösen.
- Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us? Full bio

Double-click the English transcript below to play the video.

00:24
I want to talk todayheute about --
0
0
3000
Heute will ich über –
00:27
I've been askedaufgefordert to take the long viewAussicht, and I'm going to tell you what
1
3000
6000
ich wurde gefragt, einen Ausblick zu geben und ich werde Ihnen erzählen,
00:33
I think are the threedrei biggestgrößte problemsProbleme for humanityMenschheit
2
9000
4000
was ich für die drei grössten Probleme der Menschheit halte,
00:37
from this long pointPunkt of viewAussicht.
3
13000
3000
von diesem langfristigen Standpunkt aus.
00:40
Some of these have alreadybereits been touchedberührt uponauf by other speakersLautsprecher,
4
16000
3000
Manche wurden von anderen Vortragenden bereits erwähnt,
00:43
whichwelche is encouragingermutigend.
5
19000
2000
das ist ermutigend.
00:45
It seemsscheint that there's not just one personPerson
6
21000
2000
Scheinbar gibt es nicht nur eine Person,
00:47
who thinksdenkt that these problemsProbleme are importantwichtig.
7
23000
2000
die denkt, dass diese Probleme wichtig sind.
00:49
The first is -- deathTod is a biggroß problemProblem.
8
25000
4000
Das erste ist – der Tod ist ein grosses Problem.
00:53
If you look at the statisticsStatistiken,
9
29000
3000
Wenn man die Statistiken anschaut,
00:56
the oddsChancen are not very favorablegünstig to us.
10
32000
2000
stehen die Chancen nicht sehr gut für uns.
00:58
So farweit, mostdie meisten people who have livedlebte have alsoebenfalls diedist verstorben.
11
34000
4000
Bisher sind alle Menschen, die einmal gelebt haben, auch gestorben.
01:02
RoughlyRund 90 percentProzent of everybodyjeder who has been aliveam Leben has diedist verstorben by now.
12
38000
4000
Etwa 90 Prozent von allen Menschen, die je gelebt haben, sind inzwischen tot.
01:06
So the annualjährlich deathTod ratePreis addsfügt hinzu up to 150,000 --
13
42000
6000
Die jährliche Zahl macht etwa 150 000 Menschen aus –
01:12
sorry, the dailyTäglich deathTod ratePreis -- 150,000 people perpro day,
14
48000
3000
entschuldigung, die tägliche Sterberate – 150 000 Menschen am Tag,
01:15
whichwelche is a hugeenorm numberNummer by any standardStandard.
15
51000
3000
das ist in jedem Fall eine riesige Zahl.
01:18
The annualjährlich deathTod ratePreis, then, becomeswird 56 millionMillion.
16
54000
5000
Die jährliche Sterberate liegt dann bei 56 Millionen.
01:23
If we just look at the singleSingle, biggestgrößte causeUrsache of deathTod -- agingAltern --
17
59000
5000
Wenn wir nur die eine, grösste Ursache für den Tod anschauen – altern –
01:29
it accountsKonten for roughlygrob two-thirdszwei Drittel of all humanMensch people who diesterben.
18
65000
5000
das betrifft etwa zwei Drittel aller Menschen, die sterben.
01:34
That addsfügt hinzu up to an annualjährlich deathTod tollMaut
19
70000
3000
Das führt zu einer jährlichen Anzahl an Verstorbenen,
01:37
of greatergrößer than the populationBevölkerung of CanadaKanada.
20
73000
2000
welche die Bevölkerung von Kanada übersteigt.
01:39
SometimesManchmal, we don't see a problemProblem
21
75000
2000
Manchmal sehen wir ein Problem nicht,
01:41
because eitherentweder it's too familiarfamiliär or it's too biggroß.
22
77000
4000
weil es zu geläufig ist oder zu gross.
01:45
Can't see it because it's too biggroß.
23
81000
2000
Man kann es nicht sehen, weil es zu gross ist.
01:47
I think deathTod mightMacht be bothbeide too familiarfamiliär and too biggroß
24
83000
3000
Ich denke, der Tod könnte beides sein: zu geläufig und zu gross
01:50
for mostdie meisten people to see it as a problemProblem.
25
86000
3000
für die meisten Menschen, um ihn als Problem zu sehen.
01:53
OnceEinmal you think about it, you see this is not statisticalstatistisch pointsPunkte;
26
89000
2000
Wenn man mal darüber nachdenkt, sieht man, dass es nicht um statistische Daten geht.
01:55
these are -- let's see, how farweit have I talkedsprach?
27
91000
2000
Das sind – wie lange habe ich schon gesprochen?
01:57
I've talkedsprach for threedrei minutesProtokoll.
28
93000
3000
Ich habe drei Minuten lang gesprochen.
02:00
So that would be, roughlygrob, 324 people have diedist verstorben sinceschon seit I've begunbegonnen speakingApropos.
29
96000
7000
Seit ich begonnen habe zu sprechen, sind ungefähr 324 Menschen gestorben.
02:07
People like -- it's roughlygrob the populationBevölkerung in this roomZimmer has just diedist verstorben.
30
103000
4000
Etwa, als ob die anwesende Menschenmenge in diesem Raum gerade gestorben wäre.
02:12
Now, the humanMensch costKosten of that is obviousoffensichtlich,
31
108000
2000
Nun, die Humankosten davon sind offensichtlich.
02:14
onceEinmal you startAnfang to think about it -- the sufferingLeiden, the lossVerlust --
32
110000
3000
Wenn man darüber nachenkt – das Leiden, der Verlust –
02:17
it's alsoebenfalls, economicallywirtschaftlich, enormouslyenorm wastefulverschwenderisch.
33
113000
3000
Es ist auch enorm unwirtschaftlich.
02:20
I just look at the informationInformation, and knowledgeWissen, and experienceErfahrung
34
116000
3000
Ich sehe mir die Information an, das Wissen und die Erfahrung,
02:23
that is losthat verloren duefällig to naturalnatürlich causesUrsachen of deathTod in generalGeneral,
35
119000
3000
die generell durch natürliche Todesursachen verloren geht,
02:26
and agingAltern, in particularinsbesondere.
36
122000
2000
und im Speziellen durchs Altern.
02:28
SupposeNehmen wir an we approximatedangenähert one personPerson with one bookBuch?
37
124000
3000
Nehmen wir an, eine Person entspräche einem Buch?
02:31
Now, of courseKurs, this is an underestimationUnterschätzung.
38
127000
2000
Nun, das ist natürlich eine Unterschätzung.
02:33
A person'sPerson lifetimeLebenszeit of learningLernen and experienceErfahrung
39
129000
6000
Ein Leben voller Lernen und Erfahrung
02:39
is a lot more than you could put into a singleSingle bookBuch.
40
135000
2000
ist viel mehr, als man in ein einzelnes Buch schreiben könnte.
02:41
But let's supposeannehmen we did this.
41
137000
2000
Aber nehmen wir an, wir täten das.
02:44
52 millionMillion people diesterben of naturalnatürlich causesUrsachen eachjede einzelne yearJahr
42
140000
5000
52 Millionen Menschen sterben jährlich aus natürlichen Gründen,
02:49
correspondsentspricht, then, to 52 millionMillion volumesVolumen destroyedkaputt gemacht.
43
145000
4000
das entspäche dann 52 zerstörten Ausgaben.
02:53
LibraryBibliothek of CongressKongress holdshält 18 millionMillion volumesVolumen.
44
149000
3000
Die Kongressbibliothek verfügt über 18 Millionen Ausgaben.
02:57
We are upsetverärgert about the burningVerbrennung of the LibraryBibliothek of AlexandriaAlexandria.
45
153000
3000
Wir sind bestürzt darüber, dass die Bibliothek von Alexandria niedergebrannt ist.
03:00
It's one of the great culturalkulturell tragediesTragödien
46
156000
2000
Es ist eine der grossen kulturellen Tragödien,
03:02
that we remembermerken, even todayheute.
47
158000
3000
an die wir uns auch noch heute erinnern.
03:06
But this is the equivalentÄquivalent of threedrei LibrariesBibliotheken of CongressKongress --
48
162000
2000
Aber das ist das Äquivalent zu drei Kongressbibliotheken –
03:08
burntverbrannt down, foreverfür immer losthat verloren -- eachjede einzelne yearJahr.
49
164000
3000
verbrannt, für immer verloren – jedes Jahr.
03:11
So that's the first biggroß problemProblem.
50
167000
2000
Also, das ist das erste grosse Problem.
03:13
And I wishWunsch GodspeedGodspeed to AubreyAubrey dede GreyGrey,
51
169000
3000
Und ich wünsche Aubrey de Grey viel Erfolg
03:16
and other people like him,
52
172000
2000
und anderen Menschen wie ihm,
03:18
to try to do something about this as soonbald as possiblemöglich.
53
174000
3000
die versuchen, so schnell wie möglich etwas dagegen zu tun.
03:22
ExistentialExistenzielle riskRisiko -- the secondzweite biggroß problemProblem.
54
178000
3000
Existentielles Risiko – das zweite grosse Problem.
03:25
ExistentialExistenzielle riskRisiko is a threatBedrohung to humanMensch survivalÜberleben, or to the long-termlangfristig potentialPotenzial of our speciesSpezies.
55
181000
7000
Existentielles Risiko ist eine Bedrohung fürs menschliche Überleben, für das langfristige Potenzial unserer Art.
03:32
Now, why do I say that this is a biggroß problemProblem?
56
188000
2000
Wieso sage ich also, dass das ein grosses Problem ist?
03:34
Well, let's first look at the probabilityWahrscheinlichkeit --
57
190000
4000
Nun, lassen Sie uns erst die Wahrscheinlichkeit betrachten –
03:38
and this is very, very difficultschwer to estimateschätzen --
58
194000
3000
und das ist sehr schwierig einzuschätzen –
03:41
but there have been only fourvier studiesStudien on this in recentkürzlich yearsJahre,
59
197000
3000
aber es gab in den vergangenen Jahren nur vier Studien darüber,
03:44
whichwelche is surprisingüberraschend.
60
200000
2000
was überraschend ist.
03:46
You would think that it would be of some interestinteressieren
61
202000
3000
Man würde meinen, es sei von Interesse,
03:49
to try to find out more about this givengegeben that the stakesStakes are so biggroß,
62
205000
4000
mehr darüber herauszufinden, wenn die Einsätze so hoch sind,
03:53
but it's a very neglectedvernachlässigt areaBereich.
63
209000
2000
aber es ist ein sehr vernachlässigtes Gebiet.
03:55
But there have been fourvier studiesStudien --
64
211000
2000
Aber es gab vier Studien –
03:57
one by JohnJohn LesleyLesley, wroteschrieb a bookBuch on this.
65
213000
2000
eine von John Lesley, er hat ein Buch darüber geschrieben.
03:59
He estimatedgeschätzt a probabilityWahrscheinlichkeit that we will failScheitern
66
215000
2000
Er schätzte unsere Wahrscheinlichkeit,
04:01
to surviveüberleben the currentStrom centuryJahrhundert: 50 percentProzent.
67
217000
3000
das aktuelle Jahrhundert zu überleben auf 50 Prozent.
04:04
SimilarlyIn ähnlicher Weise, the AstronomerAstronom RoyalRoyal, whomwem we heardgehört speaksprechen yesterdaygestern,
68
220000
5000
Der Astronome Royal, den wir gestern gehört haben,
04:09
alsoebenfalls has a 50 percentProzent probabilityWahrscheinlichkeit estimateschätzen.
69
225000
3000
teilt diese Einsätzung von 50 Prozent Wahrscheinlichkeit.
04:12
AnotherEin weiterer authorAutor doesn't give any numericalnumerisch estimateschätzen,
70
228000
3000
Ein anderer Autor gibt keine numerische Schätzung ab,
04:15
but sayssagt the probabilityWahrscheinlichkeit is significantsignifikant that it will failScheitern.
71
231000
3000
aber sagt, die Wahrscheinlichkeit ist gross, dass wir scheitern werden.
04:18
I wroteschrieb a long paperPapier- on this.
72
234000
3000
Ich habe darüber einen langen Bericht geschrieben.
04:21
I said assigningZuweisung a lessWeniger than 20 percentProzent probabilityWahrscheinlichkeit would be a mistakeFehler
73
237000
4000
Ich sagte, weniger als 20 Prozent zu schätzen, wäre ein Fehler
04:25
in lightLicht of the currentStrom evidenceBeweise we have.
74
241000
3000
im Licht der aktuell verfügbaren Hinweise.
04:28
Now, the exactgenau figuresZahlen here,
75
244000
2000
Nun, wir sollten die genauen Zahlen hier
04:30
we should take with a biggroß grainKorn of saltSalz-,
76
246000
2000
mit einer grossen Prise Vorsicht geniessen,
04:32
but there seemsscheint to be a consensusKonsens that the riskRisiko is substantialwesentlich.
77
248000
3000
aber es scheint einen Konsens darüber zu geben, dass das Risiko substantiell ist.
04:35
EverybodyAlle who has lookedsah at this and studiedstudiert it agreesstimmt zu.
78
251000
3000
Jeder, der es gesehen und studiert hat, stimmt überein.
04:38
Now, if we think about what just reducingreduzierend
79
254000
2000
Wenn wir nun darüber nachenken, die Wahrscheinlichkeit
04:40
the probabilityWahrscheinlichkeit of humanMensch extinctionAussterben by just one percentageProzentsatz pointPunkt --
80
256000
5000
des Aussterbens des Menschen um nur einen Prozentpunkt zu verringern –
04:45
not very much -- so that's equivalentÄquivalent to 60 millionMillion livesLeben savedGerettet,
81
261000
5000
nicht sehr viel – dann entspricht das 60 Millionen geretteten Leben,
04:50
if we just countGraf the currentlyzur Zeit livingLeben people, the currentStrom generationGeneration.
82
266000
4000
wenn wir nur die aktuell lebenden Menschen zählen, die aktuelle Generation.
04:54
Now one percentProzent of sixsechs billionMilliarde people is equivalentÄquivalent to 60 millionMillion.
83
270000
4000
Ein Prozent von 6 Milliarden Menschen entspricht 60 Millionen.
04:58
So that's a largegroß numberNummer.
84
274000
2000
Das ist eine grosse Zahl.
05:00
If we were to take into accountKonto futureZukunft generationsGenerationen
85
276000
3000
Wenn wir die zukünftigen Generationen einberechnen,
05:03
that will never come into existenceExistenz if we blowSchlag ourselvesuns selbst up,
86
279000
5000
die niemals existieren werden, wenn wir uns in die Luft jagen,
05:08
then the figureZahl becomeswird astronomicalastronomisch.
87
284000
3000
dann wird die Zahl astronomisch hoch.
05:11
If we could eventuallyschließlich colonizebesiedeln a chunkStück of the universeUniversum --
88
287000
3000
Wenn wir nun ein Stück Universum kolonialisieren könnten,
05:14
the VirgoVirgo superclusterSuperhaufen --
89
290000
2000
den Jungfrau-Supercluster –
05:16
maybe it will take us 100 millionMillion yearsJahre to get there,
90
292000
2000
vielleicht brauchen wir 100 Millionen Jahre, um dahin zu kommen,
05:18
but if we go extinctausgestorben we never will.
91
294000
3000
aber wenn wir aussterben, schaffen wir es nie.
05:21
Then, even a one percentageProzentsatz pointPunkt reductiondie Ermäßigung
92
297000
3000
Dann könnte sogar eine Reduktion Prozentpunkt
05:24
in the extinctionAussterben riskRisiko could be equivalentÄquivalent
93
300000
4000
im Aussterberisiko bereits dieser astronomisch
05:28
to this astronomicalastronomisch numberNummer -- 10 to the powerLeistung of 32.
94
304000
3000
hohen Zahl entsprechen – 10 hoch 32.
05:31
So if you take into accountKonto futureZukunft generationsGenerationen as much as our ownbesitzen,
95
307000
4000
Wenn man zukünftige Generationen genauso einberechnet wie unsere eigene,
05:35
everyjeden other moralMoral- imperativeImperativ of philanthropicphilanthropisch costKosten just becomeswird irrelevantirrelevant.
96
311000
5000
wird jeder andere moralische Imperativ von philantropischen Kosten irrelevant.
05:40
The only thing you should focusFokus on
97
316000
2000
Das einzige, worauf man sich fokussieren sollte,
05:42
would be to reducereduzieren existentialexistenziell riskRisiko
98
318000
2000
wäre, das Existenzrisiko zu vermindern,
05:44
because even the tiniestkleinste decreaseverringern in existentialexistenziell riskRisiko
99
320000
4000
denn sogar die winzigste Veränderung
05:48
would just overwhelmüberwältigen any other benefitVorteil you could hopeHoffnung to achieveleisten.
100
324000
4000
würde jeden anderen Nutzen übertreffen, den zu erreichen wir hoffen können.
05:52
And even if you just look at the currentStrom people,
101
328000
2000
Und sogar wenn man nur die aktuelle Bevölkerung nimmt
05:54
and ignoreignorieren the potentialPotenzial that would be losthat verloren if we wentging extinctausgestorben,
102
330000
5000
und das verlorene Potential bei einer Ausrottung ignoriert,
05:59
it should still have a highhoch priorityPriorität.
103
335000
2000
hätte es immer noch eine hohe Priorität.
06:01
Now, let me spendverbringen the restsich ausruhen of my time on the thirddritte biggroß problemProblem,
104
337000
5000
Nun lassen Sie mich den Rest meiner Zeit auf das dritte grosse Problem verwenden,
06:06
because it's more subtlesubtil and perhapsvielleicht difficultschwer to graspGriff.
105
342000
5000
denn es ist subtiler und vielleicht schwer zu erfassen.
06:12
Think about some time in your life --
106
348000
4000
Denken Sie an eine Zeit in Ihrem Leben –
06:16
some people mightMacht never have experiencederfahren it -- but some people,
107
352000
3000
manche haben das vielleicht nie erfahren – aber manche Menschen,
06:19
there are just those momentsMomente that you have experiencederfahren
108
355000
3000
es gibt einfach diese Momente, die man erlebt,
06:22
where life was fantasticfantastisch.
109
358000
2000
wo das Leben fantastisch war.
06:24
It mightMacht have been at the momentMoment of some great, creativekreativ inspirationInspiration
110
360000
7000
Es könnte im Moment einer grossen kreativen Inspiration gewesen sein,
06:31
you mightMacht have had when you just enteredtrat ein this flowfließen stageStufe.
111
367000
2000
den Sie vielleicht hatten, als Sie auf diese Bühne traten.
06:33
Or when you understoodverstanden something you had never doneerledigt before.
112
369000
2000
Oder als Sie etwas verstanden haben, was sie vorher nicht erfassen konnten.
06:35
Or perhapsvielleicht in the ecstasyEkstase of romanticromantisch love.
113
371000
4000
Oder vielleicht in der Exstase von romantischer Liebe.
06:39
Or an aestheticästhetisch experienceErfahrung -- a sunsetSonnenuntergang or a great pieceStück of artKunst.
114
375000
5000
Oder eine ästhetische Erfahrung – ein Sonnenuntergang oder ein grosses Kunstwerk.
06:44
EveryJedes onceEinmal in a while we have these momentsMomente,
115
380000
2000
Ab und zu haben wir diese Momente,
06:46
and we realizerealisieren just how good life can be when it's at its bestBeste.
116
382000
4000
und wir erkennen, wie gut das Leben sein kann, wenn es in bester Form ist.
06:50
And you wonderWunder, why can't it be like that all the time?
117
386000
5000
Und man fragt sich, warum es nicht immer so sein kann?
06:55
You just want to clinghaften ontoauf zu this.
118
391000
2000
Man will da einhängen und einfach bleiben.
06:57
And then, of courseKurs, it driftsdriftet back into ordinarygewöhnlich life and the memoryErinnerung fadesverblasst.
119
393000
4000
Und dann kehrt es natürlich wieder zum gewöhnlichen Leben zurück und die Erinnerung verblasst.
07:01
And it's really difficultschwer to recallerinnern, in a normalnormal frameRahmen of mindVerstand,
120
397000
4000
Es ist wirklich schwierig, sich in einer normalen Geisteshaltung zu erinnern,
07:05
just how good life can be at its bestBeste.
121
401000
3000
wie gut das Leben in seiner besten Form sein kann.
07:08
Or how badschlecht it can be at its worstam schlimmsten.
122
404000
3000
Oder wie schlecht es im schlimmsten Fall sein kann.
07:11
The thirddritte biggroß problemProblem is that life isn't usuallygewöhnlich
123
407000
3000
Das dritte grosse Problem ist, dass das Leben normalerweise
07:14
as wonderfulwunderbar as it could be.
124
410000
2000
nicht so wundervoll ist, wie es sein könnte.
07:16
I think that's a biggroß, biggroß problemProblem.
125
412000
4000
Ich denke, das ist ein grosses, grosses Problem.
07:20
It's easyeinfach to say what we don't want.
126
416000
2000
Es ist einfach zu sagen, was wir nicht wollen.
07:23
Here are a numberNummer of things that we don't want --
127
419000
3000
Hier ist eine Anzahl Dinge, die wir nicht wollen –
07:26
illnessKrankheit, involuntaryunfreiwillig deathTod, unnecessarynicht notwendig sufferingLeiden, crueltyGrausamkeit,
128
422000
3000
Krankheit, unfreiwilliger Tod, unnötiges Leiden, Grausamkeit,
07:29
stuntedverkümmert growthWachstum, memoryErinnerung lossVerlust, ignoranceIgnoranz, absenceAbwesenheit of creativityKreativität.
129
425000
5000
verkrüppeltes Wachstum, Erinnerungsverlust, Ignoranz, fehlende Kreativität.
07:35
SupposeNehmen wir an we fixedFest these things -- we did something about all of these.
130
431000
3000
Nehmen wir an, wir beheben das – wir tun gegen all diese Dinge etwas.
07:38
We were very successfulerfolgreich.
131
434000
2000
Wir wären sehr erfolgreich.
07:40
We got ridloswerden of all of these things.
132
436000
2000
Wir wären all diese Dinge losgeworden.
07:42
We mightMacht endEnde up with something like this,
133
438000
3000
Wir könnten dann mit so etwas enden.
07:45
whichwelche is -- I mean, it's a heckTeufel of a lot better than that.
134
441000
4000
Das ist viel besser als vorher, meine ich,
07:49
But is this really the bestBeste we can dreamTraum of?
135
445000
5000
aber ist das wirklich das beste, wenn – was wir uns erträumen?
07:54
Is this the bestBeste we can do?
136
450000
2000
Ist das das Beste, was wir tun können?
07:56
Or is it possiblemöglich to find something a little bitBit more inspiringinspirierend to work towardsin Richtung?
137
452000
6000
Oder ist es mögölich, etwas zu finden, worauf hinzuarbeiten etwas inspirierender ist?
08:02
And if we think about this,
138
458000
2000
Und wenn wir darüber nachdenken,
08:04
I think it's very clearklar that there are waysWege
139
460000
4000
ist es sehr klar, dass es Arten gibt,
08:08
in whichwelche we could changeVeränderung things, not just by eliminatingeliminieren negativesNegative,
140
464000
3000
auf die wir Dinge verändern könnten, nicht nur, indem wir negatives eliminieren,
08:11
but addingHinzufügen positivesPositive.
141
467000
2000
sondern indem wir positives hinzufügen.
08:13
On my wishWunsch listListe, at leastam wenigsten, would be:
142
469000
2000
Auf meiner Wunschliste wäre wenigstens –
08:15
much longerlänger, healthiergesünder livesLeben, greatergrößer subjectivesubjektive well-beingWohlbefinden,
143
471000
5000
viel längere, gesündere Leben, mehr subjektives Wohlbefinden,
08:20
enhancederweitert cognitivekognitiv capacitiesKapazitäten, more knowledgeWissen and understandingVerstehen,
144
476000
5000
gesteigerte kognitive Kapazitäten, mehr Wissen und Verständnis,
08:25
unlimitedunbegrenzt opportunityGelegenheit for personalpersönlich growthWachstum
145
481000
2000
unbegrenzte Möglichkeiten für persönliches Wachstum
08:27
beyonddarüber hinaus our currentStrom biologicalbiologisch limitsGrenzen, better relationshipsBeziehungen,
146
483000
4000
jenseits unserer aktuellen biologischen Begrenzungen, bessere Beziehungen,
08:31
an unboundedunbegrenzt potentialPotenzial for spiritualgeistig, moralMoral-
147
487000
2000
ein unbegrenztes Potential für spirituelle, moralische
08:33
and intellectualgeistig developmentEntwicklung.
148
489000
2000
und intellektuelle Entwicklung.
08:35
If we want to achieveleisten this, what, in the worldWelt, would have to changeVeränderung?
149
491000
8000
Wenn wir das erreichen wollen, was müssen wir in der Welt ändern?
08:43
And this is the answerAntworten -- we would have to changeVeränderung.
150
499000
5000
Und das ist die Antwort – wir müssten uns ändern.
08:48
Not just the worldWelt around us, but we, ourselvesuns selbst.
151
504000
3000
Nicht einfach die Welt um uns herum, sondern uns selber.
08:51
Not just the way we think about the worldWelt, but the way we are -- our very biologyBiologie.
152
507000
4000
Nicht nur die Art, wie wir über die Welt denken, sondern wie wir sind – unsere Biologie.
08:55
HumanMenschlichen natureNatur would have to changeVeränderung.
153
511000
2000
Die menschliche Natur müsste sich verändern.
08:57
Now, when we think about changingÄndern humanMensch natureNatur,
154
513000
2000
Nun, wenn wir darüber nachenken, die menschliche Natur zu verändern,
08:59
the first thing that comeskommt to mindVerstand
155
515000
2000
ist das erste, was uns einfällt,
09:01
are these humanMensch modificationÄnderung technologiesTechnologien --
156
517000
4000
diese Modifikationstechnologien –
09:05
growthWachstum hormoneHormon therapyTherapie, cosmeticKosmetik surgeryChirurgie,
157
521000
2000
Wachstumshormone, kosmetische Chirurgie,
09:07
stimulantsStimulanzien like RitalinRitalin, AdderallAdderall, anti-depressantsAntidepressiva,
158
523000
3000
Stimulanzien wie Ritalin, Adderall, Anti-Depressiva,
09:10
anabolicanabole steroidsSteroide, artificialkünstlich heartsHerzen.
159
526000
2000
anabolische Steroide, künstliche Herzen.
09:12
It's a prettyziemlich patheticerbärmlich listListe.
160
528000
3000
Das ist eine ziemlich pathetische Liste.
09:15
They do great things for a fewwenige people
161
531000
2000
Sie erreichen Grosses für einige wenige menschen,
09:17
who sufferleiden from some specificspezifisch conditionBedingung,
162
533000
2000
die unter spezifischen Bedingungen leiden.
09:19
but for mostdie meisten people, they don't really transformverwandeln
163
535000
5000
Aber für die meisten Menschen transformieren sie nicht wirklich das,
09:24
what it is to be humanMensch.
164
540000
2000
was es bedeutet, menschlich zu sein.
09:26
And they alsoebenfalls all seemscheinen a little bitBit --
165
542000
2000
Und sie scheinen auch alle ein bisschen –
09:28
mostdie meisten people have this instinctInstinkt that, well, sure,
166
544000
3000
die meisten Menschen haben diesen Instinkt, dass, nun sicher,
09:31
there needsBedürfnisse to be anti-depressantsAntidepressiva for the really depressedgedrückt people.
167
547000
2000
wir brauchen Anti-Depressiva für die wirklich depressiven Menschen.
09:33
But there's a kindArt of queasinessÜbelkeit
168
549000
2000
Aber es gibt eine Art Überempfindlichkeit dafür,
09:35
that these are unnaturalunnatürlich in some way.
169
551000
3000
dass diese auf irgendeine Art unnatürlich sind.
09:38
It's worthwert recallingerinnernd that there are a lot of other
170
554000
2000
Es lohnt sich, sich zu erinnern, dass es eine Menge
09:40
modificationÄnderung technologiesTechnologien and enhancementErweiterung technologiesTechnologien that we use.
171
556000
3000
anderer Modifikations- und Steigerungstechnologien gibt, die wir verwenden.
09:43
We have skinHaut enhancementsErweiterungen, clothingKleidung.
172
559000
4000
Wir haben verbesserte Haut: Kleidung.
09:47
As farweit as I can see, all of you are usersBenutzer of this
173
563000
4000
Soweit ich sehe, sind wir alle Verwender dieser
09:51
enhancementErweiterung technologyTechnologie in this roomZimmer, so that's a great thing.
174
567000
5000
Verbesserungstechnologie hier in diesem Raum, das ist gut.
09:56
MoodStimmung modifiersModifikatoren have been used from time immemorialunvordenklich --
175
572000
3000
Viele Modifikatoren werden unvorstellbar lange verwendet –
09:59
caffeineKoffein, alcoholAlkohol, nicotineNikotin, immuneimmun systemSystem enhancementErweiterung,
176
575000
5000
Koffein, Alkohol, Nikotin, immunitätsstärkende Substanzen,
10:04
visionVision enhancementErweiterung, anestheticsAnästhetika --
177
580000
2000
Sehhilfen, Narkosen.
10:06
we take that very much for grantedgewährt,
178
582000
2000
Wir nehmen sehr viel als gegeben hin,
10:08
but just think about how great progressFortschritt that is --
179
584000
4000
aber denken Sie nur daran, was das für ein grosser Fortschritt ist –
10:12
like, havingmit an operationBetrieb before anestheticsAnästhetika was not funSpaß.
180
588000
4000
eine Operation zu haben, bevor es Narkose gab, war nicht lustig.
10:16
ContraceptivesKontrazeptiva, cosmeticsKosmetika and brainGehirn reprogrammingNeuprogrammierung techniquesTechniken --
181
592000
6000
Verhütungsmittel, Kosmetik und Gehirnprogrammierungstechniken –
10:22
that soundsGeräusche ominousominös,
182
598000
2000
das klingt verdächtig.
10:24
but the distinctionUnterscheidung betweenzwischen what is a technologyTechnologie --
183
600000
4000
Aber die Trennung dazwischen, was eine Technologie ist –
10:28
a gadgetGadget would be the archetypeArchetyp --
184
604000
2000
ein Gadget wäre der Archetyp davon –
10:30
and other waysWege of changingÄndern and rewritingumschreiben humanMensch natureNatur is quiteganz subtlesubtil.
185
606000
4000
und anderen Wegen, die menschliche Natur zu verändern und neu zu schreiben, ist ziemlich subtil.
10:34
So if you think about what it meansmeint to learnlernen arithmeticArithmetik or to learnlernen to readlesen,
186
610000
4000
Wenn Sie darüber nachdenken, was es bedeutet, rechnen oder lesen zu lernen,
10:38
you're actuallytatsächlich, literallybuchstäblich rewritingumschreiben your ownbesitzen brainGehirn.
187
614000
3000
dann beschreibt man tatsächlich sinngemäss das eigene Hirn neu.
10:41
You're changingÄndern the microstructureMikrostruktur of your brainGehirn as you go alongeine lange.
188
617000
3000
Man verändert die Mikrostruktur des Hirns, während man daran arbeitet.
10:45
So in a broadbreit senseSinn, we don't need to think about technologyTechnologie
189
621000
3000
In einem weiteren Sinn müssen wir nicht über Technologie nachdenken
10:48
as only little gadgetsGadgets, like these things here,
190
624000
2000
als nur kleine Gadgets, wie diese hier.
10:50
but even institutionsInstitutionen and techniquesTechniken,
191
626000
4000
Aber sogar Institutionen und Techniken,
10:54
psychologicalpsychologische methodsMethoden and so forthher.
192
630000
2000
psychologische Methoden und so weiter.
10:56
FormsFormen of organizationOrganisation can have a profoundtiefsinnig impactEinfluss on humanMensch natureNatur.
193
632000
5000
Organisationsofrmen können tiefgreifenden Einfluss auf die menschliche Natur haben.
11:01
Looking aheadvoraus, there is a rangeAngebot of technologiesTechnologien
194
637000
2000
Vorausschauend gibt es eine Bandbreite an Technologien,
11:03
that are almostfast certainsicher to be developedentwickelt soonerfrüher or laterspäter.
195
639000
3000
die fast sicher früher oder später entwickelt werden.
11:06
We are very ignorantignorant about what the time scaleRahmen for these things are,
196
642000
4000
Wir sind sehr ingorant, was die Zeitachse für diese Dinge angeht,
11:10
but they all are consistentkonsistent with everything we know
197
646000
2000
aber sie sind alle konsistent mit allem, was wir
11:12
about physicalphysisch lawsGesetze, lawsGesetze of chemistryChemie, etcetc.
198
648000
4000
über physische, chemische und andere Gesetze wissen.
11:16
It's possiblemöglich to assumeannehmen,
199
652000
2000
Es ist möglich, anzunehmen,
11:18
settingRahmen asidebeiseite a possibilityMöglichkeit of catastropheKatastrophe,
200
654000
3000
wenn wir die Möglichkeit einer Katastrophe beiseite lassen,
11:21
that soonerfrüher or laterspäter we will developentwickeln all of these.
201
657000
3000
dass wir diese früher oder später entwickeln werden.
11:24
And even just a couplePaar of these would be enoughgenug
202
660000
3000
Und auch nur einige daovn wären genug,
11:27
to transformverwandeln the humanMensch conditionBedingung.
203
663000
2000
um die menschlichen Bedingungen zu transformieren.
11:29
So let's look at some of the dimensionsMaße of humanMensch natureNatur
204
665000
5000
Also lassen Sie uns einige der Dimensionen der menschlichen Natur betrachten,
11:34
that seemscheinen to leaveverlassen roomZimmer for improvementVerbesserung.
205
670000
3000
die Raum zu lassen scheinen für Verbesserung.
11:37
HealthGesundheit spanSpanne is a biggroß and urgentdringend thing,
206
673000
2000
Der Gesundheitsbereich ist eine grosse und dringende Sache,
11:39
because if you're not aliveam Leben,
207
675000
2000
denn wenn man nicht lebendig ist,
11:41
then all the other things will be to little availverfügbar.
208
677000
3000
sind alle anderen Dinge ein wenig vergeblich.
11:44
IntellectualIntellektuelle capacityKapazität -- let's take that boxBox,
209
680000
2000
Intellektuelle Kapazität – lassen Sie uns dieses Kästchen nehmen,
11:46
whichwelche fallsStürze into a lot of differentanders sub-categoriesUnterkategorien:
210
682000
5000
das unter viele verschiedene Unterkategorien fällt –
11:51
memoryErinnerung, concentrationKonzentration, mentalgeistig energyEnergie, intelligenceIntelligenz, empathyEmpathie.
211
687000
3000
Gedächtnis, Konzentration, mentale Energie, Intelligenz, Empathie.
11:54
These are really great things.
212
690000
2000
Das sind wirklich grossartige Dinge.
11:56
PartTeil of the reasonGrund why we valueWert these traitsZüge
213
692000
2000
Ein Teil der Gründe, warum wir diese Eigenschaften wertschätzen,
11:58
is that they make us better at competingim Wettbewerb with other people --
214
694000
4000
ist dass sie uns besser darin machen, mit anderen zu konkurrieren,
12:02
they're positionalpositionell goodsWaren.
215
698000
2000
es sind positionale Güter.
12:04
But partTeil of the reasonGrund --
216
700000
2000
Aber ein Teil des Grundes –
12:06
and that's the reasonGrund why we have ethicalethisch groundBoden for pursuingverfolgen these --
217
702000
4000
und das ist der Grund, warum wir eine ethische Ebene in der Verfolgung dessen haben –
12:10
is that they're alsoebenfalls intrinsicallyintrinsisch valuablewertvoll.
218
706000
3000
ist dass sie auch intrinsisch wertvoll sind.
12:13
It's just better to be ablefähig to understandverstehen more of the worldWelt around you
219
709000
4000
Es ist einfach beser, wenn man mehr von der Welt um einen herum begreifen kann,
12:17
and the people that you are communicatingkommunizierend with,
220
713000
2000
und von den Menschen, mit denen man kommuniziert
12:19
and to remembermerken what you have learnedgelernt.
221
715000
4000
und sich zu erinnern, was man gelernt hat.
12:23
ModalitiesModalitäten and specialbesondere facultiesFakultäten.
222
719000
2000
Modaltitäten und spezielle Fähigkeiten.
12:25
Now, the humanMensch mindVerstand is not a singleSingle unitaryeinheitlich informationInformation processorProzessor,
223
721000
5000
Nun, der menschliche Geist ist nicht ein einzelner Informationsprozessor,
12:30
but it has a lot of differentanders, specialbesondere, evolvedentwickelt modulesModule
224
726000
4000
sondern es hat viele verschiedene, besondere Module,
12:34
that do specificspezifisch things for us.
225
730000
2000
die spezifische Dinge für uns tun.
12:36
If you think about what we normallynormalerweise take as givinggeben life a lot of its meaningBedeutung --
226
732000
4000
Wenn man darüber nachdenkt, wodurch wir normalerweise unserem Leben viel von seiner Bedeutung geben –
12:40
musicMusik-, humorHumor, eroticismErotik, spiritualitySpiritualität, aestheticsÄsthetik,
227
736000
4000
Musik, Humor, Erotik, Spiritualität, Ästhetik,
12:44
nurturingpflegend and caringPflege, gossipKlatsch, chattingchatten with people --
228
740000
5000
Ernähren und Sorgen, Klatsch, mit Leuten plaudern.
12:49
all of these, very likelywahrscheinlich, are enabledaktiviert by a specialbesondere circuitrySchaltung
229
745000
4000
Alle diese sind sehr wahrscheinlich durch einen speziellen Schaltkreis aktiviert,
12:53
that we humansMenschen have,
230
749000
2000
den wir Menschen haben,
12:55
but that you could have anotherein anderer intelligentintelligent life formbilden that lacksfehlt these.
231
751000
3000
aber man könnte eine andere Intelligente Lebensform haben, die diese Dinge nicht hat.
12:58
We're just luckyglücklich that we have the requisiteRequisit neuralneuronale machineryMaschinen
232
754000
3000
Wir haben einfach Glück, dass wir die Requisiten in unserer neuralen Maschine haben,
13:01
to processverarbeiten musicMusik- and to appreciateschätzen it and enjoygenießen it.
233
757000
4000
um Musik verarbeiten, schätzen und geniessen zu können.
13:05
All of these would enableaktivieren, in principlePrinzip -- be amenablezugänglich to enhancementErweiterung.
234
761000
3000
All dies würde im Prinzip ermölgichen – es wäre der Verbesserung zugänglich.
13:08
Some people have a better musicalMusical abilityFähigkeit
235
764000
2000
Manche Menschen haben mehr musikalische Fähigkeiten
13:10
and abilityFähigkeit to appreciateschätzen musicMusik- than othersAndere have.
236
766000
2000
und Fähigkeit, Musik wertzuschätzen als andere.
13:12
It's alsoebenfalls interestinginteressant to think about what other things are --
237
768000
3000
Es ist auch interessant, darüber nachzudenken, was andere Dinge sind –
13:15
so if these all enabledaktiviert great valuesWerte,
238
771000
3000
wenn diese alle grosse Werte ermöglichen,
13:19
why should we think that evolutionEvolution has happenedpassiert to providezu Verfügung stellen us
239
775000
3000
warum sollten wir denken, dass die Evolution geschehen ist, um uns
13:22
with all the modalitiesModalitäten we would need to engageengagieren
240
778000
3000
mit allen Modalitäten auszustatten, die wir bräuchten
13:25
with other valuesWerte that there mightMacht be?
241
781000
2000
um andere Werte zu erreichen, die es geben könnte?
13:27
ImagineStellen Sie sich vor a speciesSpezies
242
783000
2000
Stellen Sie sich eine Art vor,
13:29
that just didn't have this neuralneuronale machineryMaschinen for processingwird bearbeitet musicMusik-.
243
785000
4000
die einfach nicht diese neurale Maschine hat, um Musik zu verarbeiten.
13:33
And they would just starestarren at us with bafflementVerblüffung
244
789000
3000
Sie würden uns ganz verblüfft anstarren,
13:36
when we spendverbringen time listeningHören to a beautifulschön performancePerformance,
245
792000
4000
wenn wir Zeit damit verbringen, eine schöne Aufführung anzuhören
13:40
like the one we just heardgehört -- because of people makingHerstellung stupidblöd movementsBewegungen,
246
796000
2000
wie die eine, die wir gerade hörten – aufgrund von Menschen, die dumme Bewegungen machen.
13:42
and they would be really irritatedirritiert and wouldn'twürde nicht see what we were up to.
247
798000
3000
Und sie wären wirklich irritiert und würden nicht sehen, was mit uns los ist.
13:45
But maybe they have anotherein anderer facultyFakultät, something elsesonst
248
801000
3000
Aber vielleicht haben sie eine andere Fähigkeit, etwas anderes,
13:48
that would seemscheinen equallygleichermaßen irrationalirrational to us,
249
804000
3000
das für uns ähnlich irrational schiene,
13:51
but they actuallytatsächlich taptippen into some great possiblemöglich valueWert there.
250
807000
3000
aber sie erschliessen damit einen grossen möglichen Wert.
13:54
But we are just literallybuchstäblich deaftaub to that kindArt of valueWert.
251
810000
4000
Wir sind nur im wahrsten Sinne zu taub für diesen Wert.
13:58
So we could think of addingHinzufügen on differentanders,
252
814000
2000
So könnten wir darüber nachdenken, andere,
14:00
newneu sensorysensorisch capacitiesKapazitäten and mentalgeistig facultiesFakultäten.
253
816000
4000
neue sensorische Kapazitäten und mentale Fähigkeiten hinzuzufügen.
14:04
BodilyKörperliche functionalityFunktionalität and morphologyMorphologie and affectiveaffektiv self-controlSelbstkontrolle.
254
820000
5000
Körperliche Funkionalität, Morphologie und affektive Selbstkontrolle.
14:09
GreaterMehr subjectivesubjektive well-beingWohlbefinden.
255
825000
2000
Besseres subjektives Wohlbefinden.
14:11
Be ablefähig to switchSchalter betweenzwischen relaxationEntspannung and activityAktivität --
256
827000
3000
Fähig sein, zwischen Entspannung und Aktivität hin und her zu schalten –
14:14
beingSein ablefähig to go slowlangsam when you need to do that, and to speedGeschwindigkeit up.
257
830000
4000
es langsam angehen zu lassen, wenn es nötig ist, und dann wieder schneller zu werden.
14:18
AbleIn der Lage to switchSchalter back and forthher more easilyleicht
258
834000
2000
Fähig, leichter hin und zurück zu schalten,
14:20
would be a neatordentlich thing to be ablefähig to do --
259
836000
2000
wäre eine feine Sache –
14:22
easiereinfacher to achieveleisten the flowfließen stateBundesland,
260
838000
2000
es wäre einfacher, den Flow-Zustand zu erreichen,
14:24
when you're totallytotal immersedeingetaucht in something you are doing.
261
840000
4000
wenn man total in etwas versunken ist.
14:28
ConscientiousnessGewissenhaftigkeit and sympathySympathie.
262
844000
2000
Bewusstheit und Sympathie.
14:30
The abilityFähigkeit to -- it's anotherein anderer interestinginteressant applicationAnwendung
263
846000
3000
Die Fähigkeit – das ist eine andere interessante Anwendung,
14:33
that would have largegroß socialSozial ramificationVerzweigung, perhapsvielleicht.
264
849000
3000
die grosse soziale Auswirkungen hätte.
14:36
If you could actuallytatsächlich choosewählen to preserveerhalten your romanticromantisch attachmentsAnlagen to one personPerson,
265
852000
6000
Wenn man wählen könnte, seine romantische Anhaftung an eine Person zu bewahren,
14:42
undiminishedunvermindert throughdurch time,
266
858000
2000
unvermindert durch die Zeit,
14:44
so that wouldn'twürde nicht have to -- love would never have to fadeverblassen if you didn't want it to.
267
860000
3000
dann würde die Liebe nie verblassen, wenn man das nicht wollte.
14:49
That's probablywahrscheinlich not all that difficultschwer.
268
865000
3000
Das ist wahrscheinlich gar nicht so schwierig.
14:52
It mightMacht just be a simpleeinfach hormoneHormon or something that could do this.
269
868000
3000
Es könnte nur ein einfaches Hormon sein, welches das tun könnte.
14:57
It's been doneerledigt in volesWühlmäuse.
270
873000
2000
Es wurde bei Wühlmäusen gemacht.
15:01
You can engineerIngenieur a prairiePrärie voleWühlmaus to becomewerden monogamousmonogam
271
877000
3000
Man kann eine Präriemaus so verändern, dass sie monogam wird,
15:04
when it's naturallynatürlich polygamouspolygam.
272
880000
2000
auch wenn sie natürlicherweise polygam ist.
15:06
It's just a singleSingle geneGen.
273
882000
2000
Es ist nur ein einziges Gen.
15:08
MightKönnte be more complicatedkompliziert in humansMenschen, but perhapsvielleicht not that much.
274
884000
2000
Es könnte bei Menschen komplizierter sein, aber vielleicht nicht sehr.
15:10
This is the last pictureBild that I want to --
275
886000
2000
Das ist das letzte Bild –
15:13
now we'vewir haben got to use the laserLaser- pointerZeiger.
276
889000
2000
jetzt müssen wir den Laserpointer rausholen.
15:16
A possiblemöglich modeModus of beingSein here would be a way of life --
277
892000
3000
Ein möglicher Modus, hier zu sein wäre eine Lebensart –
15:19
a way of beingSein, experiencingerleben, thinkingDenken, seeingSehen,
278
895000
4000
eine Art zu sein, zu erfahren, zu denken, zu sehen,
15:23
interactinginteragierend with the worldWelt.
279
899000
2000
mit der Welt zu interagieren.
15:25
Down here in this little cornerEcke, here, we have the little sub-spaceUnterraum
280
901000
5000
HIer in dieser kleinen Ecke, hier, haben wir einen kleinen Unter-Raum
15:30
of this largergrößer spacePlatz that is accessiblezugänglich to humanMensch beingsWesen --
281
906000
4000
von diesem grösseren Raum, der für Menschen zugänglich ist –
15:34
beingsWesen with our biologicalbiologisch capacitiesKapazitäten.
282
910000
3000
Wesen mit unseren biologischen Möglickeiten.
15:37
It's a partTeil of the spacePlatz that's accessiblezugänglich to animalsTiere;
283
913000
3000
Es ist ein Teil des Raumes, der Tieren zugänglich ist –
15:40
sinceschon seit we are animalsTiere, we are a subsetTeilmenge of that.
284
916000
3000
da wir Tiere sind, sind wir eine Unterart davon.
15:43
And then you can imaginevorstellen some enhancementsErweiterungen of humanMensch capacitiesKapazitäten.
285
919000
4000
Und dann kann man sich einige Verbesserungen der menschlichen Mögichkeiten vorstellen.
15:47
There would be differentanders modesModi of beingSein you could experienceErfahrung
286
923000
3000
Es gäbe verschiedene Daseinsbereiche, die man erfahren könnte,
15:50
if you were ablefähig to staybleibe aliveam Leben for, say, 200 yearsJahre.
287
926000
3000
wenn man für, sagen wir, 200 Jahre am Leben sein könnte.
15:53
Then you could liveLeben sortssortiert of livesLeben and accumulateakkumulieren wisdomsWeisheiten
288
929000
4000
Dann könnte man verschiedene Arten von Leben leben und Weisheit ansammeln,
15:57
that are just not possiblemöglich for humansMenschen as we currentlyzur Zeit are.
289
933000
3000
das ist für Menschen, wie wir heute sind, nicht möglich.
16:00
So then, you moveBewegung off to this largergrößer sphereKugel of "humanMensch +,"
290
936000
4000
Dann bewegt man sich in diesen grösseren Raum des 'Menschen plus'
16:04
and you could continuefortsetzen that processverarbeiten and eventuallyschließlich
291
940000
3000
und man könnte diesen Prozess fortsetzen,
16:07
exploreerforschen a lot of this largergrößer spacePlatz of possiblemöglich modesModi of beingSein.
292
943000
4000
um viel von diesem grösseren Raum voller möglicher Daseinsmodi erfahren zu können.
16:11
Now, why is that a good thing to do?
293
947000
2000
Nun, warum ist das eine gute Sache?
16:13
Well, we know alreadybereits that in this little humanMensch circleKreis there,
294
949000
4000
Wir wissen bereits, dass es in diesem kleinen menschlichen Kreis hier
16:17
there are these enormouslyenorm wonderfulwunderbar and worthwhilelohnend modesModi of beingSein --
295
953000
4000
diese wundervollen und wertvollen Formen des Daseins gibt –
16:21
humanMensch life at its bestBeste is wonderfulwunderbar.
296
957000
3000
menschliches Leben in seiner besten Form ist wundervoll.
16:24
We have no reasonGrund to believe that withininnerhalb this much, much largergrößer spacePlatz
297
960000
5000
Es gibt keinen Grund zu glauben, dass es in diesem viel grösseren Raum
16:29
there would not alsoebenfalls be extremelyäußerst worthwhilelohnend modesModi of beingSein,
298
965000
4000
keine extrem wunderbaren, lohnenden Daseinszustände gäbe.
16:33
perhapsvielleicht onesEinsen that would be way beyonddarüber hinaus our wildestwildesten abilityFähigkeit
299
969000
6000
Vielleicht solte, die weit über unseren wildesten Fähigkeiten liegen,
16:39
even to imaginevorstellen or dreamTraum about.
300
975000
2000
es uns überhaupt vorzustellen oder zu träumen.
16:41
And so, to fixFix this thirddritte problemProblem,
301
977000
2000
Und deshalb denke ich, um dieses dritte Problem zu lösen,
16:43
I think we need -- slowlylangsam, carefullyvorsichtig, with ethicalethisch wisdomWeisheit and constraintZwang --
302
979000
6000
müssen wir – langsam, vorsichtig, mit ethischer Weisheit und Zurückhaltung –
16:49
developentwickeln the meansmeint that enableaktivieren us to go out in this largergrößer spacePlatz and exploreerforschen it
303
985000
5000
die Mittel entwickeln, die uns ermöglichen, in diesen grösseren Raum zu gehen und ihn zu erforschen.
16:54
and find the great valuesWerte that mightMacht hideverbergen there.
304
990000
2000
Und die grossartigen Werte zu finden, die dort versteckt sind.
16:56
ThanksVielen Dank.
305
992000
2000
Danke.
Translated by Karin Friedli
Reviewed by Lex Asobo

▲Back to top

ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com