ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com
TED2015

Nick Bostrom: What happens when our computers get smarter than we are?

Nick Bostrom: Was passiert, wenn unsere Computer intelligenter werden als wir?

Filmed:
4,632,705 views

Künstliche Intelligenz verbessert sich sprunghaft – noch in diesem Jahrhundert, so glauben Forscher, könnte eine KI "schlauer" als ein Mensch werden. Und dann, sagt Nick Bostrom, werde sie uns überholen: "Maschinenintelligenz wird die letzte Erfindung sein, die die Menschheit noch machen muss". Als Philosoph und Technologe bittet Bostrom uns, intensiv über die Welt nachzudenken, die wir jetzt konstruieren und die von denkenden Maschinen getrieben wird. Werden unsere klugen Maschinen die Menschheit und unsere Werte erhalten – oder werden sie eigene Werte haben?
- Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us? Full bio

Double-click the English transcript below to play the video.

00:12
I work with a bunchBündel of mathematiciansMathematiker,
philosophersPhilosophen and computerComputer scientistsWissenschaftler,
0
570
4207
Ich arbeite mit einigen Mathematikern,
Philosophen und Informatikern zusammen.
00:16
and we sitsitzen around and think about
the futureZukunft of machineMaschine intelligenceIntelligenz,
1
4777
5209
Wir sitzen herum
und denken z. B. über die Zukunft
der maschinellen Intelligenz nach.
00:21
amongunter other things.
2
9986
2044
00:24
Some people think that some of these
things are sortSortieren of scienceWissenschaft fiction-yFiktion-y,
3
12030
4725
Manche Leute denken,
einiges davon sei sehr futuristisch,
ausgefallen, einfach verrückt.
00:28
farweit out there, crazyverrückt.
4
16755
3101
Aber ich sage gern:
00:31
But I like to say,
5
19856
1470
00:33
okay, let's look at the modernmodern
humanMensch conditionBedingung.
6
21326
3604
Betrachten wir den Zustand
des modernen Menschen.
00:36
(LaughterLachen)
7
24930
1692
(Gelächter)
Das ist der normale Gang der Dinge.
00:38
This is the normalnormal way for things to be.
8
26622
2402
00:41
But if we think about it,
9
29024
2285
Aber wenn wir darüber nachdenken,
ist die menschliche Spezies erst
seit Kurzem Gast auf diesem Planeten.
00:43
we are actuallytatsächlich recentlyvor kurzem arrivedist eingetroffen
guestsGäste on this planetPlanet,
10
31309
3293
00:46
the humanMensch speciesSpezies.
11
34602
2082
Denken Sie darüber nach:
00:48
Think about if EarthErde
was createderstellt one yearJahr agovor,
12
36684
4746
Wäre die Erde erst
vor einem Jahr erschaffen worden,
dann wäre der Mensch erst 10 Minuten alt.
00:53
the humanMensch speciesSpezies, then,
would be 10 minutesProtokoll oldalt.
13
41430
3548
00:56
The industrialindustriell eraEpoche startedhat angefangen
two secondsSekunden agovor.
14
44978
3168
Die industrielle Ära hätte
vor zwei Sekunden begonnen.
01:01
AnotherEin weiterer way to look at this is to think of
worldWelt GDPBIP over the last 10,000 yearsJahre,
15
49276
5225
Man könnte auch das Welt-BIP
der letzten 10.000 Jahre betrachten.
Ich habe mir die Mühe gemacht,
dies für Sie grafisch darzustellen.
01:06
I've actuallytatsächlich takengenommen the troubleÄrger
to plotHandlung this for you in a graphGraph.
16
54501
3029
01:09
It lookssieht aus like this.
17
57530
1774
Es sieht so aus.
01:11
(LaughterLachen)
18
59304
1363
(Gelächter)
Es ist eine seltsame Form
für einen Normalzustand.
01:12
It's a curiousneugierig shapegestalten
for a normalnormal conditionBedingung.
19
60667
2151
01:14
I sure wouldn'twürde nicht want to sitsitzen on it.
20
62818
1698
Ich würde nicht darauf sitzen wollen.
01:16
(LaughterLachen)
21
64516
2551
(Gelächter)
Fragen wir uns:
01:19
Let's askFragen ourselvesuns selbst, what is the causeUrsache
of this currentStrom anomalyAnomalie?
22
67067
4774
Was ist die Ursache
dieser aktuellen Anomalie?
01:23
Some people would say it's technologyTechnologie.
23
71841
2552
Manche Leute würden sagen,
dass es Technologie ist.
01:26
Now it's truewahr, technologyTechnologie has accumulatedangesammelt
throughdurch humanMensch historyGeschichte,
24
74393
4668
Das ist richtig,
Technologie hat sich
im Laufe der Zeit angesammelt,
01:31
and right now, technologyTechnologie
advancesFortschritte extremelyäußerst rapidlyschnell --
25
79061
4652
und im Moment entwickelt sich
die Technologie extrem schnell --
das ist die unmittelbare Ursache,
deshalb sind wir derzeit so produktiv.
01:35
that is the proximateproximate causeUrsache,
26
83713
1565
01:37
that's why we are currentlyzur Zeit
so very productiveproduktiv.
27
85278
2565
01:40
But I like to think back furtherdes Weiteren
to the ultimateLetztendlich causeUrsache.
28
88473
3661
Aber ich denke gerne weiter
an die ultimative Ursache.
01:45
Look at these two highlyhöchst
distinguishedausgezeichnet gentlemenHerren:
29
93114
3766
Schauen Sie sich diese zwei
hoch angesehenen Herren an:
01:48
We have KanziKanzi --
30
96880
1600
Wir haben Kanzi --
01:50
he's masteredgemeistert 200 lexicallexikalische
tokensToken, an incredibleunglaublich featKunststück.
31
98480
4643
er hat 200 Begriffe gemeistert,
eine unglaubliche Leistung.
01:55
And EdEd WittenWitten unleashedentfesselt the secondzweite
superstringSuperstring revolutionRevolution.
32
103123
3694
Und Ed Witten entfesselte
die zweite Superstring-Revolution.
Ein Blick unter die Haube zeigt das hier:
01:58
If we look underunter the hoodHaube,
this is what we find:
33
106817
2324
im Grunde das Gleiche.
02:01
basicallyGrundsätzlich gilt the samegleich thing.
34
109141
1570
Das eine ist etwas größer,
02:02
One is a little largergrößer,
35
110711
1813
es hat vielleicht auch ein paar Tricks
in der Art, wie es verkabelt ist.
02:04
it maybe alsoebenfalls has a fewwenige tricksTricks
in the exactgenau way it's wiredverdrahtet.
36
112524
2758
02:07
These invisibleunsichtbar differencesUnterschiede cannotnicht können
be too complicatedkompliziert, howeveraber,
37
115282
3812
Diese unsichtbaren Unterschiede können
aber nicht allzu kompliziert sein,
02:11
because there have only
been 250,000 generationsGenerationen
38
119094
4285
da es seit unserem letzten
gemeinsamen Vorfahren
nur 250.000 Generationen gab.
02:15
sinceschon seit our last commonverbreitet ancestorVorfahren.
39
123379
1732
02:17
We know that complicatedkompliziert mechanismsMechanismen
take a long time to evolveentwickeln.
40
125111
3849
Komplizierte Mechanismen brauchen
bekanntlich viel Zeit zur Entwicklung.
So führen uns einige
relativ kleine Änderungen
02:22
So a bunchBündel of relativelyverhältnismäßig minorgeringer changesÄnderungen
41
130000
2499
02:24
take us from KanziKanzi to WittenWitten,
42
132499
3067
von Kanzi zu Witten,
02:27
from broken-offabgebrochenen treeBaum branchesFilialen
to intercontinentalinterkontinentale ballisticballistisch missilesRaketen.
43
135566
4543
von abgebrochenen Ästen
bis hin zu Interkontinentalraketen.
Es ist also ziemlich offensichtlich,
02:32
So this then seemsscheint prettyziemlich obviousoffensichtlich
that everything we'vewir haben achievederreicht,
44
140839
3935
dass all unsere Leistungen
und alles, was uns interessiert,
02:36
and everything we carePflege about,
45
144774
1378
02:38
dependshängt davon ab cruciallyvon entscheidender on some relativelyverhältnismäßig minorgeringer
changesÄnderungen that madegemacht the humanMensch mindVerstand.
46
146152
5228
entscheidend von einigen
relativ kleinen Veränderungen abhängt,
die den menschlichen Geist ausmachen.
Die logische Folge ist natürlich,
02:44
And the corollarylogische Folge, of courseKurs,
is that any furtherdes Weiteren changesÄnderungen
47
152650
3662
dass jede weitere Veränderung
des Substrats des Denkens
02:48
that could significantlybedeutend changeVeränderung
the substrateSubstrat of thinkingDenken
48
156312
3477
enorme Konsequenzen haben könnte.
02:51
could have potentiallymöglicherweise
enormousenorm consequencesFolgen.
49
159789
3202
02:56
Some of my colleaguesKollegen
think we're on the vergeRand
50
164321
2905
Einige meiner Kollegen glauben,
dass wir kurz vor etwas stehen,
02:59
of something that could causeUrsache
a profoundtiefsinnig changeVeränderung in that substrateSubstrat,
51
167226
3908
was zu einer tiefgreifenden Veränderung
dieses Substrats führen könnte,
03:03
and that is machineMaschine superintelligenceSuperintelligenz.
52
171134
3213
und das ist Maschinen-Superintelligenz.
03:06
ArtificialKünstliche intelligenceIntelligenz used to be
about puttingPutten commandsBefehle in a boxBox.
53
174347
4739
Künstliche Intelligenz hieß,
Befehle in eine Box zu stecken.
Menschliche Programmierer
bastelten mühsam Wissenselemente.
03:11
You would have humanMensch programmersProgrammierer
54
179086
1665
03:12
that would painstakinglymühsam
handcraftHandwerk knowledgeWissen itemsArtikel.
55
180751
3135
03:15
You buildbauen up these expertExperte systemsSysteme,
56
183886
2086
Man baute Expertensysteme,
die für einige Zwecke nützlich waren,
03:17
and they were kindArt of usefulsinnvoll
for some purposesZwecke,
57
185972
2324
aber sie waren nicht skalierbar.
03:20
but they were very brittlespröde,
you couldn'tkonnte nicht scaleRahmen them.
58
188296
2681
03:22
BasicallyIm Grunde, you got out only
what you put in.
59
190977
3433
Im Grunde bekam man nur heraus,
was man zuvor hineingebaut hatte.
Aber seitdem gab es
einen Paradigmenwechsel
03:26
But sinceschon seit then,
60
194410
997
03:27
a paradigmParadigma shiftVerschiebung has takengenommen placeOrt
in the fieldFeld of artificialkünstlich intelligenceIntelligenz.
61
195407
3467
im Bereich der künstlichen Intelligenz.
03:30
TodayHeute, the actionAktion is really
around machineMaschine learningLernen.
62
198874
2770
Heute geht alles um maschinelles Lernen.
03:34
So ratherlieber than handcraftingKalligraphieren knowledgeWissen
representationsVertretungen and featuresEigenschaften,
63
202394
5387
Anstatt Wissensrepräsentationen
und -eigenschaften manuell zu erstellen,
03:40
we createerstellen algorithmsAlgorithmen that learnlernen,
oftenhäufig from rawroh perceptualWahrnehmungs dataDaten.
64
208511
5554
erstellen wir Algorithmen, die oft
aus rohen sensorischen Daten lernen.
03:46
BasicallyIm Grunde the samegleich thing
that the humanMensch infantSäugling does.
65
214065
4998
Genau das Gleiche,
was das menschliche Kind tut.
03:51
The resultErgebnis is A.I. that is not
limitedbegrenzt to one domainDomain --
66
219063
4207
Das Ergebnis ist KI, die nicht
auf eine Domäne beschränkt ist --
03:55
the samegleich systemSystem can learnlernen to translateÜbersetzen
betweenzwischen any pairsPaare of languagesSprachen,
67
223270
4631
das gleiche System kann lernen,
beliebige Sprachpaare zu übersetzen,
03:59
or learnlernen to playspielen any computerComputer gameSpiel
on the AtariAtari consoleKonsole.
68
227901
5437
oder lernen, jedes Computerspiel
auf der Atari-Konsole zu spielen.
04:05
Now of courseKurs,
69
233338
1779
Natürlich hat KI noch nicht annähernd
die gleiche universelle Fähigkeit,
04:07
A.I. is still nowherenirgends nearin der Nähe von havingmit
the samegleich powerfulmächtig, cross-domaindomänenübergreifende
70
235117
3999
zu lernen und zu planen
wie ein menschliches Wesen.
04:11
abilityFähigkeit to learnlernen and planplanen
as a humanMensch beingSein has.
71
239116
3219
Der Kortex hat noch
einige algorithmische Tricks,
04:14
The cortexKortex still has some
algorithmicalgorithmische tricksTricks
72
242335
2126
von denen wir noch nicht wissen,
wie wir sie in Maschinen abbilden sollen.
04:16
that we don't yetnoch know
how to matchSpiel in machinesMaschinen.
73
244461
2355
04:19
So the questionFrage is,
74
247886
1899
Die Frage ist also:
Wie weit sind wir in der Lage,
diesen Tricks zu entsprechen?
04:21
how farweit are we from beingSein ablefähig
to matchSpiel those tricksTricks?
75
249785
3500
Vor ein paar Jahren
machten wir eine Umfrage
04:26
A couplePaar of yearsJahre agovor,
76
254245
1083
04:27
we did a surveyUmfrage of some of the world'sWelt
leadingführend A.I. expertsExperten,
77
255328
2888
unter einigen der weltweit
führenden KI-Experten,
04:30
to see what they think,
and one of the questionsFragen we askedaufgefordert was,
78
258216
3224
um zu sehen, was sie denken,
und eine der Fragen war:
04:33
"By whichwelche yearJahr do you think
there is a 50 percentProzent probabilityWahrscheinlichkeit
79
261440
3353
"In welchem ​Jahr sehen Sie
eine 50 %-Wahrscheinlichkeit,
04:36
that we will have achievederreicht
human-levelMenschen-Ebene machineMaschine intelligenceIntelligenz?"
80
264793
3482
dass wir maschinelle Intelligenz
auf menschlicher Ebene erreicht haben?"
04:40
We defineddefiniert human-levelMenschen-Ebene here
as the abilityFähigkeit to performausführen
81
268785
4183
Wir definierten hierbei
die menschliche Ebene als Fähigkeit,
fast jeden Job mindestens so gut
wie ein erwachsener Mensch zu können,
04:44
almostfast any jobJob at leastam wenigsten as well
as an adultErwachsene humanMensch,
82
272968
2871
04:47
so realecht human-levelMenschen-Ebene, not just
withininnerhalb some limitedbegrenzt domainDomain.
83
275839
4005
also die echte menschliche Ebene,
nicht nur für einen Spezialbereich.
04:51
And the medianMedian answerAntworten was 2040 or 2050,
84
279844
3650
Die mittlere Antwort war 2040 oder 2050,
04:55
dependingabhängig on preciselygenau whichwelche
groupGruppe of expertsExperten we askedaufgefordert.
85
283494
2806
je nachdem, welche Gruppe
von Experten wir fragten.
04:58
Now, it could happengeschehen much,
much laterspäter, or soonerfrüher,
86
286300
4039
Das könnte sehr viel später
oder auch früher passieren,
05:02
the truthWahrheit is nobodyniemand really knowsweiß.
87
290339
1940
niemand weiß das wirklich.
Wir wissen aber, dass die ultimative
Grenze für die Informationsverarbeitung
05:05
What we do know is that the ultimateLetztendlich
limitGrenze to informationInformation processingwird bearbeitet
88
293259
4412
05:09
in a machineMaschine substrateSubstrat liesLügen farweit outsidedraußen
the limitsGrenzen in biologicalbiologisch tissueGewebe.
89
297671
4871
in einer Maschine weit jenseits der
Grenzen des biologischen Gewebes liegt.
Das liegt an der Physik.
05:15
This comeskommt down to physicsPhysik.
90
303241
2378
Ein biologisches Neuron
feuert mit etwa 200 Hertz,
05:17
A biologicalbiologisch neuronNeuron firesFeuer, maybe,
at 200 hertzHertz, 200 timesmal a secondzweite.
91
305619
4718
200-mal pro Sekunde.
05:22
But even a present-dayheutige Tag transistorTransistor
operatesbetreibt at the GigahertzGigahertz.
92
310337
3594
Aber sogar ein heutiger Transistor
arbeitet mit 1 Gigahertz.
05:25
NeuronsNeuronen propagatepropagieren slowlylangsam in axonsAxone,
100 metersMeter perpro secondzweite, topsTops.
93
313931
5297
Neuronen bewegen sich langsam in Axonen,
maximal 100 Meter pro Sekunde.
05:31
But in computersComputer, signalsSignale can travelReise
at the speedGeschwindigkeit of lightLicht.
94
319228
3111
Aber in Computern können sich Signale
mit Lichtgeschwindigkeit bewegen.
05:35
There are alsoebenfalls sizeGröße limitationsEinschränkungen,
95
323079
1869
Es gibt auch Größenbeschränkungen,
05:36
like a humanMensch brainGehirn has
to fitpassen insideinnen a craniumSchädel,
96
324948
3027
weil ein menschliches Gehirn
in einen Schädel passen muss.
05:39
but a computerComputer can be the sizeGröße
of a warehouseWarenhaus or largergrößer.
97
327975
4761
Aber ein Computer kann so groß
wie ein Lagerhaus oder größer sein.
05:44
So the potentialPotenzial for superintelligenceSuperintelligenz
liesLügen dormantruhende in matterAngelegenheit,
98
332736
5599
Also ruht das Potential
für Superintelligenz in der Materie,
05:50
much like the powerLeistung of the atomAtom
laylegen dormantruhende throughoutwährend humanMensch historyGeschichte,
99
338335
5712
ähnlich wie die Kraft des Atoms
während der Menschheitsgeschichte ruhte
05:56
patientlygeduldig waitingwarten there untilbis 1945.
100
344047
4405
und dort geduldig bis 1945 wartete.
In diesem Jahrhundert
könnten Wissenschaftler lernen,
06:00
In this centuryJahrhundert,
101
348452
1248
06:01
scientistsWissenschaftler maykann learnlernen to awakenwecken
the powerLeistung of artificialkünstlich intelligenceIntelligenz.
102
349700
4118
die Kraft der künstlichen
Intelligenz zu wecken.
06:05
And I think we mightMacht then see
an intelligenceIntelligenz explosionExplosion.
103
353818
4008
Ich denke, wir könnten dann
eine Intelligenzexplosion erleben.
Wenn die meisten Leute darüber nachdenken,
was schlau und was dumm ist,
06:10
Now mostdie meisten people, when they think
about what is smartsmart and what is dumbstumm,
104
358406
3957
06:14
I think have in mindVerstand a pictureBild
roughlygrob like this.
105
362363
3023
haben sie etwa dieses Bild vor Augen:
06:17
So at one endEnde we have the villageDorf idiotDummkopf,
106
365386
2598
An einem Ende haben wir den Dorftrottel,
06:19
and then farweit over at the other sideSeite
107
367984
2483
und weit entfernt am anderen Ende
haben wir Ed Witten oder Albert Einstein,
06:22
we have EdEd WittenWitten, or AlbertAlbert EinsteinEinstein,
or whoeverwer auch immer your favoriteFavorit guruGuru is.
108
370467
4756
oder wer auch immer Ihr Lieblingsguru ist.
06:27
But I think that from the pointPunkt of viewAussicht
of artificialkünstlich intelligenceIntelligenz,
109
375223
3834
Aber ich denke, dass vom Standpunkt
der künstlichen Intelligenz
06:31
the truewahr pictureBild is actuallytatsächlich
probablywahrscheinlich more like this:
110
379057
3681
das wahre Bild wohl eher so aussieht:
KI beginnt hier an diesem Punkt,
bei null Intelligenz
06:35
AIAI startsbeginnt out at this pointPunkt here,
at zeroNull intelligenceIntelligenz,
111
383258
3378
und nach sehr vielen Jahren
wirklich harter Arbeit
06:38
and then, after manyviele, manyviele
yearsJahre of really hardhart work,
112
386636
3011
06:41
maybe eventuallyschließlich we get to
mouse-levelMaus-Ebene artificialkünstlich intelligenceIntelligenz,
113
389647
3844
kommen wir vielleicht
zur KI auf Mausebene,
06:45
something that can navigatenavigieren
clutteredüberladen environmentsUmgebungen
114
393491
2430
etwas, das durch ungeordnete Umgebungen
06:47
as well as a mouseMaus can.
115
395921
1987
navigieren kann wie eine Maus.
06:49
And then, after manyviele, manyviele more yearsJahre
of really hardhart work, lots of investmentInvestition,
116
397908
4313
Dann, nach noch viel mehr Jahren
wirklich harter Arbeit und viel Geld,
06:54
maybe eventuallyschließlich we get to
chimpanzee-levelSchimpansen-Ebene artificialkünstlich intelligenceIntelligenz.
117
402221
4639
kommen wir vielleicht irgendwann
zur KI auf Schimpansen-Ebene.
06:58
And then, after even more yearsJahre
of really, really hardhart work,
118
406860
3210
Nach noch mehr Jahren härtester Arbeit
07:02
we get to villageDorf idiotDummkopf
artificialkünstlich intelligenceIntelligenz.
119
410070
2913
kommen wir zur Dorftrottel-KI.
Und wenige Augenblicke später
sind wir hinter Ed Witten.
07:04
And a fewwenige momentsMomente laterspäter,
we are beyonddarüber hinaus EdEd WittenWitten.
120
412983
3272
07:08
The trainZug doesn't stop
at HumanvilleHumanville StationBahnhof.
121
416255
2970
Der Zug endet nicht in Menschenhausen.
07:11
It's likelywahrscheinlich, ratherlieber, to swooshSwoosh right by.
122
419225
3022
Er wird wohl eher einfach durchrauschen.
07:14
Now this has profoundtiefsinnig implicationsImplikationen,
123
422247
1984
Das hat tiefgreifende Auswirkungen,
07:16
particularlyinsbesondere when it comeskommt
to questionsFragen of powerLeistung.
124
424231
3862
besonders wenn es um Machtfragen geht.
Zum Beispiel sind Schimpansen stark --
07:20
For exampleBeispiel, chimpanzeesSchimpansen are strongstark --
125
428093
1899
07:21
poundPfund for poundPfund, a chimpanzeeSchimpanse is about
twicezweimal as strongstark as a fitpassen humanMensch malemännlich.
126
429992
5222
ein Schimpanse ist pro Kilo etwa
doppelt so stark wie ein fitter Mann.
Aber das Schicksal von Kanzi
und seinen Freunden
07:27
And yetnoch, the fateSchicksal of KanziKanzi
and his palsKumpel dependshängt davon ab a lot more
127
435214
4614
hängt viel mehr von dem ab,
was wir Menschen tun,
07:31
on what we humansMenschen do than on
what the chimpanzeesSchimpansen do themselvessich.
128
439828
4140
als von dem, was Schimpansen selbst tun.
07:37
OnceEinmal there is superintelligenceSuperintelligenz,
129
445228
2314
Sobald es eine Superintelligenz gibt,
07:39
the fateSchicksal of humanityMenschheit maykann dependabhängen
on what the superintelligenceSuperintelligenz does.
130
447542
3839
kann das Schicksal der Menschheit
vom Tun der Superintelligenz abhängen.
Denken Sie darüber nach:
07:44
Think about it:
131
452451
1057
07:45
MachineMaschine intelligenceIntelligenz is the last inventionErfindung
that humanityMenschheit will ever need to make.
132
453508
5044
KI ist die letzte Erfindung,
die die Menschheit je machen muss.
Maschinen sind dann
besser im Erfinden als wir
07:50
MachinesMaschinen will then be better
at inventingerfinden than we are,
133
458552
2973
und tun es mit digitalen Zeitmaßstäben.
07:53
and they'llsie werden be doing so
on digitaldigital timescalesZeitskalen.
134
461525
2540
07:56
What this meansmeint is basicallyGrundsätzlich gilt
a telescopingTeleskop- of the futureZukunft.
135
464065
4901
Im Grunde bedeutet das
eine Komprimierung der Zukunft.
Denken Sie an all die verrückten Sachen,
von denen Sie sich vorstellen könnten,
08:00
Think of all the crazyverrückt technologiesTechnologien
that you could have imaginedvorgestellt
136
468966
3558
dass die Menschen sie
zu gegebener Zeit entwickelt hätten:
08:04
maybe humansMenschen could have developedentwickelt
in the fullnessFülle of time:
137
472524
2798
08:07
curesheilt for agingAltern, spacePlatz colonizationKolonisation,
138
475322
3258
Mittel gegen das Altern,
Besiedelung des Alls,
selbstreplizierende Nanobots
08:10
self-replicatingselbstreplizierend nanobotsNanobots or uploadinghochladen
of mindsKöpfe into computersComputer,
139
478580
3731
oder das Hochladen
des menschlichen Geistes in Computer;
08:14
all kindsArten of scienceWissenschaft fiction-yFiktion-y stuffSachen
140
482311
2159
alle möglichen futuristischen Dinge,
08:16
that's neverthelesstrotz dessen consistentkonsistent
with the lawsGesetze of physicsPhysik.
141
484470
2737
solange es mit den Gesetzen
der Physik übereinstimmt.
08:19
All of this superintelligenceSuperintelligenz could
developentwickeln, and possiblymöglicherweise quiteganz rapidlyschnell.
142
487207
4212
All das könnte die Superintelligenz
wohl ziemlich schnell entwickeln.
Eine Superintelligenz mit
einer solchen technologischen Reife
08:24
Now, a superintelligenceSuperintelligenz with sucheine solche
technologicaltechnologisch maturityReife
143
492449
3558
08:28
would be extremelyäußerst powerfulmächtig,
144
496007
2179
wäre extrem mächtig,
08:30
and at leastam wenigsten in some scenariosSzenarien,
it would be ablefähig to get what it wants.
145
498186
4546
und zumindest in einigen Szenarien
wäre sie in der Lage,
ihren Willen zu bekommen.
08:34
We would then have a futureZukunft that would
be shapedgeformt by the preferencesEinstellungen of this A.I.
146
502732
5661
Wir hätten dann eine Zukunft,
die durch die Vorlieben
dieser KI geprägt wäre.
Eine gute Frage ist dann:
"Was sind das für Vorlieben?"
08:41
Now a good questionFrage is,
what are those preferencesEinstellungen?
147
509855
3749
08:46
Here it getsbekommt trickierschwieriger.
148
514244
1769
Hier wird es kniffliger.
08:48
To make any headwayFortschritte with this,
149
516013
1435
Um damit voranzukommen,
08:49
we mustsollen first of all
avoidvermeiden anthropomorphizingvermenschlichen.
150
517448
3276
müssen wir vor allem
die Anthropomorphisierung vermeiden.
08:53
And this is ironicironisch because
everyjeden newspaperZeitung articleArtikel
151
521934
3301
Das ist ironisch,
weil jeder Zeitungsartikel
08:57
about the futureZukunft of A.I.
has a pictureBild of this:
152
525235
3855
über die Zukunft der KI
etwa so ein Bild davon malt:
09:02
So I think what we need to do is
to conceiveschwanger of the issueProblem more abstractlyabstrakt,
153
530280
4134
Also denke ich, dass wir das Thema
abstrakter verstehen müssen,
09:06
not in termsBegriffe of vividlebendige HollywoodHollywood scenariosSzenarien.
154
534414
2790
nicht wie in den lebhaften
Hollywood-Szenarien.
09:09
We need to think of intelligenceIntelligenz
as an optimizationOptimierung processverarbeiten,
155
537204
3617
Wir müssen Intelligenz
als Optimierungsprozess betrachten,
09:12
a processverarbeiten that steersOchsen the futureZukunft
into a particularinsbesondere setSet of configurationsKonfigurationen.
156
540821
5649
einen Prozess, der die Zukunft
in eine Reihe von Konfigurationen steuert.
09:18
A superintelligenceSuperintelligenz is
a really strongstark optimizationOptimierung processverarbeiten.
157
546470
3511
Eine Superintelligenz ist ein
wirklich starker Optimierungsprozess.
09:21
It's extremelyäußerst good at usingmit
availableverfügbar meansmeint to achieveleisten a stateBundesland
158
549981
4117
Sie ist sehr gut darin,
verfügbare Mittel zu verwenden,
um einen Zustand zu erreichen,
in dem das Ziel realisiert ist.
09:26
in whichwelche its goalTor is realizedrealisiert.
159
554098
1909
Es gibt also keinen
zwingenden Zusammenhang
09:28
This meansmeint that there is no necessarynotwendig
conenctionconenction betweenzwischen
160
556447
2672
zwischen einer hohen Intelligenz
in diesem Sinne und einem Ziel,
09:31
beingSein highlyhöchst intelligentintelligent in this senseSinn,
161
559119
2734
09:33
and havingmit an objectiveZielsetzung that we humansMenschen
would find worthwhilelohnend or meaningfulsinnvoll.
162
561853
4662
das wir Menschen für lohnend
oder sinnvoll halten würden.
Angenommen, wir geben einer KI das Ziel,
Menschen zum Lächeln zu bringen.
09:39
SupposeNehmen wir an we give an A.I. the goalTor
to make humansMenschen smileLächeln.
163
567321
3794
Eine schwache KI führt nützliche
oder amüsante Handlungen durch,
09:43
When the A.I. is weakschwach, it performsführt usefulsinnvoll
or amusingamüsante actionsAktionen
164
571115
2982
09:46
that causeUrsache its userBenutzer to smileLächeln.
165
574097
2517
die ihren Benutzer zum Lächeln bringen.
09:48
When the A.I. becomeswird superintelligentsuperintelligent,
166
576614
2417
Eine superintelligente KI erkennt,
09:51
it realizesrealisiert that there is a more
effectiveWirksam way to achieveleisten this goalTor:
167
579031
3523
dass es einen effektiveren Weg gibt,
dieses Ziel zu erreichen:
09:54
take controlsteuern of the worldWelt
168
582554
1922
die Kontrolle über die Welt zu übernehmen
09:56
and stickStock electrodesElektroden into the facialGesichtsbehandlung
musclesMuskeln of humansMenschen
169
584476
3162
und Elektroden in die Gesichtsmuskeln
von Menschen zu stecken,
09:59
to causeUrsache constantKonstante, beamingstrahlend grinsgrins.
170
587638
2941
um ein konstantes,
strahlendes Grinsen zu verursachen.
Ein anderes Beispiel:
10:02
AnotherEin weiterer exampleBeispiel,
171
590579
1035
10:03
supposeannehmen we give A.I. the goalTor to solvelösen
a difficultschwer mathematicalmathematisch problemProblem.
172
591614
3383
Angenommen, die KI soll ein schwieriges
mathematisches Problem lösen.
10:06
When the A.I. becomeswird superintelligentsuperintelligent,
173
594997
1937
Eine superintelligente KI erkennt,
10:08
it realizesrealisiert that the mostdie meisten effectiveWirksam way
to get the solutionLösung to this problemProblem
174
596934
4171
dass der effektivste Weg
zur Lösung dieses Problems darin besteht,
10:13
is by transformingtransformierend the planetPlanet
into a giantRiese computerComputer,
175
601105
2930
den Planeten in einen
riesigen Computer zu verwandeln,
10:16
so as to increaseerhöhen, ansteigen its thinkingDenken capacityKapazität.
176
604035
2246
um ihre Denkfähigkeit zu erhöhen.
Man beachte, dass dies den KIs
einen instrumentalen Grund gibt,
10:18
And noticebeachten that this givesgibt the A.I.s
an instrumentalInstrumental reasonGrund
177
606281
2764
10:21
to do things to us that we
mightMacht not approvegenehmigen of.
178
609045
2516
Dinge zu tun, die uns
vielleicht nicht gefallen.
Menschen sind in diesem Modell
eine Bedrohung,
10:23
HumanMenschlichen beingsWesen in this modelModell- are threatsBedrohungen,
179
611561
1935
10:25
we could preventverhindern the mathematicalmathematisch
problemProblem from beingSein solvedgelöst.
180
613496
2921
denn wir könnten die Lösung
des mathematischen Problems verhindern.
10:29
Of courseKurs, perceivablyaussensignale things won'tGewohnheit
go wrongfalsch in these particularinsbesondere waysWege;
181
617207
3494
Natürlich werden Dinge nicht
genau so schiefgehen;
das sind Cartoon-Beispiele.
10:32
these are cartoonKarikatur examplesBeispiele.
182
620701
1753
Aber der generelle Punkt hier ist wichtig:
10:34
But the generalGeneral pointPunkt here is importantwichtig:
183
622454
1939
Wenn Sie einen wirklich mächtigen
Optimierungsprozess erstellen,
10:36
if you createerstellen a really powerfulmächtig
optimizationOptimierung processverarbeiten
184
624393
2873
um für das Ziel x zu maximieren,
10:39
to maximizezu maximieren for objectiveZielsetzung x,
185
627266
2234
sollten Sie sicherstellen,
dass Ihre Definition von x alles enthält,
10:41
you better make sure
that your definitionDefinition of x
186
629500
2276
10:43
incorporatesenthält everything you carePflege about.
187
631776
2469
was Ihnen wichtig ist.
10:46
This is a lessonLektion that's alsoebenfalls taughtgelehrt
in manyviele a mythMythos.
188
634835
4384
Diese Lektion wird auch
in vielen Mythen gelehrt.
10:51
KingKönig MidasMidas wisheswünscht sich that everything
he touchesberührt be turnedgedreht into goldGold.
189
639219
5298
König Midas wünscht, dass alles,
was er berührt, zu Gold wird.
Er berührt seine Tochter,
sie verwandelt sich in Gold.
10:56
He touchesberührt his daughterTochter,
she turnswendet sich into goldGold.
190
644517
2861
10:59
He touchesberührt his foodLebensmittel, it turnswendet sich into goldGold.
191
647378
2553
Er berührt sein Essen,
es verwandelt sich in Gold.
11:01
This could becomewerden practicallypraktisch relevantrelevant,
192
649931
2589
Das könnte praktisch relevant werden,
11:04
not just as a metaphorMetapher for greedGier,
193
652520
2070
nicht nur als Metapher für Gier,
11:06
but as an illustrationIllustration of what happensdas passiert
194
654590
1895
sondern als Illustration für das,
was passiert, wenn Sie einen mächtigen
Optimierungsprozess erstellen
11:08
if you createerstellen a powerfulmächtig
optimizationOptimierung processverarbeiten
195
656485
2837
11:11
and give it misconceivedfalsch
or poorlyschlecht specifiedangegeben goalsTore.
196
659322
4789
und ihm falsche oder schlecht
spezifizierte Ziele geben.
11:16
Now you mightMacht say, if a computerComputer startsbeginnt
stickingklebt electrodesElektroden into people'sMenschen facesGesichter,
197
664111
5189
Nun könnte man sagen,
wenn ein Computer anfängt,
Elektroden in die Gesichter
von Menschen zu stecken,
11:21
we'dheiraten just shutgeschlossen it off.
198
669300
2265
würden wir ihn einfach abschalten.
A, das ist nicht unbedingt so einfach,
wenn wir abhängig vom System sind.
11:24
A, this is not necessarilyNotwendig so easyeinfach to do
if we'vewir haben growngewachsen dependentabhängig on the systemSystem --
199
672555
5340
11:29
like, where is the off switchSchalter
to the InternetInternet?
200
677895
2732
Wo etwa ist der Ausschalter des Internets?
11:32
B, why haven'thabe nicht the chimpanzeesSchimpansen
flickedschnippte the off switchSchalter to humanityMenschheit,
201
680627
5120
B, warum haben die Schimpansen nicht
den Schalter an der Menschheit
oder den Neandertalern ausgeschaltet?
11:37
or the NeanderthalsNeandertaler?
202
685747
1551
11:39
They certainlybestimmt had reasonsGründe dafür.
203
687298
2666
Sie hatten sicherlich Gründe.
11:41
We have an off switchSchalter,
for exampleBeispiel, right here.
204
689964
2795
Wir haben zum Beispiel
einen Aus-Schalter hier.
11:44
(ChokingWürgen)
205
692759
1554
(Würgen)
11:46
The reasonGrund is that we are
an intelligentintelligent adversaryWidersacher;
206
694313
2925
Der Grund ist, dass wir
ein intelligenter Gegner sind;
11:49
we can anticipateerwarten threatsBedrohungen
and planplanen around them.
207
697238
2728
wir können Bedrohungen
vorhersehen und ihnen ausweichen.
11:51
But so could a superintelligentsuperintelligent agentAgent,
208
699966
2504
Aber das könnte auch
ein superintelligenter Agent,
11:54
and it would be much better
at that than we are.
209
702470
3254
und der wäre viel besser
darin als wir selbst.
11:57
The pointPunkt is, we should not be confidentzuversichtlich
that we have this underunter controlsteuern here.
210
705724
7187
Wir sollten uns also nicht zu sicher sein,
dass wir das hier unter Kontrolle haben.
12:04
And we could try to make our jobJob
a little bitBit easiereinfacher by, say,
211
712911
3447
Wir könnten versuchen, unsere Arbeit
ein wenig einfacher zu machen,
indem wir die KI in eine Box sperren,
12:08
puttingPutten the A.I. in a boxBox,
212
716358
1590
12:09
like a securesichern softwareSoftware environmentUmwelt,
213
717948
1796
wie eine sichere Software-Umgebung,
12:11
a virtualvirtuell realityWirklichkeit simulationSimulation
from whichwelche it cannotnicht können escapeFlucht.
214
719744
3022
eine Virtual-Reality-Simulation,
aus der sie nicht entkommen kann.
12:14
But how confidentzuversichtlich can we be that
the A.I. couldn'tkonnte nicht find a bugFehler.
215
722766
4146
Aber wie sicher können wir sein,
dass die KI keine Lücke findet?
12:18
GivenGegeben that merelynur humanMensch hackersHacker
find bugsFehler all the time,
216
726912
3169
Da schon menschliche Hacker
ständig solche Fehler finden,
12:22
I'd say, probablywahrscheinlich not very confidentzuversichtlich.
217
730081
3036
würde ich sagen, wohl nicht sehr sicher.
12:26
So we disconnecttrennen Sie the ethernetEthernet cableKabel
to createerstellen an airLuft gapSpalt,
218
734237
4548
Also trennen wir das Ethernetkabel,
um einen Luftspalt zu schaffen,
12:30
but again, like merelynur humanMensch hackersHacker
219
738785
2668
aber selbst menschliche Hacker
überwinden solche Luftlücken
12:33
routinelyroutinemäßig transgressübertreten airLuft gapsLücken
usingmit socialSozial engineeringIngenieurwesen.
220
741453
3381
routinemäßig durch Social Engineering.
12:36
Right now, as I speaksprechen,
221
744834
1259
Sicher gibt es gerade
irgendwo einen Angestellten,
12:38
I'm sure there is some employeeMitarbeiter
out there somewhereirgendwo
222
746093
2389
12:40
who has been talkedsprach into handingÜbergabe out
her accountKonto detailsDetails
223
748482
3346
der von einem vermeintlichen Mitarbeiter
aus der IT überredet wurde,
12:43
by somebodyjemand claimingbehauptend to be
from the I.T. departmentAbteilung.
224
751828
2746
seine Kontodaten preiszugeben.
12:46
More creativekreativ scenariosSzenarien are alsoebenfalls possiblemöglich,
225
754574
2127
Es sind auch kreativere Szenarien möglich.
12:48
like if you're the A.I.,
226
756701
1315
Als KI kann man Elektroden
in seiner internen Schaltung umbauen,
12:50
you can imaginevorstellen wigglingwackeln electrodesElektroden
around in your internalintern circuitrySchaltung
227
758016
3532
um Funkwellen zu erzeugen,
mit denen man kommunizieren kann.
12:53
to createerstellen radioRadio wavesWellen that you
can use to communicatekommunizieren.
228
761548
3462
Oder man gibt eine Fehlfunktion vor,
12:57
Or maybe you could pretendso tun als ob to malfunctionFehlfunktion,
229
765010
2424
und wenn die Programmierer nachsehen,
was schiefgelaufen ist,
12:59
and then when the programmersProgrammierer openöffnen
you up to see what wentging wrongfalsch with you,
230
767434
3497
sehen sie sich den Quellcode an -- Bam! --
13:02
they look at the sourceQuelle codeCode -- BamBAM! --
231
770931
1936
13:04
the manipulationManipulation can take placeOrt.
232
772867
2447
Die Manipulation kann stattfinden.
13:07
Or it could outputAusgabe the blueprintBauplan
to a really niftyNifty technologyTechnologie,
233
775314
3430
Oder sie könnte den Bauplan zu einer
raffinierten Technologie ausgeben,
13:10
and when we implementimplementieren it,
234
778744
1398
und wenn wir die implementieren,
hat sie einen verborgenen Nebeneffekt,
13:12
it has some surreptitiousSchleichwerbung sideSeite effectbewirken
that the A.I. had plannedgeplant.
235
780142
4397
den die KI geplant hatte.
13:16
The pointPunkt here is that we should
not be confidentzuversichtlich in our abilityFähigkeit
236
784539
3463
Der Punkt ist, dass wir nicht
auf unsere Fähigkeit vertrauen sollten,
13:20
to keep a superintelligentsuperintelligent genieGeist
lockedeingesperrt up in its bottleFlasche foreverfür immer.
237
788002
3808
einen superintelligenten Geist für immer
in seiner Flasche eingesperrt zu halten.
13:23
SoonerFrüher or laterspäter, it will out.
238
791810
2254
Früher oder später kommt er heraus.
Ich glaube, wir müssen herausfinden,
13:27
I believe that the answerAntworten here
is to figureZahl out
239
795034
3103
13:30
how to createerstellen superintelligentsuperintelligent A.I.
sucheine solche that even if -- when -- it escapesentweicht,
240
798137
5024
wie man superintelligente KI so baut,
dass wenn sie -- sobald -- sie entkommt,
13:35
it is still safeSafe because it is
fundamentallygrundlegend on our sideSeite
241
803161
3277
es immer noch sicher ist,
weil sie fest auf unserer Seite ist,
13:38
because it sharesAnteile our valuesWerte.
242
806438
1899
weil sie unsere Werte teilt.
13:40
I see no way around
this difficultschwer problemProblem.
243
808337
3210
Es führt kein Weg um dieses
schwierige Problem herum.
13:44
Now, I'm actuallytatsächlich fairlyziemlich optimisticoptimistisch
that this problemProblem can be solvedgelöst.
244
812557
3834
Ich bin aber ziemlich optimistisch,
dass es gelöst werden kann.
13:48
We wouldn'twürde nicht have to writeschreiben down
a long listListe of everything we carePflege about,
245
816391
3903
Wir müssten keine lange Liste von allem
aufschreiben, was uns wichtig ist,
13:52
or worseschlechter yetnoch, spellZauber it out
in some computerComputer languageSprache
246
820294
3643
oder schlimmer noch,
es in irgendeiner Computersprache
wie C++ oder Python buchstabieren;
13:55
like C++ or PythonPython,
247
823937
1454
13:57
that would be a taskAufgabe beyonddarüber hinaus hopelesshoffnungslos.
248
825391
2767
das wäre eine Aufgabe,
die mehr als hoffnungslos ist.
14:00
InsteadStattdessen, we would createerstellen an A.I.
that usesVerwendungen its intelligenceIntelligenz
249
828158
4297
Stattdessen würden wir eine KI bauen,
die ihre Intelligenz nutzt,
14:04
to learnlernen what we valueWert,
250
832455
2771
um zu lernen, was wir wertschätzen,
14:07
and its motivationMotivation systemSystem is constructedgebaut
in sucheine solche a way that it is motivatedmotiviert
251
835226
5280
und ihr Motivationssystem
ist so konstruiert,
dass sie anstrebt,
unsere Ziele zu verfolgen
14:12
to pursueverfolgen our valuesWerte or to performausführen actionsAktionen
that it predictsprognostiziert we would approvegenehmigen of.
252
840506
5232
oder Dinge zu tun, von denen
sie erwartet, dass wir sie billigen.
14:17
We would thusso leverageHebelwirkung
its intelligenceIntelligenz as much as possiblemöglich
253
845738
3414
Wir würden somit ihre Intelligenz
14:21
to solvelösen the problemProblem of value-loadingWert-laden.
254
849152
2745
für das Problem der Wertedefinition
so gut wie möglich einsetzen.
Das kann passieren,
14:24
This can happengeschehen,
255
852727
1512
14:26
and the outcomeErgebnis could be
very good for humanityMenschheit.
256
854239
3596
und das Ergebnis könnte
sehr gut für die Menschheit sein.
14:29
But it doesn't happengeschehen automaticallyautomatisch.
257
857835
3957
Aber es geschieht nicht automatisch.
Die Anfangsbedingungen
für die Intelligenzexplosion
14:33
The initialInitiale conditionsBedingungen
for the intelligenceIntelligenz explosionExplosion
258
861792
2998
müssen genau auf die richtige
Art und Weise aufgestellt werden,
14:36
mightMacht need to be setSet up
in just the right way
259
864790
2863
14:39
if we are to have a controlledkontrolliert detonationDetonation.
260
867653
3530
wenn wir eine kontrollierte
Detonation haben wollen.
14:43
The valuesWerte that the A.I. has
need to matchSpiel oursunsere,
261
871183
2618
Die Werte der KI müssen
mit unseren übereinstimmen,
14:45
not just in the familiarfamiliär contextKontext,
262
873801
1760
nicht nur im vertrauten Kontext,
wo wir leicht überprüfen können,
wie die KI sich verhält,
14:47
like where we can easilyleicht checkprüfen
how the A.I. behavesverhält sich,
263
875561
2438
14:49
but alsoebenfalls in all novelRoman contextsKontexten
that the A.I. mightMacht encounterBegegnung
264
877999
3234
sondern auch in allen neuen Situationen,
auf die die KI in der
unbestimmten Zukunft treffen könnte.
14:53
in the indefiniteunbestimmt futureZukunft.
265
881233
1557
14:54
And there are alsoebenfalls some esotericesoterische issuesProbleme
that would need to be solvedgelöst, sortedsortiert out:
266
882790
4737
Es gibt auch einige esoterische Fragen,
die gelöst werden müssten:
die genauen Details
ihrer Entscheidungstheorie,
14:59
the exactgenau detailsDetails of its decisionEntscheidung theoryTheorie,
267
887527
2089
15:01
how to dealDeal with logicallogisch
uncertaintyUnsicherheit and so forthher.
268
889616
2864
wie mit logischer Unsicherheit
umzugehen ist usw.
Die technischen Probleme,
die dafür gelöst werden müssen,
15:05
So the technicaltechnisch problemsProbleme that need
to be solvedgelöst to make this work
269
893330
3102
sind ziemlich schwierig --
15:08
look quiteganz difficultschwer --
270
896432
1113
15:09
not as difficultschwer as makingHerstellung
a superintelligentsuperintelligent A.I.,
271
897545
3380
nicht so schwierig, wie eine
superintelligente KI zu bauen,
15:12
but fairlyziemlich difficultschwer.
272
900925
2868
aber ziemlich schwierig.
Hier ist die Sorge:
15:15
Here is the worrySorge:
273
903793
1695
15:17
MakingMachen superintelligentsuperintelligent A.I.
is a really hardhart challengeHerausforderung.
274
905488
4684
Superintelligente KI zu bauen
ist eine wirklich harte Herausforderung.
Sichere superintelligente KI zu bauen
15:22
MakingMachen superintelligentsuperintelligent A.I. that is safeSafe
275
910172
2548
15:24
involvesbeinhaltet some additionalzusätzliche
challengeHerausforderung on topoben of that.
276
912720
2416
birgt noch zusätzliche Herausforderungen.
15:28
The riskRisiko is that if somebodyjemand figuresZahlen out
how to crackRiss the first challengeHerausforderung
277
916216
3487
Das Risiko besteht darin,
dass jemand die erste Hürde knackt,
15:31
withoutohne alsoebenfalls havingmit crackedgeknackt
the additionalzusätzliche challengeHerausforderung
278
919703
3001
ohne die zusätzliche Herausforderung,
perfekte Sicherheit zu gewährleisten,
15:34
of ensuringGewährleistung perfectperfekt safetySicherheit.
279
922704
1901
ebenfalls zu knacken.
15:37
So I think that we should
work out a solutionLösung
280
925375
3331
Ich denke daher,
wir sollten im Vorfeld
das Steuerungsproblem lösen,
15:40
to the controlsteuern problemProblem in advanceVoraus,
281
928706
2822
damit wir eine Lösung haben,
wenn sie benötigt wird.
15:43
so that we have it availableverfügbar
by the time it is needederforderlich.
282
931528
2660
Vielleicht können wir nicht das
ganze Steuerungsproblem im Voraus lösen,
15:46
Now it mightMacht be that we cannotnicht können solvelösen
the entireganz controlsteuern problemProblem in advanceVoraus
283
934768
3507
15:50
because maybe some elementsElemente
can only be put in placeOrt
284
938275
3024
weil vielleicht einige Elemente
erst gesetzt werden können,
15:53
onceEinmal you know the detailsDetails of the
architecturedie Architektur where it will be implementedimplementiert.
285
941299
3997
wenn wir die Details der Architektur,
in der sie implementiert werden, kennen.
15:57
But the more of the controlsteuern problemProblem
that we solvelösen in advanceVoraus,
286
945296
3380
Je mehr Kontrollprobleme
wir jedoch im Voraus lösen,
16:00
the better the oddsChancen that the transitionÜbergang
to the machineMaschine intelligenceIntelligenz eraEpoche
287
948676
4090
desto besser sind die Chancen,
dass der Übergang
zur Maschinenintelligenz gut verläuft.
16:04
will go well.
288
952766
1540
16:06
This to me lookssieht aus like a thing
that is well worthwert doing
289
954306
4644
Das sieht für mich nach einer Sache aus,
die es wert ist, getan zu werden,
16:10
and I can imaginevorstellen that if
things turnWende out okay,
290
958950
3332
und ich kann mir vorstellen,
dass wenn die Dinge gut laufen,
16:14
that people a millionMillion yearsJahre from now
look back at this centuryJahrhundert
291
962282
4658
die Leute in einer Million Jahre
auf dieses Jahrhundert zurückblicken
und möglicherweise sagen,
16:18
and it mightMacht well be that they say that
the one thing we did that really matteredwichtig
292
966940
4002
dass unsere einzige wichtige Leistung
der Erfolg bei dieser Sache war.
16:22
was to get this thing right.
293
970942
1567
Vielen Dank.
16:24
Thank you.
294
972509
1689
(Beifall)
16:26
(ApplauseApplaus)
295
974198
2813
Translated by Andreas Herzog
Reviewed by Swenja Gawantka

▲Back to top

ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com