ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com
TED2015

Nick Bostrom: What happens when our computers get smarter than we are?

Nick Bostrom: Wat gaat er gebeuren als onze computers slimmer worden dan wij?

Filmed:
4,632,705 views

Kunstmatige intelligentie gaat met sprongen vooruit - onderzoek suggereert dat nog deze eeuw computer Artificiële Intelligentie (A.I.) zo "slim" kan worden als een menselijk wezen. En dan, zegt Nick Bostrom, zal het ons inhalen. Machinale intelligentie zal de laatste uitvinding zijn die de mensheid zal moeten doen. Filosoof en technoloog Bostrom vraagt ons om hard na te denken over de wereld die we nu bouwen. Een wereld die steunt op denkende machines. Zullen onze slimme machines ons helpen om de mensheid en onze waarden te behouden - of zullen ze hun eigen waarden hebben?
- Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us? Full bio

Double-click the English transcript below to play the video.

00:12
I work with a bunchbos of mathematicianswiskundigen,
philosophersfilosofen and computercomputer scientistswetenschappers,
0
570
4207
Ik werk met een hoop wiskundigen,
filosofen en informatici,
00:16
and we sitzitten around and think about
the futuretoekomst of machinemachine intelligenceintelligentie-,
1
4777
5209
en we zitten onder andere na te denken
over de toekomst
van machine-intelligentie.
00:21
amongtussen other things.
2
9986
2044
00:24
Some people think that some of these
things are sortsoort of sciencewetenschap fiction-yfictie-y,
3
12030
4725
Sommige mensen vinden dit
nogal science-fictionachtig,
00:28
farver out there, crazygek.
4
16755
3101
over de schreef, te gek.
00:31
But I like to say,
5
19856
1470
Maar laat ons eens kijken
00:33
okay, let's look at the modernmodern
humanmenselijk conditionstaat.
6
21326
3604
naar de moderne menselijke conditie.
00:36
(LaughterGelach)
7
24930
1692
(Gelach)
00:38
This is the normalnormaal way for things to be.
8
26622
2402
Dit is de normale manier van zijn.
00:41
But if we think about it,
9
29024
2285
Maar als we erover nadenken,
00:43
we are actuallywerkelijk recentlykort geleden arrivedaangekomen
guestsgasten on this planetplaneet,
10
31309
3293
zijn we eigenlijk op deze planeet
recent aangekomen gasten,
00:46
the humanmenselijk speciessoorten.
11
34602
2082
de menselijke soort.
00:48
Think about if EarthAarde
was createdaangemaakt one yearjaar agogeleden,
12
36684
4746
Als de ouderdom van de Aarde
één jaar zou zijn,
00:53
the humanmenselijk speciessoorten, then,
would be 10 minutesnotulen oldoud.
13
41430
3548
dan is de menselijke soort
10 minuten oud.
00:56
The industrialindustrieel eratijdperk startedbegonnen
two secondsseconden agogeleden.
14
44978
3168
Het industriële tijdperk
begon twee seconden geleden.
01:01
AnotherEen ander way to look at this is to think of
worldwereld- GDPBBP over the last 10,000 yearsjaar,
15
49276
5225
Of kijk eens hoe het mondiale bbp
in de afgelopen 10.000 jaar veranderde,
01:06
I've actuallywerkelijk takeningenomen the troublemoeite
to plotplot this for you in a graphdiagram.
16
54501
3029
Ik heb er een grafiek van gemaakt.
01:09
It lookslooks like this.
17
57530
1774
Zo ziet ze er uit.
01:11
(LaughterGelach)
18
59304
1363
(Gelach)
Een merkwaardige vorm
voor een normale toestand.
01:12
It's a curiousnieuwsgierig shapevorm
for a normalnormaal conditionstaat.
19
60667
2151
01:14
I sure wouldn'tzou het niet want to sitzitten on it.
20
62818
1698
Daar wil je niet op gaan zitten.
01:16
(LaughterGelach)
21
64516
2551
(Gelach)
01:19
Let's askvragen ourselvesonszelf, what is the causeoorzaak
of this currentactueel anomalyanomalie?
22
67067
4774
Vanwaar komt die huidige anomalie?
Sommige mensen zouden zeggen
dat het komt door de technologie.
01:23
Some people would say it's technologytechnologie.
23
71841
2552
01:26
Now it's truewaar, technologytechnologie has accumulatedgeaccumuleerde
throughdoor humanmenselijk historygeschiedenis,
24
74393
4668
Inderdaad stapelde de technologie zich op
doorheen de menselijke geschiedenis,
01:31
and right now, technologytechnologie
advancesvoorschotten extremelyuiterst rapidlysnel --
25
79061
4652
en nu gaat het wel heel snel -
01:35
that is the proximatenaaste causeoorzaak,
26
83713
1565
dat is de directe oorzaak,
01:37
that's why we are currentlymomenteel
so very productiveproduktief.
27
85278
2565
daarom zijn we zo productief.
01:40
But I like to think back furtherverder
to the ultimateultiem causeoorzaak.
28
88473
3661
Maar ik denk ook graag
aan de uiteindelijke oorzaak.
01:45
Look at these two highlyzeer
distinguishedvoornaam gentlemenmijne heren:
29
93114
3766
Kijk eens
naar deze twee zeer voorname heren:
01:48
We have KanziKanzi --
30
96880
1600
Dat is Kanzi --
01:50
he's masteredonder de knie 200 lexicallexicale
tokenspenningen, an incredibleongelooflijk featFeat.
31
98480
4643
hij beheerst 200 lexicale tokens,
een ongelooflijke prestatie.
01:55
And EdEd WittenWitten unleashedUnleashed the secondtweede
superstringSuperstring revolutionrevolutie.
32
103123
3694
En Ed Witten ontketende
de tweede superstringrevolutie.
01:58
If we look underonder the hoodkap,
this is what we find:
33
106817
2324
Als we onder de motorkap kijken,
vinden we dit:
02:01
basicallyeigenlijk the samedezelfde thing.
34
109141
1570
in principe hetzelfde.
02:02
One is a little largergrotere,
35
110711
1813
Een is iets groter,
en heeft misschien
ook wel een paar trucjes
02:04
it maybe alsoook has a fewweinig trickstrucs
in the exactexact way it's wiredbedrade.
36
112524
2758
in de exacte manier
waarop het is bedraad.
02:07
These invisibleonzichtbaar differencesverschillen cannotkan niet
be too complicatedingewikkeld, howeverechter,
37
115282
3812
Deze onzichtbare verschillen
kunnen niet te ingewikkeld zijn,
02:11
because there have only
been 250,000 generationsgeneraties
38
119094
4285
want er zijn slechts 250.000 generaties
sinds onze laatste
gemeenschappelijke voorouder.
02:15
sincesinds our last commongemeenschappelijk ancestorvoorouder.
39
123379
1732
02:17
We know that complicatedingewikkeld mechanismsmechanismen
take a long time to evolveevolueren.
40
125111
3849
Ingewikkelde mechanismen hebben
een lange tijd nodig om te evolueren.
02:22
So a bunchbos of relativelynaar verhouding minormineur changesveranderingen
41
130000
2499
Een hoop relatief kleine wijzigingen
02:24
take us from KanziKanzi to WittenWitten,
42
132499
3067
brengt ons van Kanzi tot Witten,
02:27
from broken-offafgebroken treeboom branchestakken
to intercontinentalInterContinental ballisticballistisch missilesraketten.
43
135566
4543
van afgebroken boomtakken tot
intercontinentale ballistische raketten.
02:32
So this then seemslijkt prettymooi obviousduidelijk
that everything we'vewij hebben achievedbereikt,
44
140839
3935
Het lijkt vrij duidelijk
dat alles wat we hebben bereikt,
02:36
and everything we carezorg about,
45
144774
1378
en alles waar we om geven,
02:38
dependshangt af cruciallycruciaal on some relativelynaar verhouding minormineur
changesveranderingen that madegemaakt the humanmenselijk mindgeest.
46
146152
5228
sterk afhangt van een aantal
relatief kleine wijzigingen
die de menselijke geest uitmaken.
02:44
And the corollaryuitvloeisel, of courseCursus,
is that any furtherverder changesveranderingen
47
152650
3662
Daaruit volgt natuurlijk
dat verdere wijzigingen
02:48
that could significantlyaanzienlijk changeverandering
the substratesubstraat of thinkinghet denken
48
156312
3477
die het substraat van het denken
aanzienlijk zouden kunnen veranderen
02:51
could have potentiallymogelijk
enormousenorm consequencesgevolgen.
49
159789
3202
potentieel enorme gevolgen kunnen hebben.
02:56
Some of my colleaguescollega's
think we're on the vergeberm
50
164321
2905
Sommige collega's denken
dat we aan het begin staan
02:59
of something that could causeoorzaak
a profounddiepgaand changeverandering in that substratesubstraat,
51
167226
3908
van iets dat een diepgaande verandering
in dat substraat kan veroorzaken,
03:03
and that is machinemachine superintelligencesuperintelligentie.
52
171134
3213
en dat is de machinale superintelligentie.
03:06
ArtificialKunstmatige intelligenceintelligentie- used to be
about puttingzetten commandsopdrachten in a boxdoos.
53
174347
4739
Kunstmatige intelligentie ging vroeger
over opdrachten in een doos steken.
03:11
You would have humanmenselijk programmersprogrammeurs
54
179086
1665
Je had de menselijke programmeurs
03:12
that would painstakinglynauwgezet
handcrafthandwerk knowledgekennis itemsitems.
55
180751
3135
die nauwgezet kennisitems
in elkaar knutselden.
03:15
You buildbouwen up these expertdeskundige systemssystemen,
56
183886
2086
Je bouwt expertsystemen.
03:17
and they were kindsoort of usefulnuttig
for some purposesdoeleinden,
57
185972
2324
Ze zijn bruikbaar
voor bepaalde doeleinden,
03:20
but they were very brittlebros,
you couldn'tkon het niet scaleschaal them.
58
188296
2681
maar erg broos en niet schaalbaar.
03:22
BasicallyIn principe, you got out only
what you put in.
59
190977
3433
Kortom, je krijgt alleen
wat je erin steekt.
03:26
But sincesinds then,
60
194410
997
Maar sindsdien was er
paradigmaverschuiving
03:27
a paradigmparadigma shiftverschuiving has takeningenomen placeplaats
in the fieldveld- of artificialkunstmatig intelligenceintelligentie-.
61
195407
3467
op het gebied
van kunstmatige intelligentie.
03:30
TodayVandaag, the actionactie is really
around machinemachine learningaan het leren.
62
198874
2770
Vandaag ligt de focus
op ‘machinaal leren’.
03:34
So ratherliever than handcraftinghandcrafting knowledgekennis
representationsvertegenwoordigingen and featuresKenmerken,
63
202394
5387
In plaats van kennisrepresentaties
en functies in elkaar te knutselen,
03:40
we createcreëren algorithmsalgoritmen that learnleren,
oftenvaak from rawrauw perceptualperceptuele datagegevens.
64
208511
5554
creëren we algoritmen die zelf leren,
vaak vanuit ruwe perceptuele data.
03:46
BasicallyIn principe the samedezelfde thing
that the humanmenselijk infantzuigeling does.
65
214065
4998
In principe hetzelfde
als wat een kind doet.
03:51
The resultresultaat is A.I. that is not
limitedbeperkt to one domaindomein --
66
219063
4207
Het resultaat is dat AI
niet beperkt is tot één domein -
03:55
the samedezelfde systemsysteem can learnleren to translatevertalen
betweentussen any pairsparen of languagestalen,
67
223270
4631
hetzelfde systeem kan leren vertalen
tussen alle paren van talen,
03:59
or learnleren to playspelen any computercomputer gamespel
on the AtariAtari consoleconsole.
68
227901
5437
of elk computerspel leren spelen
op een Atari console.
AI komt het nog niet in de buurt
van het domeinoverschrijdende vermogen
04:05
Now of courseCursus,
69
233338
1779
04:07
A.I. is still nowherenergens nearin de buurt havingmet
the samedezelfde powerfulkrachtig, cross-domaininterdomein-
70
235117
3999
04:11
abilityvermogen to learnleren and planplan
as a humanmenselijk beingwezen has.
71
239116
3219
om te leren en te plannen
dat een mens heeft.
04:14
The cortexschors still has some
algorithmicalgoritmische trickstrucs
72
242335
2126
De cortex heeft nog
een aantal algoritmische trucs
04:16
that we don't yetnog know
how to matchbij elkaar passen in machinesmachines.
73
244461
2355
die we nog niet kunnen
implementeren in machines.
04:19
So the questionvraag is,
74
247886
1899
De vraag is:
04:21
how farver are we from beingwezen ablein staat
to matchbij elkaar passen those trickstrucs?
75
249785
3500
hoe ver staan we af van het vermogen
om die trucs toe te passen?
Een paar jaar geleden
deden we een enquête
04:26
A couplepaar of yearsjaar agogeleden,
76
254245
1083
04:27
we did a surveyenquête of some of the world's's werelds
leadingleidend A.I. expertsexperts,
77
255328
2888
bij 's werelds toonaangevende AI-experts,
04:30
to see what they think,
and one of the questionsvragen we askedgevraagd was,
78
258216
3224
om te zien wat ze denken.
Een van de vragen was:
04:33
"By whichwelke yearjaar do you think
there is a 50 percentprocent probabilitywaarschijnlijkheid
79
261440
3353
"Voor welk jaar denkt u
dat er 50 procent kans is
04:36
that we will have achievedbereikt
human-levelmens-niveau machinemachine intelligenceintelligentie-?"
80
264793
3482
dat we menselijke machine-intelligentie
gaan hebben?”
04:40
We definedbepaald human-levelmens-niveau here
as the abilityvermogen to performuitvoeren
81
268785
4183
We definieerden menselijk hier
als het vermogen om bijna elke taak
04:44
almostbijna any jobbaan at leastminst as well
as an adultvolwassen humanmenselijk,
82
272968
2871
tenminste als een volwassen mens
te kunnen uitvoeren.
04:47
so realecht human-levelmens-niveau, not just
withinbinnen some limitedbeperkt domaindomein.
83
275839
4005
Dus echt als een mens,
niet alleen binnen een beperkt domein.
04:51
And the medianmediaan- answerantwoord was 2040 or 2050,
84
279844
3650
Het mediane antwoord was 2040 of 2050,
04:55
dependingafhankelijk on preciselyprecies whichwelke
groupgroep of expertsexperts we askedgevraagd.
85
283494
2806
afhankelijk van de groep deskundigen.
04:58
Now, it could happengebeuren much,
much laterlater, or soonereerder,
86
286300
4039
Het zou veel later
of eerder kunnen gebeuren.
05:02
the truthwaarheid is nobodyniemand really knowsweet.
87
290339
1940
De waarheid is
dat niemand het echt weet.
05:05
What we do know is that the ultimateultiem
limitbegrenzing to informationinformatie processingverwerken
88
293259
4412
Wat we wel weten, is dat de ultieme
limiet aan informatieverwerking
05:09
in a machinemachine substratesubstraat liesleugens farver outsidebuiten
the limitslimieten in biologicalbiologisch tissuezakdoek.
89
297671
4871
de grenzen van biologisch weefsel
ver overstijgt.
05:15
This comeskomt down to physicsfysica.
90
303241
2378
Dit komt door de natuurkunde.
05:17
A biologicalbiologisch neuronneuron firesbranden, maybe,
at 200 hertzHertz, 200 timestijden a secondtweede.
91
305619
4718
Een biologisch neuron vuurt op 200 hertz,
200 keer per seconde.
05:22
But even a present-dayheden transistortransistor
operatesexploiteert at the GigahertzGigahertz.
92
310337
3594
Maar zelfs een hedendaagse transistor
werkt op Gigahertz [1 miljard hertz].
05:25
NeuronsNeuronen propagatedoorgeven slowlylangzaam in axonsaxonen,
100 metersmeter perper secondtweede, topstops.
93
313931
5297
Neuronen gaan in axonen
aan 100 meter per seconde, maximum.
05:31
But in computerscomputers, signalssignalen can travelreizen
at the speedsnelheid of lightlicht.
94
319228
3111
Maar in computers reizen signalen
met de snelheid van het licht.
05:35
There are alsoook sizegrootte limitationsbeperkingen,
95
323079
1869
Er zijn ook beperkingen in grootte:
05:36
like a humanmenselijk brainhersenen has
to fitpassen insidebinnen a craniumschedel,
96
324948
3027
een menselijk brein
moet passen in een schedel,
05:39
but a computercomputer can be the sizegrootte
of a warehousemagazijn or largergrotere.
97
327975
4761
maar een computer kan zo groot zijn
als een magazijn of groter.
05:44
So the potentialpotentieel for superintelligencesuperintelligentie
liesleugens dormantslapende in matterer toe doen,
98
332736
5599
Het potentieel voor superintelligentie
sluimert in de materie,
05:50
much like the powermacht of the atomatoom
layleggen dormantslapende throughoutoveral humanmenselijk historygeschiedenis,
99
338335
5712
net als de kracht van het atoom
in de menselijke geschiedenis sluimerde,
05:56
patientlygeduldig waitingaan het wachten there untiltot 1945.
100
344047
4405
geduldig wachtend tot 1945.
In deze eeuw kunnen
wetenschappers leren hoe
06:00
In this centuryeeuw,
101
348452
1248
06:01
scientistswetenschappers maymei learnleren to awakenontwaken
the powermacht of artificialkunstmatig intelligenceintelligentie-.
102
349700
4118
de kracht te ontketenen
van kunstmatige intelligentie.
06:05
And I think we mightmacht then see
an intelligenceintelligentie- explosionexplosie.
103
353818
4008
Dan zien we misschien
een intelligentie-explosie.
06:10
Now mostmeest people, when they think
about what is smartslim and what is dumbstom,
104
358406
3957
Wanneer de meeste mensen nadenken
over wat slim is en wat dom is,
06:14
I think have in mindgeest a pictureafbeelding
roughlyongeveer like this.
105
362363
3023
maken ze zich misschien deze voorstelling.
06:17
So at one endeinde we have the villagedorp idiotidioot,
106
365386
2598
Helemaal links hebben we de dorpsgek,
06:19
and then farver over at the other sidekant
107
367984
2483
en ver aan de andere zijde
06:22
we have EdEd WittenWitten, or AlbertAlbert EinsteinEinstein,
or whoeverwie dan ook your favoritefavoriete gurugoeroe is.
108
370467
4756
hebben we Ed Witten, of Albert Einstein,
of wie je favoriete goeroe ook is.
06:27
But I think that from the pointpunt of viewuitzicht
of artificialkunstmatig intelligenceintelligentie-,
109
375223
3834
Maar vanuit het oogpunt
van kunstmatige intelligentie,
06:31
the truewaar pictureafbeelding is actuallywerkelijk
probablywaarschijnlijk more like this:
110
379057
3681
ziet het er waarschijnlijk meer zo uit:
06:35
AIAI startsstarts out at this pointpunt here,
at zeronul intelligenceintelligentie-,
111
383258
3378
AI begint op dit punt hier,
op nul intelligentie,
06:38
and then, after manyveel, manyveel
yearsjaar of really hardhard work,
112
386636
3011
en dan, na vele,
vele jaren van hard werken,
06:41
maybe eventuallytenslotte we get to
mouse-levelmuis-niveau artificialkunstmatig intelligenceintelligentie-,
113
389647
3844
krijgen we misschien uiteindelijk
kunstmatige intelligentie van muisniveau,
06:45
something that can navigatenavigeren
clutteredrommelig environmentsomgevingen
114
393491
2430
iets dat kan navigeren
in rommelige omgevingen
06:47
as well as a mousemuis can.
115
395921
1987
zoals een muis.
06:49
And then, after manyveel, manyveel more yearsjaar
of really hardhard work, lots of investmentinvestering,
116
397908
4313
Na nog eens vele jaren
van hard werk, veel investeringen,
06:54
maybe eventuallytenslotte we get to
chimpanzee-levelchimpansee-niveau artificialkunstmatig intelligenceintelligentie-.
117
402221
4639
halen we misschien uiteindelijk
AI van chimpanseeniveau.
06:58
And then, after even more yearsjaar
of really, really hardhard work,
118
406860
3210
Na nog meer jaren
van echt, echt hard werken,
07:02
we get to villagedorp idiotidioot
artificialkunstmatig intelligenceintelligentie-.
119
410070
2913
krijgen we kunstmatige intelligentie
op dorpsgekniveau.
07:04
And a fewweinig momentsmomenten laterlater,
we are beyondvoorbij EdEd WittenWitten.
120
412983
3272
En wat later zijn we verder dan Ed Witten.
07:08
The traintrein doesn't stop
at HumanvilleHumanville StationStation.
121
416255
2970
Maar de trein stopt niet
bij station Mens.
07:11
It's likelywaarschijnlijk, ratherliever, to swooshSwoosh right by.
122
419225
3022
Hij suist er waarschijnlijk
eerder snel voorbij.
07:14
Now this has profounddiepgaand implicationsimplicaties,
123
422247
1984
Nu heeft dit ingrijpende gevolgen,
07:16
particularlyvooral when it comeskomt
to questionsvragen of powermacht.
124
424231
3862
in het bijzonder als het gaat
om vragen van macht.
07:20
For examplevoorbeeld, chimpanzeeschimpansees are strongsterk --
125
428093
1899
Zo zijn chimpansees sterk -
07:21
poundpond for poundpond, a chimpanzeechimpansee is about
twicetweemaal as strongsterk as a fitpassen humanmenselijk malemannetje.
126
429992
5222
voor hetzelfde gewicht ongeveer twee keer
zo sterk als een fitte menselijke man.
07:27
And yetnog, the fatelot of KanziKanzi
and his palspals dependshangt af a lot more
127
435214
4614
En toch hangt het lot van Kanzi
en zijn vriendjes
07:31
on what we humansmensen do than on
what the chimpanzeeschimpansees do themselveszich.
128
439828
4140
veel meer af van wat wij mensen doen
dan van wat de chimpansees zelf doen.
07:37
OnceEenmaal there is superintelligencesuperintelligentie,
129
445228
2314
Zodra er superintelligentie is,
07:39
the fatelot of humanityde mensheid maymei dependafhangen
on what the superintelligencesuperintelligentie does.
130
447542
3839
kan het lot van de mensheid afhangen
van wat de superintelligentie doet.
07:44
Think about it:
131
452451
1057
Denk er over na:
07:45
MachineMachine intelligenceintelligentie- is the last inventionuitvinding
that humanityde mensheid will ever need to make.
132
453508
5044
machine-intelligentie zal de laatste
uitvinding van de mensheid zijn.
07:50
MachinesMachines will then be better
at inventinguitvinden than we are,
133
458552
2973
Machines zullen dan beter zijn
in uitvinden dan wij,
07:53
and they'llzullen ze be doing so
on digitaldigitaal timescalestermijnen.
134
461525
2540
en ze zullen het doen
op digitale tijdschalen.
07:56
What this meansmiddelen is basicallyeigenlijk
a telescopingtelescooparmen of the futuretoekomst.
135
464065
4901
Dit betekent de toekomst
'telescoperen'.
08:00
Think of all the crazygek technologiestechnologieën
that you could have imaginedingebeeld
136
468966
3558
Denk aan alle gekke technologieën
die je je zou kunnen inbeelden,
die mensen misschien zullen ontwikkelen
in de loop van de tijd:
08:04
maybe humansmensen could have developedontwikkelde
in the fullnessvolheid of time:
137
472524
2798
08:07
cureskuren for agingveroudering, spaceruimte colonizationkolonisatie,
138
475322
3258
behandelingen voor veroudering,
kolonisatie van de ruimte,
08:10
self-replicatingzelfreplicerende nanobotsnanobots or uploadinguploaden
of mindsgeesten into computerscomputers,
139
478580
3731
zelfreplicerende nanobots
of geesten uploaden in computers,
08:14
all kindssoorten of sciencewetenschap fiction-yfictie-y stuffspul
140
482311
2159
allerlei science-fictionachtige dingen
08:16
that's neverthelessniettemin consistentconsequent
with the lawswetten of physicsfysica.
141
484470
2737
maar toch in overeenstemming
met de wetten van de fysica.
08:19
All of this superintelligencesuperintelligentie could
developontwikkelen, and possiblymogelijk quiteheel rapidlysnel.
142
487207
4212
Dit alles zou superintelligentie
kunnen ontwikkelen,
en eventueel vrij snel.
08:24
Now, a superintelligencesuperintelligentie with suchzodanig
technologicaltechnologisch maturityrijpheid
143
492449
3558
Een superintelligentie met een dergelijke
technologische maturiteit
08:28
would be extremelyuiterst powerfulkrachtig,
144
496007
2179
zou zeer krachtig zijn,
08:30
and at leastminst in some scenariosscenario's,
it would be ablein staat to get what it wants.
145
498186
4546
en zou, ten minste
in een aantal scenario's,
in staat zijn om te krijgen wat ze wil.
08:34
We would then have a futuretoekomst that would
be shapedgevormd by the preferencesvoorkeuren of this A.I.
146
502732
5661
Onze toekomst zou dan afhangen
van de voorkeuren van deze AI.
08:41
Now a good questionvraag is,
what are those preferencesvoorkeuren?
147
509855
3749
De vraag is wat die voorkeuren zijn.
Hier wordt het lastiger.
08:46
Here it getskrijgt trickierlastiger.
148
514244
1769
Om hierin vooruitgang te boeken,
08:48
To make any headwayvooruitgang with this,
149
516013
1435
08:49
we mustmoet first of all
avoidvermijden anthropomorphizinganthropomorphizing.
150
517448
3276
moeten we in de eerste plaats
antropomorfiseren vermijden.
Ironisch genoeg vind je
bij elk krantenartikel
08:53
And this is ironicIronisch because
everyelk newspaperkrant- articleartikel
151
521934
3301
08:57
about the futuretoekomst of A.I.
has a pictureafbeelding of this:
152
525235
3855
over de toekomst van AI
iets dergelijks: [dia]
09:02
So I think what we need to do is
to conceivezwanger of the issuekwestie more abstractlyabstract,
153
530280
4134
We moeten het probleem
meer abstract benaderen,
09:06
not in termstermen of vividlevendige HollywoodHollywood scenariosscenario's.
154
534414
2790
niet in termen van Hollywoodscenario's.
09:09
We need to think of intelligenceintelligentie-
as an optimizationoptimalisatie processwerkwijze,
155
537204
3617
We moeten intelligentie zien
als een optimalisatieproces,
09:12
a processwerkwijze that steersossen the futuretoekomst
into a particularbijzonder setreeks of configurationsconfiguraties.
156
540821
5649
een proces dat de toekomst stuurt
naar een bepaalde set van configuraties.
09:18
A superintelligencesuperintelligentie is
a really strongsterk optimizationoptimalisatie processwerkwijze.
157
546470
3511
Een superintelligentie is echt
een sterk optimalisatieproces.
Ze is zeer goed in het gebruik
van de beschikbare middelen
09:21
It's extremelyuiterst good at usinggebruik makend van
availablebeschikbaar meansmiddelen to achievebereiken a statestaat
158
549981
4117
om een ​​toestand te bereiken
09:26
in whichwelke its goaldoel is realizedrealiseerde.
159
554098
1909
waar haar doel wordt gerealiseerd.
09:28
This meansmiddelen that there is no necessarynoodzakelijk
conenctionconenction betweentussen
160
556447
2672
Dit betekent dat er
geen noodzakelijk verband is tussen
09:31
beingwezen highlyzeer intelligentintelligent in this sensezin,
161
559119
2734
in deze zin zeer intelligent zijn
09:33
and havingmet an objectivedoelstelling that we humansmensen
would find worthwhilede moeite waard or meaningfulbelangrijk.
162
561853
4662
en een doelstelling hebben
die wij mensen de moeite waard
of zinvol zouden vinden.
Stel dat we een AI de opdracht geven
om mensen te laten glimlachen.
09:39
SupposeStel dat we give an A.I. the goaldoel
to make humansmensen smileglimlach.
163
567321
3794
09:43
When the A.I. is weakzwak, it performsvoert usefulnuttig
or amusingamusant actionsacties
164
571115
2982
Als de AI zwak is,
voert ze nuttige of amusante acties uit
09:46
that causeoorzaak its usergebruiker to smileglimlach.
165
574097
2517
om de gebruiker te laten glimlachen.
09:48
When the A.I. becomeswordt superintelligentsuperintelligente,
166
576614
2417
Maar een superintelligente AI
realiseert zich
09:51
it realizesrealiseert that there is a more
effectiveeffectief way to achievebereiken this goaldoel:
167
579031
3523
dat er een effectievere manier is
om dit doel te bereiken:
09:54
take controlcontrole of the worldwereld-
168
582554
1922
neem de controle van de wereld over,
09:56
and stickstok electrodeselektroden into the facialFacial
musclesspieren of humansmensen
169
584476
3162
plak elektroden
op de gezichtsspieren
09:59
to causeoorzaak constantconstante, beamingstralend grinsGrins.
170
587638
2941
en veroorzaak een constante,
stralende grijns.
Een ander voorbeeld,
we willen de AI
10:02
AnotherEen ander examplevoorbeeld,
171
590579
1035
10:03
supposeveronderstellen we give A.I. the goaldoel to solveoplossen
a difficultmoeilijk mathematicalwiskundig problemprobleem.
172
591614
3383
een ​​moeilijk wiskundig
probleem laten oplossen.
10:06
When the A.I. becomeswordt superintelligentsuperintelligente,
173
594997
1937
Wanneer de AI superintelligent wordt,
10:08
it realizesrealiseert that the mostmeest effectiveeffectief way
to get the solutionoplossing to this problemprobleem
174
596934
4171
vindt ze de meest effectieve manier
om dit probleem op te lossen:
10:13
is by transformingtransformeren the planetplaneet
into a giantreusachtig computercomputer,
175
601105
2930
door de planeet om te vormen
in een gigantische computer,
10:16
so as to increasetoename its thinkinghet denken capacitycapaciteit.
176
604035
2246
voor meer denkvermogen.
10:18
And noticekennisgeving that this givesgeeft the A.I.s
an instrumentalinstrumentaal reasonreden
177
606281
2764
Merk op dat dit de AI
een instrumentele rede geeft
10:21
to do things to us that we
mightmacht not approvegoedkeuren of.
178
609045
2516
om ons dingen aan te doen
die we niet zouden willen.
10:23
HumanMenselijke beingswezens in this modelmodel- are threatsbedreigingen,
179
611561
1935
Hier zijn menselijke
wezens bedreigingen,
10:25
we could preventvoorkomen the mathematicalwiskundig
problemprobleem from beingwezen solvedopgelost.
180
613496
2921
die in de weg staan van de oplossing
van het probleem.
10:29
Of courseCursus, perceivablyperceivably things won'tzal niet
go wrongfout in these particularbijzonder waysmanieren;
181
617207
3494
Natuurlijk zal het zo niet gaan.
10:32
these are cartoonspotprent examplesvoorbeelden.
182
620701
1753
Dit zijn cartoon-voorbeelden.
Maar het algemene punt blijft belangrijk:
10:34
But the generalalgemeen pointpunt here is importantbelangrijk:
183
622454
1939
10:36
if you createcreëren a really powerfulkrachtig
optimizationoptimalisatie processwerkwijze
184
624393
2873
als je een echt krachtig
optimalisatieproces creëert
10:39
to maximizemaximaliseren for objectivedoelstelling x,
185
627266
2234
om objectief x te maximaliseren,
10:41
you better make sure
that your definitiondefinitie of x
186
629500
2276
kun je er beter voor zorgen
dat je definitie van x
10:43
incorporatesbevat everything you carezorg about.
187
631776
2469
alles omvat waar je om geeft.
10:46
This is a lessonles that's alsoook taughtonderwezen
in manyveel a mythmythe.
188
634835
4384
Deze les vind je terug
in een aantal mythes.
10:51
KingKoning MidasMidas wisheswensen that everything
he touchesaccenten be turnedgedraaid into goldgoud.
189
639219
5298
Koning Midas wenst dat alles
wat hij aanraakt, verandert in goud.
10:56
He touchesaccenten his daughterdochter,
she turnsbochten into goldgoud.
190
644517
2861
Hij raakt zijn dochter aan,
ze verandert in goud.
10:59
He touchesaccenten his foodeten, it turnsbochten into goldgoud.
191
647378
2553
Hij raakt zijn eten aan,
het verandert in goud.
11:01
This could becomeworden practicallybijna relevantrelevant,
192
649931
2589
Dit kan praktisch relevant worden,
11:04
not just as a metaphormetafoor for greedhebzucht,
193
652520
2070
niet alleen als metafoor voor hebzucht,
11:06
but as an illustrationillustratie of what happensgebeurt
194
654590
1895
maar als voorbeeld van wat er gebeurt
11:08
if you createcreëren a powerfulkrachtig
optimizationoptimalisatie processwerkwijze
195
656485
2837
als je een krachtig
optimalisatieproces creëert
11:11
and give it misconceivedonjuist
or poorlyslecht specifiedopgegeven goalsdoelen.
196
659322
4789
en het onjuiste of slecht
omschreven doelen geef.
Nu zou je kunnen zeggen
dat als een computer elektroden
11:16
Now you mightmacht say, if a computercomputer startsstarts
stickingplakken electrodeselektroden into people'sPeople's facesgezichten,
197
664111
5189
in de gezichten van mensen
begint te steken,
11:21
we'dwij hadden just shutgesloten it off.
198
669300
2265
we hem gewoon uitschakelen.
11:24
A, this is not necessarilynodig so easygemakkelijk to do
if we'vewij hebben growngegroeid dependentafhankelijk on the systemsysteem --
199
672555
5340
A: misschien niet zo gemakkelijk om doen
als we te afhankelijk
van het systeem zijn geworden -
11:29
like, where is the off switchschakelaar
to the InternetInternet?
200
677895
2732
zoals, waar is de uitschakelaar
van het internet?
11:32
B, why haven'thebben niet the chimpanzeeschimpansees
flickedzette the off switchschakelaar to humanityde mensheid,
201
680627
5120
B: waarom hebben de chimpansees
of de neanderthalers
de schakelaar voor de mensheid
niet uitgezet?
11:37
or the NeanderthalsNeanderthalers?
202
685747
1551
11:39
They certainlyzeker had reasonsredenen.
203
687298
2666
Ze hadden zeker redenen.
11:41
We have an off switchschakelaar,
for examplevoorbeeld, right here.
204
689964
2795
We hebben een uitschakelaar,
deze bijvoorbeeld.
11:44
(ChokingVerstikking)
205
692759
1554
(Knijpt keel toe)
11:46
The reasonreden is that we are
an intelligentintelligent adversarytegenstander;
206
694313
2925
Wij zijn intelligente tegenstanders.
11:49
we can anticipateanticiperen threatsbedreigingen
and planplan around them.
207
697238
2728
Wij kunnen anticiperen op bedreigingen
en ze zo vermijden.
11:51
But so could a superintelligentsuperintelligente agentagent,
208
699966
2504
Maar een superintelligentie kan dat ook,
11:54
and it would be much better
at that than we are.
209
702470
3254
en veel beter dan wij.
11:57
The pointpunt is, we should not be confidentzelfverzekerd
that we have this underonder controlcontrole here.
210
705724
7187
We moeten er niet te zeker van zijn
dat we dit onder controle houden.
12:04
And we could try to make our jobbaan
a little bitbeetje easiergemakkelijker by, say,
211
712911
3447
We kunnen proberen ons werk
te vergemakkelijken door bijvoorbeeld
12:08
puttingzetten the A.I. in a boxdoos,
212
716358
1590
de AI in een doos te stoppen,
12:09
like a securebeveiligen softwaresoftware environmentmilieu,
213
717948
1796
een veilige softwareomgeving,
een virtual reality simulatie
van waaruit ze niet kan ontsnappen.
12:11
a virtualvirtueel realityrealiteit simulationsimulatie
from whichwelke it cannotkan niet escapeontsnappen.
214
719744
3022
12:14
But how confidentzelfverzekerd can we be that
the A.I. couldn'tkon het niet find a bugkever.
215
722766
4146
Maar hoe zeker kunnen we zijn dat
de AI daar geen bug in zou vinden?
12:18
GivenGegeven that merelyalleen humanmenselijk hackershackers
find bugsbugs all the time,
216
726912
3169
Zelfs louter menselijke hackers
vinden de hele tijd bugs.
12:22
I'd say, probablywaarschijnlijk not very confidentzelfverzekerd.
217
730081
3036
Daar moeten we
maar niet te zelfverzekerd in zijn.
12:26
So we disconnectverbinding verbreken the ethernetEthernet cablekabel
to createcreëren an airlucht gapkloof,
218
734237
4548
De ethernet-kabel loskoppelen
en een luchtspleet maken?
12:30
but again, like merelyalleen humanmenselijk hackershackers
219
738785
2668
Nogmaals, louter menselijke hackers
omzeilen de hele tijd luchtspleten
door ‘social engineering’.
12:33
routinelyroutinematig transgressovertreedt airlucht gapshiaten
usinggebruik makend van socialsociaal engineeringbouwkunde.
220
741453
3381
Ik ben er zeker van
dat op dit eigenste moment
12:36
Right now, as I speakspreken,
221
744834
1259
12:38
I'm sure there is some employeewerknemer
out there somewhereergens
222
746093
2389
een werknemer ergens
haar accountgegevens meedeelt
12:40
who has been talkedgesproken into handinghanding out
her accountaccount detailsgegevens
223
748482
3346
12:43
by somebodyiemand claimingbeweren to be
from the I.T. departmentafdeling.
224
751828
2746
aan iemand die beweert
van de IT-afdeling te zijn.
12:46
More creativecreatief scenariosscenario's are alsoook possiblemogelijk,
225
754574
2127
Nog creatievere scenario's zijn mogelijk,
12:48
like if you're the A.I.,
226
756701
1315
Als AI zou je kunnen bedenken hoe je,
12:50
you can imaginestel je voor wigglingwiebelen electrodeselektroden
around in your internalintern circuitrycircuits
227
758016
3532
door wat met je elektroden
in je interne circuit te wiebelen,
12:53
to createcreëren radioradio- wavesgolven that you
can use to communicatecommuniceren.
228
761548
3462
radiogolven kunt maken om te communiceren.
12:57
Or maybe you could pretenddoen alsof to malfunctionstoring,
229
765010
2424
Of misschien kan je een storing simuleren,
12:59
and then when the programmersprogrammeurs openOpen
you up to see what wentgegaan wrongfout with you,
230
767434
3497
en wanneer de programmeurs je openen
om te zien wat er mis ging
13:02
they look at the sourcebron codecode -- BamBAM! --
231
770931
1936
en kijken naar de broncode, kan - Bam! -
13:04
the manipulationmanipulatie can take placeplaats.
232
772867
2447
de manipulatie plaatsvinden.
13:07
Or it could outputuitgang the blueprintblauwdruk
to a really niftyhandige technologytechnologie,
233
775314
3430
Of ze kan de blauwdruk ontwerpen
voor een echt handige technologie,
13:10
and when we implementuitvoeren it,
234
778744
1398
en zodra we ze implementeren,
13:12
it has some surreptitioussluikreclame sidekant effecteffect
that the A.I. had plannedgepland.
235
780142
4397
heeft ze een aantal heimelijke
neveneffecten die de AI had gepland.
13:16
The pointpunt here is that we should
not be confidentzelfverzekerd in our abilityvermogen
236
784539
3463
Het komt erop neer
dat we er niet op mogen vertrouwen
13:20
to keep a superintelligentsuperintelligente geniegeest
lockedopgesloten up in its bottlefles forevervoor altijd.
237
788002
3808
dat we een superintelligente geest
voor altijd in zijn fles
opgesloten kunnen houden.
13:23
SoonerEerder or laterlater, it will out.
238
791810
2254
Vroeg of laat ontsnapt hij.
13:27
I believe that the answerantwoord here
is to figurefiguur out
239
795034
3103
Het antwoord hierop is,
achterhalen hoe
13:30
how to createcreëren superintelligentsuperintelligente A.I.
suchzodanig that even if -- when -- it escapesontsnapt,
240
798137
5024
je een superintelligente AI zo ontwerpt
dat zelfs als - wanneer - ze ontsnapt,
13:35
it is still safeveilig because it is
fundamentallyfundamenteel on our sidekant
241
803161
3277
ze nog veilig is doordat ze
fundamenteel aan onze kant staat,
13:38
because it sharesaandelen our valueswaarden.
242
806438
1899
ze onze waarden deelt.
13:40
I see no way around
this difficultmoeilijk problemprobleem.
243
808337
3210
Ik zie geen manier om
dit moeilijke probleem uit de weg te gaan.
13:44
Now, I'm actuallywerkelijk fairlytamelijk optimisticoptimistisch
that this problemprobleem can be solvedopgelost.
244
812557
3834
Maar ik ben eigenlijk vrij optimistisch
dat dit probleem kan worden opgelost.
13:48
We wouldn'tzou het niet have to writeschrijven down
a long listlijst of everything we carezorg about,
245
816391
3903
Het zal niet nodig zijn een lange lijst
van alles waar we om geven op te stellen,
13:52
or worseerger yetnog, spellspell it out
in some computercomputer languagetaal
246
820294
3643
of erger nog, ze in een computertaal
zoals C++ of Python op te schrijven,
13:55
like C++ or PythonPython,
247
823937
1454
13:57
that would be a tasktaak beyondvoorbij hopelesshopeloos.
248
825391
2767
dat zou een hopeloze taak zijn.
14:00
InsteadIn plaats daarvan, we would createcreëren an A.I.
that usestoepassingen its intelligenceintelligentie-
249
828158
4297
We moeten een AI creëren
die haar intelligentie gebruikt
14:04
to learnleren what we valuewaarde,
250
832455
2771
om te leren wat wij waarderen,
14:07
and its motivationmotivatie systemsysteem is constructedgebouwd
in suchzodanig a way that it is motivatedgemotiveerd
251
835226
5280
en haar motivatiesysteem zo construeren
dat ze gemotiveerd is
14:12
to pursuena te streven our valueswaarden or to performuitvoeren actionsacties
that it predictsvoorspelt we would approvegoedkeuren of.
252
840506
5232
om onze waarden na te streven of
om te doen wat wij zouden goedkeuren.
14:17
We would thusdus leveragehefboomwerking
its intelligenceintelligentie- as much as possiblemogelijk
253
845738
3414
We zouden haar intelligentie
als hefboom gebruiken om zo veel mogelijk
14:21
to solveoplossen the problemprobleem of value-loadingwaarde-laden.
254
849152
2745
het probleem van 'waardenopslag'
op te lossen.
14:24
This can happengebeuren,
255
852727
1512
Dit kan,
14:26
and the outcomeresultaat could be
very good for humanityde mensheid.
256
854239
3596
en de uitkomst zou zeer goed
voor de mensheid kunnen zijn.
14:29
But it doesn't happengebeuren automaticallyautomatisch.
257
857835
3957
Maar het gebeurt niet automatisch.
14:33
The initialeerste conditionsvoorwaarden
for the intelligenceintelligentie- explosionexplosie
258
861792
2998
De initiële voorwaarden
voor de intelligentie-explosie
14:36
mightmacht need to be setreeks up
in just the right way
259
864790
2863
moeten op de juiste manier worden opgezet
14:39
if we are to have a controlledgecontroleerde detonationdetonatie.
260
867653
3530
als we een gecontroleerde
ontploffing willen.
De waarden van die AI
moeten passen bij de onze,
14:43
The valueswaarden that the A.I. has
need to matchbij elkaar passen oursDe onze,
261
871183
2618
niet alleen in de vertrouwde context,
14:45
not just in the familiarvertrouwd contextcontext,
262
873801
1760
waar we het gedag van de AI
gemakkelijk kunnen controleren,
14:47
like where we can easilygemakkelijk checkcontroleren
how the A.I. behavesgedraagt zich,
263
875561
2438
14:49
but alsoook in all novelroman contextscontexten
that the A.I. mightmacht encounterstuiten op
264
877999
3234
maar ook in alle nieuwe contexten
die de AI zou kunnen tegenkomen
14:53
in the indefiniteonbepaald futuretoekomst.
265
881233
1557
in de onbepaalde toekomst.
14:54
And there are alsoook some esotericesoterische issueskwesties
that would need to be solvedopgelost, sortednaargelang out:
266
882790
4737
Een aantal esoterische kwesties
moeten worden opgelost:
de exacte details
van haar beslissingstheorie,
14:59
the exactexact detailsgegevens of its decisionbesluit theorytheorie,
267
887527
2089
15:01
how to dealtransactie with logicallogisch
uncertaintyonzekerheid and so forthvoort.
268
889616
2864
hoe omgaan met logische onzekerheid,
enzovoort, enzovoort.
15:05
So the technicaltechnisch problemsproblemen that need
to be solvedopgelost to make this work
269
893330
3102
De technische problemen
om dit te laten werken
15:08
look quiteheel difficultmoeilijk --
270
896432
1113
lijken heel moeilijk -
15:09
not as difficultmoeilijk as makingmaking
a superintelligentsuperintelligente A.I.,
271
897545
3380
niet zo moeilijk als het maken
van een superintelligente AI,
15:12
but fairlytamelijk difficultmoeilijk.
272
900925
2868
maar behoorlijk moeilijk.
15:15
Here is the worryzorgen:
273
903793
1695
Hier is de zorg:
15:17
MakingMaken superintelligentsuperintelligente A.I.
is a really hardhard challengeuitdaging.
274
905488
4684
Het maken van superintelligente AI
is echt een lastige uitdaging.
15:22
MakingMaken superintelligentsuperintelligente A.I. that is safeveilig
275
910172
2548
Een veilige superintelligente AI maken,
15:24
involvesimpliceert some additionalextra
challengeuitdaging on toptop of that.
276
912720
2416
houdt daarenboven een extra uitdaging in.
15:28
The riskrisico is that if somebodyiemand figuresfiguren out
how to crackbarst the first challengeuitdaging
277
916216
3487
Het risico bestaat
dat iemand de eerste uitdaging oplost
15:31
withoutzonder alsoook havingmet crackedgebarsten
the additionalextra challengeuitdaging
278
919703
3001
zonder de extra uitdaging
van perfecte veiligheid
15:34
of ensuringervoor te zorgen perfectperfect safetyveiligheid.
279
922704
1901
te hebben opgelost.
15:37
So I think that we should
work out a solutionoplossing
280
925375
3331
Ik denk dat we dat controleprobleem
15:40
to the controlcontrole problemprobleem in advancevan te voren,
281
928706
2822
vooraf moeten oplossen,
15:43
so that we have it availablebeschikbaar
by the time it is needednodig.
282
931528
2660
zodat we erover beschikken
tegen de tijd dat het nodig is.
15:46
Now it mightmacht be that we cannotkan niet solveoplossen
the entiregeheel controlcontrole problemprobleem in advancevan te voren
283
934768
3507
Misschien kan het hele controleprobleem
niet op voorhand worden opgelost
15:50
because maybe some elementselementen
can only be put in placeplaats
284
938275
3024
omdat sommige elementen misschien
pas kunnen worden aangebracht
15:53
onceeen keer you know the detailsgegevens of the
architecturearchitectuur where it will be implementedgeïmplementeerd.
285
941299
3997
als we de details kennen
van de architectuur,
waarin het zal worden uitgevoerd.
15:57
But the more of the controlcontrole problemprobleem
that we solveoplossen in advancevan te voren,
286
945296
3380
Maar hoe beter we het controleprobleem
vooraf oplossen,
16:00
the better the oddskansen that the transitionovergang
to the machinemachine intelligenceintelligentie- eratijdperk
287
948676
4090
hoe groter de kans dat de overgang
naar machine-intelligentie
16:04
will go well.
288
952766
1540
goed zal verlopen.
16:06
This to me lookslooks like a thing
that is well worthwaard doing
289
954306
4644
Dit lijkt me iets
dat zeker de moeite waard is
16:10
and I can imaginestel je voor that if
things turnbeurt out okay,
290
958950
3332
en ik kan me voorstellen
dat als alles goed afloopt,
16:14
that people a millionmiljoen yearsjaar from now
look back at this centuryeeuw
291
962282
4658
mensen een miljoen jaar na nu
naar deze eeuw terugkijken
16:18
and it mightmacht well be that they say that
the one thing we did that really matteredtelde
292
966940
4002
en zeggen dat het enige wat we deden
dat er echt toe deed,
16:22
was to get this thing right.
293
970942
1567
was dit ding in orde krijgen.
16:24
Thank you.
294
972509
1689
Dankjewel.
16:26
(ApplauseApplaus)
295
974198
2813
(Applaus)
Translated by Rik Delaet
Reviewed by Els De Keyser

▲Back to top

ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com