ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com
TED2015

Nick Bostrom: What happens when our computers get smarter than we are?

Nik Bostrom (Nick Bostrom): Šta će se desiti kad naši kompjuteri postanu pametniji od nas?

Filmed:
4,632,705 views

Veštačka inteligencija napreduje krupnim koracima. U ovom veku, kažu naučnici, kompjuterska veštačka inteligencija mogla bi biti "pametna" kao čovek. A onda će nas, kaže Nik Bostrom, preteći: "Mašinska inteligencija je poslednji izum koji će čovečanstvo morati da napravi." Filozof i tehnolog, Bostrom nas moli da dobro razmislimo o svetu koji trenutno gradimo i kojim upravljaju misleće mašine. Da li će naše pametne mašine pomoći da se očuva čovečanstvo i naše vrednosti - ili će imati svoje sopstvene vrednosti?
- Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us? Full bio

Double-click the English transcript below to play the video.

00:12
I work with a bunchгомилу of mathematiciansматематичари,
philosophersfilozofi and computerрачунар scientistsнаучници,
0
570
4207
Ja radim sa grupom matematičara,
filozofa i informatičara
00:16
and we sitседите around and think about
the futureбудућност of machineмашина intelligenceинтелигенција,
1
4777
5209
i mi, između ostalog, sedimo
i razmišljamo o budućnosti
00:21
amongмеђу other things.
2
9986
2044
mašinske inteligencije.
00:24
Some people think that some of these
things are sortврста of scienceНаука fiction-yfikcija-y,
3
12030
4725
Neki misle da su neke od ovih stvari
kao naučna fantastika,
00:28
farдалеко out there, crazyлуд.
4
16755
3101
uvrnute, lude.
00:31
But I like to say,
5
19856
1470
Ali ja volim da kažem:
00:33
okay, let's look at the modernмодеран
humanљудско conditionстање.
6
21326
3604
pogledajmo kako izgleda moderni čovek.
00:36
(LaughterSmeh)
7
24930
1692
(Smeh)
00:38
This is the normalнормално way for things to be.
8
26622
2402
Normalno je da bude ovako.
00:41
But if we think about it,
9
29024
2285
Ali ako razmislimo,
00:43
we are actuallyзаправо recentlyнедавно arrivedстигао
guestsгостима on this planetПланета,
10
31309
3293
mi smo, kao ljudska vrsta,
skoro pristigli gosti
00:46
the humanљудско speciesврсте.
11
34602
2082
na ovoj planeti.
00:48
Think about if EarthZemlja
was createdстворено one yearгодине agoпре,
12
36684
4746
Zamislite da je Zemlja nastala
pre godinu dana.
00:53
the humanљудско speciesврсте, then,
would be 10 minutesминута oldстари.
13
41430
3548
Ljudska vrsta bi onda
bila stara 10 minuta,
00:56
The industrialиндустријски eraера startedпочела
two secondsсекунде agoпре.
14
44978
3168
a industrijsko doba je počelo
pre dve sekunde.
01:01
AnotherDrugi way to look at this is to think of
worldсвет GDPBDP-A over the last 10,000 yearsгодине,
15
49276
5225
Drugi način da predstavimo ovo
jeste da pogledamo svetski BDP
u poslednjih 10.000 godina.
01:06
I've actuallyзаправо takenузети the troubleневоље
to plotпарцела this for you in a graphграф.
16
54501
3029
Imao sam poteškoća
da vam ovo predstavim grafički.
01:09
It looksизглед like this.
17
57530
1774
To izgleda ovako.
01:11
(LaughterSmeh)
18
59304
1363
(Smeh)
01:12
It's a curiousрадознао shapeоблик
for a normalнормално conditionстање.
19
60667
2151
U normalnoj situaciji,
to je neobičan oblik.
01:14
I sure wouldn'tне би want to sitседите on it.
20
62818
1698
Sigurno ne bih voleo
da sednem na njega.
01:16
(LaughterSmeh)
21
64516
2551
(Smeh)
01:19
Let's askпитати ourselvesсами, what is the causeузрок
of this currentТренутни anomalyanomalija?
22
67067
4774
Zapitajmo se: šta je razlog
ove savremene anomalije?
01:23
Some people would say it's technologyтехнологија.
23
71841
2552
Neki bi rekli da je to tehnologija.
01:26
Now it's trueистина, technologyтехнологија has accumulatedнагомилане
throughкроз humanљудско historyисторија,
24
74393
4668
Istina je, tehnologija se nagomilala
tokom ljudske istorije,
01:31
and right now, technologyтехнологија
advancesнапредовања extremelyизузетно rapidlyбрзо --
25
79061
4652
a sada napreduje ekstremno brzo.
01:35
that is the proximateneposrednim causeузрок,
26
83713
1565
To je neposredan uzrok,
01:37
that's why we are currentlyтренутно
so very productiveпродуктиван.
27
85278
2565
zbog toga smo toliko produktivni.
01:40
But I like to think back furtherдаље
to the ultimateкрајњи causeузрок.
28
88473
3661
Ali želeo bih da se vratim unazad
do prvobitnog uzroka.
01:45
Look at these two highlyвисоко
distinguishedразликовати gentlemenгосподо:
29
93114
3766
Pogledajte ova dva cenjena gospodina.
01:48
We have KanziKanzi --
30
96880
1600
Imamo Kanzija -
01:50
he's masteredsavladao 200 lexicalleksička
tokenssimboli, an incredibleневероватан featpodvig.
31
98480
4643
on je ovladao sa 200 leksičkih simbola,
što je neverovatan podvig.
01:55
And EdEd WittenWitten unleashedoslobodila the secondдруго
superstringvisoke revolutionреволуција.
32
103123
3694
A Ed Viten je pokrenuo drugu
revoluciju superstruna.
01:58
If we look underиспод the hoodHud,
this is what we find:
33
106817
2324
Ako pogledamo ispod haube,
pronaći ćemo ovo:
02:01
basicallyу основи the sameисти thing.
34
109141
1570
u osnovi istu stvar.
02:02
One is a little largerвеће,
35
110711
1813
Jedna je malo veća
02:04
it maybe alsoтакође has a fewнеколико tricksтрикови
in the exactтачно way it's wiredжичани.
36
112524
2758
i možda ima par trikova
u načinu na koji je povezana.
02:07
These invisibleневидљив differencesРазлике cannotне може
be too complicatedкомпликован, howeverМеђутим,
37
115282
3812
Ove nevidljive razlike ne mogu biti
previše komplikovane,
02:11
because there have only
been 250,000 generationsгенерације
38
119094
4285
jer je prošlo samo 250.000 generacija
02:15
sinceОд our last commonзаједнички ancestorpredak.
39
123379
1732
od našeg poslednjeg zajedničkog predaka.
02:17
We know that complicatedкомпликован mechanismsмеханизми
take a long time to evolveеволуирати.
40
125111
3849
Znamo da komplikovanim mehanizmima
treba mnogo vremena da se razviju.
02:22
So a bunchгомилу of relativelyрелативно minorминор changesПромене
41
130000
2499
Tako da skup relativno malih promena
02:24
take us from KanziKanzi to WittenWitten,
42
132499
3067
nas od Kanzija dovodi do Vitena,
02:27
from broken-offslomljena-off treeдрво branchesgrane
to intercontinentalinterkontinentalni ballisticбалистички missilesrakete.
43
135566
4543
od slomljenih grana drveća,
do interkontinentalnih raketa.
02:32
So this then seemsИзгледа prettyприлично obviousочигледан
that everything we'veми смо achievedпостићи,
44
140839
3935
Onda izgleda prilično očigledno
da sve što smo postigli
02:36
and everything we careнега about,
45
144774
1378
i sve što nam je važno
02:38
dependsзависи cruciallypresudno on some relativelyрелативно minorминор
changesПромене that madeмаде the humanљудско mindум.
46
146152
5228
zavisi od nekih relativno malih promena
koje su stvorile ljudski um.
02:44
And the corollaryjasna, of courseкурс,
is that any furtherдаље changesПромене
47
152650
3662
I onda, logično, sve dalje promene
02:48
that could significantlyзначајно changeпромена
the substrateсупстрат of thinkingразмишљање
48
156312
3477
koje značajno menjaju osnovu mišljenja
02:51
could have potentiallyпотенцијално
enormousогроман consequencesпоследице.
49
159789
3202
mogle bi imati potencijalno
ogromne posledice.
02:56
Some of my colleaguesколеге
think we're on the vergeрога
50
164321
2905
Neke moje kolege misle
da se nalazimo nadomak
02:59
of something that could causeузрок
a profoundдубок changeпромена in that substrateсупстрат,
51
167226
3908
nečega što bi moglo da prouzrokuje
duboku promenu u toj osnovi,
03:03
and that is machineмашина superintelligencesuperintelligence.
52
171134
3213
a to je mašinska superinteligencija.
03:06
ArtificialVeštačka intelligenceинтелигенција used to be
about puttingстављање commandskomande in a boxбок.
53
174347
4739
Veštačka inteligencija je dosad bila
kutija u koju ste ubacivali komande.
03:11
You would have humanљудско programmersпрограмери
54
179086
1665
Ljudski programeri
03:12
that would painstakinglymukotrpno
handcrafthandcraft knowledgeзнање itemsставке.
55
180751
3135
su brižljivo brusili kolekcije znanja.
03:15
You buildизградити up these expertстручњак systemsсистема,
56
183886
2086
Razvijali su te ekspertske sisteme
03:17
and they were kindкинд of usefulкорисно
for some purposesсврхе,
57
185972
2324
i oni su bili korisni za neke namene,
03:20
but they were very brittleкрт,
you couldn'tније могао scaleСкала them.
58
188296
2681
ali su bili vrlo krhki,
niste mogli da ih podešavate.
03:22
BasicallyU osnovi, you got out only
what you put in.
59
190977
3433
U suštini, dobijali ste samo
ono što ste već imali ubačeno.
03:26
But sinceОд then,
60
194410
997
Ali od tada,
03:27
a paradigmпарадигма shiftсмена has takenузети placeместо
in the fieldпоље of artificialвештачки intelligenceинтелигенција.
61
195407
3467
desila se promena paradigme
na polju veštačke inteligencije.
03:30
TodayDanas, the actionпоступак is really
around machineмашина learningучење.
62
198874
2770
Danas se najviše radi na mašinskom učenju.
03:34
So ratherприлично than handcraftinghandcrafting knowledgeзнање
representationsZastupstva and featuresКарактеристике,
63
202394
5387
Ne kreiramo imitacije znanja
i njegove komponente,
03:40
we createстворити algorithmsалгоритми that learnучи,
oftenчесто from rawсирово perceptualперцептуал dataподаци.
64
208511
5554
već kreiramo algoritme koji uče
iz sirovih opažajnih podataka.
03:46
BasicallyU osnovi the sameисти thing
that the humanљудско infantдете does.
65
214065
4998
U suštini, isto kao što
to radi novorođenče.
03:51
The resultрезултат is A.I. that is not
limitedограничен to one domainдомена --
66
219063
4207
Rezultat je veštačka inteligencija (V.I.)
koja nije ograničena na jednu oblast -
03:55
the sameисти systemсистем can learnучи to translateпревести
betweenизмеђу any pairsпарови of languagesјезике,
67
223270
4631
isti sistem može da nauči da prevodi
između bilo koja dva jezika
03:59
or learnучи to playигра any computerрачунар gameигра
on the AtariAtari consolekonzola.
68
227901
5437
ili da nauči da igra
bilo koju igricu na Atariju.
04:05
Now of courseкурс,
69
233338
1779
Naravno,
04:07
A.I. is still nowhereНигде nearблизу havingимати
the sameисти powerfulмоћан, cross-domaindomenima
70
235117
3999
V.I. je još uvek daleko od toga
da može kao i ljudi
04:11
abilityспособност to learnучи and planплан
as a humanљудско beingбиће has.
71
239116
3219
da uči i planira između
više oblasti istovremeno.
04:14
The cortexкортекс still has some
algorithmicAlgoritamski tricksтрикови
72
242335
2126
Korteks ima neke algoritamske trikove
04:16
that we don't yetјош увек know
how to matchутакмица in machinesмашине.
73
244461
2355
koje još uvek ne znamo kako
da postignemo kod mašina.
04:19
So the questionпитање is,
74
247886
1899
Tako da, pitanje je:
04:21
how farдалеко are we from beingбиће ableу могуцности
to matchутакмица those tricksтрикови?
75
249785
3500
koliko smo daleko od toga
da to postignemo?
04:26
A coupleпар of yearsгодине agoпре,
76
254245
1083
Pre nekoliko godina
04:27
we did a surveyанкета of some of the world'sсветске
leadingводећи A.I. expertsстручњаци,
77
255328
2888
anketirali smo neke
vodeće stručnjake za V.I.
04:30
to see what they think,
and one of the questionsпитања we askedпитао was,
78
258216
3224
da vidimo šta oni misle
i jedno od naših pitanja je bilo:
04:33
"By whichкоја yearгодине do you think
there is a 50 percentпроценат probabilityвероватноћа
79
261440
3353
"Do koje godine mislite
da postoji 50% šanse
04:36
that we will have achievedпостићи
human-levelljudsko-nivo machineмашина intelligenceинтелигенција?"
80
264793
3482
da ćemo kod mašina postići
inteligenciju koja je na nivou ljudske?"
04:40
We definedдефинисани human-levelljudsko-nivo here
as the abilityспособност to performизводити
81
268785
4183
Definisali smo "ljudski nivo"
kao sposobnost da se obavi
04:44
almostскоро any jobпосао at leastнајмање as well
as an adultодрасла особа humanљудско,
82
272968
2871
skoro svaki posao onako kao što
bi to uradila odrasla osoba.
04:47
so realправи human-levelljudsko-nivo, not just
withinу склопу some limitedограничен domainдомена.
83
275839
4005
Znači, na pravom ljudskom nivou,
a ne u nekoj ograničenoj oblasti.
04:51
And the medianмедиан answerодговор was 2040 or 2050,
84
279844
3650
I srednji odgovor je bio:
oko 2040. ili 2050,
04:55
dependingзависно on preciselyпрецизно whichкоја
groupгрупа of expertsстручњаци we askedпитао.
85
283494
2806
u zavisnosti od toga koju smo tačno
grupu stručnjaka pitali.
04:58
Now, it could happenдесити се much,
much laterкасније, or soonerраније,
86
286300
4039
Moglo bi da se desi i mnogo,
mnogo kasnije, ili ranije.
05:02
the truthистина is nobodyнико really knowsзна.
87
290339
1940
U stvari, niko to ne zna.
05:05
What we do know is that the ultimateкрајњи
limitограничење to informationинформације processingобрада
88
293259
4412
Ono što znamo je da se
konačna granica obrade informacija
05:09
in a machineмашина substrateсупстрат liesлажи farдалеко outsideспоља
the limitsограничења in biologicalбиолошки tissueткиво.
89
297671
4871
kod mašina nalazi daleko
izvan granica biološkog tkiva.
05:15
This comesдолази down to physicsфизика.
90
303241
2378
Ovo se svodi na fiziku.
05:17
A biologicalбиолошки neuronнеурон firesпожари, maybe,
at 200 hertzherc, 200 timesпута a secondдруго.
91
305619
4718
Biološki neuron radi, možda,
na 200 herca, 200 puta u sekundi.
05:22
But even a present-dayсадашњост transistorтранзистор
operatesради at the GigahertzGigaherca.
92
310337
3594
Ali čak i današnji tranzistor
radi na jednom gigahercu.
05:25
NeuronsNeuroni propagateUmnoži slowlyполако in axonsaxona,
100 metersметара perпер secondдруго, topsvrhovi.
93
313931
5297
Neuroni se razmnožavaju sporo u aksonima -
najviše 100 m u sekundi.
05:31
But in computersрачунари, signalsсигналима can travelпутовање
at the speedбрзина of lightсветло.
94
319228
3111
Ali u kompjuteru, signali mogu
da putuju brzinom svetlosti.
05:35
There are alsoтакође sizeвеличине limitationsограничења,
95
323079
1869
Takođe postoje ograničenja u veličini,
05:36
like a humanљудско brainмозак has
to fitфит insideу a craniumlobanje,
96
324948
3027
kao što ih ima ljudski mozak
da bi stao u lobanju,
05:39
but a computerрачунар can be the sizeвеличине
of a warehouseскладиште or largerвеће.
97
327975
4761
ali kompjuter može biti
veličine skladišta ili veći.
05:44
So the potentialпотенцијал for superintelligencesuperintelligence
liesлажи dormantNeaktivni in matterматерија,
98
332736
5599
Tako da potencijal superinteligencije
čeka uspavan,
05:50
much like the powerмоћ of the atomатом
layЛези dormantNeaktivni throughoutтоком humanљудско historyисторија,
99
338335
5712
kao što je moć atoma
bila uspavana tokom ljudske istorije,
05:56
patientlystrpljivo waitingчекајући there untilсве док 1945.
100
344047
4405
strpljivo čekajući do 1945.
06:00
In this centuryвек,
101
348452
1248
U ovom veku,
06:01
scientistsнаучници mayможе learnучи to awakenProbudi se
the powerмоћ of artificialвештачки intelligenceинтелигенција.
102
349700
4118
naučnici možda nauče da probude
moć veštačke inteligencije.
06:05
And I think we mightМожда then see
an intelligenceинтелигенција explosionексплозија.
103
353818
4008
I mislim da bismo tada mogli
da vidimo eksploziju inteligencije.
06:10
Now mostнајвише people, when they think
about what is smartпаметан and what is dumbглуп,
104
358406
3957
Većina ljudi kad pomisli
šta je pametno, a šta glupo,
06:14
I think have in mindум a pictureслика
roughlyгрубо like this.
105
362363
3023
mislim da u glavi ima sliku sličnu ovoj.
06:17
So at one endкрај we have the villageсело idiotидиот,
106
365386
2598
Na jednom kraju imamo idiota,
06:19
and then farдалеко over at the other sideстрана
107
367984
2483
a daleko na drugom kraju
06:22
we have EdEd WittenWitten, or AlbertAlbert EinsteinEinstein,
or whoeverма ко your favoriteомиљени guruгуру is.
108
370467
4756
imamo Eda Vitena, ili Alberta Ajnštajna,
ili nekog vašeg omiljenog gurua.
06:27
But I think that from the pointтачка of viewпоглед
of artificialвештачки intelligenceинтелигенција,
109
375223
3834
Ali s tačke gledišta
veštačke inteligencije,
06:31
the trueистина pictureслика is actuallyзаправо
probablyвероватно more like this:
110
379057
3681
prava slika više izgleda ovako:
06:35
AIAI startsпочиње out at this pointтачка here,
at zeroнула intelligenceинтелигенција,
111
383258
3378
V.i. počinje u ovoj ovde tački,
na nultoj inteligenciji
06:38
and then, after manyмноги, manyмноги
yearsгодине of really hardтешко work,
112
386636
3011
i onda, posle mnogo, mnogo
godina vrednog rada,
06:41
maybe eventuallyконачно we get to
mouse-levelmiš-nivo artificialвештачки intelligenceинтелигенција,
113
389647
3844
možda konačno stignemo
do veštačke inteligencije na nivou miša,
06:45
something that can navigateнавигате
clutteredće manji environmentsокружења
114
393491
2430
koja može da se kreće
u zakrčenim prostorima
06:47
as well as a mouseмиш can.
115
395921
1987
kao što to može miš.
06:49
And then, after manyмноги, manyмноги more yearsгодине
of really hardтешко work, lots of investmentинвестиција,
116
397908
4313
I zatim, posle još mnogo godina
vrednog rada i mnogo ulaganja,
06:54
maybe eventuallyконачно we get to
chimpanzee-levelšimpanze nivou artificialвештачки intelligenceинтелигенција.
117
402221
4639
možda konačno stignemo do nivoa šimpanze,
06:58
And then, after even more yearsгодине
of really, really hardтешко work,
118
406860
3210
a posle još više godina vrednog rada,
07:02
we get to villageсело idiotидиот
artificialвештачки intelligenceинтелигенција.
119
410070
2913
do nivoa veštačke inteligencije idiota.
07:04
And a fewнеколико momentsмоменте laterкасније,
we are beyondизван EdEd WittenWitten.
120
412983
3272
A nekoliko trenutaka kasnije,
pretekli smo Eda Vitena.
07:08
The trainвоз doesn't stop
at HumanvilleHumanville StationStanica.
121
416255
2970
Voz se neće zaustaviti
kad pretekne ljude,
07:11
It's likelyвероватно, ratherприлично, to swooshpotezom right by.
122
419225
3022
već će najverovatnije,
samo prošišati pored.
07:14
Now this has profoundдубок implicationsпоследице,
123
422247
1984
Ovo ima suštinske posledice,
07:16
particularlyпосебно when it comesдолази
to questionsпитања of powerмоћ.
124
424231
3862
naročito što se tiče pitanja moći.
07:20
For exampleпример, chimpanzeesшимпанзе are strongјак --
125
428093
1899
Na primer, šimpanze su snažne -
07:21
poundфунта for poundфунта, a chimpanzeeшимпанзе is about
twiceдва пута as strongјак as a fitфит humanљудско maleМушки.
126
429992
5222
šimpanza je oko dva puta
snažnija od čoveka.
07:27
And yetјош увек, the fateсудбина of KanziKanzi
and his palsпријатељи dependsзависи a lot more
127
435214
4614
Pa ipak, sudbina Kanzija
i njegovih drugara zavisi više
07:31
on what we humansљуди do than on
what the chimpanzeesшимпанзе do themselvesсами.
128
439828
4140
od toga šta mi ljudi radimo,
nego od toga šta šimpanze rade.
07:37
OnceJednom there is superintelligencesuperintelligence,
129
445228
2314
Kad se pojavi superinteligencija,
07:39
the fateсудбина of humanityчовечанство mayможе dependзависи
on what the superintelligencesuperintelligence does.
130
447542
3839
sudbina čovečanstva može zavisiti od toga
šta superinteligencija radi.
07:44
Think about it:
131
452451
1057
Razmislite:
07:45
MachineMašina intelligenceинтелигенција is the last inventionизум
that humanityчовечанство will ever need to make.
132
453508
5044
mašinska inteligencija je poslednji izum
koji će čovečanstvo morati da napravi.
07:50
MachinesMašine will then be better
at inventingizumima than we are,
133
458552
2973
Mašine će tada biti bolje
u pronalazaštvu od nas
07:53
and they'llони ће be doing so
on digitalдигитални timescalesNjutnovim.
134
461525
2540
i to će raditi u digitalnim
vremenskim rokovima.
07:56
What this meansзначи is basicallyу основи
a telescopingIdi teleskopom of the futureбудућност.
135
464065
4901
To u suštini znači skraćivanje budućnosti.
08:00
Think of all the crazyлуд technologiesтехнологије
that you could have imaginedзамишљен
136
468966
3558
Pomislite na svu neverovatnu tehnologiju
koju možete da zamislite
08:04
maybe humansљуди could have developedразвијен
in the fullnessneko of time:
137
472524
2798
da bi ljudi mogli da razviju kroz vreme:
08:07
curesлечи for agingстарење, spaceпростор colonizationколонизација,
138
475322
3258
lek protiv starenja, kolonizaciju svemira,
08:10
self-replicatingсамопрепљивање nanobotsNanoboti or uploadingOtpremanje
of mindsумови into computersрачунари,
139
478580
3731
samoreplikaciju nanorobota
ili čuvanje umova u kompjuterima,
08:14
all kindsврсте of scienceНаука fiction-yfikcija-y stuffствари
140
482311
2159
raznorazne stvari iz naučne fantastike
08:16
that's neverthelessипак consistentдоследно
with the lawsЗакони of physicsфизика.
141
484470
2737
koje su ipak u skladu sa zakonima fizike.
08:19
All of this superintelligencesuperintelligence could
developразвити, and possiblyмогуће quiteприлично rapidlyбрзо.
142
487207
4212
Sve to bi superinteligencija mogla
da napravi, i to verovatno jako brzo.
08:24
Now, a superintelligencesuperintelligence with suchтаква
technologicalтехнолошки maturityзрелост
143
492449
3558
Superinteligecija s takvom
tehnološkom zrelošću
08:28
would be extremelyизузетно powerfulмоћан,
144
496007
2179
bila bi izuzetno moćna
08:30
and at leastнајмање in some scenariosсценарије,
it would be ableу могуцности to get what it wants.
145
498186
4546
i, barem po nekim scenarijima,
mogla bi da dobije šta hoće.
08:34
We would then have a futureбудућност that would
be shapedобликован by the preferencesželjene postavke of this A.I.
146
502732
5661
Onda bismo imali budućnost
koja bi bila oblikovana po želji te V.I.
08:41
Now a good questionпитање is,
what are those preferencesželjene postavke?
147
509855
3749
Sada je pitanje: kakve su te želje?
08:46
Here it getsдобива trickierkomplikovanije.
148
514244
1769
Ovde nastaje začkoljica.
08:48
To make any headwaynapredak with this,
149
516013
1435
Da bismo napredovali dalje,
08:49
we mustмора first of all
avoidизбегавајте anthropomorphizingzbog.
150
517448
3276
moramo prvo da izbegnemo antropomorfnost.
08:53
And this is ironicIronično because
everyсваки newspaperновине articleчланак
151
521934
3301
To je ironično,
jer svaki novinski članak
08:57
about the futureбудућност of A.I.
has a pictureслика of this:
152
525235
3855
o budućnosti V.I. zamišlja ovo:
09:02
So I think what we need to do is
to conceiveosmisle of the issueпитање more abstractlyapstraktan,
153
530280
4134
Mislim da bi trebalo da zamislimo
problem apstraktnije,
09:06
not in termsуслови of vividbujne HollywoodHollywood scenariosсценарије.
154
534414
2790
a ne kao živopisni holivudski scenario.
09:09
We need to think of intelligenceинтелигенција
as an optimizationOptimizacija processпроцес,
155
537204
3617
Moramo da posmatramo inteligenciju
kao proces optimizacije,
09:12
a processпроцес that steersBikovi the futureбудућност
into a particularпосебно setкомплет of configurationsконфигурације.
156
540821
5649
proces koji vodi budućnost
u određeni set konfiguracija.
09:18
A superintelligencesuperintelligence is
a really strongјак optimizationOptimizacija processпроцес.
157
546470
3511
Superinteligencija je vrlo
snažan proces optimizacije.
09:21
It's extremelyизузетно good at usingКористећи
availableдоступан meansзначи to achieveпостићи a stateдржава
158
549981
4117
Izuzetno je dobra u korišćenju
dostupnih sredstava da postigne stanje
09:26
in whichкоја its goalЦиљ is realizedреализован.
159
554098
1909
u kome je njen cilj ostvaren.
09:28
This meansзначи that there is no necessaryнеопходно
conenctionconenction betweenизмеђу
160
556447
2672
To znači da ne postoji
obavezno veza između:
09:31
beingбиће highlyвисоко intelligentинтелигентан in this senseсмисао,
161
559119
2734
biti visoko inteligentan u ovom smislu
09:33
and havingимати an objectiveобјективан that we humansљуди
would find worthwhileвредно or meaningfulсмислено.
162
561853
4662
i imati cilj koji mi ljudi
smatramo važnim ili smislenim.
09:39
SupposePretpostavimo da we give an A.I. the goalЦиљ
to make humansљуди smileосмех.
163
567321
3794
Pretpostavimo da damo V.I.
zadatak da nasmeje ljude.
09:43
When the A.I. is weakслаб, it performsizvršava usefulкорисно
or amusingzabavno actionsакције
164
571115
2982
Kada je V.I. slaba, ona izvodi
korisne ili zabavne radnje
09:46
that causeузрок its userкорисник to smileосмех.
165
574097
2517
koje prouzrokuju osmeh kod korisnika.
09:48
When the A.I. becomesпостаје superintelligentsuperintelligent,
166
576614
2417
Kada V.I. postane superinteligentna,
09:51
it realizesсхвата that there is a more
effectiveефикасан way to achieveпостићи this goalЦиљ:
167
579031
3523
ona shvata da postoji efikasniji način
da postigne taj cilj,
09:54
take controlконтрола of the worldсвет
168
582554
1922
a to je da preuzme kontrolu nad svetom
09:56
and stickштап electrodesелектроде into the facialtretman lica
musclesмишићи of humansљуди
169
584476
3162
i prikači elektrode
na mišiće ljudskih lica
09:59
to causeузрок constantконстантно, beamingzraka grinsUveliиajte.
170
587638
2941
da bi proizvela konstantne kezove.
10:02
AnotherDrugi exampleпример,
171
590579
1035
Drugi primer je:
10:03
supposeПретпоставимо we give A.I. the goalЦиљ to solveреши
a difficultтешко mathematicalматематички problemпроблем.
172
591614
3383
pretpostavimo da V. I. damo zadatak
da reši težak matetematički problem.
10:06
When the A.I. becomesпостаје superintelligentsuperintelligent,
173
594997
1937
Kad V.I. postane superinteligentna,
10:08
it realizesсхвата that the mostнајвише effectiveефикасан way
to get the solutionрешење to this problemпроблем
174
596934
4171
shvati da je najefikasniji način
za rešenje ovog problema
10:13
is by transformingтрансформише the planetПланета
into a giantгигант computerрачунар,
175
601105
2930
da transformiše planetu
u džinovski kompjuter,
10:16
so as to increaseповећати its thinkingразмишљање capacityкапацитета.
176
604035
2246
kako bi uvećala svoj
kapacitet za razmišljanje.
10:18
And noticeобјава that this givesдаје the A.I.s
an instrumentalinstrumentalna muzika reasonразлог
177
606281
2764
To daje veštačkoj inteligenciji
instrumentalni razlog
10:21
to do things to us that we
mightМожда not approveодобри of.
178
609045
2516
da nam radi stvari s kojima se
možda ne slažemo.
10:23
HumanLjudski beingsбића in this modelмодел are threatspretnje,
179
611561
1935
Ljudska bića su pretnja u ovom modelu,
10:25
we could preventспречити the mathematicalматематички
problemпроблем from beingбиће solvedрешено.
180
613496
2921
mogli bi da budu prepreka
za rešavanje matematičkog problema.
10:29
Of courseкурс, perceivablyperceivably things won'tнеће
go wrongпогрешно in these particularпосебно waysначини;
181
617207
3494
Naravno, stvari neće krenuti loše
baš na ovaj način;
10:32
these are cartoonцртани филм examplesпримери.
182
620701
1753
ovo su primeri iz crtanog filma.
10:34
But the generalгенерално pointтачка here is importantважно:
183
622454
1939
Ali ovde je važna poenta:
10:36
if you createстворити a really powerfulмоћан
optimizationOptimizacija processпроцес
184
624393
2873
ako kreirate veoma moćan
proces optimizacije
10:39
to maximizeUvećaj for objectiveобјективан x,
185
627266
2234
da se postigne
maksimalan učinak za cilj X,
10:41
you better make sure
that your definitionдефиниција of x
186
629500
2276
onda neka vaša definicija X-a
10:43
incorporatesuključuje everything you careнега about.
187
631776
2469
obavezno uključi sve ono
do čega vam je stalo.
10:46
This is a lessonлекцију that's alsoтакође taughtнаучио
in manyмноги a mythmit.
188
634835
4384
Ovo je lekcija kojoj nas takođe
uči i jedan mit.
10:51
KingKralj MidasMida wishesжеље that everything
he touchesдодира be turnedокренуо се into goldзлато.
189
639219
5298
Kralj Mida poželi da sve što dodirne
bude pretvoreno u zlato.
10:56
He touchesдодира his daughterћерка,
she turnsокреће се into goldзлато.
190
644517
2861
I tako, dodirne ćerku
i ona se pretvori u zlato.
10:59
He touchesдодира his foodхрана, it turnsокреће се into goldзлато.
191
647378
2553
Dodirne hranu i ona se pretvori u zlato.
11:01
This could becomeпостати practicallyпрактично relevantрелевантно,
192
649931
2589
To može biti relevantno i u praksi,
11:04
not just as a metaphorметафора for greedпохлепа,
193
652520
2070
ne samo kao metafora za pohlepu,
11:06
but as an illustrationилустрација of what happensсе дешава
194
654590
1895
već i kao ilustracija
za ono što bi se desilo
11:08
if you createстворити a powerfulмоћан
optimizationOptimizacija processпроцес
195
656485
2837
ako pogrešno kreirate
moćan proces optimizacije
11:11
and give it misconceivedmisconceived
or poorlyлоше specifiedNavedena goalsциљеве.
196
659322
4789
ili loše formulišete ciljeve.
11:16
Now you mightМожда say, if a computerрачунар startsпочиње
stickingлепљење electrodesелектроде into people'sљуди facesлица,
197
664111
5189
Mogli biste reći: pa ako kompjuter počne
da kači elektrode ljudima na lica,
11:21
we'dми смо just shutзатворите it off.
198
669300
2265
prosto ćemo ga isključiti.
11:24
A, this is not necessarilyнужно so easyлако to do
if we'veми смо grownодрастао dependentзависни on the systemсистем --
199
672555
5340
Pod A: to možda ne bi bilo tako lako,
ako bismo bili zavisni od sistema -
11:29
like, where is the off switchпрекидач
to the InternetInternet?
200
677895
2732
na primer: gde je prekidač
za gašenje interneta?
11:32
B, why haven'tније the chimpanzeesшимпанзе
flickedzeznuo the off switchпрекидач to humanityчовечанство,
201
680627
5120
Pod B: zašto šimpanze nisu isključile
prekidač čovečanstvu,
11:37
or the NeanderthalsNeandertalci?
202
685747
1551
ili Neandertalci?
11:39
They certainlyсигурно had reasonsразлоге.
203
687298
2666
Sigurno ima razloga.
11:41
We have an off switchпрекидач,
for exampleпример, right here.
204
689964
2795
Imamo prekidač za gašenje:
na primer, ovde.
11:44
(ChokingDavi)
205
692759
1554
(Gušenje)
11:46
The reasonразлог is that we are
an intelligentинтелигентан adversaryprotivnik;
206
694313
2925
Razlog je to što smo mi
inteligentan neprijatelj;
možemo predvideti pretnje
i planirati kako da ih izbegnemo.
11:49
we can anticipateочекивати threatspretnje
and planплан around them.
207
697238
2728
11:51
But so could a superintelligentsuperintelligent agentAgente,
208
699966
2504
Ali to može i predstavnik
superinteligencije,
11:54
and it would be much better
at that than we are.
209
702470
3254
i bio bi mnogo bolji u tome od nas.
11:57
The pointтачка is, we should not be confidentсамоуверен
that we have this underиспод controlконтрола here.
210
705724
7187
Poenta je da ne treba da budemo
tako sigurni da imamo kontrolu ovde.
12:04
And we could try to make our jobпосао
a little bitмало easierлакше by, say,
211
712911
3447
Mogli bismo da pokušamo
da malo olakšamo posao
tako što ćemo, recimo,
staviti V.I. u kutiju,
12:08
puttingстављање the A.I. in a boxбок,
212
716358
1590
12:09
like a secureOsigurajte softwareсофтвер environmentЖивотна средина,
213
717948
1796
kao bezbedno okruženje za softver,
12:11
a virtualвиртуелно realityреалност simulationсимулација
from whichкоја it cannotне може escapeпобјећи.
214
719744
3022
simulaciju virtuelne realnosti
iz koje ona ne može pobeći.
12:14
But how confidentсамоуверен can we be that
the A.I. couldn'tније могао find a bugбуг.
215
722766
4146
Ali koliko možemo biti sigurni
da V.I. neće naći rupu?
12:18
GivenS obzirom na that merelyсамо humanљудско hackershakeri
find bugsбугс all the time,
216
726912
3169
S obzirom da ljudski hakeri
stalno nalaze rupe,
12:22
I'd say, probablyвероватно not very confidentсамоуверен.
217
730081
3036
ja ne bih bio tako siguran.
12:26
So we disconnectPrekini vezu the ethernetEthernet cableкабел
to createстворити an airваздух gapјаз,
218
734237
4548
Isključimo eternet kabl
da bismo stvorili vazdušni zid,
12:30
but again, like merelyсамо humanљудско hackershakeri
219
738785
2668
ali, kao obični ljudski hakeri,
12:33
routinelyрутински transgresspokleknu airваздух gapsпразнине
usingКористећи socialсоцијално engineeringинжењеринг.
220
741453
3381
rutinski preskačemo vazdušne zidove
pomoću socijalnog inženjeringa.
12:36
Right now, as I speakговорити,
221
744834
1259
Upravo sada, dok govorim,
12:38
I'm sure there is some employeeзапослени
out there somewhereнегде
222
746093
2389
siguran sam da negde
postoji neki zaposleni
12:40
who has been talkedпричао into handingпредаја out
her accountрачун detailsдетаље
223
748482
3346
koga neko nagovara
da mu da podatke o svom računu,
12:43
by somebodyнеко claimingтврдећи to be
from the I.T. departmentодељење.
224
751828
2746
neko ko se predstavlja
da je iz IT sektora.
12:46
More creativeкреативан scenariosсценарије are alsoтакође possibleмогуће,
225
754574
2127
Ima još mogućih kreativnih scenarija,
12:48
like if you're the A.I.,
226
756701
1315
kao na primer,
ako ste vi V.I.,
12:50
you can imagineзамислити wigglingZmijin electrodesелектроде
around in your internalинтерни circuitryколо
227
758016
3532
možete zamisliti elektrode
u vašem unutrašnjem sistemu
12:53
to createстворити radioрадио wavesталаси that you
can use to communicateкомуницирајте.
228
761548
3462
koje stvaraju radio talase
koje možete koristiti za komunikaciju.
12:57
Or maybe you could pretendпретварати се to malfunctionквар,
229
765010
2424
Ili možete da se pretvarate
da ste pokvareni
12:59
and then when the programmersпрограмери openотворен
you up to see what wentотишао wrongпогрешно with you,
230
767434
3497
i kada vas programeri otvore
da vide šta nije u redu,
13:02
they look at the sourceизвор codeкод -- BamBam! --
231
770931
1936
vide izvorni kod
13:04
the manipulationманипулација can take placeместо.
232
772867
2447
i manipulacija može da se desi.
13:07
Or it could outputизлаз the blueprintnacrt
to a really niftyinventivno technologyтехнологија,
233
775314
3430
Ili može da prenese šemu
na pogodan tehnološki uređaj
13:10
and when we implementимплементирати it,
234
778744
1398
i kada je sprovedemo,
13:12
it has some surreptitiousvanbraиnih sideстрана effectефекат
that the A.I. had plannedпланирано.
235
780142
4397
ima podrivajući efekat
koji je V.I. planirala.
13:16
The pointтачка here is that we should
not be confidentсамоуверен in our abilityспособност
236
784539
3463
Poenta je da treba da budemo sigurni
13:20
to keep a superintelligentsuperintelligent genieгение
lockedзакључано up in its bottleбоца foreverзаувек.
237
788002
3808
da ćemo držati superinteligentnog duha
zaključanog u boci zauvek.
13:23
SoonerRanije or laterкасније, it will out.
238
791810
2254
Pre ili kasnije će izaći.
13:27
I believe that the answerодговор here
is to figureфигура out
239
795034
3103
Mislim da je odgovor to da shvatimo
13:30
how to createстворити superintelligentsuperintelligent A.I.
suchтаква that even if -- when -- it escapesda pobegne,
240
798137
5024
kako da napravimo V.I. tako da,
čak i ako pobegne
13:35
it is still safeсигурно because it is
fundamentallyфундаментално on our sideстрана
241
803161
3277
budemo bezbedni
jer je suštinski na našoj strani
13:38
because it sharesакције our valuesвредности.
242
806438
1899
jer deli naše vrednosti.
13:40
I see no way around
this difficultтешко problemпроблем.
243
808337
3210
Ne vidim drugo rešenje
za ovaj težak problem.
13:44
Now, I'm actuallyзаправо fairlyпоштено optimisticоптимистичан
that this problemпроблем can be solvedрешено.
244
812557
3834
Ali sam optimista da ovaj problem
može da se reši.
13:48
We wouldn'tне би have to writeпиши down
a long listлиста of everything we careнега about,
245
816391
3903
Ne bismo morali da pišemo dugu listu
svega onoga do čega nam je stalo
13:52
or worseгоре yetјош увек, spellcin it out
in some computerрачунар languageЈезик
246
820294
3643
ili, još gore, pišemo to
na nekom kompjuterskom jeziku
13:55
like C++ or PythonPiton,
247
823937
1454
kao što je C++ ili Pajton,
13:57
that would be a taskзадатак beyondизван hopelessбезнадежна.
248
825391
2767
što bi bio beznadežan zadatak.
14:00
InsteadUmesto toga, we would createстворити an A.I.
that usesкористи its intelligenceинтелигенција
249
828158
4297
Umesto toga, napravili bismo V.I.
koja koristi svoju inteligenciju
14:04
to learnучи what we valueвредност,
250
832455
2771
da nauči šta mi vrednujemo
14:07
and its motivationмотивација systemсистем is constructedизграђен
in suchтаква a way that it is motivatedmotivisani
251
835226
5280
i čiji motivacioni sistem
je konstruisan tako da je motivisan
14:12
to pursueгонити our valuesвредности or to performизводити actionsакције
that it predictspredviđa da će we would approveодобри of.
252
840506
5232
da sledi naše vrednosti ili obavlja radnje
za koje predviđa da ih mi odobravamo.
14:17
We would thusтако leverageлевераге
its intelligenceинтелигенција as much as possibleмогуће
253
845738
3414
Tako bismo iskoristili njenu inteligenciju
što je više moguće
14:21
to solveреши the problemпроблем of value-loadingvrednost-učitavanje.
254
849152
2745
da rešimo problem prenošenja vrednosti.
14:24
This can happenдесити се,
255
852727
1512
Ovo može da se desi
14:26
and the outcomeисход could be
very good for humanityчовечанство.
256
854239
3596
i ishod bi bio veoma dobar za čovečanstvo.
14:29
But it doesn't happenдесити се automaticallyаутоматски.
257
857835
3957
Ali to se ne dešava automatski.
14:33
The initialиницијално conditionsуслови
for the intelligenceинтелигенција explosionексплозија
258
861792
2998
Početni uslovi za eksploziju inteligencije
14:36
mightМожда need to be setкомплет up
in just the right way
259
864790
2863
možda treba da budu postavljeni
na tačno određen način
14:39
if we are to have a controlledконтролисано detonationDetonacija.
260
867653
3530
ako želimo da imamo
kontrolisanu detonaciju.
14:43
The valuesвредности that the A.I. has
need to matchутакмица oursнаша,
261
871183
2618
Vrednosti V.I koje treba da
se poklope sa našim
14:45
not just in the familiarпознат contextконтекст,
262
873801
1760
nisu samo u poznatim kontekstima,
14:47
like where we can easilyлако checkпровери
how the A.I. behavesponaša se,
263
875561
2438
gde možemo lako proveriti
kako se V.I. ponaša,
14:49
but alsoтакође in all novelРоман contextskonteksta
that the A.I. mightМожда encounterсусрет
264
877999
3234
nego i u novim kontekstima
u kojima se V.I. može naći
14:53
in the indefiniteнеодређен futureбудућност.
265
881233
1557
u neodređenoj budućnosti.
14:54
And there are alsoтакође some esotericezoterične issuesпитања
that would need to be solvedрешено, sortedсортирано out:
266
882790
4737
Postoje i neka ezoterična pitanja
koja bi trebalo rešiti:
14:59
the exactтачно detailsдетаље of its decisionодлука theoryтеорија,
267
887527
2089
tačne detalje njene teorije odlučivanja,
15:01
how to dealдоговор with logicalлогичан
uncertaintyнеизвесност and so forthнапред.
268
889616
2864
kako rešiti logičku nesigurnost itd.
15:05
So the technicalтехнички problemsпроблеми that need
to be solvedрешено to make this work
269
893330
3102
Tako da tehnički problemi koje bi
trebalo rešiti da bi ovo funkcionisalo
15:08
look quiteприлично difficultтешко --
270
896432
1113
izgledaju prilično teški -
15:09
not as difficultтешко as makingстварање
a superintelligentsuperintelligent A.I.,
271
897545
3380
ne toliko kao pravljenje
superinteligentne V.I.,
15:12
but fairlyпоштено difficultтешко.
272
900925
2868
ali prilično teški.
15:15
Here is the worryзабринути:
273
903793
1695
Problem je u sledećem:
15:17
MakingPravljenje superintelligentsuperintelligent A.I.
is a really hardтешко challengeизазов.
274
905488
4684
Napraviti superinteligentnu V.I.
je vrlo težak izazov.
15:22
MakingPravljenje superintelligentsuperintelligent A.I. that is safeсигурно
275
910172
2548
Pravljenje superinteligentne V.I.
koja je bezbedna
15:24
involvesподразумева some additionaldodatne
challengeизазов on topврх of that.
276
912720
2416
uključuje još neke dodatne teškoće.
15:28
The riskризик is that if somebodyнеко figuresфигуре out
how to crackцрацк the first challengeизазов
277
916216
3487
Postoji rizik da neko otkrije
kako da razbije prvu teškoću,
15:31
withoutбез alsoтакође havingимати crackedЦрацкед
the additionaldodatne challengeизазов
278
919703
3001
a da nije razbio i dodatnu teškoću
15:34
of ensuringosiguravanje perfectсавршен safetyбезбедност.
279
922704
1901
obezbeđivanja savršene bezbednosti.
15:37
So I think that we should
work out a solutionрешење
280
925375
3331
Mislim da bi trebalo da nađemo rešenje
15:40
to the controlконтрола problemпроблем in advanceунапред,
281
928706
2822
za kontrolu problema unapred
15:43
so that we have it availableдоступан
by the time it is neededпотребно.
282
931528
2660
da bismo ga imali na raspolaganju
kad dođe vreme.
15:46
Now it mightМожда be that we cannotне може solveреши
the entireцео controlконтрола problemпроблем in advanceунапред
283
934768
3507
Ali možda ne možemo da rešimo
ceo problem kontrole unapred,
15:50
because maybe some elementsелементи
can only be put in placeместо
284
938275
3024
jer možda neki elementi mogu da se ubace
15:53
onceједном you know the detailsдетаље of the
architectureархитектура where it will be implementedимплементирано.
285
941299
3997
tek kad znamo detaljnu strukturu
na kojoj bi bilo primenjeno.
15:57
But the more of the controlконтрола problemпроблем
that we solveреши in advanceунапред,
286
945296
3380
Ali što veći deo problema kontrole
rešimo unapred,
16:00
the better the oddsквоте that the transitionпрелаз
to the machineмашина intelligenceинтелигенција eraера
287
948676
4090
to su bolje šanse da će tranzicija
ka dobu mašinske inteligencije
16:04
will go well.
288
952766
1540
proteći dobro
16:06
This to me looksизглед like a thing
that is well worthвреди doing
289
954306
4644
To mi izgleda kao stvar
koju bi vredelo uraditi
16:10
and I can imagineзамислити that if
things turnред out okay,
290
958950
3332
i mogu da zamislim
da ako stvari ispadnu okej,
16:14
that people a millionмилиона yearsгодине from now
look back at this centuryвек
291
962282
4658
ljudi će za milion godina
pogledati unazad na ovo doba
16:18
and it mightМожда well be that they say that
the one thing we did that really matteredbilo bitno
292
966940
4002
i možda će reći da je
ono što je bilo zaista važno
16:22
was to get this thing right.
293
970942
1567
bilo to da smo ovo uradili dobro.
16:24
Thank you.
294
972509
1689
Hvala vam.
16:26
(ApplauseAplauz)
295
974198
2813
(Aplauz)
Translated by Milos Milosavljevic
Reviewed by Mile Živković

▲Back to top

ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com