ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com
TEDGlobal 2005

Nick Bostrom: A philosophical quest for our biggest problems

Nick Bostrom o našim najvećim problemima

Filmed:
967,767 views

Nick Bostrom, filozof i transhumanist s Oxforda razmatra o budućnosti čovječanstva i pita se je li moguće promijeniti čovjekovu prirodu kako bi se riješili naši unutarnji problemi.
- Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us? Full bio

Double-click the English transcript below to play the video.

00:24
I want to talk todaydanas about --
0
0
3000
Želim vam danas nešto reći o –
00:27
I've been askedpitao to take the long viewpogled, and I'm going to tell you what
1
3000
6000
rekli su mi da razmišljam o utjecajima na budućnost i reći ću vam koji su to,
00:33
I think are the threetri biggestnajveći problemsproblemi for humanityčovječanstvo
2
9000
4000
po mom mišljenju najveći problemi čovječanstva
00:37
from this long pointtočka of viewpogled.
3
13000
3000
gledano na način kako će to utjecati na budućnost.
00:40
Some of these have alreadyveć been touchedganut uponna by other speakerszvučnici,
4
16000
3000
Nekih su se od ovih problema već prije dotakli drugi govornici,
00:43
whichkoji is encouragingohrabrujući.
5
19000
2000
što je ohrabrujuće.
00:45
It seemsčini se that there's not just one personosoba
6
21000
2000
Čini se kako ne misli samo jedna osoba
00:47
who thinksmisli that these problemsproblemi are importantvažno.
7
23000
2000
da su ovi problemi važni.
00:49
The first is -- deathsmrt is a bigvelika problemproblem.
8
25000
4000
Prvi je – smrt je veliki problem.
00:53
If you look at the statisticsstatistika,
9
29000
3000
Ako pogledate statistiku,
00:56
the oddsizgledi are not very favorablepovoljan to us.
10
32000
2000
izgledi nam nisu baš povoljni.
00:58
So fardaleko, mostnajviše people who have livedživjeli have alsotakođer diedumro.
11
34000
4000
Do sada, većina ljudi koji su živjeli, također su i umrli.
01:02
RoughlyOtprilike 90 percentposto of everybodysvi who has been aliveživ has diedumro by now.
12
38000
4000
Oko 90% svih koji su ikada živjeli, do sada su umrli.
01:06
So the annualgodišnji deathsmrt ratestopa addsdodaje up to 150,000 --
13
42000
6000
Godišnja stopa smrtnosti doseže 150 000 –
01:12
sorry, the dailydnevno deathsmrt ratestopa -- 150,000 people perpo day,
14
48000
3000
oprostite, dnevni broj umrlih -150 000 ljudi dnevno,
01:15
whichkoji is a hugeogroman numberbroj by any standardstandard.
15
51000
3000
što je ogroman broj.
01:18
The annualgodišnji deathsmrt ratestopa, then, becomespostaje 56 millionmilijuna.
16
54000
5000
Godišnja stopa smrti, tako iznosi, 56 milijuna ljudi.
01:23
If we just look at the singlesingl, biggestnajveći causeuzrok of deathsmrt -- agingstarenje --
17
59000
5000
Ako promotrimo samo jedan, najveći uzrok smrti – starenje –
01:29
it accountsračuni for roughlygrubo two-thirdsdvije trećine of all humanljudski people who dieumrijeti.
18
65000
5000
ono je odgovorno za otprilike dvije trećine umrlih.
01:34
That addsdodaje up to an annualgodišnji deathsmrt tollcestarina
19
70000
3000
To dovodi do godišnjeg gubitka ljudi,
01:37
of greaterviše than the populationpopulacija of CanadaKanada.
20
73000
2000
čiji je broj veći od ukupne populacije Kanade.
01:39
SometimesPonekad, we don't see a problemproblem
21
75000
2000
Ponekad problem ne vidimo,
01:41
because eitherili it's too familiarupoznat or it's too bigvelika.
22
77000
4000
ili jer ga smatramo previše svakodnevnim, ili zato što je prevelik.
01:45
Can't see it because it's too bigvelika.
23
81000
2000
Ne možemo ga vidjeti jer je prevelik.
01:47
I think deathsmrt mightmoć be bothoba too familiarupoznat and too bigvelika
24
83000
3000
Smatram da je smrt vjerojatno oboje – i previše blizak,
01:50
for mostnajviše people to see it as a problemproblem.
25
86000
3000
ali i previše velik problem.
01:53
OnceJednom you think about it, you see this is not statisticalstatistički pointsbodova;
26
89000
2000
Kada jednom promislite o tome, vidjet ćete da ga se ne može razmatrati sa statističkog gledišta.
01:55
these are -- let's see, how fardaleko have I talkedRazgovarao?
27
91000
2000
To su - da vidimo, koliko dugo već pričam?
01:57
I've talkedRazgovarao for threetri minutesminuta.
28
93000
3000
Govorim tri minute.
02:00
So that would be, roughlygrubo, 324 people have diedumro sinceod I've begunpočela speakinggovor.
29
96000
7000
Otprilike je 324 ljudi umrlo od kada sam ja počeo govoriti.
02:07
People like -- it's roughlygrubo the populationpopulacija in this roomsoba has just diedumro.
30
103000
4000
Ljudi kao - to je otprilike populacija velika kao broj vas koji se nalazite u ovoj sobi.
02:12
Now, the humanljudski costcijena of that is obviousočigledan,
31
108000
2000
Onda, ljudski gubitak zbog smrti je očigledan.
02:14
oncejednom you startpočetak to think about it -- the sufferingpati, the lossgubitak --
32
110000
3000
Kada jednom počnete razmišljati o tome - patnja, gubitak -
02:17
it's alsotakođer, economicallyekonomično, enormouslyogromno wastefulrasipan.
33
113000
3000
no, to je također, ekonomski gledano, izuzetno razorno.
02:20
I just look at the informationinformacija, and knowledgeznanje, and experienceiskustvo
34
116000
3000
Pogledajmo samo koliko informacija, znanja i iskustva
02:23
that is lostizgubljen dueuslijed to naturalprirodni causesuzroci of deathsmrt in generalgeneral,
35
119000
3000
se izgubi zbog prirodnih uzroka smrti,
02:26
and agingstarenje, in particularposebno.
36
122000
2000
posebice starenja.
02:28
SupposePretpostavimo da we approximatedaproksimirati one personosoba with one bookrezervirati?
37
124000
3000
Pretpostavimo da izjednačimo jednu osobu s jednom knjigom.
02:31
Now, of coursenaravno, this is an underestimationpodcjenjivanje.
38
127000
2000
Naravno, tu sam podcijenio potencijal ljudi.
02:33
A person'sosobe lifetimedoživotno of learningučenje and experienceiskustvo
39
129000
6000
Cjeloživotno učenje i iskustva jedne osobe
02:39
is a lot more than you could put into a singlesingl bookrezervirati.
40
135000
2000
su nešto mnogo više nego što se može staviti u jednu jedinu knjigu.
02:41
But let's supposepretpostaviti we did this.
41
137000
2000
No, pretpostavimo da smo to učinili.
02:44
52 millionmilijuna people dieumrijeti of naturalprirodni causesuzroci eachsvaki yeargodina
42
140000
5000
52 milijuna ljudi koji umiru prirodnom smrću svake godine,
02:49
correspondsodgovara, then, to 52 millionmilijuna volumessveska destroyeduništen.
43
145000
4000
odgovaraju brojci od 52 milijuna uništenih svezaka.
02:53
LibraryBiblioteka of CongressKongres holdsdrži 18 millionmilijuna volumessveska.
44
149000
3000
Knjižnica Kongresa posjeduje 18 milijuna svezaka.
02:57
We are upsetuzrujan about the burningspaljivanje of the LibraryBiblioteka of AlexandriaAlexandria.
45
153000
3000
Uznemireni smo zbog spaljivanja Aleksandrijske knjižnice,
03:00
It's one of the great culturalkulturni tragediestragedije
46
156000
2000
to je jedna od najvećih kulturnih tragedija
03:02
that we rememberzapamtiti, even todaydanas.
47
158000
3000
koje pamtimo čak i dan danas.
03:06
But this is the equivalentekvivalent of threetri LibrariesKnjižnice of CongressKongres --
48
162000
2000
No, to možemo izjednačiti s 3 spaljene knjižnice Kongresa,
03:08
burntizgorio down, foreverzauvijek lostizgubljen -- eachsvaki yeargodina.
49
164000
3000
zauvijek izgubljene, svake godine.
03:11
So that's the first bigvelika problemproblem.
50
167000
2000
To je, dakle, prvi veliki problem.
03:13
And I wishželja GodspeedSretno to AubreyAubrey dede GreySiva,
51
169000
3000
I želim svu sreću Aubrey de Grey
03:16
and other people like him,
52
172000
2000
i drugim ljudima poput njega
03:18
to try to do something about this as soonuskoro as possiblemoguće.
53
174000
3000
u pokušaju što skorijeg rješavanja tog problema.
03:22
ExistentialEgzistencijalna riskrizik -- the seconddrugi bigvelika problemproblem.
54
178000
3000
Egzistencijalni rizik – drugi veliki problem.
03:25
ExistentialEgzistencijalna riskrizik is a threatprijetnja to humanljudski survivalopstanak, or to the long-termdugoročno potentialpotencijal of our speciesvrsta.
55
181000
7000
Egzistencijalni rizik je prijetnja za ljudski opstanak ili dugoročno za potencijal naše vrste.
03:32
Now, why do I say that this is a bigvelika problemproblem?
56
188000
2000
E, sada.. zašto mislim da je to veliki problem?
03:34
Well, let's first look at the probabilityvjerojatnost --
57
190000
4000
Dakle, pogledajmo prvo na vjerojatnost –
03:38
and this is very, very difficulttežak to estimateprocjena --
58
194000
3000
što je vrlo teško za procijeniti -
03:41
but there have been only fourčetiri studiesstudije on this in recentnedavni yearsgodina,
59
197000
3000
u posljednjih nekoliko godina napravljene su samo četiri studije o tome,
03:44
whichkoji is surprisingiznenađujuće.
60
200000
2000
što je iznenađujuće.
03:46
You would think that it would be of some interestinteres
61
202000
3000
Vjerojatno biste pomislili da bi bilo od općeg interesa
03:49
to try to find out more about this givendan that the stakesulozi are so bigvelika,
62
205000
4000
saznati nešto o tome s obzirom da je to tako bitno,
03:53
but it's a very neglectedzanemaren areapodručje.
63
209000
2000
no ovo je zaista zapravo vrlo zanemareno područje.
03:55
But there have been fourčetiri studiesstudije --
64
211000
2000
No, ipak napravljene su četiri studije –
03:57
one by JohnJohn LesleyLesley, wrotenapisao a bookrezervirati on this.
65
213000
2000
jednu je vodio John Lesley, napisao je i knjigu na tu temu.
03:59
He estimatedprocijenjen a probabilityvjerojatnost that we will failiznevjeriti
66
215000
2000
Po njegovoj je procjeni vjerojatnost da će nam vrsta biti
04:01
to survivepreživjeti the currentstruja centurystoljeće: 50 percentposto.
67
217000
3000
iskorijenjena tijekom ovog stoljeća – 50 posto.
04:04
SimilarlyNa sličan način, the AstronomerAstronom RoyalKraljevski, whomkome we heardčuo speakgovoriti yesterdayjučer,
68
220000
5000
Slično tome, astronom Royal, kojega smo imali priliku jučer poslušati,
04:09
alsotakođer has a 50 percentposto probabilityvjerojatnost estimateprocjena.
69
225000
3000
također je procijenio da je vjerojatnost za preživljavanje 50 posto.
04:12
AnotherJoš jedan authorAutor doesn't give any numericalnumerički estimateprocjena,
70
228000
3000
Još jedan autor, ne daje nikakve brojčane procjene,
04:15
but sayskaže the probabilityvjerojatnost is significantznačajan that it will failiznevjeriti.
71
231000
3000
no ističe da je vjerojatnost da nam vrsta neće opstati značajna.
04:18
I wrotenapisao a long paperpapir on this.
72
234000
3000
Napisao sam dugačak članak na tu temu.
04:21
I said assigningdodjeljivanje a lessmanje than 20 percentposto probabilityvjerojatnost would be a mistakepogreška
73
237000
4000
Napisao sam da bi procjenjivanje na manje od 20 posto vjerojatnosti bila pogrješka
04:25
in lightsvjetlo of the currentstruja evidencedokaz we have.
74
241000
3000
s obzirom na sve dosadašnje dokaze koje imamo.
04:28
Now, the exacttočno figuresfigure here,
75
244000
2000
E sada.. točne brojke koje se navode
04:30
we should take with a bigvelika grainžitarica of saltsol,
76
246000
2000
treba uzeti s velikom rezervom,
04:32
but there seemsčini se to be a consensuskonsenzus that the riskrizik is substantialznatan.
77
248000
3000
no čini se da se ipak mnogo ljudi slaže oko toga kako je rizik značajan.
04:35
EverybodySvi who has lookedgledao at this and studiedstudirao it agreesslaže.
78
251000
3000
Svatko tko se time bavio i proučavao taj problem se slaže.
04:38
Now, if we think about what just reducingsmanjivanje
79
254000
2000
No, ako samo smislimo nešto što bi smanjilo
04:40
the probabilityvjerojatnost of humanljudski extinctionizumiranje by just one percentagepostotak pointtočka --
80
256000
5000
vjerojatnost izumiranja ljudske vrste za samo jedan posto –
04:45
not very much -- so that's equivalentekvivalent to 60 millionmilijuna livesživot savedspremaju,
81
261000
5000
ne baš puno – to bi bilo jednako kao 60 milijuna spašenih života,
04:50
if we just countračunati the currentlytrenutno livingživot people, the currentstruja generationgeneracija.
82
266000
4000
i to ako računamo samo ljude koji trenutno žive.
04:54
Now one percentposto of sixšest billionmilijardi people is equivalentekvivalent to 60 millionmilijuna.
83
270000
4000
Dakle, jedan posto od šest milijardi ljudi iznosi 60 milijuna ljudi.
04:58
So that's a largeveliki numberbroj.
84
274000
2000
To je, znači, veliki broj.
05:00
If we were to take into accountračun futurebudućnost generationsgeneracije
85
276000
3000
Kada bismo uzeli u obzir buduće generacije
05:03
that will never come into existencepostojanje if we blowudarac ourselvessebe up,
86
279000
5000
koje nikada neće biti rođene ako sami sebe uništimo,
05:08
then the figurelik becomespostaje astronomicalastronomski.
87
284000
3000
brojka bi bila astronomski visoka.
05:11
If we could eventuallyeventualno colonizekolonizovati a chunkkomad of the universesvemir --
88
287000
3000
Kada bismo, recimo, mogli kolonizirati komad svemira –
05:14
the VirgoDjevica superclustersuperskupovi galaktika --
89
290000
2000
primjerice Virgo supercluster –
05:16
maybe it will take us 100 millionmilijuna yearsgodina to get there,
90
292000
2000
možda će nam trebati 100 milijuna godina da dođemo do tamo,
05:18
but if we go extinctizumro we never will.
91
294000
3000
ali ako izumremo, nikada nećemo uspjeti.
05:21
Then, even a one percentagepostotak pointtočka reductionsmanjenje
92
297000
3000
Tako da bi čak i smanjenje rizika izumiranja
05:24
in the extinctionizumiranje riskrizik could be equivalentekvivalent
93
300000
4000
od samo jednog postotka bila jednaka
05:28
to this astronomicalastronomski numberbroj -- 10 to the powervlast of 32.
94
304000
3000
astronomski visokom broju ljudi – čak i 10 na trideset drugu.
05:31
So if you take into accountračun futurebudućnost generationsgeneracije as much as our ownvlastiti,
95
307000
4000
Dakle, ako se uzmu u obzir buduće generacije, isto kao i naša postojeća,
05:35
everysvaki other moralmoralan imperativeimperativ of philanthropicfilantropski costcijena just becomespostaje irrelevantbeznačajan.
96
311000
5000
svaki drugi moralni imperativ ljudskog gubitka postaje nevažan.
05:40
The only thing you should focusfokus on
97
316000
2000
Jedina stvar na koju bi se trebali usredotočiti je
05:42
would be to reducesmanjiti existentialegzistencijalni riskrizik
98
318000
2000
smanjenje egzistencijalne opasnosti
05:44
because even the tiniestnajsitniji decreasesmanjenje in existentialegzistencijalni riskrizik
99
320000
4000
zato što bi čak i najmanje smanjenje rizika izumiranja
05:48
would just overwhelmzasuti any other benefitkorist you could hopenada to achievepostići.
100
324000
4000
bilo značajnije od bilo koje drugog humanog cilja kojega ste se nadali postići.
05:52
And even if you just look at the currentstruja people,
101
328000
2000
Čak i kada biste zanemarili potencijal budućih generacija
05:54
and ignorezanemariti the potentialpotencijal that would be lostizgubljen if we wentotišao extinctizumro,
102
330000
5000
i samo mislili na ljude koji trenutno žive,
05:59
it should still have a highvisok priorityprioritet.
103
335000
2000
opet bi ta zadaća imala prioritet.
06:01
Now, let me spendprovesti the restodmor of my time on the thirdtreći bigvelika problemproblem,
104
337000
5000
Dopustite mi da posvetim ostatak vremena koje imam trećem velikom problemu
06:06
because it's more subtlefin and perhapsmožda difficulttežak to graspshvatiti.
105
342000
5000
– zato što nije toliko očit, i možda je malo teži za shvatiti.
06:12
Think about some time in your life --
106
348000
4000
Razmislite malo o nekom razdoblju svojega života –
06:16
some people mightmoć never have experiencediskusan it -- but some people,
107
352000
3000
neki ljudi možda nikada nisu doživjeli takvo što – no neki ljudi
06:19
there are just those momentstrenutke that you have experiencediskusan
108
355000
3000
su doživjeli razdoblje
06:22
where life was fantasticfantastičan.
109
358000
2000
u kojemu je život jednostavno bio fantastičan.
06:24
It mightmoć have been at the momenttrenutak of some great, creativekreativan inspirationinspiracija
110
360000
7000
Tako ste se možda osjećali u razdoblju velike, kreativne inspiracije
06:31
you mightmoć have had when you just enteredušao this flowteći stagefaza.
111
367000
2000
koju ste imali kada ste ušli u tu fazu života.
06:33
Or when you understoodrazumjeti something you had never doneučinio before.
112
369000
2000
Ili ste možda shvatili nešto novo, što vas je prosvijetlilo.
06:35
Or perhapsmožda in the ecstasyekstaza of romanticromantičan love.
113
371000
4000
Ili ste bili u ekstazi jake romantične ljubavi.
06:39
Or an aestheticestetski experienceiskustvo -- a sunsetzalazak sunca or a great piecekomad of artumjetnost.
114
375000
5000
Ili je to možda bio neki estetski doživljaj – zalazak sunca ili veliko umjetničko djelo.
06:44
EverySvaki oncejednom in a while we have these momentstrenutke,
115
380000
2000
Uvijek kada proživljavamo iznova takve trenutke,
06:46
and we realizeostvariti just how good life can be when it's at its bestnajbolje.
116
382000
4000
shvatimo koliko život može biti divan kada je na svom vrhuncu.
06:50
And you wonderčudo, why can't it be like that all the time?
117
386000
5000
Pitate se zašto ne može biti takav cijelo vrijeme?
06:55
You just want to clingdržati se ontona this.
118
391000
2000
Želite ga takvim zadržati.
06:57
And then, of coursenaravno, it driftsnanosi back into ordinaryobičan life and the memorymemorija fadesblijedi.
119
393000
4000
I onda se, naravno, vrati sve u svakodnevnicu i sjećanja na te divne trenutke blijede.
07:01
And it's really difficulttežak to recallpodsjetiti, in a normalnormalan frameokvir of mindum,
120
397000
4000
I stvarno se nekada teško prisjetiti, u normalnim uvjetima,
07:05
just how good life can be at its bestnajbolje.
121
401000
3000
kako život može biti lijep kada je na vrhuncu.
07:08
Or how badloše it can be at its worstnajgori.
122
404000
3000
Ili kako može biti užasan kada je na dnu.
07:11
The thirdtreći bigvelika problemproblem is that life isn't usuallyobično
123
407000
3000
Treći veliki problem je što život većinom
07:14
as wonderfulpredivan as it could be.
124
410000
2000
nije toliko dobar koliko bi mogao biti.
07:16
I think that's a bigvelika, bigvelika problemproblem.
125
412000
4000
Mislim da je to veliki, veliki problem.
07:20
It's easylako to say what we don't want.
126
416000
2000
Lako nam je reći što ne želimo.
07:23
Here are a numberbroj of things that we don't want --
127
419000
3000
Evo, samo nekoliko stvari koje ne želimo –
07:26
illnessbolest, involuntarynenamjeran deathsmrt, unnecessarynepotreban sufferingpati, crueltyokrutnost,
128
422000
3000
bolest, neželjena smrt, nepotrebna patnja, okrutnost,
07:29
stuntedzakržljao growthrast, memorymemorija lossgubitak, ignoranceneznanje, absenceodsutnost of creativitykreativnost.
129
425000
5000
poremećaj u razvoju, gubitak pamćenja, neznanje, nedostatak kreativnosti..
07:35
SupposePretpostavimo da we fixedfiksni these things -- we did something about all of these.
130
431000
3000
Pretpostavimo da te probleme riješimo – da smo učinili nešto protiv svega toga.
07:38
We were very successfuluspješan.
131
434000
2000
I to vrlo uspješno.
07:40
We got ridosloboditi of all of these things.
132
436000
2000
Da smo se riješili svih ovih stvari.
07:42
We mightmoć endkraj up with something like this,
133
438000
3000
Mogli bismo završiti s tako nečim.
07:45
whichkoji is -- I mean, it's a heckpakao of a lot better than that.
134
441000
4000
Što je, mislim, puno bolje od onoga.
07:49
But is this really the bestnajbolje we can dreamsan of?
135
445000
5000
No, je li to stvarno ono najbolje što možemo zamisliti?
07:54
Is this the bestnajbolje we can do?
136
450000
2000
Je li to najbolje što možemo postići?
07:56
Or is it possiblemoguće to find something a little bitbit more inspiringinspiriranje to work towardsza?
137
452000
6000
Ili, je li moguće naći neku veću inspiraciju prema kojoj treba težiti?
08:02
And if we think about this,
138
458000
2000
I, ako promislimo o tome,
08:04
I think it's very clearčisto that there are waysnačine
139
460000
4000
mislim da je vrlo jasno da postoje načini
08:08
in whichkoji we could changepromijeniti things, not just by eliminatingeliminirajući negativesnegative,
140
464000
3000
pomoću kojih to možemo promijeniti, ne samo eliminirajući stvari koje ne želimo da nam se dogode u životu,
08:11
but addingdodajući positivespozitivci.
141
467000
2000
nego i pokušavajući ostvariti ono što želimo proživjeti.
08:13
On my wishželja listpopis, at leastnajmanje, would be:
142
469000
2000
Na mojoj bi listi želja bilo:
08:15
much longerviše, healthierzdravije livesživot, greaterviše subjectivesubjektivan well-beingblagostanje,
143
471000
5000
mnogo duži, zdraviji životni vijek, više subjektivnog blagostanja,
08:20
enhancedpoboljšane cognitivespoznajni capacitieskapaciteti, more knowledgeznanje and understandingrazumijevanje,
144
476000
5000
poboljšane kognitivne sposobnosti, više znanja i razumijevanja,
08:25
unlimitedneograničen opportunityprilika for personalosobni growthrast
145
481000
2000
neograničene mogućnosti za osobni razvoj
08:27
beyondIznad our currentstruja biologicalbiološki limitsgranice, better relationshipsodnosa,
146
483000
4000
iznad naših trenutačnih bioloških granica, bolji međuljudski odnosi,
08:31
an unboundedneobavezan potentialpotencijal for spiritualduhovni, moralmoralan
147
487000
2000
neograničen potencijal za duhovni, moralni
08:33
and intellectualintelektualac developmentrazvoj.
148
489000
2000
i intelektualni razvoj.
08:35
If we want to achievepostići this, what, in the worldsvijet, would have to changepromijeniti?
149
491000
8000
Što se mora promijeniti u svijetu da bismo to postigli?
08:43
And this is the answerodgovor -- we would have to changepromijeniti.
150
499000
5000
Postoji odgovor – MI bismo se morali promijeniti.
08:48
Not just the worldsvijet around us, but we, ourselvessebe.
151
504000
3000
Ne samo svijet oko nas, nego mi, osobno.
08:51
Not just the way we think about the worldsvijet, but the way we are -- our very biologybiologija.
152
507000
4000
Ne samo način na koji razmišljamo o svijetu, nego ono što jesmo, ono što nas čini onim što jesmo – našu biologiju.
08:55
HumanLjudski naturepriroda would have to changepromijeniti.
153
511000
2000
Ljudska priroda bi se morala promijeniti.
08:57
Now, when we think about changingmijenjanje humanljudski naturepriroda,
154
513000
2000
Dakle, kada razmišljamo o promjeni ljudske prirode,
08:59
the first thing that comesdolazi to mindum
155
515000
2000
prva stvar koja nam pada na pamet
09:01
are these humanljudski modificationmodifikacija technologiestehnologije --
156
517000
4000
su tehnologije poboljšanja ljudskih osobina –
09:05
growthrast hormonehormon therapyterapija, cosmetickozmetički surgerykirurgija,
157
521000
2000
terapija hormonima rasta, estetska kirurgija,
09:07
stimulantsstimulansi like RitalinRitalin, AdderallAdderall, anti-depressantsantidepresive,
158
523000
3000
stimulansi poput Ritalina, Adderalla, antidepresiva,
09:10
anabolicanabolički steroidssteroidi, artificialUmjetna heartssrca.
159
526000
2000
anaboličkih steroida, umjetno srce..
09:12
It's a prettyprilično patheticpatetičan listpopis.
160
528000
3000
Prilično jadna lista.
09:15
They do great things for a fewnekoliko people
161
531000
2000
Sve što sam nabrojao – odlično pomaže nekolicini ljudi
09:17
who sufferpatiti from some specificspecifično conditionstanje,
162
533000
2000
koji pate od nekih određenih stanja.
09:19
but for mostnajviše people, they don't really transformtransformirati
163
535000
5000
No, za većinu ljudi, oni ne mijenjaju
09:24
what it is to be humanljudski.
164
540000
2000
ono po čemu se osjećaju ljudima.
09:26
And they alsotakođer all seemčiniti se a little bitbit --
165
542000
2000
I također se svi čine pomalo –
09:28
mostnajviše people have this instinctinstinkt that, well, sure,
166
544000
3000
većina ljudi posjeduje predrasude... mislim, naravno,
09:31
there needspotrebe to be anti-depressantsantidepresive for the really depresseddepresivno people.
167
547000
2000
antidepresivi su korisni i potrebni za vrlo depresivne ljude.
09:33
But there's a kindljubazan of queasinessosjetljivost
168
549000
2000
No, postoji određeni osjećaj nelagode
09:35
that these are unnaturalneprirodan in some way.
169
551000
3000
u svijesti ljudi prema tim lijekovima, jer su neprirodni.
09:38
It's worthvrijedan recallingpodsjetivši that there are a lot of other
170
554000
2000
No, dobro je podsjetiti se kako postoji još mnogo drugih
09:40
modificationmodifikacija technologiestehnologije and enhancementpoboljšanje technologiestehnologije that we use.
171
556000
3000
načina kojima možemo poboljšati ili izmijeniti naše tjelesne predispozicije.
09:43
We have skinkoža enhancementspoboljšanja, clothingodjeća.
172
559000
4000
Primjerice, kao 'poboljšanje' naše kože – odjeću.
09:47
As fardaleko as I can see, all of you are usersKorisnici of this
173
563000
4000
Koliko mogu vidjeti, svi ste vi u ovoj sobi
09:51
enhancementpoboljšanje technologytehnologija in this roomsoba, so that's a great thing.
174
567000
5000
korisnici odjeće, što je odlično.
09:56
MoodRaspoloženje modifiersmodifikatori have been used from time immemorialnezapamćen --
175
572000
3000
Za promjenu raspoloženja koriste se još od pamtivijeka –
09:59
caffeinekofein, alcoholalkohol, nicotinenikotin, immuneimun systemsistem enhancementpoboljšanje,
176
575000
5000
kofein, alkohol, nikotin, pripravci za poboljšanje imunološkog sustava,
10:04
visionvizija enhancementpoboljšanje, anestheticsanestetike --
177
580000
2000
operacije očiju zbog boljeg vida, anestetici..
10:06
we take that very much for grantedodobreno,
178
582000
2000
Većinu tih stvari uzimamo zdravo za gotovo –
10:08
but just think about how great progressnapredak that is --
179
584000
4000
ali zamislite samo koliki je to bio velik napredak –
10:12
like, havingima an operationoperacija before anestheticsanestetike was not funzabava.
180
588000
4000
jer, operacije prije uporabe anestetika, zaista nisu bile zabavne.
10:16
ContraceptivesKontraceptiva, cosmeticskozmetika and brainmozak reprogrammingreprogramiranje techniquesTehnike --
181
592000
6000
Kontraceptivi, kozmetika, tehnike reprogramiranja mozga –
10:22
that soundszvukovi ominouszloslutan,
182
598000
2000
to zvuči zloslutno.
10:24
but the distinctionrazlika betweenizmeđu what is a technologytehnologija --
183
600000
4000
No, razlika između onoga što je tehnologija –
10:28
a gadgetnaprava would be the archetypearhetip --
184
604000
2000
naprava bi bila prauzor–
10:30
and other waysnačine of changingmijenjanje and rewritingprepisivanjem humanljudski naturepriroda is quitedosta subtlefin.
185
606000
4000
i drugih načina mijenjanja ljudske prirode prilično je malena.
10:34
So if you think about what it meanssredstva to learnnaučiti arithmeticaritmetika or to learnnaučiti to readčitati,
186
610000
4000
Recimo, kada učite aritmetiku ili učite čitati,
10:38
you're actuallyzapravo, literallydoslovce rewritingprepisivanjem your ownvlastiti brainmozak.
187
614000
3000
zapravo, doslovce, reprogramirate svoj vlastiti mozak.
10:41
You're changingmijenjanje the microstructuremikrostruktura of your brainmozak as you go alonguz.
188
617000
3000
Mijenjate mikro-strukture svojega mozga.
10:45
So in a broadširok senseosjećaj, we don't need to think about technologytehnologija
189
621000
3000
Tako je u širem smislu – ne moramo razmišljati o tehnologiji
10:48
as only little gadgetsnaprava, like these things here,
190
624000
2000
kao samo malom programčiću – kao ove stvari ovdje.
10:50
but even institutionsinstitucije and techniquesTehnike,
191
626000
4000
No, čak i institucije i tehnike,
10:54
psychologicalpsihološki methodsmetode and so forthdalje.
192
630000
2000
psihološke metode i tako dalje.
10:56
FormsObrasci of organizationorganizacija can have a profounddubok impactudar on humanljudski naturepriroda.
193
632000
5000
Oblici organizacije mogu imati dubok utjecaj na ljudsku prirodu.
11:01
Looking aheadnaprijed, there is a rangeopseg of technologiestehnologije
194
637000
2000
Gledajući u budućnost – postoji cijeli niz tehnologija
11:03
that are almostskoro certainsiguran to be developedrazvijen soonerprije or laterkasnije.
195
639000
3000
koje će se gotovo sigurno razviti prije ili kasnije.
11:06
We are very ignorantneuk about what the time scaleljestvica for these things are,
196
642000
4000
Ne znamo ni otprilike koliko će vremena do takvih otkrića proteći –
11:10
but they all are consistentdosljedan with everything we know
197
646000
2000
to će biti u skladu sa svime što znamo
11:12
about physicalfizička lawszakoni, lawszakoni of chemistrykemija, etcitd.
198
648000
4000
o fizikalnim i kemijskim zakonima i tako dalje.
11:16
It's possiblemoguće to assumepretpostaviti,
199
652000
2000
Možemo pretpostaviti da ćemo,
11:18
settingpostavljanje asideu stranu a possibilitymogućnost of catastrophekatastrofa,
200
654000
3000
ako zanemarimo mogućnost da se dogodi neka katastrofa,
11:21
that soonerprije or laterkasnije we will developrazviti all of these.
201
657000
3000
prije ili kasnije te stvari razviti.
11:24
And even just a couplepar of these would be enoughdovoljno
202
660000
3000
Čak i samo nekoliko takvih izuma bili bi dovoljni
11:27
to transformtransformirati the humanljudski conditionstanje.
203
663000
2000
za potpunu promjenu ljudskoga stanja.
11:29
So let's look at some of the dimensionsdimenzije of humanljudski naturepriroda
204
665000
5000
Obratimo pozornost na neke dimenzije ljudske prirode
11:34
that seemčiniti se to leavenapustiti roomsoba for improvementpoboljšanje.
205
670000
3000
koje ostavljaju prostora za njihovo poboljšanje.
11:37
HealthZdravlje spanpedalj is a bigvelika and urgenthitan thing,
206
673000
2000
Zdravlje je bitna i hitna stavka –
11:39
because if you're not aliveživ,
207
675000
2000
jer ako umrete,
11:41
then all the other things will be to little availdobitak.
208
677000
3000
sve ostale stvari nisu baš korisne.
11:44
IntellectualIntelektualnog capacitykapacitet -- let's take that boxkutija,
209
680000
2000
Intelektualni kapacitet – uzmimo to kao primjer –
11:46
whichkoji fallsSlapovi into a lot of differentdrugačiji sub-categoriespotkategorije:
210
682000
5000
sastoji se od mnogo pod-kategorija –
11:51
memorymemorija, concentrationkoncentracija, mentalmentalni energyenergija, intelligenceinteligencija, empathysuosjecanje.
211
687000
3000
pamćenje, koncentracija, mentalna energija, inteligencija, empatija.
11:54
These are really great things.
212
690000
2000
To su sve bitne stvari.
11:56
PartDio of the reasonrazlog why we valuevrijednost these traitsosobine
213
692000
2000
Razlog zašto su nam ove vrijednosti tako bitne leži u tome
11:58
is that they make us better at competingnatječu with other people --
214
694000
4000
što nas one čine boljima u usporedbi s drugim ljudima –
12:02
they're positionalpoložajni goodsroba.
215
698000
2000
određuju naš položaj u društvu.
12:04
But partdio of the reasonrazlog --
216
700000
2000
No, drugi je razlog –
12:06
and that's the reasonrazlog why we have ethicaletički groundtlo for pursuingslijedeći these --
217
702000
4000
zbog kojega imamo etičku podlogu za produbljivanje ove teme –
12:10
is that they're alsotakođer intrinsicallyintrinzično valuablevrijedan.
218
706000
3000
taj što je ovo također i urođeno vrijedno.
12:13
It's just better to be ableu stanju to understandrazumjeti more of the worldsvijet around you
219
709000
4000
Jednostavno je bolje ako možete shvatiti svijet oko sebe
12:17
and the people that you are communicatingkomuniciranje with,
220
713000
2000
i ljude s kojima razgovarate
12:19
and to rememberzapamtiti what you have learnednaučeno.
221
715000
4000
i sjetiti se onoga što ste nekada učili.
12:23
ModalitiesModaliteta and specialposeban facultiesfakulteti.
222
719000
2000
Načini i posebne sposobnosti.
12:25
Now, the humanljudski mindum is not a singlesingl unitaryjedinični informationinformacija processorprocesor,
223
721000
5000
Dakle, ljudski um nije jedan jedinstveni informacijski procesor,
12:30
but it has a lot of differentdrugačiji, specialposeban, evolvedrazvio modulesmoduli
224
726000
4000
sastoji se od mnogo različitih posebnih, razvijenih dijelova
12:34
that do specificspecifično things for us.
225
730000
2000
koji za nas obrađuju informacije.
12:36
If you think about what we normallynormalno take as givingdavanje life a lot of its meaningznačenje --
226
732000
4000
Uzmimo stvari za koje obično smatramo da čine život vrijednim –
12:40
musicglazba, humorhumor, eroticismerotizam, spiritualityduhovnost, aestheticsestetika,
227
736000
4000
glazba, humor, erotika, duhovnost, estetika,
12:44
nurturingnjegovanje and caringbrižan, gossiptrač, chattingrazgovor with people --
228
740000
5000
odgoj i briga, trač, razgovor s ljudima...
12:49
all of these, very likelyVjerojatno, are enabledomogućeno by a specialposeban circuitrystrujni krugovi
229
745000
4000
Sve navedeno, vrlo vjerojatno, omogućuje određeni sklop
12:53
that we humansljudi have,
230
749000
2000
koji mi ljudi posjedujemo,
12:55
but that you could have anotherjoš intelligentinteligentan life formoblik that lacksnema these.
231
751000
3000
ali i to da bi mogli postojati drugi inteligentni oblici života kojima to nedostaje.
12:58
We're just luckysretan that we have the requisitepotreban neuralživčani machinerystrojevi
232
754000
3000
Možemo se nazvati sretnicima jer imamo potreban živčani sklop
13:01
to processpostupak musicglazba and to appreciatecijeniti it and enjoyuživati it.
233
757000
4000
koji nam omogućuje obradu zvuka i uživanje u glazbi.
13:05
All of these would enableomogućiti, in principlenačelo -- be amenableodgovoran to enhancementpoboljšanje.
234
761000
3000
U načelu, sve to omogućuje dobru podlogu za poboljšanja.
13:08
Some people have a better musicalmjuzikl abilitysposobnost
235
764000
2000
Neki ljudi imaju bolji
13:10
and abilitysposobnost to appreciatecijeniti musicglazba than othersdrugi have.
236
766000
2000
smisao za glazbu od drugih.
13:12
It's alsotakođer interestingzanimljiv to think about what other things are --
237
768000
3000
Također je zanimljivo zamisliti što bi bile druge stvari koje nam promiču –
13:15
so if these all enabledomogućeno great valuesvrijednosti,
238
771000
3000
dakle, ako nam ovo sve omogućuje takve vrijednosti,
13:19
why should we think that evolutionevolucija has happeneddogodilo to providepružiti us
239
775000
3000
zašto bismo mislili da nas je evolucija opskrbila
13:22
with all the modalitiesmodaliteti we would need to engageangažirati
240
778000
3000
sa svime što trebamo kako bismo se bavili
13:25
with other valuesvrijednosti that there mightmoć be?
241
781000
2000
drugim vrijednostima koje postoje?
13:27
ImagineZamislite a speciesvrsta
242
783000
2000
Zamislite vrste
13:29
that just didn't have this neuralživčani machinerystrojevi for processingobrada musicglazba.
243
785000
4000
koje jednostavno nemaju živčani sklop za obradu glazbe.
13:33
And they would just starebuljiti at us with bafflementzbunjenosti
244
789000
3000
Samo bi nas zbunjeno promatrali
13:36
when we spendprovesti time listeningslušanje to a beautifullijep performanceizvođenje,
245
792000
4000
dok provodimo vrijeme slušajući prekrasnu izvedbu,
13:40
like the one we just heardčuo -- because of people makingizrađivanje stupidglup movementspokreti,
246
796000
2000
poput one koju smo malo prije čuli – zato što, dok slušamo glazbu, radimo glupe pokrete.
13:42
and they would be really irritatedrazdražen and wouldn'tne bi see what we were up to.
247
798000
3000
Bili bi iritirani i ne bi shvaćali zašto to činimo.
13:45
But maybe they have anotherjoš facultyfakultet, something elsedrugo
248
801000
3000
No, možda oni imaju neke druge sposobnosti,
13:48
that would seemčiniti se equallyjednako irrationaliracionalan to us,
249
804000
3000
nešto što je jednako tako neshvatljivo za nas,
13:51
but they actuallyzapravo tapslavina into some great possiblemoguće valuevrijednost there.
250
807000
3000
čemu oni isto tako pridaju neku posebnu vrijednost.
13:54
But we are just literallydoslovce deafgluh to that kindljubazan of valuevrijednost.
251
810000
4000
A mi smo doslovce gluhi za takvu vrstu podražaja.
13:58
So we could think of addingdodajući on differentdrugačiji,
252
814000
2000
Mogli bismo pokušati dodati neke drukčije,
14:00
newnovi sensoryčulni capacitieskapaciteti and mentalmentalni facultiesfakulteti.
253
816000
4000
nove senzorne kapacitete i mentalne sposobnosti.
14:04
BodilyTjelesne functionalityfunkcionalnost and morphologymorfologija and affectiveemocionalan self-controlSamo kontrola.
254
820000
5000
Tjelesne funkcije i morfologija i afektivna samokontrola.
14:09
GreaterVeće subjectivesubjektivan well-beingblagostanje.
255
825000
2000
Subjektivno bolji život.
14:11
Be ableu stanju to switchprekidač betweenizmeđu relaxationopuštanje and activityaktivnost --
256
827000
3000
Biti sposoban prebaciti se brzo između stanja opuštanja i aktivnosti –
14:14
beingbiće ableu stanju to go slowusporiti when you need to do that, and to speedubrzati up.
257
830000
4000
biti sposoban po potrebi usporiti ili ubrzati.
14:18
AbleU mogućnosti to switchprekidač back and forthdalje more easilylako
258
834000
2000
Bilo bi odlično kada bi se tako
14:20
would be a neaturedan thing to be ableu stanju to do --
259
836000
2000
mogli lakše prebacivati –
14:22
easierlakše to achievepostići the flowteći statedržava,
260
838000
2000
kada bismo brzo mogli doći do stanja
14:24
when you're totallypotpuno immerseduronjen in something you are doing.
261
840000
4000
u kojemu smo u potpunosti mislima uronjeni u to što trenutno činimo.
14:28
ConscientiousnessSavjesnosti and sympathysimpatija.
262
844000
2000
Svijest i naklonost.
14:30
The abilitysposobnost to -- it's anotherjoš interestingzanimljiv applicationprimjena
263
846000
3000
Sposobnost da.. – to je još jedna vrlo zanimljiva primjena
14:33
that would have largeveliki socialsocijalni ramificationrazgranjavanje, perhapsmožda.
264
849000
3000
mogućih novih tehnologija oko koje bi se u društvu mogla lomiti koplja.
14:36
If you could actuallyzapravo chooseizabrati to preservesačuvati your romanticromantičan attachmentspriloge to one personosoba,
265
852000
6000
Kada biste zapravo mogli odlučiti zadržati romantične osjećaje za neku osobu,
14:42
undiminishednesmanjen throughkroz time,
266
858000
2000
koji ne bi vremenom blijedili,
14:44
so that wouldn'tne bi have to -- love would never have to fadeuvenuti if you didn't want it to.
267
860000
3000
tako da ljubav više nikad ne bi morala nestati ako to ne želite..
14:49
That's probablyvjerojatno not all that difficulttežak.
268
865000
3000
To sve vrlo vjerojatno nije tako komplicirano.
14:52
It mightmoć just be a simplejednostavan hormonehormon or something that could do this.
269
868000
3000
Možda se jednostavno samo radi o jednom hormonu kojim bi se to moglo pospješiti.
14:57
It's been doneučinio in volesvoluharice.
270
873000
2000
To je već učinjeno kod voluharica.
15:01
You can engineerinženjer a prairieprerija volepoljski miš to becomepostati monogamousmonogamski
271
877000
3000
Inžinjeringom možete pospješiti da prerijska voluharica postane monogamna
15:04
when it's naturallyprirodno polygamouspoligamski.
272
880000
2000
iako je po prirodi poligamna.
15:06
It's just a singlesingl genegen.
273
882000
2000
U pitanju je samo jedan gen.
15:08
MightMožda be more complicatedsložen in humansljudi, but perhapsmožda not that much.
274
884000
2000
Vjerojatno je kompliciranije kod ljudi, no možda i nije toliko koliko mislimo da jest.
15:10
This is the last pictureslika that I want to --
275
886000
2000
Ovo je zadnja slika koju želim... –
15:13
now we'veimamo got to use the laserlaser pointerpokazivač.
276
889000
2000
dakle, pokazat ću vam laserom.
15:16
A possiblemoguće modenačin of beingbiće here would be a way of life --
277
892000
3000
Mogući oblik postojanja bi bio oblik života –
15:19
a way of beingbiće, experiencingdoživljava, thinkingmišljenje, seeingvidim,
278
895000
4000
način postojanja, doživljavanja, razmišljanja, viđenja
15:23
interactingu interakciji with the worldsvijet.
279
899000
2000
i interakcije sa ostatkom svijeta.
15:25
Down here in this little cornerugao, here, we have the little sub-spacesub-mjesto
280
901000
5000
Ovdje dolje, u ovom malom kutu, ovdje, vidimo mali krug
15:30
of this largerveći spaceprostor that is accessibledostupan to humanljudski beingsbića --
281
906000
4000
koji je dio ovog većeg kruga što prikazuje zapravo dio svijeta koji je pristupačan nama ljudima –
15:34
beingsbića with our biologicalbiološki capacitieskapaciteti.
282
910000
3000
stvorenjima s našim biološkim kapacitetom.
15:37
It's a partdio of the spaceprostor that's accessibledostupan to animalsživotinje;
283
913000
3000
Ovo je dio svijeta koji je pristupačan životinjama,
15:40
sinceod we are animalsživotinje, we are a subsetpodset of that.
284
916000
3000
budući da smo i mi životinje, naš je krug dio tog kruga.
15:43
And then you can imaginezamisliti some enhancementspoboljšanja of humanljudski capacitieskapaciteti.
285
919000
4000
Zamislite da poboljšamo ljudske biološke kapacitete.
15:47
There would be differentdrugačiji modesnačini of beingbiće you could experienceiskustvo
286
923000
3000
Toliko bismo toga različitog mogli proživjeti kada bismo,
15:50
if you were ableu stanju to stayboravak aliveživ for, say, 200 yearsgodina.
287
926000
3000
recimo, mogli živjeti 200 godina.
15:53
Then you could liveživjeti sortsvrste of livesživot and accumulateakumulirati wisdomsmudrosti
288
929000
4000
Mogli bismo živjeti drukčijim životom – mogli bismo nakupiti mudrosti
15:57
that are just not possiblemoguće for humansljudi as we currentlytrenutno are.
289
933000
3000
tijekom proživljenih godina, više nego što je to trenutno moguće prosječnom čovjeku.
16:00
So then, you movepotez off to this largerveći spheresfera of "humanljudski +,"
290
936000
4000
Tako bismo mogli doći do ove veće sfere –
16:04
and you could continuenastaviti that processpostupak and eventuallyeventualno
291
940000
3000
i tako nastaviti taj proces i
16:07
exploreistražiti a lot of this largerveći spaceprostor of possiblemoguće modesnačini of beingbiće.
292
943000
4000
istražiti velik dio ove najveće, nama potpuno nepoznate sfere života.
16:11
Now, why is that a good thing to do?
293
947000
2000
Zašto bi to bilo dobro?
16:13
Well, we know alreadyveć that in this little humanljudski circlekrug there,
294
949000
4000
Dakle, znamo već kako u ovom malom krugu – koji označava svijet pristupačan čovjeku –
16:17
there are these enormouslyogromno wonderfulpredivan and worthwhilevrijedan truda modesnačini of beingbiće --
295
953000
4000
postoje nevjerojatno prekrasni trenutci u životu –
16:21
humanljudski life at its bestnajbolje is wonderfulpredivan.
296
957000
3000
život je prekrasan kada je na svom vrhuncu.
16:24
We have no reasonrazlog to believe that withinunutar this much, much largerveći spaceprostor
297
960000
5000
Nemamo razloga ne vjerovati da u ovom mnogo većem prostoru
16:29
there would not alsotakođer be extremelykrajnje worthwhilevrijedan truda modesnačini of beingbiće,
298
965000
4000
postoji nešto što može nezamislivo poboljšati naš način života.
16:33
perhapsmožda onesone that would be way beyondIznad our wildestnajluđim abilitysposobnost
299
969000
6000
Možda nešto što ne bismo mogli
16:39
even to imaginezamisliti or dreamsan about.
300
975000
2000
ni zamisliti..
16:41
And so, to fixpopraviti this thirdtreći problemproblem,
301
977000
2000
I tako – da bismo mogli rješiti ovaj treći veliki problem,
16:43
I think we need -- slowlypolako, carefullypažljivo, with ethicaletički wisdommudrost and constraintograničenje --
302
979000
6000
mislim da bismo trebali – polako, strogo, pažljivo i s etičkom mudrošću –
16:49
developrazviti the meanssredstva that enableomogućiti us to go out in this largerveći spaceprostor and exploreistražiti it
303
985000
5000
razviti sredstva koja nam mogu omogućiti ulazak i istraživanje ovog velikog kruga.
16:54
and find the great valuesvrijednosti that mightmoć hidesakriti there.
304
990000
2000
I tako istražiti vrijednosti koje se tamo možda kriju.
16:56
ThanksHvala.
305
992000
2000
Hvala.
Translated by Senzos Osijek
Reviewed by Romana Perković

▲Back to top

ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com