ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com
TEDGlobal 2005

Nick Bostrom: A philosophical quest for our biggest problems

Nick Bostrom: Legnagyobb gondjaink kutatása – filozófiai nézőpontból

Filmed:
967,767 views

Nick Bostrom oxfordi filozófus és transzhumanista górcső alá veszi az emberiség jövőjét, és fölteszi a kérdést: vajon megváltoztathatjuk-e az alapvető emberi természetet, hogy megoldhassuk a legégetőbb gondjainkat?
- Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us? Full bio

Double-click the English transcript below to play the video.

00:24
I want to talk todayMa about --
0
0
3000
Ma szeretnék beszélni a...
00:27
I've been askedkérdezte to take the long viewKilátás, and I'm going to tell you what
1
3000
6000
Arra kértek, tekintsek a jövőbe,
ezért arról fogok beszélni,
00:33
I think are the threehárom biggestlegnagyobb problemsproblémák for humanityemberiség
2
9000
4000
hogy nézetem szerint
mi az emberiség három fő gondja
00:37
from this long pointpont of viewKilátás.
3
13000
3000
e hosszú távú kitekintésben.
Némelyiket más előadók már érintették,
00:40
Some of these have alreadymár been touchedérintett uponesetén by other speakershangszórók,
4
16000
3000
00:43
whichmelyik is encouragingbátorító.
5
19000
2000
és ez biztató.
00:45
It seemsÚgy tűnik, that there's not just one personszemély
6
21000
2000
Nem állok egyedül a véleményemmel,
00:47
who thinksazt hiszi that these problemsproblémák are importantfontos.
7
23000
2000
hogy ezek fontos kérdések.
00:49
The first is -- deathhalál is a bignagy problemprobléma.
8
25000
4000
Az első nagy kérdés – a halál.
00:53
If you look at the statisticsstatisztika,
9
29000
3000
Ha megnézzük a statisztikát,
00:56
the oddsesély are not very favorablekedvező to us.
10
32000
2000
esélyeink nemigen kedvezőek.
00:58
So farmessze, mosta legtöbb people who have livedélt have alsois diedmeghalt.
11
34000
4000
A legtöbben azok közül, akik valaha
éltek, mára már halottak.
01:02
RoughlyNagyjából 90 percentszázalék of everybodymindenki who has been aliveélő has diedmeghalt by now.
12
38000
4000
A valaha éltek 90%-a mára már halott.
01:06
So the annualévi deathhalál ratearány addshozzáteszi up to 150,000 --
13
42000
6000
Évente... elnézést, naponta
01:12
sorry, the dailynapi deathhalál ratearány -- 150,000 people perper day,
14
48000
3000
150 000 ember hal meg.
01:15
whichmelyik is a hugehatalmas numberszám by any standardalapértelmezett.
15
51000
3000
Ez minden szempontból nagy szám.
01:18
The annualévi deathhalál ratearány, then, becomesválik 56 millionmillió.
16
54000
5000
Ebből adódik, hogy évente
56 milliónyian halnak meg.
01:23
If we just look at the singleegyetlen, biggestlegnagyobb causeok of deathhalál -- agingöregedés --
17
59000
5000
Ha csupán az egyszerű
s legnagyobb okot, az öregedést vesszük,
ez teszi ki a halálesetek kétharmadát.
01:29
it accountsfiókok for roughlynagyjából two-thirdskétharmadát of all humanemberi people who diemeghal.
18
65000
5000
01:34
That addshozzáteszi up to an annualévi deathhalál tolldíj
19
70000
3000
Évente többen halnak meg
az öregedés miatt,
01:37
of greaternagyobb than the populationnépesség of CanadaKanada.
20
73000
2000
mint Kanada lélekszáma.
01:39
SometimesNéha, we don't see a problemprobléma
21
75000
2000
Néha nem vesszük észre a problémát,
01:41
because eitherbármelyik it's too familiarismerős or it's too bignagy.
22
77000
4000
mert vagy túl ismert, vagy túl kiterjedt.
01:45
Can't see it because it's too bignagy.
23
81000
2000
A fától nem látjuk az erdőt.
01:47
I think deathhalál mightesetleg be bothmindkét too familiarismerős and too bignagy
24
83000
3000
A halálra mindkettő igaz lehet:
túl ismert és túl nagy kérdés ahhoz,
01:50
for mosta legtöbb people to see it as a problemprobléma.
25
86000
3000
hogy a legtöbben problémaként kezeljék.
Látható, hogy a lényeg
nem a statisztika...
01:53
OnceEgyszer you think about it, you see this is not statisticalstatisztikai pointspont;
26
89000
2000
01:55
these are -- let's see, how farmessze have I talkedbeszélt?
27
91000
2000
...mióta beszélek?
01:57
I've talkedbeszélt for threehárom minutespercek.
28
93000
3000
Három perce.
02:00
So that would be, roughlynagyjából, 324 people have diedmeghalt sincemivel I've begunmegkezdett speakingbeszélő.
29
96000
7000
Ez idő alatt kb. 324-en haltak meg.
02:07
People like -- it's roughlynagyjából the populationnépesség in this roomszoba has just diedmeghalt.
30
103000
4000
Kb. annyian, ahányan itt ülnek a teremben.
02:12
Now, the humanemberi costköltség of that is obviousnyilvánvaló,
31
108000
2000
Az emberi veszteség nyilvánvaló,
02:14
onceegyszer you startRajt to think about it -- the sufferingszenvedő, the lossveszteség --
32
110000
3000
ha meggondoljuk: szenvedés, veszteség –,
02:17
it's alsois, economicallygazdaságosan, enormouslyóriási wastefulpazarló.
33
113000
3000
gazdaságilag is hatalmas tékozlás.
02:20
I just look at the informationinformáció, and knowledgetudás, and experiencetapasztalat
34
116000
3000
Tekintsük csak az információt,
tudást és tapasztalatot,
02:23
that is lostelveszett dueesedékes to naturaltermészetes causesokoz of deathhalál in generalTábornok,
35
119000
3000
ami általában természetes halálok
miatt ment veszendőbe,
02:26
and agingöregedés, in particularkülönös.
36
122000
2000
konkrétan öregedés miatt.
02:28
SupposeTegyük fel, hogy we approximatedközelített one personszemély with one bookkönyv?
37
124000
3000
Tegyük föl, hogy egy személy
megfelel egy könyvnek.
02:31
Now, of coursetanfolyam, this is an underestimationalábecslés.
38
127000
2000
Ezzel persze alulértékeljük a személyt,
02:33
A person'sszemély lifetimeélettartam of learningtanulás and experiencetapasztalat
39
129000
6000
hiszen az élete során megszerzett
tudás és tapasztalat sokkal többet ér,
02:39
is a lot more than you could put into a singleegyetlen bookkönyv.
40
135000
2000
mint amennyi egy könyvbe beleférhetne.
02:41
But let's supposetegyük fel we did this.
41
137000
2000
De azért tételezzük föl.
02:44
52 millionmillió people diemeghal of naturaltermészetes causesokoz eachminden egyes yearév
42
140000
5000
Évente 52 milliónyian halnak meg
természetes okok miatt.
02:49
correspondsmegfelel, then, to 52 millionmillió volumeskötetek destroyedelpusztított.
43
145000
4000
ez 52 millió kötetnek felel meg.
02:53
LibraryKönyvtár of CongressKongresszus holdstart 18 millionmillió volumeskötetek.
44
149000
3000
A Kongresszusi Könyvtár
18 millió kötetes.
Föl vagyunk dúlva amiatt,
hogy leégett az alexandriai könyvtár.
02:57
We are upsetszomorú about the burningégő of the LibraryKönyvtár of AlexandriaAlexandria.
45
153000
3000
03:00
It's one of the great culturalkulturális tragediestragédiák
46
156000
2000
Ez egyike a nagy kulturális tragédiáknak,
03:02
that we rememberemlékezik, even todayMa.
47
158000
3000
amire még ma is emlékszünk.
De az 3 leégett, örökre elveszett
03:06
But this is the equivalentegyenértékű of threehárom LibrariesKönyvtárak of CongressKongresszus --
48
162000
2000
03:08
burntmegégett down, foreverörökké lostelveszett -- eachminden egyes yearév.
49
164000
3000
Kongresszusi Könyvtárral ér föl – évente.
03:11
So that's the first bignagy problemprobléma.
50
167000
2000
Ez lenne az első óriási kérdés.
03:13
And I wishszeretnék GodspeedJókívánság to AubreyAubrey dede GreySzürke,
51
169000
3000
Isten vezérelje Aubrey de Greyt,
sok sikert kívánok neki
03:16
and other people like him,
52
172000
2000

és a hozzá hasonlóknak,
03:18
to try to do something about this as soonhamar as possiblelehetséges.
53
174000
3000
hogy minél előbb megoldást találjanak.
03:22
ExistentialEgzisztenciális riskkockázat -- the secondmásodik bignagy problemprobléma.
54
178000
3000
A másik nagy kérdés
az egzisztenciális kockázat.
03:25
ExistentialEgzisztenciális riskkockázat is a threatfenyegetés to humanemberi survivaltúlélés, or to the long-termhosszútávú potentiallehetséges of our speciesfaj.
55
181000
7000
Az egzisztenciális kockázat
az emberi faj fönnmaradását fenyegeti.
03:32
Now, why do I say that this is a bignagy problemprobléma?
56
188000
2000
Miért tartom ezt nagy problémának?
03:34
Well, let's first look at the probabilityvalószínűség --
57
190000
4000
Nézzük elsőként a valószínűséget,
03:38
and this is very, very difficultnehéz to estimatebecslés --
58
194000
3000
noha azt nagyon nehéz felbecsülni,
03:41
but there have been only fournégy studiestanulmányok on this in recentfriss yearsévek,
59
197000
3000
de erről meglepő módon
csak négy tanulmány készült
03:44
whichmelyik is surprisingmeglepő.
60
200000
2000
az utóbbi időkben.
03:46
You would think that it would be of some interestérdeklődés
61
202000
3000
Gondolhatnák, hogy érdekes lenne
03:49
to try to find out more about this givenadott that the stakestét are so bignagy,
62
205000
4000
jobban megismerni a témát,
ha már ekkora a tét.
03:53
but it's a very neglectedelhanyagolt areaterület.
63
209000
2000
De e témát nemigen kutatják.
03:55
But there have been fournégy studiestanulmányok --
64
211000
2000
A négy kutatás közül az egyik
03:57
one by JohnJohn LesleyLesley, wroteírt a bookkönyv on this.
65
213000
2000
John Lesley-é, aki könyvet írt róla.
03:59
He estimatedbecsült a probabilityvalószínűség that we will failnem sikerül
66
215000
2000
Annak valószínűségét, hogy nem éljük túl
04:01
to survivetúlélni the currentjelenlegi centuryszázad: 50 percentszázalék.
67
217000
3000
a 21. századot, 50%-ra becsülte.
04:04
SimilarlyHasonlóképpen, the AstronomerCsillagász RoyalRoyal, whomkit we heardhallott speakbeszél yesterdaytegnap,
68
220000
5000
A tegnap hallott királyi csillagász is
04:09
alsois has a 50 percentszázalék probabilityvalószínűség estimatebecslés.
69
225000
3000
50%-ot jelölt meg.
04:12
AnotherEgy másik authorszerző doesn't give any numericalszámszerű estimatebecslés,
70
228000
3000
Egy másik szerző ugyan nem számszerűsíti,
04:15
but saysmondja the probabilityvalószínűség is significantjelentős that it will failnem sikerül.
71
231000
3000
de szerinte a valószínűség
szignifikánsan a "nem éljük túl".
04:18
I wroteírt a long paperpapír on this.
72
234000
3000
Hosszú cikkemben azt írtam erről,
04:21
I said assigninghozzárendelése a lessKevésbé than 20 percentszázalék probabilityvalószínűség would be a mistakehiba
73
237000
4000
hogy 20%-nál kisebb valószínűséget
tulajdonítani neki hiba lenne
04:25
in lightfény of the currentjelenlegi evidencebizonyíték we have.
74
241000
3000
a rendelkezésünkre álló
bizonyítékok fényében.
04:28
Now, the exactpontos figuresszámadatok here,
75
244000
2000
A pontos számok rendelkezésre állnak,
04:30
we should take with a bignagy graingabona of salt,
76
246000
2000
ám óvatosan kell értékelnünk őket;
04:32
but there seemsÚgy tűnik, to be a consensusmegegyezés that the riskkockázat is substantiallényeges.
77
248000
3000
bár abban megegyezhetünk,
hogy a kockázat jelentős.
04:35
EverybodyMindenki who has lookednézett at this and studiedtanult it agreesegyetért.
78
251000
3000
Aki e munkákat ismeri, mind egyetért vele.
04:38
Now, if we think about what just reducingcsökkentő
79
254000
2000
Ha arra gondolunk, mi csökkenti
04:40
the probabilityvalószínűség of humanemberi extinctionkihalás by just one percentageszázalék pointpont --
80
256000
5000
az emberiség kihalásának esélyét
nem sokkal, csupán 1 százalékponttal,
04:45
not very much -- so that's equivalentegyenértékű to 60 millionmillió liveséletét savedmentett,
81
261000
5000
ez egyenlő 60 millió
megmentett emberi élettel,
04:50
if we just countszámol the currentlyjelenleg livingélő people, the currentjelenlegi generationgeneráció.
82
266000
4000
ha csak a mai nemzedéket,
a jelenleg élőket vesszük számításba.
04:54
Now one percentszázalék of sixhat billionmilliárd, ezermillió people is equivalentegyenértékű to 60 millionmillió.
83
270000
4000
A 6 milliárd 1%-a 60 millió.
04:58
So that's a largenagy numberszám.
84
274000
2000
Ez óriási szám.
05:00
If we were to take into accountszámla futurejövő generationsgenerációk
85
276000
3000
Ha a jövendő nemzedékeket is tekintjük,
05:03
that will never come into existencelétezés if we blowfúj ourselvesminket up,
86
279000
5000
amelyek sohasem születnek meg,
ha elpusztítjuk magunkat,
05:08
then the figureábra becomesválik astronomicalcsillagászati.
87
284000
3000
rögtön csillagászati számot kapunk.
05:11
If we could eventuallyvégül is colonizemeghódít a chunknagy darab of the universevilágegyetem --
88
287000
3000
Ha végül gyarmatosítjuk
az univerzum jó részét,
05:14
the VirgoVirgo superclusterszuperhalmaz --
89
290000
2000
pl. a Szűz csillagképet,
05:16
maybe it will take us 100 millionmillió yearsévek to get there,
90
292000
2000
lehet, hogy 100 millió év alatt érünk oda,
05:18
but if we go extinctkihalt we never will.
91
294000
3000
de ha kihalunk,
tényleg soha nem érünk oda.
05:21
Then, even a one percentageszázalék pointpont reductioncsökkentés
92
297000
3000
A kihalási kockázat csökkenésének 1%-a
05:24
in the extinctionkihalás riskkockázat could be equivalentegyenértékű
93
300000
4000
egyenlő lehet
05:28
to this astronomicalcsillagászati numberszám -- 10 to the powererő of 32.
94
304000
3000
ezzel a csillagászati számmal: 10³².
05:31
So if you take into accountszámla futurejövő generationsgenerációk as much as our ownsaját,
95
307000
4000
Ha a jövő nemzedékeit is
figyelembe vesszük, mint a miénket,
05:35
everyminden other moralerkölcsi imperativeparancsoló of philanthropicfilantróp costköltség just becomesválik irrelevantirreleváns.
96
311000
5000
akkor minden más emberbaráti erkölcsi
kényszerítő erő semmissé válik.
05:40
The only thing you should focusfókusz on
97
316000
2000
Akkor csakis
az egzisztenciális kockázat
csökkentésével kell törődnünk,
05:42
would be to reducecsökkentésére existentialegzisztenciális riskkockázat
98
318000
2000
05:44
because even the tiniestlegapróbb decreasecsökken in existentialegzisztenciális riskkockázat
99
320000
4000
mert szemernyi csökkenés is
05:48
would just overwhelmelborít any other benefithaszon you could hoperemény to achieveelér.
100
324000
4000
ellensúlyozza az összes
többi remélt előnyt.
05:52
And even if you just look at the currentjelenlegi people,
101
328000
2000
A jelenlegi emberiség láttán
05:54
and ignorefigyelmen kívül hagyni the potentiallehetséges that would be lostelveszett if we wentment extinctkihalt,
102
330000
5000
és figyelmen kívül hagyva
az elvesző lehetőségeket, ha kihalnánk,
05:59
it should still have a highmagas prioritykiemelten fontos.
103
335000
2000
nem vitás, melyiket válasszuk.
06:01
Now, let me spendtölt the restpihenés of my time on the thirdharmadik bignagy problemprobléma,
104
337000
5000
A maradék időt a harmadik
nagy gondra fordítom,
06:06
because it's more subtleapró and perhapstalán difficultnehéz to graspfogás.
105
342000
5000
mert az kényesebb, szövevényesebb
és nehezebben megfogható.
06:12
Think about some time in your life --
106
348000
4000
Gondoljanak életük olyan időszakára,
06:16
some people mightesetleg never have experiencedtapasztalt it -- but some people,
107
352000
3000
– egyesek talán soha nem éreztek ilyet,
de mások igen –,
06:19
there are just those momentspillanatok that you have experiencedtapasztalt
108
355000
3000
amikor rövid időre úgy érezték,
06:22
where life was fantasticfantasztikus.
109
358000
2000
hogy az élet nagyszerű.
06:24
It mightesetleg have been at the momentpillanat of some great, creativekreatív inspirationihlet
110
360000
7000
Lehet, hogy ez valami nagy alkotói
ihlet állapotában fordult elő,
amikor belecsöppentek
a flow-élmény állapotába.
06:31
you mightesetleg have had when you just enteredlépett this flowfolyam stageszínpad.
111
367000
2000
06:33
Or when you understoodmegértett something you had never doneKész before.
112
369000
2000
Vagy amikor hirtelen megértettek valamit.
06:35
Or perhapstalán in the ecstasyeksztázis of romanticromantikus love.
113
371000
4000
Vagy a romantikus szerelem mámorában.
06:39
Or an aestheticesztétika experiencetapasztalat -- a sunsetnapnyugta or a great piecedarab of artművészet.
114
375000
5000
Vagy esztétikai élmény idején: naplemente
vagy nagyszerű műalkotás láttán.
06:44
EveryMinden onceegyszer in a while we have these momentspillanatok,
115
380000
2000
E pillanatokban rádöbbenünk,
06:46
and we realizemegvalósítani just how good life can be when it's at its bestlegjobb.
116
382000
4000
hogy milyen nagyszerű az élet
a maga pompájában.
06:50
And you wondercsoda, why can't it be like that all the time?
117
386000
5000
Azon tűnődünk, miért nincs ez így mindig.
06:55
You just want to clingragaszkodik onto-ra this.
118
391000
2000
Foggal-körömmel kapaszkodnánk belé.
06:57
And then, of coursetanfolyam, it driftssodródik back into ordinaryrendes life and the memorymemória fadeselhalványul.
119
393000
4000
Aztán persze, minden visszacsúszik
a megszokottba, és az álomkép elillan.
07:01
And it's really difficultnehéz to recallvisszahívás, in a normalnormál framekeret of mindelme,
120
397000
4000
Normál lelkiállapotban
tényleg nehéz fölidézni,
07:05
just how good life can be at its bestlegjobb.
121
401000
3000
hogy milyen nagyszerű az élet
a maga pompájában.
07:08
Or how badrossz it can be at its worstlegrosszabb.
122
404000
3000
Vagy milyen szörnyű,
amikor csapás csapást ér.
07:11
The thirdharmadik bignagy problemprobléma is that life isn't usuallyáltalában
123
407000
3000
A harmadik nagy gond,
hogy az élet nem oly csodás,
07:14
as wonderfulcsodálatos as it could be.
124
410000
2000
mint amilyen lehetne.
07:16
I think that's a bignagy, bignagy problemprobléma.
125
412000
4000
Ezt nagy gondnak tartom.
07:20
It's easykönnyen to say what we don't want.
126
416000
2000
Könnyű elmondani, mit nem akarunk.
07:23
Here are a numberszám of things that we don't want --
127
419000
3000
Van egy pár nemszeretem dolog:
07:26
illnessbetegség, involuntaryakaratlan deathhalál, unnecessaryszükségtelen sufferingszenvedő, crueltykegyetlenség,
128
422000
3000
betegség, váratlan haláleset,
fölös szenvedés, bántalmazás,
07:29
stuntedsatnya growthnövekedés, memorymemória lossveszteség, ignorancetudatlanság, absencetávollét of creativitykreativitás.
129
425000
5000
fejlődési hiba, emlékezetvesztés,
tudatlanság, kreativitáshiány.
Tegyük föl, hogy ezeket megoldottuk,
valamit kezdtünk mindegyikkel.
07:35
SupposeTegyük fel, hogy we fixedrögzített these things -- we did something about all of these.
130
431000
3000
07:38
We were very successfulsikeres.
131
434000
2000
Sikeresek voltunk.
07:40
We got ridmegszabadít of all of these things.
132
436000
2000
Megszabadultunk ezektől.
07:42
We mightesetleg endvég up with something like this,
133
438000
3000
Valami ilyesmit tehettünk volna.
07:45
whichmelyik is -- I mean, it's a heckfene of a lot better than that.
134
441000
4000
Sokkal jobb a helyzet, mint korábban,
07:49
But is this really the bestlegjobb we can dreamálom of?
135
445000
5000
de tényleg ez a legjobb,
az, amiről álmodoztunk?
07:54
Is this the bestlegjobb we can do?
136
450000
2000
Ennyit tudunk csak elérni?
07:56
Or is it possiblelehetséges to find something a little bitbit more inspiringinspiráló to work towardsfelé?
137
452000
6000
Vagy van valami lelkesítőbb,
amire törekedhetnénk?
08:02
And if we think about this,
138
458000
2000
Ha belegondolunk,
08:04
I think it's very clearegyértelmű that there are waysmódokon
139
460000
4000
igenis vannak módszereink,
amikkel változtathatunk a helyzeten;
08:08
in whichmelyik we could changeváltozás things, not just by eliminatingmegszüntetése negativesnegatívok,
140
464000
3000
nemcsak a negatívumok eltörlésével,
08:11
but addinghozzátéve positivespozitívumok.
141
467000
2000
hanem pozitívumok hozzáadásával is.
08:13
On my wishszeretnék listlista, at leastlegkevésbé, would be:
142
469000
2000
A szűk kívánságlistámon ez áll:
08:15
much longerhosszabb, healthieregészségesebb liveséletét, greaternagyobb subjectiveszubjektív well-beingjólét,
143
471000
5000
sokkal hosszabb és egészségesebb élet,
több boldogság, nagyobb jólét,
08:20
enhancedfokozott cognitivemegismerő capacitieskapacitások, more knowledgetudás and understandingmegértés,
144
476000
5000
a kognitív képességek bővítése,
több tudás és megértés,
08:25
unlimitedkorlátlan opportunitylehetőség for personalszemélyes growthnövekedés
145
481000
2000
biológiai adottságainkon túli
korlátlan lehetőségek
08:27
beyondtúl our currentjelenlegi biologicalbiológiai limitshatárok, better relationshipskapcsolatok,
146
483000
4000
a személyiségfejlődésben,
jobb emberi kapcsolatok,
08:31
an unboundedhatártalan potentiallehetséges for spirituallelki, moralerkölcsi
147
487000
2000
korlátlan lehetőségek a szellemi,
08:33
and intellectualszellemi developmentfejlődés.
148
489000
2000
erkölcsi és értelmi fejlődésre.
08:35
If we want to achieveelér this, what, in the worldvilág, would have to changeváltozás?
149
491000
8000
Ennek eléréséhez mit kell
változtatnunk a világon?
08:43
And this is the answerválasz -- we would have to changeváltozás.
150
499000
5000
A válasz a következő:
magunkon kell változtatnunk.
08:48
Not just the worldvilág around us, but we, ourselvesminket.
151
504000
3000
Nem pusztán a világon,
hanem saját magunkon.
08:51
Not just the way we think about the worldvilág, but the way we are -- our very biologybiológia.
152
507000
4000
Nemcsak világfölfogásunkon,
hanem magunkon, önnön biológiánkon.
08:55
HumanEmberi naturetermészet would have to changeváltozás.
153
511000
2000
Az emberi természetnek
kell megváltoznia.
08:57
Now, when we think about changingváltozó humanemberi naturetermészet,
154
513000
2000
Amikor az emberi természet
módosításáról van szó,
08:59
the first thing that comesjön to mindelme
155
515000
2000
elsőként
09:01
are these humanemberi modificationmódosítás technologiestechnológiák --
156
517000
4000
az ember megváltoztatásának
technikája jut eszünkbe:
a növekedéshormon-terápia,
plasztikai sebészet,
09:05
growthnövekedés hormonehormon therapyterápia, cosmetickozmetika surgerysebészet,
157
521000
2000
09:07
stimulantsstimulánsok like RitalinRitalin, AdderallAdderall, anti-depressantsantidepresszánsok,
158
523000
3000
serkentőszerek, antidepresszánsok,
09:10
anabolicanabolikus steroidsszteroidok, artificialmesterséges heartsszívek.
159
526000
2000
anabolikus szteroidok, műszívek.
09:12
It's a prettyszép patheticszánalmas listlista.
160
528000
3000
Eléggé szánalmas lista.
09:15
They do great things for a fewkevés people
161
531000
2000
Segítenek egy adott embercsoporton,
09:17
who sufferszenvedni from some specifickülönleges conditionfeltétel,
162
533000
2000
amely egy bizonyos helyzettől szenved.
09:19
but for mosta legtöbb people, they don't really transformátalakít
163
535000
5000
De a legtöbbjüknek nem változtatnak azon,
09:24
what it is to be humanemberi.
164
540000
2000
mit jelent embernek lenni.
09:26
And they alsois all seemlátszik a little bitbit --
165
542000
2000
Ők mind egy kissé...
09:28
mosta legtöbb people have this instinctösztön that, well, sure,
166
544000
3000
A legtöbben ösztönösen úgy érzik,
hogy a leverteknek kellenek
az antidepresszánsok.
09:31
there needsigények to be anti-depressantsantidepresszánsok for the really depressednyomott people.
167
547000
2000
09:33
But there's a kindkedves of queasinessémelygés
168
549000
2000
De úgy érezzük, hogy van ebben
09:35
that these are unnaturaltermészetellenes in some way.
169
551000
3000
valami természetellenes.
09:38
It's worthérdemes recallingemlékeztetve that there are a lot of other
170
554000
2000
Ne feledjük, hogy sok más módosító
09:40
modificationmódosítás technologiestechnológiák and enhancementfokozás technologiestechnológiák that we use.
171
556000
3000
és tökéletesítő technológia is létezik;
használjuk is őket.
09:43
We have skinbőr enhancementsfejlesztések, clothingruházat.
172
559000
4000
Pl. a bőrjavító: ez a ruházat.
09:47
As farmessze as I can see, all of you are usersfelhasználók of this
173
563000
4000
Ha nem tévedek, a teremben ülők közül
09:51
enhancementfokozás technologytechnológia in this roomszoba, so that's a great thing.
174
567000
5000
mindenki használja e technológiát;
tehát a dolog bevált.
09:56
MoodHangulat modifiersmódosítók have been used from time immemorialidőtlen --
175
572000
3000
Időtlen idők óta használjuk
a hangulatjavítókat:
09:59
caffeinekoffein, alcoholalkohol, nicotinenikotin, immuneimmúnis systemrendszer enhancementfokozás,
176
575000
5000
koffeint, szeszt, nikotint,
immunrendszer-erősítőket,
10:04
visionlátomás enhancementfokozás, anestheticsérzéstelenítők --
177
580000
2000
látásjavítókat, érzéstelenítőket.
10:06
we take that very much for grantedmegadott,
178
582000
2000
Maguktól értetődőnek vesszük őket,
10:08
but just think about how great progressHaladás that is --
179
584000
4000
de gondoljanak arra, hogy ez
micsoda haladás,
10:12
like, havingamelynek an operationművelet before anestheticsérzéstelenítők was not funmóka.
180
588000
4000
hiszen az érzéstelenítés nélküli
műtét nem volt leányálom.
10:16
ContraceptivesFogamzásgátlók, cosmeticskozmetikum and brainagy reprogrammingátprogramozása techniquestechnikák --
181
592000
6000
Fogamzásgátlók, kozmetikumok
és az agy átprogramozása...
10:22
that soundshangok ominousbaljóslatú,
182
598000
2000
ez baljóslatúan hangzik,
10:24
but the distinctionmegkülönböztetés betweenközött what is a technologytechnológia --
183
600000
4000
de hajszálnyi a különbség a technológia,
10:28
a gadgeteszköz would be the archetypeőstípus --
184
604000
2000
a prototípus
10:30
and other waysmódokon of changingváltozó and rewritingátírás humanemberi naturetermészet is quiteegészen subtleapró.
185
606000
4000
és az emberi természet átírása között.
10:34
So if you think about what it meanseszközök to learntanul arithmeticszámtan or to learntanul to readolvas,
186
610000
4000
Ha a számolás vagy az olvasás
megtanulására gondolnak,
10:38
you're actuallytulajdonképpen, literallyszó szerint rewritingátírás your ownsaját brainagy.
187
614000
3000
voltaképpen átírják az agyukat.
10:41
You're changingváltozó the microstructuremikroszerkezet of your brainagy as you go alongmentén.
188
617000
3000
Eközben módosítják agyuk mikroszerkezetét.
Szélesebb értelemben a technológiára
10:45
So in a broadszéles senseérzék, we don't need to think about technologytechnológia
189
621000
3000
10:48
as only little gadgetskészülékek, like these things here,
190
624000
2000
nem csak mint kütyükre kell gondolnunk,
10:50
but even institutionsintézmények and techniquestechnikák,
191
626000
4000
hanem mint intézményekre, technikára,
10:54
psychologicalpszichológiai methodsmód and so forthtovább.
192
630000
2000
pszichológiai módszerekre stb. is.
10:56
FormsŰrlapok of organizationszervezet can have a profoundmély impacthatás on humanemberi naturetermészet.
193
632000
5000
A szervezeti formáknak döntő hatásuk
lehet az emberi természetre.
11:01
Looking aheadelőre, there is a rangehatótávolság of technologiestechnológiák
194
637000
2000
A jövőt tekintve, számos technológiát
11:03
that are almostmajdnem certainbizonyos to be developedfejlett soonerelőbb or latera későbbiekben.
195
639000
3000
előbb-utóbb biztosan kifejlesztenek.
11:06
We are very ignoranttudatlan about what the time scaleskála for these things are,
196
642000
4000
Nem ismerjük a megvalósulásuk idejét,
11:10
but they all are consistentkövetkezetes with everything we know
197
646000
2000
de mind igazodnak az általunk ismert
11:12
about physicalfizikai lawstörvények, lawstörvények of chemistrykémia, etcstb..
198
648000
4000
fizikai, kémiai stb.
törvényszerűségekhez.
11:16
It's possiblelehetséges to assumefeltételezni,
199
652000
2000
Okkal föltételezhetjük –
11:18
settingbeállítás asidefélre a possibilitylehetőség of catastrophekatasztrófa,
200
654000
3000
kizárva a katasztrófa lehetőségét –,
11:21
that soonerelőbb or latera későbbiekben we will developfejleszt all of these.
201
657000
3000
hogy előbb-utóbb kifejlesztjük őket.
11:24
And even just a couplepárosít of these would be enoughelég
202
660000
3000
S csupán egynéhányuk elég lesz
11:27
to transformátalakít the humanemberi conditionfeltétel.
203
663000
2000
az ember megváltoztatásához.
11:29
So let's look at some of the dimensionsméretek of humanemberi naturetermészet
204
665000
5000
Nézzük az emberi természet néhány vonását,
11:34
that seemlátszik to leaveszabadság roomszoba for improvementjavulás.
205
670000
3000
amelyeken javíthatunk.
11:37
HealthEgészségügyi spanarasz is a bignagy and urgentsürgős thing,
206
673000
2000
Az egészséges életszakasz
nagy és sürgős ügy,
11:39
because if you're not aliveélő,
207
675000
2000
mert ha nem vagyunk életben,
11:41
then all the other things will be to little availhaszon.
208
677000
3000
akkor minden mással nem sokra megyünk.
11:44
IntellectualSzellemi capacitykapacitás -- let's take that boxdoboz,
209
680000
2000
Az értelmi képesség
11:46
whichmelyik fallszuhatag into a lot of differentkülönböző sub-categoriesalkategóriák:
210
682000
5000
több részből tevődik össze:
emlékezőképesség,
11:51
memorymemória, concentrationkoncentráció, mentalszellemi energyenergia, intelligenceintelligencia, empathyátélés.
211
687000
3000
összpontosítás, szellemi energia,
intelligencia, beleérzés.
11:54
These are really great things.
212
690000
2000
Kétségtelenül fontos dolgok.
11:56
PartRész of the reasonok why we valueérték these traitsvonások
213
692000
2000
Részben azért értékeljük
e jellemvonásokat,
11:58
is that they make us better at competingversengő with other people --
214
694000
4000
mert versenyképesebbé válunk tőlük:
12:02
they're positionalhelyzeti goodsáruk.
215
698000
2000
ezek pozicionáló árucikkek.
12:04
But partrész of the reasonok --
216
700000
2000
Másrészt, és ez az etikai alapja,
12:06
and that's the reasonok why we have ethicaletikai groundtalaj for pursuingfolytat these --
217
702000
4000
amiért e jellemvonásokra törekszünk,
12:10
is that they're alsois intrinsicallyeredendően valuableértékes.
218
706000
3000
hogy valódi értéket képviselnek.
12:13
It's just better to be ableképes to understandmegért more of the worldvilág around you
219
709000
4000
Milyen jó mind többet érteni
a köröttünk lévő világból,
12:17
and the people that you are communicatingközlekedő with,
220
713000
2000
a velünk kapcsolatban álló emberekből
12:19
and to rememberemlékezik what you have learnedtanult.
221
715000
4000
és emlékezni a megszerzett tudásunkra!
12:23
ModalitiesMódozatok and specialkülönleges facultieskarok.
222
719000
2000
Körülmények és különleges készségek.
12:25
Now, the humanemberi mindelme is not a singleegyetlen unitaryegységes informationinformáció processorfeldolgozó,
223
721000
5000
Elménk nem egyszerűen
információ-földolgozó gép,
12:30
but it has a lot of differentkülönböző, specialkülönleges, evolvedfejlődött modulesmodulok
224
726000
4000
hanem rengeteg különleges, fejlett,
12:34
that do specifickülönleges things for us.
225
730000
2000
meghatározott rendeltetésű egysége van.
12:36
If you think about what we normallynormális esetben take as givingígy life a lot of its meaningjelentés --
226
732000
4000
Gondoljunk csak azokra,
amelyek értelmet adnak életünknek:
12:40
musiczene, humorhumor, eroticismerotika, spiritualitylelkiség, aestheticsesztétika,
227
736000
4000
zene, humor, erotika,
szellemiség, esztétika,
12:44
nurturinggondoskodó and caringgondoskodó, gossippletyka, chattingbeszélgetni with people --
228
740000
5000
nevelés és gondoskodás,
pletyka, fecsegés...
12:49
all of these, very likelyvalószínűleg, are enabledengedélyezve by a specialkülönleges circuitryáramkör
229
745000
4000
ezeket valószínűleg olyan különleges
áramkörök teszik lehetővé,
12:53
that we humansemberek have,
230
749000
2000
amelyek megvannak bennünk.
12:55
but that you could have anotheregy másik intelligentintelligens life formforma that lackshiányzik these.
231
751000
3000
De nélkülük is lehet
intelligens életmódunk.
12:58
We're just luckyszerencsés that we have the requisiteszükséges neuralideg- machinerygépezet
232
754000
3000
Szerencsések vagyunk, hogy megvan
a kellő idegi fölépítésünk
13:01
to processfolyamat musiczene and to appreciateméltányol it and enjoyélvez it.
233
757000
4000
hogy földolgozhassuk, értékelhessük
és élvezhessük a zenét.
13:05
All of these would enableengedélyezze, in principleelv -- be amenableirányítható to enhancementfokozás.
234
761000
3000
Ez tesz bennünket képessé
a továbbfejlődésre.
13:08
Some people have a better musicalzenei abilityképesség
235
764000
2000
Van, akinek jobbak a zenei képességei,
13:10
and abilityképesség to appreciateméltányol musiczene than othersmások have.
236
766000
2000
és másoknál jobban élvezik a zenét.
13:12
It's alsois interestingérdekes to think about what other things are --
237
768000
3000
Érdekes eltöprengeni rajta,
mik lehetnek az egyéb dolgok...
13:15
so if these all enabledengedélyezve great valuesértékeket,
238
771000
3000
Ha azok nagy jelentőségűek,
13:19
why should we think that evolutionevolúció has happenedtörtént to providebiztosítani us
239
775000
3000
miért higgyük, hogy az evolúció
megadott nekünk
13:22
with all the modalitiesmódozatok we would need to engagerészt
240
778000
3000
az esetleges egyéb értékek
megszerzéséhez kellő
13:25
with other valuesértékeket that there mightesetleg be?
241
781000
2000
minden feltételt?
13:27
ImagineKépzeld el a speciesfaj
242
783000
2000
Képzeljünk el egy fajt, amely híján van
13:29
that just didn't have this neuralideg- machinerygépezet for processingfeldolgozás musiczene.
243
785000
4000
a zene élvezetére szolgáló
idegi berendezésnek.
13:33
And they would just starebámul at us with bafflementzavarodottság
244
789000
3000
Értetlenül bámulnának, hogy mi jó lehet
13:36
when we spendtölt time listeningkihallgatás to a beautifulszép performanceteljesítmény,
245
792000
4000
az általunk hallgatott gyönyörű
zeneszámban, meg abban,
13:40
like the one we just heardhallott -- because of people makinggyártás stupidhülye movementsmozgások,
246
796000
2000
hogy ott a zenészek hülyén hadonásznak.
13:42
and they would be really irritatedirritált and wouldn'tnem see what we were up to.
247
798000
3000
Idegesítené őket, és nem értenék,
mire ez a nagy felhajtás.
13:45
But maybe they have anotheregy másik facultykari, something elsemás
248
801000
3000
De meglehet, hogy más képességük
13:48
that would seemlátszik equallyegyaránt irrationalirracionális to us,
249
804000
3000
nekünk ugyanolyan észszerűtlen lenne,
13:51
but they actuallytulajdonképpen tapKoppintson a into some great possiblelehetséges valueérték there.
250
807000
3000
ám az ő szemükben értéket képviselne.
13:54
But we are just literallyszó szerint deafsüket to that kindkedves of valueérték.
251
810000
4000
De a szó szoros értelmében
süketek lennénk azokra az értékekre.
13:58
So we could think of addinghozzátéve on differentkülönböző,
252
814000
2000
Más, új érzékszervi képességek
14:00
newúj sensoryszenzoros capacitieskapacitások and mentalszellemi facultieskarok.
253
816000
4000
és mentális képességek
hozzáadására gondolhatunk,
14:04
BodilyTesti functionalityalkalmassága and morphologymorfológia and affectiveérzékeny self-controlönuralom.
254
820000
5000
testi funkciókra és formákra,
és érzelmi önkontrollra,
14:09
GreaterNagyobb subjectiveszubjektív well-beingjólét.
255
825000
2000
szubjektíve nagyobb jólétre.
14:11
Be ableképes to switchkapcsoló betweenközött relaxationkikapcsolódás and activitytevékenység --
256
827000
3000
Legyünk képesek váltani a pihenés
és a tevékenység között,
14:14
beinglény ableképes to go slowlassú when you need to do that, and to speedsebesség up.
257
830000
4000
legyük képesek lassítani vagy gyorsítani;
mikor mire van szükség.
14:18
AbleKépes to switchkapcsoló back and forthtovább more easilykönnyen
258
834000
2000
A könnyebb átállás képessége
14:20
would be a neattiszta thing to be ableképes to do --
259
836000
2000
elősegítené
14:22
easierkönnyebb to achieveelér the flowfolyam stateállapot,
260
838000
2000
a flow állapotba jutást,
14:24
when you're totallyteljesen immersedelmerült in something you are doing.
261
840000
4000
amikor teljesen elmerülünk a teendőnkben.
14:28
ConscientiousnessLelkiismeretesség and sympathyegyüttérzés.
262
844000
2000
Lelkiismeretesség és részvét.
14:30
The abilityképesség to -- it's anotheregy másik interestingérdekes applicationAlkalmazás
263
846000
3000
Képesség... ez is érdekes alkalmazás,
14:33
that would have largenagy socialtársadalmi ramificationelágazás, perhapstalán.
264
849000
3000
amelynek fontos társadalmi
következményei lehetnek,
14:36
If you could actuallytulajdonképpen chooseválaszt to preservemegőrzése your romanticromantikus attachmentsmellékletek to one personszemély,
265
852000
6000
ha azonos hőfokon meg akarjuk őrizni
valakihez fűződő
romantikus kapcsolatunkat.
14:42
undiminishedtöretlen throughkeresztül time,
266
858000
2000
A szerelem soha nem csillapulna,
hacsak nem akarnánk.
14:44
so that wouldn'tnem have to -- love would never have to fadeáttűnés if you didn't want it to.
267
860000
3000
14:49
That's probablyvalószínűleg not all that difficultnehéz.
268
865000
3000
Ez bizonyára nem nehéz.
14:52
It mightesetleg just be a simpleegyszerű hormonehormon or something that could do this.
269
868000
3000
Lehet, hogy egyszerű hormonnal
vagy ilyesfélével ez elérhető.
14:57
It's been doneKész in volespocok.
270
873000
2000
A mezei pockokkal már megcsinálták.
15:01
You can engineermérnök a prairiepréri volemezei egér to becomeválik monogamousmonogám
271
877000
3000
A mezei pockok kezelés hatására
monogámmá váltak,
15:04
when it's naturallytermészetesen polygamoustöbbnejű.
272
880000
2000
noha természetüknél fogva poligámok.
15:06
It's just a singleegyetlen genegén.
273
882000
2000
Egyszerű génről van szó.
Esetleg velünk bonyolultabb
lesz, de talán nem nagyon.
15:08
MightLehet, hogy be more complicatedbonyolult in humansemberek, but perhapstalán not that much.
274
884000
2000
15:10
This is the last picturekép that I want to --
275
886000
2000
Ez az utolsó kép,
15:13
now we'vevoltunk got to use the laserlézer pointermutató.
276
889000
2000
a lézermutatót kell hozzá használnom.
15:16
A possiblelehetséges modemód of beinglény here would be a way of life --
277
892000
3000
Egy lehetséges életforma lehet
15:19
a way of beinglény, experiencingtapasztal, thinkinggondolkodás, seeinglátás,
278
895000
4000
a létezés, a tapasztalás, a gondolkodás,
15:23
interactingkölcsönható with the worldvilág.
279
899000
2000
a látás és a világgal való kapcsolat.
15:25
Down here in this little cornersarok, here, we have the little sub-spaceal-tér
280
901000
5000
Az alsó sarokban van egy kis terület,
15:30
of this largernagyobb spacehely that is accessiblehozzáférhető to humanemberi beingslények --
281
906000
4000
amely az emberiségnek,
15:34
beingslények with our biologicalbiológiai capacitieskapacitások.
282
910000
3000
azaz a mi biológiai
adottságunknak elérhető.
15:37
It's a partrész of the spacehely that's accessiblehozzáférhető to animalsállatok;
283
913000
3000
Ez az állatoknak elérhető
térség egy része,
15:40
sincemivel we are animalsállatok, we are a subsetrészhalmaza of that.
284
916000
3000
mivel az állatok részhalmaza vagyunk.
15:43
And then you can imagineKépzeld el some enhancementsfejlesztések of humanemberi capacitieskapacitások.
285
919000
4000
Képzeljék el az emberi
készségek tökéletesítését.
15:47
There would be differentkülönböző modesmódok of beinglény you could experiencetapasztalat
286
923000
3000
A létezés különféle formáit
tapasztalhatjuk meg,
15:50
if you were ableképes to staymarad aliveélő for, say, 200 yearsévek.
287
926000
3000
ha képesek leszünk, mondjuk,
200 évig életben maradni.
15:53
Then you could liveélő sortsfajta of liveséletét and accumulatefelhalmozódnak wisdomsbölcsességek
288
929000
4000
Akkor más-más életeket élhetünk meg,
s annyi bölcsességet gyűjthetünk be,
15:57
that are just not possiblelehetséges for humansemberek as we currentlyjelenleg are.
289
933000
3000
amennyi a mai embernek nem áll módjában.
16:00
So then, you movemozog off to this largernagyobb spheregömb of "humanemberi +,"
290
936000
4000
Akkor eljuthatnánk az "Ember+" térfelére,
16:04
and you could continueFolytatni that processfolyamat and eventuallyvégül is
291
940000
3000
folytathatnánk a folyamatot,
16:07
exploreFedezd fel a lot of this largernagyobb spacehely of possiblelehetséges modesmódok of beinglény.
292
943000
4000
s végül bővebb létformákat
fedezhetnénk föl.
16:11
Now, why is that a good thing to do?
293
947000
2000
Mi ebben a jó?
16:13
Well, we know alreadymár that in this little humanemberi circlekör there,
294
949000
4000
Már tudjuk, hogy ebben
a kis emberi körben találhatók
16:17
there are these enormouslyóriási wonderfulcsodálatos and worthwhileérdemes modesmódok of beinglény --
295
953000
4000
a lét csodálatos formái,
amelyek megérik a fáradságot:
16:21
humanemberi life at its bestlegjobb is wonderfulcsodálatos.
296
957000
3000
az emberi élet csodálatos
a maga pompájában.
16:24
We have no reasonok to believe that withinbelül this much, much largernagyobb spacehely
297
960000
5000
Miért hinnénk, hogy abban
a sokkal nagyobb térben
16:29
there would not alsois be extremelyrendkívüli módon worthwhileérdemes modesmódok of beinglény,
298
965000
4000
nem lesznek különlegesen
figyelemre méltó létformák,
16:33
perhapstalán onesazok that would be way beyondtúl our wildestlegvadabb abilityképesség
299
969000
6000
talán olyanok, amelyek túl vannak
16:39
even to imagineKépzeld el or dreamálom about.
300
975000
2000
legvadabb elképzelésünkön
vagy ábrándunkon.
16:41
And so, to fixerősít this thirdharmadik problemprobléma,
301
977000
2000
A harmadik probléma megoldásához
16:43
I think we need -- slowlylassan, carefullygondosan, with ethicaletikai wisdombölcsesség and constraintkényszer --
302
979000
6000
lassan, óvatosan, etikus bölcsességgel
és visszafogottsággal
16:49
developfejleszt the meanseszközök that enableengedélyezze us to go out in this largernagyobb spacehely and exploreFedezd fel it
303
985000
5000
fejlesztenünk kell a tágabb térbe
kijutást lehetővé tevő eszközöket,
16:54
and find the great valuesértékeket that mightesetleg hideelrejt there.
304
990000
2000
s rá kell lelnünk
az ott megbúvó értékekre.
16:56
Thankskösz.
305
992000
2000
Köszönöm.
Translated by Peter Pallós
Reviewed by Beatrix Turán

▲Back to top

ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee