ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com
TEDGlobal 2005

Nick Bostrom: A philosophical quest for our biggest problems

Nick Bostrom: Problemele noastre cele mai mari

Filmed:
967,767 views

Filozoful și transumanistul de la Oxford Nick Bostrom examinează viitorul umanității și se întreabă dacă am putea altera natura fundamentală a umanității pentru a rezolva problemele noastre de fond, intriseci, esențiale.
- Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us? Full bio

Double-click the English transcript below to play the video.

00:24
I want to talk todayastăzi about --
0
0
3000
Vreau să vorbesc azi despre --
00:27
I've been askedîntrebă to take the long viewvedere, and I'm going to tell you what
1
3000
6000
Mi s-a cerut să adopt o perspectivă de viitor, vă voi expune
00:33
I think are the threeTrei biggestCea mai mare problemsProbleme for humanityumanitate
2
9000
4000
care cred că sunt problemele cele mai mari ale umanității
00:37
from this long pointpunct of viewvedere.
3
13000
3000
din această perspectivă cu bătaie lungă.
00:40
Some of these have alreadydeja been touchedatins uponpe by other speakersdifuzoare,
4
16000
3000
Unele probleme au fost deja atinse de alți vorbitori,
00:43
whichcare is encouragingîncurajator.
5
19000
2000
ceea ce e încurajator.
00:45
It seemspare that there's not just one personpersoană
6
21000
2000
Se pare că nu există doar o singură persoană
00:47
who thinkscrede that these problemsProbleme are importantimportant.
7
23000
2000
care crede că aceste probleme sunt importante.
00:49
The first is -- deathmoarte is a bigmare problemproblemă.
8
25000
4000
Prima -- moartea e o problemă mare.
00:53
If you look at the statisticsstatistici,
9
29000
3000
Dacă te uiți la statistici,
00:56
the oddsșanse are not very favorablefavorabil to us.
10
32000
2000
șansele nu ne sunt prea favorabile.
00:58
So fardeparte, mostcel mai people who have livedtrăit have alsode asemenea dieddecedat.
11
34000
4000
Până în prezent, majoritatea care au trăit au și murit.
01:02
RoughlyAproximativ 90 percentla sută of everybodytoata lumea who has been aliveîn viaţă has dieddecedat by now.
12
38000
4000
Aproximativ 90% din cei ce au trăit au murit până acum.
01:06
So the annualanual deathmoarte raterată addsadaugă up to 150,000 --
13
42000
6000
Deci rata anuală de deces se ridică la 150.000 --
01:12
sorry, the dailyzilnic deathmoarte raterată -- 150,000 people perpe day,
14
48000
3000
scuze, rata zilnică --- 150.000 oameni/ zi
01:15
whichcare is a hugeimens numbernumăr by any standardstandard.
15
51000
3000
un număr uriaș după orice standard.
01:18
The annualanual deathmoarte raterată, then, becomesdevine 56 millionmilion.
16
54000
5000
Rata anuală de deces, atunci, devine 56 milioane.
01:23
If we just look at the singlesingur, biggestCea mai mare causecauza of deathmoarte -- agingîmbătrânire --
17
59000
5000
Dacă ne uităm la cea mai mare cauză a morții -- îmbătrânirea --
01:29
it accountsconturi for roughlyaproximativ two-thirdsdouă treimi of all humanuman people who diea muri.
18
65000
5000
răspunde de aproximativ 2/3 din toți oamenii care mor.
01:34
That addsadaugă up to an annualanual deathmoarte tollTaxă
19
70000
3000
Asta ridică pierderea anuală prin deces
01:37
of greatermai mare than the populationpopulație of CanadaCanada.
20
73000
2000
la mai mult decât populația Canadei.
01:39
SometimesUneori, we don't see a problemproblemă
21
75000
2000
Uneori nu vedem o problemă
01:41
because eitherfie it's too familiarfamiliar or it's too bigmare.
22
77000
4000
fie pentru că e prea familiară, fie că e prea mare.
01:45
Can't see it because it's too bigmare.
23
81000
2000
N-o vedem pentru că e prea mare.
01:47
I think deathmoarte mightar putea be bothambii too familiarfamiliar and too bigmare
24
83000
3000
Cred că moartea e și prea familiară și prea mare
01:50
for mostcel mai people to see it as a problemproblemă.
25
86000
3000
pentru ca majoritatea oamenilor să o perceapă ca problemă.
01:53
OnceO dată you think about it, you see this is not statisticalstatistic pointspuncte;
26
89000
2000
Când te gândești vezi că astea nu sunt doar statistici.
01:55
these are -- let's see, how fardeparte have I talkeda vorbit?
27
91000
2000
Acestea sunt --- să vedem, cât am vorbit?
01:57
I've talkeda vorbit for threeTrei minutesminute.
28
93000
3000
Vorbesc de 3 minute.
02:00
So that would be, roughlyaproximativ, 324 people have dieddecedat sincede cand I've begunînceput speakingvorbitor.
29
96000
7000
Deci asta ar fi, aproximativ 324 oameni au murit de când am început să vorbesc.
02:07
People like -- it's roughlyaproximativ the populationpopulație in this roomcameră has just dieddecedat.
30
103000
4000
Oameni cam -- aproximativ populația din această sală a murit.
02:12
Now, the humanuman costa costat of that is obviousevident,
31
108000
2000
Acum, costul uman al acestei pierderi e evident.
02:14
onceo singura data you startstart to think about it -- the sufferingsuferinţă, the losspierderi --
32
110000
3000
Când începi să te gândești -- suferința, pierderea --
02:17
it's alsode asemenea, economicallypunct de vedere economic, enormouslyenorm wastefulrisipitor.
33
113000
3000
şi economic, o irosire enormă.
02:20
I just look at the informationinformație, and knowledgecunoştinţe, and experienceexperienţă
34
116000
3000
Mă uit doar la informația, cunoștințele și experiența
02:23
that is lostpierdut duedatorat to naturalnatural causescauze of deathmoarte in generalgeneral,
35
119000
3000
care se pierd datorită cauzelor morții în general,
02:26
and agingîmbătrânire, in particularspecial.
36
122000
2000
și a îmbătrânirii în particular.
02:28
SupposeSă presupunem că we approximatedaproximate one personpersoană with one bookcarte?
37
124000
3000
Să presupunem că am aproxima o persoană cu o carte?
02:31
Now, of coursecurs, this is an underestimationsubapreciere.
38
127000
2000
Bineînțeles, asta-i o subestimare.
02:33
A person'spersoane lifetimedurata de viață of learningînvăţare and experienceexperienţă
39
129000
6000
Viața de studiu și experiență a unei persoane
02:39
is a lot more than you could put into a singlesingur bookcarte.
40
135000
2000
e mult mai cuprinzătoare decât poți pune într-o carte.
02:41
But let's supposepresupune we did this.
41
137000
2000
Dar să presupunem că am face asta.
02:44
52 millionmilion people diea muri of naturalnatural causescauze eachfiecare yearan
42
140000
5000
52 milioane de oameni mor din cauze naturale în fiecare an
02:49
correspondscorespunde, then, to 52 millionmilion volumesvolume destroyeddistrus.
43
145000
4000
corespunde, deci, cu 52 milioane volume distruse.
02:53
LibraryBiblioteca of CongressCongresul holdsdeține 18 millionmilion volumesvolume.
44
149000
3000
Library of Congress deține 18 milioane volume.
02:57
We are upsetderanjat about the burningardere of the LibraryBiblioteca of AlexandriaAlexandria.
45
153000
3000
Suntem tulburați de arderea Bibliotecii din Alexandria.
03:00
It's one of the great culturalcultural tragediestragedii
46
156000
2000
E una din uriașele tragedii culturale
03:02
that we remembertine minte, even todayastăzi.
47
158000
3000
pe care ne-o amintim, chiar și azi.
03:06
But this is the equivalentechivalent of threeTrei LibrariesBiblioteci of CongressCongresul --
48
162000
2000
Dar acesta e echivalentul a 3 Libraries of Congress --
03:08
burntars down, foreverpentru totdeauna lostpierdut -- eachfiecare yearan.
49
164000
3000
incendiate, pierdute iremediabil -- în fiecare an.
03:11
So that's the first bigmare problemproblemă.
50
167000
2000
Deci asta e prima mare problemă.
03:13
And I wishdori GodspeedMergi cu Dumnezeu to AubreyAubrey dede GreyGri,
51
169000
3000
Îi urez success și noroc lui Aubrey de Grey,
03:16
and other people like him,
52
172000
2000
și altor oameni ca el,
03:18
to try to do something about this as sooncurând as possibleposibil.
53
174000
3000
să reușească ceva în legătură cu asta cât de repede posibil.
03:22
ExistentialExistentiala riskrisc -- the secondal doilea bigmare problemproblemă.
54
178000
3000
Risc existențial -- a doua problemă mare .
03:25
ExistentialExistentiala riskrisc is a threatamenințare to humanuman survivalsupravieţuire, or to the long-termtermen lung potentialpotenţial of our speciesspecie.
55
181000
7000
Riscul existențial e o amenințare a supraviețuirii umane, a potențialului de lungă durată a speciei noastre.
03:32
Now, why do I say that this is a bigmare problemproblemă?
56
188000
2000
De ce spun că asta e o mare problemă?
03:34
Well, let's first look at the probabilityprobabilitate --
57
190000
4000
Ei bine, să ne uităm întâi la probabilități --
03:38
and this is very, very difficultdificil to estimateestima --
58
194000
3000
și asta e foarte dificil de estimat --
03:41
but there have been only fourpatru studiesstudiu on this in recentRecent yearsani,
59
197000
3000
au existat recent doar 4 studii despre asta,
03:44
whichcare is surprisingsurprinzător.
60
200000
2000
ceea ce-i surprinzător.
03:46
You would think that it would be of some interestinteres
61
202000
3000
Ai crede că ar fi de-un oarecare interes
03:49
to try to find out more about this givendat that the stakespari are so bigmare,
62
205000
4000
să aflăm mai multe despre asta considerând un potențial de risc așa mare,
03:53
but it's a very neglecteduitat areazonă.
63
209000
2000
dar e un domeniu foarte neglijat.
03:55
But there have been fourpatru studiesstudiu --
64
211000
2000
Dar au fost 4 studii --
03:57
one by JohnIoan LesleyLesley, wrotea scris a bookcarte on this.
65
213000
2000
unul de John Lesley, a scris o carte despre asta.
03:59
He estimatedestimativ a probabilityprobabilitate that we will faileșua
66
215000
2000
El a estimat probabilitatea de-a nu reuși
04:01
to survivesupravieţui the currentactual centurysecol: 50 percentla sută.
67
217000
3000
să supraviețuim acestui secol -- 50%.
04:04
SimilarlyÎn mod similar, the AstronomerAstronomul RoyalRoyal, whompe cine we heardauzit speakvorbi yesterdayieri,
68
220000
5000
Similar, Astronomer Royal, pe care l-am auzit vorbind ieri,
04:09
alsode asemenea has a 50 percentla sută probabilityprobabilitate estimateestima.
69
225000
3000
are şi el o estimare a probabilității: 50%.
04:12
AnotherUn alt authorautor doesn't give any numericalnumeric estimateestima,
70
228000
3000
Un alt autor nu dă nici o estimare numerică,
04:15
but saysspune the probabilityprobabilitate is significantsemnificativ that it will faileșua.
71
231000
3000
dar spune că probabilitatea de eșec e semnificativă.
04:18
I wrotea scris a long paperhârtie on this.
72
234000
3000
Am scris o lucrare lungă despre acest subiect.
04:21
I said assigningatribuire a lessMai puțin than 20 percentla sută probabilityprobabilitate would be a mistakegreşeală
73
237000
4000
Am spus că atribuind un procent mai mic de 20% ar fi o greșeală
04:25
in lightușoară of the currentactual evidenceevidență we have.
74
241000
3000
în lumina dovezilor curente pe care le avem.
04:28
Now, the exactcorect figurescifrele here,
75
244000
2000
Acum, cifrele exacte aici,
04:30
we should take with a bigmare graincereale of saltsare,
76
246000
2000
ar trebui să le privim cu oarecare îndoială,
04:32
but there seemspare to be a consensusconsens that the riskrisc is substantialsubstanțial.
77
248000
3000
dar se pare că există un consens că riscul e substanțial.
04:35
EverybodyToata lumea who has lookedprivit at this and studiedstudiat it agreeseste de acord.
78
251000
3000
Toți cei care au considerat și studiat asta, sunt de acord.
04:38
Now, if we think about what just reducingreduce
79
254000
2000
Acum, dacă ne gândim la reducerea
04:40
the probabilityprobabilitate of humanuman extinctionextincţie by just one percentageprocent pointpunct --
80
256000
5000
probabilității de extincție umană cu doar 1% --
04:45
not very much -- so that's equivalentechivalent to 60 millionmilion livesvieți savedsalvate,
81
261000
5000
nu pare mult -- asta-i echivalent cu 60 milioane vieți salvate,
04:50
if we just countnumara the currentlyîn prezent livingviaţă people, the currentactual generationgeneraţie.
82
266000
4000
dacă numărăm doar oamenii care trăiesc în prezent, generația actuală.
04:54
Now one percentla sută of sixşase billionmiliard people is equivalentechivalent to 60 millionmilion.
83
270000
4000
1% din 6 miliarde e echivalent cu 60 milioane.
04:58
So that's a largemare numbernumăr.
84
274000
2000
Ăsta-i un număr mare.
05:00
If we were to take into accountcont futureviitor generationsgenerații
85
276000
3000
Dacă ar fi să luăm în considerare generațiile viitoare
05:03
that will never come into existenceexistenţă if we blowa sufla ourselvesnoi insine up,
86
279000
5000
care nu vor exista dacă ne aruncăm în aer,
05:08
then the figurefigura becomesdevine astronomicalastronomic.
87
284000
3000
atunci cifrele devin astronomice.
05:11
If we could eventuallyîn cele din urmă colonizecoloniza a chunkbucată mare of the universeunivers --
88
287000
3000
Dacă am putea, în cele din urmă, coloniza o parte din univers --
05:14
the VirgoFecioara superclustersuperciorchine --
89
290000
2000
constelația Fecioarei --
05:16
maybe it will take us 100 millionmilion yearsani to get there,
90
292000
2000
poate ne va lua 100 milioane de ani să ajungem acolo,
05:18
but if we go extinctdispărut we never will.
91
294000
3000
dar dacă omenirea dispare nu vom ajunge.
05:21
Then, even a one percentageprocent pointpunct reductionreducere
92
297000
3000
Atunci, chiar și 1% reducție
05:24
in the extinctionextincţie riskrisc could be equivalentechivalent
93
300000
4000
în riscul de extincție ar putea fi echivalat
05:28
to this astronomicalastronomic numbernumăr -- 10 to the powerputere of 32.
94
304000
3000
cu acest număr astronomic -- 10 la puterea 32.
05:31
So if you take into accountcont futureviitor generationsgenerații as much as our ownpropriu,
95
307000
4000
Dacă luați în considerare egal și generațiile viitoare și a noastră,
05:35
everyfiecare other moralmorală imperativeimperativ of philanthropicfilantropic costa costat just becomesdevine irrelevantirelevant.
96
311000
5000
jumătate din imperativele morale ale costului filantropic devin irelevante.
05:40
The only thing you should focusconcentra on
97
316000
2000
Singurul lucru pe care ar trebui să-l considerați
05:42
would be to reducereduce existentialexistențială riskrisc
98
318000
2000
ar fi reducerea riscului existențial
05:44
because even the tiniesttiniest decreasescădea in existentialexistențială riskrisc
99
320000
4000
deoarece chiar și cea mai măruntă reducere a riscului existențial
05:48
would just overwhelmcopleși any other benefitbeneficiu you could hopesperanţă to achieveobține.
100
324000
4000
ar copleși orice alt avantaj pe care ai putea spera să-l obții.
05:52
And even if you just look at the currentactual people,
101
328000
2000
Și chiar dacă iei în considerare doar oamenii actuali,
05:54
and ignoreignora the potentialpotenţial that would be lostpierdut if we wenta mers extinctdispărut,
102
330000
5000
și ignori potențialul ce s-ar pierde în caz de extincție,
05:59
it should still have a highînalt priorityprioritate.
103
335000
2000
tot ar avea o mare prioritate.
06:01
Now, let me spendpetrece the restodihnă of my time on the thirdal treilea bigmare problemproblemă,
104
337000
5000
Acum, dați-mi voie să folosesc restul timpului pentru a 3-a problemă
06:06
because it's more subtlesubtil and perhapspoate difficultdificil to graspînţelege.
105
342000
5000
pentru că e mai subtilă și mai dificil de prins.
06:12
Think about some time in your life --
106
348000
4000
Gândiți-vă la o perioadă din viața voastră --
06:16
some people mightar putea never have experiencedcu experienta it -- but some people,
107
352000
3000
unii oameni n-au experimentat poate niciodată -- doar unii,
06:19
there are just those momentsmomente that you have experiencedcu experienta
108
355000
3000
există acele momente pe care le-ați trăit
06:22
where life was fantasticfantastic.
109
358000
2000
când viața a fost fantastică.
06:24
It mightar putea have been at the momentmoment of some great, creativecreator inspirationinspirație
110
360000
7000
Posibil să fi fost într-un moment de mare inspirație creativă
06:31
you mightar putea have had when you just entereda intrat this flowcurgere stageetapă.
111
367000
2000
pe care să-l fi avut când ai intrat în această stare de transă.
06:33
Or when you understoodînțeles something you had never doneTerminat before.
112
369000
2000
Sau când ai înțeles ceva ce n-ai reușit niciodată înainte.
06:35
Or perhapspoate in the ecstasyextaz of romanticromantic love.
113
371000
4000
Ori poate în extazul iubirii romantice.
06:39
Or an aestheticestetic experienceexperienţă -- a sunsetapus de soare or a great piecebucată of artartă.
114
375000
5000
Sau o experiență estetică -- un apus de soare sau o operă de artă genială.
06:44
EveryFiecare onceo singura data in a while we have these momentsmomente,
115
380000
2000
Din când în când avem aceste momente,
06:46
and we realizerealiza just how good life can be when it's at its bestCel mai bun.
116
382000
4000
și realizăm cât de fantastică poate fi viața când e pe culmi.
06:50
And you wondermirare, why can't it be like that all the time?
117
386000
5000
Și te întrebi de ce nu poate fi așa tot timpul?
06:55
You just want to clingse lipi ontope this.
118
391000
2000
Vrei pur și simplu să te agăți de acea clipă.
06:57
And then, of coursecurs, it driftsnămeți back into ordinarycomun life and the memorymemorie fadesestompează.
119
393000
4000
Și apoi, bineînțeles, alunecă înapoi în viața obișnuită și amintirea pălește.
07:01
And it's really difficultdificil to recallrechemare, in a normalnormal framecadru of mindminte,
120
397000
4000
Și e chiar greu să-ți reamintești, în starea mintală obișnuită,
07:05
just how good life can be at its bestCel mai bun.
121
401000
3000
cât de bună poate fi viața pe culmi.
07:08
Or how badrău it can be at its worstcel mai rău.
122
404000
3000
Sau cât de rea poate fi în suferință.
07:11
The thirdal treilea bigmare problemproblemă is that life isn't usuallyde obicei
123
407000
3000
A 3-a mare problemă e că viața nu e de obicei
07:14
as wonderfulminunat as it could be.
124
410000
2000
așa de minunată cum ar putea fi.
07:16
I think that's a bigmare, bigmare problemproblemă.
125
412000
4000
Cred că asta e o mare, mare problemă.
07:20
It's easyuşor to say what we don't want.
126
416000
2000
E ușor să spunem ce nu dorim.
07:23
Here are a numbernumăr of things that we don't want --
127
419000
3000
Iată un număr de lucruri pe care nu le dorim:
07:26
illnessboală, involuntaryinvoluntar deathmoarte, unnecessaryinutil sufferingsuferinţă, crueltycruzime,
128
422000
3000
boală, moarte accidentală, suferință inutilă, cruzime,
07:29
stuntedpipernicit growthcreştere, memorymemorie losspierderi, ignoranceignoranţă, absenceabsență of creativitycreativitate.
129
425000
5000
creștere blocată, pierdere de memorie, ignoranță, lipsă de creativitate.
07:35
SupposeSă presupunem că we fixedfix these things -- we did something about all of these.
130
431000
3000
Să presupunem că le reparăm -- am făcut câte ceva pentru toate astea.
07:38
We were very successfulde succes.
131
434000
2000
Reușim cu totul.
07:40
We got ridscăpa of all of these things.
132
436000
2000
Am scăpat de toate astea.
07:42
We mightar putea endSfârşit up with something like this,
133
438000
3000
S-ar putea să reușim ceva asemănator.
07:45
whichcare is -- I mean, it's a hecknaiba of a lot better than that.
134
441000
4000
Adică -- Poate chiar mai bine decât toate astea.
07:49
But is this really the bestCel mai bun we can dreamvis of?
135
445000
5000
Dar e acesta într-adevăr cel mai frumos vis pe care-l putem spera?
07:54
Is this the bestCel mai bun we can do?
136
450000
2000
E asta tot ce putem face?
07:56
Or is it possibleposibil to find something a little bitpic more inspiringinspirator to work towardscătre?
137
452000
6000
Sau e posibil să găsim ceva mai inspirat în care să investim?
08:02
And if we think about this,
138
458000
2000
Și dacă ne gândim,
08:04
I think it's very clearclar that there are waysmoduri
139
460000
4000
cred că e foarte clar că există căi
08:08
in whichcare we could changeSchimbare things, not just by eliminatingeliminarea negativesnegative,
140
464000
3000
în care am putea schimba lucrurile, nu doar prin a elimina negativele,
08:11
but addingadăugare positivespozitive.
141
467000
2000
dar prin a adăuga pozitive.
08:13
On my wishdori listlistă, at leastcel mai puţin, would be:
142
469000
2000
Pe lista mea de dorințe ar fi cel puțin:
08:15
much longermai lung, healthiermai sanatos livesvieți, greatermai mare subjectivesubiectiv well-beingbunăstare,
143
471000
5000
vieți mai lungi, mai sănătoase, bunăstare personală mai mare,
08:20
enhancedîmbunătățit cognitivecognitiv capacitiescapacități, more knowledgecunoştinţe and understandingînţelegere,
144
476000
5000
capacitate cognitivă îmbunătățită, mai multe cunoștințe și înțelegere,
08:25
unlimitednelimitat opportunityoportunitate for personalpersonal growthcreştere
145
481000
2000
oportunități nelimitate pentru realizare personală
08:27
beyonddincolo our currentactual biologicalbiologic limitslimite, better relationshipsrelaţii,
146
483000
4000
peste limitele biologice actuale, relații mai bune,
08:31
an unboundednemărginit potentialpotenţial for spiritualspiritual, moralmorală
147
487000
2000
un potențial nelimitat pentru dezvoltare
08:33
and intellectualintelectual developmentdezvoltare.
148
489000
2000
morală și intelectuală.
08:35
If we want to achieveobține this, what, in the worldlume, would have to changeSchimbare?
149
491000
8000
Dacă vrem să realizăm astea, ce oare ar trebui să se schimbe?
08:43
And this is the answerRăspuns -- we would have to changeSchimbare.
150
499000
5000
Și iată răspunsul -- noi ar trebui să ne schimbăm.
08:48
Not just the worldlume around us, but we, ourselvesnoi insine.
151
504000
3000
Nu doar lumea din jurul nostru, ci noi, noi înșine.
08:51
Not just the way we think about the worldlume, but the way we are -- our very biologybiologie.
152
507000
4000
Nu doar cum gândim despre lume, ci felul în care suntem -- propria noastră biologie.
08:55
HumanUmane naturenatură would have to changeSchimbare.
153
511000
2000
Natura umană ar trebui să se schimbe.
08:57
Now, when we think about changingschimbare humanuman naturenatură,
154
513000
2000
Acum, când ne gândim să schimbăm natura umană
08:59
the first thing that comesvine to mindminte
155
515000
2000
primul gând care vine în minte
09:01
are these humanuman modificationmodificare technologiestehnologii --
156
517000
4000
sunt aceste tehnologii de modificare umană:
09:05
growthcreştere hormonehormon therapyterapie, cosmeticcosmetic surgeryinterventie chirurgicala,
157
521000
2000
terapia cu hormoni de creștere, chirurgia cosmetică,
09:07
stimulantsstimulente like RitalinRitalin, AdderallAdderall, anti-depressantsanti-depresive,
158
523000
3000
stimulatori ca Ritalin, Adderall, anti-depresivi,
09:10
anabolicanabolizant steroidssteroizi, artificialartificial heartsinimă.
159
526000
2000
steroizi anabolici, inimi artificiale.
09:12
It's a prettyfrumos patheticjalnic listlistă.
160
528000
3000
E o listă destul de jalnică.
09:15
They do great things for a fewpuțini people
161
531000
2000
Astea sunt bune pentru câțiva oameni
09:17
who suffersuferi from some specificspecific conditioncondiție,
162
533000
2000
care suferă de anumite condiții.
09:19
but for mostcel mai people, they don't really transformtransforma
163
535000
5000
Dar pentru majoritatea oamenilor nu transformă
09:24
what it is to be humanuman.
164
540000
2000
cu adevărat ce înseamnă să fii uman.
09:26
And they alsode asemenea all seempărea a little bitpic --
165
542000
2000
Și de asemenea, toate par cam --
09:28
mostcel mai people have this instinctinstinct that, well, sure,
166
544000
3000
majoritatea oamenilor au acest instinct că, desigur,
09:31
there needsare nevoie to be anti-depressantsanti-depresive for the really depresseddeprimat people.
167
547000
2000
trebuie să existe anti-depresive pentru oamenii cu adevărat depresivi.
09:33
But there's a kinddrăguț of queasinessgreaţă
168
549000
2000
Dar există un fel de greață
09:35
that these are unnaturalnefiresc in some way.
169
551000
3000
pentru că sunt nenaturale.
09:38
It's worthin valoare de recallingreamintind that there are a lot of other
170
554000
2000
Merită să ne reamintim că există o mulțime de alte
09:40
modificationmodificare technologiestehnologii and enhancementsporire technologiestehnologii that we use.
171
556000
3000
tehnologii de modificare și îmbunătățire pe care le folosim.
09:43
We have skinpiele enhancementsîmbunătățiri, clothingîmbrăcăminte.
172
559000
4000
Avem accesorii pentru piele, hainele.
09:47
As fardeparte as I can see, all of you are usersutilizatori of this
173
563000
4000
Pe cât pot vedea toți sunteți utilizatori ai acestei
09:51
enhancementsporire technologytehnologie in this roomcameră, so that's a great thing.
174
567000
5000
tehnologii de accesorii în această sală, asta-i bine.
09:56
MoodStarea de spirit modifiersmodificatori have been used from time immemorialimemorial --
175
572000
3000
Modificatoare de dispoziție au fost folosite din timpuri străvechi:
09:59
caffeinecofeină, alcoholalcool, nicotinenicotină, immuneimun systemsistem enhancementsporire,
176
575000
5000
cafeină, alcool, nicotină, întăritoare de sistem imunitar,
10:04
visionviziune enhancementsporire, anestheticsanestezice --
177
580000
2000
întăritoare de vedere, anestetice.
10:06
we take that very much for grantedacordat,
178
582000
2000
Luăm astea ca de la sine înțeles,
10:08
but just think about how great progressprogres that is --
179
584000
4000
dar gândiți-vă ce progres mare sunt --
10:12
like, havingavând an operationoperație before anestheticsanestezice was not fundistracţie.
180
588000
4000
să ai o operație înainte de anestezice nu era distractiv.
10:16
ContraceptivesContraceptive, cosmeticsproduse cosmetice and braincreier reprogrammingreprogramare techniquestehnici --
181
592000
6000
Contraceptive, cosmetice și tehnici de reprogramare mintală --
10:22
that soundssunete ominousde rău augur,
182
598000
2000
par a fi de rău augur.
10:24
but the distinctiondistincţie betweenîntre what is a technologytehnologie --
183
600000
4000
Dar distincția între tehnologie --
10:28
a gadgetgadget would be the archetypearhetip --
184
604000
2000
un dispozitiv ar fi un prototip ---
10:30
and other waysmoduri of changingschimbare and rewritingrescrierea humanuman naturenatură is quitedestul de subtlesubtil.
185
606000
4000
și alte căi de modificare și rescriere a naturii umane e subtilă.
10:34
So if you think about what it meansmijloace to learnînvăța arithmeticaritmetic or to learnînvăța to readcitit,
186
610000
4000
Dacă te gândești la ce înseamnă să înveți aritmetica sau cititul,
10:38
you're actuallyde fapt, literallyliteralmente rewritingrescrierea your ownpropriu braincreier.
187
614000
3000
îți rescrii, literalmente, propriul creier.
10:41
You're changingschimbare the microstructuremicrostructură of your braincreier as you go alongde-a lungul.
188
617000
3000
Îți restructurezi micro-structura creierului pe masură ce înveți.
10:45
So in a broadlarg sensesens, we don't need to think about technologytehnologie
189
621000
3000
Deci în sens larg, nu-i nevoie să ne gândim la tehnologie
10:48
as only little gadgetsgadget-uri, like these things here,
190
624000
2000
ca la mici dispozitive, ca aceste obiecte de aici.
10:50
but even institutionsinstituții and techniquestehnici,
191
626000
4000
Ci chiar și la instituții și tehnici,
10:54
psychologicalpsihologic methodsmetode and so forthmai departe.
192
630000
2000
la metode psihologice, ș.a.m.d.
10:56
FormsForme of organizationorganizare can have a profoundprofund impactefect on humanuman naturenatură.
193
632000
5000
Formele de organizare pot avea un impact profund asupra naturii umane.
11:01
Looking aheadînainte, there is a rangegamă of technologiestehnologii
194
637000
2000
Privind înainte, există tehnologii
11:03
that are almostaproape certainanumit to be developeddezvoltat soonermai curând or latermai tarziu.
195
639000
3000
care vor fi dezvoltate în mod cert mai devreme sau mai târziu.
11:06
We are very ignorantignorant about what the time scalescară for these things are,
196
642000
4000
Suntem foarte ignoranți despre scara timpului în privința acestora.
11:10
but they all are consistentconsistent with everything we know
197
646000
2000
Dar toate sunt consecvente cu tot ce știm
11:12
about physicalfizic lawslegii, lawslegii of chemistrychimie, etcetc.
198
648000
4000
despre legile fizicii, legile chimiei, etc.
11:16
It's possibleposibil to assumepresupune,
199
652000
2000
Poate, să presupunem,
11:18
settingcadru asidedeoparte a possibilityposibilitate of catastrophecatastrofă,
200
654000
3000
lăsând la o parte posibilitatea unei catastrofe,
11:21
that soonermai curând or latermai tarziu we will developdezvolta all of these.
201
657000
3000
vom desăvârși toate astea mai devreme sau mai târziu.
11:24
And even just a couplecuplu of these would be enoughdestul
202
660000
3000
Chiar numai două din astea și ar fi destul
11:27
to transformtransforma the humanuman conditioncondiție.
203
663000
2000
să transformăm condiția umană.
11:29
So let's look at some of the dimensionsdimensiuni of humanuman naturenatură
204
665000
5000
Să ne uităm la câteva dimensiuni ale naturii umane
11:34
that seempărea to leavepărăsi roomcameră for improvementîmbunătăţire.
205
670000
3000
care pot fi îmbunătăţite.
11:37
HealthSănătate spandeschidere is a bigmare and urgenturgent thing,
206
673000
2000
Răstimpul sănătății e o mare urgență,
11:39
because if you're not aliveîn viaţă,
207
675000
2000
pentru că dacă nu ești viu,
11:41
then all the other things will be to little availfolos.
208
677000
3000
atunci toate celelalte sunt fără rost.
11:44
IntellectualIntelectuală capacitycapacitate -- let's take that boxcutie,
209
680000
2000
Capacitatea intelectuală -- să luăm cutia aceea,
11:46
whichcare fallsFalls into a lot of differentdiferit sub-categoriessub-categorii:
210
682000
5000
care cuprinde multe sub-categorii diferite:
11:51
memorymemorie, concentrationconcentraţie, mentalmental energyenergie, intelligenceinteligență, empathyempatie.
211
687000
3000
memorie, concentrare, energie intelectuală, inteligență, empatie.
11:54
These are really great things.
212
690000
2000
Astea sunt toate lucruri grozave.
11:56
PartParte of the reasonmotiv why we valuevaloare these traitstrăsături
213
692000
2000
Parte din motivul pentru care prețuim aceste trăsături
11:58
is that they make us better at competingconcurent with other people --
214
694000
4000
e pentru că ne fac mai competitivi în comparație cu alți oameni --
12:02
they're positionalpozitional goodsbunuri.
215
698000
2000
sunt trăsături poziționale.
12:04
But partparte of the reasonmotiv --
216
700000
2000
Dar o altă parte din motiv --
12:06
and that's the reasonmotiv why we have ethicaletic groundsol for pursuingurmărirea these --
217
702000
4000
și de-asta avem o bază etică pentru a le urma --
12:10
is that they're alsode asemenea intrinsicallyintrinsec valuablevaloros.
218
706000
3000
e pentru că ele sunt și valoroase în esența lor.
12:13
It's just better to be ablecapabil to understanda intelege more of the worldlume around you
219
709000
4000
E pur și simplu mai bine să fii în stare să înțelegi mai mult din
12:17
and the people that you are communicatingcomunicarea with,
220
713000
2000
lumea înconjurătoare și oamenii cu care comunici,
12:19
and to remembertine minte what you have learnedînvățat.
221
715000
4000
și să-ți amintești ce ai învățat.
12:23
ModalitiesModalităţile de and specialspecial facultiesfacultăți.
222
719000
2000
Modalități și facultăți deosebite.
12:25
Now, the humanuman mindminte is not a singlesingur unitaryunitar informationinformație processorprocesor,
223
721000
5000
Acum, mintea umană nu e un singur procesor unitar de informație,
12:30
but it has a lot of differentdiferit, specialspecial, evolvedevoluat modulesmodule
224
726000
4000
ci are multe module diferite, special evoluate
12:34
that do specificspecific things for us.
225
730000
2000
care îndeplinesc atribuții specifice.
12:36
If you think about what we normallyîn mod normal take as givingoferindu- life a lot of its meaningsens --
226
732000
4000
Dacă te gândești la ceea ce considerm în mod normal că dă sens vieții:
12:40
musicmuzică, humorumor, eroticismerotism, spiritualityspiritualitate, aestheticsestetică,
227
736000
4000
muzică, umor, iubire, spiritualitate, estetică,
12:44
nurturingcultivarea and caringîngrijirea, gossipbârfă, chattingchat with people --
228
740000
5000
creștere și îngrijire, zvonuri, conversația cu alți oameni.
12:49
all of these, very likelyprobabil, are enabledactivat by a specialspecial circuitrycircuite
229
745000
4000
Toate astea, foarte probabil, sunt îngăduite de circuite speciale
12:53
that we humansoameni have,
230
749000
2000
pe care noi oamenii le avem,
12:55
but that you could have anothero alta intelligentinteligent life formformă that lacksîi lipsește these.
231
751000
3000
dar ai putea avea o altă formă de viață inteligentă în care să-ți lipsească astea.
12:58
We're just luckynorocos that we have the requisitenecesar neuralneural machinerymașini
232
754000
3000
Suntem norocoși să avem mașinăria neurală necesară
13:01
to processproces musicmuzică and to appreciatea aprecia it and enjoyse bucura it.
233
757000
4000
care să proceseze, să aprecieze și să se bucure de muzică.
13:05
All of these would enablepermite, in principleprincipiu -- be amenablemaleabil to enhancementsporire.
234
761000
3000
Toate astea ar permite, în principiu -- să fie supuse la îmbunătățire.
13:08
Some people have a better musicalmuzical abilityabilitate
235
764000
2000
Unii oameni au abilități muzicale și
13:10
and abilityabilitate to appreciatea aprecia musicmuzică than othersalții have.
236
766000
2000
capacitatăți de-a aprecia muzica mai bune decât alții.
13:12
It's alsode asemenea interestinginteresant to think about what other things are --
237
768000
3000
E interesant să considerăm şi alte lucruri --
13:15
so if these all enabledactivat great valuesvalorile,
238
771000
3000
dacă toate aceste valori excepționale ar fi validate
13:19
why should we think that evolutionevoluţie has happeneds-a întâmplat to providefurniza us
239
775000
3000
de ce n-am gândi că evoluția s-a petrecut ca să ne ofere
13:22
with all the modalitiesmodalități we would need to engageangaja
240
778000
3000
toate modalitățile de care am avea nevoie pentru a angaja
13:25
with other valuesvalorile that there mightar putea be?
241
781000
2000
alte valori care ar putea exista?
13:27
ImagineImaginaţi-vă a speciesspecie
242
783000
2000
Imaginați-vă o specie care pur și simplu
13:29
that just didn't have this neuralneural machinerymașini for processingprelucrare musicmuzică.
243
785000
4000
n-ar fi avut această mașinărie neurală de procesare a muzicii.
13:33
And they would just stareholbeze at us with bafflementbafflement
244
789000
3000
Și s-ar holba la noi cu consternare
13:36
when we spendpetrece time listeningascultare to a beautifulfrumoasa performanceperformanţă,
245
792000
4000
când petrecem timp audiind un spectacol frumos,
13:40
like the one we just heardauzit -- because of people makingluare stupidprost movementsmișcări,
246
796000
2000
ca cel pe care chiar l-am ascultat -- crezând că oamenii fac mișcări prostești.
13:42
and they would be really irritatedsupărat and wouldn'tnu ar fi see what we were up to.
247
798000
3000
Și ar fi realmente iritați și n-ar înțelege ce intenționăm să facem.
13:45
But maybe they have anothero alta facultyfacultate, something elsealtfel
248
801000
3000
Dar poate ei au alte aptitudini, altceva
13:48
that would seempărea equallyin aceeasi masura irrationaliraţional to us,
249
804000
3000
ce nouă ni s-ar părea la fel de irațional,
13:51
but they actuallyde fapt tapAtingeți into some great possibleposibil valuevaloare there.
250
807000
3000
când în realitate ei captează niște lucruri valoroase acolo,
13:54
But we are just literallyliteralmente deafSurd to that kinddrăguț of valuevaloare.
251
810000
4000
în timp ce noi suntem literalmente surzi la acea valoare.
13:58
So we could think of addingadăugare on differentdiferit,
252
814000
2000
Deci ne-am putea gândi să adăugăm diferite
14:00
newnou sensorysenzorial capacitiescapacități and mentalmental facultiesfacultăți.
253
816000
4000
capacități senzoriale și facultăți mintale noi.
14:04
BodilyCorporale functionalityfuncționalitate and morphologymorfologie and affectiveafectiv self-controlautocontrol.
254
820000
5000
Funcționalitate și morfologie corporală și auto-control emoțional.
14:09
GreaterMai mare subjectivesubiectiv well-beingbunăstare.
255
825000
2000
O bunăstare personală mai bună.
14:11
Be ablecapabil to switchintrerupator betweenîntre relaxationrelaxare and activityactivitate --
256
827000
3000
Să fim în stare să trecem din relaxare în activitate --
14:14
beingfiind ablecapabil to go slowîncet when you need to do that, and to speedviteză up.
257
830000
4000
fiind în stare să încetinim și să accelerăm când e necesar.
14:18
AbleMăsură to switchintrerupator back and forthmai departe more easilyuşor
258
834000
2000
Să fim capabili să trecem de la o stare la alta mai ușor,
14:20
would be a neatcurat thing to be ablecapabil to do --
259
836000
2000
ar fi grozav să fim în stare --
14:22
easierMai uşor to achieveobține the flowcurgere statestat,
260
838000
2000
să obții mai ușor fluxul creativ,
14:24
when you're totallyintru totul immersedimersată in something you are doing.
261
840000
4000
când ești imersat complet în ceea ce faci.
14:28
ConscientiousnessConştiinciozitate and sympathysimpatie.
262
844000
2000
Conștiință și solidaritate.
14:30
The abilityabilitate to -- it's anothero alta interestinginteresant applicationcerere
263
846000
3000
Capacitatea de a -- e o altă aplicație interesantă
14:33
that would have largemare socialsocial ramificationramificaţie, perhapspoate.
264
849000
3000
care ar avea ramificații sociale adânci .
14:36
If you could actuallyde fapt choosealege to preserveconserva your romanticromantic attachmentsatașamente to one personpersoană,
265
852000
6000
Dacă ai putea să alegi să păstrezi atașamentul romantic pentru o persoană,
14:42
undiminishednediminuate throughprin time,
266
858000
2000
nealterat în timp,
14:44
so that wouldn'tnu ar fi have to -- love would never have to fadedecolorare if you didn't want it to.
267
860000
3000
astfel să nu -- dragostea n-ar trebui niciodată să pălească dacă nu dorești.
14:49
That's probablyprobabil not all that difficultdificil.
268
865000
3000
Asta probabil nu-i chiar așa dificil.
14:52
It mightar putea just be a simplesimplu hormonehormon or something that could do this.
269
868000
3000
Ar putea fi doar un hormon ori ceva răspunzător pentru asta.
14:57
It's been doneTerminat in volesVOLES.
270
873000
2000
A fost realizat la rozătoarele de câmp.
15:01
You can engineeringiner a prairieprerie volevole to becomedeveni monogamousmonogamă
271
877000
3000
Poți reconfigura un rozător de preerie să devină monogam
15:04
when it's naturallynatural polygamouspoligam.
272
880000
2000
când el în mod natural e poligam.
15:06
It's just a singlesingur genegenă.
273
882000
2000
E doar o singură genă.
15:08
MightS-ar putea be more complicatedcomplicat in humansoameni, but perhapspoate not that much.
274
884000
2000
Poate-ar fi mai complicat la oameni, dar poate nu foarte.
15:10
This is the last pictureimagine that I want to --
275
886000
2000
Asta e ultima poză --
15:13
now we'vene-am got to use the lasercu laser pointerac indicator.
276
889000
2000
acum trebuie să folosim indicatorul cu laser.
15:16
A possibleposibil modemod of beingfiind here would be a way of life --
277
892000
3000
Un mod de existență aici ar fi un fel de viață --
15:19
a way of beingfiind, experiencingse confruntă cu, thinkinggândire, seeingvedere,
278
895000
4000
un fel de existență, experiență, gândire, percepere,
15:23
interactinginteracționând with the worldlume.
279
899000
2000
interacționând cu lumea.
15:25
Down here in this little cornercolţ, here, we have the little sub-spacesub-spațiu
280
901000
5000
Aici jos în colț avem un mic sub-spațiu
15:30
of this largermai mare spacespaţiu that is accessibleaccesibil to humanuman beingsființe --
281
906000
4000
al acestui spațiu mai larg care e accesibil ființei umane --
15:34
beingsființe with our biologicalbiologic capacitiescapacități.
282
910000
3000
ființe cu capacitățile noastre biologice.
15:37
It's a partparte of the spacespaţiu that's accessibleaccesibil to animalsanimale;
283
913000
3000
E parte din spațiul accesibil animalelor --
15:40
sincede cand we are animalsanimale, we are a subsetsubgrup of that.
284
916000
3000
și pentru că suntem animale suntem un sub-set al acestuia.
15:43
And then you can imagineimagina some enhancementsîmbunătățiri of humanuman capacitiescapacități.
285
919000
4000
Iar apoi vă puteți imagina niște îmbunătățiri ale capacităților umane.
15:47
There would be differentdiferit modesmoduri of beingfiind you could experienceexperienţă
286
923000
3000
Ar fi modalități diferite de existență pe care le-ai putea trăi
15:50
if you were ablecapabil to staystau aliveîn viaţă for, say, 200 yearsani.
287
926000
3000
dacă ai putea rămâne în viață, să zicem, 200 ani.
15:53
Then you could livetrăi sortsfelul of livesvieți and accumulateacumula wisdomswisdoms
288
929000
4000
Atunci ai putea trăi feluri de viață și acumula înțelepciune
15:57
that are just not possibleposibil for humansoameni as we currentlyîn prezent are.
289
933000
3000
care pur și simplu nu-s posibile oamenilor așa cum suntem în prezent.
16:00
So then, you movemișcare off to this largermai mare spheresferă of "humanuman +,"
290
936000
4000
Deci atunci te muți în această sferă mai largă al omului plus,
16:04
and you could continuecontinua that processproces and eventuallyîn cele din urmă
291
940000
3000
și ai putea să continui acel proces și în cele din urmă
16:07
exploreexplora a lot of this largermai mare spacespaţiu of possibleposibil modesmoduri of beingfiind.
292
943000
4000
să explorezi mare parte din acest spațiu mai larg de modalități posibile de existență.
16:11
Now, why is that a good thing to do?
293
947000
2000
Acum, de ce e asta un lucru bun?
16:13
Well, we know alreadydeja that in this little humanuman circlecerc there,
294
949000
4000
Ei bine, deja știm că în acest cerc restrâns al omului de aici,
16:17
there are these enormouslyenorm wonderfulminunat and worthwhilemerită modesmoduri of beingfiind --
295
953000
4000
există aceste modalități de existență fantastic de minunate și valoroase --
16:21
humanuman life at its bestCel mai bun is wonderfulminunat.
296
957000
3000
viața umană pe culmi e minunată.
16:24
We have no reasonmotiv to believe that withinîn this much, much largermai mare spacespaţiu
297
960000
5000
Nu avem vreun motiv să credem că în cadrul acestui spațiu mai larg
16:29
there would not alsode asemenea be extremelyextrem worthwhilemerită modesmoduri of beingfiind,
298
965000
4000
n-ar fi de asemenea modalități de existență valoroase.
16:33
perhapspoate onescele that would be way beyonddincolo our wildestmai sălbatice abilityabilitate
299
969000
6000
Posibil unele care ar fi mult peste puterea noastră
16:39
even to imagineimagina or dreamvis about.
300
975000
2000
de a ni le imagina sau visa.
16:41
And so, to fixrepara this thirdal treilea problemproblemă,
301
977000
2000
Și astfel pentru a repara această a 3-a problemă
16:43
I think we need -- slowlyîncet, carefullycu grija, with ethicaletic wisdomînţelepciune and constraintconstrângere --
302
979000
6000
Cred că trebuie -- încet, cu grijă, cu înțelepciune etică și reținere --
16:49
developdezvolta the meansmijloace that enablepermite us to go out in this largermai mare spacespaţiu and exploreexplora it
303
985000
5000
să dezvoltăm mijloacele care ne îngăduie să pășim în spațiul mai larg și să-l explorăm.
16:54
and find the great valuesvalorile that mightar putea hideascunde there.
304
990000
2000
Și să găsim marile valori care s-ar putea să existe acolo.
16:56
Thanksmulţumesc.
305
992000
2000
Mulțumesc.
Translated by Ariana Bleau Lugo
Reviewed by Brandusa Gheorghe

▲Back to top

ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee