ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com
TEDGlobal 2005

Nick Bostrom: A philosophical quest for our biggest problems

Nick Bostrom habla de nuestros más grandes problemas.

Filmed:
967,767 views

El filósofo y transhumanista de Oxford Nick Bostrom, examina el futuro de la humanidad y cuestiona si deberíamos cambiar la naturaleza humana establecida para resolver nuestros más intrínsecos problemas.
- Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us? Full bio

Double-click the English transcript below to play the video.

00:24
I want to talk todayhoy about --
0
0
3000
Hoy quiero hablar sobre--
00:27
I've been askedpreguntó to take the long viewver, and I'm going to tell you what
1
3000
6000
Me han pedido que mire a lo largo, y voy a decirles lo que
00:33
I think are the threeTres biggestmás grande problemsproblemas for humanityhumanidad
2
9000
4000
yo pienso son los 3 más grandes problemas de la humanidad
00:37
from this long pointpunto of viewver.
3
13000
3000
desde este largo punto de vista.
00:40
Some of these have alreadyya been touchedtocado uponsobre by other speakersparlantes,
4
16000
3000
Algunos de estos ya han sido nombrados por otros oradores
00:43
whichcual is encouragingalentador.
5
19000
2000
y eso es alentador.
00:45
It seemsparece that there's not just one personpersona
6
21000
2000
Parece ser que no es nada más una persona
00:47
who thinkspiensa that these problemsproblemas are importantimportante.
7
23000
2000
la que piensa que estos problemas son importantes.
00:49
The first is -- deathmuerte is a biggrande problemproblema.
8
25000
4000
El primero es -- la muerte es un problema.
00:53
If you look at the statisticsestadística,
9
29000
3000
Si observamos las estadísticas,
00:56
the oddsposibilidades are not very favorablefavorable to us.
10
32000
2000
los números no nos favorecen.
00:58
So farlejos, mostmás people who have livedvivió have alsoademás diedmurió.
11
34000
4000
Hasta ahora, la mayoría de personas que han vivido, también han muerto.
01:02
RoughlyAproximadamente 90 percentpor ciento of everybodytodos who has been aliveviva has diedmurió by now.
12
38000
4000
Aproximadamente el 90 % de todos los que han estado vivos ahora ya han muerto.
01:06
So the annualanual deathmuerte ratetarifa addsagrega up to 150,000 --
13
42000
6000
Así que la tasa anual de mortalidad suma unos 150.000 --
01:12
sorry, the dailydiariamente deathmuerte ratetarifa -- 150,000 people perpor day,
14
48000
3000
perdón, la tasa diaria de mortalidad -- 150.000 personas por dia,
01:15
whichcual is a hugeenorme numbernúmero by any standardestándar.
15
51000
3000
lo que es un número enorme para cualquier estándar.
01:18
The annualanual deathmuerte ratetarifa, then, becomesse convierte 56 millionmillón.
16
54000
5000
La tasa de mortalidad anual, entonces, se torna en 56 millones.
01:23
If we just look at the singlesoltero, biggestmás grande causeporque of deathmuerte -- agingenvejecimiento --
17
59000
5000
Si sólo miramos a la primordial y mayor causa de muerte -- envejecimiento --
01:29
it accountscuentas for roughlyaproximadamente two-thirdsdos tercios of all humanhumano people who diemorir.
18
65000
5000
representa apenas dos tercios de todos los humanos que mueren.
01:34
That addsagrega up to an annualanual deathmuerte tollPeaje
19
70000
3000
Eso suma un total de muertos anuales
01:37
of greatermayor than the populationpoblación of CanadaCanadá.
20
73000
2000
mayor a la población de Canada.
01:39
SometimesA veces, we don't see a problemproblema
21
75000
2000
A veces, no vemos un problema
01:41
because eitherya sea it's too familiarfamiliar or it's too biggrande.
22
77000
4000
ya sea porque es muy familiar, o porque es muy grande.
01:45
Can't see it because it's too biggrande.
23
81000
2000
No podemos verlo porque es muy grande.
01:47
I think deathmuerte mightpodría be bothambos too familiarfamiliar and too biggrande
24
83000
3000
Yo pienso que la muerte puede que sea ambos, muy familiar y muy grande
01:50
for mostmás people to see it as a problemproblema.
25
86000
3000
para que la mayoría de la gente la vea como un problema.
01:53
OnceUna vez you think about it, you see this is not statisticalestadístico pointspuntos;
26
89000
2000
Una vez que piensas en eso, ves que esto no es estadística.
01:55
these are -- let's see, how farlejos have I talkedhabló?
27
91000
2000
Estos son -- a ver, ¿cuánto he hablado?
01:57
I've talkedhabló for threeTres minutesminutos.
28
93000
3000
He hablado durante 3 minutos.
02:00
So that would be, roughlyaproximadamente, 324 people have diedmurió sinceya que I've beguncomenzado speakingHablando.
29
96000
7000
Así que eso sería, aproximadametne, 324 personas se han muerto desde que he comenzado a hablar
02:07
People like -- it's roughlyaproximadamente the populationpoblación in this roomhabitación has just diedmurió.
30
103000
4000
Gente como -- es decir, la gente en esta aula se ha muerto.
02:12
Now, the humanhumano costcosto of that is obviousobvio,
31
108000
2000
Ahora, el costo humano de eso es obvio.
02:14
onceuna vez you startcomienzo to think about it -- the sufferingsufrimiento, the losspérdida --
32
110000
3000
Una vez que comienzas a pensarlo -- el sufrimiento, la pérdida --
02:17
it's alsoademás, economicallyeconómicamente, enormouslyenormemente wastefulantieconómico.
33
113000
3000
es también, económicamente, muy grande.
02:20
I just look at the informationinformación, and knowledgeconocimiento, and experienceexperiencia
34
116000
3000
Yo solo veo a la información, al conocimiento, y experiencia
02:23
that is lostperdió duedebido to naturalnatural causescausas of deathmuerte in generalgeneral,
35
119000
3000
que se pierde por causas naturales de muerte en general,
02:26
and agingenvejecimiento, in particularespecial.
36
122000
2000
y de enjevecimiento, en particular.
02:28
SupposeSuponer we approximatedaproximado one personpersona with one booklibro?
37
124000
3000
Supongan que una persona signifique un libro.
02:31
Now, of coursecurso, this is an underestimationsubestimación.
38
127000
2000
Ahora, por supuesto, esto es una subestimación
02:33
A person'spersona lifetimetoda la vida of learningaprendizaje and experienceexperiencia
39
129000
6000
Lo que una persona aprende a lo largo de su experiencia de vida
02:39
is a lot more than you could put into a singlesoltero booklibro.
40
135000
2000
es mucho más de lo que puedes poner en un solo libro.
02:41
But let's supposesuponer we did this.
41
137000
2000
Pero supongamos que hiciéramos esto.
02:44
52 millionmillón people diemorir of naturalnatural causescausas eachcada yearaño
42
140000
5000
52 millones de personas mueren de causas naturales cada año
02:49
correspondscorresponde, then, to 52 millionmillón volumesvolúmenes destroyeddestruido.
43
145000
4000
corresponde, entonces, a 52 millones de libros destruidos.
02:53
LibraryBiblioteca of CongressCongreso holdssostiene 18 millionmillón volumesvolúmenes.
44
149000
3000
La Biblioteca del Congreso tiene 18 millones de libros.
02:57
We are upsettrastornado about the burningardiente of the LibraryBiblioteca of AlexandriaAlejandría.
45
153000
3000
Estamos indignados con el incendio de la Biblioteca de Alejandría.
03:00
It's one of the great culturalcultural tragediestragedias
46
156000
2000
Es una de las más grandes tragedias culturales
03:02
that we rememberrecuerda, even todayhoy.
47
158000
3000
que recordamos hasta hoy.
03:06
But this is the equivalentequivalente of threeTres LibrariesBibliotecas of CongressCongreso --
48
162000
2000
Pero esto es el equivalente a 3 Bibliotecas del Congreso --
03:08
burntquemado down, foreverSiempre lostperdió -- eachcada yearaño.
49
164000
3000
quemadas, perdidas para siempre -- cada ano.
03:11
So that's the first biggrande problemproblema.
50
167000
2000
Así que ese es el primer gran problema.
03:13
And I wishdeseo GodspeedBuena suerte to AubreyAubrey deDelaware GreyGris,
51
169000
3000
Le deseo la velocidad de Dios a Aubrey de Grey
03:16
and other people like him,
52
172000
2000
y a otra gente como él,
03:18
to try to do something about this as soonpronto as possibleposible.
53
174000
3000
para que traten de hacer algo al respecto lo antes posible.
03:22
ExistentialExistencial riskriesgo -- the secondsegundo biggrande problemproblema.
54
178000
3000
Riesgo existencial -- el segundo gran problema.
03:25
ExistentialExistencial riskriesgo is a threatamenaza to humanhumano survivalsupervivencia, or to the long-terma largo plazo potentialpotencial of our speciesespecies.
55
181000
7000
El riesgo existencial es una amenaza a la supervivencia humana, o al potencial de largo plazo de nuestra especie
03:32
Now, why do I say that this is a biggrande problemproblema?
56
188000
2000
Ahora: ¿por qué digo que este es un gran problema?
03:34
Well, let's first look at the probabilityprobabilidad --
57
190000
4000
Bueno, primero miremos a la probabilidad --
03:38
and this is very, very difficultdifícil to estimateestimar --
58
194000
3000
y esto es muy difícil de estimar --
03:41
but there have been only fourlas cuatro studiesestudios on this in recentreciente yearsaños,
59
197000
3000
pero sólo ha habido 4 estudios en estos recientes años,
03:44
whichcual is surprisingsorprendente.
60
200000
2000
lo que es sorprendente.
03:46
You would think that it would be of some interestinteresar
61
202000
3000
Pensariíamos que sería interesante
03:49
to try to find out more about this givendado that the stakesapuestas are so biggrande,
62
205000
4000
tratar de investigar más sobre esto ya que las estadísticas son grandes,
03:53
but it's a very neglecteddescuidado areazona.
63
209000
2000
pero es un área muy descuidada.
03:55
But there have been fourlas cuatro studiesestudios --
64
211000
2000
Pero ha habido 4 estudios --
03:57
one by JohnJohn LesleyLesley, wroteescribió a booklibro on this.
65
213000
2000
uno de John Lesley, que escribió un libro sobre esto.
03:59
He estimatedestimado a probabilityprobabilidad that we will failfallar
66
215000
2000
Estimó una estadistica que nosotros
04:01
to survivesobrevivir the currentcorriente centurysiglo: 50 percentpor ciento.
67
217000
3000
no sobreviremos el siglo actual -- 50%
04:04
Similarlysimilar, the AstronomerAstrónomo RoyalReal, whomquién we heardoído speakhablar yesterdayayer,
68
220000
5000
Similarmente, el Astrónomo Real, a quien oímos hablar ayer,
04:09
alsoademás has a 50 percentpor ciento probabilityprobabilidad estimateestimar.
69
225000
3000
también tiene una estimación del 50% de probabilidad.
04:12
AnotherOtro authorautor doesn't give any numericalnumérico estimateestimar,
70
228000
3000
Otro autor no da estimativos numéricos,
04:15
but saysdice the probabilityprobabilidad is significantsignificativo that it will failfallar.
71
231000
3000
pero dice que la probabilidad de fracaso es significativa.
04:18
I wroteescribió a long paperpapel on this.
72
234000
3000
Yo escribí un largo ensayo sobre esto.
04:21
I said assigningasignando a lessMenos than 20 percentpor ciento probabilityprobabilidad would be a mistakeError
73
237000
4000
Yo dije que asignar menos del 20% de probabilidad sería un error
04:25
in lightligero of the currentcorriente evidenceevidencia we have.
74
241000
3000
dada la evidencia actual con la que contamos.
04:28
Now, the exactexacto figuresfiguras here,
75
244000
2000
Ahora, las cifras exactas de aquí,
04:30
we should take with a biggrande graingrano of saltsal,
76
246000
2000
deberíamos tomarlas con un grano grande de sal,
04:32
but there seemsparece to be a consensusconsenso that the riskriesgo is substantialsustancial.
77
248000
3000
pero parece ser que hay un consenso que el riesgo es sustancial.
04:35
EverybodyTodos who has lookedmirado at this and studiedestudió it agreesde acuerdo.
78
251000
3000
Todo quien ha visto y estudiado esto, está de acuerdo.
04:38
Now, if we think about what just reducingreduciendo
79
254000
2000
Ahora, si pensamos solamente en reducir
04:40
the probabilityprobabilidad of humanhumano extinctionextinción by just one percentageporcentaje pointpunto --
80
256000
5000
la probabilidad de la extinción humana en un 1% --
04:45
not very much -- so that's equivalentequivalente to 60 millionmillón livesvive savedsalvado,
81
261000
5000
no mucho -- es el equivalente a 60 millones de vidas salvadas,
04:50
if we just countcontar the currentlyactualmente livingvivo people, the currentcorriente generationGeneracion.
82
266000
4000
si solo contamos con la gente que vive en la actualidad, la generación actual.
04:54
Now one percentpor ciento of sixseis billionmil millones people is equivalentequivalente to 60 millionmillón.
83
270000
4000
Ahora 1% de seis mil millones de personas es equivalente a 60 millones.
04:58
So that's a largegrande numbernúmero.
84
274000
2000
Así que ese es un número grande.
05:00
If we were to take into accountcuenta futurefuturo generationsgeneraciones
85
276000
3000
Si tuviéramos en cuenta generaciones futuras
05:03
that will never come into existenceexistencia if we blowsoplar ourselvesNosotros mismos up,
86
279000
5000
eso nunca existirá si volamos todos,
05:08
then the figurefigura becomesse convierte astronomicalastronómico.
87
284000
3000
entonces la cifra se vuelve astronomica.
05:11
If we could eventuallyfinalmente colonizecolonizar a chunkpedazo of the universeuniverso --
88
287000
3000
Si pudiésemos, ahora, eventualmente, colonizar un pedazo del universo --
05:14
the VirgoVirgo superclusterpleó mas lleno --
89
290000
2000
la constelacion de Virgo --
05:16
maybe it will take us 100 millionmillón yearsaños to get there,
90
292000
2000
tal vez nos tome 100 millones de años llegar ahi,
05:18
but if we go extinctextinto we never will.
91
294000
3000
pero si nos extinguimos nunca lo lograremos.
05:21
Then, even a one percentageporcentaje pointpunto reductionreducción
92
297000
3000
Entonces, tan solo una reduccion del 1%
05:24
in the extinctionextinción riskriesgo could be equivalentequivalente
93
300000
4000
en el riesgo de extinción sería equivalente
05:28
to this astronomicalastronómico numbernúmero -- 10 to the powerpoder of 32.
94
304000
3000
a este numero astronómico -- 10 elevado a la potencia 32.
05:31
So if you take into accountcuenta futurefuturo generationsgeneraciones as much as our ownpropio,
95
307000
4000
Asi que si tomas en cuenta a las generaciones futuras tanto como a la actual,
05:35
everycada other moralmoral imperativeimperativo of philanthropicfilantrópico costcosto just becomesse convierte irrelevantirrelevante.
96
311000
5000
cualquier imperativo moral de costo filantrópico se vuelve irrelevante.
05:40
The only thing you should focusatención on
97
316000
2000
La única cosa en la que deberíamos concentrarnos
05:42
would be to reducereducir existentialexistencial riskriesgo
98
318000
2000
sería en reducir el riesgo existencial
05:44
because even the tiniestel más pequeño decreasedisminución in existentialexistencial riskriesgo
99
320000
4000
porque, inclusive, la más mínima reducción en el riesgo existencial
05:48
would just overwhelmabrumar any other benefitbeneficio you could hopeesperanza to achievelograr.
100
324000
4000
sobrepasaría cualquier otro beneficio que esperas obtener.
05:52
And even if you just look at the currentcorriente people,
101
328000
2000
Inclusive si sólo miras a la gente actual,
05:54
and ignoreignorar the potentialpotencial that would be lostperdió if we wentfuimos extinctextinto,
102
330000
5000
he ignoras el potencial que podría perderse si nos extinguiésemos,
05:59
it should still have a highalto priorityprioridad.
103
335000
2000
aún así todavía tendría una prioridad alta.
06:01
Now, let me spendgastar the restdescanso of my time on the thirdtercero biggrande problemproblema,
104
337000
5000
Ahora, déjenme hablar lo que resta de tiempo del tercer gran problema,
06:06
because it's more subtlesutil and perhapsquizás difficultdifícil to graspagarrar.
105
342000
5000
porque es más sutil y, tal vez, difícil de entender.
06:12
Think about some time in your life --
106
348000
4000
Piensa en aquel momento de tu vida --
06:16
some people mightpodría never have experiencedexperimentado it -- but some people,
107
352000
3000
algunas personas tal vez nunca lo experimentaron -- pero algunas otras,
06:19
there are just those momentsmomentos that you have experiencedexperimentado
108
355000
3000
existen aquellos momentos que han experimentado
06:22
where life was fantasticfantástico.
109
358000
2000
en donde la vida era fantastica.
06:24
It mightpodría have been at the momentmomento of some great, creativecreativo inspirationinspiración
110
360000
7000
tal vez fue en un momento de gran inspiración creativa
06:31
you mightpodría have had when you just enteredingresó this flowfluir stageescenario.
111
367000
2000
que han tenido cuando entran en este estado de flujo.
06:33
Or when you understoodentendido something you had never donehecho before.
112
369000
2000
O cuando entiendes algo que nunca lo habías entendido antes.
06:35
Or perhapsquizás in the ecstasyéxtasis of romanticromántico love.
113
371000
4000
o tal vez en el éxtasis del amor romántico.
06:39
Or an aestheticestético experienceexperiencia -- a sunsetpuesta de sol or a great piecepieza of artart.
114
375000
5000
o una experiencia estética -- un atardecer o una gran obra de arte.
06:44
EveryCada onceuna vez in a while we have these momentsmomentos,
115
380000
2000
De vez en cuando tenemos esos momentos,
06:46
and we realizedarse cuenta de just how good life can be when it's at its bestmejor.
116
382000
4000
y nos damos cuenta de cuan buena puede ser la vida cuando estamos en un momento así.
06:50
And you wonderpreguntarse, why can't it be like that all the time?
117
386000
5000
y te preguntas, ¿por qué no puede ser así todo el tiempo?
06:55
You just want to clingadherirse ontosobre this.
118
391000
2000
Te quieres aferrar a esto.
06:57
And then, of coursecurso, it driftsderivas back into ordinaryordinario life and the memorymemoria fadesdesvanece.
119
393000
4000
Y luego, por supuesto, se vuelve a la vida ordinaria y la memoria desaparece.
07:01
And it's really difficultdifícil to recallrecordar, in a normalnormal framemarco of mindmente,
120
397000
4000
y es muy difícil recordar, en una franja mental normal,
07:05
just how good life can be at its bestmejor.
121
401000
3000
cuan buena la vida puede ser en su mejor estado.
07:08
Or how badmalo it can be at its worstpeor.
122
404000
3000
o cuan fea puede serlo en su peor estado.
07:11
The thirdtercero biggrande problemproblema is that life isn't usuallygeneralmente
123
407000
3000
El tercer gran problema es que la vida usualmente no es
07:14
as wonderfulmaravilloso as it could be.
124
410000
2000
tan grandiosa como podría serlo.
07:16
I think that's a biggrande, biggrande problemproblema.
125
412000
4000
Yo pienso que eso es un gran, gran problema.
07:20
It's easyfácil to say what we don't want.
126
416000
2000
Es fácil decir lo que no queremos.
07:23
Here are a numbernúmero of things that we don't want --
127
419000
3000
Aquí hay unas cuantas cosas que no queremos --
07:26
illnessenfermedad, involuntaryinvoluntario deathmuerte, unnecessaryinnecesario sufferingsufrimiento, crueltycrueldad,
128
422000
3000
enfermedad, muerte involuntaria, sufrimiento inecesario, crueldad,
07:29
stuntedenano growthcrecimiento, memorymemoria losspérdida, ignoranceignorancia, absenceausencia of creativitycreatividad.
129
425000
5000
pérdida de memoria, ignorancia, ausencia de creatividad.
07:35
SupposeSuponer we fixedfijo these things -- we did something about all of these.
130
431000
3000
Supongamos que arreglásemos estas cosas -- que hicieramos algo al respecto de todo esto.
07:38
We were very successfulexitoso.
131
434000
2000
Fuimos muy exitosos.
07:40
We got rideliminar of all of these things.
132
436000
2000
Nos deshicimos de todas estas cosas.
07:42
We mightpodría endfin up with something like this,
133
438000
3000
Es probable que termináramos con algo como esto.
07:45
whichcual is -- I mean, it's a heckinfierno of a lot better than that.
134
441000
4000
Que es -- me refiero, es mucho mejor que eso. Quiero decir,
07:49
But is this really the bestmejor we can dreamsueño of?
135
445000
5000
es esto en realidad lo mejor si -- podemos soñarlo
07:54
Is this the bestmejor we can do?
136
450000
2000
¿Es esto lo mejor que podemos hacer?
07:56
Or is it possibleposible to find something a little bitpoco more inspiringinspirador to work towardshacia?
137
452000
6000
¿O es posible encontrar algo mas inspirador para proyectar?
08:02
And if we think about this,
138
458000
2000
Y si pensamos en esto,
08:04
I think it's very clearclaro that there are waysformas
139
460000
4000
pienso que está muy claro que hay formas
08:08
in whichcual we could changecambio things, not just by eliminatingeliminando negativesnegativos,
140
464000
3000
en que cambiaríamos cosas, no sólo eliminando negativas,
08:11
but addingagregando positivespositivos.
141
467000
2000
sino sumando positivas.
08:13
On my wishdeseo listlista, at leastmenos, would be:
142
469000
2000
En mi lista de deseos, al menos, seria --
08:15
much longermás, healthiermas saludable livesvive, greatermayor subjectivesubjetivo well-beingbienestar,
143
471000
5000
vidas mas largas y saludables, mayor bienestar personal,
08:20
enhancedmejorado cognitivecognitivo capacitiescapacidades, more knowledgeconocimiento and understandingcomprensión,
144
476000
5000
capacidades cognitivas mayores, más conocimiento y entendimiento,
08:25
unlimitedilimitado opportunityoportunidad for personalpersonal growthcrecimiento
145
481000
2000
oportunidad ilimitada de crecimiento personal
08:27
beyondmás allá our currentcorriente biologicalbiológico limitslímites, better relationshipsrelaciones,
146
483000
4000
mas allaá de nuestros límites biológicos, mejores relaciones,
08:31
an unboundedilimitado potentialpotencial for spiritualespiritual, moralmoral
147
487000
2000
un potencial ilimitado de espiritualidad, de moral
08:33
and intellectualintelectual developmentdesarrollo.
148
489000
2000
y desarrollo intelectual.
08:35
If we want to achievelograr this, what, in the worldmundo, would have to changecambio?
149
491000
8000
Si queremos lograr esto, qué en el mundo, tendríamos que cambiar?
08:43
And this is the answerresponder -- we would have to changecambio.
150
499000
5000
Y esta es la respuesta: tendríamos que cambiar nosotros.
08:48
Not just the worldmundo around us, but we, ourselvesNosotros mismos.
151
504000
3000
No sólo el mundo que nos rodea, sino nosotros mismos.
08:51
Not just the way we think about the worldmundo, but the way we are -- our very biologybiología.
152
507000
4000
No sólo la forma en la que pensamos el mundo sino nuestro ser en sí -- nuestra biología.
08:55
HumanHumano naturenaturaleza would have to changecambio.
153
511000
2000
La naturaleza humana tendría que cambiar.
08:57
Now, when we think about changingcambiando humanhumano naturenaturaleza,
154
513000
2000
Ahora, cuando pensamos en cambiar la naturaleza humana,
08:59
the first thing that comesproviene to mindmente
155
515000
2000
lo primero que se nos viene en mente
09:01
are these humanhumano modificationmodificación technologiestecnologías --
156
517000
4000
son estas tecnologías de modificación humana --
09:05
growthcrecimiento hormonehormona therapyterapia, cosmeticcosmético surgerycirugía,
157
521000
2000
terapias hormonales, cirugías cosméticas,
09:07
stimulantsestimulantes like RitalinRitalin, AdderallAdderall, anti-depressantsantidepresivos,
158
523000
3000
estimulantes como Ritalin, Adderall, antidepresivos,
09:10
anabolicanabólico steroidsesteroides, artificialartificial heartscopas.
159
526000
2000
esteroides anabólicos, corazones artificiales.
09:12
It's a prettybonita patheticpatético listlista.
160
528000
3000
Es una lista bastante patética.
09:15
They do great things for a fewpocos people
161
531000
2000
Son muy útiles para muy pocos
09:17
who suffersufrir from some specificespecífico conditioncondición,
162
533000
2000
que sufren de una condición específica.
09:19
but for mostmás people, they don't really transformtransformar
163
535000
5000
Pero para la mayoría, no transforma
09:24
what it is to be humanhumano.
164
540000
2000
lo que es ser humano.
09:26
And they alsoademás all seemparecer a little bitpoco --
165
542000
2000
y también parecen ser un poquito --
09:28
mostmás people have this instinctinstinto that, well, sure,
166
544000
3000
la mayoria tienen este instinto que, bueno, por supuesto que
09:31
there needsnecesariamente to be anti-depressantsantidepresivos for the really depressedDeprimido people.
167
547000
2000
tiene que haber antidepresivos para los que tienen depresión
09:33
But there's a kindtipo of queasinessnáuseas
168
549000
2000
Pero hay un sentir raro
09:35
that these are unnaturalantinatural in some way.
169
551000
3000
de que estas cosas de alguna manera no son naturales.
09:38
It's worthvalor recallingrecordando that there are a lot of other
170
554000
2000
Vale la pena reconocer que hay muchos otras
09:40
modificationmodificación technologiestecnologías and enhancementmejora technologiestecnologías that we use.
171
556000
3000
modificaciones y refuerzos tecnólogicos que utilizamos.
09:43
We have skinpiel enhancementsmejoras, clothingropa.
172
559000
4000
Tenemos cosméticos para la piel, ropa.
09:47
As farlejos as I can see, all of you are usersusuarios of this
173
563000
4000
Puedo ver que todos ustedes son usuarios de estas
09:51
enhancementmejora technologytecnología in this roomhabitación, so that's a great thing.
174
567000
5000
tecnologias, ¡y eso es bueno!
09:56
MoodEstado animico modifiersmodificadores have been used from time immemorialinmemorial --
175
572000
3000
Se han usado modificadores del ánimo desde tiempos inmemoriales --
09:59
caffeinecafeína, alcoholalcohol, nicotinenicotina, immuneinmune systemsistema enhancementmejora,
176
575000
5000
cafeína, alcohol, nicotina, reforzadores del sistema inmune,
10:04
visionvisión enhancementmejora, anestheticsanestésicos --
177
580000
2000
reforzadores de la vista, anestecias.
10:06
we take that very much for grantedconcedido,
178
582000
2000
Damos a esas cosas por hecho,
10:08
but just think about how great progressProgreso that is --
179
584000
4000
pero sólo piensa cuan gran progreso eso es --
10:12
like, havingteniendo an operationoperación before anestheticsanestésicos was not fundivertido.
180
588000
4000
por ejemplo, tener una operacion antes de la anestecia no era divertido.
10:16
ContraceptivesAnticonceptivos, cosmeticsproductos cosméticos and braincerebro reprogrammingreprogramación techniquestécnicas --
181
592000
6000
Anticonceptivos, cosmeéticos y técnicas de reprogramación cerebral --
10:22
that soundssonidos ominousominoso,
182
598000
2000
eso suena siniestro.
10:24
but the distinctiondistinción betweenEntre what is a technologytecnología --
183
600000
4000
Pero la distinción entre lo que es una tecnología --
10:28
a gadgetartilugio would be the archetypearquetipo --
184
604000
2000
un aparato sería el arquetipo.
10:30
and other waysformas of changingcambiando and rewritingreescribiendo humanhumano naturenaturaleza is quitebastante subtlesutil.
185
606000
4000
Y otras formas de cambiar y replantear la naturaleza humana es muy sutil.
10:34
So if you think about what it meansmedio to learnaprender arithmeticaritmética or to learnaprender to readleer,
186
610000
4000
Así que, si piensas en lo que significa aprender aritmética o aprender a leer,
10:38
you're actuallyactualmente, literallyliteralmente rewritingreescribiendo your ownpropio braincerebro.
187
614000
3000
eventualmente estas reprogramando tu propio cerebro.
10:41
You're changingcambiando the microstructuremicroestructura of your braincerebro as you go alonga lo largo.
188
617000
3000
Estás cambiando la microestructura de tu cerebro mientras lo haces.
10:45
So in a broadancho sensesentido, we don't need to think about technologytecnología
189
621000
3000
Así que, en un sentido mas amplio, no necesitamos pensar en la tecnología
10:48
as only little gadgetsgadgets, like these things here,
190
624000
2000
como sólo aparatitos, como estas cosas de aquí.
10:50
but even institutionsinstituciones and techniquestécnicas,
191
626000
4000
Pero inclusive instituciones y técnicas,
10:54
psychologicalpsicológico methodsmétodos and so forthadelante.
192
630000
2000
métodos psicológicos, etc.
10:56
FormsFormularios of organizationorganización can have a profoundprofundo impactimpacto on humanhumano naturenaturaleza.
193
632000
5000
Las formas de organización pueden tener un impacto profundo en la naturaleza humana
11:01
Looking aheadadelante, there is a rangedistancia of technologiestecnologías
194
637000
2000
Mirando hacia adelante, hay un rango de tecnologías
11:03
that are almostcasi certaincierto to be developeddesarrollado soonercuanto antes or laterluego.
195
639000
3000
que es casi seguro que van a ser desarrolladas tarde o temprano.
11:06
We are very ignorantignorante about what the time scaleescala for these things are,
196
642000
4000
Somos muy ignorantes sobre la escala de tiempo de estas cosas,
11:10
but they all are consistentconsistente with everything we know
197
646000
2000
pero son todas consistentes con el conocimiento que tenemos
11:12
about physicalfísico lawsleyes, lawsleyes of chemistryquímica, etcetc.
198
648000
4000
sobre leyes de la física, de la química, etcétera.
11:16
It's possibleposible to assumeasumir,
199
652000
2000
Es posible suponer,
11:18
settingajuste asideaparte a possibilityposibilidad of catastrophecatástrofe,
200
654000
3000
dejando de lado la posibilidad de una catástrofe,
11:21
that soonercuanto antes or laterluego we will developdesarrollar all of these.
201
657000
3000
tarde o temprano vamos a desarrollar todo esto.
11:24
And even just a couplePareja of these would be enoughsuficiente
202
660000
3000
e inclusive con tan solo un par de éstas sería suficiente
11:27
to transformtransformar the humanhumano conditioncondición.
203
663000
2000
para transformar la condición humana.
11:29
So let's look at some of the dimensionsdimensiones of humanhumano naturenaturaleza
204
665000
5000
Así que veamos algunas de las dimensiones de la naturaleza humana
11:34
that seemparecer to leavesalir roomhabitación for improvementmejora.
205
670000
3000
que parecen necesitar mejoras.
11:37
HealthSalud spanlapso is a biggrande and urgenturgente thing,
206
673000
2000
La salud es un gran y urgente problema,
11:39
because if you're not aliveviva,
207
675000
2000
porque si no estás vivo,
11:41
then all the other things will be to little availaprovechar.
208
677000
3000
entonces todas las otras cosas serían de poca importancia.
11:44
IntellectualIntelectual capacitycapacidad -- let's take that boxcaja,
209
680000
2000
Capacidad intelectual -- veamos esa caja.
11:46
whichcual fallscaídas into a lot of differentdiferente sub-categoriessubcategorías:
210
682000
5000
que desemboca en muchas otras subcategorías --
11:51
memorymemoria, concentrationconcentración, mentalmental energyenergía, intelligenceinteligencia, empathyempatía.
211
687000
3000
memoria, concentración, energia mental, inteligencia, empatía.
11:54
These are really great things.
212
690000
2000
Estas son cosas grandiosas.
11:56
PartParte of the reasonrazón why we valuevalor these traitsrasgos
213
692000
2000
Parte de la razón por la que valoramos estas cualidades
11:58
is that they make us better at competingcompitiendo with other people --
214
694000
4000
es por que nos hacen mejor cuando competimos con otra gente --
12:02
they're positionalposicional goodsbienes.
215
698000
2000
son bienes posicionales.
12:04
But partparte of the reasonrazón --
216
700000
2000
Pero parte de la razón --
12:06
and that's the reasonrazón why we have ethicalético groundsuelo for pursuingperseguir these --
217
702000
4000
y esa esa la razón por la que tenemos bases éticas para perseguir éstas --
12:10
is that they're alsoademás intrinsicallyintrínsecamente valuablevalioso.
218
706000
3000
es por lo que son intrínsecamente valorables.
12:13
It's just better to be ablepoder to understandentender more of the worldmundo around you
219
709000
4000
Es mejor poder entender más del mundo que te rodea
12:17
and the people that you are communicatingcomunicado with,
220
713000
2000
y la gente con la que te estás comunicando,
12:19
and to rememberrecuerda what you have learnedaprendido.
221
715000
4000
y para recordar lo que has aprendido.
12:23
ModalitiesModalidades and specialespecial facultiesfacultades.
222
719000
2000
Modalidades y facultades especiales.
12:25
Now, the humanhumano mindmente is not a singlesoltero unitaryunitario informationinformación processorprocesador,
223
721000
5000
Ahora, la mente humana no es un procesador unitario de información,
12:30
but it has a lot of differentdiferente, specialespecial, evolvedevolucionado modulesmódulos
224
726000
4000
ya que tiene muchas otras modulaciones diferentes y evolucionadas
12:34
that do specificespecífico things for us.
225
730000
2000
que hacen cosas especificas por nosotros.
12:36
If you think about what we normallynormalmente take as givingdando life a lot of its meaningsentido --
226
732000
4000
Si piensas en lo que normalmente significa darle a la vida mucho de su significado:
12:40
musicmúsica, humorhumor, eroticismerotismo, spiritualityespiritualidad, aestheticsestética,
227
736000
4000
música, humor, erotismo, espiritualidad, estéticas,
12:44
nurturingnutriendo and caringcuidando, gossipchisme, chattingcharlando with people --
228
740000
5000
importancia, cuidado, rumores, charlar con la gente.
12:49
all of these, very likelyprobable, are enabledhabilitado by a specialespecial circuitrycircuitería
229
745000
4000
Todo esto es posible por un circuito especial
12:53
that we humanshumanos have,
230
749000
2000
que tenemos los humanos
12:55
but that you could have anotherotro intelligentinteligente life formformar that lackscarece these.
231
751000
3000
pero podrías tener otra forma de vida inteligente que carezca de éstos.
12:58
We're just luckysuerte that we have the requisiterequisito neuralneural machinerymaquinaria
232
754000
3000
Somos afotunados en tener la maquinaria neural necesaria
13:01
to processproceso musicmúsica and to appreciateapreciar it and enjoydisfrutar it.
233
757000
4000
para procesar música, apreciarla y disfrutarla.
13:05
All of these would enablehabilitar, in principleprincipio -- be amenabledócil to enhancementmejora.
234
761000
3000
Todo esto permitiría, en principio, estar predispuesto a la mejora.
13:08
Some people have a better musicalmusical abilitycapacidad
235
764000
2000
Algunos tienen mejores habilidades musicales
13:10
and abilitycapacidad to appreciateapreciar musicmúsica than othersotros have.
236
766000
2000
y también una habilidad para apreciar música más desarrollada que otros.
13:12
It's alsoademás interestinginteresante to think about what other things are --
237
768000
3000
También es interesante pensar que otras cosas son --
13:15
so if these all enabledhabilitado great valuesvalores,
238
771000
3000
entonces si todas éstas nos permiten grandes valores:
13:19
why should we think that evolutionevolución has happenedsucedió to provideproporcionar us
239
775000
3000
¿por qué deberiamos pensar que la evolución nos ha proporcionado
13:22
with all the modalitiesmodalidades we would need to engagecontratar
240
778000
3000
todas las modalidades que necesitamos tener
13:25
with other valuesvalores that there mightpodría be?
241
781000
2000
con otros valores que quizas existan?
13:27
ImagineImagina a speciesespecies
242
783000
2000
Imaginen a una especie
13:29
that just didn't have this neuralneural machinerymaquinaria for processingtratamiento musicmúsica.
243
785000
4000
que no tuviese esta maquinaria neural para procesar la música
13:33
And they would just staremirar fijamente at us with bafflementdesconcierto
244
789000
3000
y se quedaran mirándonos con perplejidad
13:36
when we spendgastar time listeningescuchando to a beautifulhermosa performanceactuación,
245
792000
4000
al escuchar una hermosa ejecución,
13:40
like the one we just heardoído -- because of people makingfabricación stupidestúpido movementsmovimientos,
246
796000
2000
como la que acabamos de escuchar -- porque la gente hace movimientos estúpidos.
13:42
and they would be really irritatedirritado and wouldn'tno lo haría see what we were up to.
247
798000
3000
Estarían realmente irritados y no podrían ver lo que nosotros estamos haciendo.
13:45
But maybe they have anotherotro facultyfacultad, something elsemás
248
801000
3000
Pero tal vez ellos tengan otra facultad, algo más
13:48
that would seemparecer equallyIgualmente irrationalirracional to us,
249
804000
3000
que nos pareceria igualmente irracional a nosotros,
13:51
but they actuallyactualmente tapgrifo into some great possibleposible valuevalor there.
250
807000
3000
pero en realidad a lo mejor se topen con gran valor posible ahi.
13:54
But we are just literallyliteralmente deafsordo to that kindtipo of valuevalor.
251
810000
4000
Pero nosotros seríamos literalmente sordos a tal tipo de valor.
13:58
So we could think of addingagregando on differentdiferente,
252
814000
2000
Así que podríamos pensar en adherir diferente
14:00
newnuevo sensorysensorial capacitiescapacidades and mentalmental facultiesfacultades.
253
816000
4000
capacidad nueva sensorial y facultades mentales.
14:04
BodilyCorporal functionalityfuncionalidad and morphologymorfología and affectiveafectivo self-controlauto control.
254
820000
5000
Funcionalidad del cuerpo y morfología y autocontrol afectivo.
14:09
GreaterMayor subjectivesubjetivo well-beingbienestar.
255
825000
2000
Mayor bienestar
14:11
Be ablepoder to switchcambiar betweenEntre relaxationrelajación and activityactividad --
256
827000
3000
Poder cambiar de relajación a actividad --
14:14
beingsiendo ablepoder to go slowlento when you need to do that, and to speedvelocidad up.
257
830000
4000
poder ir lento cuando necesitas hacerlo, y también acelerar.
14:18
AblePoder to switchcambiar back and forthadelante more easilyfácilmente
258
834000
2000
Poder cambiar de un estado al otro más facilmente
14:20
would be a neatordenado thing to be ablepoder to do --
259
836000
2000
sería algo muy delicado de poder hacer --
14:22
easiermás fácil to achievelograr the flowfluir stateestado,
260
838000
2000
poder adquirir un estado de flujo más facilmente,
14:24
when you're totallytotalmente immersedinmerso in something you are doing.
261
840000
4000
cuando estás totalmente sumergido en algo que estás haciendo.
14:28
ConscientiousnessEscrupulosidad and sympathysimpatía.
262
844000
2000
Concientización y simpatía.
14:30
The abilitycapacidad to -- it's anotherotro interestinginteresante applicationsolicitud
263
846000
3000
La habilidad de -- es otra aplicación interesante
14:33
that would have largegrande socialsocial ramificationramificación, perhapsquizás.
264
849000
3000
eso tendría problemas grandes de ramificación social.
14:36
If you could actuallyactualmente chooseescoger to preservepreservar your romanticromántico attachmentsarchivos adjuntos to one personpersona,
265
852000
6000
Si en realidad pudieses preservar tu relación romántica con una persona,
14:42
undiminishedsin disminuir throughmediante time,
266
858000
2000
sin que disminuya con el tiempo,
14:44
so that wouldn'tno lo haría have to -- love would never have to fadedescolorarse if you didn't want it to.
267
860000
3000
eso no tendría que -- el amor nunca de desvanecería si no lo quisieras.
14:49
That's probablyprobablemente not all that difficultdifícil.
268
865000
3000
Eso probablemente no es tan difícil.
14:52
It mightpodría just be a simplesencillo hormonehormona or something that could do this.
269
868000
3000
Tal vez sea una simple hormona o algo que pueda lograr esto.
14:57
It's been donehecho in volesratones de campo.
270
873000
2000
Ha sido hecho en campañoles.
15:01
You can engineeringeniero a prairiepradera volecampañol to becomevolverse monogamousmonógamo
271
877000
3000
Puedes aplicar la ingeniería para volver a unos campañoles prairie monógamos
15:04
when it's naturallynaturalmente polygamouspolígamo.
272
880000
2000
cuando en realidad son polígamos.
15:06
It's just a singlesoltero genegene.
273
882000
2000
Es tan solo un gen.
15:08
MightPodría be more complicatedComplicado in humanshumanos, but perhapsquizás not that much.
274
884000
2000
Puede que sea más complicado en los humanos, pero no tanto.
15:10
This is the last pictureimagen that I want to --
275
886000
2000
Esta es la ultima impresión que quiero --
15:13
now we'venosotros tenemos got to use the laserláser pointerpuntero.
276
889000
2000
ahora tenemos que utilizar el apuntador láser.
15:16
A possibleposible modemodo of beingsiendo here would be a way of life --
277
892000
3000
Una forma posible de ser aqui, sería una forma de vida --
15:19
a way of beingsiendo, experiencingexperimentar, thinkingpensando, seeingviendo,
278
895000
4000
una forma de ser, de experimentar, pensar, ver,
15:23
interactinginteractuando with the worldmundo.
279
899000
2000
interactuar con el mundo.
15:25
Down here in this little corneresquina, here, we have the little sub-spacesubespacio
280
901000
5000
Aquí abajo en este pequeño costado, aquí, tenemos poco subespacio
15:30
of this largermás grande spaceespacio that is accessibleaccesible to humanhumano beingsseres --
281
906000
4000
de este largo espacio que es accesible a los humanos --
15:34
beingsseres with our biologicalbiológico capacitiescapacidades.
282
910000
3000
seres con nuestras capacidades biológicas.
15:37
It's a partparte of the spaceespacio that's accessibleaccesible to animalsanimales;
283
913000
3000
Es una parte del espacio accesible a los animales --
15:40
sinceya que we are animalsanimales, we are a subsetsubconjunto of that.
284
916000
3000
como somos animales nosotros, somos un subconjunto de esto.
15:43
And then you can imagineimagina some enhancementsmejoras of humanhumano capacitiescapacidades.
285
919000
4000
Y luego puedes imaginarte algunas mejoras de las capacidades humanas.
15:47
There would be differentdiferente modesmodos of beingsiendo you could experienceexperiencia
286
923000
3000
Habría diferentes modos de ser que podrías experimentar
15:50
if you were ablepoder to staypermanecer aliveviva for, say, 200 yearsaños.
287
926000
3000
si pudieses mantenerte vivo por, digamos 200 años.
15:53
Then you could livevivir sortstipo of livesvive and accumulateacumular wisdomssabiduría
288
929000
4000
Entonces podrías vivir vidas distintas y acumular sabidurías
15:57
that are just not possibleposible for humanshumanos as we currentlyactualmente are.
289
933000
3000
que simplemente no son posibles para los humanos actuales.
16:00
So then, you movemovimiento off to this largermás grande sphereesfera of "humanhumano +,"
290
936000
4000
Entonces, nos movemos hacia esta esfera grande de sumas
16:04
and you could continuecontinuar that processproceso and eventuallyfinalmente
291
940000
3000
y podrías continuar ese proceso y eventualmente
16:07
exploreexplorar a lot of this largermás grande spaceespacio of possibleposible modesmodos of beingsiendo.
292
943000
4000
explorar mucho de este grande espacio de posibles formas de ser.
16:11
Now, why is that a good thing to do?
293
947000
2000
Ahora, ¿por qué eso es algo bueno para hacer?
16:13
Well, we know alreadyya that in this little humanhumano circlecirculo there,
294
949000
4000
Bueno, nosotros sabemos que en este pequeño círculo,
16:17
there are these enormouslyenormemente wonderfulmaravilloso and worthwhilevale la pena modesmodos of beingsiendo --
295
953000
4000
hay estos enormes y grandiosos modos de ser --
16:21
humanhumano life at its bestmejor is wonderfulmaravilloso.
296
957000
3000
la vida humana en su mejor momento es maravillosa.
16:24
We have no reasonrazón to believe that withindentro this much, much largermás grande spaceespacio
297
960000
5000
No tenemos razones para creer que dentro de este espacio más grande
16:29
there would not alsoademás be extremelyextremadamente worthwhilevale la pena modesmodos of beingsiendo,
298
965000
4000
no haya también modos grandiosos de ser.
16:33
perhapsquizás onesunos that would be way beyondmás allá our wildestsalvaje abilitycapacidad
299
969000
6000
Tal vez algunos que vayan mas allá de nuestras más salvajes habilidades
16:39
even to imagineimagina or dreamsueño about.
300
975000
2000
inclusive de imaginar o de soñar.
16:41
And so, to fixfijar this thirdtercero problemproblema,
301
977000
2000
así que para solucionar este tercer problema,
16:43
I think we need -- slowlydespacio, carefullycuidadosamente, with ethicalético wisdomsabiduría and constraintrestricción --
302
979000
6000
Yo pienso que necesitamos -- lenta y cuidadosamente, con sabiduría ética
16:49
developdesarrollar the meansmedio that enablehabilitar us to go out in this largermás grande spaceespacio and exploreexplorar it
303
985000
5000
desarrollar los medios que nos permitan explorar este espacio.
16:54
and find the great valuesvalores that mightpodría hideesconder there.
304
990000
2000
y encontrar los grandes valores que pueda que se escondan ahí.
16:56
ThanksGracias.
305
992000
2000
Gracias.
Translated by Lucas Cavolo
Reviewed by Sebastian Betti

▲Back to top

ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com