ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com
TED2015

Nick Bostrom: What happens when our computers get smarter than we are?

Nick Bostrom: ¿Qué sucede cuando nuestras computadoras se vuelven más inteligentes que nosotros?

Filmed:
4,632,705 views

La Inteligencia Artificial está dando grandes pasos: según los expertos, durante este siglo, la inteligencia artificial podría llegar a ser tan "inteligente" como un humano. Para que luego, dice Nick Bostrom, nos supere; en sus palabras, "la inteligencia artificial es el último invento que la humanidad tendrá que hacer". Filósofo y tecnólogo, Bostrom nos pide que pensemos seriamente en el mundo gobernado por máquinas pensantes que estamos construyendo. Estas máquinas inteligentes nos ayudarán a preservar nuestra humanidad y nuestros valores, ¿o tendrán sus propios valores?
- Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us? Full bio

Double-click the English transcript below to play the video.

00:12
I work with a bunchmanojo of mathematiciansmatemáticos,
philosophersfilósofos and computercomputadora scientistscientíficos,
0
570
4207
Yo trabajo con un grupo de matemáticos,
filósofos y científicos informáticos,
00:16
and we sitsentar around and think about
the futurefuturo of machinemáquina intelligenceinteligencia,
1
4777
5209
y nos juntamos para pensar en
el futuro de la inteligencia artificial,
00:21
amongentre other things.
2
9986
2044
entre otras cosas.
00:24
Some people think that some of these
things are sortordenar of scienceciencia fiction-yficción-y,
3
12030
4725
Algunos piensan que estas cosas
son una especie de ciencia ficción
00:28
farlejos out there, crazyloca.
4
16755
3101
alocadas y alejadas de la verdad.
00:31
But I like to say,
5
19856
1470
Pero bueno, me gusta sugerir
00:33
okay, let's look at the modernmoderno
humanhumano conditioncondición.
6
21326
3604
que analicemos la
condición humana moderna.
00:36
(LaughterRisa)
7
24930
1692
(Risas)
00:38
This is the normalnormal way for things to be.
8
26622
2402
Así es cómo tienen que ser las cosas.
00:41
But if we think about it,
9
29024
2285
Pero si lo pensamos,
00:43
we are actuallyactualmente recentlyrecientemente arrivedllegado
guestsinvitados on this planetplaneta,
10
31309
3293
en realidad acabamos de llegar
a este planeta,
00:46
the humanhumano speciesespecies.
11
34602
2082
nosotros, la especie humana.
00:48
Think about if EarthTierra
was createdcreado one yearaño agohace,
12
36684
4746
Piensen que si la Tierra
hubiera sido creada hace un año,
00:53
the humanhumano speciesespecies, then,
would be 10 minutesminutos oldantiguo.
13
41430
3548
entonces la raza humana
solo tendría 10 minutos de edad
00:56
The industrialindustrial eraera startedempezado
two secondssegundos agohace.
14
44978
3168
y la era industrial habría empezado
hace dos segundos.
01:01
AnotherOtro way to look at this is to think of
worldmundo GDPPIB over the last 10,000 yearsaños,
15
49276
5225
Otra forma de abordar esto es pensar en
el PIB mundial en los últimos 10 000 años,
y de hecho, me he tomado la molestia
de representarlo en un gráfico para Uds.
01:06
I've actuallyactualmente takentomado the troubleproblema
to plottrama this for you in a graphgrafico.
16
54501
3029
01:09
It looksmiradas like this.
17
57530
1774
Se ve así.
01:11
(LaughterRisa)
18
59304
1363
(Risas)
Tiene una forma curiosa para ser normal.
01:12
It's a curiouscurioso shapeforma
for a normalnormal conditioncondición.
19
60667
2151
01:14
I sure wouldn'tno lo haría want to sitsentar on it.
20
62818
1698
Y seguro que no me gustaría
sentarme en ella.
01:16
(LaughterRisa)
21
64516
2551
(Risas)
01:19
Let's askpedir ourselvesNosotros mismos, what is the causeporque
of this currentcorriente anomalyanomalía?
22
67067
4774
Preguntémonos ¿cuál es la
causa de esta anomalía actual?
01:23
Some people would say it's technologytecnología.
23
71841
2552
Algunas personas dirán
que es la tecnología.
01:26
Now it's truecierto, technologytecnología has accumulatedacumulado
throughmediante humanhumano historyhistoria,
24
74393
4668
Ahora bien es cierto que la tecnología
ha aumentado a lo largo de la historia,
01:31
and right now, technologytecnología
advancesavances extremelyextremadamente rapidlyrápidamente --
25
79061
4652
y en la actualidad avanza muy rápidamente
01:35
that is the proximatepróximo causeporque,
26
83713
1565
--esa es la causa inmediata--
01:37
that's why we are currentlyactualmente
so very productiveproductivo.
27
85278
2565
y por esto la razón de ser
muy productivos hoy en día.
01:40
But I like to think back furtherpromover
to the ultimateúltimo causeporque.
28
88473
3661
Pero me gusta indagar más allá,
buscar la causa de todo.
01:45
Look at these two highlyaltamente
distinguisheddistinguido gentlemencaballeros:
29
93114
3766
Miren a estos 2 caballeros
muy distinguidos:
Tenemos a Kanzi,
01:48
We have KanziKanzi --
30
96880
1600
01:50
he's mastereddominado 200 lexicalléxico
tokenstokens, an incredibleincreíble feathazaña.
31
98480
4643
que domina 200 unidades léxicas,
una hazaña increíble,
01:55
And EdEd WittenWitten unleashedsoltado the secondsegundo
superstringsupercuerda revolutionrevolución.
32
103123
3694
y a Ed Witten que desató la segunda
revolución de las supercuerdas.
Si miramos atentamente
esto es lo que encontramos:
01:58
If we look underdebajo the hoodcapucha,
this is what we find:
33
106817
2324
02:01
basicallybásicamente the samemismo thing.
34
109141
1570
básicamente la misma cosa.
02:02
One is a little largermás grande,
35
110711
1813
Uno es un poco más grande,
02:04
it maybe alsoademás has a fewpocos trickstrucos
in the exactexacto way it's wiredcableado.
36
112524
2758
y puede que también tenga algunos trucos
más por la forma en que está diseñado,
02:07
These invisibleinvisible differencesdiferencias cannotno poder
be too complicatedComplicado, howeversin embargo,
37
115282
3812
sin embargo, estas diferencias invisibles
no pueden ser demasiado complicadas
02:11
because there have only
been 250,000 generationsgeneraciones
38
119094
4285
porque solo nos separan
250 000 generaciones
02:15
sinceya que our last commoncomún ancestorantepasado.
39
123379
1732
de nuestro último ancestro común.
02:17
We know that complicatedComplicado mechanismsmecanismos
take a long time to evolveevolucionar.
40
125111
3849
Sabemos que los mecanismos complicados
tardan mucho tiempo en evolucionar
02:22
So a bunchmanojo of relativelyrelativamente minormenor changescambios
41
130000
2499
así que una serie de pequeños cambios
02:24
take us from KanziKanzi to WittenWitten,
42
132499
3067
nos lleva de Kanzi a Witten,
02:27
from broken-offquebrado treeárbol branchesramas
to intercontinentalintercontinental ballisticbalístico missilesmisiles.
43
135566
4543
de las ramas de árboles rotas a
los misiles balísticos intercontinentales.
02:32
So this then seemsparece prettybonita obviousobvio
that everything we'venosotros tenemos achievedlogrado,
44
140839
3935
Así que parece bastante claro
que todo lo que hemos logrado,
y todo lo que nos importa,
02:36
and everything we carecuidado about,
45
144774
1378
02:38
dependsdepende cruciallycrucialmente on some relativelyrelativamente minormenor
changescambios that madehecho the humanhumano mindmente.
46
146152
5228
depende fundamentalmente de algunos
cambios relativamente menores
sufridos por la mente humana.
02:44
And the corollarycorolario, of coursecurso,
is that any furtherpromover changescambios
47
152650
3662
Y el corolario es que, por supuesto,
cualquier cambio ulterior
02:48
that could significantlysignificativamente changecambio
the substratesubstrato of thinkingpensando
48
156312
3477
que cambiara significativamente
el fundamento del pensamiento
02:51
could have potentiallypotencialmente
enormousenorme consequencesConsecuencias.
49
159789
3202
podría potencialmente acarrear
enormes consecuencias.
02:56
Some of my colleaguescolegas
think we're on the vergeborde
50
164321
2905
Algunos de mis colegas
piensan que estamos muy cerca
02:59
of something that could causeporque
a profoundprofundo changecambio in that substratesubstrato,
51
167226
3908
de algo que podría causar un cambio
significativo en ese fundamento
03:03
and that is machinemáquina superintelligencesuperinteligencia.
52
171134
3213
y que eso es la máquina superinteligente.
03:06
ArtificialArtificial intelligenceinteligencia used to be
about puttingponiendo commandscomandos in a boxcaja.
53
174347
4739
La inteligencia artificial solía ser
la integración de comandos en una caja,
03:11
You would have humanhumano programmersprogramadores
54
179086
1665
con programadores humanos
03:12
that would painstakinglyminuciosamente
handcraftartesanía knowledgeconocimiento itemsartículos.
55
180751
3135
que elaboraban conocimiento
minuciosamente a mano.
03:15
You buildconstruir up these expertexperto systemssistemas,
56
183886
2086
Se construían
estos sistemas especializados
03:17
and they were kindtipo of usefulútil
for some purposespropósitos,
57
185972
2324
y eran bastante útiles
para ciertos propósitos,
03:20
but they were very brittlefrágil,
you couldn'tno pudo scaleescala them.
58
188296
2681
pero eran muy frágiles
y no se podían ampliar.
Básicamente, se conseguía solamente
lo que se invertía en ellos.
03:22
BasicallyBásicamente, you got out only
what you put in.
59
190977
3433
03:26
But sinceya que then,
60
194410
997
Pero desde entonces,
03:27
a paradigmparadigma shiftcambio has takentomado placelugar
in the fieldcampo of artificialartificial intelligenceinteligencia.
61
195407
3467
hubo un cambio de paradigma en
el campo de la inteligencia artificial.
03:30
TodayHoy, the actionacción is really
around machinemáquina learningaprendizaje.
62
198874
2770
Hoy, la acción gira en torno
al aprendizaje máquina.
03:34
So rathermás bien than handcraftingartesanía knowledgeconocimiento
representationsrepresentaciones and featurescaracteristicas,
63
202394
5387
Así que en lugar de
producir características
y representar el conocimiento
de manera artesanal,
03:40
we createcrear algorithmsAlgoritmos that learnaprender,
oftena menudo from rawcrudo perceptualperceptivo datadatos.
64
208511
5554
creamos algoritmos que aprenden a menudo
a partir de datos de percepción en bruto.
03:46
BasicallyBásicamente the samemismo thing
that the humanhumano infantinfantil does.
65
214065
4998
Básicamente lo mismo
que hace el bebé humano.
03:51
The resultresultado is A.I. that is not
limitedlimitado to one domaindominio --
66
219063
4207
El resultado es inteligencia artificial
que no se limita a un solo campo;
03:55
the samemismo systemsistema can learnaprender to translatetraducir
betweenEntre any pairspares of languagesidiomas,
67
223270
4631
el mismo sistema puede aprender
a traducir entre cualquier par de idiomas
03:59
or learnaprender to playjugar any computercomputadora gamejuego
on the AtariAtari consoleconsola.
68
227901
5437
o aprender a jugar a cualquier juego
de ordenador en la consola Atari.
04:05
Now of coursecurso,
69
233338
1779
Ahora, por supuesto,
04:07
A.I. is still nowhereen ninguna parte nearcerca havingteniendo
the samemismo powerfulpoderoso, cross-domaindominio cruzado
70
235117
3999
la IA está todavía muy lejos de tener el
mismo poder y alcance interdisciplinario
04:11
abilitycapacidad to learnaprender and planplan
as a humanhumano beingsiendo has.
71
239116
3219
para aprender y planificar
como lo hacen los humanos.
La corteza cerebral aún esconde
algunos trucos algorítmicos
04:14
The cortexcorteza still has some
algorithmicalgorítmico trickstrucos
72
242335
2126
04:16
that we don't yettodavía know
how to matchpartido in machinesmáquinas.
73
244461
2355
que todavía no sabemos
cómo simular en las máquinas.
Así que la pregunta es,
04:19
So the questionpregunta is,
74
247886
1899
04:21
how farlejos are we from beingsiendo ablepoder
to matchpartido those trickstrucos?
75
249785
3500
¿cuánto nos falta para poder
implementar esos trucos?
Hace un par de años
04:26
A couplePareja of yearsaños agohace,
76
254245
1083
hicimos una encuesta entre los expertos
de IA más importantes del mundo
04:27
we did a surveyencuesta of some of the world'smundo
leadinglíder A.I. expertsexpertos,
77
255328
2888
04:30
to see what they think,
and one of the questionspreguntas we askedpreguntó was,
78
258216
3224
para ver lo que piensan, y una
de las preguntas que hicimos fue,
04:33
"By whichcual yearaño do you think
there is a 50 percentpor ciento probabilityprobabilidad
79
261440
3353
"¿En qué año crees que habrá
un 50 % de probabilidad en elevar
04:36
that we will have achievedlogrado
human-levelnivel humano machinemáquina intelligenceinteligencia?"
80
264793
3482
la inteligencia artificial al mismo nivel
que la inteligencia humana?"
04:40
We defineddefinido human-levelnivel humano here
as the abilitycapacidad to performrealizar
81
268785
4183
Donde hemos definido ese nivel
como la capacidad de realizar
casi todas las tareas, al menos así
como las desarrolla un humano adulto,
04:44
almostcasi any jobtrabajo at leastmenos as well
as an adultadulto humanhumano,
82
272968
2871
04:47
so realreal human-levelnivel humano, not just
withindentro some limitedlimitado domaindominio.
83
275839
4005
por lo cual, un nivel real no solo
dentro de un área limitada.
04:51
And the medianmediana answerresponder was 2040 or 2050,
84
279844
3650
Y la respuesta fue
alrededor de 2040 o 2050,
04:55
dependingdependiente on preciselyprecisamente whichcual
groupgrupo of expertsexpertos we askedpreguntó.
85
283494
2806
dependiendo del grupo
de expertos consultados.
04:58
Now, it could happenocurrir much,
much laterluego, or soonercuanto antes,
86
286300
4039
Ahora, puede ocurrir
mucho más tarde o más temprano,
05:02
the truthverdad is nobodynadie really knowssabe.
87
290339
1940
la verdad es que nadie lo sabe realmente.
05:05
What we do know is that the ultimateúltimo
limitlímite to informationinformación processingtratamiento
88
293259
4412
Lo que sí sabemos es que el umbral
en el procesamiento de información
05:09
in a machinemáquina substratesubstrato liesmentiras farlejos outsidefuera de
the limitslímites in biologicalbiológico tissuetejido.
89
297671
4871
en una infraestructura artificial
se encuentra mucho más allá de
los límites del tejido biológico.
05:15
This comesproviene down to physicsfísica.
90
303241
2378
Esto pertenece al campo de la física.
05:17
A biologicalbiológico neuronneurona firesincendios, maybe,
at 200 hertzhertz, 200 timesveces a secondsegundo.
91
305619
4718
Una neurona biológica manda impulsos
quizá a 200 Hertz, 200 veces por segundo.
mientras que incluso hoy, un transistor
opera a la frecuencia de los gigahercios.
05:22
But even a present-dayEn la actualidad transistortransistor
operatesopera at the GigahertzGigahercios.
92
310337
3594
05:25
NeuronsNeuronas propagatepropagar slowlydespacio in axonsaxones,
100 metersmetros perpor secondsegundo, topstops.
93
313931
5297
Las neuronas propagan el impulso
lentamente a lo largo de los axones,
a máximo 100 metros por segundo.
05:31
But in computersordenadores, signalsseñales can travelviajar
at the speedvelocidad of lightligero.
94
319228
3111
Pero en las computadoras, las señales
pueden viajar a la velocidad de la luz.
05:35
There are alsoademás sizetamaño limitationslimitaciones,
95
323079
1869
También hay limitaciones de tamaño,
05:36
like a humanhumano braincerebro has
to fitajuste insidedentro a craniumcráneo,
96
324948
3027
como el cerebro humano que tiene
que encajar dentro del cráneo,
05:39
but a computercomputadora can be the sizetamaño
of a warehousealmacén or largermás grande.
97
327975
4761
pero una computadora puede ser del
tamaño de un almacén o aún más grande.
05:44
So the potentialpotencial for superintelligencesuperinteligencia
liesmentiras dormantlatente in matterimportar,
98
332736
5599
Así que el potencial de
la máquina superinteligente
permanece latente en la materia,
05:50
much like the powerpoder of the atomátomo
laylaico dormantlatente throughouten todo humanhumano historyhistoria,
99
338335
5712
al igual que el poder atómico
a lo largo de toda la historia
05:56
patientlypacientemente waitingesperando there untilhasta 1945.
100
344047
4405
que esperó pacientemente hasta 1945.
06:00
In this centurysiglo,
101
348452
1248
De cara a este siglo los científicos
pueden aprender a despertar
06:01
scientistscientíficos maymayo learnaprender to awakendespertar
the powerpoder of artificialartificial intelligenceinteligencia.
102
349700
4118
el poder de la inteligencia artificial
06:05
And I think we mightpodría then see
an intelligenceinteligencia explosionexplosión.
103
353818
4008
y creo que podríamos ser testigos
de una explosión de inteligencia.
06:10
Now mostmás people, when they think
about what is smartinteligente and what is dumbtonto,
104
358406
3957
Cuando la mayoría de la gente piensa
en lo inteligente o lo tonto
06:14
I think have in mindmente a pictureimagen
roughlyaproximadamente like this.
105
362363
3023
creo que tienen en mente
una imagen más o menos así.
06:17
So at one endfin we have the villagepueblo idiotidiota,
106
365386
2598
En un extremo tenemos
al tonto del pueblo,
06:19
and then farlejos over at the other sidelado
107
367984
2483
y lejos en el otro extremo,
tenemos a Ed Witten o a Albert Einstein,
o quien sea su gurú favorito.
06:22
we have EdEd WittenWitten, or AlbertAlbert EinsteinEinstein,
or whoeverquien your favoritefavorito gurugurú is.
108
370467
4756
06:27
But I think that from the pointpunto of viewver
of artificialartificial intelligenceinteligencia,
109
375223
3834
Pero creo que desde el punto de
vista de la inteligencia artificial,
06:31
the truecierto pictureimagen is actuallyactualmente
probablyprobablemente more like this:
110
379057
3681
lo más probable es que la imagen
real sea la siguiente:
06:35
AIAI startsempieza out at this pointpunto here,
at zerocero intelligenceinteligencia,
111
383258
3378
Se empieza en este punto aquí,
en ausencia de inteligencia
06:38
and then, after manymuchos, manymuchos
yearsaños of really harddifícil work,
112
386636
3011
y luego, después de muchos,
muchos años de trabajo muy arduo,
06:41
maybe eventuallyfinalmente we get to
mouse-levelnivel de mouse artificialartificial intelligenceinteligencia,
113
389647
3844
quizá finalmente lleguemos
al nivel intelectual de un ratón,
06:45
something that can navigatenavegar
clutteredabarrotado environmentsambientes
114
393491
2430
algo que puede navegar
entornos desordenados
06:47
as well as a mouseratón can.
115
395921
1987
igual que un ratón.
06:49
And then, after manymuchos, manymuchos more yearsaños
of really harddifícil work, lots of investmentinversión,
116
397908
4313
Y luego, después de muchos,
muchos más años
de trabajo muy arduo,
de mucha inversión,
06:54
maybe eventuallyfinalmente we get to
chimpanzee-levelnivel de chimpancé artificialartificial intelligenceinteligencia.
117
402221
4639
tal vez alcancemos el nivel de
inteligencia de un chimpancé.
06:58
And then, after even more yearsaños
of really, really harddifícil work,
118
406860
3210
Y luego, después de más años
de trabajo muy, muy arduo
07:02
we get to villagepueblo idiotidiota
artificialartificial intelligenceinteligencia.
119
410070
2913
alcancemos la inteligencia artificial
del tonto del pueblo.
07:04
And a fewpocos momentsmomentos laterluego,
we are beyondmás allá EdEd WittenWitten.
120
412983
3272
Un poco más tarde,
estaremos más allá de Ed Witten.
El tren del progreso no se detiene
en la estación de los Humanos.
07:08
The traintren doesn't stop
at HumanvilleHumanville StationEstación.
121
416255
2970
07:11
It's likelyprobable, rathermás bien, to swooshsilbido right by.
122
419225
3022
Es probable que más bien,
pase volando.
07:14
Now this has profoundprofundo implicationstrascendencia,
123
422247
1984
Esto tiene profundas consecuencias,
07:16
particularlyparticularmente when it comesproviene
to questionspreguntas of powerpoder.
124
424231
3862
especialmente si se trata de poder.
07:20
For exampleejemplo, chimpanzeeschimpancés are strongfuerte --
125
428093
1899
Por ejemplo, los chimpancés son fuertes.
07:21
poundlibra for poundlibra, a chimpanzeechimpancé is about
twicedos veces as strongfuerte as a fitajuste humanhumano malemasculino.
126
429992
5222
Un chimpancé es dos veces más fuerte
y en mejor forma física que un hombre
07:27
And yettodavía, the fatedestino of KanziKanzi
and his palsamigos dependsdepende a lot more
127
435214
4614
y, sin embargo, el destino de Kanzi
y sus amigos depende mucho más
07:31
on what we humanshumanos do than on
what the chimpanzeeschimpancés do themselvessí mismos.
128
439828
4140
de lo que hacemos los humanos
que de lo que ellos mismos hacen.
Una vez que hay superinteligencia,
07:37
OnceUna vez there is superintelligencesuperinteligencia,
129
445228
2314
07:39
the fatedestino of humanityhumanidad maymayo dependdepender
on what the superintelligencesuperinteligencia does.
130
447542
3839
el destino de la humanidad dependerá
de lo que haga la superinteligencia.
07:44
Think about it:
131
452451
1057
Piensen en esto:
07:45
MachineMáquina intelligenceinteligencia is the last inventioninvención
that humanityhumanidad will ever need to make.
132
453508
5044
la máquina inteligente
es el último invento
que la humanidad jamás
tendrá que realizar.
07:50
MachinesMáquinas will then be better
at inventinginventar than we are,
133
458552
2973
Las máquinas serán entonces
mejores inventores que nosotros,
07:53
and they'llellos van a be doing so
on digitaldigital timescalesescalas de tiempo.
134
461525
2540
y lo harán a escala
de tiempo digital
07:56
What this meansmedio is basicallybásicamente
a telescopingtelescópico of the futurefuturo.
135
464065
4901
lo que significa básicamente
que acelerarán la cercanía al futuro.
08:00
Think of all the crazyloca technologiestecnologías
that you could have imaginedimaginado
136
468966
3558
Piensen en todas las tecnologías
que tal vez, en su opinión,
08:04
maybe humanshumanos could have developeddesarrollado
in the fullnessplenitud of time:
137
472524
2798
los humanos pueden desarrollar
con el paso del tiempo:
08:07
curescura for agingenvejecimiento, spaceespacio colonizationcolonización,
138
475322
3258
tratamientos para el envejecimiento,
la colonización del espacio,
08:10
self-replicatingautorreplicante nanobotsnanobots or uploadingcargando
of mindsmentes into computersordenadores,
139
478580
3731
nanobots autoreplicantes,
mentes integradas en las computadoras,
08:14
all kindsclases of scienceciencia fiction-yficción-y stuffcosas
140
482311
2159
todo tipo de ciencia-ficción
08:16
that's neverthelesssin embargo consistentconsistente
with the lawsleyes of physicsfísica.
141
484470
2737
y sin embargo en consonancia
con las leyes de la física.
08:19
All of this superintelligencesuperinteligencia could
developdesarrollar, and possiblyposiblemente quitebastante rapidlyrápidamente.
142
487207
4212
Todo esta superinteligencia
podría desarrollarse
y posiblemente
con bastante rapidez.
08:24
Now, a superintelligencesuperinteligencia with suchtal
technologicaltecnológico maturitymadurez
143
492449
3558
Ahora, una superinteligencia
con tanta madurez tecnológica
08:28
would be extremelyextremadamente powerfulpoderoso,
144
496007
2179
sería extremadamente poderosa,
08:30
and at leastmenos in some scenariosescenarios,
it would be ablepoder to get what it wants.
145
498186
4546
y con la excepción de algunos casos
sería capaz de conseguir lo que quiere.
08:34
We would then have a futurefuturo that would
be shapedconformado by the preferencespreferencias of this A.I.
146
502732
5661
Nuestro futuro se determinaría
por las preferencias de esta IA.
08:41
Now a good questionpregunta is,
what are those preferencespreferencias?
147
509855
3749
Y una buena pregunta es
¿cuáles son esas preferencias?
08:46
Here it getsse pone trickiermás complicado.
148
514244
1769
Aquí se vuelve más complicado.
08:48
To make any headwayprogreso with this,
149
516013
1435
Para avanzar con esto,
08:49
we mustdebe first of all
avoidevitar anthropomorphizingantropomorfizar.
150
517448
3276
debemos en primer lugar
evitar el antropomorfismo.
Y esto es irónico porque cada artículo
de prensa sobre el futuro de la IA
08:53
And this is ironicirónico because
everycada newspaperperiódico articleartículo
151
521934
3301
08:57
about the futurefuturo of A.I.
has a pictureimagen of this:
152
525235
3855
presenta una imagen como esta:
09:02
So I think what we need to do is
to conceiveconcebir of the issueproblema more abstractlyabstractly,
153
530280
4134
Así que creo que tenemos que
pensar de manera más abstracta,
09:06
not in termscondiciones of vividvívido HollywoodHollywood scenariosescenarios.
154
534414
2790
no según escenarios
entretenidos de Hollywood.
09:09
We need to think of intelligenceinteligencia
as an optimizationmejoramiento processproceso,
155
537204
3617
Tenemos que pensar en la inteligencia
como un proceso de optimización
09:12
a processproceso that steersnovillos the futurefuturo
into a particularespecial setconjunto of configurationsconfiguraciones.
156
540821
5649
un proceso que dirige el futuro hacia un
conjunto especifico de configuraciones.
09:18
A superintelligencesuperinteligencia is
a really strongfuerte optimizationmejoramiento processproceso.
157
546470
3511
Un superinteligencia es un proceso
de optimización realmente potente.
09:21
It's extremelyextremadamente good at usingutilizando
availabledisponible meansmedio to achievelograr a stateestado
158
549981
4117
Es muy bueno en el uso
de recursos disponibles
para lograr un estado óptimo
y alcanzar su objetivo.
09:26
in whichcual its goalGol is realizeddio cuenta.
159
554098
1909
09:28
This meansmedio that there is no necessarynecesario
conenctionconenction betweenEntre
160
556447
2672
Esto significa que no hay
ningún vínculo necesario
09:31
beingsiendo highlyaltamente intelligentinteligente in this sensesentido,
161
559119
2734
entre ser muy inteligente en este sentido,
09:33
and havingteniendo an objectiveobjetivo that we humanshumanos
would find worthwhilevale la pena or meaningfulsignificativo.
162
561853
4662
y tener una meta que para los humanos
vale la pena o es significativa.
09:39
SupposeSuponer we give an A.I. the goalGol
to make humanshumanos smilesonreír.
163
567321
3794
Por ejemplo, la IA podría tener el
objetivo de hacer sonreír a los humanos.
09:43
When the A.I. is weakdébiles, it performsrealiza usefulútil
or amusingdivertido actionscomportamiento
164
571115
2982
Cuando la IA está en desarrollo,
realiza acciones entretenidas
09:46
that causeporque its userusuario to smilesonreír.
165
574097
2517
para hacer sonreír a su usuario.
09:48
When the A.I. becomesse convierte superintelligentsuperinteligente,
166
576614
2417
Cuando la IA se vuelve superinteligente,
09:51
it realizesse da cuenta that there is a more
effectiveeficaz way to achievelograr this goalGol:
167
579031
3523
se da cuenta de que hay una manera
más eficaz para lograr su objetivo:
09:54
take controlcontrolar of the worldmundo
168
582554
1922
tomar el control del mundo
09:56
and stickpalo electrodeselectrodos into the facialfacial
musclesmúsculos of humanshumanos
169
584476
3162
e introducir electrodos en
los músculos faciales de la gente
09:59
to causeporque constantconstante, beamingradiante grinssonríe.
170
587638
2941
para provocar sonrisas
constantes y radiantes.
10:02
AnotherOtro exampleejemplo,
171
590579
1035
Otro ejemplo,
10:03
supposesuponer we give A.I. the goalGol to solveresolver
a difficultdifícil mathematicalmatemático problemproblema.
172
591614
3383
supongamos que le damos el objetivo de
resolver un problema matemático difícil.
10:06
When the A.I. becomesse convierte superintelligentsuperinteligente,
173
594997
1937
Cuando la IA se vuelve superinteligente,
10:08
it realizesse da cuenta that the mostmás effectiveeficaz way
to get the solutionsolución to this problemproblema
174
596934
4171
se da cuenta de que la forma más eficaz
para conseguir la solución a este problema
10:13
is by transformingtransformando the planetplaneta
into a giantgigante computercomputadora,
175
601105
2930
es mediante la transformación
del planeta en un computador gigante,
10:16
so as to increaseincrementar its thinkingpensando capacitycapacidad.
176
604035
2246
para aumentar su capacidad de pensar.
10:18
And noticedarse cuenta that this givesda the A.I.s
an instrumentalinstrumental reasonrazón
177
606281
2764
Y tengan en cuenta que esto da
a la IA una razón instrumental
10:21
to do things to us that we
mightpodría not approveaprobar of.
178
609045
2516
para hacer cosas que nosotros
no podemos aprobar.
10:23
HumanHumano beingsseres in this modelmodelo are threatsamenazas,
179
611561
1935
Los seres humanos
se convierten en una amenaza,
10:25
we could preventevitar the mathematicalmatemático
problemproblema from beingsiendo solvedresuelto.
180
613496
2921
ya que podríamos evitar
que el problema se resuelva.
Por supuesto, las cosas no tienen
necesariamente que pasar de esa manera:
10:29
Of coursecurso, perceivablyperceptiblemente things won'tcostumbre
go wrongincorrecto in these particularespecial waysformas;
181
617207
3494
10:32
these are cartoondibujos animados examplesejemplos.
182
620701
1753
son ejemplos de muestra.
10:34
But the generalgeneral pointpunto here is importantimportante:
183
622454
1939
Pero lo importante,
10:36
if you createcrear a really powerfulpoderoso
optimizationmejoramiento processproceso
184
624393
2873
si crean un proceso
de optimización muy potente,
optimizado para lograr el objetivo X,
10:39
to maximizemaximizar for objectiveobjetivo x,
185
627266
2234
10:41
you better make sure
that your definitiondefinición of x
186
629500
2276
más vale asegurarse
de que la definición de X
10:43
incorporatesincorpora everything you carecuidado about.
187
631776
2469
incluye todo lo que importa.
10:46
This is a lessonlección that's alsoademás taughtenseñó
in manymuchos a mythmito.
188
634835
4384
Es una moraleja que también
se enseña a través de varios mitos.
10:51
KingRey MidasMidas wishesdeseos that everything
he touchestoques be turnedconvertido into goldoro.
189
639219
5298
El rey Midas deseaba convertir
en oro todo lo que tocaba.
10:56
He touchestoques his daughterhija,
she turnsvueltas into goldoro.
190
644517
2861
Toca a su hija
y ella se convierte en oro.
10:59
He touchestoques his foodcomida, it turnsvueltas into goldoro.
191
647378
2553
Toca su comida, se convierte en oro.
11:01
This could becomevolverse practicallyprácticamente relevantpertinente,
192
649931
2589
Es un ejemplo relevante
11:04
not just as a metaphormetáfora for greedcodicia,
193
652520
2070
no solo de una metáfora de
la codicia sino como ilustración
11:06
but as an illustrationilustración of what happenssucede
194
654590
1895
de lo que sucede si crean
un proceso de optimización potente
11:08
if you createcrear a powerfulpoderoso
optimizationmejoramiento processproceso
195
656485
2837
11:11
and give it misconceivedmal entendido
or poorlymal specifiedespecificado goalsmetas.
196
659322
4789
pero le encomiendan objetivos
incomprensibles o sin claridad.
11:16
Now you mightpodría say, if a computercomputadora startsempieza
stickingpega electrodeselectrodos into people'sla gente facescaras,
197
664111
5189
Uno puede pensar:
"Si una computadora empieza a poner
electrodos en la cara de la gente
11:21
we'dmie just shutcerrar it off.
198
669300
2265
bastaría simplemente con apagarla.
11:24
A, this is not necessarilynecesariamente so easyfácil to do
if we'venosotros tenemos growncrecido dependentdependiente on the systemsistema --
199
672555
5340
En primer lugar, puede
que no sea tan sencillo
si somos dependientes del sistema
11:29
like, where is the off switchcambiar
to the InternetInternet?
200
677895
2732
por ejemplo: ¿dónde está el botón
para apagar Internet?
11:32
B, why haven'tno tiene the chimpanzeeschimpancés
flickedmovido the off switchcambiar to humanityhumanidad,
201
680627
5120
En segundo lugar,
¿por qué los chimpancés
no tienen acceso al mismo interruptor
de la humanidad, o los neandertales?
11:37
or the NeanderthalsNeandertales?
202
685747
1551
11:39
They certainlyciertamente had reasonsrazones.
203
687298
2666
Sin duda razones tendrían.
11:41
We have an off switchcambiar,
for exampleejemplo, right here.
204
689964
2795
Tenemos un interruptor de apagado,
por ejemplo, aquí mismo.
11:44
(ChokingAsfixia)
205
692759
1554
(Finge estrangulación)
11:46
The reasonrazón is that we are
an intelligentinteligente adversaryadversario;
206
694313
2925
La razón es que somos
un adversario inteligente;
11:49
we can anticipateprever threatsamenazas
and planplan around them.
207
697238
2728
podemos anticipar amenazas
y planificar en consecuencia,
pero también podría hacerlo
un agente superinteligente,
11:51
But so could a superintelligentsuperinteligente agentagente,
208
699966
2504
11:54
and it would be much better
at that than we are.
209
702470
3254
y mucho mejor que nosotros.
11:57
The pointpunto is, we should not be confidentconfidente
that we have this underdebajo controlcontrolar here.
210
705724
7187
El tema es que no debemos confiar
que podemos controlar esta situación.
12:04
And we could try to make our jobtrabajo
a little bitpoco easiermás fácil by, say,
211
712911
3447
Y podríamos tratar de hacer nuestro
trabajo un poco más fácil digamos,
12:08
puttingponiendo the A.I. in a boxcaja,
212
716358
1590
poniendo a la IA en una caja,
en un entorno de software seguro,
12:09
like a secureseguro softwaresoftware environmentambiente,
213
717948
1796
12:11
a virtualvirtual realityrealidad simulationsimulación
from whichcual it cannotno poder escapeescapar.
214
719744
3022
una simulación de realidad virtual
de la que no pueda escapar.
12:14
But how confidentconfidente can we be that
the A.I. couldn'tno pudo find a bugerror.
215
722766
4146
Pero, ¿cómo podemos estar seguros
de que la IA no encontrará un error?
12:18
GivenDado that merelysimplemente humanhumano hackershackers
find bugsloco all the time,
216
726912
3169
Dado que incluso los hackers humanos
encuentran errores todo el tiempo,
12:22
I'd say, probablyprobablemente not very confidentconfidente.
217
730081
3036
yo diría que probablemente,
no podemos estar muy seguros.
12:26
So we disconnectdesconectar the ethernetethernet cablecable
to createcrear an airaire gapbrecha,
218
734237
4548
Así que desconectamos el cable ethernet
para crear un espacio vacío,
pero una vez más, al igual
que los hackers humanos,
12:30
but again, like merelysimplemente humanhumano hackershackers
219
738785
2668
12:33
routinelyrutinariamente transgresstransgredir airaire gapsbrechas
usingutilizando socialsocial engineeringIngenieria.
220
741453
3381
podrían superar estos espacios
usando la ingeniería social.
Ahora mismo, mientras hablo,
12:36
Right now, as I speakhablar,
221
744834
1259
12:38
I'm sure there is some employeeempleado
out there somewherealgun lado
222
746093
2389
estoy seguro de que algún
empleado, en algún lugar
12:40
who has been talkedhabló into handingentregando out
her accountcuenta detailsdetalles
223
748482
3346
ha sido convencido para revelar
los detalles de su cuenta
12:43
by somebodyalguien claimingreclamando to be
from the I.T. departmentDepartamento.
224
751828
2746
por alguien que dice ser
del departamento de IT.
12:46
More creativecreativo scenariosescenarios are alsoademás possibleposible,
225
754574
2127
Otros escenarios creativos
también son posibles,
12:48
like if you're the A.I.,
226
756701
1315
por ejemplo si Ud. es la IA,
12:50
you can imagineimagina wigglingmoviendo electrodeselectrodos
around in your internalinterno circuitrycircuitería
227
758016
3532
puede hacer cambios en los electrodos
de su circuito interno de seguridad
12:53
to createcrear radioradio wavesolas that you
can use to communicatecomunicar.
228
761548
3462
para crear ondas de radio y
usarlas para comunicarse.
12:57
Or maybe you could pretendfingir to malfunctionmal funcionamiento,
229
765010
2424
O tal vez fingir un mal funcionamiento,
y cuando los programadores
lo abren para entender qué está mal,
12:59
and then when the programmersprogramadores openabierto
you up to see what wentfuimos wrongincorrecto with you,
230
767434
3497
al mirar el código fuente, ¡pum!
13:02
they look at the sourcefuente codecódigo -- BamBam! --
231
770931
1936
ya empieza a manipular.
13:04
the manipulationmanipulación can take placelugar.
232
772867
2447
O podría idear un programa
tecnológico realmente ingenioso,
13:07
Or it could outputsalida the blueprintcianotipo
to a really niftyhábil technologytecnología,
233
775314
3430
y cuando lo implementamos,
13:10
and when we implementimplementar it,
234
778744
1398
13:12
it has some surreptitioussubrepticio sidelado effectefecto
that the A.I. had plannedplanificado.
235
780142
4397
tener efectos secundarios
ocultos planeados por la IA.
13:16
The pointpunto here is that we should
not be confidentconfidente in our abilitycapacidad
236
784539
3463
No debemos confiar en nuestra capacidad
13:20
to keep a superintelligentsuperinteligente geniegenio
lockedbloqueado up in its bottlebotella foreverSiempre.
237
788002
3808
para mantener un genio superinteligente
encerrado en su lámpara para siempre.
13:23
SoonerCuanto antes or laterluego, it will out.
238
791810
2254
Tarde o temprano, saldrá.
13:27
I believe that the answerresponder here
is to figurefigura out
239
795034
3103
Creo que la solución es averiguar
cómo crear una IA superinteligente
13:30
how to createcrear superintelligentsuperinteligente A.I.
suchtal that even if -- when -- it escapesescapes,
240
798137
5024
para que incluso si, o cuando
se escape, sea todavía segura
13:35
it is still safeseguro because it is
fundamentallyfundamentalmente on our sidelado
241
803161
3277
para que fundamentalmente esté de
nuestro lado y comparta nuestros valores.
13:38
because it sharesComparte our valuesvalores.
242
806438
1899
13:40
I see no way around
this difficultdifícil problemproblema.
243
808337
3210
No veo cómo evitar
este problema difícil.
13:44
Now, I'm actuallyactualmente fairlybastante optimisticoptimista
that this problemproblema can be solvedresuelto.
244
812557
3834
En realidad soy bastante optimista de
que este problema pueda ser resuelto.
13:48
We wouldn'tno lo haría have to writeescribir down
a long listlista of everything we carecuidado about,
245
816391
3903
No tendríamos que escribir una larga
lista de todo lo que nos importa,
13:52
or worsepeor yettodavía, spelldeletrear it out
in some computercomputadora languageidioma
246
820294
3643
o, peor aún, codificarla
en algún lenguaje informático
13:55
like C++ or PythonPitón,
247
823937
1454
como C++ o Python,
13:57
that would be a tasktarea beyondmás allá hopelesssin esperanza.
248
825391
2767
sería una reto imposible.
14:00
InsteadEn lugar, we would createcrear an A.I.
that usesusos its intelligenceinteligencia
249
828158
4297
A cambio, crearíamos una IA
que use su inteligencia
14:04
to learnaprender what we valuevalor,
250
832455
2771
para aprender lo que valoramos,
14:07
and its motivationmotivación systemsistema is constructedconstruido
in suchtal a way that it is motivatedmotivado
251
835226
5280
y su sistema integrado
de motivación sería diseñado
para defender nuestros valores
14:12
to pursueperseguir our valuesvalores or to performrealizar actionscomportamiento
that it predictspredice we would approveaprobar of.
252
840506
5232
y realizar acciones
que se ajusten a ellos.
14:17
We would thusasí leverageapalancamiento
its intelligenceinteligencia as much as possibleposible
253
845738
3414
Así que usaríamos su inteligencia
tanto como fuera posible
14:21
to solveresolver the problemproblema of value-loadingvalor de carga.
254
849152
2745
para resolver el problema
de la atribución de valores.
14:24
This can happenocurrir,
255
852727
1512
Esto puede suceder,
14:26
and the outcomeSalir could be
very good for humanityhumanidad.
256
854239
3596
y el resultado podría ser
muy bueno para la humanidad.
14:29
But it doesn't happenocurrir automaticallyautomáticamente.
257
857835
3957
Pero no sucede automáticamente.
14:33
The initialinicial conditionscondiciones
for the intelligenceinteligencia explosionexplosión
258
861792
2998
Las condiciones iniciales
para la explosión de la inteligencia
14:36
mightpodría need to be setconjunto up
in just the right way
259
864790
2863
necesitan ser perfectamente definidas
14:39
if we are to have a controlledrevisado detonationdetonación.
260
867653
3530
si queremos contar con
una detonación controlada.
Los valores de la IA tienen
que coincidir con los nuestros
14:43
The valuesvalores that the A.I. has
need to matchpartido oursla nuestra,
261
871183
2618
14:45
not just in the familiarfamiliar contextcontexto,
262
873801
1760
no solo en el ámbito familiar,
donde podemos comprobar
fácilmente cómo se comporta,
14:47
like where we can easilyfácilmente checkcomprobar
how the A.I. behavesse comporta,
263
875561
2438
14:49
but alsoademás in all novelnovela contextscontextos
that the A.I. mightpodría encounterencuentro
264
877999
3234
sino también en todos los nuevos contextos
14:53
in the indefiniteindefinido futurefuturo.
265
881233
1557
donde la IA podría encontrarse
en un futuro indefinido.
14:54
And there are alsoademás some esotericesotérico issuescuestiones
that would need to be solvedresuelto, sortedordenado out:
266
882790
4737
Y también hay algunas cuestiones
esotéricas que habría que resolver:
14:59
the exactexacto detailsdetalles of its decisiondecisión theoryteoría,
267
887527
2089
los detalles exactos de
su teoría de la decisión,
15:01
how to dealacuerdo with logicallógico
uncertaintyincertidumbre and so forthadelante.
268
889616
2864
cómo manejar la incertidumbre lógica, etc.
15:05
So the technicaltécnico problemsproblemas that need
to be solvedresuelto to make this work
269
893330
3102
Así que los problemas
técnicos que hay que resolver
para hacer este trabajo
parecen muy difíciles
15:08
look quitebastante difficultdifícil --
270
896432
1113
15:09
not as difficultdifícil as makingfabricación
a superintelligentsuperinteligente A.I.,
271
897545
3380
--no tan difíciles como crear
una IA superinteligente--
pero bastante difíciles.
15:12
but fairlybastante difficultdifícil.
272
900925
2868
15:15
Here is the worrypreocupación:
273
903793
1695
Este es la preocupación:
15:17
MakingFabricación superintelligentsuperinteligente A.I.
is a really harddifícil challengereto.
274
905488
4684
crear una IA superinteligente
es un reto muy difícil
15:22
MakingFabricación superintelligentsuperinteligente A.I. that is safeseguro
275
910172
2548
y crear una que sea segura
15:24
involvesinvolucra some additionaladicional
challengereto on topparte superior of that.
276
912720
2416
implica desafíos adicionales.
15:28
The riskriesgo is that if somebodyalguien figuresfiguras out
how to crackgrieta the first challengereto
277
916216
3487
El riesgo es si alguien encuentra
la manera de superar el primer reto
15:31
withoutsin alsoademás havingteniendo crackedagrietado
the additionaladicional challengereto
278
919703
3001
sin resolver el otro desafío
de garantizar la máxima seguridad.
15:34
of ensuringasegurando perfectPerfecto safetyla seguridad.
279
922704
1901
15:37
So I think that we should
work out a solutionsolución
280
925375
3331
Así que creo que deberíamos
encontrar una solución
15:40
to the controlcontrolar problemproblema in advanceavanzar,
281
928706
2822
al problema del control por adelantado,
15:43
so that we have it availabledisponible
by the time it is needednecesario.
282
931528
2660
de modo que esté disponible
para cuando sea necesario.
15:46
Now it mightpodría be that we cannotno poder solveresolver
the entiretodo controlcontrolar problemproblema in advanceavanzar
283
934768
3507
Puede ser que no podamos
resolver por completo
el problema del control de antemano
15:50
because maybe some elementselementos
can only be put in placelugar
284
938275
3024
porque tal vez, algunos elementos
solo pueden ser desarrollados
15:53
onceuna vez you know the detailsdetalles of the
architecturearquitectura where it will be implementedimplementado.
285
941299
3997
después de reunir los detalles
técnicos de la IA en cuestión.
15:57
But the more of the controlcontrolar problemproblema
that we solveresolver in advanceavanzar,
286
945296
3380
Pero cuanto antes solucionemos
el problema del control,
16:00
the better the oddsposibilidades that the transitiontransición
to the machinemáquina intelligenceinteligencia eraera
287
948676
4090
mayores serán las probabilidades
de que la transición a la era
de las máquinas inteligentes
16:04
will go well.
288
952766
1540
vaya bien.
16:06
This to me looksmiradas like a thing
that is well worthvalor doing
289
954306
4644
Esto me parece algo digno de hacer
16:10
and I can imagineimagina that if
things turngiro out okay,
290
958950
3332
y puedo imaginar que si
las cosas salen bien,
16:14
that people a millionmillón yearsaños from now
look back at this centurysiglo
291
962282
4658
la gente en un millón de años
discutirá nuestro siglo
16:18
and it mightpodría well be that they say that
the one thing we did that really matteredimportado
292
966940
4002
y dirá que posiblemente lo único
que hicimos bien y mereció la pena
fue superar con éxito este reto.
16:22
was to get this thing right.
293
970942
1567
16:24
Thank you.
294
972509
1689
Gracias.
(Aplausos)
16:26
(ApplauseAplausos)
295
974198
2813
Translated by Denise R Quivu
Reviewed by Sebastian Betti

▲Back to top

ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com