ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com
TED@IBM

Grady Booch: Don't fear superintelligent AI

Grady Booch: No le teman a la superinteligente IA

Filmed:
2,866,438 views

La nueva tecnología genera nuevas ansiedades, dice el científico y filósofo Grady Booch, pero no hay por qué temerle a la poderosa e insensible IA. Booch disipa nuestros peores miedos (inducidos por la sci-fi) acerca de las computadoras superinteligentes explicando cómo enseñarles, más no programarlas, para compartir nuestros valores. En lugar de preocuparnos acerca de una improbable amenaza existencial, nos incita a pensar cómo la inteligencia artificial mejorará la vida humana.
- Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn. Full bio

Double-click the English transcript below to play the video.

Cuando era niño,
era un nerd por excelencia.
00:12
When I was a kidniño,
I was the quintessentialpor excelencia nerdempollón.
0
760
3840
00:17
I think some of you were, too.
1
5320
2176
Creo que algunos de Uds. también.
00:19
(LaughterRisa)
2
7520
1216
(Risas)
00:20
And you, sirseñor, who laughedSe rió the loudestmás fuerte,
you probablyprobablemente still are.
3
8760
3216
Y Ud. señor, el que se rio más fuerte,
probablemente aún lo sea.
00:24
(LaughterRisa)
4
12000
2256
(Risas)
00:26
I grewcreció up in a smallpequeña townpueblo
in the dustypolvoriento plainsllanuras of northnorte TexasTexas,
5
14280
3496
Crecí en un pueblo pequeño
en los llanos del norte de Tejas,
00:29
the sonhijo of a sheriffalguacil
who was the sonhijo of a pastorpastor.
6
17800
3336
hijo de un comisario,
que fue hijo de un pastor.
00:33
GettingConsiguiendo into troubleproblema was not an optionopción.
7
21160
1920
Meterse en problemas
no era una opción.
00:36
And so I startedempezado readingleyendo
calculuscálculo bookslibros for fundivertido.
8
24040
3256
Así es que comencé a
leer libros de cálculo por diversión.
00:39
(LaughterRisa)
9
27320
1536
(Risas)
00:40
You did, too.
10
28880
1696
Uds. también lo hicieron.
00:42
That led me to buildingedificio a laserláser
and a computercomputadora and modelmodelo rocketscohetes,
11
30600
3736
Eso me llevó a crear un láser,
una computadora y modelos de cohetes,
00:46
and that led me to makingfabricación
rocketcohete fuelcombustible in my bedroomCuarto.
12
34360
3000
y eso me llevó a hacer
combustible para cohetes en mi habitación.
00:49
Now, in scientificcientífico termscondiciones,
13
37960
3656
En términos científicos,
00:53
we call this a very badmalo ideaidea.
14
41640
3256
esta es una muy mala idea.
00:56
(LaughterRisa)
15
44920
1216
(Risas)
00:58
Around that samemismo time,
16
46160
2176
Por esos días
01:00
StanleyStanley Kubrick'sKubrick's "2001: A SpaceEspacio OdysseyOdisea"
camevino to the theatersteatros,
17
48360
3216
se estrenó "2001: Una Odisea
en el Espacio" de Stanley Kubrick,
01:03
and my life was foreverSiempre changedcambiado.
18
51600
2200
y mi vida cambió para siempre.
01:06
I lovedamado everything about that moviepelícula,
19
54280
2056
Me encantó todo de esa película,
01:08
especiallyespecialmente the HALHAL 9000.
20
56360
2536
especialmente el HAL 9000.
01:10
Now, HALHAL was a sentientsensible computercomputadora
21
58920
2056
HAL era un computador sensible
01:13
designeddiseñado to guideguía the DiscoveryDescubrimiento spacecraftastronave
22
61000
2456
diseñado para guiar
la aeronave Discovery
01:15
from the EarthTierra to JupiterJúpiter.
23
63480
2536
de la Tierra a Júpiter.
01:18
HALHAL was alsoademás a flaweddefectuoso characterpersonaje,
24
66040
2056
HAL además era imperfecto,
01:20
for in the endfin he choseElegir
to valuevalor the missionmisión over humanhumano life.
25
68120
4280
porque eligió el valor de la misión
sobre la vida humana.
01:24
Now, HALHAL was a fictionalficticio characterpersonaje,
26
72840
2096
HAL era un personaje ficticio,
01:26
but nonethelesssin embargo he speakshabla to our fearsmiedos,
27
74960
2656
y sin embargo habla sobre
nuestros temores,
01:29
our fearsmiedos of beingsiendo subjugatedsubyugado
28
77640
2096
nuestros temores a ser subyugados
01:31
by some unfeelinginsensible, artificialartificial intelligenceinteligencia
29
79760
3016
por alguna insensible
inteligencia artificial
01:34
who is indifferentindiferente to our humanityhumanidad.
30
82800
1960
indiferente a nuestra humanidad.
01:37
I believe that suchtal fearsmiedos are unfoundedinfundado.
31
85880
2576
Creo que esos temores
son infundados.
01:40
IndeedEn efecto, we standestar at a remarkablenotable time
32
88480
2696
De hecho, estamos en un tiempo notable
01:43
in humanhumano historyhistoria,
33
91200
1536
en la historia de la humanidad,
01:44
where, drivenimpulsado by refusalnegativa to acceptaceptar
the limitslímites of our bodiescuerpos and our mindsmentes,
34
92760
4976
donde, motivados por la negación a
aceptar los límites del cuerpo y mente,
01:49
we are buildingedificio machinesmáquinas
35
97760
1696
construimos máquinas
01:51
of exquisiteExquisito, beautifulhermosa
complexitycomplejidad and gracegracia
36
99480
3616
de complejidad y gracia
exquisita y hermosa
01:55
that will extendampliar the humanhumano experienceexperiencia
37
103120
2056
que expanden la experiencia humana
01:57
in waysformas beyondmás allá our imaginingimaginando.
38
105200
1680
más allá de nuestra imaginación.
Tras una carrera que me llevó
de la Academia de la Fuerza Aérea
01:59
After a careercarrera that led me
from the AirAire ForceFuerza AcademyAcademia
39
107720
2576
02:02
to SpaceEspacio CommandMando to now,
40
110320
1936
a comandante de estación espacial,
02:04
I becameconvirtió a systemssistemas engineeringeniero,
41
112280
1696
me volví ingeniero de sistemas,
02:06
and recentlyrecientemente I was drawndibujado
into an engineeringIngenieria problemproblema
42
114000
2736
y recientemente me encontré
con un problema de ingeniería
02:08
associatedasociado with NASA'sNASA missionmisión to MarsMarte.
43
116760
2576
relacionado con la misión
de la NASA a Marte.
02:11
Now, in spaceespacio flightsvuelos to the MoonLuna,
44
119360
2496
En vuelos espaciales a la Luna,
02:13
we can relyconfiar uponsobre
missionmisión controlcontrolar in HoustonHouston
45
121880
3136
dependemos del control
de la misión en Houston
para vigilar todos los aspectos
de un vuelo.
02:17
to watch over all aspectsaspectos of a flightvuelo.
46
125040
1976
02:19
Howeversin embargo, MarsMarte is 200 timesveces furtherpromover away,
47
127040
3536
Sin embargo,
Marte está 200 veces más lejos,
02:22
and as a resultresultado it takes
on averagepromedio 13 minutesminutos
48
130600
3216
como resultado toma
en promedio 13 minutos
02:25
for a signalseñal to travelviajar
from the EarthTierra to MarsMarte.
49
133840
3136
para que una señal viaje
de la Tierra a Marte.
02:29
If there's troubleproblema,
there's not enoughsuficiente time.
50
137000
3400
Si hay algún percance,
no hay suficiente tiempo.
02:32
And so a reasonablerazonable engineeringIngenieria solutionsolución
51
140840
2496
Una solución razonable de ingeniería
02:35
callsllamadas for us to put missionmisión controlcontrolar
52
143360
2576
nos incita a instalar
el control de la misión
02:37
insidedentro the wallsmuros of the OrionOrión spacecraftastronave.
53
145960
3016
dentro de las paredes de
la aeronave Orión.
02:41
AnotherOtro fascinatingfascinante ideaidea
in the missionmisión profileperfil
54
149000
2896
Otra idea fascinante
en el perfil de la misión
02:43
placeslugares humanoidhumanoide robotsrobots
on the surfacesuperficie of MarsMarte
55
151920
2896
es colocar robots humanoides
en la superficie de Marte
antes de que los humanos mismos lleguen,
02:46
before the humanshumanos themselvessí mismos arrivellegar,
56
154840
1856
02:48
first to buildconstruir facilitiesinstalaciones
57
156720
1656
primero para construir instalaciones
02:50
and laterluego to serveservir as collaborativecolaborativo
membersmiembros of the scienceciencia teamequipo.
58
158400
3360
y luego para servir como colaboradores
en el equipo científico.
02:55
Now, as I lookedmirado at this
from an engineeringIngenieria perspectiveperspectiva,
59
163400
2736
Al mirar esto desde
la ingeniería,
02:58
it becameconvirtió very clearclaro to me
that what I needednecesario to architectarquitecto
60
166160
3176
me quedó claro que
lo que necesitaba diseñar
03:01
was a smartinteligente, collaborativecolaborativo,
61
169360
2176
era una inteligencia artificial muy lista,
03:03
sociallysocialmente intelligentinteligente
artificialartificial intelligenceinteligencia.
62
171560
2376
colaborativa y social.
03:05
In other wordspalabras, I needednecesario to buildconstruir
something very much like a HALHAL
63
173960
4296
En otras palabras, necesitaba construir
algo muy parecido a HAL
03:10
but withoutsin the homicidalhomicida tendenciestendencias.
64
178280
2416
pero sin las tendencias homicidas.
03:12
(LaughterRisa)
65
180720
1360
(Risas)
03:14
Let's pausepausa for a momentmomento.
66
182920
1816
Detengámonos un momento.
03:16
Is it really possibleposible to buildconstruir
an artificialartificial intelligenceinteligencia like that?
67
184760
3896
¿Es realmente posible
construir inteligencia artificial así?
03:20
ActuallyActualmente, it is.
68
188680
1456
De hecho, sí lo es.
03:22
In manymuchos waysformas,
69
190160
1256
En muchas maneras,
este es un problema difícil
de la ingeniería
03:23
this is a harddifícil engineeringIngenieria problemproblema
70
191440
1976
03:25
with elementselementos of AIAI,
71
193440
1456
con elementos de IA,
03:26
not some wetmojado haircabello ballpelota of an AIAI problemproblema
that needsnecesariamente to be engineereddiseñado.
72
194920
4696
no es un simple problema de IA
que necesite diseñarse.
03:31
To paraphraseparáfrasis AlanAlan TuringTuring,
73
199640
2656
Parafraseando a Alan Turing,
no me interesa construir
una máquina sensible.
03:34
I'm not interestedinteresado
in buildingedificio a sentientsensible machinemáquina.
74
202320
2376
03:36
I'm not buildingedificio a HALHAL.
75
204720
1576
No voy a construir un HAL.
03:38
All I'm after is a simplesencillo braincerebro,
76
206320
2416
Todo lo que busco es
un cerebro sencillo,
03:40
something that offersofertas
the illusionespejismo of intelligenceinteligencia.
77
208760
3120
algo que ofrezca
una ilusión de inteligencia.
03:45
The artart and the scienceciencia of computinginformática
have come a long way
78
213000
3136
El arte y la ciencia de la computación
ha pasado por mucho
03:48
sinceya que HALHAL was onscreenen la pantalla,
79
216160
1496
desde la aparición de HAL,
03:49
and I'd imagineimagina if his inventorinventor
DrDr. ChandraChandra were here todayhoy,
80
217680
3216
e imagino que si su inventor
Dr. Chandra estuviera aquí hoy,
03:52
he'del habria have a wholetodo lot of questionspreguntas for us.
81
220920
2336
tendría mucho que preguntarnos.
03:55
Is it really possibleposible for us
82
223280
2096
¿Es realmente posible
03:57
to take a systemsistema of millionsmillones
uponsobre millionsmillones of devicesdispositivos,
83
225400
4016
tomar un sistema de millones
y millones de dispositivos,
04:01
to readleer in theirsu datadatos streamsarroyos,
84
229440
1456
para leer flujos de datos,
04:02
to predictpredecir theirsu failuresfallas
and actacto in advanceavanzar?
85
230920
2256
para predecir fallas y
actuar con antelación?
04:05
Yes.
86
233200
1216
Sí.
04:06
Can we buildconstruir systemssistemas that converseconversar
with humanshumanos in naturalnatural languageidioma?
87
234440
3176
¿Podemos construir sistemas que
se comuniquen con humanos?
04:09
Yes.
88
237640
1216
Sí.
04:10
Can we buildconstruir systemssistemas
that recognizereconocer objectsobjetos, identifyidentificar emotionsemociones,
89
238880
2976
¿Podemos construir sistemas que
reconozcan objetos, emociones,
04:13
emoteser emocionado themselvessí mismos,
playjugar gamesjuegos and even readleer lipslabios?
90
241880
3376
que se emocionen, jueguen e incluso
que lean los labios?
04:17
Yes.
91
245280
1216
Sí.
¿Podemos construir un sistema
que fije objetivos,
04:18
Can we buildconstruir a systemsistema that setsconjuntos goalsmetas,
92
246520
2136
04:20
that carrieslleva out plansplanes againsten contra those goalsmetas
and learnsaprende alonga lo largo the way?
93
248680
3616
que lleve a cabo planes contra esos
objetivos y siga aprendiendo más?
04:24
Yes.
94
252320
1216
Sí.
04:25
Can we buildconstruir systemssistemas
that have a theoryteoría of mindmente?
95
253560
3336
¿Podemos construir sistemas
que piensen por sí mismos?
04:28
This we are learningaprendizaje to do.
96
256920
1496
Estamos aprendiendo a hacerlo.
04:30
Can we buildconstruir systemssistemas that have
an ethicalético and moralmoral foundationFundación?
97
258440
3480
¿Podemos construir sistemas
con fundamentos éticos y morales?
04:34
This we mustdebe learnaprender how to do.
98
262480
2040
Debemos aprender cómo hacerlo.
04:37
So let's acceptaceptar for a momentmomento
99
265360
1376
Aceptemos por un momento
04:38
that it's possibleposible to buildconstruir
suchtal an artificialartificial intelligenceinteligencia
100
266760
2896
que es posible construir
tal inteligencia artificial
04:41
for this kindtipo of missionmisión and othersotros.
101
269680
2136
para estas misiones y otras.
04:43
The nextsiguiente questionpregunta
you mustdebe askpedir yourselftú mismo is,
102
271840
2536
La siguiente pregunta que
deben formularse es,
04:46
should we fearmiedo it?
103
274400
1456
¿deberíamos temerle?
04:47
Now, everycada newnuevo technologytecnología
104
275880
1976
Toda nueva tecnología
04:49
bringstrae with it
some measuremedida of trepidationmiedo.
105
277880
2896
trae consigo algunos temores.
04:52
When we first saw carscarros,
106
280800
1696
Cuando vimos autos por primera vez,
04:54
people lamentedlamentado that we would see
the destructiondestrucción of the familyfamilia.
107
282520
4016
la gente temía que viéramos
la destrucción de la familia.
04:58
When we first saw telephonesteléfonos come in,
108
286560
2696
Cuando se inventaron los teléfonos,
05:01
people were worriedpreocupado it would destroydestruir
all civilcivil conversationconversacion.
109
289280
2896
la gente temía que arruinara
la conversación civilizada.
05:04
At a pointpunto in time we saw
the writtenescrito wordpalabra becomevolverse pervasivepenetrante,
110
292200
3936
En algún momento, vimos a la palabra
escrita aparecer en todos lados,
la gente creyó que perderíamos
la habilidad de memorizar.
05:08
people thought we would loseperder
our abilitycapacidad to memorizememorizar.
111
296160
2496
05:10
These things are all truecierto to a degreela licenciatura,
112
298680
2056
Todo esto es cierto hasta cierto grado,
05:12
but it's alsoademás the casecaso
that these technologiestecnologías
113
300760
2416
pero estas tecnologías también
05:15
broughttrajo to us things
that extendedextendido the humanhumano experienceexperiencia
114
303200
3376
nos dieron cosas que expandieron
la experiencia humana
05:18
in some profoundprofundo waysformas.
115
306600
1880
de manera profunda.
05:21
So let's take this a little furtherpromover.
116
309840
2280
Así que vayamos más lejos.
05:25
I do not fearmiedo the creationcreación
of an AIAI like this,
117
313120
4736
No temo la creación de una IA así,
05:29
because it will eventuallyfinalmente
embodyencarnar some of our valuesvalores.
118
317880
3816
porque finalmente encarnará
algunos de nuestros valores.
05:33
ConsiderConsiderar this: buildingedificio a cognitivecognitivo systemsistema
is fundamentallyfundamentalmente differentdiferente
119
321720
3496
Consideren lo siguiente: construir un
sistema cognitivo es muy distinto
05:37
than buildingedificio a traditionaltradicional
software-intensivesoftware intensivo systemsistema of the pastpasado.
120
325240
3296
a construir uno tradicional
intensivo en software como en el pasado.
05:40
We don't programprograma them. We teachenseñar them.
121
328560
2456
No los programamos. Les enseñamos.
05:43
In orderorden to teachenseñar a systemsistema
how to recognizereconocer flowersflores,
122
331040
2656
Para enseñarle a un sistema
a reconocer flores,
05:45
I showespectáculo it thousandsmiles of flowersflores
of the kindsclases I like.
123
333720
3016
le muestro miles de flores que me gustan.
05:48
In orderorden to teachenseñar a systemsistema
how to playjugar a gamejuego --
124
336760
2256
Para enseñarle a jugar...
05:51
Well, I would. You would, too.
125
339040
1960
Bueno, lo haría y Uds. también.
05:54
I like flowersflores. Come on.
126
342600
2040
Me gustan las flores.
05:57
To teachenseñar a systemsistema
how to playjugar a gamejuego like Go,
127
345440
2856
Para enseñarle a un sistema
a jugar un juego como Go,
06:00
I'd have it playjugar thousandsmiles of gamesjuegos of Go,
128
348320
2056
lo pondría a jugar
miles de juegos de Go,
y en el proceso
también le enseñaría
06:02
but in the processproceso I alsoademás teachenseñar it
129
350400
1656
06:04
how to discerndiscernir
a good gamejuego from a badmalo gamejuego.
130
352080
2416
a discernir un buen juego
de uno malo.
06:06
If I want to createcrear an artificiallyartificialmente
intelligentinteligente legallegal assistantasistente,
131
354520
3696
Si quiero crear un asistente legal
con inteligencia artificial,
le enseñaría algo del
corpus legislativo
06:10
I will teachenseñar it some corpuscuerpo of lawley
132
358240
1776
06:12
but at the samemismo time I am fusingfusionando with it
133
360040
2856
combinando al mismo tiempo
06:14
the sensesentido of mercymisericordia and justicejusticia
that is partparte of that lawley.
134
362920
2880
el sentido de la piedad y la justicia
que también son parte de la ley.
06:18
In scientificcientífico termscondiciones,
this is what we call groundsuelo truthverdad,
135
366560
2976
En términos científicos,
lo llamamos verdad en tierra firme,
06:21
and here'saquí está the importantimportante pointpunto:
136
369560
2016
este es el punto importante:
06:23
in producingproductor these machinesmáquinas,
137
371600
1456
al producir estas máquinas,
06:25
we are thereforepor lo tanto teachingenseñando them
a sensesentido of our valuesvalores.
138
373080
3416
les estamos enseñando también
el sentido de nuestros valores.
06:28
To that endfin, I trustconfianza
an artificialartificial intelligenceinteligencia
139
376520
3136
Para este fin,
confío en la inteligencia artificial
06:31
the samemismo, if not more,
as a humanhumano who is well-trainedbien entrenado.
140
379680
3640
tanto, si no más, que en
un humano bien entrenado.
06:36
But, you maymayo askpedir,
141
384080
1216
Quizá se pregunten
06:37
what about roguepícaro agentsagentes,
142
385320
2616
¿qué hay de los agentes rebeldes,
06:39
some well-fundedbien financiado
nongovernmentno gubernamental organizationorganización?
143
387960
3336
algunas organizaciones sólidas
no gubernamentales?
06:43
I do not fearmiedo an artificialartificial intelligenceinteligencia
in the handmano of a lonesolitario wolflobo.
144
391320
3816
No le temo a la inteligencia artificial
en manos de un lobo solitario.
06:47
ClearlyClaramente, we cannotno poder protectproteger ourselvesNosotros mismos
againsten contra all randomaleatorio actshechos of violenceviolencia,
145
395160
4536
Claramente no podemos protegernos
de todo tipo de violencia,
06:51
but the realityrealidad is suchtal a systemsistema
146
399720
2136
en realidad, un sistema así
06:53
requiresrequiere substantialsustancial trainingformación
and subtlesutil trainingformación
147
401880
3096
requiere entrenamiento importante y sutil
06:57
farlejos beyondmás allá the resourcesrecursos of an individualindividual.
148
405000
2296
más allá de los recursos de un individuo.
06:59
And furthermoreademás,
149
407320
1216
Además,
07:00
it's farlejos more than just injectinginyectar
an internetInternet virusvirus to the worldmundo,
150
408560
3256
se trata de algo más que inyectar
un virus en el internet global,
07:03
where you pushempujar a buttonbotón,
all of a suddenrepentino it's in a millionmillón placeslugares
151
411840
3096
donde al presionar un botón,
se esparce a millones de lugares
07:06
and laptopslaptops startcomienzo blowingsoplo up
all over the placelugar.
152
414960
2456
y las laptops comienzan a estallar
en pedazos.
07:09
Now, these kindsclases of substancessustancias
are much largermás grande,
153
417440
2816
Este tipo de sustancias son más grandes
07:12
and we'llbien certainlyciertamente see them comingviniendo.
154
420280
1715
y se les ve venir.
07:14
Do I fearmiedo that suchtal
an artificialartificial intelligenceinteligencia
155
422520
3056
¿Temo que ese tipo de
inteligencia artificial
07:17
mightpodría threatenamenazar all of humanityhumanidad?
156
425600
1960
amenace a la humanidad?
07:20
If you look at moviespelículas
suchtal as "The MatrixMatriz," "MetropolisMetrópoli,"
157
428280
4376
Si miran películas
como "Matrix", "Metrópolis",
07:24
"The TerminatorTerminator,"
showsmuestra suchtal as "WestworldWestworld,"
158
432680
3176
"Terminator" y shows como "Westworld",
07:27
they all speakhablar of this kindtipo of fearmiedo.
159
435880
2136
todos hablan de este miedo.
07:30
IndeedEn efecto, in the booklibro "SuperintelligenceSuperinteligencia"
by the philosopherfilósofo NickMella BostromBostrom,
160
438040
4296
El libro "Superinteligencia"
del filósofo Nick Bostrom,
07:34
he picksselecciones up on this themetema
161
442360
1536
habla de este tema
07:35
and observesobserva that a superintelligencesuperinteligencia
mightpodría not only be dangerouspeligroso,
162
443920
4016
y opina que una superinteligencia
no solo puede ser peligrosa,
07:39
it could representrepresentar an existentialexistencial threatamenaza
to all of humanityhumanidad.
163
447960
3856
sino que podría representar
una amenaza existencial para la humanidad.
07:43
DrDr. Bostrom'sBostrom's basicBASIC argumentargumento
164
451840
2216
El argumento fundamental del Dr. Bostrom
07:46
is that suchtal systemssistemas will eventuallyfinalmente
165
454080
2736
es que dichos sistemas finalmente
07:48
have suchtal an insatiableinsaciable
thirstsed for informationinformación
166
456840
3256
tendrán una necesidad insaciable
de información
07:52
that they will perhapsquizás learnaprender how to learnaprender
167
460120
2896
que quizá aprendan cómo aprender
07:55
and eventuallyfinalmente discoverdescubrir
that they maymayo have goalsmetas
168
463040
2616
y finalmente descubran
que pueden tener objetivos
07:57
that are contrarycontrario to humanhumano needsnecesariamente.
169
465680
2296
contrarios a las necesidades humanas.
08:00
DrDr. BostromBostrom has a numbernúmero of followersseguidores.
170
468000
1856
El Dr. Bostrom tiene varios seguidores.
08:01
He is supportedsoportado by people
suchtal as ElonElon MuskAlmizcle and StephenStephen HawkingHawking.
171
469880
4320
Gente como Elon Musk y
Stephen Hawking lo apoyan.
08:06
With all duedebido respectel respeto
172
474880
2400
Con todo respeto
08:10
to these brilliantbrillante mindsmentes,
173
478160
2016
a estas mentes brillantes,
08:12
I believe that they
are fundamentallyfundamentalmente wrongincorrecto.
174
480200
2256
creo que están completamente equivocados.
08:14
Now, there are a lot of piecespiezas
of DrDr. Bostrom'sBostrom's argumentargumento to unpackdeshacer,
175
482480
3176
Hay muchas partes del argumento
del Dr. Bostrom que analizar,
08:17
and I don't have time to unpackdeshacer them all,
176
485680
2136
y no tengo tiempo para hacerlo,
08:19
but very brieflybrevemente, considerconsiderar this:
177
487840
2696
pero brevemente, piensen esto:
08:22
supersúper knowingconocimiento is very differentdiferente
than supersúper doing.
178
490560
3736
el superconocimiento es muy distinto
al superhacer.
HAL era una amenaza
para la flota del Discovery
08:26
HALHAL was a threatamenaza to the DiscoveryDescubrimiento crewtripulación
179
494320
1896
08:28
only insofaren la medida as HALHAL commandedordenado
all aspectsaspectos of the DiscoveryDescubrimiento.
180
496240
4416
en la medida en que controlaba
todos los aspectos del Discovery.
08:32
So it would have to be
with a superintelligencesuperinteligencia.
181
500680
2496
Se necesitaría una superinteligencia.
08:35
It would have to have dominiondominio
over all of our worldmundo.
182
503200
2496
Y un dominio total de nuestro mundo.
08:37
This is the stuffcosas of SkynetSkynet
from the moviepelícula "The TerminatorTerminator"
183
505720
2816
Skynet de la película "Terminator"
08:40
in whichcual we had a superintelligencesuperinteligencia
184
508560
1856
tenía una superinteligencia
que controlaba la voluntad humana,
08:42
that commandedordenado humanhumano will,
185
510440
1376
08:43
that directeddirigido everycada devicedispositivo
that was in everycada corneresquina of the worldmundo.
186
511840
3856
y controlaba cada dispositivo
en todos los rincones del mundo.
08:47
PracticallyPrácticamente speakingHablando,
187
515720
1456
Siendo prácticos,
08:49
it ain'tno es gonna happenocurrir.
188
517200
2096
eso no pasará.
08:51
We are not buildingedificio AIsAIs
that controlcontrolar the weatherclima,
189
519320
3056
No estamos construyendo IAs
que controlen el clima,
08:54
that directdirecto the tidesmareas,
190
522400
1336
que controlen las mareas,
08:55
that commandmando us
capriciouscaprichoso, chaoticcaótico humanshumanos.
191
523760
3376
que nos controlen a nosotros,
caprichosos y caóticos humanos.
08:59
And furthermoreademás, if suchtal
an artificialartificial intelligenceinteligencia existedexistió,
192
527160
3896
Además, si tal
inteligencia artificial existiera,
09:03
it would have to competecompetir
with humanhumano economieseconomías,
193
531080
2936
tendría que competir contra
las economías del hombre,
09:06
and therebyde este modo competecompetir for resourcesrecursos with us.
194
534040
2520
y por tanto competir por recursos
contra nosotros.
09:09
And in the endfin --
195
537200
1216
Y al final
09:10
don't tell SiriSiri this --
196
538440
1240
--no le digan a Siri--
siempre podremos desconectarlos.
09:12
we can always unplugdesenchufar them.
197
540440
1376
09:13
(LaughterRisa)
198
541840
2120
(Risas)
09:17
We are on an incredibleincreíble journeyviaje
199
545360
2456
Estamos en una increíble aventura
09:19
of coevolutioncoevolución with our machinesmáquinas.
200
547840
2496
de coevolución con nuestras máquinas.
09:22
The humanshumanos we are todayhoy
201
550360
2496
Los humanos que somos hoy
09:24
are not the humanshumanos we will be then.
202
552880
2536
no son los humanos que seremos.
09:27
To worrypreocupación now about the risesubir
of a superintelligencesuperinteligencia
203
555440
3136
Preocuparse ahorita del ascenso
de una superinteligencia
09:30
is in manymuchos waysformas a dangerouspeligroso distractiondistracción
204
558600
3056
es una distracción peligrosa
en muchos sentidos
09:33
because the risesubir of computinginformática itselfsí mismo
205
561680
2336
porque el ascenso de la computación
09:36
bringstrae to us a numbernúmero
of humanhumano and societalsocietal issuescuestiones
206
564040
3016
trajo consigo muchos problemas
humanos y sociales
09:39
to whichcual we mustdebe now attendasistir.
207
567080
1640
de los que debemos ocuparnos ahora.
09:41
How shalldeberá I bestmejor organizeorganizar societysociedad
208
569360
2816
¿Cómo organizar a la sociedad
09:44
when the need for humanhumano laborlabor diminishesdisminuye?
209
572200
2336
cuando la necesidad de trabajo
humano decrece?
09:46
How can I bringtraer understandingcomprensión
and educationeducación throughouten todo the globeglobo
210
574560
3816
¿Cómo llevar conocimiento y educación
a través del mundo
09:50
and still respectel respeto our differencesdiferencias?
211
578400
1776
respetando nuestras diferencias?
09:52
How mightpodría I extendampliar and enhancemejorar humanhumano life
throughmediante cognitivecognitivo healthcarecuidado de la salud?
212
580200
4256
¿Cómo expandir y mejorar la vida
con la atención médica cognitiva?
09:56
How mightpodría I use computinginformática
213
584480
2856
¿Cómo usar la computación
09:59
to help take us to the starsestrellas?
214
587360
1760
para ayudarnos a alcanzar las estrellas?
10:01
And that's the excitingemocionante thing.
215
589760
2040
Eso es lo emocionante.
10:04
The opportunitiesoportunidades to use computinginformática
216
592400
2336
Las oportunidades para usar la computación
10:06
to advanceavanzar the humanhumano experienceexperiencia
217
594760
1536
y fomentar la experiencia humana
10:08
are withindentro our reachalcanzar,
218
596320
1416
están a nuestro alcance,
10:09
here and now,
219
597760
1856
aquí y ahora,
10:11
and we are just beginningcomenzando.
220
599640
1680
y apenas hemos comenzado.
10:14
Thank you very much.
221
602280
1216
Muchas gracias.
10:15
(ApplauseAplausos)
222
603520
4286
(Aplausos)
Translated by Claudia Viveros
Reviewed by Frank Zegarra

▲Back to top

ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com