Max Tegmark: How to get empowered, not overpowered, by AI
Max Tegmark: Cómo obtener el poder con IA sin ser dominados por ella
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder. Full bio
Double-click the English transcript below to play the video.
of cosmic history,
de historia cósmica,
have begun gazing out into the cosmos
de nuestro universo
hacia el cosmos con telescopios,
es mucho más grandioso
is vastly grander
antepasados imaginaron
imperceptibly small perturbation
casi imperceptiblemente pequeña
something inspiring,
desarrollando tiene el potencial
we're developing has the potential
como nunca antes,
but for billions of years,
miles de millones de años,
much of this amazing cosmos.
de gran parte de este increíble cosmos.
como "Vida 1.0"
anything during its lifetime.
aprender nada durante su vida.
because we can learn,
"Vida 2.0" porque podemos aprender,
new software into our brains,
un nuevo software en nuestros cerebros,
its software but also its hardware
su software sino también su hardware,
has already made us "Life 2.1,"
ya nos haya hecho "Vida 2.1"
pacemakers and cochlear implants.
marcapasos e implantes cocleares.
at our relationship with technology, OK?
nuestra relación con la tecnología, ¿vale?
was both successful and inspiring,
fue exitosa e inspiradora,
use technology wisely,
usamos la tecnología sabiamente,
that our ancestors could only dream of.
nuestros antepasados solo podían soñar.
more powerful than rocket engines,
que un cohete,
no son solo tres astronautas,
aren't just three astronauts
journey into the future
colectivo hacia el futuro
that just as with rocketry,
que al igual que con los cohetes,
our technology powerful.
tecnología sea poderosa.
if we're going to be really ambitious,
lo suficientemente ambiciosos,
for artificial intelligence:
para la inteligencia artificial:
and the destination.
de forma muy inclusiva...
to accomplish complex goals,
para lograr objetivos complejos,
biological and artificial intelligence.
inteligencia biológica y artificial.
the silly carbon-chauvinism idea
del chauvinismo de carbono:
if you're made of meat.
si se está hecho de carne.
of AI has grown recently.
de la IA ha crecido recientemente.
los robots no podían caminar.
que vuelan de forma autónoma.
reconocimiento facial.
saying stuff that you never said.
cosas que nunca dijiste.
en el juego de Go.
took 3,000 years of human Go games
tomó 3000 años de juegos de Go humanos
player by just playing against itself.
en el mejor jugador del mundo
wasn't that it crushed human gamers,
que aplastara a los jugadores humanos,
investigadores humanos de IA
handcrafting game-playing software.
elaborando software de juegos a mano.
not just in Go but even at chess,
de IA humana no solo en Go
trabajando desde 1950.
really begs the question:
en IA realmente plantea la pregunta:
landscape of tasks,
paisaje abstracto de tareas,
difícil que es para la IA hacer cada tarea
how hard it is for AI to do each task
what AI can do today.
lo que la IA puede hacer hoy.
as AI improves,
a medida que mejora la IA,
going on here in the task landscape.
global en el paisaje de tareas.
is to avoid careers at the waterfront --
las carreras en el paseo marítimo...
automated and disrupted.
automatizado e interrumpido.
bigger question as well.
mucho más relevante.
to flood everything,
hasta inundar todo,
en todas las tareas?
of artificial general intelligence --
general artificial...
of AI research since its inception.
investigación de IA desde su inicio.
las personas que dicen,
that humans can do better than machines,"
puedan hacer mejor que las máquinas",
that we'll never get AGI.
que nunca tendremos IAG.
to have some human jobs
tener algunos trabajos humanos
y un propósito con nuestros trabajos,
and purpose with our jobs,
transform life as we know it
la vida tal como la conocemos
the most intelligent.
los más inteligentes.
no será impulsado
mainly not by humans but by AI,
sino por la IA,
could be way faster
sea mucho más rápido
and development timescale of years,
humano de años,
of an intelligence explosion
de una explosión de inteligencia
intelligence far behind,
la inteligencia humana,
as superintelligence.
como superinteligencia.
like Rodney Brooks,
como Rodney Brooks,
for hundreds of years.
founder Demis Hassabis,
de Google DeepMind, Demis Hassabis,
de que suceda mucho antes.
it happen much sooner.
that most AI researchers
que la mayoría de los investigadores IA
el optimismo de Demis,
get AGI within decades,
el papel de los humanos
and cheaper than us?
y más barato que nosotros?
enfrentamos una elección.
that can do everything we can do
puedan hacer todo lo que podemos hacer
that makes all humans obsolete,
que hace a todos los humanos obsoletos,
embarrassingly lame.
vergonzosamente flojo.
in the spirit of TED.
más ambiciosos... en el espíritu de TED.
high-tech future
tecnología verdaderamente inspirador
nuestra metáfora del cohete: la dirección.
of our rocket metaphor: the steering.
la IA sea más poderosa,
dirigirnos hacia un futuro
rather than flounder?
a florecer en lugar de al desconcierto?
beneficial technology use,
de tecnología beneficiosa,
for the future of life to exist
is better than the Stone Age.
es mejor que la Edad de Piedra.
a really inspiring high-tech future ...
podemos crear un futuro
power of our technology
de nuestra tecnología
with which we manage it.
con la que lo administramos.
a change of strategy
un cambio de estrategia
has been learning from mistakes.
ha sido aprender de los errores.
screwed up a bunch of times --
arruinado un montón de veces
el cinturón de seguridad y el airbag,
the seat belt and the airbag,
like nuclear weapons and AGI,
como armas nucleares e IAG,
is a lousy strategy,
es una estrategia pésima,
en lugar de reactivo;
rather than reactive;
bien la primera vez
right the first time
que lo consiguiéramos.
the only time we'll get.
sometimes people tell me,
a veces la gente me dice:
call safety engineering.
ingeniería de seguridad.
lanzara la misión Apolo 11,
the Apollo 11 mission,
everything that could go wrong
en todo lo que podría salir mal
tanques de combustible explosivos
on top of explosive fuel tanks
where no one could help them.
donde nadie podía ayudarla.
que podrían salir mal.
la ingeniería de seguridad
the safety engineering
I think we should take with AGI.
que creo que deberíamos tomar con IAG.
to make sure it goes right.
para asegurarnos de que va a salir bien.
we've organized conferences,
organizamos conferencias,
de la IA y otros pensadores
AI researchers and other thinkers
para mantener la IA beneficiosa.
we need to keep AI beneficial.
was in Asilomar, California last year
en Asilomar, California, el año pasado
por más de 1000 investigadores de IA
by over 1,000 AI researchers
about three of these principles.
de tres de estos principios.
and lethal autonomous weapons.
armamentista y armas letales autónomas.
usarse para nuevas formas de ayudar
can be used for new ways of helping people
are much more likely to be used
que se usen la biología y la química
than for new ways of killing people,
para nuevas formas de matar personas,
presionaron mucho
and chemists pushed hard --
and chemical weapons.
biológicas y químicas.
and ban lethal autonomous weapons.
las armas letales autónomas.
AI-fueled income inequality.
de ingresos alimentada con IA.
the economic pie dramatically with AI
económico radicalmente con la IA
cómo dividir este pastel
how to divide this pie
if your computer has ever crashed.
se ha dañado alguna vez.
this principle
en la investigación de seguridad de IA,
in AI safety research,
of even more decisions and infrastructure,
más decisiones e infraestructura,
today's buggy and hackable computers
that we can really trust,
en los que poder confiar,
puede funcionar mal y dañarnos,
can malfunction and harm us,
volverse contra nosotros.
has to include work on AI value alignment,
la alineación de valores de IA,
from AGI isn't malice,
de la IAG no es la malicia,
that just aren't aligned with ours.
no están alineadas con las nuestras.
the West African black rhino extinct,
a la extinción,
of evil rhinoceros haters, did we?
enemigos del rinoceronte, ¿verdad?
más inteligentes que ellos
we were smarter than them
alineados con los suyos.
más inteligente que nosotros,
ourselves in the position of those rhinos
en la posición de esos rinocerontes
to make machines understand our goals,
máquinas comprendan nuestros objetivos,
y retengan nuestros objetivos.
de todos modos?
of our rocket metaphor: the destination.
nuestra metáfora del cohete: el destino.
sea más poderosa,
that almost nobody talks about --
del que casi nadie habla...
on short-term AI challenges.
con los desafíos de la IA a corto plazo.
está tratando de construir la IAG,
are we hoping for if we succeed?
estamos esperando si lo logramos?
sobre esto recientemente,
want us to build superintelligence:
que construyamos superinteligencia:
than us in all ways.
que nosotros en todos los sentidos.
was that we should be ambitious
deberíamos ser ambiciosos
about who or what should be in charge.
sobre quién o qué debería estar a cargo.
who want it to be just machines.
que quieren que sean solo máquinas.
about what the role of humans should be,
debería ser el papel de los humanos,
at possible futures
más de cerca a los posibles futuros
to steer toward, alright?
elegir dirigirnos, ¿está bien?
metaphorical journey into the future.
de la humanidad hacia el futuro.
of my AI colleagues like
de mis colegas de IA les gusta
and keep it under human control,
y mantenerla bajo control humano,
technology and wealth
y riqueza inimaginables
and absolute power corrupts absolutely,
corrompe absolutamente,
we humans just aren't smart enough,
los humanos no somos lo inteligentes
moral qualms you might have
reparo moral que puedan tener
the superintelligence could outsmart us,
tal vez la superinteligencia
who are fine with AI taking over
de acuerdo con que la IA se haga cargo
are our worthy descendants,
son nuestras dignas descendientes,
have adopted our best values
adoptado nuestros mejores valores?
tricking us into anthropomorphizing them?
engañándonos antropomorfizándose?
who don't want human extinction
que no quieren la extinción humana
of those two high-tech options,
dos opciones de alta tecnología,
that low-tech is suicide
la baja tecnología es un suicidio
beyond today's technology,
de la tecnología actual,
is going to go extinct,
se va a extinguir,
we're going to get taken out
un supervolcán
that better technology could have solved.
mejor tecnología podría haber resuelto.
our cake and eating it ...
nuestro pastel y comérnoslo...
están alineados con los nuestros?
are aligned with ours?
has called "friendly AI,"
llama "amigable inteligencia artificial".
it could be awesome.
podría ser increíble.
experiences like disease, poverty,
negativas como la enfermedad, la pobreza,
the freedom to choose
la libertad de elegir
of positive experiences --
de experiencias positivas
the masters of our own destiny.
de nuestro propio destino.
is complicated,
es complicada,
es bastante simple.
expect AGI within decades,
de IA esperan la IAG en décadas,
into this unprepared,
en esto sin preparación,
the biggest mistake in human history --
en la historia de la humanidad...
global dictatorship
una dictadura brutal y global
surveillance and suffering,
y sufrimiento sin precedentes,
where everybody's better off:
en el que todos estemos mejor:
los ricos son más ricos,
and free to live out their dreams.
libres de vivir sus sueños.
that's politically right or left?
de derecha o de izquierda?
with strict moral rules,
con estrictas reglas morales,
forests and lakes,
some of those atoms with the computers,
de esos átomos con las computadoras,
build all of these societies
construir todas estas sociedades
to choose which one they want to live in
de elegir en cuál quieren vivir
be limited by our intelligence,
por nuestra inteligencia,
for this would be astronomical --
para esto serían astronómicos,
about our future,
con nuestro futuro,
is guaranteed to be beneficial,
garantiza ser beneficiosa,
as a mantra over and over and over again
como un mantra una y otra y otra vez
towards our own obsolescence.
timón hacia nuestra propia obsolescencia.
cómo dirigir nuestra tecnología
to steer our technology
the age of amazement,
la era del asombro,
in becoming not overpowered
en no ser poderosos en exceso
ABOUT THE SPEAKER
Max Tegmark - Scientist, authorMax Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.
Why you should listen
Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligence, as well as more than 200 nerdy technical papers on topics from cosmology to AI.
He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."
Max Tegmark | Speaker | TED.com