Max Tegmark: How to get empowered, not overpowered, by AI
Max Tegmark: Como dominar e não ser dominado pela IA
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder. Full bio
Double-click the English transcript below to play the video.
of cosmic history,
de história cósmica
have begun gazing out into the cosmos
do nosso universo
o cosmos com telescópios,
is vastly grander
os nossos antepassados
imperceptibly small perturbation
uma perturbação quase impercetível
something inspiring,
uma coisa inspiradora,
we're developing has the potential
a desenvolver tem o potencial
como nunca anteriormente,
but for billions of years,
mas durante milhares de milhões de anos,
much of this amazing cosmos.
mas por esse incrível universo lá fora.
anything during its lifetime.
o que fosse, durante a sua vida.
because we can learn,
porque nós podemos aprender,
new software into our brains,
de um novo "software" no cérebro,
e as competências profissionais,
its software but also its hardware
o "software", mas também o "hardware"
has already made us "Life 2.1,"
já nos tenha criado a "Vida 2.1",
pacemakers and cochlear implants.
e transplantes cocleares.
at our relationship with technology, OK?
para a nossa relação com a tecnologia.
was both successful and inspiring,
foi bem sucedida e inspiradora,
use technology wisely,
a tecnologia com sabedoria,
that our ancestors could only dream of.
os nossos antepassados só podiam sonhar.
more powerful than rocket engines,
que os motores de um foguetão,
apenas três astronautas,
aren't just three astronauts
journey into the future
coletiva para o futuro
that just as with rocketry,
que construir apenas foguetões
our technology powerful.
a nossa tecnologia poderosa.
if we're going to be really ambitious,
como conduzi-los
for artificial intelligence:
de inteligência artificial:
and the destination.
de forma bastante abrangente
to accomplish complex goals,
de concretizar objetivos complexos -
biological and artificial intelligence.
biológica e a artificial.
the silly carbon-chauvinism idea
essa estúpida ideia chauvinista
if you're made of meat.
se formos feitos de carne e osso.
of AI has grown recently.
vem crescendo ultimamente.
os robôs não andavam.
reconhecimento facial.
saying stuff that you never said.
a dizer coisas que nunca dissemos.
numa partida de Go.
took 3,000 years of human Go games
absorveu 3000 anos de partidas humanas
player by just playing against itself.
o melhor jogador do mundo,
wasn't that it crushed human gamers,
ela ter derrotado jogadores humanos,
os investigadores da IA
handcrafting game-playing software.
a trabalhar em "software" de jogos.
not just in Go but even at chess,
os investigadores de IA no Go
em que temos vindo a trabalhar desde 1950.
really begs the question:
recente da IA leva-nos a perguntar:
landscape of tasks,
a dificuldade que a IA tem
how hard it is for AI to do each task
what AI can do today.
o que a IA pode fazer hoje.
à medida que a IA evolui,
as AI improves,
going on here in the task landscape.
global nesta paisagem de tarefas.
is to avoid careers at the waterfront --
seguir carreiras aquáticas
automated and disrupted.
automatizadas e extintas.
bigger question as well.
to flood everything,
para acabar por inundar tudo,
em todas as tarefas?
of artificial general intelligence --
de inteligência artificial geral
of AI research since its inception.
da investigação da IA desde o seu início.
that humans can do better than machines,"
podem fazer melhor que as máquinas,"
that we'll never get AGI.
to have some human jobs
por usar mão-de-obra humana
and purpose with our jobs,
receitas ou um objetivo sem empregos,
transform life as we know it
transformar a vida como a conhecemos
the most intelligent.
já não serão os mais inteligentes.
alcançar a IAG,
mainly not by humans but by AI,
principalmente, nas suas próprias mãos.
could be way faster
seja muito mais rápido
and development timescale of years,
da investigação realizada pelos homens.
of an intelligence explosion
de uma explosão de inteligência
que evolui por si mesma,
intelligence far behind,
a inteligência humana,
as superintelligence.
por superinteligência.
como Rodney Brooks,
like Rodney Brooks,
nas próximas centenas de anos.
for hundreds of years.
founder Demis Hassabis,
o fundador do Google DeepMind,
it happen much sooner.
que isso aconteça muito mais cedo.
that most AI researchers
dos investigadores de IA,
get AGI within decades,
dentro de décadas,
de muitos de nós,
and cheaper than us?
melhor e mais barato que nós?
that can do everything we can do
que façam tudo o que nós fazemos.
com as consequências,
that makes all humans obsolete,
que torne obsoletos os seres humanos,
embarrassingly lame.
terrivelmente patético.
in the spirit of TED.
mais ambiciosos - no espírito da TED.
high-tech future
verdadeiramente inspirador
of our rocket metaphor: the steering.
da nossa teoria do foguetão: a condução.
rather than flounder?
a prosperar e a não se debater?
do Instituto Futuro da Vida.
beneficial technology use,
que promove o uso benéfico da tecnologia.
for the future of life to exist
futuro para a vida
is better than the Stone Age.
ser melhor que a Idade da Pedra.
a really inspiring high-tech future ...
um futuro de alta tecnologia
a corrida dos conhecimentos,
power of our technology
da nossa tecnologia
with which we manage it.
com que a vamos controlando.
a change of strategy
uma mudança de estratégia,
has been learning from mistakes.
era aprender com os erros
screwed up a bunch of times --
fizemos erros muitas vezes,
the seat belt and the airbag,
o cinto de segurança e o "airbag".
like nuclear weapons and AGI,
como a das armas nucleares e a da IAG,
is a lousy strategy,
é uma estratégia péssima, não acham?
do que reativo,
rather than reactive;
right the first time
the only time we'll get.
a nossa única oportunidade.
às vezes, as pessoas dizem-me:
sometimes people tell me,
call safety engineering.
engenharia de segurança.
the Apollo 11 mission,
a missão Apollo 11,
em tudo o que podia correr mal,
everything that could go wrong
de tanques de combustível explosivo
on top of explosive fuel tanks
where no one could help them.
ninguém as podia ajudar.
que podiam correr mal.
a engenharia de segurança
the safety engineering
I think we should take with AGI.
que devemos adotar com a IAG.
to make sure it goes right.
para garantir que corra bem.
we've organized conferences,
organizámos conferências,
de IA e outros estudiosos
AI researchers and other thinkers
para manter os benefícios da IA.
we need to keep AI beneficial.
was in Asilomar, California last year
no ano passado, em Asilomar, na Califórnia
com 23 princípios,
by over 1,000 AI researchers
de mil investigadores de IA
about three of these principles.
sobre três desses princípios.
and lethal autonomous weapons.
às armas e armas letais autónomas.
can be used for new ways of helping people
pode ser usada como uma nova forma
are much more likely to be used
provavelmente, serão mais usadas
than for new ways of killing people,
do que em novas formas de matar pessoas,
and chemists pushed hard --
- e com sucesso -
químicas e biológicas.
and chemical weapons.
a maioria dos investigadores de IA
and ban lethal autonomous weapons.
as armas letais autónomas.
determina que devemos reduzir
AI-fueled income inequality.
impulsionada pela IA.
aumentar drasticamente, com a IA,
the economic pie dramatically with AI
como dividir esse bolo,
how to divide this pie
if your computer has ever crashed.
uma falha de sistema no computador.
this principle
na investigação da segurança de IA,
in AI safety research,
of even more decisions and infrastructure,
por mais decisões e infraestruturas,
today's buggy and hackable computers
esses computadores defeituosos e frágeis
that we can really trust,
em que podemos confiar.
nova tecnologia incrível
can malfunction and harm us,
ou ser pirateada e voltar-se contra nós.
has to include work on AI value alignment,
tem que incluir um alinhamento de valores,
from AGI isn't malice,
da IAG não é a maldade,
that just aren't aligned with ours.
alinhados com os nossos.
the West African black rhino extinct,
a extinção do Rinoceronte Negro africano
of evil rhinoceros haters, did we?
porque odiamos os rinocerontes,
we were smarter than them
mais inteligentes que eles
alinhados com os deles.
é mais inteligente que nós.
ourselves in the position of those rhinos
como os rinocerontes,
to make machines understand our goals,
com que as máquinas entendam,
of our rocket metaphor: the destination.
da nossa metáfora do foguetão: o destino.
that almost nobody talks about --
de que quase ninguém fala
on short-term AI challenges.
nos desafios da IA a curto prazo.
criar uma IAG,
e pela economia,
are we hoping for if we succeed?
estamos a esperar, se o conseguirmos?
sobre isso recentemente.
want us to build superintelligence:
a criação de uma superinteligência,
than us in all ways.
é muito mais inteligente do que nós.
was that we should be ambitious
que devemos ser ambiciosos
about who or what should be in charge.
sobre quem ou o quê deve ser o responsável.
who want it to be just machines.
que sejam apenas as máquinas
about what the role of humans should be,
sobre o papel do ser humano,
at possible futures
para os possíveis futuros
to steer toward, alright?
de uma viagem espacial,
metaphorical journey into the future.
da humanidade para o futuro.
of my AI colleagues like
dos meus colegas de IA gostam
and keep it under human control,
e mantê-la sob o controlo humano,
technology and wealth
e uma tecnologia inimagináveis
que o poder corrompe
and absolute power corrupts absolutely,
corrompe absolutamente.
we humans just aren't smart enough,
não sejamos inteligentes o suficiente,
receio moral que possamos ter
moral qualms you might have
the superintelligence could outsmart us,
a superinteligência nos possa ultrapassar,
who are fine with AI taking over
que aceitam que a IA assuma o controlo
are our worthy descendants,
como nossos descendentes diretos,
have adopted our best values
adotaram os nossos melhores valores
tricking us into anthropomorphizing them?
que nos enganam com a sua forma humana?
who don't want human extinction
a extinção humana
a dizer sobre essa questão?
of those two high-tech options,
destas duas opções de alta tecnologia,
that low-tech is suicide
que a baixa tecnologia é um suicídio,
beyond today's technology,
da tecnologia de hoje,
is going to go extinct,
se a humanidade será extinta,
we're going to get taken out
por um super vulcão
that better technology could have solved.
que uma tecnologia melhor podia resolver.
our cake and eating it ...
as duas coisas?
mas que nos trate bem,
are aligned with ours?
alinhados com os nossos?
has called "friendly AI,"
chamou uma "IA amigável".
it could be awesome.
experiences like disease, poverty,
como as doenças, a pobreza,
the freedom to choose
a liberdade de escolha
fantásticas e positivas
of positive experiences --
the masters of our own destiny.
nos mestres do nosso próprio destino.
is complicated,
é complicada,
expect AGI within decades,
esperam a IAG dentro de décadas.
into this unprepared,
the biggest mistake in human history --
na história da humanidade,
global dictatorship
uma brutal ditadura global,
surveillance and suffering,
e sofrimento sem precedentes,
where everybody's better off:
onde toda a gente fica a ganhar:
e os ricos ficam mais ricos,
and free to live out their dreams.
para viver os seus sonhos.
that's politically right or left?
de esquerda ou de direita?
with strict moral rules,
às normas morais rigorosas
permanentemente?
florestas e lagos,
forests and lakes,
some of those atoms with the computers,
desses átomos com os computadores,
build all of these societies
construir todas essas sociedades
to choose which one they want to live in
de escolher em qual delas querem viver,
be limited by our intelligence,
pela nossa inteligência,
for this would be astronomical --
para isso serão astronómicos,
about our future,
sobre o nosso futuro,
is guaranteed to be beneficial,
garante ser benéfica,
as a mantra over and over and over again
como um mantra, vezes sem conta,
towards our own obsolescence.
como um navio sem leme,
to steer our technology
the age of amazement,
a era da admiração,
in becoming not overpowered
não deve ser superada,
ABOUT THE SPEAKER
Max Tegmark - Scientist, authorMax Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.
Why you should listen
Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligence, as well as more than 200 nerdy technical papers on topics from cosmology to AI.
He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."
Max Tegmark | Speaker | TED.com