Max Tegmark: How to get empowered, not overpowered, by AI
Max Tegmark: Comment exploiter, non être subjugué par l'intelligence artificielle ?
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder. Full bio
Double-click the English transcript below to play the video.
of cosmic history,
d’histoire cosmique,
et a pris conscience de lui-même.
de notre univers
have begun gazing out into the cosmos
le cosmos avec des télescopes,
que ne l'imaginaient nos ancêtres,
is vastly grander
mineure, presque imperceptible,
imperceptibly small perturbation
something inspiring,
découvert, avec inspiration,
we're developing has the potential
que nous développons
à s'épanouir comme jamais auparavant,
but for billions of years,
mais des milliards d’années,
much of this amazing cosmos.
une bonne partie de ce formidable cosmos.
sont pour moi « La vie 1.0 »,
vraiment ignorantes,
anything during its lifetime.
quoi que ce soit dans leur vie.
because we can learn,
car nous pouvons apprendre,
new software into our brains,
de nouveaux logiciels dans notre cerveau,
ou des compétences professionnelles.
its software but also its hardware
son programme mais aussi son équipement
a déjà fait de nous « La vie 2.1 »,
has already made us "Life 2.1,"
pacemakers and cochlear implants.
pacemakers et implants cochléaires.
at our relationship with technology, OK?
relation à la technologie, d'accord ?
was both successful and inspiring,
et une source d'inspiration.
utilisons la technologie intelligemment,
use technology wisely,
that our ancestors could only dream of.
que nos ancêtres ne pouvaient que rêver.
encore plus inspirant,
puissante que les moteurs de fusée,
more powerful than rocket engines,
ne sont pas juste trois astronautes,
aren't just three astronauts
collectif dans le futur
journey into the future
that just as with rocketry,
que, comme pour les fusées,
our technology powerful.
notre technologie efficace.
être vraiment ambitieux,
if we're going to be really ambitious,
et définir ce que nous voulons en faire.
artificielle sous ces trois aspects :
for artificial intelligence:
and the destination.
et sa destination.
de manière très inclusive
to accomplish complex goals,
à atteindre des objectifs complexes,
intelligences, biologique et artificielle.
biological and artificial intelligence.
the silly carbon-chauvinism idea
du chauvinisme carbonique
que si vous êtes fait de viande.
if you're made of meat.
of AI has grown recently.
s’est développé de façon incroyable.
ne pouvaient pas marcher.
totalement autonome.
des fusées autonomes.
de reconnaître nos visages.
générer de faux visages
des trucs que vous n’avez jamais dits.
saying stuff that you never said.
ne pouvait pas nous battre au jeu de go.
took 3,000 years of human Go games
du jeu Go, pour ensuite tout ignorer,
player by just playing against itself.
la meilleure joueuse mondiale
wasn't that it crushed human gamers,
sa victoire contre des joueurs humains
contre les chercheurs en I.A.
à concevoir leur logiciel de jeu.
handcrafting game-playing software.
not just in Go but even at chess,
au jeu de go, mais aussi au jeu d’échecs,
travaillé depuis 1950.
really begs the question:
de l’l.A. soulèvent vraiment la question :
constitué de tâches,
landscape of tasks,
le degré de difficulté qu'a l'I.A.
how hard it is for AI to do each task
comme un être humain,
what AI can do today.
les capacités de l'I.A. aujourd’hui.
as AI improves,
en fonction des progrès de l’I.A.,
going on here in the task landscape.
de réchauffement climatique ici.
c'est éviter les métiers en bord de mer,
is to avoid careers at the waterfront --
automated and disrupted.
être automatisés.
bien plus importante :
bigger question as well.
to flood everything,
à l'intelligence humaine partout ?
of artificial general intelligence --
Artificielle Générale,
en I.A. depuis son lancement.
of AI research since its inception.
that humans can do better than machines,"
où l’homme fait mieux que la machine »,
that we'll never get AGI.
que nous n’aurons jamais d'I.A.G.
de garder certains emplois humains,
to have some human jobs
un revenu et une vocation,
and purpose with our jobs,
transform life as we know it
la vie telle que nous la connaissons
the most intelligent.
les plus intelligents.
atteint effectivement l’I.A.G.,
seront alors gérés principalement
mainly not by humans but by AI,
mais par l’I.A.,
progrès bien plus rapides
could be way faster
nécessaires à l'homme pour aboutir.
and development timescale of years,
of an intelligence explosion
d’un essor gigantesque de l’I.A.,
récursivement
intelligence far behind,
une « superintelligence ».
as superintelligence.
dans un futur proche ?
like Rodney Brooks,
comme Rodney Brooks,
avant des centaines d’années.
for hundreds of years.
founder Demis Hassabis,
le fondateur de Google DeepMind,
qu'elle se produise beaucoup plus tôt.
it happen much sooner.
que la plupart des chercheurs en I.A.
that most AI researchers
get AGI within decades,
d’ici quelques dizaines d'années,
demander « Et ensuite ? »
mieux que nous et moins cher ?
and cheaper than us?
dire avec complaisance,
that can do everything we can do
qui font tout à notre place
qui rend l’humain obsolète,
that makes all humans obsolete,
embarrassingly lame.
in the spirit of TED.
plus ambitieux, dans l’esprit de TED.
qui nous inspire vraiment,
high-tech future
de notre métaphore de fusée : le guidage.
of our rocket metaphor: the steering.
rather than flounder?
non à la ruine des hommes ?
l'Institut « Future of Life »,
l'utilisation bénéfique de la technologie.
beneficial technology use,
for the future of life to exist
d'un avenir pour la vie
est mieux que l’Âge de pierre.
is better than the Stone Age.
a really inspiring high-tech future ...
vraiment exaltant,
la course à la sagesse,
grandissant de notre technologie
power of our technology
avec laquelle nous la gérons.
with which we manage it.
un changement de stratégie,
a change of strategy
has been learning from mistakes.
de tirer des leçons de nos erreurs.
on s'est planté pas mal de fois ;
screwed up a bunch of times --
on s'est planté ;
la ceinture de sécurité et l’airbag.
the seat belt and the airbag,
comme l’arme nucléaire ou l'I.A.G.,
like nuclear weapons and AGI,
plutôt mauvaise, qu'en pensez-vous ?
is a lousy strategy,
plutôt que réactif,
rather than reactive;
right the first time
the only time we'll get.
pas de seconde fois.
sometimes people tell me,
Ne parle pas comme ça !
call safety engineering.
« l’ingénierie de la sécurité ».
the Apollo 11 mission,
ce qui pourrait mal tourner
everything that could go wrong
sur des réservoirs d'essence explosifs
on top of explosive fuel tanks
where no one could help them.
où personne ne peut les aider.
Était-ce de l’alarmisme ?
cette ingénierie de la sécurité
the safety engineering
la stratégie à adopter avec l'I.A.G. :
I think we should take with AGI.
pour s’assurer que tout se passe bien.
to make sure it goes right.
organisé des conférences,
we've organized conferences,
AI researchers and other thinkers
pour réfléchir à des façons de développer
we need to keep AI beneficial.
au maintien d'une I.A. bénéfique.
was in Asilomar, California last year
l’an dernier, à Asilomar-Californie.
sur une liste de 23 principes
de chercheurs et industriels de l’I.A.
by over 1,000 AI researchers
trois de ces principes.
about three of these principles.
and lethal autonomous weapons.
et aux armes létales autonomes.
peut être utilisée
can be used for new ways of helping people
soit pour leur nuire.
ont plus de chances de servir
are much more likely to be used
médicaments et traitements
than for new ways of killing people,
exercent une pression efficace
and chemists pushed hard --
biologiques et chimiques.
and chemical weapons.
des chercheurs en I.A.
and ban lethal autonomous weapons.
les armes létales autonomes.
AI-fueled income inequality.
de revenus que l’I.A. entraîne.
the economic pie dramatically with AI
des revenus fabuleux avec l’I.A.,
how to divide this pie
pour les répartir
c'est une honte pour nous !
if your computer has ever crashed.
dont l’ordinateur est déjà tombé en panne.
this principle
va vous plaire.
in AI safety research,
dans la recherche sur la sécurité,
of even more decisions and infrastructure,
de plus de décisions et d'infrastructures,
today's buggy and hackable computers
d'aujourd'hui, buggés et piratables,
that we can really trust,
et vraiment fiables.
pourrait faillir et nous nuire,
can malfunction and harm us,
has to include work on AI value alignment,
par l’alignement de ses valeurs,
n’est pas la malveillance,
from AGI isn't malice,
hollywoodien, mais la compétence.
ne concordant pas avec les nôtres.
that just aren't aligned with ours.
the West African black rhino extinct,
l’extinction du rhino noir ouest-africain,
of evil rhinoceros haters, did we?
un groupe malfaisant anti-rhino, non ?
et avons des buts différents des leurs.
we were smarter than them
plus intelligente que nous.
ourselves in the position of those rhinos
le même sort que ces rhinos,
d'obliger les machines à comprendre,
to make machines understand our goals,
of our rocket metaphor: the destination.
partie de notre métaphore :
un moyen de la guider,
that almost nobody talks about --
dont presque personne ne parle,
par les défis à court terme de l’I.A.
on short-term AI challenges.
essaie de construire l’I.A.G.,
et l'intérêt financier,
avoir si nous y parvenons ?
are we hoping for if we succeed?
et j'ai été surpris de voir
la création d'une super intelligence,
want us to build superintelligence:
than us in all ways.
à nous sur tous les plans.
was that we should be ambitious
que nous devrions être ambitieux
la vie dans l'univers.
about who or what should be in charge.
qui ou quoi devrait être en charge,
who want it to be just machines.
que ce soit seulement les machines.
about what the role of humans should be,
quant au rôle des hommes,
at possible futures
pour nous guider, d'accord ?
to steer toward, alright?
de voyage dans l’espace,
metaphorical journey into the future.
de l’humanité vers le futur.
de certains de mes collègues en I.A.,
of my AI colleagues like
mais sous le contrôle des hommes,
and keep it under human control,
déconnectée de l’Internet,
et une richesse inimaginables
technology and wealth
que le pouvoir corrompt,
and absolute power corrupts absolutely,
corrompt absolument.
ne soient pas assez intelligents,
we humans just aren't smart enough,
pour gérer un tel pouvoir.
moral qualms you might have
que nous pourrions avoir
d'esprits supérieurs,
superintelligence soit plus maline,
the superintelligence could outsmart us,
une prise de pouvoir de l'I.A.
who are fine with AI taking over
à l’extinction des humains,
are our worthy descendants,
sont nos dignes descendants,
have adopted our best values
nos meilleures valeurs,
des zombies sans conscience
tricking us into anthropomorphizing them?
de l'anthropomorphisme ?
who don't want human extinction
l'extinction de l'homme,
of those two high-tech options,
deux options haute-technologie,
une technologie bas de gamme
that low-tech is suicide
la technologie d'aujourd'hui,
beyond today's technology,
is going to go extinct,
si l’humanité va être exterminée
par le prochain astéroïde meurtrier,
we're going to get taken out
that better technology could have solved.
meilleure aurait pu résoudre.
our cake and eating it ...
le beurre et l’argent du beurre,
qui nous traite bien
are aligned with ours?
a appelé « l’I.A. Amicale »,
has called "friendly AI,"
it could be awesome.
ça pourrait être formidable.
experiences like disease, poverty,
éliminer les mauvaises expériences
le crime et autres souffrances,
the freedom to choose
nous donner la liberté de choisir
d’expériences positives,
of positive experiences --
the masters of our own destiny.
maîtres de notre propre destin.
de technologie est compliquée,
is complicated,
prévoit l'arrivée de l'I.A.G.
expect AGI within decades,
plongeons la-dedans sans préparation,
into this unprepared,
de toute l'Histoire de l’humanité.
the biggest mistake in human history --
global dictatorship
brutale à l'échelle mondiale,
surveillance and suffering,
et une souffrance sans précédents,
de l'espèce humaine.
manoeuvrons prudemment,
where everybody's better off:
où tout le monde est mieux loti -
et les riches plus riches -
et libre de poursuivre ses rêves.
and free to live out their dreams.
that's politically right or left?
de droite ou de gauche ?
avec des règles morales strictes,
with strict moral rules,
comme un festival continu de Burning Man ?
des forêts et des lacs ?
forests and lakes,
some of those atoms with the computers,
leurs atomes dans des ordinateurs
créer toutes ces sociétés
build all of these societies
de choisir la leur,
to choose which one they want to live in
limités par notre intelligence
be limited by our intelligence,
for this would be astronomical --
et d’espace serait astronomique.
about our future,
concernant notre futur
pour article de foi
is guaranteed to be beneficial,
est forcément bénéfique
as a mantra over and over and over again
et encore, comme un mantra,
comme un bateau à la dérive,
towards our own obsolescence.
d'être ambitieux,
to steer our technology
de guider notre technologie
pour créer l'âge de l'émerveillement.
l’âge de l’émerveillement,
the age of amazement,
in becoming not overpowered
à notre technologie de prendre le dessus
ABOUT THE SPEAKER
Max Tegmark - Scientist, authorMax Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.
Why you should listen
Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligence, as well as more than 200 nerdy technical papers on topics from cosmology to AI.
He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."
Max Tegmark | Speaker | TED.com