Max Tegmark: How to get empowered, not overpowered, by AI
Max Tegmark: Come non essere sopraffatti, ma responsabilizzati dall'IA
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder. Full bio
Double-click the English transcript below to play the video.
of cosmic history,
di storia cosmica,
have begun gazing out into the cosmos
del nostro universo
is vastly grander
è molto più grande
i nostri antenati
imperceptibly small perturbation
una perturbazione quasi impercettibile
something inspiring,
qualcosa di stimolante,
we're developing has the potential
che stiamo sviluppando
a fiorire come mai prima d'ora,
but for billions of years,
ma per miliardi di anni,
much of this amazing cosmos.
ma in gran parte dell'universo.
come una "Vita 1.0"
anything during its lifetime.
di imparare alcunché.
because we can learn,
perché possiamo imparare,
new software into our brains,
nuovi software nel cervello,
e le capacità lavorative.
its software but also its hardware
l'hardware oltre che il software
has already made us "Life 2.1,"
ci ha già resi "Vita 2.1",
pacemakers and cochlear implants.
i pacemaker e gli apparecchi acustici.
at our relationship with technology, OK?
alla nostra relazione con la tecnologia.
was both successful and inspiring,
è riuscita ed è stata stimolante,
use technology wisely,
usano la tecnologia con saggezza,
that our ancestors could only dream of.
che i nostri antenati si sognavano.
more powerful than rocket engines,
dei motori dei razzi,
aren't just three astronauts
non sono solo tre astronauti
journey into the future
nel futuro
that just as with rocketry,
ama sottolineare che proprio come i razzi,
our technology powerful.
if we're going to be really ambitious,
se saremo davvero ambiziosi,
for artificial intelligence:
per l'intelligenza artificiale:
and the destination.
e la destinazione.
in modo molto inclusivo --
to accomplish complex goals,
di realizzare obiettivi complessi,
biological and artificial intelligence.
sia l'intelligenza biologica
the silly carbon-chauvinism idea
quella stupida idea carbonio-sciovinistica
if you're made of meat.
solo se fatti di carne.
of AI has grown recently.
quanto sia migliorata l'IA ultimamente.
i robot non potevano camminare.
a guida autonoma.
di riconoscimento facciale.
saying stuff that you never said.
che dice cose che non avete mai detto.
took 3,000 years of human Go games
ha preso 3000 anni di giochi di Go
player by just playing against itself.
il miglior giocatore al mondo
wasn't that it crushed human gamers,
non è che ha stracciato gli umani,
handcrafting game-playing software.
a creare il software di gioco.
not just in Go but even at chess,
di IA non solo a Go, ma anche a scacchi,
really begs the question:
in IA sollevano la questione:
landscape of tasks,
how hard it is for AI to do each task
la difficoltà di ogni compito per l'IA
what AI can do today.
quello che l'IA può fare oggi.
as AI improves,
quando l'IA migliora,
going on here in the task landscape.
nel panorama dei compiti.
is to avoid careers at the waterfront --
carriere lungo la costa --
automated and disrupted.
scombussolate e automatizzate.
bigger question as well.
to flood everything,
di tutti i compiti umani.
of artificial general intelligence --
di intelligenza artificiale generale --
of AI research since its inception.
dell'IA fin dalla sua nascita.
that humans can do better than machines,"
che gli esseri umani
that we'll never get AGI.
che non arriveremo mai all'AGI.
to have some human jobs
di avere lavori umani
and purpose with our jobs,
e scopo con i nostri lavori,
transform life as we know it
la vita come la conosciamo
the most intelligent.
non saranno più i più intelligenti.
mainly not by humans but by AI,
non saranno più guidati
sia ancora più veloce
could be way faster
and development timescale of years,
di ricerca e sviluppo umani di anni,
of an intelligence explosion
di un'esplosione di intelligenza
in modo ricorrente
intelligence far behind,
l'intelligenza umana,
as superintelligence.
una superintelligenza.
like Rodney Brooks,
come Rodney Brooks,
for hundreds of years.
per centinaia di anni.
founder Demis Hassabis,
di Google DeepMind Demis Hassabis,
it happen much sooner.
per farlo accadere molto prima.
that most AI researchers
che molti ricercatori di IA
get AGI within decades,
in qualche decennio,
il ruolo degli esseri umani
and cheaper than us?
meglio e a minor costo?
una scelta.
that can do everything we can do
quel che facciamo noi
that makes all humans obsolete,
che rendono gli umani obsoleti,
embarrassingly lame.
davvero poco convincente.
in the spirit of TED.
più ambiziosi, nello spirito di TED.
high-tech future
davvero stimolante
in quella direzione.
of our rocket metaphor: the steering.
della metafora del razzo: la direzione.
verso un futuro
rather than flounder?
a progredire invece di annaspare?
beneficial technology use,
l'uso benefico della tecnologia,
for the future of life to exist
il futuro della vita
is better than the Stone Age.
stiamo meglio che nell'età della pietra.
a really inspiring high-tech future ...
un futuro high-tech davvero stimolante...
power of our technology
della tecnologia
with which we manage it.
con cui la gestiamo.
a change of strategy
has been learning from mistakes.
prevedeva di imparare dagli errori.
screwed up a bunch of times --
fatto qualche casino --
the seat belt and the airbag,
le cinture e gli airbag,
like nuclear weapons and AGI,
come le armi nucleari e l'AGI,
is a lousy strategy,
è una strategia che fa schifo,
rather than reactive;
invece che reattivi;
right the first time
e fare le cose bene la prima volta
the only time we'll get.
la nostra unica occasione.
sometimes people tell me,
la gente mi dice,
call safety engineering.
ingegneria di sicurezza.
the Apollo 11 mission,
everything that could go wrong
a tutto quello che poteva andare storto
on top of explosive fuel tanks
su serbatoi carburante esplosivi
where no one could help them.
avrebbe potuto aiutarle.
the safety engineering
I think we should take with AGI.
che credo dovremmo adottare per l'AGI.
to make sure it goes right.
andare storto per fare le cose giuste.
we've organized conferences,
abbiamo organizzato conferenze,
AI researchers and other thinkers
e altri esperti
we need to keep AI beneficial.
la saggezza utile
was in Asilomar, California last year
a Asilomar, California, l'anno scorso
by over 1,000 AI researchers
da più di 1000 ricercatori di IA
about three of these principles.
and lethal autonomous weapons.
e armi autonome letali.
can be used for new ways of helping people
può essere usata per aiutare la gente
are much more likely to be used
che la biologia e la chimica vengano usate
than for new ways of killing people,
che per uccidere le persone,
and chemists pushed hard --
fanno pressione,
and chemical weapons.
and ban lethal autonomous weapons.
e proibire le armi letali autonome.
AI-fueled income inequality.
alimentate dall'IA.
the economic pie dramatically with AI
significativamente l'economia con l'IA
how to divide this pie
if your computer has ever crashed.
se vi si è mai impallato il computer.
this principle
in AI safety research,
molto di più nella sicurezza dell'IA,
of even more decisions and infrastructure,
in sempre più decisioni e infrastrutture,
today's buggy and hackable computers
i bug e i computer attaccabili di oggi
that we can really trust,
in cui avere fiducia,
can malfunction and harm us,
può funzionare male e danneggiarci,
e rivoltarsi contro di noi.
has to include work on AI value alignment,
from AGI isn't malice,
non è la malizia,
that just aren't aligned with ours.
che non sono allineati ai nostri.
the West African black rhino extinct,
il rinoceronte all'estinzione,
of evil rhinoceros haters, did we?
nemici dei rinoceronti, no?
we were smarter than them
eravamo più intelligenti di loro
non erano allineati con i loro.
è più intelligente di noi,
ourselves in the position of those rhinos
nella posizione di quei rinoceronti
to make machines understand our goals,
che capiscano i nostri obiettivi,
di chi dovrebbero essere questi obiettivi?
of our rocket metaphor: the destination.
del razzo: la destinazione.
that almost nobody talks about --
di cui quasi nessuno parla,
on short-term AI challenges.
sulle sfide a breve termine dell'IA.
sta cercando di costruire l'AGI,
e interessi economici,
are we hoping for if we succeed?
speriamo se abbiamo successo?
want us to build superintelligence:
che si costruisca una superintelligenza:
than us in all ways.
di noi in tutti i sensi.
was that we should be ambitious
è stato sull'ambizione
a diffondersi nel cosmo,
about who or what should be in charge.
su chi o cosa fosse responsabile.
who want it to be just machines.
vorrebbe solo le macchine.
about what the role of humans should be,
debba essere il ruolo degli esseri umani,
at possible futures
i futuri possibili
to steer toward, alright?
metaphorical journey into the future.
dell'umanità nel futuro.
of my AI colleagues like
and keep it under human control,
e tenerla sotto controllo umano,
technology and wealth
e ricchezza inimmaginabili
and absolute power corrupts absolutely,
corrompe assolutamente,
we humans just aren't smart enough,
non sono abbastanza intelligenti,
moral qualms you might have
per gli scrupoli morali che potreste avere
the superintelligence could outsmart us,
di un'intelligenza più furba di noi,
who are fine with AI taking over
una IA che prende il controllo
l'estinzione dell'uomo,
are our worthy descendants,
è un nostro degno discendente,
have adopted our best values
ha adottato i nostri migliori valori
tricking us into anthropomorphizing them?
che ci ingannano a antropomorfizzarli?
who don't want human extinction
l'estinzione della razza umana
qualcosa anche loro?
of those two high-tech options,
di queste opzioni high-tech,
that low-tech is suicide
che low-tech equivale a suicidio
beyond today's technology,
la tecnologia di oggi,
is going to go extinct,
se l'umanità si estinguerà,
we're going to get taken out
supervulcano
that better technology could have solved.
avrebbe potuto risolvere.
our cake and eating it ...
non mangiarci la nostra torta...
are aligned with ours?
sono allineati ai nostri?
has called "friendly AI,"
che Eliezer Yudowsky chiama "IA amica,"
it could be awesome.
sarebbe meraviglioso.
experiences like disease, poverty,
come malattie, povertà,
the freedom to choose
la libertà di scelta
of positive experiences --
di esperienze positive --
the masters of our own destiny.
del nostro destino.
is complicated,
con la tecnologia è complicata,
è piuttosto semplice.
expect AGI within decades,
entro qualche decennio,
into this unprepared,
the biggest mistake in human history --
il più grande errore della storia --
global dictatorship
una dittatura globale brutale
surveillance and suffering,
e sofferenza senza precedenti,
l'estinzione del genere umano.
where everybody's better off:
in cui tutti stanno meglio:
i ricchi sono più ricchi,
and free to live out their dreams.
e liberi di vivere i loro sogni.
that's politically right or left?
di destra o di sinistra?
with strict moral rules,
con regole morali rigide,
gratis per tutti,
forests and lakes,
some of those atoms with the computers,
un po' di atomi con il computer,
di realtà virtuale?
build all of these societies
tutte queste società
to choose which one they want to live in
di scegliere in quale vivere
be limited by our intelligence,
dalla nostra intelligenza,
for this would be astronomical --
diventerebbero astronomiche --
about our future,
del nostro futuro,
is guaranteed to be beneficial,
è garantita vantaggiosa,
as a mantra over and over and over again
in continuazione
towards our own obsolescence.
senza timone verso l'obsolescenza.
to steer our technology
a come indirizzare la tecnologia
the age of amazement,
l'era della meraviglia,
in becoming not overpowered
non dovrebbe stare nella sopraffazione
da parte della nostra tecnologia.
ABOUT THE SPEAKER
Max Tegmark - Scientist, authorMax Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.
Why you should listen
Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligence, as well as more than 200 nerdy technical papers on topics from cosmology to AI.
He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."
Max Tegmark | Speaker | TED.com