Max Tegmark: How to get empowered, not overpowered, by AI
맥스 테그마크 (Max Tegmark): 인공지능에게 제압당하지 않고, 인공지능으로 힘을 얻는 방법
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder. Full bio
Double-click the English transcript below to play the video.
of cosmic history,
have begun gazing out into the cosmos
is vastly grander
imperceptibly small perturbation
something inspiring,
얻을 만한 것도 발견했죠.
we're developing has the potential
역량을 가졌다는 사실입니다.
but for billions of years,
수십억 년 동안 번성하고
much of this amazing cosmos.
이 놀라운 우주 안에서 말이죠.
"생명 1.0"이라고 생각합니다.
바보 같았기 때문이죠.
anything during its lifetime.
because we can learn,
학습할 수 있기 때문이죠.
new software into our brains,
설치했다고 볼 수 있습니다.
its software but also its hardware
하드웨어도 만들 수 있습니다.
has already made us "Life 2.1,"
"생명 2.1"로 만들었습니다.
pacemakers and cochlear implants.
인공 달팽이관 이식 같은 거로 말이죠.
at our relationship with technology, OK?
좀 더 깊이 살펴보기로 하겠습니다.
was both successful and inspiring,
성공적이었고 고무적이었습니다.
use technology wisely,
that our ancestors could only dream of.
이루어낼 수 있음을 증명해주었죠.
고무적인 여정이 있습니다.
more powerful than rocket engines,
추진력을 얻고 있죠.
승객으로 하는 것이 아니라
aren't just three astronauts
journey into the future
여정에 대해 이야기해봅시다.
that just as with rocketry,
이렇게 말하곤 했습니다.
our technology powerful.
아직 부족함이 있다고 말이죠.
if we're going to be really ambitious,
알아야 한다고 지적했죠.
원하는 목표를 알아야 한다고요.
for artificial intelligence:
세 가지 요소에 대해 이야기해보죠.
and the destination.
지능을 이렇게 정의합니다.
to accomplish complex goals,
간단히 정의할 수 있죠.
biological and artificial intelligence.
지능이 모두 포함되어 있습니다.
the silly carbon-chauvinism idea
탄소로 이루어진 유기체만
if you're made of meat.
생각은 배제하고자 합니다.
of AI has grown recently.
성장했는지를 보면 정말 놀랍습니다.
로봇은 걷지도 못했습니다.
saying stuff that you never said.
한 것처럼 조작하기도 합니다.
took 3,000 years of human Go games
바둑의 지혜를 익혔습니다.
player by just playing against itself.
세계 최고의 바둑기사가 되었죠.
wasn't that it crushed human gamers,
인간을 물리쳤다는 것이 아니라
수십 년을 공들여 온
handcrafting game-playing software.
not just in Go but even at chess,
인간 개발자들을 물리쳤습니다.
연구해왔는데도 말이죠.
really begs the question:
이런 질문을 하게 됩니다.
landscape of tasks,
직업을 생각해보죠.
how hard it is for AI to do each task
AI의 작업 난이도를 의미합니다.
what AI can do today.
일의 수준을 의미하죠.
as AI improves,
going on here in the task landscape.
일어나고 있다고 할 수 있죠.
is to avoid careers at the waterfront --
선택하지 않는 게 당연할 겁니다.
automated and disrupted.
자동화되거나 사라질 테니까요.
bigger question as well.
질문이 놓여있습니다.
to flood everything,
맞먹게 될 것입니다.
of artificial general intelligence --
of AI research since its inception.
AI의 성배와 같은 것입니다.
이렇게 말했습니다.
that humans can do better than machines,"
기계보다 뛰어날 거야"
that we'll never get AGI.
않는다는 걸 의미하죠.
to have some human jobs
and purpose with our jobs,
직업을 선택할 수 있습니다.
transform life as we know it
우리 삶을 바꿀 것이고
남아있지 않을 것입니다.
the most intelligent.
mainly not by humans but by AI,
AI가 주도하게 될 것입니다.
could be way faster
and development timescale of years,
뛰어넘을 것이라는 사실입니다.
of an intelligence explosion
폭발적 증가 가능성으로 인해
intelligence far behind,
as superintelligence.
like Rodney Brooks,
유명한 AI 연구자들은
for hundreds of years.
없을 거라 보고 있습니다.
founder Demis Hassabis,
데미스 하사비스 같은 사람들은
it happen much sooner.
앞당기려고 애쓰고 있죠.
that most AI researchers
낙관론에 동조하고 있으며
get AGI within decades,
것으로 기대하고 있습니다.
and cheaper than us?
더 경제적이고 더 낫다면 말이죠.
기로에 놓일 것입니다.
이렇게 말하면서요.
that can do everything we can do
할 일을 다 시키지 뭐.
that makes all humans obsolete,
기술이 나온다고 해서
embarrassingly lame.
궁색한 말이라고 생각해요.
in the spirit of TED.
TED의 정신으로 말이죠.
high-tech future
첨단 기술의 미래를 그려야 합니다.
두 번째 부분으로 넘어가죠.
of our rocket metaphor: the steering.
rather than flounder?
번성하도록 이끌 수 있을까요?
"생명의 미래 연구소"를 설립했습니다.
beneficial technology use,
작은 비영리 단체죠.
for the future of life to exist
생명체의 미래를 실현하고
is better than the Stone Age.
바로 기술 덕분입니다.
a really inspiring high-tech future ...
미래가 올 것이라 낙관하고 있습니다.
지혜로움이 이기려면 말이죠.
power of our technology
with which we manage it.
커질지의 경쟁에서요.
a change of strategy
has been learning from mistakes.
실수를 통해 배운 것이기 때문이죠.
screwed up a bunch of times --
시간이 한참 지난 뒤에
the seat belt and the airbag,
안전벨트와 에어백을 발명했죠.
like nuclear weapons and AGI,
훨씬 막강한 기술에 대해서도
is a lousy strategy,
너무나 형편없는 전략이죠.
훨씬 나을 겁니다.
rather than reactive;
right the first time
초기에 바로잡아야죠.
the only time we'll get.
사람들이 있어요.
sometimes people tell me,
그런 식으로 말하지 말아요.
겁주는 거 같잖아요."
call safety engineering.
안전공학이라고 하는데요.
the Apollo 11 mission,
everything that could go wrong
부분을 체계적으로 검토했습니다.
on top of explosive fuel tanks
연료통 위에 사람을 태우고
그들을 보내야 했으니까요.
where no one could help them.
the safety engineering
I think we should take with AGI.
우리가 취해야 할 전략입니다.
to make sure it goes right.
제대로 바로잡아 두는 것이죠.
we've organized conferences,
저희는 컨퍼런스를 열었습니다.
AI researchers and other thinkers
각 분야 권위자들 불러 모아서
we need to keep AI beneficial.
지혜를 어떻게 키워갈지 토론했죠.
was in Asilomar, California last year
캘리포니아주 애실로마에서 있었는데요.
AI 연구자들과
by over 1,000 AI researchers
about three of these principles.
말씀드리려고 합니다.
and lethal autonomous weapons.
근절해야 한다는 것입니다.
can be used for new ways of helping people
돕는 수단이 될 수도 있고
are much more likely to be used
신약과 치료제 개발에 더 많이 쓰이죠.
than for new ways of killing people,
and chemists pushed hard --
and chemical weapons.
and ban lethal autonomous weapons.
비난하고 금지시키고 싶어 합니다.
AI-fueled income inequality.
줄여야 한다는 것입니다.
the economic pie dramatically with AI
극단적으로 성장하더라도
how to divide this pie
여전히 찾지 못한다면
if your computer has ever crashed.
있는 분은 손을 들어보세요.
this principle
더 많이 투자해야 한다는 겁니다.
in AI safety research,
of even more decisions and infrastructure,
더 많이 개입하도록 하기 때문이죠.
today's buggy and hackable computers
현재의 컴퓨터를 바꾸어
만들 방법을 찾아야 합니다.
that we can really trust,
오작동하여 우리에게 해를 끼치거나
can malfunction and harm us,
대적할지도 모릅니다.
has to include work on AI value alignment,
AI 가치 조합 연구도 포함해야 합니다.
from AGI isn't malice,
적대감이 아니기 때문이죠.
that just aren't aligned with ours.
우리의 목표와 일치하지 않습니다.
the West African black rhino extinct,
검은 코뿔소의 멸종을 초래했지만
of evil rhinoceros haters, did we?
그랬던 것은 아니잖아요.
똑똑했기 때문입니다.
we were smarter than them
목표와는 달랐던 것이죠.
우리보다 똑똑할 겁니다.
ourselves in the position of those rhinos
처지가 되도록 만들면 안 되겠죠.
to make machines understand our goals,
가르칠 방법을 찾아야 합니다.
유지하도록 해야 하죠.
선택해야 할까요?
of our rocket metaphor: the destination.
세 번째 부분입니다.
that almost nobody talks about --
아무도 말하려 하지 않죠.
on short-term AI challenges.
AI 문제에만 집착하기 때문입니다.
AGI를 만들려고 합니다.
are we hoping for if we succeed?
어떤 사회가 되기를 기대하는 거죠?
want us to build superintelligence:
초지능 개발을 원하고 있었습니다.
훨씬 뛰어난 AI를 원하고 있었죠.
than us in all ways.
우리가 큰 꿈을 가져야 하고
was that we should be ambitious
해야 한다는 것이었습니다.
about who or what should be in charge.
의견이 분분했습니다.
who want it to be just machines.
사람도 있다는 거예요.
about what the role of humans should be,
대해서는 모두가 같은 답을 했습니다.
at possible futures
to steer toward, alright?
선택해야 하지 않겠어요?
얘기하려는 게 아닙니다.
metaphorical journey into the future.
비유적으로 표현한 거예요.
of my AI colleagues like
의견 중 하나는
and keep it under human control,
인간의 통제하에 두자는 것입니다.
technology and wealth
만드는 데에만 사용하는 겁니다.
and absolute power corrupts absolutely,
반드시 부패하기 마련이라고 했죠.
we humans just aren't smart enough,
않다고 걱정할 것이 아니라
매우 똑똑하다는 걸 걱정해야 합니다.
moral qualms you might have
죄책감을 가질 것이 아니라
the superintelligence could outsmart us,
모든 걸 차지할 수 있다는 사실입니다.
who are fine with AI taking over
지배당해도 좋다는 이도 있습니다.
are our worthy descendants,
생각되면 그래도 괜찮다는 거예요.
have adopted our best values
취할 거라고 어떻게 확신하죠?
tricking us into anthropomorphizing them?
되지 않을 거라고 어떻게 알죠?
who don't want human extinction
of those two high-tech options,
이 두 가지 선택을 모두 포기한다면
that low-tech is suicide
저급한 기술은 자살 행위임을
beyond today's technology,
뛰어넘지 못하면
is going to go extinct,
우리가 죽을 수도 있으니까요.
we're going to get taken out
that better technology could have solved.
해결되었을 다른 문제들로 말이죠.
our cake and eating it ...
한 번에 잡으면 어떨까요?
are aligned with ours?
우리에게 호의를 베풀게 하는 거죠.
has called "friendly AI,"
"친근한 AI"의 요지입니다.
it could be awesome.
experiences like disease, poverty,
없앨 수 있을 겁니다.
어려운 문제들이요.
the freedom to choose
자유도 가져다줄 거예요.
of positive experiences --
선택할 수 있게 될 겁니다.
the masters of our own destiny.
원하는 대로 바꿀 수 있게 되겠죠.
is complicated,
매우 복잡합니다.
expect AGI within decades,
AGI가 등장할 거라고 기대합니다.
into this unprepared,
우왕좌왕하고 있으면
the biggest mistake in human history --
저지를지도 모릅니다.
global dictatorship
surveillance and suffering,
그리고 고통이 있을지 모릅니다.
where everybody's better off:
미래를 만들 수도 있어요.
부자는 더 부자가 되며
and free to live out their dreams.
자유롭게 꿈을 이룰 수 있습니다.
that's politically right or left?
미래 사회를 원하시나요?
with strict moral rules,
경건한 사회를 원하시나요?
forests and lakes,
호수를 원하시나요?
some of those atoms with the computers,
원자 재배열을 연구하고 싶으신가요?
이 모든 게 가능합니다.
build all of these societies
to choose which one they want to live in
자유롭게 선택할 수 있습니다.
지능의 한계에 제한받지 않고
be limited by our intelligence,
for this would be astronomical --
수준이 될 것입니다.
about our future,
자만하는 것입니다.
is guaranteed to be beneficial,
이득을 가져다줄 거라고
as a mantra over and over and over again
주문을 걸기만 하는 겁니다.
towards our own obsolescence.
진부한 방향으로 흘러가겠죠.
to steer our technology
이끌어 갈지 심사숙고하고
어디로 향해야 할지 고민하는 겁니다.
기념하려고 이곳에 모였습니다.
the age of amazement,
in becoming not overpowered
힘에 제압당하는 것이 아니라
얻는 거라고 생각합니다.
ABOUT THE SPEAKER
Max Tegmark - Scientist, authorMax Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.
Why you should listen
Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligence, as well as more than 200 nerdy technical papers on topics from cosmology to AI.
He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."
Max Tegmark | Speaker | TED.com