Nick Bostrom: What happens when our computers get smarter than we are?
닉 보스트롬(Nick Bostrom): 컴퓨터가 인류보다 똑똑해진다면 무슨일이 벌어질까?
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us? Full bio
Double-click the English transcript below to play the video.
philosophers and computer scientists,
컴퓨터 과학자와 같이 일하는데
the future of machine intelligence,
기계 학습의 미래에 대해
things are sort of science fiction-y,
말도 안된다고 생각합니다.
human condition.
guests on this planet,
가장 최근에 도착한 손님입니다.
was created one year ago,
생각해보십시오.
would be 10 minutes old.
two seconds ago.
2초 전에 시작되었습니다.
world GDP over the last 10,000 years,
전세계 GDP를 보는 것인데
to plot this for you in a graph.
그래프로 그리는 수고를 했습니다.
for a normal condition.
기묘한 모양새죠.
of this current anomaly?
원인은 무엇입니까?
through human history,
인류의 역사에 걸쳐 축적되어왔고
advances extremely rapidly --
발전하고 있습니다.
so very productive.
이유이기도 합니다.
to the ultimate cause.
근본적 원인을 생각해보고자 합니다.
distinguished gentlemen:
tokens, an incredible feat.
놀라운 위업을 이뤘고
superstring revolution.
제 2차 초끈이론을 촉발시켰습니다.
this is what we find:
이런 걸 보게 됩니다.
in the exact way it's wired.
몇가지 요령이 있었나 봅니다.
be too complicated, however,
그리 복잡하지 않습니다.
been 250,000 generations
조상으로부터 단 25만 세대밖에
take a long time to evolve.
진화하는데 오랜 시간이 걸리구요.
여러 변화들이
to intercontinental ballistic missiles.
대륙간 탄도 미사일로 데려온 겁니다.
that everything we've achieved,
이룩해온 거의 모든 것,
changes that made the human mind.
조금의 변화에 달려 있었습니다.
is that any further changes
추가적인 변화를 이끌어내고
the substrate of thinking
변화를 만들 수 있습니다.
enormous consequences.
이끌어 낼 수 있죠.
think we're on the verge
a profound change in that substrate,
엄청난 변화를 일으키기 직전이며
about putting commands in a box.
박스에 명령을 넣는 것이었습니다.
handcraft knowledge items.
힘들게 손수 만들어냅니다.
for some purposes,
you couldn't scale them.
조정할 수 없습니다.
what you put in.
결과를 얻게됩니다.
in the field of artificial intelligence.
패러다임 변화가 일어났습니다.
around machine learning.
움직이고 있습니다.
representations and features,
손수 만들기 보다는
often from raw perceptual data.
알고리즘을 만듭니다.
that the human infant does.
기본적으로 같은 것이죠.
limited to one domain --
한 도메인에 국한되지 않습니다.
between any pairs of languages,
언어도 번역할 수 있고
on the Atari console.
컴퓨터 게임도 플레이 할 수 있습니다.
the same powerful, cross-domain
강력한, 크로스 도메인의
as a human being has.
algorithmic tricks
알고리즘적 트릭들을 가지고 있어서,
how to match in machines.
to match those tricks?
얼마나 더 걸릴 것인가?
leading A.I. experts,
대상으로 그들의 의견을 조사했는데
and one of the questions we asked was,
there is a 50 percent probability
기계 학습에 달성할 가능성이
human-level machine intelligence?"
생각하십니까?" 였습니다.
as the ability to perform
최소한 성인 인간만큼
as an adult human,
능력을 말합니다.
within some limited domain.
진짜 인간 수준 말입니다.
2050년이었습니다.
group of experts we asked.
그룹에 따라 달랐습니다.
much later, or sooner,
혹은 더 일찍 일어날 수 있지만
limit to information processing
정보 처리의 궁극적 한계가
the limits in biological tissue.
훨씬 멀리 있다는 점입니다.
at 200 hertz, 200 times a second.
1초에 200번 흥분합니다.
operates at the Gigahertz.
기가헤르츠 속도로 작동합니다.
100 meters per second, tops.
최대 초속 100m로 천천히 전달하지만
at the speed of light.
빛의 속도로 이동할 수 있습니다.
to fit inside a cranium,
들어가야 하지만
of a warehouse or larger.
혹은 더 클 수도 있습니다.
lies dormant in matter,
원자폭탄이 1945년 이후로
lay dormant throughout human history,
the power of artificial intelligence.
깨울 방법을 알아낼 지도 모릅니다.
an intelligence explosion.
볼 것이라고 생각합니다.
about what is smart and what is dumb,
똑똑하고 멍청한지에 대해서
roughly like this.
것이라고 생각합니다.
or whoever your favorite guru is.
혹은 여러분이 좋아하는 권위자가 있죠.
of artificial intelligence,
probably more like this:
그려질거라 생각합니다.
at zero intelligence,
지능이 없는 지점에서 시작해서
years of really hard work,
mouse-level artificial intelligence,
인공지능에 이르게 됩니다.
cluttered environments
어수선한 환경에서
of really hard work, lots of investment,
연구와 많은 투자 끝에
chimpanzee-level artificial intelligence.
인공지능을 얻게 됩니다.
of really, really hard work,
아주 아주 고된 연구 끝에
artificial intelligence.
인공지능에 이르게 됩니다.
we are beyond Ed Witten.
에드 위튼을 뛰어넘습니다.
at Humanville Station.
지나가는 것에 가깝죠.
to questions of power.
대해서는 말이죠
twice as strong as a fit human male.
인간 남성보다 2배가량 강합니다.
and his pals depends a lot more
그들이 할 수 있는 것 보다는
what the chimpanzees do themselves.
달려 있었습니다.
on what the superintelligence does.
있는 것에 따라 결정될 것입니다.
that humanity will ever need to make.
마지막 발명품이 될 것입니다.
더 발명을 잘 할 것이며
at inventing than we are,
on digital timescales.
발명을 할 것입니다.
a telescoping of the future.
시간의 압축을 의미합니다.
that you could have imagined
모든 괴상한 기술을 생각해보세요.
in the fullness of time:
너무 많은 시간이 필요한 것이죠.
of minds into computers,
컴퓨터에 생각을 업로딩 하는 것
with the laws of physics.
부합하는 것들 말입니다.
develop, and possibly quite rapidly.
빠르게 발명할 수 있을 겁니다.
technological maturity
알게 되었으니
it would be able to get what it wants.
알 수 있을 것입니다.
be shaped by the preferences of this A.I.
이루어진 미래를 그려볼 수 있겠죠.
what are those preferences?
그 선호라는게 무엇인가? 하는 겁니다.
avoid anthropomorphizing.
every newspaper article
인공지능에 대한
has a picture of this:
이 사진이 달려있습니다.
to conceive of the issue more abstractly,
시나리오 방식이 아니라
상상할 필요가 있습니다.
as an optimization process,
생각해야 합니다.
into a particular set of configurations.
미래의 방향을 조종하는 과정말입니다.
a really strong optimization process.
최적화 프로세스입니다.
available means to achieve a state
위해 가용 자원을 사용하는데
conenction between
인류가 가치있다고 생각하는 목표를
would find worthwhile or meaningful.
to make humans smile.
목표를 주었다고 가정해봅시다.
or amusing actions
이용자를 웃게 하는
액션을 취할 것입니다.
effective way to achieve this goal:
방법이 있음을 깨닫습니다.
muscles of humans
고정시킵니다.
a difficult mathematical problem.
인공지능에게 주었다고 가정합니다.
to get the solution to this problem
가장 효율적인 방법은
into a giant computer,
변화시키는 것이라는 것을 알게됩니다.
an instrumental reason
might not approve of.
이유가 됩니다.
problem from being solved.
못하도록 막아야 할 겁니다.
꼭 이런 식으로 진행 되지 않을 겁니다
go wrong in these particular ways;
optimization process
that your definition of x
한다는 점입니다.
in many a myth.
가르치는 교훈이기도 합니다.
he touches be turned into gold.
금으로 변하게 해달라고 빕니다.
she turns into gold.
딸은 금으로 변하죠.
음식은 금으로 변합니다.
optimization process
프로세스를 만들고
or poorly specified goals.
불러올 수 있다는 점이죠.
sticking electrodes into people's faces,
얼굴에 전극을 붙인다면
말하실지도 모릅니다.
if we've grown dependent on the system --
자랐다면, 그게 그리 쉽진 않습니다.
to the Internet?
끄는 스위치가 어디 있나요?
flicked the off switch to humanity,
네안데르탈인의 스위치를
for example, right here.
예를 들면, 바로 여기요.
an intelligent adversary;
가진 적이였기 때문이죠.
and plan around them.
그에 따른 계획을 세울 수 있었습니다.
at that than we are.
that we have this under control here.
자신해서는 안된다는 겁니다.
a little bit easier by, say,
할 수 있는 시도를 할 수 있습니다.
시뮬에이션 상황 테스트 등을 위해
from which it cannot escape.
사용하는 방법으로요
the A.I. couldn't find a bug.
찾지 못할 것이라고 얼마나 확신할까요
find bugs all the time,
오류를 찾아냅니다.
확신하지 못할 겁니다.
to create an air gap,
에어 갭(안전망)을 위반했습니다
using social engineering.
이더넷 케이블을 분리해야 합니다.
out there somewhere
누군가가 주장하는 대로
her account details
넘기고 있을 것이라고
from the I.T. department.
around in your internal circuitry
라디오 전파를 만들기 위해서
can use to communicate.
흔들리는 전극들을 상상할 수 있습니다.
you up to see what went wrong with you,
보려고 코드를 여는 순간,
to a really nifty technology,
청사진을 결과물로 내놓고,
that the A.I. had planned.
부작용이 발생한다는 식이죠.
not be confident in our ability
과신하면 안된다는 점입니다.
locked up in its bottle forever.
봉인 될거라고 생각하는 점에 대해서요.
is to figure out
만드느냐에 달려있다고 생각합니다.
such that even if -- when -- it escapes,
여전히 안전하게 하기 위해서는
fundamentally on our side
공유하기 때문입니다
this difficult problem.
아닙니다.
that this problem can be solved.
해결될 수 있다고 꽤 낙관합니다.
a long list of everything we care about,
다 작성할 필요는 없습니다.
in some computer language
컴퓨터 언어로 적는다던지
that uses its intelligence
하나 만들면 됩니다.
in such a way that it is motivated
우리가 승인할 것으로 예측되는
that it predicts we would approve of.
방향으로 설계됩니다.
its intelligence as much as possible
힘을 싣는 쪽으로 무게를 실어야 합니다
very good for humanity.
매우 좋을 것입니다.
일어나지 않습니다.
for the intelligence explosion
필요한 초기 조건은
in just the right way
세팅되어야 할 것입니다.
폭발을 가진다면,
need to match ours,
맞아떨어질 것입니다.
쉽게 확인하는 것처럼
how the A.I. behaves,
that the A.I. might encounter
인공지능를 언제일지 모를 미래에
that would need to be solved, sorted out:
난해한 문제들이 있습니다.
uncertainty and so forth.
대처할 것인가 같은 문제입니다.
to be solved to make this work
a superintelligent A.I.,
어려운 것은 아니지만,
is a really hard challenge.
정말 어려운 도전입니다.
challenge on top of that.
how to crack the first challenge
the additional challenge
시작했을 시기입니다.
work out a solution
생각해 내야 합니다.
제어하기 위해서 말이죠.
by the time it is needed.
할수 있도록 준비해야 합니다.
the entire control problem in advance
생각할지도 모릅니다.
can only be put in place
architecture where it will be implemented.
that we solve in advance,
제어할 수 있을 수록,
to the machine intelligence era
that is well worth doing
가치가 있는 일이라고 생각합니다.
things turn out okay,
잘 진행된다면
look back at this century
지금의 시대를 회상하며
the one thing we did that really mattered
정말 잘 해결됐다고
ABOUT THE SPEAKER
Nick Bostrom - PhilosopherNick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?
Why you should listen
Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.
Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.
Nick was honored as one of Foreign Policy's 2015 Global Thinkers .
His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”
Nick Bostrom | Speaker | TED.com