Sam Harris: Can we build AI without losing control over it?
샘 해리스(Sam Harris): 우리가 통제권을 잃지 않으면서 인공지능 만들수 있을까요?
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live. Full bio
Double-click the English transcript below to play the video.
about a failure of intuition
대해서 얘기할까 합니다.
to detect a certain kind of danger.
위험을 감지하지 못하는 겁니다.
반길 상황은 아닐 겁니다.
most of you will feel
제가 말씀드릴 내용에 대해서
is kind of cool.
멋지다고 생각할 겁니다.
how the gains we make
인공지능을 만들어서 얻게 될 이점이
있다는 사실입니다.
to see how they won't destroy us
파멸시키지 않을지
만들지는 전혀 알 수 없죠.
to think about these things.
재미있다고 느끼실 겁니다.
to suffer a global famine,
세계적 기근으로 고통받을 거라든지
or some other catastrophe,
or their grandchildren,
on the other hand, is fun,
벌어지는 죽음은 재미있죠.
about the development of AI at this point
개발에 대해 가장 걱정되는 것은
an appropriate emotional response
적절한 감정적 반응을
and I'm giving this talk.
이 강연을 하고 있습니다.
서 있는 것과 같습니다.
in building intelligent machines.
더이상 진보하지 않습니다.
just stops getting better for some reason.
더 이상 발전하지 않습니다.
to consider why this might happen.
한번 생각해보죠.
intelligence and automation are,
얼마나 가치있는지 안다면
if we are at all able to.
기술을 향상시키려 하겠죠.
president of the United States?
된다면 이유가 될까요?
destroy civilization as we know it.
문명을 파괴한다는 겁니다.
how bad it would have to be
생각해 봐야 합니다.
improvements in our technology
this is the worst thing
인류 사상 최악의 일입니다.
behind door number two,
to improve our intelligent machines
machines that are smarter than we are,
똑똑한 기계를 만들겠죠.
that are smarter than we are,
the mathematician IJ Good called
위험성을 안게 되는데
일이 생기는 거죠.
as I have here,
이런 풍자만화도 있는데요.
공격하리라는 두려움이죠.
will become spontaneously malevolent.
that we will build machines
more competent than we are
between their goals and our own
우리를 파멸시킬 수 있는 겁니다.
we take pains not to harm them.
걸음을 딛잖아요.
a building like this one,
one day build machines
우리를 대할 수 있다는 거죠.
far-fetched to many of you.
생각하는 분이 대다수겠지만
that superintelligent AI is possible,
의심스러운 분도 분명 계시겠죠.
with one of the following assumptions.
점을 찾으셔야 할 겁니다.
processing in physical systems.
정보를 처리하는 것입니다.
than an assumption.
가정 그 이상입니다.
narrow intelligence into our machines,
제한된 지능을 구축했고
intelligence already.
수준으로 구동합니다.
"general intelligence,"
만들어 낼 수도 있죠.
across multiple domains,
사고하는 능력인데
to build systems of atoms
intelligent behavior,
unless we are interrupted,
build general intelligence
that the rate of progress doesn't matter,
않음을 아는게 중요합니다.
is enough to get us into the end zone.
갈 수 있기 때문이죠.
We don't need exponential progress.
기하급수적인 진보가 필요없습니다.
is that we will keep going.
계속 할 것이라는 겁니다.
our intelligent machines.
계속 향상시킬 겁니다.
the source of everything we value
여기는 모든 것의 원천이거나
everything we value.
that we desperately need to solve.
싶은 문제들이 있죠.
like Alzheimer's and cancer.
질병을 치료하고 싶어 합니다.
We want to improve our climate science.
발전시키고 싶어 하죠.
and there's no brake to pull.
멈출 브레이크가 없습니다.
on a peak of intelligence,
정점에 서있지 않다는 겁니다.
our situation so precarious,
매우 위험한 겁니다.
about risk so unreliable.
우리 직감을 믿을 수가 없는 것이죠.
who has ever lived.
똑똑한 사람이 있다고 하죠.
is John von Neumann.
존 폰 노이만이 나옵니다.
made on the people around him,
어떻게 생각했는지와
mathematicians and physicists of his time,
물리학자에 포함된다는 사실은
about him are half true,
반만 사실이라 하더라도
who has ever lived.
more depressing than it needs to be.
할 필요는 없죠.
that the spectrum of intelligence
than we currently conceive,
것보다 훨씬 넓게 확장되고
that are more intelligent than we are,
explore this spectrum
가능성이 매우 높습니다.
that we can't imagine.
우리를 능가할 겁니다.
this is true by virtue of speed alone.
그렇다는 걸 알아야 합니다.
a superintelligent AI
구축한다고 해봅시다.
than your average team of researchers
평균 지능보다 덜 똑똑한 정도로요.
function about a million times faster
백만 배는 빠르게 작동합니다.
about a million times faster
백만 배의 속도로 빠르게 생각하겠죠.
of human-level intellectual work,
분량을 해치울 겁니다.
much less constrain,
어떻게 받아들여야 할까요?
of superintelligent AI
초지능 AI를 설계한다고 상상해 보세요.
the first time around.
조력자를 얻은 것 같습니다.
the perfect labor-saving device.
완벽한 기계가 될 겁니다.
that can build the machine
기계를 만들어 내는
of raw materials.
the end of human drudgery.
된다는 걸 의미하는 거에요.
of most intellectual work.
끝나게 된다는 말이기도 합니다.
do in this circumstance?
이런 상황에서 뭘 할까요?
and give each other massages.
서로 마사지나 해주겠죠.
questionable wardrobe choices,
could be like Burning Man.
축제 같을 겁니다.
무슨 일이 생길지 자문해 보세요.
and political order?
and unemployment
실업문제를 직면하게 될 겁니다.
to immediately put this new wealth
인류와 나누려 하지 않고
the covers of our business magazines
경제지 표지를 장식하겠죠.
would be free to starve.
굶어 죽는 동안에요.
or the Chinese do
in Silicon Valley
한다는 걸 들으면요.
of waging war,
일으킬 수 있을 겁니다.
of the competition here
of this kind of breakthrough
거라는 소문이 더욱 떠도는 거죠.
that AI researchers say
we're told not to worry is time.
이유는 시기 때문이라고 하죠.
don't you know.
about overpopulation on Mars."
걱정하는 것과 같다."
표현하면 이런 뜻이죠.
pretty little head about it."
완전히 잘못된 결론인 것을
of information processing,
some form of superintelligence.
how long it will take us
얼마나 걸릴지 우린 모릅니다.
to do that safely.
얼마나 걸릴지 우리는 모른다고요.
to do that safely.
50 years is not what it used to be.
과거와 같은 시간이 아닙니다.
has been on television.
방영되는 데 걸린 시간입니다.
our species will ever face.
최고의 난제를 만나는데요.
to have an appropriate emotional response
못하고 있는 것 같습니다.
to believe is coming.
생각하는 것들에 대해서요.
has a nice analogy here.
멋진 비유를 들었습니다.
a message from an alien civilization,
받았다고 상상해 보는 겁니다.
지구에 도착할 것이다.
the months until the mothership lands?
때까지 날짜만 세는 겁니까?
more urgency than we do.
can't help but share our values
공유할 수밖에 없다는 겁니다.
extensions of ourselves.
become their limbic systems.
감정 표현 시스템으로 전락하겠죠.
and only prudent path forward,
directly into our brains.
직접 이식하는 겁니다.
and only prudent path forward,
안전하고 현명한 방법이겠지만
about a technology
before you stick it inside your head.
전에 해야 할 일이죠.
building superintelligent AI on its own
integrate our minds with it.
접목시키는 것에 비해서 말이죠.
and governments doing this work
as being in a race against all others,
스스로 인지할 가능성이 있습니다.
is to win the world,
이기는 것이라고 한다면요.
in the next moment,
that whatever is easier to do
할 가능성이 있을 겁니다.
I don't have a solution to this problem,
대한 해법은 없습니다.
that more of us think about it.
하는 것 빼고는요.
like a Manhattan Project
되지 않을까 싶습니다.
we'll inevitably do that,
필연적으로 하게 될테니까
how to avoid an arms race
that is aligned with our interests.
있는 방법을 찾기 위해서죠.
about superintelligent AI
초지능 AI를 말할 때는
to get the initial conditions right,
기회는 단 한 번뿐인 것 같습니다.
consequences of getting them right.
결과를 감내해야 할 겁니다.
is the source of intelligence,
is what the basis of intelligence is,
기본이라고 하는 순간
these systems continuously,
나갈 것임을 인정하는 것이며
of cognition very likely far exceeds
뛰어넘게 될 것임을 인정하는 겁니다.
of building some sort of god.
있음을 인정해야 합니다.
있음을 확신하기 좋은 때이겠네요.
ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopherSam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.
Why you should listen
Sam Harris is the author of five New York Times bestsellers. His books include The End of Faith, Letter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.
Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.
Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.
Sam Harris | Speaker | TED.com