Stuart Russell: 3 principles for creating safer AI
스튜어드 러셀(Stuart Russell): 인공지능이 우리를 더 나은 사람으로 만들 수 있을까요?
Stuart Russell wrote the standard text on AI; now he thinks deeply on AI's future -- and the future of us humans, too. Full bio
Double-click the English transcript below to play the video.
greatest Go players,
바둑 기사 중 한명이죠.
in Silicon Valley call
실리콘벨리의 제 친구들은
a lot faster than we expected.
발전하고 있음을 깨닫게 되었죠.
What about the real world?
그럼 현실 세상에서는 어떨까요?
여전히 남아있습니다.
of the technologies
기술들을 살펴보면
is not yet happening in machines,
독서하는 인공지능은 아직 없습니다.
that the human race has ever written.
모든 것을 읽게 될 것입니다.
그렇게 할 수 있게 되면
further ahead than humans can,
능력을 갖게 되고
to more information,
정보에 접근할 수 있으면
in the real world than we can.
결정들을 할 수 있을 것입니다.
everything that we value,
가치 있다고 여기는 모든 것들은
to a lot more intelligence,
지식에 접근할 수 있다면
to what the human race can do.
진정한 한계는 없을 것입니다.
as some people have described it,
of the human race?
종말을 가져올 거라고 말이죠.
and Stephen Hawking?
이런 사람들만 아는 것인가요?
has been around for a while.
이 개념이 나온 지는 좀 되었죠.
in a subservient position,
at strategic moments" --
복종하도록 만들 수 있더라도.."
"turning off the power" idea later on --
다시 설명하겠습니다.
겸손함을 느껴야 합니다. "
feel greatly humbled."
This is Alan Turing in 1951.
1951년에 한 말입니다.
is the father of computer science
컴퓨터 과학의 아버지입니다.
the father of AI as well.
인공지능의 아버지이기도 하죠.
more intelligent than your own species,
무언가를 창조하는 문제입니다.
a few million years ago,
같은 고민을 했을테니까요.
이렇게 물어보면 어떨까요.
to discuss whether it was a good idea,
의논하기 위해 모였습니다.
they conclude, no,
곤경에 처했다면서요.
sadness in their eyes.
존재론적 슬픔이 엿보이네요.
something smarter than your own species
만들어낸다는 이러한 초조한 느낌은
except stop doing AI,
말고는 딱히 방법이 없습니다.
the benefits that I mentioned
모든 장점들 때문이기도 하고
연구하고 있어서도 그렇지만
to keep doing AI.
가능하게 하고 싶습니다.
the problem a bit more.
살펴볼 필요가 있습니다.
that the purpose put into the machine
우리가 정말 원했던 목적인지를
1960년에 한 말입니다.
one of the very early learning systems
체스 두는 법을 배우고
better than its creator.
된 것을 보고 바로 한 말이죠.
할 수도 있습니다.
I touch to turn to gold,"
변하길 원했던 왕이죠.
실제로 그렇게 되었습니다.
that he put into the machine,
입력한 목표입니다.
and his relatives turned to gold
모두 금으로 변했습니다.
배고픔 속에서 죽었습니다.
"the King Midas problem"
딜레마"라고 부릅니다.
which is not, in fact,
실제로 그가 정말 원했던 것과
"the value alignment problem."
"가치 조합 문제"라고 하죠.
is not the only part of the problem.
문제가 되는 것은 아닙니다.
"Fetch the coffee,"
단순한 것이라고 해도
to fetch the coffee?
커피를 못가져가게 될까?
조치를 취해야겠어.
against interference
방해하는 것들로부터
that I have been given."
뭐든지 할 거야. "
of an objective that is, in fact,
of the human race --
일치하지는 않습니다.
바로 이것입니다.
takeaway from this talk.
무척 고차원적인 부분인데요.
the coffee if you're dead.
주지 않을 거라는 것입니다.
Repeat it to yourself three times a day.
하루에 세 번씩 외우세요.
영화의 줄거리입니다.
즉 임무를 갖고 있습니다.
with the objectives of the humans,
일치하지는 않습니다.
is not superintelligent.
아주 뛰어나진 않았습니다.
but eventually Dave outwits him
HAL보다 한 수 위였고
운이 좋지 않을 수 있습니다.
다시 정의하려 합니다.
pursue objectives.
달성하려 한다는 개념이죠.
of altruism, if you like,
of human objectives,
실현하는 것입니다.
touchy-feely, goody-goody values.
숭고한 가치를 의미하진 않습니다.
that the human would prefer
더 나아질지를 의미하는 것입니다.
아시모프의 원칙 중에서
its own existence.
한다는 원칙과 충돌합니다.
its existence whatsoever.
보호해서 얻는 것이 없죠.
of humility, if you like.
법칙이라고 말할 수 있습니다.
important to make robots safe.
아주 중요한 원칙이죠.
무엇인지는 알 수 없다는 것입니다.
but it doesn't know what they are.
무엇인지는 알지 못한다는 것이죠.
of single-minded pursuit
문제를 피할 수 있습니다.
매우 중요한 부분입니다.
개념을 갖고 있어야 합니다.
by observation of human choices,
것을 관찰해서 정보를 얻습니다.
our lives to be like.
바라는지에 관한 정보가 있습니다
어떻게 적용되는지 살펴봅시다.
to this question of:
as Turing suggested.
앨런 튜링이 제기했던 문제입니다.
right on the back.
"꺼짐" 버튼이 있습니다.
going to let you switch it off?
로봇은 여러분이 전원을 끄도록 할까요?
이런 목표를 부여한다고 치죠.
the coffee, I must fetch the coffee,
나는 커피를 가져가야만 한다.
커피를 갖고 갈 수 없다."
has been listening to my talk,
따르기 위해 이렇게 말하겠죠.
"I must disable my 'off' switch,
망가뜨려야 겠어.
people in Starbucks
사람들을 전기총으로 쏴야겠어.
seems to be inevitable,
피할 수 없을 겁니다.
a concrete, definite objective.
그대로 따르고 있으니까요.
is uncertain about the objective?
알고 있으면 어떤 일이 일어날까요?
이렇게 생각하게 될 겁니다.
might switch me off,
내 전원을 끌 수 있어.
잘못했을 때만 그럴 거야.
뭔지는 모르지만
두 번째 원칙이 있습니다.
principles right there.
전원을 끄게 놔둬야겠다."
the incentive that the robot has
전원을 끌 수 있도록 놔둘 때
직접적으로 연결됩니다.
the underlying objective.
it should be pursuing,
목표에 대해 이해하게 되죠.
알게 되기 때문입니다.
what it did wasn't right.
of Greek symbols,
증명할 수 있습니다.
is provably beneficial to the human.
인간에게 도움이 될 거라는 겁니다.
with a machine that's designed in this way
기계로 인해 혜택을 보게 될 겁니다.
but this is the first step
무얼 할 수 있는지에 대한 첫걸음이죠.
with human-compatible AI.
scratching your head over.
머리를 긁적이실 것 같은데요.
you know, I behave badly.
"음, 내가 좀 못됐잖아.
행동하는 건 별로야.
and take stuff from the fridge.
뒤져서 먹을 걸 찾기도 하잖아.
여러 행동들이 있을 겁니다.
you don't want the robot doing.
quite work that way.
나쁜 행동을 했다고 해서
is going to copy your behavior.
따라서 하는 건 아닙니다.
그 나쁜 행동을 하지 않도록 돕습니다.
and maybe help you resist them,
for any person and for any possible life
앞으로 그가 살게 될 삶이 어떠한지를
사람들의 삶을 말이죠.
difficulties involved in doing this;
많은 난관을 넘어야 합니다.
is going to get solved very quickly.
해결되리라고 보지 않습니다.
바로 우리 자신입니다.
we behave badly.
우리는 나쁜 행동을 합니다.
정말 형편 없을지도 모르죠.
doesn't have to copy the behavior.
그대로 따라 하지는 않습니다.
any objective of its own.
어떤 목적도 갖지 않습니다.
the desires of one person, the user,
충족하기 위해 만들어진 것도 아닙니다.
the preferences of everybody.
원하는 바를 고려해야 하죠.
amount of nastiness,
감내하게 될 것입니다.
that your nastiness, for example,
어느 정도는 양해해 주겠죠.
공무원인데 뇌물을 받았다고 칩시다.
and send your kids to school.
아이들 교육을 위한 것이었다면
it doesn't mean it's going to steal.
빼앗아가지는 않을 겁니다.
학교에 갈 수 있도록 도울 거예요.
send your kids to school.
he took an action that lost the game.
질 수 밖에 없는 수를 두었습니다.
원했다는 건 아닙니다.
through a model of human cognition
아예 뒤집어 봐야 합니다
limitations -- a very complicated model.
한계를 담고 있어서 매우 복잡합니다.
that we can work on understanding.
계속 발전하고 있습니다.
from my point of view as an AI researcher,
제가 보기에 가장 어려운 부분은
trade off, weigh up the preferences
사람들의 선호도를 비교하면서
moral philosophers have understood that,
윤리학자들이 연구를 수행했고
looking for collaboration.
시도를 하고 있습니다.
when you get that wrong.
어떤 일이 일어날지 살펴보죠.
a conversation, for example,
대화를 하고 있습니다.
이야기를 하고 있습니다.
in a few years' time.
몇 년 안에 가능해질 겁니다.
to remind you about dinner tonight."
잊지말라고 전화하셨어요"라고 말합니다.
"What? What dinner?
무슨 말 하는거야?"
축하 저녁식사 입니다."
with the secretary-general at 7:30.
7시 반에 약속이 있단 말이야.
my recommendation."
제 이야기는 무시하셨죠."
I can't just tell him I'm too busy."
바쁘다고 핑계를 댈 수는 없잖아."
for his plane to be delayed."
비행기가 연착되도록 손 썼습니다."
일어나도록 했죠."
미안하다고 하셨습니다.
for lunch tomorrow."
꼭 보자고 하셨습니다."
there's a slight mistake going on.
방향이 조금 잘못되기는 했지만요.
가치를 둔 결정입니다.
라는 말처럼요.
after a hard day's work,
보내고 집에 왔습니다.
"힘든 하루였죠?"
Could you make some dinner?"
저녁 좀 해줄래?"
who are in more urgent need than you."
굶주림에 시달리는 사람들이 있습니다."
저녁은 알아서 드세요."
to working on them.
they're going to read everything
자료를 읽어 들일 것입니다.
누가 무엇을 했고
is human beings doing things
관한 것들입니다.
배울 점이 있습니다.
of data to learn from.
경제적 이득을 볼 수 있죠.
strong economic incentive
로봇이 있다고 상상해보세요.
and the robot has to feed the kids,
로봇이 아이들의 식사를 챙겨야 합니다.
and there's nothing in the fridge.
냉장고에는 먹을 게 없습니다.
the human value function properly,
방식을 아직 제대로 배우지 않았습니다.
인간이 고양이를 아끼는 감성적 가치가
the nutritional value of the cat.
for family dinner."
고양이를 요리했다"
of the domestic robot industry.
업계는 망해버릴 수 있습니다.
to get this right
로봇이 출현하기 전에
superintelligent machines.
the definition of AI
바꾸기 위해 노력합니다.
beneficial machines.
로봇들을 가질 수 있을 겁니다.
이루려고 해야 합니다.
about what those objectives are,
무엇인지 몰라야 합니다.
that we really want.
이해하기 위해서입니다.
we will learn to be better people.
사람이 되는 법을 배우게 될 것입니다.
잠깐 이야기를 나누겠습니다.
because I think they're setting up
seems intuitively really powerful.
무척 대단하다고 생각됩니다.
this idea that knowledge
개념을 발견하게 되고
and rewriting that programming?
막을 수 있나요?
it to learn more, as I said,
로봇이 더 많이 배우길 바랍니다.
as it becomes more correct,
더 확실해지게 됩니다.
to interpret it correctly.
해석할 수 있도록 설계될 겁니다.
that books are very biased
편향되어 있다고 이해하게 될 겁니다.
남성들의 업적들 뿐이죠.
더 많이 알게 될수록
just boil it down to one law,
법칙으로만 말할 수는 없겠죠.
내 전원을 끄려고 한다면
그건 정말 끔찍한 생각이에요.
a self-driving car
유치원에 데려다 주려고 합니다.
to be able to switch off the car
전원을 꺼버리게 두시겠어요?
이성적이고 지각이 있는지 파악합니다.
and sensible the person is.
전윈을 꺼주기를 바라겠죠.
to be switched off.
심지어 악의적인 사람이라면
random or even malicious,
to be switched off.
원하지는 않을 겁니다.
해결해 주시기를 바랍니다.
figure this out for us.
정말 놀라운 이야기였습니다
That was amazing.
ABOUT THE SPEAKER
Stuart Russell - AI expertStuart Russell wrote the standard text on AI; now he thinks deeply on AI's future -- and the future of us humans, too.
Why you should listen
Stuart Russell is a professor (and formerly chair) of Electrical Engineering and Computer Sciences at University of California at Berkeley. His book Artificial Intelligence: A Modern Approach (with Peter Norvig) is the standard text in AI; it has been translated into 13 languages and is used in more than 1,300 universities in 118 countries. His research covers a wide range of topics in artificial intelligence including machine learning, probabilistic reasoning, knowledge representation, planning, real-time decision making, multitarget tracking, computer vision, computational physiology, global seismic monitoring and philosophical foundations.
He also works for the United Nations, developing a new global seismic monitoring system for the nuclear-test-ban treaty. His current concerns include the threat of autonomous weapons and the long-term future of artificial intelligence and its relation to humanity.
Stuart Russell | Speaker | TED.com