ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com
TED2003

Marvin Minsky: Health and the human mind

Marvin Minsky의 강연 - 건강과 인간의 마음

Filmed:
606,909 views

건강과 인구과밀, 사람의 마음에 대해 Marvin Minsky가 들려주는 다방면에 걸친 즉흥적이고 (offhand) 기발한 이야기. 통찰력과 위트가 넘치지만 가끔씩 나오는 짓궂은 표현에 혹시 농담은 아닐까? 하는 의심마저 드는 강연.
- AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching. Full bio

Double-click the English transcript below to play the video.

00:18
If you ask청하다 people about what part부품 of psychology심리학 do they think is hard단단한,
0
0
6000
만일 사람들에게 심리학의 분야에서 무엇이 어렵다고 생각하는지 묻는다면,
00:24
and you say, "Well, what about thinking생각 and emotions감정?"
1
6000
3000
사고(thinking)와 감정(emotions) 중에서 무엇이 더 어렵냐고 묻는다면,
00:27
Most가장 people will say, "Emotions감정 are terribly몹시 hard단단한.
2
9000
3000
대부분의 사람들은 이렇게 말할 겁니다. "감정 분야가 굉장히 어려워요.
00:30
They're incredibly엄청나게 complex복잡한. They can't -- I have no idea생각 of how they work.
3
12000
6000
그게 믿을 수 없을 정도로 복잡해서, 감정이 어떤 식으로 움직이는지 모르겠어요.
00:36
But thinking생각 is really very straightforward똑바로:
4
18000
2000
하지만 사고(thinking)는 꽤 이해하기 쉽죠.
00:38
it's just sort종류 of some kind종류 of logical논리적 인 reasoning추리, or something.
5
20000
4000
그냥 논리적 추론 같은 거니까요.
00:42
But that's not the hard단단한 part부품."
6
24000
3000
그건 어려운 부분이 아니죠."
00:45
So here's여기에 a list명부 of problems문제들 that come up.
7
27000
2000
자, 이제 미래에 발생할 문제들을 얘기해보겠습니다.
00:47
One nice좋은 problem문제 is, what do we do about health건강?
8
29000
3000
한가지 좋은 문제로, 어떻게 건강을 지킬 것인가 하는 게 있습니다.
00:50
The other day, I was reading독서 something, and the person사람 said
9
32000
4000
예전에 서양에서 질병이 발생하는 가장 큰 원인이
00:54
probably아마 the largest가장 큰 single단일 cause원인 of disease질병 is handshaking핸드 쉐이킹 in the West서쪽.
10
36000
6000
악수라고 설명하는 글을 읽은 적이 있습니다.
01:00
And there was a little study연구 about people who don't handshake악수,
11
42000
4000
그리고 악수를 하지 않는 사람들과 악수를 하는 사람들을
01:04
and comparing비교 them with ones그들 who do handshake악수.
12
46000
3000
간단하게 비교분석한 내용이 있었지요.
01:07
And I haven't~하지 않았다. the foggiest가장 안개가 자욱한 idea생각 of where you find the ones그들 that don't handshake악수,
13
49000
5000
솔직히 저는 악수를 안 하는 사람을 어디서 찾을 지 전혀 모르겠습니다.
01:12
because they must절대로 필요한 것 be hiding숨김.
14
54000
3000
그런 사람들은 어딘가에 꼭꼭 숨어있겠지요.
01:15
And the people who avoid기피 that
15
57000
4000
어쨌든, 악수를 안 하는 사람들은 상대적으로
01:19
have 30 percent퍼센트 less적게 infectious전염성의 disease질병 or something.
16
61000
4000
타인에게 병을 옮길 가능성이 30% 정도 낮다고 하더군요.
01:23
Or maybe it was 31 and a quarter쿼터 percent퍼센트.
17
65000
3000
31.25%인가 뭐 그런 숫자였습니다.
01:26
So if you really want to solve풀다 the problem문제 of epidemics전염병 and so forth앞으로,
18
68000
4000
즉, 앞으로 전염병 같은 문제를 해결하려면
01:30
let's start스타트 with that. And since이후 I got that idea생각,
19
72000
4000
악수를 하지 않으면 됩니다. 그런데 이런 생각을 한 후로
01:34
I've had to shake떨림 hundreds수백 of hands소유.
20
76000
4000
저는 수백명이랑 악수를 해야 했습니다.
01:38
And I think the only way to avoid기피 it
21
80000
5000
제가 봤을 때 악수를 하지 않을 수 있는 유일한 방법은
01:43
is to have some horrible끔찍한 visible명백한 disease질병,
22
85000
2000
손에 보기 흉한 병이 생겨서
01:45
and then you don't have to explain설명.
23
87000
3000
악수를 왜 안 하는지 설명하지 않아도 되는 것입니다.
01:48
Education교육: how do we improve돌리다 education교육?
24
90000
4000
교육문제를 볼까요. 교육 개선방안은 무엇인가?
01:52
Well, the single단일 best베스트 way is to get them to understand알다
25
94000
4000
교육을 개선하는 가장 좋은 방법은, 지금껏 사람들이 배운 것들이
01:56
that what they're being존재 told is a whole완전한 lot of nonsense무의미한 말.
26
98000
3000
대부분은 말도 안 되는 것이라는 점을 이해시키는 겁니다.
01:59
And then, of course코스, you have to do something
27
101000
2000
그리고 나서, 당연히, 그러한 점을 완화하기 위한 뭔가를 해야 합니다.
02:01
about how to moderate보통의 that, so that anybody아무도 can -- so they'll그들은 할 것이다 listen to you.
28
103000
5000
그래야 사람들이 이야기를 듣는 척이라도 할 테니까요.
02:06
Pollution타락, energy에너지 shortage부족, environmental환경 diversity상이, poverty가난.
29
108000
4000
환경오염, 자원고갈, 환경 다양성, 빈곤
02:10
How do we make stable안정된 societies사회? Longevity장수.
30
112000
4000
안정적인 사회를 어떻게 만들 것인가? 장수문제.
02:14
Okay, there're거기있어. lots of problems문제들 to worry걱정 about.
31
116000
3000
그렇습니다. 걱정해야 할 문제가 매우 많죠
02:17
Anyway어쨌든, the question문제 I think people should talk about --
32
119000
2000
어쨌든, 제가 봤을 때 우리가 정말 얘기를 나눠야 하는 문제는
02:19
and it's absolutely전혀 taboo금기 -- is, how many많은 people should there be?
33
121000
5000
- 정말 금기시 되는 이야기이긴 합니다만 - 인구의 적정 수준은 어느 정도인가? 라고 생각합니다.
02:24
And I think it should be about 100 million백만 or maybe 500 million백만.
34
126000
7000
저는 1억 명 정도가 적정하다고 생각합니다. 아니면 5억 명이 될 수도 있겠지요.
02:31
And then notice주의 that a great many많은 of these problems문제들 disappear사라지다.
35
133000
5000
그러면, 앞서 말한 수많은 문제들이 사라진다는 걸 알 수 있습니다.
02:36
If you had 100 million백만 people
36
138000
2000
만약에 인구가 1억 명이고, 이 사람들이 여기저기에
02:38
properly정확히 spread전파 out, then if there's some garbage찌꺼기,
37
140000
6000
적당히 흩어져서 산다면, 쓰레기가 생겨도 아무데나 맘에 드는 안 보이는 곳에 버리면
02:44
you throw던지다 it away, preferably즐겨 where you can't see it, and it will rot썩음.
38
146000
7000
그 쓰레기는 언젠가는 모두 썩게 될 겁니다.
02:51
Or you throw던지다 it into the ocean대양 and some fish물고기 will benefit이익 from it.
39
153000
5000
아니면, 바다에 던져버려서 물고기들이 먹게 하는 것도 괜찮겠지요.
02:56
The problem문제 is, how many많은 people should there be?
40
158000
2000
문제는, 인구의 적정 수준은 어느 정도인가? 입니다.
02:58
And it's a sort종류 of choice선택 we have to make.
41
160000
3000
이것은 우리가 선택해야 하는 문제같은 겁니다.
03:01
Most가장 people are about 60 inches신장 high높은 or more,
42
163000
3000
사람들이 대부분 152cm 보다는 크고,
03:04
and there's these cube입방체 laws법률. So if you make them this big,
43
166000
4000
이런 상자가 있다고 하면, 사람들이 이만하게 만들면
03:08
by using~을 사용하여 nanotechnology나노 기술, I suppose가정하다 --
44
170000
3000
- 제가 생각하기엔 나노기술을 쓰면 될 거 같은데요 -
03:11
(Laughter웃음)
45
173000
1000
(웃음)
03:12
-- then you could have a thousand times타임스 as many많은.
46
174000
2000
그러면 천 배는 더 많은 사람이 있을 수 있습니다.
03:14
That would solve풀다 the problem문제, but I don't see anybody아무도
47
176000
2000
이런 식으로 문제를 해결할 수 있겠지만, 저는 사람을 작게 만드는
03:16
doing any research연구 on making만들기 people smaller더 작은.
48
178000
3000
기술을 연구하는 사람을 본 적이 없습니다.
03:19
Now, it's nice좋은 to reduce줄이다 the population인구, but a lot of people want to have children어린이.
49
181000
5000
자, 인구를 줄이는 건 좋지만, 아이를 갖고 싶어하는 사람도 무척 많습니다.
03:24
And there's one solution해결책 that's probably아마 only a few조금 years연령 off.
50
186000
3000
아마 근미래에는 이런 해결책이 나올 거 같습니다.
03:27
You know you have 46 chromosomes염색체. If you're lucky운이 좋은, you've got 23
51
189000
5000
인간은 46개의 유전자를 가지고 있다는 걸 아실 겁니다.
03:32
from each마다 parent부모의. Sometimes때때로 you get an extra특별한 one or drop하락 one out,
52
194000
6000
운이 좋다면, 부모님에게서 각각 23개씩을 물려받았겠죠. 가끔 하나를 더 받거나 덜 받는 일도 있습니다.
03:38
but -- so you can skip버킷 the grandparent조부모 and great-grandparent증조모 stage단계
53
200000
4000
어쨌든, 조부모님이나 증조부님은 건너뛰기로 하지요
03:42
and go right to the great-great-grandparent위대한 증조부. And you have 46 people
54
204000
5000
바로 고조부모님으로 가보는 겁니다. 그러면, 46명의 사람들에게
03:47
and you give them a scanner스캐너, or whatever도대체 무엇이 you need,
55
209000
3000
스캐너를 하나 주고, 꼭 스캐너일 필요는 없지만,
03:50
and they look at their그들의 chromosomes염색체 and each마다 of them says말한다
56
212000
4000
자기가 가진 유전자를 보고 가장 마음에 드는 것 하나를
03:54
which어느 one he likes좋아하는 사람 best베스트, or she -- no reason이유 to have just two sexes남녀
57
216000
5000
고르게 하는 거지요. 더 이상 두 개의 성별만 있을 필요는 없겠지만요.
03:59
any more, even. So each마다 child어린이 has 46 parents부모님,
58
221000
5000
그러면, 아이 한 명당 46명의 부모님이 있는 거고
04:04
and I suppose가정하다 you could let each마다 group그룹 of 46 parents부모님 have 15 children어린이.
59
226000
6000
46명의 부모님 그룹 하나 당 15명의 아이를 갖게 하면
04:10
Wouldn't하지 않을 것이다. that be enough충분히? And then the children어린이
60
232000
2000
충분하지 않을까요? 그리고 그 아이들은
04:12
would get plenty많은 of support지원하다, and nurturing육성, and mentoring멘토링,
61
234000
4000
충분한 가정교육과 지원을 받게 될 겁니다.
04:16
and the world세계 population인구 would decline쇠퇴 very rapidly빠르게
62
238000
2000
세계 인구는 아주 빠른 속도로 감소하겠죠
04:18
and everybody각자 모두 would be totally전적으로 happy행복.
63
240000
3000
그러면 모든 사람들이 결국 행복해지게 됩니다.
04:21
Timesharing시분할 공유 is a little further더욱이 off in the future미래.
64
243000
3000
시분할(tImesharing)이 실현되려면 좀 더 많은 시간이 필요합니다.
04:24
And there's this great novel소설 that Arthur아서 Clarke클라크 wrote twice두번,
65
246000
3000
아서 클라크(Arthur Clarke)가 같은 내용을 두 번 집필한 좋은 소설이 있는데
04:27
called전화 한 "Against반대 the Fall가을 of Night" and "The City시티 and the Stars."
66
249000
4000
제목은 은하제국의 붕괴(Against the Fall of Night)와 도시와 별(The City and the Stars)입니다.
04:31
They're both양자 모두 wonderful훌륭한 and largely크게 the same같은,
67
253000
3000
두 작품다 훌륭한 소설이고 내용은 거의 비슷한데,
04:34
except that computers컴퓨터들 happened일어난 in between중에서.
68
256000
2000
컴퓨터가 있고 없고의 차이가 있습니다.
04:36
And Arthur아서 was looking at this old늙은 book도서, and he said, "Well, that was wrong잘못된.
69
258000
5000
아서가 자신의 첫 작품을 보고는 흠, 이건 안 되겠는데, 라고 생각했지요.
04:41
The future미래 must절대로 필요한 것 have some computers컴퓨터들."
70
263000
2000
미래에는 어떤 형태로든지 컴퓨터가 존재할 테니까요.
04:43
So in the second둘째 version번역 of it, there are 100 billion십억
71
265000
5000
그래서 두 번째 작품에서는 천억인가, 1조명의 사람들이
04:48
or 1,000 billion십억 people on Earth지구, but they're all stored저장된 on hard단단한 disks디스크 or floppies플로피,
72
270000
8000
지구에 살고 있지만, 그 사람들이 하드디스크나 플로피디스크에 저장되어 있습니다.
04:56
or whatever도대체 무엇이 they have in the future미래.
73
278000
2000
무엇이든 미래에서 사용하는 어떤 기억장치에 저장이 되어 있는 거죠.
04:58
And you let a few조금 million백만 of them out at a time.
74
280000
4000
그리고 한번에 몇 백만 명 씩만 밖으로 나오게 되는 겁니다.
05:02
A person사람 comes온다 out, they live살고 있다 for a thousand years연령
75
284000
4000
한 사람이 나오면, 천 년동안 인생을 살아가면서
05:06
doing whatever도대체 무엇이 they do, and then, when it's time to go back
76
288000
6000
하고 싶은 일을 하고, 다시 저장장치로 돌아가 십억년을 지내야 하는 건데,
05:12
for a billion십억 years연령 -- or a million백만, I forget잊다, the numbers번호 don't matter문제 --
77
294000
4000
그게 십억년인지 백만년이었는지 정확하게 기억은 안나지만, 정확한 햇수는 중요하지 않고요.
05:16
but there really aren't있지 않다. very many많은 people on Earth지구 at a time.
78
298000
4000
그러나, 지구 상에 살아가는 사람의 숫자는 언제든지 많지가 않다는 거지요.
05:20
And you get to think about yourself당신 자신 and your memories기억,
79
302000
2000
그리고 사람들은 나 자신과 내가 가진 기억에 대해 생각해보게 됩니다.
05:22
and before you go back into suspension현탁, you edit편집하다 your memories기억
80
304000
5000
그리고 저장장치로 돌아가기 전에 그 기억을 편집하지요
05:27
and you change변화 your personality인격 and so forth앞으로.
81
309000
3000
그리고 자신의 성격도 바꾸고.. 뭐 등등의 그런 이야기입니다.
05:30
The plot음모 of the book도서 is that there's not enough충분히 diversity상이,
82
312000
6000
책의 줄거리는 다양한 사람들이 충분히 많지가 않아서
05:36
so that the people who designed디자인 된 the city시티
83
318000
3000
도시를 설계한 사람들은 언제나 전혀 다른 사람이
05:39
make sure that every...마다 now and then an entirely전적으로 new새로운 person사람 is created만들어진.
84
321000
4000
만들어지도록 한다는 것이었습니다.
05:43
And in the novel소설, a particular특별한 one named명명 된 Alvin앨빈 is created만들어진. And he says말한다,
85
325000
6000
이 소설에서, 알빈이라는 사람이 창조됩니다. 그 사람은 이런 사회체계가
05:49
maybe this isn't the best베스트 way, and wrecks난파 the whole완전한 system체계.
86
331000
4000
최선책이 아닐 수 있다며, 사회체제를 붕괴시키지요.
05:53
I don't think the solutions솔루션 that I proposed제안 된
87
335000
2000
저는 제가 제안하는 해결책들이 아주 좋다거나
05:55
are good enough충분히 or smart똑똑한 enough충분히.
88
337000
3000
훌륭하다고는 생각하지 않습니다.
05:58
I think the big problem문제 is that we're not smart똑똑한 enough충분히
89
340000
4000
사실 문제는 우리들이 당면하고 있는 문제들 중에 좋은 것이 무엇인지를
06:02
to understand알다 which어느 of the problems문제들 we're facing면함 are good enough충분히.
90
344000
4000
이해할 정도로 똑똑하지 않다는 점이라고 생각합니다.
06:06
Therefore따라서, we have to build짓다 super감독자 intelligent지적인 machines기계들 like HALHAL.
91
348000
4000
그러니까 HAL 같은 수퍼인공지능을 건설해야 하는 거지요.
06:10
As you remember생각해 내다, at some point포인트 in the book도서 for "2001,"
92
352000
5000
기억하시겠지만, 2001 스페이스 오디세이라는 책에 보면
06:15
HALHAL realizes실현하다 that the universe우주 is too big, and grand멋진, and profound깊은
93
357000
5000
HAL은 소설 속의 아주 멍청한 우주 비행사들이 이해하기에는
06:20
for those really stupid바보 astronauts우주 비행사. If you contrast대조 HAL'sHAL behavior행동
94
362000
4000
우주가 너무나 원대하고 심오하다는 사실을 알아차립니다. 만약 HAL의 행동과
06:24
with the triviality하찮은 것 of the people on the spaceship우주선,
95
366000
4000
우주선에 탄 사람들의 시시한 행동을 비교해본다면,
06:28
you can see what's written between중에서 the lines윤곽.
96
370000
3000
이 소설의 행간의 의미를 이해할 수 있습니다.
06:31
Well, what are we going to do about that? We could get smarter똑똑한.
97
373000
3000
자, 그럼 어떻게 해야할까요? 우리는 더 똑똑해질 수 있다고 봅니다.
06:34
I think that we're pretty예쁜 smart똑똑한, as compared비교하다 to chimpanzees침팬지,
98
376000
5000
저는 우리가 침팬지와 비교하다면, 꽤 똑똑하다고 생각합니다.
06:39
but we're not smart똑똑한 enough충분히 to deal거래 with the colossal거대한 problems문제들 that we face얼굴,
99
381000
6000
하지만 우리가 직면한 엄청난 문제들을 해결할 만큼 머리가 좋지는 않습니다.
06:45
either어느 한 쪽 in abstract추상 mathematics수학
100
387000
2000
추상대수학적인 문제를 풀어내거나 경제상황을 파악하거나
06:47
or in figuring생각하다 out economies경제, or balancing균형을 잡는 the world세계 around.
101
389000
5000
세계의 균형을 맞출 방법을 생각해 내지도 못하지요
06:52
So one thing we can do is live살고 있다 longer더 길게.
102
394000
3000
하지만 수명을 연장할 수는 있을 것입니다.
06:55
And nobody아무도 knows알고있다 how hard단단한 that is,
103
397000
2000
그게 얼마나 힘들지는 아무도 모르지만
06:57
but we'll probably아마 find out in a few조금 years연령.
104
399000
3000
앞으로 몇 년 안에 그 방법을 찾아낼 수도 있습니다.
07:00
You see, there's two forks포크 in the road도로. We know that people live살고 있다
105
402000
3000
두 개의 갈림길이 있다고 생각해봅시다.
07:03
twice두번 as long as chimpanzees침팬지 almost거의,
106
405000
4000
우리는 인간의 수명은 침팬지의 수명의 약 두 배이지만
07:07
and nobody아무도 lives more than 120 years연령,
107
409000
4000
120년 이상은 살지 못한다는 것을 알고 있습니다.
07:11
for reasons원인 that aren't있지 않다. very well understood이해 된.
108
413000
3000
그 이유는 우리도 잘은 모르지요.
07:14
But lots of people now live살고 있다 to 90 or 100,
109
416000
3000
하지만 이제는 많은 사람들이 90이나 100세까지 살아갑니다.
07:17
unless~ 않는 한 they shake떨림 hands소유 too much or something like that.
110
419000
4000
악수를 너무 많이 하거나 하지만 않으면 말이지요
07:21
And so maybe if we lived살았던 200 years연령, we could accumulate모으다 enough충분히 skills기술
111
423000
5000
만약 우리가 200세까지 살 수 있다면, 몇몇 문제들을
07:26
and knowledge지식 to solve풀다 some problems문제들.
112
428000
5000
해결하는 데 필요한 지식과 기술을 충분히 축적할 수도 있을 것입니다.
07:31
So that's one way of going about it.
113
433000
2000
이게 문제해결의 첫걸음이 될 수 있는 거지요
07:33
And as I said, we don't know how hard단단한 that is. It might be --
114
435000
3000
물론 제가 말했듯이, 생명연장이 얼마나 어려울 지는 아무도 모릅니다.
07:36
after all, most가장 other mammals포유류 live살고 있다 half절반 as long as the chimpanzee침팬지,
115
438000
6000
어쨌든, 대부분의 포유류는 침팬지 수명의 절반 정도를 살고
07:42
so we're sort종류 of three and a half절반 or four times타임스, have four times타임스
116
444000
3000
그러니 인간은 3.5배에서 4배정도, 대부분의 포유류에 비해
07:45
the longevity장수 of most가장 mammals포유류. And in the case케이스 of the primates영장류,
117
447000
6000
4배의 수명을 가진 셈이죠. 그리고 영장류만 본다면
07:51
we have almost거의 the same같은 genes유전자. We only differ다르다 from chimpanzees침팬지,
118
453000
4000
우리는 거의 같은 유전자를 가지고 있습니다. 시시한 이야기지만
07:55
in the present선물 state상태 of knowledge지식, which어느 is absolute순수한 hogwash돼지,
119
457000
6000
현재까지 알려진 바로는 인간과 침팬지의 유전자는
08:01
maybe by just a few조금 hundred genes유전자.
120
463000
2000
겨우 몇 백개만 다르다고 하지요.
08:03
What I think is that the gene유전자 counters카운터 don't know what they're doing yet아직.
121
465000
3000
저는 유전공학자들이 본인이 무슨 일을 하는지 아직 모르는 것 같습니다.
08:06
And whatever도대체 무엇이 you do, don't read독서 anything about genetics유전학
122
468000
3000
그리고 무슨 일을 하시든지 우리가 살아있는 동안 출판된
08:09
that's published출판 된 within이내에 your lifetime일생, or something.
123
471000
3000
유전학에 대한 글은 아무것도 읽지 마시기 바랍니다.
08:12
(Laughter웃음)
124
474000
3000
(웃음)
08:15
The stuff물건 has a very short짧은 half-life반감기, same같은 with brain science과학.
125
477000
4000
그런 글의 수명은 아주 짧습니다. 뇌과학과 마찬가지지요.
08:19
And so it might be that if we just fix고치다 four or five다섯 genes유전자,
126
481000
6000
만약에 너다섯 개의 유전자를 개조하면,
08:25
we can live살고 있다 200 years연령.
127
487000
2000
200세까지 살 수도 있다는 말입니다.
08:27
Or it might be that it's just 30 or 40,
128
489000
3000
하지만 서른이나 마흔까지밖에 못 살 수도 있지요.
08:30
and I doubt의심 that it's several수개 hundred.
129
492000
2000
몇 백년을 사는 건 힘들 거라고 생각합니다.
08:32
So this is something that people will be discussing토론하다
130
494000
4000
그렇기 때문에 이 문제에 대해 사람들이 논의를 해야합니다.
08:36
and lots of ethicists윤리 학자 -- you know, an ethicist윤리 주의자 is somebody어떤 사람
131
498000
3000
물론 윤리학자들도 많이 나오겠지요. 아시다시피, 윤리학자들은
08:39
who sees본다 something wrong잘못된 with whatever도대체 무엇이 you have in mind마음.
132
501000
3000
우리가 어떤 생각을 하든지 거기에서 잘못된 점을 꼬집어내는 사람들이니까요.
08:42
(Laughter웃음)
133
504000
3000
(웃음)
08:45
And it's very hard단단한 to find an ethicist윤리 주의자 who considers고려하다 any change변화
134
507000
4000
그리고 윤리학자 중에 변화에 가치를 두는 사람을 찾기란 아주 어렵습니다.
08:49
worth가치 making만들기, because he says말한다, what about the consequences결과?
135
511000
4000
왜냐하면, 윤리학자들은 변화로 인한 결과를 어떻게 책임질 것인지 걱정하기 때문이죠.
08:53
And, of course코스, we're not responsible책임있는 for the consequences결과
136
515000
3000
물론, 우리는 지금 우리의 행동이 초래할 결과에 대해 책임이 있지 않습니다.
08:56
of what we're doing now, are we? Like all this complaint불평 about clones클론.
137
518000
6000
아닌가요? 복제인간에 대한 불평과 마찬가지입니다.
09:02
And yet아직 two random무작위의 people will mate항해사 and have this child어린이,
138
524000
3000
하지만 아주 형편없는 유전자를 가진 두 사람이 만나
09:05
and both양자 모두 of them have some pretty예쁜 rotten썩은 genes유전자,
139
527000
4000
결혼을 하고 아이를 가진다면
09:09
and the child어린이 is likely아마도 to come out to be average평균.
140
531000
4000
그 아이는 평범한 사람이 될 가능성이 높습니다.
09:13
Which어느, by chimpanzee침팬지 standards표준, is very good indeed과연.
141
535000
6000
침팬지의 기준에서 보자면, 사실 아주 훌륭한 거죠
09:19
If we do have longevity장수, then we'll have to face얼굴 the population인구 growth성장
142
541000
3000
만약 우리가 더 오래 살 수 있다면, 인구 증가 문제가 생길 게 분명합니다.
09:22
problem문제 anyway어쨌든. Because if people live살고 있다 200 or 1,000 years연령,
143
544000
4000
왜냐하면 사람이 200년이든 천 년이든 살게 된다면
09:26
then we can't let them have a child어린이 more than about once일단 every...마다 200 or 1,000 years연령.
144
548000
6000
200년이나 천 년에 한 번만 한 명의 아이를 가지게 할 수는 없기 때문이죠.
09:32
And so there won't습관 be any workforce인력.
145
554000
3000
그리고 노동인구도 충분하지 않을 테구요
09:35
And one of the things Laurie로리 Garrett개럿 pointed뾰족한 out, and others다른 사람 have,
146
557000
4000
로리 가렛(Laurie Garrett)과 여러 사람들이 지적했던 문제 중의 하나가
09:39
is that a society사회 that doesn't have people
147
561000
5000
일을 할 수 있는 연령대의 사람이 없는 사회는 심각한 문제에 빠진다는 것입니다.
09:44
of working age나이 is in real레알 trouble수고. And things are going to get worse보다 나쁜,
148
566000
3000
그리고 상황은 계속 악화되기만 할 텐데, 그 이유는
09:47
because there's nobody아무도 to educate기르다 the children어린이 or to feed먹이 the old늙은.
149
569000
6000
어린 아이들을 교육하거나 노인들을 돌볼 사람이 없기 때문입니다.
09:53
And when I'm talking말하는 about a long lifetime일생, of course코스,
150
575000
2000
물론 제가 오래산다고 말하는 것은
09:55
I don't want somebody어떤 사람 who's누가 200 years연령 old늙은 to be like our image영상
151
577000
6000
우리가 흔히 떠올리는 200살의 이미지는 아닙니다.
10:01
of what a 200-year-old예전의 is -- which어느 is dead죽은, actually사실은.
152
583000
4000
200살이면 거의 죽은 사람이나 다름없다는 그런 이미지는 아니라는 겁니다.
10:05
You know, there's about 400 different다른 parts부분품 of the brain
153
587000
2000
뇌에는 약 400 여개의 부위가 있는데
10:07
which어느 seem보다 to have different다른 functions기능들.
154
589000
2000
이 부위들이 각각 다른 기능을 하는 걸로 보입니다.
10:09
Nobody아무도 knows알고있다 how most가장 of them work in detail세부 묘사,
155
591000
3000
구체적으로 어떤 부위가 어떤 기능을 담당하는지는 아무도 모르지만
10:12
but we do know that there're거기있어. lots of different다른 things in there.
156
594000
4000
뇌 안에는 수많은 다른 것들이 있다는 사실은 알고 있습니다.
10:16
And they don't always work together함께. I like Freud's프로이트 theory이론
157
598000
2000
그리고 모든 부위가 항상 함께 일하는 것도 아닌 거죠. 저는 프로이드의 이론을 좋아합니다.
10:18
that most가장 of them are cancelling취소 each마다 other out.
158
600000
4000
프로이드는 대부분의 뇌는 서로 상쇄된다고 말했죠
10:22
And so if you think of yourself당신 자신 as a sort종류 of city시티
159
604000
4000
그러니까 만약 우리를 100개의 자원이 있는 하나의 도시같은 것으로 생각해보면
10:26
with a hundred resources자원, then, when you're afraid두려워하는, for example,
160
608000
6000
우리가 겁을 먹었을 때, 예를 들면 말이죠,
10:32
you may할 수있다 discard포기 your long-range장거리 goals목표, but you may할 수있다 think deeply깊이
161
614000
4000
우리는 장기적인 목표를 버리고, 대신에 목전의 목표를 어떻게 달성할 것인지에 대해
10:36
and focus초점 on exactly정확하게 how to achieve이루다 that particular특별한 goal.
162
618000
4000
골몰히 매달리게 될 수도 있습니다.
10:40
You throw던지다 everything else그밖에 away. You become지다 a monomaniac광복병 --
163
622000
3000
다른 일은 죄다 팽개쳐두는 거죠. 말하자면 외골수가 되는 겁니다.
10:43
all you care케어 about is not stepping스테핑 out on that platform플랫폼.
164
625000
4000
오로지 그 상황에서 벗어나지 않는 것만 생각하지요
10:47
And when you're hungry배고픈, food식품 becomes된다 more attractive매력적인, and so forth앞으로.
165
629000
4000
그리고 배가 고프면, 음식이 더 많이 생각나고, 뭐 다 그런 식이죠.
10:51
So I see emotions감정 as highly고도로 evolved진화 된 subsets부분 집합 of your capability능력.
166
633000
6000
그래서 저는 감정이 매우 진화된 우리 능력의 부분 집합들이라고 생각합니다.
10:57
Emotion감정 is not something added추가 된 to thought. An emotional정서적 인 state상태
167
639000
4000
감정은 사고에 더해지는 어떤 것이 아닙니다. 감정의 단계라는 것은
11:01
is what you get when you remove풀다 100 or 200
168
643000
4000
100개나 200개의 보통 사용가능한 자원을
11:05
of your normally정상적으로 available유효한 resources자원.
169
647000
3000
제거했을 때 얻어지는 것입니다.
11:08
So thinking생각 of emotions감정 as the opposite반대말 of -- as something
170
650000
3000
그러니까 감정을 사고와는 반대인, 뭔가 더 작은 것으로 생각하는 것이
11:11
less적게 than thinking생각 is immensely굉장히 productive생산적인. And I hope기대,
171
653000
4000
굉장히 생산적입니다. 그리고 제가 바라는 건
11:15
in the next다음 것 few조금 years연령, to show보여 주다 that this will lead리드 to smart똑똑한 machines기계들.
172
657000
4000
앞으로 몇 년 안에, 이것이 스마트 머신으로 이어진다는 걸 보여주는 것이죠.
11:19
And I guess추측 I better skip버킷 all the rest휴식 of this, which어느 are some details세부
173
661000
3000
그리고 제 생각엔 여기 나머지 부분은 그냥 넘어가기로 하죠. 스마트 머신을 어떻게
11:22
on how we might make those smart똑똑한 machines기계들 and --
174
664000
5000
만들 것인가에 대한 자세한 내용들이거든요.
11:27
(Laughter웃음)
175
669000
5000
(웃음)
11:32
-- and the main본관 idea생각 is in fact that the core핵심 of a really smart똑똑한 machine기계
176
674000
5000
사실 말하고자 하는 바는 스마트 머신의 핵심이 바로
11:37
is one that recognizes인정하다 that a certain어떤 kind종류 of problem문제 is facing면함 you.
177
679000
5000
우리가 직면한 문제의 종류가 무엇인지 알아내는 것이라는 거죠
11:42
This is a problem문제 of such이러한 and such이러한 a type유형,
178
684000
3000
이 문제는 이러이러한 타입의 문제이므로,
11:45
and therefore따라서 there's a certain어떤 way or ways of thinking생각
179
687000
5000
그 문제를 해결하는 데 필요한 어떤 사고방식이
11:50
that are good for that problem문제.
180
692000
2000
적합하다라는 것말입니다.
11:52
So I think the future미래, main본관 problem문제 of psychology심리학 is to classify나누다
181
694000
4000
그래서 저는 미래에는 심리학의 주요 이슈가
11:56
types유형 of predicaments곤경, types유형 of situations상황, types유형 of obstacles장애물
182
698000
4000
곤란한 문제나 상황, 방해요소들의 타입을 구분하고
12:00
and also또한 to classify나누다 available유효한 and possible가능한 ways to think and pair them up.
183
702000
6000
타입에 맞는 해결책들을 분류하고, 이 해결책과 문제의 짝을 맞추는 일이 될 것이라 생각합니다.
12:06
So you see, it's almost거의 like a Pavlovian파블로 피안 --
184
708000
3000
자, 보세요. 거의 파블로프의 조건반사와 같은 거죠.
12:09
we lost잃어버린 the first hundred years연령 of psychology심리학
185
711000
2000
우리는 인간의 어떻게 상황에 대응하는 방식을 배우는지에 대한
12:11
by really trivial하찮은 theories이론들, where you say,
186
713000
3000
시시한 이론을 연구하는 데
12:14
how do people learn배우다 how to react반응하다 to a situation상태? What I'm saying속담 is,
187
716000
6000
심리학 역사의 첫 몇 백년을 허비해버렸습니다. 제가 하는 얘기는 말하자면
12:20
after we go through...을 통하여 a lot of levels수준, including포함 designing설계
188
722000
5000
수 천개의 부분들이 얽히고 설킨 체계를 디자인하는 등의
12:25
a huge거대한, messy어질러 놓은 system체계 with thousands수천 of ports항구,
189
727000
3000
수 많은 단계를 지나고 나서야
12:28
we'll end종료 up again with the central본부 problem문제 of psychology심리학.
190
730000
4000
심리학의 핵심 문제에 다다르게 될 것입니다.
12:32
Saying속담, not what are the situations상황,
191
734000
3000
그러니까, 중요한 것은 상황이 아니라
12:35
but what are the kinds종류 of problems문제들
192
737000
2000
그 문제가 어떤 타입이냐 하는 것입니다.
12:37
and what are the kinds종류 of strategies전략들, how do you learn배우다 them,
193
739000
3000
그리고 거기에 맞는 전략의 타입은 무엇이며, 그 전략은 어떻게 배우느냐 하는 문제입니다.
12:40
how do you connect잇다 them up, how does a really creative창조적 인 person사람
194
742000
3000
문제와 해결방안은 어떻게 연계시키고, 아주 창의적인 사람이
12:43
invent꾸미다 a new새로운 way of thinking생각 out of the available유효한 resources자원 and so forth앞으로.
195
745000
5000
어떻게 가용자원을 가지고 새로운 사고방식을 만들어내는가, 등등의 문제인거죠
12:48
So, I think in the next다음 것 20 years연령,
196
750000
2000
그래서 저는 앞으로 20년 안에, 우리가 인공지능에 대한
12:50
if we can get rid구하다 of all of the traditional전통적인 approaches구혼 to artificial인공의 intelligence지성,
197
752000
5000
신경망, 유전자 알고리즘과 규칙기반시스템과 같은
12:55
like neural신경 nets그물 and genetic유전적인 algorithms알고리즘
198
757000
2000
전통적인 접근방식을 모두 제거할 수 있다면
12:57
and rule-based규칙 기반 systems시스템, and just turn회전 our sights명소 a little bit비트 higher더 높은 to say,
199
759000
6000
그리고 말하자면 좀 더 시선을 높은 곳으로 돌린다면
13:03
can we make a system체계 that can use all those things
200
765000
2000
특정한 문제의 타입에 따라 자원을 활용할 수 있는 시스템을
13:05
for the right kind종류 of problem문제? Some problems문제들 are good for neural신경 nets그물;
201
767000
4000
구축할 수 있지 않을까요? 어떤 문제는 신경 회로망을 사용하면 좋고
13:09
we know that others다른 사람, neural신경 nets그물 are hopeless희망이없는 on them.
202
771000
3000
그리고 신경 회로망이 다른 문제에는 아무짝에도 쓸모없다는 걸 아는 거죠
13:12
Genetic유전 적 algorithms알고리즘 are great for certain어떤 things;
203
774000
3000
유전자 알고리즘이 몇몇 문제를 해결할 때는 아주 좋은 방식입니다.
13:15
I suspect용의자 I know what they're bad나쁜 at, and I won't습관 tell you.
204
777000
4000
이 방식이 통하지 않는 부분에 대해 제가 알고 있는 것 같지만, 알려드리진 않을 겁니다.
13:19
(Laughter웃음)
205
781000
1000
(웃음)
13:20
Thank you.
206
782000
2000
감사합니다.
13:22
(Applause박수 갈채)
207
784000
6000
(박수)
Translated by Jeong-a Seo
Reviewed by Dae-Ki Kang

▲Back to top

ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com