ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com
TED@IBM

Grady Booch: Don't fear superintelligent AI

그래디 부치(Grady Booch): 초지능 인공지능을 두려워하지 마세요

Filmed:
2,866,438 views

새로운 기술은 새로운 불안감을 야기하지만 우리는 전능하고 감정없는 인공지능을 무서워 할 필요가 없다고 철학가이자 과학자인 그래디 부치가 말합니다. 부치는 우리가 초지능 컴퓨터에 느끼는 두려움을 없애기 위하여 인공지능들은 프로그램되는 게 아니라 배우게 될 것이며 우리의 가치를 나누게 될 것이라고 설명합니다. 그는 우리가 있음직하지 않은 위험에 대하여 두려워하기보다는 인공 지능이 어떻게 사람들의 삶을 도와줄 수 있는지 생각해보기를 권장합니다.
- Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn. Full bio

Double-click the English transcript below to play the video.

00:12
When I was a kid아이,
I was the quintessential본질적인 nerd얼간이.
0
760
3840
제가 어렸을 적,
저는 전형적인 괴짜였습니다.
00:17
I think some of you were, too.
1
5320
2176
여러분 중 몇몇도 그랬을 거예요.
00:19
(Laughter웃음)
2
7520
1216
(웃음)
00:20
And you, sir, who laughed웃었다 the loudest시끄러운,
you probably아마 still are.
3
8760
3216
거기 가장 크게 웃으신 분은
여전히 그럴 것 같군요.
00:24
(Laughter웃음)
4
12000
2256
(웃음)
00:26
I grew자랐다 up in a small작은 town도시
in the dusty무미 건조한 plains평원 of north북쪽 Texas텍사스,
5
14280
3496
저는 북텍사스 황무지의 작은 마을에서
00:29
the son아들 of a sheriff주 장관
who was the son아들 of a pastor목사.
6
17800
3336
목사인 할아버지와
보안관인 아버지 밑에서 자랐습니다.
00:33
Getting방법 into trouble수고 was not an option선택권.
7
21160
1920
말썽피우는 일은 생각도
할 수 없었습니다.
00:36
And so I started시작한 reading독서
calculus계산법 books서적 for fun장난.
8
24040
3256
그래서 저는 미적분학 책을
재미로 읽었습니다.
00:39
(Laughter웃음)
9
27320
1536
(웃음)
00:40
You did, too.
10
28880
1696
당신도 그랬잖아요.
00:42
That led me to building건물 a laser원자 램프
and a computer컴퓨터 and model모델 rockets로켓,
11
30600
3736
그것으로 저는 레이저, 컴퓨터와
모델 로켓을 만들었지요.
00:46
and that led me to making만들기
rocket로켓 fuel연료 in my bedroom침실.
12
34360
3000
그러다 보니 제 방에
로켓 연료를 만들게 됐어요.
00:49
Now, in scientific과학적 terms자귀,
13
37960
3656
현재, 과학적 관점에서
00:53
we call this a very bad나쁜 idea생각.
14
41640
3256
우리는 이것을 매우
나쁜 생각이라고 하죠.
00:56
(Laughter웃음)
15
44920
1216
(웃음)
00:58
Around that same같은 time,
16
46160
2176
또한 그 시절에
01:00
Stanley스탠리 Kubrick's큐브릭 "2001: A Space공간 Odyssey오디세이"
came왔다 to the theaters극장,
17
48360
3216
스탠리 큐브릭의
"2001년: 스페이스 오디세이"가
01:03
and my life was forever영원히 changed변경된.
18
51600
2200
개봉하였으며 제 삶은 완전히 바뀌었죠.
01:06
I loved사랑하는 everything about that movie영화,
19
54280
2056
저는 그 영화의 모든 것이 좋았습니다.
01:08
especially특히 the HALHAL 9000.
20
56360
2536
특히 HAL 9000은 특별했죠.
01:10
Now, HALHAL was a sentient마음 computer컴퓨터
21
58920
2056
HAL은 지각을 할 수 있는 컴퓨터로
01:13
designed디자인 된 to guide안내서 the Discovery발견 spacecraft우주선
22
61000
2456
디스커버리호가 지구에서 목성으로 가도록
01:15
from the Earth지구 to Jupiter목성.
23
63480
2536
가이드하는 역할을 했습니다.
01:18
HALHAL was also또한 a flawed결함이있는 character캐릭터,
24
66040
2056
HAL은 또한 결함이 있어서
01:20
for in the end종료 he chose선택한
to value the mission사명 over human인간의 life.
25
68120
4280
결국 끝엔 인간의 생명을 뒤로하고
주어진 임무를 택하게 됩니다.
01:24
Now, HALHAL was a fictional꾸며낸 character캐릭터,
26
72840
2096
HAL은 허구적 캐릭터이지만
01:26
but nonetheless그럼에도 불구하고 he speaks말하다 to our fears두려움,
27
74960
2656
그럼에도 불구하고
그는 우리에게 공포감을 선사합니다.
01:29
our fears두려움 of being존재 subjugated정복당한
28
77640
2096
인류에게 냉담한 감정이 없는
인공적인 지능에게
01:31
by some unfeeling잔혹한, artificial인공의 intelligence지성
29
79760
3016
01:34
who is indifferent무관심한 to our humanity인류.
30
82800
1960
지배당하게 될 것이라는 공포죠.
01:37
I believe that such이러한 fears두려움 are unfounded근거 없는.
31
85880
2576
저는 그러한 공포가
근거 없다고 생각합니다.
01:40
Indeed과연, we stand at a remarkable주목할 만한 time
32
88480
2696
확실히 우리는 인간 역사에서
01:43
in human인간의 history역사,
33
91200
1536
매우 중요한 시기에 있습니다.
01:44
where, driven주행하는 by refusal거절 to accept받아 들인다
the limits제한 of our bodies시체 and our minds마음,
34
92760
4976
우리는 우리 몸과 정신의
한계를 받아들이길 거부하며
01:49
we are building건물 machines기계들
35
97760
1696
기계를 만들어내고 있습니다.
01:51
of exquisite절묘한, beautiful아름다운
complexity복잡성 and grace은혜
36
99480
3616
우아하고 복잡하면서도
아름답고 정교하게요.
01:55
that will extend넓히다 the human인간의 experience경험
37
103120
2056
그리고 그것은 인간의 경험을
01:57
in ways beyond...을 넘어서 our imagining상상하다.
38
105200
1680
상상을 초월할만큼 확장시킬 것입니다.
01:59
After a career직업 that led me
from the Air공기 Force Academy학원
39
107720
2576
저는 공군사관학교에서
02:02
to Space공간 Command명령 to now,
40
110320
1936
현재 우주 사령부로 와서
02:04
I became되었다 a systems시스템 engineer기사,
41
112280
1696
시스템 엔지니어가 됐고
최근 나사의 화성과 관련된
기술문제에 관여하고 있습니다.
02:06
and recently요새 I was drawn그어진
into an engineering공학 problem문제
42
114000
2736
02:08
associated관련 with NASA'sNASA mission사명 to Mars화성.
43
116760
2576
02:11
Now, in space공간 flights항공편 to the Moon,
44
119360
2496
오늘날 우리는
휴스턴 우주 비행 관제센터를 통해
02:13
we can rely의지하다 upon...에
mission사명 control제어 in Houston휴스턴
45
121880
3136
달을 향한 우주 비행을
02:17
to watch over all aspects상들 of a flight비행.
46
125040
1976
모든 측면에서 지켜볼 수 있습니다.
02:19
However하나, Mars화성 is 200 times타임스 further더욱이 away,
47
127040
3536
하지만 화성은
200배 멀리 떨어져 있으며
02:22
and as a result결과 it takes
on average평균 13 minutes의사록
48
130600
3216
신호가 지구에서 화성까지
평균적으로 13분 걸립니다.
02:25
for a signal신호 to travel여행
from the Earth지구 to Mars화성.
49
133840
3136
02:29
If there's trouble수고,
there's not enough충분히 time.
50
137000
3400
문제가 있다면
시간이 충분하지 않다는 것이지요.
02:32
And so a reasonable합리적인 engineering공학 solution해결책
51
140840
2496
그리고 합당한 기술적 방안은
02:35
calls전화 for us to put mission사명 control제어
52
143360
2576
우주 비행 관제 센터를
02:37
inside내부 the walls of the Orion오리온 spacecraft우주선.
53
145960
3016
오리온 우주선 벽 안에 넣는 것이지요.
02:41
Another다른 fascinating매혹적인 idea생각
in the mission사명 profile윤곽
54
149000
2896
다른 흥미로운 임무 개요 아이디어는
02:43
places장소들 humanoid휴머노이드 robots로봇
on the surface표면 of Mars화성
55
151920
2896
사람이 직접 도착하기 전에
02:46
before the humans인간 themselves그들 자신 arrive태어나다,
56
154840
1856
인간형 로봇을 먼저 화성에 두어
02:48
first to build짓다 facilities시설
57
156720
1656
시설들을 먼저 짓게 한 후
02:50
and later후에 to serve서브 as collaborative협력적인
members회원 of the science과학 team.
58
158400
3360
과학팀의 협력 멤버로 두는 것입니다.
02:55
Now, as I looked보았다 at this
from an engineering공학 perspective원근법,
59
163400
2736
이제 제가 이것을 기술적 측면에서 보면
02:58
it became되었다 very clear명확한 to me
that what I needed필요한 to architect건축가
60
166160
3176
제가 만들어야 하는 것이
03:01
was a smart똑똑한, collaborative협력적인,
61
169360
2176
똑똑하고 협력적인
03:03
socially사회적으로 intelligent지적인
artificial인공의 intelligence지성.
62
171560
2376
사회적 지능의 인공 지능임을
알 수 있습니다.
03:05
In other words, I needed필요한 to build짓다
something very much like a HALHAL
63
173960
4296
다른 말로, 저는 살인하는 경향이 없는
03:10
but without없이 the homicidal살인 tendencies성향.
64
178280
2416
HAL을 만들어야 한다는 것입니다.
03:12
(Laughter웃음)
65
180720
1360
(웃음)
03:14
Let's pause중지 for a moment순간.
66
182920
1816
잠시만 멈추고 생각하여봅시다.
03:16
Is it really possible가능한 to build짓다
an artificial인공의 intelligence지성 like that?
67
184760
3896
그러한 인공지능을 만드는 것이
가능할까요?
03:20
Actually사실은, it is.
68
188680
1456
사실, 가능합니다.
03:22
In many많은 ways,
69
190160
1256
다양한 측면에서
03:23
this is a hard단단한 engineering공학 problem문제
70
191440
1976
이것은 AI 요소가 있는
어려운 기술 문제이지
03:25
with elements집단 of AIAI,
71
193440
1456
03:26
not some wet젖은 hair머리 ball of an AIAI problem문제
that needs필요 to be engineered조작 된.
72
194920
4696
가벼운 설계적 인공지능
문제가 아닙니다.
03:31
To paraphrase의역 Alan앨런 Turing튜링,
73
199640
2656
앨런 튜링의 말을 정리하여 보자면
03:34
I'm not interested관심있는
in building건물 a sentient마음 machine기계.
74
202320
2376
저는 감각이 있는 기계를 만드는 것에
흥미가 있는 것이 아닙니다.
03:36
I'm not building건물 a HALHAL.
75
204720
1576
저는 HAL을 만드는 것이 아닙니다.
03:38
All I'm after is a simple단순한 brain,
76
206320
2416
저는 지능의 환상을 주는
03:40
something that offers제안
the illusion환각 of intelligence지성.
77
208760
3120
간단한 두뇌를 만들려는 것일 뿐입니다.
03:45
The art미술 and the science과학 of computing컴퓨팅
have come a long way
78
213000
3136
HAL이 상영된 후에
기계적 과학과 예술은 발전해왔으며
03:48
since이후 HALHAL was onscreen화면에,
79
216160
1496
03:49
and I'd imagine상상하다 if his inventor발명자
Dr박사. Chandra찬드라 were here today오늘,
80
217680
3216
만일 발명가 샨드라가
오늘 이곳에 있었더라면
03:52
he'd그는 have a whole완전한 lot of questions질문들 for us.
81
220920
2336
우리에게 많은 질문이 있었을 거라고
저는 상상합니다.
03:55
Is it really possible가능한 for us
82
223280
2096
수많은 기계들중 하나의 시스템을 뽑아
03:57
to take a system체계 of millions수백만
upon...에 millions수백만 of devices장치들,
83
225400
4016
데이타의 흐름을 읽고
04:01
to read독서 in their그들의 data데이터 streams개울,
84
229440
1456
그들의 실패를 예견하는게
04:02
to predict예측하다 their그들의 failures실패
and act행위 in advance전진?
85
230920
2256
정말 가능한 것일까요?
04:05
Yes.
86
233200
1216
네.
04:06
Can we build짓다 systems시스템 that converse반대
with humans인간 in natural자연스러운 language언어?
87
234440
3176
우리와 자연스럽게 대화하는 시스템을
만들 수 있을까요?
04:09
Yes.
88
237640
1216
네.
04:10
Can we build짓다 systems시스템
that recognize인정하다 objects사물, identify식별하다 emotions감정,
89
238880
2976
물건을 인식하고, 감정을 알아보며,
감정을 나타내고
04:13
emote감탄하다 themselves그들 자신,
play놀이 games계략 and even read독서 lips입술?
90
241880
3376
게임을 하며, 입술을 읽는,
그런 시스템을 만들 수 있을까요?
04:17
Yes.
91
245280
1216
네.
04:18
Can we build짓다 a system체계 that sets세트 goals목표,
92
246520
2136
목표를 세워 그 목표를 향해 나아가며
04:20
that carries운반하다 out plans계획들 against반대 those goals목표
and learns배우다 along...을 따라서 the way?
93
248680
3616
그 과정에서 학습하는
시스템을 만들 수 있을까요?
04:24
Yes.
94
252320
1216
네.
04:25
Can we build짓다 systems시스템
that have a theory이론 of mind마음?
95
253560
3336
마음 이론을 가지고 있는
시스템을 만들 수 있을까요?
04:28
This we are learning배우기 to do.
96
256920
1496
이것을 향해 우리는 나아가고 있습니다.
04:30
Can we build짓다 systems시스템 that have
an ethical윤리적 인 and moral사기 foundation기초?
97
258440
3480
윤리적, 도덕적 배경을 가지고 있는
시스템을 만들 수 있을까요?
04:34
This we must절대로 필요한 것 learn배우다 how to do.
98
262480
2040
우리가 해야만 하는 것입니다.
04:37
So let's accept받아 들인다 for a moment순간
99
265360
1376
그러므로 이러한 사명을 가진
04:38
that it's possible가능한 to build짓다
such이러한 an artificial인공의 intelligence지성
100
266760
2896
인공지능을 만드는 것이 가능하다는 것을
04:41
for this kind종류 of mission사명 and others다른 사람.
101
269680
2136
받아들여 봅시다.
04:43
The next다음 것 question문제
you must절대로 필요한 것 ask청하다 yourself당신 자신 is,
102
271840
2536
그렇다면 이 질문을
스스로에게 물어보세요.
04:46
should we fear무서움 it?
103
274400
1456
우리는 두려워해야 할까요?
04:47
Now, every...마다 new새로운 technology과학 기술
104
275880
1976
오늘날 모든 새로운 기술은
04:49
brings가져다 준다 with it
some measure법안 of trepidation전율.
105
277880
2896
어느 정도의 두려움을 가져오지요.
04:52
When we first saw cars자동차,
106
280800
1696
우리가 처음 차를 보았을 때
04:54
people lamented슬픔에 잠긴 that we would see
the destruction파괴 of the family가족.
107
282520
4016
사람들은 그것이 가족들을
무너뜨릴까봐 걱정했었습니다.
04:58
When we first saw telephones전화 come in,
108
286560
2696
우리가 처음 전화를 보았을 때
05:01
people were worried걱정 it would destroy멸하다
all civil예의 바른 conversation대화.
109
289280
2896
사람들은 그것이 대화를 없애버릴까봐
걱정했었습니다.
05:04
At a point포인트 in time we saw
the written word워드 become지다 pervasive퍼지는,
110
292200
3936
글자를 쓰는것이 보편화 되어갈 때
05:08
people thought we would lose잃다
our ability능력 to memorize암기하다.
111
296160
2496
사람들은 기억력을 잃게
될 거라고 생각했었죠.
05:10
These things are all true참된 to a degree정도,
112
298680
2056
어느 정도 맞는 말일 수 있지만
05:12
but it's also또한 the case케이스
that these technologies기술
113
300760
2416
기술이 사람의 삶을
더 깊게 해주는 경우도
05:15
brought가져온 to us things
that extended펼친 the human인간의 experience경험
114
303200
3376
05:18
in some profound깊은 ways.
115
306600
1880
있었다고 볼 수 있죠.
05:21
So let's take this a little further더욱이.
116
309840
2280
더 나아가봅시다.
05:25
I do not fear무서움 the creation창조
of an AIAI like this,
117
313120
4736
저는 인공지능이 우리의 가치를
궁극적으로 구현할 것이라고 믿기에
05:29
because it will eventually결국
embody구체화하다 some of our values.
118
317880
3816
인공지능의 발명을
두려워하지 않습니다.
05:33
Consider중히 여기다 this: building건물 a cognitive인지 적 system체계
is fundamentally근본적으로 different다른
119
321720
3496
이것을 고려하세요:
인식적인 시스템을 만드는 것은
05:37
than building건물 a traditional전통적인
software-intensive소프트웨어 집약적 인 system체계 of the past과거.
120
325240
3296
과거의 소프트웨어 중심 시스템을
만드는 것과 다릅니다.
05:40
We don't program프로그램 them. We teach가르치다 them.
121
328560
2456
우리는 그것을
프로그램하지 않고 가르칩니다.
05:43
In order주문 to teach가르치다 a system체계
how to recognize인정하다 flowers꽃들,
122
331040
2656
꽃을 알아보는것을 시스템에게
가르치기 위해서는
05:45
I show보여 주다 it thousands수천 of flowers꽃들
of the kinds종류 I like.
123
333720
3016
수천 종류의 꽃을 보여주여야 합니다.
05:48
In order주문 to teach가르치다 a system체계
how to play놀이 a game경기 --
124
336760
2256
시스템에게 게임하는 법을
가르치기 위해서는
05:51
Well, I would. You would, too.
125
339040
1960
저도 그러고 싶고,
여러분도 그러겠지요.
05:54
I like flowers꽃들. Come on.
126
342600
2040
저는 꽃을 좋아해요, 정말로요.
05:57
To teach가르치다 a system체계
how to play놀이 a game경기 like Go,
127
345440
2856
시스템에게 바둑같은 게임을
가르치기 위해서는
06:00
I'd have it play놀이 thousands수천 of games계략 of Go,
128
348320
2056
수천 번의 바둑 게임을
해주어야 할 것이며
06:02
but in the process방법 I also또한 teach가르치다 it
129
350400
1656
그 과정에서 잘한 게임과 못한 게임을
06:04
how to discern분별력있는
a good game경기 from a bad나쁜 game경기.
130
352080
2416
구별하는것도 가르쳐야겠지요.
06:06
If I want to create몹시 떠들어 대다 an artificially인위적으로
intelligent지적인 legal적법한 assistant조수,
131
354520
3696
인공 지능에게 법률 보조일을
시키기 위해서는
06:10
I will teach가르치다 it some corpus신체 of law
132
358240
1776
대전 뿐만이 아니라
06:12
but at the same같은 time I am fusing융합 with it
133
360040
2856
자비와 정의등의 개념
역시 가르쳐야겠지요.
06:14
the sense감각 of mercy자비 and justice정의
that is part부품 of that law.
134
362920
2880
06:18
In scientific과학적 terms자귀,
this is what we call ground바닥 truth진실,
135
366560
2976
과학적으로, 우리가 말하는
근본적인 진실 및
06:21
and here's여기에 the important중대한 point포인트:
136
369560
2016
중요한 사실이 여기 있습니다:
06:23
in producing생산 these machines기계들,
137
371600
1456
이러한 기계를 만들기 위해서는
06:25
we are therefore따라서 teaching가르치는 them
a sense감각 of our values.
138
373080
3416
우리는 우리의 가치를 그들에게
가르쳐야합니다.
06:28
To that end종료, I trust믿음
an artificial인공의 intelligence지성
139
376520
3136
그 목적을 위해서, 저는 인공지능이
06:31
the same같은, if not more,
as a human인간의 who is well-trained잘 훈련 된.
140
379680
3640
잘 훈련받은 사람보다 같거나
더 대단하다고 믿습니다.
06:36
But, you may할 수있다 ask청하다,
141
384080
1216
하지만 여러분
06:37
what about rogue악당 agents자치령 대표,
142
385320
2616
잘 설립된 로그 에이전트와 같은
06:39
some well-funded재정이 좋은
nongovernment비정부기구 organization조직?
143
387960
3336
비정부기관에 대하여 물을수 있겠죠?
06:43
I do not fear무서움 an artificial인공의 intelligence지성
in the hand of a lone고독한 wolf늑대.
144
391320
3816
저는 외로운 늑대에게 있는
인공지능을 두려워하지 않습니다.
06:47
Clearly분명히, we cannot~ 할 수 없다. protect보호 ourselves우리 스스로
against반대 all random무작위의 acts행위 of violence폭력,
145
395160
4536
분명히, 우리는 마구잡이의 폭력에서
우리를 보호할 수 없지만
06:51
but the reality현실 is such이러한 a system체계
146
399720
2136
실제적으로 보았을때
06:53
requires요구하다 substantial실질적인 training훈련
and subtle세밀한 training훈련
147
401880
3096
이는 근본적인 트레이닝을 요구하고
06:57
far멀리 beyond...을 넘어서 the resources자원 of an individual개인.
148
405000
2296
이것은 개인의 능력치
바깥에 있는 일입니다.
06:59
And furthermore더욱이,
149
407320
1216
더 나아가 이것은
07:00
it's far멀리 more than just injecting주입
an internet인터넷 virus바이러스 to the world세계,
150
408560
3256
인터넷 바이러스를 세상에 주입하여
07:03
where you push푸시 a button단추,
all of a sudden갑자기 it's in a million백만 places장소들
151
411840
3096
하나의 버튼을 눌러
전세계 인터넷을 폭파시키는것보다
07:06
and laptops노트북 start스타트 blowing취주 up
all over the place장소.
152
414960
2456
더 힘든 일입니다.
07:09
Now, these kinds종류 of substances물질
are much larger더 큰,
153
417440
2816
이제 이러한 것들은 훨씬 커졌으며
07:12
and we'll certainly확실히 see them coming오는.
154
420280
1715
우리는 이것들이 다가오는것을
확실하게 볼 수 있죠.
07:14
Do I fear무서움 that such이러한
an artificial인공의 intelligence지성
155
422520
3056
제가 인공지능이 인류를 위협할까봐
07:17
might threaten위협하다 all of humanity인류?
156
425600
1960
두려워할까요?
07:20
If you look at movies영화 산업
such이러한 as "The Matrix매트릭스," "Metropolis중심지,"
157
428280
4376
"메트릭스", "메트로폴리스",
"터미네이터" 같은
07:24
"The Terminator터미네이터,"
shows such이러한 as "Westworld웨스트 월드,"
158
432680
3176
서구의 영화들을 보면
07:27
they all speak말하다 of this kind종류 of fear무서움.
159
435880
2136
영화들은 이러한 두려움을
다루고 있습니다.
07:30
Indeed과연, in the book도서 "Superintelligence수퍼 인텔리전스"
by the philosopher철학자 Nick새긴 ​​금 Bostrom보스 트롬,
160
438040
4296
철학자 닉보스트롬의
"초지능"이라는 책에서
07:34
he picks추천 up on this theme테마
161
442360
1536
그는 이 주제를 다루며
07:35
and observes관찰하다 that a superintelligence슈퍼 인텔리전스
might not only be dangerous위험한,
162
443920
4016
초지능이 위험할 뿐만 아니라
07:39
it could represent말하다 an existential실존 적 threat위협
to all of humanity인류.
163
447960
3856
인류에 있어서 모든 위험을
대변한다고 합니다.
07:43
Dr박사. Bostrom's보스톰 basic기본 argument논의
164
451840
2216
필자의 근본적인 주장은
07:46
is that such이러한 systems시스템 will eventually결국
165
454080
2736
이러한 시스템이 결국
07:48
have such이러한 an insatiable만족할 줄 모르는
thirst갈증 for information정보
166
456840
3256
탐욕적으로 정보를 원하게 되어
07:52
that they will perhaps혹시 learn배우다 how to learn배우다
167
460120
2896
인간의 필요와
07:55
and eventually결국 discover발견하다
that they may할 수있다 have goals목표
168
463040
2616
반대되는 목적을
07:57
that are contrary반대로 to human인간의 needs필요.
169
465680
2296
이루게 될거라는 것이죠.
08:00
Dr박사. Bostrom보스 트롬 has a number번호 of followers추종자.
170
468000
1856
보스트롬 교수를
따르는 사람들이 많습니다.
08:01
He is supported지원되는 by people
such이러한 as Elon엘론 Musk사향 and Stephen스티븐 Hawking호킹.
171
469880
4320
엘론머스크와 스티븐 호킹같은
사람들의 지지를 받고있죠.
08:06
With all due정당한 respect존경
172
474880
2400
천부적인 마음들에
08:10
to these brilliant훌륭한 minds마음,
173
478160
2016
외람된 말씀입니다만
08:12
I believe that they
are fundamentally근본적으로 wrong잘못된.
174
480200
2256
저는 그들이 근본적으로
틀렸다고 생각합니다.
08:14
Now, there are a lot of pieces조각들
of Dr박사. Bostrom's보스톰 argument논의 to unpack풀다,
175
482480
3176
보스트롬 교수의 주장에는
살펴보아야 할 것들이 많고
08:17
and I don't have time to unpack풀다 them all,
176
485680
2136
지금 이것을 다 다룰 시간은 없지만
08:19
but very briefly간단히, consider중히 여기다 this:
177
487840
2696
아주 간략하게, 이것을 생각하여보세요.
08:22
super감독자 knowing is very different다른
than super감독자 doing.
178
490560
3736
많이 아는 것은
많이 하는 것과 다릅니다.
08:26
HALHAL was a threat위협 to the Discovery발견 crew크루
179
494320
1896
HAL이 탐사팀에게
위협이 되었던 이유는
08:28
only insofar~ 안에 as HALHAL commanded지휘 된
all aspects상들 of the Discovery발견.
180
496240
4416
단지 HAL이 탐사의 모든 측면에서
명령을 내렸기 때문이죠.
08:32
So it would have to be
with a superintelligence슈퍼 인텔리전스.
181
500680
2496
초지능과 관련이 있습니다.
08:35
It would have to have dominion지배
over all of our world세계.
182
503200
2496
그것은 우리 세상의 지배권을
가지게 될것입니다.
08:37
This is the stuff물건 of Skynet스카이 넷
from the movie영화 "The Terminator터미네이터"
183
505720
2816
초지능이 사람이 원하는것을
08:40
in which어느 we had a superintelligence슈퍼 인텔리전스
184
508560
1856
명령받하게 되는것은
08:42
that commanded지휘 된 human인간의 will,
185
510440
1376
영화 "터미네이터"의
스카이넷을 통해 다뤄지는데
08:43
that directed감독 된 every...마다 device장치
that was in every...마다 corner모서리 of the world세계.
186
511840
3856
이는 모든 기기들이
전세계에 다 있는 경우입니다.
08:47
Practically거의 speaking말하기,
187
515720
1456
솔직하게 얘기하여보자면,
08:49
it ain't~이 아니다. gonna happen우연히 있다.
188
517200
2096
이것은 일어나지 않을 일입니다.
08:51
We are not building건물 AIs인공 지능
that control제어 the weather날씨,
189
519320
3056
우리는 날씨를 조정하거나,
파도를 이끌거나
08:54
that direct곧장 the tides조수,
190
522400
1336
예측할수 없고 혼란스러운
사람을 명령하는
08:55
that command명령 us
capricious변덕스러운, chaotic혼란스러운 humans인간.
191
523760
3376
인공지능을 만들고있는것이 아닙니다.
08:59
And furthermore더욱이, if such이러한
an artificial인공의 intelligence지성 existed존재했다,
192
527160
3896
그리고 이러한 인공지능이 있다면,
09:03
it would have to compete경쟁하다
with human인간의 economies경제,
193
531080
2936
그것은 자원을 위하여
09:06
and thereby그것에 의하여 compete경쟁하다 for resources자원 with us.
194
534040
2520
인류의 경제와 경쟁해야겠지요.
09:09
And in the end종료 --
195
537200
1216
결국에는
09:10
don't tell Siri시리 this --
196
538440
1240
시리에게는 말하지 마세요.
09:12
we can always unplug플러그를 뽑다 them.
197
540440
1376
우리는 언제나
전원을 빼버릴 수 있습니다.
09:13
(Laughter웃음)
198
541840
2120
(웃음)
09:17
We are on an incredible놀랄 만한 journey여행
199
545360
2456
우리는 기계들과 공진화하는
09:19
of coevolution공진화 with our machines기계들.
200
547840
2496
놀랄만한 여행을 하고 있습니다.
09:22
The humans인간 we are today오늘
201
550360
2496
미래의 인간들은
09:24
are not the humans인간 we will be then.
202
552880
2536
오늘날의 인간들과 다르겠지요.
09:27
To worry걱정 now about the rise오르기
of a superintelligence슈퍼 인텔리전스
203
555440
3136
초지능의 출현을 지금 걱정하는것은
09:30
is in many많은 ways a dangerous위험한 distraction기분 전환
204
558600
3056
기술의 발전이 우리에게
09:33
because the rise오르기 of computing컴퓨팅 itself그 자체
205
561680
2336
관심을 가져야만하는 많은
09:36
brings가져다 준다 to us a number번호
of human인간의 and societal사회 issues문제
206
564040
3016
사회적, 인류적 이슈를 가져오기에
09:39
to which어느 we must절대로 필요한 것 now attend참석하다.
207
567080
1640
위험한 분산이라고 볼 수 있습니다.
09:41
How shall하여야 한다 I best베스트 organize구성 society사회
208
569360
2816
그럼 어떻게 해야 인간의 노동이
덜 중요해진 사회를
09:44
when the need for human인간의 labor노동 diminishes점감하다?
209
572200
2336
잘 구성할 수 있을까요?
09:46
How can I bring가져오다 understanding이해
and education교육 throughout전역 the globe지구
210
574560
3816
어떻게 해야 차이점을 존중하며
09:50
and still respect존경 our differences차이점들?
211
578400
1776
교육과 이해를 세계적으로
가져올 수 있을까요?
09:52
How might I extend넓히다 and enhance높이다 human인간의 life
through...을 통하여 cognitive인지 적 healthcare건강 관리?
212
580200
4256
인식적인 건강관리 시스템으로
어떻게 인간의 삶을 발전시킬까요?
09:56
How might I use computing컴퓨팅
213
584480
2856
어떻게 기술적인 것들을 이용하여
09:59
to help take us to the stars?
214
587360
1760
우리가 별을 따도록 도울 수 있을까요?
10:01
And that's the exciting흥미 진진한 thing.
215
589760
2040
그것이 이 일의 신나는 부분입니다.
10:04
The opportunities기회 to use computing컴퓨팅
216
592400
2336
이제 우리는
10:06
to advance전진 the human인간의 experience경험
217
594760
1536
기계를 통한 인류
발전을 이룰 수 있으며
10:08
are within이내에 our reach범위,
218
596320
1416
10:09
here and now,
219
597760
1856
지금 이곳에서 우리는
시작하고 있습니다.
10:11
and we are just beginning처음.
220
599640
1680
10:14
Thank you very much.
221
602280
1216
감사합니다.
10:15
(Applause박수 갈채)
222
603520
4286
(박수)
Translated by Yeonsoo Kwon
Reviewed by Jihyeon J. Kim

▲Back to top

ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee