ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com
TEDSummit

Sam Harris: Can we build AI without losing control over it?

샘 해리스(Sam Harris): 우리가 통제권을 잃지 않으면서 인공지능 만들수 있을까요?

Filmed:
5,024,015 views

엄청난 지능의 인공지능(AI)이 두려우신가요? 신경과학자이자 철학자인 샘 해리스는 두려워 해야 하고, 단지 이론적으로만 두려워 할 게 아니라고 말합니다. 우리는 인간을 뛰어 넘는 기계를 만들테지만, 우리가 개미를 대하듯이 우리를 그렇게 대할 수도 있는 기계를 만들지도 모른다는 문제는 아직 고민한 적도 없다고 그는 지적합니다.
- Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live. Full bio

Double-click the English transcript below to play the video.

00:13
I'm going to talk
about a failure실패 of intuition직관
0
1000
2216
직감이 틀리는 경우에
대해서 얘기할까 합니다.
00:15
that many많은 of us suffer참다 from.
1
3240
1600
우리가 흔히 겪는 일이죠.
00:17
It's really a failure실패
to detect탐지하다 a certain어떤 kind종류 of danger위험.
2
5480
3040
이것은 실제로 어떤 종류의
위험을 감지하지 못하는 겁니다.
00:21
I'm going to describe기술하다 a scenario대본
3
9360
1736
가능한 시나리오를 말씀드리겠습니다.
00:23
that I think is both양자 모두 terrifying겁나게 하는
4
11120
3256
아주 무섭기도 하고
00:26
and likely아마도 to occur나오다,
5
14400
1760
일어날 가능성도 높죠.
00:28
and that's not a good combination콤비네이션,
6
16840
1656
이 둘의 조합은 별로
반길 상황은 아닐 겁니다.
00:30
as it turns회전 out.
7
18520
1536
00:32
And yet아직 rather차라리 than be scared깜짝 놀란,
most가장 of you will feel
8
20080
2456
하지만 여러분 대부분은
제가 말씀드릴 내용에 대해서
00:34
that what I'm talking말하는 about
is kind종류 of cool시원한.
9
22560
2080
무서워하기 보다는
멋지다고 생각할 겁니다.
00:37
I'm going to describe기술하다
how the gains이익 we make
10
25200
2976
제가 말씀드리고 싶은 것은
인공지능을 만들어서 얻게 될 이점이
00:40
in artificial인공의 intelligence지성
11
28200
1776
결국 우리를 파멸시킬 수도
있다는 사실입니다.
00:42
could ultimately궁극적으로 destroy멸하다 us.
12
30000
1776
00:43
And in fact, I think it's very difficult어려운
to see how they won't습관 destroy멸하다 us
13
31800
3456
사실 인공지능이 우리를
파멸시키지 않을지
우리 스스로 자멸하도록
만들지는 전혀 알 수 없죠.
00:47
or inspire일으키게 하다 us to destroy멸하다 ourselves우리 스스로.
14
35280
1680
00:49
And yet아직 if you're anything like me,
15
37400
1856
하지만 여러분이 저와 같다면
00:51
you'll find that it's fun장난
to think about these things.
16
39280
2656
이 문제를 생각해 보는 것도
재미있다고 느끼실 겁니다.
00:53
And that response응답 is part부품 of the problem문제.
17
41960
3376
그런 반응도 문제입니다.
00:57
OK? That response응답 should worry걱정 you.
18
45360
1720
걱정스런 반응이어야죠.
00:59
And if I were to convince납득시키다 you in this talk
19
47920
2656
이 강연에서 여러분들에게
01:02
that we were likely아마도
to suffer참다 a global글로벌 famine기근,
20
50600
3416
기후변화나 다른 재앙으로 인해
세계적 기근으로 고통받을 거라든지
01:06
either어느 한 쪽 because of climate기후 change변화
or some other catastrophe대단원,
21
54040
3056
01:09
and that your grandchildren손자,
or their그들의 grandchildren손자,
22
57120
3416
여러분의 손자나 그들의 손자들이
01:12
are very likely아마도 to live살고 있다 like this,
23
60560
1800
이러저러하게 살게 될 거라고 설명하면
01:15
you wouldn't~ 않을거야. think,
24
63200
1200
이런 생각은 안드시겠죠.
01:17
"Interesting재미있는.
25
65440
1336
"재미있군.
01:18
I like this TED테드 Talk."
26
66800
1200
이 강연 맘에 들어"라고요.
01:21
Famine기근 isn't fun장난.
27
69200
1520
기근은 재미있는 일이 아닙니다.
01:23
Death죽음 by science과학 fiction소설,
on the other hand, is fun장난,
28
71800
3376
그러나 공상과학에서
벌어지는 죽음은 재미있죠.
01:27
and one of the things that worries걱정 me most가장
about the development개발 of AIAI at this point포인트
29
75200
3976
지금 이 시점에서 인공지능
개발에 대해 가장 걱정되는 것은
01:31
is that we seem보다 unable할 수 없는 to marshal육군 원수
an appropriate적당한 emotional정서적 인 response응답
30
79200
4096
앞으로 있을 위험에 대한
적절한 감정적 반응을
01:35
to the dangers위험 that lie거짓말 ahead앞으로.
31
83320
1816
못하는 것 같다는 겁니다.
01:37
I am unable할 수 없는 to marshal육군 원수 this response응답,
and I'm giving주는 this talk.
32
85160
3200
저도 잘 못하면서
이 강연을 하고 있습니다.
01:42
It's as though그래도 we stand before two doors.
33
90120
2696
마치 두 개의 문 앞에
서 있는 것과 같습니다.
01:44
Behind뒤에 door number번호 one,
34
92840
1256
1번 문으로 들어서면
01:46
we stop making만들기 progress진행
in building건물 intelligent지적인 machines기계들.
35
94120
3296
인공지능 기계의 구축은
더이상 진보하지 않습니다.
01:49
Our computer컴퓨터 hardware하드웨어 and software소프트웨어
just stops정지 getting점점 better for some reason이유.
36
97440
4016
컴퓨터 하드웨어와 소프트웨어가
더 이상 발전하지 않습니다.
01:53
Now take a moment순간
to consider중히 여기다 why this might happen우연히 있다.
37
101480
3000
왜 그런 일이 일어날지
한번 생각해보죠.
01:57
I mean, given주어진 how valuable가치 있는
intelligence지성 and automation오토메이션 are,
38
105080
3656
인공지능과 자동화가
얼마나 가치있는지 안다면
02:00
we will continue잇다 to improve돌리다 our technology과학 기술
if we are at all able할 수 있는 to.
39
108760
3520
할 수 있는 한 계속해서
기술을 향상시키려 하겠죠.
02:05
What could stop us from doing this?
40
113200
1667
그걸 멈춘다면 이유가 뭘까요?
02:07
A full-scale본격적인 nuclear핵무기 war전쟁?
41
115800
1800
전면적 핵 전쟁일까요?
02:11
A global글로벌 pandemic세계적 유행병?
42
119000
1560
세계적 전염병 재앙일까요?
02:14
An asteroid소행성 impact충격?
43
122320
1320
소행성 충돌일까요?
02:17
Justin저스틴 Bieber비버 becoming어울리는
president대통령 of the United유나이티드 States?
44
125640
2576
저스틴 비버가 미국 대통령이
된다면 이유가 될까요?
02:20
(Laughter웃음)
45
128240
2280
(웃음)
02:24
The point포인트 is, something would have to
destroy멸하다 civilization문명 as we know it.
46
132760
3920
핵심은 뭔가가 우리가 아는
문명을 파괴한다는 겁니다.
02:29
You have to imagine상상하다
how bad나쁜 it would have to be
47
137360
4296
이게 얼마나 나쁠지
생각해 봐야 합니다.
02:33
to prevent막다 us from making만들기
improvements개량 in our technology과학 기술
48
141680
3336
우리의 기술향상을 막을 정도로 말이죠.
02:37
permanently영구히,
49
145040
1216
영원히
02:38
generation세대 after generation세대.
50
146280
2016
앞으로 계속이요.
02:40
Almost거의 by definition정의,
this is the worst가장 나쁜 thing
51
148320
2136
말 그대로 그것은
인류 사상 최악의 일입니다.
02:42
that's ever happened일어난 in human인간의 history역사.
52
150480
2016
02:44
So the only alternative대안,
53
152520
1296
그래서 유일한 대안은
02:45
and this is what lies거짓말
behind뒤에 door number번호 two,
54
153840
2336
2번 문 뒤에 있는데
02:48
is that we continue잇다
to improve돌리다 our intelligent지적인 machines기계들
55
156200
3136
인공지능을 계속 발전시키는 겁니다.
02:51
year after year after year.
56
159360
1600
앞으로 수년 동안 계속이요.
02:53
At a certain어떤 point포인트, we will build짓다
machines기계들 that are smarter똑똑한 than we are,
57
161720
3640
언젠가는 우리보다
똑똑한 기계를 만들겠죠.
02:58
and once일단 we have machines기계들
that are smarter똑똑한 than we are,
58
166080
2616
더 똑똑한 기계가 생기면
기계 스스로 발전할 겁니다.
03:00
they will begin시작하다 to improve돌리다 themselves그들 자신.
59
168720
1976
03:02
And then we risk위험 what
the mathematician수학자 IJIJ Good called전화 한
60
170720
2736
그러면 수학자 아이 제이 굿의 말대로
03:05
an "intelligence지성 explosion폭발,"
61
173480
1776
"지능 폭발"이라는
위험성을 안게 되는데
03:07
that the process방법 could get away from us.
62
175280
2000
우리 통제권을 벗어나는
일이 생기는 거죠.
03:10
Now, this is often자주 caricatured풍자 만화,
as I have here,
63
178120
2816
여기 보시는 것처럼
이런 풍자만화도 있는데요.
03:12
as a fear무서움 that armies군대 of malicious악의 있는 robots로봇
64
180960
3216
위험한 로봇 군대가 우리를
공격하리라는 두려움이죠.
03:16
will attack공격 us.
65
184200
1256
03:17
But that isn't the most가장 likely아마도 scenario대본.
66
185480
2696
하지만 그건 있을만한 일은 아닙니다.
03:20
It's not that our machines기계들
will become지다 spontaneously자발적으로 malevolent악의 있는.
67
188200
4856
기계가 스스로 악해질 리가 없거든요.
03:25
The concern관심사 is really
that we will build짓다 machines기계들
68
193080
2616
문제는 우리가 기계를 만드는데
03:27
that are so much
more competent유능한 than we are
69
195720
2056
우리보다 너무 능력이 뛰어나서
03:29
that the slightest사소한 divergence분기
between중에서 their그들의 goals목표 and our own개인적인
70
197800
3776
기계와 우리의 목표가 살짝만 어긋나도
우리를 파멸시킬 수 있는 겁니다.
03:33
could destroy멸하다 us.
71
201600
1200
03:35
Just think about how we relate말하다 to ants개미.
72
203960
2080
개미와 관련지어 생각해 보세요.
03:38
We don't hate미움 them.
73
206600
1656
우리는 개미를 싫어하진 않아요.
03:40
We don't go out of our way to harm them.
74
208280
2056
개미를 해치지도 않죠.
03:42
In fact, sometimes때때로
we take pains고생 not to harm them.
75
210360
2376
사실 때로는 해치지 않으려고 노력하죠.
03:44
We step단계 over them on the sidewalk보도.
76
212760
2016
길에서 개미들을 넘어서
걸음을 딛잖아요.
03:46
But whenever할때는 언제나 their그들의 presence존재
77
214800
2136
하지만 개미의 존재가
03:48
seriously진지하게 conflicts갈등 with one of our goals목표,
78
216960
2496
우리의 목표와 심각하게 부딪힐 때
03:51
let's say when constructing건설 중의
a building건물 like this one,
79
219480
2477
가령, 이런 건물을 지을 때
03:53
we annihilate억누르다 them without없이 a qualm현기증.
80
221981
1960
거리낌없이 전멸시킵니다.
03:56
The concern관심사 is that we will
one day build짓다 machines기계들
81
224480
2936
문제는 우리가 언젠가 기계를 만들텐데
03:59
that, whether인지 어떤지 they're conscious의식이있는 or not,
82
227440
2736
그 기계가 의식이 있든 없든
04:02
could treat us with similar비슷한 disregard무시.
83
230200
2000
비슷하게 무시하는 태도로
우리를 대할 수 있다는 거죠.
04:05
Now, I suspect용의자 this seems~ 같다
far-fetched멀리 가져온 to many많은 of you.
84
233760
2760
지나친 억측이라고
생각하는 분이 대다수겠지만
04:09
I bet내기 there are those of you who doubt의심
that superintelligent지능 AIAI is possible가능한,
85
237360
6336
초지능 AI가 가능하기나 한지
의심스러운 분도 분명 계시겠죠.
04:15
much less적게 inevitable피할 수 없는.
86
243720
1656
물론 필연적이라고 보지도 않고요.
04:17
But then you must절대로 필요한 것 find something wrong잘못된
with one of the following수행원 assumptions가정.
87
245400
3620
그럼 다음 가정에서 잘못된
점을 찾으셔야 할 겁니다.
04:21
And there are only three of them.
88
249044
1572
단 세 가지입니다.
04:23
Intelligence지성 is a matter문제 of information정보
processing가공 in physical물리적 인 systems시스템.
89
251800
4719
지능이란 물리적 시스템에서
정보를 처리하는 것입니다.
04:29
Actually사실은, this is a little bit비트 more
than an assumption인수.
90
257320
2615
사실 이것은 약간은
가정 그 이상입니다.
04:31
We have already이미 built세워짐
narrow제한된 intelligence지성 into our machines기계들,
91
259959
3457
우린 이미 기계에
제한된 지능을 구축했고
04:35
and many많은 of these machines기계들 perform행하다
92
263440
2016
이 기계들은 이미
04:37
at a level수평 of superhuman초인간적 인
intelligence지성 already이미.
93
265480
2640
인간을 뛰어넘는 지능
수준으로 구동합니다.
04:40
And we know that mere단지 matter문제
94
268840
2576
우리가 알기로 단순한 문제가
04:43
can give rise오르기 to what is called전화 한
"general일반 intelligence지성,"
95
271440
2616
"일반 지능"이란 것을
만들어 낼 수도 있죠.
04:46
an ability능력 to think flexibly유연하게
across건너서 multiple배수 domains도메인,
96
274080
3656
다양한 분야에서 융통성 있게
사고하는 능력인데
04:49
because our brains두뇌 have managed관리되는 it. Right?
97
277760
3136
우리 뇌는 그렇게 해왔잖아요. 그렇죠?
04:52
I mean, there's just atoms원자 in here,
98
280920
3936
여기 원자들이 있고
04:56
and as long as we continue잇다
to build짓다 systems시스템 of atoms원자
99
284880
4496
원자 시스템을 계속 구축해서
05:01
that display디스플레이 more and more
intelligent지적인 behavior행동,
100
289400
2696
점점 더 지능적인 행동을 하게 하면
05:04
we will eventually결국,
unless~ 않는 한 we are interrupted중단 된,
101
292120
2536
중간에 멈추지만 않는다면
05:06
we will eventually결국
build짓다 general일반 intelligence지성
102
294680
3376
우린 마침내 일반지능을
05:10
into our machines기계들.
103
298080
1296
기계에 구축할 겁니다.
05:11
It's crucial결정적인 to realize깨닫다
that the rate of progress진행 doesn't matter문제,
104
299400
3656
진보의 속도가 문제되지
않음을 아는게 중요합니다.
05:15
because any progress진행
is enough충분히 to get us into the end종료 zone.
105
303080
3176
어떻게든 발전하면 끝까지
갈 수 있기 때문이죠.
05:18
We don't need Moore's무어의 law to continue잇다.
We don't need exponential기하 급수적 인 progress진행.
106
306280
3776
계속 하기 위해 무어의 법칙이나
기하급수적인 진보가 필요없습니다.
05:22
We just need to keep going.
107
310080
1600
그냥 계속 하면 되죠.
05:25
The second둘째 assumption인수
is that we will keep going.
108
313480
2920
두 번째 가정은 우리가
계속 할 것이라는 겁니다.
05:29
We will continue잇다 to improve돌리다
our intelligent지적인 machines기계들.
109
317000
2760
우리는 지능적인 기계를
계속 향상시킬 겁니다.
05:33
And given주어진 the value of intelligence지성 --
110
321000
4376
지능의 가치를 생각해 볼 때
05:37
I mean, intelligence지성 is either어느 한 쪽
the source출처 of everything we value
111
325400
3536
지능이란 우리가 가치있게
여기는 모든 것의 원천이거나
05:40
or we need it to safeguard보호
everything we value.
112
328960
2776
가치있는 것을 지키기 위해 필요하죠.
05:43
It is our most가장 valuable가치 있는 resource의지.
113
331760
2256
우리의 가장 귀한 자원입니다.
05:46
So we want to do this.
114
334040
1536
그래서 개발을 하고 싶은 겁니다.
05:47
We have problems문제들
that we desperately필사적으로 need to solve풀다.
115
335600
3336
우리는 간절히 해결하고
싶은 문제들이 있죠.
05:50
We want to cure치료법 diseases질병
like Alzheimer's알츠하이머 병 and cancer.
116
338960
3200
알츠하이머 병이나 암같은
질병을 치료하고 싶어 합니다.
05:54
We want to understand알다 economic간결한 systems시스템.
We want to improve돌리다 our climate기후 science과학.
117
342960
3936
경제 체계를 이해하고 기후 과학을
발전시키고 싶어 하죠.
05:58
So we will do this, if we can.
118
346920
2256
그래서 할 수만 있다면 할 겁니다.
06:01
The train기차 is already이미 out of the station,
and there's no brake브레이크 to pull손잡이.
119
349200
3286
기차는 이미 출발했고
멈출 브레이크가 없습니다.
06:05
Finally마침내, we don't stand
on a peak피크 of intelligence지성,
120
353880
5456
마지막 가정으로 우리는 지능의
정점에 서있지 않다는 겁니다.
06:11
or anywhere어딘가에 near가까운 it, likely아마도.
121
359360
1800
그 근처에 가지도 못했을 거에요.
06:13
And this really is the crucial결정적인 insight통찰력.
122
361640
1896
사실 이게 중요한 생각입니다.
06:15
This is what makes~을 만든다
our situation상태 so precarious믿을 수 없는,
123
363560
2416
바로 그래서 우리 상황이
매우 위험한 겁니다.
06:18
and this is what makes~을 만든다 our intuitions직감
about risk위험 so unreliable신뢰할 수 없는.
124
366000
4040
그래서 우리 위험을 인지하는
우리 직감을 믿을 수가 없는 것이죠.
06:23
Now, just consider중히 여기다 the smartest똑똑한 person사람
who has ever lived살았던.
125
371120
2720
이제 지구상에서 가장
똑똑한 사람이 있다고 하죠.
06:26
On almost거의 everyone's모두의 shortlist후보 목록 here
is John남자 von Neumann노이만.
126
374640
3416
거의 모든 사람들을 추려내면
존 폰 노이만이 나옵니다.
06:30
I mean, the impression인상 that von Neumann노이만
made만든 on the people around him,
127
378080
3336
주변 사람들이 폰 노이만을
어떻게 생각했는지와
06:33
and this included포함 된 the greatest가장 큰
mathematicians수학자 and physicists물리학 자들 of his time,
128
381440
4056
그가 당대의 위대한 수학자이자
물리학자에 포함된다는 사실은
06:37
is fairly well-documented잘 기록 된.
129
385520
1936
잘 알려져 있죠.
06:39
If only half절반 the stories이야기
about him are half절반 true참된,
130
387480
3776
그에 대한 일화의 절반 중에서
반만 사실이라 하더라도
06:43
there's no question문제
131
391280
1216
의심의 여지 없이
06:44
he's one of the smartest똑똑한 people
who has ever lived살았던.
132
392520
2456
그는 역사상 가장 똑똑한 사람입니다.
06:47
So consider중히 여기다 the spectrum스펙트럼 of intelligence지성.
133
395000
2520
지능의 범위를 생각해 보세요.
06:50
Here we have John남자 von Neumann노이만.
134
398320
1429
폰 노이만은 여기 있습니다.
06:53
And then we have you and me.
135
401560
1334
그리고 여기 여러분과 제가 있죠.
06:56
And then we have a chicken치킨.
136
404120
1296
그리고 닭은 여기 있습니다.
06:57
(Laughter웃음)
137
405440
1936
(웃음)
06:59
Sorry, a chicken치킨.
138
407400
1216
닭아 미안하다.
07:00
(Laughter웃음)
139
408640
1256
(웃음)
07:01
There's no reason이유 for me to make this talk
more depressing우울한 than it needs필요 to be.
140
409920
3736
이 강연을 꼭 우울하게
할 필요는 없죠.
07:05
(Laughter웃음)
141
413680
1600
(웃음)
07:08
It seems~ 같다 overwhelmingly압도적으로 likely아마도, however하나,
that the spectrum스펙트럼 of intelligence지성
142
416339
3477
하지만 놀랍게도 지능의 범위는
07:11
extends확장하다 much further더욱이
than we currently현재 conceive배다,
143
419840
3120
우리가 현재 가질 수 있는
것보다 훨씬 넓게 확장되고
07:15
and if we build짓다 machines기계들
that are more intelligent지적인 than we are,
144
423880
3216
우리보다 지능적인 기계를 구축한다면
07:19
they will very likely아마도
explore탐험하다 this spectrum스펙트럼
145
427120
2296
이 범위를 아우를
가능성이 매우 높습니다.
07:21
in ways that we can't imagine상상하다,
146
429440
1856
상상할 수 없을 정도로요.
07:23
and exceed넘다 us in ways
that we can't imagine상상하다.
147
431320
2520
또한 상상할 수 없을 정도로
우리를 능가할 겁니다.
07:27
And it's important중대한 to recognize인정하다 that
this is true참된 by virtue of speed속도 alone혼자.
148
435000
4336
속도 하나만 봐도
그렇다는 걸 알아야 합니다.
07:31
Right? So imagine상상하다 if we just built세워짐
a superintelligent지능 AIAI
149
439360
5056
그렇죠? 초지능 AI를
구축한다고 해봅시다.
07:36
that was no smarter똑똑한
than your average평균 team of researchers연구원
150
444440
3456
스탠포드 대학이나 MIT의 연구팀의
평균 지능보다 덜 똑똑한 정도로요.
07:39
at Stanford스탠포드 or MITMIT.
151
447920
2296
07:42
Well, electronic전자 circuits회로들
function기능 about a million백만 times타임스 faster더 빠른
152
450240
2976
생화학적인 회로보다 전자 회로가
백만 배는 빠르게 작동합니다.
07:45
than biochemical생화학 적 ones그들,
153
453240
1256
07:46
so this machine기계 should think
about a million백만 times타임스 faster더 빠른
154
454520
3136
그러니 이 기계는 그걸 구축한 사람보다
백만 배의 속도로 빠르게 생각하겠죠.
07:49
than the minds마음 that built세워짐 it.
155
457680
1816
07:51
So you set세트 it running달리는 for a week,
156
459520
1656
일주일 동안 돌리면
07:53
and it will perform행하다 20,000 years연령
of human-level인간 수준 intellectual지적인 work,
157
461200
4560
인간 수준 지능의 2만 년
분량을 해치울 겁니다.
07:58
week after week after week.
158
466400
1960
몇 주 동안 계속 말이죠.
08:01
How could we even understand알다,
much less적게 constrain억누르다,
159
469640
3096
별 제한 없이
이런 진보를 이루어내는 인공지능을
어떻게 받아들여야 할까요?
08:04
a mind마음 making만들기 this sort종류 of progress진행?
160
472760
2280
08:08
The other thing that's worrying걱정하는, frankly솔직히,
161
476840
2136
솔직히 걱정되는 다른 것은
08:11
is that, imagine상상하다 the best베스트 case케이스 scenario대본.
162
479000
4976
최고의 시나리오를 생각해 보는 겁니다.
08:16
So imagine상상하다 we hit히트 upon...에 a design디자인
of superintelligent지능 AIAI
163
484000
4176
안전성에 대해 고려하지 않고
초지능 AI를 설계한다고 상상해 보세요.
08:20
that has no safety안전 concerns우려.
164
488200
1376
08:21
We have the perfect완전한 design디자인
the first time around.
165
489600
3256
처음에는 설계가 완벽하죠.
08:24
It's as though그래도 we've우리는 been handed넘겨주는 an oracle신탁
166
492880
2216
의도한 대로 정확히 행동하는
조력자를 얻은 것 같습니다.
08:27
that behaves행동하다 exactly정확하게 as intended예정된.
167
495120
2016
08:29
Well, this machine기계 would be
the perfect완전한 labor-saving노동 절약 device장치.
168
497160
3720
노동력을 절감해주는
완벽한 기계가 될 겁니다.
08:33
It can design디자인 the machine기계
that can build짓다 the machine기계
169
501680
2429
이걸로 물리적인 작업을 할
기계를 만들어 내는
08:36
that can do any physical물리적 인 work,
170
504133
1763
또 다른 기계를 고안할 수 있습니다.
08:37
powered강화 된 by sunlight햇빛,
171
505920
1456
태양에너지로 돌아가고
08:39
more or less적게 for the cost비용
of raw노골적인 materials기재.
172
507400
2696
원자재 정도의 비용만 들어가죠.
08:42
So we're talking말하는 about
the end종료 of human인간의 drudgery천역.
173
510120
3256
인간의 고된 노동이 끝나게
된다는 걸 의미하는 거에요.
08:45
We're also또한 talking말하는 about the end종료
of most가장 intellectual지적인 work.
174
513400
2800
그건 대부분의 지적 노동도
끝나게 된다는 말이기도 합니다.
08:49
So what would apes원숭이 like ourselves우리 스스로
do in this circumstance상황?
175
517200
3056
우리 같은 유인원은
이런 상황에서 뭘 할까요?
08:52
Well, we'd우리는 be free비어 있는 to play놀이 Frisbee뚜껑 잘 간수 해
and give each마다 other massages마사지.
176
520280
4080
한가로이 원반 던지기 놀이하면서
서로 마사지나 해주겠죠.
08:57
Add더하다 some LSD엘에스디 and some
questionable수상한 wardrobe옷장 choices선택,
177
525840
2856
환각제 조금과 이상한 옷만 더하면
09:00
and the whole완전한 world세계
could be like Burning타고 있는 Man.
178
528720
2176
전 세계가 마치 버닝맨
축제 같을 겁니다.
09:02
(Laughter웃음)
179
530920
1640
(웃음)
09:06
Now, that might sound소리 pretty예쁜 good,
180
534320
2000
참 괜찮을 것 같지만
09:09
but ask청하다 yourself당신 자신 what would happen우연히 있다
181
537280
2376
현재의 정치 경제 상황에서
무슨 일이 생길지 자문해 보세요.
09:11
under아래에 our current흐름 economic간결한
and political주재관 order주문?
182
539680
2736
09:14
It seems~ 같다 likely아마도 that we would witness증거
183
542440
2416
다분히 우리들은
09:16
a level수평 of wealth inequality불평등
and unemployment실업
184
544880
4136
이전에 없던 부의 불평등과
실업문제를 직면하게 될 겁니다.
09:21
that we have never seen before.
185
549040
1496
09:22
Absent없는 a willingness쾌히 하기
to immediately바로 put this new새로운 wealth
186
550560
2616
새로운 부를 즉시 모든
인류와 나누려 하지 않고
09:25
to the service서비스 of all humanity인류,
187
553200
1480
09:27
a few조금 trillionaires조부모 could grace은혜
the covers표지 of our business사업 magazines잡지
188
555640
3616
소수의 백만장자들만이
경제지 표지를 장식하겠죠.
09:31
while the rest휴식 of the world세계
would be free비어 있는 to starve굶어 죽다.
189
559280
2440
세계의 나머지 인류는
굶어 죽는 동안에요.
09:34
And what would the Russians러시아 사람
or the Chinese중국말 do
190
562320
2296
러시아나 중국인은 뭘 할까요?
09:36
if they heard들었던 that some company회사
in Silicon규소 Valley골짜기
191
564640
2616
실리콘 밸리의 어떤 회사들이
09:39
was about to deploy전개하다 a superintelligent지능 AIAI?
192
567280
2736
초지능 AI를 곧 사용하려고
한다는 걸 들으면요.
09:42
This machine기계 would be capable유능한
of waging걷는 war전쟁,
193
570040
2856
이 기계는 전쟁도
일으킬 수 있을 겁니다.
09:44
whether인지 어떤지 terrestrial지구의 or cyber사이버,
194
572920
2216
지역분쟁이건 사이버 전쟁이건
09:47
with unprecedented새로운 power.
195
575160
1680
전례없는 힘을 가지고 말입니다.
09:50
This is a winner-take-all우승자 - 테이크 - 모두 scenario대본.
196
578120
1856
이건 승자독식의 시나리오입니다.
09:52
To be six months개월 ahead앞으로
of the competition경쟁 here
197
580000
3136
이 경쟁에서 6개월 앞선다는 것은
09:55
is to be 500,000 years연령 ahead앞으로,
198
583160
2776
최소한 50만 년 앞서는 것입니다.
09:57
at a minimum최저한의.
199
585960
1496
09:59
So it seems~ 같다 that even mere단지 rumors소문
of this kind종류 of breakthrough돌파구
200
587480
4736
그래서 이런 혁신적인 일이
우리 인류를 미쳐 날뛰게 만들
거라는 소문이 더욱 떠도는 거죠.
10:04
could cause원인 our species to go berserk맹렬한.
201
592240
2376
10:06
Now, one of the most가장 frightening놀라운 things,
202
594640
2896
이제 가장 두려운 것은
10:09
in my view전망, at this moment순간,
203
597560
2776
지금 현재, 제 생각에는
10:12
are the kinds종류 of things
that AIAI researchers연구원 say
204
600360
4296
AI연구자가 이런 말을 하는 겁니다.
10:16
when they want to be reassuring안심시키다.
205
604680
1560
안심시키려고 말이죠.
10:19
And the most가장 common공유지 reason이유
we're told not to worry걱정 is time.
206
607000
3456
걱정하지 않아도 되는
이유는 시기 때문이라고 하죠.
10:22
This is all a long way off,
don't you know.
207
610480
2056
이것은 완전히 빗나간 말입니다.
10:24
This is probably아마 50 or 100 years연령 away.
208
612560
2440
아마도 50에서 100년 뒤겠죠.
10:27
One researcher연구원 has said,
209
615720
1256
한 연구원이 말했습니다.
10:29
"Worrying걱정 about AIAI safety안전
210
617000
1576
"AI의 안전성에 대한 우려는
10:30
is like worrying걱정하는
about overpopulation과밀 on Mars화성."
211
618600
2280
마치 화성의 과잉 인구를
걱정하는 것과 같다."
10:34
This is the Silicon규소 Valley골짜기 version번역
212
622116
1620
실리콘 밸리 식으로
표현하면 이런 뜻이죠.
10:35
of "don't worry걱정 your
pretty예쁜 little head머리 about it."
213
623760
2376
"그 쬐그만 머리로 걱정하지 마세요."
10:38
(Laughter웃음)
214
626160
1336
(웃음)
10:39
No one seems~ 같다 to notice주의
215
627520
1896
아무도 모르는 것 같습니다.
10:41
that referencing참조 the time horizon수평선
216
629440
2616
시간의 축을 말하는 게
완전히 잘못된 결론인 것을
10:44
is a total합계 non sequitur연속체.
217
632080
2576
지능이 그저 정보처리하는 문제라면
10:46
If intelligence지성 is just a matter문제
of information정보 processing가공,
218
634680
3256
10:49
and we continue잇다 to improve돌리다 our machines기계들,
219
637960
2656
우리는 기계를 계속 향상시킬 것이고
10:52
we will produce생기게 하다
some form형태 of superintelligence슈퍼 인텔리전스.
220
640640
2880
초지능의 형태를 만들게 될 겁니다.
10:56
And we have no idea생각
how long it will take us
221
644320
3656
그것을 안전하게 할 조건을 만들려면
얼마나 걸릴지 우린 모릅니다.
11:00
to create몹시 떠들어 대다 the conditions정황
to do that safely안전하게.
222
648000
2400
11:04
Let me say that again.
223
652200
1296
다시 말씀드리죠.
11:05
We have no idea생각 how long it will take us
224
653520
3816
그걸 안전하게 할 조건을 만드는 게
얼마나 걸릴지 우리는 모른다고요.
11:09
to create몹시 떠들어 대다 the conditions정황
to do that safely안전하게.
225
657360
2240
11:12
And if you haven't~하지 않았다. noticed알아 차 렸던,
50 years연령 is not what it used to be.
226
660920
3456
잘 모르신다면, 지금의 50년은
과거와 같은 시간이 아닙니다.
11:16
This is 50 years연령 in months개월.
227
664400
2456
몇 개월이 50년과 마찬가지죠.
11:18
This is how long we've우리는 had the iPhoneiPhone.
228
666880
1840
아이폰을 갖기까지 그만큼 걸렸습니다.
11:21
This is how long "The Simpsons심슨 가족"
has been on television텔레비전.
229
669440
2600
심슨가족이 TV로
방영되는 데 걸린 시간입니다.
11:24
Fifty오십 years연령 is not that much time
230
672680
2376
50년이란 그리 많은 시간이 아닙니다.
11:27
to meet만나다 one of the greatest가장 큰 challenges도전
our species will ever face얼굴.
231
675080
3160
우리 인류가 당면한
최고의 난제를 만나는데요.
11:31
Once일단 again, we seem보다 to be failing실패
to have an appropriate적당한 emotional정서적 인 response응답
232
679640
4016
다시, 우리는 제대로 된 감정적 반응을
못하고 있는 것 같습니다.
11:35
to what we have every...마다 reason이유
to believe is coming오는.
233
683680
2696
앞으로 벌어질 거라고
생각하는 것들에 대해서요.
11:38
The computer컴퓨터 scientist과학자 Stuart스튜어트 Russell러셀
has a nice좋은 analogy유추 here.
234
686400
3976
컴퓨터공학자 스튜어트 러셀이
멋진 비유를 들었습니다.
11:42
He said, imagine상상하다 that we received받은
a message메시지 from an alien외계인 civilization문명,
235
690400
4896
외계문명이 보낸 메세지를
받았다고 상상해 보는 겁니다.
11:47
which어느 read독서:
236
695320
1696
이런 내용의 메세지죠.
11:49
"People of Earth지구,
237
697040
1536
"지구인들이여
11:50
we will arrive태어나다 on your planet행성 in 50 years연령.
238
698600
2360
우리는 50년 후에
지구에 도착할 것이다.
11:53
Get ready준비된."
239
701800
1576
이에 준비하라."
11:55
And now we're just counting세는 down
the months개월 until...까지 the mothership모선 lands?
240
703400
4256
그럼 외계 우주선이 도착할
때까지 날짜만 세는 겁니까?
11:59
We would feel a little
more urgency긴급 than we do.
241
707680
3000
그것보다는 좀더 위급함을 느껴야죠.
12:04
Another다른 reason이유 we're told not to worry걱정
242
712680
1856
우리에게 걱정말라는 다른 이유는
12:06
is that these machines기계들
can't help but share our values
243
714560
3016
이런 기계들은 우리의 가치를
공유할 수밖에 없다는 겁니다.
12:09
because they will be literally말 그대로
extensions확장 of ourselves우리 스스로.
244
717600
2616
말 그대로 우리의 연장선이니까요.
12:12
They'll그들은 할 것이다 be grafted접목 된 onto~에 our brains두뇌,
245
720240
1816
기계들은 우리 뇌에 이식될테고
12:14
and we'll essentially본질적으로
become지다 their그들의 limbic변연 systems시스템.
246
722080
2360
우리는 본질적으로 그들의
감정 표현 시스템으로 전락하겠죠.
12:17
Now take a moment순간 to consider중히 여기다
247
725120
1416
한 번 생각해 보세요.
12:18
that the safest가장 안전한
and only prudent신중한 path통로 forward앞으로,
248
726560
3176
가장 안전하고 현명한 방법을 추천하자면
12:21
recommended추천 된,
249
729760
1336
12:23
is to implant끼워 넣다 this technology과학 기술
directly직접 into our brains두뇌.
250
731120
2800
이 기술을 우리 뇌에
직접 이식하는 겁니다.
12:26
Now, this may할 수있다 in fact be the safest가장 안전한
and only prudent신중한 path통로 forward앞으로,
251
734600
3376
앞으로 할 수 있는 가장
안전하고 현명한 방법이겠지만
12:30
but usually보통 one's사람의 safety안전 concerns우려
about a technology과학 기술
252
738000
3056
기술의 안전성에 대한 우려는 보통
12:33
have to be pretty예쁜 much worked일한 out
before you stick스틱 it inside내부 your head머리.
253
741080
3656
머릿속에서 꽂아 보기
전에 해야 할 일이죠.
12:36
(Laughter웃음)
254
744760
2016
(웃음)
12:38
The deeper더 깊은 problem문제 is that
building건물 superintelligent지능 AIAI on its own개인적인
255
746800
5336
좀 더 심오한 문제는
초지능의 AI를 만드는 것 자체가
12:44
seems~ 같다 likely아마도 to be easier더 쉬운
256
752160
1736
오히려 더 쉽다는 거에요.
12:45
than building건물 superintelligent지능 AIAI
257
753920
1856
초지능 AI를 만들고
12:47
and having the completed완료된 neuroscience신경 과학
258
755800
1776
완전한 신경과학이 있어서
12:49
that allows허락하다 us to seamlessly완벽하게
integrate통합하다 our minds마음 with it.
259
757600
2680
우리의 정신을 AI와 매끄럽게
접목시키는 것에 비해서 말이죠.
12:52
And given주어진 that the companies회사들
and governments정부 doing this work
260
760800
3176
기업과 정부가 이 일을 하고 있음을 보면
12:56
are likely아마도 to perceive지각하다 themselves그들 자신
as being존재 in a race경주 against반대 all others다른 사람,
261
764000
3656
다른 종에 대항하는 존재임을
스스로 인지할 가능성이 있습니다.
12:59
given주어진 that to win승리 this race경주
is to win승리 the world세계,
262
767680
3256
이 경쟁에서 이기는 것이 세상을
이기는 것이라고 한다면요.
13:02
provided제공된 you don't destroy멸하다 it
in the next다음 것 moment순간,
263
770960
2456
그것을 바로 파괴하지 않는다면
13:05
then it seems~ 같다 likely아마도
that whatever도대체 무엇이 is easier더 쉬운 to do
264
773440
2616
가장 쉬운 일을 가장 먼저
할 가능성이 있을 겁니다.
13:08
will get done끝난 first.
265
776080
1200
13:10
Now, unfortunately운수 나쁘게,
I don't have a solution해결책 to this problem문제,
266
778560
2856
안타깝게도 저는 이 문제에
대한 해법은 없습니다.
13:13
apart떨어져서 from recommending추천하는
that more of us think about it.
267
781440
2616
좀 더 생각해 보자고
하는 것 빼고는요.
13:16
I think we need something
like a Manhattan맨해튼 Project계획
268
784080
2376
맨하탄 프로젝트 같은 것이 있어서
13:18
on the topic이야기 of artificial인공의 intelligence지성.
269
786480
2016
AI에 대한 연구를 해야
되지 않을까 싶습니다.
13:20
Not to build짓다 it, because I think
we'll inevitably필연적으로 do that,
270
788520
2736
만들기 위해서가 아니라,
필연적으로 하게 될테니까
13:23
but to understand알다
how to avoid기피 an arms무기 race경주
271
791280
3336
군비경쟁을 피할 방법을 알고
13:26
and to build짓다 it in a way
that is aligned정렬 된 with our interests이해.
272
794640
3496
우리의 관심과 맞출 수
있는 방법을 찾기 위해서죠.
13:30
When you're talking말하는
about superintelligent지능 AIAI
273
798160
2136
스스로 변할 수 있는
초지능 AI를 말할 때는
13:32
that can make changes변화들 to itself그 자체,
274
800320
2256
13:34
it seems~ 같다 that we only have one chance기회
to get the initial머리 글자 conditions정황 right,
275
802600
4616
첫 출발을 제대로 할 수 있는
기회는 단 한 번뿐인 것 같습니다.
13:39
and even then we will need to absorb없애다
276
807240
2056
그때도 우리는
13:41
the economic간결한 and political주재관
consequences결과 of getting점점 them right.
277
809320
3040
제대로 하기 위한 정치 경제적
결과를 감내해야 할 겁니다.
13:45
But the moment순간 we admit들이다
278
813760
2056
하지만 우리가 인정하는 순간
13:47
that information정보 processing가공
is the source출처 of intelligence지성,
279
815840
4000
정보처리가 지능의 원천이고
13:52
that some appropriate적당한 computational전산의 system체계
is what the basis기초 of intelligence지성 is,
280
820720
4800
적정 연산 체계가 지능의
기본이라고 하는 순간
13:58
and we admit들이다 that we will improve돌리다
these systems시스템 continuously연방,
281
826360
3760
이 체계를 계속 발전시켜
나갈 것임을 인정하는 것이며
14:03
and we admit들이다 that the horizon수평선
of cognition인식 very likely아마도 far멀리 exceeds초과하다
282
831280
4456
우리가 현재 아는 인지의 한계를 훨씬
뛰어넘게 될 것임을 인정하는 겁니다.
14:07
what we currently현재 know,
283
835760
1200
14:10
then we have to admit들이다
284
838120
1216
그럼 우리는
14:11
that we are in the process방법
of building건물 some sort종류 of god.
285
839360
2640
어떤 신적 존재를 구축하고
있음을 인정해야 합니다.
14:15
Now would be a good time
286
843400
1576
지금이야말로 신이 우리와 함께 할 수
있음을 확신하기 좋은 때이겠네요.
14:17
to make sure it's a god we can live살고 있다 with.
287
845000
1953
14:20
Thank you very much.
288
848120
1536
대단히 감사합니다.
14:21
(Applause박수 갈채)
289
849680
5093
(박수)
Translated by Jihyeon J. Kim
Reviewed by JY Kang

▲Back to top

ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com