ABOUT THE SPEAKER
Daniel Susskind - Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society.

Why you should listen

Daniel Susskind is the co-author, with Richard Susskind, of the best-selling book, The Future of the Professions, and a Fellow in Economics at Balliol College, Oxford University. He is currently finishing his latest book, on the future of work. Previously, he worked in the British Government -- as a policy adviser in the Prime Minister's Strategy Unit, as a policy analyst in the Policy Unit in 10 Downing Street, and as a senior policy adviser in the Cabinet Office. Susskind received a doctorate in economics from Oxford University and was a Kennedy Scholar at Harvard University.

More profile about the speaker
Daniel Susskind | Speaker | TED.com
TED@Merck KGaA, Darmstadt, Germany

Daniel Susskind: 3 myths about the future of work (and why they're not true)

다니엘 서스킨드(Daniel Susskind): 직업의 미래에 대한 세 가지 미신 (그리고 그것이 사실이 아닌 이유)

Filmed:
1,519,249 views

"기계가 인간을 대체할 것인가?"라는 질문은 실업의 두려움을 느끼는 직장인이라면 누구나 갖고 있습니다. 다니엘 서스킨드는 이 질문에 답하면서 자동화의 미래에 대해 우리가 갖고 있는 세 가지 잘못된 통념을 지적합니다. 그리고 "일을 적게 해도 되거나 아예 할 필요가 없어질 때, 우리 사회는 부를 어떻게 분배해야 할까?"라는 이전과 다른 문제에 의문을 가져보라고 제안합니다.
- Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society. Full bio

Double-click the English transcript below to play the video.

00:12
Automation오토메이션 anxiety걱정
has been spreading퍼짐 lately최근,
0
760
3376
최근들어 자동화에 대한
우려의 목소리가 커지고 있습니다.
00:16
a fear무서움 that in the future미래,
1
4160
2656
미래에 대한 두려움이죠.
00:18
many많은 jobs일자리 will be performed수행 한 by machines기계들
2
6840
2456
많은 직업 분야에서 로봇이
인간을 대체하게 될 것이고
00:21
rather차라리 than human인간의 beings존재들,
3
9320
1336
00:22
given주어진 the remarkable주목할 만한 advances발전하다
that are unfolding펼쳐지는
4
10680
2936
그것은 인공지능과 로봇 기술의
엄청난 발전 때문이라는 것입니다.
00:25
in artificial인공의 intelligence지성 and robotics로봇 공학.
5
13640
2776
00:28
What's clear명확한 is that
there will be significant중요한 change변화.
6
16440
2816
엄청난 변화가 있을 것은 분명합니다.
00:31
What's less적게 clear명확한
is what that change변화 will look like.
7
19280
3616
다만 그 변화의 모습이
어떨지는 분명하지 않죠.
00:34
My research연구 suggests제안 that the future미래
is both양자 모두 troubling문제가되는 and exciting흥미 진진한.
8
22920
4936
제 연구에 따르면 미래는
힘들지만 흥미로울 것입니다.
00:39
The threat위협 of technological기술적 인
unemployment실업 is real레알,
9
27880
3736
기술 발전으로 인해
직장을 잃을 위험은 있지만,
00:43
and yet아직 it's a good problem문제 to have.
10
31640
2056
이 문제는 우리에게 즐거운 일입니다.
00:45
And to explain설명
how I came왔다 to that conclusion결론,
11
33720
3216
어떻게 이런 결론을 얻었는지
말씀드리기 위해서
00:48
I want to confront대치하다 three myths신화
12
36960
2536
세 가지 미신을 반박하고자 합니다.
00:51
that I think are currently현재 obscuring애매한
our vision시력 of this automated자동화 된 future미래.
13
39520
4280
자동화의 미래를 이해하는 데에
걸림돌이 되는 미신들이죠.
00:56
A picture그림 that we see
on our television텔레비전 screens스크린,
14
44880
2336
책이나 영화, 텔레비전 방송에서
쉽게 볼 수 있는 장면이 하나 있죠.
00:59
in books서적, in films영화, in everyday매일 commentary해설
15
47240
2216
01:01
is one where an army육군 of robots로봇
descends강하하다 on the workplace직장
16
49480
3696
한 무리의 로봇이 작업장에 몰려듭니다.
01:05
with one goal in mind마음:
17
53200
1376
그들에겐 한 가지 목표가 있죠.
01:06
to displace바꾸어 놓다 human인간의 beings존재들 from their그들의 work.
18
54600
2496
그것은 바로 인간의 일자리를
빼앗겠다는 것입니다.
01:09
And I call this the Terminator터미네이터 myth신화.
19
57120
2696
이런 잘못된 생각을 저는
터미네이터 미신이라고 부릅니다.
01:11
Yes, machines기계들 displace바꾸어 놓다
human인간의 beings존재들 from particular특별한 tasks과제,
20
59840
3976
물론, 특정 업무는 기계가
인간을 대체할 것입니다.
01:15
but they don't just
substitute대용품 for human인간의 beings존재들.
21
63840
2256
하지만 완전히 인간을 대신할 순 없죠.
01:18
They also또한 complement보어 them in other tasks과제,
22
66120
1976
일부분 서로 보완함으로써
보다 가치있고 중요한 일을
할 수 있을 것입니다.
01:20
making만들기 that work more valuable가치 있는
and more important중대한.
23
68120
3616
01:23
Sometimes때때로 they complement보어
human인간의 beings존재들 directly직접,
24
71760
3336
우선 로봇은 직접적인 방식으로
인간을 도울 수 있습니다.
01:27
making만들기 them more productive생산적인
or more efficient실력 있는 at a particular특별한 task태스크.
25
75120
4016
더 생산적이고 효과적으로
일할 수 있도록 말이죠.
01:31
So a taxi택시 driver운전사 can use a satnavsatnav system체계
to navigate항해하다 on unfamiliar생소한 roads도로.
26
79160
4616
택시 운전사는 위성항법의 도움으로
낯선 도로에서 길을 찾을 수 있습니다.
01:35
An architect건축가 can use
computer-assisted컴퓨터 보조 design디자인 software소프트웨어
27
83800
3336
건축가는 컴퓨터 디자인
프로그램을 이용해
01:39
to design디자인 bigger더 큰,
more complicated복잡한 buildings건물.
28
87160
3096
더 크고 복잡한 건물을
디자인할 수 있습니다.
01:42
But technological기술적 인 progress진행 doesn't
just complement보어 human인간의 beings존재들 directly직접.
29
90280
3696
하지만 기술의 진보가 직접적 방식으로만
인간을 돕는 것은 아닙니다.
01:46
It also또한 complements보완 them indirectly간접적으로,
and it does this in two ways.
30
94000
3336
간접적 방식으로 도울 수도 있죠.
여기엔 두 가지 방식이 있습니다.
01:49
The first is if we think
of the economy경제 as a pie파이,
31
97360
3336
첫 번째로, 경제를 파이에 비유해보면
01:52
technological기술적 인 progress진행
makes~을 만든다 the pie파이 bigger더 큰.
32
100720
2896
기술의 진보는
파이를 더 크게 만듭니다.
01:55
As productivity생산력 increases증가,
incomes소득 rise오르기 and demand수요 grows자라다.
33
103640
3856
생산성이 커지면서
소득과 수요가 증가하죠.
01:59
The British영국인 pie파이, for instance,
34
107520
1776
영국의 경제를 예로 들면
02:01
is more than a hundred times타임스
the size크기 it was 300 years연령 ago...전에.
35
109320
3960
3백년 전보다 100배 넘게
성장했습니다.
02:05
And so people displaced실향민
from tasks과제 in the old늙은 pie파이
36
113920
3216
그래서 예전 파이에서
일자리를 잃은 사람들은
02:09
could find tasks과제 to do
in the new새로운 pie파이 instead대신에.
37
117160
2720
새로운 파이에서 일거리를
새로 찾을 수 있었죠.
02:12
But technological기술적 인 progress진행
doesn't just make the pie파이 bigger더 큰.
38
120800
3936
하지만 기술의 진보는 단순히
파이를 크게만 하지 않습니다.
02:16
It also또한 changes변화들
the ingredients성분 in the pie파이.
39
124760
2856
파이의 성분 또한 바꿔 놓습니다.
02:19
As time passes통과, people spend보내
their그들의 income수입 in different다른 ways,
40
127640
3456
시간이 흐르면서 사람들의
소비 방식이 변화했습니다.
02:23
changing작고 보기 흉한 사람 how they spread전파 it
across건너서 existing기존의 goods상품,
41
131120
2816
기존 상품에 지출하는
금액을 조절하고,
02:25
and developing개발 중 tastes취향
for entirely전적으로 new새로운 goods상품, too.
42
133960
3216
새롭게 등장한 상품에
빠지기 시작했죠.
02:29
New새로운 industries산업 are created만들어진,
43
137200
1776
새로운 산업이 등장하고,
새로운 업무가 생겼습니다.
02:31
new새로운 tasks과제 have to be done끝난
44
139000
1816
02:32
and that means방법 often자주
new새로운 roles역할 have to be filled채우는.
45
140840
2536
결국 새로운 일자리가
만들어진다는 것이죠.
02:35
So again, the British영국인 pie파이:
46
143400
1496
다시 영국 경제를 예로 들면,
02:36
300 years연령 ago...전에,
most가장 people worked일한 on farms전원,
47
144920
2976
3백년 전에는 대부분
농장에서 일했습니다.
02:39
150 years연령 ago...전에, in factories공장,
48
147920
2336
150년 전에는 공장에서 일했죠.
02:42
and today오늘, most가장 people work in offices진력.
49
150280
2856
하지만 지금은 대부분이
사무실에서 일합니다.
02:45
And once일단 again, people displaced실향민
from tasks과제 in the old늙은 bit비트 of pie파이
50
153160
4056
역시 마찬가지로, 예전 파이에서
일거리를 잃은 사람들은
02:49
could tumble공중제비 into tasks과제
in the new새로운 bit비트 of pie파이 instead대신에.
51
157240
2800
새로운 파이에서 대신할 만한
일거리를 쉽게 찾을 수 있었죠.
02:52
Economists경제학자 call these effects효과
complementaritiescomplementarities,
52
160720
3336
경제학자들은 이를
'상보성 효과'라고 부릅니다.
02:56
but really that's just a fancy공상 word워드
to capture포착 the different다른 way
53
164080
3256
뭔가 있어보이는 표현이지만,
이 용어에 담긴 뜻은
02:59
that technological기술적 인 progress진행
helps도움이된다. human인간의 beings존재들.
54
167360
3136
기술의 진보가 인간을
돕는다는 걸 말합니다.
03:02
Resolving해결 this Terminator터미네이터 myth신화
55
170520
2096
터미네이터 미신을 들여다보면
03:04
shows us that there are
two forces at play놀이:
56
172640
2336
거기에 작용하는
두 가지 힘을 발견하게 됩니다.
03:07
one, machine기계 substitution치환
that harms해악 workers노동자,
57
175000
3536
하나는, 기계가 인간을
대신하려 위협하는 힘이고
03:10
but also또한 these complementaritiescomplementarities
that do the opposite반대말.
58
178560
2880
다른 하나는 상보성 효과로
새로운 일자리를 만드는 힘입니다.
03:13
Now the second둘째 myth신화,
59
181960
1376
이제 두 번째 미신을 살펴보죠.
바로, 지능에 관한 미신입니다.
03:15
what I call the intelligence지성 myth신화.
60
183360
2280
03:18
What do the tasks과제 of driving운전 a car,
making만들기 a medical의료 diagnosis진단
61
186440
4896
차를 운전하거나
의학 진단을 내리는 일,
03:23
and identifying식별 a bird
at a fleeting일시적 glimpse일견 have in common공유지?
62
191360
2920
새의 종류를 한 눈에 식별하는 일,
이들의 공통점이 뭘까요?
03:27
Well, these are all tasks과제
that until...까지 very recently요새,
63
195280
2976
네, 이들은 모두 최근까지도
쉽게 자동화될 수 없을 거라고
03:30
leading주요한 economists경제학자 thought
couldn't할 수 없었다 readily손쉽게 be automated자동화 된.
64
198280
3336
저명한 경제학자들이
생각한 일들입니다.
03:33
And yet아직 today오늘, all of these tasks과제
can be automated자동화 된.
65
201640
3176
하지만 지금은 모두 자동화되었죠.
03:36
You know, all major주요한 car manufacturers제조업 자
have driverless운전자가없는 car programs프로그램들.
66
204840
3496
주요 자동차 회사들이
무인자동차를 개발하고 있고,
03:40
There's countless셀 수 없는 systems시스템 out there
that can diagnose진단하다 medical의료 problems문제들.
67
208360
3976
질병을 진단해주는 다양한
시스템이 이미 널려있습니다.
03:44
And there's even an app
that can identify식별하다 a bird
68
212360
2416
심지어는 한번에 새의 종류를
식별해주는 앱도 있습니다.
03:46
at a fleeting일시적 glimpse일견.
69
214800
1200
03:48
Now, this wasn't아니었다. simply간단히 a case케이스 of bad나쁜 luck
on the part부품 of economists경제학자.
70
216920
4376
경제학자들이 단순히 운이 나빠
예측이 틀린 것이 아닙니다.
03:53
They were wrong잘못된,
71
221320
1296
오판했던 것이죠.
03:54
and the reason이유 why
they were wrong잘못된 is very important중대한.
72
222640
2496
여기서 중요한 건 그들이
오판하게 된 이유입니다.
03:57
They've그들은 fallen타락한 for the intelligence지성 myth신화,
73
225160
2256
그들은 지능에 관한 미신에
빠져 있었습니다.
03:59
the belief믿음 that machines기계들
have to copy the way
74
227440
2896
기계가 인간의 사고방식을 모방해야
인간을 능가할 거라고 믿었던 거죠.
04:02
that human인간의 beings존재들 think and reason이유
75
230360
2056
04:04
in order주문 to outperform실적이 좋다 them.
76
232440
1776
04:06
When these economists경제학자
were trying견딜 수 없는 to figure그림 out
77
234240
2216
경제학자들은 기계가 할 수 없는
일들을 예측하는 과정에서
04:08
what tasks과제 machines기계들 could not do,
78
236480
1856
04:10
they imagined상상 한 the only way
to automate자동화하다 a task태스크
79
238360
2136
자동화를 이렇게 상상했습니다.
04:12
was to sit앉다 down with a human인간의 being존재,
80
240520
1816
인간이 기계를 책상에 앉혀놓고
일의 작동방식을 설명해줍니다.
04:14
get them to explain설명 to you
how it was they performed수행 한 a task태스크,
81
242360
3536
04:17
and then try and capture포착 that explanation설명
82
245920
2656
기계가 따라 할 수 있도록
단계별로 차근차근 말이죠.
04:20
in a set세트 of instructions명령
for a machine기계 to follow따르다.
83
248600
2776
기계는 그 설명을 이해하려 애씁니다.
04:23
This view전망 was popular인기 있는 in artificial인공의
intelligence지성 at one point포인트, too.
84
251400
4176
이런 방식은 인공지능 연구에서도
한 때 유행했었습니다.
04:27
I know this because Richard리차드 Susskind사스키드,
85
255600
2176
제 아버지이자, 공동저자이기도 한
리처드 서스킨드도 이렇게 생각했죠.
04:29
who is my dad아빠 and my coauthor공저자,
86
257800
2856
04:32
wrote his doctorate박사호 in the 1980s
on artificial인공의 intelligence지성 and the law
87
260680
4056
아버지는 1980년대에 옥스포드대에서
인공지능과 법에 관한
04:36
at Oxford옥스퍼드 University대학,
88
264760
1416
박사학위 논문을 썼습니다.
04:38
and he was part부품 of the vanguard전위.
89
266200
1576
당시에는 선구적인 연구였죠.
04:39
And with a professor교수 called전화 한 PhillipPhillip Capper절정
90
267800
2256
그 후 필립 캐퍼 교수, 그리고
법 전문 출판사 버터워쓰와 함께
04:42
and a legal적법한 publisher발행자 called전화 한 ButterworthsButterworths,
91
270080
2096
04:44
they produced생산 된 the world's세계의 first
commercially상업적으로 available유효한
92
272200
5896
법 분야에서는 최초로 상용화된
인공지능 시스템을 개발했습니다.
04:50
artificial인공의 intelligence지성 system체계 in the law.
93
278120
2776
04:52
This was the home screen화면 design디자인.
94
280920
2616
이것이 그 시스템의
첫 메인 화면인데요.
04:55
He assures보증하다 me this was
a cool시원한 screen화면 design디자인 at the time.
95
283560
2696
아버지 말이, 당시에는 끝내주는
디자인이었다고 하시더군요.
04:58
(Laughter웃음)
96
286280
1016
(웃음)
04:59
I've never been entirely전적으로 convinced납득시키다.
97
287320
1696
저도 그 말을 믿지는 않았습니다.
05:01
He published출판 된 it
in the form형태 of two floppy기운 없는 disks디스크,
98
289040
2616
프로그램은 두 장의
플로피 디스크에 담겨 출시되었는데
05:03
at a time where floppy기운 없는 disks디스크
genuinely진정으로 were floppy기운 없는,
99
291680
3536
당시 플로피 디스크는 정말 느렸죠.
05:07
and his approach접근 was the same같은
as the economists'경제학자 ':
100
295240
2336
아버지의 접근방식은
경제학자들과 똑같았습니다.
법률가와 마주 앉아서, 법률 문제의
해결 과정에 관한 설명을 듣는 겁니다.
05:09
sit앉다 down with a lawyer변호사,
101
297600
1256
05:10
get her to explain설명 to you
how it was she solved해결 된 a legal적법한 problem문제,
102
298880
3176
05:14
and then try and capture포착 that explanation설명
in a set세트 of rules규칙들 for a machine기계 to follow따르다.
103
302080
5376
그러면서 기계가 따라할 수 있도록
일련의 규칙으로 정리하였습니다.
05:19
In economics경제학, if human인간의 beings존재들
could explain설명 themselves그들 자신 in this way,
104
307480
3616
경제학에서는 이렇게 설명할 수 있는
인간의 업무를 '루틴'이라고 합니다.
05:23
the tasks과제 are called전화 한 routine루틴,
and they could be automated자동화 된.
105
311120
3296
루틴은 자동화할 수 있죠.
05:26
But if human인간의 beings존재들
can't explain설명 themselves그들 자신,
106
314440
2336
반면에 이런 방식으로 설명이 안되면
'논루틴'이라고 합니다.
05:28
the tasks과제 are called전화 한 non-routine비 일상적인,
and they're thought to be out reach범위.
107
316800
4256
자동화할 수 없다고 여겨지는 것들이죠.
05:33
Today오늘, that routine-nonroutine일과-nonroutine
distinction구별 is widespread펼친.
108
321080
3296
오늘날, 루틴과 논루틴으로 구별하는
방식은 널리 퍼져있습니다.
05:36
Think how often자주 you hear듣다 people say to you
109
324400
2056
이런 얘기 자주 들어보셨을 거예요.
05:38
machines기계들 can only perform행하다 tasks과제
that are predictable예측할 수있는 or repetitive반복적 인,
110
326480
3256
기계는 규칙에 따라 정해진, 잘 정리된
반복 작업만 할 수 있다고들 말합니다.
05:41
rules-based규칙 기반 or well-defined잘 정의 된.
111
329760
1896
05:43
Those are all just
different다른 words for routine루틴.
112
331680
2936
이런 말들은 루틴을 그저
달리 표현한 것일 뿐입니다.
05:46
And go back to those three cases사례
that I mentioned말하는 at the start스타트.
113
334640
3976
제가 처음에 말했던
세 가지 일로 돌아가보죠.
05:50
Those are all classic권위 있는 cases사례
of nonroutinenonroutine tasks과제.
114
338640
2896
세 가지 일 모두 전형적인
논루틴 업무에 속합니다.
05:53
Ask청하다 a doctor의사, for instance,
how she makes~을 만든다 a medical의료 diagnosis진단,
115
341560
2976
예를 들어, 의사에게
어떻게 진찰을 하냐고 묻는다면
05:56
and she might be able할 수 있는
to give you a few조금 rules규칙들 of thumb무지,
116
344560
2656
경험에 따른 몇 가지 규칙을
어림잡아 말할 수는 있겠지만
05:59
but ultimately궁극적으로 she'd흘리다 struggle노력.
117
347240
1656
명확하게 말하기는 힘들 겁니다.
06:00
She'd흘리다 say it requires요구하다 things like
creativity독창성 and judgment심판 and intuition직관.
118
348920
4816
창의성이나 직관적인 판단력이
필요한 일이라고 말하겠죠.
06:05
And these things are
very difficult어려운 to articulate명확히하다,
119
353760
2376
그런 일을 명확하게 설명하기 어렵다보니
자동화도 힘들 거라고 생각했을 겁니다.
06:08
and so it was thought these tasks과제
would be very hard단단한 to automate자동화하다.
120
356160
3096
06:11
If a human인간의 being존재 can't explain설명 themselves그들 자신,
121
359280
2536
인간이 자신에게도 설명하지 못하는데
06:13
where on earth지구 do we begin시작하다
in writing쓰기 a set세트 of instructions명령
122
361840
2896
기계가 따라 할 수 있는 일련의 규칙을
만드는 것이 가능할 리가 있을까요?
06:16
for a machine기계 to follow따르다?
123
364760
1200
06:18
Thirty서른 years연령 ago...전에, this view전망 was right,
124
366640
2576
30년 전만 해도
이런 생각은 옳았습니다.
06:21
but today오늘 it's looking shaky흔들리는,
125
369240
2136
하지만 오늘날에는 조금 흔들리고 있고,
미래에는 완전히 틀린 얘기가 될 겁니다.
06:23
and in the future미래
it's simply간단히 going to be wrong잘못된.
126
371400
2256
06:25
Advances발전 in processing가공 power,
in data데이터 storage저장 capability능력
127
373680
3256
데이터 처리 능력과 저장 능력,
알고리즘 설계의 발전에 힘입어
06:28
and in algorithm연산 design디자인
128
376960
1656
06:30
mean that this
routine-nonroutine일과-nonroutine distinction구별
129
378640
2496
루틴과 논루틴의 구별은 점차
의미를 잃어가고 있습니다.
06:33
is diminishinglydiminishingly useful유능한.
130
381160
1736
06:34
To see this, go back to the case케이스
of making만들기 a medical의료 diagnosis진단.
131
382920
3256
의료 진료의 경우를 다시 보면서
이를 살펴보겠습니다.
06:38
Earlier일찍이 in the year,
132
386200
1376
올해 초,
06:39
a team of researchers연구원 at Stanford스탠포드
announced발표하다 they'd그들은 developed개발 된 a system체계
133
387600
3296
스탠포드 대학의 한 연구진이
어떤 시스템을 개발했다고 발표했습니다.
06:42
which어느 can tell you
whether인지 어떤지 or not a freckle is cancerous암이있는
134
390920
3056
주근깨가 피부암인지 아닌지
판단해주는 시스템이었죠.
06:46
as accurately정확히 as leading주요한 dermatologists피부과 의사.
135
394000
2680
일류 피부과 의사 만큼 정확하게 말이죠.
06:49
How does it work?
136
397280
1256
이런 일이 어떻게 가능할까요?
06:50
It's not trying견딜 수 없는 to copy the judgment심판
or the intuition직관 of a doctor의사.
137
398560
5296
의사의 판단이나 직관을
모방한 것은 아닙니다.
06:55
It knows알고있다 or understands이해하다
nothing about medicine의학 at all.
138
403880
3136
시스템은 의학이라고는
하나도 모릅니다.
06:59
Instead대신, it's running달리는
a pattern무늬 recognition인식 algorithm연산
139
407040
2576
대신 패턴 인식 알고리즘을 이용해
07:01
through...을 통하여 129,450 past과거 cases사례,
140
409640
4656
129,450 개의 진료 기록으로부터
유사성을 찾으며 검토하고
07:06
hunting수렵 for similarities유사점
between중에서 those cases사례
141
414320
3096
07:09
and the particular특별한 lesion장애 in question문제.
142
417440
2080
특정 피부 손상을 찾아냅니다.
07:12
It's performing실행할 수 있는 these tasks과제
in an unhumanunhuman way,
143
420080
3216
시스템은 이처럼 인간과는
다른 방식으로 일을 합니다.
07:15
based기반 on the analysis분석
of more possible가능한 cases사례
144
423320
2336
인간이라면 평생 검토해도 불가능한 양의
진료기록을 순식간에 분석해서 말이죠.
07:17
than any doctor의사 could hope기대
to review리뷰 in their그들의 lifetime일생.
145
425680
2616
인간이 어떻게 의료적 판단을 하는지
설명하지 못해도 이제 문제가 안됩니다.
07:20
It didn't matter문제 that that human인간의 being존재,
146
428320
1896
07:22
that doctor의사, couldn't할 수 없었다 explain설명
how she'd흘리다 performed수행 한 the task태스크.
147
430240
2800
07:25
Now, there are those
who dwell살다 upon...에 that the fact
148
433640
2336
기계가 인간을 모방할 필요가 없다는
사실을 보여주는 사례는 또 있습니다.
07:28
that these machines기계들
aren't있지 않다. built세워짐 in our image영상.
149
436000
2296
07:30
As an example, take IBM'sIBM Watson왓슨,
150
438320
2056
IBM의 왓슨을 예로들면
07:32
the supercomputer수퍼 컴퓨터 that went갔다
on the US quiz놀리다 show보여 주다 "Jeopardy위험!" in 2011,
151
440400
4856
슈퍼 컴퓨터 왓슨은 2011년
퀴즈쇼 "제퍼디!"에 출연했습니다.
07:37
and it beat박자 the two
human인간의 champions챔피언 at "Jeopardy위험!"
152
445280
3016
거기서 인간 우승자 두 명을
상대로 승리했죠.
07:40
The day after it won,
153
448320
1696
승리한 다음 날에
07:42
The Wall Street거리 Journal일지 ran달렸다 a piece조각
by the philosopher철학자 John남자 SearleSearle
154
450040
3296
철학자 존 설이 쓴 짧은 기사 하나가
월 스트리트 저널에 실렸습니다.
07:45
with the title표제 "Watson왓슨
Doesn't Know It Won on 'Jeopardy'위험!'"
155
453360
3376
제목은 이렇습니다. "왓슨은 자신이
'제퍼디!'에서 승리한 줄도 모른다."
07:48
Right, and it's brilliant훌륭한, and it's true참된.
156
456760
1976
맞아요. 재치있게 사실을 잘 말했죠.
왓슨은 기쁨의 함성을
지르지 않았습니다.
07:50
You know, Watson왓슨 didn't
let out a cry울음 소리 of excitement흥분.
157
458760
2456
자신의 업적에 뿌듯해하며
부모님을 부르지도 않았고,
07:53
It didn't call up its parents부모님
to say what a good job it had done끝난.
158
461240
3096
축하주를 마시기 위해
술집에도 가지 않았습니다.
07:56
It didn't go down to the pub선술집 for a drink음주.
159
464360
2336
07:58
This system체계 wasn't아니었다. trying견딜 수 없는 to copy the way
that those human인간의 contestants참가자 played연주 한,
160
466720
4456
왓슨은 인간 경쟁자들이 문제를
푸는 방식을 모방하지 않았습니다.
08:03
but it didn't matter문제.
161
471200
1256
전혀 불필요했거든요.
08:04
It still outperformed실적이 좋은 them.
162
472480
1976
그럼에도 왓슨은 인간을 이겼습니다.
08:06
Resolving해결 the intelligence지성 myth신화
163
474480
1576
지능 미신을 반박하다 보면
08:08
shows us that our limited제한된 understanding이해
about human인간의 intelligence지성,
164
476080
3376
인간의 사고와 추론 방식 등의
인간 지능에 대한 이해 부족이
08:11
about how we think and reason이유,
165
479480
1896
08:13
is far멀리 less적게 of a constraint강제
on automation오토메이션 than it was in the past과거.
166
481400
3456
예전처럼 자동화의 걸림돌이 되지
않는다는 것을 알 수 있습니다.
08:16
What's more, as we've우리는 seen,
167
484880
1496
게다가, 이미 보았듯이
08:18
when these machines기계들
perform행하다 tasks과제 differently다르게 to human인간의 beings존재들,
168
486400
3416
기계는 인간과 다른 방식으로
일을 처리하기 때문에
08:21
there's no reason이유 to think
169
489840
1256
현재 인간이 가진 능력을
08:23
that what human인간의 beings존재들
are currently현재 capable유능한 of doing
170
491120
2536
미래에 기계가 넘지 못할 거라고
보기도 어렵습니다.
08:25
represents대표하다 any sort종류 of summit정상 회담
171
493680
1456
08:27
in what these machines기계들
might be capable유능한 of doing in the future미래.
172
495160
3000
08:31
Now the third제삼 myth신화,
173
499040
1256
이제 세 번째 미신입니다.
08:32
what I call the superiority우월 myth신화.
174
500320
2456
우월성에 관한 미신인데요.
08:34
It's often자주 said that those who forget잊다
175
502800
2216
상보성 원리에 따른 기술 진보의
긍정적 측면을 간과하는 사람들은
08:37
about the helpful도움이되는 side측면
of technological기술적 인 progress진행,
176
505040
2456
08:39
those complementaritiescomplementarities from before,
177
507520
2496
한 가지 실수를 저지르곤 합니다.
08:42
are committing커밋 something
known알려진 as the lump덩어리 of labor노동 fallacy그릇된 생각.
178
510040
3040
노동 총량의 오류라고 알려진 실수죠.
08:45
Now, the problem문제 is
the lump덩어리 of labor노동 fallacy그릇된 생각
179
513840
2295
문제는 노동 총량의 오류라는 개념
자체에도 오류가 있다는 겁니다.
08:48
is itself그 자체 a fallacy그릇된 생각,
180
516159
1496
08:49
and I call this the lump덩어리
of labor노동 fallacy그릇된 생각 fallacy그릇된 생각,
181
517679
2937
그래서 저는 이걸 '노동 총량의
오류에 관한 오류'라고 합니다.
08:52
or LOLFFLOLFF, for short짧은.
182
520640
2320
줄인 용어로 'LOLFF' 라고 하죠.
08:56
Let me explain설명.
183
524000
1416
설명해드리죠.
08:57
The lump덩어리 of labor노동 fallacy그릇된 생각
is a very old늙은 idea생각.
184
525440
2136
노동 총량의 오류는
굉장히 오래된 개념입니다.
08:59
It was a British영국인 economist경제학자, David데이비드 Schloss,
who gave it this name이름 in 1892.
185
527600
4216
1892년에 데이빗 스콜로스라는
영국 경제학자가 만든 개념이죠.
09:03
He was puzzled어찌할 바를 모르는
to come across건너서 a dock worker노동자
186
531840
2816
그는 부두 노동자들에게서
당혹감을 느낀 적이 있습니다.
09:06
who had begun시작된 to use
a machine기계 to make washers와셔,
187
534680
2336
당시 부두 노동자들은 기계로
와셔를 만들기 시작했는데요.
09:09
the small작은 metal금속 discs디스크
that fasten묶다 on the end종료 of screws나사.
188
537040
3320
그건 나사를 단단히 조이도록 해주는
원판 모양의 작은 금속입니다.
09:13
And this dock worker노동자
felt펠트 guilty저지른 for being존재 more productive생산적인.
189
541000
3760
노동자들은 생산성이 높아진 것에
죄책감을 느끼고 있었습니다.
09:17
Now, most가장 of the time,
we expect배고 있다 the opposite반대말,
190
545560
2176
현재 우리는 정반대죠.
사람들은 생산성이 낮으면
죄책감을 느낍니다.
09:19
that people feel guilty저지른
for being존재 unproductive비생산적인,
191
547760
2216
페이스북이나 트위터에 너무
많은 시간을 낭비했다고 말이죠.
09:22
you know, a little too much time
on Facebook페이스 북 or Twitter지저귀다 at work.
192
550000
3016
하지만 부두 노동자들은 생산성이
높아지는 것에 죄책감을 느꼈습니다.
09:25
But this worker노동자 felt펠트 guilty저지른
for being존재 more productive생산적인,
193
553040
2536
이유를 묻자 이렇게 말했습니다.
09:27
and asked물었다 why, he said,
"I know I'm doing wrong잘못된.
194
555600
2296
"저는 잘못하고 있어요.
다른 사람 일거리를 뺏고 있잖아요."
09:29
I'm taking취득 away the work of another다른 man."
195
557920
2040
09:32
In his mind마음, there was
some fixed결정된 lump덩어리 of work
196
560760
2976
그는 일종의 정해진 노동량이
있다고 생각했던 겁니다.
09:35
to be divided각기 다른 up between중에서 him and his pals친구,
197
563760
2136
그와 그의 친구들이 나눠서 할 일 말이죠.
09:37
so that if he used
this machine기계 to do more,
198
565920
2056
그래서 자신이 기계로
더 많은 일을 하면
09:40
there'd거기 있었습니까? be less적게 left for his pals친구 to do.
199
568000
2016
자기 친구의 일거리가
줄어든다고 생각한 겁니다.
09:42
Schloss saw the mistake잘못.
200
570040
1856
스콜로스는 여기에서 오류를 찾았습니다.
노동의 총량은 정해져 있지 않거든요.
09:43
The lump덩어리 of work wasn't아니었다. fixed결정된.
201
571920
1856
09:45
As this worker노동자 used the machine기계
and became되었다 more productive생산적인,
202
573800
2816
노동자가 기계를 사용해서
점점 생산성이 높아질수록
09:48
the price가격 of washers와셔 would fall가을,
demand수요 for washers와셔 would rise오르기,
203
576640
2976
나사받이의 가격은 낮아질 것이고
수요는 증가할 것입니다.
09:51
more washers와셔 would have to be made만든,
204
579640
1696
따라서 더 많은 나사받이가 필요하고
그의 친구가 할 일도 생길 것입니다.
09:53
and there'd거기 있었습니까? be more work
for his pals친구 to do.
205
581360
2096
09:55
The lump덩어리 of work would get bigger더 큰.
206
583480
1696
노동 총량은 점점 커질겁니다.
09:57
Schloss called전화 한 this
"the lump덩어리 of labor노동 fallacy그릇된 생각."
207
585200
2680
스콜로스는 이를
'노동 총량의 오류'라고 했습니다.
10:00
And today오늘 you hear듣다 people talk
about the lump덩어리 of labor노동 fallacy그릇된 생각
208
588560
2936
오늘날 모든 직업의 미래를 전망할 때
노동 총량의 오류를 이야기하곤 합니다.
10:03
to think about the future미래
of all types유형 of work.
209
591520
2216
기계와 인간이 서로 나누어서 해야 할
일의 총량은 정해져 있지 않다고 하죠.
10:05
There's no fixed결정된 lump덩어리 of work
out there to be divided각기 다른 up
210
593760
2656
10:08
between중에서 people and machines기계들.
211
596440
1376
네, 기계가 인간을 대체하면서
기존에 하던 일의 양은 줄었습니다.
10:09
Yes, machines기계들 substitute대용품 for human인간의 beings존재들,
making만들기 the original실물 lump덩어리 of work smaller더 작은,
212
597840
4656
10:14
but they also또한 complement보어 human인간의 beings존재들,
213
602520
1856
하지만 기계가 인간을 보완해주면서
10:16
and the lump덩어리 of work
gets도착 bigger더 큰 and changes변화들.
214
604400
2096
일의 총량은 점차 커지고
변화하고 있습니다.
10:19
But LOLFFLOLFF.
215
607760
1616
그런데 바로 여기에 오류가 있어요.
10:21
Here's여기에 the mistake잘못:
216
609400
1376
뭐가 틀렸는지 말씀드리죠.
10:22
it's right to think
that technological기술적 인 progress진행
217
610800
2216
기술의 진보로 일의 총량이
커진다는 생각은 맞습니다.
10:25
makes~을 만든다 the lump덩어리 of work to be done끝난 bigger더 큰.
218
613040
1976
몇몇 직업은 더 중요해지고,
새로운 직업도 생기겠죠.
10:27
Some tasks과제 become지다 more valuable가치 있는.
New새로운 tasks과제 have to be done끝난.
219
615040
3016
10:30
But it's wrong잘못된 to think that necessarily필연적으로,
220
618080
2536
하지만 잘못된 생각이 하나 있습니다.
10:32
human인간의 beings존재들 will be best베스트 placed배치 된
to perform행하다 those tasks과제.
221
620640
3256
인간이 바뀐 작업환경에 당연히
잘 적응할 거라고 생각하는 거죠.
10:35
And this is the superiority우월 myth신화.
222
623920
1616
이것이 바로 우월성 미신입니다.
10:37
Yes, the lump덩어리 of work
might get bigger더 큰 and change변화,
223
625560
3416
네. 일의 총량은 점점 커지고
변화하게 될 것입니다.
10:41
but as machines기계들 become지다 more capable유능한,
224
629000
1976
하지만 기계의 능력이 점차 발전하면서
10:43
it's likely아마도 that they'll그들은 할 것이다 take on
the extra특별한 lump덩어리 of work themselves그들 자신.
225
631000
3896
그 여분의 일마저 기계가
차지할 가능성이 높습니다.
10:46
Technological기술적 인 progress진행,
rather차라리 than complement보어 human인간의 beings존재들,
226
634920
3256
기술의 진보는 인간을 보완하기보다는
기계를 대신 보완해줄 것입니다.
10:50
complements보완 machines기계들 instead대신에.
227
638200
1880
10:52
To see this, go back
to the task태스크 of driving운전 a car.
228
640920
3016
자동차 운전의 경우를 다시 살펴보죠.
10:55
Today오늘, satnavsatnav systems시스템
directly직접 complement보어 human인간의 beings존재들.
229
643960
4096
오늘날 위성항법 시스템은
인간을 직접적으로 도와줍니다.
11:00
They make some
human인간의 beings존재들 better drivers운전사.
230
648080
2280
사람이 운전을 더 잘할 수 있게 해주죠.
11:02
But in the future미래,
231
650920
1256
하지만 미래에는 소프트웨어가
운전석의 사람을 대체할 것입니다.
11:04
software소프트웨어 is going to displace바꾸어 놓다
human인간의 beings존재들 from the driving운전 seat좌석,
232
652200
3096
그리고 위성항법 시스템은
더 이상 사람을 돕지 않고
11:07
and these satnavsatnav systems시스템,
rather차라리 than complement보어 human인간의 beings존재들,
233
655320
2936
대신 기계를 도우면서 무인 자동차의
효율성을 더욱 높이게 될 것입니다.
11:10
will simply간단히 make these
driverless운전자가없는 cars자동차 more efficient실력 있는,
234
658280
2536
11:12
helping거들기 the machines기계들 instead대신에.
235
660840
1536
11:14
Or go to those indirect간접적 인 complementaritiescomplementarities
that I mentioned말하는 as well.
236
662400
4056
이미 말씀드렸던 간접적 방식의
상보성 사례도 살펴볼까요.
11:18
The economic간결한 pie파이 may할 수있다 get larger더 큰,
237
666480
1776
경제 파이의 크기는 커지겠지만
11:20
but as machines기계들 become지다 more capable유능한,
238
668280
1736
기계의 능력이 발전함에 따라
11:22
it's possible가능한 that any new새로운 demand수요
will fall가을 on goods상품 that machines기계들,
239
670040
3143
새롭게 생기는 수요들도 모두 사람보다는
기계가 감당할 가능성이 높습니다.
11:25
rather차라리 than human인간의 beings존재들,
are best베스트 placed배치 된 to produce생기게 하다.
240
673207
2649
11:27
The economic간결한 pie파이 may할 수있다 change변화,
241
675880
1896
경제 파이는 변화하지만
11:29
but as machines기계들 become지다 more capable유능한,
242
677800
1896
기계의 능력이 발전함에 따라
11:31
it's possible가능한 that they'll그들은 할 것이다 be best베스트 placed배치 된
to do the new새로운 tasks과제 that have to be done끝난.
243
679720
4856
새로운 일거리도 기계가 모두
차지할 가능성이 높습니다.
11:36
In short짧은, demand수요 for tasks과제
isn't demand수요 for human인간의 labor노동.
244
684600
3696
한 마디로, 일에 대한 수요는
인간 노동에 대한 수요가 아닙니다.
11:40
Human인간 beings존재들 only stand to benefit이익
245
688320
1936
상보성 원리로 인간이 혜택을 보려면
인간이 주도권을 가지고 있어야 합니다.
11:42
if they retain유지하다 the upper높은 hand
in all these complemented보완 된 tasks과제,
246
690280
3816
11:46
but as machines기계들 become지다 more capable유능한,
that becomes된다 less적게 likely아마도.
247
694120
3720
하지만 기계가 점점 유능해지면서
그럴 가능성은 적어 보입니다.
11:50
So what do these three myths신화 tell us then?
248
698760
2016
그럼 이 세 가지 미신이
의미하는 바는 뭘까요?
11:52
Well, resolving해결 the Terminator터미네이터 myth신화
249
700800
1696
터미네이터 미신을 통해
11:54
shows us that the future미래 of work depends의존하다
upon...에 this balance밸런스 between중에서 two forces:
250
702520
3696
우리는 일의 미래가 두 힘의
균형에 따라 달라짐을 알았습니다.
11:58
one, machine기계 substitution치환
that harms해악 workers노동자
251
706240
3136
하나는 기계가 인간을 대체하며
일자리를 빼앗는 힘이고
12:01
but also또한 those complementaritiescomplementarities
that do the opposite반대말.
252
709400
2576
다른 하나는 인간을 도우며
일자리를 만드는 힘입니다.
12:04
And until...까지 now, this balance밸런스
has fallen타락한 in favor호의 of human인간의 beings존재들.
253
712000
4040
지금까지는 인간에게 도움이
되는 쪽으로 균형이 맞았습니다.
12:09
But resolving해결 the intelligence지성 myth신화
254
717120
1736
하지만 지능 미신을 통해
12:10
shows us that that first force,
machine기계 substitution치환,
255
718880
2496
우리는 기계가 인간을 대신하려는 힘이
점차 강해지고 있음을 알았습니다.
12:13
is gathering모임 strength.
256
721400
1296
12:14
Machines기계, of course코스, can't do everything,
257
722720
1976
물론, 기계가 모든 걸 할 순 없죠.
하지만 더 많은 일을 할 것입니다.
12:16
but they can do far멀리 more,
258
724720
1256
12:18
encroaching잠식하다 ever deeper더 깊은 into the realm왕국
of tasks과제 performed수행 한 by human인간의 beings존재들.
259
726000
4576
인간만이 할 수 있다고 여겼던
영역까지 침범하면서 말이죠.
12:22
What's more, there's no reason이유 to think
260
730600
1896
더군다나 현재 인간의 능력 정도가
기계의 한계라고 장담할 수도 없습니다.
12:24
that what human인간의 beings존재들
are currently현재 capable유능한 of
261
732520
2216
12:26
represents대표하다 any sort종류 of finishing마무리 손질 line,
262
734760
1856
일단 기계가 우리만큼 유능해지면
인간의 한계를 뛰어넘게 될 테니까요.
12:28
that machines기계들 are going
to draw무승부 to a polite공손한 stop
263
736640
2256
12:30
once일단 they're as capable유능한 as us.
264
738920
1816
12:32
Now, none없음 of this matters사안
265
740760
1536
물론, 큰 문제는 아닐 수 있습니다.
12:34
so long as those helpful도움이되는
winds바람 of complementarity상보성
266
742320
2816
상보성 원리의 긍정적 바람이
강하게만 분다면 말이죠.
12:37
blow타격 firmly단단히 enough충분히,
267
745160
1736
12:38
but resolving해결 the superiority우월 myth신화
268
746920
1936
하지만 우월성 미신을 통해
12:40
shows us that that process방법
of task태스크 encroachment잠식
269
748880
3096
기계가 인간의 영역을 침해하는 과정에서
12:44
not only strengthens강화하다
the force of machine기계 substitution치환,
270
752000
3936
인간을 대체하는 힘은 커지지만
12:47
but it wears~을 입다 down
those helpful도움이되는 complementaritiescomplementarities too.
271
755960
3336
긍정적 상보성 원리는
약화되는 것을 알게 됐습니다.
12:51
Bring가져오다 these three myths신화 together함께
272
759320
1936
이들 세 가지 미신을 동시에 놓고 보면
12:53
and I think we can capture포착 a glimpse일견
of that troubling문제가되는 future미래.
273
761280
2936
미래의 문제를 조금이나마
엿볼 수 있습니다.
기계는 점점 유능해질 것입니다.
12:56
Machines기계 continue잇다 to become지다 more capable유능한,
274
764240
2016
12:58
encroaching잠식하다 ever deeper더 깊은
on tasks과제 performed수행 한 by human인간의 beings존재들,
275
766280
3656
인간이 했던 일을 점차
대신하게 될 것입니다.
13:01
strengthening강하게 하는 것 the force
of machine기계 substitution치환,
276
769960
2576
기계가 인간을 대체하는 힘은 커지고
13:04
weakening약화 the force
of machine기계 complementarity상보성.
277
772560
3616
상보성 원리는 힘을 잃을 것입니다.
13:08
And at some point포인트, that balance밸런스
falls폭포 in favor호의 of machines기계들
278
776200
4296
그러다 어느 순간, 균형의 추가
사람에서 기계로 기울 것입니다.
13:12
rather차라리 than human인간의 beings존재들.
279
780520
2056
13:14
This is the path통로 we're currently현재 on.
280
782600
1736
이것이 현재 우리가 가고 있는 길입니다.
13:16
I say "path통로" deliberately신중히,
because I don't think we're there yet아직,
281
784360
3176
"길"이라는 용어를 쓴 이유는
아직 도달하지는 않았지만
13:19
but it is hard단단한 to avoid기피 the conclusion결론
that this is our direction방향 of travel여행.
282
787560
3640
여정이 이대로 흘러갈 거라는
사실을 부인하기 힘들기 때문입니다.
13:24
That's the troubling문제가되는 part부품.
283
792640
1456
문제는 바로 이런 것들입니다.
13:26
Let me say now why I think actually사실은
this is a good problem문제 to have.
284
794120
3520
하지만 이 문제는 우리에게 즐거운 일입니다.
그 이유를 말해드리죠.
13:30
For most가장 of human인간의 history역사,
one economic간결한 problem문제 has dominated지배적 인:
285
798520
3536
인류 역사를 볼 때, 경제 측면에서
늘 따라다니는 문제 하나가 있습니다.
13:34
how to make the economic간결한 pie파이
large enough충분히 for everyone각자 모두 to live살고 있다 on.
286
802080
4056
우리 모두가 살만큼 경제파이의 크기를
어떻게 키울 것인가 하는 것입니다.
13:38
Go back to the turn회전
of the first century세기 AD광고,
287
806160
2176
기원후 1세기 무렵을 생각해보죠.
13:40
and if you took~했다 the global글로벌 economic간결한 pie파이
288
808360
2096
그 시대의 경제 파이를
13:42
and divided각기 다른 it up into equal같은 slices조각
for everyone각자 모두 in the world세계,
289
810480
3296
그 때 살았던 모두에게
공평하게 나누어준다면
13:45
everyone각자 모두 would get a few조금 hundred dollars불화.
290
813800
2136
각자 몇백 달러 정도 받을 겁니다.
13:47
Almost거의 everyone각자 모두 lived살았던
on or around the poverty가난 line.
291
815960
2760
거의 모두가 최저 생계를
유지하는 정도죠.
13:51
And if you roll forward앞으로 a thousand years연령,
292
819320
2176
그로부터 1000년 후에도
사정은 거의 같았습니다.
13:53
roughly대충 the same같은 is true참된.
293
821520
1240
13:55
But in the last few조금 hundred years연령,
economic간결한 growth성장 has taken취한 off.
294
823680
3576
하지만 최근 수백 년 동안
경제는 급격히 성장했습니다.
13:59
Those economic간결한 pies파이 have exploded폭발 한 in size크기.
295
827280
2376
폭발적인 규모로 성장했죠.
14:01
Global글로벌 GDPGDP per head머리,
296
829680
2056
전 세계의 1인당 GDP,
14:03
the value of those individual개인
slices조각 of the pie파이 today오늘,
297
831760
3376
쉽게 말해 오늘날 각자가
가지는 파이 한 조각은
14:07
they're about 10,150 dollars불화.
298
835160
2816
약 10,150 달러입니다.
14:10
If economic간결한 growth성장 continues계속하다
at two percent퍼센트,
299
838000
2696
앞으로 경제성장이 2%씩 지속된다면
14:12
our children어린이 will be twice두번 as rich풍부한 as us.
300
840720
2056
우리 아이들은 우리보다
두 배 정도 부유해질 것입니다.
14:14
If it continues계속하다
at a more measly순결한 one percent퍼센트,
301
842800
2296
경제가 1%씩 성장한다고 쳐도
14:17
our grandchildren손자
will be twice두번 as rich풍부한 as us.
302
845120
2656
우리 손자들은 우리보다
두 배 정도 부유해질 것입니다.
14:19
By and large, we've우리는 solved해결 된
that traditional전통적인 economic간결한 problem문제.
303
847800
3680
우리는 전통적 경제문제를
비교적 잘 해결해왔습니다.
14:24
Now, technological기술적 인 unemployment실업,
if it does happen우연히 있다,
304
852200
3016
기술 진보로 실업 문제가 생기더라도
14:27
in a strange이상한 way will be
a symptom징후 of that success성공,
305
855240
3216
어떻게든 성공적으로 해결할지 모릅니다.
14:30
will have solved해결 된 one problem문제 --
how to make the pie파이 bigger더 큰 --
306
858480
3856
파이를 키우는 문제가 해결되더라도
14:34
but replaced대체 된 it with another다른 --
307
862360
1816
또 다른 문제가 생길 거예요.
14:36
how to make sure
that everyone각자 모두 gets도착 a slice일부분.
308
864200
2760
어떻게 하면 모두가 파이를
나눠 가질 수 있느냐는 것입니다.
14:39
As other economists경제학자 have noted유명한,
solving해결 this problem문제 won't습관 be easy쉬운.
309
867840
3496
경제학자들의 지적한 대로
이 문제는 해결이 쉽지 않을 겁니다.
14:43
Today오늘, for most가장 people,
310
871360
1656
오늘날, 대부분의 사람들은
14:45
their그들의 job is their그들의 seat좌석
at the economic간결한 dinner공식 만찬 table,
311
873040
2496
직업을 가짐으로써 경제 안에서
자신의 몫을 얻고 있습니다.
14:47
and in a world세계 with less적게 work
or even without없이 work,
312
875560
2416
하지만 일이 적어지거나
심지어는 없는 세상에서
14:50
it won't습관 be clear명확한
how they get their그들의 slice일부분.
313
878000
2056
어떻게 제 몫을 얻을 수
있을지가 의문입니다.
14:52
There's a great deal거래
of discussion토론, for instance,
314
880080
2336
지금 많이 논의되고 있는 것은
14:54
about various여러 forms형태
of universal만능인 basic기본 income수입
315
882440
2696
해결 방안의 하나로서 다양한 형태의
기본소득을 두는 방법입니다.
14:57
as one possible가능한 approach접근,
316
885160
1216
14:58
and there's trials시련 underway진행 중
317
886400
1616
기본소득에 대한 시도가
15:00
in the United유나이티드 States
and in Finland핀란드 and in Kenya케냐.
318
888040
2400
미국과 핀란드, 케냐에서
진행중에 있기도 하죠.
15:03
And this is the collective집단적 challenge도전
that's right in front of us,
319
891000
3176
이것이 우리 모두에게 주어진
당면 과제입니다.
15:06
to figure그림 out how this material자료 prosperity번영
generated생성 된 by our economic간결한 system체계
320
894200
5056
새로운 경제 시스템이 가져올
물질적 풍요를
15:11
can be enjoyed즐겁게 by everyone각자 모두
321
899280
1976
모두가 누리는 방법을 찾아야 하죠.
15:13
in a world세계 in which어느
our traditional전통적인 mechanism기구
322
901280
2416
파이를 나누는 기존 방식이
더 이상 통하지 않고
15:15
for slicing얇게 썰기 up the pie파이,
323
903720
1856
15:17
the work that people do,
324
905600
1936
인간이 할 일이 점자 줄어들어
15:19
withers감정 away and perhaps혹시 disappears사라지다.
325
907560
2160
완전히 사라진 세상에서 말입니다.
15:22
Solving해결 this problem문제 is going to require요구하다
us to think in very different다른 ways.
326
910280
4360
이 문제를 해결하려면 완전히
다른 방식으로 생각해야 합니다.
15:27
There's going to be a lot of disagreement불쾌한 일
about what ought to be done끝난,
327
915400
4176
해결 방안에 대한
반발도 많을 것입니다.
15:31
but it's important중대한 to remember생각해 내다
that this is a far멀리 better problem문제 to have
328
919600
3416
하지만 중요한 사실은
이 문제는 즐거운 일이라는 겁니다.
15:35
than the one that haunted귀신이 들린
our ancestors선조 for centuries세기:
329
923040
2816
어떻게 하면 파이를
충분히 키울 수 있을까 하고
15:37
how to make that pie파이
big enough충분히 in the first place장소.
330
925880
3376
수세기 동안 고민했던
선조들에 비해서 말이죠.
15:41
Thank you very much.
331
929280
1256
감사합니다.
15:42
(Applause박수 갈채)
332
930560
3840
(박수)
Translated by YOUNJAE LEE
Reviewed by JY Kang

▲Back to top

ABOUT THE SPEAKER
Daniel Susskind - Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society.

Why you should listen

Daniel Susskind is the co-author, with Richard Susskind, of the best-selling book, The Future of the Professions, and a Fellow in Economics at Balliol College, Oxford University. He is currently finishing his latest book, on the future of work. Previously, he worked in the British Government -- as a policy adviser in the Prime Minister's Strategy Unit, as a policy analyst in the Policy Unit in 10 Downing Street, and as a senior policy adviser in the Cabinet Office. Susskind received a doctorate in economics from Oxford University and was a Kennedy Scholar at Harvard University.

More profile about the speaker
Daniel Susskind | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee