ABOUT THE SPEAKER
Daniel Susskind - Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society.

Why you should listen

Daniel Susskind is the co-author, with Richard Susskind, of the best-selling book, The Future of the Professions, and a Fellow in Economics at Balliol College, Oxford University. He is currently finishing his latest book, on the future of work. Previously, he worked in the British Government -- as a policy adviser in the Prime Minister's Strategy Unit, as a policy analyst in the Policy Unit in 10 Downing Street, and as a senior policy adviser in the Cabinet Office. Susskind received a doctorate in economics from Oxford University and was a Kennedy Scholar at Harvard University.

More profile about the speaker
Daniel Susskind | Speaker | TED.com
TED@Merck KGaA, Darmstadt, Germany

Daniel Susskind: 3 myths about the future of work (and why they're not true)

丹尼爾薩斯金: 關於未來工作的三項迷思(以及為什麼它們不是真的)

Filmed:
1,519,249 views

「機器會取代人類嗎?」每個有可能會失去工作的人心中都有這個問題。丹尼爾薩斯金正視這個問題以及我們對自動化未來的三項迷思,他建議我們改問另一個問題:當世界上的工作變少或甚至消失時,我們要如何分配財富?
- Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society. Full bio

Double-click the English transcript below to play the video.

00:12
Automation自動化 anxiety焦慮
has been spreading傳播 lately最近,
0
760
3376
近期,自動化焦慮一直在散佈,
00:16
a fear恐懼 that in the future未來,
1
4160
2656
它是種恐懼,害怕在未來
00:18
many許多 jobs工作 will be performed執行 by machines
2
6840
2456
許多工作會由機器來進行,
00:21
rather than human人的 beings眾生,
3
9320
1336
而不是人類,
00:22
given特定 the remarkable卓越 advances進步
that are unfolding展開
4
10680
2936
因為現在已可以看到在人工智慧
00:25
in artificial人造 intelligence情報 and robotics機器人.
5
13640
2776
和機器人學領域的驚人進步。
00:28
What's clear明確 is that
there will be significant重大 change更改.
6
16440
2816
很清楚的一點是,
將來會有顯著的改變。
00:31
What's less clear明確
is what that change更改 will look like.
7
19280
3616
比較不那麼清楚的是,
改變會是什麼樣的。
00:34
My research研究 suggests提示 that the future未來
is both troubling令人不安 and exciting扣人心弦.
8
22920
4936
我的研究指出,未來
既讓人困擾又讓人興奮。
00:39
The threat威脅 of technological技術性
unemployment失業 is real真實,
9
27880
3736
科技造成失業的威脅是真的,
00:43
and yet然而 it's a good problem問題 to have.
10
31640
2056
但,能有這種問題也是件好事。
00:45
And to explain說明
how I came來了 to that conclusion結論,
11
33720
3216
為了解釋我如何得到這個結論,
00:48
I want to confront面對 three myths神話
12
36960
2536
我想要來正視三項迷思,
00:51
that I think are currently目前 obscuring遮蔽
our vision視力 of this automated自動化 future未來.
13
39520
4280
我認為這些迷思
目前遮掩了我們的視線,
讓我們看不清自動化的未來。
00:56
A picture圖片 that we see
on our television電視 screens屏幕,
14
44880
2336
我們在電視上、書中、電影中、
00:59
in books圖書, in films影片, in everyday每天 commentary評論
15
47240
2216
每天的評論中所看到的描繪,
01:01
is one where an army軍隊 of robots機器人
descends下降 on the workplace職場
16
49480
3696
通常是機器人大軍湧入工作場所,
01:05
with one goal目標 in mind心神:
17
53200
1376
心中只有一個目標:
01:06
to displace頂替 human人的 beings眾生 from their work.
18
54600
2496
在工作上取代人類。
01:09
And I call this the Terminator終結者 myth神話.
19
57120
2696
我稱這個想法為「終結者迷思」。
01:11
Yes, machines displace頂替
human人的 beings眾生 from particular特定 tasks任務,
20
59840
3976
是的,在特定的工作任務上,
機器會取代人類,
01:15
but they don't just
substitute替代 for human人的 beings眾生.
21
63840
2256
但它們不會就這樣代替人類。
01:18
They also complement補充 them in other tasks任務,
22
66120
1976
它們在其他工作任務上會補足人類,
01:20
making製造 that work more valuable有價值
and more important重要.
23
68120
3616
讓工作更有價值、更重要。
01:23
Sometimes有時 they complement補充
human人的 beings眾生 directly,
24
71760
3336
有時,它們會直接補足人類,
01:27
making製造 them more productive生產的
or more efficient高效 at a particular特定 task任務.
25
75120
4016
讓人類在特定的工作任務上
能更有生產力或更有效率。
01:31
So a taxi出租車 driver司機 can use a satnav衛星導航 system系統
to navigate導航 on unfamiliar陌生 roads道路.
26
79160
4616
計程車司機在不熟悉的路上
可以用衛星導航系統來協助導航。
01:35
An architect建築師 can use
computer-assisted計算機輔助 design設計 software軟件
27
83800
3336
建築師可以用電腦輔助的設計軟體
01:39
to design設計 bigger,
more complicated複雜 buildings房屋.
28
87160
3096
來設計更大、更複雜的建築物。
01:42
But technological技術性 progress進展 doesn't
just complement補充 human人的 beings眾生 directly.
29
90280
3696
但科技進步並不只會直接補足人類。
01:46
It also complements補充 them indirectly間接,
and it does this in two ways方法.
30
94000
3336
它也會用間接方式補足人類,
間接的方式有兩種。
01:49
The first is if we think
of the economy經濟 as a pie餡餅,
31
97360
3336
第一,如果我們把
經濟想成是一塊派,
01:52
technological技術性 progress進展
makes品牌 the pie餡餅 bigger.
32
100720
2896
科技進步會讓派變更大。
01:55
As productivity生產率 increases增加,
incomes收入 rise上升 and demand需求 grows成長.
33
103640
3856
隨著生產力增加,
收入會增加,需求會成長。
01:59
The British英國的 pie餡餅, for instance,
34
107520
1776
比如,英國的派
02:01
is more than a hundred times
the size尺寸 it was 300 years年份 ago.
35
109320
3960
與三百年前相比,現在超過百倍大。
02:05
And so people displaced流離失所
from tasks任務 in the old pie餡餅
36
113920
3216
在舊派工作被取代的人,
02:09
could find tasks任務 to do
in the new pie餡餅 instead代替.
37
117160
2720
能在新派中找到工作。
02:12
But technological技術性 progress進展
doesn't just make the pie餡餅 bigger.
38
120800
3936
但科技進步並不只會讓派變大。
02:16
It also changes變化
the ingredients配料 in the pie餡餅.
39
124760
2856
它也會改變派的成分原料。
02:19
As time passes通行證, people spend
their income收入 in different不同 ways方法,
40
127640
3456
隨時間演進,人會以
不同的方式花費他們的收入,
02:23
changing改變 how they spread傳播 it
across橫過 existing現有 goods產品,
41
131120
2816
改變既有商品花費上的分配,
02:25
and developing發展 tastes口味
for entirely完全 new goods產品, too.
42
133960
3216
並也會發展出對於全新商品的品味。
02:29
New industries行業 are created創建,
43
137200
1776
新的產業會被創造出來,
02:31
new tasks任務 have to be doneDONE
44
139000
1816
有新的工作任務需要被完成,
02:32
and that means手段 often經常
new roles角色 have to be filled填充.
45
140840
2536
那就意味著有新角色要有人扮演。
02:35
So again, the British英國的 pie餡餅:
46
143400
1496
所以,再回到英國的派:
02:36
300 years年份 ago,
most people worked工作 on farms農場,
47
144920
2976
三百年前,大部分的人在農場工作,
02:39
150 years年份 ago, in factories工廠,
48
147920
2336
一百五十年前,在工廠工作,
02:42
and today今天, most people work in offices辦事處.
49
150280
2856
現今,大部分的人在辦公室工作。
02:45
And once一旦 again, people displaced流離失所
from tasks任務 in the old bit of pie餡餅
50
153160
4056
再提一次,在老派工作被取代的人,
02:49
could tumble下跌 into tasks任務
in the new bit of pie餡餅 instead代替.
51
157240
2800
可能會在新派當中
發現可以做的工作任務。
02:52
Economists經濟學家 call these effects效果
complementarities互補性,
52
160720
3336
經濟學家把這些效應稱為互補性,
02:56
but really that's just a fancy幻想 word
to capture捕獲 the different不同 way
53
164080
3256
但那只是個很炫的詞,其實意思就是
02:59
that technological技術性 progress進展
helps幫助 human人的 beings眾生.
54
167360
3136
科技進步用不同的方式在協助人類。
03:02
Resolving解決 this Terminator終結者 myth神話
55
170520
2096
解開這個終結者迷思之後,
03:04
shows節目 us that there are
two forces軍隊 at play:
56
172640
2336
會發現有兩股力量在運作:
03:07
one, machine substitution代換
that harms危害 workers工人,
57
175000
3536
第一:機器代替,這會傷害到工人,
03:10
but also these complementarities互補性
that do the opposite對面.
58
178560
2880
但也會有第二股力量,
互補性,反而會幫助工人。
03:13
Now the second第二 myth神話,
59
181960
1376
再來,第二項迷思,
03:15
what I call the intelligence情報 myth神話.
60
183360
2280
我稱之為「智慧迷思」。
03:18
What do the tasks任務 of driving主動 a car汽車,
making製造 a medical diagnosis診斷
61
186440
4896
以下這些工作任務:
駕駛一台車、做出醫療診斷,
03:23
and identifying識別 a bird
at a fleeting流年 glimpse一瞥 have in common共同?
62
191360
2920
及快速一瞥就辨識出
一隻鳥,有何共通性?
03:27
Well, these are all tasks任務
that until直到 very recently最近,
63
195280
2976
這些工作任務都是直到最近
03:30
leading領導 economists經濟學家 thought
couldn't不能 readily容易 be automated自動化.
64
198280
3336
仍被經濟學家認為不能
自動化的工作任務。
03:33
And yet然而 today今天, all of these tasks任務
can be automated自動化.
65
201640
3176
然而,現今,所有這些
工作任務都能被自動化。
03:36
You know, all major重大的 car汽車 manufacturers製造商
have driverless無人駕駛 car汽車 programs程式.
66
204840
3496
所有大型汽車製造商都有
無人駕駛汽車的計畫。
03:40
There's countless無數 systems系統 out there
that can diagnose診斷 medical problems問題.
67
208360
3976
外面有數不清的系統
都能夠診斷醫療問題。
03:44
And there's even an app應用
that can identify鑑定 a bird
68
212360
2416
甚至有個應用程式能用來辨識鳥類,
03:46
at a fleeting流年 glimpse一瞥.
69
214800
1200
只要快速一瞥。
03:48
Now, this wasn't simply只是 a case案件 of bad luck運氣
on the part部分 of economists經濟學家.
70
216920
4376
這並不是經濟學家運氣不好的情況。
03:53
They were wrong錯誤,
71
221320
1296
他們錯了,
03:54
and the reason原因 why
they were wrong錯誤 is very important重要.
72
222640
2496
而他們為什麼會錯的原因很重要。
03:57
They've他們已經 fallen墮落 for the intelligence情報 myth神話,
73
225160
2256
他們陷入了智慧迷思中,
03:59
the belief信仰 that machines
have to copy複製 the way
74
227440
2896
相信機器必須要複製人類
04:02
that human人的 beings眾生 think and reason原因
75
230360
2056
思考和推理的方式,
04:04
in order訂購 to outperform跑贏大市 them.
76
232440
1776
才能夠表現得比人類好。
04:06
When these economists經濟學家
were trying to figure數字 out
77
234240
2216
當這些經濟學家在試圖想出
04:08
what tasks任務 machines could not do,
78
236480
1856
機器無法勝任哪些工作任務,
04:10
they imagined想像 the only way
to automate自動化 a task任務
79
238360
2136
他們想像,將工作任務自動化的
04:12
was to sit down with a human人的 being存在,
80
240520
1816
唯一方式就是和人類坐下來,
04:14
get them to explain說明 to you
how it was they performed執行 a task任務,
81
242360
3536
讓人類解釋他們如何執行工作任務,
04:17
and then try and capture捕獲 that explanation說明
82
245920
2656
再試著分析他們的解釋,
04:20
in a set of instructions說明
for a machine to follow跟隨.
83
248600
2776
轉換成一組指令,讓機器照著做。
04:23
This view視圖 was popular流行 in artificial人造
intelligence情報 at one point, too.
84
251400
4176
在人工智慧領域,這種觀點
曾在某個時點很流行過。
04:27
I know this because Richard理查德 Susskind薩斯坎德,
85
255600
2176
我知道這點,因為理查薩斯金,
04:29
who is my dad and my coauthor合著者,
86
257800
2856
他是我爸爸也是我的共同作者,
04:32
wrote his doctorate博士學位 in the 1980s
on artificial人造 intelligence情報 and the law
87
260680
4056
在八〇年代,在牛津大學
寫了一篇關於人工智慧
04:36
at Oxford牛津 University大學,
88
264760
1416
與法律的博士論文,
04:38
and he was part部分 of the vanguard前鋒.
89
266200
1576
他是先鋒部隊之一。
04:39
And with a professor教授 called Phillip菲利普 Capper封口
90
267800
2256
和一位名叫菲利普卡波的教授,
04:42
and a legal法律 publisher出版者 called ButterworthsButterworths,
91
270080
2096
以及一間法律出版社
叫做 Butterworths,
04:44
they produced生成 the world's世界 first
commercially商業 available可得到
92
272200
5896
他們合作製作出了
世界上第一個商業用的
04:50
artificial人造 intelligence情報 system系統 in the law.
93
278120
2776
法律人工智慧系統。
04:52
This was the home screen屏幕 design設計.
94
280920
2616
這是首頁的畫面設計。
04:55
He assures保證 me this was
a cool screen屏幕 design設計 at the time.
95
283560
2696
他向我保證,在當時
這是很酷的畫面設計。
04:58
(Laughter笑聲)
96
286280
1016
(笑聲)
04:59
I've never been entirely完全 convinced相信.
97
287320
1696
我從來沒有被說服。
05:01
He published發表 it
in the form形成 of two floppy軟盤 disks磁盤,
98
289040
2616
他用兩張軟碟片的形式將之出版,
05:03
at a time where floppy軟盤 disks磁盤
genuinely真正的 were floppy軟盤,
99
291680
3536
在那個時代,軟碟片真的是軟的,
05:07
and his approach途徑 was the same相同
as the economists'經濟學家:
100
295240
2336
而他的方式就和經濟學家一樣:
和一名律師坐下來,
05:09
sit down with a lawyer律師,
101
297600
1256
讓她向你解釋如何解決法律問題,
05:10
get her to explain說明 to you
how it was she solved解決了 a legal法律 problem問題,
102
298880
3176
05:14
and then try and capture捕獲 that explanation說明
in a set of rules規則 for a machine to follow跟隨.
103
302080
5376
接著就試著把她的解釋
轉成一組指令給機器執行。
05:19
In economics經濟學, if human人的 beings眾生
could explain說明 themselves他們自己 in this way,
104
307480
3616
在經濟上,如果人類能夠用
這種方式解釋自己做的事,
05:23
the tasks任務 are called routine常規,
and they could be automated自動化.
105
311120
3296
這種工作任務就叫做例行事務,
是可以被自動化的。
05:26
But if human人的 beings眾生
can't explain說明 themselves他們自己,
106
314440
2336
但如果人類無法解釋出怎麼做,
05:28
the tasks任務 are called non-routine非例行,
and they're thought to be out reach達到.
107
316800
4256
這種工作任務叫做非例行事務,
應該是不能自動化的。
05:33
Today今天, that routine-nonroutine常規 nonroutine
distinction分別 is widespread廣泛.
108
321080
3296
現今,將事務區別為例行
與非例行是處處可見的。
05:36
Think how often經常 you hear people say to you
109
324400
2056
想想看,你有多常聽到別人對你說
05:38
machines can only perform演出 tasks任務
that are predictable可預測 or repetitive重複,
110
326480
3256
機器能進行的工作任務
只有可預測的、重覆性的、
05:41
rules-based規則為基礎 or well-defined明確.
111
329760
1896
以規則為基礎的,或定義清楚的。
05:43
Those are all just
different不同 words for routine常規.
112
331680
2936
那些詞只是例行事務的不同說法。
05:46
And go back to those three cases
that I mentioned提到 at the start開始.
113
334640
3976
回到我一開始提到的三個案例。
05:50
Those are all classic經典 cases
of nonroutinenonroutine tasks任務.
114
338640
2896
那些案例是典型的非例行事務。
05:53
Ask a doctor醫生, for instance,
how she makes品牌 a medical diagnosis診斷,
115
341560
2976
比如,去問一位醫生
如何做醫療診斷,
05:56
and she might威力 be able能夠
to give you a few少數 rules規則 of thumb拇指,
116
344560
2656
她可能會給你少數經驗法則,
05:59
but ultimately最終 she'd struggle鬥爭.
117
347240
1656
但最終,她會很掙扎。
06:00
She'd say it requires要求 things like
creativity創造力 and judgment判斷 and intuition直覺.
118
348920
4816
她會說,你還需要創意、
判斷,以及直覺才行。
06:05
And these things are
very difficult to articulate說出,
119
353760
2376
這些東西是很難明確表達的,
06:08
and so it was thought these tasks任務
would be very hard to automate自動化.
120
356160
3096
所以這些工作任務就會
被認為很難自動化。
06:11
If a human人的 being存在 can't explain說明 themselves他們自己,
121
359280
2536
如果人類無法解釋他們自己的做法,
06:13
where on earth地球 do we begin開始
in writing寫作 a set of instructions說明
122
361840
2896
我們究竟要從何開始寫指令
06:16
for a machine to follow跟隨?
123
364760
1200
給機器遵循?
06:18
Thirty三十 years年份 ago, this view視圖 was right,
124
366640
2576
三十年前,這個觀點是對的,
06:21
but today今天 it's looking shaky搖搖欲墜,
125
369240
2136
但現今,它很不穩固,
06:23
and in the future未來
it's simply只是 going to be wrong錯誤.
126
371400
2256
在未來,它將會是錯的。
06:25
Advances進展 in processing處理 power功率,
in data數據 storage存儲 capability能力
127
373680
3256
處理能力、資料儲存容量,
以及演算法設計都在進步,
06:28
and in algorithm算法 design設計
128
376960
1656
06:30
mean that this
routine-nonroutine常規 nonroutine distinction分別
129
378640
2496
這就表示例行與非例行事務間的區別
06:33
is diminishinglydiminishingly useful有用.
130
381160
1736
越來越沒有用了。
06:34
To see this, go back to the case案件
of making製造 a medical diagnosis診斷.
131
382920
3256
要了解這點,我們
回到醫療診斷的案例。
06:38
Earlier in the year,
132
386200
1376
今年早些時候,
06:39
a team球隊 of researchers研究人員 at Stanford斯坦福
announced公佈 they'd他們會 developed發達 a system系統
133
387600
3296
史丹佛的一個研究者團隊
宣佈他們發展出了一個系統,
06:42
which哪一個 can tell you
whether是否 or not a freckle祛斑 is cancerous癌的
134
390920
3056
它能告訴你一個斑點是否為惡性的,
06:46
as accurately準確 as leading領導 dermatologists皮膚科醫生.
135
394000
2680
正確率不輸給頂尖皮膚科醫生。
06:49
How does it work?
136
397280
1256
它怎麼做到的?
06:50
It's not trying to copy複製 the judgment判斷
or the intuition直覺 of a doctor醫生.
137
398560
5296
它並不是嘗試複製
醫生的判斷或是直覺。
06:55
It knows知道 or understands理解
nothing about medicine醫學 at all.
138
403880
3136
它對於醫學是一竅不通。
06:59
Instead代替, it's running賽跑
a pattern模式 recognition承認 algorithm算法
139
407040
2576
反之,它進行的是模式辨識演算法,
07:01
through通過 129,450 past過去 cases,
140
409640
4656
在 129,450 個個案當中,
07:06
hunting狩獵 for similarities相似之處
between之間 those cases
141
414320
3096
獵尋那些個案與欲探究的損害
07:09
and the particular特定 lesion病變 in question.
142
417440
2080
之間有哪些相似性。
07:12
It's performing執行 these tasks任務
in an unhumanunhuman way,
143
420080
3216
它是用非人類的方式
在進行這些工作任務,
07:15
based基於 on the analysis分析
of more possible可能 cases
144
423320
2336
且是以大量案例的分析來當依據,
07:17
than any doctor醫生 could hope希望
to review評論 in their lifetime一生.
145
425680
2616
案例數多到是醫生
一輩子都看不完的。
07:20
It didn't matter that that human人的 being存在,
146
428320
1896
無所謂人類,也就是醫生,
07:22
that doctor醫生, couldn't不能 explain說明
how she'd performed執行 the task任務.
147
430240
2800
是否能解釋她如何進行此工作任務。
07:25
Now, there are those
who dwell upon that the fact事實
148
433640
2336
有些人老是會想著
這些機器被建立時
沒有依循我們的形象。
07:28
that these machines
aren't built內置 in our image圖片.
149
436000
2296
07:30
As an example, take IBM'sIBM的 Watson沃森,
150
438320
2056
以 IBM 的「華生 」為例,
07:32
the supercomputer超級計算機 that went
on the US quiz測驗 show顯示 "Jeopardy危險!" in 2011,
151
440400
4856
那是台超級電腦,2011 年參加
美國的益智節目《危險邊緣》,
07:37
and it beat擊敗 the two
human人的 champions冠軍 at "Jeopardy危險!"
152
445280
3016
在節目中它打敗了兩位人類冠軍。
07:40
The day after it won韓元,
153
448320
1696
它獲勝之後的隔天,
07:42
The Wall Street Journal日誌 ran a piece
by the philosopher哲學家 John約翰 Searle塞爾
154
450040
3296
《華爾街日報》刊了一篇
哲學家約翰希爾勒的文章,
07:45
with the title標題 "Watson沃森
Doesn't Know It Won韓元 on 'Jeopardy'危險!'"
155
453360
3376
標題是〈華生不知道
它自己贏了《危險邊緣》 〉。
07:48
Right, and it's brilliant輝煌, and it's true真正.
156
456760
1976
是的,這篇文章很聰明也沒說錯。
07:50
You know, Watson沃森 didn't
let out a cry of excitement激動.
157
458760
2456
華生並沒有興奮地放聲大叫。
它沒有打電話給它的父母
說它的表現多棒。
07:53
It didn't call up its parents父母
to say what a good job工作 it had doneDONE.
158
461240
3096
它沒有去酒吧喝酒慶祝。
07:56
It didn't go down to the pub酒館 for a drink.
159
464360
2336
07:58
This system系統 wasn't trying to copy複製 the way
that those human人的 contestants參賽者 played發揮,
160
466720
4456
這個系統並沒有試圖複製
那些人類參賽者比賽的方式,
08:03
but it didn't matter.
161
471200
1256
但那無所謂。
08:04
It still outperformed跑贏 them.
162
472480
1976
它仍然表現得比人類好。
08:06
Resolving解決 the intelligence情報 myth神話
163
474480
1576
解開這個智慧迷思之後,
08:08
shows節目 us that our limited有限 understanding理解
about human人的 intelligence情報,
164
476080
3376
看到的是雖然我們對於
人類智慧、對我們如何
08:11
about how we think and reason原因,
165
479480
1896
思考推理的方式了解有限,
08:13
is far less of a constraint約束
on automation自動化 than it was in the past過去.
166
481400
3456
但這個限制對於自動化的影響
已經遠比過去小很多。
08:16
What's more, as we've我們已經 seen看到,
167
484880
1496
此外,如我們所見,
08:18
when these machines
perform演出 tasks任務 differently不同 to human人的 beings眾生,
168
486400
3416
當這些機器用和人類不同的
方式來執行工作任務時,
08:21
there's no reason原因 to think
169
489840
1256
沒有理由認為
08:23
that what human人的 beings眾生
are currently目前 capable of doing
170
491120
2536
人類目前能夠做到的事
08:25
represents代表 any sort分類 of summit首腦
171
493680
1456
就代表了一種上限,
08:27
in what these machines
might威力 be capable of doing in the future未來.
172
495160
3000
在未來機器能夠達成的事
都不可能超過這個上限。
08:31
Now the third第三 myth神話,
173
499040
1256
第三項迷思,
08:32
what I call the superiority優勢 myth神話.
174
500320
2456
我稱之為優越迷思。
08:34
It's often經常 said that those who forget忘記
175
502800
2216
常見的說法是,有些人會
08:37
about the helpful有幫助 side
of technological技術性 progress進展,
176
505040
2456
忘記了科技進步的幫助面,
08:39
those complementarities互補性 from before,
177
507520
2496
忘記過去的互補性,
08:42
are committing提交 something
known已知 as the lump of labor勞動 fallacy謬論.
178
510040
3040
這些人所犯的,就是
所謂的「勞動總合謬誤」。
08:45
Now, the problem問題 is
the lump of labor勞動 fallacy謬論
179
513840
2295
問題是,勞動總合謬誤本身
08:48
is itself本身 a fallacy謬論,
180
516159
1496
就是個謬誤,
08:49
and I call this the lump
of labor勞動 fallacy謬論 fallacy謬論,
181
517679
2937
我把它稱為
「勞動總合謬誤的謬誤」,
08:52
or LOLFFLOLFF, for short.
182
520640
2320
簡寫為「LOLFF」。
08:56
Let me explain說明.
183
524000
1416
讓我解釋一下。
08:57
The lump of labor勞動 fallacy謬論
is a very old idea理念.
184
525440
2136
勞動總合謬誤是個很古老的想法。
08:59
It was a British英國的 economist經濟學家, David大衛 Schloss城堡,
who gave it this name名稱 in 1892.
185
527600
4216
這個名稱是 1892 年由英國
經濟學家大衛許洛斯取的。
09:03
He was puzzled困惑
to come across橫過 a dock碼頭 worker工人
186
531840
2816
有件事讓他百思不解,
他遇到一個碼頭工人,
09:06
who had begun開始 to use
a machine to make washers墊圈,
187
534680
2336
這個工人開始用機器來製造墊圈,
09:09
the small metal金屬 discs光盤
that fasten on the end結束 of screws螺絲.
188
537040
3320
墊圈是小型的金屬圓盤,
固定在螺絲底端。
09:13
And this dock碼頭 worker工人
felt guilty有罪 for being存在 more productive生產的.
189
541000
3760
這個碼頭工人對於自己的
高生產力有罪惡感。
09:17
Now, most of the time,
we expect期望 the opposite對面,
190
545560
2176
通常,我們預期的是相反的反應,
生產力不高才會讓人感到罪惡,
09:19
that people feel guilty有罪
for being存在 unproductive非生產性,
191
547760
2216
你知道的,工作時
花太多時間滑臉書或推特。
09:22
you know, a little too much time
on FacebookFacebook的 or Twitter推特 at work.
192
550000
3016
但這個工人對於
太有生產力感到罪惡,
09:25
But this worker工人 felt guilty有罪
for being存在 more productive生產的,
193
553040
2536
問他原因,他說:「我知道我做錯了。
09:27
and asked why, he said,
"I know I'm doing wrong錯誤.
194
555600
2296
09:29
I'm taking服用 away the work of another另一個 man."
195
557920
2040
我搶走了另一個人的工作。」
09:32
In his mind心神, there was
some fixed固定 lump of work
196
560760
2976
在他的認知中,勞動總合是固定的,
09:35
to be divided分為 up between之間 him and his pals哥兒們,
197
563760
2136
要由他和他的伙伴來分攤,
09:37
so that if he used
this machine to do more,
198
565920
2056
所以如果他用機器多做一點,
09:40
there'd這紅色 be less left for his pals哥兒們 to do.
199
568000
2016
他伙伴能做的就變少了。
09:42
Schloss城堡 saw the mistake錯誤.
200
570040
1856
許洛斯看到了這個錯誤。
09:43
The lump of work wasn't fixed固定.
201
571920
1856
勞動總合並不是固定的。
09:45
As this worker工人 used the machine
and became成為 more productive生產的,
202
573800
2816
當這個工人用機器提高生產力,
09:48
the price價錢 of washers墊圈 would fall秋季,
demand需求 for washers墊圈 would rise上升,
203
576640
2976
墊圈的價格會下降,
對墊圈的需求會提高,
09:51
more washers墊圈 would have to be made製作,
204
579640
1696
就得要做出更多的墊圈,
09:53
and there'd這紅色 be more work
for his pals哥兒們 to do.
205
581360
2096
他的伙伴反而會有更多要做。
09:55
The lump of work would get bigger.
206
583480
1696
勞動總合變更大了。
09:57
Schloss城堡 called this
"the lump of labor勞動 fallacy謬論."
207
585200
2680
許洛斯稱之為「勞動總合謬誤」。
10:00
And today今天 you hear people talk
about the lump of labor勞動 fallacy謬論
208
588560
2936
現今,在思考有各類工作的未來時,
會聽到人們談到勞動總合謬誤。
10:03
to think about the future未來
of all types類型 of work.
209
591520
2216
沒有固定的勞動總合
10:05
There's no fixed固定 lump of work
out there to be divided分為 up
210
593760
2656
要讓人類與機器瓜分。
10:08
between之間 people and machines.
211
596440
1376
是的,機器會取代人類,
讓原本的勞動總合變少,
10:09
Yes, machines substitute替代 for human人的 beings眾生,
making製造 the original原版的 lump of work smaller,
212
597840
4656
10:14
but they also complement補充 human人的 beings眾生,
213
602520
1856
但它們也會補足人類,
10:16
and the lump of work
gets得到 bigger and changes變化.
214
604400
2096
勞動總合會變更大並且改變。
10:19
But LOLFFLOLFF.
215
607760
1616
但,LOLFF。
10:21
Here's這裡的 the mistake錯誤:
216
609400
1376
錯誤是這樣的:
10:22
it's right to think
that technological技術性 progress進展
217
610800
2216
認為科技進步會讓
要做的勞動總合變大,
10:25
makes品牌 the lump of work to be doneDONE bigger.
218
613040
1976
這點是沒錯的。
有些工作任務變得較有價值。
有新工作任務需要完成。
10:27
Some tasks任務 become成為 more valuable有價值.
New tasks任務 have to be doneDONE.
219
615040
3016
10:30
But it's wrong錯誤 to think that necessarily一定,
220
618080
2536
錯的地方在於,認為安排人類
10:32
human人的 beings眾生 will be best最好 placed放置
to perform演出 those tasks任務.
221
620640
3256
來做那些工作任務一定是最好的。
10:35
And this is the superiority優勢 myth神話.
222
623920
1616
這就是優越迷思。
10:37
Yes, the lump of work
might威力 get bigger and change更改,
223
625560
3416
是的,勞動總量可能
會變大也會改變,
10:41
but as machines become成為 more capable,
224
629000
1976
但隨著機器變得更有能力,
10:43
it's likely容易 that they'll他們會 take on
the extra額外 lump of work themselves他們自己.
225
631000
3896
很有可能它們會自己去接下
那些額外的勞動總量。
10:46
Technological技術性 progress進展,
rather than complement補充 human人的 beings眾生,
226
634920
3256
科技進步就不是在補足人類了,
10:50
complements補充 machines instead代替.
227
638200
1880
反而是補足機器。
10:52
To see this, go back
to the task任務 of driving主動 a car汽車.
228
640920
3016
可以回頭看駕駛汽車的
工作任務來了解這點。
10:55
Today今天, satnav衛星導航 systems系統
directly complement補充 human人的 beings眾生.
229
643960
4096
現今,衛星導航系統直接補足人類。
11:00
They make some
human人的 beings眾生 better drivers司機.
230
648080
2280
它讓一些人類變成更好的駕駛。
11:02
But in the future未來,
231
650920
1256
但在未來,
軟體會取代坐在駕駛座上的人類,
11:04
software軟件 is going to displace頂替
human人的 beings眾生 from the driving主動 seat座位,
232
652200
3096
這些衛星導航系統
就不是在補足人類了,
11:07
and these satnav衛星導航 systems系統,
rather than complement補充 human人的 beings眾生,
233
655320
2936
而單純就是在讓這些
無人駕駛汽車更有效率,
11:10
will simply只是 make these
driverless無人駕駛 cars汽車 more efficient高效,
234
658280
2536
11:12
helping幫助 the machines instead代替.
235
660840
1536
改而協助機器。
11:14
Or go to those indirect間接 complementarities互補性
that I mentioned提到 as well.
236
662400
4056
或也可以回到
我剛提過的間接互補性。
11:18
The economic經濟 pie餡餅 may可能 get larger,
237
666480
1776
經濟的派可能會變更大,
11:20
but as machines become成為 more capable,
238
668280
1736
但隨著機器更有能力,
11:22
it's possible可能 that any new demand需求
will fall秋季 on goods產品 that machines,
239
670040
3143
有可能所有符合新需求的商品都適合
由機器而不是由人類來製造。
11:25
rather than human人的 beings眾生,
are best最好 placed放置 to produce生產.
240
673207
2649
11:27
The economic經濟 pie餡餅 may可能 change更改,
241
675880
1896
經濟的派可能會改變,
11:29
but as machines become成為 more capable,
242
677800
1896
但隨著機器變得更有能力,
11:31
it's possible可能 that they'll他們會 be best最好 placed放置
to do the new tasks任務 that have to be doneDONE.
243
679720
4856
有可能它們最適合運用在
新工作任務中,那些必須解決的事。
11:36
In short, demand需求 for tasks任務
isn't demand需求 for human人的 labor勞動.
244
684600
3696
簡言之,對工作任務的需求
並非對人類勞動力的需求。
11:40
Human人的 beings眾生 only stand to benefit效益
245
688320
1936
人類只有在仍然能支配
11:42
if they retain保留 the upper hand
in all these complemented補充 tasks任務,
246
690280
3816
這些補足性工作任務的
情況下才有可能受益,
11:46
but as machines become成為 more capable,
that becomes less likely容易.
247
694120
3720
但隨著機器變得更有能力,
那就更不可能發生。
11:50
So what do these three myths神話 tell us then?
248
698760
2016
所以,這三項迷思告訴我們什麼?
11:52
Well, resolving解析 the Terminator終結者 myth神話
249
700800
1696
解開終結者迷思之後,
11:54
shows節目 us that the future未來 of work depends依靠
upon this balance平衡 between之間 two forces軍隊:
250
702520
3696
我們知道工作的未來還要
仰賴兩股力量間的平衡:
11:58
one, machine substitution代換
that harms危害 workers工人
251
706240
3136
第一:機器代替,這會傷害到工人,
12:01
but also those complementarities互補性
that do the opposite對面.
252
709400
2576
但也會有第二股力量,
互補性,反而會幫助工人。
12:04
And until直到 now, this balance平衡
has fallen墮落 in favor偏愛 of human人的 beings眾生.
253
712000
4040
直到目前,這平衡是對人類有利的。
12:09
But resolving解析 the intelligence情報 myth神話
254
717120
1736
但解開了智慧迷思之後,
12:10
shows節目 us that that first force,
machine substitution代換,
255
718880
2496
我們知道,第一股力量,機器代替,
12:13
is gathering蒐集 strength強度.
256
721400
1296
正在聚集實力。
12:14
Machines, of course課程, can't do everything,
257
722720
1976
當然,機器並非什麼都能做,
12:16
but they can do far more,
258
724720
1256
但它們能做的很多,
12:18
encroaching攻城掠地 ever deeper更深 into the realm領域
of tasks任務 performed執行 by human人的 beings眾生.
259
726000
4576
能更深進入到人類所進行之
工作任務的領域中。
12:22
What's more, there's no reason原因 to think
260
730600
1896
此外,沒有理由去認為
12:24
that what human人的 beings眾生
are currently目前 capable of
261
732520
2216
人類目前已經能做到的事,
12:26
represents代表 any sort分類 of finishing精加工 line,
262
734760
1856
就表示是某種終點線,
12:28
that machines are going
to draw to a polite有禮貌 stop
263
736640
2256
等到機器和我們一樣有能力時
就會禮貌地在終點線前停下來。
12:30
once一旦 they're as capable as us.
264
738920
1816
12:32
Now, none沒有 of this matters事項
265
740760
1536
這些都無所謂,
12:34
so long as those helpful有幫助
winds of complementarity互補性
266
742320
2816
只要機器和人類在工作上
能相得益彰就好。
12:37
blow打擊 firmly牢牢 enough足夠,
267
745160
1736
12:38
but resolving解析 the superiority優勢 myth神話
268
746920
1936
但解開了優越迷思之後,
12:40
shows節目 us that that process處理
of task任務 encroachment侵犯
269
748880
3096
我們了解到,工作任務侵佔的過程
12:44
not only strengthens強化劑
the force of machine substitution代換,
270
752000
3936
不僅是強化了機器代替的那股力量,
12:47
but it wears穿 down
those helpful有幫助 complementarities互補性 too.
271
755960
3336
也會耗損那些有助益的互補性。
12:51
Bring帶來 these three myths神話 together一起
272
759320
1936
把這三項迷思結合起來,
12:53
and I think we can capture捕獲 a glimpse一瞥
of that troubling令人不安 future未來.
273
761280
2936
我想,我們就能對
讓人困擾的未來有點概念。
12:56
Machines continue繼續 to become成為 more capable,
274
764240
2016
機器持續變得更有能力,
12:58
encroaching攻城掠地 ever deeper更深
on tasks任務 performed執行 by human人的 beings眾生,
275
766280
3656
比以前更深入人類進行的工作任務,
13:01
strengthening強化 the force
of machine substitution代換,
276
769960
2576
強化機器代替的那股力量,
13:04
weakening弱化 the force
of machine complementarity互補性.
277
772560
3616
弱化機器互補性的那股力量。
13:08
And at some point, that balance平衡
falls下降 in favor偏愛 of machines
278
776200
4296
在某個時點,那平衡
會變得對機器有利,
13:12
rather than human人的 beings眾生.
279
780520
2056
而非人類。
13:14
This is the path路徑 we're currently目前 on.
280
782600
1736
我們目前就在這條路上。
13:16
I say "path路徑" deliberately故意,
because I don't think we're there yet然而,
281
784360
3176
我刻意用「路」這個字,
因為我們還沒有到達那裡,
13:19
but it is hard to avoid避免 the conclusion結論
that this is our direction方向 of travel旅行.
282
787560
3640
但無可避免,結論會是:
這就是我們行進的方向。
13:24
That's the troubling令人不安 part部分.
283
792640
1456
那是讓人困擾的部分。
13:26
Let me say now why I think actually其實
this is a good problem問題 to have.
284
794120
3520
現在讓我說明為什麼我認為
有這個問題是件好事。
13:30
For most of human人的 history歷史,
one economic經濟 problem問題 has dominated佔主導地位:
285
798520
3536
大部分的人類歷史中,
主導的都是這一個經濟問題:
13:34
how to make the economic經濟 pie餡餅
large enough足夠 for everyone大家 to live生活 on.
286
802080
4056
如何讓經濟的派夠大,
確保每個人都得以維生。
13:38
Go back to the turn
of the first century世紀 AD廣告,
287
806160
2176
回到西元一世紀,
13:40
and if you took the global全球 economic經濟 pie餡餅
288
808360
2096
如果用全球的派當作例子,
13:42
and divided分為 it up into equal等於 slices
for everyone大家 in the world世界,
289
810480
3296
將它切成相同的等分,
分給全世界的人,
13:45
everyone大家 would get a few少數 hundred dollars美元.
290
813800
2136
每個人可能得到幾百美元。
13:47
Almost幾乎 everyone大家 lived生活
on or around the poverty貧窮 line.
291
815960
2760
幾乎每個人都是在
貧窮水平線上下過生活。
13:51
And if you roll forward前鋒 a thousand years年份,
292
819320
2176
如果你再向前轉一千年,
13:53
roughly大致 the same相同 is true真正.
293
821520
1240
大致上也是一樣的。
13:55
But in the last few少數 hundred years年份,
economic經濟 growth發展 has taken採取 off.
294
823680
3576
但在過去幾百年間,經濟成長起飛。
13:59
Those economic經濟 pies餡餅 have exploded爆炸 in size尺寸.
295
827280
2376
這些經濟的派在尺寸上都爆增。
14:01
Global全球 GDPGDP per head,
296
829680
2056
全球的人均生產總值,
14:03
the value of those individual個人
slices of the pie餡餅 today今天,
297
831760
3376
也就是現今每個人分到的那片派,
14:07
they're about 10,150 dollars美元.
298
835160
2816
價值約 10,150 美元。
14:10
If economic經濟 growth發展 continues繼續
at two percent百分,
299
838000
2696
如果經濟成長率維持 2%,
14:12
our children孩子 will be twice兩次 as rich豐富 as us.
300
840720
2056
我們的孩子會比我們富有兩倍。
14:14
If it continues繼續
at a more measly可憐的 one percent百分,
301
842800
2296
如果成長率低一點,維持在 1%,
14:17
our grandchildren孫子
will be twice兩次 as rich豐富 as us.
302
845120
2656
我們的孫子會比我們富有兩倍。
14:19
By and large, we've我們已經 solved解決了
that traditional傳統 economic經濟 problem問題.
303
847800
3680
總的來說,我們解決了
傳統的經濟問題。
14:24
Now, technological技術性 unemployment失業,
if it does happen發生,
304
852200
3016
如果真的因為科技進步而造成失業,
14:27
in a strange奇怪 way will be
a symptom症狀 of that success成功,
305
855240
3216
從一種奇怪的角度來看,
那會是一種成功的象徵,
14:30
will have solved解決了 one problem問題 --
how to make the pie餡餅 bigger --
306
858480
3856
它能夠解決一個問題
──如何讓派變大──
14:34
but replaced更換 it with another另一個 --
307
862360
1816
但卻用另一個問題取代它──
14:36
how to make sure
that everyone大家 gets得到 a slice.
308
864200
2760
如何確保每個人得到一片派。
14:39
As other economists經濟學家 have noted注意,
solving this problem問題 won't慣於 be easy簡單.
309
867840
3496
如其他經濟學家注意到的,
解決這個問題並不容易。
14:43
Today今天, for most people,
310
871360
1656
現今,對大部分人而言,
14:45
their job工作 is their seat座位
at the economic經濟 dinner晚餐 table,
311
873040
2496
他們的工作就是在
經濟晚餐餐桌上的席位,
14:47
and in a world世界 with less work
or even without work,
312
875560
2416
在一個更少或甚至沒工作的世界裡,
14:50
it won't慣於 be clear明確
how they get their slice.
313
878000
2056
沒人知道他們如何得到自己的那片派。
14:52
There's a great deal合同
of discussion討論, for instance,
314
880080
2336
比如,有很多的討論都是
14:54
about various各個 forms形式
of universal普遍 basic基本 income收入
315
882440
2696
關於全體基本收入的各種形式,
14:57
as one possible可能 approach途徑,
316
885160
1216
這是種可能的方式,
14:58
and there's trials試驗 underway進行
317
886400
1616
且在美國、芬蘭,
15:00
in the United聯合的 States狀態
and in Finland芬蘭 and in Kenya肯尼亞.
318
888040
2400
及肯亞都有試驗正在進行中。
15:03
And this is the collective集體 challenge挑戰
that's right in front面前 of us,
319
891000
3176
這是我們要面臨的集體挑戰,
15:06
to figure數字 out how this material材料 prosperity繁榮
generated產生 by our economic經濟 system系統
320
894200
5056
要想出我們的經濟體制
所產生出的物質繁榮要如何
15:11
can be enjoyed享受 by everyone大家
321
899280
1976
讓每個人都享受到,
15:13
in a world世界 in which哪一個
our traditional傳統 mechanism機制
322
901280
2416
而且在這個世界中,
我們的傳統切派機制,
15:15
for slicing切片 up the pie餡餅,
323
903720
1856
15:17
the work that people do,
324
905600
1936
瓜分人們所做的工作的機制,
15:19
withers威瑟斯 away and perhaps也許 disappears消失.
325
907560
2160
在衰弱且也許在消失中。
15:22
Solving解決 this problem問題 is going to require要求
us to think in very different不同 ways方法.
326
910280
4360
若要解決這個問題,我們
得要用很不同的方式思考。
15:27
There's going to be a lot of disagreement異議
about what ought應該 to be doneDONE,
327
915400
4176
對於該做什麼事,
必定會有很多異議,
15:31
but it's important重要 to remember記得
that this is a far better problem問題 to have
328
919600
3416
但很重要的是要記住,
有這個問題其實算好事,
15:35
than the one that haunted鬧鬼
our ancestors祖先 for centuries百年:
329
923040
2816
比我們的祖先煩惱了
幾世紀的問題要好多了,
15:37
how to make that pie餡餅
big enough足夠 in the first place地點.
330
925880
3376
他們煩惱的是:
一開始要如何讓派變大。
15:41
Thank you very much.
331
929280
1256
非常謝謝各位。
15:42
(Applause掌聲)
332
930560
3840
(掌聲)
Translated by Lilian Chiu
Reviewed by Dawson Chen

▲Back to top

ABOUT THE SPEAKER
Daniel Susskind - Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society.

Why you should listen

Daniel Susskind is the co-author, with Richard Susskind, of the best-selling book, The Future of the Professions, and a Fellow in Economics at Balliol College, Oxford University. He is currently finishing his latest book, on the future of work. Previously, he worked in the British Government -- as a policy adviser in the Prime Minister's Strategy Unit, as a policy analyst in the Policy Unit in 10 Downing Street, and as a senior policy adviser in the Cabinet Office. Susskind received a doctorate in economics from Oxford University and was a Kennedy Scholar at Harvard University.

More profile about the speaker
Daniel Susskind | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee