ABOUT THE SPEAKER
P.W. Singer - Military analyst
In P.W. Singer's most recent book, "Wired for War," he studies robotic and drone warfighters -- and explores how these new war machines are changing the very nature of human conflict. He has also written on other facets of modern war, including private armies and child soldiers.

Why you should listen

Peter Warren Singer is the director of the 21st Century Defense Initiative at the Brookings Institution -- where his research and analysis offer an eye-opening take on what the 21st century holds for war and foreign policy. His latest book, Wired for War, examines how the US military has been, in the words of a recent US Navy recruiting ad, "working hard to get soldiers off the front lines" and replacing humans with machines for bombing, flying and spying. He asks big questions: What will the rise of war machines mean to traditional notions of the battlefield, like honor? His 2003 book Corporate Warriors was a prescient look at private military forces. It's essential reading for anyone curious about what went on to happen in Iraq involving these quasi-armies.

Singer is a prolific writer and essayist (for Brookings, for newspapers, and for Wired.com's great Threat Level), and is expert at linking popular culture with hard news on what's coming next from the military-industrial complex. Recommended: his recent piece for Brookings called "A Look at the Pentagon's Five-Step Plan for Making Iron Man Real."

More profile about the speaker
P.W. Singer | Speaker | TED.com
TED2009

P.W. Singer: Military robots and the future of war

P.W. Singer 談論軍用機器人以及未來的戰爭型態

Filmed:
1,722,376 views

在這個強力的演說中, P.W. Singer 告訴我們在戰爭中廣泛使用機器人這件事正逐漸改變戰爭的本質. 他讓我們看見科幻電影中的一些場景 -- 那似乎已經不再虛幻了。
- Military analyst
In P.W. Singer's most recent book, "Wired for War," he studies robotic and drone warfighters -- and explores how these new war machines are changing the very nature of human conflict. He has also written on other facets of modern war, including private armies and child soldiers. Full bio

Double-click the English transcript below to play the video.

00:16
I thought I'd begin開始 with a scene現場 of war戰爭.
0
1000
2000
我想從一個戰爭的場景來開始談。
00:18
There was little to warn警告 of the danger危險 ahead.
1
3000
2000
這裡看不出任何徵兆來得知前方隱藏的危險。
00:20
The Iraqi伊拉克人 insurgent叛亂 had placed放置 the IEDIED,
2
5000
2000
事實上伊拉克反抗軍已經在路旁
00:22
an Improvised即興 Explosive爆炸物 Device設備,
3
7000
3000
很小心的裝置了 IED,
00:25
along沿 the side of the road with great care關心.
4
10000
2000
那是一種簡易爆炸裝置。
00:27
By 2006, there were more than 2,500
5
12000
4000
在 2006 這一年中,
00:31
of these attacks攻擊 every一切 single month,
6
16000
3000
每個月有超過 2500 件這類攻擊事件,
00:34
and they were the leading領導 cause原因 of
7
19000
2000
而這些正是造成
00:36
casualties傷亡 among其中 American美國 soldiers士兵
8
21000
2000
美國士兵以及伊拉克居民
00:38
and Iraqi伊拉克人 civilians老百姓.
9
23000
2000
死傷的主要原因。
00:40
The team球隊 that was hunting狩獵 for this IEDIED
10
25000
2000
搜尋這種 IED 的小組
00:42
is called an EODEOD team球隊
11
27000
2000
被稱為 EOD 小組 --
00:44
Explosives炸藥 Ordinance條例 Disposal處置—and
12
29000
2000
爆破性武器處理( Explosive Ordnance Disposal )
00:46
they're the pointy尖尖 end結束 of the spear in the
13
31000
2000
他們是美軍部隊中
00:48
American美國 effort功夫 to suppress壓制 these roadside路邊 bombs炸彈.
14
33000
3000
專門對付路旁炸彈的尖兵。
00:51
Each EODEOD team球隊 goes out on about
15
36000
2000
每個 EOD 小組每年會進行
00:53
600 of these bomb炸彈 calls電話 every一切 year,
16
38000
2000
大約 600 次這類炸彈任務,
00:55
defusing化解 about two bombs炸彈 a day.
17
40000
3000
每天大概要拆兩個炸彈。
00:58
Perhaps也許 the best最好 sign標誌 of how valuable有價值 they
18
43000
2000
也許對他們來說,
01:00
are to the war戰爭 effort功夫, is that
19
45000
2000
伊拉克反抗軍用5萬美金
01:02
the Iraqi伊拉克人 insurgents叛亂分子 put a $50,000 bounty賞金
20
47000
2000
懸賞一個EOD士兵的人頭這件事,
01:04
on the head of a single EODEOD soldier士兵.
21
49000
3000
可以看出他們有多珍貴。
01:07
Unfortunately不幸, this particular特定 call
22
52000
2000
很不幸的,
01:09
would not end結束 well.
23
54000
2000
這種特殊任務不一定能安全完成。
01:11
By the time the soldier士兵 advanced高級 close
24
56000
2000
某次一位資深士兵為了看訊號線
01:13
enough足夠 to see the telltale揭秘 wires電線
25
58000
2000
過度接近一枚炸彈,
01:15
of the bomb炸彈, it exploded爆炸 in a wave of flame火焰.
26
60000
3000
結果它炸出了一道火牆。
01:18
Now, depending根據 how close you are
27
63000
2000
依據你靠得多近,
01:20
and how much explosive爆炸物 has been packed打包
28
65000
2000
以及炸彈中裝置了多少火藥,
01:22
into that bomb炸彈, it can cause原因 death死亡
29
67000
2000
它會導致人員死亡或受傷。
01:24
or injury. You have to be as far as
30
69000
2000
你必須要保持距離
01:26
50 yards away to escape逃逸 that.
31
71000
2000
在 50 碼以上才能不受波及。
01:28
The blast爆破 is so strong強大 it can even break打破
32
73000
2000
沖擊波強大到足以震斷你的四肢,
01:30
your limbs四肢, even if you're not hit擊中.
33
75000
2000
即使你沒有被炸彈擊中。
01:32
That soldier士兵 had been on top最佳 of the bomb炸彈.
34
77000
2000
這位士兵正身處於炸彈上方。
01:34
And so when the rest休息 of the team球隊 advanced高級
35
79000
3000
而這個資深隊伍的其他人員
01:37
they found發現 little left. And that night the unit's單位
36
82000
2000
只在稍微左邊一點的位置。而在當晚,
01:39
commander指揮官 did a sad傷心 duty義務, and he wrote
37
84000
2000
這個隊伍的指揮官做了一件令人難過的任務,
01:41
a condolence慰問 letter back to the United聯合的
38
86000
2000
他寫了一封哀悼的信回美國,
01:43
States狀態, and he talked about how hard the
39
88000
2000
他描述關於失去他的隊伍他有多傷心,
01:45
loss失利 had been on his unit單元, about the fact事實
40
90000
2000
而且事實上,
01:47
that they had lost丟失 their bravest最勇敢 soldier士兵,
41
92000
2000
他們失去了最勇敢的士兵,
01:49
a soldier士兵 who had saved保存 their lives生活
42
94000
2000
一位曾經多次
01:51
many許多 a time.
43
96000
2000
拯救他們性命的士兵。
01:53
And he apologized道歉
44
98000
2000
並且,他感到抱歉
01:55
for not being存在 able能夠 to bring帶來 them home.
45
100000
2000
因為他無法將這個人帶回家。
01:57
But then he talked up the silver lining
46
102000
2000
但是從這個事件中,
01:59
that he took away from the loss失利.
47
104000
2000
他提到了一絲希望。
02:01
"At least最小," as he wrote, "when a robot機器人 dies,
48
106000
2000
如他所寫的,
02:03
you don't have to write a letter
49
108000
2000
「至少當一個機器人死亡時,
02:05
to its mother母親."
50
110000
2000
你不用寫信給他的母親。」
02:07
That scene現場 sounds聲音 like science科學 fiction小說,
51
112000
2000
這聽起來像是科幻電影的場景,
02:09
but is battlefield戰場 reality現實 already已經.
52
114000
2000
但這是戰場上真實的事情。
02:11
The soldier士兵 in that case案件
53
116000
3000
在這個例子中的士兵,
02:14
was a 42-pound-磅 robot機器人 called a PackBotPackBot機器人.
54
119000
3000
是一個重達 42 磅,名為 PackBot 的機器人。
02:17
The chief's酋長的 letter went, not to some
55
122000
3000
這位長官的信,
02:20
farmhouse農家 in Iowa愛荷華州 like you see
56
125000
2000
不像你在一些老舊戰爭電影所見
02:22
in the old war戰爭 movies電影, but went to
57
127000
3000
寄給愛荷華州的某個家園,
02:25
the iRobot我是機器人 Company公司, which哪一個 is
58
130000
2000
而是寄給這家 iRobot 公司,
02:27
named命名 after the Asimov阿西莫夫 novel小說
59
132000
3000
名字取自 Asimov 小說
02:30
and the not-so-great不太好 Will Smith工匠 movie電影,
60
135000
2000
以及不怎麼樣的 Will Smith 電影,
02:32
and... umUM... (Laughter笑聲)...
61
137000
2000
還有 ... ( 笑聲 ) ...
02:34
if you remember記得 that
62
139000
2000
如果你還記得
02:36
in that fictional虛構 world世界, robots機器人 started開始 out
63
141000
2000
在那個科幻世界中,機器人一開始
02:38
carrying攜帶 out mundane平凡 chores瑣事, and then
64
143000
2000
只會幫我們做家事,接著,
02:40
they started開始 taking服用 on life-and-death生與死 decisions決定.
65
145000
2000
它們可以決定我們的生死。
02:42
That's a reality現實 we face面對 today今天.
66
147000
2000
這就是今日我們面對的真實狀況。
02:44
What we're going to do is actually其實 just
67
149000
2000
接下來,我將會用我身後的投影片
02:46
flash a series系列 of photos相片 behind背後 me that
68
151000
2000
來播放一些照片給大家看,
02:48
show顯示 you the reality現實 of robots機器人 used in war戰爭
69
153000
3000
讓大家看看目前被用於戰場
02:51
right now or already已經 at the prototype原型 stage階段.
70
156000
2000
以及那些已經有原型機(prototype)的機器人。
02:53
It's just to give you a taste味道.
71
158000
3000
這只是稍微做個介紹。
02:56
Another另一個 way of putting it is you're not
72
161000
2000
另外要提一下,
02:58
going to see anything that's powered動力
73
163000
2000
你們現在看見的這些,
03:00
by Vulcan火神 technology技術, or teenage青少年
74
165000
2000
並不是瓦肯人的外星技術,
03:02
wizard巫師 hormones激素 or anything like that.
75
167000
2000
或是少年巫師賀爾蒙作祟變出來的東西。
03:04
This is all real真實. So why don't we
76
169000
2000
這一切都是真實的。
03:06
go ahead and start開始 those pictures圖片.
77
171000
2000
我們開始看看這些照片吧
03:08
Something big is going on in war戰爭 today今天,
78
173000
2000
人性在現今的戰爭中
03:10
and maybe even the history歷史 of humanity人性
79
175000
2000
出現有史以來的重大改變。
03:12
itself本身. The U.S. military軍事 went into Iraq伊拉克 with
80
177000
3000
當初美軍進入伊拉克時,
03:15
a handful少數 of drones無人駕駛飛機 in the air空氣.
81
180000
2000
只有少數的無人飛機,
03:17
We now have 5,300.
82
182000
3000
現在已經增加到 5300 架。
03:20
We went in with zero unmanned無人 ground地面
83
185000
2000
當時我們沒有無人的地面系統,
03:22
systems系統. We now have 12,000.
84
187000
4000
現在已經有 12000 架了。
03:26
And the tech高科技 term術語 "killer兇手 application應用"
85
191000
2000
而 "殺手級應用" 這個技術名詞
03:28
takes on new meaning含義 in this space空間.
86
193000
3000
在這兒將會有新的定義。
03:31
And we need to remember記得 that we're
87
196000
2000
請記住我們現在所談的是
03:33
talking about the Model模型 T Fords福特,
88
198000
2000
拿福特的Model T4 車,
03:35
the Wright賴特 Flyers傳單, compared相比
89
200000
2000
與萊特兄弟的飛機
03:37
to what's coming未來 soon不久.
90
202000
2000
和即將推出的最新款比較的那種巨大差異。
03:39
That's where we're at right now.
91
204000
2000
這就是我們現在即將看見的。
03:41
One of the people that I recently最近 met會見 with
92
206000
2000
我最近遇到一位
03:43
was an Air空氣 Force three-star三星級 general一般, and he
93
208000
2000
空軍三星上將,他說,
03:45
said basically基本上, where we're headed當家 very
94
210000
2000
基本上我們即將面對的是,
03:47
soon不久 is tens of thousands數千 of robots機器人
95
212000
2000
將會有成千上萬的機器人
03:49
operating操作 in our conflicts衝突, and these
96
214000
2000
在戰場上作戰,
03:51
numbers數字 matter, because we're not just
97
216000
2000
而這個數字之所以重要,是因為我們不是談論
03:53
talking about tens of thousands數千 of today's今天的
98
218000
2000
成千上萬的現有機器人,
03:55
robots機器人, but tens of thousands數千 of these
99
220000
2000
而是成千上萬的原型機,
03:57
prototypes原型 and tomorrow's明天的 robots機器人, because
100
222000
2000
以及未來機器人,因為,
03:59
of course課程, one of the things that's operating操作
101
224000
3000
在現今科技裡面
04:02
in technology技術 is Moore's摩爾定律 Law,
102
227000
2000
有個叫做摩爾定律的東西,
04:04
that you can pack in more and more
103
229000
2000
就是說你將可以替機器人
04:06
computing計算 power功率 into those robots機器人, and so
104
231000
2000
裝入更多強力的運算能力,
04:08
flash forward前鋒 around 25 years年份,
105
233000
2000
所以往後推算 25 年的話,
04:10
if Moore's摩爾定律 Law holds持有 true真正,
106
235000
2000
如果摩爾定律依然正確的話,
04:12
those robots機器人 will be close to a billion十億 times
107
237000
3000
這些機器人在運算能力上
04:15
more powerful強大 in their computing計算 than today今天.
108
240000
3000
將會比今日強上十幾億倍。
04:18
And so what that means手段 is the kind of
109
243000
2000
這樣的話,
04:20
things that we used to only talk about at
110
245000
2000
我們本來在一些漫畫同人展中
04:22
science科學 fiction小說 conventions公約 like Comic-Con動漫展
111
247000
2000
討論的一些科幻小說內容,
04:24
have to be talked about in the halls大廳
112
249000
2000
將會改在掌權者的會議室中談論,
04:26
of power功率 and places地方 like the Pentagon五角大樓.
113
251000
2000
像是五角大廈這種地方。
04:28
A robots機器人 revolution革命 is upon us.
114
253000
3000
機器人的巨大轉變正在發生。
04:31
Now, I need to be clear明確 here.
115
256000
2000
在這兒我必須先說清楚。
04:33
I'm not talking about a revolution革命 where you
116
258000
2000
我並不是在說
04:35
have to worry擔心 about the Governor州長 of
117
260000
2000
某天加州州長會以魔鬼終結者型態
04:37
California加州 showing展示 up at your door,
118
262000
2000
出現在你家門前
04:39
a la the Terminator終結者. (Laughter笑聲)
119
264000
2000
那種令你擔心的事。(笑聲)
04:41
When historians歷史學家 look at this period, they're
120
266000
2000
以後的歷史學家看我們這段時期時,
04:43
going to conclude得出結論 that we're in a different不同
121
268000
2000
他們會寫說我們正處於一種不同的轉變期,
04:45
type類型 of revolution革命: a revolution革命 in war戰爭,
122
270000
2000
一種戰爭型態的轉變,
04:47
like the invention發明 of the atomic原子 bomb炸彈.
123
272000
2000
就像是原子彈的發明一般。
04:49
But it may可能 be even bigger than that,
124
274000
2000
但可能還會更加重大,
04:51
because our unmanned無人 systems系統 don't just
125
276000
2000
因為我們擁有的無人系統
04:53
affect影響 the "how" of war-fighting作戰,
126
278000
2000
並不只是影響"如何"去作戰,
04:55
they affect影響 the "who" of fighting戰鬥
127
280000
2000
它們將影響在機器人最重要的原則,
04:57
at its most fundamental基本的 level水平.
128
282000
2000
它是"和誰"在作戰。
04:59
That is, every一切 previous以前 revolution革命 in war戰爭, be
129
284000
2000
就是說,在以往的戰爭型態改變中,
05:01
it the machine gun, be it the atomic原子 bomb炸彈,
130
286000
2000
不論是機關槍,或是原子彈,
05:03
was about a system系統 that either shot射擊 faster更快,
131
288000
3000
都只是關於如何作到射得更快,
05:06
went further進一步, had a bigger boom繁榮.
132
291000
3000
前進得更遠,或是爆炸威力更大。
05:09
That's certainly當然 the case案件 with robotics機器人, but
133
294000
3000
這些當然也和機器人有關係,
05:12
they also change更改 the experience經驗 of the warrior戰士
134
297000
3000
但這將會改變士兵們的經歷,
05:15
and even the very identity身分 of the warrior戰士.
135
300000
3000
甚至是士兵們的身份。
05:18
Another另一個 way of putting this is that
136
303000
3000
另外一部分就是,
05:21
mankind's人類的 5,000-year-old-歲 monopoly壟斷
137
306000
2000
人類在近5000年來
05:23
on the fighting戰鬥 of war戰爭 is breaking破壞 down
138
308000
3000
在戰場上作戰的專利
05:26
in our very lifetime一生. I've spent花費
139
311000
2000
將會在我們這個世代中結束。
05:28
the last several一些 years年份 going around
140
313000
2000
過去幾年來,
05:30
meeting會議 with all the players玩家 in this field領域,
141
315000
2000
我到各地去拜訪這個領域的人們,
05:32
from the robot機器人 scientists科學家們 to the science科學
142
317000
2000
包括了製作機器人的科學家,
05:34
fiction小說 authors作者 who inspired啟發 them to the
143
319000
2000
提供靈感的那些科幻小說作者,
05:36
19-year-old-歲 drone無人駕駛飛機 pilots飛行員 who are fighting戰鬥
144
321000
2000
那些身在內華達州
05:38
from Nevada內華達, to the four-star四星 generals將軍
145
323000
2000
負責操縱無人飛機的19歲駕駛們,
05:40
who command命令 them, to even the Iraqi伊拉克人
146
325000
2000
負責指揮這些人的四星上將,
05:42
insurgents叛亂分子 who they are targeting針對 and what
147
327000
2000
甚至是被攻擊的伊拉克反抗軍,
05:44
they think about our systems系統, and
148
329000
2000
詢問他們對這套系統的看法,
05:46
what I found發現 interesting有趣 is not just
149
331000
2000
令我感興趣的並不只是
05:48
their stories故事, but how their experiences經驗
150
333000
2000
他們自身的故事,
05:50
point to these ripple波紋 effects效果 that are going
151
335000
2000
而是他們所經歷的這些
05:52
outwards向外 in our society社會, in our law
152
337000
2000
將如何影響我們的社會,我們的法律
05:54
and our ethics倫理, etc等等. And so what I'd like
153
339000
2000
以及道德觀之類的。
05:56
to do with my remaining其餘 time is basically基本上
154
341000
2000
我會利用剩餘的時間,
05:58
flesh out a couple一對 of these.
155
343000
2000
將這些作一個簡單的說明。
06:00
So the first is that the future未來 of war戰爭,
156
345000
2000
首先,戰爭的未來型態,
06:02
even a robotics機器人 one, is not going to be
157
347000
2000
甚至是利用機器人的戰爭,
06:04
purely純粹 an American美國 one.
158
349000
2000
將不再只是美國的問題。
06:06
The U.S. is currently目前 ahead in military軍事
159
351000
2000
確實現在美國在軍事機器人方面
06:08
robotics機器人 right now, but we know that in
160
353000
2000
佔有領先的地位,但是我們知道
06:10
technology技術 there's no such這樣 thing as
161
355000
2000
科技這種東西不會有
06:12
a permanent常駐 first move移動 or advantage優點.
162
357000
3000
永遠保持領先這種事。
06:15
In a quick show顯示 of hands, how many許多
163
360000
2000
這樣說吧,請問
06:17
people in this room房間 still use
164
362000
2000
這裡有多少人還在使用
06:19
Wang Computers電腦? (Laughter笑聲)
165
364000
2000
王安電腦? (笑聲)
06:21
It's the same相同 thing in war戰爭. The British英國的 and
166
366000
2000
戰爭也是一樣。英國以及
06:23
the French法國 invented發明 the tank坦克.
167
368000
3000
法國發明了坦克。
06:26
The Germans德國 figured想通 out how
168
371000
2000
而德國人發現該如何
06:28
to use it right, and so what we have to
169
373000
2000
正確的使用它,所以
06:30
think about for the U.S. is that we are
170
375000
2000
我們現在要思考的是,
06:32
ahead right now, but you have
171
377000
2000
雖然美國現在領先,
06:34
43 other countries國家 out there
172
379000
2000
但世界上還有其他43個國家
06:36
working加工 on military軍事 robotics機器人, and they
173
381000
2000
正在努力開發軍事機器人,
06:38
include包括 all the interesting有趣 countries國家 like
174
383000
2000
包括了那些值得注意的國家
06:40
Russia俄國, China中國, Pakistan巴基斯坦, Iran伊朗.
175
385000
3000
例如俄羅斯、中國、巴基斯坦和伊朗。
06:43
And this raises加薪 a bigger worry擔心 for me.
176
388000
3000
這讓我更加擔憂。
06:46
How do we move移動 forward前鋒 in this revolution革命
177
391000
2000
我們該如何利用
06:48
given特定 the state of our manufacturing製造業
178
393000
2000
現有的製造技術、現有的學校科學
06:50
and the state of our science科學 and
179
395000
2000
與數學教育,
06:52
mathematics數學 training訓練 in our schools學校?
180
397000
2000
在這個戰爭型態轉變中繼續向前?
06:54
Or another另一個 way of thinking思維 about this is,
181
399000
2000
換個想法的話就是,
06:56
what does it mean to go to war戰爭 increasingly日益
182
401000
2000
越來越多士兵在戰場上使用中國製的硬體設備,
06:58
with soldiers士兵 whose誰的 hardware硬件 is made製作
183
403000
3000
以及印度所寫的電腦軟體,
07:01
in China中國 and software軟件 is written書面 in India印度?
184
406000
5000
這將會是什麼情況呢?
07:06
But just as software軟件 has gone走了 open-source開源,
185
411000
3000
但正如同軟體逐漸趨向開放式原始碼(open source),
07:09
so has warfare.
186
414000
2000
戰爭也是如此。
07:11
Unlike不像 an aircraft飛機 carrier支架 or an atomic原子 bomb炸彈,
187
416000
3000
不同於飛機或是原子彈,
07:14
you don't need a massive大規模的 manufacturing製造業
188
419000
2000
你不需要有大型生產系統來製造機器人。
07:16
system系統 to build建立 robotics機器人. A lot of it is
189
421000
2000
大部分都有現成品,
07:18
off the shelf. A lot of it's even do-it-yourself自己做.
190
423000
2000
有些甚至可以讓你DIY的。
07:20
One of those things you just saw flashed閃現
191
425000
2000
像是各位在剛才的影片中
07:22
before you was a raven掠奪 drone無人駕駛飛機, the handheld手持
192
427000
2000
看見的烏鴉號無人飛機,
07:24
tossed one. For about a thousand dollars美元,
193
429000
2000
手持拋擲的那台,只要大約1千美金,
07:26
you can build建立 one yourself你自己, equivalent當量 to
194
431000
2000
你就可以自己做一台,
07:28
what the soldiers士兵 use in Iraq伊拉克.
195
433000
2000
和那些在伊拉克的士兵們所用的完全一樣。
07:30
That raises加薪 another另一個 wrinkle皺紋 when it comes
196
435000
2000
當關係到戰爭和衝突時,
07:32
to war戰爭 and conflict衝突. Good guys might威力 play
197
437000
2000
這東西就會有不同的用法,
07:34
around and work on these as hobby愛好 kits,
198
439000
2000
好人可能只是拿來玩玩,把這些當作興趣而已,
07:36
but so might威力 bad guys.
199
441000
2000
但壞人也會拿來玩。
07:38
This cross交叉 between之間 robotics機器人 and things like
200
443000
2000
這個介於機器人技術與恐怖主義行為的東西,
07:40
terrorism恐怖主義 is going to be fascinating迷人
201
445000
2000
將會變得相當迷人,
07:42
and even disturbing煩擾的,
202
447000
2000
但又相當令人困擾,
07:44
and we've我們已經 already已經 seen看到 it start開始.
203
449000
2000
我們已經看見它發生了。
07:46
During the war戰爭 between之間 Israel以色列, a state,
204
451000
2000
在以色列這個國家,
07:48
and Hezbollah真主黨, a non-state非國有 actor演員,
205
453000
3000
與真主黨這個非國家組織的戰爭中,
07:51
the non-state非國有 actor演員 flew
206
456000
2000
真主黨操縱了
07:53
four different不同 drones無人駕駛飛機 against反對 Israel以色列.
207
458000
2000
四架無人飛機來對抗以色列。
07:55
There's already已經 a jihadi聖戰 website網站
208
460000
2000
你甚至可以坐在家裡,
07:57
that you can go on and remotely遠程
209
462000
2000
使用電腦連到一個Jehadi網站,
07:59
detonate起爆 an IEDIED in Iraq伊拉克 while sitting坐在
210
464000
2000
遙控引爆在伊拉克的
08:01
at your home computer電腦.
211
466000
2000
簡易爆炸裝置。
08:03
And so I think what we're going to see is
212
468000
2000
因此,我想這個將會導致
08:05
two trends趨勢 take place地點 with this.
213
470000
2000
兩種趨勢的發生。
08:07
First is, you're going to reinforce加強 the power功率
214
472000
2000
第一個是,個人對抗政府的力量
08:09
of individuals個人 against反對 governments政府,
215
474000
4000
將會變得更加強大,
08:13
but then the second第二 is that
216
478000
2000
但第二個則是,
08:15
we are going to see an expansion擴張
217
480000
2000
我們將會看見
08:17
in the realm領域 of terrorism恐怖主義.
218
482000
2000
恐怖份子的勢力範圍逐漸擴大。
08:19
The future未來 of it may可能 be a cross交叉 between之間
219
484000
2000
未來可能將是
08:21
al Qaeda凱達 2.0 and the
220
486000
2000
蓋達組織2.0與
08:23
next下一個 generation of the Unabomber炸彈客.
221
488000
2000
次世代郵包炸彈客聯手的情況。
08:25
And another另一個 way of thinking思維 about this
222
490000
2000
另外一方面的問題是,
08:27
is the fact事實 that, remember記得, you don't have
223
492000
2000
請記住,你並不需要
08:29
to convince說服 a robot機器人 that they're gonna
224
494000
2000
去說服機器人相信
08:31
receive接收 72 virgins處女 after they die
225
496000
3000
在犧牲後會獲得72個處女,
08:34
to convince說服 them to blow打擊 themselves他們自己 up.
226
499000
3000
以說服它們執行自殺炸彈任務。
08:37
But the ripple波紋 effects效果 of this are going to go
227
502000
2000
但這件事將會在政治上
08:39
out into our politics政治. One of the people that
228
504000
2000
產生一些影響。我曾經遇到
08:41
I met會見 with was a former前任的 Assistant助理 Secretary秘書 of
229
506000
2000
雷根時代的前國防部助理秘書長。
08:43
Defense防禦 for Ronald羅納德 Reagan裡根, and he put it
230
508000
2000
他曾經這樣說過,
08:45
this way: "I like these systems系統 because
231
510000
2000
"我喜歡這些系統,
08:47
they save保存 American美國 lives生活, but I worry擔心 about
232
512000
2000
因為它可以拯救許多美國人的性命,
08:49
more marketization市場化 of wars戰爭,
233
514000
2000
但是我擔心
08:51
more shock-and-awe衝擊和敬畏 talk,
234
516000
3000
這將會使得戰爭變得更加自由市場化,
08:54
to defray支付 discussion討論 of the costs成本.
235
519000
2000
會出現更多談論代價的驚人言論。
08:56
People are more likely容易 to support支持 the use
236
521000
2000
當人們認為某種方式是幾乎不需付出代價時,
08:58
of force if they view視圖 it as costless不花錢."
237
523000
3000
人們會比較傾向去使用它。"
09:01
Robots機器人 for me take certain某些 trends趨勢
238
526000
2000
對我來說,機器人化是必然的趨勢,
09:03
that are already已經 in play in our body身體 politic政治,
239
528000
3000
甚至已經在政治體系中出現,
09:06
and maybe take them to
240
531000
2000
也許已經讓它們
09:08
their logical合乎邏輯 ending結尾 point.
241
533000
2000
變得相當合理化。
09:10
We don't have a draft草案. We don't
242
535000
2000
對於這個我們並沒有任何草案。
09:12
have declarations聲明 of war戰爭 anymore.
243
537000
3000
我們不再有任何戰爭宣言。
09:15
We don't buy購買 war戰爭 bonds債券 anymore.
244
540000
2000
我們不再買任何戰爭公債。
09:17
And now we have the fact事實 that we're
245
542000
2000
但事實上,
09:19
converting轉換 more and more of our American美國
246
544000
2000
我們正在持續將那些
09:21
soldiers士兵 that we would send發送 into harm's傷害的
247
546000
2000
原本要送往危險區域的美國士兵們
09:23
way into machines, and so we may可能 take
248
548000
3000
盡量以機器人替代,這樣我們就可以
09:26
those already已經 lowering降低 bars酒吧 to war戰爭
249
551000
3000
讓那些反對戰爭的民調數字
09:29
and drop下降 them to the ground地面.
250
554000
3000
降至最低。
09:32
But the future未來 of war戰爭 is also going to be
251
557000
2000
但是未來的戰爭,
09:34
a YouTubeYouTube的 war戰爭.
252
559000
2000
也將會變成YouTube型態的戰爭。
09:36
That is, our new technologies技術 don't merely僅僅
253
561000
2000
就是說,我們的機器人
09:38
remove去掉 humans人類 from risk風險.
254
563000
2000
不只可以讓人們遠離危險。
09:40
They also record記錄 everything that they see.
255
565000
3000
同時也會紀錄下它們所看見的一切。
09:43
So they don't just delink脫鉤 the public上市:
256
568000
3000
所以它們不只是讓人群遠離戰爭,
09:46
they reshape重塑 its relationship關係 with war戰爭.
257
571000
3000
它們也重新塑造它與戰爭的關係。
09:49
There's already已經 several一些 thousand
258
574000
2000
現在YouTube上
09:51
video視頻 clips剪輯 of combat戰鬥 footage鏡頭 from Iraq伊拉克
259
576000
2000
已經有數以千計的短片
09:53
on YouTubeYouTube的 right now,
260
578000
2000
紀錄著伊拉克戰爭的狀況,
09:55
most of it gathered雲集 by drones無人駕駛飛機.
261
580000
2000
大部分都是由機器人所拍攝。
09:57
Now, this could be a good thing.
262
582000
2000
這也許是一件好事,
09:59
It could be building建造 connections連接 between之間
263
584000
2000
它可以讓一般家庭
10:01
the home front面前 and the war戰爭 front面前
264
586000
2000
與戰場之間
10:03
as never before.
265
588000
2000
形成一種前所未有的連結。
10:05
But remember記得, this is taking服用 place地點
266
590000
2000
但是,請記住,這正發生在
10:07
in our strange奇怪, weird奇怪的 world世界, and so
267
592000
3000
我們所存在的詭異世界,
10:10
inevitably必將 the ability能力 to download下載 these
268
595000
2000
因此,它們勢必會被人們
10:12
video視頻 clips剪輯 to, you know, your iPodiPod的
269
597000
2000
下載到他們的iPod
10:14
or your ZuneZune播放器 gives you
270
599000
3000
或Zune裡面,
10:17
the ability能力 to turn it into entertainment娛樂.
271
602000
4000
甚至會變成一種娛樂。
10:21
Soldiers士兵 have a name名稱 for these clips剪輯.
272
606000
2000
士兵們給了這種短片一個名字。
10:23
They call it war戰爭 pornA片.
273
608000
2000
他們稱呼它為戰爭色情片。
10:25
The typical典型 one that I was sent發送 was
274
610000
2000
我曾經收到一則經典的影片,
10:27
an email電子郵件 that had an attachment附件 of
275
612000
2000
是封e-mail,夾帶了一段掠奪者攻擊的影片,
10:29
video視頻 of a Predator捕食者 strike罷工 taking服用 out
276
614000
2000
紀錄著攻擊敵人的陣地,
10:31
an enemy敵人 site現場. Missile導彈 hits點擊,
277
616000
2000
飛彈擊中目標時,
10:33
bodies身體 burst爆裂 into the air空氣 with the explosion爆炸.
278
618000
3000
敵軍的身體因為爆破而飛上空中。
10:36
It was set to music音樂.
279
621000
2000
它被配上了音樂。
10:38
It was set to the pop流行的 song歌曲
280
623000
2000
它被配上了一段流行音樂
10:40
"I Just Want To Fly" by Sugar Ray射線.
281
625000
3000
Sugar Ray的"我只想飛"。
10:43
This ability能力 to watch more
282
628000
3000
這種看得更多、
10:46
but experience經驗 less creates創建 a wrinkle皺紋
283
631000
3000
但親身經歷更少的情況,
10:49
in the public's公眾的 relationship關係 with war戰爭.
284
634000
2000
導致大眾與戰爭產生一種奇怪的關係。
10:51
I think about this with a sports體育 parallel平行.
285
636000
2000
我想這就像是觀看運動比賽一樣。
10:53
It's like the difference區別 between之間
286
638000
3000
這就像是在看一場
10:56
watching觀看 an NBANBA game遊戲, a professional專業的
287
641000
3000
NBA比賽一樣,在電視上
10:59
basketball籃球 game遊戲 on TV電視, where the athletes運動員
288
644000
3000
看職業籃球賽時,畫面上的運動員
11:02
are tiny figures人物 on the screen屏幕, and
289
647000
2000
看起來都小小的,
11:04
being存在 at that basketball籃球 game遊戲 in person
290
649000
3000
但是親自在籃球比賽現場時,
11:07
and realizing實現 what someone有人 seven feet
291
652000
2000
你才知道那些身高超過200公分的人
11:09
really does look like.
292
654000
2000
真正是什麼樣子。
11:11
But we have to remember記得,
293
656000
2000
但是我們必須記住,
11:13
these are just the clips剪輯.
294
658000
2000
這些只是短片。
11:15
These are just the ESPNESPN SportsCenter體育中心
295
660000
2000
這些是ESPN運動中心版本的比賽。
11:17
version of the game遊戲. They lose失去 the context上下文.
296
662000
2000
它沒有故事背景,
11:19
They lose失去 the strategy戰略.
297
664000
2000
它沒有戰略,
11:21
They lose失去 the humanity人性. War戰爭 just
298
666000
2000
它沒有人性,
11:23
becomes slam猛撞 dunks扣籃 and smart聰明 bombs炸彈.
299
668000
3000
戰爭變成了像灌籃或是發射飛彈那麼簡單。
11:26
Now the irony諷刺 of all this is that
300
671000
3000
諷刺的是,
11:29
while the future未來 of war戰爭 may可能 involve涉及
301
674000
2000
當未來戰爭
11:31
more and more machines,
302
676000
2000
有更多機器人加入時,
11:33
it's our human人的 psychology心理學 that's driving主動
303
678000
2000
那是被人們的心理因素所驅使,
11:35
all of this, it's our human人的 failings缺點
304
680000
2000
那是因為人們的缺陷
11:37
that are leading領導 to these wars戰爭.
305
682000
2000
導致這些戰爭發生。
11:39
So one example of this that has
306
684000
2000
有一個激起了政治上
11:41
big resonance諧振 in the policy政策 realm領域 is
307
686000
2000
很大迴響的案例,
11:43
how this plays播放 out on our very real真實
308
688000
2000
就是當我們對抗激進份子時,
11:45
war戰爭 of ideas思路 that we're fighting戰鬥
309
690000
2000
我們對於真實戰爭的想法
11:47
against反對 radical激進 groups.
310
692000
2000
會有什麼改變。
11:49
What is the message信息 that we think we are
311
694000
2000
在什麼情況下,我們會決定
11:51
sending發出 with these machines versus what
312
696000
2000
要派出這些機器人,以及
11:53
is being存在 received收到 in terms條款 of the message信息.
313
698000
3000
派出這些機器人之後會有什麼結果。
11:56
So one of the people that I met會見 was
314
701000
2000
我曾經遇到一位
11:58
a senior前輩 Bush襯套 Administration行政 official官方,
315
703000
2000
布希內閣的高級官員,
12:00
who had this to say about
316
705000
2000
他曾經對於這種
12:02
our unmanning駐兵 of war戰爭:
317
707000
2000
無人的戰爭方式這麼說:
12:04
"It plays播放 to our strength強度. The thing that
318
709000
2000
"它讓我們的力量變大,
12:06
scares恐慌 people is our technology技術."
319
711000
2000
令敵人害怕的是我們的科技"
12:08
But when you go out and meet遇到 with people,
320
713000
2000
但是當你走出去,遇到其他人,
12:10
for example in Lebanon黎巴嫩, it's a very
321
715000
2000
例如在黎巴嫩,
12:12
different不同 story故事. One of the people
322
717000
2000
這就變成另外一件事。
12:14
I met會見 with there was a news新聞 editor編輯, and
323
719000
2000
在那裡我遇到一個新聞記者,
12:16
we're talking as a drone無人駕駛飛機 is flying飛行 above以上 him,
324
721000
2000
當我們在談話時,有一架無人飛機正在空中飛行著。
12:18
and this is what he had to say.
325
723000
2002
他這麼說:
"這是只是冷酷無情的另一種象徵,
12:20
"This is just another另一個 sign標誌 of the coldheartedcoldhearted
326
725002
1998
12:22
cruel殘忍 Israelis以色列人 and Americans美國人,
327
727000
3006
殘忍的以色列和美國人們,
他們很膽小,
12:25
who are cowards懦夫 because
328
730006
1992
12:27
they send發送 out machines to fight鬥爭 us.
329
731998
2006
因為他們只敢派機器人來攻擊我們。
他們不願意像個男人一樣作戰,
12:29
They don't want to fight鬥爭 us like real真實 men男人,
330
734004
1992
12:31
but they're afraid害怕 to fight鬥爭,
331
735996
2007
因為他們害怕戰鬥。
所以我們必須要殺掉一些他們的士兵
12:33
so we just have to kill a few少數 of their soldiers士兵
332
738003
1991
12:35
to defeat打敗 them."
333
739994
3005
來打敗他們。"
12:38
The future未來 of war戰爭 also is featuring特色
334
742999
2007
未來的戰爭也造就了
不同型態的戰士,
12:40
a new type類型 of warrior戰士,
335
745006
1977
12:42
and it's actually其實 redefining重新定義 the experience經驗
336
746999
3006
這確實重新定義了
上戰場的經歷,
12:45
of going to war戰爭.
337
750005
1998
你可以稱之為臥房戰士。
12:47
You can call this a cubicle warrior戰士.
338
752003
1976
12:49
This is what one Predator捕食者 drone無人駕駛飛機 pilot飛行員
339
753994
2007
以下是一位掠奪者無人飛機的駕駛
描述關於他在伊拉克戰爭中的經歷,
12:51
described描述 of his experience經驗 fighting戰鬥
340
756001
2007
而期間他從未離開過內華達州。
12:53
in the Iraq伊拉克 War戰爭 while never leaving離開 Nevada內華達.
341
758008
2989
12:56
"You're going to war戰爭 for 12 hours小時,
342
760997
2005
"你將會前進至戰場上12小時,
對著目標物射擊,
12:58
shooting射擊 weapons武器 at targets目標,
343
763002
1991
直接殺掉敵人的戰鬥員,
13:00
directing導演 kills殺死 on enemy敵人 combatants戰鬥,
344
765008
2991
13:03
and then you get in the car汽車
345
767999
2006
之後你開著車回到家,
在20分鐘之內
13:05
and you drive駕駛 home and within 20 minutes分鐘,
346
770005
1982
你就可以坐在餐桌上,
13:07
you're sitting坐在 at the dinner晚餐 table
347
772003
1991
和你的孩子們談論他們的回家作業。"
13:09
talking to your kids孩子 about their homework家庭作業."
348
774009
1993
對於這些經歷,
13:11
Now, the psychological心理 balancing平衡
349
776002
1991
在心理上要達到平衡是極為困難的。
13:13
of those experiences經驗 is incredibly令人難以置信 tough強硬,
350
778008
1993
事實上這些無人飛機的駕駛員
13:15
and in fact事實 those drone無人駕駛飛機 pilots飛行員 have
351
780001
2992
13:18
higher更高 rates利率 of PTSDPTSD than many許多
352
782993
2008
比起那些在伊拉克作戰的人們
更容易得到創傷後壓力症候群。
13:20
of the units單位 physically物理 in Iraq伊拉克.
353
785001
3005
但是有些人會擔心這種遠距作戰
13:23
But some have worries that this
354
788006
1992
13:25
disconnection斷開 will lead to something else其他,
355
789998
1994
會導致一些其它問題,
這將會讓企圖進行戰爭犯罪
13:27
that it might威力 make the contemplation沉思 of war戰爭
356
792007
1998
當你有這種遠距能力時會更加容易。
13:29
crimes犯罪 a lot easier更輕鬆 when you have
357
794005
2005
一個年輕的無人飛機駕駛告訴我,
13:31
this distance距離. "It's like a video視頻 game遊戲,"
358
796010
1999
在遠距射殺敵人的部隊
13:33
is what one young年輕 pilot飛行員 described描述 to me
359
798009
1999
"感覺就像是電動玩具一樣"。
13:35
of taking服用 out enemy敵人 troops軍隊 from afar.
360
800008
1960
13:37
As anyone任何人 who's誰是 played發揮 Grand盛大 Theft盜竊 Auto汽車
361
801998
2995
玩過"俠盜獵車手"的人應該會知道,
任何我們在真實世界不會做的事
13:40
knows知道, we do things in the video視頻 world世界
362
805008
3000
在電玩世界裡我們可以任意進行。
13:43
that we wouldn't不會 do face面對 to face面對.
363
808008
2996
所以,你剛聽到我所說的
13:46
So much of what you're hearing聽力 from me
364
811004
1998
這些內容,都是科技革命
13:48
is that there's another另一個 side
365
813002
1993
13:50
to technologicTECHNOLOGIC revolutions革命,
366
814995
2008
的另外一面,
它正改變現在的我們,
13:52
and that it's shaping成型 our present當下
367
817003
1994
13:54
and maybe will shape形狀 our future未來 of war戰爭.
368
818997
3001
也許將會改變我們未來的戰爭型態。
13:57
Moore's摩爾定律 Law is operative手術,
369
821998
2001
摩爾定律在這裡是可行的,
13:59
but so's這樣的 Murphy's墨菲 Law.
370
823999
1998
同樣的,墨菲定律也是如此。
14:01
The fog多霧路段 of war戰爭 isn't being存在 lifted取消.
371
825997
2005
戰爭的硝煙還未散去,
敵人進行了投票,
14:03
The enemy敵人 has a vote投票.
372
828002
2010
我們將會得到驚人的新能力,
14:05
We're gaining取得 incredible難以置信 new capabilities功能,
373
830012
1989
但是我們同時也在經歷
14:07
but we're also seeing眼看 and experiencing經歷
374
832001
2006
人類新的困境。
14:09
new human人的 dilemmas困境. Now,
375
834007
2000
有的時候,這些只是一種"令人驚訝"的時刻,
14:11
sometimes有時 these are just "oops哎呀" moments瞬間,
376
836007
1999
這是製造機器人的公司所描述的
14:13
which哪一個 is what the head of a robotics機器人
377
838006
1992
14:15
company公司 described描述 it, you just have
378
839998
2011
"你將會有一些令人驚訝的時刻。"
那麼,對於機器人和戰爭而言,
14:17
"oops哎呀" moments瞬間. Well, what are
379
842009
2000
什麼是令人驚訝的時刻呢?
14:19
"oops哎呀" moments瞬間 with robots機器人 in war戰爭?
380
844009
1996
有的時候它們會很好笑。
14:21
Well, sometimes有時 they're funny滑稽. Sometimes有時,
381
846005
2001
有時候,它們就像是
14:23
they're like that scene現場 from the
382
848006
2002
艾迪‧墨菲的電影 "兵來將擋"
14:25
Eddie埃迪 Murphy墨菲 movie電影 "Best最好 Defense防禦,"
383
850008
2001
裡面所演的那樣,當他們測試
14:27
playing播放 out in reality現實, where they tested測試 out
384
852009
2001
武裝機器人的機關槍時,
14:29
a machine gun-armed槍武裝 robot機器人, and during
385
854010
1988
14:31
the demonstration示範 it started開始 spinning紡織
386
855998
2001
在展示的期間,
14:33
in a circle and pointed its machine gun
387
857999
3009
它開始轉圈圈,然後將它的機關槍
瞄準觀眾席上的貴賓們。
14:36
at the reviewing回顧 stand of VIPs貴賓.
388
861008
2995
所幸這些武器並沒有子彈,
14:39
Fortunately幸好 the weapon武器 wasn't loaded
389
864003
1993
14:41
and no one was hurt傷害, but other times
390
865996
2010
所以沒有人受傷。但是其他令人驚訝的時刻
則會變成悲劇,
14:43
"oops哎呀" moments瞬間 are tragic悲慘,
391
868006
1992
14:45
such這樣 as last year in South Africa非洲, where
392
869998
2002
例如去年在南非,
14:47
an anti-aircraft防空 cannon大砲 had a
393
872000
2999
一架防空加農砲出現了官方宣稱的
14:50
"software軟件 glitch毛刺," and actually其實 did turn on
394
874999
2999
"軟體故障",結果它啟動了,
14:53
and fired解僱, and nine soldiers士兵 were killed殺害.
395
877998
3004
並且開火,結果殺死了九個士兵。
我們在戰爭規則和責任上
14:56
We have new wrinkles皺紋 in the laws法律 of war戰爭
396
881002
2997
14:59
and accountability問責. What do we do
397
883999
1997
出現了新的問題。我們要怎麼處理
15:01
with things like unmanned無人 slaughter屠宰?
398
885996
2010
這些無人的屠殺工具呢?
什麼是無人的屠殺工具呢?
15:03
What is unmanned無人 slaughter屠宰?
399
888006
1998
我們已經有三次的例子,
15:05
We've我們已經 already已經 had three instances實例 of
400
890004
2000
當掠奪者攻擊時,
15:07
Predator捕食者 drone無人駕駛飛機 strikes罷工 where we thought
401
892004
2000
我們以為已經殺了賓拉登,
15:09
we got bin箱子 Laden拉登, and it turned轉身 out
402
894004
1994
15:11
not to be the case案件.
403
895998
2002
但結果並不是如此。
15:13
And this is where we're at right now.
404
898000
2008
這就是我們所面臨的問題。
這並不只是在說,
15:15
This is not even talking about armed武裝,
405
900008
2000
武裝的自動化系統
15:17
autonomous自主性 systems系統
406
902008
1989
15:19
with full充分 authority權威 to use force.
407
903997
2013
擁有完整的權利去使用武器,
還有,不要以為這不會發生。
15:21
And do not believe that that isn't coming未來.
408
906010
1994
在我的研究中,
15:23
During my research研究 I came來了 across橫過
409
908004
2007
我接觸了五角大廈針對不同領域
15:25
four different不同 Pentagon五角大樓 projects項目
410
910011
1985
15:27
on different不同 aspects方面 of that.
411
911996
2012
進行的四個專案。
那麼你會有這個疑問。
15:29
And so you have this question:
412
914008
2002
是什麼導致這些變得像是戰爭犯罪?
15:31
what does this lead to issues問題 like
413
916010
1993
機器人是沒有感情的,
15:33
war戰爭 crimes犯罪? Robots機器人 are emotionless無情, so
414
918003
1992
15:35
they don't get upset煩亂 if their buddy夥伴 is killed殺害.
415
919995
3012
所以它們不會因為同伴被殺而打亂思緒。
它們不會因為憤怒而犯罪
15:38
They don't commit承諾 crimes犯罪 of rage憤怒
416
923007
1994
或進行報復。
15:40
and revenge復仇.
417
925001
2007
但正因為機器人是沒有感情的,
15:42
But robots機器人 are emotionless無情.
418
927008
2997
對它們來說,
15:45
They see an 80-year-old-歲 grandmother祖母
419
930005
1999
坐在輪椅上的80歲老婆婆,
15:47
in a wheelchair輪椅 the same相同 way they see
420
932004
2000
和T80坦克是沒有兩樣的。
15:49
a T-T-80 tank坦克: they're both
421
934004
3002
他們都只是一連串 0 和 1 的訊號。
15:52
just a series系列 of zeroes and ones那些.
422
937006
2993
15:55
And so we have this question to figure數字 out:
423
939999
3003
因此我們必須想辦法解決這個問題,
我們該怎麼讓20世紀的戰爭規則
15:58
How do we catch抓住 up our 20th century世紀
424
943002
2003
跟上時代,
16:00
laws法律 of war戰爭, that are so old right now
425
945005
1989
16:02
that they could qualify修飾 for Medicare醫保,
426
946994
3008
對於21世紀的科技而言,
只剩下醫療保險還能延用而已。
16:05
to these 21stST century世紀 technologies技術?
427
950002
3008
總結而言,
16:08
And so, in conclusion結論, I've talked about
428
953010
2987
16:11
what seems似乎 the future未來 of war戰爭,
429
955997
3011
我已經談論了未來戰爭的樣子,
但是請注意,
16:14
but notice注意 that I've only used
430
959008
1990
16:16
real真實 world世界 examples例子 and you've only seen看到
431
960998
2012
我舉的都是真實世界的例子,
你看見的都是真實世界的照片和影片。
16:18
real真實 world世界 pictures圖片 and videos視頻.
432
963010
2001
對我們來說
16:20
And so this sets a great challenge挑戰 for
433
965011
2000
這將是一大挑戰,
16:22
all of us that we have to worry擔心 about well
434
967011
1986
16:24
before you have to worry擔心 about your
435
968997
2009
在你開始擔心
你的自動吸塵器殺掉你之前,
16:26
Roomba倫巴 sucking吸吮 the life away from you.
436
971006
2001
我們必須趕快想好對策。
16:28
Are we going to let the fact事實 that what's
437
973007
1999
難道我們要讓戰爭中的事實真相,
16:30
unveiling揭幕 itself本身 right now in war戰爭
438
975006
3000
繼續被當成是科幻電影一般,
16:33
sounds聲音 like science科學 fiction小說 and therefore因此
439
978006
2991
16:36
keeps保持 us in denial否認?
440
980997
2005
而不願意去面對嗎?
我們是否要面對21世紀
16:38
Are we going to face面對 the reality現實
441
983002
2004
戰爭的真相呢?
16:40
of 21stST century世紀 war戰爭?
442
985006
1993
16:42
Is our generation going to make the same相同
443
986999
2001
我們這一代是否要像上一代一樣,
16:44
mistake錯誤 that a past過去 generation did
444
989000
2009
繼續犯下那種
使用原子彈的錯誤呢?
16:46
with atomic原子 weaponry武器, and not deal合同 with
445
991009
1998
然後一直不願意去面對這些問題,
16:48
the issues問題 that surround環繞 it until直到
446
993007
1995
直到潘朵拉的盒子被打開為止嗎?
16:50
Pandora's潘多拉 box is already已經 opened打開 up?
447
995002
2007
也許我的觀點是錯的,
16:52
Now, I could be wrong錯誤 on this, and
448
997009
1998
一位五角大廈的機器人科學家說我錯了,
16:54
one Pentagon五角大樓 robot機器人 scientist科學家 told me
449
999007
2004
他說,"對於機器人來說
16:56
that I was. He said, "There's no real真實
450
1001011
1994
沒有真假,社會意識,
16:58
social社會, ethical合乎道德的, moral道德 issues問題 when it comes
451
1003005
1995
17:00
to robots機器人.
452
1005000
1998
倫理道德等問題。
17:02
That is," he added添加, "unless除非 the machine
453
1006998
2001
唯一的問題是,
17:04
kills殺死 the wrong錯誤 people repeatedly反复.
454
1008999
3010
除非這台機器連續殺錯了人,
這樣的話,那就是要回廠維修的問題。"
17:07
Then it's just a product產品 recall召回 issue問題."
455
1012009
2989
17:10
And so the ending結尾 point for this is
456
1014998
3011
所以,談論到最後,
我們來說說好萊塢。
17:13
that actually其實, we can turn to Hollywood好萊塢.
457
1018009
5002
幾年前好萊塢聚集了
17:18
A few少數 years年份 ago, Hollywood好萊塢 gathered雲集
458
1023011
1996
許多頂尖的演員,
17:20
all the top最佳 characters人物 and created創建
459
1025007
3006
並且列出了好萊塢歷史上前100名英雄人物,
17:23
a list名單 of the top最佳 100 heroes英雄 and
460
1028013
1997
還有前100名壞蛋角色,
17:25
top最佳 100 villains惡棍 of all of Hollywood好萊塢 history歷史,
461
1030010
2990
17:28
the characters人物 that represented代表 the best最好
462
1033000
2006
這些角色代表著人性中最好
和最壞的特質,
17:30
and worst最差 of humanity人性.
463
1035006
1992
17:32
Only one character字符 made製作 it onto both lists名單:
464
1036998
4015
其中只有一個角色同時存在於名單之中,
就是魔鬼終結者,一個機器人型態的殺人機器。
17:36
The Terminator終結者, a robot機器人 killing謀殺 machine.
465
1041013
2996
這就點出了我們的機器
17:39
And so that points to the fact事實 that
466
1044009
1988
17:41
our machines can be used
467
1045997
2013
可以同時被用於好事和邪惡的事,
但是對我來說,
17:43
for both good and evil邪惡, but for me
468
1048010
1999
事實上它也點出了
17:45
it points to the fact事實 that there's a duality二元性
469
1050009
1996
人類同時具有善和惡的雙重特性。
17:47
of humans人類 as well.
470
1052005
3000
本週我們有個創造力的慶祝會。
17:50
This week is a celebration慶典
471
1055005
1998
我們的創造力
17:52
of our creativity創造力. Our creativity創造力
472
1057003
1999
已經讓人類登上別的星球。
17:54
has taken採取 our species種類 to the stars明星.
473
1059002
1998
17:56
Our creativity創造力 has created創建 works作品 of arts藝術
474
1061000
2007
我們的創造力製造出藝術品,
以及文學作品來表現我們的愛,
17:58
and literature文學 to express表現 our love.
475
1063007
2996
而現在我們正在使用我們的創造力,
18:01
And now, we're using運用 our creativity創造力
476
1066003
1998
去製造出奇妙的機器,
18:03
in a certain某些 direction方向, to build建立 fantastic奇妙
477
1068001
1993
讓它們具有不可思議的能力,
18:05
machines with incredible難以置信 capabilities功能,
478
1070009
2987
18:08
maybe even one day
479
1072996
2009
也許有一天,
會出現一種全新的物種。
18:10
an entirely完全 new species種類.
480
1075005
2997
但是,令我們這麼做的
18:13
But one of the main主要 reasons原因 that we're
481
1078002
2005
其中一個主要因素,
18:15
doing that is because of our drive駕駛
482
1080007
1998
就是因為我們想要毀掉彼此。
18:17
to destroy破壞 each other, and so the question
483
1082005
3000
所以,我們必須要問的是,
18:20
we all should ask:
484
1085005
1994
18:22
is it our machines, or is it us
485
1086999
2000
操縱戰爭的是我們的機器,
18:24
that's wired有線 for war戰爭?
486
1088999
2007
還是我們自己?
謝謝大家。(掌聲)
18:26
Thank you. (Applause掌聲)
487
1091006
2098
Translated by kane tan
Reviewed by Regina Chu

▲Back to top

ABOUT THE SPEAKER
P.W. Singer - Military analyst
In P.W. Singer's most recent book, "Wired for War," he studies robotic and drone warfighters -- and explores how these new war machines are changing the very nature of human conflict. He has also written on other facets of modern war, including private armies and child soldiers.

Why you should listen

Peter Warren Singer is the director of the 21st Century Defense Initiative at the Brookings Institution -- where his research and analysis offer an eye-opening take on what the 21st century holds for war and foreign policy. His latest book, Wired for War, examines how the US military has been, in the words of a recent US Navy recruiting ad, "working hard to get soldiers off the front lines" and replacing humans with machines for bombing, flying and spying. He asks big questions: What will the rise of war machines mean to traditional notions of the battlefield, like honor? His 2003 book Corporate Warriors was a prescient look at private military forces. It's essential reading for anyone curious about what went on to happen in Iraq involving these quasi-armies.

Singer is a prolific writer and essayist (for Brookings, for newspapers, and for Wired.com's great Threat Level), and is expert at linking popular culture with hard news on what's coming next from the military-industrial complex. Recommended: his recent piece for Brookings called "A Look at the Pentagon's Five-Step Plan for Making Iron Man Real."

More profile about the speaker
P.W. Singer | Speaker | TED.com