sponsored links
TED2009

P.W. Singer: Military robots and the future of war

P・W・シンガー: ロボットと戦争の未来

February 4, 2009

戦争でロボットが広範囲に使用されることにより、実際の戦闘がどのように変わっているのかを P・W・シンガーが語ります。S.F. にあるようなシナリオが、今ではもう現実になろうとしています。

P.W. Singer - Military analyst
In P.W. Singer's most recent book, "Wired for War," he studies robotic and drone warfighters -- and explores how these new war machines are changing the very nature of human conflict. He has also written on other facets of modern war, including private armies and child soldiers. Full bio

sponsored links
Double-click the English subtitles below to play the video.
I thought I'd begin with a scene of war.
まずは戦争の風景から話したいと思います
00:16
There was little to warn of the danger ahead.
待ち受けている危険を知らせるものは
ほとんどありません
00:18
The Iraqi insurgent had placed the IED,
IED という即席爆弾が
00:20
an Improvised Explosive Device,
イラクの反体制派により
00:22
along the side of the road with great care.
道のあちこちで仕掛けられています
00:25
By 2006, there were more than 2,500
2006年までに このような攻撃は
00:27
of these attacks every single month,
毎月2500を数えるようになり
00:31
and they were the leading cause of
アメリカ軍兵士とイラク市民が
00:34
casualties among American soldiers
死亡する主な
00:36
and Iraqi civilians.
原因となっていました
00:38
The team that was hunting for this IED
このような即席爆弾を解体するのは
00:40
is called an EOD team—
EOD チームと呼ばれる
00:42
Explosives Ordinance Disposal—and
爆弾処理班で
00:44
they're the pointy end of the spear in the
道ばたにおける米国爆発物処理の
00:46
American effort to suppress these roadside bombs.
最前線を担っています
00:48
Each EOD team goes out on about
各 EOD チームは 毎年およそ
00:51
600 of these bomb calls every year,
600もの爆弾処理に従事し
00:53
defusing about two bombs a day.
毎日2個程の爆弾解体を行っています
00:55
Perhaps the best sign of how valuable they
彼らがどれほど重要なのかは
00:58
are to the war effort, is that
イラクの反体制派が
01:00
the Iraqi insurgents put a $50,000 bounty
EOD 兵1人に対して5万ドルもの
01:02
on the head of a single EOD soldier.
懸賞金をかけていることからも伺い知れます
01:04
Unfortunately, this particular call
残念なことにこの話は
01:07
would not end well.
良い終わり方をしません
01:09
By the time the soldier advanced close
導火線を確認できる程
01:11
enough to see the telltale wires
兵士が接近すると 爆風とともに
01:13
of the bomb, it exploded in a wave of flame.
爆弾が爆発します
01:15
Now, depending how close you are
どれほど近くにいるのかと
01:18
and how much explosive has been packed
どれほどの爆発物があるかにより
01:20
into that bomb, it can cause death
死傷または負傷することになり
01:22
or injury. You have to be as far as
それを避けるには45メートル程
01:24
50 yards away to escape that.
離れている必要があります
01:26
The blast is so strong it can even break
爆風があまりにも強烈なので
01:28
your limbs, even if you're not hit.
直撃でなくても手足を骨折することがあります
01:30
That soldier had been on top of the bomb.
この兵士は爆弾の上にいたため
01:32
And so when the rest of the team advanced
他のチームメンバーが近寄ってみると
01:34
they found little left. And that night the unit's
身体は殆ど残っておらず
01:37
commander did a sad duty, and he wrote
その日の夜に指揮官は
01:39
a condolence letter back to the United
米本国に対してお悔やみ状を書くという
01:41
States, and he talked about how hard the
悲しい任務に就き
01:43
loss had been on his unit, about the fact
幾度となく仲間の命を救ってきた
01:45
that they had lost their bravest soldier,
最も勇敢な兵士を失うのが
01:47
a soldier who had saved their lives
どれほど大変か
01:49
many a time.
教えてくれました
01:51
And he apologized
そして指揮官は兵士を無事に
01:53
for not being able to bring them home.
国に返せなかったことを謝るのです
01:55
But then he talked up the silver lining
しかしそんな現実にも
01:57
that he took away from the loss.
希望の光があることを教えてくれました
01:59
"At least," as he wrote, "when a robot dies,
「仮にロボットが死んでも
02:01
you don't have to write a letter
その母親に手紙を書く
02:03
to its mother."
必要はないでしょう」
02:05
That scene sounds like science fiction,
サイエンスフィクションのような話ですが
02:07
but is battlefield reality already.
これが既に戦場の現実なのです
02:09
The soldier in that case
ここでの兵士は19キログラムの
02:11
was a 42-pound robot called a PackBot.
PackBot というロボットでした
02:14
The chief's letter went, not to some
今では昔の戦争映画のように
02:17
farmhouse in Iowa like you see
アイオワにある農家へ
02:20
in the old war movies, but went to
手紙が送られることはなく
02:22
the iRobot Company, which is
アシモフの小説とウィルスミスの
02:25
named after the Asimov novel
駄作映画から名付けられた
02:27
and the not-so-great Will Smith movie,
iRobot 社へ手紙は送られます
02:30
and... um... (Laughter)...
えぇっと (笑)..
02:32
if you remember that
フィクションの世界では
02:34
in that fictional world, robots started out
最初は日常の手伝いから始まり
02:36
carrying out mundane chores, and then
そしてしばらくすると
02:38
they started taking on life-and-death decisions.
生死の判断を下すようになります
02:40
That's a reality we face today.
それが今日の現実なのです
02:42
What we're going to do is actually just
これから私の後ろに
02:44
flash a series of photos behind me that
写真を投影し
02:46
show you the reality of robots used in war
現実に使用されている あるいは試作品の
02:48
right now or already at the prototype stage.
戦闘用ロボットの現実を見てもらいます
02:51
It's just to give you a taste.
ちょっとだけです
02:53
Another way of putting it is you're not
言い方を変えると
02:56
going to see anything that's powered
ここでお見せするのは
02:58
by Vulcan technology, or teenage
(スタートレックの)バルカン星人の技術や
03:00
wizard hormones or anything like that.
十代の若者オタクなどではなく
03:02
This is all real. So why don't we
全て本物です それでは
03:04
go ahead and start those pictures.
写真を見ていきましょう
03:06
Something big is going on in war today,
今日の戦場では
人間の歴史始まって以来かもしれない
03:08
and maybe even the history of humanity
大きな変化が起こっています
03:10
itself. The U.S. military went into Iraq with
アメリカ軍は わずかばかりのドローンで
03:12
a handful of drones in the air.
イラク戦争に行きましたが
03:15
We now have 5,300.
今では5300機あります
03:17
We went in with zero unmanned ground
陸上用の無人システムは
一つもありませんでしたが
03:20
systems. We now have 12,000.
今では12000台あります
03:22
And the tech term "killer application"
技術用語の「キラーアプリケーション」が
03:26
takes on new meaning in this space.
ここでは新しい意味合いを持っているのです
03:28
And we need to remember that we're
私たちはT型フォードや
03:31
talking about the Model T Fords,
ライト兄弟の飛行機と
03:33
the Wright Flyers, compared
これから目にするものを
03:35
to what's coming soon.
比べなくてはなりません
03:37
That's where we're at right now.
我々はそういう時代にいるのです
03:39
One of the people that I recently met with
最近会った空軍の
03:41
was an Air Force three-star general, and he
中将が言うには
03:43
said basically, where we're headed very
我々は もうすぐ 我々の戦場で
03:45
soon is tens of thousands of robots
何万ものロボットを使用することになる
03:47
operating in our conflicts, and these
というもので これらロボットは
03:49
numbers matter, because we're not just
単なる量産型のロボットではなく
03:51
talking about tens of thousands of today's
将来使われる何万もの これら試作品
03:53
robots, but tens of thousands of these
未来のロボットであるため
03:55
prototypes and tomorrow's robots, because
この数は重要になります
03:57
of course, one of the things that's operating
もちろん 技術分野のムーアの法則により
03:59
in technology is Moore's Law,
これらのロボットの演算能力は
04:02
that you can pack in more and more
どんどん増えて行きます
04:04
computing power into those robots, and so
だから25年後ぐらいを推測すると
04:06
flash forward around 25 years,
ムーアの法則がまだ正しければ
04:08
if Moore's Law holds true,
これらのロボットは
04:10
those robots will be close to a billion times
現在より10億倍ほど強力な
04:12
more powerful in their computing than today.
演算能力を持つでしょう
04:15
And so what that means is the kind of
それはつまり 我々がコミコンのような
04:18
things that we used to only talk about at
SF大会で話しているようなことが
04:20
science fiction conventions like Comic-Con
ペンタゴンのような
04:22
have to be talked about in the halls
軍事力の中枢で
04:24
of power and places like the Pentagon.
議論されるということです
04:26
A robots revolution is upon us.
ロボットの革新がおきています
04:28
Now, I need to be clear here.
次のことも明らかにしておきます
04:31
I'm not talking about a revolution where you
実際に起こる革命は
04:33
have to worry about the Governor of
カリフォルニアの州知事が
04:35
California showing up at your door,
あなたの戸口にターミネーターとして現れる
04:37
a la the Terminator. (Laughter)
というものではありません
04:39
When historians look at this period, they're
歴史家が振り返って今の時代を見た時 彼らは
04:41
going to conclude that we're in a different
我々がこれまでと違った革命、戦争の革命の
04:43
type of revolution: a revolution in war,
中にあったと言うでしょう
04:45
like the invention of the atomic bomb.
ちょうど原子爆弾の発明の時のように
04:47
But it may be even bigger than that,
しかし 事態はそれより重大かもしれません
04:49
because our unmanned systems don't just
なぜなら無人システムは
04:51
affect the "how" of war-fighting,
単に戦闘を「どう」闘うかだけでなく
04:53
they affect the "who" of fighting
とても根本的なレベルで
04:55
at its most fundamental level.
「誰が」闘うのかに影響するからです
04:57
That is, every previous revolution in war, be
それは これまでの戦争の革命が
04:59
it the machine gun, be it the atomic bomb,
マシンガンであれ 原子爆弾であれ
05:01
was about a system that either shot faster,
より速く撃ち より遠くへ行き
05:03
went further, had a bigger boom.
より大きな威力を持つかであって
05:06
That's certainly the case with robotics, but
それはロボットの場合も当てはまりますが
05:09
they also change the experience of the warrior
ロボットは 兵士の考え方や
05:12
and even the very identity of the warrior.
根本的な兵士の定義も変えてしまいます
05:15
Another way of putting this is that
別の言い方をすれば 5000年の間
05:18
mankind's 5,000-year-old monopoly
人類の専売特許であった
05:21
on the fighting of war is breaking down
「戦場での戦闘」が我々の時代で
05:23
in our very lifetime. I've spent
崩壊しつつあるのです
05:26
the last several years going around
私はここ数年 あちこちで
05:28
meeting with all the players in this field,
ロボット科学者から
05:30
from the robot scientists to the science
彼らにひらめきを与えたSF作家まで
05:32
fiction authors who inspired them to the
この分野の役者たち皆に会いました
05:34
19-year-old drone pilots who are fighting
ネバダから戦闘ロボットを操縦する19歳の
05:36
from Nevada, to the four-star generals
兵士から 彼らに命令を下す大将まで
05:38
who command them, to even the Iraqi
あるいはその標的になっているイラクの
05:40
insurgents who they are targeting and what
反乱分子にまで会い
05:42
they think about our systems, and
我々のシステムについてどう思うか尋ねました
05:44
what I found interesting is not just
興味深いのは 彼らの話そのものだけではなく
05:46
their stories, but how their experiences
彼らの経験が 社会
05:48
point to these ripple effects that are going
法制度や 倫理観などに
05:50
outwards in our society, in our law
どのように影響を与えるかでした
05:52
and our ethics, etc. And so what I'd like
残りの時間を使って
05:54
to do with my remaining time is basically
それらを詳しく見て
05:56
flesh out a couple of these.
いくことにします
05:58
So the first is that the future of war,
第一に 未来の戦争は
06:00
even a robotics one, is not going to be
ロボット兵士でさえ
06:02
purely an American one.
アメリカの独占物ではないということです
06:04
The U.S. is currently ahead in military
アメリカは現在は軍事ロボットの分野で
先を走っていますが
06:06
robotics right now, but we know that in
ご存知のようにテクノロジーの世界では
06:08
technology there's no such thing as
先行者の有利はいつまでも
06:10
a permanent first move or advantage.
続くものではありません
06:12
In a quick show of hands, how many
お尋ねしますが
06:15
people in this room still use
ここにいる何名の人が
06:17
Wang Computers? (Laughter)
Wangコンピュータを使っているでしょう?
06:19
It's the same thing in war. The British and
戦争でも同じです
06:21
the French invented the tank.
イギリスとフランスが戦車を発明しましたが
06:23
The Germans figured out how
正しい使い方を見つけたのはドイツで
06:26
to use it right, and so what we have to
我々が考えなくてはならないのは
06:28
think about for the U.S. is that we are
今のところアメリカは先進的だが
06:30
ahead right now, but you have
他にも43カ国が軍事ロボットの
06:32
43 other countries out there
開発に着手しており
06:34
working on military robotics, and they
その中にはロシア、中国
06:36
include all the interesting countries like
パキスタン、イランなどの
06:38
Russia, China, Pakistan, Iran.
国も含まれていることです
06:40
And this raises a bigger worry for me.
ここからさらに大きな懸念が持ち上がります
06:43
How do we move forward in this revolution
現在のこの革命の中
06:46
given the state of our manufacturing
この国の生産体制
06:48
and the state of our science and
科学や数学の教育体制を考えて
06:50
mathematics training in our schools?
どうやって前に進むのか?
06:52
Or another way of thinking about this is,
別の言い方をするとこうです
06:54
what does it mean to go to war increasingly
中国製の武器やインド製の戦闘ソフトをもって
06:56
with soldiers whose hardware is made
戦場に出て行く機会が増えているのは
06:58
in China and software is written in India?
どういうことなのか?
07:01
But just as software has gone open-source,
ソフトウェアがオープンソース化したように
07:06
so has warfare.
武器もそうなりつつあります
07:09
Unlike an aircraft carrier or an atomic bomb,
空母や原子爆弾と違って
07:11
you don't need a massive manufacturing
ロボットを作るのに巨大な生産システムは
07:14
system to build robotics. A lot of it is
必要ありません
07:16
off the shelf. A lot of it's even do-it-yourself.
既製品で
07:18
One of those things you just saw flashed
いくつかは自作すらできます
07:20
before you was a raven drone, the handheld
あなたが今見たものの一つは放り投げて使う
07:22
tossed one. For about a thousand dollars,
Ravenドローンで 1000ドルも出せば
07:24
you can build one yourself, equivalent to
イラクで兵士が使っているものと同じものを
07:26
what the soldiers use in Iraq.
自分で作ることができます
07:28
That raises another wrinkle when it comes
ここでは 善人が趣味として
07:30
to war and conflict. Good guys might play
色々いじることもできるが
07:32
around and work on these as hobby kits,
悪人も同じことができるという
07:34
but so might bad guys.
戦争や戦闘の新たな問題が持ち上がります
07:36
This cross between robotics and things like
ロボット工学とテロリズムが
07:38
terrorism is going to be fascinating
交錯すると 魅惑的かつ
07:40
and even disturbing,
憂慮すべきことになるでしょう
07:42
and we've already seen it start.
もうそれが始まっているのを見ました
07:44
During the war between Israel, a state,
政府側であるイスラエルと非政府側の
07:46
and Hezbollah, a non-state actor,
ヒズボラの戦闘で
07:48
the non-state actor flew
非政府側がイスラエルに向けて
07:51
four different drones against Israel.
4種類のドローンを飛ばしました
07:53
There's already a jihadi website
ジハードのウェブサイトでは
07:55
that you can go on and remotely
パソコンの前にいながら
07:57
detonate an IED in Iraq while sitting
イラクの即席爆弾を遠隔から
07:59
at your home computer.
起爆することができます
08:01
And so I think what we're going to see is
つまり 私たちはここから
08:03
two trends take place with this.
二つの傾向を見て取ることができます
08:05
First is, you're going to reinforce the power
第一は 政府に対する個人の力が
08:07
of individuals against governments,
強まっているということです
08:09
but then the second is that
第二は テロリズムの領域が
08:13
we are going to see an expansion
拡大していくさまを
08:15
in the realm of terrorism.
目撃するということです
08:17
The future of it may be a cross between
その未来はアルカイダ2.0と 次世代の
08:19
al Qaeda 2.0 and the
ユナボマー(米国の爆弾魔)の
08:21
next generation of the Unabomber.
交点にあるのかもしれません
08:23
And another way of thinking about this
他にも忘れてはならないのは
08:25
is the fact that, remember, you don't have
ロボットが自爆するのに
08:27
to convince a robot that they're gonna
死後に72人の処女を得られると
08:29
receive 72 virgins after they die
説得する必要はない
08:31
to convince them to blow themselves up.
ということです
08:34
But the ripple effects of this are going to go
この連鎖反応は
08:37
out into our politics. One of the people that
我々の政策にも影響します
08:39
I met with was a former Assistant Secretary of
私が会った一人は レーガン政権の
08:41
Defense for Ronald Reagan, and he put it
元国防長官補佐官でした
08:43
this way: "I like these systems because
彼が言うには(以下引用)
08:45
they save American lives, but I worry about
「私はこのシステムが好きだ
なぜならアメリカ人の命を救うから
08:47
more marketization of wars,
だが戦争の市場化は懸念するし
08:49
more shock-and-awe talk,
コスト負担のための
08:51
to defray discussion of the costs.
衝撃的な議論も懸念する
08:54
People are more likely to support the use
コストがかからないとわかるとより簡単に
08:56
of force if they view it as costless."
力の行使を支持するものだ」と
08:58
Robots for me take certain trends
ロボットは 我々国民全般に
09:01
that are already in play in our body politic,
広まっている世論に影響を与え
09:03
and maybe take them to
それを論理的な終局点まで
09:06
their logical ending point.
けん引していくようです
09:08
We don't have a draft. We don't
草案もありませんし
09:10
have declarations of war anymore.
宣戦布告書もすでにありません
09:12
We don't buy war bonds anymore.
戦争債も買わないし
09:15
And now we have the fact that we're
そして 我々は危険の多い地域に
09:17
converting more and more of our American
アメリカ人の兵士を送る代わりに
09:19
soldiers that we would send into harm's
機械を送り込むようになっており
09:21
way into machines, and so we may take
それにより戦争行為に対する
09:23
those already lowering bars to war
ハードルが更に低くなり
09:26
and drop them to the ground.
終には抑止力が無くなってしまいます
09:29
But the future of war is also going to be
同時に 未来の戦争はまた
09:32
a YouTube war.
YouTube戦争でもあります
09:34
That is, our new technologies don't merely
つまり 我々の技術は単に兵士を
09:36
remove humans from risk.
危険から遠ざけるだけでなく
09:38
They also record everything that they see.
彼らの見るものを全て記録するようになっています
09:40
So they don't just delink the public:
戦争を公衆から切り離すだけでなく
09:43
they reshape its relationship with war.
戦争との関わりを再構築しています
09:46
There's already several thousand
現在 YouTubeには何千もの
09:49
video clips of combat footage from Iraq
イラクの戦闘を撮影した
09:51
on YouTube right now,
ビデオクリップがありますが
09:53
most of it gathered by drones.
ほとんどはドローンから得られたものです
09:55
Now, this could be a good thing.
それは 戦争の最前線と家庭を
09:57
It could be building connections between
かつてなかったかたちで
09:59
the home front and the war front
結びつけるという
10:01
as never before.
良い側面もあります
10:03
But remember, this is taking place
しかし何が起こっても
10:05
in our strange, weird world, and so
おかしく無い世の中では
10:07
inevitably the ability to download these
このようなビデオクリップをダウンロードして
10:10
video clips to, you know, your iPod
iPodやZuneに収めることで
10:12
or your Zune gives you
エンターテイメントにしてしまえることも
10:14
the ability to turn it into entertainment.
忘れてはなりません
10:17
Soldiers have a name for these clips.
兵士達はこのようなビデオクリップを
10:21
They call it war porn.
「戦争ポルノ」と読んでいます
10:23
The typical one that I was sent was
最近見た典型的な例は 電子メールに
10:25
an email that had an attachment of
添付された映像で
10:27
video of a Predator strike taking out
プレデター(無人航空機)が敵の基地を
10:29
an enemy site. Missile hits,
ミサイルで攻撃した時の爆発で
10:31
bodies burst into the air with the explosion.
肉体が空中にばらばらに吹き飛んでいました
10:33
It was set to music.
それには音楽がついていて
10:36
It was set to the pop song
シュガー・レイの「I Just Want to Fly」
10:38
"I Just Want To Fly" by Sugar Ray.
という曲でした
10:40
This ability to watch more
より多くのものを見て
10:43
but experience less creates a wrinkle
経験はより少なくなる状態は
10:46
in the public's relationship with war.
大衆と戦争の関係にひずみを引き起こしています
10:49
I think about this with a sports parallel.
これはスポーツと同じです
10:51
It's like the difference between
プロバスケットボールである
10:53
watching an NBA game, a professional
NBAのゲームをテレビで見ていて
10:56
basketball game on TV, where the athletes
選手が画面の小さな点に見えているのと
10:59
are tiny figures on the screen, and
自分で実際に試合を見に行って
11:02
being at that basketball game in person
2メートル10センチの人間が
11:04
and realizing what someone seven feet
実際はどんな感じか
11:07
really does look like.
理解することに似ています
11:09
But we have to remember,
しかし思い出して下さい
11:11
these are just the clips.
これらはただのビデオで
11:13
These are just the ESPN SportsCenter
試合のダイジェスト版で
11:15
version of the game. They lose the context.
それは文脈を失い
11:17
They lose the strategy.
戦略を失い
11:19
They lose the humanity. War just
人間性を失い
11:21
becomes slam dunks and smart bombs.
戦争はただのスラムダンクやスマート爆弾なのです
11:23
Now the irony of all this is that
皮肉なのは 未来の戦争では
11:26
while the future of war may involve
より多くの機械が
11:29
more and more machines,
使われるのにもかかわらず
11:31
it's our human psychology that's driving
それらを動かすのは人間の心理で
11:33
all of this, it's our human failings
戦争を起こすのも
11:35
that are leading to these wars.
人間の欠点によるものなのです
11:37
So one example of this that has
これに対する
11:39
big resonance in the policy realm is
政治の世界からの反応は
11:41
how this plays out on our very real
過激派を相手に戦っているという
11:43
war of ideas that we're fighting
現実の戦争の考え方に
11:45
against radical groups.
大きな影響を与えています
11:47
What is the message that we think we are
我々がこれらの機械と一緒に送っている
11:49
sending with these machines versus what
メッセージは
11:51
is being received in terms of the message.
どのように受け取られているのか
11:53
So one of the people that I met was
私がブッシュ政権の総務局で会ったある人は
11:56
a senior Bush Administration official,
人間が戦わない戦争について
11:58
who had this to say about
以下の様な事を言いました
12:00
our unmanning of war:
「これは我々の力に影響を与えます
12:02
"It plays to our strength. The thing that
人々を脅かしているのは
12:04
scares people is our technology."
我々のテクノロジーなのです」
12:06
But when you go out and meet with people,
しかし遠く -- 例えばレバノン-- まで行き
12:08
for example in Lebanon, it's a very
人と会ってみると
12:10
different story. One of the people
それはとても違った話となります
12:12
I met with there was a news editor, and
そこで私が出会ったのはニュースの編集者で
12:14
we're talking as a drone is flying above him,
会話している我々の頭上を
無人航空機が飛んで行くなか
12:16
and this is what he had to say.
彼はこう言いました
12:18
"This is just another sign of the coldhearted
「これは我々と戦う為の機械を
12:20
cruel Israelis and Americans,
送ってくる臆病で 無慈悲
12:22
who are cowards because
冷血なアメリカ人とイスラエル人を
12:25
they send out machines to fight us.
象徴するものだ
12:27
They don't want to fight us like real men,
彼らは男らしく戦うのではなく
12:29
but they're afraid to fight,
戦う事を恐れている
12:31
so we just have to kill a few of their soldiers
だから我々は数少ない彼ら兵士を殺すことで
12:33
to defeat them."
勝利を得るのだ」
12:35
The future of war also is featuring
未来の戦争は新しいタイプの兵士を
12:38
a new type of warrior,
形作っています
12:40
and it's actually redefining the experience
それは戦争に行くという
12:42
of going to war.
定義を変えるもので
12:45
You can call this a cubicle warrior.
個室兵士とでも呼べるものです
12:47
This is what one Predator drone pilot
ネバダから離れる事無く
12:49
described of his experience fighting
イラク戦争で戦っていた
12:51
in the Iraq War while never leaving Nevada.
プレデターのパイロットはこう言いました
12:53
"You're going to war for 12 hours,
「12時間戦争に行き
12:56
shooting weapons at targets,
武器を標的に向けて撃って
12:58
directing kills on enemy combatants,
敵の兵士を撃ち殺す様に命令し
13:00
and then you get in the car
車に乗って家に帰り
13:03
and you drive home and within 20 minutes,
20分後には夕食の席にいて
13:05
you're sitting at the dinner table
子供たちと宿題について
13:07
talking to your kids about their homework."
話をしている」
13:09
Now, the psychological balancing
さて 心理的にこれらのバランスを取るのは
13:11
of those experiences is incredibly tough,
非常に難しい事です
13:13
and in fact those drone pilots have
実はこれらの無人戦闘機パイロットたちは
13:15
higher rates of PTSD than many
実際にイラクにいる兵士よりも
13:18
of the units physically in Iraq.
高い率で PTSD を患っています
13:20
But some have worries that this
しかし中にはこの断絶が
13:23
disconnection will lead to something else,
戦争犯罪をもっとやり易いものに
13:25
that it might make the contemplation of war
してしまうのではないかと
13:27
crimes a lot easier when you have
危惧している人達もいます
13:29
this distance. "It's like a video game,"
「まるでこれはテレビゲームです」とは
13:31
is what one young pilot described to me
遠方から敵の部隊を攻撃する
13:33
of taking out enemy troops from afar.
若いパイロットの言葉です
13:35
As anyone who's played Grand Theft Auto
グランド・セフト・オートをしたことがある人なら
13:37
knows, we do things in the video world
人は面と向かってはしないようなことを
13:40
that we wouldn't do face to face.
テレビゲームではすることを知ってるでしょう
13:43
So much of what you're hearing from me
私がここで言いたいのは
13:46
is that there's another side
技術革新は別の面も併せ持っており
13:48
to technologic revolutions,
それは 現在の
13:50
and that it's shaping our present
そしてもしかしたら未来の戦争を
13:52
and maybe will shape our future of war.
形作っているということです
13:54
Moore's Law is operative,
ムーアの法則の他に
13:57
but so's Murphy's Law.
マーフィーの法則も働いています
13:59
The fog of war isn't being lifted.
戦雲は消えていません
14:01
The enemy has a vote.
敵にも選択する権利はありますし
14:03
We're gaining incredible new capabilities,
我々はとてつもない能力を手に入れようとしています
14:05
but we're also seeing and experiencing
しかし我々は同時に新しい人間のジレンマを
14:07
new human dilemmas. Now,
見て 体験しているのです
14:09
sometimes these are just "oops" moments,
さて 失敗する時もあります
14:11
which is what the head of a robotics
これはロボット関連の企業のトップが
14:13
company described it, you just have
言った言葉ですが
14:15
"oops" moments. Well, what are
それではロボットがいる戦場での
14:17
"oops" moments with robots in war?
失敗とは何でしょうか?
14:19
Well, sometimes they're funny. Sometimes,
面白い時もあります
14:21
they're like that scene from the
時には エディー・マーフィーが出ている
14:23
Eddie Murphy movie "Best Defense,"
「おかしな関係」という
14:25
playing out in reality, where they tested out
映画のワンシーンを現実にした様な
14:27
a machine gun-armed robot, and during
マシンガンを搭載した新しいロボットが
14:29
the demonstration it started spinning
デモの時にクルクルと回りだし
14:31
in a circle and pointed its machine gun
自分のマシンガンを VIP 席に向けて
照準を合わせるという
14:33
at the reviewing stand of VIPs.
ものなのかも知れません
14:36
Fortunately the weapon wasn't loaded
幸運な事に弾は込められておらず
14:39
and no one was hurt, but other times
誰も傷つきませんでした
14:41
"oops" moments are tragic,
しかしそうで無いときの失敗は悲劇的で
14:43
such as last year in South Africa, where
南アフリカでは去年
14:45
an anti-aircraft cannon had a
対空砲に「ソフトウェアの問題」があり
14:47
"software glitch," and actually did turn on
誤動作して 発砲
14:50
and fired, and nine soldiers were killed.
9名の兵士が亡くなりました
14:53
We have new wrinkles in the laws of war
戦時国際法と責任についても
14:56
and accountability. What do we do
我々はひずみを持っています
14:59
with things like unmanned slaughter?
無人殺戮兵器を使って何をするのか?
15:01
What is unmanned slaughter?
無人殺戮兵器とは何でしょうか?
15:03
We've already had three instances of
既に我々は3回 プレデターにより
15:05
Predator drone strikes where we thought
ビン・ラディンを爆撃したと思い
15:07
we got bin Laden, and it turned out
実際にはそうでなかったことを
15:09
not to be the case.
経験しています
15:11
And this is where we're at right now.
これが現在の我々なのです
15:13
This is not even talking about armed,
発砲する権限を持っている
15:15
autonomous systems
自立した兵器システムについて
15:17
with full authority to use force.
話しているわけではありませんし
15:19
And do not believe that that isn't coming.
それがやって来ないと思わないで下さい
15:21
During my research I came across
私の調査中 そのような特性を備えた
15:23
four different Pentagon projects
4つの国防総省プロジェクトを
15:25
on different aspects of that.
見ました
15:27
And so you have this question:
あなたはこんな事を疑問に思うでしょう
15:29
what does this lead to issues like
戦争犯罪はどのようなものになるのか?
15:31
war crimes? Robots are emotionless, so
機械に感情はありませんから
15:33
they don't get upset if their buddy is killed.
仲間が殺されても取り乱す事は無く
15:35
They don't commit crimes of rage
逆上して犯罪を犯したり
15:38
and revenge.
復讐する事もありません
15:40
But robots are emotionless.
しかし機械には感情が無いので
15:42
They see an 80-year-old grandmother
T80戦車を見るのと同じ様に
15:45
in a wheelchair the same way they see
車椅子に乗っている
15:47
a T-80 tank: they're both
80歳のお婆ちゃんを見ます
15:49
just a series of zeroes and ones.
0と1の連続でしかないのですから
15:52
And so we have this question to figure out:
そこで考えなければならない問題があります
15:55
How do we catch up our 20th century
介護保険の対象になる様な
15:58
laws of war, that are so old right now
時代遅れの20世紀の戦争法を
16:00
that they could qualify for Medicare,
我々はどうやって21世紀の技術に
16:02
to these 21st century technologies?
合わせるのでしょうか
16:05
And so, in conclusion, I've talked about
最後にまとめますと 私は
16:08
what seems the future of war,
戦争の未来がどうなるかを話してきました
16:11
but notice that I've only used
しかしすべて現実にある例だけを
16:14
real world examples and you've only seen
挙げている事に注意して下さい
16:16
real world pictures and videos.
あなたの見たビデオや写真はすべて現実です
16:18
And so this sets a great challenge for
これはルンバ掃除機があなたの人生を
16:20
all of us that we have to worry about well
吸い取ってしまうずっと前に
16:22
before you have to worry about your
考えなければ
16:24
Roomba sucking the life away from you.
ならないということです
16:26
Are we going to let the fact that what's
戦争で使われるものの秘密を
16:28
unveiling itself right now in war
明らかにすることは
16:30
sounds like science fiction and therefore
まるでSFのように見え
16:33
keeps us in denial?
目をつぶってしまいがちです
16:36
Are we going to face the reality
我々は21世紀型の戦争の現実を
16:38
of 21st century war?
直視しますか?
16:40
Is our generation going to make the same
我々の世代は 過去の世代が
16:42
mistake that a past generation did
原爆で犯したのと同じ過ちを
16:44
with atomic weaponry, and not deal with
繰り返し パンドラの箱が
16:46
the issues that surround it until
開かれてしまうまで物事に対処しないという
16:48
Pandora's box is already opened up?
失敗を犯すのでしょうか?
16:50
Now, I could be wrong on this, and
これについて私は間違っているかもしれません
16:52
one Pentagon robot scientist told me
あるペンタゴンの
16:54
that I was. He said, "There's no real
ロボット科学者が言うには
16:56
social, ethical, moral issues when it comes
「ロボットにとっては
16:58
to robots.
間違った人間を繰り返し殺さない限り
17:00
That is," he added, "unless the machine
社会的、倫理的、道徳的な問題などなく
17:02
kills the wrong people repeatedly.
そうなったとしても
17:04
Then it's just a product recall issue."
それは単なるリコール問題です」
17:07
And so the ending point for this is
ここで最後に言いたい事は 我々は
17:10
that actually, we can turn to Hollywood.
ハリウッドを参考にする事ができるということです
17:13
A few years ago, Hollywood gathered
数年前 ハリウッドはあらゆる
17:18
all the top characters and created
キャラクターを集め ハリウッドの史上の
17:20
a list of the top 100 heroes and
トップ100のヒーローと
17:23
top 100 villains of all of Hollywood history,
トップ100の悪役リストを作りました
17:25
the characters that represented the best
最高と最悪の人間性を併せ持つ
17:28
and worst of humanity.
1キャラクターだけが
17:30
Only one character made it onto both lists:
両方のリストに入りました
17:32
The Terminator, a robot killing machine.
ターミネーター 、ロボットの殺人マシンです
17:36
And so that points to the fact that
これは我々の機械が
17:39
our machines can be used
良い事にも悪い事にも
17:41
for both good and evil, but for me
使われうる事を示していますが
17:43
it points to the fact that there's a duality
私はこれを 人間が持つ二重性を
17:45
of humans as well.
示しているとも思います
17:47
This week is a celebration
今週は我々の
17:50
of our creativity. Our creativity
創造性を祝う週です
17:52
has taken our species to the stars.
創造性は私たちを星に送り
17:54
Our creativity has created works of arts
芸術作品を創造し
17:56
and literature to express our love.
我々の愛を文字で表現し
17:58
And now, we're using our creativity
そして今 我々はその創造性を
18:01
in a certain direction, to build fantastic
信じられない性能を持った素晴らしい機械を
18:03
machines with incredible capabilities,
作るという方向に使っています
18:05
maybe even one day
いつの日か 全く新しい人種に
18:08
an entirely new species.
なるかも知れません
18:10
But one of the main reasons that we're
しかしこのようなことは
18:13
doing that is because of our drive
お互いを破壊するという原動力に
18:15
to destroy each other, and so the question
突き動かされており
18:17
we all should ask:
我々一人ひとりが自問するべきでしょう
18:20
is it our machines, or is it us
戦争を起こそうとしているのは機械なのか
18:22
that's wired for war?
あるいは我々なのか?
18:24
Thank you. (Applause)
ありがとう (拍手)
18:26
Translator:Akira KAKINOHANA
Reviewer:Masaki Yanagishita

sponsored links

P.W. Singer - Military analyst
In P.W. Singer's most recent book, "Wired for War," he studies robotic and drone warfighters -- and explores how these new war machines are changing the very nature of human conflict. He has also written on other facets of modern war, including private armies and child soldiers.

Why you should listen

Peter Warren Singer is the director of the 21st Century Defense Initiative at the Brookings Institution -- where his research and analysis offer an eye-opening take on what the 21st century holds for war and foreign policy. His latest book, Wired for War, examines how the US military has been, in the words of a recent US Navy recruiting ad, "working hard to get soldiers off the front lines" and replacing humans with machines for bombing, flying and spying. He asks big questions: What will the rise of war machines mean to traditional notions of the battlefield, like honor? His 2003 book Corporate Warriors was a prescient look at private military forces. It's essential reading for anyone curious about what went on to happen in Iraq involving these quasi-armies.

Singer is a prolific writer and essayist (for Brookings, for newspapers, and for Wired.com's great Threat Level), and is expert at linking popular culture with hard news on what's coming next from the military-industrial complex. Recommended: his recent piece for Brookings called "A Look at the Pentagon's Five-Step Plan for Making Iron Man Real."

The original video is available on TED.com
sponsored links

If you need translations, you can install "Google Translate" extension into your Chrome Browser.
Furthermore, you can change playback rate by installing "Video Speed Controller" extension.

Data provided by TED.

This website is owned and operated by Tokyo English Network.
The developer's blog is here.