English-Video.net comment policy

The comment field is common to all languages

Let's write in your language and use "Google Translate" together

Please refer to informative community guidelines on TED.com

TEDGlobal 2010

Julian Assange: Why the world needs WikiLeaks

ジュリアン・アサンジ 「なぜ世界にWikiLeaksが必要なのか」

Filmed
Views 2,285,796

物議を醸しているWebサイトWikiLeaksでは、極秘にされている文書やビデオを収集しています。喚問のため米国当局から追求されていると言われるWikiLeaksの創設者ジュリアン・アサンジが、TEDのクリス・アンダーソンに、サイトがどのように運営されているのか、どのようなことを達成してきたのか、そして何が彼を駆り立てているのか話しています。このインタビューには最近注目を集めたバグダッドにおけるヘリ攻撃の映像も登場します。

- Whistleblower
Internet activist Julian Assange serves as spokesperson for WikiLeaks, a controversial, volunteer-driven website that publishes and comments on leaked documents alleging government and corporate misconduct. Full bio

Chris Anderson: Julian, welcome.
ようこそ ジュリアン
00:15
It's been reported that WikiLeaks, your baby,
あなたの作った WikiLeaksが
00:17
has, in the last few years
この数年すっぱ抜いてきたものは
00:19
has released more classified documents
世界中の報道機関すべてを
00:21
than the rest of the world's media combined.
合わせたよりも 多いと伺いました
00:24
Can that possibly be true?
そんなことって あり得るのでしょうか?
00:26
Julian Assange: Yeah, can it possibly be true?
あり得て いいのでしょうかねえ…
00:28
It's a worry -- isn't it? -- that the rest of the world's media
憂えますよね―
00:30
is doing such a bad job
小さな活動家の一団の方が
00:33
that a little group of activists
機密情報を より多く
00:35
is able to release more
公開できているなんて
00:37
of that type of information
世界の報道機関の仕事ぶりは
00:39
than the rest of the world press combined.
まずいのではないでしょうか
00:41
CA: How does it work?
どういう仕組みなんですか?
00:43
How do people release the documents?
どう 情報を受け取り―
00:45
And how do you secure their privacy?
どう プライバシーを守っているんですか?
00:48
JA: So these are -- as far as we can tell --
私達が受け取る情報は
00:51
classical whistleblowers,
おそらくは 内部告発によるものです
00:53
and we have a number of ways for them
データの受け渡し方法は
00:55
to get information to us.
いくつも用意しています
00:57
So we use this state-of-the-art encryption
例えば最新の暗号技術を用い
00:59
to bounce stuff around the Internet, to hide trails,
インターネット上で痕跡を消しつつ
01:01
pass it through legal jurisdictions
スウェーデンやベルギーのような
01:03
like Sweden and Belgium
法的保護の整った国を介しながら
01:05
to enact those legal protections.
データをあちこち転送します
01:08
We get information in the mail,
普通の郵便という方法もあります
01:12
the regular postal mail,
暗号化されていることもあれば
01:14
encrypted or not,
されていないこともあります
01:17
vet it like a regular news organization, format it --
それを 普通の報道機関のように
01:19
which is sometimes something that's quite hard to do,
裏を取り 形式を整えます
01:22
when you're talking about
データが巨大だと
01:25
giant databases of information --
なかなか厄介な作業です
01:27
release it to the public
それを世間に公表し
01:29
and then defend ourselves
当然予想される
01:31
against the inevitable legal and political attacks.
法的 政治的な攻撃から 身を守ります
01:33
CA: So you make an effort to ensure
つまり 情報の正当性を
01:36
the documents are legitimate,
検証しているということですね
01:38
but you actually
しかし 情報源が誰なのかは
01:40
almost never know who the identity of the source is?
実際 分からないんですよね?
01:42
JA: That's right, yeah. Very rarely do we ever know,
ええ 滅多に分かりません
01:45
and if we find out at some stage
たとえ分かったとしても
01:49
then we destroy that information as soon as possible.
すぐに情報を破棄します
01:52
(Phone ring) God damn it.
(着信音) ああ しまった
01:55
(Laughter)
(笑)
01:57
CA: I think that's the CIA asking what the code is
きっとCIAですよ
02:01
for a TED membership.
TEDの会員コードを教えろと
02:03
(Laughter)
(笑)
02:05
So let's take [an] example, actually.
では 実例を見てみましょう
02:08
This is something
これは何年か前に
02:10
you leaked a few years ago.
あなた方がすっぱ抜いたものです
02:12
If we can have this document up ...
スライド 出るかな…
02:14
So this was a story in Kenya a few years ago.
ケニアでの話です
02:16
Can you tell us what you leaked and what happened?
どんな情報を公開し それでどうなったのでしょう?
02:18
JA: So this is the Kroll Report.
これは「クロール レポート」です
02:21
This was a secret intelligence report
2004年の選挙後に
02:23
commissioned by the Kenyan government
ケニア政府が作らせた
02:26
after its election in 2004.
極秘のレポートです
02:28
Prior to 2004, Kenya was ruled
2004年まで ケニアは18年間
02:31
by Daniel arap Moi
ダニエル アラップ モイにより
02:33
for about 18 years.
支配されていました
02:35
He was a soft dictator of Kenya.
彼はケニアの独裁者でした
02:37
And when Kibaki got into power --
そこへ 汚職一掃を
02:40
through a coalition of forces that were trying
望む人々に推され
02:42
to clean up corruption in Kenya --
キバキが権力の座に着きました
02:44
they commissioned this report,
そして200万ポンドかけて
02:46
spent about two million pounds
この「クロール レポート」と
02:48
on this and an associated report.
関連レポートを作ったのです
02:50
And then the government sat on it
それから政府はこれを
02:52
and used it for political leverage on Moi,
ケニアで1番の金持ちだった―
02:55
who was the richest man --
今でもそうですが―
02:57
still is the richest man -- in Kenya.
モイに対抗する 武器として使ったのです
02:59
It's the Holy Grail of Kenyan journalism.
ケニアのジャーナリズムにおける 渇望の品です
03:02
So I went there in 2007,
私は2007年にケニアに赴き
03:05
and we managed to get hold of this
選挙の少し前に
03:08
just prior to the election --
どうにかこれを入手しました
03:10
the national election, December 28.
12月28日の国政選挙の時です
03:12
When we released that report,
私達がこのレポートを公開したのは
03:17
we did so three days after the new president, Kibaki,
キバキ新大統領が 追放するはずの―
03:20
had decided to pal up with
ダニエル アラップ モイと
03:23
the man that he was going to clean out,
手を結ぶことに決めた
03:25
Daniel arap Moi,
3日後のことでした
03:27
so this report then
だからこのレポートは
03:29
became a dead albatross
キバキ大統領を患わせる
03:32
around President Kibaki's neck.
目の上の瘤のようになったのです
03:34
CA: And -- I mean, to cut a long story short --
簡単に言うと このレポートに関する情報は
03:38
word of the report leaked into Kenya,
ケニア側の機関が公開したのではなく
03:41
not from the official media, but indirectly,
外部からケニアに入ってきたのですね?
03:44
and in your opinion, it actually shifted the election.
それで選挙結果が変わったと お考えですか?
03:47
JA: Yeah. So this became front page of the Guardian
ええ ガーディアン紙の一面に載って
03:50
and was then printed in all the surrounding countries of Kenya,
その後 タンザニアや南アフリカ等の
03:53
in Tanzanian and South African press.
周囲の国の新聞にも載ったことで
03:56
And so it came in from the outside.
ケニアに情報が入りました
03:59
And that, after a couple of days,
2、3日すると ケニアのマスコミも
04:01
made the Kenyan press feel safe to talk about it.
報道しても安全だと思うようになり
04:03
And it ran for 20 nights straight on Kenyan TV,
20日連続でテレビで流しました
04:05
shifted the vote by 10 percent,
ケニアの情報機関の調査によれば
04:08
according to a Kenyan intelligence report,
投票に 10%の違いが出たそうです
04:11
which changed the result of the election.
それにより 選挙結果が変わりました
04:13
CA: Wow, so your leak
あなた方が公開したことで
04:15
really substantially changed the world?
本当に世界を変えたわけですね
04:17
JA: Yep.
ええ
04:19
(Applause)
(拍手)
04:21
CA: Here's -- We're going to just show
次は バグダッドでの戦闘の
04:25
a short clip from this
短いビデオクリップを
04:27
Baghdad airstrike video.
ご覧に入れます
04:30
The video itself is longer,
実際は長いのですが
04:32
but here's a short clip.
ここでは一部だけ お見せします
04:34
This is -- this is intense material, I should warn you.
衝撃的な映像だと警告しておきます
04:36
Radio: ... just fuckin', once you get on 'em just open 'em up.
(無線) 視野に入ったらぶちかませ
04:39
I see your element, uh, got about four Humvees, uh, out along ...
そちらの部隊を確認した ハンヴィー4台と…
04:42
You're clear. All right. Firing.
撃ってよし 了解 掃射する
04:46
Let me know when you've got them. Let's shoot.
片付いたら知らせてくれ やっつけろ
04:49
Light 'em all up.
全部吹っ飛ばせ
04:52
C'mon, fire!
行け!
04:54
(Machine gun fire)
(機関砲の発射音)
04:56
Keep shoot 'n. Keep shoot 'n.
掃射…掃射…
04:59
(Machine gun fire)
(機関砲の発射音)
05:02
Keep shoot 'n.
掃射…
05:05
Hotel ... Bushmaster Two-Six, Bushmaster Two-Six,
こちら ブッシュマスター2-6
05:08
we need to move, time now!
即移動したい
05:10
All right, we just engaged all eight individuals.
了解 敵8人と交戦
05:12
Yeah, we see two birds [helicopters], and we're still firing.
ヘリ2機 確認 依然交戦中
05:15
Roger. I got 'em.
了解 捕捉した
05:18
Two-Six, this is Two-Six, we're mobile.
2-6 こちら移動中だ
05:20
Oops, I'm sorry. What was going on?
おっと失礼 どうなってたんだ?
05:22
God damn it, Kyle. All right, hahaha. I hit 'em.
おいおい カイル ハッハッハ 当たった
05:24
CA: So, what was the impact of that?
この映像でどんな波紋がありましたか?
05:29
JA: The impact on the people who worked on it
関係者には大きな衝撃が
05:32
was severe.
走りました
05:35
We ended up sending two people to Baghdad
私達はバグダッドに2人送り
05:37
to further research that story.
追跡調査しました
05:39
So this is just the first of three attacks
今の映像は この時に起きた
05:41
that occurred in that scene.
3度の攻撃の 最初の部分です
05:44
CA: So, I mean, 11 people died in that attack, right,
確か 11人がこの攻撃で亡くなり
05:46
including two Reuters employees?
ロイター記者が2人含まれていたという?
05:48
JA: Yeah. Two Reuters employees,
そうです 2人のロイター記者が死に
05:50
two young children were wounded.
2人の幼いこどもが 重傷を負いました
05:52
There were between 18 and 26 people killed all together.
全部で18人から26人が 殺されました
05:55
CA: And releasing this caused
この映像の公開によって 人々の間に
05:58
widespread outrage.
ものすごい怒りが起きました
06:00
What was the key element of this
その怒りを引き起こした
06:02
that actually caused the outrage, do you think?
大きな要素は何だったと思いますか?
06:04
JA: I don't know. I guess people can see
おそらく 甚だしい力の不均衡を
06:07
the gross disparity in force.
目の当たりにしたことではないでしょうか
06:09
You have guys walking in a relaxed way down the street,
くつろいで歩いているところへ
06:12
and then an Apache helicopter sitting up at one kilometer
突然 1キロ先からアパッチヘリが
06:14
firing 30-millimeter cannon shells
30ミリ機関砲弾を
06:17
on everyone --
全員に浴びせかけたのです
06:19
looking for any excuse to do so --
撃つべき口実を探しながら…
06:21
and killing people rescuing the wounded.
救助に来た人たちまで殺しました
06:24
And there was two journalists involved that clearly weren't insurgents
それにあの2人は 常勤の記者で
06:26
because that's their full-time job.
明らかに反乱者ではありません
06:29
CA: I mean, there's been this U.S. intelligence analyst,
米の諜報分析家が 逮捕されましたね
06:33
Bradley Manning, arrested,
ブラッドリー マニング上等兵です
06:36
and it's alleged that he confessed in a chat room
彼はこのビデオ他 28万本の
06:38
to have leaked this video to you,
米大使館の機密電信を
06:41
along with 280,000
WikiLeaksに渡したと
06:44
classified U.S. embassy cables.
チャット上で認めた と言われていますが
06:46
I mean, did he?
本当でしょうか?
06:48
JA: We have denied receiving those cables.
電信の話は否定しました
06:51
He has been charged,
5日ほど前に 彼は
06:53
about five days ago,
15万本の電信を入手し―
06:55
with obtaining 150,000 cables
内50本を漏洩したことで
06:57
and releasing 50.
告発されました
07:00
Now, we had released,
私達は 今年初めにレイキャビクの
07:02
early in the year,
米大使館から入手した
07:05
a cable from the Reykjavik U.S. embassy,
電信を公開しましたが
07:07
but this is not necessarily connected.
それは無関係です
07:11
I mean, I was a known visitor of that embassy.
大使館へは私が行ったのですから
07:13
CA: I mean, if you did receive thousands
ではもし 何千本という
07:15
of U.S. embassy diplomatic cables ...
外交電信を 受け取っていたとしたら…
07:17
JA: We would have released them. (CA: You would?)
(ジュリアン:公開します) …公開するんですね?
07:20
JA: Yeah. (CA: Because?)
ええ (クリス: どうして?)
07:22
JA: Well, because these sort of things
このようなものは
07:25
reveal what the true state
例えば アラブ諸国の政府における
07:27
of, say,
人権侵害が本当のところ
07:30
Arab governments are like,
どうなっているのか
07:32
the true human-rights abuses in those governments.
明らかにしてくれます
07:34
If you look at declassified cables,
機密解除された電信を見れば
07:37
that's the sort of material that's there.
そういった資料があるのが分かります
07:39
CA: So let's talk a little more broadly about this.
もう少し広く見ていきましょう
07:41
I mean, in general, what's your philosophy?
どのような信念に基づき
07:43
Why is it right
機密情報の漏洩を勧めることが
07:45
to encourage leaking of secret information?
正しいと お考えになるのですか?
07:47
JA: Well, there's a question as to what sort of information is important in the world,
どんな情報が世界に重要で―
07:51
what sort of information
改革を達成させるのか―
07:54
can achieve reform.
という問いがありますね
07:56
And there's a lot of information.
様々な情報がありますが
07:58
So information that organizations
組織が金をかけてまで
08:00
are spending economic effort into concealing,
情報を隠そうとしているというのは
08:02
that's a really good signal
その情報を世に出せば
08:05
that when the information gets out,
社会的利益があるという
08:07
there's a hope of it doing some good --
よい目印になるのです
08:09
because the organizations that know it best,
なにしろ 情報を―
08:11
that know it from the inside out,
熟知している企業が
08:13
are spending work to conceal it.
必死に隠そうとしているわけですから
08:15
And that's what we've found in practice,
それが私達が活動する中で学んだことです
08:18
and that's what the history of journalism is.
ジャーナリズムは 歴史的にそういうものなのです
08:20
CA: But are there risks with that,
しかし リスクはありませんか?
08:23
either to the individuals concerned
関係者や
08:26
or indeed to society at large,
社会全体に対して?
08:29
where leaking can actually have
漏洩によって 予期せぬ結果が
08:31
an unintended consequence?
生じることはありませんか?
08:33
JA: Not that we have seen with anything we have released.
そういうことは 起きていません
08:35
I mean, we have a harm immunization policy.
私達は万全を期しています
08:37
We have a way of dealing with information
個人的な情報
08:39
that has sort of personal --
個人を特定できる情報は
08:41
personally identifying information in it.
特別な扱いをしています
08:43
But there are legitimate secrets --
正当な秘密というのも存在します
08:46
you know, your records with your doctor;
例えば 個人の医療記録などは
08:49
that's a legitimate secret --
正当な秘密です
08:52
but we deal with whistleblowers that are coming forward
私達が相手にしているのは
08:54
that are really sort of well-motivated.
良心に動かされた 内部告発者です
08:56
CA: So they are well-motivated.
良心に動かされたにしても
08:59
And what would you say to, for example,
たとえば誰か
09:01
the, you know, the parent of someone
息子が米軍で働いている人が
09:03
whose son is out serving the U.S. military,
言うかもしれませんよね―
09:06
and he says, "You know what,
“あれは 誰かが思惑があって
09:09
you've put up something that someone had an incentive to put out.
流出させたんだ
09:11
It shows a U.S. soldier laughing
アメリカ兵が笑いながら
09:13
at people dying.
人を殺す映像を公開したことで
09:15
That gives the impression, has given the impression,
世界中の何百万という人が
09:17
to millions of people around the world
アメリカ兵はみんな人でなしだと
09:19
that U.S. soldiers are inhuman people.
誤解してしまった
09:21
Actually, they're not. My son isn't. How dare you?"
息子は違うのに なんてことを!”
09:23
What would you say to that?
それに対して どう答えますか?
09:25
JA: Yeah, we do get a lot of that.
そういうことはよく言われます
09:27
But remember, the people in Baghdad,
しかし考えてみてください
09:29
the people in Iraq, the people in Afghanistan --
バグダッドや イラクや アフガニスタンの人たちは…
09:31
they don't need to see the video;
ビデオを観ずとも こういう光景を
09:34
they see it every day.
日常で目にしているのです
09:36
So it's not going to change their opinion. It's not going to change their perception.
だから彼らの意見や認識を
09:38
That's what they see every day.
変えることはありません
09:41
It will change the perception and opinion
私達が望むのは このような行為に
09:43
of the people who are paying for it all,
費用を払っている人たちの
09:46
and that's our hope.
意見や認識を変えることです
09:48
CA: So you found a way to shine light
あなたは このような企業や政府の
09:51
into what you see
暗い一面に光りを当てる
09:54
as these sort of dark secrets in companies and in government.
方法を見つけたわけですね
09:57
Light is good.
光は良いものです
10:01
But do you see any irony in the fact that,
しかし その光を当てるために
10:03
in order for you to shine that light,
他でもないあなたが 情報源を
10:05
you have to, yourself,
機密扱いしなければならないとは
10:07
create secrecy around your sources?
皮肉なことではありませんか?
10:09
JA: Not really. I mean, we don't have
そうでもありません
10:12
any WikiLeaks dissidents yet.
WikiLeaksの反体派は 現れていません
10:15
We don't have sources who are dissidents on other sources.
相反する情報を示す人も 現れていません
10:19
Should they come forward, that would be a tricky situation for us,
そうなると 難しいことになるのでしょうが…
10:23
but we're presumably acting in such a way
私達は WikiLeaksの任務遂行が
10:26
that people feel
道義的に正しいと
10:29
morally compelled
納得してもらえるよう
10:31
to continue our mission, not to screw it up.
活動しているつもりです
10:33
CA: I'd actually be interested, just based on what we've heard so far --
ここまでお話を伺ってきて―
10:37
I'm curious as to the opinion in the TED audience.
会場の皆さんの意見はどうでしょうか
10:40
You know, there might be a couple of views
WikiLeaksとジュリアンに対しては
10:45
of WikiLeaks and of Julian.
見方が分かれると思います
10:47
You know, hero -- people's hero --
“大切な光をもたらしてくれる
10:49
bringing this important light.
みんなのヒーロー”という見方と
10:52
Dangerous troublemaker.
“危険なトラブルメーカー”という見方です
10:55
Who's got the hero view?
ヒーローだと思う方?
10:58
Who's got the dangerous troublemaker view?
危険なトラブルメーカーだと思う方?
11:02
JA: Oh, come on. There must be some.
ほら 少しはいるでしょ! (笑)
11:06
CA: It's a soft crowd, Julian, a soft crowd.
皆さん寛大なんですよ
11:09
We have to try better. Let's show them another example.
もう1つの例を見ましょう
11:11
Now here's something that you haven't yet leaked,
この話は まだ公になっていませんが
11:13
but I think for TED you are.
ここTEDにて 教えてくださるそうですね
11:16
I mean it's an intriguing story that's just happened, right?
その“最近起こった面白い話” とは
11:19
What is this?
何なのでしょう?
11:21
JA: So this is a sample of what we do
これは私達の日々の活動を
11:23
sort of every day.
お見せできる いい例です
11:25
So late last year -- in November last year --
去年の暮れ 11月に
11:27
there was a series of well blowouts
アルバニアで 一連の
11:30
in Albania,
石油流出事故がありました
11:32
like the well blowout in the Gulf of Mexico,
メキシコ湾の流出事故みたいなものですが
11:34
but not quite as big.
そこまで大規模ではありません
11:37
And we got a report --
私達は あるレポートを手に入れました
11:39
a sort of engineering analysis into what happened --
事故の技術分析資料のようでした
11:42
saying that, in fact, security guards
そこには ライバル石油会社の
11:45
from some rival, various competing oil firms
警備員がトラックでやってきて
11:48
had, in fact, parked trucks there and blown them up.
爆破したのだと書いてあり―
11:51
And part of the Albanian government was in this, etc., etc.
アルバニア政府が絡んでいる とのことでした
11:55
And the engineering report
しかし
11:59
had nothing on the top of it,
その資料には表紙も何もなくて
12:00
so it was an extremely difficult document for us.
非常に扱いの難しいものでした
12:02
We couldn't verify it because we didn't know
内容は分かるものの
12:04
who wrote it and knew what it was about.
誰が書いたか分からないのです
12:06
So we were kind of skeptical that maybe it was
ライバル会社がでっち上げた
12:08
a competing oil firm just sort of playing the issue up.
可能性も疑いましたが
12:10
So under that basis, we put it out and said,
但し書き付きで 公開しました
12:12
"Look, we're skeptical about this thing.
“この資料に関しては
12:14
We don't know, but what can we do?
疑念がある
12:16
The material looks good, it feels right,
中身はもっともらしく見えるが
12:18
but we just can't verify it."
検証はできなかった”
12:20
And we then got a letter
そしたら今週になって
12:22
just this week
このレポートを書いた会社から
12:25
from the company who wrote it,
手紙が届きまして
12:28
wanting to track down the source --
情報の流出元を調べたいと…
12:31
(Laughter)
(笑)
12:34
saying, "Hey, we want to track down the source."
“あの資料は誰から?” と聞くので
12:38
And we were like, "Oh, tell us more.
私達は “教えてください
12:41
What document is it, precisely, you're talking about?
正確には どの文書のお話でしょうか?
12:43
Can you show that you had legal authority over that document?
文書の法的権利は お持ちですか?
12:46
Is it really yours?"
本当にお宅のなんですか?”
12:49
So they sent us this screen shot
そうしたら彼らは Microsoft Wordの
12:51
with the author
作成者欄の
12:54
in the Microsoft Word ID.
スクリーンショットを送ってきました
12:56
Yeah.
そういうわけです
13:01
(Applause)
(拍手)
13:03
That's happened quite a lot though.
こういうことは 良くあります
13:08
This is like one of our methods
文書の正当性を検証する
13:10
of identifying, of verifying, what a material is,
1つのやり方です
13:12
is to try and get these guys to write letters.
相手に手紙を書かせるわけです
13:15
CA: Yeah. Have you had information
BP内部からの情報というのは
13:17
from inside BP?
お持ちですか?
13:20
JA: Yeah, we have a lot, but I mean, at the moment,
たくさんあります
13:22
we are undergoing a sort of serious fundraising and engineering effort.
あいにく資金調達や 技術的な
13:25
So our publication rate
作業に追われ ここ数ヶ月は
13:28
over the past few months
公開の頻度が最小限に
13:30
has been sort of minimized
抑えられています
13:32
while we're re-engineering our back systems
最近 急上昇した 社会的関心に対応できるよう
13:34
for the phenomenal public interest that we have.
バックエンドのシステムを再構築しているんです
13:37
That's a problem.
困ったものです
13:40
I mean, like any sort of growing startup organization,
急成長するベンチャーが陥りがちな
13:42
we are sort of overwhelmed
“自らの成長についていけない”
13:45
by our growth,
という問題です
13:47
and that means we're getting enormous quantity
つまり 莫大な量の
13:49
of whistleblower disclosures
手腕を要する 機密情報の
13:51
of a very high caliber
開示が行われていますが
13:53
but don't have enough people to actually
処理や検証作業の
13:55
process and vet this information.
人員が足りていないのです
13:57
CA: So that's the key bottleneck,
ジャーナリスト的な作業を受け持つ
13:59
basically journalistic volunteers
ボランティアや資金を募るのが
14:01
and/or the funding of journalistic salaries?
主な障害というわけですね?
14:03
JA: Yep. Yeah, and trusted people.
ええ それも信頼できる人間が必要です
14:06
I mean, we're an organization
扱っているものの性格上
14:08
that is hard to grow very quickly
組織として急速に成長する―
14:10
because of the sort of material we deal with,
ということが難しいのです
14:12
so we have to restructure
組織を再編する必要があります
14:14
in order to have people
国の安全保障に関わる
14:17
who will deal with the highest national security stuff,
高度な機密情報と 重要度の低い情報は
14:19
and then lower security cases.
別なグループで扱うべきでしょう
14:22
CA: So help us understand a bit about you personally
あなたの性格と ここに至るまでの
14:24
and how you came to do this.
経緯を知りたいのですが
14:27
And I think I read that as a kid
子供の頃 37もの学校を
14:29
you went to 37 different schools.
渡り歩いたそうですね
14:31
Can that be right?
本当なんですか?
14:34
JA: Well, my parents were in the movie business
両親が映画産業で働いていたのと
14:36
and then on the run from a cult,
あるカルトから逃げていたのが―
14:39
so the combination between the two ...
重なって そんなことに…
14:41
(Laughter)
(笑)
14:43
CA: I mean, a psychologist might say
心理学者なら 言うでしょうね
14:47
that's a recipe for breeding paranoia.
妄想的な人間が育つ格好の条件だと
14:49
JA: What, the movie business?
ああ 映画産業がですか?
14:52
(Laughter)
(笑)
14:54
(Applause)
(拍手)
14:57
CA: And you were also -- I mean,
それから あなたは若い頃
15:00
you were also a hacker at an early age
ハッカーをしていて
15:02
and ran into the authorities early on.
当局と衝突したそうですね
15:04
JA: Well, I was a journalist.
…いえ ジャーナリストです 若い頃から―
15:07
You know, I was a very young journalist activist at an early age.
ジャーナリストで 活動家でした
15:10
I wrote a magazine,
十代の時 雑誌投稿が元で
15:12
was prosecuted for it when I was a teenager.
起訴されたことがあります
15:14
So you have to be careful with hacker.
ハッカーという言葉は
15:17
I mean there's like -- there's a method
注意して使う必要があります
15:19
that can be deployed for various things.
この技術は様々なことに使えますが
15:21
Unfortunately, at the moment,
あいにく 最近では
15:23
it's mostly deployed by the Russian mafia
お年寄りの預金口座から盗む
15:25
in order to steal your grandmother's bank accounts.
ロシアン マフィアに使われています
15:27
So this phrase is not,
だから その言いまわしは
15:29
not as nice as it used to be.
かつてのようには 良くありません
15:32
CA: Yeah, well, I certainly don't think
あなたが どこかのお年寄りから
15:34
you're stealing anyone's grandmother's bank account,
お金を盗むとは 思いもしませんが
15:36
but what about
でもあなたの中心的な価値観は
15:39
your core values?
何なのでしょうか?
15:41
Can you give us a sense of what they are
それがどんなものなのか―
15:43
and maybe some incident in your life
また そう考えるに至った
15:46
that helped determine them?
きっかけを教えてください
15:48
JA: I'm not sure about the incident.
きっかけは 特にありませんが
15:53
But the core values:
中心的な価値観は…
15:55
well, capable, generous men
有能で親切な人間は
15:58
do not create victims;
犠牲者を生み出すのではなく
16:01
they nurture victims.
犠牲者を助ける ということです
16:03
And that's something from my father
これは父をはじめ
16:05
and something from other capable, generous men
私が人生で出会った
16:07
that have been in my life.
有能で親切な人たちから 学んだことです
16:10
CA: Capable, generous men do not create victims;
なるほど 有能で親切な人間は
16:13
they nurture victims?
犠牲者を生み出すのではなく 助ける
16:15
JA: Yeah. And you know,
ええ もっとも私は
16:17
I'm a combative person,
闘争的な人間で
16:19
so I'm not actually so big on the nurture,
助けるという部分は 強くありません
16:23
but some way --
しかし 犠牲者を助ける方法は
16:25
there is another way of nurturing victims,
他にもあります
16:28
which is to police perpetrators
私は悪人を取り締まることで
16:31
of crime.
犠牲者を助けます
16:34
And so that is something
それが 長年の間
16:36
that has been in my character
私の性格の核を
16:38
for a long time.
成してきたものなのです
16:40
CA: So just tell us, very quickly in the last minute, the story:
最後に 手短にお聞きしたいのですが
16:42
what happened in Iceland?
アイスランドでは 何があったんですか?
16:45
You basically published something there,
あなたは そこで何かを公開して
16:48
ran into trouble with a bank,
銀行と衝突しましたね
16:51
then the news service there
そして その話の報道が
16:54
was injuncted from running the story.
差止命令を受けましたよね
16:56
Instead, they publicized your side.
代わりに あなたのことが報道され
16:59
That made you very high-profile in Iceland. What happened next?
注目を集めました その後の展開は?
17:01
JA: Yeah, this is a great case, you know.
これは重要な事例です
17:04
Iceland went through this financial crisis.
アイスランドの金融危機は
17:06
It was the hardest hit of any country in the world.
どの国よりも 深刻なものでした
17:08
Its banking sector was 10 times the GDP
金融業のGDPが その他すべての
17:10
of the rest of the economy.
10倍にもなっていたのです
17:12
Anyway, so we release this report
私達は去年の7月に
17:14
in July last year.
レポートを公開したのですが
17:17
And the national TV station was injuncted
国営テレビが 放送5分前に
17:20
five minutes before it went on air,
差止命令を受けました
17:22
like out of a movie: injunction landed on the news desk,
映画のシーンみたいに 差止命令が
17:24
and the news reader was like,
ニュースデスクに届き キャスターは
17:26
"This has never happened before. What do we do?"
“こんなの初めてです どうしましょう?” と
17:28
Well, we just show the website instead,
だからその代わりに
17:30
for all that time, as a filler,
WikiLeaksのサイトを見せたのです
17:32
and we became very famous in Iceland,
それでアイスランドで有名になり
17:35
went to Iceland and spoke about this issue.
この問題について話しました
17:37
And there was a feeling in the community
再びあってはならないという
17:40
that that should never happen again,
気運が高まり
17:42
and as a result,
その結果として
17:44
working with Icelandic politicians
アイスランドの政治家や
17:46
and some other international legal experts,
国際法の専門家と一緒に
17:48
we put together a new sort of
アイスランドが
17:50
package of legislation for Iceland
世界一 報道の自由が保障された―
17:52
to sort of become an offshore haven
報道の聖域となるよう
17:55
for the free press,
一連の法案を作り上げました
17:58
with the strongest journalistic protections in the world,
また 言論の自由のための
18:01
with a new Nobel Prize
ノーベル賞を設けるよう
18:04
for freedom of speech.
働きかけました
18:06
Iceland's a Nordic country,
アイスランドは北欧の国なので
18:08
so, like Norway, it's able to tap into the system.
ノルウェー同様 システムに入り込みやすいのです
18:10
And just a month ago,
ほんの一ヶ月前のことですが
18:13
this was passed by the Icelandic parliament unanimously.
アイスランド議会で 満場一致で可決されました
18:15
CA: Wow.
(クリス: すごいですね)
18:18
(Applause)
(拍手)
18:20
Last question, Julian.
最後の質問です
18:26
When you think of the future then,
社会はどうなっていくと思いますか?
18:28
do you think it's more likely to be
巨大な権力による監視が
18:30
Big Brother exerting more control,
強くなっていくような
18:32
more secrecy,
社会になると思いますか?
18:34
or us watching
それとも我々が 権力を
18:36
Big Brother,
監視するような社会になると思いますか?
18:38
or it's just all to be played for either way?
あいるは可能性は五分五分でしょうか?
18:40
JA: I'm not sure which way it's going to go.
どちらに転ぶかは 分かりません
18:43
I mean, there's enormous pressures
言論の自由や透明性を巡って
18:45
to harmonize freedom of speech legislation
大きな力が
18:47
and transparency legislation around the world --
世界中で働いています
18:50
within the E.U.,
EU諸国の間や
18:53
between China and the United States.
中国とアメリカの間でです
18:55
Which way is it going to go? It's hard to see.
どちらに転がるのでしょう? 予想は難しいです
18:57
That's why it's a very interesting time to be in --
だからこそ 現在は面白い時なのです
19:00
because with just a little bit of effort,
ほんのちょっとした努力で
19:02
we can shift it one way or the other.
どちらに押しやることもできるのですから
19:04
CA: Well, it looks like I'm reflecting the audience's opinion
会場の思いを代表して言いますが
19:07
to say, Julian, be careful,
ジュリアン どうか気をつけて
19:10
and all power to you.
健闘をお祈りしています
19:12
JA: Thank you, Chris. (CA: Thank you.)
ジュリアン: ありがとうございます クリス: ありがとうございました
19:14
(Applause)
(スタンディングオベーション)
19:16
Translated by Yasushi Aoki
Reviewed by Caoli Price

▲Back to top

About the speaker:

Julian Assange - Whistleblower
Internet activist Julian Assange serves as spokesperson for WikiLeaks, a controversial, volunteer-driven website that publishes and comments on leaked documents alleging government and corporate misconduct.

Why you should listen

You could say Australian-born Julian Assange has swapped his long-time interest in network security flaws for the far-more-suspect flaws of even bigger targets: governments and corporations. Since his early 20s, he has been using network technology to prod and probe the vulnerable edges of administrative systems, but though he was a computing hobbyist first (in 1991 he was the target of hacking charges after he accessed the computers of an Australian telecom), he's now taken off his "white hat" and launched a career as one of the world's most visible human-rights activists.

He calls himself "editor in chief." He travels the globe as its spokesperson. Yet Assange's part in WikiLeaks is clearly dicier than that: he's become the face of creature that, simply, many powerful organizations would rather see the world rid of. His Wikipedia entry says he is "constantly on the move," and some speculate that his role in publishing decrypted US military video has put him in personal danger. A controversial figure, pundits debate whether his work is reckless and does more harm than good. Amnesty International recognized him with an International Media Award in 2009.

Assange studied physics and mathematics at the University of Melbourne. He wrote Strobe, the first free and open-source port scanner, and contributed to the book Underground: Tales of Hacking, Madness and Obsession on the Electronic Frontier.

More profile about the speaker
Julian Assange | Speaker | TED.com