English-Video.net comment policy

The comment field is common to all languages

Let's write in your language and use "Google Translate" together

Please refer to informative community guidelines on TED.com

TED2014

Martin Rees: Can we prevent the end of the world?

サー・マーティン・リース: 今世紀 我々は人類の終わりを回避できるか

Filmed
Views 1,223,433

人のいない人類文明終焉後の地球、それはテレビや映画のSF物語のようです。しかし、この驚愕の短いトークの中で、サー・マーティン・リースは、人類の存在を脅かす、考え得る最悪の惨事は何かを考えるよう訴えかけます。自然か、それとも人工的な脅威が人類を抹消してしまうのだろうか、と当事者の人類の一員として私達に問いかけます。

- Astrophysicist
Lord Martin Rees, one of the world's most eminent astronomers, is an emeritus professor of cosmology and astrophysics at the University of Cambridge and the UK's Astronomer Royal. He is one of our key thinkers on the future of humanity in the cosmos. Full bio

Ten years ago, I wrote a book which I entitled
10年前 私は本を書きました
00:12
"Our Final Century?" Question mark.
題は『今世紀で人類は終わる?』
と疑問符がついたものでしたが
00:14
My publishers cut out the question mark. (Laughter)
出版社は疑問符を取りました
(笑)
00:17
The American publishers changed our title
アメリカの出版社は
それを
00:21
to "Our Final Hour."
『人類最後の日』と変えたのです
00:23
Americans like instant gratification and the reverse.
幸も不幸も待てないという
アメリカ人気質なのでしょうか
00:27
(Laughter)
(笑)
00:30
And my theme was this:
今日のテーマは
00:32
Our Earth has existed for 45 million centuries,
4,500万世紀もの間
続いて来た地球の
00:34
but this one is special —
今世紀は特別で
00:38
it's the first where one species, ours,
人類が その手中に
00:40
has the planet's future in its hands.
地球の未来を
握っているという事です
00:43
Over nearly all of Earth's history,
地球は その誕生以来
ほぼずっと
00:46
threats have come from nature —
脅威は
00:48
disease, earthquakes, asteroids and so forth —
病気、地震、小惑星など
自然からのものでした
00:50
but from now on, the worst dangers come from us.
これからは 最悪の惨事を
もたらすのは人類です
00:53
And it's now not just the nuclear threat;
それは何も核だとは限りません
00:59
in our interconnected world,
相互に繋がるこの世界では
01:02
network breakdowns can cascade globally;
ネットワークが断たれると
世界は瞬く間に崩壊し
01:04
air travel can spread pandemics
worldwide within days;
疫病は人々の空の旅により
数日で世界中に広がり
01:07
and social media can spread panic and rumor
ソーシャルメディアは
パニックと噂を拡げます
01:11
literally at the speed of light.
それも文字通り光速で
01:14
We fret too much about minor hazards —
我々はあまりに些細な問題—
01:17
improbable air crashes, carcinogens in food,
起こりそうもない飛行機事故
食物に含まれる発がん性物質
01:21
low radiation doses, and so forth —
僅かな放射線などに
動揺し過ぎです
01:25
but we and our political masters
しかし我々や政治家達は
01:27
are in denial about catastrophic scenarios.
壊滅的な筋書きには否定的です
01:30
The worst have thankfully not yet happened.
最悪のケースは 有り難い事に
まだ起きてはいませんし
01:34
Indeed, they probably won't.
実際 多分起きない
かもしれません
01:37
But if an event is potentially devastating,
しかし壊滅的可能性が
ありそうなら
01:39
it's worth paying a substantial premium
対策を立てて
01:42
to safeguard against it, even if it's unlikely,
例え ありそうでなくても
予防策に投資する価値は十分あります
01:45
just as we take out fire insurance on our house.
家の火災保険に
入っておくようなものです
01:49
And as science offers greater power and promise,
科学の力は大きく
約束してくれるものは多い一方
01:54
the downside gets scarier too.
その否定的側面は空恐ろしく
01:59
We get ever more vulnerable.
人類はこれまでになく
危険に曝されています
02:02
Within a few decades,
この2、30年内に
02:05
millions will have the capability
何百万人が
02:06
to misuse rapidly advancing biotech,
急速に進歩しているバイオテク技術を
悪用できるようになるでしょう
02:09
just as they misuse cybertech today.
それは今日サイバーテクが
悪用される様なものです
02:12
Freeman Dyson, in a TED Talk,
フリーマン・ダイソン氏がTEDで
02:15
foresaw that children will design
and create new organisms
彼の世代が化学実験セットで
遊んだように未来の子どもは
02:19
just as routinely as his generation
played with chemistry sets.
新しい生命体をデザインして
作れるようになると予言しています
02:22
Well, this may be on the science fiction fringe,
SFの一端のようですが
02:27
but were even part of his scenario to come about,
これは彼のシナリオの
一部でもあり
02:29
our ecology and even our species
地球の生態系や人類は
02:32
would surely not survive long unscathed.
無傷では生き残れないだろう
というものです
02:35
For instance, there are some eco-extremists
例えば この惑星
大地の神ガイアの為には
02:39
who think that it would be better for the planet,
人口は削減されるべきだ
02:43
for Gaia, if there were far fewer humans.
と主張するエコ過激派が
02:45
What happens when such people have mastered
2050年までには誰でも
入手できると思われる
02:49
synthetic biology techniques
合成生物学の技術を
02:52
that will be widespread by 2050?
習得したらどうなるでしょう
02:54
And by then, other science fiction nightmares
それまでに他のSF的悪夢が
02:57
may transition to reality:
現実となるかもしれません
03:00
dumb robots going rogue,
馬鹿なロボットが
勝手な事をし出したり
03:01
or a network that develops a mind of its own
自己作動し始めた
ネットワークが
03:03
threatens us all.
我々を脅かし出すかもしれません
03:06
Well, can we guard against such risks by regulation?
そんなリスクから私たちを
法律で守れないでしょうか
03:08
We must surely try, but these enterprises
確かにやるだけの
価値はありますが
03:12
are so competitive, so globalized,
世界中で競争が激化し
03:14
and so driven by commercial pressure,
商業的圧力に左右されるので
03:18
that anything that can be done
will be done somewhere,
法律がどうであれ
可能なことは
03:20
whatever the regulations say.
どこかで実現するでしょう
03:23
It's like the drug laws — we try to regulate, but can't.
薬取締法みたいなもので
規制しようとしても無駄です
03:25
And the global village will have its village idiots,
地球村には愚かな者がいて
03:28
and they'll have a global range.
彼らは 世界で幅を利かせるでしょう
03:31
So as I said in my book,
私が本に書きましたように
03:35
we'll have a bumpy ride through this century.
今世紀を乗り越えるのは
たやすい事ではありません
03:37
There may be setbacks to our society —
何度も我々の社会は挫折し
03:40
indeed, a 50 percent chance of a severe setback.
実際 大きく挫折してしまう
可能性が半分でしょう
03:44
But are there conceivable events
最悪のケース
03:48
that could be even worse,
全人類を抹消する様な
03:51
events that could snuff out all life?
出来事があるでしょうか
03:53
When a new particle accelerator came online,
新しい粒子加速器が
誕生したとき
03:56
some people anxiously asked,
こう懸念する人がいました
03:59
could it destroy the Earth or, even worse,
「地球を破壊するか
宇宙構成組織を
04:01
rip apart the fabric of space?
バラバラにしてしまうのでは」と
04:03
Well luckily, reassurance could be offered.
幸運にも そうならないという
証拠があります
04:06
I and others pointed out that nature
他の人も指摘するように
04:09
has done the same experiments
宇宙線が他の原子核と衝突し
04:11
zillions of times already,
自然は何度も
同じ実験を
04:13
via cosmic ray collisions.
繰り返してきたからです
04:16
But scientists should surely be precautionary
しかし科学者は
04:17
about experiments that generate conditions
自然界に前例のない状態を
引き起こす実験には
04:20
without precedent in the natural world.
確かに慎重であるべきです
04:23
Biologists should avoid release
of potentially devastating
生物学者は 遺伝子操作された
壊滅的影響を与えうる―
04:25
genetically modified pathogens.
病原体を世に放つべきではありません
04:29
And by the way, our special aversion
ところで我々が
実存し得る惨事に対して
04:32
to the risk of truly existential disasters
特に嫌悪するのは
04:35
depends on a philosophical and ethical question,
道徳的、哲学的な問いに依るものです
04:39
and it's this:
それはこうです
04:42
Consider two scenarios.
2つの筋書きがあるとします
04:44
Scenario A wipes out 90 percent of humanity.
筋書きAは 人類の90%を一掃する
04:46
Scenario B wipes out 100 percent.
筋書きBは 人類の100%を一掃する
04:51
How much worse is B than A?
Bの方がAより
どれ程ひどいでしょうか?
04:55
Some would say 10 percent worse.
Bが10%だけひどいと
言われる方がいるでしょう
04:58
The body count is 10 percent higher.
BがAより 死亡率が10%高いのですが
05:01
But I claim that B is incomparably worse.
Bは 比較にならない程
悪いと私は思います
05:04
As an astronomer, I can't believe
天文学者として
05:07
that humans are the end of the story.
人類がこの物語の終わりだとは
信じられないのです
05:10
It is five billion years before the sun flares up,
太陽が赤色巨星となるまでに
後50億年
05:12
and the universe may go on forever,
宇宙は永遠に続いて
05:15
so post-human evolution,
ポストヒューマンの進化は
05:18
here on Earth and far beyond,
地球 そして 宇宙の彼方で
05:20
could be as prolonged as the Darwinian process
我々がここまで来たように
ダーウィン的進化を続け
05:23
that's led to us, and even more wonderful.
もっと素晴らしい進化を
辿るかもしれません
05:25
And indeed, future evolution
will happen much faster,
確かに未来の人類の進化は
05:29
on a technological timescale,
自然淘汰的ではなく
人工的な時間尺度に於いて
05:31
not a natural selection timescale.
その速度は急速なものでしょう
05:33
So we surely, in view of those immense stakes,
この莫大な賭けを考慮して
05:36
shouldn't accept even a one in a billion risk
これ程の可能性に幕を降ろす
人類滅亡のリスクが
05:40
that human extinction would foreclose
10億分の1だとしても
05:43
this immense potential.
決して それに甘んじるべき
ではないと思います
05:46
Some scenarios that have been envisaged
予測されたシナリオは
中には確かに
05:48
may indeed be science fiction,
SFの話のようなのが
あるかもしれません
05:50
but others may be disquietingly real.
しかし不気味に迫真性の
あるものもあります
05:51
It's an important maxim that the unfamiliar
「知らない事と ありえそうもない事は
同じではない」
05:55
is not the same as the improbable,
ということわざ通りです
05:58
and in fact, that's why we at Cambridge University
これが 予測されるリスクを
06:00
are setting up a center to study how to mitigate
軽減する研究をするため
我々がケンブリッジ大学で
06:03
these existential risks.
センターを設置している理由です
06:06
It seems it's worthwhile just for a few people
このような惨事に関して
模索するのは
06:08
to think about these potential disasters.
少数の人だけに
価値があるようですが
06:11
And we need all the help we can get from others,
我々は皆様からのどんなサポートも
必要としています
06:14
because we are stewards of a precious
なぜならこの広大な宇宙の
06:17
pale blue dot in a vast cosmos,
貴重な青い一点の惑星では
06:19
a planet with 50 million centuries ahead of it.
これから5千万世紀もの間
全人類が乗組員だからです
06:23
And so let's not jeopardize that future.
だから未来を
台無しないようにしましょう
06:26
And I'd like to finish with a quote
ある引用で終わらせて頂きます
06:29
from a great scientist called Peter Medawar.
偉大なる科学者の
ピーター・メダワーの言葉です
06:30
I quote, "The bells that toll for mankind
「人類のために鳴るベルは
06:34
are like the bells of Alpine cattle.
アルプスの牧牛のベルのように
06:37
They are attached to our own necks,
我々の首に掛かっている
06:40
and it must be our fault if they do not make
それが美しく鳴らなければ
06:42
a tuneful and melodious sound."
我々の責任である」
06:45
Thank you very much.
ありがとうございました
06:47
(Applause)
(拍手)
06:49
Translated by Reiko O Bovee
Reviewed by Yuko Yoshida

▲Back to top

About the speaker:

Martin Rees - Astrophysicist
Lord Martin Rees, one of the world's most eminent astronomers, is an emeritus professor of cosmology and astrophysics at the University of Cambridge and the UK's Astronomer Royal. He is one of our key thinkers on the future of humanity in the cosmos.

Why you should listen

Lord Martin Rees has issued a clarion call for humanity. His 2004 book, ominously titled Our Final Hour, catalogues the threats facing the human race in a 21st century dominated by unprecedented and accelerating scientific change. He calls on scientists and nonscientists alike to take steps that will ensure our survival as a species.

One of the world's leading astronomers, Rees is an emeritus professor of cosmology and astrophysics at Cambridge, and UK Astronomer Royal. Author of more than 500 research papers on cosmological topics ranging from black holes to quantum physics to the Big Bang, Rees has received countless awards for his scientific contributions. But equally significant has been his devotion to explaining the complexities of science for a general audience, in books like Before the Beginning and Our Cosmic Habitat.

More profile about the speaker
Martin Rees | Speaker | TED.com