ABOUT THE SPEAKER
Martin Rees - Astrophysicist
Lord Martin Rees, one of the world's most eminent astronomers, is an emeritus professor of cosmology and astrophysics at the University of Cambridge and the UK's Astronomer Royal. He is one of our key thinkers on the future of humanity in the cosmos.

Why you should listen

Lord Martin Rees has issued a clarion call for humanity. His 2004 book, ominously titled Our Final Hour, catalogues the threats facing the human race in a 21st century dominated by unprecedented and accelerating scientific change. He calls on scientists and nonscientists alike to take steps that will ensure our survival as a species.

One of the world's leading astronomers, Rees is an emeritus professor of cosmology and astrophysics at Cambridge, and UK Astronomer Royal. Author of more than 500 research papers on cosmological topics ranging from black holes to quantum physics to the Big Bang, Rees has received countless awards for his scientific contributions. But equally significant has been his devotion to explaining the complexities of science for a general audience, in books like Before the Beginning and Our Cosmic Habitat.

More profile about the speaker
Martin Rees | Speaker | TED.com
TED2014

Martin Rees: Can we prevent the end of the world?

마틴 리스 경: 지구의 종말을 막을 수 있는가?

Filmed:
1,283,785 views

A post-apocalyptic Earth, emptied of humans, seems like the stuff of science fiction TV and movies. But in this short, surprising talk, Lord Martin Rees asks us to think about our real existential risks — natural and human-made threats that could wipe out humanity. As a concerned member of the human race, he asks: What’s the worst thing that could possibly happen?
- Astrophysicist
Lord Martin Rees, one of the world's most eminent astronomers, is an emeritus professor of cosmology and astrophysics at the University of Cambridge and the UK's Astronomer Royal. He is one of our key thinkers on the future of humanity in the cosmos. Full bio

Double-click the English transcript below to play the video.

00:12
Ten years연령 ago...전에, I wrote a book도서 which어느 I entitled자격이있는
0
485
2222
10년 전, 책을 한 권 썼습니다.
"우리의 마지막 세기?"
끝에 물음표를 달았어요.
00:14
"Our Final결정적인 Century세기?" Question문제 mark.
1
2707
3093
00:17
My publishers발행인 cut절단 out the question문제 mark. (Laughter웃음)
2
5800
3577
제 출판사는
그 물음표를 뺐습니다.
(웃음)
00:21
The American미국 사람 publishers발행인 changed변경된 our title표제
3
9377
1882
미국 출판사는 그 제목을
이렇게 바꿨습니다.
00:23
to "Our Final결정적인 Hour시간."
4
11259
3909
"우리의 마지막 시간"
00:27
Americans미국인 like instant즉시 gratification보수 and the reverse.
5
15168
3492
미국인들은 즉각적인 만족감과
그 반전을 좋아합니다.
00:30
(Laughter웃음)
6
18660
1708
(웃음)
그 책의 주제는 이러합니다.
00:32
And my theme테마 was this:
7
20368
1750
지구의 역사는
4,500만 세기가 넘지만
00:34
Our Earth지구 has existed존재했다 for 45 million백만 centuries세기,
8
22118
4166
이번 세기는 특별합니다.
지구의 미래가 처음으로
00:38
but this one is special특별한
9
26284
2013
00:40
it's the first where one species, ours우리 것,
10
28297
3016
인간이라는 한 종의 손에 의해
결정되는 세기이기 때문이죠.
00:43
has the planet's행성의 future미래 in its hands소유.
11
31313
2802
00:46
Over nearly거의 all of Earth's지구의 history역사,
12
34115
1990
그간 지구의 역사를 보면
위협은 자연에서 시작되었습니다.
00:48
threats위협 have come from nature자연
13
36105
1936
00:50
disease질병, earthquakes지진, asteroids소행성 and so forth앞으로
14
38041
3496
질병, 지진,
소행성 충돌 등이 있었는데
00:53
but from now on, the worst가장 나쁜 dangers위험 come from us.
15
41537
5672
앞으로 최악의 위험은
우리에게서 비롯될 것입니다.
00:59
And it's now not just the nuclear핵무기 threat위협;
16
47209
3271
핵 위협만 해당하는게 아닙니다.
01:02
in our interconnected서로 연결된 world세계,
17
50480
1751
서로 연결된 이 세상에서 네트워크의
붕괴는 전세계적으로 일어날 수 있죠.
01:04
network회로망 breakdowns고장 can cascade종속 globally전 세계적으로;
18
52231
3163
01:07
air공기 travel여행 can spread전파 pandemics전염병
worldwide세계적인 within이내에 days;
19
55394
3956
항공여행은 수일 내에 전염병을
전세계로 퍼트리며
01:11
and social사회적인 media미디어 can spread전파 panic공포 and rumor소문
20
59350
3327
소셜 미디어는 공포와 소문을 말대로
빛의 속도로 확산시킬 겁니다.
01:14
literally말 그대로 at the speed속도 of light.
21
62677
3217
01:17
We fret프렛 too much about minor미성년자 hazards위험
22
65894
3225
우린 사소한 위험에
불안해 합니다.
01:21
improbable가능성이없는 air공기 crashes사고, carcinogens발암 물질 in food식품,
23
69119
4031
일어날 리 없는
비행기 추락사고라던가,
음식에 든 발암 물질이나,
01:25
low낮은 radiation방사 doses복용량, and so forth앞으로
24
73150
2226
저선량 방사선 노출 등에
대해서 말이죠.
01:27
but we and our political주재관 masters주인
25
75376
2825
하지만 저같은 과학자나,
정치 인사들은
01:30
are in denial부정 about catastrophic파국적 인 scenarios시나리오.
26
78201
4203
대재앙 가설을 부정하고 있습니다.
01:34
The worst가장 나쁜 have thankfully고맙게도 not yet아직 happened일어난.
27
82404
3038
다행히 아직 최악의 상황이
발생하지 않았습니다.
01:37
Indeed과연, they probably아마 won't습관.
28
85442
2196
사실은 일어나지도 않을 겁니다.
01:39
But if an event행사 is potentially잠재적으로 devastating지독한,
29
87638
3185
하지만 그게 잠재적으로라도
파괴적인 사건이라면
01:42
it's worth가치 paying지불하는 a substantial실질적인 premium프리미엄
30
90823
2868
일어날 가능성이 낮더라도 엄청난 노력을
들여서 대비책을 마련해둘만 하죠.
01:45
to safeguard보호 against반대 it, even if it's unlikely있을 것 같지 않게,
31
93691
3836
마치 우리가 우리의 집을 위해
화재보험을 드는 것처럼요.
01:49
just as we take out fire insurance보험 on our house.
32
97527
4513
과학이 더 많은 힘과 가능성을 제공할수록
부정적인 면도 더욱 무서워집니다.
01:54
And as science과학 offers제안 greater더 큰 power and promise약속,
33
102040
4997
01:59
the downside단점 gets도착 scarier무서운 too.
34
107037
3866
우린 사상 최대로 취약해지고요.
02:02
We get ever more vulnerable취약.
35
110903
2239
02:05
Within이내에 a few조금 decades수십 년,
36
113142
1838
불과 수십년 안에수백만 명이
02:06
millions수백만 will have the capability능력
37
114980
2230
빠르게 발전하고 있는 생명공학 기술을
오용할 가능성이 있습니다.
02:09
to misuse오용 rapidly빠르게 advancing전진하는 biotech생명 공학,
38
117210
3121
02:12
just as they misuse오용 cybertech사이버 테크 today오늘.
39
120331
3553
마치 오늘날 컴퓨터 공학을
악용하듯이 말이죠.
02:15
Freeman자유민 Dyson다이슨, in a TED테드 Talk,
40
123884
3199
TED강연에서 프리만 다이슨은 자기가
화학기구를 일상적으로 가지고 논 것처럼
02:19
foresaw예견하다 that children어린이 will design디자인
and create몹시 떠들어 대다 new새로운 organisms유기체
41
127083
3596
02:22
just as routinely일상적으로 as his generation세대
played연주 한 with chemistry화학 sets세트.
42
130679
4511
미래의 아이들은 새생물들을 설계하고
창조할 것이라고 이야기했습니다.
02:27
Well, this may할 수있다 be on the science과학 fiction소설 fringe주변,
43
135190
2528
뭐, 이게 약간 공상과학같지만
02:29
but were even part부품 of his scenario대본 to come about,
44
137718
3183
그의 시나리오의 일부만
실현 되더라도
02:32
our ecology생태학 and even our species
45
140901
2737
생태환경, 심지어
종(種)에 이르기까지
02:35
would surely확실히 not survive생존하다 long unscathed상처 없는.
46
143638
3989
오래지 않아 훼손될 겁니다.
02:39
For instance, there are some eco-extremists에코 - 극단 주의자
47
147627
3863
예를 들어, 지구를 위해서
인간 수가 훨씬 줄어드는 것이
02:43
who think that it would be better for the planet행성,
48
151490
2509
나을 것이라고 생각하는
환경극단론자들이 있습니다.
02:45
for Gaia가이아, if there were far멀리 fewer적은 humans인간.
49
153999
3403
02:49
What happens일이 when such이러한 people have mastered마스터 한
50
157402
2717
만일 그 사람들이 생명 합성
기술들을 익히면 어떻게 될까요?
02:52
synthetic인조 biology생물학 techniques기법
51
160119
2137
그 기계가 2050까지
널리 분포된다면요.
02:54
that will be widespread펼친 by 2050?
52
162256
2852
02:57
And by then, other science과학 fiction소설 nightmares악몽
53
165108
3042
그때쯤엔 다른 공상과학 악몽들도
현실이 될 수 있겠지요.
03:00
may할 수있다 transition전이 to reality현실:
54
168150
1710
03:01
dumb우둔한 robots로봇 going rogue악당,
55
169860
2070
악당이 된 멍청한 로봇들이나
03:03
or a network회로망 that develops발전하다 a mind마음 of its own개인적인
56
171930
2417
우리를 위협하는자아를 가진 네트워크
같은 게 우릴 위협한다면 말이에요.
03:06
threatens위협하다 us all.
57
174347
2589
03:08
Well, can we guard가드 against반대 such이러한 risks위험 by regulation규제?
58
176936
3270
그렇다면 규제를 통해 이런 상황으로부터
우리 스스로를 지킬 수 있을까요?
우린 분명 노력해야하겠지만,
03:12
We must절대로 필요한 것 surely확실히 try, but these enterprises기업
59
180206
2407
이런 사업들은 치열하고 세계화되었고
상업적 압박에 시달려
03:14
are so competitive경쟁력있는, so globalized세계화 된,
60
182613
3529
03:18
and so driven주행하는 by commercial상업적 pressure압력,
61
186142
1980
03:20
that anything that can be done끝난
will be done끝난 somewhere어딘가에,
62
188122
3285
실행 가능한 모든 것은
어디에선가 자행되고 있을 겁니다.
03:23
whatever도대체 무엇이 the regulations규정 say.
63
191407
2036
규제가 어떻든 간에요.
마치 마약법과 같습니다.
03:25
It's like the drug laws법률 — we try to regulate규제하다, but can't.
64
193443
3487
제제를 하려고는 하지만
먹혀들지 않죠.
03:28
And the global글로벌 village마을 will have its village마을 idiots바보,
65
196930
3044
그리고 지구촌 사회에도 정신병자가
있을 것이고 전세계에 퍼져 있을겁니다.
03:31
and they'll그들은 할 것이다 have a global글로벌 range범위.
66
199974
3496
03:35
So as I said in my book도서,
67
203470
2291
즉, 제가 제 책에서 말했듯이
03:37
we'll have a bumpy울퉁불퉁 한 ride타기 through...을 통하여 this century세기.
68
205761
2889
이번 세기에 이런저런 평탄하지 않은
사건들이 많을 거예요.
03:40
There may할 수있다 be setbacks후퇴 to our society사회
69
208650
3490
우리 사회에
차질이 생길 수도 있습니다.
03:44
indeed과연, a 50 percent퍼센트 chance기회 of a severe심한 setback방해.
70
212140
4115
심각한 차질일
가능성이 50%정도 되고요.
03:48
But are there conceivable생각할 수 있는 events사건
71
216255
2914
하지만 모두를 멸종시킬 더 나쁜
상황이 일어날 가능성도 있을까요?
03:51
that could be even worse보다 나쁜,
72
219169
2161
03:53
events사건 that could snuff코담배 out all life?
73
221330
3430
03:56
When a new새로운 particle입자 accelerator촉진 신경 came왔다 online온라인,
74
224760
2926
새 분자가속기가 온라인에 등장했을 때
사람들은 걱정스레
그게 지구를 멸망시킬 수 있는지
03:59
some people anxiously걱정스럽게 asked물었다,
75
227686
1789
04:01
could it destroy멸하다 the Earth지구 or, even worse보다 나쁜,
76
229475
2250
더 나아가서는 우주를 찢어버릴
수 있는지 물어댔습니다.
04:03
rip삼가 고인의 명복을 빕니다 apart떨어져서 the fabric구조 of space공간?
77
231725
2659
뭐, 다행히도
04:06
Well luckily운 좋게, reassurance안심 could be offered제안 된.
78
234384
3543
안심을 보장할 수 있었죠.
04:09
I and others다른 사람 pointed뾰족한 out that nature자연
79
237927
2044
저와 다른 이들은 이미 같은 실험이
자연적으로 우주선(線) 충돌을 통해서
04:11
has done끝난 the same같은 experiments실험
80
239971
1933
04:13
zillionszillions of times타임스 already이미,
81
241904
2186
무수히 반복됐다고 지적했습니다.
04:16
via통하다 cosmic질서 있는 ray레이 collisions충돌.
82
244090
1765
04:17
But scientists과학자들 should surely확실히 be precautionary예방 적
83
245855
3054
하지만 과학자들은 자연적인 상황에선
일어나지 않는 일에 대한
실험을 할때는 각별히
주의를 기울일 필요가 있습니다.
04:20
about experiments실험 that generate일으키다 conditions정황
84
248909
2580
04:23
without없이 precedent전례 in the natural자연스러운 world세계.
85
251489
2483
생물학자들은 잠재적으로 위험한
04:25
Biologists생물 학자 should avoid기피 release해제
of potentially잠재적으로 devastating지독한
86
253972
3423
유전적으로 변이된 병원체의
유출을 피해야합니다.
04:29
genetically유 전적으로 modified수정 된 pathogens병원균.
87
257395
2715
04:32
And by the way, our special특별한 aversion혐오
88
260110
3517
그런데, 외부적인 재앙에 대한
우리들의 각별한 반발심은
04:35
to the risk위험 of truly진실로 existential실존 적 disasters재해
89
263627
3461
철학적이고
윤리적인 문제에 의존합니다.
04:39
depends의존하다 on a philosophical철학적 인 and ethical윤리적 인 question문제,
90
267088
3275
다음과 같은 질문입니다.
04:42
and it's this:
91
270363
1670
04:44
Consider중히 여기다 two scenarios시나리오.
92
272033
2308
두 상황을 고려해보세요.
상황 A는
인류의 90%를 쓸어버립니다.
04:46
Scenario대본 A wipes물티슈 out 90 percent퍼센트 of humanity인류.
93
274341
5236
상황 B는 100%를 없애버리죠.
04:51
Scenario대본 B wipes물티슈 out 100 percent퍼센트.
94
279577
3896
B는 A보다 얼마나 안 좋은가요?
04:55
How much worse보다 나쁜 is B than A?
95
283473
2918
어떤 사람들은 10% 더
안 좋다고 할 겁니다.
04:58
Some would say 10 percent퍼센트 worse보다 나쁜.
96
286391
3023
수치가 10% 더 높으니까요.
05:01
The body신체 count카운트 is 10 percent퍼센트 higher더 높은.
97
289414
3150
하지만 전 B가 비교가 안 될만큼
05:04
But I claim청구 that B is incomparably비교할 수없는 worse보다 나쁜.
98
292564
2906
더 나쁘다고 생각합니다.
05:07
As an astronomer천문학 자, I can't believe
99
295470
2629
천문학자로서, 저는 인간이
이야기의 끝이라고
믿을 수 없습니다.
05:10
that humans인간 are the end종료 of the story이야기.
100
298099
2467
05:12
It is five다섯 billion십억 years연령 before the sun태양 flares조명탄 up,
101
300566
3323
태양은 50억년 뒤에나
폭발할 것이고,
우주는 영원히
지속될 수도 있습니다.
05:15
and the universe우주 may할 수있다 go on forever영원히,
102
303889
2711
즉 지구와 그를 넘어선 후기인류의
진화는 우리를 여기까지 이끈
05:18
so post-human포스트 인간 evolution진화,
103
306600
2292
05:20
here on Earth지구 and far멀리 beyond...을 넘어서,
104
308892
2190
다윈의 진화만큼 연장될 수도 있고
더욱 놀라워질 수도 있습니다.
05:23
could be as prolonged연장 된 as the Darwinian다윈의 process방법
105
311082
2714
05:25
that's led to us, and even more wonderful훌륭한.
106
313796
3281
05:29
And indeed과연, future미래 evolution진화
will happen우연히 있다 much faster더 빠른,
107
317077
2664
그리고 물론, 자연의 선택이 아닌
기술적 시간의 척도로는
05:31
on a technological기술적 인 timescale시간 척도,
108
319741
2199
미래의 진화는
훨씬 빨리 일어날 것입니다.
05:33
not a natural자연스러운 selection선택 timescale시간 척도.
109
321940
2299
05:36
So we surely확실히, in view전망 of those immense거대한 stakes스테이크,
110
324239
4195
그렇기에 우리는
그러한 방대한 이익의 관점에서
인류의 멸종이 이렇게 큰 잠재력을
방해할 수 있기에
05:40
shouldn't해서는 안된다. accept받아 들인다 even a one in a billion십억 risk위험
111
328434
3386
05:43
that human인간의 extinction소멸 would foreclose배제하다
112
331820
2229
10억 분의 1의 위험이라도
감수해서는 아니됩니다.
05:46
this immense거대한 potential가능성.
113
334049
2310
05:48
Some scenarios시나리오 that have been envisaged상상 한
114
336359
1772
몇개의 예상된 시나리오 중엔 물론
지나친 과학소설도 있을 수 있지만
05:50
may할 수있다 indeed과연 be science과학 fiction소설,
115
338131
1819
다른 예상들은
불안하게도 현실적입니다.
05:51
but others다른 사람 may할 수있다 be disquietingly불안한 real레알.
116
339950
3386
드물다고 불가능한 것이 아니라는 말,
우리는 이 말을 명심해야 합니다.
05:55
It's an important중대한 maxim격언 that the unfamiliar생소한
117
343336
2874
05:58
is not the same같은 as the improbable가능성이없는,
118
346210
2697
사실 그래서
우리 케임브리지대학교에서
06:00
and in fact, that's why we at Cambridge케임브리지 University대학
119
348907
2398
이러한 위험들을 완화하는 방법을
연구하는 시설을 세우게 된 것입니다.
06:03
are setting환경 up a center센터 to study연구 how to mitigate완화시키다
120
351305
3375
06:06
these existential실존 적 risks위험.
121
354680
2032
적은 사람들이라도 이런 잠재적인 재앙을
고민하는 것엔 가치가 있는 것 같아요.
06:08
It seems~ 같다 it's worthwhile할 보람 있는 just for a few조금 people
122
356712
3063
06:11
to think about these potential가능성 disasters재해.
123
359775
2316
06:14
And we need all the help we can get from others다른 사람,
124
362091
3013
그리고 동원할 수 있는
모든 지원이 필요합니다.
06:17
because we are stewards청지기 of a precious귀한
125
365104
2479
왜냐하면 우리는 끝없는 우주의
소중한 파란 점이자
06:19
pale창백한 blue푸른 dot in a vast거대한 cosmos코스모스,
126
367583
3483
50억 년을 앞둔 행성인
지구의 관리인들이니까요.
06:23
a planet행성 with 50 million백만 centuries세기 ahead앞으로 of it.
127
371066
3378
06:26
And so let's not jeopardize위태롭게 하다 that future미래.
128
374444
2556
그러니 그런 미래를
위태롭게 만들지 맙시다.
06:29
And I'd like to finish with a quote인용문
129
377000
1795
그리고 저는 피터 메더워라는
훌륭한 과학자의 말을 빌어
06:30
from a great scientist과학자 called전화 한 Peter베드로 Medawar메다와.
130
378795
3501
이 자리를 마치려고 합니다.
06:34
I quote인용문, "The bells that toll희생 for mankind인류
131
382296
3273
"인류를 위해 울리는 종은
알프스 산맥의 가축들의 종과 같다.
06:37
are like the bells of Alpine알파인 cattle가축.
132
385569
2644
06:40
They are attached붙여진 to our own개인적인 necks,
133
388213
2286
우리에 목에 붙어 있으니,
06:42
and it must절대로 필요한 것 be our fault결점 if they do not make
134
390499
2675
그것들이 듣기 좋은 음악 소리를
내지 않으면 우리의 탓일 것이다."
06:45
a tuneful선율이있는 and melodious선율적인 sound소리."
135
393174
2131
06:47
Thank you very much.
136
395305
2267
감사합니다.
06:49
(Applause박수 갈채)
137
397572
2113
(박수)
Translated by Seong Gang
Reviewed by Kyo young Chu

▲Back to top

ABOUT THE SPEAKER
Martin Rees - Astrophysicist
Lord Martin Rees, one of the world's most eminent astronomers, is an emeritus professor of cosmology and astrophysics at the University of Cambridge and the UK's Astronomer Royal. He is one of our key thinkers on the future of humanity in the cosmos.

Why you should listen

Lord Martin Rees has issued a clarion call for humanity. His 2004 book, ominously titled Our Final Hour, catalogues the threats facing the human race in a 21st century dominated by unprecedented and accelerating scientific change. He calls on scientists and nonscientists alike to take steps that will ensure our survival as a species.

One of the world's leading astronomers, Rees is an emeritus professor of cosmology and astrophysics at Cambridge, and UK Astronomer Royal. Author of more than 500 research papers on cosmological topics ranging from black holes to quantum physics to the Big Bang, Rees has received countless awards for his scientific contributions. But equally significant has been his devotion to explaining the complexities of science for a general audience, in books like Before the Beginning and Our Cosmic Habitat.

More profile about the speaker
Martin Rees | Speaker | TED.com