ABOUT THE SPEAKER
Martin Rees - Astrophysicist
Lord Martin Rees, one of the world's most eminent astronomers, is an emeritus professor of cosmology and astrophysics at the University of Cambridge and the UK's Astronomer Royal. He is one of our key thinkers on the future of humanity in the cosmos.

Why you should listen

Lord Martin Rees has issued a clarion call for humanity. His 2004 book, ominously titled Our Final Hour, catalogues the threats facing the human race in a 21st century dominated by unprecedented and accelerating scientific change. He calls on scientists and nonscientists alike to take steps that will ensure our survival as a species.

One of the world's leading astronomers, Rees is an emeritus professor of cosmology and astrophysics at Cambridge, and UK Astronomer Royal. Author of more than 500 research papers on cosmological topics ranging from black holes to quantum physics to the Big Bang, Rees has received countless awards for his scientific contributions. But equally significant has been his devotion to explaining the complexities of science for a general audience, in books like Before the Beginning and Our Cosmic Habitat.

More profile about the speaker
Martin Rees | Speaker | TED.com
TED2014

Martin Rees: Can we prevent the end of the world?

Сэр Мартин Рис: Можем ли мы предотвратить конец света?

Filmed:
1,283,785 views

Земля после апокалипсиса, без людей… Похоже на сюжет из научной фантастики или художественного фильма. Но в этой короткой яркой речи лорд Мартин Рис предлагает нам задуматься о реальных угрозах всемирных катастроф, которые могут произойти по вине человека или природы и уничтожить всё человечество. Рис, которому небезразлична судьба людей, задаёт вопрос: каков наихудший сценарий того, что может произойти?
- Astrophysicist
Lord Martin Rees, one of the world's most eminent astronomers, is an emeritus professor of cosmology and astrophysics at the University of Cambridge and the UK's Astronomer Royal. He is one of our key thinkers on the future of humanity in the cosmos. Full bio

Double-click the English transcript below to play the video.

00:12
Ten10 yearsлет agoтому назад, I wroteписал a bookкнига whichкоторый I entitledозаглавленный
0
485
2222
10 лет назад я написал книгу
и назвал её
00:14
"Our Finalокончательный Centuryвек?" QuestionВопрос markотметка.
1
2707
3093
«Наше последнее столетие?»
со знаком вопроса.
00:17
My publishersиздатели cutпорез out the questionвопрос markотметка. (LaughterСмех)
2
5800
3577
Мои издатели убрали знак вопроса. (Смех)
00:21
The Americanамериканский publishersиздатели changedизменено our titleзаглавие
3
9377
1882
Американские издатели
поменяли название
00:23
to "Our Finalокончательный HourЧас."
4
11259
3909
на «Наш последний час».
00:27
Americansамериканцы like instantмгновенное gratificationудовлетворение and the reverseзадний ход.
5
15168
3492
Американцы любят получать всё и сразу.
00:30
(LaughterСмех)
6
18660
1708
(Смех)
00:32
And my themeтема was this:
7
20368
1750
Моя тема была такова:
00:34
Our EarthЗемля has existedсуществовавший for 45 millionмиллиона centuriesвека,
8
22118
4166
Земле около 45 миллионов веков,
00:38
but this one is specialособый
9
26284
2013
но наш век особенный.
00:40
it's the first where one speciesвид, oursнаш,
10
28297
3016
Это первое столетие,
когда судьба планеты
00:43
has the planet'sпланета futureбудущее in its handsРуки.
11
31313
2802
стала зависеть
от одного биологического вида — от нас.
00:46
Over nearlyоколо all of Earth'sЗемли historyистория,
12
34115
1990
Почти всю историю Земли
00:48
threatsугрозы have come from natureприрода
13
36105
1936
угрозы исходили от природы:
00:50
diseaseболезнь, earthquakesземлетрясения, asteroidsастероиды and so forthвперед
14
38041
3496
болезни, землетрясения,
астероиды и т.п.
00:53
but from now on, the worstнаихудший dangersопасности come from us.
15
41537
5672
Но теперь главная опасность
исходит от нас.
00:59
And it's now not just the nuclearядерной threatугроза;
16
47209
3271
Сейчас это уже не только
ядерная угроза.
01:02
in our interconnectedвзаимосвязано worldМир,
17
50480
1751
В нашем взаимосвязанном мире
01:04
networkсеть breakdownsсрывы can cascadeкаскад globallyглобально;
18
52231
3163
сбои в сети могут вызвать
цепную реакцию,
01:07
airвоздух travelпутешествовать can spreadраспространение pandemicsпандемий
worldwideМировой withinв daysдней;
19
55394
3956
авиарейсы могут разнести эпидемии
по всему миру за пару дней,
01:11
and socialСоциальное mediaСМИ can spreadраспространение panicпаника and rumorслух
20
59350
3327
а социальные сети
могут посеять панику и слухи
01:14
literallyбуквально at the speedскорость of lightлегкий.
21
62677
3217
буквально со скоростью света.
01:17
We fretразмывать too much about minorнезначительный hazardsопасность
22
65894
3225
Нас слишком волнуют
незначительные опасности:
01:21
improbableневероятный airвоздух crashesсбой, carcinogensканцерогены in foodпитание,
23
69119
4031
маловероятные авиакатастрофы,
канцерогены в пище,
01:25
lowнизкий radiationизлучение dosesдозы, and so forthвперед
24
73150
2226
низкие дозы радиации, и т.п.
01:27
but we and our politicalполитическая mastersмастера
25
75376
2825
Но мы и наши политики
01:30
are in denialотказ about catastrophicкатастрофический scenariosсценарии.
26
78201
4203
не замечаем катастрофических угроз.
01:34
The worstнаихудший have thankfullyблагодарно not yetвсе же happenedполучилось.
27
82404
3038
Худшее, к счастью, ещё не произошло
01:37
IndeedВ самом деле, they probablyвероятно won'tне будет.
28
85442
2196
и, возможно, не произойдёт.
01:39
But if an eventмероприятие is potentiallyпотенциально devastatingразрушительный,
29
87638
3185
Но если событие несёт
серьёзную потенциальную угрозу,
01:42
it's worthстоимость payingплатеж a substantialсущественный premiumпремия
30
90823
2868
то стоит приложить максимум усилий,
01:45
to safeguardзащита againstпротив it, even if it's unlikelyвряд ли,
31
93691
3836
чтобы предотвратить его,
даже если оно маловероятно —
01:49
just as we take out fireОгонь insuranceстрахование on our houseдом.
32
97527
4513
подобно страхованию дома
на случай пожара.
01:54
And as scienceнаука offersпредложения greaterбольшая powerмощность and promiseобещание,
33
102040
4997
Наука предлагает всё большие
возможности и перспективы,
01:59
the downsideнижняя сторона getsполучает scarierстрашней too.
34
107037
3866
но обратная сторона
тоже становится всё более пугающей.
02:02
We get ever more vulnerableуязвимый.
35
110903
2239
Мы становимся всё уязвимее.
02:05
WithinВ a fewмало decadesдесятилетия,
36
113142
1838
Через несколько десятилетий
02:06
millionsмиллионы will have the capabilityвозможность
37
114980
2230
у миллионов людей появится возможность
02:09
to misuseзлоупотребление rapidlyбыстро advancingопережения biotechбиотехнологической,
38
117210
3121
злоупотреблять
быстроразвивающимися биотехнологиями,
02:12
just as they misuseзлоупотребление cybertechCyberTech todayCегодня.
39
120331
3553
так же как они злоупотребляют
кибертехнологиями сегодня.
02:15
Freemanпочетный гражданин DysonDyson, in a TEDТЕД Talk,
40
123884
3199
Фримен Дайсон,
выступая на TED, предположил,
02:19
foresawпредвидели that childrenдети will designдизайн
and createСоздайте newновый organismsмикроорганизмы
41
127083
3596
что дети будут разрабатывать
и создавать новые организмы,
02:22
just as routinelyобычно as his generationпоколение
playedиграл with chemistryхимия setsнаборы.
42
130679
4511
подобно тому, как его поколение
играло с химическими наборами.
02:27
Well, this mayмай be on the scienceнаука fictionфантастика fringeбахрома,
43
135190
2528
Ладно, это, может,
и из области научной фантастики,
02:29
but were even partчасть of his scenarioсценарий to come about,
44
137718
3183
но если хотя бы часть
его предположений сбудется,
02:32
our ecologyэкология and even our speciesвид
45
140901
2737
то наша экология и даже наш вид
02:35
would surelyконечно not surviveуцелеть long unscathedневредимый.
46
143638
3989
недолго просуществуют в благополучии.
02:39
For instanceпример, there are some eco-extremistsэко-экстремисты
47
147627
3863
К примеру,
некоторые эко-экстремисты считают,
02:43
who think that it would be better for the planetпланета,
48
151490
2509
что для планеты,
для Геи, было бы лучше,
02:45
for GaiaGaia, if there were farдалеко fewerменьше humansлюди.
49
153999
3403
если бы людей было куда меньше.
02:49
What happensпроисходит when suchтакие people have masteredосвоен
50
157402
2717
Что, если такие люди получат контроль
02:52
syntheticсинтетический biologyбиология techniquesметоды
51
160119
2137
над синтетическими биотехнологиями,
02:54
that will be widespreadшироко распространен by 2050?
52
162256
2852
которые будут распространены
к 2050 году?
02:57
And by then, other scienceнаука fictionфантастика nightmaresкошмары
53
165108
3042
Тогда другие кошмары
из научной фантастики
03:00
mayмай transitionпереход to realityреальность:
54
168150
1710
могут стать реальностью:
03:01
dumbтупой robotsроботы going rogueИзгой,
55
169860
2070
глупые роботы выйдут из-под контроля
03:03
or a networkсеть that developsразвивается a mindразум of its ownсвоя
56
171930
2417
или компьютерная сеть станет разумной
03:06
threatensугрожает us all.
57
174347
2589
и будет угрожать всем нам.
03:08
Well, can we guardохрана againstпротив suchтакие risksриски by regulationрегулирование?
58
176936
3270
Можем ли мы предотвратить такие угрозы
с помощью контроля?
03:12
We mustдолжен surelyконечно try, but these enterprisesпредприятия
59
180206
2407
Мы должны, конечно, попробовать,
03:14
are so competitiveконкурентоспособный, so globalizedглобализованным,
60
182613
3529
но эти процессы
настолько сильны, глобальны
03:18
and so drivenуправляемый by commercialкоммерческая pressureдавление,
61
186142
1980
и настолько выгодны кому-то,
03:20
that anything that can be doneсделанный
will be doneсделанный somewhereгде-то,
62
188122
3285
что то, что может быть сделано,
будет сделано где-нибудь,
03:23
whateverбез разницы the regulationsнормативно-правовые акты say.
63
191407
2036
невзирая ни на какие запреты.
03:25
It's like the drugлекарственное средство lawsзаконы — we try to regulateрегулировать, but can't.
64
193443
3487
Это похоже на законы о наркотиках,
которые зачастую бессильны.
03:28
And the globalГлобальный villageдеревня will have its villageдеревня idiotsидиоты,
65
196930
3044
И во всемирной деревне найдутся
свои деревенские дурачки,
03:31
and they'llони будут have a globalГлобальный rangeассортимент.
66
199974
3496
у которых будет в распоряжении
вся планета.
03:35
So as I said in my bookкнига,
67
203470
2291
Так что, как я и сказал в своей книге,
03:37
we'llЧто ж have a bumpyнеровный rideпоездка throughчерез this centuryвека.
68
205761
2889
в этом веке нам предстоит
тернистый путь.
03:40
There mayмай be setbacksнеудачи to our societyобщество
69
208650
3490
Наше общество может ждать регресс.
03:44
indeedв самом деле, a 50 percentпроцент chanceшанс of a severeсерьезный setbackрегресс.
70
212140
4115
Вероятность сильного регресса — 50%.
03:48
But are there conceivableмыслимый eventsМероприятия
71
216255
2914
Но могут ли произойти события,
03:51
that could be even worseхуже,
72
219169
2161
которые будут ещё хуже,
03:53
eventsМероприятия that could snuffнюхательный табак out all life?
73
221330
3430
события, которые
уничтожат жизнь вообще?
03:56
When a newновый particleчастица acceleratorускоритель cameпришел onlineонлайн,
74
224760
2926
Когда закончилась работа
над новым ускорителем частиц,
03:59
some people anxiouslyс тревогой askedспросил,
75
227686
1789
некоторые выражали беспокойство:
04:01
could it destroyуничтожить the EarthЗемля or, even worseхуже,
76
229475
2250
может ли он уничтожить Землю
или, ещё хуже,
04:03
ripПокойся с миром apartКроме the fabricткань of spaceпространство?
77
231725
2659
разорвать космическую материю?
04:06
Well luckilyк счастью, reassuranceперестраховка could be offeredпредложенный.
78
234384
3543
К счастью, всё не так уж плохо.
04:09
I and othersдругие pointedзаостренный out that natureприрода
79
237927
2044
Я и другие подметили, что природа
04:11
has doneсделанный the sameодна и та же experimentsэксперименты
80
239971
1933
совершала такие эксперименты
04:13
zillionsмиллиард of timesраз alreadyуже,
81
241904
2186
уже бесчисленное количество раз,
04:16
viaс помощью cosmicкосмический rayлуч collisionsстолкновения.
82
244090
1765
сталкивая космические лучи.
04:17
But scientistsученые should surelyконечно be precautionaryпредупредительный
83
245855
3054
Но учёным следует быть
крайне осторожными
04:20
about experimentsэксперименты that generateгенерировать conditionsусловия
84
248909
2580
с экспериментами, в ходе которых
получается нечто,
04:23
withoutбез precedentпрецедент in the naturalнатуральный worldМир.
85
251489
2483
чего никогда не было в природе.
04:25
BiologistsБиологи should avoidизбежать releaseвыпуск
of potentiallyпотенциально devastatingразрушительный
86
253972
3423
Биологам стоит избегать создания
потенциально крайне опасных
04:29
geneticallyгенетически modifiedмодифицированный pathogensпатогены.
87
257395
2715
генетически модифицированных
болезнетворных микробов.
04:32
And by the way, our specialособый aversionантипатия
88
260110
3517
Между тем, наше особое неприятие
04:35
to the riskриск of trulyдействительно existentialэкзистенциальный disastersбедствий
89
263627
3461
возможности всемирных катастроф
04:39
dependsзависит on a philosophicalфилософский and ethicalэтический questionвопрос,
90
267088
3275
связано с философским
и этическим вопросом.
04:42
and it's this:
91
270363
1670
Его суть в следующем.
04:44
ConsiderРассматривать two scenariosсценарии.
92
272033
2308
Рассмотрим два варианта.
04:46
Scenarioсценарий A wipesвлажные салфетки out 90 percentпроцент of humanityчеловечество.
93
274341
5236
Вариант A: исчезнет 90% человечества.
04:51
Scenarioсценарий B wipesвлажные салфетки out 100 percentпроцент.
94
279577
3896
Вариант Б: исчезнет 100%.
04:55
How much worseхуже is B than A?
95
283473
2918
Насколько Б хуже A?
04:58
Some would say 10 percentпроцент worseхуже.
96
286391
3023
Кто-то скажет, что хуже на 10%.
05:01
The bodyтело countподсчитывать is 10 percentпроцент higherвыше.
97
289414
3150
Число умерших больше на 10%.
05:04
But I claimЗапрос that B is incomparablyнесравнимо worseхуже.
98
292564
2906
Но я убеждён, что Б несравнимо хуже.
05:07
As an astronomerастроном, I can't believe
99
295470
2629
Как астроном, я не могу поверить,
05:10
that humansлюди are the endконец of the storyистория.
100
298099
2467
что люди, как вид, — это конец истории.
05:12
It is five5 billionмиллиард yearsлет before the sunсолнце flaresфакелы up,
101
300566
3323
До момента, когда потухнет Солнце,
остаётся ещё 5 миллиардов лет,
05:15
and the universeвселенная mayмай go on foreverнавсегда,
102
303889
2711
а Вселенная, возможно,
не исчезнет никогда.
05:18
so post-humanпост-человек evolutionэволюция,
103
306600
2292
Дальнейшая эволюция человека
05:20
here on EarthЗемля and farдалеко beyondза,
104
308892
2190
здесь, на Земле,
и далеко за её пределами
05:23
could be as prolongedдлительный as the Darwinianдарвинистский processобработать
105
311082
2714
могла бы продолжаться так же долго,
как и естественный отбор,
05:25
that's led to us, and even more wonderfulзамечательно.
106
313796
3281
в результате которого появились мы,
и была бы ещё удивительнее.
05:29
And indeedв самом деле, futureбудущее evolutionэволюция
will happenслучаться much fasterБыстрее,
107
317077
2664
И на самом деле, грядущая эволюция
будет куда быстрее —
05:31
on a technologicalтехнологический timescaleвременные рамки,
108
319741
2199
по технологической временной шкале,
05:33
not a naturalнатуральный selectionвыбор timescaleвременные рамки.
109
321940
2299
а не по шкале естественного отбора.
05:36
So we surelyконечно, in viewПосмотреть of those immenseогромный stakesставки,
110
324239
4195
Так что мы, конечно, видя,
что поставлено на карту,
05:40
shouldn'tне должен acceptпринимать even a one in a billionмиллиард riskриск
111
328434
3386
не должны мириться даже
с вероятностью один к миллиарду,
05:43
that humanчеловек extinctionвымирание would forecloseпредрешать
112
331820
2229
что человечество исчезнет,
05:46
this immenseогромный potentialпотенциал.
113
334049
2310
не раскрыв этот гигантский потенциал.
05:48
Some scenariosсценарии that have been envisagedпредусматривается
114
336359
1772
Некоторые упомянутые сценарии
05:50
mayмай indeedв самом деле be scienceнаука fictionфантастика,
115
338131
1819
могут на деле оказаться фантастикой,
05:51
but othersдругие mayмай be disquietinglyтревожно realреальный.
116
339950
3386
но другие могут тревожить нас
своей реалистичностью.
05:55
It's an importantважный maximМаксим that the unfamiliarнезнакомый
117
343336
2874
Важно помнить, что неизвестное —
05:58
is not the sameодна и та же as the improbableневероятный,
118
346210
2697
не то же самое, что невозможное.
06:00
and in factфакт, that's why we at CambridgeКембридж UniversityУниверситет
119
348907
2398
Именно поэтому мы
в Кембриджском университете
06:03
are settingустановка up a centerцентр to studyизучение how to mitigateсмягчать
120
351305
3375
открываем центр по изучению того,
06:06
these existentialэкзистенциальный risksриски.
121
354680
2032
как уменьшить вероятность
таких катастроф.
06:08
It seemsкажется it's worthwhileстоит just for a fewмало people
122
356712
3063
Кажется, лишь несколько человек
готовы размышлять
06:11
to think about these potentialпотенциал disastersбедствий.
123
359775
2316
об этих потенциальных бедствиях,
06:14
And we need all the help we can get from othersдругие,
124
362091
3013
и нам нужна любая помощь со стороны.
06:17
because we are stewardsстюардов of a preciousдрагоценный
125
365104
2479
Ведь именно от людей зависит судьба
06:19
paleбледный blueсиний dotточка in a vastогромный cosmosкосмос,
126
367583
3483
бесценной бледно-голубой точки
посреди огромного космоса —
06:23
a planetпланета with 50 millionмиллиона centuriesвека aheadвпереди of it.
127
371066
3378
планеты с будущим
в 50 миллионов веков.
06:26
And so let's not jeopardizeподвергать опасности that futureбудущее.
128
374444
2556
Так что давайте не будем
рисковать этим будущим.
06:29
And I'd like to finishКонец with a quoteкотировка
129
377000
1795
И мне бы хотелось закончить цитатой
06:30
from a great scientistученый calledназывается PeterПитер MedawarМедавар.
130
378795
3501
великого учёного Питера Медавара.
06:34
I quoteкотировка, "The bellsколокольчики that tollПотери for mankindчеловечество
131
382296
3273
Я цитирую: «Колокола,
звонящие по человечеству,
06:37
are like the bellsколокольчики of Alpineвысокогорный cattleкрупный рогатый скот.
132
385569
2644
похожи на колокольчики
для альпийского скота.
06:40
They are attachedприложенный to our ownсвоя necksшеек,
133
388213
2286
Они висят на наших шеях,
06:42
and it mustдолжен be our faultпридираться if they do not make
134
390499
2675
и, должно быть, это наша вина,
что они не издают
06:45
a tunefulмелодичный and melodiousмелодичный soundзвук."
135
393174
2131
гармоничного и певучего звона».
06:47
Thank you very much.
136
395305
2267
Большое вам спасибо.
06:49
(ApplauseАплодисменты)
137
397572
2113
(Аплодисменты)
Translated by Vladislav Gorodnichev
Reviewed by Anna Kotova

▲Back to top

ABOUT THE SPEAKER
Martin Rees - Astrophysicist
Lord Martin Rees, one of the world's most eminent astronomers, is an emeritus professor of cosmology and astrophysics at the University of Cambridge and the UK's Astronomer Royal. He is one of our key thinkers on the future of humanity in the cosmos.

Why you should listen

Lord Martin Rees has issued a clarion call for humanity. His 2004 book, ominously titled Our Final Hour, catalogues the threats facing the human race in a 21st century dominated by unprecedented and accelerating scientific change. He calls on scientists and nonscientists alike to take steps that will ensure our survival as a species.

One of the world's leading astronomers, Rees is an emeritus professor of cosmology and astrophysics at Cambridge, and UK Astronomer Royal. Author of more than 500 research papers on cosmological topics ranging from black holes to quantum physics to the Big Bang, Rees has received countless awards for his scientific contributions. But equally significant has been his devotion to explaining the complexities of science for a general audience, in books like Before the Beginning and Our Cosmic Habitat.

More profile about the speaker
Martin Rees | Speaker | TED.com