ABOUT THE SPEAKER
Max Tegmark - Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.

Why you should listen

Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligenceas well as more than 200 nerdy technical papers on topics from cosmology to AI.

He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."

More profile about the speaker
Max Tegmark | Speaker | TED.com
TED2018

Max Tegmark: How to get empowered, not overpowered, by AI

Макс Тегмарк: Искусственный интеллект: как получить новые возможности, а не быть побеждёнными

Filmed:
1,409,007 views

Многие учёные-исследователи искусственного интеллекта, ожидают того, что ИИ превзойдёт людей во многих областях в ближайшие десятилетия, делая реальным будущее, в котором мы будем ограничены лишь законами физики, а не возможностями нашего интеллекта. Макс Тегмарк, физик из Массачусетского технологического института, отделяет реальные перспективы и угрозы от мифов, описывая конкретные шаги, которые мы должны сделать, чтобы ИИ был наилучшим, а не наихудшим явлением в истории человечества.
- Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder. Full bio

Double-click the English transcript below to play the video.

00:12
After 13.8 billionмиллиард yearsлет
of cosmicкосмический historyистория,
0
760
4416
Спустя 13 миллиардов 800 миллионов лет
с начала истории космоса
00:17
our universeвселенная has wokenразбуженный up
1
5200
2096
наша вселенная проснулась
00:19
and becomeстали awareзнать of itselfсам.
2
7320
1520
и осознала себя.
00:21
From a smallмаленький blueсиний planetпланета,
3
9480
1936
С маленькой голубой планеты
00:23
tinyкрошечный, consciousсознательный partsчасти of our universeвселенная
have begunначатый gazingглядя out into the cosmosкосмос
4
11440
4136
крошечные сознательные частички вселенной
начали пристально всматриваться в космос
через телескопы и увидели нечто,
по сравнению с чем, они совсем малы.
00:27
with telescopesтелескопы,
5
15600
1376
00:29
discoveringобнаружение something humblingуничижительный.
6
17000
1480
00:31
We'veУ нас discoveredобнаруженный that our universeвселенная
is vastlyзначительно granderграндиознее
7
19320
2896
Мы увидели, что наш мир неизмеримо больше,
00:34
than our ancestorsпредки imaginedвообразил
8
22240
1336
чем воображали наши предки,
00:35
and that life seemsкажется to be an almostпочти
imperceptiblyнезаметно smallмаленький perturbationвозмущение
9
23600
4256
и что жизнь кажется невообразимо
маленьким колебанием
00:39
on an otherwiseв противном случае deadмертвый universeвселенная.
10
27880
1720
во всей остальной мёртвой вселенной.
00:42
But we'veмы в alsoтакже discoveredобнаруженный
something inspiringвдохновляющий,
11
30320
3016
Но мы также открыли нечто вдохновляющее,
00:45
whichкоторый is that the technologyтехнологии
we're developingразвивающийся has the potentialпотенциал
12
33360
2976
то, что развиваемые нами технологии
имеют потенциал,
00:48
to help life flourishпроцветать like never before,
13
36360
2856
чтобы помочь жизни расцвести,
как никогда раньше,
00:51
not just for centuriesвека
but for billionsмиллиарды of yearsлет,
14
39240
3096
не только в течение столетий,
но и миллиардов лет,
00:54
and not just on earthЗемля but throughoutна протяжении
much of this amazingудивительно cosmosкосмос.
15
42360
4120
не только на земле, но и на большей части
удивительного космического пространства.
00:59
I think of the earliestраннее life as "Life 1.0"
16
47680
3336
Я думаю о самой ранней форме жизни,
как о «Жизни 1.0»,
01:03
because it was really dumbтупой,
17
51040
1376
так как она была безмозглой,
01:04
like bacteriaбактерии, unableне в состоянии to learnучить
anything duringв течение its lifetimeпродолжительность жизни.
18
52440
4296
как бактерия, которая не в состоянии
ничему научиться за всю свою жизнь.
01:08
I think of us humansлюди as "Life 2.0"
because we can learnучить,
19
56760
3376
Я думаю о нас, о людях, как о «Жизни 2.0»,
потому что мы умеем учиться,
01:12
whichкоторый we in nerdyвсезнайка, geekКомпьютерщик speakговорить,
20
60160
1496
говоря скучным языком зануд,
01:13
mightмог бы think of as installingустановка
newновый softwareпрограммного обеспечения into our brainsмозги,
21
61680
3216
назовём установкой нового ПО в наш мозг,
01:16
like languagesязыки and jobработа skillsнавыки.
22
64920
2120
например, языков
и профессиональных навыков.
01:19
"Life 3.0," whichкоторый can designдизайн not only
its softwareпрограммного обеспечения but alsoтакже its hardwareаппаратные средства
23
67680
4296
«Жизнь 3.0», которая сможет создавать
не только программы, но и «железо»,
01:24
of courseкурс doesn't existсуществовать yetвсе же.
24
72000
1656
конечно же, ещё не существует.
01:25
But perhapsвозможно our technologyтехнологии
has alreadyуже madeсделал us "Life 2.1,"
25
73680
3776
Но, возможно, наши технологии
создали для нас «Жизнь 2.1»
01:29
with our artificialискусственный kneesколени,
pacemakersкардиостимуляторы and cochlearулитковый implantsимплантаты.
26
77480
4336
с искусственными коленными суставами,
стимуляторами и кохлеарными имплантами.
01:33
So let's take a closerближе look
at our relationshipотношения with technologyтехнологии, OK?
27
81840
3880
Но давайте рассмотрим
наши взаимоотношения с технологиями.
01:38
As an exampleпример,
28
86800
1216
К примеру,
01:40
the ApolloАполлон 11 moonЛуна missionмиссия
was bothи то и другое successfulуспешный and inspiringвдохновляющий,
29
88040
5296
лунная миссия Аполлон 11
была и успешной, и вдохновляющей,
01:45
showingпоказ that when we humansлюди
use technologyтехнологии wiselyмудро,
30
93360
3016
она показала, что когда мы, люди,
разумно используем технологии,
01:48
we can accomplishвыполнять things
that our ancestorsпредки could only dreamмечта of.
31
96400
3936
то можем достичь таких результатов,
о которых наши предки могли лишь мечтать.
01:52
But there's an even more inspiringвдохновляющий journeyпоездка
32
100360
2976
Но существует даже более
вдохновляющее путешествие,
01:55
propelledсамоходные by something
more powerfulмощный than rocketракета enginesдвигатели,
33
103360
2680
движимое чем-то более мощным,
чем ракетные двигатели,
01:59
where the passengersпассажиров
aren'tне just threeтри astronautsкосмонавты
34
107200
2336
где пассажирами являются
не просто три астронавта,
02:01
but all of humanityчеловечество.
35
109560
1776
а всё человечество.
02:03
Let's talk about our collectiveколлектив
journeyпоездка into the futureбудущее
36
111360
2936
Давайте поговорим о нашем
совместном пути в будущее,
02:06
with artificialискусственный intelligenceинтеллект.
37
114320
2000
будущее с искусственным интеллектом.
02:08
My friendдруг JaanЯан TallinnТаллин likesнравится to pointточка out
that just as with rocketryракетная техника,
38
116960
4536
Мой друг Яан Таллинн любит отмечать,
что, как и с ракетной индустрией,—
02:13
it's not enoughдостаточно to make
our technologyтехнологии powerfulмощный.
39
121520
3160
этого недостаточно, чтобы сделать
наши технологии мощными.
02:17
We alsoтакже have to figureфигура out,
if we're going to be really ambitiousамбициозный,
40
125560
3175
Мы также должны понять, если хотим
ставить перед собой высокие цели,
02:20
how to steerуправлять it
41
128759
1416
как ими управлять,
02:22
and where we want to go with it.
42
130199
1681
и куда мы хотим с ними пойти.
02:24
So let's talk about all threeтри
for artificialискусственный intelligenceинтеллект:
43
132880
2840
Итак, давайте мы обсудим
все три пункта, касающиеся ИИ:
02:28
the powerмощность, the steeringрулевое управление
and the destinationместо назначения.
44
136440
3056
мощность, управление и назначение.
02:31
Let's startНачало with the powerмощность.
45
139520
1286
Начнём с мощности:
02:33
I defineопределять intelligenceинтеллект very inclusivelyвключительно --
46
141600
3096
я даю обобщённое определение интеллекта —
02:36
simplyпросто as our abilityспособность
to accomplishвыполнять complexсложный goalsцели,
47
144720
4336
как нашей способности
достигать сложных целей,
02:41
because I want to includeвключают bothи то и другое
biologicalбиологический and artificialискусственный intelligenceинтеллект.
48
149080
3816
потому что я хочу объединить
биологический и искусственный интеллект.
02:44
And I want to avoidизбежать
the sillyглупый carbon-chauvinismуглерод шовинизма ideaидея
49
152920
4016
Я не хочу фанатично следовать
глупой углеродо-центричной идее,
02:48
that you can only be smartумная
if you're madeсделал of meatмясо.
50
156960
2360
что умным бывает, только то,
что состоит из мяса.
02:52
It's really amazingудивительно how the powerмощность
of AIискусственный интеллект has grownвзрослый recentlyв последнее время.
51
160880
4176
Поразительно, как сегодня выросла
мощь искусственного интеллекта.
02:57
Just think about it.
52
165080
1256
Только вдумайтесь.
02:58
Not long agoтому назад, robotsроботы couldn'tне может walkходить.
53
166360
3200
Не так давно роботы не умели ходить.
03:03
Now, they can do backflipsсальто.
54
171040
1720
Теперь они делают сальто назад.
03:06
Not long agoтому назад,
55
174080
1816
Не так давно у нас не было
03:07
we didn't have self-drivingсамостоятельное вождение carsлегковые автомобили.
56
175920
1760
беспилотных автомобилей.
03:10
Now, we have self-flyingсамостоятельно летать rocketsракеты.
57
178920
2480
Теперь у нас есть беспилотные ракеты.
03:15
Not long agoтому назад,
58
183960
1416
Не так давно
03:17
AIискусственный интеллект couldn'tне может do faceлицо recognitionпризнание.
59
185400
2616
ИИ не мог распознавать лица.
03:20
Now, AIискусственный интеллект can generateгенерировать fakeне настоящие facesлица
60
188040
2976
Теперь ИИ может генерировать
несуществующие лица
03:23
and simulateмоделировать your faceлицо
sayingпоговорка stuffматериал that you never said.
61
191040
4160
и имитировать ваше лицо,
вкладывая вам в уста чужие слова.
03:28
Not long agoтому назад,
62
196400
1576
Не так давно
03:30
AIискусственный интеллект couldn'tне может beatбить us at the gameигра of Go.
63
198000
1880
ИИ не мог обыграть нас в игре в го.
03:32
Then, GoogleGoogle DeepMind'sDeepMind-х AlphaZeroAlphaZero AIискусственный интеллект
tookвзял 3,000 yearsлет of humanчеловек Go gamesигры
64
200400
5096
Затем ИИ Alpha Zero от Google Deep Mind
взял 3000-летний опыт людей игры в го
03:37
and Go wisdomмудрость,
65
205520
1256
и всю мудрость этой игры,
03:38
ignoredигнорируются it all and becameстал the world'sв мире bestЛучший
playerигрок by just playingиграть againstпротив itselfсам.
66
206800
4976
всем этим пренебрёг и стал лидером,
играя лишь против себя.
03:43
And the mostбольшинство impressiveвпечатляющий featподвиг here
wasn'tне было that it crushedраздавленный humanчеловек gamersгеймеров,
67
211800
3696
И самым впечатляющим был не тот факт,
что он нанёс поражение игрокам,
03:47
but that it crushedраздавленный humanчеловек AIискусственный интеллект researchersисследователи
68
215520
2576
но то, что он сокрушил самих учёных,
занимающихся ИИ,
03:50
who had spentпотраченный decadesдесятилетия
handcraftingручные ремесла game-playingигра-игры softwareпрограммного обеспечения.
69
218120
3680
тех, кто положил на это десятилетия,
создавая вручную программное обеспечение.
03:54
And AlphaZeroAlphaZero crushedраздавленный humanчеловек AIискусственный интеллект researchersисследователи
not just in Go but even at chessшахматы,
70
222200
4656
И Alpha Zero победил исследователей ИИ
не только в го, но даже и в шахматах,
03:58
whichкоторый we have been workingза работой on sinceпоскольку 1950.
71
226880
2480
над которыми мы работали,
начиная с 1950 года.
04:02
So all this amazingудивительно recentнедавний progressпрогресс in AIискусственный интеллект
really begsумоляет the questionвопрос:
72
230000
4240
И поэтому этот недавний прогресс в ИИ
заставляет нас поднять вопрос:
04:07
How farдалеко will it go?
73
235280
1560
куда всё это ведёт?
04:09
I like to think about this questionвопрос
74
237800
1696
Я люблю думать над этим вопросом,
04:11
in termsсроки of this abstractАбстрактные
landscapeпейзаж of tasksзадания,
75
239520
2976
исходя из этого абстрактного
ландшафта задач,
04:14
where the elevationвысота representsпредставляет
how hardжесткий it is for AIискусственный интеллект to do eachкаждый taskзадача
76
242520
3456
где подъём означает то, насколько трудно
для ИИ выполнять каждую задачу
04:18
at humanчеловек levelуровень,
77
246000
1216
так, как делает человек,
04:19
and the seaморе levelуровень representsпредставляет
what AIискусственный интеллект can do todayCегодня.
78
247240
2760
а уровень моря показывает то,
что ИИ может делать уже сегодня.
04:23
The seaморе levelуровень is risingподнимающийся
as AIискусственный интеллект improvesулучшает,
79
251120
2056
С развитием ИИ повышается уровень моря;
04:25
so there's a kindсвоего рода of globalГлобальный warmingсогревание
going on here in the taskзадача landscapeпейзаж.
80
253200
3440
в этом ландшафте задач происходит
что-то наподобие глобального потепления.
04:30
And the obviousочевидный takeawayнавынос
is to avoidизбежать careersкарьера at the waterfrontберег --
81
258040
3335
Очевидный вывод —
избегать занятий на береговой линии,
04:33
(LaughterСмех)
82
261399
1257
(Смех)
04:34
whichкоторый will soonскоро be
automatedавтоматизированный and disruptedсказывался.
83
262680
2856
которая очень скоро будет
автоматизирована и разрушена.
04:37
But there's a much
biggerбольше questionвопрос as well.
84
265560
2976
Но здесь возникает более важный вопрос.
04:40
How highвысокая will the waterводы endконец up risingподнимающийся?
85
268560
1810
Насколько высоко поднимется вода?
04:43
Will it eventuallyв итоге riseподъем
to floodнаводнение everything,
86
271440
3200
Повысится ли её уровень в итоге
до всеобщего затопления,
04:47
matchingсогласование humanчеловек intelligenceинтеллект at all tasksзадания.
87
275840
2496
соперничая с интеллектом человека
во всех заданиях?
04:50
This is the definitionопределение
of artificialискусственный generalГенеральная intelligenceинтеллект --
88
278360
3736
Это — определение
сильного искусственного интеллекта —
04:54
AGIAGI,
89
282120
1296
СИИ,
04:55
whichкоторый has been the holyсвятой grailГрааль
of AIискусственный интеллект researchисследование sinceпоскольку its inceptionначало.
90
283440
3080
который с самого начала
был святым Граалем исследований по ИИ.
04:59
By this definitionопределение, people who say,
91
287000
1776
Исходя из этого, те, кто говорит:
05:00
"Ahах, there will always be jobsработы
that humansлюди can do better than machinesмашины,"
92
288800
3416
«Да, всегда будет работа, которую люди
смогут делать лучше машин», —
05:04
are simplyпросто sayingпоговорка
that we'llЧто ж never get AGIAGI.
93
292240
2920
попросту говорят о том,
что у нас никогда не будет СИИ.
05:07
Sure, we mightмог бы still chooseвыберите
to have some humanчеловек jobsработы
94
295680
3576
Конечно, возможно, мы всё ещё выбираем
для себя работу, выполняемую людьми,
05:11
or to give humansлюди incomeдоход
and purposeцель with our jobsработы,
95
299280
3096
или даём людям цель и доход,
в наших человеческих профессиях;
05:14
but AGIAGI will in any caseдело
transformпреобразование life as we know it
96
302400
3736
но СИИ, в любом случае превратит
нашу жизнь, какой мы знаем, в ту жизнь,
05:18
with humansлюди no longerдольше beingявляющийся
the mostбольшинство intelligentумный.
97
306160
2736
в которой люди больше не будут
самыми умными существами.
05:20
Now, if the waterводы levelуровень does reachдостичь AGIAGI,
98
308920
3696
Итак, если уровень воды
действительно достигает СИИ,
05:24
then furtherв дальнейшем AIискусственный интеллект progressпрогресс will be drivenуправляемый
mainlyв основном not by humansлюди but by AIискусственный интеллект,
99
312640
5296
затем дальнейший прогресс ИИ
будет движим не людьми, а самим ИИ,
05:29
whichкоторый meansозначает that there's a possibilityвозможность
100
317960
1856
это значит, что есть возможность того,
05:31
that furtherв дальнейшем AIискусственный интеллект progressпрогресс
could be way fasterБыстрее
101
319840
2336
что дальнейший прогресс ИИ
будет более быстрым,
05:34
than the typicalтипичный humanчеловек researchисследование
and developmentразвитие timescaleвременные рамки of yearsлет,
102
322200
3376
чем типовые исследования учёных
и временны́е рассчёты развития,
05:37
raisingпривлечение the controversialспорный possibilityвозможность
of an intelligenceинтеллект explosionвзрыв
103
325600
4016
что увеличит неоднозначную возможность
интеллектуального взрыва,
05:41
where recursivelyрекурсивно self-improvingсамосовершенствующийся AIискусственный интеллект
104
329640
2296
где рекуррентно самоулучшающийся ИИ
05:43
rapidlyбыстро leavesлистья humanчеловек
intelligenceинтеллект farдалеко behindза,
105
331960
3416
быстро обгоняет человеческий интеллект,
05:47
creatingсоздание what's knownизвестен
as superintelligenceсуперинтеллект.
106
335400
2440
создавая так называемый суперинтеллект.
05:51
Alrightхорошо, realityреальность checkпроверить:
107
339800
2280
Хорошо, давайте реально оценим ситуацию.
05:55
Are we going to get AGIAGI any time soonскоро?
108
343120
2440
Достигнем ли мы уровня СИИ
в ближайшее время?
05:58
Some famousизвестный AIискусственный интеллект researchersисследователи,
like RodneyРодни BrooksBrooks,
109
346360
2696
Некоторые известные учёные,
такие как Родни Брукс,
06:01
think it won'tне будет happenслучаться
for hundredsсотни of yearsлет.
110
349080
2496
считают, что в ближайшие столетия
этого не будет.
06:03
But othersдругие, like GoogleGoogle DeepMindDeepMind
founderоснователь DemisDemis HassabisHassabis,
111
351600
3896
Но другие, такие как Демис Хассабис,
основатель Google Deep Mind,
06:07
are more optimisticоптимистичный
112
355520
1256
более оптимистичны:
06:08
and are workingза работой to try to make
it happenслучаться much soonerрано.
113
356800
2576
они делают всё,
чтобы это произошло быстрее.
06:11
And recentнедавний surveysопросы have shownпоказанный
that mostбольшинство AIискусственный интеллект researchersисследователи
114
359400
3296
Недавние опросы показали,
что большинство исследователей ИИ
06:14
actuallyна самом деле shareдоля Demis'sДемис в optimismоптимизм,
115
362720
2856
на самом деле разделяют оптимизм Демиса,
06:17
expectingожидая that we will
get AGIAGI withinв decadesдесятилетия,
116
365600
3080
ожидая того, что мы достигнем уровня СИИ
в ближайшие десятилетия,
06:21
so withinв the lifetimeпродолжительность жизни of manyмногие of us,
117
369640
2256
то есть многие из нас это застанут.
06:23
whichкоторый begsумоляет the questionвопрос -- and then what?
118
371920
1960
Возникает вопрос: а что потом?
06:27
What do we want the roleроль of humansлюди to be
119
375040
2216
Какой мы хотим видеть роль людей,
06:29
if machinesмашины can do everything better
and cheaperболее дешевый than us?
120
377280
2680
если машины смогут делать всё лучше
и дешевле, чем мы?
06:35
The way I see it, we faceлицо a choiceвыбор.
121
383000
2000
Я вижу это так: мы стоим перед выбором.
06:38
One optionвариант is to be complacentсамодовольный.
122
386000
1576
Одно из решений — самодовольство.
06:39
We can say, "Oh, let's just buildстроить machinesмашины
that can do everything we can do
123
387600
3776
Мы можем говорить: «Да, давайте
создавать машины, делающие всё за нас,
06:43
and not worryбеспокоиться about the consequencesпоследствия.
124
391400
1816
и не беспокоиться о последствиях.
06:45
Come on, if we buildстроить technologyтехнологии
that makesмарки all humansлюди obsoleteустарелый,
125
393240
3256
Да что вы, если создать технологии,
которые делают людей ненужными,
06:48
what could possiblyвозможно go wrongнеправильно?"
126
396520
2096
что может пойти не так?»
06:50
(LaughterСмех)
127
398640
1656
(Смех)
06:52
But I think that would be
embarrassinglyошеломляюще lameламе.
128
400320
2760
Но я думаю, что это было бы
чрезвычайно неубедительно.
06:56
I think we should be more ambitiousамбициозный --
in the spiritдух of TEDТЕД.
129
404080
3496
Я думаю, что мы должны быть
более амбициозными, в духе TED.
06:59
Let's envisionвоображать a trulyдействительно inspiringвдохновляющий
high-techвысокие технологии futureбудущее
130
407600
3496
Давайте представим вдохновляющее
высокотехнологичное будущее
07:03
and try to steerуправлять towardsв направлении it.
131
411120
1400
и будем двигаться туда.
07:05
This bringsприносит us to the secondвторой partчасть
of our rocketракета metaphorметафора: the steeringрулевое управление.
132
413720
3536
Это приведёт нас ко второй части
нашей ракетной метафоры: управление.
07:09
We're makingизготовление AIискусственный интеллект more powerfulмощный,
133
417280
1896
Мы делаем ИИ более мощным,
07:11
but how can we steerуправлять towardsв направлении a futureбудущее
134
419200
3816
но как мы сможем двигаться к будущему,
07:15
where AIискусственный интеллект helpsпомогает humanityчеловечество flourishпроцветать
ratherскорее than flounderкамбала?
135
423040
3080
где ИИ помогает человечеству процветать,
а не мешает развитию?
07:18
To help with this,
136
426760
1256
Чтобы помочь этому,
07:20
I cofoundedсоучредителем the FutureБудущее of Life Instituteинститут.
137
428040
1976
мы основали институт Будущего Жизни.
07:22
It's a smallмаленький nonprofitнекоммерческий promotingсодействие
beneficialвыгодный technologyтехнологии use,
138
430040
2776
Он небольшой, некоммерческий,
поощряет полезные технологии.
07:24
and our goalЦель is simplyпросто
for the futureбудущее of life to existсуществовать
139
432840
2736
Наша цель проста —
чтобы будущая жизнь существовала
07:27
and to be as inspiringвдохновляющий as possibleвозможное.
140
435600
2056
и была как можно более вдохновляющей.
07:29
You know, I love technologyтехнологии.
141
437680
3176
Вы знаете, я люблю технологии.
07:32
TechnologyТехнологии is why todayCегодня
is better than the StoneКамень AgeВозраст.
142
440880
2920
Из-за них мы живём лучше,
чем в каменном веке.
07:36
And I'm optimisticоптимистичный that we can createСоздайте
a really inspiringвдохновляющий high-techвысокие технологии futureбудущее ...
143
444600
4080
Я — оптимист потому, что мы можем творить
вдохновляюще высокотехнологичное будущее,
07:41
if -- and this is a bigбольшой if --
144
449680
1456
если — и это большое если —
07:43
if we winвыиграть the wisdomмудрость raceраса --
145
451160
2456
если мы выиграем гонку мудрости —
07:45
the raceраса betweenмежду the growingрост
powerмощность of our technologyтехнологии
146
453640
2856
гонку между растущей мощью
наших технологий
07:48
and the growingрост wisdomмудрость
with whichкоторый we manageуправлять it.
147
456520
2200
и мудростью, помогающей нам ими управлять.
07:51
But this is going to requireтребовать
a changeизменение of strategyстратегия
148
459240
2296
Но это требует изменения стратегии,
07:53
because our oldстарый strategyстратегия
has been learningобучение from mistakesошибки.
149
461560
3040
потому что по старой стратегии
мы учились на своих ошибках.
07:57
We inventedизобрел fireОгонь,
150
465280
1536
Мы изобрели огонь,
07:58
screwedпьяный up a bunchгроздь of timesраз --
151
466840
1536
много раз ошибались,
08:00
inventedизобрел the fireОгонь extinguisherОгнетушитель.
152
468400
1816
изобрели огнетушитель.
08:02
(LaughterСмех)
153
470240
1336
(Смех)
08:03
We inventedизобрел the carавтомобиль,
screwedпьяный up a bunchгроздь of timesраз --
154
471600
2416
Мы изобрели автомобиль,
напортачили много раз —
08:06
inventedизобрел the trafficтрафик lightлегкий,
the seatсиденье beltремень and the airbagвоздушная подушка,
155
474040
2667
изобрели светофор,
ремни и подушку безопасности.
08:08
but with more powerfulмощный technologyтехнологии
like nuclearядерной weaponsоружие and AGIAGI,
156
476731
3845
Но с более мощными технологиями,
такими как ядерное оружие и СИИ,
08:12
learningобучение from mistakesошибки
is a lousyпаршивый strategyстратегия,
157
480600
3376
учиться на ошибках —
это проигрышная стратегия,
08:16
don't you think?
158
484000
1216
как вы думаете?
08:17
(LaughterСмех)
159
485240
1016
(Смех)
08:18
It's much better to be proactiveупреждающий
ratherскорее than reactiveреактивный;
160
486280
2576
Гораздо лучше упреждать,
чем исправлять последствия:
08:20
planплан aheadвпереди and get things
right the first time
161
488880
2296
планировать заранее, не допуская ошибок,
08:23
because that mightмог бы be
the only time we'llЧто ж get.
162
491200
2496
посколько другого раза может и не быть.
08:25
But it is funnyвеселая because
sometimesиногда people tell me,
163
493720
2336
Но это забавно, потому что
иногда мне говорят:
08:28
"MaxМаксимум, shhhтссс, don't talk like that.
164
496080
2736
«Макс, тсс..., не говори так.
08:30
That's Ludditeлуддит scaremongeringscaremongering."
165
498840
1720
Это запугивание в духе луддитов».
08:34
But it's not scaremongeringscaremongering.
166
502040
1536
Но это не запугивание.
08:35
It's what we at MITMIT
call safetyбезопасность engineeringинжиниринг.
167
503600
2880
Это то, что мы в МТИ называем
инженерной безопасностью.
08:39
Think about it:
168
507200
1216
Подумайте об этом:
08:40
before NASAНАСА launchedзапущенный
the ApolloАполлон 11 missionмиссия,
169
508440
2216
до того, как НАСА
запустили проект Аполлон 11,
08:42
they systematicallyсистематически thought throughчерез
everything that could go wrongнеправильно
170
510680
3136
они постоянно продумывали варианты,
когда что-то пойдёт не так,
08:45
when you put people
on topВверх of explosiveвзрывной fuelтопливо tanksтанки
171
513840
2376
прежде чем посадить людей на топливный бак
08:48
and launchзапуск them somewhereгде-то
where no one could help them.
172
516240
2616
и запустить их куда-то,
где никто не может им помочь.
08:50
And there was a lot that could go wrongнеправильно.
173
518880
1936
Было много всего,
что могло пойти не так.
08:52
Was that scaremongeringscaremongering?
174
520840
1480
Было ли это запугиванием?
08:55
No.
175
523159
1217
Нет.
08:56
That's was preciselyточно
the safetyбезопасность engineeringинжиниринг
176
524400
2016
Именно это было инженерной безопасностью,
08:58
that ensuredобеспечена the successуспех of the missionмиссия,
177
526440
1936
которая обеспечила успех миссии,
09:00
and that is preciselyточно the strategyстратегия
I think we should take with AGIAGI.
178
528400
4176
именно такой стратегия с СИИ
мы должны придерживаться.
09:04
Think throughчерез what can go wrongнеправильно
to make sure it goesидет right.
179
532600
4056
Подумайте, что может пойти не так,
чтобы быть уверенными, что всё получится.
09:08
So in this spiritдух,
we'veмы в organizedорганизованная conferencesконференций,
180
536680
2536
В этом духе мы и организовали конференции,
09:11
bringingприведение togetherвместе leadingведущий
AIискусственный интеллект researchersисследователи and other thinkersмыслители
181
539240
2816
объединив ведущих исследователей ИИ
и других мыслителей,
09:14
to discussобсуждать how to growрасти this wisdomмудрость
we need to keep AIискусственный интеллект beneficialвыгодный.
182
542080
3736
чтобы обсудить то, как взрастить мудрость,
и сделать ИИ полезным для нас.
09:17
Our last conferenceконференция
was in AsilomarAsilomar, CaliforniaКалифорния last yearгод
183
545840
3296
На нашей последней конференции,
состоявшейся в Асиломаре, Калифорния,
09:21
and producedпроизведенный this listсписок of 23 principlesпринципы
184
549160
3056
в прошлом году был выработан
список из 23-х принципов,
09:24
whichкоторый have sinceпоскольку been signedподписанный
by over 1,000 AIискусственный интеллект researchersисследователи
185
552240
2896
подписанный более 1 000 учёными,
исследователями ИИ
09:27
and keyключ industryпромышленность leadersлидеры,
186
555160
1296
и лидерами ведущих отраслей;
09:28
and I want to tell you
about threeтри of these principlesпринципы.
187
556480
3176
и я хочу рассказать вам
о трёх из этих принципов.
09:31
One is that we should avoidизбежать an armsоружие raceраса
and lethalлетальный autonomousавтономный weaponsоружие.
188
559680
4960
Первый: избегать гонки вооружений
и автономных систем летального вооружения.
09:37
The ideaидея here is that any scienceнаука
can be used for newновый waysпути of helpingпомощь people
189
565480
3616
Смысл здесь в том, что любую науку
можно использовать для помощи людям
09:41
or newновый waysпути of harmingвредный people.
190
569120
1536
или для нанесения им вреда.
09:42
For exampleпример, biologyбиология and chemistryхимия
are much more likelyвероятно to be used
191
570680
3936
Например, биологию и химию,
скорее всего, будут использовать
09:46
for newновый medicinesмедикаменты or newновый curesзатвердевает
than for newновый waysпути of killingубийство people,
192
574640
4856
для создания новых лекарств и методов
лечения, а не новых способов убийства,
09:51
because biologistsбиологам
and chemistsхимики pushedтолкнул hardжесткий --
193
579520
2176
потому что биологи и химики изо всех сил —
09:53
and successfullyуспешно --
194
581720
1256
и успешно — проталкивают
09:55
for bansзапреты on biologicalбиологический
and chemicalхимическая weaponsоружие.
195
583000
2176
запрет биологического
и химического оружия.
09:57
And in the sameодна и та же spiritдух,
196
585200
1256
Точно так же
09:58
mostбольшинство AIискусственный интеллект researchersисследователи want to stigmatizeклеймить
and banзапрет lethalлетальный autonomousавтономный weaponsоружие.
197
586480
4440
многие учёные хотят заклеймить и запретить
автономные летальные комплексы.
10:03
AnotherДругая AsilomarAsilomar AIискусственный интеллект principleпринцип
198
591600
1816
Второй Асиломарский принцип по ИИ —
10:05
is that we should mitigateсмягчать
AI-fueledАИ топливом incomeдоход inequalityнеравенство.
199
593440
3696
это то, что мы должны уменьшить
неравенство в доходах, усиленное ИИ.
10:09
I think that if we can growрасти
the economicэкономической pieпирог dramaticallyдраматично with AIискусственный интеллект
200
597160
4456
Думаю, что если возможно при посредстве ИИ
значительно увеличить экономический пирог,
10:13
and we still can't figureфигура out
how to divideделить this pieпирог
201
601640
2456
и мы всё ещё не знаем,
как разделить этот пирог,
10:16
so that everyoneвсе is better off,
202
604120
1576
чтобы каждый из нас жил достойно,
10:17
then shameпозор on us.
203
605720
1256
то нам должно быть стыдно.
10:19
(ApplauseАплодисменты)
204
607000
4096
(Аплодисменты)
10:23
Alrightхорошо, now raiseповышение your handрука
if your computerкомпьютер has ever crashedразбившийся.
205
611120
3600
Хорошо, поднимите руки,
если у вас был сбой в работе компьютера.
10:27
(LaughterСмех)
206
615480
1256
(Смех)
10:28
WowВау, that's a lot of handsРуки.
207
616760
1656
О, лес рук.
10:30
Well, then you'llВы будете appreciateценить
this principleпринцип
208
618440
2176
Да, тогда вы оцените этот принцип,
10:32
that we should investвкладывать деньги much more
in AIискусственный интеллект safetyбезопасность researchисследование,
209
620640
3136
и то, что мы должны вкладывать
больше средств в безопасность ИИ,
10:35
because as we put AIискусственный интеллект in chargeзаряд
of even more decisionsрешения and infrastructureинфраструктура,
210
623800
3656
так как мы делаем ИИ более ответственным
за решения и инфраструктуру.
10:39
we need to figureфигура out how to transformпреобразование
today'sсегодняшнего buggyдетская коляска and hackablehackable computersкомпьютеры
211
627480
3616
Нам нужно определить, как переделать
современный ненадёжный компьютер
10:43
into robustкрепкий AIискусственный интеллект systemsсистемы
that we can really trustдоверять,
212
631120
2416
в сильные системы ИИ,
которым мы можем доверять,
10:45
because otherwiseв противном случае,
213
633560
1216
в противном случае,
10:46
all this awesomeздорово newновый technologyтехнологии
can malfunctionнеисправность and harmвред us,
214
634800
2816
вся эта потрясающая техника
не сработает и навредит нам,
10:49
or get hackedвзломан and be turnedоказалось againstпротив us.
215
637640
1976
или её взломают и направят против нас.
10:51
And this AIискусственный интеллект safetyбезопасность work
has to includeвключают work on AIискусственный интеллект valueстоимость alignmentвыравнивание,
216
639640
5696
И эта работа по безопасности ИИ
должна включать и выравнивание ценностей,
10:57
because the realреальный threatугроза
from AGIAGI isn't maliceзлоба,
217
645360
2816
потому что реальная угроза от ИИ —
это не зло, как показано
11:00
like in sillyглупый HollywoodГолливуд moviesкино,
218
648200
1656
в глупых голливудских фильмах,
11:01
but competenceкомпетентность --
219
649880
1736
а способности —
11:03
AGIAGI accomplishingдостижения goalsцели
that just aren'tне alignedвыровненный with oursнаш.
220
651640
3416
СИИ достигает целей,
которые никак не согласуются с нашими.
11:07
For exampleпример, when we humansлюди droveпоехали
the Westзапад Africanафриканец blackчерный rhinoносорог extinctпотухший,
221
655080
4736
Когда в результате нашей деятельности
исчезли чёрные африканские носороги,
11:11
we didn't do it because we were a bunchгроздь
of evilзло rhinocerosносорог hatersненавистники, did we?
222
659840
3896
мы делали это не потому, что
ненавидели носорогов, не так ли?
11:15
We did it because
we were smarterумнее than them
223
663760
2056
Мы это делали, поскольку были умнее их
11:17
and our goalsцели weren'tне было alignedвыровненный with theirsих.
224
665840
2576
и наши цели не соответствовали их целям.
11:20
But AGIAGI is by definitionопределение smarterумнее than us,
225
668440
2656
Но СИИ по определению умнее нас,
11:23
so to make sure that we don't put
ourselvesсами in the positionдолжность of those rhinosносороги
226
671120
3576
и чтобы наверняка не поставить себя
в положение носорогов,
11:26
if we createСоздайте AGIAGI,
227
674720
1976
если мы создадим СИИ,
11:28
we need to figureфигура out how
to make machinesмашины understandПонимаю our goalsцели,
228
676720
4176
нам нужно определить, как заставить
машины понимать наши цели,
11:32
adoptпринять our goalsцели and retainсохранить our goalsцели.
229
680920
3160
принимать наши цели и придерживаться их.
11:37
And whoseчья goalsцели should these be, anywayтак или иначе?
230
685320
2856
И в любом случае, чьими целями
они должны быть?
11:40
WhichКоторый goalsцели should they be?
231
688200
1896
Какими целями они должны быть?
11:42
This bringsприносит us to the thirdв третьих partчасть
of our rocketракета metaphorметафора: the destinationместо назначения.
232
690120
3560
Это приводит нас к третьей части
нашего сравнения с ракетой: назначение.
11:47
We're makingизготовление AIискусственный интеллект more powerfulмощный,
233
695160
1856
Мы делаем ИИ более мощным,
11:49
tryingпытаясь to figureфигура out how to steerуправлять it,
234
697040
1816
пытаясь понять, как им управлять,
11:50
but where do we want to go with it?
235
698880
1680
но куда мы с ним направимся?
11:53
This is the elephantслон in the roomкомната
that almostпочти nobodyникто talksпереговоры about --
236
701760
3656
Это слон в комнате,
о котором почти никто не говорит —
11:57
not even here at TEDТЕД --
237
705440
1856
даже здесь, на конференции TED —
11:59
because we're so fixatedфиксироваться
on short-termв ближайщем будущем AIискусственный интеллект challengesпроблемы.
238
707320
4080
потому что мы так одержимы
краткосрочными проблемами с ИИ.
12:04
Look, our speciesвид is tryingпытаясь to buildстроить AGIAGI,
239
712080
4656
Смотрите, человечество
пытается построить СИИ,
12:08
motivatedмотивировано by curiosityлюбопытство and economicsэкономика,
240
716760
3496
оно мотивировано любопытством
и экономическими причинами,
12:12
but what sortСортировать of futureбудущее societyобщество
are we hopingнадеясь for if we succeedдобиться успеха?
241
720280
3680
но какое общество будущего
мы надеемся увидеть, если это произойдёт?
12:16
We did an opinionмнение pollголосование on this recentlyв последнее время,
242
724680
1936
Недавно мы сделали опрос на эту тему,
12:18
and I was struckпораженный to see
243
726640
1216
и я был поражён тем,
12:19
that mostбольшинство people actuallyна самом деле
want us to buildстроить superintelligenceсуперинтеллект:
244
727880
2896
что большинство людей
хотят построить суперразум:
12:22
AIискусственный интеллект that's vastlyзначительно smarterумнее
than us in all waysпути.
245
730800
3160
ИИ — это то, что безусловно умнее нас
во всех отношениях.
12:27
What there was the greatestвеличайший agreementсоглашение on
was that we should be ambitiousамбициозный
246
735120
3416
Большинство было согласно с тем,
что мы должны быть целеустремлёнными
12:30
and help life spreadраспространение into the cosmosкосмос,
247
738560
2016
и помочь жизни распространиться в космос,
12:32
but there was much lessМеньше agreementсоглашение
about who or what should be in chargeзаряд.
248
740600
4496
но было намного меньше согласия
в том, кто должен отвечать за это.
12:37
And I was actuallyна самом деле quiteдовольно amusedдовольный
249
745120
1736
И я был даже изумлён,
12:38
to see that there's some some people
who want it to be just machinesмашины.
250
746880
3456
когда понял, что есть те, кто желает,
чтобы это были просто машины.
12:42
(LaughterСмех)
251
750360
1696
(Смех)
12:44
And there was totalВсего disagreementразногласие
about what the roleроль of humansлюди should be,
252
752080
3856
И было полное несогласие
насчёт роли людей в этом процессе,
12:47
even at the mostбольшинство basicосновной levelуровень,
253
755960
1976
даже на самом элементарном уровне.
12:49
so let's take a closerближе look
at possibleвозможное futuresфьючерсы
254
757960
2816
Итак, давайте рассмотрим
возможные варианты будущего,
12:52
that we mightмог бы chooseвыберите
to steerуправлять towardк, alrightхорошо?
255
760800
2736
которые, может быть, мы выберем,
чтобы идти к ним, хорошо?
12:55
So don't get be wrongнеправильно here.
256
763560
1336
Поймите меня правильно.
12:56
I'm not talkingговорящий about spaceпространство travelпутешествовать,
257
764920
2056
Я не говорю о космическом путешествии,
12:59
merelyпросто about humanity'sчеловечества
metaphoricalметафорический journeyпоездка into the futureбудущее.
258
767000
3200
не просто о метафорическом
путешествии человечества в будущее.
13:02
So one optionвариант that some
of my AIискусственный интеллект colleaguesколлеги like
259
770920
3496
И один из вариантов, который
нравится моим коллегам по ИИ —
13:06
is to buildстроить superintelligenceсуперинтеллект
and keep it underпод humanчеловек controlконтроль,
260
774440
3616
это построить суперинтеллект
и держать его под контролем человека,
13:10
like an enslavedпорабощенный god,
261
778080
1736
как порабощённого бога,
13:11
disconnectedотсоединены from the internetинтернет
262
779840
1576
оторванного от интернета
13:13
and used to createСоздайте unimaginableневообразимый
technologyтехнологии and wealthбогатство
263
781440
3256
и используемого для создания
невообразимых технологий и благосостояния,
13:16
for whoeverкто бы ни controlsуправления it.
264
784720
1240
для всех, кто его контролирует.
13:18
But Lordповелитель ActonАктон warnedпредупреждала us
265
786800
1456
Но лорд Актон предупредил нас
13:20
that powerмощность corruptsразвращает,
and absoluteабсолютный powerмощность corruptsразвращает absolutelyабсолютно,
266
788280
3616
о том, что власть развращает,
а абсолютная власть развращает абсолютно;
13:23
so you mightмог бы worryбеспокоиться that maybe
we humansлюди just aren'tне smartумная enoughдостаточно,
267
791920
4056
поэтому вы, наверное, беспокоитесь
о том, что люди недостаточно умны
13:28
or wiseмудрый enoughдостаточно ratherскорее,
268
796000
1536
или даже недостаточно мудры,
13:29
to handleручка this much powerмощность.
269
797560
1240
чтобы управлять этой силой.
13:31
AlsoТакже, asideв стороне from any
moralморальный qualmsугрызений совести you mightмог бы have
270
799640
2536
Ещё, кроме моральных сомнений,
которые у вас могут быть
13:34
about enslavingзакрепощение superiorпревосходящий mindsумов,
271
802200
2296
по поводу порабощения
превосходящего нас интеллекта,
13:36
you mightмог бы worryбеспокоиться that maybe
the superintelligenceсуперинтеллект could outsmartперехитрить us,
272
804520
3976
вас может беспокоить, что, возможно,
суперинтеллект переиграет нас,
13:40
breakломать out and take over.
273
808520
2240
уйдёт из-под контроля
и одержит над нами верх.
13:43
But I alsoтакже have colleaguesколлеги
who are fine with AIискусственный интеллект takingпринятие over
274
811560
3416
Но у меня есть коллеги, которые
нормально относятся к победе ИИ,
13:47
and even causingвызывая humanчеловек extinctionвымирание,
275
815000
2296
даже если это приведёт
к исчезновению людей,
13:49
as long as we feel the the AIsAIs
are our worthyдостойный descendantsпотомки,
276
817320
3576
до тех пор пока мы чувствуем,
что ИИ — наследники, достойные нас,
13:52
like our childrenдети.
277
820920
1736
как наши дети.
13:54
But how would we know that the AIsAIs
have adoptedпринят our bestЛучший valuesзначения
278
822680
5616
Но как мы узнаем, что ИИ
принял наши главные ценности,
14:00
and aren'tне just unconsciousбез сознания zombiesзомби
trickingобманывая us into anthropomorphizinganthropomorphizing them?
279
828320
4376
и они не бессознательные зомби, которые
только хотят казаться нам антропоморфными?
14:04
AlsoТакже, shouldn'tне должен those people
who don't want humanчеловек extinctionвымирание
280
832720
2856
Должны ли те люди, которые не хотят
уничтожения человечества,
14:07
have a say in the matterдело, too?
281
835600
1440
также иметь право голоса?
14:10
Now, if you didn't like eitherили
of those two high-techвысокие технологии optionsопции,
282
838200
3376
Итак, если вам не нравится ни один
из высокотехнологичных вариантов,
14:13
it's importantважный to rememberзапомнить
that low-techнесложный is suicideсамоубийство
283
841600
3176
важно помнить, что устаревшие технологии —
это самоубийство
14:16
from a cosmicкосмический perspectiveперспективы,
284
844800
1256
с глобальной точки зрения,
14:18
because if we don't go farдалеко
beyondза today'sсегодняшнего technologyтехнологии,
285
846080
2496
так как, если мы не опережаем
современные технологии,
14:20
the questionвопрос isn't whetherбудь то humanityчеловечество
is going to go extinctпотухший,
286
848600
2816
вопрос не в том, исчезнет ли человечество,
14:23
merelyпросто whetherбудь то
we're going to get takenвзятый out
287
851440
2016
будем ли мы просто уничтожены
14:25
by the nextследующий killerубийца asteroidастероид, supervolcanoсупервулкана
288
853480
2136
очередным убийцей-астероидом,
супервулканом
14:27
or some other problemпроблема
that better technologyтехнологии could have solvedрешена.
289
855640
3096
или другой проблемой, которая
решалась бы с помощью технологий.
14:30
So, how about havingимеющий
our cakeкекс and eatingпринимать пищу it ...
290
858760
3576
Итак, как насчёт того,
чтобы получить всё и сразу
14:34
with AGIAGI that's not enslavedпорабощенный
291
862360
1840
с помощью СИИ, который не порабощён,
14:37
but treatsлечит us well because its valuesзначения
are alignedвыровненный with oursнаш?
292
865120
3176
но хорошо ведёт себя с нами,
так как разделяет наши ценности?
14:40
This is the gistсуть of what EliezerЭлиэзер YudkowskyЮдковски
has calledназывается "friendlyдружелюбный AIискусственный интеллект,"
293
868320
4176
В этом смысл того, что Элиезер Юдковский
назвал «дружественным ИИ»,
14:44
and if we can do this,
it could be awesomeздорово.
294
872520
2680
и если мы можем это сделать,
было бы замечательно.
14:47
It could not only eliminateУстранить negativeотрицательный
experiencesопыт like diseaseболезнь, povertyбедность,
295
875840
4816
Он мог бы не только устранить такие
явления, как болезни и бедность,
14:52
crimeпреступление and other sufferingстрадающий,
296
880680
1456
преступления и страдания,
14:54
but it could alsoтакже give us
the freedomсвобода to chooseвыберите
297
882160
2816
но и дал бы нам свободу выбора,
14:57
from a fantasticфантастика newновый diversityразнообразие
of positiveположительный experiencesопыт --
298
885000
4056
исходя из нового фантастического
разнообразия положительного опыта —
15:01
basicallyв основном makingизготовление us
the mastersмастера of our ownсвоя destinyсудьба.
299
889080
3160
по существу, делая нас
хозяевами своей судьбы.
15:06
So in summaryрезюме,
300
894280
1376
Подводя итоги, хочу сказать,
15:07
our situationситуация with technologyтехнологии
is complicatedсложно,
301
895680
3096
что у нас сложная ситуация с технологиями,
15:10
but the bigбольшой pictureкартина is ratherскорее simpleпросто.
302
898800
2416
но общая картина достаточно проста.
15:13
MostНаиболее AIискусственный интеллект researchersисследователи
expectожидать AGIAGI withinв decadesдесятилетия,
303
901240
3456
Большинство учёных ожидают создания СИИ
в ближайшие десятилетия,
15:16
and if we just bumbleзапинаться
into this unpreparedнеподготовленный,
304
904720
3136
и если к его появлению
мы не будем подготовленными,
15:19
it will probablyвероятно be
the biggestсамый большой mistakeошибка in humanчеловек historyистория --
305
907880
3336
это будет величайшей ошибкой
в истории человечества —
15:23
let's faceлицо it.
306
911240
1416
давайте это признаем.
15:24
It could enableвключить brutalзверский,
globalГлобальный dictatorshipдиктатура
307
912680
2576
Это может сделать возможным
жёсткую глобальную диктатуру
15:27
with unprecedentedбеспрецедентный inequalityнеравенство,
surveillanceнаблюдение and sufferingстрадающий,
308
915280
3536
с беспрецедентным неравенством,
слежкой и страданиями,
и, возможно, даже
с исчезновением человечества.
15:30
and maybe even humanчеловек extinctionвымирание.
309
918840
1976
15:32
But if we steerуправлять carefullyвнимательно,
310
920840
2320
Но если мы будем разумно
следовать нашему курсу,
15:36
we could endконец up in a fantasticфантастика futureбудущее
where everybody'sвсе это better off:
311
924040
3896
мы окажемся в фантастическом будущем,
где каждому будет хорошо:
15:39
the poorбедные are richerбогаче, the richбогатые are richerбогаче,
312
927960
2376
бедные будут богаче, богатые будут богаче,
15:42
everybodyвсе is healthyздоровый
and freeсвободно to liveжить out theirих dreamsмечты.
313
930360
3960
каждый будет здоровым
и будет жить так, как мечтает.
15:47
Now, hangвешать on.
314
935000
1536
А теперь послушайте.
15:48
Do you folksлюди want the futureбудущее
that's politicallyполитически right or left?
315
936560
4576
Ребята, хотите ли вы политически правого
или левого будущего?
15:53
Do you want the piousблагочестивый societyобщество
with strictстрогий moralморальный rulesправила,
316
941160
2856
Жить в ханжеском обществе
со строгими моральными правилами
15:56
or do you an hedonisticгедонистический free-for-allбесплатно для всех,
317
944040
1816
или в обществе «свободы для всех»,
15:57
more like BurningЖжение Man 24/7?
318
945880
2216
как на фестивале Burning Man
в режиме 24/7?
16:00
Do you want beautifulкрасивая beachesпляжи,
forestsлеса and lakesозера,
319
948120
2416
Хотите ли прекрасные пляжи, леса и озёра,
16:02
or would you preferпредпочитать to rearrangeперестраивать
some of those atomsатомы with the computersкомпьютеры,
320
950560
3416
или предпочли бы с помощью компьютера
переместить кое-какие атомы,
сделав виртуальное реальным.
16:06
enablingчто позволяет virtualвиртуальный experiencesопыт?
321
954000
1715
16:07
With friendlyдружелюбный AIискусственный интеллект, we could simplyпросто
buildстроить all of these societiesобщества
322
955739
3157
С дружественным ИИ мы можем
просто построить эти общества
16:10
and give people the freedomсвобода
to chooseвыберите whichкоторый one they want to liveжить in
323
958920
3216
и дать людям свободу выбора
того общества, где они хотят жить,
16:14
because we would no longerдольше
be limitedограниченное by our intelligenceинтеллект,
324
962160
3096
потому что мы больше не будем
ограничены своим интеллектом,
16:17
merelyпросто by the lawsзаконы of physicsфизика.
325
965280
1456
а только законами физики.
16:18
So the resourcesРесурсы and spaceпространство
for this would be astronomicalастрономический --
326
966760
4616
Поэтому ресурсы и пространство для этого
будут астрономическими —
16:23
literallyбуквально.
327
971400
1320
в буквальном смысле слова.
16:25
So here'sвот our choiceвыбор.
328
973320
1200
Вот какой у нас выбор.
16:27
We can eitherили be complacentсамодовольный
about our futureбудущее,
329
975880
2320
Мы либо можем быть
довольными своим будущим,
16:31
takingпринятие as an articleстатья of blindслепой faithвера
330
979440
2656
принимая на веру то,
16:34
that any newновый technologyтехнологии
is guaranteedгарантированный to be beneficialвыгодный,
331
982120
4016
что любая новая технология
наверняка будет полезной,
16:38
and just repeatповторение that to ourselvesсами
as a mantraмантра over and over and over again
332
986160
4136
и повторять это снова и снова, как мантру,
16:42
as we driftдрейф like a rudderlessбеспомощно shipкорабль
towardsв направлении our ownсвоя obsolescenceустаревание.
333
990320
3680
как будто мы плывём на корабле без руля
к своему исчезновению.
16:46
Or we can be ambitiousамбициозный --
334
994920
1880
Либо мы можем быть целеустремлёнными,
16:49
thinkingмышление hardжесткий about how
to steerуправлять our technologyтехнологии
335
997840
2456
продумывая то, как управлять
нашими технологиями
16:52
and where we want to go with it
336
1000320
1936
и в каком направлении с ними двигаться,
16:54
to createСоздайте the ageвозраст of amazementизумление.
337
1002280
1760
чтобы создать изумительную эпоху.
16:57
We're all here to celebrateпраздновать
the ageвозраст of amazementизумление,
338
1005000
2856
Мы здесь для того, чтобы
прославлять изумительную эпоху,
16:59
and I feel that its essenceсущность should lieложь
in becomingстановление not overpoweredодолели
339
1007880
4440
и я чувствую, что его суть должна
заключаться не в том,
чтобы уступить технологиям,
а чтобы с их помощью стать сильнее.
17:05
but empoweredуполномоченный by our technologyтехнологии.
340
1013240
2616
17:07
Thank you.
341
1015880
1376
Спасибо.
17:09
(ApplauseАплодисменты)
342
1017280
3080
(Аплодисменты)
Translated by Elena Malykh
Reviewed by Natalia Ost

▲Back to top

ABOUT THE SPEAKER
Max Tegmark - Scientist, author
Max Tegmark is driven by curiosity, both about how our universe works and about how we can use the science and technology we discover to help humanity flourish rather than flounder.

Why you should listen

Max Tegmark is an MIT professor who loves thinking about life's big questions. He's written two popular books, Our Mathematical Universe: My Quest for the Ultimate Nature of Reality and the recently published Life 3.0: Being Human in the Age of Artificial Intelligenceas well as more than 200 nerdy technical papers on topics from cosmology to AI.

He writes: "In my spare time, I'm president of the Future of Life Institute, which aims to ensure that we develop not only technology but also the wisdom required to use it beneficially."

More profile about the speaker
Max Tegmark | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee