ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com
TED2015

Nick Bostrom: What happens when our computers get smarter than we are?

Ник Бостром: Что произойдёт, когда компьютеры станут умнее нас?

Filmed:
4,632,705 views

Искусственный интеллект становится умнее не по дням, а по часам. Исследования показывают, что в течение этого столетия ИИ может стать таким же «умным», как и человек. Ник Бостром говорит: «ИИ обгонит нас. Машинный интеллект — самое последнее изобретение, которое человечеству когда-либо придётся создать». Философ и технолог, Бостром просит нас хорошенько подумать о мире, управляемом мыслящими машинами, о мире, который мы сейчас создаём. Будут ли умные машины помогать человечеству и нашим ценностям или же у них будут свои ценности?
- Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us? Full bio

Double-click the English transcript below to play the video.

00:12
I work with a bunchгроздь of mathematiciansматематики,
philosophersфилософы and computerкомпьютер scientistsученые,
0
570
4207
Я работаю с математиками,
философами и информатиками.
00:16
and we sitсидеть around and think about
the futureбудущее of machineмашина intelligenceинтеллект,
1
4777
5209
Среди всего прочего,
мы собираемся и думаем
00:21
amongсреди other things.
2
9986
2044
о будущем машинного интеллекта.
00:24
Some people think that some of these
things are sortСортировать of scienceнаука fiction-yфикция-й,
3
12030
4725
Некоторые люди полагают,
что это вроде научной фантастики,
00:28
farдалеко out there, crazyпсих.
4
16755
3101
далеко отсюда, безумие какое-то.
00:31
But I like to say,
5
19856
1470
Но я люблю говорить
00:33
okay, let's look at the modernсовременное
humanчеловек conditionсостояние.
6
21326
3604
хорошо, давайте глянем
на современное состояние человечества.
00:36
(LaughterСмех)
7
24930
1692
(Смех)
00:38
This is the normalнормальный way for things to be.
8
26622
2402
Всё как обычно.
00:41
But if we think about it,
9
29024
2285
Но если задуматься над этим,
00:43
we are actuallyна самом деле recentlyв последнее время arrivedприбывший
guestsгости on this planetпланета,
10
31309
3293
на самом деле мы гости, появившиеся
совсем недавно на этой планете,
00:46
the humanчеловек speciesвид.
11
34602
2082
человеческий род.
00:48
Think about if EarthЗемля
was createdсозданный one yearгод agoтому назад,
12
36684
4746
Задумайтесь, если бы Земля
была создана год назад,
00:53
the humanчеловек speciesвид, then,
would be 10 minutesминут oldстарый.
13
41430
3548
человеческому роду было бы
всего 10 минут от роду.
00:56
The industrialпромышленные eraэпоха startedначал
two secondsсекунд agoтому назад.
14
44978
3168
Индустриальная эра началась
две секунды назад.
01:01
AnotherДругая way to look at this is to think of
worldМир GDPВВП over the last 10,000 yearsлет,
15
49276
5225
Другой способ взглянуть на это — подумать
о мировом ВВП за последние 10000 лет.
01:06
I've actuallyна самом деле takenвзятый the troubleбеда
to plotсюжет this for you in a graphграфик.
16
54501
3029
Я построил для вас график.
01:09
It looksвыглядит like this.
17
57530
1774
Это выглядит вот так.
01:11
(LaughterСмех)
18
59304
1363
(Смех)
01:12
It's a curiousлюбопытный shapeформа
for a normalнормальный conditionсостояние.
19
60667
2151
Это любопытная форма
для обычного состояния.
01:14
I sure wouldn'tне будет want to sitсидеть on it.
20
62818
1698
Я бы не хотел сидеть на этом.
01:16
(LaughterСмех)
21
64516
2551
(Смех)
01:19
Let's askпросить ourselvesсами, what is the causeпричина
of this currentтекущий anomalyаномалия?
22
67067
4774
Давайте спросим себя, что же является
причиной нынешней аномалии?
01:23
Some people would say it's technologyтехнологии.
23
71841
2552
Кто-то скажет, что это технологии.
01:26
Now it's trueправда, technologyтехнологии has accumulatedнакопленный
throughчерез humanчеловек historyистория,
24
74393
4668
Да, это правда, технологии накопились
за всё время существования человека,
01:31
and right now, technologyтехнологии
advancesдостижения extremelyочень rapidlyбыстро --
25
79061
4652
и сейчас технологии
развиваются чрезвычайно быстро —
01:35
that is the proximateближайший causeпричина,
26
83713
1565
это непосредственная причина,
01:37
that's why we are currentlyВ данный момент
so very productiveпродуктивный.
27
85278
2565
вот почему мы в последнее время
очень продуктивны.
01:40
But I like to think back furtherв дальнейшем
to the ultimateокончательный causeпричина.
28
88473
3661
Но мне хочется думать дальше,
об окончательной цели.
01:45
Look at these two highlyвысоко
distinguishedвыдающийся gentlemenгоспода:
29
93114
3766
Взгляните на этих двух
выдающихся джентльменов:
01:48
We have KanziKanzi --
30
96880
1600
У нас есть Канзи,
01:50
he's masteredосвоен 200 lexicalлексический
tokensжетоны, an incredibleнеимоверный featподвиг.
31
98480
4643
он освоил 200 лексем,
невероятный подвиг.
01:55
And Edиздание WittenВиттен unleashedразвязанная the secondвторой
superstringсуперструн revolutionреволюция.
32
103123
3694
И Эд Уиттен, развязавший
вторую революцию в теории струн.
01:58
If we look underпод the hoodкапот,
this is what we find:
33
106817
2324
Если мы посмотрим вглубь,
вот что мы найдём:
02:01
basicallyв основном the sameодна и та же thing.
34
109141
1570
в основном одно и то же.
02:02
One is a little largerбольше,
35
110711
1813
Один чуть крупнее,
02:04
it maybe alsoтакже has a fewмало tricksтрюки
in the exactточный way it's wiredпроводная.
36
112524
2758
может быть, хитрее устроен изнутри.
02:07
These invisibleневидимый differencesразличия cannotне могу
be too complicatedсложно, howeverОднако,
37
115282
3812
Как бы там ни было, невидимые различия
не могут быть очень сложными,
02:11
because there have only
been 250,000 generationsпоколения
38
119094
4285
потому что появилось
всего 250 000 поколений
02:15
sinceпоскольку our last commonобщий ancestorпредок.
39
123379
1732
после нашего последнего общего предка.
02:17
We know that complicatedсложно mechanismsмеханизмы
take a long time to evolveэволюционировать.
40
125111
3849
Мы знаем, что сложным механизмам
для эволюции требуется много времени.
02:22
So a bunchгроздь of relativelyотносительно minorнезначительный changesизменения
41
130000
2499
Куча относительно незначительных изменений
02:24
take us from KanziKanzi to WittenВиттен,
42
132499
3067
привела нас от Канзи к Уиттену,
02:27
from broken-offОтломанный treeдерево branchesветви
to intercontinentalмежконтинентальный ballisticбаллистический missilesракеты.
43
135566
4543
от палок-копалок к межконтинентальным
баллистическим ракетам.
02:32
So this then seemsкажется prettyСимпатичная obviousочевидный
that everything we'veмы в achievedдостигнутый,
44
140839
3935
Поэтому становится довольно очевидным,
что всё достигнутое,
02:36
and everything we careзабота about,
45
144774
1378
и всё важное для нас
02:38
dependsзависит cruciallyпринципиально on some relativelyотносительно minorнезначительный
changesизменения that madeсделал the humanчеловек mindразум.
46
146152
5228
кардинально зависит от незначительных
изменений, создавших человеческий разум.
02:44
And the corollaryследствие, of courseкурс,
is that any furtherв дальнейшем changesизменения
47
152650
3662
И следствием, конечно же, является,
то, что какие-либо дальнейшие изменения,
02:48
that could significantlyсущественно changeизменение
the substrateподложка of thinkingмышление
48
156312
3477
которые могли бы существенно
изменить основание мышления,
02:51
could have potentiallyпотенциально
enormousогромный consequencesпоследствия.
49
159789
3202
могут иметь потенциально
огромные последствия.
02:56
Some of my colleaguesколлеги
think we're on the vergeобочина
50
164321
2905
Некоторые из моих коллег думают,
что мы на грани
02:59
of something that could causeпричина
a profoundглубокий changeизменение in that substrateподложка,
51
167226
3908
чего-то, что может создать
глубокое изменение в том основании
03:03
and that is machineмашина superintelligenceсуперинтеллект.
52
171134
3213
и это машинный суперинтеллект.
03:06
Artificialискусственный intelligenceинтеллект used to be
about puttingсдачи commandsкоманды in a boxкоробка.
53
174347
4739
Искусственным интеллектом ранее считался
ввод команд в ящик.
03:11
You would have humanчеловек programmersпрограммисты
54
179086
1665
У вас есть программисты-люди,
03:12
that would painstakinglyтщательно
handcraftручная работа knowledgeзнание itemsПредметы.
55
180751
3135
которые кропотливо вручную
создавали крупицы знаний.
03:15
You buildстроить up these expertэксперт systemsсистемы,
56
183886
2086
Вы строите экспертные системы,
03:17
and they were kindсвоего рода of usefulполезным
for some purposesцели,
57
185972
2324
и они были в какой-то степени полезны
для некоторых целей,
03:20
but they were very brittleломкий,
you couldn'tне может scaleмасштаб them.
58
188296
2681
но они были очень хрупкими,
они не масштабировались.
03:22
BasicallyВ основном, you got out only
what you put in.
59
190977
3433
В основном мы получали
только то, что вводили.
03:26
But sinceпоскольку then,
60
194410
997
Но с тех пор
03:27
a paradigmпарадигма shiftсдвиг has takenвзятый placeместо
in the fieldполе of artificialискусственный intelligenceинтеллект.
61
195407
3467
в области искусственного интеллекта
произошла смена парадигмы.
03:30
TodayCегодня, the actionдействие is really
around machineмашина learningобучение.
62
198874
2770
Сегодня вся активность сосредоточена
вокруг машинного обучения.
03:34
So ratherскорее than handcraftingручные ремесла knowledgeзнание
representationsпредставления and featuresфункции,
63
202394
5387
Вместо создания знания вручную
мы создаём алгоритмы,
03:40
we createСоздайте algorithmsалгоритмы that learnучить,
oftenдовольно часто from rawсырье perceptualперцепционный dataданные.
64
208511
5554
которые обучаются, зачастую
из необработанных сигналов сенсоров.
03:46
BasicallyВ основном the sameодна и та же thing
that the humanчеловек infantмладенец does.
65
214065
4998
Почти то же, что делает младенец.
03:51
The resultрезультат is A.I. that is not
limitedограниченное to one domainдомен --
66
219063
4207
В результате ИИ не ограничен
одной областью знаний.
03:55
the sameодна и та же systemсистема can learnучить to translateпереведите
betweenмежду any pairsпары of languagesязыки,
67
223270
4631
Одна и та же система может научиться переводить
между несколькими парами языков,
03:59
or learnучить to playиграть any computerкомпьютер gameигра
on the AtariАтари consoleконсоль.
68
227901
5437
или научиться играть в компьютерные игры
на игровой приставке Atari.
04:05
Now of courseкурс,
69
233338
1779
Конечно,
04:07
A.I. is still nowhereнигде nearвозле havingимеющий
the sameодна и та же powerfulмощный, cross-domainмеждоменное
70
235117
3999
ИИ до сих пор далёк
от мощной междисциплинарной способности
04:11
abilityспособность to learnучить and planплан
as a humanчеловек beingявляющийся has.
71
239116
3219
обучаться и планировать,
как это делает человек.
04:14
The cortexкора головного мозга still has some
algorithmicалгоритмический tricksтрюки
72
242335
2126
У коры мозга всё ещё есть
некоторые алгоритмические приёмы,
04:16
that we don't yetвсе же know
how to matchсовпадение in machinesмашины.
73
244461
2355
которые мы ещё не знаем,
как реализовать в машинах.
04:19
So the questionвопрос is,
74
247886
1899
Вопрос в том,
04:21
how farдалеко are we from beingявляющийся ableв состоянии
to matchсовпадение those tricksтрюки?
75
249785
3500
как мы далеки от возможности
реализовать эти приёмы?
04:26
A coupleпара of yearsлет agoтому назад,
76
254245
1083
Пару лет назад
04:27
we did a surveyопрос of some of the world'sв мире
leadingведущий A.I. expertsэксперты,
77
255328
2888
мы опросили
ведущих мировых экспертов по ИИ.
04:30
to see what they think,
and one of the questionsвопросов we askedспросил was,
78
258216
3224
Одним из наших вопросов был:
04:33
"By whichкоторый yearгод do you think
there is a 50 percentпроцент probabilityвероятность
79
261440
3353
«К какому году будет 50% вероятности,
04:36
that we will have achievedдостигнутый
human-levelчеловеческий уровень machineмашина intelligenceинтеллект?"
80
264793
3482
что мы достигнем машинного интеллекта
человеческого уровня?»
04:40
We definedопределенный human-levelчеловеческий уровень here
as the abilityспособность to performвыполнять
81
268785
4183
Мы определили человеческий уровень
как способность выполнять
04:44
almostпочти any jobработа at leastнаименее as well
as an adultдля взрослых humanчеловек,
82
272968
2871
практически любую работу также хорошо,
как взрослый человек.
04:47
so realреальный human-levelчеловеческий уровень, not just
withinв some limitedограниченное domainдомен.
83
275839
4005
Обычный человеческий уровень, не только
в пределах какой-то ограниченной области.
04:51
And the medianмедиана answerответ was 2040 or 2050,
84
279844
3650
И средний ответ был 2040 или 2050,
04:55
dependingв зависимости on preciselyточно whichкоторый
groupгруппа of expertsэксперты we askedспросил.
85
283494
2806
в зависимости от группы экспертов,
которую мы опрашивали.
04:58
Now, it could happenслучаться much,
much laterпозже, or soonerрано,
86
286300
4039
Это может произойти намного-намного
позднее или же раньше,
05:02
the truthправда is nobodyникто really knowsзнает.
87
290339
1940
по правде говоря, никто точно не знает.
05:05
What we do know is that the ultimateокончательный
limitпредел to informationИнформация processingобработка
88
293259
4412
Но мы точно знаем, что предел скорости
обработки информации машинами
05:09
in a machineмашина substrateподложка liesвранье farдалеко outsideза пределами
the limitsпределы in biologicalбиологический tissueткань.
89
297671
4871
лежит далеко за пределами
возможностей биологической ткани.
05:15
This comesвыходит down to physicsфизика.
90
303241
2378
Всё сводится к физике.
05:17
A biologicalбиологический neuronнейрон firesпожары, maybe,
at 200 hertzгерц, 200 timesраз a secondвторой.
91
305619
4718
Биологический нейрон срабатывает
примерно 200 раз в секунду, 200 герц.
05:22
But even a present-dayсегодняшний день transistorтранзистор
operatesработает at the Gigahertzгигагерц.
92
310337
3594
Но даже современный транзистор
работает на гигагерцах.
05:25
NeuronsНейроны propagateразмножать slowlyмедленно in axonsаксоны,
100 metersметры perв secondвторой, topsверхушки.
93
313931
5297
Нейроны медленно двигаются в аксонах,
максимум 100 метров в секунду.
05:31
But in computersкомпьютеры, signalsсигналы can travelпутешествовать
at the speedскорость of lightлегкий.
94
319228
3111
А в компьютерах сигналы могут
путешествовать со скоростью света.
05:35
There are alsoтакже sizeразмер limitationsограничения,
95
323079
1869
Есть также ограничения по размеру.
05:36
like a humanчеловек brainголовной мозг has
to fitпоместиться insideвнутри a craniumчереп,
96
324948
3027
Человеческий мозг
обязан умещаться внутри черепа,
05:39
but a computerкомпьютер can be the sizeразмер
of a warehouseсклад or largerбольше.
97
327975
4761
а компьютер может быть
размером со склад или даже больше.
05:44
So the potentialпотенциал for superintelligenceсуперинтеллект
liesвранье dormantбездействующий in matterдело,
98
332736
5599
Потенциал для интеллекта
дремлет в материи,
05:50
much like the powerмощность of the atomатом
layпрокладывать dormantбездействующий throughoutна протяжении humanчеловек historyистория,
99
338335
5712
так же как энергия атома дремала
на протяжении всей человеческой истории,
05:56
patientlyтерпеливо waitingожидание there untilдо 1945.
100
344047
4405
терпеливо ожидая 1945 года.
06:00
In this centuryвека,
101
348452
1248
В этом столетии
06:01
scientistsученые mayмай learnучить to awakenпробуждать
the powerмощность of artificialискусственный intelligenceинтеллект.
102
349700
4118
учёные могут узнать, как пробудить
энергию искусственного интеллекта.
06:05
And I think we mightмог бы then see
an intelligenceинтеллект explosionвзрыв.
103
353818
4008
И я думаю, что тогда мы могли бы
увидеть взрыв интеллекта.
06:10
Now mostбольшинство people, when they think
about what is smartумная and what is dumbтупой,
104
358406
3957
Сейчас большинство людей, когда они думают
о том, что умно, а что глупо,
06:14
I think have in mindразум a pictureкартина
roughlyгрубо like this.
105
362363
3023
думаю у них в голове
примерно такая картинка.
06:17
So at one endконец we have the villageдеревня idiotидиот,
106
365386
2598
На одном конце у нас есть
деревенский идиот,
06:19
and then farдалеко over at the other sideбоковая сторона
107
367984
2483
а далеко на другой стороне
06:22
we have Edиздание WittenВиттен, or AlbertАльберт EinsteinЭйнштейн,
or whoeverкто бы ни your favoriteлюбимый guruгуру is.
108
370467
4756
у нас есть Эд Уиттен или Альберт Эйнштейн,
или кто-либо из ваших любимых гуру.
06:27
But I think that from the pointточка of viewПосмотреть
of artificialискусственный intelligenceинтеллект,
109
375223
3834
Но я думаю, что с точки зрения
искусственного интеллекта
06:31
the trueправда pictureкартина is actuallyна самом деле
probablyвероятно more like this:
110
379057
3681
настоящая картинка выглядит
примерно вот так.
06:35
AIискусственный интеллект startsначинается out at this pointточка here,
at zeroнуль intelligenceинтеллект,
111
383258
3378
ИИ начинается отсюда,
в нулевом интеллекте
06:38
and then, after manyмногие, manyмногие
yearsлет of really hardжесткий work,
112
386636
3011
и затем, после многих, многих лет
очень тяжёлой работы,
06:41
maybe eventuallyв итоге we get to
mouse-levelмышь уровня artificialискусственный intelligenceинтеллект,
113
389647
3844
может быть, в итоге, мы получим
искусственный интеллект уровня мыши.
06:45
something that can navigateпроводить
clutteredзагроможден environmentsокружающая среда
114
393491
2430
Что-то, что сможет перемещаться
по беспорядочным средам,
06:47
as well as a mouseмышь can.
115
395921
1987
также как может мышь.
06:49
And then, after manyмногие, manyмногие more yearsлет
of really hardжесткий work, lots of investmentинвестиции,
116
397908
4313
Затем, после многих, многих лет
тяжёлой работы, множества инвестиций,
06:54
maybe eventuallyв итоге we get to
chimpanzee-levelШимпанзе уровня artificialискусственный intelligenceинтеллект.
117
402221
4639
может быть, в итоге, мы получим
искусственный интеллект уровня шимпанзе.
06:58
And then, after even more yearsлет
of really, really hardжесткий work,
118
406860
3210
Затем, после многих, многих лет
очень, очень тяжёлой работы,
07:02
we get to villageдеревня idiotидиот
artificialискусственный intelligenceинтеллект.
119
410070
2913
мы придём к искусственному интеллекту
деревенского дурачка.
07:04
And a fewмало momentsмоменты laterпозже,
we are beyondза Edиздание WittenВиттен.
120
412983
3272
И несколько мгновений спустя
окажемся дальше Эда Уиттена.
07:08
The trainпоезд doesn't stop
at HumanvilleHumanville Stationстанция.
121
416255
2970
Поезд не останавливается
на станции «Человечество».
07:11
It's likelyвероятно, ratherскорее, to swooshгалочка right by.
122
419225
3022
Скорее он со свистом пронесётся мимо.
07:14
Now this has profoundглубокий implicationsпоследствия,
123
422247
1984
У этого далеко идущие последствия,
07:16
particularlyв частности when it comesвыходит
to questionsвопросов of powerмощность.
124
424231
3862
особенно когда это касается
вопросов энергии.
07:20
For exampleпример, chimpanzeesшимпанзе are strongсильный --
125
428093
1899
Например, шимпанзе сильные
07:21
poundфунт for poundфунт, a chimpanzeeшимпанзе is about
twiceдважды as strongсильный as a fitпоместиться humanчеловек maleмужской.
126
429992
5222
во всех отношениях, шимпанзе примерно
в два раза сильнее мужчины в форме.
07:27
And yetвсе же, the fateсудьба of KanziKanzi
and his palsдружки dependsзависит a lot more
127
435214
4614
И ещё — судьба Канзи и его товарищей
гораздо больше зависит
07:31
on what we humansлюди do than on
what the chimpanzeesшимпанзе do themselvesсамих себя.
128
439828
4140
от людей, чем от самих шимпанзе.
07:37
Onceоднажды there is superintelligenceсуперинтеллект,
129
445228
2314
Как только появится суперинтеллект,
07:39
the fateсудьба of humanityчеловечество mayмай dependзависеть
on what the superintelligenceсуперинтеллект does.
130
447542
3839
судьба человечества может зависеть
от того, что будет делать суперинтеллект.
07:44
Think about it:
131
452451
1057
Подумайте об этом:
07:45
MachineМашина intelligenceинтеллект is the last inventionизобретение
that humanityчеловечество will ever need to make.
132
453508
5044
машинный интеллект —
последнее изобретение человечества.
07:50
MachinesМашины will then be better
at inventingизобретая than we are,
133
458552
2973
Тогда машины будут лучше
в изобретениях, чем мы,
07:53
and they'llони будут be doing so
on digitalцифровой timescalesСроки.
134
461525
2540
и они будут это делать
с цифровой скоростью.
07:56
What this meansозначает is basicallyв основном
a telescopingтелескопическая of the futureбудущее.
135
464065
4901
Это означает
телескопичность будущего.
08:00
Think of all the crazyпсих technologiesтехнологии
that you could have imaginedвообразил
136
468966
3558
Подумайте обо всех
сумасшедших технологиях,
08:04
maybe humansлюди could have developedразвитая
in the fullnessполнота of time:
137
472524
2798
которые люди могли бы открыть,
имея время в избытке:
08:07
curesзатвердевает for agingстарение, spaceпространство colonizationколонизация,
138
475322
3258
лекарства от старения,
колонизация космоса,
08:10
self-replicatingсамостоятельно тиражирование nanobotsнанороботы or uploadingзагрузка
of mindsумов into computersкомпьютеры,
139
478580
3731
самовоспроизводящиеся нанороботы
или загрузка мозгов в компьютеры,
08:14
all kindsвиды of scienceнаука fiction-yфикция-й stuffматериал
140
482311
2159
все виды вещей из научной фантастики,
08:16
that's neverthelessтем не менее consistentпоследовательный
with the lawsзаконы of physicsфизика.
141
484470
2737
в рамках законов физики, конечно.
08:19
All of this superintelligenceсуперинтеллект could
developразвивать, and possiblyвозможно quiteдовольно rapidlyбыстро.
142
487207
4212
Всё это мог бы открыть суперинтеллект
и, возможно, довольно таки быстро.
08:24
Now, a superintelligenceсуперинтеллект with suchтакие
technologicalтехнологический maturityзрелость
143
492449
3558
Суперинтеллект
с такой технологической зрелостью
08:28
would be extremelyочень powerfulмощный,
144
496007
2179
был бы чрезвычайно влиятельным,
08:30
and at leastнаименее in some scenariosсценарии,
it would be ableв состоянии to get what it wants.
145
498186
4546
и, по крайней мере по некоторым сценариям,
он сможет получить всё, что захочет.
08:34
We would then have a futureбудущее that would
be shapedфасонный by the preferencesпредпочтения of this A.I.
146
502732
5661
Мы бы тогда имели будущее,
сформированное предпочтениями этого ИИ.
08:41
Now a good questionвопрос is,
what are those preferencesпредпочтения?
147
509855
3749
Теперь интересный вопрос в том,
каковы эти предпочтения?
08:46
Here it getsполучает trickierхитрее.
148
514244
1769
Тут всё хитрее.
08:48
To make any headwayпродвижение вперед with this,
149
516013
1435
Чтобы как-то сдвинуться,
08:49
we mustдолжен first of all
avoidизбежать anthropomorphizinganthropomorphizing.
150
517448
3276
прежде всего мы обязаны
избегать очеловечивания.
08:53
And this is ironicиронический because
everyкаждый newspaperгазета articleстатья
151
521934
3301
И это иронично, потому что
в каждой газетной статье
08:57
about the futureбудущее of A.I.
has a pictureкартина of this:
152
525235
3855
о будущем ИИ есть такая картинка.
09:02
So I think what we need to do is
to conceiveзачать of the issueвопрос more abstractlyотвлеченно,
153
530280
4134
Я думаю, что нам необходимо
представить проблему более абстрактно,
09:06
not in termsсроки of vividяркий HollywoodГолливуд scenariosсценарии.
154
534414
2790
без ярких голливудских сценариев.
09:09
We need to think of intelligenceинтеллект
as an optimizationоптимизация processобработать,
155
537204
3617
Нам нужно подумать об интеллекте,
как о процессе оптимизации,
09:12
a processобработать that steersбычков the futureбудущее
into a particularконкретный setзадавать of configurationsконфигурации.
156
540821
5649
процессе, регулирующем будущее
в определённый набор конфигураций.
09:18
A superintelligenceсуперинтеллект is
a really strongсильный optimizationоптимизация processобработать.
157
546470
3511
Суперинтеллект это очень сильный
процесс оптимизации.
09:21
It's extremelyочень good at usingс помощью
availableдоступный meansозначает to achieveдостигать a stateгосударство
158
549981
4117
Он чрезвычайно хорош
в использовании доступных средств
09:26
in whichкоторый its goalЦель is realizedпонял.
159
554098
1909
для достижения цели.
09:28
This meansозначает that there is no necessaryнеобходимо
conenctionconenction betweenмежду
160
556447
2672
Это значит, что нет
обязательной связи между
09:31
beingявляющийся highlyвысоко intelligentумный in this senseсмысл,
161
559119
2734
«быть очень интеллектуальным»
в этом смысле
09:33
and havingимеющий an objectiveзадача that we humansлюди
would find worthwhileстоит or meaningfulзначимым.
162
561853
4662
и «иметь цель, которую мы люди
нашли бы стоящей и значимой».
09:39
Supposeпредполагать we give an A.I. the goalЦель
to make humansлюди smileулыбка.
163
567321
3794
Предположим, что мы дали ИИ цель —
«улыбнуть» людей.
09:43
When the A.I. is weakслабый, it performsвыполняет usefulполезным
or amusingзабавный actionsдействия
164
571115
2982
Когда ИИ слаб, он выполняет
полезные и забавные действия,
09:46
that causeпричина its userпользователь to smileулыбка.
165
574097
2517
которые вызывают улыбку у пользователя.
09:48
When the A.I. becomesстановится superintelligentСверхразумных,
166
576614
2417
Когда ИИ становится суперумным,
09:51
it realizesпонимает that there is a more
effectiveэффективный way to achieveдостигать this goalЦель:
167
579031
3523
он понимает, что существует более
эффективный способ достичь эту цель:
09:54
take controlконтроль of the worldМир
168
582554
1922
взять мир под контроль
09:56
and stickпридерживаться electrodesэлектроды into the facialлицевой
musclesмышцы of humansлюди
169
584476
3162
и вживлять электроды
в лицевые мышцы людей,
09:59
to causeпричина constantпостоянная, beamingлучезарный grinsухмыляется.
170
587638
2941
вызывая постоянные сияющие улыбки.
10:02
AnotherДругая exampleпример,
171
590579
1035
Другой пример.
10:03
supposeпредполагать we give A.I. the goalЦель to solveрешать
a difficultсложно mathematicalматематическая problemпроблема.
172
591614
3383
Предположим, мы даём ИИ цель —
решить трудную математическую проблему.
10:06
When the A.I. becomesстановится superintelligentСверхразумных,
173
594997
1937
Когда ИИ становится суперумным,
10:08
it realizesпонимает that the mostбольшинство effectiveэффективный way
to get the solutionрешение to this problemпроблема
174
596934
4171
он понимает, что самый эффективный способ
решить проблему —
10:13
is by transformingпревращение the planetпланета
into a giantгигант computerкомпьютер,
175
601105
2930
преобразовать планету
в гигантский компьютер,
10:16
so as to increaseувеличение its thinkingмышление capacityвместимость.
176
604035
2246
чтобы улучшить
свою мыслительную способность.
10:18
And noticeуведомление that this givesдает the A.I.s
an instrumentalинструментальный reasonпричина
177
606281
2764
И заметьте, что это даёт ИИ
инструментальное обоснование
10:21
to do things to us that we
mightмог бы not approveодобрить of.
178
609045
2516
делать для нас вещи,
которые мы можем не одобрить.
10:23
HumanЧеловек beingsсущества in this modelмодель are threatsугрозы,
179
611561
1935
Люди в этой модели являются угрозами —
10:25
we could preventне допустить the mathematicalматематическая
problemпроблема from beingявляющийся solvedрешена.
180
613496
2921
мы могли препятствовать решению
математической проблемы.
10:29
Of courseкурс, perceivablyощутимо things won'tне будет
go wrongнеправильно in these particularконкретный waysпути;
181
617207
3494
Конечно, вещи не выйдут из-под контроля
именно такими способами,
10:32
these are cartoonмультфильм examplesПримеры.
182
620701
1753
это надуманные примеры.
10:34
But the generalГенеральная pointточка here is importantважный:
183
622454
1939
Но главная суть здесь важна:
10:36
if you createСоздайте a really powerfulмощный
optimizationоптимизация processобработать
184
624393
2873
если вы создаёте
очень мощный процесс оптимизации
10:39
to maximizeмаксимизировать for objectiveзадача x,
185
627266
2234
для максимизации цели «икс»,
10:41
you better make sure
that your definitionопределение of x
186
629500
2276
вам лучше убедиться,
что ваше определение «икс»
10:43
incorporatesвключает в себя everything you careзабота about.
187
631776
2469
включает всё, что вас волнует.
10:46
This is a lessonурок that's alsoтакже taughtучил
in manyмногие a mythмиф.
188
634835
4384
Это урок, который также
давался во многих мифах.
10:51
Kingкороль MidasМидас wishesпожелания that everything
he touchesприкосновений be turnedоказалось into goldзолото.
189
639219
5298
Король Мидас желает, чтобы всё,
чего он касается, превращалось в золото.
10:56
He touchesприкосновений his daughterдочь,
she turnsвитки into goldзолото.
190
644517
2861
Он трогает свою дочь,
она превращается в золото.
10:59
He touchesприкосновений his foodпитание, it turnsвитки into goldзолото.
191
647378
2553
Он трогает свою еду,
она превращается в золото.
11:01
This could becomeстали practicallyпрактически relevantСоответствующий,
192
649931
2589
Это могло стать актуальным на практике,
11:04
not just as a metaphorметафора for greedжадность,
193
652520
2070
не только как метафора для жадности,
11:06
but as an illustrationиллюстрация of what happensпроисходит
194
654590
1895
но как иллюстрация возможности,
11:08
if you createСоздайте a powerfulмощный
optimizationоптимизация processобработать
195
656485
2837
что будет, если вы создадите
мощный процесс оптимизации
11:11
and give it misconceivedзаблуждению
or poorlyплохо specifiedуказанный goalsцели.
196
659322
4789
и дадите ему неправильное представление
или плохо определённые цели.
11:16
Now you mightмог бы say, if a computerкомпьютер startsначинается
stickingприлипание electrodesэлектроды into people'sнародный facesлица,
197
664111
5189
Вы можете сказать, что если компьютер
начнёт вживлять электроды в лица людей,
11:21
we'dмы б just shutзакрыть it off.
198
669300
2265
мы просто отключим его.
11:24
A, this is not necessarilyобязательно so easyлегко to do
if we'veмы в grownвзрослый dependentзависимый on the systemсистема --
199
672555
5340
А) это не обязательно легко сделать,
если мы стали зависимыми от системы.
11:29
like, where is the off switchпереключатель
to the Internetинтернет?
200
677895
2732
Например, где кнопка отключения интернета?
11:32
B, why haven'tне the chimpanzeesшимпанзе
flickedщелкнул the off switchпереключатель to humanityчеловечество,
201
680627
5120
Б) почему шимпанзе не отключили
кнопку человечества
11:37
or the Neanderthalsнеандертальцы?
202
685747
1551
или неандертальцы?
11:39
They certainlyбезусловно had reasonsпричины.
203
687298
2666
У них определённо были причины.
11:41
We have an off switchпереключатель,
for exampleпример, right here.
204
689964
2795
У нас есть кнопка выключения,
например, прямо здесь.
11:44
(ChokingЗадыхаясь)
205
692759
1554
(Душит)
11:46
The reasonпричина is that we are
an intelligentумный adversaryсостязательный;
206
694313
2925
Причина в том, что мы
интеллектуальные соперники:
11:49
we can anticipateпредвидеть threatsугрозы
and planплан around them.
207
697238
2728
мы можем предвидеть угрозы
и планировать обходные пути.
11:51
But so could a superintelligentСверхразумных agentагент,
208
699966
2504
Но это может и суперумный агент,
11:54
and it would be much better
at that than we are.
209
702470
3254
и он будет намного лучше в этом, чем мы.
11:57
The pointточка is, we should not be confidentуверенная в себе
that we have this underпод controlконтроль here.
210
705724
7187
Суть в том, что мы не должны быть уверены,
что у нас это под контролем.
12:04
And we could try to make our jobработа
a little bitнемного easierПолегче by, say,
211
712911
3447
И мы могли бы попытаться сделать
нашу работу проще, скажем,
12:08
puttingсдачи the A.I. in a boxкоробка,
212
716358
1590
запихнув ИИ в коробку,
12:09
like a secureбезопасный softwareпрограммного обеспечения environmentОкружающая среда,
213
717948
1796
в безопасную программную среду,
12:11
a virtualвиртуальный realityреальность simulationмоделирование
from whichкоторый it cannotне могу escapeпобег.
214
719744
3022
виртуальную имитацию реальности
из которой он не сможет сбежать.
12:14
But how confidentуверенная в себе can we be that
the A.I. couldn'tне может find a bugошибка.
215
722766
4146
Но насколько мы можем быть уверены,
что ИИ не сможет найти такую ошибку.
12:18
GivenДанный that merelyпросто humanчеловек hackersхакерам
find bugsошибки all the time,
216
726912
3169
Учитывая, что даже человеческие хакеры
находят ошибки всё время,
12:22
I'd say, probablyвероятно not very confidentуверенная в себе.
217
730081
3036
я бы сказал, возможно, не очень уверены.
12:26
So we disconnectОтключить the ethernetлокальные сети cableкабель
to createСоздайте an airвоздух gapразрыв,
218
734237
4548
Мы отсоединили сетевой кабель,
чтобы создать воздушный зазор.
12:30
but again, like merelyпросто humanчеловек hackersхакерам
219
738785
2668
Но опять же, человеческие хакеры
12:33
routinelyобычно transgressпреступать airвоздух gapsпробелы
usingс помощью socialСоциальное engineeringинжиниринг.
220
741453
3381
регулярно нарушают воздушные зазоры,
используя социальную инженерию.
12:36
Right now, as I speakговорить,
221
744834
1259
В то время как я говорю,
12:38
I'm sure there is some employeeнаемный рабочий
out there somewhereгде-то
222
746093
2389
я уверен, где-то там
есть некий работник,
12:40
who has been talkedговорили into handingвручая out
her accountСчет detailsДетали
223
748482
3346
которого убедил раскрыть свой пароль
12:43
by somebodyкто-то claimingутверждая, to be
from the I.T. departmentотдел.
224
751828
2746
кто-то, утверждающий,
что он из отдела ИТ.
12:46
More creativeтворческий scenariosсценарии are alsoтакже possibleвозможное,
225
754574
2127
Возможно, будут
ещё более творческие сценарии,
12:48
like if you're the A.I.,
226
756701
1315
как если бы ИИ
12:50
you can imagineпредставить wigglingшевелить electrodesэлектроды
around in your internalвнутренний circuitryсхема
227
758016
3532
представлялся вам шевелящимися
электродами вокруг вашей внутренней схемы,
12:53
to createСоздайте radioрадио wavesволны that you
can use to communicateобщаться.
228
761548
3462
создающим радиоволны, которые
вы можете использовать для общения.
12:57
Or maybe you could pretendделать вид to malfunctionнеисправность,
229
765010
2424
Или, может, вы могли бы
симулировать сбои,
12:59
and then when the programmersпрограммисты openоткрытый
you up to see what wentотправился wrongнеправильно with you,
230
767434
3497
и затем, когда программисты вскроют вас,
что же с вами пошло не так,
13:02
they look at the sourceисточник codeкод -- BamBam! --
231
770931
1936
они посмотрят на исходный код — Бам!
13:04
the manipulationманипуляция can take placeместо.
232
772867
2447
Манипуляция имеет место быть.
13:07
Or it could outputвывод the blueprintплан
to a really niftyщегольской technologyтехнологии,
233
775314
3430
Или он может напечатать схему
действительно отличной технологии,
13:10
and when we implementвоплощать в жизнь it,
234
778744
1398
и когда мы реализуем её,
13:12
it has some surreptitiousподпольный sideбоковая сторона effectэффект
that the A.I. had plannedпланируемый.
235
780142
4397
будут некоторые тайные побочные эффекты,
которые ИИ уже спланировал.
13:16
The pointточка here is that we should
not be confidentуверенная в себе in our abilityспособность
236
784539
3463
Суть здесь в том, что мы не должны
быть уверены в нашей способности
13:20
to keep a superintelligentСверхразумных genieджинн
lockedзапертый up in its bottleбутылка foreverнавсегда.
237
788002
3808
вечно держать сверхразумного
джина взаперти в бутылке.
13:23
Soonerрано or laterпозже, it will out.
238
791810
2254
Рано или поздно он выйдет наружу.
13:27
I believe that the answerответ here
is to figureфигура out
239
795034
3103
Я верю, что ответ заключается в том,
чтобы выяснить,
13:30
how to createСоздайте superintelligentСверхразумных A.I.
suchтакие that even if -- when -- it escapesускользает,
240
798137
5024
как создать сверхразумный ИИ с учётом, что если он сбежит,
13:35
it is still safeбезопасно because it is
fundamentallyв корне on our sideбоковая сторона
241
803161
3277
он всё равно будет безопасен, потому что
он по существу на нашей стороне
13:38
because it sharesакции our valuesзначения.
242
806438
1899
и разделяет наши ценности.
13:40
I see no way around
this difficultсложно problemпроблема.
243
808337
3210
Я не вижу путей обхода
этой сложной проблемы.
13:44
Now, I'm actuallyна самом деле fairlyдовольно optimisticоптимистичный
that this problemпроблема can be solvedрешена.
244
812557
3834
Вообще я довольно оптимистичен,
что эту проблему можно решить.
13:48
We wouldn'tне будет have to writeзаписывать down
a long listсписок of everything we careзабота about,
245
816391
3903
Не нужно писать длинный список
всего что нас волнует,
13:52
or worseхуже yetвсе же, spellорфографии it out
in some computerкомпьютер languageязык
246
820294
3643
или ещё хуже, расшифровывать
это на каком-нибудь компьютерном языке,
13:55
like C++ or Pythonпитон,
247
823937
1454
как C++ или Python.
13:57
that would be a taskзадача beyondза hopelessбезнадежный.
248
825391
2767
Это было бы безнадёжной задачей.
14:00
InsteadВместо, we would createСоздайте an A.I.
that usesиспользования its intelligenceинтеллект
249
828158
4297
Вместо этого мы бы создали ИИ,
который использует свой интеллект
14:04
to learnучить what we valueстоимость,
250
832455
2771
для познания того, чем мы дорожим.
14:07
and its motivationмотивация systemсистема is constructedпостроенный
in suchтакие a way that it is motivatedмотивировано
251
835226
5280
ИИ, который был бы мотивирован
преследовать наши ценности
14:12
to pursueпреследовать our valuesзначения or to performвыполнять actionsдействия
that it predictsпредсказывает we would approveодобрить of.
252
840506
5232
или выполнять действия,
наше одобрение на которые он предсказал.
14:17
We would thusтаким образом leverageлевередж
its intelligenceинтеллект as much as possibleвозможное
253
845738
3414
Следовательно, мы бы использовали
его интеллект как можно больше,
14:21
to solveрешать the problemпроблема of value-loadingстоимость погрузки.
254
849152
2745
чтобы решить проблему наполнения ценностями.
14:24
This can happenслучаться,
255
852727
1512
Это может произойти,
14:26
and the outcomeисход could be
very good for humanityчеловечество.
256
854239
3596
и результат может быть
очень полезен для человечества.
14:29
But it doesn't happenслучаться automaticallyавтоматически.
257
857835
3957
Но это не произойдёт автоматически.
14:33
The initialначальная conditionsусловия
for the intelligenceинтеллект explosionвзрыв
258
861792
2998
Начальные условия
для взрыва интеллекта
14:36
mightмог бы need to be setзадавать up
in just the right way
259
864790
2863
нуждаются в правильной установке,
14:39
if we are to have a controlledконтролируемый detonationдетонация.
260
867653
3530
если мы хотим иметь
контролируемый взрыв.
14:43
The valuesзначения that the A.I. has
need to matchсовпадение oursнаш,
261
871183
2618
Ценности ИИ должны
согласовываться с нашими,
14:45
not just in the familiarзнакомые contextконтекст,
262
873801
1760
не просто в знакомых контекстах,
14:47
like where we can easilyбез труда checkпроверить
how the A.I. behavesведет себя,
263
875561
2438
где мы можем легко проверить,
как ИИ себя ведёт,
14:49
but alsoтакже in all novelроман contextsконтексты
that the A.I. mightмог бы encounterстолкновение
264
877999
3234
но также во всех новых контекстах,
с которыми ИИ может столкнуться
14:53
in the indefiniteнеопределенный futureбудущее.
265
881233
1557
в неопределённом будущем.
14:54
And there are alsoтакже some esotericтайный issuesвопросы
that would need to be solvedрешена, sortedотсортированный out:
266
882790
4737
Также, есть несколько необычных проблем,
которые нам необходимо решить:
14:59
the exactточный detailsДетали of its decisionрешение theoryтеория,
267
887527
2089
точные детали его теории принятия решений,
15:01
how to dealпо рукам with logicalлогический
uncertaintyнеопределенность and so forthвперед.
268
889616
2864
как обращаться с логической
неуверенностью и так далее.
15:05
So the technicalтехнический problemsпроблемы that need
to be solvedрешена to make this work
269
893330
3102
Технические проблемы,
нужные для завершения этой работы,
15:08
look quiteдовольно difficultсложно --
270
896432
1113
выглядят весьма трудно,
15:09
not as difficultсложно as makingизготовление
a superintelligentСверхразумных A.I.,
271
897545
3380
не так трудно,
как создание сверхразумного ИИ,
15:12
but fairlyдовольно difficultсложно.
272
900925
2868
но довольно трудно.
15:15
Here is the worryбеспокоиться:
273
903793
1695
Вот что нас волнует:
15:17
MakingИзготовление superintelligentСверхразумных A.I.
is a really hardжесткий challengeвызов.
274
905488
4684
создание сверхразумного ИИ —
действительно сложная задача.
15:22
MakingИзготовление superintelligentСверхразумных A.I. that is safeбезопасно
275
910172
2548
Создание сверхразумного и безопасного ИИ
15:24
involvesвключает в себя some additionalдополнительный
challengeвызов on topВверх of that.
276
912720
2416
включает в себя ещё некоторые
дополнительные проблемы.
15:28
The riskриск is that if somebodyкто-то figuresцифры out
how to crackтрещина the first challengeвызов
277
916216
3487
Риск в том, что кто-то
сможет решить первую задачу
15:31
withoutбез alsoтакже havingимеющий crackedтреснувший
the additionalдополнительный challengeвызов
278
919703
3001
без решения второй задачи,
15:34
of ensuringобеспечение perfectидеально safetyбезопасность.
279
922704
1901
без обеспечения безопасности.
15:37
So I think that we should
work out a solutionрешение
280
925375
3331
Я думаю, мы должны заранее найти
15:40
to the controlконтроль problemпроблема in advanceпродвижение,
281
928706
2822
решение проблемы контроля,
15:43
so that we have it availableдоступный
by the time it is neededнеобходимый.
282
931528
2660
чтобы оно было доступно,
когда понадобится.
15:46
Now it mightмог бы be that we cannotне могу solveрешать
the entireвсе controlконтроль problemпроблема in advanceпродвижение
283
934768
3507
Возможно, мы не сможем решить
проблему контроля целиком и заранее,
15:50
because maybe some elementsэлементы
can only be put in placeместо
284
938275
3024
потому что, возможно, некоторые
элементы могут быть разработаны
15:53
onceодин раз you know the detailsДетали of the
architectureархитектура where it will be implementedреализованы.
285
941299
3997
только со знанием деталей архитектуры
места реализации.
15:57
But the more of the controlконтроль problemпроблема
that we solveрешать in advanceпродвижение,
286
945296
3380
Но чем большую часть проблемы контроля
мы решим заранее,
16:00
the better the oddsшансы that the transitionпереход
to the machineмашина intelligenceинтеллект eraэпоха
287
948676
4090
тем больше наши шансы
на благополучный переход
16:04
will go well.
288
952766
1540
к эре машинного интеллекта.
16:06
This to me looksвыглядит like a thing
that is well worthстоимость doing
289
954306
4644
Для меня это выглядит
проблемой, достойной решения,
16:10
and I can imagineпредставить that if
things turnочередь out okay,
290
958950
3332
и я могу представить,
что если всё пойдёт хорошо,
16:14
that people a millionмиллиона yearsлет from now
look back at this centuryвека
291
962282
4658
через миллион лет люди взглянут назад
на этот век, и, вполне возможно,
16:18
and it mightмог бы well be that they say that
the one thing we did that really matteredимело значение
292
966940
4002
они скажут,
что единственной важной вещью
16:22
was to get this thing right.
293
970942
1567
была именно эта.
16:24
Thank you.
294
972509
1689
Спасибо.
16:26
(ApplauseАплодисменты)
295
974198
2813
(Аплодисменты)
Translated by Marina Vereshchagina
Reviewed by Myo Aung

▲Back to top

ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee