ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com
TEDSummit

Sam Harris: Can we build AI without losing control over it?

Сэм Харрис: Можем ли мы создать ИИ и сохранить над ним контроль?

Filmed:
5,024,015 views

Сверхразумный искусственный интеллект внушает страх? Так и должно быть, говорит нейробиолог и философ Сэм Харрис, и не только в гипотетической перспективе. Мы неминуемо создадим машины со сверхчеловеческими способностями, говорит Харрис, но мы ещё не решили проблемы, связанные с созданием того, что, возможно, станет обращаться с нами так же, как мы обращаемся с муравьями.
- Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live. Full bio

Double-click the English transcript below to play the video.

00:13
I'm going to talk
about a failureотказ of intuitionинтуиция
0
1000
2216
Я хочу поговорить
о неспособности к интуиции,
00:15
that manyмногие of us sufferстрадать from.
1
3240
1600
от которой страдают многие из нас.
00:17
It's really a failureотказ
to detectобнаружить a certainопределенный kindсвоего рода of dangerОпасность.
2
5480
3040
Фактически, это неспособность
распознавать определённую опасность.
00:21
I'm going to describeописывать a scenarioсценарий
3
9360
1736
Я опишу сценарий,
00:23
that I think is bothи то и другое terrifyingужасающий
4
11120
3256
который назвал бы
одновременно пугающим
00:26
and likelyвероятно to occurпроисходить,
5
14400
1760
и вполне вероятным,
00:28
and that's not a good combinationсочетание,
6
16840
1656
и это не хорошее сочетание,
00:30
as it turnsвитки out.
7
18520
1536
как выясняется.
Всё же вместо того, чтобы пугаться,
многие подумают,
00:32
And yetвсе же ratherскорее than be scaredиспуганный,
mostбольшинство of you will feel
8
20080
2456
00:34
that what I'm talkingговорящий about
is kindсвоего рода of coolкруто.
9
22560
2080
что то, о чём я говорю, здóрово.
00:37
I'm going to describeописывать
how the gainsдоходы we make
10
25200
2976
Я расскажу, как наши достижения
00:40
in artificialискусственный intelligenceинтеллект
11
28200
1776
в развитии искусственного интеллекта
00:42
could ultimatelyв конечном счете destroyуничтожить us.
12
30000
1776
могут в итоге нас уничтожить.
00:43
And in factфакт, I think it's very difficultсложно
to see how they won'tне будет destroyуничтожить us
13
31800
3456
По-моему, вообще трудно понять,
как они могут нас не уничтожить
00:47
or inspireвнушать us to destroyуничтожить ourselvesсами.
14
35280
1680
или не побудить к самоуничтожению.
00:49
And yetвсе же if you're anything like me,
15
37400
1856
Всё же, если вы в чём-то схожи со мной,
00:51
you'llВы будете find that it's funвесело
to think about these things.
16
39280
2656
то вам нравится думать о таких вещах.
00:53
And that responseответ is partчасть of the problemпроблема.
17
41960
3376
И эта реакция — часть проблемы.
00:57
OK? That responseответ should worryбеспокоиться you.
18
45360
1720
Эта реакция должна вас беспокоить.
00:59
And if I were to convinceубеждать you in this talk
19
47920
2656
И если бы мне надо было убедить вас,
01:02
that we were likelyвероятно
to sufferстрадать a globalГлобальный famineголод,
20
50600
3416
что нам грозит всемирный голод
01:06
eitherили because of climateклимат changeизменение
or some other catastropheкатастрофа,
21
54040
3056
из-за изменения климата
или некой другой катастрофы
01:09
and that your grandchildrenвнучата,
or theirих grandchildrenвнучата,
22
57120
3416
и что ваши внуки или их внуки,
01:12
are very likelyвероятно to liveжить like this,
23
60560
1800
вероятно, будут жить вот так,
01:15
you wouldn'tне будет think,
24
63200
1200
вы бы не подумали:
01:17
"InterestingИнтересно.
25
65440
1336
«Интересно.
01:18
I like this TEDТЕД Talk."
26
66800
1200
Хорошее выступление».
01:21
FamineГолод isn't funвесело.
27
69200
1520
В голоде нет ничего забавного.
01:23
DeathСмерть by scienceнаука fictionфантастика,
on the other handрука, is funвесело,
28
71800
3376
Смерть от научной фантастики,
с другой стороны, — это круто,
01:27
and one of the things that worriesзаботы me mostбольшинство
about the developmentразвитие of AIискусственный интеллект at this pointточка
29
75200
3976
и меня очень сильно беспокоит
на данном этапе развития ИИ
наша неспособность к выстраиванию
подобающей эмоциональной реакции
01:31
is that we seemказаться unableне в состоянии to marshalмаршал
an appropriateподходящее emotionalэмоциональный responseответ
30
79200
4096
01:35
to the dangersопасности that lieложь aheadвпереди.
31
83320
1816
на ожидающие нас опасности.
01:37
I am unableне в состоянии to marshalмаршал this responseответ,
and I'm givingдающий this talk.
32
85160
3200
Я сам не могу выстроить эту реакцию,
потому и говорю об этом.
01:42
It's as thoughхоть we standстоять before two doorsдвери.
33
90120
2696
Как будто мы стои́м перед двумя дверьми.
01:44
BehindЗа doorдверь numberномер one,
34
92840
1256
За первой дверью
01:46
we stop makingизготовление progressпрогресс
in buildingздание intelligentумный machinesмашины.
35
94120
3296
у нас останавливается прогресс
в создании интеллектуальных устройств.
01:49
Our computerкомпьютер hardwareаппаратные средства and softwareпрограммного обеспечения
just stopsупоры gettingполучение better for some reasonпричина.
36
97440
4016
Аппаратное и программное обеспечение
почему-то больше не становится лучше.
01:53
Now take a momentмомент
to considerрассматривать why this mightмог бы happenслучаться.
37
101480
3000
Теперь на секунду задумайтесь,
почему это может произойти.
01:57
I mean, givenданный how valuableценный
intelligenceинтеллект and automationавтоматизация are,
38
105080
3656
Ведь учитывая, насколько ценны
интеллект и автоматизация,
02:00
we will continueПродолжать to improveулучшать our technologyтехнологии
if we are at all ableв состоянии to.
39
108760
3520
мы продолжим совершенствовать
технологии, пока способны на это.
02:05
What could stop us from doing this?
40
113200
1667
Что может нас остановить?
02:07
A full-scaleв натуральную величину nuclearядерной warвойна?
41
115800
1800
Полномасштабная ядерная война?
02:11
A globalГлобальный pandemicпандемия?
42
119000
1560
Глобальная пандемия?
02:14
An asteroidастероид impactвлияние?
43
122320
1320
Падение астероида?
02:17
JustinДжастин BieberBieber becomingстановление
presidentпрезидент of the Unitedобъединенный Statesсостояния?
44
125640
2576
Избрание Джастина Бибера президентом США?
02:20
(LaughterСмех)
45
128240
2280
(Смех)
02:24
The pointточка is, something would have to
destroyуничтожить civilizationцивилизация as we know it.
46
132760
3920
Суть в том, что что-то должно будет
уничтожить цивилизацию в нашем понимании.
02:29
You have to imagineпредставить
how badПлохо it would have to be
47
137360
4296
Только представьте себе,
насколько всё должно быть плохо,
02:33
to preventне допустить us from makingизготовление
improvementsулучшения in our technologyтехнологии
48
141680
3336
чтобы мы перестали
совершенствовать технологии
02:37
permanentlyпостоянно,
49
145040
1216
навсегда,
02:38
generationпоколение after generationпоколение.
50
146280
2016
на все грядущие поколения.
Практически по определению
это худшее,
02:40
AlmostПочти by definitionопределение,
this is the worstнаихудший thing
51
148320
2136
что может случиться с человечеством.
02:42
that's ever happenedполучилось in humanчеловек historyистория.
52
150480
2016
02:44
So the only alternativeальтернатива,
53
152520
1296
Единственная альтернатива,
02:45
and this is what liesвранье
behindза doorдверь numberномер two,
54
153840
2336
которая и находится за второй дверью, —
02:48
is that we continueПродолжать
to improveулучшать our intelligentумный machinesмашины
55
156200
3136
продолжение совершенствования
интеллектуальных устройств
02:51
yearгод after yearгод after yearгод.
56
159360
1600
из года в год.
02:53
At a certainопределенный pointточка, we will buildстроить
machinesмашины that are smarterумнее than we are,
57
161720
3640
В какой-то момент мы создадим
устройства, которые будут умнее нас,
02:58
and onceодин раз we have machinesмашины
that are smarterумнее than we are,
58
166080
2616
и когда такие устройства появятся,
они начнут улучшать себя сами.
03:00
they will beginначать to improveулучшать themselvesсамих себя.
59
168720
1976
И тогда появится риск того,
что математик И. Д. Гуд называл
03:02
And then we riskриск what
the mathematicianматематик IJИ.Я. Good calledназывается
60
170720
2736
03:05
an "intelligenceинтеллект explosionвзрыв,"
61
173480
1776
«взрывом интеллекта» —
03:07
that the processобработать could get away from us.
62
175280
2000
риск утраты нами контроля над процессом.
03:10
Now, this is oftenдовольно часто caricaturedкарикатурном,
as I have here,
63
178120
2816
Это часто изображают
в виде подобных картинок,
03:12
as a fearстрах that armiesармии of maliciousзлонамеренный robotsроботы
64
180960
3216
пугающих армиями злых роботов,
03:16
will attackатака us.
65
184200
1256
которые нападут на нас.
03:17
But that isn't the mostбольшинство likelyвероятно scenarioсценарий.
66
185480
2696
Но это не самый вероятный сценарий.
03:20
It's not that our machinesмашины
will becomeстали spontaneouslyспонтанно malevolentнедоброжелательный.
67
188200
4856
Проблема не в том, что наша техника
внезапно рассвирепеет.
03:25
The concernбеспокойство is really
that we will buildстроить machinesмашины
68
193080
2616
Беспокоит на самом деле то,
что мы создаём устройства,
03:27
that are so much
more competentкомпетентный than we are
69
195720
2056
которые настолько нас превосходят,
03:29
that the slightestмалейшее divergenceдивергенция
betweenмежду theirих goalsцели and our ownсвоя
70
197800
3776
что малейшее расхождение
между их целями и нашими
03:33
could destroyуничтожить us.
71
201600
1200
может нас уничтожить.
03:35
Just think about how we relateиметь отношение to antsмуравьи.
72
203960
2080
Подумайте о том, как мы
относимся к муравьям.
03:38
We don't hateненавидеть them.
73
206600
1656
Мы не ненавидим их.
03:40
We don't go out of our way to harmвред them.
74
208280
2056
Мы не лезем из кожи вон,
чтобы навредить им.
03:42
In factфакт, sometimesиногда
we take painsстрадания not to harmвред them.
75
210360
2376
На самом деле, иногда мы
стараемся не навредить им.
03:44
We stepшаг over them on the sidewalkтротуар.
76
212760
2016
Мы перешагиваем их на тротуаре.
03:46
But wheneverвсякий раз, когда theirих presenceприсутствие
77
214800
2136
Но если вдруг их присутствие
03:48
seriouslyшутки в сторону conflictsконфликты with one of our goalsцели,
78
216960
2496
серьёзно мешает нашим целям,
03:51
let's say when constructingстроительство
a buildingздание like this one,
79
219480
2477
например, если мы
строим здание вроде этого,
03:53
we annihilateаннигилировать them withoutбез a qualmопасение.
80
221981
1960
мы без колебаний их истребляем.
03:56
The concernбеспокойство is that we will
one day buildстроить machinesмашины
81
224480
2936
Беспокоит то, что однажды
мы создадим устройства,
03:59
that, whetherбудь то they're consciousсознательный or not,
82
227440
2736
которые независимо
от наличия у них сознания
04:02
could treatрассматривать us with similarаналогичный disregardневнимание.
83
230200
2000
могут так же пренебречь нами.
04:05
Now, I suspectподозреваемый this seemsкажется
far-fetchedнадуманный to manyмногие of you.
84
233760
2760
Я подозреваю, многим из вас
это кажется надуманным.
04:09
I betделать ставку there are those of you who doubtсомнение
that superintelligentСверхразумных AIискусственный интеллект is possibleвозможное,
85
237360
6336
Уверен, среди вас есть сомневающиеся
в возможности сверхразумного ИИ,
не говоря уж о его неизбежности.
04:15
much lessМеньше inevitableнеизбежный.
86
243720
1656
04:17
But then you mustдолжен find something wrongнеправильно
with one of the followingследующий assumptionsдопущения.
87
245400
3620
Значит, вы не согласны
с одним из следующих допущений.
04:21
And there are only threeтри of them.
88
249044
1572
Их всего три.
04:23
Intelligenceинтеллект is a matterдело of informationИнформация
processingобработка in physicalфизическое systemsсистемы.
89
251800
4719
Интеллект — это результат обработки
информации в физической системе.
04:29
ActuallyНа самом деле, this is a little bitнемного more
than an assumptionпредположение.
90
257320
2615
На самом деле это немного больше,
чем допущение.
04:31
We have alreadyуже builtпостроен
narrowузкий intelligenceинтеллект into our machinesмашины,
91
259959
3457
Мы заложили ограниченный интеллект
в свои технологии,
04:35
and manyмногие of these machinesмашины performвыполнять
92
263440
2016
и многие из них уже работают
04:37
at a levelуровень of superhumanсверхчеловеческий
intelligenceинтеллект alreadyуже.
93
265480
2640
на уровне сверхчеловеческого интеллекта.
04:40
And we know that mereвсего лишь matterдело
94
268840
2576
И мы знаем, что из одной лишь материи
возможно развитие так называемого
«общего интеллекта» —
04:43
can give riseподъем to what is calledназывается
"generalГенеральная intelligenceинтеллект,"
95
271440
2616
04:46
an abilityспособность to think flexiblyгибко
acrossчерез multipleмножественный domainsдомены,
96
274080
3656
способности к гибкому мышлению
в разных сферах,
04:49
because our brainsмозги have managedудалось it. Right?
97
277760
3136
потому что на это способен наш мозг.
Так?
04:52
I mean, there's just atomsатомы in here,
98
280920
3936
Я имею в виду: здесь всего лишь атомы,
04:56
and as long as we continueПродолжать
to buildстроить systemsсистемы of atomsатомы
99
284880
4496
и покуда мы продолжаем
создавать системы из атомов,
05:01
that displayдисплей more and more
intelligentумный behaviorповедение,
100
289400
2696
проявляющие всё более разумное поведение,
05:04
we will eventuallyв итоге,
unlessесли we are interruptedпрерванный,
101
292120
2536
в итоге мы — если ничто не помешает —
05:06
we will eventuallyв итоге
buildстроить generalГенеральная intelligenceинтеллект
102
294680
3376
в итоге мы наделим общим интеллектом
05:10
into our machinesмашины.
103
298080
1296
свои устройства.
05:11
It's crucialключевой to realizeпонимать
that the rateставка of progressпрогресс doesn't matterдело,
104
299400
3656
Очень важно осознавать,
что темп прогресса не важен,
05:15
because any progressпрогресс
is enoughдостаточно to get us into the endконец zoneзона.
105
303080
3176
потому что любой прогресс
может привести нас к конечному итогу.
05:18
We don't need Moore'sМур lawзакон to continueПродолжать.
We don't need exponentialэкспоненциальный progressпрогресс.
106
306280
3776
Нам не нужно, чтобы закон Мура работал.
Нам не нужен экспоненциальный прогресс.
05:22
We just need to keep going.
107
310080
1600
Нам просто нужно не останавливаться.
05:25
The secondвторой assumptionпредположение
is that we will keep going.
108
313480
2920
Второе предположение —
что мы не остановимся.
05:29
We will continueПродолжать to improveулучшать
our intelligentумный machinesмашины.
109
317000
2760
Мы продолжим улучшать
свои интеллектуальные устройства.
05:33
And givenданный the valueстоимость of intelligenceинтеллект --
110
321000
4376
И, учитывая ценность интеллекта —
05:37
I mean, intelligenceинтеллект is eitherили
the sourceисточник of everything we valueстоимость
111
325400
3536
ведь интеллект либо порождает всё,
что мы ценим,
05:40
or we need it to safeguardзащита
everything we valueстоимость.
112
328960
2776
либо нужен нам для защиты всего,
что мы ценим, —
05:43
It is our mostбольшинство valuableценный resourceресурс.
113
331760
2256
это наш ценнейший ресурс.
05:46
So we want to do this.
114
334040
1536
Поэтому мы хотим этим заниматься.
05:47
We have problemsпроблемы
that we desperatelyв отчаянии need to solveрешать.
115
335600
3336
У нас есть проблемы,
которые непременно нужно решить.
05:50
We want to cureлечение diseasesболезни
like Alzheimer'sБолезнь Альцгеймера and cancerрак.
116
338960
3200
Мы хотим излечить болезни
вроде Альцгеймера и рака.
05:54
We want to understandПонимаю economicэкономической systemsсистемы.
We want to improveулучшать our climateклимат scienceнаука.
117
342960
3936
Мы хотим понимать экономические системы.
Мы хотим больше знать о климате.
05:58
So we will do this, if we can.
118
346920
2256
Так что мы это сделаем, если сможем.
06:01
The trainпоезд is alreadyуже out of the stationстанция,
and there's no brakeтормоз to pullвытащить.
119
349200
3286
Поезд уже тронулся, и тóрмоза нет.
06:05
Finallyв заключение, we don't standстоять
on a peakвершина горы of intelligenceинтеллект,
120
353880
5456
Наконец, мы не на пике интеллекта
06:11
or anywhereв любом месте nearвозле it, likelyвероятно.
121
359360
1800
и даже не близко к нему, вероятно.
06:13
And this really is the crucialключевой insightв поле зрения.
122
361640
1896
И это действительно важно понимать.
06:15
This is what makesмарки
our situationситуация so precariousненадежный,
123
363560
2416
Именно из-за этого
наша система так уязвима,
06:18
and this is what makesмарки our intuitionsинтуитивные
about riskриск so unreliableненадежный.
124
366000
4040
а наши интуитивные оценки риска
так ненадёжны.
Теперь представьте умнейшего
из когда-либо живших людей.
06:23
Now, just considerрассматривать the smartestсмышленым personчеловек
who has ever livedжил.
125
371120
2720
06:26
On almostпочти everyone'sвсе это shortlistкороткий список here
is JohnДжон vonфон NeumannNeumann.
126
374640
3416
Почти все среди прочих называют
Джона фон Неймана.
Ведь впечатление, которое фон Нейман
производил на окружающих,
06:30
I mean, the impressionвпечатление that vonфон NeumannNeumann
madeсделал on the people around him,
127
378080
3336
06:33
and this includedвключены the greatestвеличайший
mathematiciansматематики and physicistsфизики of his time,
128
381440
4056
в том числе величайших математиков
и физиков своего времени,
06:37
is fairlyдовольно well-documentedхорошо документированы.
129
385520
1936
очень хорошо задокументировано.
06:39
If only halfполовина the storiesистории
about him are halfполовина trueправда,
130
387480
3776
Если половина историй о нём
хотя бы наполовину правдивы,
06:43
there's no questionвопрос
131
391280
1216
сомнений нет:
06:44
he's one of the smartestсмышленым people
who has ever livedжил.
132
392520
2456
он один из умнейших людей,
когда-либо живших.
06:47
So considerрассматривать the spectrumспектр of intelligenceинтеллект.
133
395000
2520
Подумайте о диапазоне
интеллектуальных способностей.
06:50
Here we have JohnДжон vonфон NeumannNeumann.
134
398320
1429
Здесь у нас Джон фон Нейман.
06:53
And then we have you and me.
135
401560
1334
Здесь мы с вами.
06:56
And then we have a chickenкурица.
136
404120
1296
А здесь курица.
06:57
(LaughterСмех)
137
405440
1936
(Смех)
06:59
Sorry, a chickenкурица.
138
407400
1216
Прошу прощения.
Курица.
07:00
(LaughterСмех)
139
408640
1256
(Смех)
07:01
There's no reasonпричина for me to make this talk
more depressingунылый than it needsпотребности to be.
140
409920
3736
Ни к чему делать эту лекцию
более депрессивной, чем надо.
07:05
(LaughterСмех)
141
413680
1600
(Смех)
07:08
It seemsкажется overwhelminglyв подавляющем большинстве случаев likelyвероятно, howeverОднако,
that the spectrumспектр of intelligenceинтеллект
142
416339
3477
Однако кажется чрезвычайно вероятным,
что интеллект варьируется
07:11
extendsпродолжается much furtherв дальнейшем
than we currentlyВ данный момент conceiveзачать,
143
419840
3120
в куда бóльших масштабах,
чем мы себе сейчас представляем,
07:15
and if we buildстроить machinesмашины
that are more intelligentумный than we are,
144
423880
3216
и если мы создадим устройства,
которые будут умнее нас,
07:19
they will very likelyвероятно
exploreисследовать this spectrumспектр
145
427120
2296
они, очень вероятно,
будут осваивать эти масштабы
07:21
in waysпути that we can't imagineпредставить,
146
429440
1856
невообразимыми для нас способами
07:23
and exceedпревышать us in waysпути
that we can't imagineпредставить.
147
431320
2520
и превзойдут нас невообразимыми способами.
07:27
And it's importantважный to recognizeпризнать that
this is trueправда by virtueдобродетель of speedскорость aloneв одиночестве.
148
435000
4336
И важно признавать, что это верно
в силу одной только скорости.
07:31
Right? So imagineпредставить if we just builtпостроен
a superintelligentСверхразумных AIискусственный интеллект
149
439360
5056
Так? Представьте, что мы построили
сверхразумный ИИ,
07:36
that was no smarterумнее
than your averageв среднем teamкоманда of researchersисследователи
150
444440
3456
который не умнее
среднестатистической группы учёных
07:39
at StanfordStanford or MITMIT.
151
447920
2296
из Стэнфорда или МТИ.
Электронные схемы примерно
в миллион раз быстрее
07:42
Well, electronicэлектронный circuitsсхемы
functionфункция about a millionмиллиона timesраз fasterБыстрее
152
450240
2976
07:45
than biochemicalбиохимический onesте,,
153
453240
1256
биохимических,
07:46
so this machineмашина should think
about a millionмиллиона timesраз fasterБыстрее
154
454520
3136
поэтому машина будет думать
в миллион раз быстрее,
07:49
than the mindsумов that builtпостроен it.
155
457680
1816
чем создавший её разум.
07:51
So you setзадавать it runningБег for a weekнеделю,
156
459520
1656
Вы запускаете её на неделю,
07:53
and it will performвыполнять 20,000 yearsлет
of human-levelчеловеческий уровень intellectualинтеллектуальной work,
157
461200
4560
и она выполняет 20 000-летнюю
работу интеллекта человеческого уровня
07:58
weekнеделю after weekнеделю after weekнеделю.
158
466400
1960
неделю за неделей.
08:01
How could we even understandПонимаю,
much lessМеньше constrainсдерживать,
159
469640
3096
Как мы только можем понять,
не говоря о том, чтобы сдержать,
08:04
a mindразум makingизготовление this sortСортировать of progressпрогресс?
160
472760
2280
ум, работающий с подобной скоростью?
08:08
The other thing that's worryingбеспокойство, franklyОткровенно,
161
476840
2136
Ещё беспокоит, если честно,
08:11
is that, imagineпредставить the bestЛучший caseдело scenarioсценарий.
162
479000
4976
вот что: представьте себе
наилучший сценарий.
08:16
So imagineпредставить we hitудар uponна a designдизайн
of superintelligentСверхразумных AIискусственный интеллект
163
484000
4176
Представьте, что у нас в распоряжении
проект сверхразумного ИИ,
не угрожающего безопасности.
08:20
that has no safetyбезопасность concernsпроблемы.
164
488200
1376
08:21
We have the perfectидеально designдизайн
the first time around.
165
489600
3256
У нас сразу оказывается
идеальная разработка.
08:24
It's as thoughхоть we'veмы в been handedруками an oracleоракул
166
492880
2216
Как будто она дана нам свыше
08:27
that behavesведет себя exactlyв точку as intendedпредназначена.
167
495120
2016
и работает точно так, как задумано.
08:29
Well, this machineмашина would be
the perfectидеально labor-savingЭкономия труда deviceустройство.
168
497160
3720
Это устройство было бы идеально
для снижения трудозатрат.
Оно может придумать машину,
которая построит машину,
08:33
It can designдизайн the machineмашина
that can buildстроить the machineмашина
169
501680
2429
которая сможет делать физическую работу,
08:36
that can do any physicalфизическое work,
170
504133
1763
08:37
poweredпитание by sunlightСолнечный лучик,
171
505920
1456
питаясь энергией солнца
08:39
more or lessМеньше for the costСтоимость
of rawсырье materialsматериалы.
172
507400
2696
приблизительно по цене сырья.
08:42
So we're talkingговорящий about
the endконец of humanчеловек drudgeryнудная работа.
173
510120
3256
Это означает конец
изматывающей работы для людей.
08:45
We're alsoтакже talkingговорящий about the endконец
of mostбольшинство intellectualинтеллектуальной work.
174
513400
2800
Это также означает конец
большей части умственной работы.
08:49
So what would apesприматы like ourselvesсами
do in this circumstanceобстоятельство?
175
517200
3056
А что такие приматы, как мы,
делают в такой ситуации?
08:52
Well, we'dмы б be freeсвободно to playиграть FrisbeeФрисби
and give eachкаждый other massagesмассаж.
176
520280
4080
Ну, мы сможем играть во фрисби
и делать друг другу массаж.
08:57
AddДобавить some LSDЛСД and some
questionableпод вопросом wardrobeгардероб choicesвыбор,
177
525840
2856
Добавьте немного ЛСД
и немного смелых нарядов,
09:00
and the wholeвсе worldМир
could be like BurningЖжение Man.
178
528720
2176
и мир будет похож
на фестиваль «Burning Man».
09:02
(LaughterСмех)
179
530920
1640
(Смех)
09:06
Now, that mightмог бы soundзвук prettyСимпатичная good,
180
534320
2000
Возможно, звучит неплохо,
09:09
but askпросить yourselfсам what would happenслучаться
181
537280
2376
но спроси́те себя, что бы случилось
09:11
underпод our currentтекущий economicэкономической
and politicalполитическая orderзаказ?
182
539680
2736
при нынешнем
экономико-политическом устройстве?
09:14
It seemsкажется likelyвероятно that we would witnessсвидетель
183
542440
2416
Кажется вероятным,
что мы станем свидетелями
09:16
a levelуровень of wealthбогатство inequalityнеравенство
and unemploymentбезработица
184
544880
4136
такого уровня имущественного неравенства
и безработицы,
09:21
that we have never seenвидели before.
185
549040
1496
какого не наблюдали раньше.
09:22
AbsentНет на месте a willingnessготовность
to immediatelyнемедленно put this newновый wealthбогатство
186
550560
2616
В отсутствие желания
сразу поставить новые блага
09:25
to the serviceоказание услуг of all humanityчеловечество,
187
553200
1480
на службу человечеству
09:27
a fewмало trillionairestrillionaires could graceГрейс
the coversкрышки of our businessбизнес magazinesжурналы
188
555640
3616
несколько магнатов смогут
украшать обложки деловых журналов,
09:31
while the restотдых of the worldМир
would be freeсвободно to starveголодать.
189
559280
2440
пока остальные будут голодать.
09:34
And what would the Russiansрусские
or the ChineseКитайский do
190
562320
2296
Что бы сделали русские или китайцы,
узнав, что некая компания
в Силиконовой долине
09:36
if they heardуслышанным that some companyКомпания
in Siliconкремний Valleyдолина
191
564640
2616
09:39
was about to deployразвертывание a superintelligentСверхразумных AIискусственный интеллект?
192
567280
2736
на грани внедрения сверхразумного ИИ?
09:42
This machineмашина would be capableспособный
of wagingведение warвойна,
193
570040
2856
Такое устройство могло бы
спровоцировать войну,
09:44
whetherбудь то terrestrialземной or cyberкибер,
194
572920
2216
наземную или кибер-войну
09:47
with unprecedentedбеспрецедентный powerмощность.
195
575160
1680
беспрецедентного размаха.
Это сценарий, в котором
победитель получает всё.
09:50
This is a winner-take-allпобедитель получает все scenarioсценарий.
196
578120
1856
09:52
To be sixшесть monthsмесяцы aheadвпереди
of the competitionсоревнование here
197
580000
3136
Полугодовое преимущество
в такой конкуренции —
09:55
is to be 500,000 yearsлет aheadвпереди,
198
583160
2776
всё равно что преимущество в 500 000 лет
09:57
at a minimumминимальный.
199
585960
1496
как минимум.
09:59
So it seemsкажется that even mereвсего лишь rumorsслухи
of this kindсвоего рода of breakthroughпрорвать
200
587480
4736
Поэтому представляется,
что даже слухи о такого рода прорыве
10:04
could causeпричина our speciesвид to go berserkнеистовый.
201
592240
2376
могут привести человечество в неистовство.
10:06
Now, one of the mostбольшинство frighteningпугающий things,
202
594640
2896
Одна из самых пугающих вещей,
10:09
in my viewПосмотреть, at this momentмомент,
203
597560
2776
как мне кажется, на данный момент —
10:12
are the kindsвиды of things
that AIискусственный интеллект researchersисследователи say
204
600360
4296
это те слова, которые твердят
все исследователи ИИ,
когда хотят звучать обнадёживающе.
10:16
when they want to be reassuringобнадеживающим.
205
604680
1560
10:19
And the mostбольшинство commonобщий reasonпричина
we're told not to worryбеспокоиться is time.
206
607000
3456
И чаще всего нас просят
не беспокоиться по причине времени.
10:22
This is all a long way off,
don't you know.
207
610480
2056
До этого ещё далеко, если вы не знали.
10:24
This is probablyвероятно 50 or 100 yearsлет away.
208
612560
2440
До этого, вероятно, ещё лет 50 или 100.
10:27
One researcherИсследователь has said,
209
615720
1256
Один исследователь сказал:
10:29
"WorryingТревожные about AIискусственный интеллект safetyбезопасность
210
617000
1576
«Волноваться о безопасности ИИ —
10:30
is like worryingбеспокойство
about overpopulationперенаселенность on MarsМарс."
211
618600
2280
всё равно что волноваться
о перенаселении Марса».
10:34
This is the Siliconкремний Valleyдолина versionверсия
212
622116
1620
В Силиконовой долине это означает:
10:35
of "don't worryбеспокоиться your
prettyСимпатичная little headглава about it."
213
623760
2376
«не морочь этим свою милую головку».
10:38
(LaughterСмех)
214
626160
1336
(Смех)
10:39
No one seemsкажется to noticeуведомление
215
627520
1896
Кажется, что никто не замечает,
10:41
that referencingпривязка the time horizonгоризонт
216
629440
2616
что ссылаться на отдалённость во времени —
10:44
is a totalВсего nonне sequiturнелогичным.
217
632080
2576
нарушение всякой логики.
10:46
If intelligenceинтеллект is just a matterдело
of informationИнформация processingобработка,
218
634680
3256
Если интеллект — лишь результат
обработки информации
10:49
and we continueПродолжать to improveулучшать our machinesмашины,
219
637960
2656
и мы продолжим совершенствовать технику,
10:52
we will produceпроизводить
some formформа of superintelligenceсуперинтеллект.
220
640640
2880
мы создадим некую форму сверхинтеллекта.
10:56
And we have no ideaидея
how long it will take us
221
644320
3656
И мы не имеем понятия,
сколько времени займёт
11:00
to createСоздайте the conditionsусловия
to do that safelyбезопасно.
222
648000
2400
создание для этого безопасных условий.
11:04
Let me say that again.
223
652200
1296
Позвольте повторить.
11:05
We have no ideaидея how long it will take us
224
653520
3816
Мы не имеем понятия,
сколько времени займёт
11:09
to createСоздайте the conditionsусловия
to do that safelyбезопасно.
225
657360
2240
создание для этого безопасных условий.
11:12
And if you haven'tне noticedзаметил,
50 yearsлет is not what it used to be.
226
660920
3456
И если вы не заметили,
50 лет — не те 50 лет, что раньше.
11:16
This is 50 yearsлет in monthsмесяцы.
227
664400
2456
Вот 50 лет по месяцам.
11:18
This is how long we'veмы в had the iPhoneiPhone.
228
666880
1840
Вот так давно у нас есть iPhone.
11:21
This is how long "The SimpsonsСимпсоны"
has been on televisionтелевидение.
229
669440
2600
Так долго «Симпсонов» показывают по ТВ.
11:24
Fifty50 yearsлет is not that much time
230
672680
2376
Пятьдесят лет — не так много
11:27
to meetвстретить one of the greatestвеличайший challengesпроблемы
our speciesвид will ever faceлицо.
231
675080
3160
для решения одной из важнейших
для нашего вида задач.
11:31
Onceоднажды again, we seemказаться to be failingпровал
to have an appropriateподходящее emotionalэмоциональный responseответ
232
679640
4016
Опять же, нам не удаётся выстроить
подобающую эмоциональную реакцию
11:35
to what we have everyкаждый reasonпричина
to believe is comingприход.
233
683680
2696
на то, что по всем признакам
нам предстоит.
11:38
The computerкомпьютер scientistученый StuartСтюарт RussellРассел
has a niceхороший analogyаналогия here.
234
686400
3976
Специалист в области информатики
Стюарт Рассел провёл хорошую аналогию.
11:42
He said, imagineпредставить that we receivedполучено
a messageсообщение from an alienинопланетянин civilizationцивилизация,
235
690400
4896
Он предложил представить, что мы получили
послание от внеземной цивилизации,
11:47
whichкоторый readчитать:
236
695320
1696
в котором говорится:
11:49
"People of EarthЗемля,
237
697040
1536
«Земляне,
11:50
we will arriveприбыть on your planetпланета in 50 yearsлет.
238
698600
2360
мы прибудем на вашу планету через 50 лет.
11:53
Get readyготов."
239
701800
1576
Готовьтесь».
11:55
And now we're just countingподсчет down
the monthsмесяцы untilдо the mothershipMothership landsземли?
240
703400
4256
И теперь мы просто считаем месяцы
до посадки их корабля-носителя?
11:59
We would feel a little
more urgencyострая необходимость than we do.
241
707680
3000
Мы бы немножко больше суетились.
12:04
AnotherДругая reasonпричина we're told not to worryбеспокоиться
242
712680
1856
Ещё мы якобы не должны
волноваться потому,
12:06
is that these machinesмашины
can't help but shareдоля our valuesзначения
243
714560
3016
что эти машины
не могут не разделять наши ценности,
12:09
because they will be literallyбуквально
extensionsрасширения of ourselvesсами.
244
717600
2616
так как будут буквально
дополнениями к нам самим.
12:12
They'llОни будут be graftedпривитые ontoна our brainsмозги,
245
720240
1816
Они будут присоединены к нашему мозгу,
12:14
and we'llЧто ж essentiallyпо существу
becomeстали theirих limbicлимбической systemsсистемы.
246
722080
2360
и мы по сути станем
их лимбической системой.
12:17
Now take a momentмомент to considerрассматривать
247
725120
1416
Теперь на миг задумайтесь,
12:18
that the safestбезопасный
and only prudentпредусмотрительный pathдорожка forwardвперед,
248
726560
3176
что самый безопасный и единственно
благоразумный путь,
12:21
recommendedрекомендуемые,
249
729760
1336
по рекомендациям, —
12:23
is to implantимплантат this technologyтехнологии
directlyнепосредственно into our brainsмозги.
250
731120
2800
имплантация этой технологии прямо в мозг.
12:26
Now, this mayмай in factфакт be the safestбезопасный
and only prudentпредусмотрительный pathдорожка forwardвперед,
251
734600
3376
Это действительно может быть самым
безопасным и благоразумным путём,
12:30
but usuallyкак правило one'sодин это safetyбезопасность concernsпроблемы
about a technologyтехнологии
252
738000
3056
но обычно озабоченность
безопасностью технологии
12:33
have to be prettyСимпатичная much workedработал out
before you stickпридерживаться it insideвнутри your headглава.
253
741080
3656
нужно развеивать до того,
как запихивать её себе в голову.
12:36
(LaughterСмех)
254
744760
2016
(Смех)
12:38
The deeperГлубже problemпроблема is that
buildingздание superintelligentСверхразумных AIискусственный интеллект on its ownсвоя
255
746800
5336
Более глубокая проблема в том, что
создание сверхразумного ИИ как такового
12:44
seemsкажется likelyвероятно to be easierПолегче
256
752160
1736
кажется намного легче,
12:45
than buildingздание superintelligentСверхразумных AIискусственный интеллект
257
753920
1856
чем создание сверхразумного ИИ
12:47
and havingимеющий the completedзавершено neuroscienceневрология
258
755800
1776
и всех нейротехнологий,
12:49
that allowsпозволяет us to seamlesslyбесшовно
integrateинтегрировать our mindsумов with it.
259
757600
2680
необходимых для их бесшовной
интеграции с нашим разумом.
12:52
And givenданный that the companiesкомпании
and governmentsправительства doing this work
260
760800
3176
Учитывая, что компании и правительства,
ведущие эту работу,
12:56
are likelyвероятно to perceiveвоспринимать themselvesсамих себя
as beingявляющийся in a raceраса againstпротив all othersдругие,
261
764000
3656
могут представлять себя участниками
гонки против всех остальных
12:59
givenданный that to winвыиграть this raceраса
is to winвыиграть the worldМир,
262
767680
3256
и для них выиграть гонку
значит выиграть весь мир,
13:02
providedпредоставлена you don't destroyуничтожить it
in the nextследующий momentмомент,
263
770960
2456
учитывая, что вы не уничтожите его
через секунду,
тогда вероятным кажется,
что самое простое
13:05
then it seemsкажется likelyвероятно
that whateverбез разницы is easierПолегче to do
264
773440
2616
будет сделано в первую очередь.
13:08
will get doneсделанный first.
265
776080
1200
13:10
Now, unfortunatelyК сожалению,
I don't have a solutionрешение to this problemпроблема,
266
778560
2856
К сожалению, у меня нет решения
этой проблемы,
кроме рекомендации, чтобы больше людей
задумывались о ней.
13:13
apartКроме from recommendingрекомендуя
that more of us think about it.
267
781440
2616
13:16
I think we need something
like a ManhattanМанхеттен Projectпроект
268
784080
2376
Я думаю, нам нужно что-то вроде
проекта «Манхэттен»
13:18
on the topicтема of artificialискусственный intelligenceинтеллект.
269
786480
2016
в области искусственного интеллекта.
13:20
Not to buildстроить it, because I think
we'llЧто ж inevitablyнеизбежно do that,
270
788520
2736
Не чтобы его создать —
я думаю, это неизбежно случится, —
13:23
but to understandПонимаю
how to avoidизбежать an armsоружие raceраса
271
791280
3336
а чтобы понять, как избежать
гонки вооружений
13:26
and to buildстроить it in a way
that is alignedвыровненный with our interestsинтересы.
272
794640
3496
и создать его так,
чтобы это совпало с нашими интересами.
13:30
When you're talkingговорящий
about superintelligentСверхразумных AIискусственный интеллект
273
798160
2136
Когда говоришь о сверхразумном ИИ,
13:32
that can make changesизменения to itselfсам,
274
800320
2256
который может менять себя сам,
13:34
it seemsкажется that we only have one chanceшанс
to get the initialначальная conditionsусловия right,
275
802600
4616
кажется, что есть только одна попытка
для создания правильных начальных условий,
13:39
and even then we will need to absorbабсорбировать
276
807240
2056
и даже тогда нам нужно совладать
13:41
the economicэкономической and politicalполитическая
consequencesпоследствия of gettingполучение them right.
277
809320
3040
с экономико-политическими
последствиями их правильного создания.
13:45
But the momentмомент we admitпризнавать
278
813760
2056
Но как только мы признаем,
13:47
that informationИнформация processingобработка
is the sourceисточник of intelligenceинтеллект,
279
815840
4000
что источник интеллекта —
обработка информации,
13:52
that some appropriateподходящее computationalвычислительный systemсистема
is what the basisоснова of intelligenceинтеллект is,
280
820720
4800
что интеллект основан на некой
подходящей вычислительной системе,
13:58
and we admitпризнавать that we will improveулучшать
these systemsсистемы continuouslyнепрерывно,
281
826360
3760
и признаем, что будем совершенствовать
эти системы непрерывно
14:03
and we admitпризнавать that the horizonгоризонт
of cognitionпознание very likelyвероятно farдалеко exceedsпревышает
282
831280
4456
и что предел сознания, весьма вероятно,
намного дальше,
14:07
what we currentlyВ данный момент know,
283
835760
1200
чем мы сейчас представляем,
14:10
then we have to admitпризнавать
284
838120
1216
тогда мы должны признать,
14:11
that we are in the processобработать
of buildingздание some sortСортировать of god.
285
839360
2640
что мы в процессе создания
своего рода бога.
14:15
Now would be a good time
286
843400
1576
Теперь самое время
14:17
to make sure it's a god we can liveжить with.
287
845000
1953
убедиться, что мы сможем с ним ужиться.
14:20
Thank you very much.
288
848120
1536
Большое спасибо.
14:21
(ApplauseАплодисменты)
289
849680
5093
(Аплодисменты)
Translated by Elizaveta Mikhaylova
Reviewed by Alexander Treshin

▲Back to top

ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com