ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com
TEDSummit

Sam Harris: Can we build AI without losing control over it?

Сем Гарріс: Чи можемо ми створити штучний інтелект, не втративши над ним контролю?

Filmed:
5,024,015 views

Налякані надрозумним штучним інтелектом? А треба, каже нейронауковець і філософ Сем Гарріс - та не лише в теорії. Ми збудуємо машини-надлюдей, запевняє Гарріс, та ми ще не задумувалися над проблемами, пов'язаними із створенням чогось такого, що зможе ставитися до нас, як до мурах.
- Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live. Full bio

Double-click the English transcript below to play the video.

00:13
I'm going to talk
about a failureпровал of intuitionінтуїція
0
1000
2216
Сьогодні я розповім
про нездатність до інтуїції,
00:15
that manyбагато хто of us sufferстраждати from.
1
3240
1600
від якої страждають багато з нас.
Це дійсно нездатність визначати
певний вид небезпеки.
00:17
It's really a failureпровал
to detectвиявити a certainпевний kindдоброзичливий of dangerнебезпека.
2
5480
3040
00:21
I'm going to describeопишіть a scenarioсценарій
3
9360
1736
Я опишу сценарій,
що, на мою думку, є водночас жахливий
00:23
that I think is bothобидва terrifyingстрашно
4
11120
3256
та дуже ймовірний
00:26
and likelyшвидше за все to occurвиникати,
5
14400
1760
і не є гарною комбінацією,
00:28
and that's not a good combinationкомбінація,
6
16840
1656
як виявляється.
00:30
as it turnsвиявляється out.
7
18520
1536
Та все одно, замість того, щоб злякатися,
більшість з вас відчують,
00:32
And yetвсе-таки ratherшвидше than be scaredналяканий,
mostнайбільше of you will feel
8
20080
2456
00:34
that what I'm talkingговорити about
is kindдоброзичливий of coolкруто.
9
22560
2080
що те, про що я веду мову,
скоріше прикольне.
00:37
I'm going to describeопишіть
how the gainsприбуток we make
10
25200
2976
Я розповім, як прибутки,
що ми отримуємо від штучного інтелекту,
00:40
in artificialштучний intelligenceрозвідка
11
28200
1776
можуть, врешті-решт, знищити нас.
00:42
could ultimatelyв кінцевому підсумку destroyзнищити us.
12
30000
1776
Насправді, я думаю, дуже важко
зрозуміти, як вони НЕ знищать нас
00:43
And in factфакт, I think it's very difficultважко
to see how they won'tне буде destroyзнищити us
13
31800
3456
або не надихнуть нас знищити самих себе.
00:47
or inspireнадихати us to destroyзнищити ourselvesми самі.
14
35280
1680
Та якщо ви такий як я,
00:49
And yetвсе-таки if you're anything like me,
15
37400
1856
вам здасться, що думати
про такі речі - весело,
00:51
you'llти будеш find that it's funвесело
to think about these things.
16
39280
2656
І така реакція є частиною проблеми.
00:53
And that responseвідповідь is partчастина of the problemпроблема.
17
41960
3376
Ця реакція має хвилювати вас.
00:57
OK? That responseвідповідь should worryтурбуватися you.
18
45360
1720
00:59
And if I were to convinceпереконати you in this talk
19
47920
2656
І якщо б я хотів запевнити
вас у цій промові,
01:02
that we were likelyшвидше за все
to sufferстраждати a globalглобальний famineголод,
20
50600
3416
що нам, скоріше за все, доведеться
страждати від глобального голоду
через кліматичні зміни
або якусь іншу катастрофу,
01:06
eitherабо because of climateклімат changeзмінити
or some other catastropheкатастрофа,
21
54040
3056
01:09
and that your grandchildrenонуки,
or theirїх grandchildrenонуки,
22
57120
3416
та що ваші онуки та їхні онуки
будуть ймовірно жити саме так,
01:12
are very likelyшвидше за все to liveжити like this,
23
60560
1800
ви б не подумали:
01:15
you wouldn'tне буде think,
24
63200
1200
"Цікаво.
01:17
"InterestingЦікаво.
25
65440
1336
Мені подобається цей виступ на ТED".
01:18
I like this TEDТЕД Talk."
26
66800
1200
01:21
FamineГолод isn't funвесело.
27
69200
1520
Голод - це не весело.
А от смерть у науковій фантастиці,
з іншого боку - це весело,
01:23
DeathСмерть by scienceнаука fictionвигадка,
on the other handрука, is funвесело,
28
71800
3376
та одна з речей, що мене найбільше турбує
щодо розвитку штучного інтелекту -
01:27
and one of the things that worriesтурботи me mostнайбільше
about the developmentрозвиток of AIАЙ at this pointточка
29
75200
3976
це наша нездатність мати відповідну
емоційну реакцію
01:31
is that we seemздається unableне в змозі to marshalмаршал
an appropriateвідповідний emotionalемоційний responseвідповідь
30
79200
4096
щодо небезпек, що чигають на нас попереду.
01:35
to the dangersнебезпеки that lieбрешуть aheadвперед.
31
83320
1816
01:37
I am unableне в змозі to marshalмаршал this responseвідповідь,
and I'm givingдавати this talk.
32
85160
3200
Я не здатний осягнути цю реакцію
і саме тому виступаю на цій сцені.
01:42
It's as thoughхоча we standстояти before two doorsдвері.
33
90120
2696
Це так, наче ми стоїмо
навпроти двох дверей.
01:44
BehindПозаду doorдвері numberномер one,
34
92840
1256
За дверима номер 1
01:46
we stop makingвиготовлення progressпрогрес
in buildingбудівля intelligentрозумний machinesмашини.
35
94120
3296
ми припиняємо прогрес
у створенні розумних машин.
01:49
Our computerкомп'ютер hardwareапаратне забезпечення and softwareпрограмне забезпечення
just stopsзупиняється gettingотримувати better for some reasonпричина.
36
97440
4016
Технічне та програмне забезпечення
перестає покращуватись через якісь обставини.
01:53
Now take a momentмомент
to considerрозглянемо why this mightможе happenстатися.
37
101480
3000
А тепер поміркуймо,
чому б це могло трапитися.
01:57
I mean, givenдано how valuableцінний
intelligenceрозвідка and automationАвтоматизація are,
38
105080
3656
Знаючи, якими цінними є
інтелект та автоматизація,
02:00
we will continueпродовжуй to improveполіпшити our technologyтехнологія
if we are at all ableздатний to.
39
108760
3520
ми продовжимо удосконалювати
наші технології, якщо матимемо можливість.
02:05
What could stop us from doing this?
40
113200
1667
Що нас може зупинити від цього?
02:07
A full-scaleповномасштабне nuclearядерний warвійна?
41
115800
1800
Широкомасштабна ядерна війна?
02:11
A globalглобальний pandemicпандемія?
42
119000
1560
Глобальна пандемія?
02:14
An asteroidастероїд impactвплив?
43
122320
1320
Падіння астероїду?
02:17
JustinДжастін BieberБібер becomingстає
presidentпрезидент of the UnitedЮнайтед StatesШтати?
44
125640
2576
Джастін Бібер, що став
президентом Сполучених Штатів?
02:20
(LaughterСміх)
45
128240
2280
(Сміх)
02:24
The pointточка is, something would have to
destroyзнищити civilizationцивілізація as we know it.
46
132760
3920
Суть у тому, що щось має знищити
цивілізацію у знайомому нас вигляді.
02:29
You have to imagineуявіть собі
how badпоганий it would have to be
47
137360
4296
Уявіть собі, яке страхіття має статися,
02:33
to preventзапобігти us from makingвиготовлення
improvementsполіпшення in our technologyтехнологія
48
141680
3336
щоб завадити нам удосконалювати
наші технології
02:37
permanentlyостаточно,
49
145040
1216
постійно,
02:38
generationпокоління after generationпокоління.
50
146280
2016
покоління за поколінням.
02:40
AlmostМайже by definitionвизначення,
this is the worstнайгірший thing
51
148320
2136
Майже за визначенням,
це найгірше,
02:42
that's ever happenedсталося in humanлюдина historyісторія.
52
150480
2016
що траплялося в історії людства.
02:44
So the only alternativeальтернатива,
53
152520
1296
Тому єдиною альтернативою,
02:45
and this is what liesбрехня
behindпозаду doorдвері numberномер two,
54
153840
2336
а саме вона знаходиться
за дверима номер два,
02:48
is that we continueпродовжуй
to improveполіпшити our intelligentрозумний machinesмашини
55
156200
3136
є подальше удосконалення
розумних машин
02:51
yearрік after yearрік after yearрік.
56
159360
1600
рік за роком, рік за роком.
02:53
At a certainпевний pointточка, we will buildбудувати
machinesмашини that are smarterрозумніше than we are,
57
161720
3640
Та в певний момент ми збудуємо
машини, розумніші за нас,
02:58
and onceодин раз we have machinesмашини
that are smarterрозумніше than we are,
58
166080
2616
та щойно з'являться машини,
що розумніші за нас,
03:00
they will beginпочати to improveполіпшити themselvesсамі.
59
168720
1976
вони почнуть самі себе удосконалювати.
03:02
And then we riskризик what
the mathematicianматематик IJ«IJ» Good calledназивається
60
170720
2736
А тоді ми ризикуємо тим,
що математик І.Дж. Ґуд назвав
03:05
an "intelligenceрозвідка explosionвибух,"
61
173480
1776
"інтелектуальним вибухом",
03:07
that the processпроцес could get away from us.
62
175280
2000
тим, що цей процес може вийти
з-під нашого контролю.
03:10
Now, this is oftenчасто caricaturedкарикатурною,
as I have here,
63
178120
2816
Тепер це часто висміюють,
як ось на цьому зображенні,
03:12
as a fearстрах that armiesармії of maliciousшкідливий robotsроботів
64
180960
3216
як страх, що армії злісних роботів
03:16
will attackатака us.
65
184200
1256
нас атакують.
03:17
But that isn't the mostнайбільше likelyшвидше за все scenarioсценарій.
66
185480
2696
Та це не найімовірніший сценарій.
03:20
It's not that our machinesмашини
will becomeстати spontaneouslyспонтанно malevolentзлісний.
67
188200
4856
Йдеться не про те, що наші машини
зненацька зробляться злими.
03:25
The concernстурбованість is really
that we will buildбудувати machinesмашини
68
193080
2616
Викликає тривогу те,
що ми збудуємо машини,
03:27
that are so much
more competentкомпетентний than we are
69
195720
2056
які будуть настільки компетентніші
за нас,
03:29
that the slightestні найменшого divergenceрозбіжність
betweenміж theirїх goalsцілі and our ownвласний
70
197800
3776
що найменші відхилення
між нашими та їхніми цілями
03:33
could destroyзнищити us.
71
201600
1200
зможуть нас знищити.
Лише поміркуйте, як ми поводимося
з мурахами.
03:35
Just think about how we relateвідносяться to antsмурахи.
72
203960
2080
03:38
We don't hateненавидіти them.
73
206600
1656
Ми не ненавидимо їх.
03:40
We don't go out of our way to harmшкодити them.
74
208280
2056
Ми не звертаємо зі шляху,
щоб нашкодити їм.
03:42
In factфакт, sometimesіноді
we take painsболі not to harmшкодити them.
75
210360
2376
Насправді іноді ми намагаємося
не нашкодити їм.
03:44
We stepкрок over them on the sidewalkтротуар.
76
212760
2016
Ми переступаємо через них на стежці.
03:46
But wheneverколи завгодно theirїх presenceнаявність
77
214800
2136
Та коли їхня присутність
03:48
seriouslyсерйозно conflictsконфлікти with one of our goalsцілі,
78
216960
2496
відчутно конфліктує
з будь-якою нашою метою,
скажімо, коли ми будуємо
таку споруду, як на зображенні,
03:51
let's say when constructingконструювання
a buildingбудівля like this one,
79
219480
2477
03:53
we annihilateзнищити them withoutбез a qualmдокорів.
80
221981
1960
ми знищуємо їх без сумнівів.
03:56
The concernстурбованість is that we will
one day buildбудувати machinesмашини
81
224480
2936
Тривога полягає в тому,
що одного дня ми збудуємо машини,
03:59
that, whetherчи то they're consciousсвідомий or not,
82
227440
2736
які, свідомі чи ні,
04:02
could treatлікувати us with similarподібний disregardзневага.
83
230200
2000
можуть поставитися до нас
так само байдуже.
04:05
Now, I suspectпідозрюваний this seemsздається
far-fetchedнадуманий to manyбагато хто of you.
84
233760
2760
Гадаю, що це здається
багатьом з вас малоймовірним.
04:09
I betставка there are those of you who doubtсумнів
that superintelligentстворення надрозумноо AIАЙ is possibleможливий,
85
237360
6336
Я впевнений, серед вас є ті, хто сумнівається,
що надрозумні машини можливі,
04:15
much lessменше inevitableнеминучий.
86
243720
1656
що й казати про неминучість.
04:17
But then you mustповинен find something wrongнеправильно
with one of the followingнаступний assumptionsприпущення.
87
245400
3620
Тоді ви засумніваєтеся у правильності
одного з таких припущень.
04:21
And there are only threeтри of them.
88
249044
1572
А їх лише три.
04:23
IntelligenceІнтелект is a matterматерія of informationінформація
processingобробка in physicalфізичний systemsсистеми.
89
251800
4719
Інтелект - це обробка інформації
у фізичних системах.
04:29
ActuallyНасправді, this is a little bitбіт more
than an assumptionприпущення.
90
257320
2615
Насправді, це трохи більше,
ніж припущення.
04:31
We have alreadyвже builtпобудований
narrowвузький intelligenceрозвідка into our machinesмашини,
91
259959
3457
Ми вже вбудували певний інтелект
в наші машини,
04:35
and manyбагато хто of these machinesмашини performвиконувати
92
263440
2016
і багато з цих машин видають результати
04:37
at a levelрівень of superhumanнадлюдську
intelligenceрозвідка alreadyвже.
93
265480
2640
на рівні надлюдського інтелекту
вже сьогодні.
04:40
And we know that mereпросто matterматерія
94
268840
2576
Та ми знаємо, що найменший привід
04:43
can give riseпідніматися to what is calledназивається
"generalзагальний intelligenceрозвідка,"
95
271440
2616
може призвести до так званого
"інтелектуального вибуху",
04:46
an abilityздібності to think flexiblyгнучко
acrossпоперек multipleбагаторазовий domainsДомени,
96
274080
3656
спроможності гнучко мислити
у багатьох сферах,
04:49
because our brainsмозок have managedкерований it. Right?
97
277760
3136
адже наш мозок вже зміг це зробити.
Чи не так?
04:52
I mean, there's just atomsатоми in here,
98
280920
3936
Я маю на увазі, що тут є лише атоми,
04:56
and as long as we continueпродовжуй
to buildбудувати systemsсистеми of atomsатоми
99
284880
4496
та допоки ми продовжуємо
будувати системи з атомів,
05:01
that displayдисплей more and more
intelligentрозумний behaviorповедінка,
100
289400
2696
що демонструють все більш
інтелектуальну поведінку,
05:04
we will eventuallyврешті-решт,
unlessякщо не we are interruptedперервано,
101
292120
2536
ми поступово,
якщо нас не зупинять,
05:06
we will eventuallyврешті-решт
buildбудувати generalзагальний intelligenceрозвідка
102
294680
3376
поступово вбудуємо
загальний інтелект
05:10
into our machinesмашини.
103
298080
1296
в наші машини.
05:11
It's crucialвирішальне значення to realizeусвідомити
that the rateкурс of progressпрогрес doesn't matterматерія,
104
299400
3656
Важливо зрозуміти,
що рівень прогресу не має значення,
тому що будь-який прогрес здатний
призвести нас до фінального пункту.
05:15
because any progressпрогрес
is enoughдостатньо to get us into the endкінець zoneзона.
105
303080
3176
05:18
We don't need Moore'sМура lawзакон to continueпродовжуй.
We don't need exponentialекспоненціальний progressпрогрес.
106
306280
3776
Нам не треба закону Мура, щоб продовжувати.
Нам не потрібний експоненційний прогрес.
05:22
We just need to keep going.
107
310080
1600
Нам лише треба не зупинятися.
05:25
The secondдругий assumptionприпущення
is that we will keep going.
108
313480
2920
Друге припущення полягає в тому,
що ми не зупинимося.
05:29
We will continueпродовжуй to improveполіпшити
our intelligentрозумний machinesмашини.
109
317000
2760
Будемо далі удосконалювати
наші розумні машини.
05:33
And givenдано the valueвартість of intelligenceрозвідка --
110
321000
4376
Та враховуючи цінність інтелекту--
05:37
I mean, intelligenceрозвідка is eitherабо
the sourceджерело of everything we valueвартість
111
325400
3536
Я маю на увазі, інтелект є або
джерелом всього, що ми цінуємо,
05:40
or we need it to safeguardСпеціальне
everything we valueвартість.
112
328960
2776
або він нам потрібен, щоб зберегти
все, що ми цінуємо.
05:43
It is our mostнайбільше valuableцінний resourceресурс.
113
331760
2256
Це наш найцінніший ресурс.
05:46
So we want to do this.
114
334040
1536
Тому ми хочемо це робити.
05:47
We have problemsпроблеми
that we desperatelyвідчайдушно need to solveвирішити.
115
335600
3336
В нас є проблеми,
що їх нам вкрай необхідно залагодити.
05:50
We want to cureвилікувати diseasesхвороби
like Alzheimer'sАльцгеймера and cancerрак.
116
338960
3200
Ми хочемо лікувати такі захворювання,
як Альцгеймер та рак.
05:54
We want to understandзрозуміти economicекономічний systemsсистеми.
We want to improveполіпшити our climateклімат scienceнаука.
117
342960
3936
Ми хочемо зрозуміти економічні системи.
Ми хочемо покращити нашу кліматичну науку.
05:58
So we will do this, if we can.
118
346920
2256
Тому ми будемо це робити,
якщо зможемо.
06:01
The trainпоїзд is alreadyвже out of the stationстанція,
and there's no brakeгальмо to pullтягнути.
119
349200
3286
Потяг вже поїхав зі станції,
і немає гальма, щоб його зупинити.
06:05
FinallyНарешті, we don't standстояти
on a peakпік of intelligenceрозвідка,
120
353880
5456
Нарешті, ми не стоїмо
на вершині інтелекту,
06:11
or anywhereде завгодно nearблизько it, likelyшвидше за все.
121
359360
1800
і навряд чи десь поблизу.
06:13
And this really is the crucialвирішальне значення insightв поле зору.
122
361640
1896
І це насправді ключовий факт.
06:15
This is what makesробить
our situationситуація so precariousхитке,
123
363560
2416
Це те, що робить нашу ситуацію
такою небезпечною,
06:18
and this is what makesробить our intuitionsінтуїції
about riskризик so unreliableненадійні.
124
366000
4040
і це те, що робить нашу інтуїцію
щодо ризику настільки ненадійною.
06:23
Now, just considerрозглянемо the smartestнайрозумніший personлюдина
who has ever livedщо жив.
125
371120
2720
Тепер подумайте про найрозумнішу людину,
яка будь-коли існувала.
06:26
On almostмайже everyone'sкожен shortlistшорт-лист here
is JohnДжон vonфон NeumannНеймана.
126
374640
3416
Майже у всіх у списку є Джон фон Нейман.
06:30
I mean, the impressionвраження that vonфон NeumannНеймана
madeзроблений on the people around him,
127
378080
3336
Я гадаю, що враження, яке фон Нейман
справляв на людей довкола,
06:33
and this includedвключений the greatestнайбільший
mathematiciansматематики and physicistsфізики of his time,
128
381440
4056
до яких входили найвидатніші математики
та фізики його часу,
06:37
is fairlyсправедливо well-documentedдобре документовані.
129
385520
1936
достатньо добре задокументоване.
06:39
If only halfполовина the storiesоповідання
about him are halfполовина trueправда,
130
387480
3776
Якщо лише половина історій про нього
бодай наполовину правдива,
06:43
there's no questionпитання
131
391280
1216
немає сумнівів, що
06:44
he's one of the smartestнайрозумніший people
who has ever livedщо жив.
132
392520
2456
він один із найрозумніших людей,
які коли-небудь існували.
06:47
So considerрозглянемо the spectrumспектр of intelligenceрозвідка.
133
395000
2520
Тож обміркуємо спектр інтелекту.
06:50
Here we have JohnДжон vonфон NeumannНеймана.
134
398320
1429
Ось тут у нас Джон фон Нейман.
06:53
And then we have you and me.
135
401560
1334
А ось тут ми з вами.
06:56
And then we have a chickenкурка.
136
404120
1296
А ось тут курка.
06:57
(LaughterСміх)
137
405440
1936
(Сміх)
06:59
Sorry, a chickenкурка.
138
407400
1216
Вибачте, курка.
07:00
(LaughterСміх)
139
408640
1256
(Сміх)
07:01
There's no reasonпричина for me to make this talk
more depressingпригнічує than it needsпотреби to be.
140
409920
3736
Мені нема чого робити цю промову
гнітючішою, аніж вона має бути.
07:05
(LaughterСміх)
141
413680
1600
(Сміх)
07:08
It seemsздається overwhelminglyпереважна більшість likelyшвидше за все, howeverоднак,
that the spectrumспектр of intelligenceрозвідка
142
416339
3477
Здається надзвичайно ймовірним,
що спектр інтелекту
07:11
extendsпродовжується much furtherдалі
than we currentlyв даний час conceiveзачати,
143
419840
3120
простягається набагато далі,
ніж ми сьогодні уявляємо,
07:15
and if we buildбудувати machinesмашини
that are more intelligentрозумний than we are,
144
423880
3216
і якщо ми збудуємо машини,
що розумніші за нас,
07:19
they will very likelyшвидше за все
exploreдосліджувати this spectrumспектр
145
427120
2296
вони, дуже ймовірно,
розвідають цей спектр
07:21
in waysшляхи that we can't imagineуявіть собі,
146
429440
1856
шляхами, які ми не можемо уявити,
07:23
and exceedперевищує us in waysшляхи
that we can't imagineуявіть собі.
147
431320
2520
та перевершать нас так,
як ми не можемо уявити.
07:27
And it's importantважливо to recognizeрозпізнати that
this is trueправда by virtueЧеснота of speedшвидкість aloneпоодинці.
148
435000
4336
Та важливо визнати, що
це правда вже з огляду на саму силу швидкості.
07:31
Right? So imagineуявіть собі if we just builtпобудований
a superintelligentстворення надрозумноо AIАЙ
149
439360
5056
Правильно? Тож уявіть, що ми збудували
надрозумний штучний інтелект,
07:36
that was no smarterрозумніше
than your averageсередній teamкоманда of researchersдослідники
150
444440
3456
такий же розумний, як ваша
середньостатистична команда дослідників
07:39
at StanfordСтенфорд or MITMIT.
151
447920
2296
у Стенфорді чи МТІ.
07:42
Well, electronicелектронний circuitsсхеми
functionфункція about a millionмільйон timesразів fasterшвидше
152
450240
2976
Електронні ланцюги
функціюють у мільйон разів швидше
за біохемічні,
07:45
than biochemicalбіохімічний onesті, хто,
153
453240
1256
07:46
so this machineмашина should think
about a millionмільйон timesразів fasterшвидше
154
454520
3136
тож ці машини мають думати
в мільйон разів швидше,
07:49
than the mindsрозум that builtпобудований it.
155
457680
1816
ніж розуми, що їх сконструювали.
Тож ви запускаєте її на тиждень,
07:51
So you setвстановити it runningбіг for a weekтиждень,
156
459520
1656
07:53
and it will performвиконувати 20,000 yearsроків
of human-levelлюдини на рівні intellectualінтелектуальний work,
157
461200
4560
і вона демонструє 20 000 років
інтелектуальної роботи людського рівня,
07:58
weekтиждень after weekтиждень after weekтиждень.
158
466400
1960
тиждень за тижнем, тиждень за тижнем.
08:01
How could we even understandзрозуміти,
much lessменше constrainстримувати,
159
469640
3096
Як ми можемо зрозуміти,
тим паче стримати
08:04
a mindрозум makingвиготовлення this sortсортувати of progressпрогрес?
160
472760
2280
інтелект, що так прогресує?
08:08
The other thing that's worryingтурбуючись, franklyчесно кажучи,
161
476840
2136
Тривогу викликає ще одна річ:
08:11
is that, imagineуявіть собі the bestнайкраще caseсправа scenarioсценарій.
162
479000
4976
це, уявіть собі, найкращий сценарій.
08:16
So imagineуявіть собі we hitхіт uponна a designдизайн
of superintelligentстворення надрозумноо AIАЙ
163
484000
4176
А тепер уявіть, ми створюємо надрозумний
штучний інтелект,
08:20
that has no safetyбезпека concernsстурбованість.
164
488200
1376
не зважаючи на жодні
міркування безпеки.
08:21
We have the perfectдосконалий designдизайн
the first time around.
165
489600
3256
В нас уперше з'являється
бездоганний проект.
08:24
It's as thoughхоча we'veми маємо been handedвручений an oracleоракул
166
492880
2216
Так наче ми отримали оракула,
08:27
that behavesведе себе exactlyточно as intendedпризначений.
167
495120
2016
що поводиться саме так, як планувалося.
08:29
Well, this machineмашина would be
the perfectдосконалий labor-savingФранцуз deviceпристрій.
168
497160
3720
Тож така машина була б
ідеальним пристроєм з економії праці.
Вона може проектувати машини,
що можуть будувати машини,
08:33
It can designдизайн the machineмашина
that can buildбудувати the machineмашина
169
501680
2429
08:36
that can do any physicalфізичний work,
170
504133
1763
що можуть робити будь-яку фізичну роботу,
08:37
poweredхарчування by sunlightсонячне світло,
171
505920
1456
працюватимуть на сонячній енергії,
08:39
more or lessменше for the costвартість
of rawсирий materialsматеріали.
172
507400
2696
більш-менш за ціною сировини.
08:42
So we're talkingговорити about
the endкінець of humanлюдина drudgeryважкої роботи.
173
510120
3256
Тож ми говоримо про кінець
важкої людської праці.
08:45
We're alsoтакож talkingговорити about the endкінець
of mostнайбільше intellectualінтелектуальний work.
174
513400
2800
Ми також говоримо про кінець
найбільш інтелектуальної праці.
08:49
So what would apesмавпи like ourselvesми самі
do in this circumstanceобставина?
175
517200
3056
То що ж такі мавпи, як ми,
будуть робити за цих обставин?
08:52
Well, we'dми б be freeбезкоштовно to playграти FrisbeeФрісбі
and give eachкожен other massagesмасажні процедури.
176
520280
4080
Ми зможемо вільно грати в Фрізбі
та робити одне одному масаж.
08:57
AddДодати some LSDЛСД and some
questionableсумнівний wardrobeгардероб choicesвибір,
177
525840
2856
Додайте трохи ЛСД та трохи
сумнівного гардеробу,
09:00
and the wholeцілий worldсвіт
could be like BurningГоріння Man.
178
528720
2176
і весь світ буде
як фестиваль Burning Man.
09:02
(LaughterСміх)
179
530920
1640
(Сміх)
09:06
Now, that mightможе soundзвук prettyкрасиво good,
180
534320
2000
Непогано звучить,
09:09
but askзапитай yourselfсамі what would happenстатися
181
537280
2376
але запитайте себе, що станеться
09:11
underпід our currentструм economicекономічний
and politicalполітичний orderзамовлення?
182
539680
2736
з нашим теперішнім економічним
та політичним ладом?
09:14
It seemsздається likelyшвидше за все that we would witnessсвідок
183
542440
2416
Ймовірно, ми станемо свідками
09:16
a levelрівень of wealthбагатство inequalityнерівність
and unemploymentбезробіття
184
544880
4136
такої нерівності розподілу багатства
та безробіття,
09:21
that we have never seenбачив before.
185
549040
1496
яких ми ніколи не бачили.
09:22
AbsentВідсутні a willingnessготовність
to immediatelyнегайно put this newновий wealthбагатство
186
550560
2616
Не бажаючи одразу
використовувати це нове багатство
09:25
to the serviceсервіс of all humanityлюдство,
187
553200
1480
на користь всього людства,
09:27
a fewмало хто trillionairesTrillionaires could graceГрейс
the coversобкладинки of our businessбізнес magazinesжурнали
188
555640
3616
декілька мільярдерів прикрасять
обкладинки наших бізнес-журналів,
09:31
while the restвідпочинок of the worldсвіт
would be freeбезкоштовно to starveголодувати.
189
559280
2440
тоді як решта світу
голодуватиме.
09:34
And what would the RussiansРосіяни
or the Chineseкитайська do
190
562320
2296
А що робитимуть росіяни та китайці,
09:36
if they heardпочув that some companyкомпанія
in SiliconКремній ValleyДолина
191
564640
2616
якщо вони почують, що якась компанія
у Кремнієвій долині
09:39
was about to deployрозгортання a superintelligentстворення надрозумноо AIАЙ?
192
567280
2736
збирається ввести в дію
надрозумний штучний інтелект?
09:42
This machineмашина would be capableздатний
of wagingведення warвійна,
193
570040
2856
Ця машина зможе вести війну,
09:44
whetherчи то terrestrialназемні or cyberкібер,
194
572920
2216
наземну або кібер,
09:47
with unprecedentedбезпрецедентний powerвлада.
195
575160
1680
з безпрецедентною могутністю.
09:50
This is a winner-take-allWinner-take-all scenarioсценарій.
196
578120
1856
Це сценарій, де переможець отримує все.
09:52
To be sixшість monthsмісяці aheadвперед
of the competitionконкуренція here
197
580000
3136
Бути на шість місяців попереду
у цьому змаганні,
09:55
is to be 500,000 yearsроків aheadвперед,
198
583160
2776
це бути на 500 000 років попереду,
09:57
at a minimumмінімум.
199
585960
1496
як мінімум.
09:59
So it seemsздається that even mereпросто rumorsчутки
of this kindдоброзичливий of breakthroughпрорив
200
587480
4736
Тож здається, що навіть незначні чутки
про такі досягнення
10:04
could causeпричина our speciesвидів to go berserkБерсерк.
201
592240
2376
можуть спричинити
люту ненависть між людьми.
10:06
Now, one of the mostнайбільше frighteningстрашно things,
202
594640
2896
Але одна з найжахливіших речей,
10:09
in my viewвид, at this momentмомент,
203
597560
2776
на мою думку, на цей час -
10:12
are the kindsвидів of things
that AIАЙ researchersдослідники say
204
600360
4296
це те, що кажуть розробники
штучного інтелекту,
10:16
when they want to be reassuringзаспокійливий.
205
604680
1560
коли хочуть заспокоїти нас.
10:19
And the mostнайбільше commonзагальний reasonпричина
we're told not to worryтурбуватися is time.
206
607000
3456
Найпоширенішою підставою
не турбуватися, кажуть вони, є час.
10:22
This is all a long way off,
don't you know.
207
610480
2056
Це ще так далеко,
хіба ви не знаєте.
10:24
This is probablyймовірно 50 or 100 yearsроків away.
208
612560
2440
Це ще може тривати 50 або 100 років.
10:27
One researcherдослідник has said,
209
615720
1256
Один із дослідників сказав:
10:29
"WorryingТурбуючись about AIАЙ safetyбезпека
210
617000
1576
"Хвилюватися через безпеку
штучного інтелекту -
10:30
is like worryingтурбуючись
about overpopulationперенаселення on MarsМарс."
211
618600
2280
те ж саме, що перейматися
перенаселенням на Марсі".
10:34
This is the SiliconКремній ValleyДолина versionверсія
212
622116
1620
Це така версія Кремнієвої долини
10:35
of "don't worryтурбуватися your
prettyкрасиво little headголова about it."
213
623760
2376
фрази: "Не забивай цим
свою гарненьку голівку".
10:38
(LaughterСміх)
214
626160
1336
(Сміх)
10:39
No one seemsздається to noticeпомітити
215
627520
1896
Здається, ніхто не помічає,
10:41
that referencingпосилання the time horizonгоризонт
216
629440
2616
що посилатися на часову віддаленість -
10:44
is a totalзагальна кількість nonне є sequitursequitur.
217
632080
2576
хибно.
10:46
If intelligenceрозвідка is just a matterматерія
of informationінформація processingобробка,
218
634680
3256
Якщо інтелект - це питання
обробки інформації,
10:49
and we continueпродовжуй to improveполіпшити our machinesмашини,
219
637960
2656
і ми далі удосконалюватимемо наші машини,
10:52
we will produceвиробляти
some formформа of superintelligencesuperintelligence.
220
640640
2880
то ми створимо
якусь форму супер-інтелекту.
10:56
And we have no ideaідея
how long it will take us
221
644320
3656
І ми не уявляємо,
скільки часу нам потрібно,
11:00
to createстворити the conditionsумови
to do that safelyбезпечно.
222
648000
2400
щоб створити умови,
де це буде безпечно.
Повторюю ще раз.
11:04
Let me say that again.
223
652200
1296
11:05
We have no ideaідея how long it will take us
224
653520
3816
Ми не уявляємо,
скільки часу нам потрібно,
11:09
to createстворити the conditionsумови
to do that safelyбезпечно.
225
657360
2240
щоб створити умови,
де це буде безпечно.
11:12
And if you haven'tні noticedпомітив,
50 yearsроків is not what it used to be.
226
660920
3456
І якщо ви не помітили,
50 років - вже не ті, що раніше.
11:16
This is 50 yearsроків in monthsмісяці.
227
664400
2456
Це 50 років у місяцях.
11:18
This is how long we'veми маємо had the iPhoneiPhone.
228
666880
1840
Стільки часу в нас уже є iPhone.
11:21
This is how long "The SimpsonsСімпсони"
has been on televisionтелебачення.
229
669440
2600
Стільки часу "Сімпсони" вже
існують на телебаченні.
П'ятдесят років -
це не так вже й багато часу,
11:24
FiftyП'ятдесят yearsроків is not that much time
230
672680
2376
11:27
to meetзустрітися one of the greatestнайбільший challengesвиклики
our speciesвидів will ever faceобличчя.
231
675080
3160
щоб прийняти найбільший виклик,
з яким зіткнеться людський рід.
11:31
OnceОдного разу again, we seemздається to be failingневдача
to have an appropriateвідповідний emotionalемоційний responseвідповідь
232
679640
4016
Повторюю: ми, здається, не маємо
відповідної емоційної реакції
11:35
to what we have everyкожен reasonпричина
to believe is comingприходить.
233
683680
2696
на те, що точно до нас наближається.
11:38
The computerкомп'ютер scientistвчений StuartСтюарт RussellРассел
has a niceприємно analogyаналогія here.
234
686400
3976
Комп'ютерний експерт Стюарт Рассел
наводить гарну аналогію.
11:42
He said, imagineуявіть собі that we receivedотримано
a messageповідомлення from an alienчужий civilizationцивілізація,
235
690400
4896
Він сказав: "Уявіть, що ми отримали
повідомлення від інопланетної цивілізації,
11:47
whichкотрий readчитати:
236
695320
1696
в якому йдеться:
11:49
"People of EarthЗемлі,
237
697040
1536
"Земляни,
11:50
we will arriveприбути on your planetпланета in 50 yearsроків.
238
698600
2360
ми прибудемо на вашу планету через 50 років.
11:53
Get readyготовий."
239
701800
1576
Готуйтеся".
11:55
And now we're just countingпідрахунок down
the monthsмісяці untilдо the mothershipMothership landsземель?
240
703400
4256
І тепер ми лише рахуємо місяці, що
лишилися до прибуття космічного корабля?
11:59
We would feel a little
more urgencyтерміновість than we do.
241
707680
3000
Ми б відчули тоді трохи більше терміновості,
ніж ми відчуваємо тепер.
Інша причина, чому нам кажуть
не хвилюватися, полягає в тому,
12:04
AnotherІнший reasonпричина we're told not to worryтурбуватися
242
712680
1856
12:06
is that these machinesмашини
can't help but shareподілитися our valuesцінності
243
714560
3016
що ці машини
муситимуть поділяти наші цінності,
12:09
because they will be literallyбуквально
extensionsрозширення of ourselvesми самі.
244
717600
2616
адже вони будуть фактично
продовженням нас самих.
12:12
They'llВони будуть be graftedgrafted ontoна our brainsмозок,
245
720240
1816
Їх трансплантують у наші мізки,
12:14
and we'llдобре essentiallyпо суті
becomeстати theirїх limbicлімбічної systemsсистеми.
246
722080
2360
і ми, по суті,
станемо їхньою лімбічною системою.
12:17
Now take a momentмомент to considerрозглянемо
247
725120
1416
Але задумаймось:
12:18
that the safestнайбезпечніший
and only prudentрозумно pathшлях forwardвперед,
248
726560
3176
найбезпечніший
та єдиний розважливий шлях уперед,
12:21
recommendedрекомендується,
249
729760
1336
що його нам рекомендують -
12:23
is to implantімплантату this technologyтехнологія
directlyбезпосередньо into our brainsмозок.
250
731120
2800
це імплантація цієї технології
прямо у мозок.
12:26
Now, this mayможе in factфакт be the safestнайбезпечніший
and only prudentрозумно pathшлях forwardвперед,
251
734600
3376
Так, це може бути найбезпечнішим
та єдиним розважливим шляхом уперед,
12:30
but usuallyзазвичай one'sодин safetyбезпека concernsстурбованість
about a technologyтехнологія
252
738000
3056
але зазвичай усі проблеми з безпекою
12:33
have to be prettyкрасиво much workedпрацював out
before you stickпалиця it insideвсередині your headголова.
253
741080
3656
мають бути розв'язані до того,
як технологію вставлять у вашу голову.
12:36
(LaughterСміх)
254
744760
2016
(Сміх)
12:38
The deeperглибше problemпроблема is that
buildingбудівля superintelligentстворення надрозумноо AIАЙ on its ownвласний
255
746800
5336
Глибшою проблемою є те, що створення
лише надрозумного штучного інтелекту
12:44
seemsздається likelyшвидше за все to be easierлегше
256
752160
1736
здається легшим,
12:45
than buildingбудівля superintelligentстворення надрозумноо AIАЙ
257
753920
1856
ніж створення надрозумного
штучного інтелекту
12:47
and havingмаючи the completedзавершено neuroscienceневрологія
258
755800
1776
та володіння повноцінною неврологією,
12:49
that allowsдозволяє us to seamlesslyбез проблем
integrateінтегрувати our mindsрозум with it.
259
757600
2680
яка б дала нам змогу ефективно
інтегрувати наш розум із ним.
12:52
And givenдано that the companiesкомпаній
and governmentsуряди doing this work
260
760800
3176
І, знаючи це, компанії та
уряди, що займаються цією розробкою,
12:56
are likelyшвидше за все to perceiveсприймають themselvesсамі
as beingбуття in a raceгонка againstпроти all othersінші,
261
764000
3656
сприймають себе наче у перегонах
проти всіх інших,
12:59
givenдано that to winвиграти this raceгонка
is to winвиграти the worldсвіт,
262
767680
3256
тому що виграти ці перегони -
це виграти світ,
13:02
providedнадано you don't destroyзнищити it
in the nextдалі momentмомент,
263
770960
2456
якщо звісно його не буде знищено
наступної хвилини,
13:05
then it seemsздається likelyшвидше за все
that whateverщо б не було is easierлегше to do
264
773440
2616
отже, здається, що те,
що зробити найлегше,
13:08
will get doneзроблено first.
265
776080
1200
зроблять у першу чергу.
13:10
Now, unfortunatelyна жаль,
I don't have a solutionрішення to this problemпроблема,
266
778560
2856
На жаль, у мене немає
розв'язку цієї проблеми,
13:13
apartокремо from recommendingрекомендувати
that more of us think about it.
267
781440
2616
окрім як порадити,
щоб більшість із нас думала про це.
13:16
I think we need something
like a ManhattanМанхеттен ProjectПроект
268
784080
2376
Гадаю, нам потрібно, щось
на кшталт "Проекту Мангеттен"
13:18
on the topicтема of artificialштучний intelligenceрозвідка.
269
786480
2016
на тему штучного інтелекту.
13:20
Not to buildбудувати it, because I think
we'llдобре inevitablyнеминуче do that,
270
788520
2736
Не для того, щоб створити його, адже
я думаю, ми неминуче це зробимо,
13:23
but to understandзрозуміти
how to avoidуникати an armsзброю raceгонка
271
791280
3336
а щоб зрозуміти,
як уникнути збройних перегонів
13:26
and to buildбудувати it in a way
that is alignedу відповідність with our interestsінтереси.
272
794640
3496
та створити його так, щоб він
відповідав нашим інтересам.
13:30
When you're talkingговорити
about superintelligentстворення надрозумноо AIАЙ
273
798160
2136
Коли ми розмовляємо про
надрозумний штучний інтелект,
13:32
that can make changesзміни to itselfсама по собі,
274
800320
2256
що може самозмінюватися,
13:34
it seemsздається that we only have one chanceшанс
to get the initialпочатковий conditionsумови right,
275
802600
4616
здається, в нас є лише один шанс
отримати правильні початкові умови,
13:39
and even then we will need to absorbпоглинати
276
807240
2056
і навіть тоді нам доведеться пережити
13:41
the economicекономічний and politicalполітичний
consequencesнаслідки of gettingотримувати them right.
277
809320
3040
економічні та політичні наслідки
отримання правильних умов.
13:45
But the momentмомент we admitвизнати
278
813760
2056
Та в той момент. коли ми визнаємо,
13:47
that informationінформація processingобробка
is the sourceджерело of intelligenceрозвідка,
279
815840
4000
що оброблення інформації
є джерелом інтелекту,
13:52
that some appropriateвідповідний computationalобчислювальна systemсистема
is what the basisоснови of intelligenceрозвідка is,
280
820720
4800
що деякі відповідні обчислювальні системи
є базою інтелекту,
13:58
and we admitвизнати that we will improveполіпшити
these systemsсистеми continuouslyпостійно,
281
826360
3760
і визнаємо, що ми будемо удосконалювати
ці системи беззупинно,
14:03
and we admitвизнати that the horizonгоризонт
of cognitionпізнання very likelyшвидше за все farдалеко exceedsперевищує
282
831280
4456
а також те, що горизонт пізнання,
скоріш за все, простягається набагато далі,
14:07
what we currentlyв даний час know,
283
835760
1200
ніж ми на цей час розуміємо,
тоді нам доведеться визнати,
14:10
then we have to admitвизнати
284
838120
1216
14:11
that we are in the processпроцес
of buildingбудівля some sortсортувати of god.
285
839360
2640
що ми в процесі створення
своєрідного бога.
14:15
Now would be a good time
286
843400
1576
І настав час переконатися,
14:17
to make sure it's a god we can liveжити with.
287
845000
1953
що з цим богом ми зможемо жити.
14:20
Thank you very much.
288
848120
1536
Дуже вам дякую.
14:21
(ApplauseОплески)
289
849680
5093
(Оплески)
Translated by Olga Murphy
Reviewed by Hanna Leliv

▲Back to top

ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com