ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com
TED@IBM

Grady Booch: Don't fear superintelligent AI

Ґраді Буч: Не бійтеся надрозумного штучного інтелекту

Filmed:
2,866,438 views

Нові технології породжують нові страхи, каже науковець і філософ Ґраді Буч, але не треба боятися всемогутнього позбавленого почуттів штучного інтелекту. Буч заспокоює наш найбільший (спровокований науковою фантастикою) страх надрозумних комп'ютерів, пояснюючи, як ми не програмуватимемо їх, а навчатимемо - і навчимо поділяти наші цінності. Замість того, щоб перейматися малоймовірною екзистенційною загрозою, він закликає замислитися, як саме штучний інтелект покращить людське життя.
- Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn. Full bio

Double-click the English transcript below to play the video.

00:12
When I was a kidдитина,
I was the quintessentialквінтесенція nerdботанік.
0
760
3840
Коли я був малим,
я був еталонним "ботаніком".
00:17
I think some of you were, too.
1
5320
2176
Думаю, деякі з вас
теж такими були.
00:19
(LaughterСміх)
2
7520
1216
(Сміх)
00:20
And you, sirсер, who laughedсміявся the loudestгучніше,
you probablyймовірно still are.
3
8760
3216
А ви, пане, що сміявся найголосніше,
ним, мабуть, і залишились.
00:24
(LaughterСміх)
4
12000
2256
(Сміх)
00:26
I grewвиріс up in a smallмаленький townмісто
in the dustyпилові plainsрівнини of northпівніч TexasТехас,
5
14280
3496
Я ріс у маленькому містечку
на запиленій рівнині північного Техасу,
00:29
the sonсин of a sheriffШериф
who was the sonсин of a pastorпастор.
6
17800
3336
син шерифа, який був сином пастора.
00:33
GettingОтримання into troubleбіда was not an optionваріант.
7
21160
1920
Вскочити в якусь халепу
було не варіант.
00:36
And so I startedпочався readingчитання
calculusчислення booksкниги for funвесело.
8
24040
3256
І тому заради розваги
я почав читати книжки з обчислення.
00:39
(LaughterСміх)
9
27320
1536
(Сміх)
00:40
You did, too.
10
28880
1696
Ви також це робили?
00:42
That led me to buildingбудівля a laserлазер
and a computerкомп'ютер and modelмодель rocketsракети,
11
30600
3736
Це призвело до того, що я зробив лазер,
і комп'ютер, і модель ракети,
00:46
and that led me to makingвиготовлення
rocketракета fuelпаливо in my bedroomспальня.
12
34360
3000
і це призвело до того, що я зробив
ракетне паливо в спальні.
00:49
Now, in scientificнауковий termsтерміни,
13
37960
3656
Науковою мовою
00:53
we call this a very badпоганий ideaідея.
14
41640
3256
ми називаємо це
дуже поганою ідеєю.
00:56
(LaughterСміх)
15
44920
1216
(Сміх)
00:58
Around that sameтой же time,
16
46160
2176
Приблизно в той самий час
01:00
StanleyСтенлі Kubrick'sКубрик "2001: A SpaceПростір OdysseyОдіссея"
cameприйшов to the theatersтеатри,
17
48360
3216
"2001: Космічна Одісея" Стенлі Кубрика
з'явилась в кінотеатрах,
01:03
and my life was foreverназавжди changedзмінився.
18
51600
2200
і моє життя назавжди змінилось.
01:06
I lovedлюбив everything about that movieфільм,
19
54280
2056
Мені все подобалось у тому фільмі,
01:08
especiallyособливо the HALHAL 9000.
20
56360
2536
особливо ХАЛ 9000.
01:10
Now, HALHAL was a sentientрозумний computerкомп'ютер
21
58920
2056
ХАЛ був кмітливим комп'ютером,
01:13
designedрозроблений to guideпутівник the DiscoveryДіскавері spacecraftкосмічний апарат
22
61000
2456
призаченим направляти
космічний корабель Дискавері
01:15
from the EarthЗемлі to JupiterЮпітер.
23
63480
2536
з Землі на Юпітер.
01:18
HALHAL was alsoтакож a flawedнедоліки characterхарактер,
24
66040
2056
ХАЛ також був персонажем з недоліками,
01:20
for in the endкінець he choseвибрав
to valueвартість the missionмісія over humanлюдина life.
25
68120
4280
бо врешті вирішив, що місія
важливіша за людське життя.
01:24
Now, HALHAL was a fictionalвигаданий characterхарактер,
26
72840
2096
ХАЛ був вигаданим персонажем,
01:26
but nonethelessтим не менш he speaksговорить to our fearsстрахи,
27
74960
2656
проте він говорить з нашими страхами,
01:29
our fearsстрахи of beingбуття subjugatedпоневолила
28
77640
2096
зі страхом бути підкореним
01:31
by some unfeelingбездушним, artificialштучний intelligenceрозвідка
29
79760
3016
позбавленим почуттів штучним інтелектом,
01:34
who is indifferentбайдужий to our humanityлюдство.
30
82800
1960
що є байдужим до людства.
01:37
I believe that suchтакий fearsстрахи are unfoundedнеобгрунтовані.
31
85880
2576
Я вважаю, що такі страхи безпідставні.
01:40
IndeedДійсно, we standстояти at a remarkableчудовий time
32
88480
2696
Насправді ми живемо в неймовірний час
01:43
in humanлюдина historyісторія,
33
91200
1536
людської історії,
01:44
where, drivenкерований by refusalВідмова to acceptприймати
the limitsмежі of our bodiesтіла and our mindsрозум,
34
92760
4976
де, відмовляючись визнати
обмеження свого тіла і розуму,
01:49
we are buildingбудівля machinesмашини
35
97760
1696
ми будуємо машини
01:51
of exquisiteВишуканий, beautifulгарний
complexityскладність and graceГрейс
36
99480
3616
фантастичної, немислимої
складності та величі,
01:55
that will extendпродовжити the humanлюдина experienceдосвід
37
103120
2056
які розширять досвід людини так,
01:57
in waysшляхи beyondдалі our imaginingмріючи.
38
105200
1680
що зараз і не уявити.
Після кар'єри, яка привела мене
з Академії повітряних сил
01:59
After a careerкар'єра that led me
from the AirПовітря ForceСили AcademyАкадемія
39
107720
2576
02:02
to SpaceПростір CommandКоманда to now,
40
110320
1936
до Космічного командування,
02:04
I becameстає a systemsсистеми engineerінженер,
41
112280
1696
я обійняв посаду
системного інженера
02:06
and recentlyнещодавно I was drawnнамальований
into an engineeringінженерія problemпроблема
42
114000
2736
і нещодавно мене залучили до
інженерної проблеми,
02:08
associatedасоційований with NASA'sНАСА missionмісія to MarsМарс.
43
116760
2576
пов'язаною з місією на Марс НАСА.
02:11
Now, in spaceпростір flightsпольоти to the MoonМісяць,
44
119360
2496
Під час польотів на Місяць
02:13
we can relyпокладатися uponна
missionмісія controlКОНТРОЛЬ in HoustonХ'юстон
45
121880
3136
ми можемо покладатись
на керування місією в Хьюстоні,
що спостерігатиме
за всіма особливостями польоту.
02:17
to watch over all aspectsаспекти of a flightполіт.
46
125040
1976
02:19
HoweverОднак, MarsМарс is 200 timesразів furtherдалі away,
47
127040
3536
Однак Марс у 200 разів
віддаленіший,
02:22
and as a resultрезультат it takes
on averageсередній 13 minutesхвилин
48
130600
3216
і тому потрібно в середньому
13 хвилин,
02:25
for a signalсигнал to travelподорожувати
from the EarthЗемлі to MarsМарс.
49
133840
3136
щоб сигнал подолав відстань
від Землі до Марсу.
02:29
If there's troubleбіда,
there's not enoughдостатньо time.
50
137000
3400
Якщо виникне проблема,
часу забракне.
02:32
And so a reasonableрозумний engineeringінженерія solutionрішення
51
140840
2496
І тому розумним інженерним рішенням
02:35
callsдзвінки for us to put missionмісія controlКОНТРОЛЬ
52
143360
2576
є розмістити контроль над місією
02:37
insideвсередині the wallsстіни of the OrionОріон spacecraftкосмічний апарат.
53
145960
3016
всередині космічного корабля Оріон.
02:41
AnotherІнший fascinatingзахоплююче ideaідея
in the missionмісія profileпрофіль
54
149000
2896
Ще одна чудова ідея
в організації місії -
02:43
placesмісць humanoidгуманоїд robotsроботів
on the surfaceповерхня of MarsМарс
55
151920
2896
помістити робота-гуманоїда
на поверхню Марсу
02:46
before the humansлюди themselvesсамі arriveприбути,
56
154840
1856
перед тим, як туди прибуде людина, -
02:48
first to buildбудувати facilitiesоб'єкти
57
156720
1656
спочатку
побудувати споруди,
02:50
and laterпізніше to serveслужити as collaborativeспільна робота
membersчлени of the scienceнаука teamкоманда.
58
158400
3360
а згодом служити одним із членів
наукової команди.
02:55
Now, as I lookedподивився at this
from an engineeringінженерія perspectiveперспектива,
59
163400
2736
Коли я подивився на це
з точки зору інженерії,
02:58
it becameстає very clearясно to me
that what I neededнеобхідний to architectархітектор
60
166160
3176
мені стало зрозуміло,
що мені потрібно створити
03:01
was a smartрозумний, collaborativeспільна робота,
61
169360
2176
розумний, здатний до співпраці,
03:03
sociallyсоціально intelligentрозумний
artificialштучний intelligenceрозвідка.
62
171560
2376
соціально розумний
штучний інтелект.
03:05
In other wordsслова, I neededнеобхідний to buildбудувати
something very much like a HALHAL
63
173960
4296
Іншими словами, мені потрібно побудувати
щось дуже схоже на ХАЛа,
03:10
but withoutбез the homicidalсмертоносний tendenciesтенденції.
64
178280
2416
але без схильності до вбивств.
03:12
(LaughterСміх)
65
180720
1360
(Сміх)
03:14
Let's pauseпауза for a momentмомент.
66
182920
1816
Зупинімося на хвилину.
03:16
Is it really possibleможливий to buildбудувати
an artificialштучний intelligenceрозвідка like that?
67
184760
3896
Чи можливо ось так просто
створити штучний інтелект?
03:20
ActuallyНасправді, it is.
68
188680
1456
Власне, так.
03:22
In manyбагато хто waysшляхи,
69
190160
1256
З багатьох міркувань
03:23
this is a hardважко engineeringінженерія problemпроблема
70
191440
1976
це складне інженерне завдання
03:25
with elementsелементи of AIАЙ,
71
193440
1456
стосовно штучного інтелекту,
03:26
not some wetWET hairволосся ballкуля of an AIАЙ problemпроблема
that needsпотреби to be engineeredспроектований.
72
194920
4696
не якась скажена кулька,
що має бути спроектована.
03:31
To paraphraseпереказ AlanАлан TuringТюринга,
73
199640
2656
Якщо перефразувати Алана Тюрінґа,
03:34
I'm not interestedзацікавлений
in buildingбудівля a sentientрозумний machineмашина.
74
202320
2376
я не зацікавлений в будуванні
кмітливої машини.
03:36
I'm not buildingбудівля a HALHAL.
75
204720
1576
Я не будую ХАЛА.
03:38
All I'm after is a simpleпростий brainмозок,
76
206320
2416
Все, що я хочу, - простий мозок,
03:40
something that offersпропозиції
the illusionілюзія of intelligenceрозвідка.
77
208760
3120
що може створювати
відчуття інтелекту.
03:45
The artмистецтво and the scienceнаука of computingобчислення
have come a long way
78
213000
3136
Мистецтво і наука програмування
пройшли довгий шлях
з того часу, як ХАЛ
з'явився на екрані
03:48
sinceз HALHAL was onscreenна екрані,
79
216160
1496
03:49
and I'd imagineуявіть собі if his inventorвинахідник
DrД-р. ChandraЧандра were here todayсьогодні,
80
217680
3216
і я можу уявити, якщо б його винахідник
доктор Чандра був тут сьогодні,
03:52
he'dвін буде have a wholeцілий lot of questionsпитання for us.
81
220920
2336
скільки він мав би до нас питань.
03:55
Is it really possibleможливий for us
82
223280
2096
Чи дійсно ми можемо
03:57
to take a systemсистема of millionsмільйони
uponна millionsмільйони of devicesпристрої,
83
225400
4016
змусити мільйони і мільйони
приладів
04:01
to readчитати in theirїх dataдані streamsпотоки,
84
229440
1456
зчитувати потоки даних,
04:02
to predictпередбачати theirїх failuresневдач
and actдіяти in advanceзаздалегідь?
85
230920
2256
передбачувати власні помилки
і діяти заздалегідь?
04:05
Yes.
86
233200
1216
Так.
04:06
Can we buildбудувати systemsсистеми that converseКонверс
with humansлюди in naturalприродний languageмова?
87
234440
3176
Чи вміємо ми будувати системи,
які спілкуються природною мовою?
04:09
Yes.
88
237640
1216
Так.
Чи ми вміємо будувати системи,
які розрізняють об'єкти, емоції,
04:10
Can we buildбудувати systemsсистеми
that recognizeрозпізнати objectsоб'єкти, identifyідентифікувати emotionsемоції,
89
238880
2976
04:13
emoteемоції themselvesсамі,
playграти gamesігри and even readчитати lipsгуби?
90
241880
3376
відчувають емоції самі,
грають в ігри чи навіть читають по губах?
04:17
Yes.
91
245280
1216
Так.
Чи можемо збудувати систему, яка
ставить перед собою цілі,
04:18
Can we buildбудувати a systemсистема that setsнабори goalsцілі,
92
246520
2136
04:20
that carriesносить out plansплани againstпроти those goalsцілі
and learnsвчиться alongразом the way?
93
248680
3616
яка будує плани відносно цих цілей
і навчається одночасно?
04:24
Yes.
94
252320
1216
Так.
04:25
Can we buildбудувати systemsсистеми
that have a theoryтеорія of mindрозум?
95
253560
3336
Чи вміємо будувати системи,
що моделюють психіку людини?
04:28
This we are learningнавчання to do.
96
256920
1496
Ми вчимося це робити.
04:30
Can we buildбудувати systemsсистеми that have
an ethicalетичний and moralморальний foundationфундація?
97
258440
3480
Чи вміємо будувати системи,
які мають етичні та моральні засади?
04:34
This we mustповинен learnвчитися how to do.
98
262480
2040
Ми маємо цього навчитись.
04:37
So let's acceptприймати for a momentмомент
99
265360
1376
Тож припустімо на мить,
04:38
that it's possibleможливий to buildбудувати
suchтакий an artificialштучний intelligenceрозвідка
100
266760
2896
що можна побудувати
штучний інтелект
04:41
for this kindдоброзичливий of missionмісія and othersінші.
101
269680
2136
для цього типу місії та подібних.
04:43
The nextдалі questionпитання
you mustповинен askзапитай yourselfсамі is,
102
271840
2536
Наступне питання,
яке ви маєте поставити:
04:46
should we fearстрах it?
103
274400
1456
чи слід його боятися?
04:47
Now, everyкожен newновий technologyтехнологія
104
275880
1976
Кожна нова технологія
04:49
bringsприносить with it
some measureміра of trepidationтрепет.
105
277880
2896
тягне за собою
певне занепокоєння.
04:52
When we first saw carsавтомобілі,
106
280800
1696
Коли ми вперше побачили авто,
04:54
people lamentedнарікав that we would see
the destructionруйнування of the familyсім'я.
107
282520
4016
люди галасували, що з цього почнеться
руйнування сім'ї.
04:58
When we first saw telephonesтелефони come in,
108
286560
2696
Коли ми вперше побачили телефони,
05:01
people were worriedстурбований it would destroyзнищити
all civilцивільний conversationрозмова.
109
289280
2896
люди були стурбовані, що вони зруйнують
всі повсякденні розмови.
05:04
At a pointточка in time we saw
the writtenнаписано wordслово becomeстати pervasiveвсепроникний,
110
292200
3936
Коли ми побачили, що
письмове слово стало поширеним,
05:08
people thought we would loseвтрачати
our abilityздібності to memorizeзапам'ятати.
111
296160
2496
люди думали, що ми втратимо
вміння запам'ятовувати.
05:10
These things are all trueправда to a degreeступінь,
112
298680
2056
Усі ці речі до певної міри правдиві,
05:12
but it's alsoтакож the caseсправа
that these technologiesтехнології
113
300760
2416
але водночас ці технології
05:15
broughtприніс to us things
that extendedрозширено the humanлюдина experienceдосвід
114
303200
3376
принесли нам винаходи,
які якісно поглибили людський досвід -
05:18
in some profoundглибокий waysшляхи.
115
306600
1880
до нового рівня.
05:21
So let's take this a little furtherдалі.
116
309840
2280
Тому міркуймо далі.
05:25
I do not fearстрах the creationтворіння
of an AIАЙ like this,
117
313120
4736
Я не боюсь створення
подібного штучного інтелекту,
05:29
because it will eventuallyврешті-решт
embodyвтілити some of our valuesцінності.
118
317880
3816
оскільки, зрештою,
він вбере в себе деякі наші цінності.
05:33
ConsiderРозглянемо this: buildingбудівля a cognitiveпізнавальний systemсистема
is fundamentallyпринципово differentінший
119
321720
3496
Задумайтесь: побудова когнітивної
системи фундаментально відрізняється
05:37
than buildingбудівля a traditionalтрадиційний
software-intensiveпрограмне забезпечення інтенсивної systemсистема of the pastминуле.
120
325240
3296
від побудови традиційного
програмного забезпечення минулого.
05:40
We don't programпрограма them. We teachвчити them.
121
328560
2456
Ми не програмуємо їх.
Ми їх вчимо.
05:43
In orderзамовлення to teachвчити a systemсистема
how to recognizeрозпізнати flowersквіти,
122
331040
2656
Щоб навчити систему
розпізнавати квіти,
05:45
I showпоказати it thousandsтисячі of flowersквіти
of the kindsвидів I like.
123
333720
3016
я показую їй тисячу квітів,
які мені подобаються.
05:48
In orderзамовлення to teachвчити a systemсистема
how to playграти a gameгра --
124
336760
2256
Щоб навчити систему
грати у гру --
05:51
Well, I would. You would, too.
125
339040
1960
Ну, я б показував. Ви б теж.
05:54
I like flowersквіти. Come on.
126
342600
2040
Я люблю квіти. Ну справді.
05:57
To teachвчити a systemсистема
how to playграти a gameгра like Go,
127
345440
2856
Щоб навчити систему, як
грати у гру - наприклад, го -
06:00
I'd have it playграти thousandsтисячі of gamesігри of Go,
128
348320
2056
мені б довелося зіграти
тисячі партій в го,
06:02
but in the processпроцес I alsoтакож teachвчити it
129
350400
1656
але в процесі я також навчаю її,
06:04
how to discernрозгледіти
a good gameгра from a badпоганий gameгра.
130
352080
2416
як відрізнити
хорошу партію від поганої.
06:06
If I want to createстворити an artificiallyштучно
intelligentрозумний legalзаконний assistantпомічник,
131
354520
3696
Якщо я хочу створити штучний інтелект,
який допомагає в правових питаннях,
06:10
I will teachвчити it some corpusкорпус of lawзакон
132
358240
1776
мені потрібно навчити його законам,
06:12
but at the sameтой же time I am fusingзапобіжник with it
133
360040
2856
але водночас я вливаю туди
06:14
the senseсенс of mercyмилосердя and justiceсправедливість
that is partчастина of that lawзакон.
134
362920
2880
почуття милосердя і справедливості,
що є частиною закону.
06:18
In scientificнауковий termsтерміни,
this is what we call groundземля truthправда,
135
366560
2976
Науковці називають це
фундаментальною правдою,
06:21
and here'sось тут the importantважливо pointточка:
136
369560
2016
і тут є важливий момент:
06:23
in producingвиробництво these machinesмашини,
137
371600
1456
створюючи ці машини,
06:25
we are thereforeотже teachingвикладання them
a senseсенс of our valuesцінності.
138
373080
3416
ми водночас вчимо їх
нашим цінностям.
06:28
To that endкінець, I trustдовіра
an artificialштучний intelligenceрозвідка
139
376520
3136
І через це я довіряю
штучному інтелекту
06:31
the sameтой же, if not more,
as a humanлюдина who is well-trainedдобре навчених.
140
379680
3640
так само, якщо не більше,
ніж добре навченій людині.
06:36
But, you mayможе askзапитай,
141
384080
1216
Але ви можете запитати,
06:37
what about rogueізгоїв agentsагенти,
142
385320
2616
а що ж щодо шахраїв,
06:39
some well-fundedдобре фінансованої
nongovernmentнедержавних organizationорганізація?
143
387960
3336
якихось добре фінансованих
неурядових організацій?
06:43
I do not fearстрах an artificialштучний intelligenceрозвідка
in the handрука of a loneсамотній wolfвовк.
144
391320
3816
Я не боюсь штучного інтелекту
в руках самотнього вовка.
06:47
ClearlyЧітко, we cannotне можу protectзахистити ourselvesми самі
againstпроти all randomвипадковий actsактів of violenceнасильство,
145
395160
4536
Зрозуміло, ми не можемо захистити себе
від всіх актів насильства,
06:51
but the realityреальність is suchтакий a systemсистема
146
399720
2136
але реальність є такою системою,
06:53
requiresвимагає substantialсуттєвий trainingтренування
and subtleвитончений trainingтренування
147
401880
3096
яка вимагає суттєвої підготовки
і тонкого навчання,
06:57
farдалеко beyondдалі the resourcesресурси of an individualіндивідуальний.
148
405000
2296
для яких окремій людині
забракне ресурсів.
06:59
And furthermoreкрім того,
149
407320
1216
І більше того,
07:00
it's farдалеко more than just injectingспоживачі ін'єкційних
an internetІнтернет virusвірус to the worldсвіт,
150
408560
3256
це набагато складніше, ніж просто
пустити інтернет-вірус у світ,
07:03
where you pushтиснути a buttonкнопка,
all of a suddenраптовий it's in a millionмільйон placesмісць
151
411840
3096
де ти натискаєш кнопку -
і ось він у мільйоні місць,
07:06
and laptopsноутбуки startпочати blowingдует up
all over the placeмісце.
152
414960
2456
і ноутбуки починають вибухати усюди.
07:09
Now, these kindsвидів of substancesречовини
are much largerбільший,
153
417440
2816
Але такі події
є значно масштабнішими,
07:12
and we'llдобре certainlyзвичайно see them comingприходить.
154
420280
1715
і ми обов'язково зможемо їх помітити.
07:14
Do I fearстрах that suchтакий
an artificialштучний intelligenceрозвідка
155
422520
3056
Чи я боюсь, що
такий штучний інтелект
07:17
mightможе threatenзагрожувати all of humanityлюдство?
156
425600
1960
може загрожувати всьому людству?
07:20
If you look at moviesфільми
suchтакий as "The MatrixМатриця," "MetropolisМегаполіс,"
157
428280
4376
Якщо ви подивитесь такі фільми,
як "Матриця", "Метрополіс",
07:24
"The TerminatorТермінатор,"
showsшоу suchтакий as "WestworldWestworld,"
158
432680
3176
"Термінатор", серіал
"Західний світ",
07:27
they all speakговорити of this kindдоброзичливий of fearстрах.
159
435880
2136
вони всі розповідають про такий страх.
07:30
IndeedДійсно, in the bookкнига "SuperintelligenceSuperintelligence"
by the philosopherфілософ NickНік BostromБостром,
160
438040
4296
Насправді, у своїй книжці "Суперрозум"
філософ Нік Бостром
порушує цю тему
07:34
he picksвибірка up on this themeтема
161
442360
1536
07:35
and observesдотримується that a superintelligencesuperintelligence
mightможе not only be dangerousнебезпечний,
162
443920
4016
і стверджує, що суперрозум може
не тільки бути небезпечним,
07:39
it could representпредставляти an existentialекзистенціальний threatзагроза
to all of humanityлюдство.
163
447960
3856
він може становити екзистенційну
загрозу людству.
07:43
DrД-р. Bostrom'sБостром готелю basicосновний argumentаргумент
164
451840
2216
Головним аргументом доктора Бострома
07:46
is that suchтакий systemsсистеми will eventuallyврешті-решт
165
454080
2736
є те, що така система одного разу
07:48
have suchтакий an insatiableненаситна
thirstспрага for informationінформація
166
456840
3256
матиме таку ненаситну спрагу
до інформації,
07:52
that they will perhapsможе бути learnвчитися how to learnвчитися
167
460120
2896
що вона, можливо, навчиться вчитися -
07:55
and eventuallyврешті-решт discoverвідкрити
that they mayможе have goalsцілі
168
463040
2616
і врешті зрозуміє,
що вона може ставити цілі,
07:57
that are contraryнавпаки to humanлюдина needsпотреби.
169
465680
2296
які суперечать потребам людства.
08:00
DrД-р. BostromБостром has a numberномер of followersпослідовники.
170
468000
1856
У доктора Бострома
є багато прихильників.
08:01
He is supportedпідтримується by people
suchтакий as ElonElon MuskМускус and StephenСтівен HawkingГокінг.
171
469880
4320
Його підтримують такі люди,
як Ілон Маск і Стівен Гокінґ.
08:06
With all dueза рахунок respectповажати
172
474880
2400
З усією повагою
08:10
to these brilliantблискучий mindsрозум,
173
478160
2016
до цих блискучих розумів,
08:12
I believe that they
are fundamentallyпринципово wrongнеправильно.
174
480200
2256
я думаю, що вони
серйозно помиляються.
Є багато аргументів доктора Бострома,
що варто обговорити,
08:14
Now, there are a lot of piecesшматки
of DrД-р. Bostrom'sБостром готелю argumentаргумент to unpackРозпакуйте,
175
482480
3176
08:17
and I don't have time to unpackРозпакуйте them all,
176
485680
2136
і в мене немає часу розглядати їх усі,
08:19
but very brieflyкоротко, considerрозглянемо this:
177
487840
2696
але дуже стисло:
08:22
superсупер knowingзнаючи is very differentінший
than superсупер doing.
178
490560
3736
неймовірне знання дуже відрізняється
від неймовірних дій.
08:26
HALHAL was a threatзагроза to the DiscoveryДіскавері crewекіпаж
179
494320
1896
ХАЛ був загрозою для команди Дискавері,
08:28
only insofarЯкщо as HALHAL commandedнаказав
all aspectsаспекти of the DiscoveryДіскавері.
180
496240
4416
оскільки ХАЛ керував усіма
аспектами Дискавері.
08:32
So it would have to be
with a superintelligencesuperintelligence.
181
500680
2496
Тому йому потрібно було мати
суперрозум.
08:35
It would have to have dominionДомініон
over all of our worldсвіт.
182
503200
2496
Йому довелось би панувати в усьому світі.
08:37
This is the stuffречі of SkynetSkyNet
from the movieфільм "The TerminatorТермінатор"
183
505720
2816
Це випадок Скайнет
з фільму "Термінатор",
08:40
in whichкотрий we had a superintelligencesuperintelligence
184
508560
1856
в якому був суперрозум,
08:42
that commandedнаказав humanлюдина will,
185
510440
1376
який контролював людську волю,
08:43
that directedспрямований everyкожен deviceпристрій
that was in everyкожен cornerкут of the worldсвіт.
186
511840
3856
направляв кожен пристрій
в будь-якому куточку світу.
08:47
PracticallyПрактично speakingкажучи,
187
515720
1456
З практичної точки зору,
08:49
it ain'tце не так gonna happenстатися.
188
517200
2096
цього ніколи не станеться.
08:51
We are not buildingбудівля AIs«АІС»
that controlКОНТРОЛЬ the weatherпогода,
189
519320
3056
Ми не будуємо штучних інтелектів,
які контролюють погоду,
08:54
that directпрямий the tidesприпливи,
190
522400
1336
які направляють хвилі,
08:55
that commandкоманда us
capriciousпримхливий, chaoticхаотичний humansлюди.
191
523760
3376
які командують нами -
примхливими, хаотичними людьми.
08:59
And furthermoreкрім того, if suchтакий
an artificialштучний intelligenceрозвідка existedіснував,
192
527160
3896
І більше того, якщо б такий
штучний інтелект справді існував,
09:03
it would have to competeконкурувати
with humanлюдина economiesекономіки,
193
531080
2936
йому б доводилось конкурувати
з людською економікою,
09:06
and therebyтим самим competeконкурувати for resourcesресурси with us.
194
534040
2520
а значить, конкурувати з нами за ресурси.
09:09
And in the endкінець --
195
537200
1216
І зрештою -
09:10
don't tell SiriСири this --
196
538440
1240
не кажіть Сірі цього -
ми завжди можемо їх вимкнути.
09:12
we can always unplugВід'єднайте them.
197
540440
1376
09:13
(LaughterСміх)
198
541840
2120
(Сміх)
09:17
We are on an incredibleнеймовірний journeyподорож
199
545360
2456
Ми в неймовірній подорожі
09:19
of coevolutionкоеволюції with our machinesмашини.
200
547840
2496
співеволюції з нашими машинами.
09:22
The humansлюди we are todayсьогодні
201
550360
2496
Люди, якими ми є сьогодні,
09:24
are not the humansлюди we will be then.
202
552880
2536
відрізняються від людей,
якими ми станемо завтра.
09:27
To worryтурбуватися now about the riseпідніматися
of a superintelligencesuperintelligence
203
555440
3136
Хвилюватися тепер
про розвиток суперрозуму -
09:30
is in manyбагато хто waysшляхи a dangerousнебезпечний distractionвідволікання
204
558600
3056
досить небезпечне відволікання,
09:33
because the riseпідніматися of computingобчислення itselfсама по собі
205
561680
2336
бо розвиток комп'ютерів як такий
09:36
bringsприносить to us a numberномер
of humanлюдина and societalсоціальні issuesвипуски
206
564040
3016
порушує багато
гуманітарних і суспільних проблем,
09:39
to whichкотрий we mustповинен now attendбути присутнім.
207
567080
1640
на які нам треба звернути увагу.
09:41
How shallповинен I bestнайкраще organizeорганізувати societyсуспільство
208
569360
2816
Як краще організувати суспільство,
коли потреба в людській праці
зменшується?
09:44
when the need for humanлюдина laborпраця diminishesзменшується?
209
572200
2336
09:46
How can I bringпринести understandingрозуміння
and educationосвіта throughoutвсюди the globeглобус
210
574560
3816
Як донести порозуміння й освіту
до всіх куточків планети
09:50
and still respectповажати our differencesвідмінності?
211
578400
1776
і поважати при цьому наші відмінності?
09:52
How mightможе I extendпродовжити and enhanceпокращити humanлюдина life
throughчерез cognitiveпізнавальний healthcareохорона здоров'я?
212
580200
4256
Як поліпшити і продовжити людське життя
за допомогою охорони когнітивного здоров'я?
09:56
How mightможе I use computingобчислення
213
584480
2856
Як використати комп'ютери,
09:59
to help take us to the starsзірки?
214
587360
1760
щоб привели нас до зірок?
10:01
And that's the excitingхвилююче thing.
215
589760
2040
Ось що цікаво.
10:04
The opportunitiesможливості to use computingобчислення
216
592400
2336
Можливості використати обчислювання
10:06
to advanceзаздалегідь the humanлюдина experienceдосвід
217
594760
1536
для поліпшення людського досвіду
10:08
are withinв межах our reachдосягти,
218
596320
1416
доступні нам
10:09
here and now,
219
597760
1856
тут і тепер,
10:11
and we are just beginningпочаток.
220
599640
1680
і це тільки початок.
10:14
Thank you very much.
221
602280
1216
Дуже дякую.
10:15
(ApplauseОплески)
222
603520
4286
(Оплески)
Translated by Olena Gapak
Reviewed by Hanna Leliv

▲Back to top

ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com