ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com
TED@IBM

Grady Booch: Don't fear superintelligent AI

Грэйди Буч: Не бойтесь сверхразумного искусственного интеллекта

Filmed:
2,866,438 views

«Новые технологии порождают тревогу, — говорит учёный и философ Грэйди Буч. — Но не нужно бояться всемогущего, бесчувственного ИИ». Буч разоблачает наши худшие страхи о сверхразумных компьютерах, основанные на научной фантастике. Он объясняет, как мы обучим их нашим ценностям (а не запрограммируем). Вместо того, чтобы беспокоиться о маловероятной угрозе нашему существованию, он призывает задуматься о том, как искусственный интеллект поспособствует улучшению человеческой жизни.
- Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn. Full bio

Double-click the English transcript below to play the video.

00:12
When I was a kidдитя,
I was the quintessentialнаиболее существенный nerdботан.
0
760
3840
В детстве я был типичным ботаником.
00:17
I think some of you were, too.
1
5320
2176
Думаю, некоторые из вас тоже.
00:19
(LaughterСмех)
2
7520
1216
(Смех)
00:20
And you, sirсэр, who laughedрассмеялся the loudestгромче всех,
you probablyвероятно still are.
3
8760
3216
А вы, смеётесь громче всех,
наверняка таким и остались.
00:24
(LaughterСмех)
4
12000
2256
(Смех)
00:26
I grewвырос up in a smallмаленький townгород
in the dustyпыльный plainsравнины of northсевер TexasТехас,
5
14280
3496
Я вырос в маленьком городке
среди равнин Северного Техаса.
00:29
the sonсын of a sheriffшериф
who was the sonсын of a pastorпастор.
6
17800
3336
Мой отец был шерифом, а дед — пастором.
00:33
GettingПолучение into troubleбеда was not an optionвариант.
7
21160
1920
Никаких вариантов бедокурить.
00:36
And so I startedначал readingчтение
calculusисчисление booksкниги for funвесело.
8
24040
3256
Поэтому ради забавы я начал читать
книги по математическому анализу.
00:39
(LaughterСмех)
9
27320
1536
(Смех)
00:40
You did, too.
10
28880
1696
И вы — тоже!
00:42
That led me to buildingздание a laserлазер
and a computerкомпьютер and modelмодель rocketsракеты,
11
30600
3736
Благодаря этому я сконструировал
в своей комнате лазер,
00:46
and that led me to makingизготовление
rocketракета fuelтопливо in my bedroomСпальня.
12
34360
3000
компьютер и модель,
а потом и топливо для ракеты.
00:49
Now, in scientificнаучный termsсроки,
13
37960
3656
Научный термин для этого —
00:53
we call this a very badПлохо ideaидея.
14
41640
3256
очень плохая идея.
00:56
(LaughterСмех)
15
44920
1216
(Смех)
00:58
Around that sameодна и та же time,
16
46160
2176
Как раз в то время
01:00
StanleyСтэнли Kubrick'sКубрика "2001: A SpaceКосмос OdysseyОдиссея"
cameпришел to the theatersтеатры,
17
48360
3216
вышел фильм Стенли Кубрика
«Космическая одиссея 2001 года»,
01:03
and my life was foreverнавсегда changedизменено.
18
51600
2200
он кардинально изменил мою жизнь.
Мне нравилось в этом фильме
абсолютно всё,
01:06
I lovedлюбимый everything about that movieкино,
19
54280
2056
01:08
especiallyособенно the HALHAL 9000.
20
56360
2536
особенно HAL 9000.
01:10
Now, HALHAL was a sentientчувствующий computerкомпьютер
21
58920
2056
HAL был разумным компьютером,
01:13
designedпредназначенный to guideруководство the Discoveryоткрытие spacecraftкосмический корабль
22
61000
2456
управляющим космическим
кораблём Discovery,
01:15
from the EarthЗемля to JupiterЮпитер.
23
63480
2536
направляющимся от Земли к Юпитеру.
01:18
HALHAL was alsoтакже a flawedнедостатки characterперсонаж,
24
66040
2056
У него был небезупречный характер,
01:20
for in the endконец he choseвыбрал
to valueстоимость the missionмиссия over humanчеловек life.
25
68120
4280
и в итоге человеческой жизни
он предпочёл миссию.
HAL был вымышленным персонажем,
01:24
Now, HALHAL was a fictionalвымышленный characterперсонаж,
26
72840
2096
01:26
but nonethelessтем не менее he speaksговорит to our fearsбоится,
27
74960
2656
но тем не менее, он вызывает страх,
01:29
our fearsбоится of beingявляющийся subjugatedподчинили
28
77640
2096
страх быть порабощённым
01:31
by some unfeelingбесчувственный, artificialискусственный intelligenceинтеллект
29
79760
3016
бесчувственным искусственным интеллектом,
01:34
who is indifferentв различных to our humanityчеловечество.
30
82800
1960
равнодушным к человеку.
01:37
I believe that suchтакие fearsбоится are unfoundedнеобоснованный.
31
85880
2576
Я считаю, такие страхи безосновательны.
01:40
IndeedВ самом деле, we standстоять at a remarkableзамечательный time
32
88480
2696
В самом деле, мы живём
в удивительное время
01:43
in humanчеловек historyистория,
33
91200
1536
в человеческой истории,
01:44
where, drivenуправляемый by refusalотказ to acceptпринимать
the limitsпределы of our bodiesтела and our mindsумов,
34
92760
4976
когда, не принимая ограничения
наших тел и нашего разума,
мы создаём механизмы
01:49
we are buildingздание machinesмашины
35
97760
1696
01:51
of exquisiteутонченный, beautifulкрасивая
complexityсложность and graceГрейс
36
99480
3616
изумительной, невероятной
сложности и тонкости,
01:55
that will extendпростираться the humanчеловек experienceопыт
37
103120
2056
которые расширят способности человека
01:57
in waysпути beyondза our imaginingвоображающий.
38
105200
1680
за грани нашего воображения.
Начав карьеру в Академии ВВС,
01:59
After a careerкарьера that led me
from the AirВоздух Forceсила Academyакадемия
39
107720
2576
продолжив в Космическом
командовании ВС США,
02:02
to SpaceКосмос Commandкоманда to now,
40
110320
1936
02:04
I becameстал a systemsсистемы engineerинженер,
41
112280
1696
я стал инженером-системотехником.
02:06
and recentlyв последнее время I was drawnвничью
into an engineeringинжиниринг problemпроблема
42
114000
2736
А в настоящее время занимаюсь
инженерными разработками,
02:08
associatedсвязанный with NASA'sНАСА missionмиссия to MarsМарс.
43
116760
2576
связанными с миссией НАСА на Марсе.
02:11
Now, in spaceпространство flightsрейсы to the MoonЛуна,
44
119360
2496
Сейчас в полётах на Луну
02:13
we can relyполагаться uponна
missionмиссия controlконтроль in HoustonХьюстон
45
121880
3136
мы можем полагаться
на управление полётами в Хьюстоне,
02:17
to watch over all aspectsаспекты of a flightрейс.
46
125040
1976
чтобы следить за всеми аспектами полёта.
02:19
HoweverОднако, MarsМарс is 200 timesраз furtherв дальнейшем away,
47
127040
3536
Однако Марс в 200 раз дальше Луны,
02:22
and as a resultрезультат it takes
on averageв среднем 13 minutesминут
48
130600
3216
и поэтому сигнал от Земли к Марсу
02:25
for a signalсигнал to travelпутешествовать
from the EarthЗемля to MarsМарс.
49
133840
3136
идёт в среднем 13 минут.
02:29
If there's troubleбеда,
there's not enoughдостаточно time.
50
137000
3400
Случись какая-то неполадка,
времени не хватит.
02:32
And so a reasonableразумный engineeringинжиниринг solutionрешение
51
140840
2496
Поэтому разумное инженерное решение —
02:35
callsзвонки for us to put missionмиссия controlконтроль
52
143360
2576
разместить центр управления полётами
02:37
insideвнутри the wallsстены of the OrionОрион spacecraftкосмический корабль.
53
145960
3016
внутри космического корабля Orion.
02:41
AnotherДругая fascinatingочаровательный ideaидея
in the missionмиссия profileпрофиль
54
149000
2896
Другая увлекательная идея для миссии —
02:43
placesмест humanoidгуманоид robotsроботы
on the surfaceповерхность of MarsМарс
55
151920
2896
отправить роботов-гуманоидов на Марс
02:46
before the humansлюди themselvesсамих себя arriveприбыть,
56
154840
1856
до прилёта людей:
сначала они построят базы,
02:48
first to buildстроить facilitiesоборудование
57
156720
1656
02:50
and laterпозже to serveобслуживать as collaborativeсовместный
membersчлены of the scienceнаука teamкоманда.
58
158400
3360
а потом будут помогать научной команде.
02:55
Now, as I lookedсмотрел at this
from an engineeringинжиниринг perspectiveперспективы,
59
163400
2736
Когда я посмотрел на это как инженер,
02:58
it becameстал very clearЧисто to me
that what I neededнеобходимый to architectархитектор
60
166160
3176
стало ясно, что нужно спроектировать
умный, способный к сотрудничеству,
03:01
was a smartумная, collaborativeсовместный,
61
169360
2176
03:03
sociallyсоциально intelligentумный
artificialискусственный intelligenceинтеллект.
62
171560
2376
социально-сознательный
искусственный интеллект.
03:05
In other wordsслова, I neededнеобходимый to buildстроить
something very much like a HALHAL
63
173960
4296
Другими словами, нужно было создать
что-то очень похожее на HAL,
03:10
but withoutбез the homicidalсмертоносный tendenciesтенденции.
64
178280
2416
но без склонности к убийствам.
03:12
(LaughterСмех)
65
180720
1360
(Смех)
03:14
Let's pauseПауза for a momentмомент.
66
182920
1816
Давайте на минуту остановимся.
03:16
Is it really possibleвозможное to buildстроить
an artificialискусственный intelligenceинтеллект like that?
67
184760
3896
Реально ли сделать такой
искусственный интеллект?
03:20
ActuallyНа самом деле, it is.
68
188680
1456
Вполне.
Во многом
03:22
In manyмногие waysпути,
69
190160
1256
03:23
this is a hardжесткий engineeringинжиниринг problemпроблема
70
191440
1976
это сложная инженерная задача
03:25
with elementsэлементы of AIискусственный интеллект,
71
193440
1456
с использованием ИИ,
03:26
not some wetвлажный hairволосы ballмяч of an AIискусственный интеллект problemпроблема
that needsпотребности to be engineeredинженерии.
72
194920
4696
а не запутанный клубок проблем ИИ,
который нужно распутать.
03:31
To paraphraseпарафраз AlanАлан TuringТьюринг,
73
199640
2656
Перефразируя Алана Туринга,
03:34
I'm not interestedзаинтересованный
in buildingздание a sentientчувствующий machineмашина.
74
202320
2376
я не собираюсь создавать разумного робота.
03:36
I'm not buildingздание a HALHAL.
75
204720
1576
Я не собираюсь создавать HAL.
03:38
All I'm after is a simpleпросто brainголовной мозг,
76
206320
2416
Мне всего лишь нужен простой разум
03:40
something that offersпредложения
the illusionиллюзия of intelligenceинтеллект.
77
208760
3120
с иллюзией интеллекта.
03:45
The artИзобразительное искусство and the scienceнаука of computingвычисления
have come a long way
78
213000
3136
Искусство и наука о вычислительной
технике прошли долгий путь
03:48
sinceпоскольку HALHAL was onscreenна экране,
79
216160
1496
с появления HAL на экранах,
03:49
and I'd imagineпредставить if his inventorизобретатель
Drдоктор. ChandraChandra were here todayCегодня,
80
217680
3216
и я представляю, сколько вопросов
возникло бы у его изобретателя
03:52
he'dон have a wholeвсе lot of questionsвопросов for us.
81
220920
2336
д-ра Чандра, будь он сейчас здесь.
03:55
Is it really possibleвозможное for us
82
223280
2096
Возможно ли на самом деле
03:57
to take a systemсистема of millionsмиллионы
uponна millionsмиллионы of devicesприборы,
83
225400
4016
взять систему из миллионов устройств,
прочитать их потоки данных,
04:01
to readчитать in theirих dataданные streamsпотоки,
84
229440
1456
04:02
to predictпрогнозировать theirих failuresнеудачи
and actакт in advanceпродвижение?
85
230920
2256
предугадать их ошибки и заранее исправить?
04:05
Yes.
86
233200
1216
Да.
Можно ли создать механизмы,
которые говорят на человеческом языке?
04:06
Can we buildстроить systemsсистемы that converseобратный
with humansлюди in naturalнатуральный languageязык?
87
234440
3176
04:09
Yes.
88
237640
1216
Да.
Создать механизмы, способные
распознавать объекты, эмоции,
04:10
Can we buildстроить systemsсистемы
that recognizeпризнать objectsобъекты, identifyидентифицировать emotionsэмоции,
89
238880
2976
04:13
emoteпереигрывать themselvesсамих себя,
playиграть gamesигры and even readчитать lipsгубы?
90
241880
3376
выражать свои эмоции,
играть и даже читать по губам?
04:17
Yes.
91
245280
1216
Да.
Механизмы, которые смогут
формулировать цели,
04:18
Can we buildстроить a systemсистема that setsнаборы goalsцели,
92
246520
2136
04:20
that carriesосуществляет out plansпланы againstпротив those goalsцели
and learnsузнает alongвдоль the way?
93
248680
3616
составлять планы для их достижения
и учиться в процессе их выполнения?
04:24
Yes.
94
252320
1216
Да.
Можем ли мы создать механизмы,
способные понимать чужое сознание?
04:25
Can we buildстроить systemsсистемы
that have a theoryтеория of mindразум?
95
253560
3336
04:28
This we are learningобучение to do.
96
256920
1496
Мы работаем над этим.
04:30
Can we buildстроить systemsсистемы that have
an ethicalэтический and moralморальный foundationФонд?
97
258440
3480
Можем ли мы создать механизмы
с этическими и нравственными основами?
04:34
This we mustдолжен learnучить how to do.
98
262480
2040
Это задача для нас на будущее.
Давайте на минуту представим
04:37
So let's acceptпринимать for a momentмомент
99
265360
1376
04:38
that it's possibleвозможное to buildстроить
suchтакие an artificialискусственный intelligenceинтеллект
100
266760
2896
возможность создания
такого искусственного разума
04:41
for this kindсвоего рода of missionмиссия and othersдругие.
101
269680
2136
именно для таких целей, и не только.
04:43
The nextследующий questionвопрос
you mustдолжен askпросить yourselfсам is,
102
271840
2536
Следующий вопрос, который вы
должны себе задать:
04:46
should we fearстрах it?
103
274400
1456
а следует ли нам его бояться?
04:47
Now, everyкаждый newновый technologyтехнологии
104
275880
1976
Любая новая технология
04:49
bringsприносит with it
some measureизмерение of trepidationбеспокойство.
105
277880
2896
вызывает некоторое беспокойство.
04:52
When we first saw carsлегковые автомобили,
106
280800
1696
Когда впервые появились автомобили,
04:54
people lamentedсетовал that we would see
the destructionразрушение of the familyсемья.
107
282520
4016
люди переживали, что это разрушит семьи.
04:58
When we first saw telephonesтелефоны come in,
108
286560
2696
Когда появились телефоны,
05:01
people were worriedволновался it would destroyуничтожить
all civilгражданского conversationразговор.
109
289280
2896
люди боялись, что перестанут
общаться вживую.
05:04
At a pointточка in time we saw
the writtenнаписано wordслово becomeстали pervasiveраспространяющийся,
110
292200
3936
В какой-то момент мы увидели,
что распространилась письменность,
05:08
people thought we would loseпотерять
our abilityспособность to memorizeвыучить наизусть.
111
296160
2496
и подумали, что потеряем
способность к запоминанию.
05:10
These things are all trueправда to a degreeстепень,
112
298680
2056
В этом есть доля истины,
05:12
but it's alsoтакже the caseдело
that these technologiesтехнологии
113
300760
2416
но также правда и то, что эти технологии
05:15
broughtпривел to us things
that extendedрасширенный the humanчеловек experienceопыт
114
303200
3376
привели нас к огромнейшему расширению
05:18
in some profoundглубокий waysпути.
115
306600
1880
сознания и возможностей человека.
05:21
So let's take this a little furtherв дальнейшем.
116
309840
2280
Давайте пойдём дальше.
05:25
I do not fearстрах the creationсоздание
of an AIискусственный интеллект like this,
117
313120
4736
Я не боюсь появления ИИ
с такими возможностями,
05:29
because it will eventuallyв итоге
embodyолицетворять some of our valuesзначения.
118
317880
3816
потому что со временем он
вберёт в себя наши ценности.
05:33
ConsiderРассматривать this: buildingздание a cognitiveпознавательный systemсистема
is fundamentallyв корне differentдругой
119
321720
3496
Подумайте, создание мыслящей
системы принципиально отличается
05:37
than buildingздание a traditionalтрадиционный
software-intensiveПрограммное обеспечение интенсивного systemсистема of the pastмимо.
120
325240
3296
от создания традиционных систем,
требующих множества программ.
05:40
We don't programпрограмма them. We teachучат them.
121
328560
2456
Мы не программируем ИИ. Мы его обучаем.
05:43
In orderзаказ to teachучат a systemсистема
how to recognizeпризнать flowersцветы,
122
331040
2656
Чтобы научить систему распознать цветок,
05:45
I showпоказать it thousandsтысячи of flowersцветы
of the kindsвиды I like.
123
333720
3016
я показываю ей тысячи цветов,
которые нравятся мне.
05:48
In orderзаказ to teachучат a systemсистема
how to playиграть a gameигра --
124
336760
2256
Чтобы научить систему, как играть...
05:51
Well, I would. You would, too.
125
339040
1960
Ну, я бы научил. Вы бы тоже.
05:54
I like flowersцветы. Come on.
126
342600
2040
Ну же! Я люблю цветы.
05:57
To teachучат a systemсистема
how to playиграть a gameигра like Go,
127
345440
2856
Чтобы научить систему играть,
например, в игру го,
06:00
I'd have it playиграть thousandsтысячи of gamesигры of Go,
128
348320
2056
ей нужно сыграть в неё тысячи раз,
06:02
but in the processобработать I alsoтакже teachучат it
129
350400
1656
но в процессе я буду обучать её
06:04
how to discernусмотреть
a good gameигра from a badПлохо gameигра.
130
352080
2416
отличать хорошую игру от плохой.
06:06
If I want to createСоздайте an artificiallyискусственно
intelligentумный legalправовой assistantпомощник,
131
354520
3696
Если я захочу создать
помощника юриста с ИИ,
06:10
I will teachучат it some corpusтело of lawзакон
132
358240
1776
я познакомлю его с законодательством,
06:12
but at the sameодна и та же time I am fusingфьюзинг with it
133
360040
2856
при этом обучая его
06:14
the senseсмысл of mercyмилость and justiceсправедливость
that is partчасть of that lawзакон.
134
362920
2880
милосердию и справедливости,
которые являются частью закона.
06:18
In scientificнаучный termsсроки,
this is what we call groundземля truthправда,
135
366560
2976
Специалисты называют это
контрольными данными,
06:21
and here'sвот the importantважный pointточка:
136
369560
2016
и вот что самое важное:
06:23
in producingпроизводства these machinesмашины,
137
371600
1456
создавая эти машины,
06:25
we are thereforeследовательно teachingобучение them
a senseсмысл of our valuesзначения.
138
373080
3416
мы прививаем им наши ценности.
06:28
To that endконец, I trustдоверять
an artificialискусственный intelligenceинтеллект
139
376520
3136
И с этой точки зрения
я доверяю ИИ столь же,
06:31
the sameодна и та же, if not more,
as a humanчеловек who is well-trainedхорошо обученный.
140
379680
3640
если не больше, чем человеку
с хорошим воспитанием.
06:36
But, you mayмай askпросить,
141
384080
1216
Но вы можете спросить:
06:37
what about rogueИзгой agentsагенты,
142
385320
2616
а как насчёт неконтролируемых лиц,
06:39
some well-fundedхорошо финансируемая
nongovernmentнеправительственная organizationорганизация?
143
387960
3336
например, хорошо финансируемых
неправительственных организаций?
06:43
I do not fearстрах an artificialискусственный intelligenceинтеллект
in the handрука of a loneодинокий wolfволк.
144
391320
3816
Я не боюсь ИИ в руках таких одиночек.
06:47
Clearlyочевидно, we cannotне могу protectзащищать ourselvesсами
againstпротив all randomслучайный actsакты of violenceнасилие,
145
395160
4536
Очевидно, мы не можем защитить себя
от всех случайных актов насилия,
06:51
but the realityреальность is suchтакие a systemсистема
146
399720
2136
но на деле такая система требует
06:53
requiresтребует substantialсущественный trainingобучение
and subtleтонкий trainingобучение
147
401880
3096
значительной подготовки
и тщательного обучения,
06:57
farдалеко beyondза the resourcesРесурсы of an individualиндивидуальный.
148
405000
2296
что далеко за пределами частных ресурсов.
06:59
And furthermoreболее того,
149
407320
1216
Более того,
07:00
it's farдалеко more than just injectingинъекционных
an internetинтернет virusвирус to the worldМир,
150
408560
3256
это сложнее, чем распространить
интернет-вирус по всему миру,
07:03
where you pushОт себя a buttonкнопка,
all of a suddenвнезапно it's in a millionмиллиона placesмест
151
411840
3096
когда достаточно нажать кнопку —
и он повсюду,
07:06
and laptopsноутбуки startНачало blowingдующий up
all over the placeместо.
152
414960
2456
везде начинают взрываться компьютеры.
07:09
Now, these kindsвиды of substancesвещества
are much largerбольше,
153
417440
2816
Эти вещи гораздо глобальнее,
07:12
and we'llЧто ж certainlyбезусловно see them comingприход.
154
420280
1715
и мы обязательно их увидим.
07:14
Do I fearстрах that suchтакие
an artificialискусственный intelligenceинтеллект
155
422520
3056
Боюсь ли я, что такой
искусственный интеллект
07:17
mightмог бы threatenугрожать all of humanityчеловечество?
156
425600
1960
станет угрозой для человечества?
07:20
If you look at moviesкино
suchтакие as "The Matrixматрица," "Metropolisметрополия,"
157
428280
4376
Если вспомнить фильмы
«Матрица», «Метрополь»,
«Терминатор», сериал «Западный мир»,
07:24
"The Terminatorтерминатор,"
showsшоу suchтакие as "WestworldWestworld,"
158
432680
3176
07:27
they all speakговорить of this kindсвоего рода of fearстрах.
159
435880
2136
во всех говорится о подобном страхе.
07:30
IndeedВ самом деле, in the bookкнига "Superintelligenceсуперинтеллект"
by the philosopherфилософ NickНик BostromBostrom,
160
438040
4296
Философ Ник Бостром
в книге «Искусственный интеллект»
07:34
he picksкирки up on this themeтема
161
442360
1536
поднимает эту проблему
07:35
and observesотмечает that a superintelligenceсуперинтеллект
mightмог бы not only be dangerousопасно,
162
443920
4016
и пишет, что ИИ может
быть не только опасен,
07:39
it could representпредставлять an existentialэкзистенциальный threatугроза
to all of humanityчеловечество.
163
447960
3856
он может быть угрозой
существованию человечества.
07:43
Drдоктор. Bostrom'sБострома basicосновной argumentаргумент
164
451840
2216
Главный аргумент Бострома:
07:46
is that suchтакие systemsсистемы will eventuallyв итоге
165
454080
2736
со временем у этих машин появится
07:48
have suchтакие an insatiableненасытный
thirstжажда for informationИнформация
166
456840
3256
ненасытная жажда информации,
07:52
that they will perhapsвозможно learnучить how to learnучить
167
460120
2896
они, возможно, научатся
учиться самостоятельно
07:55
and eventuallyв итоге discoverобнаружить
that they mayмай have goalsцели
168
463040
2616
и в конце концов обнаружат,
что у них могут быть цели,
07:57
that are contraryвопреки to humanчеловек needsпотребности.
169
465680
2296
которые противоречат
потребностям человека.
08:00
Drдоктор. BostromBostrom has a numberномер of followersпоследователи.
170
468000
1856
У Бострома есть последователи.
08:01
He is supportedподдержанный by people
suchтакие as ElonЭлон MuskМускус and StephenСтивен HawkingХокинг.
171
469880
4320
Его поддерживают такие люди,
как Элон Маск и Стивен Хокинг.
08:06
With all dueв связи respectуважение
172
474880
2400
При всём уважении
08:10
to these brilliantблестящий mindsумов,
173
478160
2016
к этим выдающимся умам,
08:12
I believe that they
are fundamentallyв корне wrongнеправильно.
174
480200
2256
я всё-таки полагаю, что они ошибаются.
08:14
Now, there are a lot of piecesкуски
of Drдоктор. Bostrom'sБострома argumentаргумент to unpackраспаковывать,
175
482480
3176
Можно поспорить со многими
аргументами Бострома,
08:17
and I don't have time to unpackраспаковывать them all,
176
485680
2136
и у меня нет на это времени,
08:19
but very brieflyкратко, considerрассматривать this:
177
487840
2696
но вкратце, знайте,
08:22
superсупер knowingзнание is very differentдругой
than superсупер doing.
178
490560
3736
что сверхзнание — не то же самое,
что сверхвозможности.
08:26
HALHAL was a threatугроза to the Discoveryоткрытие crewэкипаж
179
494320
1896
HAL был угрозой для экипажа Discovery
08:28
only insofarпоскольку as HALHAL commandedскомандовал
all aspectsаспекты of the Discoveryоткрытие.
180
496240
4416
только пока он контролировал
управление Discovery.
08:32
So it would have to be
with a superintelligenceсуперинтеллект.
181
500680
2496
То же и с суперинтеллектом.
08:35
It would have to have dominionвладычество
over all of our worldМир.
182
503200
2496
Он должен будет господствовать над миром.
08:37
This is the stuffматериал of SkynetSkynet
from the movieкино "The Terminatorтерминатор"
183
505720
2816
Как Скайнет из фильма «Терминатор»,
08:40
in whichкоторый we had a superintelligenceсуперинтеллект
184
508560
1856
где суперинтеллект
08:42
that commandedскомандовал humanчеловек will,
185
510440
1376
командовал человеком,
08:43
that directedнаправленный everyкаждый deviceустройство
that was in everyкаждый cornerугол of the worldМир.
186
511840
3856
который управлял каждым устройством
в любой части мира.
08:47
PracticallyПрактически speakingГоворящий,
187
515720
1456
На практике
08:49
it ain'tне gonna happenслучаться.
188
517200
2096
такого не произойдёт.
08:51
We are not buildingздание AIsAIs
that controlконтроль the weatherПогода,
189
519320
3056
Мы не создаём ИИ,
который контролирует погоду,
08:54
that directнепосредственный the tidesприливы,
190
522400
1336
управляет приливами,
08:55
that commandкоманда us
capriciousкапризный, chaoticхаотичный humansлюди.
191
523760
3376
командует нами, непредсказуемыми людьми.
08:59
And furthermoreболее того, if suchтакие
an artificialискусственный intelligenceинтеллект existedсуществовавший,
192
527160
3896
И даже если такой ИИ и появился бы,
09:03
it would have to competeконкурировать
with humanчеловек economiesэкономики,
193
531080
2936
ему пришлось бы иметь дело
с нашей экономикой
09:06
and therebyтем самым competeконкурировать for resourcesРесурсы with us.
194
534040
2520
и конкурировать с нами
за владение ресурсами.
09:09
And in the endконец --
195
537200
1216
И наконец,
09:10
don't tell SiriSiri this --
196
538440
1240
не говорите об этом Siri.
09:12
we can always unplugотсоединять them.
197
540440
1376
Всегда можно их отключить.
09:13
(LaughterСмех)
198
541840
2120
(Смех)
09:17
We are on an incredibleнеимоверный journeyпоездка
199
545360
2456
Мы эволюционируем с нашими машинами,
09:19
of coevolutionкоэволюция with our machinesмашины.
200
547840
2496
и это — невероятное путешествие.
09:22
The humansлюди we are todayCегодня
201
550360
2496
Человек станет
09:24
are not the humansлюди we will be then.
202
552880
2536
совершенно другим в будущем.
09:27
To worryбеспокоиться now about the riseподъем
of a superintelligenceсуперинтеллект
203
555440
3136
Беспокоиться из-за суперинтеллекта —
09:30
is in manyмногие waysпути a dangerousопасно distractionотвлечение
204
558600
3056
во многом опасная трата времени,
09:33
because the riseподъем of computingвычисления itselfсам
205
561680
2336
потому что сама компьютеризация
09:36
bringsприносит to us a numberномер
of humanчеловек and societalсоциальный issuesвопросы
206
564040
3016
поднимает общечеловеческие
и социальные проблемы,
09:39
to whichкоторый we mustдолжен now attendпосещать.
207
567080
1640
которые мы должны разрешить.
09:41
How shallдолжен I bestЛучший organizeорганизовать societyобщество
208
569360
2816
Как лучше организовать общество,
когда уменьшается необходимость
в человеческом труде?
09:44
when the need for humanчеловек laborтруд, работа diminishesуменьшается?
209
572200
2336
09:46
How can I bringприносить understandingпонимание
and educationобразование throughoutна протяжении the globeземной шар
210
574560
3816
Как добиться взаимопонимания
и дать образование всему миру,
при этом учитывая различия?
09:50
and still respectуважение our differencesразличия?
211
578400
1776
09:52
How mightмог бы I extendпростираться and enhanceусилить humanчеловек life
throughчерез cognitiveпознавательный healthcareздравоохранение?
212
580200
4256
Как продлить и улучшить жизнь
через разумное здравоохранение?
09:56
How mightмог бы I use computingвычисления
213
584480
2856
Как с помощью компьютеров
09:59
to help take us to the starsзвезды?
214
587360
1760
достичь звёзд?
10:01
And that's the excitingзахватывающе thing.
215
589760
2040
И вот это вдохновляет.
10:04
The opportunitiesвозможности to use computingвычисления
216
592400
2336
Возможность использовать компьютеры
10:06
to advanceпродвижение the humanчеловек experienceопыт
217
594760
1536
для расширения опыта человека
10:08
are withinв our reachдостичь,
218
596320
1416
вполне достижима
10:09
here and now,
219
597760
1856
здесь и сейчас.
10:11
and we are just beginningначало.
220
599640
1680
Мы стоим в самом начале пути.
10:14
Thank you very much.
221
602280
1216
Большое спасибо.
10:15
(ApplauseАплодисменты)
222
603520
4286
(Аплодисменты)
Translated by Alena Chernykh
Reviewed by Marina Lee

▲Back to top

ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com