ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com
TED@IBM

Grady Booch: Don't fear superintelligent AI

グラディ・ブーチ: 人工知能が人間を超えるのを怖れることはない

Filmed:
2,866,438 views

新たな技術は新たな不安を呼び起こすものですが、非常に強力で感情のない人工知能を怖れることはないと、科学者であり思想家であるグラディ・ブーチは言います。我々は人工知能をプログラムするのでなく、人間の価値観を共有するように教えるのだと説明し、超知的なコンピューターに対する(SF的な)最悪の恐怖を和らげた上で、ありそうにない人類存亡の危機を怖れるよりも、人工知能が人の生活をどう良くするか考えるようにと促します。
- Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn. Full bio

Double-click the English transcript below to play the video.

00:12
When I was a kidキッド,
I was the quintessential典型的な nerdオタク.
0
760
3840
子供の頃 私はごく典型的な
オタク少年でした
00:17
I think some of you were, too.
1
5320
2176
皆さんの中にも
いるでしょう
00:19
(Laughter笑い)
2
7520
1216
(笑)
00:20
And you, sirサー, who laughed笑った the loudest最も大きな,
you probably多分 still are.
3
8760
3216
そこで大声で笑った人
あなたは今もそうでしょう
00:24
(Laughter笑い)
4
12000
2256
(笑)
00:26
I grew成長しました up in a small小さい townタウン
in the dustyほこりの多い plains平野 of north Texasテキサス州,
5
14280
3496
北テキサスのほこりっぽい平原の
小さな町で育ち
00:29
the son息子 of a sheriffシェリフ
who was the son息子 of a pastor牧師.
6
17800
3336
父は牧師の子で
保安官をしていました
00:33
Getting取得 into troubleトラブル was not an optionオプション.
7
21160
1920
トラブルを起こすなんて論外です
00:36
And so I started開始した reading読書
calculus微積分 books for fun楽しい.
8
24040
3256
それで趣味として
解析学の本を読むようになりました
00:39
(Laughter笑い)
9
27320
1536
(笑)
00:40
You did, too.
10
28880
1696
あなたもですか?
00:42
That led me to building建物 a laserレーザ
and a computerコンピューター and modelモデル rocketsロケット,
11
30600
3736
それでレーザーやコンピューターや
ロケットなんかを作るようになり
00:46
and that led me to making作る
rocketロケット fuel燃料 in my bedroom寝室.
12
34360
3000
さらには自分の部屋で
ロケット燃料まで作りました
00:49
Now, in scientific科学的 terms条項,
13
37960
3656
科学用語で言うと これは
00:53
we call this a very bad悪い ideaアイディア.
14
41640
3256
「とってもまずい考え」です
00:56
(Laughter笑い)
15
44920
1216
(笑)
00:58
Around that same同じ time,
16
46160
2176
同じ頃
スタンリー・キューブリックの
『2001年宇宙の旅』が劇場公開され
01:00
Stanleyスタンリー Kubrick'sキューブリック "2001: A Spaceスペース Odysseyオデッセイ"
came来た to the theaters劇場,
17
48360
3216
01:03
and my life was forever永遠に changedかわった.
18
51600
2200
私の人生を永遠に
変えることになりました
01:06
I loved愛された everything about that movie映画,
19
54280
2056
あの映画の
すべてが好きで
01:08
especially特に the HALHAL 9000.
20
56360
2536
ことに HAL 9000が
好きでした
01:10
Now, HALHAL was a sentient感覚的 computerコンピューター
21
58920
2056
HALは 知覚力のある
コンピューターで
01:13
designed設計 to guideガイド the Discovery発見 spacecraft宇宙船
22
61000
2456
宇宙船ディスカバリー号を
地球から木星へとガイドすべく
01:15
from the Earth地球 to Jupiter木星.
23
63480
2536
設計されていました
01:18
HALHAL was alsoまた、 a flawed欠陥がある characterキャラクター,
24
66040
2056
HALにはまた
性格上の欠陥があり
01:20
for in the end終わり he chose選択した
to value the missionミッション over human人間 life.
25
68120
4280
最終的に人間の命よりも
ミッションを優先させます
HALは架空のキャラクターですが
01:24
Now, HALHAL was a fictional架空の characterキャラクター,
26
72840
2096
01:26
but nonethelessそれにもかかわらず he speaks話す to our fears恐怖,
27
74960
2656
私たちの恐怖を
呼び起こします
01:29
our fears恐怖 of beingであること subjugated服従
28
77640
2096
人間に無関心な
01:31
by some unfeeling心地よい, artificial人工的な intelligenceインテリジェンス
29
79760
3016
感情のない人工知能に
支配されるという恐怖です
01:34
who is indifferent無関心 to our humanity人類.
30
82800
1960
01:37
I believe that suchそのような fears恐怖 are unfounded根拠のない.
31
85880
2576
そのような恐怖は
根拠のないものです
01:40
Indeed確かに, we standスタンド at a remarkable顕著 time
32
88480
2696
私たちは実際
人類史の中でも
目覚ましい時代にいます
01:43
in human人間 history歴史,
33
91200
1536
01:44
where, driven駆動される by refusal拒否 to accept受け入れる
the limits限界 of our bodies and our minds,
34
92760
4976
肉体や精神の限界を
受け入れることを拒み
01:49
we are building建物 machines機械
35
97760
1696
精緻で美しく
01:51
of exquisite絶妙, beautiful綺麗な
complexity複雑 and grace猶予
36
99480
3616
複雑で優雅な機械を作り
01:55
that will extend拡張する the human人間 experience経験
37
103120
2056
それが我々の想像を
超えるような仕方で
01:57
in ways方法 beyond超えて our imagining想像する.
38
105200
1680
人間の体験を
拡張することになるでしょう
01:59
After a careerキャリア that led me
from the Air空気 Force Academyアカデミー
39
107720
2576
私は空軍士官学校を出て
02:02
to Spaceスペース Commandコマンド to now,
40
110320
1936
宇宙軍で働いた後
02:04
I becameなりました a systemsシステム engineerエンジニア,
41
112280
1696
システム屋になりましたが
02:06
and recently最近 I was drawn描かれた
into an engineeringエンジニアリング problem問題
42
114000
2736
最近 NASAの
火星ミッションに関連する
エンジニアリング上の問題へと
引き寄せられました
02:08
associated関連する with NASA'sNASAの missionミッション to Mars火星.
43
116760
2576
02:11
Now, in spaceスペース flightsフライト to the Moon,
44
119360
2496
月へ行くのであれば
02:13
we can rely頼りにする upon〜に
missionミッション controlコントロール in Houstonヒューストン
45
121880
3136
ヒューストンの
地上管制センターから
飛行の全過程を
見守れます
02:17
to watch over all aspects側面 of a flightフライト.
46
125040
1976
02:19
Howeverしかしながら, Mars火星 is 200 times furtherさらに away,
47
127040
3536
しかし火星は月より
200倍も離れています
02:22
and as a result結果 it takes
on average平均 13 minutes
48
130600
3216
そのため 信号が地球から
火星に届くのには
02:25
for a signal信号 to travel旅行
from the Earth地球 to Mars火星.
49
133840
3136
平均で13分もかかります
02:29
If there's troubleトラブル,
there's not enough十分な time.
50
137000
3400
トラブルが起きた場合
そんなに待ってはいられません
02:32
And so a reasonable合理的な engineeringエンジニアリング solution溶液
51
140840
2496
妥当な工学的解決策として
02:35
callsコール for us to put missionミッション controlコントロール
52
143360
2576
オリオン号の壁の中に
管制機能を設けることにしました
02:37
inside内部 the walls of the Orionオリオン spacecraft宇宙船.
53
145960
3016
02:41
Anotherもう一つ fascinating魅力的な ideaアイディア
in the missionミッション profileプロフィール
54
149000
2896
ミッション概略にある
別の面白いアイデアとして
02:43
places場所 humanoidヒューマノイド robotsロボット
on the surface表面 of Mars火星
55
151920
2896
人間型ロボットを火星表面に
02:46
before the humans人間 themselves自分自身 arrive到着する,
56
154840
1856
人間が行く前に送って
02:48
first to buildビルドする facilities施設
57
156720
1656
施設を作らせ
その後は 科学者チームの一員として
働かせるというのがあります
02:50
and later後で to serveサーブ as collaborative協力的
membersメンバー of the science科学 teamチーム.
58
158400
3360
02:55
Now, as I looked見た at this
from an engineeringエンジニアリング perspective視点,
59
163400
2736
これを工学的な観点で見て
明らかになったのは
02:58
it becameなりました very clearクリア to me
that what I needed必要な to architect建築家
60
166160
3176
ここで設計する必要があるのは
賢く 協力的で
03:01
was a smartスマート, collaborative協力的,
61
169360
2176
社会的な人工知能
だということです
03:03
socially社会的に intelligentインテリジェントな
artificial人工的な intelligenceインテリジェンス.
62
171560
2376
03:05
In other words言葉, I needed必要な to buildビルドする
something very much like a HALHAL
63
173960
4296
言い換えると 何かHALのようなものを
作る必要があるということです
03:10
but withoutなし the homicidal殺人的な tendencies傾向.
64
178280
2416
ただし殺人癖は抜きで
03:12
(Laughter笑い)
65
180720
1360
(笑)
少し立ち止まって
考えてみましょう
03:14
Let's pause一時停止する for a moment瞬間.
66
182920
1816
03:16
Is it really possible可能 to buildビルドする
an artificial人工的な intelligenceインテリジェンス like that?
67
184760
3896
そのような人工知能を作ることは
可能なのでしょうか
03:20
Actually実際に, it is.
68
188680
1456
可能です
03:22
In manyたくさんの ways方法,
69
190160
1256
何にせよ
03:23
this is a hardハード engineeringエンジニアリング problem問題
70
191440
1976
これは人工知能の
要素がある
工学上の問題であって
03:25
with elements要素 of AIAI,
71
193440
1456
03:26
not some wet湿った hairヘア ball of an AIAI problem問題
that needsニーズ to be engineered設計された.
72
194920
4696
得体の知れない
人工知能の問題ではありません
03:31
To paraphrase言い換え Alanアラン Turingチューリング,
73
199640
2656
チューリングの言葉を
少し変えて言うと
知覚力のある機械を作ることには
関心がありません
03:34
I'm not interested興味がある
in building建物 a sentient感覚的 machine機械.
74
202320
2376
03:36
I'm not building建物 a HALHAL.
75
204720
1576
HALを作ろうとは
していません
03:38
All I'm after is a simple単純 brain,
76
206320
2416
私がやろうとしているのは
単純な脳
03:40
something that offersオファー
the illusion錯覚 of intelligenceインテリジェンス.
77
208760
3120
知性の幻想を
提供する何かです
03:45
The artアート and the science科学 of computing計算
have come a long way
78
213000
3136
HALが映画に現れて以来
コンピューターの科学と技術は
大きく進歩しました
03:48
since以来 HALHAL was onscreen画面上で,
79
216160
1496
03:49
and I'd imagine想像する if his inventor発明者
DrDr. Chandraチャンドラ were here today今日,
80
217680
3216
HALの生みの親のチャンドラ博士が
ここにいたなら
03:52
he'd彼は have a whole全体 lot of questions質問 for us.
81
220920
2336
我々に聞きたいことが
山ほどあるはずです
03:55
Is it really possible可能 for us
82
223280
2096
何百万 何千万という
デバイスを使い
03:57
to take a systemシステム of millions何百万
upon〜に millions何百万 of devicesデバイス,
83
225400
4016
そのデータストリームを読んで
故障を予期し
04:01
to read読む in their彼らの dataデータ streamsストリーム,
84
229440
1456
前もって対処することは
できるのか?
04:02
to predict予測する their彼らの failures失敗
and act行為 in advance前進?
85
230920
2256
04:05
Yes.
86
233200
1216
できます
自然言語で人間と会話するシステムを
構築することはできるのか?
04:06
Can we buildビルドする systemsシステム that converse話す
with humans人間 in naturalナチュラル language言語?
87
234440
3176
できます
04:09
Yes.
88
237640
1216
物を認識し 人の感情を判断し
自分の感情を表現し ゲームをし
04:10
Can we buildビルドする systemsシステム
that recognize認識する objectsオブジェクト, identify識別する emotions感情,
89
238880
2976
04:13
emote感情 themselves自分自身,
play遊びます gamesゲーム and even read読む lips?
90
241880
3376
唇の動きすら読めるシステムを
作ることはできるのか?
04:17
Yes.
91
245280
1216
できます
目標を設定し
その実現のための計画を実行し
04:18
Can we buildビルドする a systemシステム that setsセット goalsゴール,
92
246520
2136
04:20
that carries運ぶ out plans予定 againstに対して those goalsゴール
and learns学ぶ along一緒に the way?
93
248680
3616
その過程で学習するシステムを
作ることはできるのか?
04:24
Yes.
94
252320
1216
できます
心の理論を備えたシステムを
作ることはできるのか?
04:25
Can we buildビルドする systemsシステム
that have a theory理論 of mindマインド?
95
253560
3336
これは我々がやり方を
学ぼうとしていることです
04:28
This we are learning学習 to do.
96
256920
1496
04:30
Can we buildビルドする systemsシステム that have
an ethical倫理的な and moral道徳 foundation財団?
97
258440
3480
倫理的・道徳的基盤を持つシステムを
作ることはできるのか?
これは我々がやり方を
学ぶ必要のあることです
04:34
This we must必須 learn学ぶ how to do.
98
262480
2040
このようなミッションや
その他のことための
04:37
So let's accept受け入れる for a moment瞬間
99
265360
1376
04:38
that it's possible可能 to buildビルドする
suchそのような an artificial人工的な intelligenceインテリジェンス
100
266760
2896
人工知能を作ることは
可能であると
認めることにしましょう
04:41
for this kind種類 of missionミッション and othersその他.
101
269680
2136
次に問わなければ
ならないのは
04:43
The next question質問
you must必須 ask尋ねる yourselfあなた自身 is,
102
271840
2536
我々はそれを怖れるべきか
ということです
04:46
should we fear恐れ it?
103
274400
1456
04:47
Now, everyすべて new新しい technology技術
104
275880
1976
どんな新技術も
常にある程度の怖れは
引き起こすものです
04:49
bringsもたらす with it
some measure測定 of trepidation恐怖.
105
277880
2896
04:52
When we first saw cars,
106
280800
1696
始めて自動車を
目にした人々は
04:54
people lamented嘆きの that we would see
the destruction破壊 of the family家族.
107
282520
4016
家族が壊されるのを見ることに
なるだろうと嘆いたものです
04:58
When we first saw telephones電話 come in,
108
286560
2696
始めて電話機を
目にした人々は
礼儀にかなった会話が
損なわれると懸念したものです
05:01
people were worried心配している it would destroy破壊する
all civil市民 conversation会話.
109
289280
2896
05:04
At a pointポイント in time we saw
the written書かれた wordワード become〜になる pervasive普及して,
110
292200
3936
書かれたもので
溢れるのを見た人々は
05:08
people thought we would lose失う
our ability能力 to memorize暗記する.
111
296160
2496
記憶力が失われるのでは
と思ったものです
05:10
These things are all true真実 to a degree,
112
298680
2056
ある程度は合っていますが
05:12
but it's alsoまた、 the case場合
that these technologiesテクノロジー
113
300760
2416
そういった技術は
05:15
brought持ってきた to us things
that extended拡張された the human人間 experience経験
114
303200
3376
人間の体験を
根本的に広げてもくれました
05:18
in some profound深遠な ways方法.
115
306600
1880
05:21
So let's take this a little furtherさらに.
116
309840
2280
さらに話を進めましょう
05:25
I do not fear恐れ the creation創造
of an AIAI like this,
117
313120
4736
私はそのような人工知能を
作ることに怖れは感じません
05:29
because it will eventually最終的に
embody体現する some of our values.
118
317880
3816
それは人間の価値観を
体現することになるからです
05:33
Consider検討する this: building建物 a cognitive認知 systemシステム
is fundamentally根本的に different異なる
119
321720
3496
認知システムを作るのは
従来のソフトウェア中心のシステムを
作るのとは 根本的に異なります
05:37
than building建物 a traditional伝統的な
software-intensiveソフトウェア集約型 systemシステム of the past過去.
120
325240
3296
05:40
We don't programプログラム them. We teach教える them.
121
328560
2456
プログラムするのではなく
教えるのです
05:43
In order注文 to teach教える a systemシステム
how to recognize認識する flowersフラワーズ,
122
331040
2656
システムに花を
認識させるために
05:45
I showショー it thousands of flowersフラワーズ
of the kinds種類 I like.
123
333720
3016
私は自分の好きな
何千という花を見せます
05:48
In order注文 to teach教える a systemシステム
how to play遊びます a gameゲーム --
124
336760
2256
システムにゲームの遊び方を
教えるには —
05:51
Well, I would. You would, too.
125
339040
1960
私だってゲームはしますよ
皆さんもでしょう?
花だって好きだし
らしくないですか?
05:54
I like flowersフラワーズ. Come on.
126
342600
2040
碁のようなゲームの遊び方を
システムに教えるには
05:57
To teach教える a systemシステム
how to play遊びます a gameゲーム like Go,
127
345440
2856
06:00
I'd have it play遊びます thousands of gamesゲーム of Go,
128
348320
2056
碁を何千回も指させ
06:02
but in the processプロセス I alsoまた、 teach教える it
129
350400
1656
その過程で
良い盤面・悪い盤面を
識別する方法を教えます
06:04
how to discern分かる
a good gameゲーム from a bad悪い gameゲーム.
130
352080
2416
06:06
If I want to create作成する an artificially人為的に
intelligentインテリジェントな legal法的 assistantアシスタント,
131
354520
3696
人工知能の弁護士助手を
作ろうと思ったら
06:10
I will teach教える it some corpusコーパス of law法律
132
358240
1776
法律も教えますが
06:12
but at the same同じ time I am fusing融合 with it
133
360040
2856
同時に法の一部をなす
慈悲や公正の感覚を
吹き込むでしょう
06:14
the senseセンス of mercy慈悲 and justice正義
that is part of that law法律.
134
362920
2880
科学用語では これを
グランドトゥルースと言います
06:18
In scientific科学的 terms条項,
this is what we call ground接地 truth真実,
135
366560
2976
06:21
and here'sここにいる the important重要 pointポイント:
136
369560
2016
重要なのは
そういう機械を作るとき
06:23
in producing生産する these machines機械,
137
371600
1456
06:25
we are thereforeしたがって、 teaching教える them
a senseセンス of our values.
138
373080
3416
我々は自分の価値観を
教えることになるということです
06:28
To that end終わり, I trust信頼
an artificial人工的な intelligenceインテリジェンス
139
376520
3136
それだから私は
人工知能を
きちんと訓練された人間と同様に
信頼するのです
06:31
the same同じ, if not more,
as a human人間 who is well-trainedよく訓練された.
140
379680
3640
06:36
But, you mayかもしれない ask尋ねる,
141
384080
1216
でも悪いことをする工作員や
06:37
what about rogue不正 agentsエージェント,
142
385320
2616
ある種の資金豊富な
非政府組織なんかの
06:39
some well-funded献血された
nongovernment非政府 organization組織?
143
387960
3336
手にかかったなら?
06:43
I do not fear恐れ an artificial人工的な intelligenceインテリジェンス
in the handハンド of a lone孤独 wolf.
144
391320
3816
一匹狼の扱う人工知能には
怖れを感じません
06:47
Clearly明らかに, we cannotできない protect保護する ourselves自分自身
againstに対して all randomランダム acts行為 of violence暴力,
145
395160
4536
あらゆる暴力から
身を守れるわけではありませんが
06:51
but the reality現実 is suchそのような a systemシステム
146
399720
2136
そのようなシステムには
06:53
requires要求する substantial実質的な trainingトレーニング
and subtle微妙 trainingトレーニング
147
401880
3096
個人のリソースの範囲を
大きく超えた
06:57
far遠い beyond超えて the resourcesリソース of an individual個人.
148
405000
2296
膨大で精妙なトレーニングが
必要になります
さらにそれは 単にインターネットへ
ウィルスを送り込むより
06:59
And furthermoreさらに,
149
407320
1216
07:00
it's far遠い more than just injecting注射する
an internetインターネット virusウイルス to the world世界,
150
408560
3256
遙かに大変なことです
07:03
where you push押す a buttonボタン,
all of a sudden突然 it's in a million百万 places場所
151
411840
3096
ウィルスならボタン1つで
そこら中のパソコンが
07:06
and laptopsラップトップ start開始 blowing吹く up
all over the place場所.
152
414960
2456
突然吹き飛んで
しまうでしょうが
07:09
Now, these kinds種類 of substances物質
are much larger大きい,
153
417440
2816
そういうたぐいの
実体はずっと大きく
それがやってくるのは
確かに目にすることになります
07:12
and we'll私たちは certainly確かに see them coming到来.
154
420280
1715
そういう人工知能が
07:14
Do I fear恐れ that suchそのような
an artificial人工的な intelligenceインテリジェンス
155
422520
3056
全人類を脅かすのを
怖れるか?
07:17
mightかもしれない threaten脅かす all of humanity人類?
156
425600
1960
『マトリックス』『メトロポリス』
『ターミネーター』みたいな映画や
07:20
If you look at movies映画
suchそのような as "The Matrixマトリックス," "Metropolis大都市,"
157
428280
4376
07:24
"The Terminatorターミネーター,"
showsショー suchそのような as "Westworldウェストワールド,"
158
432680
3176
『ウエストワールド』
みたいな番組を見ると
07:27
they all speak話す of this kind種類 of fear恐れ.
159
435880
2136
みんなそのような恐怖を
語っています
07:30
Indeed確かに, in the book "Superintelligenceスーパーインテリジェンス"
by the philosopher哲学者 Nickニック Bostromボストロム,
160
438040
4296
『スーパーインテリジェンス
(Superintelligence)』という本で
思想家のニック・ボストロムは
このテーマを取り上げ
07:34
he picksピック up on this themeテーマ
161
442360
1536
07:35
and observes観察する that a superintelligenceスーパーインテリジェンス
mightかもしれない not only be dangerous危険な,
162
443920
4016
人間を超える機械の知能は
危険なだけでなく
07:39
it could represent代表する an existential存在 threat脅威
to all of humanity人類.
163
447960
3856
人類存亡の危機に
つながり得ると見ています
07:43
DrDr. Bostrom'sボストロム basic基本的な argument引数
164
451840
2216
ボストロム博士の
基本的な議論は
07:46
is that suchそのような systemsシステム will eventually最終的に
165
454080
2736
そのようなシステムはやがて
07:48
have suchそのような an insatiable飽くなき
thirst渇き for information情報
166
456840
3256
抑えがたい情報への渇望を
抱くようになり
07:52
that they will perhapsおそらく learn学ぶ how to learn学ぶ
167
460120
2896
学び方を学んで
07:55
and eventually最終的に discover発見する
that they mayかもしれない have goalsゴール
168
463040
2616
最終的には人間の要求に
反する目的を
07:57
that are contrary反対の to human人間 needsニーズ.
169
465680
2296
持つようになる
ということです
ボストロム博士には
多くの支持者がいて
08:00
DrDr. Bostromボストロム has a number of followersフォロワー.
170
468000
1856
08:01
He is supportedサポートされる by people
suchそのような as Elonエロン Muskムスク and Stephenスティーヴン Hawkingホーキング.
171
469880
4320
その中にはイーロン・マスクや
スティーヴン・ホーキングもいます
08:06
With all due支払う respect尊敬
172
474880
2400
そのような聡明な方々に
恐れながら申し上げると
08:10
to these brilliantブリリアント minds,
173
478160
2016
08:12
I believe that they
are fundamentally根本的に wrong違う.
174
480200
2256
彼らは根本的に
間違っていると思います
08:14
Now, there are a lot of pieces作品
of DrDr. Bostrom'sボストロム argument引数 to unpackアンパック,
175
482480
3176
検討すべきボストロム博士の議論は
沢山ありますが
08:17
and I don't have time to unpackアンパック them all,
176
485680
2136
全部見ていく
時間はないので
08:19
but very briefly簡単に, consider検討する this:
177
487840
2696
ごく簡単に
1点だけ挙げるなら
08:22
superスーパー knowing知っている is very different異なる
than superスーパー doing.
178
490560
3736
「すごく知っている」のと
「すごいことができる」のとは違うということです
HALは ディスカバリー号のあらゆる面を
コントロールする限りにおいて
08:26
HALHAL was a threat脅威 to the Discovery発見 crewクルー
179
494320
1896
08:28
only insofarそのうち as HALHAL commanded命令された
all aspects側面 of the Discovery発見.
180
496240
4416
乗組員にとって脅威でした
08:32
So it would have to be
with a superintelligenceスーパーインテリジェンス.
181
500680
2496
スーパーインテリジェンスも
そうです
08:35
It would have to have dominion支配
over all of our world世界.
182
503200
2496
それが世界全体を支配している
必要があります
08:37
This is the stuffもの of Skynetスカイネット
from the movie映画 "The Terminatorターミネーター"
183
505720
2816
スーパーインテリジェンスが
人の意志を支配する
08:40
in whichどの we had a superintelligenceスーパーインテリジェンス
184
508560
1856
『ターミネーター』の世界で
08:42
that commanded命令された human人間 will,
185
510440
1376
スカイネットは世界の
あらゆるデバイスを
08:43
that directed指示された everyすべて deviceデバイス
that was in everyすべて cornerコーナー of the world世界.
186
511840
3856
操っていました
08:47
Practically実質的に speaking話し中,
187
515720
1456
実際のところ
08:49
it ain'tない gonna happen起こる.
188
517200
2096
そんなことは
起こりません
08:51
We are not building建物 AIsAI
that controlコントロール the weather天気,
189
519320
3056
天気を制御したり
潮の干満を決めたり
気まぐれで無秩序な人間を
従わせるような人工知能を
08:54
that direct直接 the tides,
190
522400
1336
08:55
that commandコマンド us
capricious気まぐれな, chaotic混沌としました humans人間.
191
523760
3376
我々は作りはしません
08:59
And furthermoreさらに, if suchそのような
an artificial人工的な intelligenceインテリジェンス existed存在した,
192
527160
3896
もしそのような人工知能が
存在したら
09:03
it would have to compete競争する
with human人間 economies経済,
193
531080
2936
人間の経済と
競合することになり
09:06
and therebyそれによって compete競争する for resourcesリソース with us.
194
534040
2520
リソースを人間と
取り合うことになるでしょう
09:09
And in the end終わり --
195
537200
1216
最終的には
09:10
don't tell Siriシリ this --
196
538440
1240
Siriには内緒ですが
我々は電源プラグを
引っこ抜くことができます
09:12
we can always unplugプラグを抜く them.
197
540440
1376
09:13
(Laughter笑い)
198
541840
2120
(笑)
09:17
We are on an incredible信じられない journey
199
545360
2456
私たちは機械と
共進化していく
09:19
of coevolution共生 with our machines機械.
200
547840
2496
ものすごい旅の
途上にあります
09:22
The humans人間 we are today今日
201
550360
2496
今日の人類は
明日の人類とは違っています
09:24
are not the humans人間 we will be then.
202
552880
2536
09:27
To worry心配 now about the rise上昇
of a superintelligenceスーパーインテリジェンス
203
555440
3136
人間を超えた人工知能の
台頭を懸念するのは
09:30
is in manyたくさんの ways方法 a dangerous危険な distraction気晴らし
204
558600
3056
コンピューターの台頭自体が
引き起こす
対処を要する
人間や社会の問題から
09:33
because the rise上昇 of computing計算 itself自体
205
561680
2336
09:36
bringsもたらす to us a number
of human人間 and societal社会 issues問題
206
564040
3016
注意をそらすことになり
09:39
to whichどの we must必須 now attend出席する.
207
567080
1640
危険です
09:41
How shall〜する I bestベスト organize整理する society社会
208
569360
2816
人間の労働の必要が
減っていく社会を
09:44
when the need for human人間 labor労働 diminishes減少する?
209
572200
2336
どうすれば上手く
運営できるのか?
09:46
How can I bring持参する understanding理解
and education教育 throughout全体を通して the globeグローブ
210
574560
3816
理解と教育を
地球全体に広げつつ
互いの違いに敬意を払うことは
どうすれば可能か?
09:50
and still respect尊敬 our differences相違?
211
578400
1776
09:52
How mightかもしれない I extend拡張する and enhance強化する human人間 life
throughを通して cognitive認知 healthcare健康管理?
212
580200
4256
認知システムによる医療で 人の生涯を
長く豊かなものにするにはどうしたら良いか?
09:56
How mightかもしれない I use computing計算
213
584480
2856
星々に到るために
コンピューターは
いかに役立てられるか?
09:59
to help take us to the stars?
214
587360
1760
10:01
And that's the excitingエキサイティング thing.
215
589760
2040
これはワクワクすることです
10:04
The opportunities機会 to use computing計算
216
592400
2336
コンピューターを使って
10:06
to advance前進 the human人間 experience経験
217
594760
1536
人間の体験を
10:08
are within以内 our reachリーチ,
218
596320
1416
発展させられる機会が
10:09
here and now,
219
597760
1856
今 手の届くところにあり
10:11
and we are just beginning始まり.
220
599640
1680
それは始まったばかりです
10:14
Thank you very much.
221
602280
1216
ありがとうございました
10:15
(Applause拍手)
222
603520
4286
(拍手)
Translated by Yasushi Aoki
Reviewed by Misaki Sato

▲Back to top

ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee