ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com
TEDSummit

Sam Harris: Can we build AI without losing control over it?

サム・ハリス: 人間より優れた人工知能を作って制御を失わずにいることは可能か?

Filmed:
5,024,015 views

高度な知性を持つAI(人工知能)を怖いと感じますか? 神経科学者であり思想家であるサム・ハリスは、単に理論的な可能性としてでなく、実際に怖れるべきだと警告します。人間を超える知力を持つAIがやがて作られることになるが、人間がアリを扱うように人間を扱うAIを作ることの問題に、我々はきちんと向き合っていないと、彼は指摘します。
- Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live. Full bio

Double-click the English transcript below to play the video.

00:13
I'm going to talk
about a failure失敗 of intuition直感
0
1000
2216
我々の多くが抱えている―
直感の誤りについて
お話しします
00:15
that manyたくさんの of us suffer苦しむ from.
1
3240
1600
00:17
It's really a failure失敗
to detect検出する a certainある kind種類 of danger危険.
2
5480
3040
正確には ある種の危険を
察知し損なうということです
これから説明するシナリオは
00:21
I'm going to describe説明する a scenarioシナリオ
3
9360
1736
00:23
that I think is bothどちらも terrifying恐ろしい
4
11120
3256
私の考えでは
恐ろしいと同時に
00:26
and likelyおそらく to occur発生する,
5
14400
1760
起こりそうなこと
でもあります
ありがたくない
組み合わせですね
00:28
and that's not a good combination組み合わせ,
6
16840
1656
00:30
as it turnsターン out.
7
18520
1536
考えてみたら
00:32
And yetまだ ratherむしろ than be scared怖い,
most最も of you will feel
8
20080
2456
しかも 多くの人が
それを恐れるよりは
00:34
that what I'm talking話す about
is kind種類 of coolクール.
9
22560
2080
素敵なことのように
感じています
人工知能によって
我々がどのように利益を得
00:37
I'm going to describe説明する
how the gains利益 we make
10
25200
2976
そして最終的には
破滅を招きかねないか お話しします
00:40
in artificial人工的な intelligenceインテリジェンス
11
28200
1776
00:42
could ultimately最終的に destroy破壊する us.
12
30000
1776
人工知能が
人類を破滅させたり
00:43
And in fact事実, I think it's very difficult難しい
to see how they won't〜されません destroy破壊する us
13
31800
3456
自滅に追い込んだりしない
シナリオは
00:47
or inspireインスピレーション us to destroy破壊する ourselves自分自身.
14
35280
1680
実際 考えにくい気がします
00:49
And yetまだ if you're anything like me,
15
37400
1856
それでも皆さんが
私と同じなら
00:51
you'llあなたは find that it's fun楽しい
to think about these things.
16
39280
2656
そういったことについて考えるのは
楽しいことでしょう
00:53
And that response応答 is part of the problem問題.
17
41960
3376
その反応自体が問題なのです
そういう反応は
懸念すべきです
00:57
OK? That response応答 should worry心配 you.
18
45360
1720
00:59
And if I were to convince説得する you in this talk
19
47920
2656
仮にこの講演で
私の訴えていることが
地球温暖化や
何かの大異変のため
01:02
that we were likelyおそらく
to suffer苦しむ a globalグローバル famine飢饉,
20
50600
3416
世界的な飢饉がやってくる
ということだったとしましょう
01:06
eitherどちらか because of climate気候 change変化する
or some other catastrophe災害,
21
54040
3056
01:09
and that your grandchildren,
or their彼らの grandchildren,
22
57120
3416
私たちの孫や
その孫の世代は
この写真のような
有様になるんだと
01:12
are very likelyおそらく to liveライブ like this,
23
60560
1800
その場合
こうは思わないでしょう
01:15
you wouldn'tしないだろう think,
24
63200
1200
「やあ 面白いな
01:17
"Interesting面白い.
25
65440
1336
このTEDトーク気に入ったよ」
01:18
I like this TEDTED Talk."
26
66800
1200
01:21
Famine飢饉 isn't fun楽しい.
27
69200
1520
飢饉は楽しいもの
ではありません
一方で SFの中の破滅は
楽しいものなのです
01:23
Death by science科学 fictionフィクション,
on the other handハンド, is fun楽しい,
28
71800
3376
01:27
and one of the things that worries心配 me most最も
about the development開発 of AIAI at this pointポイント
29
75200
3976
今の時点で AIの発展について
私が最も懸念するのは
01:31
is that we seem思われる unableできない to marshalマーシャル
an appropriate適切な emotional感情の response応答
30
79200
4096
将来に待ち受けている
危険に対して
我々が感情的に適切な反応を
できずにいることです
01:35
to the dangers危険 that lie嘘つき ahead前方に.
31
83320
1816
01:37
I am unableできない to marshalマーシャル this response応答,
and I'm giving与える this talk.
32
85160
3200
こう話している私自身
そういう反応をできずにいます
我々は2つの扉を前に
立っているようなものです
01:42
It's as thoughしかし we standスタンド before two doorsドア.
33
90120
2696
01:44
Behind後ろに doorドア number one,
34
92840
1256
1つ目の扉の先には
01:46
we stop making作る progress進捗
in building建物 intelligentインテリジェントな machines機械.
35
94120
3296
知的な機械の開発をやめるという
道があります
01:49
Our computerコンピューター hardwareハードウェア and softwareソフトウェア
just stops停止 getting取得 better for some reason理由.
36
97440
4016
ハードウェアやソフトウェアの進歩が
何らかの理由で止まるのです
01:53
Now take a moment瞬間
to consider検討する why this mightかもしれない happen起こる.
37
101480
3000
そういうことが起きうる要因を
ちょっと考えてみましょう
自動化やインテリジェント化によって
得られる価値を考えれば
01:57
I mean, given与えられた how valuable貴重な
intelligenceインテリジェンス and automationオートメーション are,
38
105080
3656
人間は可能な限り
テクノロジーを進歩させ続けるはずです
02:00
we will continue持続する to improve改善する our technology技術
if we are at all ableできる to.
39
108760
3520
02:05
What could stop us from doing this?
40
113200
1667
それが止まるとしたら
理由は何でしょう?
02:07
A full-scale本格的 nuclear war戦争?
41
115800
1800
全面核戦争とか
世界的な疫病の大流行とか
02:11
A globalグローバル pandemicパンデミック?
42
119000
1560
02:14
An asteroid小惑星 impact影響?
43
122320
1320
小惑星の衝突とか
ジャスティン・ビーバーの
大統領就任とか
02:17
Justinジャスティン Bieberビーバー becoming〜になる
president大統領 of the Unitedユナイテッド States?
44
125640
2576
02:20
(Laughter笑い)
45
128240
2280
(笑)
要は 何かで現在の文明が
崩壊する必要があるということです
02:24
The pointポイント is, something would have to
destroy破壊する civilization文明 as we know it.
46
132760
3920
02:29
You have to imagine想像する
how bad悪い it would have to be
47
137360
4296
それがどんなに ひどい事態であるはずか
考えてみてください
技術の進歩を
02:33
to prevent防ぐ us from making作る
improvements改善 in our technology技術
48
141680
3336
幾世代にもわたり
02:37
permanently永久に,
49
145040
1216
半永久的に妨げるようなことです
02:38
generation世代 after generation世代.
50
146280
2016
ほぼ間違いなく
02:40
Almostほぼ by definition定義,
this is the worst最悪 thing
51
148320
2136
人類史上
最悪の出来事でしょう
02:42
that's ever happened起こった in human人間 history歴史.
52
150480
2016
もう1つの選択肢
02:44
So the only alternative代替,
53
152520
1296
02:45
and this is what lies
behind後ろに doorドア number two,
54
153840
2336
2番目の扉の
向こうにあるのは
02:48
is that we continue持続する
to improve改善する our intelligentインテリジェントな machines機械
55
156200
3136
知的な機械の進歩が
ずっと続いていく未来です
02:51
year after year after year.
56
159360
1600
するとどこかの時点で 人間よりも
知的な機械を作ることになるでしょう
02:53
At a certainある pointポイント, we will buildビルドする
machines機械 that are smarterスマートな than we are,
57
161720
3640
そしてひとたび
人間より知的な機械が生まれたなら
02:58
and once一度 we have machines機械
that are smarterスマートな than we are,
58
166080
2616
機械は自分で
進化していくでしょう
03:00
they will beginベギン to improve改善する themselves自分自身.
59
168720
1976
そうなると我々は 数学者
I・J・グッドが言うところの
03:02
And then we riskリスク what
the mathematician数学者 IJIJ Good calledと呼ばれる
60
170720
2736
「知能爆発」の
リスクに直面します
03:05
an "intelligenceインテリジェンス explosion爆発,"
61
173480
1776
03:07
that the processプロセス could get away from us.
62
175280
2000
進歩のプロセスが
人間の手を離れてしまうのです
03:10
Now, this is oftenしばしば caricaturedカリカチュード,
as I have here,
63
178120
2816
それはこの絵のような
悪意を持つロボットの大群に
襲われる恐怖として
03:12
as a fear恐れ that armies軍隊 of malicious悪意のある robotsロボット
64
180960
3216
よく戯画化されています
03:16
will attack攻撃 us.
65
184200
1256
でもそれは ごくありそうな
シナリオではないでしょう
03:17
But that isn't the most最も likelyおそらく scenarioシナリオ.
66
185480
2696
03:20
It's not that our machines機械
will become〜になる spontaneously自発的に malevolent悪質な.
67
188200
4856
別に機械が悪意に目覚めるという
わけではありません
本当に 心配すべきなのは
03:25
The concern懸念 is really
that we will buildビルドする machines機械
68
193080
2616
人間よりもはるかに優れた
機械を作ってしまうと
03:27
that are so much
more competent有能な than we are
69
195720
2056
人間と機械の目的の
ほんのわずかなズレによって
03:29
that the slightest少し divergence発散
betweenの間に their彼らの goalsゴール and our own自分の
70
197800
3776
人類が破滅しかねないと
いうことです
03:33
could destroy破壊する us.
71
201600
1200
03:35
Just think about how we relate関連する to antsアリ.
72
203960
2080
人類がアリのような存在になると
考えるといいです
我々は アリが
嫌いなわけではなく
03:38
We don't hate嫌い them.
73
206600
1656
03:40
We don't go out of our way to harm them.
74
208280
2056
わざわざ 潰しに
行きはしません
03:42
In fact事実, sometimes時々
we take pains痛み not to harm them.
75
210360
2376
潰してしまわないように
気を遣いさえして
03:44
We stepステップ over them on the sidewalk歩道.
76
212760
2016
アリを避けて歩きます
03:46
But wheneverいつでも their彼らの presence存在
77
214800
2136
でもアリの存在が
我々の目的と衝突した時—
03:48
seriously真剣に conflicts紛争 with one of our goalsゴール,
78
216960
2496
たとえばこんな建造物を
作るという場合には
03:51
let's say when constructing建設
a building建物 like this one,
79
219480
2477
03:53
we annihilate全滅させる them withoutなし a qualmクマ.
80
221981
1960
良心の呵責なしに
アリを全滅させてしまいます
03:56
The concern懸念 is that we will
one day buildビルドする machines機械
81
224480
2936
私が懸念するのは
意識的にせよ無意識にせよ
03:59
that, whetherかどうか they're conscious意識的な or not,
82
227440
2736
人類をそのように軽く扱う機械を
我々がいつか作ってしまうことです
04:02
could treat治療する us with similar類似 disregard無視.
83
230200
2000
考えすぎだと 多くの方は
思っていることでしょう
04:05
Now, I suspect容疑者 this seems思われる
far-fetched遠く離れた to manyたくさんの of you.
84
233760
2760
04:09
I betベット there are those of you who doubt疑問に思う
that superintelligent超知能 AIAI is possible可能,
85
237360
6336
超知的AIの実現可能性を
疑問視し
ましてや不可避などとは
思わない人もいるでしょう
04:15
much lessもっと少なく inevitable必然的.
86
243720
1656
でも それなら これから挙げる仮定に
間違いを見つけてほしいものです
04:17
But then you must必須 find something wrong違う
with one of the following以下 assumptions仮定.
87
245400
3620
04:21
And there are only three of them.
88
249044
1572
仮定は3つだけです
04:23
Intelligenceインテリジェンス is a matter問題 of information情報
processing処理 in physical物理的 systemsシステム.
89
251800
4719
知性とは物質的なシステムにおける
情報処理である
04:29
Actually実際に, this is a little bitビット more
than an assumption仮定.
90
257320
2615
実際これは
仮定以上のものです
狭い意味での知性なら
もう機械で作り出されており
04:31
We have already既に built建てられた
narrow狭い intelligenceインテリジェンス into our machines機械,
91
259959
3457
04:35
and manyたくさんの of these machines機械 perform実行する
92
263440
2016
そのような機械はすでに
人間を超える水準に
達しています
04:37
at a levelレベル of superhuman超人
intelligenceインテリジェンス already既に.
93
265480
2640
そして様々な分野にわたって
04:40
And we know that mereほんの matter問題
94
268840
2576
柔軟に思考できる能力である
「汎用知能」は
04:43
can give rise上昇 to what is calledと呼ばれる
"general一般 intelligenceインテリジェンス,"
95
271440
2616
04:46
an ability能力 to think flexibly柔軟に
across横断する multiple複数 domainsドメイン,
96
274080
3656
物質で構成可能なことを
我々は知っています
04:49
because our brains頭脳 have managed管理された it. Right?
97
277760
3136
なぜなら人間の脳が
そうだからです
04:52
I mean, there's just atoms原子 in here,
98
280920
3936
ここにあるのは
ただの原子の塊です
04:56
and as long as we continue持続する
to buildビルドする systemsシステム of atoms原子
99
284880
4496
より知的な振る舞いをする
原子でできたシステムの構築を
続けていくなら
05:01
that display表示 more and more
intelligentインテリジェントな behavior動作,
100
289400
2696
何かで中断させられない限りは
05:04
we will eventually最終的に,
unless限り we are interrupted中断された,
101
292120
2536
05:06
we will eventually最終的に
buildビルドする general一般 intelligenceインテリジェンス
102
294680
3376
いつか汎用知能を
機械で作り出すことに
なるでしょう
05:10
into our machines機械.
103
298080
1296
05:11
It's crucial重大な to realize実現する
that the rateレート of progress進捗 doesn't matter問題,
104
299400
3656
重要なのは ここで進歩のスピードは
問題ではないことです
05:15
because any progress進捗
is enough十分な to get us into the end終わり zoneゾーン.
105
303080
3176
どんな進歩であれ
そこに至るのに十分だからです
ムーアの法則の持続も
指数爆発的な進歩も必要ありません
05:18
We don't need Moore'sムーア law法律 to continue持続する.
We don't need exponential指数関数的 progress進捗.
106
306280
3776
05:22
We just need to keep going.
107
310080
1600
ただ続けていくだけで
いいのです
第2の仮定は
人間が進み続けていくこと
05:25
The second二番 assumption仮定
is that we will keep going.
108
313480
2920
我々が知的な機械の
改良を続けていくことです
05:29
We will continue持続する to improve改善する
our intelligentインテリジェントな machines機械.
109
317000
2760
05:33
And given与えられた the value of intelligenceインテリジェンス --
110
321000
4376
知性の価値を考えてください
05:37
I mean, intelligenceインテリジェンス is eitherどちらか
the sourceソース of everything we value
111
325400
3536
知性は 我々が価値を置くもの
すべての源泉
価値を置くものを守るために
必要なものです
05:40
or we need it to safeguard保障措置
everything we value.
112
328960
2776
05:43
It is our most最も valuable貴重な resourceリソース.
113
331760
2256
我々が持つ
最も貴重なリソースです
05:46
So we want to do this.
114
334040
1536
我々は それを必要としています
05:47
We have problems問題
that we desperately必死に need to solve解決する.
115
335600
3336
我々は解決すべき問題を
抱えています
05:50
We want to cure治す diseases病気
like Alzheimer'sアルツハイマー病 and cancer.
116
338960
3200
アルツハイマーやガンのような病気を
治したいと思っています
経済の仕組みを理解したい
気象科学をもっと良くしたいと思っています
05:54
We want to understandわかる economic経済的 systemsシステム.
We want to improve改善する our climate気候 science科学.
117
342960
3936
だから 可能であれば
やるはずです
05:58
So we will do this, if we can.
118
346920
2256
06:01
The train列車 is already既に out of the station,
and there's no brakeブレーキ to pull引く.
119
349200
3286
列車はすでに駅を出発していて
ブレーキはありません
06:05
Finally最後に, we don't standスタンド
on a peakピーク of intelligenceインテリジェンス,
120
353880
5456
3番目は 人間は知性の
頂点にはおらず
その近くにすら
いないということ
06:11
or anywhereどこでも near近く it, likelyおそらく.
121
359360
1800
06:13
And this really is the crucial重大な insight洞察力.
122
361640
1896
これは重要な洞察であり
我々の状況を
危うくするものです
06:15
This is what makes作る
our situation状況 so precarious不安定な,
123
363560
2416
これはまた リスクについての我々の勘が
当てにならない理由でもあります
06:18
and this is what makes作る our intuitions直感
about riskリスク so unreliable信頼できない.
124
366000
4040
06:23
Now, just consider検討する the smartest最もスマートな person
who has ever lived住んでいました.
125
371120
2720
史上最も頭の良い人間について
考えてみましょう
ほぼ必ず上がってくる名前に
フォン・ノイマンがあります
06:26
On almostほぼ everyone's誰もが shortlist候補リスト here
is Johnジョン vonフォン Neumannノイマン.
126
374640
3416
06:30
I mean, the impression印象 that vonフォン Neumannノイマン
made on the people around him,
127
378080
3336
ノイマンの周囲には
当時の 最も優れた数学者や
物理学者がいたわけですが
06:33
and this included含まれる the greatest最大
mathematicians数学者 and physicists物理学者 of his time,
128
381440
4056
人々がノイマンから受けた印象については
いろいろ記述されています
06:37
is fairlyかなり well-documented十分に文書化された.
129
385520
1936
06:39
If only halfハーフ the stories物語
about him are halfハーフ true真実,
130
387480
3776
ノイマンにまつわる話で 半分でも
正しいものが 半分だけだったとしても
06:43
there's no question質問
131
391280
1216
疑いなく彼は
これまでに生きた最も頭の良い
人間の1人です
06:44
he's one of the smartest最もスマートな people
who has ever lived住んでいました.
132
392520
2456
06:47
So consider検討する the spectrumスペクトラム of intelligenceインテリジェンス.
133
395000
2520
知能の分布を考えてみましょう
ここにフォン・ノイマンがいて
06:50
Here we have Johnジョン vonフォン Neumannノイマン.
134
398320
1429
この辺に私や皆さんがいて
06:53
And then we have you and me.
135
401560
1334
この辺にニワトリがいます
06:56
And then we have a chickenチキン.
136
404120
1296
06:57
(Laughter笑い)
137
405440
1936
(笑)
失敬 ニワトリはこの辺です
06:59
Sorry, a chickenチキン.
138
407400
1216
07:00
(Laughter笑い)
139
408640
1256
(笑)
07:01
There's no reason理由 for me to make this talk
more depressing落ち込む than it needsニーズ to be.
140
409920
3736
元々滅入る話をさらに滅入るものに
することもないでしょう
07:05
(Laughter笑い)
141
413680
1600
(笑)
07:08
It seems思われる overwhelmingly圧倒的に likelyおそらく, howeverしかしながら,
that the spectrumスペクトラム of intelligenceインテリジェンス
142
416339
3477
知能の分布には
今の我々に想像できるよりも
07:11
extends拡張する much furtherさらに
than we currently現在 conceive思う,
143
419840
3120
はるかに大きな広がりが
あることでしょう
07:15
and if we buildビルドする machines機械
that are more intelligentインテリジェントな than we are,
144
423880
3216
そして我々が
人間よりも知的な機械を作ったなら
07:19
they will very likelyおそらく
explore探検する this spectrumスペクトラム
145
427120
2296
それはこの知能の地平を
07:21
in ways方法 that we can't imagine想像する,
146
429440
1856
我々の想像が
及ばないくらい遠くまで
07:23
and exceed超過する us in ways方法
that we can't imagine想像する.
147
431320
2520
進んでいくことでしょう
07:27
And it's important重要 to recognize認識する that
this is true真実 by virtue美徳 of speed速度 alone単独で.
148
435000
4336
重要なのは スピードの点だけを取っても
それは確かだということです
07:31
Right? So imagine想像する if we just built建てられた
a superintelligent超知能 AIAI
149
439360
5056
スタンフォードやMITの
平均的な研究者並みの
知能を持つ
07:36
that was no smarterスマートな
than your average平均 teamチーム of researchers研究者
150
444440
3456
超知的AIができたとしましょう
07:39
at Stanfordスタンフォード or MITMIT.
151
447920
2296
電子回路は
生化学的回路より
07:42
Well, electronic電子 circuits回路
function関数 about a million百万 times fasterもっと早く
152
450240
2976
100万倍も高速に稼働します
07:45
than biochemical生化学的 onesもの,
153
453240
1256
07:46
so this machine機械 should think
about a million百万 times fasterもっと早く
154
454520
3136
その機械は
それを作り出した頭脳よりも
100万倍速く
働くということです
07:49
than the minds that built建てられた it.
155
457680
1816
だから1週間稼働させておくと
07:51
So you setセット it runningランニング for a week週間,
156
459520
1656
07:53
and it will perform実行する 20,000 years
of human-level人間レベル intellectual知的 work,
157
461200
4560
人間並みの知的作業を
2万年分こなすことになります
毎週毎週です
07:58
week週間 after week週間 after week週間.
158
466400
1960
08:01
How could we even understandわかる,
much lessもっと少なく constrain制約する,
159
469640
3096
そのような進歩をする頭脳は
抑えるどころか理解することすら
おぼつかないでしょう
08:04
a mindマインド making作る this sortソート of progress進捗?
160
472760
2280
正直言って 心配なことが
他にもあります
08:08
The other thing that's worrying心配する, frankly率直に,
161
476840
2136
08:11
is that, imagine想像する the bestベスト case場合 scenarioシナリオ.
162
479000
4976
それなら最良のシナリオは
どんなものでしょう?
08:16
So imagine想像する we hitヒット upon〜に a design設計
of superintelligent超知能 AIAI
163
484000
4176
安全性について心配のない
超知的AIのデザインを
思い付いたとします
08:20
that has no safety安全性 concerns心配.
164
488200
1376
08:21
We have the perfect完璧な design設計
the first time around.
165
489600
3256
完璧なデザインを
最初に手にすることができた
08:24
It's as thoughしかし we've私たちは been handed手渡された an oracleオラクル
166
492880
2216
神のお告げで
与えられたかのように
まったく意図したとおりに
振る舞います
08:27
that behaves動作する exactly正確に as intended意図されました.
167
495120
2016
08:29
Well, this machine機械 would be
the perfect完璧な labor-saving省力化 deviceデバイス.
168
497160
3720
その機械は人間の労働を不要にする
完璧な装置になります
08:33
It can design設計 the machine機械
that can buildビルドする the machine機械
169
501680
2429
どんな肉体労働もこなす
機械を作るための
08:36
that can do any physical物理的 work,
170
504133
1763
機械をデザインでき
08:37
powered動力 by sunlight太陽光,
171
505920
1456
太陽光で稼働し
08:39
more or lessもっと少なく for the costコスト
of raw materials材料.
172
507400
2696
原材料費くらいしか
かかりません
08:42
So we're talking話す about
the end終わり of human人間 drudgeryぎこちない.
173
510120
3256
人間は苦役から
解放されます
08:45
We're alsoまた、 talking話す about the end終わり
of most最も intellectual知的 work.
174
513400
2800
知的な仕事の多くすら
不要になります
そのような状況で 我々のようなサルは
何をするのでしょう?
08:49
So what would apes類人猿 like ourselves自分自身
do in this circumstance状況?
175
517200
3056
08:52
Well, we'd結婚した be free無料 to play遊びます Frisbeeフリスビー
and give each other massagesマッサージ.
176
520280
4080
気ままにフリスビーしたり
マッサージし合ったりでしょうか
それにLSDと
奇抜な服を加えるなら
08:57
Add追加 some LSDLSD and some
questionable疑わしい wardrobeワードローブ choices選択肢,
177
525840
2856
09:00
and the whole全体 world世界
could be like Burning燃焼 Man.
178
528720
2176
世界中がバーニングマンの
お祭りのようになるかもしれません
09:02
(Laughter笑い)
179
530920
1640
(笑)
09:06
Now, that mightかもしれない sound prettyかなり good,
180
534320
2000
それも結構かもしれませんが
現在の政治経済状況の元で
09:09
but ask尋ねる yourselfあなた自身 what would happen起こる
181
537280
2376
09:11
under our current現在 economic経済的
and political政治的 order注文?
182
539680
2736
どんなことが起きるだろうか
考えてみてください
09:14
It seems思われる likelyおそらく that we would witness証人
183
542440
2416
経済格差や失業が
09:16
a levelレベル of wealth inequality不平等
and unemployment失業
184
544880
4136
かつてない規模で生じる
可能性が高いでしょう
09:21
that we have never seen見た before.
185
549040
1496
09:22
Absent不在 a willingness意欲
to immediatelyすぐに put this new新しい wealth
186
550560
2616
この新しい富を即座に
全人類に進んで
提供する気がなければ
09:25
to the serviceサービス of all humanity人類,
187
553200
1480
一握りの兆万長者が
ビジネス誌の表紙を飾る一方で
09:27
a few少数 trillionaires億万長者 could grace猶予
the coversカバー of our businessビジネス magazines雑誌
188
555640
3616
09:31
while the rest残り of the world世界
would be free無料 to starve飢えている.
189
559280
2440
残りの人々は
飢えることになるでしょう
09:34
And what would the Russiansロシア人
or the Chinese中国語 do
190
562320
2296
シリコンバレーの会社が
超知的AIを展開しようと
していると聞いたら
09:36
if they heard聞いた that some company会社
in Siliconシリコン Valley
191
564640
2616
09:39
was about to deploy展開する a superintelligent超知能 AIAI?
192
567280
2736
ロシアや中国は
どうするでしょう?
09:42
This machine機械 would be capable可能な
of waging逃げる war戦争,
193
570040
2856
その機械は 地上戦であれ
サイバー戦であれ
かつてない力でもって
09:44
whetherかどうか terrestrial地上の or cyberサイバー,
194
572920
2216
戦争を遂行する
能力があります
09:47
with unprecedented前例のない powerパワー.
195
575160
1680
勝者がすべてを
手にするシナリオです
09:50
This is a winner-take-all優勝者全員 scenarioシナリオ.
196
578120
1856
09:52
To be six6 months数ヶ月 ahead前方に
of the competitionコンペ here
197
580000
3136
競争で半年
先んじることで
少なくとも50万年分
09:55
is to be 500,000 years ahead前方に,
198
583160
2776
先を行くことが
できるのです
09:57
at a minimum最小.
199
585960
1496
09:59
So it seems思われる that even mereほんの rumors
of this kind種類 of breakthrough画期的な
200
587480
4736
そのような技術革新の
噂だけでも
世界中が大騒ぎに
なるでしょう
10:04
could cause原因 our species to go berserk凶暴な.
201
592240
2376
10:06
Now, one of the most最も frightening恐ろしい things,
202
594640
2896
今の時点で私が
いちばんゾッとするのは
10:09
in my view見る, at this moment瞬間,
203
597560
2776
10:12
are the kinds種類 of things
that AIAI researchers研究者 say
204
600360
4296
AI研究者が
安心させようとして
言うたぐいのことです
10:16
when they want to be reassuring安心する.
205
604680
1560
心配すべきでない理由として
よく言われるのは 時間です
10:19
And the most最も common一般 reason理由
we're told not to worry心配 is time.
206
607000
3456
10:22
This is all a long way off,
don't you know.
207
610480
2056
そんなのは ずっと先の話で
10:24
This is probably多分 50 or 100 years away.
208
612560
2440
50年とか100年も先の話だと
10:27
One researcher研究者 has said,
209
615720
1256
ある研究者は
10:29
"Worrying心配する about AIAI safety安全性
210
617000
1576
「AIの安全性を懸念するのは
10:30
is like worrying心配する
about overpopulation過密 on Mars火星."
211
618600
2280
火星の人口過剰を心配するようなものだ」と
言っています
これは「あなたの小さな頭を
そんなことで悩ませないで」というやつの
10:34
This is the Siliconシリコン Valley versionバージョン
212
622116
1620
10:35
of "don't worry心配 your
prettyかなり little head about it."
213
623760
2376
シリコンバレー版です
10:38
(Laughter笑い)
214
626160
1336
(笑)
誰も気付いていない
ように見えるのは
10:39
No one seems思われる to notice通知
215
627520
1896
10:41
that referencing参照する the time horizon地平線
216
629440
2616
時間的スケールは
10:44
is a total合計 non sequitur連続.
217
632080
2576
この際 無関係だと
いうことです
10:46
If intelligenceインテリジェンス is just a matter問題
of information情報 processing処理,
218
634680
3256
知性の実体が
情報処理にすぎず
10:49
and we continue持続する to improve改善する our machines機械,
219
637960
2656
人類が 機械の改良を
続けていくなら
いずれ何らかの形の
超知性を生み出すことになるでしょう
10:52
we will produce作物
some form of superintelligenceスーパーインテリジェンス.
220
640640
2880
10:56
And we have no ideaアイディア
how long it will take us
221
644320
3656
それを安全に行える
条件を作り出すのに
どれくらい時間がかかるのか
我々には 見当も付きません
11:00
to create作成する the conditions条件
to do that safely安全に.
222
648000
2400
もう一度言いましょう
11:04
Let me say that again.
223
652200
1296
11:05
We have no ideaアイディア how long it will take us
224
653520
3816
それを安全に行える
条件を作り出すのに
11:09
to create作成する the conditions条件
to do that safely安全に.
225
657360
2240
どれくらい時間がかかるのか
我々には 見当も付きません
11:12
And if you haven't持っていない noticed気づいた,
50 years is not what it used to be.
226
660920
3456
今の50年というのは
かつての50年とは違っています
これは 50年を月の数で
表したものです
11:16
This is 50 years in months数ヶ月.
227
664400
2456
11:18
This is how long we've私たちは had the iPhoneiPhone.
228
666880
1840
これはiPhoneが
登場してからの時間
これは『シンプソンズ』の放送が
始まってからの時間
11:21
This is how long "The Simpsonsシンプソンズ"
has been on televisionテレビ.
229
669440
2600
11:24
Fifty五十 years is not that much time
230
672680
2376
人類最大の難問に
取り組む時間としては
11:27
to meet会う one of the greatest最大 challenges挑戦
our species will ever face.
231
675080
3160
50年というのは
そんなに 長いものではありません
11:31
Once一度 again, we seem思われる to be failing失敗する
to have an appropriate適切な emotional感情の response応答
232
679640
4016
繰り返しになりますが
必ずやってくると思われるものに対して
我々は感情的に適切な反応を
できずにいるようです
11:35
to what we have everyすべて reason理由
to believe is coming到来.
233
683680
2696
11:38
The computerコンピューター scientist科学者 Stuartスチュワート Russellラッセル
has a niceいい analogy類推 here.
234
686400
3976
コンピューター科学者のスチュワート・
ラッセルが うまい例えをしています
11:42
He said, imagine想像する that we received受け取った
a messageメッセージ from an alienエイリアン civilization文明,
235
690400
4896
異星の文明から
こんなメッセージを受け取ったと
想像してください
11:47
whichどの read読む:
236
695320
1696
「地球の諸君
11:49
"People of Earth地球,
237
697040
1536
11:50
we will arrive到着する on your planet惑星 in 50 years.
238
698600
2360
あと50年で
我々はそちらに着く
準備されたし」
11:53
Get ready準備完了."
239
701800
1576
我々は 彼らの母船が着陸する時を
ただ指折り数えて待つのでしょうか?
11:55
And now we're just counting数える down
the months数ヶ月 until〜まで the mothership母船 lands土地?
240
703400
4256
11:59
We would feel a little
more urgency緊急 than we do.
241
707680
3000
もう少し 切迫感を抱くのでは
ないかと思います
心配無用だとされる
別の理由は
12:04
Anotherもう一つ reason理由 we're told not to worry心配
242
712680
1856
12:06
is that these machines機械
can't help but shareシェア our values
243
714560
3016
そういった機械は
人間の延長であり
12:09
because they will be literally文字通り
extensions拡張 of ourselves自分自身.
244
717600
2616
人間と同じ価値観を
持つはずだというものです
12:12
They'll彼らは be grafted移植された onto〜に our brains頭脳,
245
720240
1816
我々の脳に接続され
12:14
and we'll私たちは essentially基本的に
become〜になる their彼らの limbic辺縁 systemsシステム.
246
722080
2360
人間はその辺縁系のような
存在になるのだと
ちょっと考えてほしいんですが
12:17
Now take a moment瞬間 to consider検討する
247
725120
1416
12:18
that the safest安全な
and only prudent慎重な pathパス forward前進,
248
726560
3176
最も安全で
唯一分別のあるやり方として
勧められているのは
12:21
recommendedお勧め,
249
729760
1336
12:23
is to implantインプラント this technology技術
directly直接 into our brains頭脳.
250
731120
2800
その技術を直接自分の脳に
埋め込むことだと言うのです
12:26
Now, this mayかもしれない in fact事実 be the safest安全な
and only prudent慎重な pathパス forward前進,
251
734600
3376
それは実際に 最も安全で
唯一分別のあるやり方なのかもしれませんが
12:30
but usually通常 one's一人 safety安全性 concerns心配
about a technology技術
252
738000
3056
テクノロジーに対する安全性の懸念は
ふつうであれば—
12:33
have to be prettyかなり much worked働いた out
before you stickスティック it inside内部 your head.
253
741080
3656
頭に埋め込む前に解消されている
べきではないでしょうか
12:36
(Laughter笑い)
254
744760
2016
(笑)
12:38
The deeperもっと深く problem問題 is that
building建物 superintelligent超知能 AIAI on its own自分の
255
746800
5336
より根深い問題点は
超知的AIを作ること自体は
12:44
seems思われる likelyおそらく to be easierより簡単に
256
752160
1736
超知的AIを作り
12:45
than building建物 superintelligent超知能 AIAI
257
753920
1856
かつ それを人間の脳に
統合するための
12:47
and having持つ the completed完成した neuroscience神経科学
258
755800
1776
神経科学を
完成させることよりは
12:49
that allows許す us to seamlesslyシームレスに
integrate統合する our minds with it.
259
757600
2680
簡単だろうことです
12:52
And given与えられた that the companies企業
and governments政府 doing this work
260
760800
3176
これに取り組む国や企業は
12:56
are likelyおそらく to perceive知覚する themselves自分自身
as beingであること in a raceレース againstに対して all othersその他,
261
764000
3656
他の国や企業と競争を
していると認識しており
勝者が全世界を
手に入れられるのだとすれば—
12:59
given与えられた that to win勝つ this raceレース
is to win勝つ the world世界,
262
767680
3256
次の瞬間に破滅させて
いたら別ですが—
13:02
provided提供された you don't destroy破壊する it
in the next moment瞬間,
263
770960
2456
13:05
then it seems思われる likelyおそらく
that whateverなんでも is easierより簡単に to do
264
773440
2616
そのような状況においては
何にせよ簡単な方が
先に成し遂げられることでしょう
13:08
will get done完了 first.
265
776080
1200
あいにく 私はこの問題への答えを
持ち合わせてはおらず
13:10
Now, unfortunately残念ながら,
I don't have a solution溶液 to this problem問題,
266
778560
2856
ただもっと考えてみるように
お勧めするだけです
13:13
apart離れて from recommending推薦する
that more of us think about it.
267
781440
2616
人工知能のための
「マンハッタン計画」のようなものが
13:16
I think we need something
like a Manhattanマンハッタン Projectプロジェクト
268
784080
2376
13:18
on the topicトピック of artificial人工的な intelligenceインテリジェンス.
269
786480
2016
必要なのでは
ないかと思います
作るためではありません
それは不可避でしょうから
13:20
Not to buildビルドする it, because I think
we'll私たちは inevitably必然的に do that,
270
788520
2736
軍拡競争のようになるのを
いかに避けられるか探り
13:23
but to understandわかる
how to avoid避ける an arms武器 raceレース
271
791280
3336
人類の利益にかなうように
それが作られるようにするためです
13:26
and to buildビルドする it in a way
that is aligned整列した with our interests関心.
272
794640
3496
13:30
When you're talking話す
about superintelligent超知能 AIAI
273
798160
2136
超知的AIが
自身を変えていけることを
考えると
13:32
that can make changes変更 to itself自体,
274
800320
2256
13:34
it seems思われる that we only have one chanceチャンス
to get the initial初期 conditions条件 right,
275
802600
4616
それを正しく作れるチャンスは
1度しかないでしょう
しかもその上で
それを正しくやるための
13:39
and even then we will need to absorb吸収します
276
807240
2056
13:41
the economic経済的 and political政治的
consequences結果 of getting取得 them right.
277
809320
3040
政治的・経済的な帰結を
受け入れる必要があります
知性の源は情報処理だと—
13:45
But the moment瞬間 we admit認める
278
813760
2056
13:47
that information情報 processing処理
is the sourceソース of intelligenceインテリジェンス,
279
815840
4000
知性の基礎をなしているのは
ある種の計算システムである
ということを認め
13:52
that some appropriate適切な computational計算上の systemシステム
is what the basis基礎 of intelligenceインテリジェンス is,
280
820720
4800
13:58
and we admit認める that we will improve改善する
these systemsシステム continuously連続的に,
281
826360
3760
人類がそういうシステムを継続的に
改良していくだろうことを認め
14:03
and we admit認める that the horizon地平線
of cognition認知 very likelyおそらく far遠い exceeds超過する
282
831280
4456
そして認知の地平は
我々に今分かっているよりも
はるか遠くまで
続いているであろうことを認めるとき
14:07
what we currently現在 know,
283
835760
1200
我々はある種の神を
作ろうとしていることを
14:10
then we have to admit認める
284
838120
1216
14:11
that we are in the processプロセス
of building建物 some sortソート of god.
285
839360
2640
認めないわけには
いかないでしょう
その神が一緒にやっていける相手か
確認したいなら
14:15
Now would be a good time
286
843400
1576
14:17
to make sure it's a god we can liveライブ with.
287
845000
1953
今がその時です
14:20
Thank you very much.
288
848120
1536
ありがとうございました
14:21
(Applause拍手)
289
849680
5093
(拍手)
Translated by Yasushi Aoki
Reviewed by Kaori Nozaki

▲Back to top

ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com