ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com
TEDxSiliconValley

Damon Horowitz: We need a "moral operating system"

デイモン・ホロビッツは道徳のオペレーティングシステムを提言する

Filmed:
795,617 views

TEDxSiliconValley でデイモン・ホロビッツは技術が我々に大きな力を与え、お互いのことがかつてないほど分かるようになってきたと述べます。観客を哲学的議論に引き込み、世界を塗り替えるようなイノベーションが巻き起こる中で、倫理原則となる哲学の基本に、新たに注目するよう促します。我々に取って意味のある道徳のオペレーティングシステムはどこにあるでしょうか
- Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities. Full bio

Double-click the English transcript below to play the video.

00:15
Power.
0
0
2000
「力(ちから)」
00:17
That is the wordワード that comes来る to mindマインド.
1
2000
2000
そんな言葉が頭に浮かびます
00:19
We're the new新しい technologists技術者.
2
4000
2000
我々は新しい技術者です
00:21
We have a lot of dataデータ, so we have a lot of powerパワー.
3
6000
3000
多くのデータ すなわち大きな力を手にしています
00:24
How much powerパワー do we have?
4
9000
2000
どれほどの力があるのでしょう
00:26
Sceneシーン from a movie映画: "Apocalypse黙示録 Now" -- great movie映画.
5
11000
3000
「地獄の黙示録」を思いだしてください 素晴らしい映画です
00:29
We've私たちは got to get our heroヒーロー, Captainキャプテン Willardウィラード, to the mouth of the Nungヌン River
6
14000
3000
主人公のウィラード大尉は カーツ大佐を追跡するために
00:32
so he can go pursue追求する Colonel大佐 Kurtzクルツ.
7
17000
2000
ナン河の河口に向かわねばなりません
00:34
The way we're going to do this is fly飛ぶ him in and dropドロップ him off.
8
19000
2000
そこで空路で運んで彼を降下させる
00:36
So the sceneシーン:
9
21000
2000
そんな場面です
00:38
the sky is filled満たされた with this fleet艦隊 of helicoptersヘリコプター carrying運ぶ him in.
10
23000
3000
彼を乗せたヘリコプター軍団が空いっぱいに広がり
00:41
And there's this loud大声で, thrillingスリリング music音楽 in the backgroundバックグラウンド,
11
26000
2000
スリリングな音楽が大きく響きます
00:43
this wild野生 music音楽.
12
28000
2000
この力強い音楽です
00:45
Dumダム da ta da dum
13
30000
2000
♫ダンダラダーダン
00:47
Dumダム da ta da dum
14
32000
2000
ダンダラダーダン
00:49
DaDa ta da da
15
34000
3000
ダダラダー♫
00:52
That's a lot of powerパワー.
16
37000
2000
凄まじい力です
00:54
That's the kind種類 of powerパワー I feel in this roomルーム.
17
39000
2000
ここでもその種の力を感じます
00:56
That's the kind種類 of powerパワー we have
18
41000
2000
私たちの手に入れたデータに由来する力は
00:58
because of all of the dataデータ that we have.
19
43000
2000
この種の力です
01:00
Let's take an example.
20
45000
2000
例を示します
01:02
What can we do
21
47000
2000
ある一人の個人データから
01:04
with just one person's dataデータ?
22
49000
3000
何ができるでしょうか
01:07
What can we do
23
52000
2000
たとえば
01:09
with that guy's男の dataデータ?
24
54000
2000
彼のデータでは?
01:11
I can look at your financial金融 records記録.
25
56000
2000
財務記録を見て
01:13
I can tell if you pay支払う your bills紙幣 on time.
26
58000
2000
支払いに遅れがないかを調べ
01:15
I know if you're good to give a loanローン to.
27
60000
2000
お金を貸し付けて大丈夫とわかります
01:17
I can look at your medical医療 records記録; I can see if your pumpポンプ is still pumpingポンピング --
28
62000
3000
医療記録を調べて 心臓に問題がなければ
01:20
see if you're good to offer提供 insurance保険 to.
29
65000
3000
保険を勧めて良いことがわかります
01:23
I can look at your clickingクリックする patternsパターン.
30
68000
2000
クリックの癖も調べられます
01:25
When you come to my websiteウェブサイト, I actually実際に know what you're going to do already既に
31
70000
3000
私のウェブサイトに来たときには どう振る舞うかお見通しです
01:28
because I've seen見た you visit訪問 millions何百万 of websitesウェブサイト before.
32
73000
2000
これまでの無数のサイト訪問を見ているからです
01:30
And I'm sorry to tell you,
33
75000
2000
申し訳ないですが
01:32
you're like a pokerポーカー playerプレーヤー, you have a tell.
34
77000
2000
手の内を見透かされたポーカープレイヤーは
01:34
I can tell with dataデータ analysis分析 what you're going to do
35
79000
2000
何かする前から やろうとしていることを
01:36
before you even do it.
36
81000
2000
見抜かれています
01:38
I know what you like. I know who you are,
37
83000
3000
あなたが好きなものも あなたが何者かも
01:41
and that's even before I look at your mail郵便物
38
86000
2000
メールや電話を見なくたって
01:43
or your phone電話.
39
88000
2000
わかるのです
01:45
Those are the kinds種類 of things we can do
40
90000
2000
我々が集めているデータで
01:47
with the dataデータ that we have.
41
92000
3000
こんなことができるのです
01:50
But I'm not actually実際に here to talk about what we can do.
42
95000
3000
でも今日は 何ができるかでなく
01:56
I'm here to talk about what we should do.
43
101000
3000
何をすべきかについて 話します
02:00
What's the right thing to do?
44
105000
3000
「正しい行い」とは何か?
02:04
Now I see some puzzled困惑 looks外見
45
109000
2000
戸惑った顔の方もいます
02:06
like, "Why are you asking尋ねる us what's the right thing to do?
46
111000
3000
「何が正しい行動か?なんてどうして聞くんだ
02:09
We're just building建物 this stuffもの. Somebody誰か elseelse is usingを使用して it."
47
114000
3000
僕らは何かを作る それを使うのは他の人だ」
02:12
Fair公正 enough十分な.
48
117000
3000
いいでしょう
02:15
But it bringsもたらす me back.
49
120000
2000
では昔を振り返って
02:17
I think about World世界 War戦争 IIII --
50
122000
2000
第二次世界大戦のことを考えましょう
02:19
some of our great technologists技術者 then,
51
124000
2000
当時の偉大な技術者と
02:21
some of our great physicists物理学者,
52
126000
2000
偉大な物理学者で
02:23
studying勉強する nuclear fission分裂 and fusion融合 --
53
128000
2000
核分裂や核融合などの
02:25
just nuclear stuffもの.
54
130000
2000
原子核物理を研究していた人たちが
02:27
We gatherギャザー together一緒に these physicists物理学者 in Losロス Alamosアラモス
55
132000
3000
ロス・アラモスに集まって
02:30
to see what they'll彼らは buildビルドする.
56
135000
3000
何を作ったのでしょう
02:33
We want the people building建物 the technology技術
57
138000
3000
技術を作っている人たちには
02:36
thinking考え about what we should be doing with the technology技術.
58
141000
3000
技術をどう使うべきか考えて欲しいのです
02:41
So what should we be doing with that guy's男の dataデータ?
59
146000
3000
つまり あの人のデータをどう扱うべきでしょうか
02:44
Should we be collecting収集する it, gathering集まる it,
60
149000
3000
データを集めて蓄積し より良いオンライン生活を
02:47
so we can make his onlineオンライン experience経験 better?
61
152000
2000
提供するために役立てますか?
02:49
So we can make moneyお金?
62
154000
2000
お金を稼ぐために使いますか?
02:51
So we can protect保護する ourselves自分自身
63
156000
2000
もしも彼が問題人物だったときに
02:53
if he was up to no good?
64
158000
2000
自分たちを守るために使いますか?
02:55
Or should we respect尊敬 his privacyプライバシー,
65
160000
3000
あるいは 彼のプライバシーを尊重して
02:58
protect保護する his dignity尊厳 and leave離れる him alone単独で?
66
163000
3000
彼の尊厳を守り そっとしておきますか
03:02
Whichどの one is it?
67
167000
3000
どちらにしましょうか
03:05
How should we figure数字 it out?
68
170000
2000
どうやって決めましょうか
03:07
I know: crowdsourceクラウドソース. Let's crowdsourceクラウドソース this.
69
172000
3000
そうだ クラウドソースです
03:11
So to get people warmed温められた up,
70
176000
3000
まず手始めに
03:14
let's start開始 with an easy簡単 question質問 --
71
179000
2000
簡単な質問から始めます
03:16
something I'm sure everybodyみんな here has an opinion意見 about:
72
181000
3000
これは 誰もが自分の考えを持っているはずです
03:19
iPhoneiPhone versus Androidアンドロイド.
73
184000
2000
iPhone とアンドロイドです
03:21
Let's do a showショー of hands -- iPhoneiPhone.
74
186000
3000
手を挙げてください -- iPhone
03:24
Uh huh.
75
189000
2000
ふむふむ
03:26
Androidアンドロイド.
76
191000
3000
アンドロイド
03:29
You'dあなたは think with a bunch of smartスマート people
77
194000
2000
こんなに賢い人たちの集まりに
03:31
we wouldn'tしないだろう be suchそのような suckers吸盤 just for the prettyかなり phones電話機.
78
196000
2000
電話のことだけ聞いたらマズイですよね
03:33
(Laughter笑い)
79
198000
2000
(笑)
03:35
Next question質問,
80
200000
2000
次の質問は
03:37
a little bitビット harderもっと強く.
81
202000
2000
少し手応えがあります
03:39
Should we be collecting収集する all of that guy's男の dataデータ
82
204000
2000
彼のデータを全て集めて
03:41
to make his experiences経験 better
83
206000
2000
よりよい経験を提供し
03:43
and to protect保護する ourselves自分自身 in case場合 he's up to no good?
84
208000
3000
もし問題人物なら身を守るために使ってよいか?
03:46
Or should we leave離れる him alone単独で?
85
211000
2000
それとも データ収集は止めますか
03:48
Collect収集する his dataデータ.
86
213000
3000
データを集める人
03:53
Leave離れる him alone単独で.
87
218000
3000
集めない人
03:56
You're safe安全. It's fine.
88
221000
2000
安心していいよ 大丈夫です
03:58
(Laughter笑い)
89
223000
2000
(笑)
04:00
Okay, last question質問 --
90
225000
2000
では 最後の質問は
04:02
harderもっと強く question質問 --
91
227000
2000
もっと厄介な質問です
04:04
when trying試す to evaluate評価する
92
229000
3000
このケースで何を行うべきか
04:07
what we should do in this case場合,
93
232000
3000
評価するときに
04:10
should we use a Kantianカンティアン deontologicalデントロジカルな moral道徳 frameworkフレームワーク,
94
235000
4000
カントの義務論に従うべきでしょうか
04:14
or should we use a Millianミリアン consequentialist結果主義者 one?
95
239000
3000
それともミルの帰結主義に従いますか
04:19
Kantカント.
96
244000
3000
カント
04:22
Millミル.
97
247000
3000
ミル
04:25
Not as manyたくさんの votes投票する.
98
250000
2000
挙手が減ってしまいました
04:27
(Laughter笑い)
99
252000
3000
(笑)
04:30
Yeah, that's a terrifying恐ろしい result結果.
100
255000
3000
いや ぞっとするような結果です
04:34
Terrifying恐ろしい, because we have strongerより強く opinions意見
101
259000
4000
恐ろしいのは 携帯機器に対して
04:38
about our hand-held手持ち式 devicesデバイス
102
263000
2000
明確な意見があるのに
04:40
than about the moral道徳 frameworkフレームワーク
103
265000
2000
意思決定を導くべき道徳観には
04:42
we should use to guideガイド our decisions決定.
104
267000
2000
それほどの意見がないからです
04:44
How do we know what to do with all the powerパワー we have
105
269000
3000
手にした力をどう使うべきかを
04:47
if we don't have a moral道徳 frameworkフレームワーク?
106
272000
3000
道徳観を持たずして どう決められますか?
04:50
We know more about mobileモバイル operatingオペレーティング systemsシステム,
107
275000
3000
皆さんはモバイルの OS のほうに詳しいですが
04:53
but what we really need is a moral道徳 operatingオペレーティング systemシステム.
108
278000
3000
本当に必要なのは道徳のOSなのです
04:58
What's a moral道徳 operatingオペレーティング systemシステム?
109
283000
2000
道徳の OS とは何でしょうか
05:00
We all know right and wrong違う, right?
110
285000
2000
良し悪しは誰もが分かることです
05:02
You feel good when you do something right,
111
287000
2000
良いことをすれば気分が良いし
05:04
you feel bad悪い when you do something wrong違う.
112
289000
2000
悪いことをすると気分が良くない
05:06
Our parents teach教える us that: praise賞賛 with the good, scold叱る with the bad悪い.
113
291000
3000
両親は 良いことを褒め 悪いことを叱って教えます
05:09
But how do we figure数字 out what's right and wrong違う?
114
294000
3000
では 良し悪しはどう判断するのでしょう?
05:12
And from day to day, we have the techniques技術 that we use.
115
297000
3000
日常的に 使われている方法があります
05:15
Maybe we just followフォローする our gut.
116
300000
3000
直感で決めるかもしれません
05:18
Maybe we take a vote投票 -- we crowdsourceクラウドソース.
117
303000
3000
投票 --クラウドソースかもしれません
05:21
Or maybe we puntパント --
118
306000
2000
あるいは回避して
05:23
ask尋ねる the legal法的 department部門, see what they say.
119
308000
3000
法務部門の意見を聞いてみるかもしれません
05:26
In other words言葉, it's kind種類 of randomランダム,
120
311000
2000
言い換えれば ランダムなのです
05:28
kind種類 of ad広告 hocホック,
121
313000
2000
間に合わせの方法で
05:30
how we figure数字 out what we should do.
122
315000
3000
「何をすべきか」を決めるのです
05:33
And maybe, if we want to be on surer確か footing足跡,
123
318000
3000
足場をしっかりさせたいなら
05:36
what we really want is a moral道徳 frameworkフレームワーク that will help guideガイド us there,
124
321000
3000
そもそも物事の正誤を明らかにして
05:39
that will tell us what kinds種類 of things are right and wrong違う in the first place場所,
125
324000
3000
状況に応じて何をすべきかを示し
05:42
and how would we know in a given与えられた situation状況 what to do.
126
327000
4000
導いてくれる道徳観が求められます
05:46
So let's get a moral道徳 frameworkフレームワーク.
127
331000
2000
では道徳観を獲得しましょう
05:48
We're numbers数字 people, living生活 by numbers数字.
128
333000
3000
皆さん数字で暮らす 数字人間ですね
05:51
How can we use numbers数字
129
336000
2000
いったいどうすれば
05:53
as the basis基礎 for a moral道徳 frameworkフレームワーク?
130
338000
3000
数字を道徳の基準に使えるでしょう
05:56
I know a guy who did exactly正確に that.
131
341000
3000
まさにこのことを考えた人がいます
05:59
A brilliantブリリアント guy --
132
344000
3000
明晰な人物で
06:02
he's been deadデッド 2,500 years.
133
347000
3000
2千5百年前に亡くなりました
06:05
Platoプラトン, that's right.
134
350000
2000
そう プラトンです
06:07
Remember忘れない him -- old古い philosopher哲学者?
135
352000
2000
昔の哲学者ですが 覚えていますか?
06:09
You were sleeping睡眠 during that classクラス.
136
354000
3000
あの授業のときは寝てましたか?
06:12
And Platoプラトン, he had a lot of the same同じ concerns心配 that we did.
137
357000
2000
プラトンは 我々と同じ多くの心配を抱え
06:14
He was worried心配している about right and wrong違う.
138
359000
2000
善悪について悩みました
06:16
He wanted to know what is just.
139
361000
2000
「正しい」とは何かを追求しました
06:18
But he was worried心配している that all we seem思われる to be doing
140
363000
2000
皆 意見を交換しているだけではないかと
06:20
is tradingトレーディング opinions意見 about this.
141
365000
2000
彼は心配していました
06:22
He says言う something's何か just. She says言う something elseelse is just.
142
367000
3000
彼はこれが正しいと言い 彼女は別のことが正しいと言う
06:25
It's kind種類 of convincing説得力のある when he talks交渉 and when she talks交渉 too.
143
370000
2000
彼の話に納得し 彼女の話にも納得する
06:27
I'm just going back and forth前進; I'm not getting取得 anywhereどこでも.
144
372000
2000
堂々巡りで どこにも行き着きません
06:29
I don't want opinions意見; I want knowledge知識.
145
374000
3000
欲しいのは意見ではなく知識です
06:32
I want to know the truth真実 about justice正義 --
146
377000
3000
数学で真理があるように 正義についての
06:35
like we have truths真実 in math数学.
147
380000
3000
真理を知りたいのです
06:38
In math数学, we know the objective目的 facts事実.
148
383000
3000
数学では客観的な真実があります
06:41
Take a number, any number -- two.
149
386000
2000
どんな数字でも -- 例えば 2 です
06:43
Favoriteお気に入り number. I love that number.
150
388000
2000
いい番号です 私は好きです
06:45
There are truths真実 about two.
151
390000
2000
2 についてはこんな真実があります
06:47
If you've got two of something,
152
392000
2000
何かが 2 つあるときに
06:49
you add追加する two more, you get four4つの.
153
394000
2000
あと 2 つ加えると 4 つになります
06:51
That's true真実 no matter問題 what thing you're talking話す about.
154
396000
2000
モノが何であっても これは真です
06:53
It's an objective目的 truth真実 about the form of two,
155
398000
2000
2 という形式 -- 抽象的な形式における
06:55
the abstract抽象 form.
156
400000
2000
客観的な真実です
06:57
When you have two of anything -- two eyes, two ears, two noses,
157
402000
2000
どんなものでも 2 つあれば -- 目や耳 鼻
06:59
just two protrusions突出部 --
158
404000
2000
単なる突起が 2 つでも
07:01
those all partake分かる of the form of two.
159
406000
3000
全ては 2 という形式を引き継ぎ
07:04
They all participate参加する in the truths真実 that two has.
160
409000
4000
2 に伴う真実を共有します
07:08
They all have two-ness二人 in them.
161
413000
2000
全てが「2 らしさ」を有します
07:10
And thereforeしたがって、, it's not a matter問題 of opinion意見.
162
415000
3000
だからそれは意見の問題ではありません
07:13
What if, Platoプラトン thought,
163
418000
2000
プラトンは考えました
07:15
ethics倫理 was like math数学?
164
420000
2000
もし倫理も数学のようなものだったら?
07:17
What if there were a pureピュア form of justice正義?
165
422000
3000
純粋な正義というものがあるとしたら?
07:20
What if there are truths真実 about justice正義,
166
425000
2000
正義についての真実があるとしたら
07:22
and you could just look around in this world世界
167
427000
2000
この世界をよく眺めることで
07:24
and see whichどの things participated参加した,
168
429000
2000
物事が引き継ぎ 共有している
07:26
partookパートイク of that form of justice正義?
169
431000
3000
正義という形式を見いだせるのではないだろうか
07:29
Then you would know what was really just and what wasn'tなかった.
170
434000
3000
そうすれば 何が本当に正しく 何が正しくないか分かるだろう
07:32
It wouldn'tしないだろう be a matter問題
171
437000
2000
意見の問題や
07:34
of just opinion意見 or just appearances出演.
172
439000
3000
外見の問題ではなくなるだろう
07:37
That's a stunning見事な visionビジョン.
173
442000
2000
とても魅力的なビジョンです
07:39
I mean, think about that. How grand壮大. How ambitious意欲的な.
174
444000
3000
考えてみてください 実に壮大で 実に野心的です
07:42
That's as ambitious意欲的な as we are.
175
447000
2000
私たちとおなじくらい野心的です
07:44
He wants to solve解決する ethics倫理.
176
449000
2000
プラトンは倫理の答えを求め
07:46
He wants objective目的 truths真実.
177
451000
2000
客観的な真実を求めました
07:48
If you think that way,
178
453000
3000
皆さんもこういうふうに考えるなら
07:51
you have a Platonistプラトニニスト moral道徳 frameworkフレームワーク.
179
456000
3000
プラトン派の道徳観を持っています
07:54
If you don't think that way,
180
459000
2000
こう考えない人は
07:56
well, you have a lot of company会社 in the history歴史 of Western西洋 philosophy哲学,
181
461000
2000
西洋の哲学の歴史においては多数派で
07:58
because the tidyきちんとした ideaアイディア, you know, people criticized批判された it.
182
463000
3000
この整然とした考えは批判されてきました
08:01
Aristotleアリストテレス, in particular特に, he was not amused面白い.
183
466000
3000
とくに アリストテレスはこれが気にいりませんでした
08:04
He thought it was impractical実用的でない.
184
469000
3000
実用的ではないと考えたのです
08:07
Aristotleアリストテレス said, "We should seekシーク only so much precision精度 in each subject主題
185
472000
4000
「それぞれの主題ごとに許される範囲内でのみ正確さを追求すべきだ」
08:11
as that subject主題 allows許す."
186
476000
2000
とアリストテレスは言いました
08:13
Aristotleアリストテレス thought ethics倫理 wasn'tなかった a lot like math数学.
187
478000
3000
彼は倫理と数学はあまり似ていないと考えました
08:16
He thought ethics倫理 was a matter問題 of making作る decisions決定 in the here-and-now時おり
188
481000
3000
彼の考える倫理とは 今ここで
08:19
usingを使用して our bestベスト judgment判定
189
484000
2000
最良の判断で意思決定をして
08:21
to find the right pathパス.
190
486000
2000
正しい道を探すことでした
08:23
If you think that, Plato'sプラトン not your guy.
191
488000
2000
そう思うならプラトン派ではありません
08:25
But don't give up.
192
490000
2000
でもあきらめないで
08:27
Maybe there's another別の way
193
492000
2000
もしかすると他にも
08:29
that we can use numbers数字 as the basis基礎 of our moral道徳 frameworkフレームワーク.
194
494000
3000
数量を基準とする道徳観があるかもしれません
08:33
How about this:
195
498000
2000
これはどうでしょう
08:35
What if in any situation状況 you could just calculate計算する,
196
500000
3000
ある状況で選択肢を比べて
08:38
look at the choices選択肢,
197
503000
2000
それぞれについて推定をして
08:40
measure測定 out whichどの one's一人 better and know what to do?
198
505000
3000
どれが良い選択で何をすべきか明らかにできるとしたら?
08:43
That sound familiar身近な?
199
508000
2000
聞いたことはありませんか
08:45
That's a utilitarian功利主義者 moral道徳 frameworkフレームワーク.
200
510000
3000
これは功利主義の道徳観です
08:48
Johnジョン Stuartスチュワート Millミル was a great advocate主張する of this --
201
513000
2000
ジョン・スチュワート・ミルは功利主義を
08:50
niceいい guy besidesその他 --
202
515000
2000
大いに推進して ー いい男ですし
08:52
and only been deadデッド 200 years.
203
517000
2000
200 年ほど前に亡くなりました
08:54
So basis基礎 of utilitarianism功利主義 --
204
519000
2000
功利主義の基本ですが
08:56
I'm sure you're familiar身近な at least少なくとも.
205
521000
2000
多くの方 ー 少なくとも
08:58
The three people who voted投票された for Millミル before are familiar身近な with this.
206
523000
2000
先ほどミルに投票した3人はご存知でしょう
09:00
But here'sここにいる the way it works作品.
207
525000
2000
こんな仕組みです
09:02
What if morals道徳, what if what makes作る something moral道徳
208
527000
3000
道徳や何かを道徳たらしめるものは
09:05
is just a matter問題 of if it maximizes最大化する pleasure喜び
209
530000
2000
快楽を最大化し苦痛を最小化させる
09:07
and minimizes最小化する pain痛み?
210
532000
2000
ものである としたらどうでしょう
09:09
It does something intrinsic固有の to the act行為.
211
534000
3000
行動に固有の何かが作用します
09:12
It's not like its relation関係 to some abstract抽象 form.
212
537000
2000
何かの抽象的な形式との関係とは違って
09:14
It's just a matter問題 of the consequences結果.
213
539000
2000
結果だけを問題とします
09:16
You just look at the consequences結果
214
541000
2000
結果だけを考え
09:18
and see if, overall全体, it's for the good or for the worse悪化する.
215
543000
2000
全体としてこれが良いか悪いかを判断します
09:20
That would be simple単純. Then we know what to do.
216
545000
2000
これは単純です そして何をすべきか分かります
09:22
Let's take an example.
217
547000
2000
例で考えてみましょう
09:24
Suppose仮定する I go up
218
549000
2000
もし私がこう言ったとします
09:26
and I say, "I'm going to take your phone電話."
219
551000
2000
「お電話を預からせていただきます」
09:28
Not just because it rang鳴った earlier先に,
220
553000
2000
さっき鳴ったからではなく
09:30
but I'm going to take it because I made a little calculation計算.
221
555000
3000
簡単に推測してみたからです
09:33
I thought, that guy looks外見 suspicious疑わしい.
222
558000
3000
あの人はどうも怪しいと考えたからです
09:36
And what if he's been sending送信 little messagesメッセージ to Binビン Laden'sラディン hideout隠れ家 --
223
561000
3000
もしも彼がビンラディンの隠れ家と
09:39
or whoever誰でも took取った over after Binビン Ladenラーデン --
224
564000
2000
あるいは誰でもその後継者と通信していたら
09:41
and he's actually実際に like a terroristテロリスト, a sleeper寝台 cell細胞.
225
566000
3000
そして彼が潜伏中のテロリストのようであったら
09:44
I'm going to find that out, and when I find that out,
226
569000
3000
これは はっきりさせないといけません
09:47
I'm going to prevent防ぐ a huge巨大 amount of damage損傷 that he could cause原因.
227
572000
3000
当たっていたら 重大な損害を防ぐことになるでしょう
09:50
That has a very high高い utilityユーティリティー to prevent防ぐ that damage損傷.
228
575000
3000
この損害を防ぐことは大いなる便益となります
09:53
And compared比較した to the little pain痛み that it's going to cause原因 --
229
578000
2000
電話を調べたときの少々の苦痛と比べても
09:55
because it's going to be embarrassing恥ずかしい when I'm looking on his phone電話
230
580000
2000
— FarmVille にハマっていることなど
09:57
and seeing見る that he has a Farmvilleファームヴィル problem問題 and that whole全体 bitビット --
231
582000
3000
バレてしまうのは不愉快ですが
10:00
that's overwhelmed圧倒される
232
585000
3000
電話を調査することの価値と比べれば
10:03
by the value of looking at the phone電話.
233
588000
2000
小さな問題です
10:05
If you feel that way,
234
590000
2000
こういうふうに考える人は
10:07
that's a utilitarian功利主義者 choice選択.
235
592000
3000
功利主義を選んでいます
10:10
But maybe you don't feel that way eitherどちらか.
236
595000
3000
でもこれも違うと思われるかもしれません
10:13
Maybe you think, it's his phone電話.
237
598000
2000
彼の電話なのだ それを取り上げるのは
10:15
It's wrong違う to take his phone電話
238
600000
2000
間違いだとお考えかもしれません
10:17
because he's a person
239
602000
2000
人としての彼は
10:19
and he has rights権利 and he has dignity尊厳,
240
604000
2000
権利と尊厳を有し
10:21
and we can't just interfere干渉する with that.
241
606000
2000
それを妨げてはいけません
10:23
He has autonomy自律性.
242
608000
2000
彼は自立した存在で
10:25
It doesn't matter問題 what the calculations計算 are.
243
610000
2000
どういう推定がなされても問題ではない
10:27
There are things that are intrinsically本質的に wrong違う --
244
612000
3000
そもそも正しくないこともあります
10:30
like lying嘘つき is wrong違う,
245
615000
2000
ウソを付くことが間違いであるとか
10:32
like torturing拷問 innocent無実 children子供 is wrong違う.
246
617000
3000
罪のないこどもを拷問することとか
10:35
Kantカント was very good on this pointポイント,
247
620000
3000
カントはこの点を巧みに捕らえて
10:38
and he said it a little better than I'll say it.
248
623000
2000
私よりも上手に述べています
10:40
He said we should use our reason理由
249
625000
2000
自分の理性を使って 自分の行動を—
10:42
to figure数字 out the rulesルール by whichどの we should guideガイド our conduct行動,
250
627000
3000
導くルールを明らかにするべきだと言っています
10:45
and then it is our duty義務 to followフォローする those rulesルール.
251
630000
3000
そうしたらそのルールに従うのは義務です
10:48
It's not a matter問題 of calculation計算.
252
633000
3000
推測などの問題ではありません
10:51
So let's stop.
253
636000
2000
これは終わりにしましょう
10:53
We're right in the thick厚い of it, this philosophical哲学的 thicket茂み.
254
638000
3000
我々はこの哲学的な密林の真ん中にいます
10:56
And this goes行く on for thousands of years,
255
641000
3000
こう言った話は果てしなく続きます
10:59
because these are hardハード questions質問,
256
644000
2000
難しい問題だからです
11:01
and I've only got 15 minutes.
257
646000
2000
15分しかありません
11:03
So let's cutカット to the chase追跡.
258
648000
2000
単刀直入に言いましょう
11:05
How should we be making作る our decisions決定?
259
650000
4000
決定をどのように下すべきなのか
11:09
Is it Platoプラトン, is it Aristotleアリストテレス, is it Kantカント, is it Millミル?
260
654000
3000
プラトンかアリストテレス カントかミル
11:12
What should we be doing? What's the answer回答?
261
657000
2000
何をするべきなのか 答えは何か
11:14
What's the formula that we can use in any situation状況
262
659000
3000
どんな状況であっても何をするべきか決められる
11:17
to determine決定する what we should do,
263
662000
2000
公式は何でしょう
11:19
whetherかどうか we should use that guy's男の dataデータ or not?
264
664000
2000
あの人のデータを使ってよいかどうか
11:21
What's the formula?
265
666000
3000
決めるための公式は何でしょう
11:25
There's not a formula.
266
670000
2000
公式はありません
11:29
There's not a simple単純 answer回答.
267
674000
2000
単純な答えはありません
11:31
Ethics倫理 is hardハード.
268
676000
3000
倫理は難しいものです
11:34
Ethics倫理 requires要求する thinking考え.
269
679000
3000
倫理は思考を求めます
11:38
And that's uncomfortable不快な.
270
683000
2000
それは快適なものではありません
11:40
I know; I spent過ごした a lot of my careerキャリア
271
685000
2000
私はこれまで長いこと
11:42
in artificial人工的な intelligenceインテリジェンス,
272
687000
2000
人工知能を研究し
11:44
trying試す to buildビルドする machines機械 that could do some of this thinking考え for us,
273
689000
3000
このような思考を代行できる装置を作ろうとしてきました
11:47
that could give us answers答え.
274
692000
2000
答えを与えるような装置です
11:49
But they can't.
275
694000
2000
しかしそれはできません
11:51
You can't just take human人間 thinking考え
276
696000
2000
人の思考を取り出して
11:53
and put it into a machine機械.
277
698000
2000
機械に入れることはできません
11:55
We're the onesもの who have to do it.
278
700000
3000
自分たちで考えなければいけないのです
11:58
Happily幸せに, we're not machines機械, and we can do it.
279
703000
3000
幸い 私たちは機械ではなく 考えることができます
12:01
Not only can we think,
280
706000
2000
単にできるだけではなく
12:03
we must必須.
281
708000
2000
考えなければなりません
12:05
Hannahハンナ ArendtArendt said,
282
710000
2000
ハンナ・アーレントが言っています
12:07
"The sad悲しい truth真実
283
712000
2000
「悲しいかな
12:09
is that most最も evil悪の done完了 in this world世界
284
714000
2000
この世のほとんどの悪は
12:11
is not done完了 by people
285
716000
2000
悪をなそうと覚悟した人が
12:13
who choose選択する to be evil悪の.
286
718000
2000
行うのではない
12:15
It arises発生する from not thinking考え."
287
720000
3000
悪は考えないことから生じるのである」
12:18
That's what she calledと呼ばれる the "banality平凡 of evil悪の."
288
723000
4000
このことを彼女は「悪の陳腐さ」と呼びました
12:22
And the response応答 to that
289
727000
2000
これを踏まえて
12:24
is that we demandデマンド the exercise運動 of thinking考え
290
729000
2000
全ての良識ある人は
12:26
from everyすべて sane元気 person.
291
731000
3000
思考を練習するよう求められるのです
12:29
So let's do that. Let's think.
292
734000
2000
やってみましょう 考えてみましょう
12:31
In fact事実, let's start開始 right now.
293
736000
3000
つまり 今から始めましょう
12:34
Everyすべて person in this roomルーム do this:
294
739000
3000
会場のみなさん これをやってください
12:37
think of the last time you had a decision決定 to make
295
742000
3000
一番最近 正しく行えるか気になって
12:40
where you were worried心配している to do the right thing,
296
745000
2000
「どうしたらいいのだろう」と思った
12:42
where you wondered疑問に思った, "What should I be doing?"
297
747000
2000
決断のことを考えてください
12:44
Bring持ち込む that to mindマインド,
298
749000
2000
そのことを思い出してください
12:46
and now reflect反映する on that
299
751000
2000
それを思いだしたら考えてください
12:48
and say, "How did I come up that decision決定?
300
753000
3000
「どうやってその決断に達したのか
12:51
What did I do? Did I followフォローする my gut?
301
756000
3000
自分は何をしたのか?直感に従ったのか?
12:54
Did I have somebody誰か vote投票 on it? Or did I puntパント to legal法的?"
302
759000
2000
投票してもらったのか?法務部に聞いたのか?」
12:56
Or now we have a few少数 more choices選択肢.
303
761000
3000
選択肢は他にもいくつかあります
12:59
"Did I evaluate評価する what would be the highest最高 pleasure喜び
304
764000
2000
「ミルのように何が便益を最大化するかと
13:01
like Millミル would?
305
766000
2000
評価したのか」
13:03
Or like Kantカント, did I use reason理由 to figure数字 out what was intrinsically本質的に right?"
306
768000
3000
それともカントのように 理性を用いて固有の正しさを見いだしたか
13:06
Think about it. Really bring持参する it to mindマインド. This is important重要.
307
771000
3000
考えてみてください きちんと思いだすこと これが大事です
13:09
It is so important重要
308
774000
2000
大変重要なことなので
13:11
we are going to spend費やす 30 seconds of valuable貴重な TEDTalkTEDTalk time
309
776000
2000
この貴重な TED Talk の30秒を使いましょう
13:13
doing nothing but thinking考え about this.
310
778000
2000
何もせず このことを考えるのです
13:15
Are you ready準備完了? Go.
311
780000
2000
用意して 始め
13:33
Stop. Good work.
312
798000
3000
おしまい ごくろうさま
13:36
What you just did,
313
801000
2000
今やって頂いたことが
13:38
that's the first stepステップ towards方向 taking取る responsibility責任
314
803000
2000
なすべきことに対して責任を持って
13:40
for what we should do with all of our powerパワー.
315
805000
3000
我々の力を行使するための第一歩です
13:45
Now the next stepステップ -- try this.
316
810000
3000
次のステップです これも挑戦してください
13:49
Go find a friend友人 and explain説明する to them
317
814000
2000
誰か友達に 決定を下した経緯を
13:51
how you made that decision決定.
318
816000
2000
説明してください
13:53
Not right now. Wait tillまで I finish仕上げ talking話す.
319
818000
2000
今ではありません トークが終わるまで待ってください
13:55
Do it over lunchランチ.
320
820000
2000
昼食のときにやってください
13:57
And don't just find another別の technologist技術者 friend友人;
321
822000
3000
技術者の友人ではなくて
14:00
find somebody誰か different異なる than you.
322
825000
2000
自分と違うタイプを探してください
14:02
Find an artistアーティスト or a writerライター --
323
827000
2000
芸術家やライターや
14:04
or, heaven天国 forbid禁じる, find a philosopher哲学者 and talk to them.
324
829000
3000
ありえないかもしれませんが 哲学者をみつけて話してください
14:07
In fact事実, find somebody誰か from the humanities人文科学.
325
832000
2000
人文科学の誰かを見つけてください
14:09
Why? Because they think about problems問題
326
834000
2000
なぜか? 彼らの問題の考え方は
14:11
differently異なって than we do as technologists技術者.
327
836000
2000
技術者とは違うからです
14:13
Just a few少数 days日々 ago, right across横断する the street通り from here,
328
838000
3000
数日前ですが ここから通りの向かいで
14:16
there was hundreds数百 of people gathered集まった together一緒に.
329
841000
2000
数百人の人が 集まりました
14:18
It was technologists技術者 and humanists人道主義者
330
843000
2000
技術者と人文科学者が
14:20
at that big大きい BiblioTechBiblioTech Conference会議.
331
845000
2000
ビブリオテック会議に集まったのです
14:22
And they gathered集まった together一緒に
332
847000
2000
集まった理由は
14:24
because the technologists技術者 wanted to learn学ぶ
333
849000
2000
人文科学の見方で思考すると
14:26
what it would be like to think from a humanities人文科学 perspective視点.
334
851000
3000
どうなるかを技術者が知りたかったからです
14:29
You have someone誰か from GoogleGoogle
335
854000
2000
グーグルから来た人が
14:31
talking話す to someone誰か who does comparative比較 literature文献.
336
856000
2000
比較文化論の研究者と話しました
14:33
You're thinking考え about the relevance関連性 of 17thth century世紀 Frenchフランス語 theater劇場 --
337
858000
3000
17 世紀のフランスの劇場とベンチャーキャピタルが
14:36
how does that bearくま upon〜に ventureベンチャー capital資本?
338
861000
2000
どう関係するのかとお考えでしょう
14:38
Well that's interesting面白い. That's a different異なる way of thinking考え.
339
863000
3000
面白い点です 考え方が違うのです
14:41
And when you think in that way,
340
866000
2000
こういうふうに考えたときに
14:43
you become〜になる more sensitive敏感な to the human人間 considerations考察,
341
868000
3000
人への配慮について もっと敏感になるでしょう
14:46
whichどの are crucial重大な to making作る ethical倫理的な decisions決定.
342
871000
3000
それは倫理的決断に大事なことです
14:49
So imagine想像する that right now
343
874000
2000
出かけて行って音楽家の友人と会うことを
14:51
you went行った and you found見つけた your musicianミュージシャン friend友人.
344
876000
2000
今 想像してください
14:53
And you're telling伝える him what we're talking話す about,
345
878000
3000
聞いたことを彼に伝え
14:56
about our whole全体 dataデータ revolution革命 and all this --
346
881000
2000
我々のデータ革命とかこれらのこと全部
14:58
maybe even humハム a few少数 barsバー of our themeテーマ music音楽.
347
883000
2000
テーマ音楽も数小節鼻歌で歌ってもいいです
15:00
Dumダム ta da da dum dum ta da da dum
348
885000
3000
♫ダンダダダーダンタダダダン♫
15:03
Well, your musicianミュージシャン friend友人 will stop you and say,
349
888000
2000
音楽家の友達が制止して言うでしょう
15:05
"You know, the themeテーマ music音楽
350
890000
2000
「データ革命の
15:07
for your dataデータ revolution革命,
351
892000
2000
そのテーマ曲は
15:09
that's an operaオペラ, that's Wagnerワーグナー.
352
894000
2000
オペラだ それはワーグナーだ
15:11
It's basedベース on Norseノルウェー legend伝説.
353
896000
2000
北欧の神話が元になっていて
15:13
It's Gods神々 and mythical神話的な creatures生き物
354
898000
2000
神と神話世界の住人が
15:15
fighting戦う over magical魔法の jewelry宝石."
355
900000
3000
魔法の指輪を巡って戦う話だ」
15:19
That's interesting面白い.
356
904000
3000
これは興味深いことです
15:22
Now it's alsoまた、 a beautiful綺麗な operaオペラ,
357
907000
3000
美しいオペラでもあったのです
15:25
and we're moved移動した by that operaオペラ.
358
910000
3000
感動的なオペラです
15:28
We're moved移動した because it's about the battle戦い
359
913000
2000
それは善と悪の戦いを
15:30
betweenの間に good and evil悪の,
360
915000
2000
描いているので
15:32
about right and wrong違う.
361
917000
2000
感動するのです
15:34
And we careお手入れ about right and wrong違う.
362
919000
2000
善と悪とが気になります
15:36
We careお手入れ what happens起こる in that operaオペラ.
363
921000
3000
オペラで何が起きるのかも気になります
15:39
We careお手入れ what happens起こる in "Apocalypse黙示録 Now."
364
924000
3000
「地獄の黙示録」で何が起きたかも気になります
15:42
And we certainly確かに careお手入れ
365
927000
2000
もちろん 我々の技術に何が起きるのかも
15:44
what happens起こる with our technologiesテクノロジー.
366
929000
2000
気になることです
15:46
We have so much powerパワー today今日,
367
931000
2000
これほどの力を手に入れた今日
15:48
it is up to us to figure数字 out what to do,
368
933000
3000
それをどうするかは我々の手に委ねられています
15:51
and that's the good newsニュース.
369
936000
2000
それは朗報と言えます
15:53
We're the onesもの writing書き込み this operaオペラ.
370
938000
3000
我々がこのオペラを書くのです
15:56
This is our movie映画.
371
941000
2000
これは我々の映画です
15:58
We figure数字 out what will happen起こる with this technology技術.
372
943000
3000
この技術で何が起こるか明らかにしましょう
16:01
We determine決定する how this will all end終わり.
373
946000
3000
どういう結末を迎えるのか決めましょう
16:04
Thank you.
374
949000
2000
ありがとうございます
16:06
(Applause拍手)
375
951000
5000
(拍手)
Translated by Natsuhiko Mizutani
Reviewed by Kayo Mizutani

▲Back to top

ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com