16:19
TEDxSiliconValley

Damon Horowitz: We need a "moral operating system"

デイモン・ホロビッツは道徳のオペレーティングシステムを提言する

Filmed:

TEDxSiliconValley でデイモン・ホロビッツは技術が我々に大きな力を与え、お互いのことがかつてないほど分かるようになってきたと述べます。観客を哲学的議論に引き込み、世界を塗り替えるようなイノベーションが巻き起こる中で、倫理原則となる哲学の基本に、新たに注目するよう促します。我々に取って意味のある道徳のオペレーティングシステムはどこにあるでしょうか

- Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities. Full bio

Power.
「力(ちから)」
00:15
That is the word that comes to mind.
そんな言葉が頭に浮かびます
00:17
We're the new technologists.
我々は新しい技術者です
00:19
We have a lot of data, so we have a lot of power.
多くのデータ すなわち大きな力を手にしています
00:21
How much power do we have?
どれほどの力があるのでしょう
00:24
Scene from a movie: "Apocalypse Now" -- great movie.
「地獄の黙示録」を思いだしてください 素晴らしい映画です
00:26
We've got to get our hero, Captain Willard, to the mouth of the Nung River
主人公のウィラード大尉は カーツ大佐を追跡するために
00:29
so he can go pursue Colonel Kurtz.
ナン河の河口に向かわねばなりません
00:32
The way we're going to do this is fly him in and drop him off.
そこで空路で運んで彼を降下させる
00:34
So the scene:
そんな場面です
00:36
the sky is filled with this fleet of helicopters carrying him in.
彼を乗せたヘリコプター軍団が空いっぱいに広がり
00:38
And there's this loud, thrilling music in the background,
スリリングな音楽が大きく響きます
00:41
this wild music.
この力強い音楽です
00:43
♫ Dum da ta da dum ♫
♫ダンダラダーダン
00:45
♫ Dum da ta da dum ♫
ダンダラダーダン
00:47
♫ Da ta da da ♫
ダダラダー♫
00:49
That's a lot of power.
凄まじい力です
00:52
That's the kind of power I feel in this room.
ここでもその種の力を感じます
00:54
That's the kind of power we have
私たちの手に入れたデータに由来する力は
00:56
because of all of the data that we have.
この種の力です
00:58
Let's take an example.
例を示します
01:00
What can we do
ある一人の個人データから
01:02
with just one person's data?
何ができるでしょうか
01:04
What can we do
たとえば
01:07
with that guy's data?
彼のデータでは?
01:09
I can look at your financial records.
財務記録を見て
01:11
I can tell if you pay your bills on time.
支払いに遅れがないかを調べ
01:13
I know if you're good to give a loan to.
お金を貸し付けて大丈夫とわかります
01:15
I can look at your medical records; I can see if your pump is still pumping --
医療記録を調べて 心臓に問題がなければ
01:17
see if you're good to offer insurance to.
保険を勧めて良いことがわかります
01:20
I can look at your clicking patterns.
クリックの癖も調べられます
01:23
When you come to my website, I actually know what you're going to do already
私のウェブサイトに来たときには どう振る舞うかお見通しです
01:25
because I've seen you visit millions of websites before.
これまでの無数のサイト訪問を見ているからです
01:28
And I'm sorry to tell you,
申し訳ないですが
01:30
you're like a poker player, you have a tell.
手の内を見透かされたポーカープレイヤーは
01:32
I can tell with data analysis what you're going to do
何かする前から やろうとしていることを
01:34
before you even do it.
見抜かれています
01:36
I know what you like. I know who you are,
あなたが好きなものも あなたが何者かも
01:38
and that's even before I look at your mail
メールや電話を見なくたって
01:41
or your phone.
わかるのです
01:43
Those are the kinds of things we can do
我々が集めているデータで
01:45
with the data that we have.
こんなことができるのです
01:47
But I'm not actually here to talk about what we can do.
でも今日は 何ができるかでなく
01:50
I'm here to talk about what we should do.
何をすべきかについて 話します
01:56
What's the right thing to do?
「正しい行い」とは何か?
02:00
Now I see some puzzled looks
戸惑った顔の方もいます
02:04
like, "Why are you asking us what's the right thing to do?
「何が正しい行動か?なんてどうして聞くんだ
02:06
We're just building this stuff. Somebody else is using it."
僕らは何かを作る それを使うのは他の人だ」
02:09
Fair enough.
いいでしょう
02:12
But it brings me back.
では昔を振り返って
02:15
I think about World War II --
第二次世界大戦のことを考えましょう
02:17
some of our great technologists then,
当時の偉大な技術者と
02:19
some of our great physicists,
偉大な物理学者で
02:21
studying nuclear fission and fusion --
核分裂や核融合などの
02:23
just nuclear stuff.
原子核物理を研究していた人たちが
02:25
We gather together these physicists in Los Alamos
ロス・アラモスに集まって
02:27
to see what they'll build.
何を作ったのでしょう
02:30
We want the people building the technology
技術を作っている人たちには
02:33
thinking about what we should be doing with the technology.
技術をどう使うべきか考えて欲しいのです
02:36
So what should we be doing with that guy's data?
つまり あの人のデータをどう扱うべきでしょうか
02:41
Should we be collecting it, gathering it,
データを集めて蓄積し より良いオンライン生活を
02:44
so we can make his online experience better?
提供するために役立てますか?
02:47
So we can make money?
お金を稼ぐために使いますか?
02:49
So we can protect ourselves
もしも彼が問題人物だったときに
02:51
if he was up to no good?
自分たちを守るために使いますか?
02:53
Or should we respect his privacy,
あるいは 彼のプライバシーを尊重して
02:55
protect his dignity and leave him alone?
彼の尊厳を守り そっとしておきますか
02:58
Which one is it?
どちらにしましょうか
03:02
How should we figure it out?
どうやって決めましょうか
03:05
I know: crowdsource. Let's crowdsource this.
そうだ クラウドソースです
03:07
So to get people warmed up,
まず手始めに
03:11
let's start with an easy question --
簡単な質問から始めます
03:14
something I'm sure everybody here has an opinion about:
これは 誰もが自分の考えを持っているはずです
03:16
iPhone versus Android.
iPhone とアンドロイドです
03:19
Let's do a show of hands -- iPhone.
手を挙げてください -- iPhone
03:21
Uh huh.
ふむふむ
03:24
Android.
アンドロイド
03:26
You'd think with a bunch of smart people
こんなに賢い人たちの集まりに
03:29
we wouldn't be such suckers just for the pretty phones.
電話のことだけ聞いたらマズイですよね
03:31
(Laughter)
(笑)
03:33
Next question,
次の質問は
03:35
a little bit harder.
少し手応えがあります
03:37
Should we be collecting all of that guy's data
彼のデータを全て集めて
03:39
to make his experiences better
よりよい経験を提供し
03:41
and to protect ourselves in case he's up to no good?
もし問題人物なら身を守るために使ってよいか?
03:43
Or should we leave him alone?
それとも データ収集は止めますか
03:46
Collect his data.
データを集める人
03:48
Leave him alone.
集めない人
03:53
You're safe. It's fine.
安心していいよ 大丈夫です
03:56
(Laughter)
(笑)
03:58
Okay, last question --
では 最後の質問は
04:00
harder question --
もっと厄介な質問です
04:02
when trying to evaluate
このケースで何を行うべきか
04:04
what we should do in this case,
評価するときに
04:07
should we use a Kantian deontological moral framework,
カントの義務論に従うべきでしょうか
04:10
or should we use a Millian consequentialist one?
それともミルの帰結主義に従いますか
04:14
Kant.
カント
04:19
Mill.
ミル
04:22
Not as many votes.
挙手が減ってしまいました
04:25
(Laughter)
(笑)
04:27
Yeah, that's a terrifying result.
いや ぞっとするような結果です
04:30
Terrifying, because we have stronger opinions
恐ろしいのは 携帯機器に対して
04:34
about our hand-held devices
明確な意見があるのに
04:38
than about the moral framework
意思決定を導くべき道徳観には
04:40
we should use to guide our decisions.
それほどの意見がないからです
04:42
How do we know what to do with all the power we have
手にした力をどう使うべきかを
04:44
if we don't have a moral framework?
道徳観を持たずして どう決められますか?
04:47
We know more about mobile operating systems,
皆さんはモバイルの OS のほうに詳しいですが
04:50
but what we really need is a moral operating system.
本当に必要なのは道徳のOSなのです
04:53
What's a moral operating system?
道徳の OS とは何でしょうか
04:58
We all know right and wrong, right?
良し悪しは誰もが分かることです
05:00
You feel good when you do something right,
良いことをすれば気分が良いし
05:02
you feel bad when you do something wrong.
悪いことをすると気分が良くない
05:04
Our parents teach us that: praise with the good, scold with the bad.
両親は 良いことを褒め 悪いことを叱って教えます
05:06
But how do we figure out what's right and wrong?
では 良し悪しはどう判断するのでしょう?
05:09
And from day to day, we have the techniques that we use.
日常的に 使われている方法があります
05:12
Maybe we just follow our gut.
直感で決めるかもしれません
05:15
Maybe we take a vote -- we crowdsource.
投票 --クラウドソースかもしれません
05:18
Or maybe we punt --
あるいは回避して
05:21
ask the legal department, see what they say.
法務部門の意見を聞いてみるかもしれません
05:23
In other words, it's kind of random,
言い換えれば ランダムなのです
05:26
kind of ad hoc,
間に合わせの方法で
05:28
how we figure out what we should do.
「何をすべきか」を決めるのです
05:30
And maybe, if we want to be on surer footing,
足場をしっかりさせたいなら
05:33
what we really want is a moral framework that will help guide us there,
そもそも物事の正誤を明らかにして
05:36
that will tell us what kinds of things are right and wrong in the first place,
状況に応じて何をすべきかを示し
05:39
and how would we know in a given situation what to do.
導いてくれる道徳観が求められます
05:42
So let's get a moral framework.
では道徳観を獲得しましょう
05:46
We're numbers people, living by numbers.
皆さん数字で暮らす 数字人間ですね
05:48
How can we use numbers
いったいどうすれば
05:51
as the basis for a moral framework?
数字を道徳の基準に使えるでしょう
05:53
I know a guy who did exactly that.
まさにこのことを考えた人がいます
05:56
A brilliant guy --
明晰な人物で
05:59
he's been dead 2,500 years.
2千5百年前に亡くなりました
06:02
Plato, that's right.
そう プラトンです
06:05
Remember him -- old philosopher?
昔の哲学者ですが 覚えていますか?
06:07
You were sleeping during that class.
あの授業のときは寝てましたか?
06:09
And Plato, he had a lot of the same concerns that we did.
プラトンは 我々と同じ多くの心配を抱え
06:12
He was worried about right and wrong.
善悪について悩みました
06:14
He wanted to know what is just.
「正しい」とは何かを追求しました
06:16
But he was worried that all we seem to be doing
皆 意見を交換しているだけではないかと
06:18
is trading opinions about this.
彼は心配していました
06:20
He says something's just. She says something else is just.
彼はこれが正しいと言い 彼女は別のことが正しいと言う
06:22
It's kind of convincing when he talks and when she talks too.
彼の話に納得し 彼女の話にも納得する
06:25
I'm just going back and forth; I'm not getting anywhere.
堂々巡りで どこにも行き着きません
06:27
I don't want opinions; I want knowledge.
欲しいのは意見ではなく知識です
06:29
I want to know the truth about justice --
数学で真理があるように 正義についての
06:32
like we have truths in math.
真理を知りたいのです
06:35
In math, we know the objective facts.
数学では客観的な真実があります
06:38
Take a number, any number -- two.
どんな数字でも -- 例えば 2 です
06:41
Favorite number. I love that number.
いい番号です 私は好きです
06:43
There are truths about two.
2 についてはこんな真実があります
06:45
If you've got two of something,
何かが 2 つあるときに
06:47
you add two more, you get four.
あと 2 つ加えると 4 つになります
06:49
That's true no matter what thing you're talking about.
モノが何であっても これは真です
06:51
It's an objective truth about the form of two,
2 という形式 -- 抽象的な形式における
06:53
the abstract form.
客観的な真実です
06:55
When you have two of anything -- two eyes, two ears, two noses,
どんなものでも 2 つあれば -- 目や耳 鼻
06:57
just two protrusions --
単なる突起が 2 つでも
06:59
those all partake of the form of two.
全ては 2 という形式を引き継ぎ
07:01
They all participate in the truths that two has.
2 に伴う真実を共有します
07:04
They all have two-ness in them.
全てが「2 らしさ」を有します
07:08
And therefore, it's not a matter of opinion.
だからそれは意見の問題ではありません
07:10
What if, Plato thought,
プラトンは考えました
07:13
ethics was like math?
もし倫理も数学のようなものだったら?
07:15
What if there were a pure form of justice?
純粋な正義というものがあるとしたら?
07:17
What if there are truths about justice,
正義についての真実があるとしたら
07:20
and you could just look around in this world
この世界をよく眺めることで
07:22
and see which things participated,
物事が引き継ぎ 共有している
07:24
partook of that form of justice?
正義という形式を見いだせるのではないだろうか
07:26
Then you would know what was really just and what wasn't.
そうすれば 何が本当に正しく 何が正しくないか分かるだろう
07:29
It wouldn't be a matter
意見の問題や
07:32
of just opinion or just appearances.
外見の問題ではなくなるだろう
07:34
That's a stunning vision.
とても魅力的なビジョンです
07:37
I mean, think about that. How grand. How ambitious.
考えてみてください 実に壮大で 実に野心的です
07:39
That's as ambitious as we are.
私たちとおなじくらい野心的です
07:42
He wants to solve ethics.
プラトンは倫理の答えを求め
07:44
He wants objective truths.
客観的な真実を求めました
07:46
If you think that way,
皆さんもこういうふうに考えるなら
07:48
you have a Platonist moral framework.
プラトン派の道徳観を持っています
07:51
If you don't think that way,
こう考えない人は
07:54
well, you have a lot of company in the history of Western philosophy,
西洋の哲学の歴史においては多数派で
07:56
because the tidy idea, you know, people criticized it.
この整然とした考えは批判されてきました
07:58
Aristotle, in particular, he was not amused.
とくに アリストテレスはこれが気にいりませんでした
08:01
He thought it was impractical.
実用的ではないと考えたのです
08:04
Aristotle said, "We should seek only so much precision in each subject
「それぞれの主題ごとに許される範囲内でのみ正確さを追求すべきだ」
08:07
as that subject allows."
とアリストテレスは言いました
08:11
Aristotle thought ethics wasn't a lot like math.
彼は倫理と数学はあまり似ていないと考えました
08:13
He thought ethics was a matter of making decisions in the here-and-now
彼の考える倫理とは 今ここで
08:16
using our best judgment
最良の判断で意思決定をして
08:19
to find the right path.
正しい道を探すことでした
08:21
If you think that, Plato's not your guy.
そう思うならプラトン派ではありません
08:23
But don't give up.
でもあきらめないで
08:25
Maybe there's another way
もしかすると他にも
08:27
that we can use numbers as the basis of our moral framework.
数量を基準とする道徳観があるかもしれません
08:29
How about this:
これはどうでしょう
08:33
What if in any situation you could just calculate,
ある状況で選択肢を比べて
08:35
look at the choices,
それぞれについて推定をして
08:38
measure out which one's better and know what to do?
どれが良い選択で何をすべきか明らかにできるとしたら?
08:40
That sound familiar?
聞いたことはありませんか
08:43
That's a utilitarian moral framework.
これは功利主義の道徳観です
08:45
John Stuart Mill was a great advocate of this --
ジョン・スチュワート・ミルは功利主義を
08:48
nice guy besides --
大いに推進して ー いい男ですし
08:50
and only been dead 200 years.
200 年ほど前に亡くなりました
08:52
So basis of utilitarianism --
功利主義の基本ですが
08:54
I'm sure you're familiar at least.
多くの方 ー 少なくとも
08:56
The three people who voted for Mill before are familiar with this.
先ほどミルに投票した3人はご存知でしょう
08:58
But here's the way it works.
こんな仕組みです
09:00
What if morals, what if what makes something moral
道徳や何かを道徳たらしめるものは
09:02
is just a matter of if it maximizes pleasure
快楽を最大化し苦痛を最小化させる
09:05
and minimizes pain?
ものである としたらどうでしょう
09:07
It does something intrinsic to the act.
行動に固有の何かが作用します
09:09
It's not like its relation to some abstract form.
何かの抽象的な形式との関係とは違って
09:12
It's just a matter of the consequences.
結果だけを問題とします
09:14
You just look at the consequences
結果だけを考え
09:16
and see if, overall, it's for the good or for the worse.
全体としてこれが良いか悪いかを判断します
09:18
That would be simple. Then we know what to do.
これは単純です そして何をすべきか分かります
09:20
Let's take an example.
例で考えてみましょう
09:22
Suppose I go up
もし私がこう言ったとします
09:24
and I say, "I'm going to take your phone."
「お電話を預からせていただきます」
09:26
Not just because it rang earlier,
さっき鳴ったからではなく
09:28
but I'm going to take it because I made a little calculation.
簡単に推測してみたからです
09:30
I thought, that guy looks suspicious.
あの人はどうも怪しいと考えたからです
09:33
And what if he's been sending little messages to Bin Laden's hideout --
もしも彼がビンラディンの隠れ家と
09:36
or whoever took over after Bin Laden --
あるいは誰でもその後継者と通信していたら
09:39
and he's actually like a terrorist, a sleeper cell.
そして彼が潜伏中のテロリストのようであったら
09:41
I'm going to find that out, and when I find that out,
これは はっきりさせないといけません
09:44
I'm going to prevent a huge amount of damage that he could cause.
当たっていたら 重大な損害を防ぐことになるでしょう
09:47
That has a very high utility to prevent that damage.
この損害を防ぐことは大いなる便益となります
09:50
And compared to the little pain that it's going to cause --
電話を調べたときの少々の苦痛と比べても
09:53
because it's going to be embarrassing when I'm looking on his phone
— FarmVille にハマっていることなど
09:55
and seeing that he has a Farmville problem and that whole bit --
バレてしまうのは不愉快ですが
09:57
that's overwhelmed
電話を調査することの価値と比べれば
10:00
by the value of looking at the phone.
小さな問題です
10:03
If you feel that way,
こういうふうに考える人は
10:05
that's a utilitarian choice.
功利主義を選んでいます
10:07
But maybe you don't feel that way either.
でもこれも違うと思われるかもしれません
10:10
Maybe you think, it's his phone.
彼の電話なのだ それを取り上げるのは
10:13
It's wrong to take his phone
間違いだとお考えかもしれません
10:15
because he's a person
人としての彼は
10:17
and he has rights and he has dignity,
権利と尊厳を有し
10:19
and we can't just interfere with that.
それを妨げてはいけません
10:21
He has autonomy.
彼は自立した存在で
10:23
It doesn't matter what the calculations are.
どういう推定がなされても問題ではない
10:25
There are things that are intrinsically wrong --
そもそも正しくないこともあります
10:27
like lying is wrong,
ウソを付くことが間違いであるとか
10:30
like torturing innocent children is wrong.
罪のないこどもを拷問することとか
10:32
Kant was very good on this point,
カントはこの点を巧みに捕らえて
10:35
and he said it a little better than I'll say it.
私よりも上手に述べています
10:38
He said we should use our reason
自分の理性を使って 自分の行動を—
10:40
to figure out the rules by which we should guide our conduct,
導くルールを明らかにするべきだと言っています
10:42
and then it is our duty to follow those rules.
そうしたらそのルールに従うのは義務です
10:45
It's not a matter of calculation.
推測などの問題ではありません
10:48
So let's stop.
これは終わりにしましょう
10:51
We're right in the thick of it, this philosophical thicket.
我々はこの哲学的な密林の真ん中にいます
10:53
And this goes on for thousands of years,
こう言った話は果てしなく続きます
10:56
because these are hard questions,
難しい問題だからです
10:59
and I've only got 15 minutes.
15分しかありません
11:01
So let's cut to the chase.
単刀直入に言いましょう
11:03
How should we be making our decisions?
決定をどのように下すべきなのか
11:05
Is it Plato, is it Aristotle, is it Kant, is it Mill?
プラトンかアリストテレス カントかミル
11:09
What should we be doing? What's the answer?
何をするべきなのか 答えは何か
11:12
What's the formula that we can use in any situation
どんな状況であっても何をするべきか決められる
11:14
to determine what we should do,
公式は何でしょう
11:17
whether we should use that guy's data or not?
あの人のデータを使ってよいかどうか
11:19
What's the formula?
決めるための公式は何でしょう
11:21
There's not a formula.
公式はありません
11:25
There's not a simple answer.
単純な答えはありません
11:29
Ethics is hard.
倫理は難しいものです
11:31
Ethics requires thinking.
倫理は思考を求めます
11:34
And that's uncomfortable.
それは快適なものではありません
11:38
I know; I spent a lot of my career
私はこれまで長いこと
11:40
in artificial intelligence,
人工知能を研究し
11:42
trying to build machines that could do some of this thinking for us,
このような思考を代行できる装置を作ろうとしてきました
11:44
that could give us answers.
答えを与えるような装置です
11:47
But they can't.
しかしそれはできません
11:49
You can't just take human thinking
人の思考を取り出して
11:51
and put it into a machine.
機械に入れることはできません
11:53
We're the ones who have to do it.
自分たちで考えなければいけないのです
11:55
Happily, we're not machines, and we can do it.
幸い 私たちは機械ではなく 考えることができます
11:58
Not only can we think,
単にできるだけではなく
12:01
we must.
考えなければなりません
12:03
Hannah Arendt said,
ハンナ・アーレントが言っています
12:05
"The sad truth
「悲しいかな
12:07
is that most evil done in this world
この世のほとんどの悪は
12:09
is not done by people
悪をなそうと覚悟した人が
12:11
who choose to be evil.
行うのではない
12:13
It arises from not thinking."
悪は考えないことから生じるのである」
12:15
That's what she called the "banality of evil."
このことを彼女は「悪の陳腐さ」と呼びました
12:18
And the response to that
これを踏まえて
12:22
is that we demand the exercise of thinking
全ての良識ある人は
12:24
from every sane person.
思考を練習するよう求められるのです
12:26
So let's do that. Let's think.
やってみましょう 考えてみましょう
12:29
In fact, let's start right now.
つまり 今から始めましょう
12:31
Every person in this room do this:
会場のみなさん これをやってください
12:34
think of the last time you had a decision to make
一番最近 正しく行えるか気になって
12:37
where you were worried to do the right thing,
「どうしたらいいのだろう」と思った
12:40
where you wondered, "What should I be doing?"
決断のことを考えてください
12:42
Bring that to mind,
そのことを思い出してください
12:44
and now reflect on that
それを思いだしたら考えてください
12:46
and say, "How did I come up that decision?
「どうやってその決断に達したのか
12:48
What did I do? Did I follow my gut?
自分は何をしたのか?直感に従ったのか?
12:51
Did I have somebody vote on it? Or did I punt to legal?"
投票してもらったのか?法務部に聞いたのか?」
12:54
Or now we have a few more choices.
選択肢は他にもいくつかあります
12:56
"Did I evaluate what would be the highest pleasure
「ミルのように何が便益を最大化するかと
12:59
like Mill would?
評価したのか」
13:01
Or like Kant, did I use reason to figure out what was intrinsically right?"
それともカントのように 理性を用いて固有の正しさを見いだしたか
13:03
Think about it. Really bring it to mind. This is important.
考えてみてください きちんと思いだすこと これが大事です
13:06
It is so important
大変重要なことなので
13:09
we are going to spend 30 seconds of valuable TEDTalk time
この貴重な TED Talk の30秒を使いましょう
13:11
doing nothing but thinking about this.
何もせず このことを考えるのです
13:13
Are you ready? Go.
用意して 始め
13:15
Stop. Good work.
おしまい ごくろうさま
13:33
What you just did,
今やって頂いたことが
13:36
that's the first step towards taking responsibility
なすべきことに対して責任を持って
13:38
for what we should do with all of our power.
我々の力を行使するための第一歩です
13:40
Now the next step -- try this.
次のステップです これも挑戦してください
13:45
Go find a friend and explain to them
誰か友達に 決定を下した経緯を
13:49
how you made that decision.
説明してください
13:51
Not right now. Wait till I finish talking.
今ではありません トークが終わるまで待ってください
13:53
Do it over lunch.
昼食のときにやってください
13:55
And don't just find another technologist friend;
技術者の友人ではなくて
13:57
find somebody different than you.
自分と違うタイプを探してください
14:00
Find an artist or a writer --
芸術家やライターや
14:02
or, heaven forbid, find a philosopher and talk to them.
ありえないかもしれませんが 哲学者をみつけて話してください
14:04
In fact, find somebody from the humanities.
人文科学の誰かを見つけてください
14:07
Why? Because they think about problems
なぜか? 彼らの問題の考え方は
14:09
differently than we do as technologists.
技術者とは違うからです
14:11
Just a few days ago, right across the street from here,
数日前ですが ここから通りの向かいで
14:13
there was hundreds of people gathered together.
数百人の人が 集まりました
14:16
It was technologists and humanists
技術者と人文科学者が
14:18
at that big BiblioTech Conference.
ビブリオテック会議に集まったのです
14:20
And they gathered together
集まった理由は
14:22
because the technologists wanted to learn
人文科学の見方で思考すると
14:24
what it would be like to think from a humanities perspective.
どうなるかを技術者が知りたかったからです
14:26
You have someone from Google
グーグルから来た人が
14:29
talking to someone who does comparative literature.
比較文化論の研究者と話しました
14:31
You're thinking about the relevance of 17th century French theater --
17 世紀のフランスの劇場とベンチャーキャピタルが
14:33
how does that bear upon venture capital?
どう関係するのかとお考えでしょう
14:36
Well that's interesting. That's a different way of thinking.
面白い点です 考え方が違うのです
14:38
And when you think in that way,
こういうふうに考えたときに
14:41
you become more sensitive to the human considerations,
人への配慮について もっと敏感になるでしょう
14:43
which are crucial to making ethical decisions.
それは倫理的決断に大事なことです
14:46
So imagine that right now
出かけて行って音楽家の友人と会うことを
14:49
you went and you found your musician friend.
今 想像してください
14:51
And you're telling him what we're talking about,
聞いたことを彼に伝え
14:53
about our whole data revolution and all this --
我々のデータ革命とかこれらのこと全部
14:56
maybe even hum a few bars of our theme music.
テーマ音楽も数小節鼻歌で歌ってもいいです
14:58
♫ Dum ta da da dum dum ta da da dum ♫
♫ダンダダダーダンタダダダン♫
15:00
Well, your musician friend will stop you and say,
音楽家の友達が制止して言うでしょう
15:03
"You know, the theme music
「データ革命の
15:05
for your data revolution,
そのテーマ曲は
15:07
that's an opera, that's Wagner.
オペラだ それはワーグナーだ
15:09
It's based on Norse legend.
北欧の神話が元になっていて
15:11
It's Gods and mythical creatures
神と神話世界の住人が
15:13
fighting over magical jewelry."
魔法の指輪を巡って戦う話だ」
15:15
That's interesting.
これは興味深いことです
15:19
Now it's also a beautiful opera,
美しいオペラでもあったのです
15:22
and we're moved by that opera.
感動的なオペラです
15:25
We're moved because it's about the battle
それは善と悪の戦いを
15:28
between good and evil,
描いているので
15:30
about right and wrong.
感動するのです
15:32
And we care about right and wrong.
善と悪とが気になります
15:34
We care what happens in that opera.
オペラで何が起きるのかも気になります
15:36
We care what happens in "Apocalypse Now."
「地獄の黙示録」で何が起きたかも気になります
15:39
And we certainly care
もちろん 我々の技術に何が起きるのかも
15:42
what happens with our technologies.
気になることです
15:44
We have so much power today,
これほどの力を手に入れた今日
15:46
it is up to us to figure out what to do,
それをどうするかは我々の手に委ねられています
15:48
and that's the good news.
それは朗報と言えます
15:51
We're the ones writing this opera.
我々がこのオペラを書くのです
15:53
This is our movie.
これは我々の映画です
15:56
We figure out what will happen with this technology.
この技術で何が起こるか明らかにしましょう
15:58
We determine how this will all end.
どういう結末を迎えるのか決めましょう
16:01
Thank you.
ありがとうございます
16:04
(Applause)
(拍手)
16:06
Translated by Natsuhiko Mizutani
Reviewed by Kayo Mizutani

▲Back to top

About the Speaker:

Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com