ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com
TEDxSiliconValley

Damon Horowitz: We need a "moral operating system"

데이몬 호로비쯔는 "도덕적 운영 시스템"을 요청한다.

Filmed:
795,617 views

TEDx 실리콘 벨리 (SiliconValley) 에서, 데이몬 호로비쯔는 테크놀로지가 우리에게 부여하는 거대한 새로운 권력에 대해 검토한다: 그전의 어느때보다 더욱더 많이 아는것과 서로에 관해서 더욱더 많이 아는것. 철학적인 토론으로 관계를 이끌며, 호로비쯔는 우리의 세계를 재생하는 말명품의 폭발 배후에 우리가 기본적인 철학--윤리적 원리--에 새로운 주의를 기울이도록 초대한다. 우리가 그것을 의미가 있게 만들도록 허락하는 도덕적인 운영시스템은 어디있는가?
- Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities. Full bio

Double-click the English transcript below to play the video.

00:15
Power.
0
0
2000
권력
00:17
That is the word워드 that comes온다 to mind마음.
1
2000
2000
그 말이 제 마음으로 들어서는군요.
00:19
We're the new새로운 technologists기술자.
2
4000
2000
우리는 신세대 테크놀로지스트들입니다.
00:21
We have a lot of data데이터, so we have a lot of power.
3
6000
3000
우리에게는 많은 양의 데이터가 있어서, 우리에겐 많은 권력이 있지요.
00:24
How much power do we have?
4
9000
2000
얼마나 많은 권력을 우리가 가지고 있나요?
00:26
Scene장면 from a movie영화: "Apocalypse묵시 Now" -- great movie영화.
5
11000
3000
영화의 한장면: "아포칼립스 나우"--굉장한 영화지요.
00:29
We've우리는 got to get our hero영웅, Captain선장 Willard윌러드, to the mouth of the Nung River
6
14000
3000
우리는 우리의 영웅, 윌라드 대장을, 넝 강(Nung River) 의 입구로 가서 체포해야 해요.
00:32
so he can go pursue추구하다 Colonel대령 Kurtz커츠.
7
17000
2000
그래서 그는 커츠 대령을 쫒을 수 있지요.
00:34
The way we're going to do this is fly파리 him in and drop하락 him off.
8
19000
2000
우리가 이걸 하려는 방식은 그를 비행기로 태워다가 떨구어 놓는 겁니다.
00:36
So the scene장면:
9
21000
2000
그래서 그 장면은:
00:38
the sky하늘 is filled채우는 with this fleet함대 of helicopters헬리콥터 carrying적재 him in.
10
23000
3000
하늘은 그를 운반해 들여오는 이 헬리콥터의 무리로 가득차 있죠.
00:41
And there's this loud화려한, thrilling떨리는 music음악 in the background배경,
11
26000
2000
또 거기에는 이 요란한, 스릴있는 음악이 배경에 깔려있습니다,
00:43
this wild야생 music음악.
12
28000
2000
이 야생적인 음악.
00:45
Dum da ta고마워 da dum
13
30000
2000
♫덤 다 타 다 덤♫
00:47
Dum da ta고마워 da dum
14
32000
2000
♫덤 다 타 다 덤♫
00:49
DaDa ta고마워 da da
15
34000
3000
♫다 타 다 다♫
00:52
That's a lot of power.
16
37000
2000
그것은 대단한 권력입니다.
00:54
That's the kind종류 of power I feel in this room.
17
39000
2000
그건 제가 이 장소에서 느끼는 것과 같은 종류의 권력입니다.
00:56
That's the kind종류 of power we have
18
41000
2000
그건 우리가 가지고 있는 종류의 권력입니다
00:58
because of all of the data데이터 that we have.
19
43000
2000
왜냐하면 우리가 가지고 있는 데이터의 전부이기 때문이지요.
01:00
Let's take an example.
20
45000
2000
예를 들어봅시다.
01:02
What can we do
21
47000
2000
우리가 뭘 할수 있을까요
01:04
with just one person's data데이터?
22
49000
3000
한사람의 데이터를 가지구요?
01:07
What can we do
23
52000
2000
우리가 뭘 할 수 있을까요
01:09
with that guy's남자의 data데이터?
24
54000
2000
저 남자의 데이터를 가지고 말이죠?
01:11
I can look at your financial재정적 인 records기록들.
25
56000
2000
저는 여러분의 재정 기록상황을 볼 수 있습니다.
01:13
I can tell if you pay지불 your bills지폐 on time.
26
58000
2000
저는 여러분이 제때에 요금을 지불하는지 말할 수 있습니다.
01:15
I know if you're good to give a loan차관 to.
27
60000
2000
저는 여러분이 융자를 얻을만큼 신용이 있는지 알 수 있지요.
01:17
I can look at your medical의료 records기록들; I can see if your pump펌프 is still pumping펌핑 --
28
62000
3000
저는 여러분의 의료 기록을 볼 수 있고, 여러분의 심장이 제대로 작동하는 지 볼 수 있지요--
01:20
see if you're good to offer제공 insurance보험 to.
29
65000
3000
여러분이 보험을 제공받을 만큼 신용이 있는 지 볼 수 있고.
01:23
I can look at your clicking클릭 patterns패턴들.
30
68000
2000
여러분이 클릭하는 패턴을 볼 수 있습니다.
01:25
When you come to my website웹 사이트, I actually사실은 know what you're going to do already이미
31
70000
3000
여러분이 제 웹사이트로 갔을 때, 저는 실제로 여러분이 뭘 할 것인지를 알고 있습니다,
01:28
because I've seen you visit방문 millions수백만 of websites웹 사이트 before.
32
73000
2000
왜냐하면 저는 여러분이 전에 그 웹사이트를 방문한 것을 보았기 때문이지요.
01:30
And I'm sorry to tell you,
33
75000
2000
그리고 저는 여러분에게 말하는것을 죄송하게 생각합니다,
01:32
you're like a poker포커 player플레이어, you have a tell.
34
77000
2000
여러분이 포커 플레이어같아서, 할말이 있다는 것을요.
01:34
I can tell with data데이터 analysis분석 what you're going to do
35
79000
2000
저는 그 데이터 분석으로 여러분이 무엇을 할 것인지를 압니다
01:36
before you even do it.
36
81000
2000
여러분이 그것을 시작하기도 전에 말이죠.
01:38
I know what you like. I know who you are,
37
83000
3000
저는 여러분이 좋아하는것을 압니다. 저는 여러분이 누구인지를 압니다.
01:41
and that's even before I look at your mail우편
38
86000
2000
그것은 심지어 제가 여러분의 메일이나
01:43
or your phone전화.
39
88000
2000
여러분의 전화를 보기도 이전입니다.
01:45
Those are the kinds종류 of things we can do
40
90000
2000
그런것들이 우리가 할 수 있는 종류의 것들입니다
01:47
with the data데이터 that we have.
41
92000
3000
우리가 가진 데이터를 가지고 말이죠.
01:50
But I'm not actually사실은 here to talk about what we can do.
42
95000
3000
하지만 저는 실제로 여기에서 우리가 할 수 있는것에 관해서 이야기하려고 온것이 아닙니다.
01:56
I'm here to talk about what we should do.
43
101000
3000
저는 우리가 해야만 하는 것들에 대해서 말하려고 왔어요.
02:00
What's the right thing to do?
44
105000
3000
무엇이 해야만 하는 정당한 것일까요?
02:04
Now I see some puzzled어찌할 바를 모르는 looks외모
45
109000
2000
자 몇몇의 혼란해하는 표정이 보이는군요.
02:06
like, "Why are you asking질문 us what's the right thing to do?
46
111000
3000
"왜 당신이 우리에게 무엇이 해야만 하는 정당한 일인지를 묻는거야?
02:09
We're just building건물 this stuff물건. Somebody어떤 사람 else그밖에 is using~을 사용하여 it."
47
114000
3000
우리는 이것을 만들고 있을 뿐이야. 다른 누군가가 그것을 이용하고 있어."
02:12
Fair공정한 enough충분히.
48
117000
3000
충분히 정당하죠.
02:15
But it brings가져다 준다 me back.
49
120000
2000
하지만 그것은 저를 다시 되돌려 옵니다.
02:17
I think about World세계 War전쟁 IIII --
50
122000
2000
저는 제 2차 세계대전에 대해 생각해 봅니다.
02:19
some of our great technologists기술자 then,
51
124000
2000
그당시 우리의 대단한 테그놀로지스트들 몇명과,
02:21
some of our great physicists물리학 자들,
52
126000
2000
우리의 대단한 물리학자들 몇명이,
02:23
studying공부하는 nuclear핵무기 fission분열 and fusion퓨전 --
53
128000
2000
핵 분열과 퓨전에 대해 공부하고 있었습니다--
02:25
just nuclear핵무기 stuff물건.
54
130000
2000
단지 핵의 물건일 뿐이었습니다.
02:27
We gather모으다 together함께 these physicists물리학 자들 in Los로스 Alamos알라모 스
55
132000
3000
우리는 로스 알라모스에서 이 물리학자들과 함께 모였습니다
02:30
to see what they'll그들은 할 것이다 build짓다.
56
135000
3000
그들이 지을 것이 무엇인지를 보려구요.
02:33
We want the people building건물 the technology과학 기술
57
138000
3000
우리는 사람들이 그 테크놀로지를 건축하는것을 바랍니다
02:36
thinking생각 about what we should be doing with the technology과학 기술.
58
141000
3000
우리가 테크놀로지로 무엇을 해야만 할 것인지를 생각하면서 말이지요.
02:41
So what should we be doing with that guy's남자의 data데이터?
59
146000
3000
자 저 남자의 데이터를 가지고 우리는 무엇을 해야만 할 까요?
02:44
Should we be collecting수집 it, gathering모임 it,
60
149000
3000
우리가 그걸 모으고, 집합시켜야 할까요,
02:47
so we can make his online온라인 experience경험 better?
61
152000
2000
그래서 우리가 그의 온라인 경험을 더 낫게 하기 위해서?
02:49
So we can make money?
62
154000
2000
그래서 우리가 돈을 벌수 있도록?
02:51
So we can protect보호 ourselves우리 스스로
63
156000
2000
그래서 우리가 우리 자신을 보호할 수 있도록
02:53
if he was up to no good?
64
158000
2000
만약 그가 신용이 없어질 때까지?
02:55
Or should we respect존경 his privacy은둔,
65
160000
3000
또는 우리가 그의 개인 정보를 존중해야 할까요,
02:58
protect보호 his dignity존엄 and leave휴가 him alone혼자?
66
163000
3000
그의 존엄을 보호하고 그를 혼자서 내버려 두어야 할까요?
03:02
Which어느 one is it?
67
167000
3000
어떤것이어야 할까요?
03:05
How should we figure그림 it out?
68
170000
2000
우리가 어떻게 알아내야 할까요?
03:07
I know: crowdsourcecrowdsource. Let's crowdsourcecrowdsource this.
69
172000
3000
저는 압니다: 크라우드 소스. 이것을 크라우드 소스시킵시다.
03:11
So to get people warmed따뜻하게 한 up,
70
176000
3000
그래서 사람들에게 준비를 시키기 위해서,
03:14
let's start스타트 with an easy쉬운 question문제 --
71
179000
2000
쉬운 질문으로 시작합시다--
03:16
something I'm sure everybody각자 모두 here has an opinion의견 about:
72
181000
3000
제가 확신하기로 여기 있는 모든 사람들이 의견을 가지고 있는 무엇으로:
03:19
iPhoneiPhone versus Android기계적 인조 인간.
73
184000
2000
아이폰 대 안드로이드.
03:21
Let's do a show보여 주다 of hands소유 -- iPhoneiPhone.
74
186000
3000
손을 보여봅시다--아이폰
03:24
Uh huh.
75
189000
2000
좋아요.
03:26
Android기계적 인조 인간.
76
191000
3000
안드로이드.
03:29
You'd당신은 think with a bunch다발 of smart똑똑한 people
77
194000
2000
여러분이 영리한 많은 사람들이 생각하기를
03:31
we wouldn't~ 않을거야. be such이러한 suckers빨판 just for the pretty예쁜 phones전화.
78
196000
2000
"우리는 단지 예쁜 전화만을 원하는 바보는 안될거야." 라고 하시겠죠.
03:33
(Laughter웃음)
79
198000
2000
(웃음)
03:35
Next다음 것 question문제,
80
200000
2000
다음 질문,
03:37
a little bit비트 harder열심히.
81
202000
2000
약간 더 어려운것.
03:39
Should we be collecting수집 all of that guy's남자의 data데이터
82
204000
2000
우리가 그 남자의 데이터를 모두 수집해서
03:41
to make his experiences경험담 better
83
206000
2000
그의 경험의 질을 높이기 위해
03:43
and to protect보호 ourselves우리 스스로 in case케이스 he's up to no good?
84
208000
3000
또 그가 신용이 없어질 경우에 우리를 지킬 수 있도록 해야 할까요?
03:46
Or should we leave휴가 him alone혼자?
85
211000
2000
또는 그를 혼자 내버려 두어야 할까요?
03:48
Collect수집 his data데이터.
86
213000
3000
그의 데이터를 수집해라.
03:53
Leave휴가 him alone혼자.
87
218000
3000
그를 혼자 내버려 두어라.
03:56
You're safe안전한. It's fine.
88
221000
2000
여러분은 안전합니다. 좋아요.
03:58
(Laughter웃음)
89
223000
2000
(웃음)
04:00
Okay, last question문제 --
90
225000
2000
좋아요, 마지막 질문--
04:02
harder열심히 question문제 --
91
227000
2000
어려운 질문--
04:04
when trying견딜 수 없는 to evaluate평가하다
92
229000
3000
우리가 이 사례에서 무엇을 해야만 할 지
04:07
what we should do in this case케이스,
93
232000
3000
평가하려는 노력을 할때,
04:10
should we use a Kantian칸 티안 deontological의무 론적 인 moral사기 framework뼈대,
94
235000
4000
우리는 칸트방식의 의미론전 도덕 체계를 이용해야 할까요
04:14
or should we use a Millian밀리언 consequentialist결과 주의자 one?
95
239000
3000
또는 우리가 밀방식의 결과론적인 것을 이용해야 할까요?
04:19
Kant칸트.
96
244000
3000
칸트.
04:22
Mill.
97
247000
3000
밀.
04:25
Not as many많은 votes투표하다.
98
250000
2000
투표가 많이 없군요.
04:27
(Laughter웃음)
99
252000
3000
(웃음)
04:30
Yeah, that's a terrifying겁나게 하는 result결과.
100
255000
3000
맞아요, 그건 끔찍한 결과입니다.
04:34
Terrifying겁나게 하는, because we have stronger더 강한 opinions의견
101
259000
4000
끔찍합니다, 왜냐하면 우리는 우리가 우리의 결정을 하는데 도움을 주는
04:38
about our hand-held휴대용 devices장치들
102
263000
2000
도덕적인 체계에 대한 것보다
04:40
than about the moral사기 framework뼈대
103
265000
2000
우리의 소형기기 장치에 대해서
04:42
we should use to guide안내서 our decisions결정들.
104
267000
2000
보다 강한 의견을 가지고 있기 때문이죠
04:44
How do we know what to do with all the power we have
105
269000
3000
만일 우리가 도덕적인 체계를 가지지 않았다면
04:47
if we don't have a moral사기 framework뼈대?
106
272000
3000
우리가 가진 모든 권력을 가지고 무엇을 해야할지 어떻게 알겠습니까?
04:50
We know more about mobile변하기 쉬운 operating운영중인 systems시스템,
107
275000
3000
우리는 모빌 운영 시스템에 관해 보다 더 많이 알고 있지만,
04:53
but what we really need is a moral사기 operating운영중인 system체계.
108
278000
3000
우리에게 정말 필요한 것은 도덕적인 운영 시스템입니다.
04:58
What's a moral사기 operating운영중인 system체계?
109
283000
2000
무엇이 도덕적인 운영 시스템일까요?
05:00
We all know right and wrong잘못된, right?
110
285000
2000
우리모두는 옳고 그름을 압니다, 맞지요?
05:02
You feel good when you do something right,
111
287000
2000
여러분이 뭔가 바른 일을 했을때 여러분은 기분이 좋음을 느낍니다,
05:04
you feel bad나쁜 when you do something wrong잘못된.
112
289000
2000
여러분이 뭔가 나쁜 일을 했을때 여러분은 기분이 좋지 않음을 느낍니다.
05:06
Our parents부모님 teach가르치다 us that: praise칭찬 with the good, scold꾸짖다 with the bad나쁜.
113
291000
3000
우리의 부모들이 그걸 가르쳤지요; 좋은것은 칭찬하고, 나쁜것은 꾸짖어라.
05:09
But how do we figure그림 out what's right and wrong잘못된?
114
294000
3000
하지만 어떤것이 옳고 그른지 어떻게 알 수 있을까요?
05:12
And from day to day, we have the techniques기법 that we use.
115
297000
3000
하지만 매일 매일, 우리에게는 우리가 이용하는 기술을 갖고 있습니다.
05:15
Maybe we just follow따르다 our gut거트.
116
300000
3000
우리는 어쩌면 우리의 본능을 그저 따라갑니다.
05:18
Maybe we take a vote투표 -- we crowdsourcecrowdsource.
117
303000
3000
우리는 어쩌면 투표를 합니다--우리는 크라우드 소스를 합니다.
05:21
Or maybe we punt펀트 --
118
306000
2000
또는 어쩌면 우리는 펀트(손에서 떨어뜨린 공이 땅에 닿기 전에 차기)를 하겠죠--
05:23
ask청하다 the legal적법한 department학과, see what they say.
119
308000
3000
법률부서에 물어봐, 그들이 뭐라고 하는지 보자.
05:26
In other words, it's kind종류 of random무작위의,
120
311000
2000
달리 말하면, 그건 무작위적이죠,
05:28
kind종류 of ad광고 hoc특별,
121
313000
2000
일종의 임시 응변적이죠,
05:30
how we figure그림 out what we should do.
122
315000
3000
우리가 무엇을 해야할 지 알아내는것은요.
05:33
And maybe, if we want to be on surer확실한 footing기초,
123
318000
3000
그리고 어쩌면, 만약 우리가 보다 확실한 거점을 확보하고 싶다면,
05:36
what we really want is a moral사기 framework뼈대 that will help guide안내서 us there,
124
321000
3000
우리가 정말 원하는 것은 우리를 저 곳으로,
05:39
that will tell us what kinds종류 of things are right and wrong잘못된 in the first place장소,
125
324000
3000
우리에게 처음부터 어떤 것들이 옳고 그른것인지 알려주고
05:42
and how would we know in a given주어진 situation상태 what to do.
126
327000
4000
우리가 주어진 상황에서 무엇을 할 지 우리가 어떻게 아는 장소로 데려갈 도덕적인 체계입니다.
05:46
So let's get a moral사기 framework뼈대.
127
331000
2000
그러니 도덕적인 체계를 마련합시다.
05:48
We're numbers번호 people, living생활 by numbers번호.
128
333000
3000
우리는 숫자에 따라 사는 숫자의 사람들입니다.
05:51
How can we use numbers번호
129
336000
2000
도덕적인 체계를 위한 토대로서
05:53
as the basis기초 for a moral사기 framework뼈대?
130
338000
3000
우리가 어떻게 숫자를 이용할까요?
05:56
I know a guy who did exactly정확하게 that.
131
341000
3000
저는 바로 그렇게 한 남자를 알고 있습니다.
05:59
A brilliant훌륭한 guy --
132
344000
3000
굉장히 영리한 남자죠--
06:02
he's been dead죽은 2,500 years연령.
133
347000
3000
그는 2,500 년전에 죽었습니다.
06:05
Plato플라톤, that's right.
134
350000
2000
플라토, 맞아요.
06:07
Remember생각해 내다 him -- old늙은 philosopher철학자?
135
352000
2000
그를 기억하시나요--늙은 철학자를?
06:09
You were sleeping자고있는 during...동안 that class수업.
136
354000
3000
여러분은 그 수업에 잠을 자고 있었죠.
06:12
And Plato플라톤, he had a lot of the same같은 concerns우려 that we did.
137
357000
2000
자 플라토, 그는 우리가 가진것과 같은 근심을 많이 가지고 있었습니다.
06:14
He was worried걱정 about right and wrong잘못된.
138
359000
2000
그는 옳고 그름에 관해 걱정을 했습니다.
06:16
He wanted to know what is just.
139
361000
2000
그는 무엇이 정의인지에 대해서 알고 싶어했지요.
06:18
But he was worried걱정 that all we seem보다 to be doing
140
363000
2000
하지만 그는 우리 모두가 하고 있는것과 같은
06:20
is trading거래 opinions의견 about this.
141
365000
2000
이것에 관한 의견을 교환하는것에 대해 걱정했습니다.
06:22
He says말한다 something's뭔가 just. She says말한다 something else그밖에 is just.
142
367000
3000
"그는 무엇인가가 정의라고 말해. 그녀는 다른 어떤것이 정의라고 말해," 라고 하는 것을요.
06:25
It's kind종류 of convincing설득력 있는 when he talks회담 and when she talks회담 too.
143
370000
2000
그가 말할때 그것은 신뢰할만 하고, 그녀가 말할때도 신뢰할만 하죠.
06:27
I'm just going back and forth앞으로; I'm not getting점점 anywhere어딘가에.
144
372000
2000
저는 단지 왔다 갔다 할 뿐이죠; 어떤 곳에도 도달하지 않아요.
06:29
I don't want opinions의견; I want knowledge지식.
145
374000
3000
저는 의견을 원하는 것이 아닙니다, 저는 지식을 원해요.
06:32
I want to know the truth진실 about justice정의 --
146
377000
3000
저는 정의에 관한 진리를 알고 싶어요--
06:35
like we have truths진실 in math수학.
147
380000
3000
우리가 수학에서 진리를 가지고 있는것처럼.
06:38
In math수학, we know the objective목표 facts사리.
148
383000
3000
수학에서, 우리는 객관적인 사실을 압니다.
06:41
Take a number번호, any number번호 -- two.
149
386000
2000
숫자를 택하세요, 임의의 숫자--2.
06:43
Favorite특히 잘하는 number번호. I love that number번호.
150
388000
2000
가장 좋아하는 숫자. 저는 그 숫자를 사랑합니다.
06:45
There are truths진실 about two.
151
390000
2000
2에 관한 진실이 있어요.
06:47
If you've got two of something,
152
392000
2000
여러분이 두개의 뭔가를 가졌다며,
06:49
you add더하다 two more, you get four.
153
394000
2000
두개를 더하면, 4를 얻게 됩니다.
06:51
That's true참된 no matter문제 what thing you're talking말하는 about.
154
396000
2000
그건 여러분이 어떤것에 이야기 하는지 상관없이 사실입니다.
06:53
It's an objective목표 truth진실 about the form형태 of two,
155
398000
2000
그건 2의 추상적인 형태에 관한
06:55
the abstract추상 form형태.
156
400000
2000
객관적인 진실입니다,
06:57
When you have two of anything -- two eyes, two ears, two noses,
157
402000
2000
여러분이 어떤것 2개를 가졌을때 --2개의 눈, 2개의 귀, 코에
06:59
just two protrusions돌출부 --
158
404000
2000
단지 2개의 돌출부--
07:01
those all partake함께 하다 of the form형태 of two.
159
406000
3000
그것들은 모두 2개 형태에 한몫으로 낍니다.
07:04
They all participate어느 정도 가지다 in the truths진실 that two has.
160
409000
4000
그들은 모두 2가 가지는 진실에 가담합니다.
07:08
They all have two-ness두 가지 in them.
161
413000
2000
그들에게는 모두 2 형태를 가지고 있어요.
07:10
And therefore따라서, it's not a matter문제 of opinion의견.
162
415000
3000
그러므로, 그것은 의견의 문제가 아닙니다.
07:13
What if, Plato플라톤 thought,
163
418000
2000
만약 플라토가 생각하기를,
07:15
ethics윤리학 was like math수학?
164
420000
2000
윤리가 수학과 같은거라고 생각했다면 어떨까요?
07:17
What if there were a pure순수한 form형태 of justice정의?
165
422000
3000
만약 정의에 순수한 형태가 존재한다면요?
07:20
What if there are truths진실 about justice정의,
166
425000
2000
만약 정의에 관한 진실이 있고,
07:22
and you could just look around in this world세계
167
427000
2000
여러분은 이 세상을 돌아보아
07:24
and see which어느 things participated참여한,
168
429000
2000
어떤것들이 참여되어서,
07:26
partook참여하다 of that form형태 of justice정의?
169
431000
3000
정의의 형태에 참가했다면은요?
07:29
Then you would know what was really just and what wasn't아니었다..
170
434000
3000
그러면 여러분은 무엇이 진실이고 무엇이 진실이 아니었는지 알 수 있을겁니다.
07:32
It wouldn't~ 않을거야. be a matter문제
171
437000
2000
단지 의견이나 단지 외양은
07:34
of just opinion의견 or just appearances형세.
172
439000
3000
문제가 되지 않을것입니다.
07:37
That's a stunning매우 훌륭한 vision시력.
173
442000
2000
그것은 굉장한 통찰력입니다.
07:39
I mean, think about that. How grand멋진. How ambitious거창한.
174
444000
3000
생각해 보세요. 얼마나 거대합니까. 얼마나 야심적인 것인가요.
07:42
That's as ambitious거창한 as we are.
175
447000
2000
그건 우리가 야심찬 정도와 같지요.
07:44
He wants to solve풀다 ethics윤리학.
176
449000
2000
우리는 윤리학을 풀고 싶어합니다.
07:46
He wants objective목표 truths진실.
177
451000
2000
그는 객관적인 진실을 바랍니다.
07:48
If you think that way,
178
453000
3000
만일 여러분이 그런 방식으로 생각한다면,
07:51
you have a Platonist플라톤 주의자 moral사기 framework뼈대.
179
456000
3000
여러분은 플라톤식의 윤리체계를 가지고 있습니다.
07:54
If you don't think that way,
180
459000
2000
만일 여러분이 그런식으로 생각하지 않는다면,
07:56
well, you have a lot of company회사 in the history역사 of Western서부 사람 philosophy철학,
181
461000
2000
글쎄요, 여러분은 서부 철학의 역사에서 많은 동료를 공유합니다,
07:58
because the tidy잡동사니 그릇 idea생각, you know, people criticized비판 한 it.
182
463000
3000
왜냐하면 그 정돈된 생각은--아시죠, 사람들이 그걸 비판합니다.
08:01
Aristotle아리스토텔레스, in particular특별한, he was not amused즐기는.
183
466000
3000
특히, 아리스토텔레스는 그것을 즐겨하지 않았지요.
08:04
He thought it was impractical비실용적 인.
184
469000
3000
그는 그게 비실용적이라고 생각했습니다.
08:07
Aristotle아리스토텔레스 said, "We should seek목표물 탐색 only so much precision정도 in each마다 subject제목
185
472000
4000
아리스토텔레스가 말하길, "우리는 각 주제에 그 주제가 허락하는
08:11
as that subject제목 allows허락하다."
186
476000
2000
그 정도만의 정확성을 추구해야만 합니다."
08:13
Aristotle아리스토텔레스 thought ethics윤리학 wasn't아니었다. a lot like math수학.
187
478000
3000
아리스토텔레스는 윤리가 수학과 같지 않다고 생각했어요.
08:16
He thought ethics윤리학 was a matter문제 of making만들기 decisions결정들 in the here-and-now여기 그리고 지금
188
481000
3000
그는 윤리가 즉결을 요구하는 의사결정의,
08:19
using~을 사용하여 our best베스트 judgment심판
189
484000
2000
바른 행로를 찾기위해
08:21
to find the right path통로.
190
486000
2000
우리의 가장 훌륭한 판단을 이용하는 문제라고 생각했어요.
08:23
If you think that, Plato's플라톤 not your guy.
191
488000
2000
만약 여러분이 그렇게 생각했다면, 플라톤은 여러분의 사람이 아닙니다.
08:25
But don't give up.
192
490000
2000
하지만 포기하지는 마세요.
08:27
Maybe there's another다른 way
193
492000
2000
어쩌면 다른 방법이 있을수도 있습니다.
08:29
that we can use numbers번호 as the basis기초 of our moral사기 framework뼈대.
194
494000
3000
우리의 윤리 체계의 기반으로서 숫자를 이용하는 것입니다.
08:33
How about this:
195
498000
2000
이건 어떨까요:
08:35
What if in any situation상태 you could just calculate계산하다,
196
500000
3000
만약 여러분이 단지 계산할 수 있는 임의의 상황이 있다면,
08:38
look at the choices선택,
197
503000
2000
그 선택사항들을 보세요,
08:40
measure법안 out which어느 one's사람의 better and know what to do?
198
505000
3000
어떤것이 더 나은지 또 무엇을 해야할 지 아는지를 측정하세요?
08:43
That sound소리 familiar익숙한?
199
508000
2000
그게 친숙하게 들리나요?
08:45
That's a utilitarian실용적인 moral사기 framework뼈대.
200
510000
3000
그것은 공리주의 도덕 체계입니다.£
08:48
John남자 Stuart스튜어트 Mill was a great advocate대변자 of this --
201
513000
2000
존 스튜어트 밀이
08:50
nice좋은 guy besides게다가 --
202
515000
2000
좋은 사람이었던고
08:52
and only been dead죽은 200 years연령.
203
517000
2000
200년 전에 타계했던것 이외에도 이 공리주의의 굉장한 주창자였지요.
08:54
So basis기초 of utilitarianism공리주의 --
204
519000
2000
그래서 공리주의의 기반은--
08:56
I'm sure you're familiar익숙한 at least가장 작은.
205
521000
2000
적어도 여러분이 친숙할 거라고 확신합니다.
08:58
The three people who voted투표했다 for Mill before are familiar익숙한 with this.
206
523000
2000
이전에 밀을 위해 투표했던 세사람은 이 실용주의에 대해 친숙합니다.
09:00
But here's여기에 the way it works공장.
207
525000
2000
하지만 여기 그게 운영되는 방식이 있습니다.
09:02
What if morals수신, what if what makes~을 만든다 something moral사기
208
527000
3000
만약 윤리가, 만약 뭔가 도덕적인것을 만드는 무엇인가가
09:05
is just a matter문제 of if it maximizes최대화하다 pleasure
209
530000
2000
쾌락을 극대화하고 고통을 극소화시키는 것에 대한
09:07
and minimizes최소화하다 pain고통?
210
532000
2000
문제라면 어떨까요?
09:09
It does something intrinsic본질적인 to the act행위.
211
534000
3000
그건 그 행위에 본능적인 뭔가를 합니다.
09:12
It's not like its relation관계 to some abstract추상 form형태.
212
537000
2000
그건 추상적인 형태로의 관계와 같은 게 아닙니다.
09:14
It's just a matter문제 of the consequences결과.
213
539000
2000
그건 단지 결과의 문제입니다.
09:16
You just look at the consequences결과
214
541000
2000
여러분은 단지 결과를 보고
09:18
and see if, overall사무용 겉옷, it's for the good or for the worse보다 나쁜.
215
543000
2000
만약, 그게 선을 위한것인지 또는 악을 위한것인지를 전체적으로 보지요.
09:20
That would be simple단순한. Then we know what to do.
216
545000
2000
그건 간단한 것일 겁니다. 그러면 우리는 무엇을 할 지 알지요.
09:22
Let's take an example.
217
547000
2000
예를 들어봅시다.
09:24
Suppose가정 해보자. I go up
218
549000
2000
제가 올라가서 말하기를
09:26
and I say, "I'm going to take your phone전화."
219
551000
2000
"나는 너의 전화를 압수하겠어," 라고 했다고 가정해 봅시다.
09:28
Not just because it rang울렸다 earlier일찍이,
220
553000
2000
그게 전에 울렸기 때문이 아니라,
09:30
but I'm going to take it because I made만든 a little calculation계산.
221
555000
3000
내가 작은 계산을 했기 때문에 그것을 가질거라고.
09:33
I thought, that guy looks외모 suspicious의심 많은.
222
558000
3000
저는, 저 남자가 수상하게 보인다고 생각했습니다.
09:36
And what if he's been sending배상 little messages메시지 to Bin큰 상자 Laden's라덴 hideout은신처 --
223
561000
3000
만일 그가 작은 메세지를 빈 라든의 은거장소로
09:39
or whoever누구나 took~했다 over after Bin큰 상자 Laden짐을 실은 --
224
564000
2000
또는 빈 라든의 이후 세력을 물려받은 그 누구에게라도 보내왔고
09:41
and he's actually사실은 like a terrorist테러리스트, a sleeper자는 사람 cell세포.
225
566000
3000
그는 실제로 테러리스트와 같은, 슬리퍼 핸드폰같다구요.
09:44
I'm going to find that out, and when I find that out,
226
569000
3000
저는 그것을 알아낼거고, 제가 그것을 알아냈을때는,
09:47
I'm going to prevent막다 a huge거대한 amount of damage손해 that he could cause원인.
227
572000
3000
그가 유발할 수도 있는 거대한 양의 손상을 방지할것입니다.
09:50
That has a very high높은 utility유용 to prevent막다 that damage손해.
228
575000
3000
그 손상을 방지하는 것은 굉장히 높은 실용성이 있습니다.
09:53
And compared비교하다 to the little pain고통 that it's going to cause원인 --
229
578000
2000
그리고 그것은 그것이 유발할 작은 고통으로 비교됩니다.
09:55
because it's going to be embarrassing창피한 when I'm looking on his phone전화
230
580000
2000
왜냐하면 제가 그의 전화기를 보면서
09:57
and seeing that he has a FarmvilleFarmville problem문제 and that whole완전한 bit비트 --
231
582000
3000
그 전화기를 바라보며 압도적으로 전체가
10:00
that's overwhelmed압도당한
232
585000
3000
팜빌 (Farmville) 문제가 있다는 것을 보는것은
10:03
by the value of looking at the phone전화.
233
588000
2000
창피하게 느껴질 것이기 때문입니다.
10:05
If you feel that way,
234
590000
2000
만일 여러분이 그런식으로 느낀다면,
10:07
that's a utilitarian실용적인 choice선택.
235
592000
3000
그것은 실용주의자적인 선택입니다.
10:10
But maybe you don't feel that way either어느 한 쪽.
236
595000
3000
하지만 여러분은 그런 방식으로 느끼지 않을지도 모릅니다.
10:13
Maybe you think, it's his phone전화.
237
598000
2000
어쩌면은 여러분은, "그건 그의 전화야" 라고 생각할 지도 모릅니다.
10:15
It's wrong잘못된 to take his phone전화
238
600000
2000
"그의 전화를 압수하는 것은 옳지않아,
10:17
because he's a person사람
239
602000
2000
왜냐하면 그는 사람이고
10:19
and he has rights진상 and he has dignity존엄,
240
604000
2000
그에게는 권리가 있고 존엄성이 있고,
10:21
and we can't just interfere방해하다 with that.
241
606000
2000
우리는 그것을 그냥 그렇게 방해할 수는 없어.
10:23
He has autonomy자치.
242
608000
2000
그는 자율성을 가졌어.
10:25
It doesn't matter문제 what the calculations계산 are.
243
610000
2000
계산이 어떤것인지는 문제가 되지않아.
10:27
There are things that are intrinsically본질적으로 wrong잘못된 --
244
612000
3000
본능적으로 그른것들이 있습니다--
10:30
like lying거짓말하는 is wrong잘못된,
245
615000
2000
거짓말이 그른것과 같이요.
10:32
like torturing고문 innocent순진한 children어린이 is wrong잘못된.
246
617000
3000
순진한 어린이들을 괴롭히는것이 그른것과 같이요.
10:35
Kant칸트 was very good on this point포인트,
247
620000
3000
칸트는 이 요점에 관해 아주 탁월했고,
10:38
and he said it a little better than I'll say it.
248
623000
2000
그는 제가 말할 것보다 조금 더 잘 말했죠.
10:40
He said we should use our reason이유
249
625000
2000
그가 말하길 우리는 우리의 이성을 이용하여
10:42
to figure그림 out the rules규칙들 by which어느 we should guide안내서 our conduct행위,
250
627000
3000
우리의 행실을 안내해야만하는 규칙들을 알아내야만 한다고 말했습니다.
10:45
and then it is our duty의무 to follow따르다 those rules규칙들.
251
630000
3000
그리고 그 규칙들을 따르는 것은 우리의 의무라고요.
10:48
It's not a matter문제 of calculation계산.
252
633000
3000
그것은 계산의 문제가 아닙니다.
10:51
So let's stop.
253
636000
2000
그러니 멈추도록 합시다.
10:53
We're right in the thick두꺼운 of it, this philosophical철학적 인 thicket덤불.
254
638000
3000
우리는 그것의 밀집의 중심에 있습니다, 이것은 철학적인 착잡함이죠.
10:56
And this goes간다 on for thousands수천 of years연령,
255
641000
3000
이것은 수천년동안 지속됩니다,
10:59
because these are hard단단한 questions질문들,
256
644000
2000
왜냐하면 이것들은 어려운 질문들이기 때문이고
11:01
and I've only got 15 minutes의사록.
257
646000
2000
저는 단지 15분만을 가지고 있습니다.
11:03
So let's cut절단 to the chase추적.
258
648000
2000
그러니 단도 직입적으로 말합시다.
11:05
How should we be making만들기 our decisions결정들?
259
650000
4000
우리가 어떻게 우리의 의사결정을 해야만 할까요?
11:09
Is it Plato플라톤, is it Aristotle아리스토텔레스, is it Kant칸트, is it Mill?
260
654000
3000
플라토인가요, 아리스토텔레스인가요, 칸트인가요, 밀인가요?
11:12
What should we be doing? What's the answer대답?
261
657000
2000
우리가 무엇을 해야만 할까요? 무엇이 대답인가요?
11:14
What's the formula공식 that we can use in any situation상태
262
659000
3000
우리가 그 남자의 데이타를 이용해야만 할 지 아닌지
11:17
to determine결정 what we should do,
263
662000
2000
우리가 어떤 상황에나 이용할 수 있는
11:19
whether인지 어떤지 we should use that guy's남자의 data데이터 or not?
264
664000
2000
우리가 무엇을 해야만 할 지를 결정하는 공식은 무엇일까요?
11:21
What's the formula공식?
265
666000
3000
그 공식은 무엇일까요?
11:25
There's not a formula공식.
266
670000
2000
공식은 없습니다.
11:29
There's not a simple단순한 answer대답.
267
674000
2000
단순한 대답이 있는것은 아닙니다.
11:31
Ethics윤리학 is hard단단한.
268
676000
3000
윤리학은 어렵습니다.
11:34
Ethics윤리학 requires요구하다 thinking생각.
269
679000
3000
윤리학은 생각을 요구합니다.
11:38
And that's uncomfortable앉기 불편한.
270
683000
2000
그리고 그것은 편안하지 않지요.
11:40
I know; I spent지출하다 a lot of my career직업
271
685000
2000
알아요; 저는 제 직업의 많은 부분을
11:42
in artificial인공의 intelligence지성,
272
687000
2000
인공지능에 소비했습니다,
11:44
trying견딜 수 없는 to build짓다 machines기계들 that could do some of this thinking생각 for us,
273
689000
3000
우리릉 위해 이러한 생각을 조금할 수 있는,
11:47
that could give us answers답변.
274
692000
2000
우리에게 대답을 줄 수 있는 기계를 설립하려고 시도하면서 말이죠.
11:49
But they can't.
275
694000
2000
그러나 기계들은 할 수 없습니다.
11:51
You can't just take human인간의 thinking생각
276
696000
2000
단지 인간의 생각을 택해서
11:53
and put it into a machine기계.
277
698000
2000
기계에 집어넣을 수는 없어요.
11:55
We're the ones그들 who have to do it.
278
700000
3000
그것을 해야만 하는 사람은 우리입니다.
11:58
Happily행복하게, we're not machines기계들, and we can do it.
279
703000
3000
행복하게도, 우리는 기계가 아니어서 우리는 그것을 할 수 있지요.
12:01
Not only can we think,
280
706000
2000
우리는 생각할 수 있을 뿐만이 아니라,
12:03
we must절대로 필요한 것.
281
708000
2000
우리는 생각해야만 합니다.
12:05
Hannah한나 ArendtArendt said,
282
710000
2000
하나 아렌드트가 말하길,
12:07
"The sad슬퍼 truth진실
283
712000
2000
"슬픈 진실은
12:09
is that most가장 evil done끝난 in this world세계
284
714000
2000
이 세상에 치루어진 악의 대부분은
12:11
is not done끝난 by people
285
716000
2000
악인이 되기로 선택한 사람들에
12:13
who choose고르다 to be evil.
286
718000
2000
의해서 그렇게 된것이 아니다.
12:15
It arises발생하다 from not thinking생각."
287
720000
3000
악은 생각을 안하는 것으로부터 제기된다."
12:18
That's what she called전화 한 the "banality진부함 of evil."
288
723000
4000
그것이 그녀가 "악의 진부," 라고 부르는 것입니다.
12:22
And the response응답 to that
289
727000
2000
그리고 그에 대한 반응은
12:24
is that we demand수요 the exercise운동 of thinking생각
290
729000
2000
우리가 모든 정신을 제대로 가진 사람에게서
12:26
from every...마다 sane제정신의 person사람.
291
731000
3000
생각의 연습을 요구하는 것입니다.
12:29
So let's do that. Let's think.
292
734000
2000
그러니 그렇게 하도록 합시다. 생각하도록 합시다.
12:31
In fact, let's start스타트 right now.
293
736000
3000
사실, 지금 그것을 바로 시작합시다.
12:34
Every마다 person사람 in this room do this:
294
739000
3000
이 장소에 있는 모든사람이 이렇게 하세요:
12:37
think of the last time you had a decision결정 to make
295
742000
3000
여러분이 맨 마직막으로 의사결정을 했어야 할때를 생각하세요
12:40
where you were worried걱정 to do the right thing,
296
745000
2000
바른일을 하는것에 대해 걱정했던것
12:42
where you wondered궁금해하는, "What should I be doing?"
297
747000
2000
"내가 뭘해야만 하나?" 라고 의심쩍어 하던것
12:44
Bring가져오다 that to mind마음,
298
749000
2000
그걸 마음속으로 데려오세요.
12:46
and now reflect비추다 on that
299
751000
2000
이제 그걸 회상해서
12:48
and say, "How did I come up that decision결정?
300
753000
3000
말하길, "어떻게 내가 그 결정에 도달했지?
12:51
What did I do? Did I follow따르다 my gut거트?
301
756000
3000
내가 뭘 했지? 내가 본능을 따랐나?
12:54
Did I have somebody어떤 사람 vote투표 on it? Or did I punt펀트 to legal적법한?"
302
759000
2000
그걸 가지고 사람들이 투표를 하게 했나? 또는 내가 법률 전문가에게 펀트를 했나?"
12:56
Or now we have a few조금 more choices선택.
303
761000
3000
또는 이제 우리는 몇가지 더 많은 선택사항들이 있습니다.
12:59
"Did I evaluate평가하다 what would be the highest제일 높은 pleasure
304
764000
2000
"밀이 할것과 같이 가장 최상의 쾌락상태가
13:01
like Mill would?
305
766000
2000
되도록 평가했나?
13:03
Or like Kant칸트, did I use reason이유 to figure그림 out what was intrinsically본질적으로 right?"
306
768000
3000
또는 칸트와 같이, 이성을 이용하여 본능적으로 무엇이 옳은지 알아내도록 했나?"
13:06
Think about it. Really bring가져오다 it to mind마음. This is important중대한.
307
771000
3000
그것에 대해 생각해 보세요. 그것을 정말로 마음속으로 들여오세요. 이것은 중요합니다.
13:09
It is so important중대한
308
774000
2000
그것은 아주 중요합니다
13:11
we are going to spend보내 30 seconds of valuable가치 있는 TEDTalkTEDTalk time
309
776000
2000
우리는 귀중한 TEDTalk 시간의 30초를
13:13
doing nothing but thinking생각 about this.
310
778000
2000
이것에 관해서만 생각해 보는데 소비할 것입니다.
13:15
Are you ready준비된? Go.
311
780000
2000
준비 되셨나요? 하세요.
13:33
Stop. Good work.
312
798000
3000
멈추세요. 좋은 작업입니다.
13:36
What you just did,
313
801000
2000
여러분이 방금하신것은,
13:38
that's the first step단계 towards...쪽으로 taking취득 responsibility책임
314
803000
2000
우리가 가진 권력의 전부를 가지고 우리가 무엇을 해야할
13:40
for what we should do with all of our power.
315
805000
3000
책임감을 취하는 방향으로 가는 첫번째의 단계입니다
13:45
Now the next다음 것 step단계 -- try this.
316
810000
3000
자 이제 다음 단계--이걸 시도해 보세요.
13:49
Go find a friend친구 and explain설명 to them
317
814000
2000
친구하나를 찾아서 설명하세요
13:51
how you made만든 that decision결정.
318
816000
2000
여러분이 그 결정을 어떻게 내렸는지 말이죠.
13:53
Not right now. Wait till까지 I finish talking말하는.
319
818000
2000
지금말구요. 제가 이야기를 끝낼때까지 기다리세요.
13:55
Do it over lunch점심.
320
820000
2000
점심시간동안 그것을 하세요.
13:57
And don't just find another다른 technologist과학 기술자 friend친구;
321
822000
3000
또 다른 테크놀로지스트 친구를 찾지 마시고;
14:00
find somebody어떤 사람 different다른 than you.
322
825000
2000
여러분과 다른 어떤 다른 사람을 찾으세요.
14:02
Find an artist예술가 or a writer작가 --
323
827000
2000
예술가나 작가를 찾으세요--
14:04
or, heaven천국 forbid금지 된, find a philosopher철학자 and talk to them.
324
829000
3000
또는 천국이 금지한, 철학자를 찾아서 그에게 이야기 하세요.
14:07
In fact, find somebody어떤 사람 from the humanities인문학.
325
832000
2000
사실, 인문학에서의 사람을 찾으세요.
14:09
Why? Because they think about problems문제들
326
834000
2000
왜냐구요? 왜냐하면 그들은 문제들에 관해서
14:11
differently다르게 than we do as technologists기술자.
327
836000
2000
우리 테크놀로지스트들이 생각하는 것과는 다르게 생각하기 때문이죠.
14:13
Just a few조금 days ago...전에, right across건너서 the street거리 from here,
328
838000
3000
단지 몇일전에, 여기서 바로 맞은편 거리에,
14:16
there was hundreds수백 of people gathered모은 together함께.
329
841000
2000
수백명의 사람들이 모여있었습니다.
14:18
It was technologists기술자 and humanists인본주의 자
330
843000
2000
테크놀로지스트들과 인문학자들이
14:20
at that big BiblioTechBiblioTech Conference회의.
331
845000
2000
거대한 비블리오 테크 컨퍼런스에서 있었지요.
14:22
And they gathered모은 together함께
332
847000
2000
그들이 함께 모였습니다
14:24
because the technologists기술자 wanted to learn배우다
333
849000
2000
왜냐하면 그들은 인문학자적인 관점에서
14:26
what it would be like to think from a humanities인문학 perspective원근법.
334
851000
3000
생각하는것은 어떤지를 배우고 싶어서였기 때문입니다.
14:29
You have someone어떤 사람 from GoogleGoogle
335
854000
2000
구글회사에서 일하는 어떤사람이
14:31
talking말하는 to someone어떤 사람 who does comparative비교적 literature문학.
336
856000
2000
비교 문학을 하는 누군가에게 이야기를 합니다.
14:33
You're thinking생각 about the relevance관련성 of 17th century세기 French프랑스 국민 theater극장 --
337
858000
3000
17세기의 불란서 연극과의 관련성에 대해 이야기 합니다.
14:36
how does that bear upon...에 venture투기 capital자본?
338
861000
2000
그것이 어떻게 벤처 캐피털에 이익을 산출할까요?
14:38
Well that's interesting재미있는. That's a different다른 way of thinking생각.
339
863000
3000
글쎄 그게 재미있는것입니다. 그것은 다른 방식의 생각입니다.
14:41
And when you think in that way,
340
866000
2000
여러분이 그런 방식으로 생각할 때,
14:43
you become지다 more sensitive민감한 to the human인간의 considerations고려 사항,
341
868000
3000
여러분은 인간 고려점들에 대해 보다 민감하게 되지요.
14:46
which어느 are crucial결정적인 to making만들기 ethical윤리적 인 decisions결정들.
342
871000
3000
그건 윤리적인 의사결정을 하는데 필수적인 것입니다.
14:49
So imagine상상하다 that right now
343
874000
2000
그러니 바로 여기서 상상해 보세요.
14:51
you went갔다 and you found녹이다 your musician음악가 friend친구.
344
876000
2000
여러분이 가서 음악가 친구를 찾았습니다.
14:53
And you're telling말함 him what we're talking말하는 about,
345
878000
3000
우리가 여기서 이야기 하는것에 대해서 그에게 이야기 합니다.
14:56
about our whole완전한 data데이터 revolution혁명 and all this --
346
881000
2000
우리의 전체적인 데이터 혁명과 이러한 모든것에 관해서--
14:58
maybe even hum콧노래 a few조금 bars of our theme테마 music음악.
347
883000
2000
어쩌면 우리 테마 음악의 몇소절을 허밍할 수 도 있죠.
15:00
Dum ta고마워 da da dum dum ta고마워 da da dum
348
885000
3000
♫ 덤 타 다 다 덤 덤 타 다 다 덤 ♫
15:03
Well, your musician음악가 friend친구 will stop you and say,
349
888000
2000
글쎄요, 여러분의 음악가 친구는 여러분에게 멈추어서 말하길,
15:05
"You know, the theme테마 music음악
350
890000
2000
"있잖아, 그 테마 음악은
15:07
for your data데이터 revolution혁명,
351
892000
2000
너의 데이터의 혁명을 위한 거야
15:09
that's an opera오페라, that's Wagner바그너.
352
894000
2000
저건 오페라야, 저건 바그너야
15:11
It's based기반 on Norse고대 스칸디나비아 인 legend전설.
353
896000
2000
그건 고대 스칸디나비아의 전설에 근거한 거야.
15:13
It's Gods신들 and mythical신화적인 creatures생물
354
898000
2000
그건 신들과 신화적인 생명체들이
15:15
fighting싸움 over magical마법 같은 jewelry보석류."
355
900000
3000
마력의 보석을 놓고 싸우는것에 관한거야."
15:19
That's interesting재미있는.
356
904000
3000
그건 흥미롭습니다.
15:22
Now it's also또한 a beautiful아름다운 opera오페라,
357
907000
3000
자 그것은 또한 아름다운 오페라입니다.
15:25
and we're moved움직이는 by that opera오페라.
358
910000
3000
또 우리는 그 오페라에 의해서 감동을 받죠.
15:28
We're moved움직이는 because it's about the battle전투
359
913000
2000
우리는 감동을 받습니다 왜냐하면 그것은
15:30
between중에서 good and evil,
360
915000
2000
선과 악사이의 전쟁,
15:32
about right and wrong잘못된.
361
917000
2000
옳고 그름에 관한 것이기 때문입니다.
15:34
And we care케어 about right and wrong잘못된.
362
919000
2000
우리는 옳고 그름에 대해 우려합니다.
15:36
We care케어 what happens일이 in that opera오페라.
363
921000
3000
우리는 그 오페라에서 무슨 일이 일어나는지 우려합니다.
15:39
We care케어 what happens일이 in "Apocalypse묵시 Now."
364
924000
3000
우리는 "아포칼립소 나우"에서 무슨일이 일어나는지 염려합니다.
15:42
And we certainly확실히 care케어
365
927000
2000
또 우리는 확실히 염려합니다.
15:44
what happens일이 with our technologies기술.
366
929000
2000
우리의 테크놀로지에 무슨일이 일어나느지를.
15:46
We have so much power today오늘,
367
931000
2000
우리는 오늘날 대단히 많은 권력을 가지고 있습니다,
15:48
it is up to us to figure그림 out what to do,
368
933000
3000
그것을 가지고 무엇을 할지 그것은 우리에게 달려있습니다.
15:51
and that's the good news뉴스.
369
936000
2000
그것은 좋은 뉴스입니다.
15:53
We're the ones그들 writing쓰기 this opera오페라.
370
938000
3000
우리가 이 오페라를 쓰는 사람들입니다.
15:56
This is our movie영화.
371
941000
2000
이것은 우리의 영화입니다.
15:58
We figure그림 out what will happen우연히 있다 with this technology과학 기술.
372
943000
3000
우리는 이 테크놀로지에 무슨일이 일어날지 알아냅니다.
16:01
We determine결정 how this will all end종료.
373
946000
3000
이것이 어떻게 종결이 될지는 우리가 결정합니다.
16:04
Thank you.
374
949000
2000
감사합니다.
16:06
(Applause박수 갈채)
375
951000
5000
(박수)
Translated by Jeong-Lan Kinser
Reviewed by Jimin Lee

▲Back to top

ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee