ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com
TEDxSiliconValley

Damon Horowitz: We need a "moral operating system"

Damon Horowitz nói về một "hệ điều hành đạo đức"

Filmed:
795,617 views

Tại TEDxSiliconValley, Damon Horowitz xem xét rất nhiều sức mạnh mới mà công nghệ mang lại: biết nhiều hơn và nhiều hơn về nhau hơn bất kì lúc nào. Mang khán giả đến một cuộc thảo luận triết học, Horowitz khiến chúng ta chú ý về triết học cơ bản -- những khái niệm về đạo đức -- đằng sau chuỗi phát minh làm thay đổi thế giới. Đâu là hệ điều hành đạo đức làm chúng ta có ý nghĩa với thế giới?
- Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities. Full bio

Double-click the English transcript below to play the video.

00:15
PowerSức mạnh.
0
0
2000
Sức mạnh.
00:17
That is the wordtừ that comesđến to mindlí trí.
1
2000
2000
Đó là từ đến trong tâm trí tôi
00:19
We're the newMới technologistskỹ sư công nghệ.
2
4000
2000
Chúng ta là những kỹ sư công nghệ mới
00:21
We have a lot of datadữ liệu, so we have a lot of powerquyền lực.
3
6000
3000
Chúng ta có rất nhiều dữ liệu, nên chúng ta có rất nhiều sức mạnh
00:24
How much powerquyền lực do we have?
4
9000
2000
Chúng ta có bao nhiêu sức mạnh?
00:26
SceneCảnh from a moviebộ phim: "ApocalypseNgày tận thế Now" -- great moviebộ phim.
5
11000
3000
Cảnh trong phim: "Apocalypse Now" - một bộ phim tuyệt vời
00:29
We'veChúng tôi đã got to get our heroanh hùng, CaptainThuyền trưởng WillardWillard, to the mouthmiệng of the NungNùng RiverSông
6
14000
3000
Chúng ta phải mang người hùng của chúng ta, Capt. Willard, đến miệng sông Nung
00:32
so he can go pursuetheo đuổi ColonelĐại tá KurtzKurtz.
7
17000
2000
để anh ta có thể đuổi theo Col. Kurtz.
00:34
The way we're going to do this is flybay him in and droprơi vãi him off.
8
19000
2000
Cách chúng ta làm là mang anh ta bay đến và thả xuống.
00:36
So the scenebối cảnh:
9
21000
2000
Đến cảnh này:
00:38
the skybầu trời is filledđầy with this fleetHạm đội of helicoptersmáy bay trực thăng carryingchở him in.
10
23000
3000
bầu trời dày đặc phi đội trực thăng mang anh ta đến
00:41
And there's this loudto tiếng, thrillingly kỳ musicÂm nhạc in the backgroundlý lịch,
11
26000
2000
Và có tiếng nhạc nền to, hồi hộp,
00:43
this wildhoang dã musicÂm nhạc.
12
28000
2000
thứ âm nhạc hoang dã này.
00:45
DumDum dada tata dada dumDum
13
30000
2000
♫ Dum da ta da dum ♫
00:47
DumDum dada tata dada dumDum
14
32000
2000
♫ Dum da ta da dum ♫
00:49
DaDa tata dada dada
15
34000
3000
♫ Da ta da da ♫
00:52
That's a lot of powerquyền lực.
16
37000
2000
Nó mang rất nhiều sức mạnh.
00:54
That's the kindloại of powerquyền lực I feel in this roomphòng.
17
39000
2000
Đó là thứ sức mạnh tôi cảm nhận được trong căn phòng này
00:56
That's the kindloại of powerquyền lực we have
18
41000
2000
Đó là thứ sức mạnh chúng ta có
00:58
because of all of the datadữ liệu that we have.
19
43000
2000
bởi tất cả những dữ liệu mà chúng ta có
01:00
Let's take an examplethí dụ.
20
45000
2000
Hãy cùng xem một ví dụ
01:02
What can we do
21
47000
2000
Chúng ta có thể làm gì
01:04
with just one person'sngười datadữ liệu?
22
49000
3000
Với dữ liệu của chỉ một người?
01:07
What can we do
23
52000
2000
Chúng ta có thể làm gì
01:09
with that guy'sanh chàng datadữ liệu?
24
54000
2000
với dữ liệu của người đó?
01:11
I can look at your financialtài chính recordsHồ sơ.
25
56000
2000
Tôi có thể xem những bản lưu tài chính của bạn
01:13
I can tell if you paytrả your billshóa đơn on time.
26
58000
2000
Tôi có thể nói cho bạn biết bạn có thanh toán hóa đơn đúng hạn không
01:15
I know if you're good to give a loantiền vay to.
27
60000
2000
Tôi biết bạn có đáng để cho vay hay không
01:17
I can look at your medicalY khoa recordsHồ sơ; I can see if your pumpmáy bơm is still pumpingbơm --
28
62000
3000
Tôi có thể nhìn vào các bản lưu y tế, tôi có thể thấy tim bạn vẫn còn đang đập
01:20
see if you're good to offerphục vụ insurancebảo hiểm to.
29
65000
3000
thấy bạn có đáng để cung cấp dịch vụ bảo hiểm không.
01:23
I can look at your clickingbấm vào patternsmẫu.
30
68000
2000
Tôi có thể nhìn vào kiểu bạn nhấp chuột.
01:25
When you come to my websitetrang mạng, I actuallythực ra know what you're going to do alreadyđã
31
70000
3000
Khi bạn đến thăm website của tôi, tôi thực sự biết những gì bạn sắp sửa làm,
01:28
because I've seenđã xem you visitchuyến thăm millionshàng triệu of websitestrang web before.
32
73000
2000
bởi vì tôi đã thấy bạn ghé thăm hàng triệu wesite trước đây.
01:30
And I'm sorry to tell you,
33
75000
2000
Và tôi xin lỗi phải nói với bạn rằng
01:32
you're like a pokerXi phe playerngười chơi, you have a tell.
34
77000
2000
bạn giống như tay chơi bài poker, bạn có một câu chuyện
01:34
I can tell with datadữ liệu analysisphân tích what you're going to do
35
79000
2000
Tôi có thể kể chuyện với dữ liệu phân tích rằng bạn sắp sửa làm gì
01:36
before you even do it.
36
81000
2000
thậm chí trước khi bạn làm nó.
01:38
I know what you like. I know who you are,
37
83000
3000
Tôi biết bạn thích gì, tôi biết bạn là ai.
01:41
and that's even before I look at your mailthư
38
86000
2000
Và điều đó xảy ra thậm chí trước khi tôi nhìn vào thư
01:43
or your phoneđiện thoại.
39
88000
2000
hay điện thoại của bạn.
01:45
Those are the kindscác loại of things we can do
40
90000
2000
Đó là những thứ chúng ta có thể làm được
01:47
with the datadữ liệu that we have.
41
92000
3000
với dữ liệu mà chúng ta có.
01:50
But I'm not actuallythực ra here to talk about what we can do.
42
95000
3000
Nhưng tôi thực sự không có mặt ở đây để nói về những gì chúng ta có thể làm.
01:56
I'm here to talk about what we should do.
43
101000
3000
Tôi ở đây để nói về những gì chúng ta nên làm.
02:00
What's the right thing to do?
44
105000
3000
Điều gì là đúng đắn để làm?
02:04
Now I see some puzzledbối rối looksnhìn
45
109000
2000
Giờ tôi thấy vài ánh mắt mù mờ
02:06
like, "Why are you askinghỏi us what's the right thing to do?
46
111000
3000
như "Tại sao bạn lại hỏi chúng tôi điều gì là đúng để làm?
02:09
We're just buildingTòa nhà this stuffđồ đạc. SomebodyAi đó elsekhác is usingsử dụng it."
47
114000
3000
Chúng ta chỉ là những người xây dựng nên nó. Người khác sẽ dùng chúng."
02:12
FairHội chợ enoughđủ.
48
117000
3000
Đủ công bằng.
02:15
But it bringsmang lại me back.
49
120000
2000
Nhưng nó làm tôi nghĩ lại.
02:17
I think about WorldTrên thế giới WarChiến tranh IIII --
50
122000
2000
Tôi nghĩ về chiến tranh thế giới thứ hai --
02:19
some of our great technologistskỹ sư công nghệ then,
51
124000
2000
một vài kĩ nghệ gia vĩ đại,
02:21
some of our great physicistsnhà vật lý,
52
126000
2000
một vài nhà vật lĩ vĩ đại,
02:23
studyinghọc tập nuclearNguyên tử fissionphân hạch and fusiondung hợp --
53
128000
2000
nghiên cứu về sự phân rã và kết hợp hạt nhân --
02:25
just nuclearNguyên tử stuffđồ đạc.
54
130000
2000
những khái niệm liên quan đến hạt nhân
02:27
We gathertụ họp togethercùng với nhau these physicistsnhà vật lý in LosLos AlamosAlamos
55
132000
3000
Chúng ta tập hợp những nhà vật lí này ở Los Alamos
02:30
to see what they'llhọ sẽ buildxây dựng.
56
135000
3000
để xem những gì họ sẽ xây dựng.
02:33
We want the people buildingTòa nhà the technologyCông nghệ
57
138000
3000
Chúng ta muốn con người xây dựng công nghệ
02:36
thinkingSuy nghĩ about what we should be doing with the technologyCông nghệ.
58
141000
3000
suy nghĩ về những gì chúng ta sẽ làm với công nghệ đó
02:41
So what should we be doing with that guy'sanh chàng datadữ liệu?
59
146000
3000
Vậy nên, chúng ta sẽ nên làm gì với dữ liệu của anh ta?
02:44
Should we be collectingthu gom it, gatheringthu thập it,
60
149000
3000
Chúng ta có nên thu thập nó, tập trung nó lại,
02:47
so we can make his onlineTrực tuyến experiencekinh nghiệm better?
61
152000
2000
để làm cho kinh nghiệm trực tuyến của anh ta tốt hơn?
02:49
So we can make moneytiền bạc?
62
154000
2000
Để chúng ta có thể kiếm tiền?
02:51
So we can protectbảo vệ ourselveschúng ta
63
156000
2000
Để chúng ta có thể bảo vệ chính mình
02:53
if he was up to no good?
64
158000
2000
nếu anh ta trở nên không còn tốt nữa?
02:55
Or should we respectsự tôn trọng his privacysự riêng tư,
65
160000
3000
Hay chúng ta nên tôn trọng riêng tư của anh ấy
02:58
protectbảo vệ his dignityphẩm giá and leaverời khỏi him alonemột mình?
66
163000
3000
bảo vệ lòng tự trọng của anh ta và để anh ta được yên?
03:02
Which one is it?
67
167000
3000
Điều gì nên làm?
03:05
How should we figurenhân vật it out?
68
170000
2000
Nên làm thế nào để nhận ra điều đó
03:07
I know: crowdsourcecrowdsource. Let's crowdsourcecrowdsource this.
69
172000
3000
Tôi biết: nguồn lực đám đông. Hãy để đám đông làm việc đó.
03:11
So to get people warmedấm up,
70
176000
3000
Để hâm nóng không khí,
03:14
let's startkhởi đầu with an easydễ dàng questioncâu hỏi --
71
179000
2000
hãy bắt đầu với một câu hỏi đơn giản
03:16
something I'm sure everybodymọi người here has an opinionquan điểm about:
72
181000
3000
mà tôi chắc rằng mọi người ở đây đều có ý kiến về nó
03:19
iPhoneiPhone versusđấu với AndroidAndroid.
73
184000
2000
iPhone và Android.
03:21
Let's do a showchỉ of handstay -- iPhoneiPhone.
74
186000
3000
Hãy giơ tay -- iPhone
03:24
Uh huh.
75
189000
2000
Uh huh.
03:26
AndroidAndroid.
76
191000
3000
Android.
03:29
You'dBạn sẽ think with a bunch of smartthông minh people
77
194000
2000
Bạn nghĩ rằng với một nhóm người thông minh
03:31
we wouldn'tsẽ không be suchnhư là suckerssuckers just for the prettyđẹp phonesđiện thoại.
78
196000
2000
chúng ta sẽ không trở thành trò hề cho những chiếc điện thoại xinh xắn.
03:33
(LaughterTiếng cười)
79
198000
2000
(Tiếng cười)
03:35
NextTiếp theo questioncâu hỏi,
80
200000
2000
Câu hỏi tiếp theo,
03:37
a little bitbit harderkhó hơn.
81
202000
2000
khó hơn một chút.
03:39
Should we be collectingthu gom all of that guy'sanh chàng datadữ liệu
82
204000
2000
Chúng ta có nên thu thập mọi dữ liệu về một người
03:41
to make his experienceskinh nghiệm better
83
206000
2000
để làm cho trải nghiệm của anh ta tốt hơn
03:43
and to protectbảo vệ ourselveschúng ta in casetrường hợp he's up to no good?
84
208000
3000
và để bảo vệ chúng ta trong trường hợp anh ta không còn tốt nữa?
03:46
Or should we leaverời khỏi him alonemột mình?
85
211000
2000
Hay chúng ta nên mặc kệ anh ta?
03:48
CollectThu thập his datadữ liệu.
86
213000
3000
Thu thập dữ liệu của anh ta
03:53
LeaveĐể lại him alonemột mình.
87
218000
3000
Để mặc kệ anh ấy
03:56
You're safean toàn. It's fine.
88
221000
2000
Bạn an toàn rồi. Thật tốt.
03:58
(LaughterTiếng cười)
89
223000
2000
(Tiếng cười)
04:00
Okay, last questioncâu hỏi --
90
225000
2000
Rồi, câu hỏi cuối cùng
04:02
harderkhó hơn questioncâu hỏi --
91
227000
2000
câu hỏi khó hơn
04:04
when tryingcố gắng to evaluateđánh giá
92
229000
3000
khi cố gắng đánh giá
04:07
what we should do in this casetrường hợp,
93
232000
3000
chúng ta nên làm gì trong trường hợp này,
04:10
should we use a KantianKantian deontologicaldeontological moralđạo đức frameworkkhuôn khổ,
94
235000
4000
chúng ta có nên sử dụng khuôn khổ đạo đức luận của Kant không
04:14
or should we use a MillianMillian consequentialistconsequentialist one?
95
239000
3000
hay chúng ta nên sử dụng khuôn khổ nhân quả của Mill?
04:19
KantKant.
96
244000
3000
Kant
04:22
MillMill.
97
247000
3000
Mill
04:25
Not as manynhiều votesbình chọn.
98
250000
2000
Không nhiều biểu quyết lắm
04:27
(LaughterTiếng cười)
99
252000
3000
(Tiếng cười)
04:30
Yeah, that's a terrifyingđáng sợ resultkết quả.
100
255000
3000
Vâng, đó là một kết quả tồi tệ.
04:34
TerrifyingĐáng sợ, because we have strongermạnh mẽ hơn opinionsý kiến
101
259000
4000
Tồi tệ, bởi vì chúng ta có những ý kiến mạnh hơn
04:38
about our hand-heldcầm tay devicesthiết bị
102
263000
2000
về những thiết bị cầm tay của chúng ta
04:40
than about the moralđạo đức frameworkkhuôn khổ
103
265000
2000
hơn về những khuôn khổ đạo đức
04:42
we should use to guidehướng dẫn our decisionsquyết định.
104
267000
2000
mà chúng ta nên dùng dể đưa ra những quyết định.
04:44
How do we know what to do with all the powerquyền lực we have
105
269000
3000
Làm sao để chúng ta biết phải làm gì với những sức mạnh chúng ta có
04:47
if we don't have a moralđạo đức frameworkkhuôn khổ?
106
272000
3000
nếu chúng ta không có một khuôn khổ đạo đức nào?
04:50
We know more about mobiledi động operatingđiều hành systemshệ thống,
107
275000
3000
Chúng ta biết nhiều về hệ điều hành cho di động,
04:53
but what we really need is a moralđạo đức operatingđiều hành systemhệ thống.
108
278000
3000
nhưng chúng ta thực sự cần một hệ điều hành đạo đức.
04:58
What's a moralđạo đức operatingđiều hành systemhệ thống?
109
283000
2000
Hệ điều hành đạo đức là gì?
05:00
We all know right and wrongsai rồi, right?
110
285000
2000
Tất cả chúng ta đều biết về đúng và sai, đúng không.
05:02
You feel good when you do something right,
111
287000
2000
Bạn cảm thấy tốt khi bạn làm điều gì đó đúng,
05:04
you feel badxấu when you do something wrongsai rồi.
112
289000
2000
bạn cảm thấy tệ khi bạn làm điều gì sai.
05:06
Our parentscha mẹ teachdạy us that: praiseca ngợi with the good, scoldscold with the badxấu.
113
291000
3000
Bố mẹ chúng ta dạy chúng ta rằng: Khen ngợi điều tốt, khiển trách điều xấu.
05:09
But how do we figurenhân vật out what's right and wrongsai rồi?
114
294000
3000
Nhưng làm sao để chúng ta nhận ra cái gì đúng, cái gì sai?
05:12
And from day to day, we have the techniqueskỹ thuật that we use.
115
297000
3000
Và ngày qua ngày, chúng ta có những kĩ thuật để sử dụng.
05:15
Maybe we just followtheo our gutruột.
116
300000
3000
Có thể chúng ta chỉ cần theo cảm tính của mình.
05:18
Maybe we take a votebỏ phiếu -- we crowdsourcecrowdsource.
117
303000
3000
Có thể chúng ta sẽ yêu cầu biểu quyết -- chúng ta dùng sức mạnh đám đông.
05:21
Or maybe we puntPunt --
118
306000
2000
Hoặc có thể chúng ta sẽ đẩy nó cho người khác
05:23
askhỏi the legalhợp pháp departmentbộ phận, see what they say.
119
308000
3000
hỏi nhà chức trách, xem những gì họ nói.
05:26
In other wordstừ ngữ, it's kindloại of randomngẫu nhiên,
120
311000
2000
Nói cách khác, đó là một kiểu ngẫu nhiên
05:28
kindloại of adquảng cáo hochoc,
121
313000
2000
kiểu bột phát
05:30
how we figurenhân vật out what we should do.
122
315000
3000
làm sao chúng ta có thể nhận ra chúng ta nên làm gì.
05:33
And maybe, if we want to be on surerngười bảo hiểm footingchân,
123
318000
3000
Và có lẽ, để chắc chắn,
05:36
what we really want is a moralđạo đức frameworkkhuôn khổ that will help guidehướng dẫn us there,
124
321000
3000
cái chúng ta thực sực cần là một khuôn khổ đạo đức có thể hướng dẫn chúng ta,
05:39
that will tell us what kindscác loại of things are right and wrongsai rồi in the first placeđịa điểm,
125
324000
3000
nói chúng ta điều gì là đúng và sai ngay từ đầu,
05:42
and how would we know in a givenđược situationtình hình what to do.
126
327000
4000
và làm thế nào để chúng ta có thể biết cần làm gì trong một tình huống cụ thể.
05:46
So let's get a moralđạo đức frameworkkhuôn khổ.
127
331000
2000
Vậy hãy lấy một khuôn khổ đạo đức.
05:48
We're numberssố people, livingsống by numberssố.
128
333000
3000
Chúng ta là người của những con số, sống bằng những con số.
05:51
How can we use numberssố
129
336000
2000
Làm sao để chúng ta có thể sử dụng những con số
05:53
as the basisnền tảng for a moralđạo đức frameworkkhuôn khổ?
130
338000
3000
như là nền tảng của khuôn khổ đạo đức?
05:56
I know a guy who did exactlychính xác that.
131
341000
3000
Tôi biết một người biết đích xác việc đó
05:59
A brilliantrực rỡ guy --
132
344000
3000
Một người thông minh --
06:02
he's been deadđã chết 2,500 yearsnăm.
133
347000
3000
đã mất cách đây 2500 năm.
06:05
PlatoPlato, that's right.
134
350000
2000
Plato, đúng vậy.
06:07
RememberHãy nhớ him -- old philosophernhà triết học?
135
352000
2000
Mọi người còn nhớ ông ta không - nhà triết học già?
06:09
You were sleepingngủ duringsuốt trong that classlớp học.
136
354000
3000
Bạn thường ngủ suốt lớp triết học đó.
06:12
And PlatoPlato, he had a lot of the sametương tự concernslo ngại that we did.
137
357000
2000
Và Plato, ông ta có nhiều mối quan tâm như chúng ta có.
06:14
He was worriedlo lắng about right and wrongsai rồi.
138
359000
2000
Ông ta lo nghĩ về đúng và sai.
06:16
He wanted to know what is just.
139
361000
2000
Ông ta muốn biết rằng cái gì là xác đáng.
06:18
But he was worriedlo lắng that all we seemhình như to be doing
140
363000
2000
Nhưng ông ta nghĩ rằng tất cả những gì có vẻ như sắp được làm
06:20
is tradingthương mại opinionsý kiến about this.
141
365000
2000
chỉ là sự ý kiến cân nhắc về nó.
06:22
He saysnói something'smột số điều just. She saysnói something elsekhác is just.
142
367000
3000
Anh ta nói một cái gì đó là chân lý. Cô ta nói một cái khác mới là chân lý.
06:25
It's kindloại of convincingthuyết phục when he talksnói chuyện and when she talksnói chuyện too.
143
370000
2000
Đó là một kiểu thuyết phục khi anh ta nói và khi cô ta nói.
06:27
I'm just going back and forthra; I'm not gettingnhận được anywhereở đâu.
144
372000
2000
Tôi bị tiến thoái lưỡng nan, tôi chẳng đạt được gì cả.
06:29
I don't want opinionsý kiến; I want knowledgehiểu biết.
145
374000
3000
Tôi không muốn ý kiến, tôi muốn kiến thức.
06:32
I want to know the truthsự thật about justiceSự công bằng --
146
377000
3000
Tôi muốn biết sự thật về công lý --
06:35
like we have truthssự thật in mathmôn Toán.
147
380000
3000
như tôi có sự thật trong toán.
06:38
In mathmôn Toán, we know the objectivemục tiêu factssự kiện.
148
383000
3000
Trong toán, chúng ta biết những dữ kiện khách quan.
06:41
Take a numbercon số, any numbercon số -- two.
149
386000
2000
Hãy lấy một số, bất kì số nào -- số hai.
06:43
FavoriteYêu thích numbercon số. I love that numbercon số.
150
388000
2000
Số ưa thích, tôi thích số này.
06:45
There are truthssự thật about two.
151
390000
2000
Có những sự thật về số hai
06:47
If you've got two of something,
152
392000
2000
Nếu bạn có hai vật gì đó,
06:49
you addthêm vào two more, you get fourbốn.
153
394000
2000
bạn thêm hai, bạn sẽ có bốn.
06:51
That's truethật no mattervấn đề what thing you're talkingđang nói about.
154
396000
2000
Điều này luôn đúng cho dù bạn đang nói về vật gì.
06:53
It's an objectivemục tiêu truthsự thật about the formhình thức of two,
155
398000
2000
Đó là sự thật rõ ràng về dạng thức của số hai,
06:55
the abstracttrừu tượng formhình thức.
156
400000
2000
một dạng thức trừu tượng.
06:57
When you have two of anything -- two eyesmắt, two earsđôi tai, two nosesmũi,
157
402000
2000
Khi bạn có hai thứ của bất kì thứ gì -- hai mắt, hai tai, hai mũi,
06:59
just two protrusionsnhững chỗ lồi lõm --
158
404000
2000
chỉ là hai thứ thấy được --
07:01
those all partakechia of the formhình thức of two.
159
406000
3000
tất cả những thứ đó đều là dạng thức của số hai.
07:04
They all participatetham dự in the truthssự thật that two has.
160
409000
4000
Tất cả chúng tham gia vào những sự thật mà số hai có.
07:08
They all have two-nesshai-ness in them.
161
413000
2000
Tất cả chúng có đặc tính hai trong bản thân chúng.
07:10
And thereforevì thế, it's not a mattervấn đề of opinionquan điểm.
162
415000
3000
Và vì thế, nó không phải là vấn đề của bản thân ý kiến.
07:13
What if, PlatoPlato thought,
163
418000
2000
Điều gì xảy ra nếu, Plato nghĩ rằng,
07:15
ethicsĐạo Đức was like mathmôn Toán?
164
420000
2000
đạo đức giống như toán học?
07:17
What if there were a purenguyên chất formhình thức of justiceSự công bằng?
165
422000
3000
Nếu có một dạng thức thuần túy của công lý?
07:20
What if there are truthssự thật about justiceSự công bằng,
166
425000
2000
Nếu có những sự thật về công lý,
07:22
and you could just look around in this worldthế giới
167
427000
2000
và bạn có thể nhìn thấy thế giới xung quanh
07:24
and see which things participatedtham gia,
168
429000
2000
và thấy những điều nào tham gia,
07:26
partookpartook of that formhình thức of justiceSự công bằng?
169
431000
3000
tham gia một phần vào dạng thức đó của công lý?
07:29
Then you would know what was really just and what wasn'tkhông phải là.
170
434000
3000
Từ đó bạn sẽ biết cái gì thực sự là chân lý, và cái gì không.
07:32
It wouldn'tsẽ không be a mattervấn đề
171
437000
2000
Điều này không liên quan đến
07:34
of just opinionquan điểm or just appearancesxuất hiện.
172
439000
3000
ý kiến hoặc hình thức..
07:37
That's a stunningKinh ngạc visiontầm nhìn.
173
442000
2000
Đó là một tầm nhìn tuyệt vời.
07:39
I mean, think about that. How grandlớn. How ambitioustham vọng.
174
444000
3000
Ý tôi là, hãy nghĩ về nó. Thật vĩ đại. Thật là nhiều tham vọng.
07:42
That's as ambitioustham vọng as we are.
175
447000
2000
Nhiều tham vọng như chính chúng ta.
07:44
He wants to solvegiải quyết ethicsĐạo Đức.
176
449000
2000
Ông ấy muốn giải quyết các vấn đề về đạo lý.
07:46
He wants objectivemục tiêu truthssự thật.
177
451000
2000
Ông ấy muốn những sự thật khách quan.
07:48
If you think that way,
178
453000
3000
Nếu bạn cũng nghĩ theo cách đó,
07:51
you have a PlatonistPlatonist moralđạo đức frameworkkhuôn khổ.
179
456000
3000
bạn đã có một nền tảng đạo đức Platon.
07:54
If you don't think that way,
180
459000
2000
Nếu bạn không nghĩ theo cách đó,
07:56
well, you have a lot of companyCông ty in the historylịch sử of WesternTây philosophytriết học,
181
461000
2000
ồ, bạn có rất nhiều bè bạn trong lịch sử triết học phương Tây,
07:58
because the tidygọn gàng ideaý kiến, you know, people criticizedphê bình it.
182
463000
3000
bởi vì ý tưởng tốt -- bạn biết đấy, con người chỉ trích nó lên.
08:01
AristotleAristotle, in particularcụ thể, he was not amusedamused.
183
466000
3000
Aristotle, thực tế, ông không hài lòng.
08:04
He thought it was impracticalkhông thực tế.
184
469000
3000
Ông ấy nghĩ nó không thực tế.
08:07
AristotleAristotle said, "We should seektìm kiếm only so much precisionđộ chính xác in eachmỗi subjectmôn học
185
472000
4000
Aristotle nói rằng "Chúng ta chỉ nên tìm kiếm sự chính xác ở mỗi đối tượng
08:11
as that subjectmôn học allowscho phép."
186
476000
2000
mà đối tượng đó cho phép."
08:13
AristotleAristotle thought ethicsĐạo Đức wasn'tkhông phải là a lot like mathmôn Toán.
187
478000
3000
Aristotle nghĩ rằng đạo lý không giống lắm với toán học.
08:16
He thought ethicsĐạo Đức was a mattervấn đề of makingchế tạo decisionsquyết định in the here-and-nowở đây và bây giờ
188
481000
3000
Ông ấy nghĩ đạo lí là vấn đề đưa ra quyết định luôn và ngay
08:19
usingsử dụng our besttốt judgmentphán đoán
189
484000
2000
sử dụng những nhận xét xác đáng nhất
08:21
to find the right pathcon đường.
190
486000
2000
để tìm ra con đường đúng đắn.
08:23
If you think that, Plato'sPlato's not your guy.
191
488000
2000
Nếu bạn cũng nghĩ như thế, Plato không phải là kiểu người dành cho bạn.
08:25
But don't give up.
192
490000
2000
Nhưng đừng đầu hàng vội,
08:27
Maybe there's anotherkhác way
193
492000
2000
có thể còn những cách khác
08:29
that we can use numberssố as the basisnền tảng of our moralđạo đức frameworkkhuôn khổ.
194
494000
3000
mà chúng ta có thể sử dụng những con số như là nền tảng của khuôn khổ đạo đức.
08:33
How about this:
195
498000
2000
Bạn nghĩ sao về:
08:35
What if in any situationtình hình you could just calculatetính toán,
196
500000
3000
Sẽ ra sao nếu như ở bất kì tình trạng nào bạn cũng có thể vừa tính toán,
08:38
look at the choicessự lựa chọn,
197
503000
2000
nhìn những lựa chọn,
08:40
measuređo out which one'scủa một người better and know what to do?
198
505000
3000
chọn ra điều tốt nhất và biết phải làm gì tiếp theo?
08:43
That soundâm thanh familiarquen?
199
508000
2000
Điều này nghe có quen không?
08:45
That's a utilitarianutilitarian moralđạo đức frameworkkhuôn khổ.
200
510000
3000
Đó là khuôn khổ đạo đức vị lợi.
08:48
JohnJohn StuartStuart MillMill was a great advocatebiện hộ of this --
201
513000
2000
John Stuart Mill là một người ủng hộ vĩ đại của học thuyết này --
08:50
nicetốt đẹp guy besidesngoài ra --
202
515000
2000
cũng là người rất tử tế
08:52
and only been deadđã chết 200 yearsnăm.
203
517000
2000
và chỉ mới mất cách đây 200 năm.
08:54
So basisnền tảng of utilitarianismutilitarianism --
204
519000
2000
Cơ bản của chủ nghĩa vị lợi --
08:56
I'm sure you're familiarquen at leastít nhất.
205
521000
2000
Tôi chắc chắn rằng ít nhất bạn cũng đã quen với nó.
08:58
The threesố ba people who votedbình chọn for MillMill before are familiarquen with this.
206
523000
2000
Có ba người đã ủng hộ Mill trước khi quen với học thuyết đó
09:00
But here'sđây là the way it workscông trinh.
207
525000
2000
Nhưng đây là cách mà nó thực hiện.
09:02
What if moralsđạo đức, what if what makeslàm cho something moralđạo đức
208
527000
3000
Sẽ ra sao, nếu đạo lí, nếu những gì tạo nên đạo lí,
09:05
is just a mattervấn đề of if it maximizestối đa pleasurevui lòng
209
530000
2000
chỉ là vấn đề của nó có tối đa hóa sự hài lòng
09:07
and minimizesgiảm thiểu painđau đớn?
210
532000
2000
và tối thiểu hóa nỗi đau hay không?
09:09
It does something intrinsicnội tại to the acthành động.
211
534000
3000
Nó mang những thứ chân thực vào trong hành động.
09:12
It's not like its relationmối quan hệ to some abstracttrừu tượng formhình thức.
212
537000
2000
Nó không phải là một dạng quan hệ của những hình thức trừu tượng.
09:14
It's just a mattervấn đề of the consequenceshậu quả.
213
539000
2000
Nó là vấn đề của kết quả.
09:16
You just look at the consequenceshậu quả
214
541000
2000
Bạn chỉ nhìn vào kết quả
09:18
and see if, overalltổng thể, it's for the good or for the worsetệ hơn.
215
543000
2000
và xem xét, một cách toàn cục, liệu nó có tốt hơn hay xấu hơn.
09:20
That would be simpleđơn giản. Then we know what to do.
216
545000
2000
Xem xét vậy sẽ trở nên đơn giản. Sau đó chúng ta biết chúng ta phải làm gì.
09:22
Let's take an examplethí dụ.
217
547000
2000
Hãy cùng xem một ví dụ.
09:24
SupposeGiả sử I go up
218
549000
2000
Giả sử tôi đến
09:26
and I say, "I'm going to take your phoneđiện thoại."
219
551000
2000
và nói "Tôi sắp lấy điện thoại của anh"
09:28
Not just because it rangrang earliersớm hơn,
220
553000
2000
Không phải chỉ bởi vì nó đã đổ chuông trước đó,
09:30
but I'm going to take it because I madethực hiện a little calculationphép tính.
221
555000
3000
mà tôi lấy nó bởi vì tôi đã thực hiện sự tính toán nhỏ.
09:33
I thought, that guy looksnhìn suspiciousnghi ngờ.
222
558000
3000
Tôi đã nghĩ rằng, gã này trông đáng nghi ngờ.
09:36
And what if he's been sendinggửi little messagestin nhắn to BinBin Laden'sLaden của hideoutnơi ẩn náu --
223
561000
3000
Và sẽ ra sao nếu gã đang gửi thông điệp đến nơi ẩn nấp của Bin Laden
09:39
or whoeverbất cứ ai tooklấy over after BinBin LadenLaden --
224
564000
2000
hoặc kẻ nào đang chăm sóc cho Bin Laden --
09:41
and he's actuallythực ra like a terroristkhủng bố, a sleeperngu celltế bào.
225
566000
3000
và gã thực sự giống một tên khủng bố, một kẻ ung nhọt.
09:44
I'm going to find that out, and when I find that out,
226
569000
3000
Tôi sắp tìm thấy vấn đề, và khi tôi tìm thấy nó,
09:47
I'm going to preventngăn chặn a hugekhổng lồ amountsố lượng of damagehư hại that he could causenguyên nhân.
227
572000
3000
tôi sẽ chống lại sự thiệt hại to lớn mà gã có thể gây ra
09:50
That has a very highcao utilitytiện ích to preventngăn chặn that damagehư hại.
228
575000
3000
Đó là một công cụ cực kì hữu ích để chống lại sự thiệt hại như thế.
09:53
And comparedso to the little painđau đớn that it's going to causenguyên nhân --
229
578000
2000
Và so với sự đau đớn nhỏ mà nó có thể gây ra --
09:55
because it's going to be embarrassinglúng túng when I'm looking on his phoneđiện thoại
230
580000
2000
bởi vì nó gây ra sự lúng túng khi tôi nhìn vào điện thoại của anh ta
09:57
and seeingthấy that he has a FarmvilleTiếp cận thông problemvấn đề and that wholetoàn thể bitbit --
231
582000
3000
và nhìn thấy anh ta đang có vấn đề với FarmVille và tất cả điều đó --
10:00
that's overwhelmedquá tải
232
585000
3000
nó bị tràn ngập
10:03
by the valuegiá trị of looking at the phoneđiện thoại.
233
588000
2000
bởi những giá trị khi nhìn vào chiếc điện thoại đó.
10:05
If you feel that way,
234
590000
2000
Nếu bạn cảm thấy theo cách đó
10:07
that's a utilitarianutilitarian choicelựa chọn.
235
592000
3000
đó là một lựa chọn vị lợi.
10:10
But maybe you don't feel that way eitherhoặc.
236
595000
3000
Nhưng có thể bạn cũng không cảm thận theo cách đó.
10:13
Maybe you think, it's his phoneđiện thoại.
237
598000
2000
Có thể bạn nghĩ, đó là điện thoại của anh ta.
10:15
It's wrongsai rồi to take his phoneđiện thoại
238
600000
2000
Thật là sai khi lấy điện thoại của anh ta,
10:17
because he's a personngười
239
602000
2000
bởi vì anh ta là một con người
10:19
and he has rightsquyền and he has dignityphẩm giá,
240
604000
2000
và anh ta có quyền và địa vị của mình,
10:21
and we can't just interferegây trở ngại with that.
241
606000
2000
và chúng ta không thể xen vào điều đó.
10:23
He has autonomyquyền tự trị.
242
608000
2000
Anh ta có quyền tự do.
10:25
It doesn't mattervấn đề what the calculationstính toán are.
243
610000
2000
Điều này không bị ảnh hưởng bởi những gì chúng ta tính toán.
10:27
There are things that are intrinsicallybản chất wrongsai rồi --
244
612000
3000
Có những thứ bản thân nó đã là sai --
10:30
like lyingnói dối is wrongsai rồi,
245
615000
2000
giống như nói dối là sai
10:32
like torturingtra tấn innocentvô tội childrenbọn trẻ is wrongsai rồi.
246
617000
3000
giống như hành hạ trẻ em vô tội là sai.
10:35
KantKant was very good on this pointđiểm,
247
620000
3000
Kant thể hiện rất tốt ở điểm này,
10:38
and he said it a little better than I'll say it.
248
623000
2000
và ông ấy nói tốt hơn chúng ta nói về nó
10:40
He said we should use our reasonlý do
249
625000
2000
Ông ấy nói chúng ta nên sử dụng suy luận của mình
10:42
to figurenhân vật out the rulesquy tắc by which we should guidehướng dẫn our conducttiến hành,
250
627000
3000
để làm rõ những qui luật mà chúng ta nên dùng để dẫn dắt đạo đức của mình.
10:45
and then it is our dutynhiệm vụ to followtheo those rulesquy tắc.
251
630000
3000
Và khi đó nhiệm vụ của chúng ta là làm theo những qui luật đó.
10:48
It's not a mattervấn đề of calculationphép tính.
252
633000
3000
Nó không liên quan gì đến sự tính toán cả.
10:51
So let's stop.
253
636000
2000
Vì thế hãy dừng lại.
10:53
We're right in the thickdày of it, this philosophicaltriết học thicketthicket.
254
638000
3000
Chúng ta đúng về những thứ triết học này.
10:56
And this goesđi on for thousandshàng nghìn of yearsnăm,
255
641000
3000
Và điều này đã diễn ra hàng ngàn năm,
10:59
because these are hardcứng questionscâu hỏi,
256
644000
2000
bởi vì đó là những câu hỏi khó,
11:01
and I've only got 15 minutesphút.
257
646000
2000
và tôi thì chỉ có 15 phút.
11:03
So let's cutcắt tỉa to the chaseđuổi theo.
258
648000
2000
Nên hãy rút gọn lại.
11:05
How should we be makingchế tạo our decisionsquyết định?
259
650000
4000
Bạn nên làm như thế nào để đưa ra quyết định?
11:09
Is it PlatoPlato, is it AristotleAristotle, is it KantKant, is it MillMill?
260
654000
3000
Nên làm như Plato, như Aristotle, như Kant, như Mill?
11:12
What should we be doing? What's the answercâu trả lời?
261
657000
2000
Chúng ta nên làm gì? Câu trả lời là gì?
11:14
What's the formulacông thức that we can use in any situationtình hình
262
659000
3000
Đâu là công thức mà chúng ta có thể sử dụng ở bất kì tình huống nào
11:17
to determinemục đích what we should do,
263
662000
2000
để quyết định rằng chúng ta nên làm gì,
11:19
whetherliệu we should use that guy'sanh chàng datadữ liệu or not?
264
664000
2000
chúng ta có nên sử dụng dữ liệu của anh ta hay không?
11:21
What's the formulacông thức?
265
666000
3000
Công thức là gì?
11:25
There's not a formulacông thức.
266
670000
2000
Không có 1 công thức nào hết.
11:29
There's not a simpleđơn giản answercâu trả lời.
267
674000
2000
Không hề có một câu trả lời đơn giác.
11:31
EthicsĐạo Đức is hardcứng.
268
676000
3000
Đạo đức là vấn đề khó.
11:34
EthicsĐạo Đức requiresđòi hỏi thinkingSuy nghĩ.
269
679000
3000
Đạo đức yêu cầu sự suy nghĩ.
11:38
And that's uncomfortablekhó chịu.
270
683000
2000
Và rằng nó không hề thoải mái
11:40
I know; I spentđã bỏ ra a lot of my careernghề nghiệp
271
685000
2000
Tôi biết, phần lớn thời gian trong sự nghiệp của tôi
11:42
in artificialnhân tạo intelligenceSự thông minh,
272
687000
2000
là cho trí tuệ nhân tạo,
11:44
tryingcố gắng to buildxây dựng machinesmáy móc that could do some of this thinkingSuy nghĩ for us,
273
689000
3000
cố gắng xây dựng những cỗ máy có thể có một số suy nghĩ như chúng ta,
11:47
that could give us answerscâu trả lời.
274
692000
2000
có thể cho chúng ta một số câu trả lời.
11:49
But they can't.
275
694000
2000
Nhưng những cỗ máy đó không thể.
11:51
You can't just take humanNhân loại thinkingSuy nghĩ
276
696000
2000
Bạn không thể chỉ lấy tư duy con người
11:53
and put it into a machinemáy móc.
277
698000
2000
và nhét vào một cỗ máy.
11:55
We're the onesnhững người who have to do it.
278
700000
3000
Chúng ta là những thực thể duy nhất có thể suy nghĩ.
11:58
HappilyHạnh phúc, we're not machinesmáy móc, and we can do it.
279
703000
3000
Thật hạnh phúc rằng chúng ta không phải là máy móc, chúng ta có thể tư duy.
12:01
Not only can we think,
280
706000
2000
Không chỉ chúng ta có khả năng tư duy,
12:03
we mustphải.
281
708000
2000
mà chúng ta phải tư duy.
12:05
HannahHannah ArendtArendt said,
282
710000
2000
Hannad Arendt nói rằng,
12:07
"The sadbuồn truthsự thật
283
712000
2000
"Sự thật đáng buồn
12:09
is that mostphần lớn eviltà ác donelàm xong in this worldthế giới
284
714000
2000
là những điều xấu xa trên thế giới này
12:11
is not donelàm xong by people
285
716000
2000
không phải được làm bởi những người
12:13
who choosechọn to be eviltà ác.
286
718000
2000
muốn trở thành kẻ xấu.
12:15
It arisesphát sinh from not thinkingSuy nghĩ."
287
720000
3000
Những điều xấu đến từ những kẻ không biết tư duy."
12:18
That's what she calledgọi là the "banalitybanality of eviltà ác."
288
723000
4000
Bà gọi điều đó là "sự tầm thường của kẻ xấu."
12:22
And the responsephản ứng to that
289
727000
2000
Và đáp lại cho điều đó là
12:24
is that we demandnhu cầu the exercisetập thể dục of thinkingSuy nghĩ
290
729000
2000
là chúng ta cần thực hành tư duy
12:26
from everymỗi sanesane personngười.
291
731000
3000
từ mỗi cá nhân theo đúng nghĩa.
12:29
So let's do that. Let's think.
292
734000
2000
Hãy làm nó. Hãy tư duy.
12:31
In factthực tế, let's startkhởi đầu right now.
293
736000
3000
Thực tế, hãy bắt đầu luôn bây giờ.
12:34
EveryMỗi personngười in this roomphòng do this:
294
739000
3000
Mọi người trong phòng hãy làm việc này:
12:37
think of the last time you had a decisionphán quyết to make
295
742000
3000
nghĩ về lần cuối cùng bạn ra một quyết định
12:40
where you were worriedlo lắng to do the right thing,
296
745000
2000
lần mà bạn đã lo lắng về điều định làm,
12:42
where you wonderedtự hỏi, "What should I be doing?"
297
747000
2000
lần mà bạn tự hỏi "Mình nên làm gì bây giờ?"
12:44
BringMang lại that to mindlí trí,
298
749000
2000
Hãy nhớ lại điều đó.
12:46
and now reflectphản chiếu on that
299
751000
2000
Và bây giờ hãy áp dụng nó
12:48
and say, "How did I come up that decisionphán quyết?
300
753000
3000
và nói "Mình đã đi đến quyết định đó như thế nào?
12:51
What did I do? Did I followtheo my gutruột?
301
756000
3000
Mình đã làm gì? Mình có theo những gì thực lòng mình không?
12:54
Did I have somebodycó ai votebỏ phiếu on it? Or did I puntPunt to legalhợp pháp?"
302
759000
2000
Mình có ai ủng hộ không? Hoặc mình có vướng vào vấn đề pháp lí không?"
12:56
Or now we have a fewvài more choicessự lựa chọn.
303
761000
3000
Hoặc ngay bây giờ chúng ta có nhiều lựa chọn hơn.
12:59
"Did I evaluateđánh giá what would be the highestcao nhất pleasurevui lòng
304
764000
2000
"Chúng ta có đánh giá được sự vừa lòng tối đa
13:01
like MillMill would?
305
766000
2000
như Mill không?
13:03
Or like KantKant, did I use reasonlý do to figurenhân vật out what was intrinsicallybản chất right?"
306
768000
3000
Hoặc như Kant, chúng ta có dùng lí trí để làm rõ cái gì là bản chất sự thật không?"
13:06
Think about it. Really bringmang đến it to mindlí trí. This is importantquan trọng.
307
771000
3000
Hãy nghĩ về nó, thực sự chăm chú vào nó. Điều này rất quan trọng
13:09
It is so importantquan trọng
308
774000
2000
Nó quan trọng đến nỗi
13:11
we are going to spendtiêu 30 secondsgiây of valuablequý giá TEDTalkTEDTalk time
309
776000
2000
chúng ta dùng đến 30 giây quí giá của thời gian TEDtalk
13:13
doing nothing but thinkingSuy nghĩ about this.
310
778000
2000
chỉ để nghĩ về nó
13:15
Are you readysẳn sàng? Go.
311
780000
2000
Bạn sẵn sàng chưa. Bắt đầu.
13:33
Stop. Good work.
312
798000
3000
Dừng lại. Tốt lắm.
13:36
What you just did,
313
801000
2000
Những gì bạn vừa làm,
13:38
that's the first stepbậc thang towardsvề hướng takinglấy responsibilitytrách nhiệm
314
803000
2000
là bước đầu tiên hướng tới chịu trách nhiệm
13:40
for what we should do with all of our powerquyền lực.
315
805000
3000
về những gì chúng ta nên làm với sức mạnh của mình.
13:45
Now the nextkế tiếp stepbậc thang -- try this.
316
810000
3000
Giờ bước tiếp theo -- hãy thử nó.
13:49
Go find a friendngười bạn and explaingiải thích to them
317
814000
2000
Tìm một người bạn và giải thích với họ
13:51
how you madethực hiện that decisionphán quyết.
318
816000
2000
làm thế nào để đưa ra quyết định đó.
13:53
Not right now. Wait tillcho đến I finishhoàn thành talkingđang nói.
319
818000
2000
Không phải lúc này. Hãy đợi đến khi tôi hoàn thành bài nói.
13:55
Do it over lunchBữa trưa.
320
820000
2000
Hãy làm nó sau bữa trưa.
13:57
And don't just find anotherkhác technologistgia công nghệ friendngười bạn;
321
822000
3000
Và đừng tìm một người bạn kĩ nghệ gia nào;
14:00
find somebodycó ai differentkhác nhau than you.
322
825000
2000
hãy tìm người nào đó khác biệt với bạn.
14:02
Find an artisthọa sĩ or a writernhà văn --
323
827000
2000
Tìm một nghệ sĩ, một nhà văn --
14:04
or, heaventhiên đường forbidngăn cấm, find a philosophernhà triết học and talk to them.
324
829000
3000
hoặc, tìm một nhà triết học và nói với họ.
14:07
In factthực tế, find somebodycó ai from the humanitiesnhân văn.
325
832000
2000
Thực tế, tìm một người nào đó từ cộng đồng.
14:09
Why? Because they think about problemscác vấn đề
326
834000
2000
Tại sao? Bởi vì họ nghĩ về những vấn đề
14:11
differentlykhác than we do as technologistskỹ sư công nghệ.
327
836000
2000
một cách khác biệt hơn là chúng ta nghĩ như một kĩ sư công nghệ.
14:13
Just a fewvài daysngày agotrước, right acrossbăng qua the streetđường phố from here,
328
838000
3000
Một vài ngày trước đây, ngay ngã tư bên đường từ đây,
14:16
there was hundredshàng trăm of people gatheredtập hợp lại togethercùng với nhau.
329
841000
2000
có hàng trăm người tụ tập cùng nhau.
14:18
It was technologistskỹ sư công nghệ and humanistsnhà
330
843000
2000
Họ là những kĩ sư công nghệ và nhà nhân chủng học
14:20
at that biglớn BiblioTechBiblioTech ConferenceHội nghị.
331
845000
2000
ở hội thảo lớn BiblioTech.
14:22
And they gatheredtập hợp lại togethercùng với nhau
332
847000
2000
Và họ tụ tập cùng nhau
14:24
because the technologistskỹ sư công nghệ wanted to learnhọc hỏi
333
849000
2000
bởi vì những kĩ sư công nghệ muốn biết
14:26
what it would be like to think from a humanitiesnhân văn perspectivequan điểm.
334
851000
3000
suy nghĩ từ góc nhìn của nhà nhân chủng học là như thế nào.
14:29
You have someonengười nào from GoogleGoogle
335
854000
2000
Bạn tìm thấy một số người từ Google
14:31
talkingđang nói to someonengười nào who does comparativeso sánh literaturevăn chương.
336
856000
2000
nói chuyện với người nào đó có cùng văn hóa.
14:33
You're thinkingSuy nghĩ about the relevancesự liên quan of 17ththứ centurythế kỷ FrenchTiếng Pháp theaterrạp hát --
337
858000
3000
Bạn đang nghĩ về sự tương đồng từ các nhà hát Pháp thế kỉ 17 --
14:36
how does that bearchịu upontrên ventureliên doanh capitalthủ đô?
338
861000
2000
chúng sẽ chịu đựng ra sao trước quĩ đầu tư tư bản?
14:38
Well that's interestinghấp dẫn. That's a differentkhác nhau way of thinkingSuy nghĩ.
339
863000
3000
Nó thật thú vị. Đó là một một cách tư duy hoàn toàn khác.
14:41
And when you think in that way,
340
866000
2000
Và khi bạn tư duy theo cách đó,
14:43
you becometrở nên more sensitivenhạy cảm to the humanNhân loại considerationscân nhắc,
341
868000
3000
bạn trở nên nhạy cảm hơn với những mối lo của nhân loại,
14:46
which are crucialquan trọng to makingchế tạo ethicalđạo đức decisionsquyết định.
342
871000
3000
điều này là quan trọng để đưa ra những quyết định mang tính đạo lí.
14:49
So imaginetưởng tượng that right now
343
874000
2000
Ngay lúc này đây, hãy tưởng tượng rằng
14:51
you wentđã đi and you foundtìm your musiciannhạc sĩ friendngười bạn.
344
876000
2000
bạn đến và tím thấy một người bạn nhạc công.
14:53
And you're tellingnói him what we're talkingđang nói about,
345
878000
3000
Và bạn đang nói cho anh ta về những gì chúng ta đang nói đến,
14:56
about our wholetoàn thể datadữ liệu revolutionCuộc cách mạng and all this --
346
881000
2000
về những dữ liệu cách mạng và tất cả những thứ này --
14:58
maybe even humhum a fewvài barsthanh of our themechủ đề musicÂm nhạc.
347
883000
2000
thậm chí có thể thêm một ít thanh âm nhiễu của nhạc nền này.
15:00
DumDum tata dada dada dumDum dumDum tata dada dada dumDum
348
885000
3000
♫ Dum ta da da dum dum ta da da dum ♫
15:03
Well, your musiciannhạc sĩ friendngười bạn will stop you and say,
349
888000
2000
Ồ, người bạn nhạc sĩ của bạn sẽ dừng bạn lại và nói rằng,
15:05
"You know, the themechủ đề musicÂm nhạc
350
890000
2000
"Bạn biết không, nhạc nền
15:07
for your datadữ liệu revolutionCuộc cách mạng,
351
892000
2000
cho cuộc cách mạng dữ liệu của bạn
15:09
that's an operaopera, that's WagnerWagner.
352
894000
2000
là opera, là Wagner.
15:11
It's baseddựa trên on NorseBắc Âu legendhuyền thoại.
353
896000
2000
Nó dựa trên huyền thoại Norse.
15:13
It's GodsVị thần and mythicalhuyền thoại creaturessinh vật
354
898000
2000
Đó là Chúa trời, và là đấng sáng tạo
15:15
fightingtrận đánh over magicalhuyền diệu jewelryđồ trang sức."
355
900000
3000
đã vượt quá những nhung lụa kì ảo."
15:19
That's interestinghấp dẫn.
356
904000
3000
Điều này thật thú vị.
15:22
Now it's alsocũng thế a beautifulđẹp operaopera,
357
907000
3000
Giờ nó còn là một bản nhạc kịch đẹp tuyệt vời.
15:25
and we're moveddi chuyển by that operaopera.
358
910000
3000
Và chúng ta tiến bộ nhờ vở nhạc kịch đó.
15:28
We're moveddi chuyển because it's about the battlechiến đấu
359
913000
2000
Chúng ta tiến bộ bởi đó là cuộc chiến
15:30
betweengiữa good and eviltà ác,
360
915000
2000
giữa cái tốt và cái xấu,
15:32
about right and wrongsai rồi.
361
917000
2000
giữa đúng và sai.
15:34
And we carequan tâm about right and wrongsai rồi.
362
919000
2000
Và chúng ta quan tâm về đúng và sai.
15:36
We carequan tâm what happensxảy ra in that operaopera.
363
921000
3000
Chúng ta quan tâm cái gì diễn ra trong vở nhạc kịch đó.
15:39
We carequan tâm what happensxảy ra in "ApocalypseNgày tận thế Now."
364
924000
3000
Chúng ta quan tâm về những gì diễn ra trong phim "Apocalypse Now"
15:42
And we certainlychắc chắn carequan tâm
365
927000
2000
Và chúng ta tất nhiên quan tâm
15:44
what happensxảy ra with our technologiescông nghệ.
366
929000
2000
về những gì diễn ra với công nghệ.
15:46
We have so much powerquyền lực todayhôm nay,
367
931000
2000
Chúng ta có rất nhiều sức mạnh ngày nay,
15:48
it is up to us to figurenhân vật out what to do,
368
933000
3000
và nó phụ thuộc vào chúng ta để đánh giá xem nên làm cái gì.
15:51
and that's the good newsTin tức.
369
936000
2000
Và đó một tin tốt lành.
15:53
We're the onesnhững người writingviết this operaopera.
370
938000
3000
Chúng ta là những người viết nên vở nhạc kịch này.
15:56
This is our moviebộ phim.
371
941000
2000
Đây là bộ phim của chúng ta.
15:58
We figurenhân vật out what will happenxảy ra with this technologyCông nghệ.
372
943000
3000
Chúng ta xem xét cái gì sẽ diễn ra với công nghệ.
16:01
We determinemục đích how this will all endkết thúc.
373
946000
3000
Chúng ta quyết định mọi thứ sẽ kết thúc như thế nào.
16:04
Thank you.
374
949000
2000
Xin cảm ơn.
16:06
(ApplauseVỗ tay)
375
951000
5000
(Vỗ tay)
Translated by Hai Nguyen
Reviewed by Duc Nguyen

▲Back to top

ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee