ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com
TEDxSiliconValley

Damon Horowitz: We need a "moral operating system"

Damon Horowitz memanggil "sistem operasi moral"

Filmed:
795,617 views

Di TEDxSiliconValley, Damon Horowitz merangkum kekuatan besar yang diberikan oleh teknologi kepada kita: untuk mengetahui lebih banyak -- dan lebih banyak mengenai orang lain -- dari sebelumnya. Horowitz mengajak kita untuk memperhatikan filsafat dasar -- prinsip etika -- yang melatarbelakangi ledakan penemuan yang mengubah dunia kita. Di manakah sistem operasi moral yang membantu kita untuk memahami semua itu?
- Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities. Full bio

Double-click the English transcript below to play the video.

00:15
PowerKekuatan.
0
0
2000
Kekuatan.
00:17
That is the wordkata that comesdatang to mindpikiran.
1
2000
2000
Itulah kata yang terlintas di pikiran.
00:19
We're the newbaru technologiststeknologi.
2
4000
2000
Kita adalah teknolog baru.
00:21
We have a lot of datadata, so we have a lot of powerkekuasaan.
3
6000
3000
Kita punya banyak data, jadi kita punya kekuatan yang besar.
00:24
How much powerkekuasaan do we have?
4
9000
2000
Seberapa besar kekuatan yang kita miliki?
00:26
SceneAdegan from a moviefilm: "ApocalypseWahyu Now" -- great moviefilm.
5
11000
3000
Adegan dari film: "Apocalypse Now" -- film yang bagus.
00:29
We'veKami telah got to get our heropahlawan, CaptainKapten WillardWillard, to the mouthmulut of the NungNung RiverSungai
6
14000
3000
Kita harus mengeluarkan pahlawan kita, Kapten Willard, menuju pangkal sungai Nung
00:32
so he can go pursuemengejar ColonelKolonel KurtzKurtz.
7
17000
2000
agar ia dapat mengejar Kolonel Kurtz.
00:34
The way we're going to do this is flyterbang him in and droppenurunan him off.
8
19000
2000
Caranya adalah menerbangkannya dan menjatuhkannya di lokasi.
00:36
So the scenetempat kejadian:
9
21000
2000
Beginilah adegannya:
00:38
the skylangit is filledterisi with this fleetArmada of helicoptershelikopter carryingmembawa him in.
10
23000
3000
Langit dipenuhi oleh armada helikopter yang membawanya.
00:41
And there's this loudkeras, thrillingmendebarkan musicmusik in the backgroundLatar Belakang,
11
26000
2000
Lalu ada musik latar belakang yang mendebarkan
00:43
this wildliar musicmusik.
12
28000
2000
musik yang keren.
00:45
DumDum dada taTa dada dumdum
13
30000
2000
♫ Dum da ta da dum ♫
00:47
DumDum dada taTa dada dumdum
14
32000
2000
♫ Dum da ta da dum ♫
00:49
DaDa taTa dada dada
15
34000
3000
♫ Da ta da da ♫
00:52
That's a lot of powerkekuasaan.
16
37000
2000
Itu kekuatan yang besar.
00:54
That's the kindjenis of powerkekuasaan I feel in this roomkamar.
17
39000
2000
Itulah yang kurasakan di ruangan ini.
00:56
That's the kindjenis of powerkekuasaan we have
18
41000
2000
Itulah kekuatan yang kita rasakan
00:58
because of all of the datadata that we have.
19
43000
2000
karena banyaknya data yang kita miliki.
01:00
Let's take an examplecontoh.
20
45000
2000
Mari ambil contoh.
01:02
What can we do
21
47000
2000
Apa yang dapat kita lakukan
01:04
with just one person'sorang datadata?
22
49000
3000
dengan data satu orang saja?
01:07
What can we do
23
52000
2000
Apa yang dapat kita lakukan
01:09
with that guy'spria itu datadata?
24
54000
2000
dengan datanya?
01:11
I can look at your financialkeuangan recordscatatan.
25
56000
2000
Saya dapat melihat catatan keuanganmu.
01:13
I can tell if you paymembayar your billstagihan on time.
26
58000
2000
Saya dapat tahu apakah Anda membayar tagihan Anda tepat waktu.
01:15
I know if you're good to give a loanpinjaman to.
27
60000
2000
Saya tahu apakah Anda kandidat kredit yang baik.
01:17
I can look at your medicalmedis recordscatatan; I can see if your pumppompa is still pumpingpemompaan --
28
62000
3000
Melalui catatan medis Anda, saya tahu apakah jantung Anda masih berfungsi baik --
01:20
see if you're good to offermenawarkan insuranceasuransi to.
29
65000
3000
apakah Anda masih layak untuk ditawari produk asuransi.
01:23
I can look at your clickingklik patternspola.
30
68000
2000
Saya dapat melihat pola klikmu.
01:25
When you come to my websitesitus web, I actuallysebenarnya know what you're going to do alreadysudah
31
70000
3000
Kalau Anda mengunjungi situs saya, saya tahu apa yang akan Anda lakukan,
01:28
because I've seenterlihat you visitmengunjungi millionsjutaan of websitessitus web before.
32
73000
2000
karena saya sudah melihat Anda mengunjungi jutaan situs sebelumnya.
01:30
And I'm sorry to tell you,
33
75000
2000
Sayangnya,
01:32
you're like a pokerPoker playerpemain, you have a tell.
34
77000
2000
Anda seperti pemain poker, saya tahu kelemahan Anda.
01:34
I can tell with datadata analysisanalisis what you're going to do
35
79000
2000
Dengan analisa data saya tahu apa yang akan Anda lakukan
01:36
before you even do it.
36
81000
2000
bahkan sebelum Anda melakukannya.
01:38
I know what you like. I know who you are,
37
83000
3000
Saya tahu apa yang Anda suka. Saya tahu siapa Anda.
01:41
and that's even before I look at your mailsurat
38
86000
2000
Bahkan sebelum saya melihat surat Anda
01:43
or your phonetelepon.
39
88000
2000
atau telpon Anda.
01:45
Those are the kindsmacam of things we can do
40
90000
2000
Itu adalah hal yang dapat kita lakukan
01:47
with the datadata that we have.
41
92000
3000
dengan data yang kita miliki.
01:50
But I'm not actuallysebenarnya here to talk about what we can do.
42
95000
3000
Namun saya tidak akan berbicara mengenai apa yang dapat kita lakukan.
01:56
I'm here to talk about what we should do.
43
101000
3000
Saya ingin berbicara mengenai apa yang sebaiknya kita lakukan.
02:00
What's the right thing to do?
44
105000
3000
Apa yang tepat perlu dilakukan?
02:04
Now I see some puzzledbingung looksterlihat
45
109000
2000
Saya melihat wajah-wajah yang bingung
02:06
like, "Why are you askingmeminta us what's the right thing to do?
46
111000
3000
seperti, “Mengapa Anda bertanya pada kami apa yang sebaiknya dilakukan?
02:09
We're just buildingbangunan this stuffbarang. SomebodySeseorang elselain is usingmenggunakan it."
47
114000
3000
Kami hanya membuatnya. Orang lain yang memakainya.”
02:12
FairAdil enoughcukup.
48
117000
3000
Mungkin ada benarnya.
02:15
But it bringsmembawa me back.
49
120000
2000
Tapi itu mengingatkan saya.
02:17
I think about WorldDunia WarPerang IIII --
50
122000
2000
Saya terpikir mengenai Perang Dunia 2 --
02:19
some of our great technologiststeknologi then,
51
124000
2000
beberapa teknolog terhandal kita,
02:21
some of our great physicistsfisikawan,
52
126000
2000
ahli fisika terhebat,
02:23
studyingbelajar nuclearnuklir fissionfisi and fusionfusi --
53
128000
2000
mempelajari nuklir fisi dan fusi --
02:25
just nuclearnuklir stuffbarang.
54
130000
2000
hanya nuklir saja.
02:27
We gathermengumpulkan togetherbersama these physicistsfisikawan in LosLos AlamosAlamos
55
132000
3000
Kita mengumpulkan ahli fisika itu di Los Alamos
02:30
to see what they'llmereka akan buildmembangun.
56
135000
3000
untuk memperhatikan apa yang dapat mereka buat.
02:33
We want the people buildingbangunan the technologyteknologi
57
138000
3000
Kita ingin orang yang membuat teknologi berpikir
02:36
thinkingberpikir about what we should be doing with the technologyteknologi.
58
141000
3000
apa yang sebaiknya kita lakukan dengan teknologi.
02:41
So what should we be doing with that guy'spria itu datadata?
59
146000
3000
Apa yang seharusnya kita lakukan dengan data orang itu?
02:44
Should we be collectingmengumpulkan it, gatheringpertemuan it,
60
149000
3000
Haruskah kita mengumpulkannya
02:47
so we can make his onlineon line experiencepengalaman better?
61
152000
2000
untuk membuat pengalaman online-nya lebih baik?
02:49
So we can make moneyuang?
62
154000
2000
Agar kita dapat menghasilkan uang?
02:51
So we can protectmelindungi ourselvesdiri
63
156000
2000
Agar kita dapat melindungi diri kita sendiri
02:53
if he was up to no good?
64
158000
2000
bila ia berniat tidak baik?
02:55
Or should we respectmenghormati his privacyPrivasi,
65
160000
3000
Atau apakah kita sebaiknya menghormati privasinya,
02:58
protectmelindungi his dignitymartabat and leavemeninggalkan him alonesendirian?
66
163000
3000
melindungi harga dirinya dan membiarkannya?
03:02
WhichYang one is it?
67
167000
3000
Yang manakah?
03:05
How should we figureangka it out?
68
170000
2000
Bagaimana cara kita menentukannya?
03:07
I know: crowdsourcecrowdsource. Let's crowdsourcecrowdsource this.
69
172000
3000
Saya tahu: suara terbanyak. Mari kita lakukan itu.
03:11
So to get people warmedhangat up,
70
176000
3000
Sebagai pemanasan,
03:14
let's startmulai with an easymudah questionpertanyaan --
71
179000
2000
mari kita mulai dengan pertanyaan yang mudah --
03:16
something I'm sure everybodysemua orang here has an opinionpendapat about:
72
181000
3000
semua orang pasti punya pendapat mengenai hal ini:
03:19
iPhoneiPhone versusmelawan AndroidAndroid.
73
184000
2000
iPhone melawan Android.
03:21
Let's do a showmenunjukkan of handstangan -- iPhoneiPhone.
74
186000
3000
Coba tunjuk tangan -- siapa yang memakai iPhone.
03:24
Uh huh.
75
189000
2000
Oke.
03:26
AndroidAndroid.
76
191000
3000
Android.
03:29
You'dAnda akan think with a bunchbanyak of smartpintar people
77
194000
2000
Saya pikir karena kita orang pintar
03:31
we wouldn'ttidak akan be suchseperti itu suckerspengisap just for the prettycantik phonestelepon.
78
196000
2000
kita tidak akan terbujuk oleh ponsel yang cantik saja.
03:33
(LaughterTawa)
79
198000
2000
(Tertawa)
03:35
NextBerikutnya questionpertanyaan,
80
200000
2000
Selanjutnya,
03:37
a little bitsedikit harderlebih keras.
81
202000
2000
sedikit lebih sulit.
03:39
Should we be collectingmengumpulkan all of that guy'spria itu datadata
82
204000
2000
Apakah sebaiknya kita mengumpulkan data orang itu
03:41
to make his experiencespengalaman better
83
206000
2000
untuk membuat pengalamannya lebih baik
03:43
and to protectmelindungi ourselvesdiri in casekasus he's up to no good?
84
208000
3000
dan melindungi kita kalau ia berniat tidak baik?
03:46
Or should we leavemeninggalkan him alonesendirian?
85
211000
2000
Atau membiarkannya?
03:48
CollectMengumpulkan his datadata.
86
213000
3000
Kumpulkan datanya.
03:53
LeaveMeninggalkan him alonesendirian.
87
218000
3000
Biarkan saja.
03:56
You're safeaman. It's fine.
88
221000
2000
Anda aman. Tidak apa-apa.
03:58
(LaughterTawa)
89
223000
2000
(Tertawa)
04:00
Okay, last questionpertanyaan --
90
225000
2000
Baiklah, pertanyaan terakhir --
04:02
harderlebih keras questionpertanyaan --
91
227000
2000
yang lebih sulit --
04:04
when tryingmencoba to evaluateevaluasi
92
229000
3000
saat mencoba mengevaluasi
04:07
what we should do in this casekasus,
93
232000
3000
apa yang sebaiknya kita lakukan,
04:10
should we use a KantianKantian deontologicaldeontological moralmoral frameworkkerangka,
94
235000
4000
apakah sebaiknya kita menggunakan kerangka moral deontologis Kant
04:14
or should we use a MillianMillian consequentialistconsequentialist one?
95
239000
3000
atau konsekuensialis Mill?
04:19
KantKant.
96
244000
3000
Kant.
04:22
MillMill.
97
247000
3000
Mill.
04:25
Not as manybanyak votessuara.
98
250000
2000
Tidak banyak yang memilih.
04:27
(LaughterTawa)
99
252000
3000
(Tertawa)
04:30
Yeah, that's a terrifyingmengerikan resulthasil.
100
255000
3000
Ya, itu hasil yang mengerikan.
04:34
TerrifyingMengerikan, because we have strongerlebih kuat opinionspendapat
101
259000
4000
Mengerikan, karena kita punya pendapat yang lebih kuat
04:38
about our hand-heldgenggam devicesperangkat
102
263000
2000
mengenai ponsel kita
04:40
than about the moralmoral frameworkkerangka
103
265000
2000
dibandingkan dengan kerangka moral
04:42
we should use to guidepanduan our decisionskeputusan.
104
267000
2000
yang sebaiknya kita gunakan untuk memandu keputusan kita.
04:44
How do we know what to do with all the powerkekuasaan we have
105
269000
3000
Bagaimana kita tahu apa yang harus dilakukan dengan kekuatan yang kita punya
04:47
if we don't have a moralmoral frameworkkerangka?
106
272000
3000
kalau kita tidak punya kerangka moral?
04:50
We know more about mobilemobile operatingoperasi systemssistem,
107
275000
3000
Kita tahu banyak mengenai sistem operasi bergerak,
04:53
but what we really need is a moralmoral operatingoperasi systemsistem.
108
278000
3000
tapi yang lebih kita butuhkan adalah sistem operasi moral.
04:58
What's a moralmoral operatingoperasi systemsistem?
109
283000
2000
Apakah sistem operasi moral itu?
05:00
We all know right and wrongsalah, right?
110
285000
2000
Kita semua tahu hal yang benar dan hal yang salah, bukan?
05:02
You feel good when you do something right,
111
287000
2000
Anda merasa senang kalau melakukan sesuatu yang benar,
05:04
you feel badburuk when you do something wrongsalah.
112
289000
2000
Anda merasa tidak enak kalau melakukan sesuatu yang salah.
05:06
Our parentsorangtua teachmengajar us that: praisememuji with the good, scoldmemarahi with the badburuk.
113
291000
3000
Orang tua kita mengajarkan: Memuji yang benar, menegur yang salah.
05:09
But how do we figureangka out what's right and wrongsalah?
114
294000
3000
Bagaimana kita menentukan mana yang benar dan salah?
05:12
And from day to day, we have the techniquesteknik that we use.
115
297000
3000
Dari hari ke hari, kita memiliki teknik yang kita gunakan.
05:15
Maybe we just followmengikuti our gutusus.
116
300000
3000
Mungkin kita hanya akan mengikuti insting kita saja.
05:18
Maybe we take a votememilih -- we crowdsourcecrowdsource.
117
303000
3000
Mungkin kita mengambil suara -- kita melakukan voting.
05:21
Or maybe we puntmenyepak bola --
118
306000
2000
Mungkin kita menebak –
05:23
askmeminta the legalhukum departmentdepartemen, see what they say.
119
308000
3000
tanya bagian hukum, apa pendapat mereka.
05:26
In other wordskata-kata, it's kindjenis of randomacak,
120
311000
2000
Dengan kata lain, cara kita adalah acak
05:28
kindjenis of adiklan hocKepala Kanselerai,
121
313000
2000
dan ad hoc.
05:30
how we figureangka out what we should do.
122
315000
3000
bagaimana kita menentukan apa yang harus kita lakukan.
05:33
And maybe, if we want to be on surerlebih pasti footingpijakan,
123
318000
3000
Mungkin bila kita ingin lebih pasti,
05:36
what we really want is a moralmoral frameworkkerangka that will help guidepanduan us there,
124
321000
3000
apa yang kita inginkan adalah kerangka moral yang membimbing kita,
05:39
that will tell us what kindsmacam of things are right and wrongsalah in the first placetempat,
125
324000
3000
yang akan memberitahu kita mana yang benar dan mana yang salah,
05:42
and how would we know in a givendiberikan situationsituasi what to do.
126
327000
4000
dan bagaimana kita menentukan bila situasinya tiba.
05:46
So let's get a moralmoral frameworkkerangka.
127
331000
2000
Mari kita menentukan kerangka moral.
05:48
We're numbersangka people, livinghidup by numbersangka.
128
333000
3000
Kita adalah masyarakat angka, hidup dengan angka.
05:51
How can we use numbersangka
129
336000
2000
Dapatkah kita menggunakan angka
05:53
as the basisdasar for a moralmoral frameworkkerangka?
130
338000
3000
sebagai landasan dari kerangka moral?
05:56
I know a guy who did exactlypersis that.
131
341000
3000
Saya tahu orang yang melakukannya,
05:59
A brilliantcemerlang guy --
132
344000
3000
orang yang pintar --
06:02
he's been deadmati 2,500 yearstahun.
133
347000
3000
ia sudah meninggal 2500 tahun yang lalu.
06:05
PlatoPlato, that's right.
134
350000
2000
Plato, ya benar.
06:07
RememberIngat him -- oldtua philosopherfilsuf?
135
352000
2000
Ingatkah tentang dia - ahli filsafat kuno?
06:09
You were sleepingtidur duringselama that classkelas.
136
354000
3000
Mungkin Anda tertidur di kelas saat guru Anda menerangkan hal ini.
06:12
And PlatoPlato, he had a lot of the samesama concernskeprihatinan that we did.
137
357000
2000
Plato mengkhawatirkan hal yang sama.
06:14
He was worriedcemas about right and wrongsalah.
138
359000
2000
Ia khawatir terhadap hal yang benar dan salah.
06:16
He wanted to know what is just.
139
361000
2000
Ia ingin tahu apa itu keadilan.
06:18
But he was worriedcemas that all we seemterlihat to be doing
140
363000
2000
Namun ia khawatir apa yang kita lakukan
06:20
is tradingperdagangan opinionspendapat about this.
141
365000
2000
hanyalah bertukar pikiran mengenai hal ini.
06:22
He saysmengatakan something'sada sesuatu just. She saysmengatakan something elselain is just.
142
367000
3000
Ia bilang sesuatu itu adil. Menurutnya itu hal yang lain.
06:25
It's kindjenis of convincingmeyakinkan when he talkspembicaraan and when she talkspembicaraan too.
143
370000
2000
Sangat meyakinkan ketika ia dan ia berbicara.
06:27
I'm just going back and forthsebagainya; I'm not gettingmendapatkan anywheredimana saja.
144
372000
2000
Saya hanya mondar mandir; Saya tidak mencapai kesimpulan apapun.
06:29
I don't want opinionspendapat; I want knowledgepengetahuan.
145
374000
3000
Saya tidak ingin pendapat, saya ingin pengetahuan.
06:32
I want to know the truthkebenaran about justicekeadilan --
146
377000
3000
Saya ingin tahu mengenai keadilan --
06:35
like we have truthskebenaran in mathmatematika.
147
380000
3000
seperti kita mengenal matematika.
06:38
In mathmatematika, we know the objectiveobjektif factsfakta.
148
383000
3000
Dalam matematika, kita mengenal fakta objektif.
06:41
Take a numberjumlah, any numberjumlah -- two.
149
386000
2000
Pilihlah satu angka, angka apa saja – dua.
06:43
FavoriteFavorit numberjumlah. I love that numberjumlah.
150
388000
2000
Angka kesukaanku. Saya suka angka itu.
06:45
There are truthskebenaran about two.
151
390000
2000
Ada kebenaran mengenai angka dua.
06:47
If you've got two of something,
152
392000
2000
Kalau Anda punya dua sesuatu,
06:49
you addmenambahkan two more, you get fourempat.
153
394000
2000
lalu Anda tambahkan dua lagi, Anda akan memperoleh empat.
06:51
That's truebenar no mattermasalah what thing you're talkingpembicaraan about.
154
396000
2000
Itu benar, tidak peduli apapun yang sedang Anda bicarakan.
06:53
It's an objectiveobjektif truthkebenaran about the formbentuk of two,
155
398000
2000
Ada kebenaran yang objektif mengenai bentuk dari angka dua,
06:55
the abstractabstrak formbentuk.
156
400000
2000
dari bentuk abstraknya.
06:57
When you have two of anything -- two eyesmata, two earstelinga, two noseshidung,
157
402000
2000
Kalau Anda punya dua semuanya – dua mata, dua telinga, dua hidung,
06:59
just two protrusionstonjolan --
158
404000
2000
hanya dua tonjolan –
07:01
those all partakemengambil bagian of the formbentuk of two.
159
406000
3000
semua itu adalah bentuk dari dua.
07:04
They all participateikut in the truthskebenaran that two has.
160
409000
4000
Mereka memiliki kebenaran yang sama dengan dua.
07:08
They all have two-nessdua-ness in them.
161
413000
2000
Mereka memiliki ke-”dua”-an di dalam mereka.
07:10
And thereforekarena itu, it's not a mattermasalah of opinionpendapat.
162
415000
3000
Karena itu, hal ini tidak terkait dengan pendapat.
07:13
What if, PlatoPlato thought,
163
418000
2000
Plato berpikir,
07:15
ethicsEtika was like mathmatematika?
164
420000
2000
bagaimana bila etika itu seperti matematika?
07:17
What if there were a puremurni formbentuk of justicekeadilan?
165
422000
3000
Bagaimana bila ada bentuk murni dari keadilan?
07:20
What if there are truthskebenaran about justicekeadilan,
166
425000
2000
Bagaimana bila ada kebenaran mengenai keadilan,
07:22
and you could just look around in this worlddunia
167
427000
2000
dan Anda dapat melihat dunia
07:24
and see whichyang things participatedberpartisipasi,
168
429000
2000
dan langsung tahu mana
07:26
partookmengambil bagian of that formbentuk of justicekeadilan?
169
431000
3000
yang memiliki nilai keadilan tersebut?
07:29
Then you would know what was really just and what wasn'ttidak.
170
434000
3000
Anda akan tahu mana yang adil dan mana yang tidak.
07:32
It wouldn'ttidak akan be a mattermasalah
171
437000
2000
Ini tidak lagi menjadi masalah pendapat
07:34
of just opinionpendapat or just appearancespenampilan.
172
439000
3000
dan penampilan.
07:37
That's a stunningmenakjubkan visionpenglihatan.
173
442000
2000
Itu adalah impian yang hebat.
07:39
I mean, think about that. How grandagung. How ambitiousambisius.
174
444000
3000
Bayangkanlah. Betapa mulianya. Betapa ambisiusnya.
07:42
That's as ambitiousambisius as we are.
175
447000
2000
Ia seambisius kita.
07:44
He wants to solvememecahkan ethicsEtika.
176
449000
2000
Ia ingin memecahkan etika.
07:46
He wants objectiveobjektif truthskebenaran.
177
451000
2000
Ia ingin kebenaran yang objektif.
07:48
If you think that way,
178
453000
3000
Kalau Anda berpikir seperti itu,
07:51
you have a PlatonistPlatonist moralmoral frameworkkerangka.
179
456000
3000
Anda memiliki kerangka moral Platonis.
07:54
If you don't think that way,
180
459000
2000
Bila Anda tidak berpikir seperti itu,
07:56
well, you have a lot of companyperusahaan in the historysejarah of WesternBarat philosophyfilsafat,
181
461000
2000
banyak yang seperti Anda di sejarah Filsafat Barat,
07:58
because the tidyrapi ideaide, you know, people criticizeddikritik it.
182
463000
3000
karena banyak yang mengkritik ide rapi itu.
08:01
AristotleAristoteles, in particulartertentu, he was not amusedgeli.
183
466000
3000
Terutama Aristoteles. Ia tidak suka pada ide itu.
08:04
He thought it was impracticaltidak praktis.
184
469000
3000
Menurutnya ide itu tidak praktis.
08:07
AristotleAristoteles said, "We should seekmencari only so much precisionpresisi in eachsetiap subjectsubyek
185
472000
4000
Aristoteles berkata, “Kita sebaiknya hanya mencari presisi dari setiap subjek
08:11
as that subjectsubyek allowsmemungkinkan."
186
476000
2000
sejauh kemampuan subjek tersebut.”
08:13
AristotleAristoteles thought ethicsEtika wasn'ttidak a lot like mathmatematika.
187
478000
3000
Menurut Aristoteles, etika tidak seperti matematika.
08:16
He thought ethicsEtika was a mattermasalah of makingmembuat decisionskeputusan in the here-and-nowsini-dan-sekarang
188
481000
3000
Menurutnya etika adalah pengambilan keputusan pada saat ini
08:19
usingmenggunakan our bestterbaik judgmentpertimbangan
189
484000
2000
menggunakan pertimbangan terbaik kita pada saat itu
08:21
to find the right pathjalan.
190
486000
2000
dalam mencari jalan yang benar.
08:23
If you think that, Plato'sPlato not your guy.
191
488000
2000
Bila Anda setuju dengan cara itu, Anda tidak sependapat dengan Plato.
08:25
But don't give up.
192
490000
2000
Jangan menyerah.
08:27
Maybe there's anotherlain way
193
492000
2000
Mungkin ada cara lain
08:29
that we can use numbersangka as the basisdasar of our moralmoral frameworkkerangka.
194
494000
3000
untuk kita menggunakan angka sebagai landasan dari kerangka moral kita.
08:33
How about this:
195
498000
2000
Bagaimana dengan ini:
08:35
What if in any situationsituasi you could just calculatemenghitung,
196
500000
3000
Bagaimana bila dalam situasi apapun Anda dapat melakukan perhitungan,
08:38
look at the choicespilihan,
197
503000
2000
melihat pilihan,
08:40
measuremengukur out whichyang one'ssatu better and know what to do?
198
505000
3000
mempertimbangkan mana yang baik dan tahu apa yang harus dilakukan?
08:43
That soundsuara familiarakrab?
199
508000
2000
Apakah itu terdengar lazim?
08:45
That's a utilitarianutilitarian moralmoral frameworkkerangka.
200
510000
3000
Itu adalah kerangka moral utilitarian.
08:48
JohnJohn StuartStuart MillMill was a great advocatemenganjurkan of this --
201
513000
2000
John Stuart Mill adalah pendukung gagasan itu –
08:50
nicebagus guy besidesselain --
202
515000
2000
orang yang baik –
08:52
and only been deadmati 200 yearstahun.
203
517000
2000
baru meninggal 200 tahun yang lalu.
08:54
So basisdasar of utilitarianismutilitarianisme --
204
519000
2000
Jadi landasan dari utilitarianime –
08:56
I'm sure you're familiarakrab at leastpaling sedikit.
205
521000
2000
saya yakin Anda sudah tahu.
08:58
The threetiga people who votedmemilih for MillMill before are familiarakrab with this.
206
523000
2000
Tiga orang yang memilih Mill sebelumnya lazim dengan hal ini.
09:00
But here'sini the way it worksbekerja.
207
525000
2000
Begini caranya.
09:02
What if moralsmoral, what if what makesmembuat something moralmoral
208
527000
3000
Bagaimana bila moral, bagaimana bila penentu yang hal bermoral
09:05
is just a mattermasalah of if it maximizesmemaksimalkan pleasurekesenangan
209
530000
2000
adalah sesuatu yang bersifat memaksimalkan kesenangan
09:07
and minimizesmeminimalkan painrasa sakit?
210
532000
2000
dan meminimalkan penderitaan?
09:09
It does something intrinsicintrinsik to the actbertindak.
211
534000
3000
Ini menyebabkan sesuatu yang intrinsik terhadap perbuatan itu.
09:12
It's not like its relationhubungan to some abstractabstrak formbentuk.
212
537000
2000
Ini tidak seperti hubungannya dengan bentuk abstrak tertentu.
09:14
It's just a mattermasalah of the consequenceskonsekuensi.
213
539000
2000
Ini hanyalah masalah konsekuensi.
09:16
You just look at the consequenceskonsekuensi
214
541000
2000
Anda hanya melihat konsekuensinya saja,
09:18
and see if, overallsecara keseluruhan, it's for the good or for the worselebih buruk.
215
543000
2000
apakah secara keseluruhan ia baik atau buruk.
09:20
That would be simplesederhana. Then we know what to do.
216
545000
2000
Ini lebih mudah. Dengan demikian kita tahu apa yang harus dilakukan.
09:22
Let's take an examplecontoh.
217
547000
2000
Mari ambil contoh.
09:24
SupposeMisalkan I go up
218
549000
2000
Misalnya saya berkata,
09:26
and I say, "I'm going to take your phonetelepon."
219
551000
2000
"Saya akan mengambil ponselmu."
09:28
Not just because it rangberdering earliersebelumnya,
220
553000
2000
Bukan karena ponsel itu berbunyi,
09:30
but I'm going to take it because I madeterbuat a little calculationperhitungan.
221
555000
3000
tapi karena saya sudah membuat sedikit perhitungan.
09:33
I thought, that guy looksterlihat suspiciousmencurigakan.
222
558000
3000
Saya kira Anda terlihat mencurigakan.
09:36
And what if he's been sendingpengiriman little messagespesan to BinBin Laden'sSarat 's hideouttempat persembunyian --
223
561000
3000
Bagaimana jika ia sudah mengirim SMS ke persembunyian Bin Laden,
09:39
or whoeversiapapun tookmengambil over after BinBin LadenSarat --
224
564000
2000
atau siapapun penerusnya,
09:41
and he's actuallysebenarnya like a terroristteroris, a sleepertidur cellsel.
225
566000
3000
dan ternyata ia teroris, mata-mata kelompok rahasia.
09:44
I'm going to find that out, and when I find that out,
226
569000
3000
Saya akan cari tahu, dan bila saya tahu,
09:47
I'm going to preventmencegah a hugebesar amountjumlah of damagekerusakan that he could causesebab.
227
572000
3000
saya akan mencegah kerusakan yang dapat diakibatkannya.
09:50
That has a very hightinggi utilityutilitas to preventmencegah that damagekerusakan.
228
575000
3000
Hal itu memiliki nilai yang tinggi untuk mencegah kerusakan.
09:53
And compareddibandingkan to the little painrasa sakit that it's going to causesebab --
229
578000
2000
Dibandingkan dengan sedikit kesakitan yang akan terjadi --
09:55
because it's going to be embarrassingmemalukan when I'm looking on his phonetelepon
230
580000
2000
karena memalukan ketika saya melihat ponselnya
09:57
and seeingmelihat that he has a FarmvilleFarmville problemmasalah and that wholeseluruh bitsedikit --
231
582000
3000
dan ternyata ia ketagihan Farmville dan sejenisnya,
10:00
that's overwhelmedkewalahan
232
585000
3000
itu tidak sebanding
10:03
by the valuenilai of looking at the phonetelepon.
233
588000
2000
dengan nilai dari melihat ponselnya.
10:05
If you feel that way,
234
590000
2000
Bila Anda berpendapat seperti itu,
10:07
that's a utilitarianutilitarian choicepilihan.
235
592000
3000
itu adalah pilihan utilitarian.
10:10
But maybe you don't feel that way eitherantara.
236
595000
3000
Namun mungkin Anda juga tidak berpendapat demikian.
10:13
Maybe you think, it's his phonetelepon.
237
598000
2000
Mungkin menurut Anda itu adalah ponselnya.
10:15
It's wrongsalah to take his phonetelepon
238
600000
2000
Mengambil ponselnya adalah tindakan yang salah
10:17
because he's a personorang
239
602000
2000
karena ia adalah manusia
10:19
and he has rightshak and he has dignitymartabat,
240
604000
2000
dengan hak dan harga diri,
10:21
and we can't just interferemengganggu with that.
241
606000
2000
kita tidak dapat mengganggu hal itu.
10:23
He has autonomyotonomi.
242
608000
2000
Ia punya otonomi.
10:25
It doesn't mattermasalah what the calculationsperhitungan are.
243
610000
2000
Tidak peduli apapun perhitungannya.
10:27
There are things that are intrinsicallysecara intrinsik wrongsalah --
244
612000
3000
Ada banyak yang hal yang salah secara intrinsik --
10:30
like lyingbohong is wrongsalah,
245
615000
2000
seperti berbohong adalah salah,
10:32
like torturingmenyiksa innocenttidak bersalah childrenanak-anak is wrongsalah.
246
617000
3000
menganiaya anak kecil adalah salah.
10:35
KantKant was very good on this pointtitik,
247
620000
3000
Kant sangat bagus menerangkan hal ini,
10:38
and he said it a little better than I'll say it.
248
623000
2000
lebih baik dariku.
10:40
He said we should use our reasonalasan
249
625000
2000
Katanya kita harus menggunakan akal
10:42
to figureangka out the rulesaturan by whichyang we should guidepanduan our conductperilaku,
250
627000
3000
untuk mencari peraturan yang mengatur tindakan kita.
10:45
and then it is our dutytugas to followmengikuti those rulesaturan.
251
630000
3000
Juga, ini adalah tugas kita untuk mengikuti peraturannya.
10:48
It's not a mattermasalah of calculationperhitungan.
252
633000
3000
Ini bukan perkara perhitungan.
10:51
So let's stop.
253
636000
2000
Jadi sudahlah.
10:53
We're right in the thicktebal of it, this philosophicalfilosofis thicketRumpun.
254
638000
3000
Kita berada di tengah-tengahnya.
10:56
And this goespergi on for thousandsribuan of yearstahun,
255
641000
3000
Ini berlangsung selama ribuan tahun.
10:59
because these are hardkeras questionspertanyaan,
256
644000
2000
Karena ini adalah pertanyaan yang sulit
11:01
and I've only got 15 minutesmenit.
257
646000
2000
dan saya hanya punya 15 menit.
11:03
So let's cutmemotong to the chasemengejar.
258
648000
2000
Mari langsung saja.
11:05
How should we be makingmembuat our decisionskeputusan?
259
650000
4000
Bagaimana seharusnya kita mengambil keputusan?
11:09
Is it PlatoPlato, is it AristotleAristoteles, is it KantKant, is it MillMill?
260
654000
3000
Apakah dengan Plato, Aristoteles, Kant, Mill?
11:12
What should we be doing? What's the answermenjawab?
261
657000
2000
Apa yang seharusnya kita lakukan? Apakah jawabannya?
11:14
What's the formularumus that we can use in any situationsituasi
262
659000
3000
Apakah rumus yang dapat kita gunakan dalam situasi apapun
11:17
to determinemenentukan what we should do,
263
662000
2000
untuk menentukan apa yang harus kita lakukan,
11:19
whetherapakah we should use that guy'spria itu datadata or not?
264
664000
2000
apakah kita sebaiknya menggunakan data orang itu atau tidak?
11:21
What's the formularumus?
265
666000
3000
Apakah rumusnya?
11:25
There's not a formularumus.
266
670000
2000
Tidak ada rumusnya.
11:29
There's not a simplesederhana answermenjawab.
267
674000
2000
Tidak ada jawaban yang sederhana.
11:31
EthicsEtika is hardkeras.
268
676000
3000
Etika itu sulit
11:34
EthicsEtika requiresmembutuhkan thinkingberpikir.
269
679000
3000
Etika memerlukan pemikiran.
11:38
And that's uncomfortabletidak nyaman.
270
683000
2000
Dan itu tidak nyaman.
11:40
I know; I spentmenghabiskan a lot of my careerkarier
271
685000
2000
Saya tahu: Saya menjalankan karir saya
11:42
in artificialbuatan intelligenceintelijen,
272
687000
2000
di bidang kecerdasan buatan,
11:44
tryingmencoba to buildmembangun machinesmesin that could do some of this thinkingberpikir for us,
273
689000
3000
mencoba membangun mesin yang dapat berpikir untuk kita,
11:47
that could give us answersjawaban.
274
692000
2000
yang dapat memberikan kita jawaban.
11:49
But they can't.
275
694000
2000
Tapi mereka tidak dapat melakukannya.
11:51
You can't just take humanmanusia thinkingberpikir
276
696000
2000
Anda tidak dapat memindahkan pemikiran manusia
11:53
and put it into a machinemesin.
277
698000
2000
ke dalam mesin.
11:55
We're the onesyang who have to do it.
278
700000
3000
Kita harus melakukan pemikiran itu sendiri.
11:58
HappilyBahagia, we're not machinesmesin, and we can do it.
279
703000
3000
Untungnya, kita bukan mesin dan kita dapat melakukannya.
12:01
Not only can we think,
280
706000
2000
Kita bukan hanya mampu berpikir,
12:03
we mustharus.
281
708000
2000
kita harus berpikir.
12:05
HannahHannah ArendtArendt said,
282
710000
2000
Hannah Arendt berkata,
12:07
"The sadsedih truthkebenaran
283
712000
2000
“Kebenaran yang menyedihkan
12:09
is that mostpaling eviljahat doneselesai in this worlddunia
284
714000
2000
adalah kebanyakan kejahatan yang terjadi di dunia ini
12:11
is not doneselesai by people
285
716000
2000
tidak dilakukan oleh orang
12:13
who choosememilih to be eviljahat.
286
718000
2000
yang berniat jahat.
12:15
It arisesmuncul from not thinkingberpikir."
287
720000
3000
Kejahatan muncul dari tidak berpikir.”
12:18
That's what she calledbernama the "banalitybanalitas of eviljahat."
288
723000
4000
Ia menyebutnya “kelumrahan dalam kejahatan.”
12:22
And the responsetanggapan to that
289
727000
2000
Respon terhadap hal itu
12:24
is that we demandpermintaan the exerciseolahraga of thinkingberpikir
290
729000
2000
adalah kita menginginkan pemikiran
12:26
from everysetiap sanewaras personorang.
291
731000
3000
dari setiap manusia yang waras.
12:29
So let's do that. Let's think.
292
734000
2000
Mari kita lakukan hal itu. Mari kita berpikir.
12:31
In factfakta, let's startmulai right now.
293
736000
3000
Mari mulai sekarang juga.
12:34
EverySetiap personorang in this roomkamar do this:
294
739000
3000
Untuk setiap orang di ruangan ini, mari kita lakukan hal ini:
12:37
think of the last time you had a decisionkeputusan to make
295
742000
3000
Pikirkan saat terakhir Anda harus memutuskan
12:40
where you were worriedcemas to do the right thing,
296
745000
2000
mana yang benar,
12:42
where you wonderedbertanya-tanya, "What should I be doing?"
297
747000
2000
saat Anda bertanya, “Apa yang harus saya lakukan?"
12:44
BringMembawa that to mindpikiran,
298
749000
2000
Pikirkan kembali saat itu.
12:46
and now reflectmencerminkan on that
299
751000
2000
Kini ingat kembali
12:48
and say, "How did I come up that decisionkeputusan?
300
753000
3000
dan katakan, “Kenapa saya bisa memutuskan hal tersebut?
12:51
What did I do? Did I followmengikuti my gutusus?
301
756000
3000
Apa yang saya lakukan? Apakah saya mengikuti insting?
12:54
Did I have somebodyseseorang votememilih on it? Or did I puntmenyepak bola to legalhukum?"
302
759000
2000
Apakah saya menyuruh seseorang untuk memilih? Apakah saya bertanya ke orang hukum?
12:56
Or now we have a fewbeberapa more choicespilihan.
303
761000
3000
Kini kita punya lebih banyak pilihan.
12:59
"Did I evaluateevaluasi what would be the highestpaling tinggi pleasurekesenangan
304
764000
2000
“Apakah saya mengevaluasi apa yang memberikan kesenangan tertinggi
13:01
like MillMill would?
305
766000
2000
seperti Mill?
13:03
Or like KantKant, did I use reasonalasan to figureangka out what was intrinsicallysecara intrinsik right?"
306
768000
3000
Atau seperti Kant, apakah saya menggunakan logika untuk mencari apa yang secara intrinsik adalah benar?"
13:06
Think about it. Really bringmembawa it to mindpikiran. This is importantpenting.
307
771000
3000
Pikirkan hal itu. Pikirkan dengan baik. Ini penting.
13:09
It is so importantpenting
308
774000
2000
Ini sangat penting
13:11
we are going to spendmenghabiskan 30 secondsdetik of valuableberharga TEDTalkTEDTalk time
309
776000
2000
hingga kita akan menghabiskan waktu 30 detik dari waktu TEDTalk yang berharga ini
13:13
doing nothing but thinkingberpikir about this.
310
778000
2000
untuk melakukan itu saja.
13:15
Are you readysiap? Go.
311
780000
2000
Anda siap? Mulai.
13:33
Stop. Good work.
312
798000
3000
Berhenti. Bagus.
13:36
What you just did,
313
801000
2000
Apa yang Anda lakukan barusan,
13:38
that's the first steplangkah towardsmenuju takingpengambilan responsibilitytanggung jawab
314
803000
2000
itu adalah langkah pertama dalam mengambil tanggung jawab
13:40
for what we should do with all of our powerkekuasaan.
315
805000
3000
terhadap apa yang kita miliki dengan kekuatan kita.
13:45
Now the nextberikutnya steplangkah -- try this.
316
810000
3000
Kini langkah selanjutnya – coba ini.
13:49
Go find a friendteman and explainmenjelaskan to them
317
814000
2000
Carilah teman dan terangkan pada mereka
13:51
how you madeterbuat that decisionkeputusan.
318
816000
2000
bagaimana proses Anda mengambil keputusan tersebut.
13:53
Not right now. Wait tillsampai I finishselesai talkingpembicaraan.
319
818000
2000
Tidak usah sekarang. Tunggu hingga saya selesai berbicara.
13:55
Do it over lunchmakan siang.
320
820000
2000
Lakukan saat makan siang.
13:57
And don't just find anotherlain technologistteknolog friendteman;
321
822000
3000
Jangan mencari teman tekonolog lainnya;
14:00
find somebodyseseorang differentberbeda than you.
322
825000
2000
carilah seseorang yang berbeda darimu.
14:02
Find an artistartis or a writerpenulis --
323
827000
2000
Carilah seniman atau penulis --
14:04
or, heavensurga forbidmelarang, find a philosopherfilsuf and talk to them.
324
829000
3000
atau, amit-amit, carilah seorang filsuf dan berbicara pada mereka.
14:07
In factfakta, find somebodyseseorang from the humanitiessastra.
325
832000
2000
Carilah seseorang dari gerakan kemanusiaan.
14:09
Why? Because they think about problemsmasalah
326
834000
2000
Mengapa? Karena mereka memikirkan masalah
14:11
differentlyberbeda than we do as technologiststeknologi.
327
836000
2000
secara berbeda dengan kita sebagai teknolog.
14:13
Just a fewbeberapa dayshari agolalu, right acrossmenyeberang the streetjalan from here,
328
838000
3000
Beberapa hari yang lalu, di seberang jalan dari sini,
14:16
there was hundredsratusan of people gatheredberkumpul togetherbersama.
329
841000
2000
ada beberapa ratus orang berkumpul.
14:18
It was technologiststeknologi and humanistsbudayawan
330
843000
2000
Itu adalah teknolog dan humanis
14:20
at that bigbesar BiblioTechBiblioTech ConferenceKonferensi.
331
845000
2000
dari BiblioTech Conference.
14:22
And they gatheredberkumpul togetherbersama
332
847000
2000
Mereka berkumpul
14:24
because the technologiststeknologi wanted to learnbelajar
333
849000
2000
karena teknolog ingin belajar
14:26
what it would be like to think from a humanitiessastra perspectiveperspektif.
334
851000
3000
cara berpikir melalui perspektif seorang humanis.
14:29
You have someonesome one from GoogleGoogle
335
854000
2000
Ada perwakilan dari Google
14:31
talkingpembicaraan to someonesome one who does comparativeperbandingan literatureliteratur.
336
856000
2000
yang akan melakukan studi banding.
14:33
You're thinkingberpikir about the relevancerelevansi of 17thth centuryabad FrenchPrancis theaterteater --
337
858000
3000
Anda berpikir mengenai relevasi dari teater Prancis di abad ke-17 --
14:36
how does that bearberuang uponatas ventureusaha capitalmodal?
338
861000
2000
bagaimana pengaruhnya terhadap modal ventura?
14:38
Well that's interestingmenarik. That's a differentberbeda way of thinkingberpikir.
339
863000
3000
Itu menarik. Itu adalah cara berpikir yang berbeda.
14:41
And when you think in that way,
340
866000
2000
Ketika Anda berpikir dengan cara itu,
14:43
you becomemenjadi more sensitivepeka to the humanmanusia considerationspertimbangan,
341
868000
3000
Anda menjadi lebih sensitif terhadap pertimbangan manusia,
14:46
whichyang are crucialsangat penting to makingmembuat ethicaletis decisionskeputusan.
342
871000
3000
yang sangat penting dalam mengambil keputusan yang etis.
14:49
So imaginemembayangkan that right now
343
874000
2000
Bayangkan saat ini Anda pergi
14:51
you wentpergi and you foundditemukan your musicianpemusik friendteman.
344
876000
2000
dan Anda sudah menemukan teman musisi Anda.
14:53
And you're tellingpemberitaan him what we're talkingpembicaraan about,
345
878000
3000
Anda ceritakan padanya apa yang kita bicarakan sekarang,
14:56
about our wholeseluruh datadata revolutionrevolusi and all this --
346
881000
2000
mengenai revolusi data kita dan semua ini –
14:58
maybe even humHum a fewbeberapa barsbar of our themetema musicmusik.
347
883000
2000
mungkin Anda nyanyikan beberapa bar dari musik tema kita.
15:00
DumDum taTa dada dada dumdum dumdum taTa dada dada dumdum
348
885000
3000
♫ Dum ta da da dum dum ta da da dum ♫
15:03
Well, your musicianpemusik friendteman will stop you and say,
349
888000
2000
Teman musisi Anda akan menyela dan berkata,
15:05
"You know, the themetema musicmusik
350
890000
2000
"Musik tema
15:07
for your datadata revolutionrevolusi,
351
892000
2000
untuk revolusi datamu,
15:09
that's an operaopera, that's WagnerWagner.
352
894000
2000
itu opera, itu Wagner.
15:11
It's basedberbasis on NorseNorse legendlegenda.
353
896000
2000
Itu diambil berdasarkan legenda Norwegia.
15:13
It's GodsDewa and mythicalmitos creaturesmakhluk
354
898000
2000
Itu mengenai para dewa dan makhluk mitos
15:15
fightingberjuang over magicalgaib jewelryperhiasan."
355
900000
3000
yang memperebutkan perhiasan gaib.”
15:19
That's interestingmenarik.
356
904000
3000
Itu menarik.
15:22
Now it's alsojuga a beautifulindah operaopera,
357
907000
3000
Itu adalah opera yang menarik.
15:25
and we're movedterharu by that operaopera.
358
910000
3000
Dan kita terharu terharu dengan opera itu.
15:28
We're movedterharu because it's about the battlepertarungan
359
913000
2000
Kita terharu karena ada pertempuran
15:30
betweenantara good and eviljahat,
360
915000
2000
antara baik dan jahat,
15:32
about right and wrongsalah.
361
917000
2000
antara benar dan salah.
15:34
And we carepeduli about right and wrongsalah.
362
919000
2000
Dan kita peduli terhadap benar dan salah.
15:36
We carepeduli what happensterjadi in that operaopera.
363
921000
3000
Kita peduli tentang apa yang terjadi di opera itu.
15:39
We carepeduli what happensterjadi in "ApocalypseWahyu Now."
364
924000
3000
Kita peduli dengan apa yang terjadi di "Apocalypse Now."
15:42
And we certainlypasti carepeduli
365
927000
2000
Kita peduli
15:44
what happensterjadi with our technologiesteknologi.
366
929000
2000
dengan apa yang terjadi dengan teknologi kita.
15:46
We have so much powerkekuasaan todayhari ini,
367
931000
2000
Kita punya banyak kekuatan saat ini,
15:48
it is up to us to figureangka out what to do,
368
933000
3000
apa yang akan dilakukan dengan kekuatan itu tergantung pada kita.
15:51
and that's the good newsberita.
369
936000
2000
Itu adalah berita baiknya.
15:53
We're the onesyang writingpenulisan this operaopera.
370
938000
3000
Kita yang menulis opera ini.
15:56
This is our moviefilm.
371
941000
2000
Ini adalah film kita.
15:58
We figureangka out what will happenterjadi with this technologyteknologi.
372
943000
3000
Kita akan menentukan apa yang akan terjadi dengan teknologi kita.
16:01
We determinemenentukan how this will all endakhir.
373
946000
3000
Kita yang menentukan akhir dari semua ini.
16:04
Thank you.
374
949000
2000
Terima kasih.
16:06
(ApplauseTepuk tangan)
375
951000
5000
(Tepuk tangan)
Translated by Teddy Budiwan
Reviewed by Anggriawan Sugianto

▲Back to top

ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com