ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com
TEDxSiliconValley

Damon Horowitz: We need a "moral operating system"

Dejmon Horovic (Damon Horowitz): Potreban nam je "moralni operativni sistem"

Filmed:
795,617 views

Na TEDxSilliconValley, Dejmon Horovic razmatra ogromne nove moći koje nam tehnologija daje: da znamo više - i više jedni o drugima - nego ikada ranije. Uvlačeći publiku u filozofsku diskusiju, Horovic nas poziva da posvetimo iznova pažnju osnovama filozofije - etičkim principima - pred naletom pronalazaka koji preoblikuju naš svet. Gde je moralni operativni sistem koji nam omogućuje da nađemo smisao u tome?
- Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities. Full bio

Double-click the English transcript below to play the video.

00:15
PowerNapajanje.
0
0
2000
Moć.
00:17
That is the wordреч that comesдолази to mindум.
1
2000
2000
To je reč koja pada na pamet.
00:19
We're the newново technologiststehnologa.
2
4000
2000
Mi smo novi tehnolozi.
00:21
We have a lot of dataподаци, so we have a lot of powerмоћ.
3
6000
3000
Imamo mnogo podataka,
stoga imamo mnogo moći.
00:24
How much powerмоћ do we have?
4
9000
2000
Koliko moći imamo?
00:26
SceneScena from a movieфилм: "ApocalypseApokalipsa Now" -- great movieфилм.
5
11000
3000
Scena iz filma "Apokalipsa danas"
- sjajnog filma.
00:29
We'veMoramo got to get our heroјунак, CaptainKapetan WillardWillard, to the mouthуста of the NungNang RiverReka
6
14000
3000
Moramo da dovedemo našeg heroja,
kapetana Vilarda, do ušća reke Nung
00:32
so he can go pursueгонити ColonelPukovnik KurtzKurtz.
7
17000
2000
kako bi krenuo u potragu
za pukovnikom Kercom.
00:34
The way we're going to do this is flyлети him in and dropкап him off.
8
19000
2000
Zato ćemo ga tamo
odvesti avionom i ostaviti ga.
00:36
So the sceneсцена:
9
21000
2000
Dakle, scena je:
00:38
the skyнебо is filledиспуњен with this fleetflota of helicoptersHelikopteri carryingношење him in.
10
23000
3000
nebo je ispunjeno flotom helikoptera
koji ga prenose.
00:41
And there's this loudгласно, thrillinguzbudljivo musicмузика in the backgroundбацкгроунд,
11
26000
2000
I tu je ta glasna,
uzbudljiva muzika u pozadini,
00:43
this wildдивље musicмузика.
12
28000
2000
ta divlja muzika.
00:45
DumDum daда taTa daда dumDum
13
30000
2000
♫ Dum da ta da dum ♫
00:47
DumDum daда taTa daда dumDum
14
32000
2000
♫ Dum da ta da dum ♫
00:49
DaTata taTa daда daда
15
34000
3000
♫ Da ta da da ♫
00:52
That's a lot of powerмоћ.
16
37000
2000
To je puno moći.
00:54
That's the kindкинд of powerмоћ I feel in this roomсоба.
17
39000
2000
To je moć kakvu osećam u ovoj prostoriji.
00:56
That's the kindкинд of powerмоћ we have
18
41000
2000
Takvu moć imamo
00:58
because of all of the dataподаци that we have.
19
43000
2000
zbog svih podataka koje posedujemo.
01:00
Let's take an exampleпример.
20
45000
2000
Uzmimo jedan primer.
01:02
What can we do
21
47000
2000
Šta možemo da uradimo
01:04
with just one person'sособа dataподаци?
22
49000
3000
sa podacima samo jedne osobe?
01:07
What can we do
23
52000
2000
Šta možemo da uradimo
sa podacima ovog tipa?
Mogu da pogledam
01:09
with that guy'sмомак dataподаци?
24
54000
2000
01:11
I can look at your financialфинансијски recordsзаписи.
25
56000
2000
vaše finansijsko stanje.
01:13
I can tell if you payплатите your billsрачуне on time.
26
58000
2000
Da vidim da li redovno plaćate račune.
01:15
I know if you're good to give a loanзајам to.
27
60000
2000
Znam da li ste pogodni
za davanje kredita.
01:17
I can look at your medicalмедицински recordsзаписи; I can see if your pumpпумпа is still pumpingпумпинг --
28
62000
3000
Da pogledam vaš medicinski karton -
da vidim da li
vaša pumpa još uvek pumpa -
01:20
see if you're good to offerпонуда insuranceосигурање to.
29
65000
3000
da li ste pogodni za ponudu osiguranja.
01:23
I can look at your clickingкликом patternsобрасци.
30
68000
2000
Mogu da vidim vaše obrasce kliktanja.
01:25
When you come to my websiteвеб сајт, I actuallyзаправо know what you're going to do alreadyвећ
31
70000
3000
Kad dođete na moj sajt,
zapravo već znam šta ćete uraditi
01:28
because I've seenвиђено you visitпосетите millionsмилиони of websitesвеб странице before.
32
73000
2000
jer sam već ranije video
kako posećujte milione sajtova.
01:30
And I'm sorry to tell you,
33
75000
2000
I žao mi je da vam to kažem,
01:32
you're like a pokerpoker playerплаиер, you have a tell.
34
77000
2000
odajete znake kao igrač pokera.
01:34
I can tell with dataподаци analysisанализа what you're going to do
35
79000
2000
Mogu da otkrijem analizom podataka
01:36
before you even do it.
36
81000
2000
šta ćete uraditi
pre nego što to i učinite.
01:38
I know what you like. I know who you are,
37
83000
3000
Znam šta volite. Znam ko ste,
i to čak i pre nego što pogledam
vašu poštu
01:41
and that's even before I look at your mailПошта
38
86000
2000
01:43
or your phoneтелефон.
39
88000
2000
ili vaš telefon.
01:45
Those are the kindsврсте of things we can do
40
90000
2000
Takve stvari možemo da uradimo
01:47
with the dataподаци that we have.
41
92000
3000
sa podacima koje imamo.
01:50
But I'm not actuallyзаправо here to talk about what we can do.
42
95000
3000
Ali ja u stvari nisam ovde
da bih govorio o tome šta možemo činiti.
01:56
I'm here to talk about what we should do.
43
101000
3000
Ovde sam da bih govorio o tome
šta bi trebalo da činimo.
02:00
What's the right thing to do?
44
105000
3000
Šta je prava stvar koju treba uraditi?
02:04
Now I see some puzzledzbunjen looksизглед
45
109000
2000
Vidim neke zbunjene poglede
02:06
like, "Why are you askingпитајући us what's the right thing to do?
46
111000
3000
u stilu: "Zašto nas pitaš
šta je prava stvar koju treba uraditi?
02:09
We're just buildingзграде this stuffствари. SomebodyNeko elseдруго is usingКористећи it."
47
114000
3000
Mi samo pravimo ove stvari.
Neko drugi ih koristi."
02:12
FairFer enoughдовољно.
48
117000
3000
Pošteno.
02:15
But it bringsдоноси me back.
49
120000
2000
Ali to me vraća unazad.
02:17
I think about WorldSvet WarRat IIII --
50
122000
2000
Razmišljam o Drugom svetskom ratu -
02:19
some of our great technologiststehnologa then,
51
124000
2000
nekim od tadašnjih velikih tehnologa,
02:21
some of our great physicistsфизичари,
52
126000
2000
o nekim velikim fizičarima
02:23
studyingстудирање nuclearнуклеарна fissionfisijske and fusionфузија --
53
128000
2000
koji su izučavali
nuklearnu fisiju i fuziju -
02:25
just nuclearнуклеарна stuffствари.
54
130000
2000
prosto nuklearne stvari.
02:27
We gatherскупити togetherзаједно these physicistsфизичари in LosLos AlamosAlamosa
55
132000
3000
Okupimo ove fizičare u Los Alamosu
02:30
to see what they'llони ће buildизградити.
56
135000
3000
da vidimo šta će stvoriti.
02:33
We want the people buildingзграде the technologyтехнологија
57
138000
3000
Želimo da ljudi koji grade tehnologiju
02:36
thinkingразмишљање about what we should be doing with the technologyтехнологија.
58
141000
3000
razmišljaju o tome
šta bi trebalo da radimo sa tehnologijom.
02:41
So what should we be doing with that guy'sмомак dataподаци?
59
146000
3000
Dakle, šta bi trebalo
da radimo sa podacima tog tipa?
02:44
Should we be collectingприкупљање it, gatheringокупљање it,
60
149000
3000
Treba li da ih sakupljamo,
grupišemo, da bismo mogli
02:47
so we can make his onlineонлине experienceискуство better?
61
152000
2000
da njegovo onlajn iskustvo
učinimo boljim?
02:49
So we can make moneyновац?
62
154000
2000
Da bismo mogli da zaradimo novac?
02:51
So we can protectзаштитити ourselvesсами
63
156000
2000
Da zaštitimo sebe
02:53
if he was up to no good?
64
158000
2000
ako bi on imao loše namere?
02:55
Or should we respectпоштовање his privacyprivatnost,
65
160000
3000
Ili bi trebalo da poštujemo
njegovu privatnost,
02:58
protectзаштитити his dignityдостојанство and leaveодлази him aloneсами?
66
163000
3000
štitimo njegovo dostojanstvo
i ostavimo ga na miru?
03:02
WhichŠto one is it?
67
167000
3000
Šta od toga?
03:05
How should we figureфигура it out?
68
170000
2000
Kako to da otkrijemo?
03:07
I know: crowdsourcecrowdsource. Let's crowdsourcecrowdsource this.
69
172000
3000
Znam: kraudsorsing.
Hajde da to uradimo.
Da se ljudi zagreju,
03:11
So to get people warmedzagrejala up,
70
176000
3000
počnimo sa lakim pitanjem -
03:14
let's startпочетак with an easyлако questionпитање --
71
179000
2000
nečim za šta sam siguran
da svi ovde imaju mišljenje o tome:
03:16
something I'm sure everybodyсвима here has an opinionмишљење about:
72
181000
3000
03:19
iPhoneiPhone versusнаспрам AndroidAndroid.
73
184000
2000
Ajfon naspram Androida.
03:21
Let's do a showсхов of handsруке -- iPhoneiPhone.
74
186000
3000
Hajdemo sa podizanjem ruku - Ajfon.
03:24
Uh huh.
75
189000
2000
Aha.
03:26
AndroidAndroid.
76
191000
3000
Android.
03:29
You'dTi bi think with a bunchгомилу of smartпаметан people
77
194000
2000
Čovek bi pomislio da gomila pametnih ljudi
03:31
we wouldn'tне би be suchтаква suckersbudale just for the prettyприлично phonesтелефони.
78
196000
2000
ne bi bili takve naivčine
po pitanju lepih telefona.
03:33
(LaughterSmeh)
79
198000
2000
(Smeh)
03:35
NextSledeći questionпитање,
80
200000
2000
Sledeće pitanje,
03:37
a little bitмало harderтеже.
81
202000
2000
malo teže.
03:39
Should we be collectingприкупљање all of that guy'sмомак dataподаци
82
204000
2000
Da li bi trebalo da sakupljamo
sve podatke tog tipa
03:41
to make his experiencesискуства better
83
206000
2000
da bismo učinili njegovo iskustvo boljim
03:43
and to protectзаштитити ourselvesсами in caseслучај he's up to no good?
84
208000
3000
i zaštitili sebe u slučaju da
on sprema nešto loše?
03:46
Or should we leaveодлази him aloneсами?
85
211000
2000
Ili treba da ga ostavimo na miru?
03:48
CollectPrikupljanje his dataподаци.
86
213000
3000
Sakupljati njegove podatke.
03:53
LeaveOstavi him aloneсами.
87
218000
3000
Ostaviti ga na miru.
03:56
You're safeсигурно. It's fine.
88
221000
2000
Bezbedni ste. U redu je.
03:58
(LaughterSmeh)
89
223000
2000
(Smeh)
04:00
Okay, last questionпитање --
90
225000
2000
Okej, poslednje pitanje -
04:02
harderтеже questionпитање --
91
227000
2000
teže pitanje -
04:04
when tryingпокушавајући to evaluateпроценити
92
229000
3000
kada pokušavamo da procenimo
04:07
what we should do in this caseслучај,
93
232000
3000
šta treba da radimo u ovom slučaju,
04:10
should we use a KantianKantian deontologicaletički moralморално frameworkоквир,
94
235000
4000
da li treba da koristimo
Kantov deontološki moralni okvir,
04:14
or should we use a MillianMillian consequentialistrelativnost one?
95
239000
3000
ili treba da koristimo
Milov konsekvencionalistički?
04:19
KantKant.
96
244000
3000
Kant.
04:22
MillMlin.
97
247000
3000
Mil.
04:25
Not as manyмноги votesгласова.
98
250000
2000
Nema toliko glasova.
04:27
(LaughterSmeh)
99
252000
3000
(Smeh)
04:30
Yeah, that's a terrifyingзастрашујуће resultрезултат.
100
255000
3000
Da, to je zastrašujući rezultat.
04:34
TerrifyingZastraљujuжa, because we have strongerјачи opinionsмишљења
101
259000
4000
Zastrašujuć, jer imamo snažnija mišljenja
04:38
about our hand-heldportabl devicesуређаји
102
263000
2000
o našim mobilnim aparatima
04:40
than about the moralморално frameworkоквир
103
265000
2000
nego o moralnom okviru
04:42
we should use to guideВодич our decisionsОдлуке.
104
267000
2000
koji treba da koristimo
za usmeravanje naših odluka.
04:44
How do we know what to do with all the powerмоћ we have
105
269000
3000
Kako znamo šta da radimo
sa svom tom moći koju imamo
04:47
if we don't have a moralморално frameworkоквир?
106
272000
3000
ako nemamo moralni okvir?
04:50
We know more about mobileмобилни operatingоперативно systemsсистема,
107
275000
3000
Znamo više o
mobilnim operativnim sistemima,
04:53
but what we really need is a moralморално operatingоперативно systemсистем.
108
278000
3000
ali ono što nam je zaista potrebno jeste
moralni operativni sistem.
04:58
What's a moralморално operatingоперативно systemсистем?
109
283000
2000
Šta je moralni operativni sistem?
05:00
We all know right and wrongпогрешно, right?
110
285000
2000
Svi znamo za ispravno i pogrešno, zar ne?
05:02
You feel good when you do something right,
111
287000
2000
Osećate se dobro
kada uradite nešto ispravno,
05:04
you feel badлоше when you do something wrongпогрешно.
112
289000
2000
loše kada uradite nešto pogrešno.
05:06
Our parentsродитељи teachнаучити us that: praiseпохвала with the good, scoldgrditi with the badлоше.
113
291000
3000
Naši roditelji nas uče tome:
nagrađuju za dobro, grde za loše.
05:09
But how do we figureфигура out what's right and wrongпогрешно?
114
294000
3000
Ali kako da shvatimo
šta je ispravno a šta pogrešno?
05:12
And from day to day, we have the techniquesтехнике that we use.
115
297000
3000
Iz dana u dan,
imamo tehnike koje koristimo.
05:15
Maybe we just followпратити our gutгут.
116
300000
3000
Možda jednostavno sledimo našu intuiciju.
05:18
Maybe we take a voteгласати -- we crowdsourcecrowdsource.
117
303000
3000
Možda glasamo - koristimo kraudsors.
05:21
Or maybe we puntispucavanje --
118
306000
2000
Ili možda odustanemo -
05:23
askпитати the legalправни departmentодељење, see what they say.
119
308000
3000
pitamo pravnike, vidimo šta oni kažu.
05:26
In other wordsречи, it's kindкинд of randomслучајно,
120
311000
2000
Drugim rečima, nekako je slučajno,
05:28
kindкинд of adад hochoc,
121
313000
2000
nekako ad hoc,
05:30
how we figureфигура out what we should do.
122
315000
3000
kako rešavamo šta bi trebalo da radimo.
05:33
And maybe, if we want to be on surerсурер footingosnova,
123
318000
3000
Možda je, ako želimo
da stojimo na čvršćoj podlozi,
ono što nam zaista treba moralni okvir
koji će nam pomoći da se uputimo tamo,
05:36
what we really want is a moralморално frameworkоквир that will help guideВодич us there,
124
321000
3000
05:39
that will tell us what kindsврсте of things are right and wrongпогрешно in the first placeместо,
125
324000
3000
koji će nam reći uopšte
kakve stvari su ispravne i pogrešne,
05:42
and how would we know in a givenдато situationситуација what to do.
126
327000
4000
i kako bismo znali
šta da činimo u datoj situaciji.
05:46
So let's get a moralморално frameworkоквир.
127
331000
2000
Hajde onda da pribavimo moralni poredak.
05:48
We're numbersбројеви people, livingживи by numbersбројеви.
128
333000
3000
Mi smo ljudi od brojeva,
živimo po brojevima.
05:51
How can we use numbersбројеви
129
336000
2000
Kako možemo da koristimo brojeve
05:53
as the basisоснове for a moralморално frameworkоквир?
130
338000
3000
kao osnovu za moralni okvir?
05:56
I know a guy who did exactlyбаш тако that.
131
341000
3000
Znam tipa koji je učinio upravo to.
05:59
A brilliantбрилијантно guy --
132
344000
3000
Sjajan tip -
06:02
he's been deadмртав 2,500 yearsгодине.
133
347000
3000
mrtav je poslednjih 2500 godina.
06:05
PlatoPlaton, that's right.
134
350000
2000
Platon, tako je.
06:07
RememberSeti se him -- oldстари philosopherфилозоф?
135
352000
2000
Sećate ga se - stari filozof?
06:09
You were sleepingспава duringу току that classкласа.
136
354000
3000
Spavali ste na tom času.
06:12
And PlatoPlaton, he had a lot of the sameисти concernsзабринутости that we did.
137
357000
2000
Platon je imao
dosta istih briga koje i mi imamo.
06:14
He was worriedзабринуто about right and wrongпогрешно.
138
359000
2000
Brinuo je oko ispravnog i pogrešnog.
06:16
He wanted to know what is just.
139
361000
2000
Želeo je da zna šta je pravedno.
06:18
But he was worriedзабринуто that all we seemИзгледа to be doing
140
363000
2000
Ali je brinuo da je sve što da radimo
06:20
is tradingтрговање opinionsмишљења about this.
141
365000
2000
razmena mišljenja o ovome.
06:22
He saysкаже something'sнеке ствари just. She saysкаже something elseдруго is just.
142
367000
3000
On kaže da je nešto pravedno.
Ona da je nešto drugo pravedno.
06:25
It's kindкинд of convincingубедљив when he talksразговоре and when she talksразговоре too.
143
370000
2000
Nekako je ubedljivo kad on govori
i kad ona govori.
06:27
I'm just going back and forthнапред; I'm not gettingдобијања anywhereбило где.
144
372000
2000
Samo idem napred-nazad, ne stižem nigde.
06:29
I don't want opinionsмишљења; I want knowledgeзнање.
145
374000
3000
Ne želim mišljenja; želim znanje.
06:32
I want to know the truthистина about justiceправда --
146
377000
3000
Želim da znam istinu o pravdi -
06:35
like we have truthsистине in mathматематика.
147
380000
3000
kao što imamo istine u matematici.
06:38
In mathматематика, we know the objectiveобјективан factsчињенице.
148
383000
3000
U matematici znamo objektivne činjenice.
06:41
Take a numberброј, any numberброј -- two.
149
386000
2000
Uzmite broj, bilo koji broj - dva.
06:43
FavoriteOmiljeni numberброј. I love that numberброј.
150
388000
2000
Omiljeni broj. Volim taj broj.
06:45
There are truthsистине about two.
151
390000
2000
Postoje istine u vezi dva.
06:47
If you've got two of something,
152
392000
2000
Ako imate dva nečega,
06:49
you addдодати two more, you get fourчетири.
153
394000
2000
dodate još dva, dobijate četiri.
06:51
That's trueистина no matterматерија what thing you're talkingпричају about.
154
396000
2000
To je istinito bez obzira o čemu govorite.
06:53
It's an objectiveобјективан truthистина about the formобразац of two,
155
398000
2000
To je objektivna istina o obliku dva,
06:55
the abstractапстрактан formобразац.
156
400000
2000
apstraktnom obliku.
06:57
When you have two of anything -- two eyesочи, two earsуши, two nosesносови,
157
402000
2000
Kada imate dva bilo čega -
dva oka, dva uha, dva nosa,
06:59
just two protrusionsdaleke --
158
404000
2000
prosto dve izbočine -
07:01
those all partakeћurkati of the formобразац of two.
159
406000
3000
sve to sačinjava oblik dva.
07:04
They all participateучествовати in the truthsистине that two has.
160
409000
4000
Svi oni učestvuju u istinama koje dva ima.
07:08
They all have two-ness2-ness in them.
161
413000
2000
Svi oni imaju dva-nost u njima.
07:10
And thereforeстога, it's not a matterматерија of opinionмишљење.
162
415000
3000
I prema tome, to nije stvar mišljenja.
07:13
What if, PlatoPlaton thought,
163
418000
2000
Šta kad bi, Platon je razmišljao,
07:15
ethicsetika was like mathматематика?
164
420000
2000
etika bila kao matematika?
07:17
What if there were a pureчист formобразац of justiceправда?
165
422000
3000
Šta kada bi postojao čist oblik pravde?
07:20
What if there are truthsистине about justiceправда,
166
425000
2000
Šta ako postoje istine o pravednosti,
07:22
and you could just look around in this worldсвет
167
427000
2000
i možete samo pogledati svet oko sebe
07:24
and see whichкоја things participatedучествовали,
168
429000
2000
i videti koje stvari učestvuju,
07:26
partookWatson of that formобразац of justiceправда?
169
431000
3000
sačinjavaju taj oblik pravednosti?
07:29
Then you would know what was really just and what wasn'tније.
170
434000
3000
Tada biste znali
šta je zaista pravedno a šta nije.
07:32
It wouldn'tне би be a matterматерија
171
437000
2000
To ne bi bila stvar
07:34
of just opinionмишљење or just appearancesizgled.
172
439000
3000
pravednog mišljenja
ili pravednih predstava.
07:37
That's a stunningзапањујуће visionвизија.
173
442000
2000
To je zapanjujuća vizija.
07:39
I mean, think about that. How grandгранд. How ambitiousambiciozan.
174
444000
3000
Razmislite o tome.
Kako veličanstveno. Kako ambiciozno.
07:42
That's as ambitiousambiciozan as we are.
175
447000
2000
To je ambiciozno koliko i mi.
07:44
He wants to solveреши ethicsetika.
176
449000
2000
On hoće da reši etiku.
07:46
He wants objectiveобјективан truthsистине.
177
451000
2000
On želi objektivne istine.
07:48
If you think that way,
178
453000
3000
Ako razmišljate na taj način,
07:51
you have a PlatonistPlatonist moralморално frameworkоквир.
179
456000
3000
imate platonski moralni okvir.
07:54
If you don't think that way,
180
459000
2000
Ako ne mislite na taj način,
07:56
well, you have a lot of companyкомпанија in the historyисторија of WesternZapadni philosophyфилозофија,
181
461000
2000
pa, imate dosta društva
u istoriji zapadne filozofije,
07:58
because the tidyuredna ideaидеја, you know, people criticizedкритикована it.
182
463000
3000
zbog uređene ideje, znate,
ljudi su je kritikovali.
08:01
AristotleAristotel, in particularпосебно, he was not amusedzabavljalo.
183
466000
3000
Aristotelu naročito, nije mu bila zabavna.
08:04
He thought it was impracticalнепрактично.
184
469000
3000
Mislio je da je nepraktična.
08:07
AristotleAristotel said, "We should seekтражити only so much precisionпрецизност in eachсваки subjectпредмет
185
472000
4000
Aristotel je rekao: "Trebalo bi da tražimo
samo onoliko preciznosti u svakoj temi
08:11
as that subjectпредмет allowsомогућава."
186
476000
2000
koliko to tema dozvoljava."
08:13
AristotleAristotel thought ethicsetika wasn'tније a lot like mathматематика.
187
478000
3000
Aristotel je mislio da etika
nije mnogo slična matematici.
08:16
He thought ethicsetika was a matterматерија of makingстварање decisionsОдлуке in the here-and-nowovde i sada
188
481000
3000
Mislio je da je etika
stvar donošenja odluka, sada i ovde
08:19
usingКористећи our bestнајбоље judgmentпресуда
189
484000
2000
koristeći naše najbolje procene
08:21
to find the right pathпут.
190
486000
2000
da pronađemo pravi put.
08:23
If you think that, Plato'sPlaton je not your guy.
191
488000
2000
Ako tako mislite, Platon nije za vas.
08:25
But don't give up.
192
490000
2000
Ali ne odustajte.
08:27
Maybe there's anotherдруги way
193
492000
2000
Možda postoji drugi način
08:29
that we can use numbersбројеви as the basisоснове of our moralморално frameworkоквир.
194
494000
3000
da koristimo brojeve
kao osnovu za naš moralni okvir.
08:33
How about this:
195
498000
2000
Kako se čini ovo:
08:35
What if in any situationситуација you could just calculateизрачунати,
196
500000
3000
šta ako biste mogli
da u bilo kojoj situaciji izračunate,
08:38
look at the choicesизбори,
197
503000
2000
pogledate izbore,
08:40
measureмеру out whichкоја one'sједан је better and know what to do?
198
505000
3000
izmerite koji je bolji
i znate šta da radite?
08:43
That soundзвук familiarпознат?
199
508000
2000
Da li to zvuči poznato?
08:45
That's a utilitariankorisno moralморално frameworkоквир.
200
510000
3000
To je utilitaristički moralni okvir.
08:48
JohnJohn StuartStuart MillMlin was a great advocateадвокат of this --
201
513000
2000
Džon Stjuart Mil je bio
veliki zastupnik ovoga -
08:50
niceлеп guy besidesОсим тога --
202
515000
2000
dobar tip inače -
08:52
and only been deadмртав 200 yearsгодине.
203
517000
2000
i mrtav je svega 200 godina.
08:54
So basisоснове of utilitarianismutilitarizma --
204
519000
2000
Dakle, osnove utilitarizma -
08:56
I'm sure you're familiarпознат at leastнајмање.
205
521000
2000
siguran sam da su vam bar poznate.
Tri osobe
08:58
The threeтри people who votedгласао for MillMlin before are familiarпознат with this.
206
523000
2000
koje su malopre glasale
za Mila su upoznate
09:00
But here'sево the way it worksИзвођење радова.
207
525000
2000
sa ovim.
Evo kako to funkcioniše.
09:02
What if moralsморале, what if what makesчини something moralморално
208
527000
3000
Šta ako je ono što čini nešto moralnim
09:05
is just a matterматерија of if it maximizesUvećava pleasureзадовољство
209
530000
2000
samo stvar toga da li uvećava zadovoljstvo
09:07
and minimizesumanjuje painбол?
210
532000
2000
i umanjuje bol?
09:09
It does something intrinsicunutrašnje to the actчинити.
211
534000
3000
Radi nešto svojstveno tom činu.
09:12
It's not like its relationodnos to some abstractапстрактан formобразац.
212
537000
2000
Nije to odnos
prema nekoj apstraktnoj formi.
09:14
It's just a matterматерија of the consequencesпоследице.
213
539000
2000
To je samo pitanje posledica.
09:16
You just look at the consequencesпоследице
214
541000
2000
Jednostavno pogledate posledice
09:18
and see if, overallукупно, it's for the good or for the worseгоре.
215
543000
2000
i vidite da li je, sveukupno,
dobro ili loše.
09:20
That would be simpleједноставно. Then we know what to do.
216
545000
2000
To bi bilo jednostavno.
Tada znamo šta da radimo.
09:22
Let's take an exampleпример.
217
547000
2000
Hajde da uzmemo primer.
09:24
SupposePretpostavimo da I go up
218
549000
2000
Pretpostavimo da ja ustanem
09:26
and I say, "I'm going to take your phoneтелефон."
219
551000
2000
i kažem: "Uzeću tvoj telefon."
09:28
Not just because it rangzazvonio earlierраније,
220
553000
2000
Ne prosto zato što je prethodno zazvonio,
09:30
but I'm going to take it because I madeмаде a little calculationизрачунавање.
221
555000
3000
već ću ga uzeti
jer sam napravio malu računicu.
09:33
I thought, that guy looksизглед suspiciousсумњив.
222
558000
3000
Pomislio sam, taj tip deluje sumnjivo.
Šta ako je slao porukice
u Bin Ladenovo skrovište -
09:36
And what if he's been sendingслање little messagesпоруке to BinBin Laden'sPunim je hideoutskrovište --
223
561000
3000
09:39
or whoeverма ко tookузела over after BinBin LadenLadena --
224
564000
2000
ili ko god da je nasledio Bin Ladena -
09:41
and he's actuallyзаправо like a terroristterorista, a sleeperuspavani cellмобилни.
225
566000
3000
i on je zapravo poput teroriste,
tajni agent.
09:44
I'm going to find that out, and when I find that out,
226
569000
3000
Ja ću to da otkrijem, i kada otkrijem,
sprečiću ogromnu količinu štete
koju bi on mogao izazvati.
09:47
I'm going to preventспречити a hugeогромно amountизнос of damageштета that he could causeузрок.
227
572000
3000
09:50
That has a very highвисоко utilityкорисност to preventспречити that damageштета.
228
575000
3000
To je veoma velika korist
od sprečavanja te štete.
I upoređujući to
sa malo bola koje će izazvati -
09:53
And comparedУ поређењу to the little painбол that it's going to causeузрок --
229
578000
2000
09:55
because it's going to be embarrassingsramotno when I'm looking on his phoneтелефон
230
580000
2000
jer će biti nelagodno
kada budem pregledao njegov telefon
09:57
and seeingвиди that he has a FarmvilleFarmVille problemпроблем and that wholeцела bitмало --
231
582000
3000
i video da ima
problem s Farmvilom i sve to -
10:00
that's overwhelmedпреплављени
232
585000
3000
nadjačan je
10:03
by the valueвредност of looking at the phoneтелефон.
233
588000
2000
vrednošću pregledanja telefona.
10:05
If you feel that way,
234
590000
2000
Ako imate takvo mišljenje,
10:07
that's a utilitariankorisno choiceизбор.
235
592000
3000
to je utilitaristički izbor.
10:10
But maybe you don't feel that way eitherили.
236
595000
3000
Ali možda ne razmišljate ni tako.
10:13
Maybe you think, it's his phoneтелефон.
237
598000
2000
Možda smatrate, to je njegov telefon.
10:15
It's wrongпогрешно to take his phoneтелефон
238
600000
2000
Pogrešno je uzeti njegov telefon
10:17
because he's a personособа
239
602000
2000
jer je on osoba
10:19
and he has rightsправа and he has dignityдостојанство,
240
604000
2000
i ima prava i dostojanstvo,
10:21
and we can't just interfereмеђусобно with that.
241
606000
2000
i mi ne možemo da to prosto ometamo.
10:23
He has autonomyautonomija.
242
608000
2000
On ima autonomiju.
10:25
It doesn't matterматерија what the calculationsкалкулације are.
243
610000
2000
Nema veze kakvi su proračuni.
10:27
There are things that are intrinsicallyсуштински wrongпогрешно --
244
612000
3000
Postoje stvari
koje su suštinski pogrešne -
10:30
like lyingлажи is wrongпогрешно,
245
615000
2000
kao što je laganje pogrešno,
10:32
like torturingmučenje innocentневин childrenдеца is wrongпогрешно.
246
617000
3000
kao što je mučenje nevine dece pogrešno.
Kant je bio jako dobar po ovom pitanju,
10:35
KantKant was very good on this pointтачка,
247
620000
3000
a rekao je to malo bolje
nego što ću ja reći.
10:38
and he said it a little better than I'll say it.
248
623000
2000
10:40
He said we should use our reasonразлог
249
625000
2000
Rekao je da treba da koristimo naš razum
10:42
to figureфигура out the rulesправила by whichкоја we should guideВодич our conductponašanje,
250
627000
3000
da bismo shvatili pravila po kojima treba
da upravljamo našim ponašanjem,
10:45
and then it is our dutyдужност to followпратити those rulesправила.
251
630000
3000
a onda je naša dužnost
da sledimo ta pravila.
10:48
It's not a matterматерија of calculationизрачунавање.
252
633000
3000
To nije stvar proračuna.
10:51
So let's stop.
253
636000
2000
Dakle, hajde da stanemo.
10:53
We're right in the thickдебео of it, this philosophicalфилозофски thicketИestar.
254
638000
3000
Sad smo baš u sred ove filozofske vrzine.
10:56
And this goesиде on for thousandsхиљаде of yearsгодине,
255
641000
3000
I ovo se odvija hiljadama godina,
10:59
because these are hardтешко questionsпитања,
256
644000
2000
jer ovo su teška pitanja,
11:01
and I've only got 15 minutesминута.
257
646000
2000
a ja imam samo 15 minuta.
11:03
So let's cutрез to the chaseChase.
258
648000
2000
Stoga pređimo na stvar.
11:05
How should we be makingстварање our decisionsОдлуке?
259
650000
4000
Kako treba da donosimo naše odluke?
11:09
Is it PlatoPlaton, is it AristotleAristotel, is it KantKant, is it MillMlin?
260
654000
3000
Da li po Platonu, Aristotelu, Kantu, Milu?
11:12
What should we be doing? What's the answerодговор?
261
657000
2000
Šta bi trebalo da radimo? Šta je odgovor?
11:14
What's the formulaформула that we can use in any situationситуација
262
659000
3000
Koju formulu možemo koristiti
u bilo kojoj situaciji
11:17
to determineодредити what we should do,
263
662000
2000
da odredimo šta treba da radimo,
11:19
whetherда ли је we should use that guy'sмомак dataподаци or not?
264
664000
2000
da li treba da koristimo podatke
tog tipa ili ne?
11:21
What's the formulaформула?
265
666000
3000
Koja je formula?
11:25
There's not a formulaформула.
266
670000
2000
Nema formule.
11:29
There's not a simpleједноставно answerодговор.
267
674000
2000
Nema jednostavnog odgovora.
11:31
EthicsEtika is hardтешко.
268
676000
3000
Etika je teška.
Etika zahteva promišljanje.
11:34
EthicsEtika requiresзахтева thinkingразмишљање.
269
679000
3000
A to je neprijatno.
11:38
And that's uncomfortableнеудобан.
270
683000
2000
11:40
I know; I spentпотрошено a lot of my careerкаријера
271
685000
2000
Ja znam;
proveo sam veliki deo svoje karijere
11:42
in artificialвештачки intelligenceинтелигенција,
272
687000
2000
u veštačkoj inteligenciji,
11:44
tryingпокушавајући to buildизградити machinesмашине that could do some of this thinkingразмишљање for us,
273
689000
3000
pokušavajući da napravim mašine
koje bi mogle da misle umesto nas,
11:47
that could give us answersодговори.
274
692000
2000
koje bi nam mogle dati odgovore.
11:49
But they can't.
275
694000
2000
Ali one to ne mogu.
11:51
You can't just take humanљудско thinkingразмишљање
276
696000
2000
Ne možete samo
da uzmete ljudsko razmišljanje
11:53
and put it into a machineмашина.
277
698000
2000
i stavite ga u mašinu.
Mi smo oni koji treba to da čine.
11:55
We're the onesоне who have to do it.
278
700000
3000
Srećom, mi nismo mašine,
i možemo to da činimo.
11:58
HappilySretno, we're not machinesмашине, and we can do it.
279
703000
3000
12:01
Not only can we think,
280
706000
2000
Ne samo da možemo da mislimo,
12:03
we mustмора.
281
708000
2000
moramo.
12:05
HannahHana ArendtArendt said,
282
710000
2000
Hana Arent je rekla:
12:07
"The sadтужно truthистина
283
712000
2000
"Tužna istina
12:09
is that mostнајвише evilзло doneГотово in this worldсвет
284
714000
2000
je da najviše zla
počinjenog na ovom svetu
12:11
is not doneГотово by people
285
716000
2000
nisu počinili ljudi
12:13
who chooseизаберите to be evilзло.
286
718000
2000
koji su odabrali da budu zli.
12:15
It arisesсе јавља from not thinkingразмишљање."
287
720000
3000
Proisteklo je iz nerazmišljanja."
12:18
That's what she calledпозвани the "banalitybanalnosti of evilзло."
288
723000
4000
To je ono što je ona nazvala
"banalnošću zla."
12:22
And the responseодговор to that
289
727000
2000
A odgovor na to
12:24
is that we demandпотражња the exerciseвежбање of thinkingразмишљање
290
729000
2000
je da zahtevamo vežbanje razmišljanja
12:26
from everyсваки sanerazuman personособа.
291
731000
3000
od svake razumne osobe.
12:29
So let's do that. Let's think.
292
734000
2000
Pa hajde da to radimo. Hajde da mislimo.
12:31
In factчињеница, let's startпочетак right now.
293
736000
3000
U stvari, hajde da počnemo baš sada.
12:34
EverySvaki personособа in this roomсоба do this:
294
739000
3000
Neka svaka osoba
u ovoj prostoriji uradi ovo:
12:37
think of the last time you had a decisionодлука to make
295
742000
3000
setite se poslednjeg puta
kada ste donosili odluku
gde ste bili zabrinuti
da li ćete učiniti pravu stvar,
12:40
where you were worriedзабринуто to do the right thing,
296
745000
2000
12:42
where you wonderedпитао се, "What should I be doing?"
297
747000
2000
gde ste se pitali: "Šta treba da radim?"
12:44
BringDonesi that to mindум,
298
749000
2000
Prizovite to u mislima
12:46
and now reflectодразити on that
299
751000
2000
i sada razmislite o tome
12:48
and say, "How did I come up that decisionодлука?
300
753000
3000
i recite: "Kako sam došao do te odluke?"
12:51
What did I do? Did I followпратити my gutгут?
301
756000
3000
Šta sam uradio?
Da li sam sledio svoju intuiciju?
12:54
Did I have somebodyнеко voteгласати on it? Or did I puntispucavanje to legalправни?"
302
759000
2000
Da li sam dao nekome na glasanje?
Ili sam prepustio pravnicima?"
12:56
Or now we have a fewнеколико more choicesизбори.
303
761000
3000
Ili sad imamo nešto više izbora.
12:59
"Did I evaluateпроценити what would be the highestнајвише pleasureзадовољство
304
764000
2000
"Da li sam procenio
šta bi bilo najveće zadovoljstvo
13:01
like MillMlin would?
305
766000
2000
kao što bi Mil uradio? Ili kao Kant,
13:03
Or like KantKant, did I use reasonразлог to figureфигура out what was intrinsicallyсуштински right?"
306
768000
3000
da li sam koristio razum
da shvatim šta je suštinski ispravno?
13:06
Think about it. Really bringдовести it to mindум. This is importantважно.
307
771000
3000
Razmislite o tome. Zaista dozovite
ovo u mislima. Ovo je važno.
13:09
It is so importantважно
308
774000
2000
Toliko je važno
da ćemo potrošiti 30 sekundi
dragocenog vremena TED govora
13:11
we are going to spendпотрошити 30 secondsсекунде of valuableвредно TEDTalkTEDTalk time
309
776000
2000
13:13
doing nothing but thinkingразмишљање about this.
310
778000
2000
radeći ništa drugo
do razmišljanja o ovome.
13:15
Are you readyспреман? Go.
311
780000
2000
Jeste li spremni? Krenite.
13:33
Stop. Good work.
312
798000
3000
Stanite. Dobro urađeno.
13:36
What you just did,
313
801000
2000
Ono što ste upravo uradili,
13:38
that's the first stepкорак towardsка takingузимајући responsibilityодговорност
314
803000
2000
to je prvi korak
ka preuzimanju odgovornosti
13:40
for what we should do with all of our powerмоћ.
315
805000
3000
za ono što bi trebalo raditi
sa svom našom moći.
13:45
Now the nextследећи stepкорак -- try this.
316
810000
3000
Sada sledeći korak - probajte ovo.
13:49
Go find a friendпријатељ and explainобјасни to them
317
814000
2000
Nađite prijatelja i objasnite im
13:51
how you madeмаде that decisionодлука.
318
816000
2000
kako ste doneli tu odluku.
13:53
Not right now. Wait tillдо I finishзавршити talkingпричају.
319
818000
2000
Ne odmah.
Sačekajte da završim sa govorom.
13:55
Do it over lunchручак.
320
820000
2000
Uradite to za vreme ručka.
13:57
And don't just find anotherдруги technologisttehnolog friendпријатељ;
321
822000
3000
I nemojte samo da nađete
drugog prijatelja tehnologa;
14:00
find somebodyнеко differentразличит than you.
322
825000
2000
nađite nekog ko je drugačiji od vas.
14:02
Find an artistуметник or a writerписац --
323
827000
2000
Nađite umetnika ili pisca -
14:04
or, heavenрај forbidзабранити, find a philosopherфилозоф and talk to them.
324
829000
3000
ili, bože sačuvaj,
nađite filozofa i pričajte sa njima.
14:07
In factчињеница, find somebodyнеко from the humanitiesхуманистике.
325
832000
2000
U stvari, nađite nekog
iz humanističkih nauka.
14:09
Why? Because they think about problemsпроблеми
326
834000
2000
Zašto? Zato što oni misle o problemima
14:11
differentlyдругачије than we do as technologiststehnologa.
327
836000
2000
drugačije nego mi kao tehnolozi.
14:13
Just a fewнеколико daysдана agoпре, right acrossпреко the streetулица from here,
328
838000
3000
Pre samo nekoliko dana,
baš preko puta,
14:16
there was hundredsстотине of people gatheredокупљено togetherзаједно.
329
841000
2000
stotine ljudi se okupilo.
14:18
It was technologiststehnologa and humanistshumanisti
330
843000
2000
Bili su to tehnolozi i humanisti
14:20
at that bigвелики BiblioTechBiblioTech ConferenceKonferencija.
331
845000
2000
na toj velikoj BiblioTech konferenciji.
14:22
And they gatheredокупљено togetherзаједно
332
847000
2000
Okupili su se
14:24
because the technologiststehnologa wanted to learnучи
333
849000
2000
jer su tehnolozi hteli da saznaju
14:26
what it would be like to think from a humanitiesхуманистике perspectiveперспектива.
334
851000
3000
kako bi bilo
razmišljati iz humanističke perspektive.
14:29
You have someoneнеко from GoogleGoogle
335
854000
2000
Imate nekog iz Gugla ko razgovara
sa nekim ko se bavi
komparativnom književnošću.
14:31
talkingпричају to someoneнеко who does comparativekomparativnu literatureлитературе.
336
856000
2000
14:33
You're thinkingразмишљање about the relevanceрелевантност of 17thтх centuryвек Frenchfrancuski theaterтеатар --
337
858000
3000
Razmišljate o značaju
francuskog pozorišta u XVII veku -
14:36
how does that bearмедвед uponна ventureподухват capitalглавни град?
338
861000
2000
kako se to odražava
na preduzetnički kapital?
14:38
Well that's interestingзанимљиво. That's a differentразличит way of thinkingразмишљање.
339
863000
3000
Pa to je zanimljivo.
To je drugačiji način razmišljanja.
14:41
And when you think in that way,
340
866000
2000
I kada razmišljate na taj način,
14:43
you becomeпостати more sensitiveосетљив to the humanљудско considerationsrazmatranja u vezi sa,
341
868000
3000
postajete osetljiviji na ljudske obzire,
14:46
whichкоја are crucialкључно to makingстварање ethicalетички decisionsОдлуке.
342
871000
3000
koji su presudni
za donošenje etičkih odluka.
14:49
So imagineзамислити that right now
343
874000
2000
Dakle, zamislite da ste sada
14:51
you wentотишао and you foundнашао your musicianмузичар friendпријатељ.
344
876000
2000
otišli i pronašli
svog prijatelja muzičara.
14:53
And you're tellingговорећи him what we're talkingпричају about,
345
878000
3000
Govorite mu o čemu smo pričali,
14:56
about our wholeцела dataподаци revolutionреволуција and all this --
346
881000
2000
o toj revoluciji podataka
i svemu ovome -
14:58
maybe even humHum a fewнеколико barsбарови of our themeтема musicмузика.
347
883000
2000
možda čak i otpevušite
nekoliko taktova naše muzičke teme.
15:00
DumDum taTa daда daда dumDum dumDum taTa daда daда dumDum
348
885000
3000
♫ Dum ta da da dum dum ta da da dum ♫
15:03
Well, your musicianмузичар friendпријатељ will stop you and say,
349
888000
2000
Pa, vaš prijatelj muzičar
će vas zaustaviti i reći:
15:05
"You know, the themeтема musicмузика
350
890000
2000
"Znaš, muzička tema
15:07
for your dataподаци revolutionреволуција,
351
892000
2000
iz tvoje revolucije podataka,
15:09
that's an operaопера, that's WagnerWagner.
352
894000
2000
to je opera, to je Vagner.
15:11
It's basedзаснован on NorseNordijski legendлегенда.
353
896000
2000
Zasnovana je na nordijskoj legendi.
15:13
It's GodsBogovi and mythicalmitska creaturesстворења
354
898000
2000
Radi se o bogovima i mitskim stvorenjima
15:15
fightingборбе over magicalмагичан jewelryнакит."
355
900000
3000
koji se bore oko čarobnog nakita."
To je zanimljivo.
15:19
That's interestingзанимљиво.
356
904000
3000
To je takođe prelepa opera,
15:22
Now it's alsoтакође a beautifulЛепа operaопера,
357
907000
3000
15:25
and we're movedпреселила се by that operaопера.
358
910000
3000
i dirnuti smo tom operom.
15:28
We're movedпреселила се because it's about the battleбитка
359
913000
2000
Dirnuti smo jer je o bici
15:30
betweenизмеђу good and evilзло,
360
915000
2000
između dobra i zla,
15:32
about right and wrongпогрешно.
361
917000
2000
o ispravnom i pogrešnom.
15:34
And we careнега about right and wrongпогрешно.
362
919000
2000
A nama je stalo do ispravnog i pogrešnog.
15:36
We careнега what happensсе дешава in that operaопера.
363
921000
3000
Stalo nam je do toga
šta se dešava u toj operi.
15:39
We careнега what happensсе дешава in "ApocalypseApokalipsa Now."
364
924000
3000
Stalo nam je do toga
šta se dešava u "Apokalipsi danas".
15:42
And we certainlyсигурно careнега
365
927000
2000
I svakako nam je stalo
do toga šta se dešava
sa našim tehnologijama.
15:44
what happensсе дешава with our technologiesтехнологије.
366
929000
2000
15:46
We have so much powerмоћ todayданас,
367
931000
2000
Imamo toliko moći danas,
15:48
it is up to us to figureфигура out what to do,
368
933000
3000
na nama je da shvatimo šta da radimo,
15:51
and that's the good newsвести.
369
936000
2000
a to su dobre vesti.
15:53
We're the onesоне writingписање this operaопера.
370
938000
3000
Mi smo ti koji pišu ovu operu.
15:56
This is our movieфилм.
371
941000
2000
Ovo je naš film.
15:58
We figureфигура out what will happenдесити се with this technologyтехнологија.
372
943000
3000
Mi otkrivamo
šta će se dogoditi sa ovom tehnologijom.
16:01
We determineодредити how this will all endкрај.
373
946000
3000
Mi određujemo kako će se sve ovo završiti.
16:04
Thank you.
374
949000
2000
Hvala vam.
16:06
(ApplauseAplauz)
375
951000
5000
(Aplauz)
Translated by Ivana Krivokuća
Reviewed by Mile Živković

▲Back to top

ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com