ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com
TEDxSiliconValley

Damon Horowitz: We need a "moral operating system"

Damon Horowitz poziva na "moralni operativni sustav"

Filmed:
795,617 views

Na TEDxSilikonskaDolina, Damon Horowitz razmatra ogromne nove moći koje nam je dala tehnologija: znati više -- i sve više jedni o drugima -- nego ikada prije. Uvlačenjem publike u filozofsku raspravu, Horowitz nas poziva da iznova obratimo pozornost na osnovnu filozofiju -- etička načela -- iza sve te bure oko inoviranja i preoblikovanja našeg svijeta. Gdje je moralni operativni sustav koji nam omogućuje stvaranje smisla?
- Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities. Full bio

Double-click the English transcript below to play the video.

00:15
PowerMoć.
0
0
2000
Moć.
00:17
That is the wordriječ that comesdolazi to mindum.
1
2000
2000
To je riječ koja nam pada na pamet.
00:19
We're the newnovi technologiststehnolozi.
2
4000
2000
Mi smo novi tehnolozi.
00:21
We have a lot of datapodaci, so we have a lot of powervlast.
3
6000
3000
Imamo puno podataka, stoga imamo puno moći.
00:24
How much powervlast do we have?
4
9000
2000
Koliko moći imamo?
00:26
SceneScena from a moviefilm: "ApocalypseApokalipsa Now" -- great moviefilm.
5
11000
3000
Scena iz filma "Apokalipsa danas" -- sjajnog filma.
00:29
We'veMoramo got to get our herojunak, CaptainKapetan WillardWillard, to the mouthusta of the NungNung RiverRijeka
6
14000
3000
Moramo dovesti našeg junaka, kapetana Willarda, do ušća rijeke Nung
00:32
so he can go pursueprogoniti ColonelPukovnik KurtzKurtz.
7
17000
2000
kako bi mogao krenuti za pukovnikom Kurtzom.
00:34
The way we're going to do this is flyletjeti him in and droppad him off.
8
19000
2000
To ćemo postići tako da ga ukrcamo u avion i ostavimo tamo.
00:36
So the scenescena:
9
21000
2000
Ovako ide scena:
00:38
the skynebo is filledispunjen with this fleetFlota of helicoptersHelikopteri carryingnošenje him in.
10
23000
3000
nebo je prepuno helikoptera koji ga prevoze
00:41
And there's this loudglasno, thrillinguzbudljiv musicglazba in the backgroundpozadina,
11
26000
2000
u pozadini je glasna, uzbudljiva,
00:43
this wilddivlji musicglazba.
12
28000
2000
divlja glazba.
00:45
DumDum dada taTa dada dumDum
13
30000
2000
♫ Dum da ta da dum ♫
00:47
DumDum dada taTa dada dumDum
14
32000
2000
♫ Dum da ta da dum ♫
00:49
DaDa taTa dada dada
15
34000
3000
♫ Da ta da da ♫
00:52
That's a lot of powervlast.
16
37000
2000
To je puno moći.
00:54
That's the kindljubazan of powervlast I feel in this roomsoba.
17
39000
2000
Takvu vrstu moći osjećam u ovoj prostoriji.
00:56
That's the kindljubazan of powervlast we have
18
41000
2000
Mi imamo tu vrstu moći
00:58
because of all of the datapodaci that we have.
19
43000
2000
zbog svih tih podataka koje imamo.
01:00
Let's take an exampleprimjer.
20
45000
2000
Na primjer,
01:02
What can we do
21
47000
2000
što možemo učiniti
01:04
with just one person'sosobe datapodaci?
22
49000
3000
s podacima jedne jedine osobe?
01:07
What can we do
23
52000
2000
Što možemo
01:09
with that guy'stip je datapodaci?
24
54000
2000
s podacima ovog tipa?
01:11
I can look at your financialfinancijska recordsploče.
25
56000
2000
Mogu pogledati vaše financijsko stanje.
01:13
I can tell if you payplatiti your billsnovčanice on time.
26
58000
2000
Mogu reći plaćate li račune na vrijeme.
01:15
I know if you're good to give a loanzajam to.
27
60000
2000
Znam jeste li kreditno sposobni.
01:17
I can look at your medicalmedicinski recordsploče; I can see if your pumppumpa is still pumpingcrpna --
28
62000
3000
Mogu pogledati vaše zdravstveno stanje, vidjeti radi li vam još srce,
01:20
see if you're good to offerponuda insuranceosiguranje to.
29
65000
3000
jeste li pogodni za osiguranje.
01:23
I can look at your clickingklikom patternsobrasci.
30
68000
2000
Mogu pogledati uzorak vaših klikova.
01:25
When you come to my websiteweb stranica, I actuallyzapravo know what you're going to do alreadyveć
31
70000
3000
Kada dođete na moju web stranicu, već znam što ćete učiniti,
01:28
because I've seenvidio you visitposjetiti millionsmilijuni of websitesweb stranice before.
32
73000
2000
jer sam već vidio kako posjećujete milijune web stranica.
01:30
And I'm sorry to tell you,
33
75000
2000
Žao mi je što vam to moram reći,
01:32
you're like a pokerpoker playerigrač, you have a tell.
34
77000
2000
ali vi ste kao igrač pokera, imate tik.
01:34
I can tell with datapodaci analysisanaliza what you're going to do
35
79000
2000
Analizom podataka mogu reći što namjeravate učiniti
01:36
before you even do it.
36
81000
2000
prije nego što to učinite.
01:38
I know what you like. I know who you are,
37
83000
3000
Znam što volite. Znam tko ste.
01:41
and that's even before I look at your mailpošta
38
86000
2000
I sve to prije nego što sam pogledao vašu poštu
01:43
or your phonetelefon.
39
88000
2000
ili vaš telefon.
01:45
Those are the kindsvrste of things we can do
40
90000
2000
To su stvari koje možemo učiniti
01:47
with the datapodaci that we have.
41
92000
3000
s podacima koje imamo.
01:50
But I'm not actuallyzapravo here to talk about what we can do.
42
95000
3000
No, zapravo nisam ovdje da bih govorio o stvarima koje možemo učiniti.
01:56
I'm here to talk about what we should do.
43
101000
3000
Ovdje sam kako bih govorio o onome što bismo trebali učiniti.
02:00
What's the right thing to do?
44
105000
3000
Što je ispravno?
02:04
Now I see some puzzledzbunjen looksizgled
45
109000
2000
Vidim neke začuđene poglede, u stilu
02:06
like, "Why are you askingtraži us what's the right thing to do?
46
111000
3000
"Zašto nas pitaš što je ispravno?
02:09
We're just buildingzgrada this stuffstvari. SomebodyNetko elsedrugo is usingkoristeći it."
47
114000
3000
Mi samo stvaramo te stvari. Netko drugi ih koristi".
02:12
FairSajam enoughdovoljno.
48
117000
3000
Pošteno.
02:15
But it bringsdonosi me back.
49
120000
2000
To me vraća unatrag.
02:17
I think about WorldSvijet WarRat IIII --
50
122000
2000
Razmišljam o 2. svjetskom ratu --
02:19
some of our great technologiststehnolozi then,
51
124000
2000
nekima od ondašnjih velikih tehnologa,
02:21
some of our great physicistsfizičari,
52
126000
2000
nekim velikim fizičarima,
02:23
studyingučenje nuclearnuklearni fissionfisija and fusionfuzija --
53
128000
2000
koji su studirali fisiju i fuziju,
02:25
just nuclearnuklearni stuffstvari.
54
130000
2000
nuklearne stvari.
02:27
We gatherokupiti togetherzajedno these physicistsfizičari in LosLos AlamosAlamosu
55
132000
3000
Okupimo te fizičare u Los Alamosu
02:30
to see what they'lloni će buildizgraditi.
56
135000
3000
da vidimo što će stvoriti.
02:33
We want the people buildingzgrada the technologytehnologija
57
138000
3000
Želimo da ljudi stvaraju tehnologiju
02:36
thinkingmišljenje about what we should be doing with the technologytehnologija.
58
141000
3000
razmišljajući o tome što bismo pomoću nje trebali činiti.
02:41
So what should we be doing with that guy'stip je datapodaci?
59
146000
3000
Onda, što bismo trebali učiniti s podacima tog tipa?
02:44
Should we be collectingprikupljanje it, gatheringprikupljanje it,
60
149000
3000
Bismo li ih trebali skupljati, grupirati,
02:47
so we can make his onlinena liniji experienceiskustvo better?
61
152000
2000
kako bismo unaprijedili njegovo online iskustvo?
02:49
So we can make moneynovac?
62
154000
2000
Kako bismo zaradili?
02:51
So we can protectzaštititi ourselvessebe
63
156000
2000
Kako bismo zaštitili sebe
02:53
if he was up to no good?
64
158000
2000
ako bi on imao loše namjere?
02:55
Or should we respectpoštovanje his privacyprivatnost,
65
160000
3000
Ili bismo trebali poštovati njegovu privatnost,
02:58
protectzaštititi his dignitydostojanstvo and leavenapustiti him alonesam?
66
163000
3000
zaštititi njegovo dostojanstvo i pustiti ga na miru?
03:02
WhichKoji one is it?
67
167000
3000
Što je ispravno?
03:05
How should we figurelik it out?
68
170000
2000
Kako ćemo to doznati?
03:07
I know: crowdsourcecrowdsource. Let's crowdsourcecrowdsource this.
69
172000
3000
Znam: crowd source. Idemo ovo "crowdsourceati".
03:11
So to get people warmedgrijao up,
70
176000
3000
Za zagrijavanje,
03:14
let's startpočetak with an easylako questionpitanje --
71
179000
2000
krenimo s laganim pitanjem --
03:16
something I'm sure everybodysvi here has an opinionmišljenje about:
72
181000
3000
s nečim o čemu sigurno svi prisutni imaju mišljenje:
03:19
iPhoneiPhone versusprotiv AndroidAndroid.
73
184000
2000
iPhone ili Android.
03:21
Let's do a showpokazati of handsruke -- iPhoneiPhone.
74
186000
3000
Dignimo ruke -- iPhone.
03:24
Uh huh.
75
189000
2000
Opa.
03:26
AndroidAndroid.
76
191000
3000
Android.
03:29
You'dDa bi think with a bunchmnogo of smartpametan people
77
194000
2000
Čovjek bi pomislio da ovoliko pametnih ljudi
03:31
we wouldn'tne bi be suchtakav suckersodojak just for the prettyprilično phonestelefoni.
78
196000
2000
ne bi tako lako palo samo na lijepe telefone.
03:33
(LaughterSmijeh)
79
198000
2000
(Smijeh)
03:35
NextSljedeći questionpitanje,
80
200000
2000
Sljedeće pitanje,
03:37
a little bitbit harderteže.
81
202000
2000
malo teže.
03:39
Should we be collectingprikupljanje all of that guy'stip je datapodaci
82
204000
2000
Bismo li trebali prikupljati sve podatke tog tipa
03:41
to make his experiencesiskustva better
83
206000
2000
kako bismo poboljšali njegova iskustva
03:43
and to protectzaštititi ourselvessebe in casespis he's up to no good?
84
208000
3000
i zaštitili se u slučaju njegovih loših namjera --
03:46
Or should we leavenapustiti him alonesam?
85
211000
2000
ili bismo ga trebali pustiti na miru?
03:48
CollectPrikupiti his datapodaci.
86
213000
3000
Prikupi podatke.
03:53
LeaveOstavite him alonesam.
87
218000
3000
Ostavi ga na miru.
03:56
You're safesef. It's fine.
88
221000
2000
U redu je, sigurni ste.
03:58
(LaughterSmijeh)
89
223000
2000
(Smijeh)
04:00
Okay, last questionpitanje --
90
225000
2000
U redu, zadnje pitanje --
04:02
harderteže questionpitanje --
91
227000
2000
teže pitanje --
04:04
when tryingtežak to evaluateprocijeniti
92
229000
3000
u procesu procjene
04:07
what we should do in this casespis,
93
232000
3000
što bismo trebali učiniti u ovom slučaju,
04:10
should we use a KantianKantovu deontologicaletički moralmoralan frameworkokvir,
94
235000
4000
trebamo li koristiti Kantov deontološki moralni okvir
04:14
or should we use a MillianMillian consequentialistconsequentialist one?
95
239000
3000
ili Millov posljedični?
04:19
KantKant.
96
244000
3000
Kant.
04:22
MillMlin.
97
247000
3000
Mill.
04:25
Not as manymnogi votesglasova.
98
250000
2000
Nema baš puno glasova.
04:27
(LaughterSmijeh)
99
252000
3000
(Smijeh)
04:30
Yeah, that's a terrifyingzastrašujući resultproizlaziti.
100
255000
3000
Da, to je zastrašujuć rezultat.
04:34
TerrifyingZastrašujući, because we have strongerjači opinionsmišljenje
101
259000
4000
Zastrašujuće je to da imamo snažnija mišljenja
04:38
about our hand-heldručni devicesuređaji
102
263000
2000
o svojim mobilnim uređajima
04:40
than about the moralmoralan frameworkokvir
103
265000
2000
nego o moralnom okviru
04:42
we should use to guidevodič our decisionsodluke.
104
267000
2000
koji bi nas trebao voditi pri odlučivanju.
04:44
How do we know what to do with all the powervlast we have
105
269000
3000
Kako možemo znati što činiti sa svom tom moći koju imamo
04:47
if we don't have a moralmoralan frameworkokvir?
106
272000
3000
ako nemamo moralni okvir?
04:50
We know more about mobilemobilni operatingradni systemssustavi,
107
275000
3000
Više znamo o mobilnim operativnim sustavima,
04:53
but what we really need is a moralmoralan operatingradni systemsistem.
108
278000
3000
ali ono što nam zaista treba je moralni operativni sustav.
04:58
What's a moralmoralan operatingradni systemsistem?
109
283000
2000
Što je moralni operativni sustav?
05:00
We all know right and wrongpogrešno, right?
110
285000
2000
Svi znamo da postoji ispravno i pogrešno, zar ne?
05:02
You feel good when you do something right,
111
287000
2000
Osjećate se dobro kada učinite nešto ispravno,
05:04
you feel badloše when you do something wrongpogrešno.
112
289000
2000
a loše kada učinite nešto pogrešno.
05:06
Our parentsroditelji teachučiti us that: praisepohvala with the good, scoldgrditi with the badloše.
113
291000
3000
Roditelji nas uče: dobro treba hvaliti, loše grditi.
05:09
But how do we figurelik out what's right and wrongpogrešno?
114
294000
3000
No, kako razlikovati ispravno od pogrešnog?
05:12
And from day to day, we have the techniquesTehnike that we use.
115
297000
3000
Iz dana u dan, koristimo razne tehnike.
05:15
Maybe we just followslijediti our gutcrijevo.
116
300000
3000
Možda samo slijedimo vlastiti predosjećaj.
05:18
Maybe we take a voteglasanje -- we crowdsourcecrowdsource.
117
303000
3000
Možda glasujemo -- koristimo crowd source,
05:21
Or maybe we puntčamac --
118
306000
2000
a možda odustanemo --
05:23
askpitati the legalpravni departmentodjel, see what they say.
119
308000
3000
pitamo pravnike da vidimo što će oni reći.
05:26
In other wordsriječi, it's kindljubazan of randomslučajan,
120
311000
2000
Drugim riječima, to je nasumično,
05:28
kindljubazan of adoglas hochoc,
121
313000
2000
zapravo ad hoc,
05:30
how we figurelik out what we should do.
122
315000
3000
kako zaključujemo što bismo trebali učiniti.
05:33
And maybe, if we want to be on surersigurnija footinguporište,
123
318000
3000
Možda je, ako želimo biti sigurniji,
05:36
what we really want is a moralmoralan frameworkokvir that will help guidevodič us there,
124
321000
3000
ono što zbilja želimo moralni okvir koji će nam biti nit vodilja,
05:39
that will tell us what kindsvrste of things are right and wrongpogrešno in the first placemjesto,
125
324000
3000
koji će nam reći koje su stvari ispravne, a koje pogrešne
05:42
and how would we know in a givendan situationsituacija what to do.
126
327000
4000
i kako bismo u nekoj situaciji znali što učiniti.
05:46
So let's get a moralmoralan frameworkokvir.
127
331000
2000
Stoga stvorimo moralni okvir.
05:48
We're numbersbrojevi people, livingživot by numbersbrojevi.
128
333000
3000
Mi smo ljudi od brojki, živimo od brojeva.
05:51
How can we use numbersbrojevi
129
336000
2000
Kako možemo iskoristiti brojeve
05:53
as the basisosnova for a moralmoralan frameworkokvir?
130
338000
3000
kao temelj moralnog okvira?
05:56
I know a guy who did exactlytočno that.
131
341000
3000
Znam tipa koji je učinio upravo to,
05:59
A brilliantsjajan guy --
132
344000
3000
briljantan tip --
06:02
he's been deadmrtav 2,500 yearsgodina.
133
347000
3000
mrtav je već 2.500 godina.
06:05
PlatoPlaton, that's right.
134
350000
2000
Platon, tako je.
06:07
RememberSjećam se him -- oldstar philosopherfilozof?
135
352000
2000
Sjećate se tog starog filozofa?
06:09
You were sleepingspavanje duringza vrijeme that classklasa.
136
354000
3000
Spavali ste na tom satu.
06:12
And PlatoPlaton, he had a lot of the sameisti concernszabrinutost that we did.
137
357000
2000
Platona su brinule iste stvari kao nas sada.
06:14
He was worriedzabrinut about right and wrongpogrešno.
138
359000
2000
Brinuo je oko ispravnog i pogrešnog.
06:16
He wanted to know what is just.
139
361000
2000
Želio je znati što je pravedno,
06:18
But he was worriedzabrinut that all we seemčiniti se to be doing
140
363000
2000
ali je brinuo da je sve što činimo
06:20
is tradingtrgovački opinionsmišljenje about this.
141
365000
2000
samo razmjena mišljenja o tome.
06:22
He sayskaže something'snešto je just. She sayskaže something elsedrugo is just.
142
367000
3000
On kaže da je nešto pravedno. Ona kaže da je nešto drugo pravedno.
06:25
It's kindljubazan of convincinguvjerljiv when he talksrazgovori and when she talksrazgovori too.
143
370000
2000
Dok govore, prilično su uvjerljivi i jedan i drugi.
06:27
I'm just going back and forthdalje; I'm not gettinguzimajući anywherebilo kuda.
144
372000
2000
Idem naprijed-natrag; nikamo ne stižem.
06:29
I don't want opinionsmišljenje; I want knowledgeznanje.
145
374000
3000
Ne želim mišljenja, želim znanje.
06:32
I want to know the truthistina about justicepravda --
146
377000
3000
Želim znati istinu o pravdi --
06:35
like we have truthsistine in mathmatematika.
147
380000
3000
baš kao što imamo istine u matematici.
06:38
In mathmatematika, we know the objectivecilj factsčinjenicama.
148
383000
3000
U matematici znamo objektivne činjenice.
06:41
Take a numberbroj, any numberbroj -- two.
149
386000
2000
Uzmimo neki, bilo koji broj -- dva.
06:43
FavoriteOmiljeni numberbroj. I love that numberbroj.
150
388000
2000
Omiljeni broj, volim taj broj.
06:45
There are truthsistine about two.
151
390000
2000
Postoje istine o dva.
06:47
If you've got two of something,
152
392000
2000
Ako imate dva nečega,
06:49
you adddodati two more, you get fourčetiri.
153
394000
2000
i dodate još dva, dobivate četiri.
06:51
That's truepravi no matterstvar what thing you're talkingkoji govori about.
154
396000
2000
To je istina, bez obzira o čemu govorili.
06:53
It's an objectivecilj truthistina about the formoblik of two,
155
398000
2000
To je objektivna istina o obliku dva,
06:55
the abstractsažetak formoblik.
156
400000
2000
apstraktnom obliku.
06:57
When you have two of anything -- two eyesoči, two earsuši, two nosesnos,
157
402000
2000
Kada imate bilo što dva -- dva oka, dva uha, dva nosa,
06:59
just two protrusionsizbočenja --
158
404000
2000
samo dvije izbočine --
07:01
those all partakedionici of the formoblik of two.
159
406000
3000
sve to sačinjava oblik dva.
07:04
They all participatesudjelovati in the truthsistine that two has.
160
409000
4000
Sve to sudjeluje u istinama koje posjeduje dva.
07:08
They all have two-ness2-RT in them.
161
413000
2000
Svi oni imaju dva-nost u sebi.
07:10
And thereforestoga, it's not a matterstvar of opinionmišljenje.
162
415000
3000
Stoga, to nije stvar mišljenja.
07:13
What if, PlatoPlaton thought,
163
418000
2000
Što ako je, mislio je Platon,
07:15
ethicsetika was like mathmatematika?
164
420000
2000
etika poput matematike?
07:17
What if there were a purečist formoblik of justicepravda?
165
422000
3000
Što ako postoji čisti oblik pravde?
07:20
What if there are truthsistine about justicepravda,
166
425000
2000
Što ako postoje istine o pravdi
07:22
and you could just look around in this worldsvijet
167
427000
2000
i možete samo pogledati ovaj svijet oko sebe,
07:24
and see whichkoji things participatedsudjelovao,
168
429000
2000
vidjeti koje stvari sudjeluju,
07:26
partookpartook of that formoblik of justicepravda?
169
431000
3000
sačinjavaju taj oblik pravde?
07:29
Then you would know what was really just and what wasn'tnije.
170
434000
3000
Tada biste znali što je zaista pravedno, a što nije.
07:32
It wouldn'tne bi be a matterstvar
171
437000
2000
To ne bi bio predmet
07:34
of just opinionmišljenje or just appearancesnastupa.
172
439000
3000
mišljenja ili predodžbi.
07:37
That's a stunningzadivljujući visionvizija.
173
442000
2000
To je zapanjujuća vizija.
07:39
I mean, think about that. How grandveličanstven. How ambitiousambiciozni.
174
444000
3000
Promislite o tome -- kako veliko, kako ambiciozno.
07:42
That's as ambitiousambiciozni as we are.
175
447000
2000
Ambiciozno baš poput nas.
07:44
He wants to solveriješiti ethicsetika.
176
449000
2000
On želi riješiti etiku.
07:46
He wants objectivecilj truthsistine.
177
451000
2000
On želi objektivne istine.
07:48
If you think that way,
178
453000
3000
Ako razmišljate na taj način,
07:51
you have a PlatonistPlatonistički moralmoralan frameworkokvir.
179
456000
3000
imate platonistički moralni okvir.
07:54
If you don't think that way,
180
459000
2000
Ako ne razmišljate tako,
07:56
well, you have a lot of companydruštvo in the historypovijest of WesternZapadni philosophyfilozofija,
181
461000
2000
u tome imate puno istomišljenika u povijesti zapadne filozofije,
07:58
because the tidyuredan ideaideja, you know, people criticizedkritizirao it.
182
463000
3000
zbog čistoće ideje -- znate, ljudi su ju kritizirali.
08:01
AristotleAristotel, in particularposebno, he was not amusedzabavlja.
183
466000
3000
Aristotela, na primjer, to nije zabavljalo.
08:04
He thought it was impracticalnepraktičan.
184
469000
3000
Mislio je da je nepraktična.
08:07
AristotleAristotel said, "We should seektražiti only so much precisionpreciznost in eachsvaki subjectpredmet
185
472000
4000
Aristotel je rekao: "Trebali bismo tražiti onoliko preciznosti u svakom predmetu
08:11
as that subjectpredmet allowsomogućuje."
186
476000
2000
koliko taj predmet dopušta".
08:13
AristotleAristotel thought ethicsetika wasn'tnije a lot like mathmatematika.
187
478000
3000
Aristotel nije mislio da je etika slična matematici.
08:16
He thought ethicsetika was a matterstvar of makingizrađivanje decisionsodluke in the here-and-nowovdje i sada
188
481000
3000
Mislio je da je etika predmet donošenja odluka "ovdje i sada"
08:19
usingkoristeći our bestnajbolje judgmentpresuda
189
484000
2000
pomoću naše najbolje procjene
08:21
to find the right pathstaza.
190
486000
2000
u pronalasku pravog puta.
08:23
If you think that, Plato'sPlaton je not your guy.
191
488000
2000
Ako tako razmišljate, Platon nije vaš tip,
08:25
But don't give up.
192
490000
2000
ali ne dajte se,
08:27
Maybe there's anotherjoš way
193
492000
2000
možda postoji drugi način
08:29
that we can use numbersbrojevi as the basisosnova of our moralmoralan frameworkokvir.
194
494000
3000
na koji možemo iskoristiti brojeve za temelj našeg moralnog okvira.
08:33
How about this:
195
498000
2000
Što kažete na ovo:
08:35
What if in any situationsituacija you could just calculateizračunati,
196
500000
3000
Što ako bi u bilo kojoj situaciji mogli samo izračunati,
08:38
look at the choicesizbori,
197
503000
2000
pogledati što se nudi,
08:40
measuremjera out whichkoji one'sjedan je better and know what to do?
198
505000
3000
izmjeriti što je bolje i znati što učiniti?
08:43
That soundzvuk familiarupoznat?
199
508000
2000
Zvuči poznato?
08:45
That's a utilitarianutilitaristički moralmoralan frameworkokvir.
200
510000
3000
To je utilitaristički moralni okvir.
08:48
JohnJohn StuartStuart MillMlin was a great advocatepristalica of this --
201
513000
2000
John Stuart Mill je bio veliki zagovornik ovoga --
08:50
nicelijepo guy besidesosim toga --
202
515000
2000
osim toga, bio je dobar tip --
08:52
and only been deadmrtav 200 yearsgodina.
203
517000
2000
a mrtav je samo 200 godina.
08:54
So basisosnova of utilitarianismUtilitarnost --
204
519000
2000
Dakle, temelji utilitarizma --
08:56
I'm sure you're familiarupoznat at leastnajmanje.
205
521000
2000
siguran sam da su vam poznati.
08:58
The threetri people who votedglasao for MillMlin before are familiarupoznat with this.
206
523000
2000
Troje ljudi koji su glasovali za Milla ranije su upoznati s ovim.
09:00
But here'sevo the way it worksdjela.
207
525000
2000
No, evo kako to funkcionira.
09:02
What if moralsmoral, what if what makesmarke something moralmoralan
208
527000
3000
Što ako je moral, odnosno ono što nešto čini moralnim
09:05
is just a matterstvar of if it maximizesmaksimizira pleasurezadovoljstvo
209
530000
2000
samo pitanje povećavanja užitka
09:07
and minimizessmanjuje painbol?
210
532000
2000
i smanjivanja boli?
09:09
It does something intrinsicintrinzična to the actčin.
211
534000
3000
Radi nešto svojstveno tom činu,
09:12
It's not like its relationodnos to some abstractsažetak formoblik.
212
537000
2000
a ne odnosi se na neki apstraktni oblik.
09:14
It's just a matterstvar of the consequencesposljedice.
213
539000
2000
Samo je pitanje posljedica.
09:16
You just look at the consequencesposljedice
214
541000
2000
Gledate samo posljedice
09:18
and see if, overallCjelokupni, it's for the good or for the worsegore.
215
543000
2000
i vidite je li, u cjelini, to nešto za dobru ili lošu svrhu.
09:20
That would be simplejednostavan. Then we know what to do.
216
545000
2000
To bi bilo jednostavno i tada bismo znali što učiniti.
09:22
Let's take an exampleprimjer.
217
547000
2000
Pogledajmo primjer.
09:24
SupposePretpostavimo da I go up
218
549000
2000
Recimo da odem gore
09:26
and I say, "I'm going to take your phonetelefon."
219
551000
2000
i kažem: "Uzet ću ti mobitel".
09:28
Not just because it rangZvala earlierranije,
220
553000
2000
Ne zato što je ranije zazvonio,
09:30
but I'm going to take it because I madenapravljen a little calculationračunanje.
221
555000
3000
već zato što sam napravio jedan mali izračun.
09:33
I thought, that guy looksizgled suspicioussumnjiv.
222
558000
3000
Pomislio sam, ovaj tip izgleda sumnjivo.
09:36
And what if he's been sendingslanje little messagesporuke to BinRegalno skladište Laden'sLaden je hideoutskrovište --
223
561000
3000
Što ako šalje porukice u Bin Ladenovo skrovište --
09:39
or whoeverma tko tookuzeo over after BinRegalno skladište LadenNatovaren --
224
564000
2000
ili nekome tko je naslijedio Bin Ladena --
09:41
and he's actuallyzapravo like a terroristterorist, a sleeperspavač cellćelija.
225
566000
3000
i zapravo je poput terorista, krtica.
09:44
I'm going to find that out, and when I find that out,
226
569000
3000
Saznat ću što se događa i kad saznam,
09:47
I'm going to preventspriječiti a hugeogroman amountiznos of damagešteta that he could causeuzrok.
227
572000
3000
spriječit ću ogromnu štetu koju je mogao izazvati.
09:50
That has a very highvisok utilitykorisnost to preventspriječiti that damagešteta.
228
575000
3000
Od sprječavanja te štete imamo veliku korist,
09:53
And comparedu odnosu to the little painbol that it's going to causeuzrok --
229
578000
2000
u usporedbi s malom boli koju ćemo izazvati
09:55
because it's going to be embarrassingneugodno when I'm looking on his phonetelefon
230
580000
2000
jer će biti osramoćen kada mu pregledam mobitel
09:57
and seeingvidim that he has a FarmvilleFarmVille problemproblem and that wholečitav bitbit --
231
582000
3000
i vidim da ima problem u Farmvilleu, jer sve je to
10:00
that's overwhelmedosvaja
232
585000
3000
nadvladala
10:03
by the valuevrijednost of looking at the phonetelefon.
233
588000
2000
vrijednost pregledavanja njegovog mobitela.
10:05
If you feel that way,
234
590000
2000
Ako se ovako osjećate,
10:07
that's a utilitarianutilitaristički choiceizbor.
235
592000
3000
to je utilitaristički izbor.
10:10
But maybe you don't feel that way eitherili.
236
595000
3000
No, možda se ne osjećate ni ovako,
10:13
Maybe you think, it's his phonetelefon.
237
598000
2000
možda mislite: "To je njegov mobitel,
10:15
It's wrongpogrešno to take his phonetelefon
238
600000
2000
pogrešno je uzeti njegov mobitel
10:17
because he's a personosoba
239
602000
2000
jer je on osoba
10:19
and he has rightsprava and he has dignitydostojanstvo,
240
604000
2000
koja ima prava i dostojanstvo
10:21
and we can't just interfereumiješati se with that.
241
606000
2000
i ne možemo se u to uplitati".
10:23
He has autonomyautonomija.
242
608000
2000
On ima autonomiju,
10:25
It doesn't matterstvar what the calculationsizračuni are.
243
610000
2000
neovisno o izračunima,
10:27
There are things that are intrinsicallyintrinzično wrongpogrešno --
244
612000
3000
postoje stvari koje su same po sebi pogrešne --
10:30
like lyinglaganje is wrongpogrešno,
245
615000
2000
kao što je laganje pogrešno,
10:32
like torturingmučenje innocentnevin childrendjeca is wrongpogrešno.
246
617000
3000
kao što je mučenje nevine djece pogrešno.
10:35
KantKant was very good on this pointtočka,
247
620000
3000
Kant je u ovome bio jako dobar
10:38
and he said it a little better than I'll say it.
248
623000
2000
i rekao je to malo bolje nego što ću ja reći.
10:40
He said we should use our reasonrazlog
249
625000
2000
Rekao je da bismo trebali upotrijebiti naš razum
10:42
to figurelik out the rulespravila by whichkoji we should guidevodič our conductponašanja,
250
627000
3000
kako bismo otkrili pravila po kojima ćemo voditi svoje ponašanje.
10:45
and then it is our dutydužnost to followslijediti those rulespravila.
251
630000
3000
Naša je dužnost slijediti ta pravila.
10:48
It's not a matterstvar of calculationračunanje.
252
633000
3000
To nije stvar izračuna.
10:51
So let's stop.
253
636000
2000
Stoga, prestanimo.
10:53
We're right in the thickgust of it, this philosophicalfilozofski thicketgrupe.
254
638000
3000
Upravo smo u srži ove filozofske zavrzlame
10:56
And this goeside on for thousandstisuća of yearsgodina,
255
641000
3000
koja se nastavlja tisućama godina,
10:59
because these are hardteško questionspitanja,
256
644000
2000
jer se radi o teškim pitanjima,
11:01
and I've only got 15 minutesminuta.
257
646000
2000
a ja imam samo 15 minuta.
11:03
So let's cutrez to the chaseChase.
258
648000
2000
Zato prijeđimo na stvar.
11:05
How should we be makingizrađivanje our decisionsodluke?
259
650000
4000
Kako bismo trebali donositi naše odluke?
11:09
Is it PlatoPlaton, is it AristotleAristotel, is it KantKant, is it MillMlin?
260
654000
3000
Kao Platon, Aristotel, Kant ili Mill?
11:12
What should we be doing? What's the answerodgovor?
261
657000
2000
Što bismo trebali činiti, što je odgovor?
11:14
What's the formulaformula that we can use in any situationsituacija
262
659000
3000
Koja je formula koju možemo upotrijebiti u bilo kojoj situaciji
11:17
to determineodrediti what we should do,
263
662000
2000
kako bismo odlučili što trebamo napraviti,
11:19
whetherda li we should use that guy'stip je datapodaci or not?
264
664000
2000
hoćemo li upotrijebiti podatke tog tipa ili ne?
11:21
What's the formulaformula?
265
666000
3000
Koja je formula?
11:25
There's not a formulaformula.
266
670000
2000
Nema formule.
11:29
There's not a simplejednostavan answerodgovor.
267
674000
2000
Nema jednostavnog odgovora.
11:31
EthicsEtika is hardteško.
268
676000
3000
Etika je teška.
11:34
EthicsEtika requirestraži thinkingmišljenje.
269
679000
3000
Etika zahtijeva razmišljanje,
11:38
And that's uncomfortableneudoban.
270
683000
2000
a to je neugodno.
11:40
I know; I spentpotrošen a lot of my careerkarijera
271
685000
2000
To znam jer sam potrošio dobar dio karijere
11:42
in artificialUmjetna intelligenceinteligencija,
272
687000
2000
na umjetnu inteligenciju,
11:44
tryingtežak to buildizgraditi machinesstrojevi that could do some of this thinkingmišljenje for us,
273
689000
3000
pokušavajući napraviti strojeve koji bi mogli malo razmišljati umjesto nas,
11:47
that could give us answersodgovori.
274
692000
2000
dati nam odgovore --
11:49
But they can't.
275
694000
2000
ali oni to ne mogu.
11:51
You can't just take humanljudski thinkingmišljenje
276
696000
2000
Naprosto ne možeš uzeti ljudsko razmišljanje
11:53
and put it into a machinemašina.
277
698000
2000
i staviti ga u stroj.
11:55
We're the onesone who have to do it.
278
700000
3000
To moramo učiniti sami.
11:58
HappilySretno, we're not machinesstrojevi, and we can do it.
279
703000
3000
Srećom, nismo strojevi pa možemo.
12:01
Not only can we think,
280
706000
2000
Ne samo da možemo razmišljati,
12:03
we mustmora.
281
708000
2000
već moramo.
12:05
HannahHannah ArendtArendt said,
282
710000
2000
Hannah Arendt je rekla:
12:07
"The sadtužan truthistina
283
712000
2000
"Tužna istina je
12:09
is that mostnajviše evilzlo doneučinio in this worldsvijet
284
714000
2000
da najveća zla na ovome svijetu
12:11
is not doneučinio by people
285
716000
2000
nisu počinili ljudi
12:13
who chooseizabrati to be evilzlo.
286
718000
2000
zato što su odabrali biti zli
12:15
It arisesproizlazi from not thinkingmišljenje."
287
720000
3000
nego zato što nisu razmišljali".
12:18
That's what she calledzvao the "banalitybanalnost of evilzlo."
288
723000
4000
Ona to naziva "banalnošću zla".
12:22
And the responseodgovor to that
289
727000
2000
Kao odgovor na to,
12:24
is that we demandzahtijevajte the exercisevježba of thinkingmišljenje
290
729000
2000
zahtijevamo vježbu razmišljanja
12:26
from everysvaki sanezdrav personosoba.
291
731000
3000
od svake zdrave osobe.
12:29
So let's do that. Let's think.
292
734000
2000
Stoga, učinimo to. Razmišljajmo.
12:31
In factčinjenica, let's startpočetak right now.
293
736000
3000
Zapravo, krenimo odmah.
12:34
EverySvaki personosoba in this roomsoba do this:
294
739000
3000
Neka svaka osoba u ovoj prostoriji učini ovo:
12:37
think of the last time you had a decisionodluka to make
295
742000
3000
prisjetite se kada ste zadnji put morali donijeti odluku
12:40
where you were worriedzabrinut to do the right thing,
296
745000
2000
i bili ste zabrinuti činite li ispravnu stvar,
12:42
where you wonderedpitala, "What should I be doing?"
297
747000
2000
pitali ste se: "Što bih trebao učiniti?"
12:44
BringDonijeti that to mindum,
298
749000
2000
Prisjetite se toga
12:46
and now reflectodraziti on that
299
751000
2000
i sada promislite o tome
12:48
and say, "How did I come up that decisionodluka?
300
753000
3000
pa recite: "Kako sam došao do te odluke?
12:51
What did I do? Did I followslijediti my gutcrijevo?
301
756000
3000
Što sam učinio? Jesam li slijedio svoj predosjećaj?
12:54
Did I have somebodyneko voteglasanje on it? Or did I puntčamac to legalpravni?"
302
759000
2000
Jesam li izglasavao ili pitao pravnike?"
12:56
Or now we have a fewnekoliko more choicesizbori.
303
761000
3000
Sada ipak imamo nešto više izbora.
12:59
"Did I evaluateprocijeniti what would be the highestnajviši pleasurezadovoljstvo
304
764000
2000
"Jesam li procjenjivao što bi bio najveći užitak,
13:01
like MillMlin would?
305
766000
2000
poput Milla?
13:03
Or like KantKant, did I use reasonrazlog to figurelik out what was intrinsicallyintrinzično right?"
306
768000
3000
Ili sam, poput Kanta, koristio razum kako bih otkrio što je dobro samo po sebi?"
13:06
Think about it. Really bringdonijeti it to mindum. This is importantvažno.
307
771000
3000
Razmislite o tome. Stvarno se prisjetite, ovo je važno.
13:09
It is so importantvažno
308
774000
2000
Toliko je važno
13:11
we are going to spendprovesti 30 secondssekundi of valuablevrijedan TEDTalkTEDTalk time
309
776000
2000
da ćemo potrošiti 30 sekundi vrijednog TEDTalk vremena
13:13
doing nothing but thinkingmišljenje about this.
310
778000
2000
ne radeći ništa osim razmišljanja o ovome.
13:15
Are you readyspreman? Go.
311
780000
2000
Jeste li spremni? Krenite.
13:33
Stop. Good work.
312
798000
3000
Stanite. Dobar posao.
13:36
What you just did,
313
801000
2000
Ovo što ste upravo učinili
13:38
that's the first stepkorak towardsza takinguzimanje responsibilityodgovornost
314
803000
2000
prvi je korak prema preuzimanju odgovornosti
13:40
for what we should do with all of our powervlast.
315
805000
3000
za ono što trebamo učiniti sa svom svojom moći.
13:45
Now the nextSljedeći stepkorak -- try this.
316
810000
3000
Na redu je sljedeći korak -- probajte ovo.
13:49
Go find a friendprijatelj and explainobjasniti to them
317
814000
2000
Nađite prijatelja i objasnite mu
13:51
how you madenapravljen that decisionodluka.
318
816000
2000
kako ste došli do te odluke.
13:53
Not right now. Wait tilldo I finishZavrši talkingkoji govori.
319
818000
2000
Ne sada, čekajte dok završim s govorom.
13:55
Do it over lunchručak.
320
820000
2000
Za vrijeme ručka.
13:57
And don't just find anotherjoš technologisttehnolog friendprijatelj;
321
822000
3000
Nemojte naći još jednog prijatelja-tehnologa,
14:00
find somebodyneko differentdrugačiji than you.
322
825000
2000
nego nekoga drukčijeg od vas.
14:02
Find an artistumjetnik or a writerpisac --
323
827000
2000
Pronađite umjetnika ili pisca --
14:04
or, heavenraj forbidzabraniti, find a philosopherfilozof and talk to them.
324
829000
3000
ili, ne daj Bože, filozofa -- i popričajte s njim.
14:07
In factčinjenica, find somebodyneko from the humanitieshumaniora.
325
832000
2000
Zapravo, pronađite nekoga iz humanistike.
14:09
Why? Because they think about problemsproblemi
326
834000
2000
Zašto? Zato što oni razmišljaju o problemima
14:11
differentlyrazličito than we do as technologiststehnolozi.
327
836000
2000
drukčije nego mi, tehnolozi.
14:13
Just a fewnekoliko daysdana agoprije, right acrosspreko the streetulica from here,
328
838000
3000
Prije par dana, na ulici točno preko puta odavde,
14:16
there was hundredsstotine of people gatheredokupilo togetherzajedno.
329
841000
2000
skupilo se na stotine ljudi.
14:18
It was technologiststehnolozi and humanistshumanista
330
843000
2000
Bili su to tehnolozi i humanisti
14:20
at that bigvelika BiblioTechBiblioTech ConferenceKonferencije.
331
845000
2000
u sklopu velike BiblioTech konferencije.
14:22
And they gatheredokupilo togetherzajedno
332
847000
2000
Okupili su se
14:24
because the technologiststehnolozi wanted to learnnaučiti
333
849000
2000
jer su tehnolozi željeli naučiti
14:26
what it would be like to think from a humanitieshumaniora perspectiveperspektiva.
334
851000
3000
kako bi bilo razmišljati iz humanističke perspektive.
14:29
You have someonenetko from GoogleGoogle
335
854000
2000
Dakle, netko iz Googlea
14:31
talkingkoji govori to someonenetko who does comparativekomparativne literatureknjiževnost.
336
856000
2000
razgovrara s nekim tko se bavi komparativnom književnošću.
14:33
You're thinkingmišljenje about the relevancerelevantnost of 17thth centurystoljeće Frenchfrancuski theaterkazalište --
337
858000
3000
Vi razmišljate o tome kakve veze ima francusko kazalište iz 17. stoljeća
14:36
how does that bearsnositi uponna venturepothvat capitalglavni?
338
861000
2000
s rizičnim kapitalom?
14:38
Well that's interestingzanimljiv. That's a differentdrugačiji way of thinkingmišljenje.
339
863000
3000
To je zanimljivo. To je drukčiji način razmišljanja.
14:41
And when you think in that way,
340
866000
2000
Kada razmišljate na taj način,
14:43
you becomepostati more sensitiveosjetljiv to the humanljudski considerationsrazmatranja,
341
868000
3000
postajete osjetljiviji prema pitanju ljudi,
14:46
whichkoji are crucialpresudan to makingizrađivanje ethicaletički decisionsodluke.
342
871000
3000
što je ključno kod donošenja etičkih odluka.
14:49
So imaginezamisliti that right now
343
874000
2000
Zamislite da ste sada
14:51
you wentotišao and you foundpronađeno your musicianglazbenik friendprijatelj.
344
876000
2000
otišli i sreli svog prijatelja glazbenika
14:53
And you're tellingreći him what we're talkingkoji govori about,
345
878000
3000
i da mu pričate o ovome o čemu smo sada govorili,
14:56
about our wholečitav datapodaci revolutionrevolucija and all this --
346
881000
2000
o cijeloj revoluciji podataka i svemu tome --
14:58
maybe even humHum a fewnekoliko barsbarovi of our themetema musicglazba.
347
883000
2000
možda čak zapjevate pokoji takt glazbene teme.
15:00
DumDum taTa dada dada dumDum dumDum taTa dada dada dumDum
348
885000
3000
♫ Dum ta da da dum dum ta da da dum ♫
15:03
Well, your musicianglazbenik friendprijatelj will stop you and say,
349
888000
2000
Vaš prijatelj glazbenik bi vas zaustavio i rekao:
15:05
"You know, the themetema musicglazba
350
890000
2000
"Znaš, ta glazbena tema
15:07
for your datapodaci revolutionrevolucija,
351
892000
2000
iz tvoje revolucije podataka
15:09
that's an operaopera, that's WagnerWagner.
352
894000
2000
je opera. To je Wagner.
15:11
It's basedzasnovan on NorseNordijske legendlegenda.
353
896000
2000
Utemeljena je na nordijskoj legendi
15:13
It's GodsBogovi and mythicalmitska creaturesstvorenja
354
898000
2000
prema kojoj se bogovi i mitska bića
15:15
fightingborba over magicalčaroban jewelrynakit."
355
900000
3000
bore za čarobni nakit".
15:19
That's interestingzanimljiv.
356
904000
3000
To je zanimljivo.
15:22
Now it's alsotakođer a beautifullijep operaopera,
357
907000
3000
To je predivna opera
15:25
and we're movedpomaknuto by that operaopera.
358
910000
3000
i ganuti smo njome.
15:28
We're movedpomaknuto because it's about the battlebitka
359
913000
2000
Ganuti smo jer se radi o borbi
15:30
betweenizmeđu good and evilzlo,
360
915000
2000
između dobra i zla,
15:32
about right and wrongpogrešno.
361
917000
2000
između ispravnog i pogrešnog,
15:34
And we carebriga about right and wrongpogrešno.
362
919000
2000
a nama je stalo do ispravnog i pogrešnog.
15:36
We carebriga what happensdogađa se in that operaopera.
363
921000
3000
Stalo nam je do toga što će se dogoditi u toj operi.
15:39
We carebriga what happensdogađa se in "ApocalypseApokalipsa Now."
364
924000
3000
Stalo nam je do toga što će se dogoditi u "Apokalipsi danas"
15:42
And we certainlysigurno carebriga
365
927000
2000
i svakako nam je stalo
15:44
what happensdogađa se with our technologiestehnologije.
366
929000
2000
što će se dogoditi s našim tehnologijama.
15:46
We have so much powervlast todaydanas,
367
931000
2000
Danas imamo toliko moći
15:48
it is up to us to figurelik out what to do,
368
933000
3000
i sami moramo odlučiti što ćemo učiniti.
15:51
and that's the good newsvijesti.
369
936000
2000
To su dobre vijesti.
15:53
We're the onesone writingpisanje this operaopera.
370
938000
3000
Mi smo skladatelji ove opere.
15:56
This is our moviefilm.
371
941000
2000
Ovo je naš film.
15:58
We figurelik out what will happendogoditi se with this technologytehnologija.
372
943000
3000
Mi otkrivamo što će se dogoditi s ovom tehnologijom.
16:01
We determineodrediti how this will all endkraj.
373
946000
3000
Mi odlučujemo kako će sve ovo završiti.
16:04
Thank you.
374
949000
2000
Hvala vam.
16:06
(ApplausePljesak)
375
951000
5000
(Pljesak)
Translated by Dijana Ivezic
Reviewed by Tilen Pigac - EFZG

▲Back to top

ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com