ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com
TEDxSiliconValley

Damon Horowitz: We need a "moral operating system"

Damon Horowitz žádá "morální operační systém"

Filmed:
795,617 views

Na TEDxSiliconValley, Damon Horowitz shrnuje, jaké obrovské možnosti nám dávají technologie. Víme víc a víc o ostatních lidech než kdy dřív. Horowitz představuje filozofickou debatu o etice a apeluje, abychom více přemýšleli o základních filozofických principech, které by měly stát za rozvojem nových technologií, které přetváří náš svět. Kde máme nějaký morální operační systém, který by nám pomohl se v tom všem vyznat?
- Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities. Full bio

Double-click the English transcript below to play the video.

00:15
PowerMoc.
0
0
2000
Moc.
00:17
That is the wordslovo that comespřijde to mindmysl.
1
2000
2000
To je to slovo, které se nám vybaví.
00:19
We're the newNový technologiststechnologové.
2
4000
2000
My jsme noví technologové.
00:21
We have a lot of datadata, so we have a lot of powerNapájení.
3
6000
3000
Máme spoustu dat, takže máme velkou moc.
00:24
How much powerNapájení do we have?
4
9000
2000
Jak velkou moc máme?
00:26
SceneScene from a moviefilm: "ApocalypseApokalypsa Now" -- great moviefilm.
5
11000
3000
Scéna z filmu: "Apokalypsa" -- super film.
00:29
We'veMáme got to get our herohrdina, CaptainKapitán WillardWillard, to the mouthpusa of the NungNung RiverŘeka
6
14000
3000
Musíme dostat našeho hrdinu, kapitána Willarda, k ústí řeky Nung,
00:32
so he can go pursuesledovat ColonelPlukovník KurtzKurtz.
7
17000
2000
aby mohl pronásledovat plukovníka Kurtze.
00:34
The way we're going to do this is flylétat him in and droppokles him off.
8
19000
2000
Uděláme to tak, že tam s ním doletíme a vysadíme ho tam.
00:36
So the scenescéna:
9
21000
2000
Takže ta scéna:
00:38
the skynebe is fillednaplněné with this fleetVozový park of helicoptersvrtulníky carryingnesoucí him in.
10
23000
3000
obloha je plná helikoptér, které nesou kapitána Willarda.
00:41
And there's this loudhlasitý, thrillingvzrušující musichudba in the backgroundPozadí,
11
26000
2000
A na pozadí hraje ta hlasitá, vzrušující hudba.
00:43
this wilddivoký musichudba.
12
28000
2000
tahle nespoutaná hudba.
00:45
DumDum dada taTa dada dumdum
13
30000
2000
♫ Tam ta da ta tam ♫
00:47
DumDum dada taTa dada dumdum
14
32000
2000
♫ Tam ta da ta tam ♫
00:49
DaDa taTa dada dada
15
34000
3000
♫ Ta da ta tá ♫
00:52
That's a lot of powerNapájení.
16
37000
2000
To je velká moc.
00:54
That's the kinddruh of powerNapájení I feel in this roompokoj, místnost.
17
39000
2000
To je ten druh moci, který cítím v téhle místnosti.
00:56
That's the kinddruh of powerNapájení we have
18
41000
2000
To je ten druh moci, který máme,
00:58
because of all of the datadata that we have.
19
43000
2000
kvůli datům, které máme k dispozici.
01:00
Let's take an examplepříklad.
20
45000
2000
Nějaký příklad.
01:02
What can we do
21
47000
2000
Co můžeme udělat
01:04
with just one person'sosobě datadata?
22
49000
3000
s údaji jediného člověka?
01:07
What can we do
23
52000
2000
Co můžeme udělat
01:09
with that guy'schlap je datadata?
24
54000
2000
s údaji o tom člověku?
01:11
I can look at your financialfinanční recordsevidence.
25
56000
2000
Můžu se podívat na jeho finanční záznamy.
01:13
I can tell if you payplatit your billsúčty on time.
26
58000
2000
Můžu říct, jestli platí na čas svoje složenky.
01:15
I know if you're good to give a loanpůjčka to.
27
60000
2000
Vím, jestli je dost spolehlivý, abych mu dal půjčku.
01:17
I can look at your medicallékařský recordsevidence; I can see if your pumpčerpadlo is still pumpingčerpací --
28
62000
3000
Můžu se podívat na jeho zdravotní záznamy, jestli mu ještě pumpuje pumpa...
01:20
see if you're good to offernabídka insurancepojištění to.
29
65000
3000
podívat se, jestli ho mám pojistit.
01:23
I can look at your clickingkliknutím patternsvzory.
30
68000
2000
Můžu se podívat, kde kliká na monitoru.
01:25
When you come to my websitewebová stránka, I actuallyvlastně know what you're going to do alreadyjiž
31
70000
3000
Když přijde na mou stránku, já vlastně už dopředu vím, co bude dělat,
01:28
because I've seenviděno you visitnávštěva millionsmiliony of websiteswebové stránky before.
32
73000
2000
protože jsem ho už viděl na miliónech jiných stránek.
01:30
And I'm sorry to tell you,
33
75000
2000
A, nerad to říkám,
01:32
you're like a pokerPoker playerhráč, you have a tell.
34
77000
2000
on je jako hráč pokeru, má zvláštní tik, který ho odhalí.
01:34
I can tell with datadata analysisanalýza what you're going to do
35
79000
2000
S pomocí datové analýzy dokážu říct, co bude dělat
01:36
before you even do it.
36
81000
2000
před tím, než to udělá.
01:38
I know what you like. I know who you are,
37
83000
3000
Vím, co má rád. Vím, kdo je.
01:41
and that's even before I look at your mailpošta
38
86000
2000
A to dokonce před tím, než se podívám na jeho mail
01:43
or your phonetelefon.
39
88000
2000
nebo telefon.
01:45
Those are the kindsdruhy of things we can do
40
90000
2000
To je ten druh věcí, co můžeme dělat
01:47
with the datadata that we have.
41
92000
3000
s daty, která máme.
01:50
But I'm not actuallyvlastně here to talk about what we can do.
42
95000
3000
Ale já tu nejsem kvůli tomu, abych mluvil o tom, co můžeme dělat.
01:56
I'm here to talk about what we should do.
43
101000
3000
Jsem tu kvůli tomu, abych mluvil o tom, co bychom měli dělat.
02:00
What's the right thing to do?
44
105000
3000
Co bychom měli dělat?
02:04
Now I see some puzzledna rozpacích looksvzhled
45
109000
2000
Teď vidím nějaké zmatené obličeje,
02:06
like, "Why are you askingptát se us what's the right thing to do?
46
111000
3000
které říkají: "Proč se nás ptáš, co bychom měli dělat?
02:09
We're just buildingbudova this stuffvěci. SomebodyNěkdo elsejiný is usingpoužitím it."
47
114000
3000
My to jenom vyvíjíme. Používá to někdo jiný."
02:12
FairVeletrh enoughdost.
48
117000
3000
Dobře.
02:15
But it bringspřináší me back.
49
120000
2000
Ale přenáší mě to zpátky.
02:17
I think about WorldSvět WarVálka IIII --
50
122000
2000
Přemýšlím o druhé světové válce.
02:19
some of our great technologiststechnologové then,
51
124000
2000
Někteří výborní technologové,
02:21
some of our great physicistsfyziků,
52
126000
2000
někteří naši nejlepší fyzikové
02:23
studyingstudovat nuclearjaderné fissionštěpení and fusionfúze --
53
128000
2000
studovali jadernou fúzi a štěpnou reakci.
02:25
just nuclearjaderné stuffvěci.
54
130000
2000
Jenom jaderné věci.
02:27
We gathershromáždit togetherspolu these physicistsfyziků in LosLos AlamosAlamos
55
132000
3000
Shromáždili jsme ty fyziky v Los Alamos,
02:30
to see what they'lloni budou buildstavět.
56
135000
3000
abychom zjistili, co vyrobí.
02:33
We want the people buildingbudova the technologytechnika
57
138000
3000
Chceme po lidech, kteří vytváří technologie,
02:36
thinkingmyslící about what we should be doing with the technologytechnika.
58
141000
3000
aby přemýšleli o tom, co bychom s nimi měli dělat.
02:41
So what should we be doing with that guy'schlap je datadata?
59
146000
3000
Tak co bychom měli dělat s daty toho člověka?
02:44
Should we be collectingshromažďování it, gatheringshromáždění it,
60
149000
3000
Měli bychom je shromažďovat, schraňovat,
02:47
so we can make his onlineonline experienceZkusenosti better?
61
152000
2000
abychom zlepšili jeho online prostředí?
02:49
So we can make moneypeníze?
62
154000
2000
Takže můžeme vydělat peníze?
02:51
So we can protectchránit ourselvessebe
63
156000
2000
Můžeme ochraňovat sami sebe,
02:53
if he was up to no good?
64
158000
2000
pokud by neměl dobré úmysly?
02:55
Or should we respectrespekt his privacysoukromí,
65
160000
3000
Nebo bychom měli respektovat jeho soukromí,
02:58
protectchránit his dignitydůstojnost and leavezanechat, opustit him alonesama?
66
163000
3000
ochraňovat jeho důstojnost a nechat ho napokoji?
03:02
WhichKterý one is it?
67
167000
3000
Co bychom měli dělat?
03:05
How should we figurepostava it out?
68
170000
2000
A jak bychom měli přijít na to, co dělat?
03:07
I know: crowdsourcecrowdsourcovat. Let's crowdsourcecrowdsourcovat this.
69
172000
3000
Vím: podle davu. Zjistíme to v davu.
03:11
So to get people warmedohřívá up,
70
176000
3000
Takže něco na zahřátí,
03:14
let's startStart with an easysnadný questionotázka --
71
179000
2000
začneme s jednoduchou otázkou,
03:16
something I'm sure everybodyvšichni here has an opinionnázor about:
72
181000
3000
něco o čem si jsem jistý, že na to tady každý bude mít názor:
03:19
iPhoneiPhone versusproti AndroidAndroid.
73
184000
2000
iPhone nebo Android.
03:21
Let's do a showshow of handsruce -- iPhoneiPhone.
74
186000
3000
Ruce nahoru pro iPhone.
03:24
Uh huh.
75
189000
2000
Oh ho.
03:26
AndroidAndroid.
76
191000
3000
Android.
03:29
You'dVy byste think with a bunchchomáč of smartchytrý people
77
194000
2000
Člověk by si myslel, že taková parta chytrých lidí
03:31
we wouldn'tby ne be suchtakový suckerspřísavek just for the prettydosti phonestelefony.
78
196000
2000
nebudou blázni jen kvůli hezkým telefonům.
03:33
(LaughterSmích)
79
198000
2000
(Smích)
03:35
NextDalší questionotázka,
80
200000
2000
Další otázka,
03:37
a little bitbit hardertěžší.
81
202000
2000
trošku těžší.
03:39
Should we be collectingshromažďování all of that guy'schlap je datadata
82
204000
2000
Měli bychom shromažďovat data toho člověka,
03:41
to make his experienceszkušenosti better
83
206000
2000
abychom mu zlepšili jeho online prostředí
03:43
and to protectchránit ourselvessebe in casepouzdro he's up to no good?
84
208000
3000
a ochraňovali sami sebe, pokud by měl špatné úmysly?
03:46
Or should we leavezanechat, opustit him alonesama?
85
211000
2000
Nebo bychom ho měli nechat napokoji?
03:48
CollectSbírat his datadata.
86
213000
3000
Shromažďovat data.
03:53
LeaveOpustit him alonesama.
87
218000
3000
Nechat ho napokoji.
03:56
You're safebezpečný. It's fine.
88
221000
2000
Je v bezpečí, je to v pohodě.
03:58
(LaughterSmích)
89
223000
2000
(Smích)
04:00
Okay, last questionotázka --
90
225000
2000
Dobrá, poslední otázka,
04:02
hardertěžší questionotázka --
91
227000
2000
těžší,
04:04
when tryingzkoušet to evaluatevyhodnotit
92
229000
3000
když zkoušíme zjistit,
04:07
what we should do in this casepouzdro,
93
232000
3000
co bychom měli dělat v tomhle případu,
04:10
should we use a KantianKantově deontologicalEtický moralmorální frameworkrámec,
94
235000
4000
měli bychom použít Kantův deontologický morální rámec,
04:14
or should we use a MillianPaříž consequentialistdeontologický one?
95
239000
3000
nebo bychom měli použít Millův konsekvenciální?
04:19
KantKant.
96
244000
3000
Kant.
04:22
MillMlýn.
97
247000
3000
Mill.
04:25
Not as manymnoho voteshlasů.
98
250000
2000
Docela málo hlasů.
04:27
(LaughterSmích)
99
252000
3000
(Smích)
04:30
Yeah, that's a terrifyingděsivé resultvýsledek.
100
255000
3000
Jo, to je strašný výsledek.
04:34
TerrifyingDěsivý, because we have strongersilnější opinionsnázory
101
259000
4000
Strašidelný, protože máme vyhraněnější názory
04:38
about our hand-heldRuční deviceszařízení
102
263000
2000
na naše smartphony
04:40
than about the moralmorální frameworkrámec
103
265000
2000
než na morální rámec,
04:42
we should use to guideprůvodce our decisionsrozhodnutí.
104
267000
2000
který bychom měli používat při rozhodování.
04:44
How do we know what to do with all the powerNapájení we have
105
269000
3000
Jak máme vědět, co dělat se vší mocí, kterou máme,
04:47
if we don't have a moralmorální frameworkrámec?
106
272000
3000
pokud nemáme morální rámec?
04:50
We know more about mobilemobilní, pohybliví operatingprovozní systemssystémy,
107
275000
3000
Víme víc o mobilních operačních systémech,
04:53
but what we really need is a moralmorální operatingprovozní systemSystém.
108
278000
3000
ale opravdu bychom potřebovali morální operační systém.
04:58
What's a moralmorální operatingprovozní systemSystém?
109
283000
2000
Co je to morální operační systém?
05:00
We all know right and wrongšpatně, right?
110
285000
2000
Všichni víme, co je dobré a co je špatné, že.
05:02
You feel good when you do something right,
111
287000
2000
Cítíme se dobře, pokud něco uděláme dobře,
05:04
you feel badšpatný when you do something wrongšpatně.
112
289000
2000
cítíme se špatně, pokud uděláme něco špatně.
05:06
Our parentsrodiče teachučit us that: praisechvála with the good, scoldnadávat with the badšpatný.
113
291000
3000
Naši rodiče nás učí, že se správným rozhodnutím přichází odměna a se špatným trest.
05:09
But how do we figurepostava out what's right and wrongšpatně?
114
294000
3000
Ale jak víme, co je správné a co není?
05:12
And from day to day, we have the techniquestechniky that we use.
115
297000
3000
A ze dne na den máme technologie, které používáme.
05:15
Maybe we just follownásledovat our gutstřevo.
116
300000
3000
Možná následujeme nějaký vnitřní instinkt.
05:18
Maybe we take a votehlasování -- we crowdsourcecrowdsourcovat.
117
303000
3000
Možná hlasujeme.
05:21
Or maybe we puntpramice --
118
306000
2000
Nebo se na to vykašlem,
05:23
askdotázat se the legalprávní departmentoddělení, see what they say.
119
308000
3000
zeptáme se právního oddělení, co si o tom myslí.
05:26
In other wordsslova, it's kinddruh of randomnáhodný,
120
311000
2000
Jinak řečeno, je to takové náhodné,
05:28
kinddruh of adinzerát hochoc,
121
313000
2000
trochu ad hoc,
05:30
how we figurepostava out what we should do.
122
315000
3000
jak přicházíme na to, co bychom měli dělat.
05:33
And maybe, if we want to be on surerjistější footingZáklady,
123
318000
3000
A možná, pokud bychom chtěli stát oběma nohama na zemi,
05:36
what we really want is a moralmorální frameworkrámec that will help guideprůvodce us there,
124
321000
3000
to co opravdu chceme je morální rámec, který nás bude vést,
05:39
that will tell us what kindsdruhy of things are right and wrongšpatně in the first placemísto,
125
324000
3000
který nám řekne, které věci jsou správné a které špatné
05:42
and how would we know in a givendané situationsituace what to do.
126
327000
4000
a co bychom měli v dané situaci dělat.
05:46
So let's get a moralmorální frameworkrámec.
127
331000
2000
Sežeňme si tedy morální rámec.
05:48
We're numbersčísla people, livingživobytí by numbersčísla.
128
333000
3000
Jsme číslíčkáři, žijeme čísly.
05:51
How can we use numbersčísla
129
336000
2000
Jak můžeme použít čísla
05:53
as the basiszáklad for a moralmorální frameworkrámec?
130
338000
3000
jako základ pro náš morální rámec?
05:56
I know a guy who did exactlypřesně that.
131
341000
3000
Znám člověka, který přesně toto udělal.
05:59
A brilliantbrilantní guy --
132
344000
3000
Výbornej chlap,
06:02
he's been deadmrtví 2,500 yearsroky.
133
347000
3000
už je 2500 let mrtvý.
06:05
PlatoPlatón, that's right.
134
350000
2000
Platón, je to tak.
06:07
RememberPamatujte si him -- oldstarý philosopherfilozof?
135
352000
2000
Znáte ho? Starý filozof?
06:09
You were sleepingspací duringběhem that classtřída.
136
354000
3000
Vy jste při těch hodinách spali.
06:12
And PlatoPlatón, he had a lot of the samestejný concernsobav that we did.
137
357000
2000
A Platón měl s námi hodně společných problémů.
06:14
He was worriedustaraný about right and wrongšpatně.
138
359000
2000
Přemýšlel o správných a špatných věcech.
06:16
He wanted to know what is just.
139
361000
2000
Chtěl vědět, co je spravedlivé.
06:18
But he was worriedustaraný that all we seemzdát se to be doing
140
363000
2000
Ale bál se, že jediné, co děláme je,
06:20
is tradingobchodování opinionsnázory about this.
141
365000
2000
že si vyměňujeme názory.
06:22
He saysříká something'sněco je just. She saysříká something elsejiný is just.
142
367000
3000
On říká, že něco je spravedlivé, ona říká, že něco jiného je spravedlivé.
06:25
It's kinddruh of convincingpřesvědčivý when he talksrozhovory and when she talksrozhovory too.
143
370000
2000
Oba jsou docela přesvědčiví, když mluví.
06:27
I'm just going back and forthdále; I'm not gettingdostat anywherekdekoli.
144
372000
2000
Jde to od desíti k pěti, nikam se nedostáváme.
06:29
I don't want opinionsnázory; I want knowledgeznalost.
145
374000
3000
Nechci názory, chci poznání.
06:32
I want to know the truthpravda about justicespravedlnost --
146
377000
3000
Chci znát pravdu o spravedlnosti,
06:35
like we have truthspravdy in mathmatematika.
147
380000
3000
tak jako máme pravdy v matematice.
06:38
In mathmatematika, we know the objectiveobjektivní factsfakta.
148
383000
3000
V matematice máme objektivní fakta.
06:41
Take a numberčíslo, any numberčíslo -- two.
149
386000
2000
Vezměte si číslo, jakékoliv číslo, třeba dvojku.
06:43
FavoriteOblíbené numberčíslo. I love that numberčíslo.
150
388000
2000
Je to moje oblíbené číslo, miluju ho.
06:45
There are truthspravdy about two.
151
390000
2000
Máme pravdivé výroky o dvojce.
06:47
If you've got two of something,
152
392000
2000
Pokud máte dva něčeho
06:49
you addpřidat two more, you get fourčtyři.
153
394000
2000
a přidáte další dva, máte čtyři.
06:51
That's trueskutečný no matterhmota what thing you're talkingmluvící about.
154
396000
2000
Je to pravda vždycky, nehledě na to o čem mluvíte.
06:53
It's an objectiveobjektivní truthpravda about the formformulář of two,
155
398000
2000
Je to objektivní pravda o dvojce,
06:55
the abstractabstraktní formformulář.
156
400000
2000
o abstraktní formě.
06:57
When you have two of anything -- two eyesoči, two earsuších, two nosesnosy,
157
402000
2000
Pokud máte dva čehokoliv: dvě oči, dvě uši, dva nosy,
06:59
just two protrusionsvýčnělky --
158
404000
2000
dva výčnělky,
07:01
those all partakepodílet se of the formformulář of two.
159
406000
3000
ty všechny na sebe berou formu dvou.
07:04
They all participateúčastnit se in the truthspravdy that two has.
160
409000
4000
O všech platí pravdy, které platí o dvojce.
07:08
They all have two-nessdva ness in them.
161
413000
2000
Všechny mají v sobě vlastnosti dvojky.
07:10
And thereforeproto, it's not a matterhmota of opinionnázor.
162
415000
3000
A proto to není věc názoru.
07:13
What if, PlatoPlatón thought,
163
418000
2000
Co kdyby, myslel si Platón,
07:15
ethicsetika was like mathmatematika?
164
420000
2000
byla etika jako matematika?
07:17
What if there were a purečistý formformulář of justicespravedlnost?
165
422000
3000
Co kdybychom měli čistou formu spravedlnosti?
07:20
What if there are truthspravdy about justicespravedlnost,
166
425000
2000
Co když existují pravdy o spravedlnosti,
07:22
and you could just look around in this worldsvět
167
427000
2000
kdy bychom se mohli jenom rozhlédnout po světě
07:24
and see whichkterý things participatedzúčastnil se,
168
429000
2000
a zjistit, kterých věcí jsou součástí,
07:26
partookpodílel of that formformulář of justicespravedlnost?
169
431000
3000
které na sebe berou podobu té formy spravedlnosti?
07:29
Then you would know what was really just and what wasn'tnebyl.
170
434000
3000
Potom bychom věděli, co je opravdu spravedlivé a co není.
07:32
It wouldn'tby ne be a matterhmota
171
437000
2000
Nebyla by to jenom záležitost
07:34
of just opinionnázor or just appearancesvystoupení.
172
439000
3000
názoru nebo pohledu.
07:37
That's a stunningohromující visionvidění.
173
442000
2000
To je ohromující představa.
07:39
I mean, think about that. How grandgrand. How ambitiousambiciózní.
174
444000
3000
Vezměte si to. Tak vznešená, tak ambiciózní.
07:42
That's as ambitiousambiciózní as we are.
175
447000
2000
Tak ambiciózní, jako jsme my sami.
07:44
He wants to solveřešit ethicsetika.
176
449000
2000
On chce přijít na kloub etice.
07:46
He wants objectiveobjektivní truthspravdy.
177
451000
2000
Chce objektivní pravdy.
07:48
If you think that way,
178
453000
3000
Pokud uvažujete tímto způsobem,
07:51
you have a PlatonistPlatónské moralmorální frameworkrámec.
179
456000
3000
máte Platónský morální rámec.
07:54
If you don't think that way,
180
459000
2000
Pokud tak neuvažujete,
07:56
well, you have a lot of companyspolečnost in the historydějiny of WesternZápadní philosophyfilozofie,
181
461000
2000
tak máte spousty přátel v historii západní filozofie,
07:58
because the tidyuklizený ideaidea, you know, people criticizedkritizoval it.
182
463000
3000
protože tu krásnou myšlenku lidé kritizovali.
08:01
AristotleAristoteles, in particularkonkrétní, he was not amusedpobavilo.
183
466000
3000
Hlavně Aristoteles z ní nebyl moc nadšený.
08:04
He thought it was impracticalnepraktický.
184
469000
3000
Připadala mu nepraktická.
08:07
AristotleAristoteles said, "We should seekhledat only so much precisionpřesnost in eachkaždý subjectpředmět
185
472000
4000
Řekl: "V každé disciplíně bychom měli hledat jen tolik přesnosti,
08:11
as that subjectpředmět allowsumožňuje."
186
476000
2000
kolik nám disciplína dovoluje."
08:13
AristotleAristoteles thought ethicsetika wasn'tnebyl a lot like mathmatematika.
187
478000
3000
Aristoteles si nemyslel, že etika je podobná matice.
08:16
He thought ethicsetika was a matterhmota of makingtvorba decisionsrozhodnutí in the here-and-nowtady a teď
188
481000
3000
Věřil, že etika je záležitost rozhodování se tady a teď,
08:19
usingpoužitím our bestnejlepší judgmentrozsudek
189
484000
2000
používání našeho nejlepšího úsudku,
08:21
to find the right pathcesta.
190
486000
2000
abychom našli správnou cestu.
08:23
If you think that, Plato'sPlatónova not your guy.
191
488000
2000
Pokud tomu věříte, tak Platón není váš člověk.
08:25
But don't give up.
192
490000
2000
Ale nevzdávejte to.
08:27
Maybe there's anotherdalší way
193
492000
2000
Možná je tu i jiná cesta,
08:29
that we can use numbersčísla as the basiszáklad of our moralmorální frameworkrámec.
194
494000
3000
ve které bychom mohli použít čísla jako základ našeho morálního rámce.
08:33
How about this:
195
498000
2000
Co třeba tohle.
08:35
What if in any situationsituace you could just calculatevypočítat,
196
500000
3000
Co kdybychom mohli v každé situaci počítat,
08:38
look at the choicesvolby,
197
503000
2000
podívat se na možnosti,
08:40
measureopatření out whichkterý one'sněčí better and know what to do?
198
505000
3000
a změřit, která je lepší a co dělat?
08:43
That soundzvuk familiarznát?
199
508000
2000
Zní to povědomě?
08:45
That's a utilitarianutilitární moralmorální frameworkrámec.
200
510000
3000
Je to utilitární morální rámec.
08:48
JohnJan StuartStuart MillMlýn was a great advocatezastánce of this --
201
513000
2000
Velkým obhájcem tohohle přístupu byl John Stuart Mill,
08:50
nicepěkný guy besideskromě --
202
515000
2000
dobrej chlap, mimochodem,
08:52
and only been deadmrtví 200 yearsroky.
203
517000
2000
a je mrtvej jen 200 let.
08:54
So basiszáklad of utilitarianismutilitarismus --
204
519000
2000
Takže základ utilitarismu,
08:56
I'm sure you're familiarznát at leastnejméně.
205
521000
2000
určitě to znáte.
08:58
The threetři people who votedhlasovalo for MillMlýn before are familiarznát with this.
206
523000
2000
Ti tři, kteří předtím hlasovali pro Milla, to určitě znají.
09:00
But here'stady je the way it workspráce.
207
525000
2000
Ale funguje to asi takhle.
09:02
What if moralsmorálky, what if what makesdělá something moralmorální
208
527000
3000
Co kdyby morálka, něco co moralizuje věc,
09:05
is just a matterhmota of if it maximizesmaximalizuje pleasurepotěšení
209
530000
2000
byla jenom otázka maximalizace požitku
09:07
and minimizesminimalizuje painbolest?
210
532000
2000
a minimalizace utrpení?
09:09
It does something intrinsicvnitřní to the actakt.
211
534000
3000
Vytváří to něco zvláštního v jednání.
09:12
It's not like its relationvztah to some abstractabstraktní formformulář.
212
537000
2000
Není to jako vztah k nějaké abstraktní formě.
09:14
It's just a matterhmota of the consequencesdůsledky.
213
539000
2000
Je to jen záležitost následků.
09:16
You just look at the consequencesdůsledky
214
541000
2000
Jen se podíváme na následky
09:18
and see if, overallcelkově, it's for the good or for the worsehorší.
215
543000
2000
a zjistíme, jestli jsou v součtu dobré nebo špatné.
09:20
That would be simplejednoduchý. Then we know what to do.
216
545000
2000
To by bylo jednoduché. Takže víme, co dělat.
09:22
Let's take an examplepříklad.
217
547000
2000
Vezmeme si příklad.
09:24
SupposePředpokládejme, že I go up
218
549000
2000
Třeba řekněme, že přijdu
09:26
and I say, "I'm going to take your phonetelefon."
219
551000
2000
a řeknu: "Vezmu ti telefon."
09:28
Not just because it rangRang earlierdříve,
220
553000
2000
Ne jenom kvůli tomu, že ti před chvílí zvonil,
09:30
but I'm going to take it because I madevyrobeno a little calculationvýpočet.
221
555000
3000
ale vezmu ti ho, protože jsem si to trochu spočítal.
09:33
I thought, that guy looksvzhled suspiciouspodezřelý.
222
558000
3000
Řekl jsem si, ten chlap vypadá podezřele.
09:36
And what if he's been sendingodesílání little messageszpráv to BinKoš Laden'sNákladem je hideoutúkryt --
223
561000
3000
A co kdyby posílal zprávy Bin Ládinovi do úkrytu,
09:39
or whoeverkdokoliv tookvzal over after BinKoš LadenNaložený --
224
564000
2000
nebo teda komukoliv, kdo to po Bin Ládinovi převzal,
09:41
and he's actuallyvlastně like a terroristterorista, a sleeperspáč cellbuňka.
225
566000
3000
a je vlastně terorista v utajení.
09:44
I'm going to find that out, and when I find that out,
226
569000
3000
Zjistím to a až to zjistím,
09:47
I'm going to preventzabránit a hugeobrovský amountmnožství of damagepoškození that he could causezpůsobit.
227
572000
3000
zabráním spoustě škod, které mohl způsobit.
09:50
That has a very highvysoký utilityutilita to preventzabránit that damagepoškození.
228
575000
3000
Předcházet škodám má velký užitek.
09:53
And comparedv porovnání to the little painbolest that it's going to causezpůsobit --
229
578000
2000
A ve srovnání s malým utrpením, které mu tím způsobím,
09:55
because it's going to be embarrassingtrapné when I'm looking on his phonetelefon
230
580000
2000
protože to bude trapné, až mu budu koukat do telefonu
09:57
and seeingvidění that he has a FarmvilleFarmville problemproblém and that wholeCelý bitbit --
231
582000
3000
a uvidím, že má problémy s Farmvillem a vším tím okolo,
10:00
that's overwhelmedzahlceni
232
585000
3000
to bude všechno překonáno
10:03
by the valuehodnota of looking at the phonetelefon.
233
588000
2000
hodnotou, která vzejde z koukání na jeho telefon.
10:05
If you feel that way,
234
590000
2000
Pokud přemýšlíte takhle,
10:07
that's a utilitarianutilitární choicevýběr.
235
592000
3000
tak jste utilitariáni.
10:10
But maybe you don't feel that way eitherbuď.
236
595000
3000
Ale možná nepřemýšlíte ani takhle.
10:13
Maybe you think, it's his phonetelefon.
237
598000
2000
Možná si říkáte, že je to jeho telefon.
10:15
It's wrongšpatně to take his phonetelefon
238
600000
2000
A je špatné vzít mu ho,
10:17
because he's a personosoba
239
602000
2000
protože je člověk
10:19
and he has rightspráva and he has dignitydůstojnost,
240
604000
2000
a má svá práva a důstojnost
10:21
and we can't just interferezasahovat with that.
241
606000
2000
a do toho my nesmíme zasahovat.
10:23
He has autonomyautonomie.
242
608000
2000
Má autonomii.
10:25
It doesn't matterhmota what the calculationsvýpočty are.
243
610000
2000
Všechny kalkulace nemají význam.
10:27
There are things that are intrinsicallyvlastně wrongšpatně --
244
612000
3000
Jsou věci, které jsou z podstaty špatné,
10:30
like lyingležící is wrongšpatně,
245
615000
2000
třeba lhaní
10:32
like torturingmučení innocentnevinný childrenděti is wrongšpatně.
246
617000
3000
nebo mučení nevinného dítěte.
10:35
KantKant was very good on this pointbod,
247
620000
3000
Kant to říká jasně
10:38
and he said it a little better than I'll say it.
248
623000
2000
a taky trochu líp, než to řeknu já.
10:40
He said we should use our reasondůvod
249
625000
2000
Řekl, že bychom měli používat svůj rozum,
10:42
to figurepostava out the rulespravidel by whichkterý we should guideprůvodce our conductchování,
250
627000
3000
abychom zjistili, podle jakých pravidel se máme chovat.
10:45
and then it is our dutypovinnost to follownásledovat those rulespravidel.
251
630000
3000
A potom je naší povinností se podle těchto pravidel řídit.
10:48
It's not a matterhmota of calculationvýpočet.
252
633000
3000
Není to záležitost počtů.
10:51
So let's stop.
253
636000
2000
Takže přestaňme.
10:53
We're right in the thicktlustý of it, this philosophicalfilozofický thicketnedělitelné sady.
254
638000
3000
A teď jsme v tom až po uši, v té filozofické kaši.
10:56
And this goesjde on for thousandstisíce of yearsroky,
255
641000
3000
A takhle to jde po tisíce let,
10:59
because these are hardtvrdý questionsotázky,
256
644000
2000
protože to jsou těžké otázky
11:01
and I've only got 15 minutesminut.
257
646000
2000
a já mám jen patnáct minut.
11:03
So let's cutstřih to the chaseChase.
258
648000
2000
Takže pojďme k věci.
11:05
How should we be makingtvorba our decisionsrozhodnutí?
259
650000
4000
Jak bychom se měli rozhodovat?
11:09
Is it PlatoPlatón, is it AristotleAristoteles, is it KantKant, is it MillMlýn?
260
654000
3000
Je to Platón, Aristoteles, Kant nebo Mill?
11:12
What should we be doing? What's the answerOdpovědět?
261
657000
2000
Co bychom měli dělat? Jaká je odpověď?
11:14
What's the formulavzorec that we can use in any situationsituace
262
659000
3000
Jaký je vzorec, který můžeme použít pokaždé,
11:17
to determineurčit what we should do,
263
662000
2000
když budeme chtít zjistit, co dělat,
11:19
whetherzda we should use that guy'schlap je datadata or not?
264
664000
2000
jestli bychom měli používat data toho člověka?
11:21
What's the formulavzorec?
265
666000
3000
Jaký je ten vzorec?
11:25
There's not a formulavzorec.
266
670000
2000
Žádný není.
11:29
There's not a simplejednoduchý answerOdpovědět.
267
674000
2000
Není žádná jednoduchá odpověď.
11:31
EthicsEtika is hardtvrdý.
268
676000
3000
Etika je těžká.
11:34
EthicsEtika requiresvyžaduje thinkingmyslící.
269
679000
3000
Etika vyžaduje přemýšlení.
11:38
And that's uncomfortablenepříjemný.
270
683000
2000
A to není příjemné.
11:40
I know; I spentstrávil a lot of my careerkariéra
271
685000
2000
Znám to, strávil jsem velkou část své kariéry
11:42
in artificialumělý intelligenceinteligence,
272
687000
2000
umělou inteligencí,
11:44
tryingzkoušet to buildstavět machinesstrojů that could do some of this thinkingmyslící for us,
273
689000
3000
zkoušel jsem postavit stroje, které budou moci vymyslet tyhle věci za nás,
11:47
that could give us answersodpovědi.
274
692000
2000
které nám dají odpovědi.
11:49
But they can't.
275
694000
2000
Ale oni nemůžou.
11:51
You can't just take humančlověk thinkingmyslící
276
696000
2000
Nemůžete vzít lidské přemýšlení
11:53
and put it into a machinestroj.
277
698000
2000
a vložit ho do stroje.
11:55
We're the onesty who have to do it.
278
700000
3000
Musíme to udělat my sami.
11:58
HappilyŠťastně, we're not machinesstrojů, and we can do it.
279
703000
3000
Naštěstí nejsme stroje a můžeme to udělat.
12:01
Not only can we think,
280
706000
2000
Nejenom že umíme přemýšlet,
12:03
we mustmusí.
281
708000
2000
my musíme.
12:05
HannahHannah ArendtArendt said,
282
710000
2000
Hannah Arendtová řekla:
12:07
"The sadsmutný truthpravda
283
712000
2000
"Smutná pravda je,
12:09
is that mostvětšina evilzlo doneHotovo in this worldsvět
284
714000
2000
že nejvíce zla v tomto světě
12:11
is not doneHotovo by people
285
716000
2000
není způsobeno lidmi,
12:13
who chooseVybrat to be evilzlo.
286
718000
2000
kteří se rozhodnou být zlí.
12:15
It arisesvzniká from not thinkingmyslící."
287
720000
3000
Nejvíc ho vzniká z nepřemýšlení."
12:18
That's what she calledvolal the "banalitybanality of evilzlo."
288
723000
4000
To je to, čemu říkala "banalita zla."
12:22
And the responseOdezva to that
289
727000
2000
A odpověď na to je,
12:24
is that we demandpoptávka the exercisecvičení of thinkingmyslící
290
729000
2000
že budeme požadovat přemýšlení
12:26
from everykaždý sanenormální personosoba.
291
731000
3000
od každého normálního člověka.
12:29
So let's do that. Let's think.
292
734000
2000
Udělejme to tedy. Přemýšlejme.
12:31
In factskutečnost, let's startStart right now.
293
736000
3000
Vlastně můžeme začít hned teď.
12:34
EveryKaždý personosoba in this roompokoj, místnost do this:
294
739000
3000
Každý v téhle místnosti,
12:37
think of the last time you had a decisionrozhodnutí to make
295
742000
3000
vzpomeňte si, kdy naposled jste museli udělat rozhodnutí,
12:40
where you were worriedustaraný to do the right thing,
296
745000
2000
kdy jste měli strach, že neuděláte dobře,
12:42
where you wonderedpřemýšlel, "What should I be doing?"
297
747000
2000
kdy jste si říkali: "Co bych měl udělat?"
12:44
BringPřinést that to mindmysl,
298
749000
2000
Vzpomeňte si na to.
12:46
and now reflectodrážejí on that
299
751000
2000
A teď přemýšlejte
12:48
and say, "How did I come up that decisionrozhodnutí?
300
753000
3000
a řekněte "Jak jsem přišel na to, co mám udělat?
12:51
What did I do? Did I follownásledovat my gutstřevo?
301
756000
3000
Co jsem udělal? Jednal jsem instinktivně?
12:54
Did I have somebodyněkdo votehlasování on it? Or did I puntpramice to legalprávní?"
302
759000
2000
Nechal jsem o tom hlasovat? Nebo jsem se na to vykašlal a zavolal na právní?"
12:56
Or now we have a fewpár more choicesvolby.
303
761000
3000
Anebo teď máme několik dalších možností.
12:59
"Did I evaluatevyhodnotit what would be the highestnejvyšší pleasurepotěšení
304
764000
2000
"Vymyslel jsem, co vytvoří největší potěšení,
13:01
like MillMlýn would?
305
766000
2000
jako by to udělal Mill?
13:03
Or like KantKant, did I use reasondůvod to figurepostava out what was intrinsicallyvlastně right?"
306
768000
3000
Nebo jako Kant, použil jsem rozum, abych přišel na to, co je správné?"
13:06
Think about it. Really bringpřinést it to mindmysl. This is importantdůležité.
307
771000
3000
Přemýšlejte o tom. Opravdu vzpomínejte. Je to důležité.
13:09
It is so importantdůležité
308
774000
2000
Je to tak důležité,
13:11
we are going to spendstrávit 30 secondssekundy of valuablecenný TEDTalkTEDTalk time
309
776000
2000
že strávíme 30 sekund našeho TED času
13:13
doing nothing but thinkingmyslící about this.
310
778000
2000
nicneděláním a přemýšlením.
13:15
Are you readypřipraven? Go.
311
780000
2000
Jste připravení? Jdem na to!
13:33
Stop. Good work.
312
798000
3000
Konec. Dobrá práce!
13:36
What you just did,
313
801000
2000
To co jste právě udělali,
13:38
that's the first stepkrok towardsvůči takingpřijmout responsibilityodpovědnost
314
803000
2000
je první krok k tomu, abychom přijali zodpovědnost
13:40
for what we should do with all of our powerNapájení.
315
805000
3000
za to, co bychom měli dělat ze všech sil.
13:45
Now the nextdalší stepkrok -- try this.
316
810000
3000
Jako další krok vyzkoušíme tohle.
13:49
Go find a friendpřítel and explainvysvětlit to them
317
814000
2000
Jděte a najděte známého a vysvětlete mu,
13:51
how you madevyrobeno that decisionrozhodnutí.
318
816000
2000
jak jste k tomu rozhodnutí došli.
13:53
Not right now. Wait tillaž do I finishDokončit talkingmluvící.
319
818000
2000
Ne teď. Počkejte až domluvím.
13:55
Do it over lunchoběd.
320
820000
2000
Udělejte to třeba při obědě.
13:57
And don't just find anotherdalší technologisttechnolog friendpřítel;
321
822000
3000
A najděte někoho jiného než dalšího technologa,
14:00
find somebodyněkdo differentodlišný than you.
322
825000
2000
najděte někoho, kdo je jiný než vy.
14:02
Find an artistumělec or a writerspisovatel --
323
827000
2000
Najděte umělce nebo spisovatele
14:04
or, heavennebe forbidzakázat, find a philosopherfilozof and talk to them.
324
829000
3000
nebo, možná radši ne, najděte filozofa a mluvte s ním.
14:07
In factskutečnost, find somebodyněkdo from the humanitieshumanitních oborů.
325
832000
2000
Vlastně najděte někoho, kdo studuje humanitní vědy.
14:09
Why? Because they think about problemsproblémy
326
834000
2000
Proč? Protože oni o problémech přemýšlejí
14:11
differentlyjinak than we do as technologiststechnologové.
327
836000
2000
jinak než my technologové.
14:13
Just a fewpár daysdnů agopřed, right acrosspřes the streetulice from here,
328
838000
3000
Před několika dny, přímo přes ulici,
14:16
there was hundredsstovky of people gatheredshromáždili togetherspolu.
329
841000
2000
se shromáždily stovky lidí.
14:18
It was technologiststechnologové and humanistshumanisté
330
843000
2000
Byli to technologové a lidé, kteří studují humanitní vědy,
14:20
at that bigvelký BiblioTechBiblioTech ConferenceKonference.
331
845000
2000
kteří přišli na BiblioTech Conference.
14:22
And they gatheredshromáždili togetherspolu
332
847000
2000
A sešli se tam,
14:24
because the technologiststechnologové wanted to learnUčit se
333
849000
2000
protože technologové chtěli zjistit,
14:26
what it would be like to think from a humanitieshumanitních oborů perspectiveperspektivní.
334
851000
3000
jaké by to bylo přemýšlet z perspektivy humanitních věd.
14:29
You have someoneněkdo from GoogleGoogle
335
854000
2000
Máte třeba někoho z Googlu,
14:31
talkingmluvící to someoneněkdo who does comparativesrovnávací literatureliteratura.
336
856000
2000
kdo mluví s někým zaobírajícím se komparativní literaturou.
14:33
You're thinkingmyslící about the relevancerelevantnost of 17thth centurystoletí FrenchFrancouzština theaterdivadlo --
337
858000
3000
Přemýšlíte o významu francouzského divadla sedmnáctého století
14:36
how does that bearmedvěd uponna venturepodnik capitalhlavní město?
338
861000
2000
a co má společného s rizikovým kapitálem?
14:38
Well that's interestingzajímavý. That's a differentodlišný way of thinkingmyslící.
339
863000
3000
Hmm, to je zajímavé. To je jiný způsob myšlení.
14:41
And when you think in that way,
340
866000
2000
A když takhle začnete přemýšlet,
14:43
you becomestát more sensitivecitlivý to the humančlověk considerationsdůležité informace,
341
868000
3000
začnete být citlivější na lidská kritéria,
14:46
whichkterý are crucialrozhodující to makingtvorba ethicaletický decisionsrozhodnutí.
342
871000
3000
která jsou zásadní v etickém rozhodování.
14:49
So imaginepředstav si that right now
343
874000
2000
Tak si to teď představme,
14:51
you wentšel and you foundnalezeno your musicianhudebník friendpřítel.
344
876000
2000
šli jste a našli jste nějakého muzikanta.
14:53
And you're tellingvyprávění him what we're talkingmluvící about,
345
878000
3000
A říkáte mu, o čem jsme tady mluvili,
14:56
about our wholeCelý datadata revolutionrevoluce and all this --
346
881000
2000
o té datové revoluci a tak,
14:58
maybe even humHum a fewpár barsbary of our themetéma musichudba.
347
883000
2000
možná i pár taktů naší úvodní hudby.
15:00
DumDum taTa dada dada dumdum dumdum taTa dada dada dumdum
348
885000
3000
♫ Tam ta da da tam tam ta da da tam ♫
15:03
Well, your musicianhudebník friendpřítel will stop you and say,
349
888000
2000
Muzikant vás zastaví a řekne:
15:05
"You know, the themetéma musichudba
350
890000
2000
"Víš, že ta vaše úvodní hudba
15:07
for your datadata revolutionrevoluce,
351
892000
2000
k té datové revoluci,
15:09
that's an operaopera, that's WagnerWagner.
352
894000
2000
to je opera, to je Wagner.
15:11
It's basedna základě on NorseSeverské legendlegenda.
353
896000
2000
Je založená na norské legendě.
15:13
It's GodsBohové and mythicalmýtické creaturesstvoření
354
898000
2000
Jsou tam bohové a mytická stvoření,
15:15
fightingbojování over magicalmagický jewelryšperky."
355
900000
3000
kteří bojují o magický prsten."
15:19
That's interestingzajímavý.
356
904000
3000
To je zajímavé.
15:22
Now it's alsotaké a beautifulKrásná operaopera,
357
907000
3000
Takže teď je to i krásná opera.
15:25
and we're movedpřestěhoval by that operaopera.
358
910000
3000
A jsme dojatí z té opery.
15:28
We're movedpřestěhoval because it's about the battlebitva
359
913000
2000
Jsme dojatí, protože je to o boji
15:30
betweenmezi good and evilzlo,
360
915000
2000
mezi dobrem a zlem,
15:32
about right and wrongšpatně.
361
917000
2000
o správném a špatném.
15:34
And we carepéče about right and wrongšpatně.
362
919000
2000
A nás zajímá, co je dobře a co špatně.
15:36
We carepéče what happensse děje in that operaopera.
363
921000
3000
Nás zajímá, co se stane v té opeře.
15:39
We carepéče what happensse děje in "ApocalypseApokalypsa Now."
364
924000
3000
Zajímá nás, co se stane v "Apokalypse."
15:42
And we certainlyrozhodně carepéče
365
927000
2000
A zcela jistě nás zajímá,
15:44
what happensse děje with our technologiestechnologií.
366
929000
2000
co se stane s našimi technologiemi.
15:46
We have so much powerNapájení todaydnes,
367
931000
2000
Máme dnes tolik moci,
15:48
it is up to us to figurepostava out what to do,
368
933000
3000
že je na nás, abychom přišli na to, co dělat.
15:51
and that's the good newszprávy.
369
936000
2000
A to je dobrá zpráva.
15:53
We're the onesty writingpsaní this operaopera.
370
938000
3000
My jsme ti, kteří píší tuhle operu.
15:56
This is our moviefilm.
371
941000
2000
Tohle je náš film.
15:58
We figurepostava out what will happenpřihodit se with this technologytechnika.
372
943000
3000
My přijdeme na to, co se má stát s touhle technologií.
16:01
We determineurčit how this will all endkonec.
373
946000
3000
My určíme, jak to skončí!
16:04
Thank you.
374
949000
2000
Děkuji.
16:06
(ApplausePotlesk)
375
951000
5000
(Potlesk)
Translated by Tomáš Křehlík
Reviewed by Jan Kadlec

▲Back to top

ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com