ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com
TEDxSiliconValley

Damon Horowitz: We need a "moral operating system"

Damon Horowitz etterlyser et "moralsk operativsystem"

Filmed:
795,617 views

Under TEDxSiliconValley gransker Damon Horowitz det enorme potensialet som teknologi gir oss: å få vite mer -- og mer om hverandre -- enn noensinne tidligere. Gjennom å trekke publikum inn i en filosofisk diskusjon, inviterer Horowitz oss til å gi ny oppmerksomhet til den grunnleggende filosofien -- de etiske prinsippene -- bak eksplosjonen av oppfinnelser som omskaper vår verden. Hvor er det moralske operativsystemet som tillater oss å forstå den?
- Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities. Full bio

Double-click the English transcript below to play the video.

00:15
PowerStrøm.
0
0
2000
Makt.
00:17
That is the wordord that comeskommer to mindsinn.
1
2000
2000
Det er ordet jeg kommer å tenke på.
00:19
We're the newny technologiststeknologer.
2
4000
2000
Vi er de nye teknologene.
00:21
We have a lot of datadata, so we have a lot of powermakt.
3
6000
3000
Vi har mye data, så vi har mye makt.
00:24
How much powermakt do we have?
4
9000
2000
Hvor mye makt har vi?
00:26
SceneScenen from a moviefilm: "ApocalypseApocalypse Now" -- great moviefilm.
5
11000
3000
Scene fra en film: "Apocalypse Now" -- storartet film.
00:29
We'veVi har got to get our herohelt, CaptainKaptein WillardWillard, to the mouthmunn of the NungNung RiverElven
6
14000
3000
Vi må sende vår helt, Kapt. Willard, til munningen av Nung-floden
00:32
so he can go pursueforfølge ColonelOberst KurtzKurtz.
7
17000
2000
slik at han kan forfølge Oberst Kurtz.
00:34
The way we're going to do this is flyfly him in and dropmiste him off.
8
19000
2000
Måten vi skal gjøre det på er å fly ham inn og slippe ham ut.
00:36
So the scenescene:
9
21000
2000
Så, scenen:
00:38
the skyhimmel is filledfylt with this fleetflåte of helicoptershelikoptre carryingfrakte him in.
10
23000
3000
himmelen er fylt med denne flåten av helikoptre som tar ham inn.
00:41
And there's this loudhøyt, thrillingspennende musicmusikk in the backgroundbakgrunn,
11
26000
2000
Og det er den der høye, spennende musikken i bakgrunnen,
00:43
this wildvill musicmusikk.
12
28000
2000
vill musikk.
00:45
DumDum dada tata dada dumdum
13
30000
2000
♫ Dum da ta da dum ♫
00:47
DumDum dada tata dada dumdum
14
32000
2000
♫ Dum da ta da dum ♫
00:49
DaDa tata dada dada
15
34000
3000
♫ Da ta da da ♫
00:52
That's a lot of powermakt.
16
37000
2000
Det er mye makt.
00:54
That's the kindsnill of powermakt I feel in this roomrom.
17
39000
2000
Det er den typen makt jeg kjenner i dette rommet.
00:56
That's the kindsnill of powermakt we have
18
41000
2000
Det er den typen makt vi har
00:58
because of all of the datadata that we have.
19
43000
2000
gjennom all den data som vi har.
01:00
Let's take an exampleeksempel.
20
45000
2000
La oss ta et eksempel.
01:02
What can we do
21
47000
2000
Hva vi kan gjøre
01:04
with just one person'spersons datadata?
22
49000
3000
med kun en persons data?
01:07
What can we do
23
52000
2000
Hva kan vi gjøre
01:09
with that guy'sfolkens datadata?
24
54000
2000
med den fyrens data?
01:11
I can look at your financialfinansiell recordsposter.
25
56000
2000
Jeg kan se på dine finanser.
01:13
I can tell if you paybetale your billssedler on time.
26
58000
2000
Jeg kan si om du betaler dine regninger i tide.
01:15
I know if you're good to give a loanlåne to.
27
60000
2000
Jeg vet om du er verdt å innvilge lån til.
01:17
I can look at your medicalmedisinsk recordsposter; I can see if your pumppumpe is still pumpingpumping --
28
62000
3000
Jeg kan se på din medisinske journal, jeg kan se om pumpen din fortsatt pumper --
01:20
see if you're good to offerby på insuranceforsikring to.
29
65000
3000
se om du er verdt å tilby forsikring til.
01:23
I can look at your clickingklikke patternsmønstre.
30
68000
2000
Jeg kan se på ditt klikkemønster.
01:25
When you come to my websitenettsted, I actuallyfaktisk know what you're going to do alreadyallerede
31
70000
3000
Når du kommer inn på min webside, kan jeg faktisk vite hva du har tenkt å gjøre allerede,
01:28
because I've seensett you visitbesøk millionsmillioner of websitesnettsteder before.
32
73000
2000
for jeg har sett deg besøke milliontalls websider tidligere.
01:30
And I'm sorry to tell you,
33
75000
2000
Og jeg beklager å si det,
01:32
you're like a pokerPoker playerspiller, you have a tell.
34
77000
2000
du er som en pokerspiller, du avslører deg.
01:34
I can tell with datadata analysisanalyse what you're going to do
35
79000
2000
Jeg kan med dataanalyse si hva du kommer til å gjøre
01:36
before you even do it.
36
81000
2000
før du faktisk gjør det.
01:38
I know what you like. I know who you are,
37
83000
3000
Jeg vet hva du liker. Jeg vet hvem du er.
01:41
and that's even before I look at your mailpost
38
86000
2000
Og det er til og med før jeg kikker på dine e-poster
01:43
or your phonetelefon.
39
88000
2000
eller din telefon.
01:45
Those are the kindstyper of things we can do
40
90000
2000
Det er slike ting vi kan gjøre
01:47
with the datadata that we have.
41
92000
3000
med det datamateriell vi har.
01:50
But I'm not actuallyfaktisk here to talk about what we can do.
42
95000
3000
Men, jeg er egentlig ikke her for å prate om hva vi kan gjøre.
01:56
I'm here to talk about what we should do.
43
101000
3000
Jeg er her for å prate om hva vi burde gjøre.
02:00
What's the right thing to do?
44
105000
3000
Hva er det riktige å gjøre?
02:04
Now I see some puzzledrådvill looksutseende
45
109000
2000
Nå ser jeg noen rådville uttrykk
02:06
like, "Why are you askingspør us what's the right thing to do?
46
111000
3000
som, "Hvorfor spør du oss om hva som er det riktige å gjøre?
02:09
We're just buildingbygning this stuffting. SomebodyNoen elseellers is usingved hjelp av it."
47
114000
3000
Vi bygger jo bare tingene. Noen andre bruker dem.
02:12
FairRettferdig enoughnok.
48
117000
3000
Sant nok.
02:15
But it bringsbringer me back.
49
120000
2000
Men det bringer meg tilbake.
02:17
I think about WorldVerden WarKrigen IIII --
50
122000
2000
Jeg tenker på andre verdenskrigen --
02:19
some of our great technologiststeknologer then,
51
124000
2000
noen av våre fantastiske teknologer da,
02:21
some of our great physicistsfysikere,
52
126000
2000
noen av våre fantastiske fysikere,
02:23
studyingstudere nuclearkjernekraft fissionfisjon and fusionfusjon --
53
128000
2000
som studerte kjernefysisk fisjon og fusjon --
02:25
just nuclearkjernekraft stuffting.
54
130000
2000
bare kjernefysiske ting.
02:27
We gathersamle togethersammen these physicistsfysikere in LosLos AlamosAlamos
55
132000
3000
Vi samler sammen disse fysikerne i Los Alamos
02:30
to see what they'llde vil buildbygge.
56
135000
3000
for å se hva de kan bygge.
02:33
We want the people buildingbygning the technologyteknologi
57
138000
3000
Vi vil at menneskene som bygger teknologien
02:36
thinkingtenker about what we should be doing with the technologyteknologi.
58
141000
3000
skal tenke på hva vi burde gjøre med teknologien.
02:41
So what should we be doing with that guy'sfolkens datadata?
59
146000
3000
Så hva burde vi gjøre med den fyrens data?
02:44
Should we be collectinginnsamling it, gatheringsamling it,
60
149000
3000
Burde vi samle det inn, registrere det,
02:47
so we can make his onlinepå nett experienceerfaring better?
61
152000
2000
slik at vi kan gjøre hans opplevelse online bedre.
02:49
So we can make moneypenger?
62
154000
2000
Slik at vi kan tjene penger?
02:51
So we can protectbeskytte ourselvesoss
63
156000
2000
Slik at vi kan beskytte oss selv
02:53
if he was up to no good?
64
158000
2000
hvis han var ute etter å gjøre ugagn.
02:55
Or should we respectrespekt his privacypersonvern,
65
160000
3000
Eller, burde vi respektere hans privatliv,
02:58
protectbeskytte his dignityverdighet and leavepermisjon him alonealene?
66
163000
3000
beskytte hans verdighet og la ham være i fred?
03:02
WhichSom one is it?
67
167000
3000
Hvilken er det?
03:05
How should we figurefigur it out?
68
170000
2000
Hvordan finner vi det ut?
03:07
I know: crowdsourcecrowdsource. Let's crowdsourcecrowdsource this.
69
172000
3000
Jeg vet: avstemning. La oss stemme på dette.
03:11
So to get people warmedvarmet up,
70
176000
3000
Så, som oppvarming,
03:14
let's startstart with an easylett questionspørsmål --
71
179000
2000
la oss starte med et lett spørsmål --
03:16
something I'm sure everybodyalle here has an opinionmening about:
72
181000
3000
noe jeg er sikker på at alle her har en mening om:
03:19
iPhoneiPhone versusmot AndroidAndroid.
73
184000
2000
iPhone versus Android.
03:21
Let's do a showforestilling of handshender -- iPhoneiPhone.
74
186000
3000
Strekk opp handa -- iPhone.
03:24
Uh huh.
75
189000
2000
Aha.
03:26
AndroidAndroid.
76
191000
3000
Android.
03:29
You'dDu ville think with a bunchgjeng of smartsmart people
77
194000
2000
Man skulle tro, med en masse smarte mennesker,
03:31
we wouldn'tville ikke be suchslik suckerssuckers just for the prettyganske phonestelefoner.
78
196000
2000
at vi ikke bare var svake for de fineste telefonene.
03:33
(LaughterLatter)
79
198000
2000
(Latter)
03:35
NextNeste questionspørsmål,
80
200000
2000
Neste spørsmål,
03:37
a little bitbit harderhardere.
81
202000
2000
littegrann vanskeligere.
03:39
Should we be collectinginnsamling all of that guy'sfolkens datadata
82
204000
2000
Burde vi samle inn alt av den fyrens data
03:41
to make his experienceserfaringer better
83
206000
2000
for å gjøre hans opplevelse bedre
03:43
and to protectbeskytte ourselvesoss in casesak he's up to no good?
84
208000
3000
og for å beskytte oss selv hvis han er uærlig?
03:46
Or should we leavepermisjon him alonealene?
85
211000
2000
Eller burde vi la ham være i fred?
03:48
CollectSamle his datadata.
86
213000
3000
Samle inn data.
03:53
LeaveLa him alonealene.
87
218000
3000
La ham være i fred.
03:56
You're safesikker. It's fine.
88
221000
2000
Dere er sikker. Det går bra.
03:58
(LaughterLatter)
89
223000
2000
(Latter)
04:00
Okay, last questionspørsmål --
90
225000
2000
Ok, siste spørsmål --
04:02
harderhardere questionspørsmål --
91
227000
2000
vanskeligere spørsmål --
04:04
when tryingprøver to evaluateevaluere
92
229000
3000
når man skal evaluere
04:07
what we should do in this casesak,
93
232000
3000
hva man burde gjøre i dette tilfellet,
04:10
should we use a KantianKantian deontologicaldeontological moralmoralsk frameworkrammeverk,
94
235000
4000
burde vi bruke et Kantiansk deontologisk moralsk rammeverk,
04:14
or should we use a MillianMillian consequentialistconsequentialist one?
95
239000
3000
eller burde vi bruke et Mill-konsekvensialistisk?
04:19
KantKant.
96
244000
3000
Kant.
04:22
MillMill.
97
247000
3000
Mill.
04:25
Not as manymange votesstemmer.
98
250000
2000
Ikke like mange stemmer.
04:27
(LaughterLatter)
99
252000
3000
(Latter)
04:30
Yeah, that's a terrifyingskremmende resultresultat.
100
255000
3000
Ja, det er et skremmende resultat.
04:34
TerrifyingSkremmende, because we have strongersterkere opinionsmeninger
101
259000
4000
Skremmende fordi vi har sterkere meninger
04:38
about our hand-heldhåndholdt devicesenheter
102
263000
2000
om våre håndholdte enheter
04:40
than about the moralmoralsk frameworkrammeverk
103
265000
2000
enn om vårt moralske rammeverk
04:42
we should use to guideguide our decisionsbeslutninger.
104
267000
2000
vi burde bruke for å veilede våre beslutninger.
04:44
How do we know what to do with all the powermakt we have
105
269000
3000
Hvordan vet vi hva vi skal gjøre med all den makt vi har
04:47
if we don't have a moralmoralsk frameworkrammeverk?
106
272000
3000
hvis vi ikke har et moralsk rammeverk?
04:50
We know more about mobilemobil operatingdrifts systemssystemer,
107
275000
3000
Vi vet mer om mobile operativsystem,
04:53
but what we really need is a moralmoralsk operatingdrifts systemsystem.
108
278000
3000
men hva vi egentlig trenger er et moralsk operativsystem.
04:58
What's a moralmoralsk operatingdrifts systemsystem?
109
283000
2000
Hva er et moralsk operativsystem?
05:00
We all know right and wrongfeil, right?
110
285000
2000
Vi kjenner alle riktig og galt, ikke sant.
05:02
You feel good when you do something right,
111
287000
2000
Det føles bra når du gjør noe riktig,
05:04
you feel baddårlig when you do something wrongfeil.
112
289000
2000
det føles dårlig når du gjør noe galt.
05:06
Our parentsforeldre teachlære bort us that: praiseros with the good, scoldskjenne with the baddårlig.
113
291000
3000
Våre foreldre lær oss: ros med det gode, ris med det gale.
05:09
But how do we figurefigur out what's right and wrongfeil?
114
294000
3000
Men hvordan finner vi ut hva som er rett og galt?
05:12
And from day to day, we have the techniquesteknikker that we use.
115
297000
3000
Og fra dag til dag, vi har teknikkene vi bruker.
05:15
Maybe we just followFølg our gutmage.
116
300000
3000
Kanskje vi bare følger magefølelsen.
05:18
Maybe we take a votestemme -- we crowdsourcecrowdsource.
117
303000
3000
Kanskje vi stemmer -- vi tar en avstemning.
05:21
Or maybe we puntpunt --
118
306000
2000
Eller vi tar sjansen --
05:23
askspørre the legallovlig departmentavdeling, see what they say.
119
308000
3000
spør jussavdelingen, ser hva de sier.
05:26
In other wordsord, it's kindsnill of randomtilfeldig,
120
311000
2000
Med andre ord, det er ganske tilfeldig,
05:28
kindsnill of adannonse hochoc,
121
313000
2000
ganske ad hoc,
05:30
how we figurefigur out what we should do.
122
315000
3000
hvordan vi finner ut hva vi burde gjøre.
05:33
And maybe, if we want to be on surersurer footingfot,
123
318000
3000
Og kanskje, hvis vi vil være på sikrere grunn,
05:36
what we really want is a moralmoralsk frameworkrammeverk that will help guideguide us there,
124
321000
3000
hva vi egentlig vil ha er et moralsk rammeverk som kan guide oss dit,
05:39
that will tell us what kindstyper of things are right and wrongfeil in the first placeplass,
125
324000
3000
som forteller oss hvilke ting som er rette og gale i utgangspunktet,
05:42
and how would we know in a givengitt situationsituasjon what to do.
126
327000
4000
og hvordan vi skal kunne vite i enhver situasjon hva vi skal gjøre.
05:46
So let's get a moralmoralsk frameworkrammeverk.
127
331000
2000
Så la oss skaffe oss et moralsk rammeverk.
05:48
We're numberstall people, livingliving by numberstall.
128
333000
3000
Vi er siffer-mennesker, vi lever av tall.
05:51
How can we use numberstall
129
336000
2000
Hvordan kan vi bruke tall
05:53
as the basisbasis for a moralmoralsk frameworkrammeverk?
130
338000
3000
som basis for et moralsk rammeverk?
05:56
I know a guy who did exactlynøyaktig that.
131
341000
3000
Jeg kjenner en fyr som gjorde nøyaktig det,
05:59
A brilliantstrålende guy --
132
344000
3000
En genial fyr --
06:02
he's been deaddød 2,500 yearsår.
133
347000
3000
han har vært død i 2500 år.
06:05
PlatoPlaton, that's right.
134
350000
2000
Platon, det stemmer.
06:07
RememberHuske him -- oldgammel philosopherfilosof?
135
352000
2000
Husker dere ham -- gammel filosof?
06:09
You were sleepingsove duringi løpet av that classklasse.
136
354000
3000
Dere sov i den timen.
06:12
And PlatoPlaton, he had a lot of the samesamme concernsbekymringer that we did.
137
357000
2000
Og Platon, han hadde mange av de samme bekymringene som vi hadde.
06:14
He was worriedbekymret about right and wrongfeil.
138
359000
2000
Han var bekymret over rett og galt.
06:16
He wanted to know what is just.
139
361000
2000
Han ville vite hva som er rettferdig.
06:18
But he was worriedbekymret that all we seemsynes to be doing
140
363000
2000
Men han var bekymret over at alt vi så ut til å gjøre
06:20
is tradingtrading opinionsmeninger about this.
141
365000
2000
var å utbytte synspunkter om dette.
06:22
He sayssier something'snoe er just. She sayssier something elseellers is just.
142
367000
3000
Han sier at noe er rettferdig. Hun sier at noe annet er rettferdig.
06:25
It's kindsnill of convincingoverbevisende when he talkssamtaler and when she talkssamtaler too.
143
370000
2000
Det er ganske overbevisende når han snakker og når hun snakker også.
06:27
I'm just going back and forthvidere; I'm not gettingfår anywherehvor som helst.
144
372000
2000
Jeg går bare frem og tilbake; jeg kommer ingen vei.
06:29
I don't want opinionsmeninger; I want knowledgekunnskap.
145
374000
3000
Jeg vil ikke ha synspunkter, jeg vil ha kunnskap.
06:32
I want to know the truthsannhet about justicerettferdighet --
146
377000
3000
Jeg vil ha sannheten om rettferdighet --
06:35
like we have truthssannheter in mathmatte.
147
380000
3000
som vi har sannheter i matematikk.
06:38
In mathmatte, we know the objectiveobjektiv factsfakta.
148
383000
3000
Innenfor matematikk vet vi objektive fakta.
06:41
Take a numberAntall, any numberAntall -- two.
149
386000
2000
Ta et tall, hvilket som helst -- to.
06:43
FavoriteFavoritt numberAntall. I love that numberAntall.
150
388000
2000
Favorittall. Jeg elsker det tallet.
06:45
There are truthssannheter about two.
151
390000
2000
Det finnes sannheter om to.
06:47
If you've got two of something,
152
392000
2000
Hvis du har to av noe,
06:49
you addLegg til two more, you get fourfire.
153
394000
2000
du legger til to til, så får du fire.
06:51
That's trueekte no mattersaken what thing you're talkingsnakker about.
154
396000
2000
Det er sant uansett hva slags ting du snakker om.
06:53
It's an objectiveobjektiv truthsannhet about the formskjema of two,
155
398000
2000
Det er en objektiv sannhet om formen av to,
06:55
the abstractabstrakt formskjema.
156
400000
2000
den abstrakte formen.
06:57
When you have two of anything -- two eyesøyne, two earsører, two nosesneser,
157
402000
2000
Når du har to av noe -- to øyer, to ører, to neser,
06:59
just two protrusionsutstikkende deler --
158
404000
2000
bare to utspring --
07:01
those all partakedelta of the formskjema of two.
159
406000
3000
de tar alle formen av to.
07:04
They all participatedelta in the truthssannheter that two has.
160
409000
4000
De er alle med i sannheten som to har.
07:08
They all have two-nessto-ness in them.
161
413000
2000
De har alle en to-het i seg.
07:10
And thereforederfor, it's not a mattersaken of opinionmening.
162
415000
3000
Og derfor er det ikke et spørsmål om synspunkter.
07:13
What if, PlatoPlaton thought,
163
418000
2000
Enn hvis, tenkte Platon,
07:15
ethicsetikk was like mathmatte?
164
420000
2000
etikk var som matematikk?
07:17
What if there were a pureren formskjema of justicerettferdighet?
165
422000
3000
Enn hvis det fantes en ren form for rettferdighet?
07:20
What if there are truthssannheter about justicerettferdighet,
166
425000
2000
Enn hvis det finnes sannheter om rettferdighet,
07:22
and you could just look around in this worldverden
167
427000
2000
og du bare kan se deg rundt i verden
07:24
and see whichhvilken things participateddeltok,
168
429000
2000
og se hvilke ting som tilhørte,
07:26
partookspiste of that formskjema of justicerettferdighet?
169
431000
3000
var en del av den formen for rettferdighet?
07:29
Then you would know what was really just and what wasn'tvar ikke.
170
434000
3000
Da hadde du visst hva som virkelig var rettferdig og hva som ikke var det.
07:32
It wouldn'tville ikke be a mattersaken
171
437000
2000
Det hadde ikke blitt et spørsmål
07:34
of just opinionmening or just appearanceskamper.
172
439000
3000
om bare synspunkter eller fremtreden.
07:37
That's a stunningslående visionsyn.
173
442000
2000
Det er en oppsiktsvekkende visjon.
07:39
I mean, think about that. How grandgrand. How ambitiousambisiøse.
174
444000
3000
Jeg mener, tenk på det. Så flott. Så ambisiøst.
07:42
That's as ambitiousambisiøse as we are.
175
447000
2000
Det er så ambisiøse vi er.
07:44
He wants to solveløse ethicsetikk.
176
449000
2000
Han vil løse etikken.
07:46
He wants objectiveobjektiv truthssannheter.
177
451000
2000
Han ønsker objektiv sannhet.
07:48
If you think that way,
178
453000
3000
Hvis du tenker på den måten.
07:51
you have a PlatonistPlatonist moralmoralsk frameworkrammeverk.
179
456000
3000
har du et platonsk moralsk rammeverk.
07:54
If you don't think that way,
180
459000
2000
Hvis du ikke tenker på den måten,
07:56
well, you have a lot of companyselskap in the historyhistorie of WesternWestern philosophyfilosofi,
181
461000
2000
vel, da har du mye selskap fra vestens historiske filosofi,
07:58
because the tidyryddig ideaidé, you know, people criticizedkritisert it.
182
463000
3000
siden en så ryddig idé -- du vet, folk kritiserte den.
08:01
AristotleAristoteles, in particularbestemt, he was not amusedmoret.
183
466000
3000
Aristoteles, spesielt, han var ikke fornøyd.
08:04
He thought it was impracticalupraktisk.
184
469000
3000
Han mente det var upraktisk.
08:07
AristotleAristoteles said, "We should seeksøke only so much precisionpresisjon in eachHver subjectEmne
185
472000
4000
Aristoteles sa, "Vi burde søke kun så mye presisjon i ethvert emne,
08:11
as that subjectEmne allowsmuliggjør."
186
476000
2000
som det emnet tillater."
08:13
AristotleAristoteles thought ethicsetikk wasn'tvar ikke a lot like mathmatte.
187
478000
3000
Aristoteles mente etikk ikke var som matematikk.
08:16
He thought ethicsetikk was a mattersaken of makinglager decisionsbeslutninger in the here-and-nowher-og-nå
188
481000
3000
Han mente etikk var et spørsmål om å ta beslutning i øyeblikket
08:19
usingved hjelp av our bestbeste judgmentdom
189
484000
2000
gjennom å bruke vårt beste skjønn
08:21
to find the right pathsti.
190
486000
2000
for å finne den rette veien.
08:23
If you think that, Plato'sPlatons not your guy.
191
488000
2000
Hvis du tenker sånn er ikke Platon din type.
08:25
But don't give up.
192
490000
2000
Men ikke gi opp.
08:27
Maybe there's anotheren annen way
193
492000
2000
Kanskje finnes det en annen måte
08:29
that we can use numberstall as the basisbasis of our moralmoralsk frameworkrammeverk.
194
494000
3000
vi kan bruke tall på som en basis for vårt moralske rammeverk.
08:33
How about this:
195
498000
2000
Hva med dette:
08:35
What if in any situationsituasjon you could just calculateregne ut,
196
500000
3000
Enn hvis du, i enhver situasjon, kunne beregne,
08:38
look at the choicesvalg,
197
503000
2000
se på valgmulighetene,
08:40
measuremåle out whichhvilken one'sens better and know what to do?
198
505000
3000
måle opp hvilken som er bedre og vite hva man skal gjøre?
08:43
That soundlyd familiarfortrolig?
199
508000
2000
Høres dette kjent ut?
08:45
That's a utilitarianutilitarian moralmoralsk frameworkrammeverk.
200
510000
3000
Det er et utilitaristisk moralsk rammeverk.
08:48
JohnJohn StuartStuart MillMill was a great advocateadvokat of this --
201
513000
2000
John Stuart Mill var en stor advokat for dette --
08:50
nicehyggelig guy besidesi tillegg --
202
515000
2000
hyggelig fyr foresten --
08:52
and only been deaddød 200 yearsår.
203
517000
2000
og har kun vær død i 200 år.
08:54
So basisbasis of utilitarianismutilitarisme --
204
519000
2000
Så grunnleggende utilitarisme --
08:56
I'm sure you're familiarfortrolig at leastminst.
205
521000
2000
det er sikkert litt kjent.
08:58
The threetre people who votedvar for MillMill before are familiarfortrolig with this.
206
523000
2000
De tre personene som stemte for Mill tidligere kjenner til dette.
09:00
But here'sher er the way it worksvirker.
207
525000
2000
Men her er måten det fungerer på.
09:02
What if moralsmoral, what if what makesgjør at something moralmoralsk
208
527000
3000
Enn hvis moral, enn hvis det som gjør noe moralsk,
09:05
is just a mattersaken of if it maximizesmaksimerer pleasureglede
209
530000
2000
bare er et spørsmål om hvorvidt det maksimerer nytelse
09:07
and minimizesminimerer painsmerte?
210
532000
2000
og minimerer smerte?
09:09
It does something intrinsicinnebygd to the acthandling.
211
534000
3000
Det tilfører noe inneboende til handlingen.
09:12
It's not like its relationforhold to some abstractabstrakt formskjema.
212
537000
2000
Det er ikke dens relasjon til noen abstrakt form.
09:14
It's just a mattersaken of the consequenceskonsekvenser.
213
539000
2000
Det er bare et spørsmål om konsekvenser.
09:16
You just look at the consequenceskonsekvenser
214
541000
2000
Du ser på konsekvensene
09:18
and see if, overallalt i alt, it's for the good or for the worseverre.
215
543000
2000
og ser om de, overordnet, gjør det bedre eller verre.
09:20
That would be simpleenkel. Then we know what to do.
216
545000
2000
Det hadde vært enkelt. Da vet vi hva vi skal gjøre.
09:22
Let's take an exampleeksempel.
217
547000
2000
La oss ta et eksempel.
09:24
SupposeAnta I go up
218
549000
2000
La oss si at jeg går opp
09:26
and I say, "I'm going to take your phonetelefon."
219
551000
2000
og sier, "Jeg tenker å ta din telefon."
09:28
Not just because it rangringte earlierTidligere,
220
553000
2000
Ikke bare fordi den ringte tidligere,
09:30
but I'm going to take it because I madelaget a little calculationberegningen.
221
555000
3000
men jeg tenker ta den fordi jeg har gjort et lite regnestykke.
09:33
I thought, that guy looksutseende suspiciousmistenkelig.
222
558000
3000
Jeg tenkte, den fyren ser mistenkelig ut.
09:36
And what if he's been sendingsende little messagesmeldinger to BinBin Laden'sLaden's hideoutgjemmested --
223
561000
3000
Og hva om han har sendt noen små meldinger til Bin Ladens gjemmested --
09:39
or whoeverhvem tooktok over after BinBin LadenLaden --
224
564000
2000
eller hvem som nå tok over etter Bin Laden --
09:41
and he's actuallyfaktisk like a terroristterrorist, a sleepersovende cellcelle.
225
566000
3000
og han er faktisk som en terrorist, en 'hvilende'.
09:44
I'm going to find that out, and when I find that out,
226
569000
3000
Jeg skal finne det ut, og når jeg har funnet det ut,
09:47
I'm going to preventforhindre a hugeenorm amountbeløp of damageskader that he could causeårsaken.
227
572000
3000
så skal jeg forhindre en enorm mengde skader som han kunne ha skapt.
09:50
That has a very highhøy utilitynytte to preventforhindre that damageskader.
228
575000
3000
Det har en veldig høy nytteverdi å forhindre den skaden.
09:53
And comparedsammenlignet to the little painsmerte that it's going to causeårsaken --
229
578000
2000
Og sammenlignet med den lille smerten det kommer å forårsake --
09:55
because it's going to be embarrassingpinlig when I'm looking on his phonetelefon
230
580000
2000
fordi det kommer til å bli pinlig når jeg ser på telefonen hans
09:57
and seeingser that he has a FarmvilleFarmville problemproblem and that wholehel bitbit --
231
582000
3000
og ser at han har et Farmville-problem og alt det der --
10:00
that's overwhelmedoverveldet
232
585000
3000
det blir overgått
10:03
by the valueverdi of looking at the phonetelefon.
233
588000
2000
av verdien av å se på den telefonen.
10:05
If you feel that way,
234
590000
2000
Hvis du føler det på den måten,
10:07
that's a utilitarianutilitarian choicevalg.
235
592000
3000
så er det et utilitaristisk valg
10:10
But maybe you don't feel that way eitherenten.
236
595000
3000
Men kanskje føler du det ikke på den måten heller.
10:13
Maybe you think, it's his phonetelefon.
237
598000
2000
Kanskje tenker du, det er hans telefon.
10:15
It's wrongfeil to take his phonetelefon
238
600000
2000
Det er galt å ta hans telefon,
10:17
because he's a personperson
239
602000
2000
fordi han er en person
10:19
and he has rightsrettigheter and he has dignityverdighet,
240
604000
2000
og han har rettigheter og han har verdighet,
10:21
and we can't just interfereforstyrre with that.
241
606000
2000
og vi kan ikke bare forstyrre det.
10:23
He has autonomyselvstyre.
242
608000
2000
Han har autonomi.
10:25
It doesn't mattersaken what the calculationsberegningene are.
243
610000
2000
Det spiller ingen rolle hva regnestykket er.
10:27
There are things that are intrinsicallyegen~~POS=TRUNC wrongfeil --
244
612000
3000
Det finnes ting som er grunnlegende galt --
10:30
like lyingliggende is wrongfeil,
245
615000
2000
slik som å lyve er galt,
10:32
like torturingtortur innocentuskyldig childrenbarn is wrongfeil.
246
617000
3000
som å torturere uskyldige barn er galt.
10:35
KantKant was very good on this pointpunkt,
247
620000
3000
Kant var veldig bra på det punktet,
10:38
and he said it a little better than I'll say it.
248
623000
2000
og han sa det litt bedre enn jeg sier det.
10:40
He said we should use our reasongrunnen til
249
625000
2000
Han sa at vi skulle bruke vårt fornuft
10:42
to figurefigur out the rulesregler by whichhvilken we should guideguide our conductoppførsel,
250
627000
3000
til å finne ut de reglene som skal styre vår adferd.
10:45
and then it is our dutyplikt to followFølg those rulesregler.
251
630000
3000
Og da er det vår plikt å følge disse reglene.
10:48
It's not a mattersaken of calculationberegningen.
252
633000
3000
Det er ikke et spørsmål om beregning.
10:51
So let's stop.
253
636000
2000
Så la oss stoppe.
10:53
We're right in the thicktykk of it, this philosophicalfilosofisk thicketkratt.
254
638000
3000
Vi er midt i smørøyet her, i dette filosofiske kaoset.
10:56
And this goesgår on for thousandstusener of yearsår,
255
641000
3000
Og dette fortsetter i tusenvis av år,
10:59
because these are hardhard questionsspørsmål,
256
644000
2000
fordi dette er vanskelige spørsmål,
11:01
and I've only got 15 minutesminutter.
257
646000
2000
og jeg har bare 15 minutter.
11:03
So let's cutkutte opp to the chaseChase.
258
648000
2000
Så la oss komme til saken.
11:05
How should we be makinglager our decisionsbeslutninger?
259
650000
4000
Hvordan burde vi ta våre beslutninger?
11:09
Is it PlatoPlaton, is it AristotleAristoteles, is it KantKant, is it MillMill?
260
654000
3000
Er det Platon, er det Aristoteles, er det Kant, er det Mill?
11:12
What should we be doing? What's the answersvar?
261
657000
2000
Hva burde vi gjøre? Hva er svaret?
11:14
What's the formulaformel that we can use in any situationsituasjon
262
659000
3000
Hva er formelen som vi kan bruke i enhver situasjon
11:17
to determinefastslå what we should do,
263
662000
2000
for å avgjøre hva vi burde gjøre,
11:19
whetherom we should use that guy'sfolkens datadata or not?
264
664000
2000
hvis vi burde bruke denne fyrens data eller ikke?
11:21
What's the formulaformel?
265
666000
3000
Hva er formelen?
11:25
There's not a formulaformel.
266
670000
2000
Det finnes ingen formel.
11:29
There's not a simpleenkel answersvar.
267
674000
2000
Det finnes ikke et enkelt svar.
11:31
EthicsEtikk is hardhard.
268
676000
3000
Etikk er vanskelig.
11:34
EthicsEtikk requireskrever thinkingtenker.
269
679000
3000
Etikk krever tenkning.
11:38
And that's uncomfortableubehagelig.
270
683000
2000
Og det er ukomfortabelt.
11:40
I know; I spentbrukt a lot of my careerkarriere
271
685000
2000
Jeg vet; Jeg tilbragte mye av min karriere
11:42
in artificialkunstig intelligenceintelligens,
272
687000
2000
innenfor kunstig intelligens,
11:44
tryingprøver to buildbygge machinesmaskiner that could do some of this thinkingtenker for us,
273
689000
3000
og forsøkte bygge maskiner som kunne gjøre noe av denne tenkningen for oss,
11:47
that could give us answerssvar.
274
692000
2000
som kunne gi oss svar.
11:49
But they can't.
275
694000
2000
Men det kan de ikke.
11:51
You can't just take humanmenneskelig thinkingtenker
276
696000
2000
Du kan ikke bare ta menneskelig tenkning
11:53
and put it into a machinemaskin.
277
698000
2000
og putte den inn i en maskin.
11:55
We're the onesseg who have to do it.
278
700000
3000
Det er vi som må gjøre det.
11:58
HappilyLykkelig, we're not machinesmaskiner, and we can do it.
279
703000
3000
Heldigvis, vi er ikke maskiner, og vi kan gjøre det.
12:01
Not only can we think,
280
706000
2000
Ikke bare kan vi tenke,
12:03
we must.
281
708000
2000
vi må.
12:05
HannahHannah ArendtArendt said,
282
710000
2000
Hannah Arendt sa,
12:07
"The sadlei seg truthsannhet
283
712000
2000
"Den triste sannheten
12:09
is that mostmest evilond doneferdig in this worldverden
284
714000
2000
er at den verste ondskapen i denne verden
12:11
is not doneferdig by people
285
716000
2000
ikke kommer fra mennesker
12:13
who choosevelge to be evilond.
286
718000
2000
som velger å være onde.
12:15
It arisesoppstår from not thinkingtenker."
287
720000
3000
Den kommer fra å ikke tenke."
12:18
That's what she calledkalt the "banalitybanaliteter of evilond."
288
723000
4000
Det er hva hun kaller "ondskapens banalitet."
12:22
And the responserespons to that
289
727000
2000
Og responsen på det
12:24
is that we demandkreve the exercisetrening of thinkingtenker
290
729000
2000
er at vi krever øvelse i å tenke
12:26
from everyhver sanesunn personperson.
291
731000
3000
fra enhver fornuftig person.
12:29
So let's do that. Let's think.
292
734000
2000
Så la oss gjøre det. La oss tenke.
12:31
In factfaktum, let's startstart right now.
293
736000
3000
Faktisk, la oss starte akkurat nå.
12:34
EveryHver personperson in this roomrom do this:
294
739000
3000
Alle personer i dette rommet gjør følgende:
12:37
think of the last time you had a decisionbeslutning to make
295
742000
3000
tenk på den siste gangen dere skulle ta en beslutning
12:40
where you were worriedbekymret to do the right thing,
296
745000
2000
hvor dere var bekymret over å gjøre det riktige,
12:42
where you wonderedlurte på, "What should I be doing?"
297
747000
2000
hvor dere lurte på, "Hva burde jeg gjøre?"
12:44
BringBringe that to mindsinn,
298
749000
2000
Ha det i tankene.
12:46
and now reflectreflektere on that
299
751000
2000
Og nå reflekter rundt det
12:48
and say, "How did I come up that decisionbeslutning?
300
753000
3000
og si, "Hvordan kom jeg frem til den beslutningen?
12:51
What did I do? Did I followFølg my gutmage?
301
756000
3000
Hva gjorde jeg? Fulgte jeg magefølelsen?
12:54
Did I have somebodynoen votestemme on it? Or did I puntpunt to legallovlig?"
302
759000
2000
Fikk jeg noen til å stemme om det? Eller tok jeg sjansen på rettssystemet?
12:56
Or now we have a few more choicesvalg.
303
761000
3000
Eller nå har vi noen fler muligheter.
12:59
"Did I evaluateevaluere what would be the highesthøyeste pleasureglede
304
764000
2000
"Vurderte jeg hva som hadde gitt den høyeste nytelsen
13:01
like MillMill would?
305
766000
2000
som Mill hadde gjort?
13:03
Or like KantKant, did I use reasongrunnen til to figurefigur out what was intrinsicallyegen~~POS=TRUNC right?"
306
768000
3000
Eller som Kant, brukte jeg fornuftet for å finne ut hva som var grunnleggende riktig?"
13:06
Think about it. Really bringbringe it to mindsinn. This is importantviktig.
307
771000
3000
Tenk på det. Virkelig ha det i tankene. Dette er viktig.
13:09
It is so importantviktig
308
774000
2000
Det er så viktig
13:11
we are going to spendbruke 30 secondssekunder of valuableverdifull TEDTalkTEDTalk time
309
776000
2000
at vi skal bruke 30 sekunder av verdifull TEDTalk-tid
13:13
doing nothing but thinkingtenker about this.
310
778000
2000
og ikke gjøre noe annet enn å tenke på det.
13:15
Are you readyklar? Go.
311
780000
2000
Er dere klare? Nå.
13:33
Stop. Good work.
312
798000
3000
Stopp. Bra jobba.
13:36
What you just did,
313
801000
2000
Hva dere nettopp gjorde,
13:38
that's the first stepskritt towardsmot takingta responsibilityansvar
314
803000
2000
er det første trinnet mot å ta ansvar
13:40
for what we should do with all of our powermakt.
315
805000
3000
for hva vi burde gjøre med all vår makt.
13:45
Now the nextneste stepskritt -- try this.
316
810000
3000
Nå til neste trinn -- prøv dette.
13:49
Go find a friendvenn and explainforklare to them
317
814000
2000
Let opp en venn og forklar for dem
13:51
how you madelaget that decisionbeslutning.
318
816000
2000
hvordan du tok den beslutningen.
13:53
Not right now. Wait tillinntil I finishbli ferdig talkingsnakker.
319
818000
2000
Ikke akkurat nå. Vent til jeg har snakket ferdig.
13:55
Do it over lunchlunsj.
320
820000
2000
Gjør det i lunsjen.
13:57
And don't just find anotheren annen technologistteknolog friendvenn;
321
822000
3000
Og finn ikke bare en annen teknologvenn;
14:00
find somebodynoen differentannerledes than you.
322
825000
2000
finn noen som er annerledes enn du.
14:02
Find an artistkunstner or a writerforfatter --
323
827000
2000
Finn en artist eller en forfatter --
14:04
or, heavenhimmel forbidforby, find a philosopherfilosof and talk to them.
324
829000
3000
eller, Gud forby, finn en filosof og snakk med dem.
14:07
In factfaktum, find somebodynoen from the humanitieshumaniora.
325
832000
2000
Forresten, finn noen fra humaniora.
14:09
Why? Because they think about problemsproblemer
326
834000
2000
Hvorfor? Fordi de tenker på problem
14:11
differentlypå en annen måte than we do as technologiststeknologer.
327
836000
2000
annerledes enn vi gjør som teknologer.
14:13
Just a few daysdager agosiden, right acrosspå tvers the streetgate from here,
328
838000
3000
For bare et par dager siden, rett over gaten herfra,
14:16
there was hundredshundrevis of people gatheredsamlet togethersammen.
329
841000
2000
var det hundrevis av mennesker sammen.
14:18
It was technologiststeknologer and humanistshumanister
330
843000
2000
Det var teknologer og humanister
14:20
at that bigstor BiblioTechBiblioTech ConferenceKonferanse.
331
845000
2000
på den der BiblioTech-konferansen.
14:22
And they gatheredsamlet togethersammen
332
847000
2000
Og de samlet seg sammen
14:24
because the technologiststeknologer wanted to learnlære
333
849000
2000
fordi teknologene ville lære seg
14:26
what it would be like to think from a humanitieshumaniora perspectiveperspektiv.
334
851000
3000
hvordan det ville være å tenke fra et humanistisk perspektiv.
14:29
You have someonenoen from GoogleGoogle
335
854000
2000
Du har noen fra Google
14:31
talkingsnakker to someonenoen who does comparativekomparativ literaturelitteratur.
336
856000
2000
som snakker med noen som gjør komparativ litteratur.
14:33
You're thinkingtenker about the relevancerelevans of 17thth centuryårhundre FrenchFransk theaterteater --
337
858000
3000
Du tenker på relevansen av fransk teater fra 1600-tallet --
14:36
how does that bearBjørn upon ventureventure- capitalhovedstad?
338
861000
2000
hvordan innvirker det på risikokapital?
14:38
Well that's interestinginteressant. That's a differentannerledes way of thinkingtenker.
339
863000
3000
Vel, det er interessant. Det er en annen måte å tenke på.
14:41
And when you think in that way,
340
866000
2000
Og når du tenker på den måten,
14:43
you becomebli more sensitivefølsom to the humanmenneskelig considerationsbetraktninger,
341
868000
3000
blir du mer følsom for menneskelige hensyn,
14:46
whichhvilken are crucialavgjørende to makinglager ethicaletisk decisionsbeslutninger.
342
871000
3000
som er avgjørende for å ta etiske beslutninger.
14:49
So imagineForestill deg that right now
343
874000
2000
Så forestill deg akkurat nå
14:51
you wentgikk and you foundfunnet your musicianmusiker friendvenn.
344
876000
2000
du gikk og du fant en musikkvenn.
14:53
And you're tellingforteller him what we're talkingsnakker about,
345
878000
3000
Og du forteller ham hva vi snakker om,
14:56
about our wholehel datadata revolutionrevolusjon and all this --
346
881000
2000
om hele vår datarevolusjon og alt dette --
14:58
maybe even humnynne a few barsbarer of our themetema musicmusikk.
347
883000
2000
kanskje til og med nynner noen strofer fra vår temasang.
15:00
DumDum tata dada dada dumdum dumdum tata dada dada dumdum
348
885000
3000
♫ Dum ta da da dum dum ta da da dum ♫
15:03
Well, your musicianmusiker friendvenn will stop you and say,
349
888000
2000
Vel, din musikkvenn vill stoppe deg og si,
15:05
"You know, the themetema musicmusikk
350
890000
2000
"Du vet, den temasangen
15:07
for your datadata revolutionrevolusjon,
351
892000
2000
for din datarevolusjon,
15:09
that's an operaopera, that's WagnerWagner.
352
894000
2000
det er en opera, det er Wagner.
15:11
It's basedbasert on NorseNorrøn legendlegende.
353
896000
2000
Den er basert på Norrøn legende.
15:13
It's GodsGuder and mythicalmytiske creaturesskapninger
354
898000
2000
Det er guder og mytiske skapninger
15:15
fightingslåssing over magicalmagisk jewelrysmykker."
355
900000
3000
som sloss over magiske smykker."
15:19
That's interestinginteressant.
356
904000
3000
Det er interessant.
15:22
Now it's alsoogså a beautifulvakker operaopera,
357
907000
3000
Nå er det også en vakker opera.
15:25
and we're movedflyttet by that operaopera.
358
910000
3000
Og vi blir rørt av den operaen
15:28
We're movedflyttet because it's about the battleslag
359
913000
2000
Vi blir rørt fordi det handler om kampen
15:30
betweenmellom good and evilond,
360
915000
2000
mellom godt og ondt,
15:32
about right and wrongfeil.
361
917000
2000
om rett og galt.
15:34
And we careomsorg about right and wrongfeil.
362
919000
2000
Og vi bryr oss om rett og galt.
15:36
We careomsorg what happensskjer in that operaopera.
363
921000
3000
Vi bryr oss om hva som skjer i den operaen.
15:39
We careomsorg what happensskjer in "ApocalypseApocalypse Now."
364
924000
3000
Vi bryr oss om hva som skjer i "Apocalypse Now."
15:42
And we certainlysikkert careomsorg
365
927000
2000
Og vi bryr oss virkelig om
15:44
what happensskjer with our technologiesteknologier.
366
929000
2000
hva som skjer med vår teknologi.
15:46
We have so much powermakt todayi dag,
367
931000
2000
Vi har så mye makt i dag,
15:48
it is up to us to figurefigur out what to do,
368
933000
3000
at det er opp til oss å finne ut hva vi skal gjøre.
15:51
and that's the good newsnyheter.
369
936000
2000
Og det er de gode nyhetene.
15:53
We're the onesseg writingskriving this operaopera.
370
938000
3000
Vi er de som skriver den her operaen.
15:56
This is our moviefilm.
371
941000
2000
Dette er vår film.
15:58
We figurefigur out what will happenskje with this technologyteknologi.
372
943000
3000
Vi finner ut hva som skal skje med denne teknologien.
16:01
We determinefastslå how this will all endslutt.
373
946000
3000
Vi bestemmer hvordan dette vil ende.
16:04
Thank you.
374
949000
2000
Tusen takk.
16:06
(ApplauseApplaus)
375
951000
5000
(Applaus)
Translated by Anna Carlsson
Reviewed by Martin Hassel

▲Back to top

ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee