ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com
TEDxSiliconValley

Damon Horowitz: We need a "moral operating system"

Damon Horowitz vraagt aandacht voor een "ethisch besturingssysteem"

Filmed:
795,617 views

Tijdens TEDxSiliconValley bespreekt Damon Horowitz de enorme nieuwe macht die technologie ons geeft: om meer te weten -- en meer over elkaar -- dan ooit tevoren. Door het publiek te betrekken in een filosofische discussie, nodigt Horowitz ons uit aandacht te schenken aan de basisfilosofie -- de ethische principes -- achter de uitbarsting van uitvindingen die onze wereld opnieuw vormgeven. Waar is het ethische besturingssysteem dat ons in staat stelt dit werkbaar te maken?
- Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities. Full bio

Double-click the English transcript below to play the video.

00:15
PowerMacht.
0
0
2000
Macht.
00:17
That is the wordwoord that comeskomt to mindgeest.
1
2000
2000
Dat is het woord waaraan ik moet denken.
00:19
We're the newnieuwe technologiststechnologen.
2
4000
2000
We zijn de nieuwe technologen.
00:21
We have a lot of datagegevens, so we have a lot of powermacht.
3
6000
3000
We hebben een heleboel data, dus we hebben een heleboel macht.
00:24
How much powermacht do we have?
4
9000
2000
Hoeveel macht hebben we?
00:26
SceneScène from a moviefilm: "ApocalypseApocalyps Now" -- great moviefilm.
5
11000
3000
Scène uit een film: "Apocalypse Now" -- geweldige film.
00:29
We'veWe hebben got to get our heroheld, CaptainKapitein WillardWillard, to the mouthmond of the NungNung RiverRivier
6
14000
3000
We moeten onze held, Kap. Willard, bij de monding van de Nung rivier krijgen
00:32
so he can go pursuena te streven ColonelKolonel KurtzKurtz.
7
17000
2000
zodat hij achter Kol. Kurtz aan kan gaan.
00:34
The way we're going to do this is flyvlieg him in and droplaten vallen him off.
8
19000
2000
We gaan dat doen door hem er naartoe te vliegen en af te zetten.
00:36
So the scenetafereel:
9
21000
2000
Dus de scène:
00:38
the skyhemel is filledgevulde with this fleetvloot of helicoptershelikopters carryingvervoer him in.
10
23000
3000
de horizon is gevuld met een vloot helikopters die hem brengt.
00:41
And there's this loudluid, thrillingspannende musicmuziek- in the backgroundachtergrond,
11
26000
2000
Er is luide, spannende muziek op de achtergrond,
00:43
this wildwild musicmuziek-.
12
28000
2000
ruige muziek.
00:45
DumDum dada tata dada dumDum
13
30000
2000
♫ Dum da ta da dum ♫
00:47
DumDum dada tata dada dumDum
14
32000
2000
♫ Dum da ta da dum ♫
00:49
DaDa tata dada dada
15
34000
3000
♫ Da ta da da ♫
00:52
That's a lot of powermacht.
16
37000
2000
Dat is een heleboel macht.
00:54
That's the kindsoort of powermacht I feel in this roomkamer.
17
39000
2000
Dat is het soort macht dat ik in deze ruimte voel.
00:56
That's the kindsoort of powermacht we have
18
41000
2000
Dat is het soort macht dat wij hebben
00:58
because of all of the datagegevens that we have.
19
43000
2000
door alle data die we hebben.
01:00
Let's take an examplevoorbeeld.
20
45000
2000
Laten we een voorbeeld nemen.
01:02
What can we do
21
47000
2000
Wat kunnen we doen
01:04
with just one person'spersonen datagegevens?
22
49000
3000
met de data van maar één persoon?
01:07
What can we do
23
52000
2000
Wat kunnen we doen
01:09
with that guy'sguy's datagegevens?
24
54000
2000
met de data van die kerel?
01:11
I can look at your financialfinancieel recordsarchief.
25
56000
2000
Ik kan je financiële gegevens bekijken.
01:13
I can tell if you paybetalen your billsbiljetten on time.
26
58000
2000
Ik kan zeggen of jij je rekeningen op tijd betaalt.
01:15
I know if you're good to give a loanlening to.
27
60000
2000
Ik weet of je kredietwaardig bent.
01:17
I can look at your medicalmedisch recordsarchief; I can see if your pumppomp is still pumpingpompen --
28
62000
3000
Ik kan je medische gegevens bekijken, ik kan zien of je rikketik nog tikt --
01:20
see if you're good to offeraanbod insuranceverzekering to.
29
65000
3000
zien of je we je een verzekering kunnen aanbieden.
01:23
I can look at your clickingklikken patternspatronen.
30
68000
2000
Ik kan je klikpatronen bekijken.
01:25
When you come to my websitewebsite, I actuallywerkelijk know what you're going to do alreadynu al
31
70000
3000
Wanneer je op mijn website komt, weet ik eigenlijk al wat je gaat doen,
01:28
because I've seengezien you visitbezoek millionsmiljoenen of websiteswebsites before.
32
73000
2000
want hiervoor heb ik je miljoenen websites zien bezoeken.
01:30
And I'm sorry to tell you,
33
75000
2000
En het spijt me dat ik het je zeg,
01:32
you're like a pokerPoker playerspeler, you have a tell.
34
77000
2000
je bent als een pokerspeler, je hebt een "tell".
01:34
I can tell with datagegevens analysisanalyse what you're going to do
35
79000
2000
Ik kan door middel van data-analyse zeggen wat je gaat doen
01:36
before you even do it.
36
81000
2000
zelfs voordat je het doet.
01:38
I know what you like. I know who you are,
37
83000
3000
Ik weet wat je leuk vindt. Ik weet wie je bent.
01:41
and that's even before I look at your mailmail
38
86000
2000
En dat is nog voordat ik naar je post kijk
01:43
or your phonetelefoon.
39
88000
2000
of naar je telefoon.
01:45
Those are the kindssoorten of things we can do
40
90000
2000
Dat is het soort dingen dat we kunnen doen
01:47
with the datagegevens that we have.
41
92000
3000
met de data die we hebben.
01:50
But I'm not actuallywerkelijk here to talk about what we can do.
42
95000
3000
Maar ik ben eigenlijk niet hier om te praten over wat we kúnnen doen.
01:56
I'm here to talk about what we should do.
43
101000
3000
Ik ben hier om te praten over wat we zouden moeten doen.
02:00
What's the right thing to do?
44
105000
3000
Wat is het juiste om te doen?
02:04
Now I see some puzzledraadsel lookslooks
45
109000
2000
Nu zie ik wat verbaasde blikken:
02:06
like, "Why are you askingvragen us what's the right thing to do?
46
111000
3000
"Waarom vraag je ons wat het juiste is om te doen?
02:09
We're just buildinggebouw this stuffspul. SomebodyIemand elseanders is usinggebruik makend van it."
47
114000
3000
We bouwen dit spul alleen. Iemand anders gebruikt het."
02:12
FairEerlijke enoughgenoeg.
48
117000
3000
Niets mis mee.
02:15
But it bringsbrengt me back.
49
120000
2000
Maar het laat me terugdenken.
02:17
I think about WorldWereld WarOorlog IIII --
50
122000
2000
Ik denk aan de Tweede Wereldoorlog --
02:19
some of our great technologiststechnologen then,
51
124000
2000
sommige van onze grootse technologen toen,
02:21
some of our great physicistsnatuurkundigen,
52
126000
2000
sommige van onze grootse natuurkundigen
02:23
studyingaan het studeren nuclearnucleair fissionfission and fusionfusie --
53
128000
2000
die kernsplijting en kernfusie bestudeerden --
02:25
just nuclearnucleair stuffspul.
54
130000
2000
nucleaire dingen.
02:27
We gatherverzamelen togethersamen these physicistsnatuurkundigen in LosLos AlamosAlamos
55
132000
3000
We brengen deze natuurkundigen bijeen in Los Alamos
02:30
to see what they'llzullen ze buildbouwen.
56
135000
3000
om te zien wat zij gaan maken.
02:33
We want the people buildinggebouw the technologytechnologie
57
138000
3000
We willen dat de mensen die de technologie ontwikkelen,
02:36
thinkinghet denken about what we should be doing with the technologytechnologie.
58
141000
3000
nadenken over wat we zouden moeten doen met de technologie.
02:41
So what should we be doing with that guy'sguy's datagegevens?
59
146000
3000
Dus wat zouden we moeten doen met de data van die kerel?
02:44
Should we be collectingverzamelen it, gatheringbijeenkomst it,
60
149000
3000
Moeten we ze inzamelen, verzamelen,
02:47
so we can make his onlineonline experienceervaring better?
61
152000
2000
zodat we zijn online belevenis beter kunnen maken?
02:49
So we can make moneygeld?
62
154000
2000
Zodat we geld kunnen verdienen?
02:51
So we can protectbeschermen ourselvesonszelf
63
156000
2000
Zodat we onszelf kunnen beschermen
02:53
if he was up to no good?
64
158000
2000
wanneer hij iets slechts van plan zou zijn?
02:55
Or should we respecteerbied his privacyprivacy,
65
160000
3000
Of moeten we zijn privacy respecteren,
02:58
protectbeschermen his dignitywaardigheid and leavehet verlof him alonealleen?
66
163000
3000
zijn waardigheid beschermen en hem met rust laten?
03:02
WhichDie one is it?
67
167000
3000
Welke van de twee is het?
03:05
How should we figurefiguur it out?
68
170000
2000
Hoe zouden we daar achter kunnen komen?
03:07
I know: crowdsourceCrowdsource. Let's crowdsourceCrowdsource this.
69
172000
3000
Ik weet het: "crowdsourcen". Laten we dit "crowdsourcen".
03:11
So to get people warmedopgewarmd up,
70
176000
3000
Laten we, om op te warmen,
03:14
let's startbegin with an easygemakkelijk questionvraag --
71
179000
2000
beginnen met een makkelijke vraag --
03:16
something I'm sure everybodyiedereen here has an opinionmening about:
72
181000
3000
iets waar iedereen hier wel een mening over heeft:
03:19
iPhoneiPhone versusversus AndroidAndroïde.
73
184000
2000
iPhone versus Android.
03:21
Let's do a showtonen of handshanden -- iPhoneiPhone.
74
186000
3000
Laten we handen tellen -- iPhone.
03:24
Uh huh.
75
189000
2000
Uh huh.
03:26
AndroidAndroïde.
76
191000
3000
Android.
03:29
You'dU zou think with a bunchbos of smartslim people
77
194000
2000
Je zou denken dat met een groep slimme mensen
03:31
we wouldn'tzou het niet be suchzodanig suckersZuignap just for the prettymooi phonestelefoons.
78
196000
2000
we niet zo'n zwakte zouden hebben voor de mooie telefoons.
03:33
(LaughterGelach)
79
198000
2000
(Gelach)
03:35
NextVolgende questionvraag,
80
200000
2000
Volgende vraag,
03:37
a little bitbeetje harderharder.
81
202000
2000
een beetje moeilijker.
03:39
Should we be collectingverzamelen all of that guy'sguy's datagegevens
82
204000
2000
Zouden we de data van die kerel moeten inzamelen
03:41
to make his experienceservaringen better
83
206000
2000
om zijn belevenissen te verbeteren
03:43
and to protectbeschermen ourselvesonszelf in casegeval he's up to no good?
84
208000
3000
en onszelf te beschermen wanneer hij iets slechts van plan is?
03:46
Or should we leavehet verlof him alonealleen?
85
211000
2000
Of moeten we hem met rust laten?
03:48
CollectVerzamelen his datagegevens.
86
213000
3000
Verzamel zijn data.
03:53
LeaveVerlof him alonealleen.
87
218000
3000
Laat hem met rust.
03:56
You're safeveilig. It's fine.
88
221000
2000
Je zit veilig. Het is al goed.
03:58
(LaughterGelach)
89
223000
2000
(Gelach)
04:00
Okay, last questionvraag --
90
225000
2000
Oké, laatste vraag --
04:02
harderharder questionvraag --
91
227000
2000
moeilijkere vraag --
04:04
when tryingproberen to evaluateschatten
92
229000
3000
wanneer we proberen te beoordelen
04:07
what we should do in this casegeval,
93
232000
3000
wat we zouden moeten doen in dit geval,
04:10
should we use a KantianKantian deontologicaldeontologische moralMoreel frameworkkader,
94
235000
4000
moeten we dan een kantiaans, deontologisch ethisch kader gebruiken,
04:14
or should we use a MillianMillian consequentialistconsequentialistische one?
95
239000
3000
of een milliaans, consequentialistisch kader?
04:19
KantKant.
96
244000
3000
Kant.
04:22
MillMolen.
97
247000
3000
Mill.
04:25
Not as manyveel votesstemmen.
98
250000
2000
Niet zoveel stemmen als net.
04:27
(LaughterGelach)
99
252000
3000
(Gelach)
04:30
Yeah, that's a terrifyingafschuwelijk resultresultaat.
100
255000
3000
Ja, dat is een verschikkelijk resultaat.
04:34
TerrifyingAngstaanjagende, because we have strongersterker opinionsmeningen
101
259000
4000
Verschrikkelijk, omdat we een sterkere mening hebben
04:38
about our hand-heldhand-held devicesapparaten
102
263000
2000
over onze mobiele apparaten
04:40
than about the moralMoreel frameworkkader
103
265000
2000
dan over het ethisch kader
04:42
we should use to guidegids our decisionsbeslissingen.
104
267000
2000
dat we zouden moeten gebruiken om richting te geven aan onze beslissingen.
04:44
How do we know what to do with all the powermacht we have
105
269000
3000
Hoe weten we wat we moeten doen met al de macht die we hebben
04:47
if we don't have a moralMoreel frameworkkader?
106
272000
3000
als we geen ethish kader hebben?
04:50
We know more about mobilemobiel operatingbedrijfs- systemssystemen,
107
275000
3000
We weten meer over mobiele besturingssystemen,
04:53
but what we really need is a moralMoreel operatingbedrijfs- systemsysteem.
108
278000
3000
maar wat we echt nodig hebben is een ethisch besturingssysteem.
04:58
What's a moralMoreel operatingbedrijfs- systemsysteem?
109
283000
2000
Wat is een ethisch besturingssysteem?
05:00
We all know right and wrongfout, right?
110
285000
2000
We weten allemaal wat goed of fout is.
05:02
You feel good when you do something right,
111
287000
2000
Je voelt je goed wanneer je iets goed doet,
05:04
you feel badslecht when you do something wrongfout.
112
289000
2000
je voelt je slecht wanneer je iets fout doet.
05:06
Our parentsouders teachonderwijzen us that: praiselof with the good, scoldberispen with the badslecht.
113
291000
3000
Onze ouders leren ons dat: wie zoet is krijgt lekkers, wie stout is de roe.
05:09
But how do we figurefiguur out what's right and wrongfout?
114
294000
3000
Maar hoe kunnen we bepalen wat goed en fout is?
05:12
And from day to day, we have the techniquestechnieken that we use.
115
297000
3000
In onze dagelijkse routine gebruiken we daar bepaalde technieken voor.
05:15
Maybe we just followvolgen our gutdarm.
116
300000
3000
Misschien gaan we op ons gevoel af.
05:18
Maybe we take a votestemmen -- we crowdsourceCrowdsource.
117
303000
3000
Misschien houden we een stemming -- we "crowdsourcen".
05:21
Or maybe we puntpunt --
118
306000
2000
Of misschien geven we het op --
05:23
askvragen the legalwettelijk departmentafdeling, see what they say.
119
308000
3000
vraag het de juridische afdeling, kijk wat zij zeggen.
05:26
In other wordstekst, it's kindsoort of randomwillekeurig,
120
311000
2000
Met andere woorden, het is wat willekeurig,
05:28
kindsoort of adadvertentie hochoc,
121
313000
2000
nogal ad hoc,
05:30
how we figurefiguur out what we should do.
122
315000
3000
hoe we bepalen wat we zouden moeten doen.
05:33
And maybe, if we want to be on surerzekerder footingvoet,
123
318000
3000
Als we meer houvast willen,
05:36
what we really want is a moralMoreel frameworkkader that will help guidegids us there,
124
321000
3000
is onze echte nood misschien een ethisch kader dat ons kan leiden,
05:39
that will tell us what kindssoorten of things are right and wrongfout in the first placeplaats,
125
324000
3000
dat ons zegt welke soort dingen goed en fout zijn op de eerste plaats,
05:42
and how would we know in a givengegeven situationsituatie what to do.
126
327000
4000
en hoe we in een bepaalde situatie kunnen weten wat te doen.
05:46
So let's get a moralMoreel frameworkkader.
127
331000
2000
Dus laten we een ethisch kader verkrijgen.
05:48
We're numbersgetallen people, livingleven by numbersgetallen.
128
333000
3000
We zijn cijfermensen, we leven met cijfers.
05:51
How can we use numbersgetallen
129
336000
2000
Hoe kunnen we cijfers gebruiken
05:53
as the basisbasis for a moralMoreel frameworkkader?
130
338000
3000
als basis voor een ethisch kader?
05:56
I know a guy who did exactlyprecies that.
131
341000
3000
Ik ken een man die precies dat heeft gedaan,
05:59
A brilliantbriljant guy --
132
344000
3000
Een briljante kerel --
06:02
he's been deaddood 2,500 yearsjaar.
133
347000
3000
hij is al 2.500 jaar dood.
06:05
PlatoPlato, that's right.
134
350000
2000
Plato, juist.
06:07
RememberVergeet niet him -- oldoud philosopherfilosoof?
135
352000
2000
Herinner je hem -- oude filosoof?
06:09
You were sleepingslapen duringgedurende that classklasse.
136
354000
3000
Je lag te slapen tijdens die les.
06:12
And PlatoPlato, he had a lot of the samedezelfde concernszorgen that we did.
137
357000
2000
Plato was bezorgd over veelal dezelfde dingen zoals wij.
06:14
He was worriedbezorgd about right and wrongfout.
138
359000
2000
Hij bekommerde zich over goed en slecht.
06:16
He wanted to know what is just.
139
361000
2000
Hij wilde weten wat juist is.
06:18
But he was worriedbezorgd that all we seemlijken to be doing
140
363000
2000
Maar het verontrustte hem dat het enige wat we lijken te doen,
06:20
is tradinghandel opinionsmeningen about this.
141
365000
2000
het uitwisselen van meningen is.
06:22
He sayszegt something'ser is iets just. She sayszegt something elseanders is just.
142
367000
3000
Hij zegt iets wat juist is. Zij zegt iets anders wat juist is.
06:25
It's kindsoort of convincingovertuigend when he talksgesprekken and when she talksgesprekken too.
143
370000
2000
Wat hij zegt klinkt overtuigend en wat zij zegt ook.
06:27
I'm just going back and forthvoort; I'm not gettingkrijgen anywhereoveral.
144
372000
2000
Ik ga alleen heen en weer; zo kom ik nergens.
06:29
I don't want opinionsmeningen; I want knowledgekennis.
145
374000
3000
Ik wil geen meningen, ik wil kennis.
06:32
I want to know the truthwaarheid about justicegerechtigheid --
146
377000
3000
Ik wil de waarheid weten over rechtvaardigheid --
06:35
like we have truthswaarheden in mathwiskunde.
147
380000
3000
zoals we waarheden kennen in de wiskunde.
06:38
In mathwiskunde, we know the objectivedoelstelling factsfeiten.
148
383000
3000
In de wiskunde kennen we de objectieve feiten.
06:41
Take a numberaantal, any numberaantal -- two.
149
386000
2000
Neem een getal, welk getal dan ook -- twee.
06:43
FavoriteFavoriet numberaantal. I love that numberaantal.
150
388000
2000
Favoriete getal. Ik hou van dat getal.
06:45
There are truthswaarheden about two.
151
390000
2000
Er zijn waarheden over twee.
06:47
If you've got two of something,
152
392000
2000
Als je twee van iets hebt,
06:49
you addtoevoegen two more, you get fourvier.
153
394000
2000
en je doet er twee bij, dan krijg je vier.
06:51
That's truewaar no matterer toe doen what thing you're talkingpratend about.
154
396000
2000
Dat is waar ongeacht het ding waarover je het hebt.
06:53
It's an objectivedoelstelling truthwaarheid about the formformulier of two,
155
398000
2000
Het is een objectieve waarheid over de Idee van twee,
06:55
the abstractabstract formformulier.
156
400000
2000
de abstracte vorm.
06:57
When you have two of anything -- two eyesogen, two earsoren, two nosesneuzen,
157
402000
2000
Wanneer je twee dingen hebt van iets -- twee ogen, twee oren, twee neuzen,
06:59
just two protrusionsuitsteeksels --
158
404000
2000
gewoon twee uitsteeksels --
07:01
those all partakedeelnemen of the formformulier of two.
159
406000
3000
dan hebben die alle deel aan de Idee van twee.
07:04
They all participatedeelnemen in the truthswaarheden that two has.
160
409000
4000
Ze nemen alle deel aan de waarheden die twee heeft.
07:08
They all have two-nesstwee-heid in them.
161
413000
2000
Ze hebben alle tweeheid in zich.
07:10
And thereforedaarom, it's not a matterer toe doen of opinionmening.
162
415000
3000
En daarom is het geen kwestie van mening.
07:13
What if, PlatoPlato thought,
163
418000
2000
Wat als, dacht Plato,
07:15
ethicsethiek was like mathwiskunde?
164
420000
2000
ethiek zou zijn zoals wiskunde?
07:17
What if there were a purezuiver formformulier of justicegerechtigheid?
165
422000
3000
Wat als er een zuivere Idee van rechtvaardigheid zou zijn?
07:20
What if there are truthswaarheden about justicegerechtigheid,
166
425000
2000
Wat als er waarheden zijn over rechtvaardigheid,
07:22
and you could just look around in this worldwereld-
167
427000
2000
en je gewoon zou kunnen rondkijken in deze wereld
07:24
and see whichwelke things participateddeelgenomen,
168
429000
2000
en zien welke dingen,
07:26
partooknam of that formformulier of justicegerechtigheid?
169
431000
3000
deel hebben aan die Idee van rechtvaardigheid?
07:29
Then you would know what was really just and what wasn'twas niet.
170
434000
3000
Dan zou je weten wat echt juist is en wat niet.
07:32
It wouldn'tzou het niet be a matterer toe doen
171
437000
2000
Het zou geen zaak zijn
07:34
of just opinionmening or just appearancesoptredens.
172
439000
3000
van gewoon een mening of gewoon schijn.
07:37
That's a stunningstunning visionvisie.
173
442000
2000
Dat is een sensationele visie.
07:39
I mean, think about that. How grandgroots. How ambitiousambitieuze.
174
444000
3000
Ik bedoel, stel je eens voor. Hoe groots. Hoe ambitieus.
07:42
That's as ambitiousambitieuze as we are.
175
447000
2000
Dat is zo ambitieus als wij zijn.
07:44
He wants to solveoplossen ethicsethiek.
176
449000
2000
Hij wil ethiek oplossen.
07:46
He wants objectivedoelstelling truthswaarheden.
177
451000
2000
Hij wil objectieve waarheden.
07:48
If you think that way,
178
453000
3000
Als je zo denkt,
07:51
you have a PlatonistPlatonist moralMoreel frameworkkader.
179
456000
3000
heb je een platonisch ethisch kader.
07:54
If you don't think that way,
180
459000
2000
Als je niet zo denkt,
07:56
well, you have a lot of companybedrijf in the historygeschiedenis of WesternWestern philosophyfilosofie,
181
461000
2000
nou, dan heb je veel gezelschap in de geschiedenis van de westerse filosofie,
07:58
because the tidynetjes ideaidee, you know, people criticizedbekritiseerd it.
182
463000
3000
omdat er veel kritiek kwam op het aardige idee.
08:01
AristotleAristoteles, in particularbijzonder, he was not amusedgeamuseerd.
183
466000
3000
Aristoteles in het bijzonder, werd er niet vrolijk van.
08:04
He thought it was impracticalonuitvoerbaar.
184
469000
3000
Hij vond het onpraktisch.
08:07
AristotleAristoteles said, "We should seekzoeken only so much precisionprecisie in eachelk subjectonderwerpen
185
472000
4000
Aristoteles zei: "We moeten voor elk onderwerp maar zoveel precisie nastreven
08:11
as that subjectonderwerpen allowstoestaat."
186
476000
2000
als het onderwerp toelaat."
08:13
AristotleAristoteles thought ethicsethiek wasn'twas niet a lot like mathwiskunde.
187
478000
3000
Aristoteles vond niet dat ethiek vergelijkbaar was met wiskunde.
08:16
He thought ethicsethiek was a matterer toe doen of makingmaking decisionsbeslissingen in the here-and-nowhier-en-nu
188
481000
3000
Hij dacht dat ethiek een zaak was van beslissingen nemen in het hier en nu
08:19
usinggebruik makend van our bestbeste judgmentoordeel
189
484000
2000
zo goed mogelijk oordelen
08:21
to find the right pathpad.
190
486000
2000
om het juiste pad te vinden.
08:23
If you think that, Plato'sPlato's not your guy.
191
488000
2000
Als je dat denkt, dan is Plato niet jouw man.
08:25
But don't give up.
192
490000
2000
Maar geef niet op.
08:27
Maybe there's anothereen ander way
193
492000
2000
Misschien is er een andere manier
08:29
that we can use numbersgetallen as the basisbasis of our moralMoreel frameworkkader.
194
494000
3000
om getallen te gebruiken als de basis voor ons ethisch kader.
08:33
How about this:
195
498000
2000
Stel je voor:
08:35
What if in any situationsituatie you could just calculateberekenen,
196
500000
3000
wat als, in welke situatie ook, je gewoon zou kunnen berekenen,
08:38
look at the choiceskeuzes,
197
503000
2000
de keuzes bekijken,
08:40
measuremaatregel out whichwelke one'séén is better and know what to do?
198
505000
3000
afwegen welke beter is en weten wat te doen?
08:43
That soundgeluid familiarvertrouwd?
199
508000
2000
Dat klinkt bekend?
08:45
That's a utilitarianutilitaire moralMoreel frameworkkader.
200
510000
3000
Dat is een utilitaristisch ethisch kader.
08:48
JohnJohn StuartStuart MillMolen was a great advocatepleiten voor of this --
201
513000
2000
John Stuart Mill was hier een pleitbezorger van --
08:50
niceleuk guy besidesbehalve --
202
515000
2000
aardige kerel trouwens --
08:52
and only been deaddood 200 yearsjaar.
203
517000
2000
en pas 200 jaar dood.
08:54
So basisbasis of utilitarianismutilitarisme --
204
519000
2000
Dus de basis van utilitarisme --
08:56
I'm sure you're familiarvertrouwd at leastminst.
205
521000
2000
Ik weet zeker dat je er minstens bekend mee bent.
08:58
The threedrie people who votedgestemd for MillMolen before are familiarvertrouwd with this.
206
523000
2000
De drie mensen die eerder voor Mill stemden zijn hier bekend mee.
09:00
But here'shier is the way it workswerken.
207
525000
2000
Het werkt zo.
09:02
What if moralsmoraal, what if what makesmerken something moralMoreel
208
527000
3000
Wat als fatsoen, wat als dat wat iets zedelijk maakt,
09:05
is just a matterer toe doen of if it maximizesmaximaliseert pleasuregenoegen
209
530000
2000
slechts een kwestie is van of het plezier maximaliseert
09:07
and minimizesminimaliseert painpijn?
210
532000
2000
en pijn minimaliseert?
09:09
It does something intrinsicintrinsieke to the acthandelen.
211
534000
3000
Het heeft een intrinsiek effect op de handeling.
09:12
It's not like its relationrelatie to some abstractabstract formformulier.
212
537000
2000
Het is niet zoals haar relatie tot een abstracte vorm.
09:14
It's just a matterer toe doen of the consequencesgevolgen.
213
539000
2000
Het is enkel een zaak van de consequenties.
09:16
You just look at the consequencesgevolgen
214
541000
2000
Je kijkt simpelweg naar de consequenties
09:18
and see if, overallglobaal, it's for the good or for the worseerger.
215
543000
2000
en ziet of het, in totaliteit, ten goede of ten kwade is.
09:20
That would be simpleeenvoudig. Then we know what to do.
216
545000
2000
Dat zou simpel zijn. Dan weten we wat te doen.
09:22
Let's take an examplevoorbeeld.
217
547000
2000
Laten we een voorbeeld nemen.
09:24
SupposeStel dat I go up
218
549000
2000
Stel dat ik een stap verder ga
09:26
and I say, "I'm going to take your phonetelefoon."
219
551000
2000
en ik zeg: "Ik ga jouw telefoon afnemen."
09:28
Not just because it rangrang earliervroeger,
220
553000
2000
Niet enkel omdat deze daarnet overging,
09:30
but I'm going to take it because I madegemaakt a little calculationberekening.
221
555000
3000
maar ik ga hem afnemen omdat ik een kleine berekening heb gemaakt.
09:33
I thought, that guy lookslooks suspiciousverdacht.
222
558000
3000
Ik dacht: die kerel ziet verdacht uit.
09:36
And what if he's been sendingBezig met verzenden little messagesberichten to BinBin Laden'sBeladen van hideoutschuilplaats --
223
561000
3000
Wat als hij berichtjes aan het sturen is naar Bin Ladens schuilplaats --
09:39
or whoeverwie dan ook tooknam over after BinBin LadenBeladen --
224
564000
2000
of wie het ook overgenomen heeft na Bin Laden --
09:41
and he's actuallywerkelijk like a terroristterrorist, a sleeperSleeper cellcel.
225
566000
3000
en hij is eigenlijk een terrorist, een "sleeper cell".
09:44
I'm going to find that out, and when I find that out,
226
569000
3000
Ik ga daar achter komen, en wanneer ik daar achter kom,
09:47
I'm going to preventvoorkomen a hugereusachtig amountbedrag of damageschade that he could causeoorzaak.
227
572000
3000
ga ik een enorme hoeveelheid schade voorkomen die hij zou kunnen veroorzaken.
09:50
That has a very highhoog utilitynut to preventvoorkomen that damageschade.
228
575000
3000
Dat heeft erg veel nut om die schade te voorkomen.
09:53
And comparedvergeleken to the little painpijn that it's going to causeoorzaak --
229
578000
2000
Vergeleken met de geringe pijn die het gaat aanrichten --
09:55
because it's going to be embarrassingpijnlijk when I'm looking on his phonetelefoon
230
580000
2000
want het zal gênant zijn wanneer ik zijn telefoon bekijk
09:57
and seeingziend that he has a FarmvilleFarmville problemprobleem and that wholegeheel bitbeetje --
231
582000
3000
en zie dat hij een "Farmville" probleem heeft en de hele mikmak --
10:00
that's overwhelmedoverweldigd
232
585000
3000
dat is niets vergeleken
10:03
by the valuewaarde of looking at the phonetelefoon.
233
588000
2000
met de waarde van het bekijken van de telefoon.
10:05
If you feel that way,
234
590000
2000
Als je het daar mee eens bent,
10:07
that's a utilitarianutilitaire choicekeuze.
235
592000
3000
dan is dat een utilitaristische keuze.
10:10
But maybe you don't feel that way eithereen van beide.
236
595000
3000
Maar misschien ben je het daar ook niet mee eens.
10:13
Maybe you think, it's his phonetelefoon.
237
598000
2000
Misschien denk je: het is zijn telefoon.
10:15
It's wrongfout to take his phonetelefoon
238
600000
2000
Het is verkeerd om zijn telefoon te pakken,
10:17
because he's a personpersoon
239
602000
2000
want hij is een persoon
10:19
and he has rightsrechten and he has dignitywaardigheid,
240
604000
2000
en hij heeft rechten en hij heeft waardigheid,
10:21
and we can't just interfereinterfereren with that.
241
606000
2000
en we kunnen daar niet zomaar inbreuk op maken.
10:23
He has autonomyautonomie.
242
608000
2000
Hij heeft autonomie.
10:25
It doesn't matterer toe doen what the calculationsberekeningen are.
243
610000
2000
Het maakt niet uit wat de berekeningen zijn.
10:27
There are things that are intrinsicallyintrinsiek wrongfout --
244
612000
3000
Er zijn dingen die intrinsiek verkeerd zijn --
10:30
like lyingaan het liegen is wrongfout,
245
615000
2000
zoals liegen verkeerd is,
10:32
like torturingmartelen innocentonschuldig childrenkinderen is wrongfout.
246
617000
3000
zoals het martelen van onschuldige kinderen verkeerd is.
10:35
KantKant was very good on this pointpunt,
247
620000
3000
Kant was erg sterk op dit punt,
10:38
and he said it a little better than I'll say it.
248
623000
2000
en hij zei het iets beter dan hoe ik het zeg.
10:40
He said we should use our reasonreden
249
625000
2000
Hij zei dat we onze rede moeten gebruiken
10:42
to figurefiguur out the rulesreglement by whichwelke we should guidegids our conductgedrag,
250
627000
3000
om tot de regels te komen waarmee we ons gedrag dienen te sturen.
10:45
and then it is our dutyplicht to followvolgen those rulesreglement.
251
630000
3000
En dan is het onze plicht
10:48
It's not a matterer toe doen of calculationberekening.
252
633000
3000
om die regels te volgen. Het is geen zaak van berekening.
10:51
So let's stop.
253
636000
2000
Dus laten we stoppen.
10:53
We're right in the thickdik of it, this philosophicalfilosofisch thicketGrammomys.
254
638000
3000
We zitten er midden in, in deze filosofische wirwar.
10:56
And this goesgaat on for thousandsduizenden of yearsjaar,
255
641000
3000
En dit gaat zo duizenden jaren door,
10:59
because these are hardhard questionsvragen,
256
644000
2000
want dit zijn lastige vragen,
11:01
and I've only got 15 minutesnotulen.
257
646000
2000
en ik heb maar 15 minuten.
11:03
So let's cutbesnoeiing to the chaseChase.
258
648000
2000
Laten we ons beperken tot de hoofdvraag.
11:05
How should we be makingmaking our decisionsbeslissingen?
259
650000
4000
Hoe moeten we onze beslissingen nemen?
11:09
Is it PlatoPlato, is it AristotleAristoteles, is it KantKant, is it MillMolen?
260
654000
3000
Is het Plato, is het Aristoteles, is het Kant, is het Mill?
11:12
What should we be doing? What's the answerantwoord?
261
657000
2000
Wat moeten we doen? Wat is het antwoord?
11:14
What's the formulaformule that we can use in any situationsituatie
262
659000
3000
Wat is de formule die we kunnen gebruiken
11:17
to determinebepalen what we should do,
263
662000
2000
in elke situatie om te bepalen wat we moeten doen,
11:19
whetherof we should use that guy'sguy's datagegevens or not?
264
664000
2000
of we die kerel zijn data moeten gebruiken of niet?
11:21
What's the formulaformule?
265
666000
3000
Wat is de formule?
11:25
There's not a formulaformule.
266
670000
2000
Er is geen formule.
11:29
There's not a simpleeenvoudig answerantwoord.
267
674000
2000
Er is geen simpel antwoord.
11:31
EthicsEthiek is hardhard.
268
676000
3000
Ethiek is moeilijk.
11:34
EthicsEthiek requiresvereist thinkinghet denken.
269
679000
3000
Ethiek vereist denkwerk.
11:38
And that's uncomfortableongemakkelijk.
270
683000
2000
En dat is ongemakkelijk.
11:40
I know; I spentdoorgebracht a lot of my careercarrière
271
685000
2000
Ik weet het. Tijdens mijn carrière heb ik me veel beziggehouden
11:42
in artificialkunstmatig intelligenceintelligentie-,
272
687000
2000
met kunstmatige intelligentie,
11:44
tryingproberen to buildbouwen machinesmachines that could do some of this thinkinghet denken for us,
273
689000
3000
geprobeerd om machines te bouwen die wat van dit denken voor ons kunnen doen,
11:47
that could give us answersantwoorden.
274
692000
2000
die ons antwoorden kunnen geven.
11:49
But they can't.
275
694000
2000
Maar ze kunnen het niet.
11:51
You can't just take humanmenselijk thinkinghet denken
276
696000
2000
Je kunt niet zomaar menselijk denken nemen
11:53
and put it into a machinemachine.
277
698000
2000
en het in een machine stoppen.
11:55
We're the onesdegenen who have to do it.
278
700000
3000
Wij zijn degenen die het moeten doen.
11:58
HappilyGelukkig, we're not machinesmachines, and we can do it.
279
703000
3000
Gelukkig zijn wij geen machines en kunnen we het doen.
12:01
Not only can we think,
280
706000
2000
Niet alleen kunnen we denken,
12:03
we mustmoet.
281
708000
2000
we moeten.
12:05
HannahHannah ArendtArendt said,
282
710000
2000
Hannah Arendt zei:
12:07
"The sadverdrietig truthwaarheid
283
712000
2000
"De trieste waarheid
12:09
is that mostmeest evilonheil donegedaan in this worldwereld-
284
714000
2000
is dat het meeste kwaad in deze wereld
12:11
is not donegedaan by people
285
716000
2000
niet is gedaan door mensen
12:13
who chooseKiezen to be evilonheil.
286
718000
2000
die kiezen om slecht te zijn.
12:15
It arisesontstaat from not thinkinghet denken."
287
720000
3000
Het komt voort uit niet denken."
12:18
That's what she calledriep the "banalitybanaliteit of evilonheil."
288
723000
4000
Dat is wat zij noemde "de banaliteit van het kwaad".
12:22
And the responseantwoord to that
289
727000
2000
De reactie daarop
12:24
is that we demandvraag naar the exerciseoefening of thinkinghet denken
290
729000
2000
is dat we elk weldenkend persoon
12:26
from everyelk sanesane personpersoon.
291
731000
3000
verzoeken om na te denken.
12:29
So let's do that. Let's think.
292
734000
2000
Dus laten we dat doen. Laten we nadenken.
12:31
In factfeit, let's startbegin right now.
293
736000
3000
Sterker nog, laten we nu meteen beginnen.
12:34
EveryElke personpersoon in this roomkamer do this:
294
739000
3000
Iedereen in deze ruimte, doe dit:
12:37
think of the last time you had a decisionbesluit to make
295
742000
3000
denk aan de laatste keer dat je een beslissing moest nemen
12:40
where you were worriedbezorgd to do the right thing,
296
745000
2000
waarbij je bezorgd was om het juiste te doen,
12:42
where you wonderedvroeg me af, "What should I be doing?"
297
747000
2000
waarbij je jezelf afvroeg: "Wat zou ik moeten doen?"
12:44
BringBrengen that to mindgeest,
298
749000
2000
Neem dat in gedachten.
12:46
and now reflectreflecteren on that
299
751000
2000
Reflecteer daar nu over
12:48
and say, "How did I come up that decisionbesluit?
300
753000
3000
en zeg: "Hoe kwam ik tot die beslissing?
12:51
What did I do? Did I followvolgen my gutdarm?
301
756000
3000
Wat heb ik gedaan? Volgde ik mijn intuïtie?
12:54
Did I have somebodyiemand votestemmen on it? Or did I puntpunt to legalwettelijk?"
302
759000
2000
Liet ik erover stemmen? Of schoof ik het af naar juridisch?"
12:56
Or now we have a fewweinig more choiceskeuzes.
303
761000
3000
We hebben nu een paar keuzes extra.
12:59
"Did I evaluateschatten what would be the highesthoogst pleasuregenoegen
304
764000
2000
"Heb ik beoordeeld wat
13:01
like MillMolen would?
305
766000
2000
het meeste plezier zou opleveren zoals Mill zou doen?
13:03
Or like KantKant, did I use reasonreden to figurefiguur out what was intrinsicallyintrinsiek right?"
306
768000
3000
Of heb ik, zoals Kant, de rede gebruikt om erachter te komen wat intrinsiek goed was?"
13:06
Think about it. Really bringbrengen it to mindgeest. This is importantbelangrijk.
307
771000
3000
Denk erover. Hou het goed in gedachten. Dit is belangrijk.
13:09
It is so importantbelangrijk
308
774000
2000
Het is zo belangrijk
13:11
we are going to spendbesteden 30 secondsseconden of valuablewaardevol TEDTalkTEDTalk time
309
776000
2000
dat we 30 seconden waardevolle TEDTalk tijd gaan besteden
13:13
doing nothing but thinkinghet denken about this.
310
778000
2000
aan niets anders dan hierover denken.
13:15
Are you readyklaar? Go.
311
780000
2000
Ben je er klaar voor? Start.
13:33
Stop. Good work.
312
798000
3000
Stop. Goed werk.
13:36
What you just did,
313
801000
2000
Wat je zojuist deed,
13:38
that's the first stepstap towardsnaar takingnemen responsibilityverantwoordelijkheid
314
803000
2000
dat is de eerste stap richting het nemen van verantwoordelijkheid
13:40
for what we should do with all of our powermacht.
315
805000
3000
voor wat we moeten doen met al onze macht.
13:45
Now the nextvolgende stepstap -- try this.
316
810000
3000
Nu de volgende stap -- probeer dit.
13:49
Go find a friendvriend and explainuitleg geven to them
317
814000
2000
Ga naar een vriend en leg hem uit
13:51
how you madegemaakt that decisionbesluit.
318
816000
2000
hoe je die beslissing genomen hebt.
13:53
Not right now. Wait tilltot I finishaf hebben talkingpratend.
319
818000
2000
Niet nu meteen. Wacht tot ik klaar ben met praten.
13:55
Do it over lunchlunch.
320
820000
2000
Doe het tijdens de lunch.
13:57
And don't just find anothereen ander technologisttechnoloog friendvriend;
321
822000
3000
En ga niet weer naar een vriend-technoloog;
14:00
find somebodyiemand differentverschillend than you.
322
825000
2000
zoek iemand, anders dan jezelf.
14:02
Find an artistartiest or a writerauteur --
323
827000
2000
Zoek een artiest of een schrijver --
14:04
or, heavenhemel forbidverbieden, find a philosopherfilosoof and talk to them.
324
829000
3000
of, god verhoede, ga naar een filosoof en praat met hem.
14:07
In factfeit, find somebodyiemand from the humanitiesgeesteswetenschappen.
325
832000
2000
Ga naar iemand van de geesteswetenschappen.
14:09
Why? Because they think about problemsproblemen
326
834000
2000
Waarom? Omdat zij anders over problemen nadenken
14:11
differentlyanders than we do as technologiststechnologen.
327
836000
2000
dan dat wij doen als technologen.
14:13
Just a fewweinig daysdagen agogeleden, right acrossaan de overkant the streetstraat from here,
328
838000
3000
Pas een paar dagen geleden zijn hier aan de overkant van de straat,
14:16
there was hundredshonderden of people gatheredverzamelde togethersamen.
329
841000
2000
honderden mensen samengekomen.
14:18
It was technologiststechnologen and humanistshumanisten
330
843000
2000
Het waren technologen en humanisten
14:20
at that biggroot BiblioTechBiblioTech ConferenceConferentie.
331
845000
2000
bij die grote BiblioTech-conferentie.
14:22
And they gatheredverzamelde togethersamen
332
847000
2000
Zij kwamen samen
14:24
because the technologiststechnologen wanted to learnleren
333
849000
2000
omdat de technologen wilden leren
14:26
what it would be like to think from a humanitiesgeesteswetenschappen perspectiveperspectief.
334
851000
3000
hoe het zou zijn om te denken vanuit een geesteswetenschappelijk perspectief.
14:29
You have someoneiemand from GoogleGoogle
335
854000
2000
Je hebt iemand van Google
14:31
talkingpratend to someoneiemand who does comparativevergelijkende literatureliteratuur.
336
856000
2000
die praat met iemand die bezig is met vergelijkende literatuurwetenschap.
14:33
You're thinkinghet denken about the relevancerelevantie of 17thth centuryeeuw FrenchFrans theatertheater --
337
858000
3000
Je denkt over de relevantie van 17e-eeuws Frans theater --
14:36
how does that bearbeer uponop ventureonderneming capitalhoofdstad?
338
861000
2000
wat heeft dat te maken met durfkapitaal?
14:38
Well that's interestinginteressant. That's a differentverschillend way of thinkinghet denken.
339
863000
3000
Dat is interessant. Dat is een andere manier van denken.
14:41
And when you think in that way,
340
866000
2000
En als je op die manier denkt,
14:43
you becomeworden more sensitivegevoelig to the humanmenselijk considerationsoverwegingen,
341
868000
3000
dan word je gevoeliger voor de menselijke overwegingen,
14:46
whichwelke are crucialbeslissend to makingmaking ethicalethisch decisionsbeslissingen.
342
871000
3000
die cruciaal zijn voor het maken van ethische beslissingen.
14:49
So imaginestel je voor that right now
343
874000
2000
Stel je dus voor dat je op dit moment
14:51
you wentgegaan and you foundgevonden your musicianmusicus friendvriend.
344
876000
2000
je vriend-muzikant was gaan opzoeken.
14:53
And you're tellingvertellen him what we're talkingpratend about,
345
878000
3000
Je vertelt hem waar wij het over hebben,
14:56
about our wholegeheel datagegevens revolutionrevolutie and all this --
346
881000
2000
over onze hele datarevolutie en alles --
14:58
maybe even humHum a fewweinig barsbars of our themethema musicmuziek-.
347
883000
2000
misschien neurie je zelf een paar maten van onze herkenningsmelodie.
15:00
DumDum tata dada dada dumDum dumDum tata dada dada dumDum
348
885000
3000
♫ Dum ta da da dum dum ta da da dum ♫
15:03
Well, your musicianmusicus friendvriend will stop you and say,
349
888000
2000
Je vriend-muzikant
15:05
"You know, the themethema musicmuziek-
350
890000
2000
zal je onderbreken en zeggen: "Weet je,
15:07
for your datagegevens revolutionrevolutie,
351
892000
2000
de herkenningsmelodie voor jouw datarevolutie,
15:09
that's an operaopera, that's WagnerWagner.
352
894000
2000
dat is een opera,
15:11
It's basedgebaseerde on NorseNoordse legendlegende.
353
896000
2000
dat is Wagner. Het is gebaseerd op een Noordse mythe.
15:13
It's GodsGoden and mythicalmythische creaturesschepsels
354
898000
2000
Het zijn goden en mythische wezens
15:15
fightingvechten over magicalmagisch jewelryjuwelen."
355
900000
3000
die strijden om magische juwelen."
15:19
That's interestinginteressant.
356
904000
3000
Dat is interessant.
15:22
Now it's alsoook a beautifulmooi operaopera,
357
907000
3000
Het is ook een mooie opera.
15:25
and we're movedverhuisd by that operaopera.
358
910000
3000
En we zijn ontroerd door die opera.
15:28
We're movedverhuisd because it's about the battlestrijd
359
913000
2000
We zijn ontroerd omdat het over een strijd gaat
15:30
betweentussen good and evilonheil,
360
915000
2000
tussen goed en kwaad,
15:32
about right and wrongfout.
361
917000
2000
over juist en fout.
15:34
And we carezorg about right and wrongfout.
362
919000
2000
En we geven om juist en fout.
15:36
We carezorg what happensgebeurt in that operaopera.
363
921000
3000
We geven om wat er gebeurt in die opera.
15:39
We carezorg what happensgebeurt in "ApocalypseApocalyps Now."
364
924000
3000
We geven om wat er gebeurt in "Apocalypse Now."
15:42
And we certainlyzeker carezorg
365
927000
2000
En we geven zeker om
15:44
what happensgebeurt with our technologiestechnologieën.
366
929000
2000
wat er gebeurt met onze technologieën.
15:46
We have so much powermacht todayvandaag,
367
931000
2000
We hebben zo veel macht vandaag.
15:48
it is up to us to figurefiguur out what to do,
368
933000
3000
Het is aan ons om uit te zoeken wat te doen.
15:51
and that's the good newsnieuws.
369
936000
2000
En dat is het goede nieuws.
15:53
We're the onesdegenen writingschrift this operaopera.
370
938000
3000
Wij zijn degenen die deze opera schrijven.
15:56
This is our moviefilm.
371
941000
2000
Dit is onze film.
15:58
We figurefiguur out what will happengebeuren with this technologytechnologie.
372
943000
3000
Wij maken uit wat er zal gebeuren met deze technologie.
16:01
We determinebepalen how this will all endeinde.
373
946000
3000
Wij bepalen hoe dit alles gaat aflopen.
16:04
Thank you.
374
949000
2000
Dank u.
16:06
(ApplauseApplaus)
375
951000
5000
(Applaus)
Translated by Kyon Adriaans
Reviewed by Els De Keyser

▲Back to top

ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com