ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com
TEDxSiliconValley

Damon Horowitz: We need a "moral operating system"

Damon Horowitz invita alla creazione di un "sistema operativo morale"

Filmed:
795,617 views

A TEDxSiliconValley, Damon Horowitz passa in rassegna gli enormi e nuovi poteri che la tecnologia ci offre: per saperne di più - e conoscerli meglio ciascuno - come mai prima d'ora. Trascinando gli spettatori in una discussione filosofica, Horowitz ci invita a prestare nuova attenzione alla filosofia di base - i principi etici - che si cela dietro il genio inventivo che sta dando nuova forma al nostro mondo. Dove si trova il sistema operativo morale che ci permette di dargli un senso?
- Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities. Full bio

Double-click the English transcript below to play the video.

00:15
PowerPotenza.
0
0
2000
Potere.
00:17
That is the wordparola that comesviene to mindmente.
1
2000
2000
Questa è la parola che viene in mente.
00:19
We're the newnuovo technologiststecnologi.
2
4000
2000
Noi siamo i nuovi tecnologi.
00:21
We have a lot of datadati, so we have a lot of powerenergia.
3
6000
3000
Abbiamo molti dati, quindi abbiamo molto potere.
00:24
How much powerenergia do we have?
4
9000
2000
Quanto potere abbiamo?
00:26
SceneScena from a moviefilm: "ApocalypseApocalisse Now" -- great moviefilm.
5
11000
3000
Scena di un film: "Apocalypse Now" - gran bel film.
00:29
We'veAbbiamo got to get our heroeroe, CaptainCapitano WillardWillard, to the mouthbocca of the NungNung RiverFiume
6
14000
3000
Dobbiamo portare il nostro eroe, il Capitan Willard, alla foce del fiume Nung
00:32
so he can go pursueperseguire ColonelColonnello KurtzKurtz.
7
17000
2000
così che possa seguire le tracce del Colonnello Kurtz.
00:34
The way we're going to do this is flyvolare him in and dropfar cadere him off.
8
19000
2000
Riusciremo a farlo trasportandolo in volo e facendolo scendere.
00:36
So the scenescena:
9
21000
2000
Eccoci alla scena:
00:38
the skycielo is filledpieno with this fleetflotta of helicopterselicotteri carryingportando him in.
10
23000
3000
il cielo è gremito dalla flotta di elicotteri incaricati di trasportarlo.
00:41
And there's this loudforte, thrillingemozionante musicmusica in the backgroundsfondo,
11
26000
2000
C'è questa musica ad alto volume ed avvincente di sottofondo,
00:43
this wildselvaggio musicmusica.
12
28000
2000
questa musica selvaggia.
00:45
DumDum dada tata dada dumDum
13
30000
2000
♫ Dum da ta da dum ♫
00:47
DumDum dada tata dada dumDum
14
32000
2000
♫ Dum da ta da dum ♫
00:49
DaDa tata dada dada
15
34000
3000
♫ Da ta da da ♫
00:52
That's a lot of powerenergia.
16
37000
2000
Molto potente.
00:54
That's the kindgenere of powerenergia I feel in this roomcamera.
17
39000
2000
Questo è il tipo di potenza che percepisco in questa sala.
00:56
That's the kindgenere of powerenergia we have
18
41000
2000
Questo è il tipo di potere che abbiamo
00:58
because of all of the datadati that we have.
19
43000
2000
grazie a tutti i dati di cui disponiamo.
01:00
Let's take an exampleesempio.
20
45000
2000
Facciamo un esempio.
01:02
What can we do
21
47000
2000
Cosa possiamo fare
01:04
with just one person'spersona di datadati?
22
49000
3000
con i dati di una sola persona?
01:07
What can we do
23
52000
2000
Cosa possiamo fare
01:09
with that guy'sragazzo di datadati?
24
54000
2000
con i dati di quel ragazzo?
01:11
I can look at your financialfinanziario recordsrecord.
25
56000
2000
Posso guardare i tuoi estratti conto.
01:13
I can tell if you paypagare your billsfatture on time.
26
58000
2000
Posso dirti se paghi le bollette in tempo.
01:15
I know if you're good to give a loanprestito to.
27
60000
2000
So se posso concederti un prestito.
01:17
I can look at your medicalmedico recordsrecord; I can see if your pumppompa is still pumpingpompaggio --
28
62000
3000
Posso dare un'occhiata ai tuoi referti medici, vedere se il tuo cuore batte ancora -
01:20
see if you're good to offeroffrire insuranceassicurazione to.
29
65000
3000
vedere se è conveniente assicurarti.
01:23
I can look at your clickingclic patternsmodelli.
30
68000
2000
Posso vedere come visiti i siti Internet.
01:25
When you come to my websiteSito web, I actuallyin realtà know what you're going to do alreadygià
31
70000
3000
Quando visiti il mio sito, so già esattamente cosa farai,
01:28
because I've seenvisto you visitvisita millionsmilioni of websitessiti web before.
32
73000
2000
perché ti ho visto visitare altri milioni di siti prima del mio.
01:30
And I'm sorry to tell you,
33
75000
2000
E mi dispiace dirtelo,
01:32
you're like a pokerPoker playergiocatore, you have a tell.
34
77000
2000
sei come un giocatore di poker, lanci dei segnali.
01:34
I can tell with datadati analysisanalisi what you're going to do
35
79000
2000
Grazie all'analisi dei dati posso predire cosa farai
01:36
before you even do it.
36
81000
2000
prima ancora che tu lo faccia.
01:38
I know what you like. I know who you are,
37
83000
3000
So cosa ti piace. So chi sei.
01:41
and that's even before I look at your mailposta
38
86000
2000
E questo anche prima che io dia un'occhiata alla tua posta
01:43
or your phoneTelefono.
39
88000
2000
o al tuo telefono.
01:45
Those are the kindstipi of things we can do
40
90000
2000
Quelle sono le cose che siamo in grado di fare
01:47
with the datadati that we have.
41
92000
3000
con i dati a nostra disposizione.
01:50
But I'm not actuallyin realtà here to talk about what we can do.
42
95000
3000
Ma in realtà non sono qui per parlarvi di ciò che possiamo fare.
01:56
I'm here to talk about what we should do.
43
101000
3000
Sono qui per parlarvi di ciò che dovremmo fare.
02:00
What's the right thing to do?
44
105000
3000
Qual è la cosa giusta da fare?
02:04
Now I see some puzzledperplesso lookssembra
45
109000
2000
Ora vedo degli sguardi interrogativi
02:06
like, "Why are you askingchiede us what's the right thing to do?
46
111000
3000
tipo: "Perchè chiedi a noi quale sia la cosa giusta da fare?
02:09
We're just buildingcostruzione this stuffcose. SomebodyQualcuno elsealtro is usingutilizzando it."
47
114000
3000
Noi mettiamo solo insieme questa roba. Qualcun altro la sta usando."
02:12
FairFiera enoughabbastanza.
48
117000
3000
Mi sembra giusto.
02:15
But it bringsporta me back.
49
120000
2000
Ma questo mi fa ricordare...
02:17
I think about WorldMondo WarGuerra IIII --
50
122000
2000
Penso alla Seconda Guerra Mondiale -
02:19
some of our great technologiststecnologi then,
51
124000
2000
alcuni dei nostri più grandi tecnologi di allora,
02:21
some of our great physicistsi fisici,
52
126000
2000
alcuni dei nostri più grandi fisici,
02:23
studyingstudiando nuclearnucleare fissionfissione and fusionfusione --
53
128000
2000
che studiavano la fissione e fusione nucleare -
02:25
just nuclearnucleare stuffcose.
54
130000
2000
solo roba nucleare.
02:27
We gatherraccogliere togetherinsieme these physicistsi fisici in LosLos AlamosAlamos
55
132000
3000
Noi riuniamo insieme questi fisici a Los Alamos
02:30
to see what they'llfaranno buildcostruire.
56
135000
3000
per vedere cosa costruiranno.
02:33
We want the people buildingcostruzione the technologytecnologia
57
138000
3000
Vogliamo che le persone che creano la tecnologia
02:36
thinkingpensiero about what we should be doing with the technologytecnologia.
58
141000
3000
pensino anche a come dovremmo utilizzarla.
02:41
So what should we be doing with that guy'sragazzo di datadati?
59
146000
3000
Per cui cosa dovremmo farci con i dati di quel ragazzo?
02:44
Should we be collectingraccolta it, gatheringraduno it,
60
149000
3000
Dovremmo raccoglierli, metterli insieme,
02:47
so we can make his onlinein linea experienceEsperienza better?
61
152000
2000
così da migliorare il tempo che passa su Internet?
02:49
So we can make moneyi soldi?
62
154000
2000
Così poterci guadagnare?
02:51
So we can protectproteggere ourselvesnoi stessi
63
156000
2000
Così da poterci proteggere
02:53
if he was up to no good?
64
158000
2000
nel caso facesse qualcosa di male?
02:55
Or should we respectrispetto his privacysulla privacy,
65
160000
3000
O dovremmo rispettare la sua privacy,
02:58
protectproteggere his dignitydignità and leavepartire him aloneda solo?
66
163000
3000
proteggere la sua dignità e lasciarlo in pace?
03:02
WhichChe one is it?
67
167000
3000
Quale dovremmo scegliere?
03:05
How should we figurefigura it out?
68
170000
2000
Come facciamo a deciderlo?
03:07
I know: crowdsourcecrowdsourcing. Let's crowdsourcecrowdsourcing this.
69
172000
3000
Lo so: sentiamo il pubblico. Sentiamo il pubblico a riguardo.
03:11
So to get people warmedriscaldato up,
70
176000
3000
Perciò per mettervi a vostro agio,
03:14
let's startinizio with an easyfacile questiondomanda --
71
179000
2000
cominciamo con una domanda semplice -
03:16
something I'm sure everybodytutti here has an opinionopinione about:
72
181000
3000
qualcosa su cui tutti qui hanno di certo un'opinione:
03:19
iPhoneiPhone versuscontro AndroidAndroid.
73
184000
2000
iPhone oppure Android.
03:21
Let's do a showmostrare of handsmani -- iPhoneiPhone.
74
186000
3000
Alzate le mani - iPhone.
03:24
Uh huh.
75
189000
2000
Uh uh.
03:26
AndroidAndroid.
76
191000
3000
Android.
03:29
You'dSi farebbe think with a bunchmazzo of smartinteligente people
77
194000
2000
Penserete che con delle persone intelligenti
03:31
we wouldn'tno be suchcome suckerspolloni just for the prettybella phonestelefoni.
78
196000
2000
non ci faremmo trarre in inganno solo dai cellulari belli all'apparenza.
03:33
(LaughterRisate)
79
198000
2000
(Risate)
03:35
NextSuccessivo questiondomanda,
80
200000
2000
Ok, prossima domanda,
03:37
a little bitpo harderPiù forte.
81
202000
2000
un po' più difficile.
03:39
Should we be collectingraccolta all of that guy'sragazzo di datadati
82
204000
2000
Dovremmo raccogliere tutti i dati di quel ragazzo
03:41
to make his experiencesesperienze better
83
206000
2000
per migliorare il tempo che trascorre su Internet
03:43
and to protectproteggere ourselvesnoi stessi in casecaso he's up to no good?
84
208000
3000
e proteggerci nel caso in cui avesse cattive intenzioni?
03:46
Or should we leavepartire him aloneda solo?
85
211000
2000
O dovremmo lasciarlo in pace?
03:48
CollectRaccogliere his datadati.
86
213000
3000
Raccogliere i suoi dati.
03:53
LeaveLasciare him aloneda solo.
87
218000
3000
Lasciarlo in pace.
03:56
You're safesicuro. It's fine.
88
221000
2000
Sei fuori pericolo. Va tutto bene.
03:58
(LaughterRisate)
89
223000
2000
(Risate)
04:00
Okay, last questiondomanda --
90
225000
2000
Ok, ultima domanda -
04:02
harderPiù forte questiondomanda --
91
227000
2000
più difficile -
04:04
when tryingprovare to evaluatevalutare
92
229000
3000
quando proviamo a valutare
04:07
what we should do in this casecaso,
93
232000
3000
cosa dovremmo fare in questo caso,
04:10
should we use a KantianKantiana deontologicaldeontologico moralmorale frameworkstruttura,
94
235000
4000
dovremmo utilizzare una struttura morale ispirata alla deontologia kantiana,
04:14
or should we use a MillianMillian consequentialistconsequenzialista one?
95
239000
3000
o dovremmo usarne una consequenzialistica milliana?
04:19
KantKant.
96
244000
3000
Kant.
04:22
MillMulino.
97
247000
3000
Mill.
04:25
Not as manymolti votesvoti.
98
250000
2000
Non altrettanti voti.
04:27
(LaughterRisate)
99
252000
3000
(Risate)
04:30
Yeah, that's a terrifyingterrificante resultrisultato.
100
255000
3000
Sì, è un risultato spaventoso.
04:34
TerrifyingTerrificante, because we have strongerpiù forte opinionsopinioni
101
259000
4000
Spaventoso perché abbiamo opinioni più chiare
04:38
about our hand-heldtenuto in mano devicesdispositivi
102
263000
2000
rispetto ai nostri cellulari
04:40
than about the moralmorale frameworkstruttura
103
265000
2000
che non per la struttura morale di riferimento
04:42
we should use to guideguida our decisionsdecisioni.
104
267000
2000
che dovremmo utilizzare per guidare le nostre decisioni.
04:44
How do we know what to do with all the powerenergia we have
105
269000
3000
Come possiamo sapere che farne di tutto il potere che abbiamo
04:47
if we don't have a moralmorale frameworkstruttura?
106
272000
3000
se non abbiamo una struttura morale?
04:50
We know more about mobilemobile operatingoperativo systemssistemi,
107
275000
3000
Ne sappiamo di più dei sistemi operativi dei cellulari,
04:53
but what we really need is a moralmorale operatingoperativo systemsistema.
108
278000
3000
ma ciò che davvero ci occorre è un sistema operativo morale.
04:58
What's a moralmorale operatingoperativo systemsistema?
109
283000
2000
Che cos'è un sistema operativo morale?
05:00
We all know right and wrongsbagliato, right?
110
285000
2000
Tutti sappiamo cosa è giusto e cosa è sbagliato, vero?
05:02
You feel good when you do something right,
111
287000
2000
Ci si sente bene quando si fa qualcosa di buono,
05:04
you feel badcattivo when you do something wrongsbagliato.
112
289000
2000
ci si sente in colpa quando si fa qualcosa di sbagliato.
05:06
Our parentsgenitori teachinsegnare us that: praiselode with the good, scoldsgridare with the badcattivo.
113
291000
3000
I nostri genitori ci insegnano a: lodare il giusto, rimproverare l'errore.
05:09
But how do we figurefigura out what's right and wrongsbagliato?
114
294000
3000
Ma come facciamo a distinguere tra giusto e sbagliato?
05:12
And from day to day, we have the techniquestecniche that we use.
115
297000
3000
Di giorno in giorno, abbiamo delle tecniche che utilizziamo.
05:15
Maybe we just followSeguire our gutintestino.
116
300000
3000
Forse usiamo semplicemente il nostro intuito.
05:18
Maybe we take a votevotazione -- we crowdsourcecrowdsourcing.
117
303000
3000
Forse la mettiamo ai voti - l'opinione della maggioranza.
05:21
Or maybe we puntPunt --
118
306000
2000
O forse ci affidiamo alla legge -
05:23
askChiedere the legallegale departmentDipartimento, see what they say.
119
308000
3000
chiediamo all'ufficio legale e vediamo che ne pensano.
05:26
In other wordsparole, it's kindgenere of randomcasuale,
120
311000
2000
In altre parole, è un po' casuale,
05:28
kindgenere of adanno Domini hochoc,
121
313000
2000
un po' improvvisato,
05:30
how we figurefigura out what we should do.
122
315000
3000
il modo in cui decidiamo cosa sia meglio fare.
05:33
And maybe, if we want to be on surerpiù sicuro footingbasamento,
123
318000
3000
E forse, se vogliamo avere basi per agire più solide,
05:36
what we really want is a moralmorale frameworkstruttura that will help guideguida us there,
124
321000
3000
ciò che davvero vogliamo è una struttura morale che ci aiuti e ci indirizzi,
05:39
that will tell us what kindstipi of things are right and wrongsbagliato in the first placeposto,
125
324000
3000
che per prima cosa ci dica cosa è giusto e cosa è sbagliato,
05:42
and how would we know in a givendato situationsituazione what to do.
126
327000
4000
e come fare a sapere come comportarci in una determinata situazione.
05:46
So let's get a moralmorale frameworkstruttura.
127
331000
2000
Allora troviamo una struttura morale di riferimento.
05:48
We're numbersnumeri people, livingvita by numbersnumeri.
128
333000
3000
Siamo persone che usano i numeri, che vivono con i numeri.
05:51
How can we use numbersnumeri
129
336000
2000
Come possiamo usare i numeri
05:53
as the basisbase for a moralmorale frameworkstruttura?
130
338000
3000
come base per una struttura morale di riferimento?
05:56
I know a guy who did exactlydi preciso that.
131
341000
3000
Conosco un ragazzo che ha fatto esattamente questo.
05:59
A brilliantbrillante guy --
132
344000
3000
Un ragazzo brillante -
06:02
he's been deadmorto 2,500 yearsanni.
133
347000
3000
è morto da 2.500 anni.
06:05
PlatoPlatone, that's right.
134
350000
2000
Platone, esatto.
06:07
RememberRicordate him -- oldvecchio philosopherfilosofo?
135
352000
2000
Ve lo ricordate - il vecchio filosofo?
06:09
You were sleepingaddormentato duringdurante that classclasse.
136
354000
3000
Stavate dormendo in quella lezione?
06:12
And PlatoPlatone, he had a lot of the samestesso concernspreoccupazioni that we did.
137
357000
2000
Platone, anche lui si è interrogato su molte delle domande che ci siamo posti noi.
06:14
He was worriedpreoccupato about right and wrongsbagliato.
138
359000
2000
Anche lui meditava su cosa è giusto e cosa è sbagliato.
06:16
He wanted to know what is just.
139
361000
2000
Voleva sapere cosa fosse giusto.
06:18
But he was worriedpreoccupato that all we seemsembrare to be doing
140
363000
2000
Ma temeva che tutto ciò che facciamo
06:20
is tradingcommercio opinionsopinioni about this.
141
365000
2000
non fosse altro che scambiarci opinioni a riguardo.
06:22
He saysdice something'sc'è qualcosa che non just. She saysdice something elsealtro is just.
142
367000
3000
Secondo lui questo è giusto. Secondo lei è giusta un'altra cosa.
06:25
It's kindgenere of convincingconvincente when he talkstrattativa and when she talkstrattativa too.
143
370000
2000
Lui è piuttosto convincente quando parla...
06:27
I'm just going back and forthvia; I'm not gettingottenere anywheredovunque.
144
372000
2000
..ma anche lei! Vado avanti e indietro; non sto andando da nessuna parte.
06:29
I don't want opinionsopinioni; I want knowledgeconoscenza.
145
374000
3000
Non voglio opinioni, voglio conoscenza.
06:32
I want to know the truthverità about justicegiustizia --
146
377000
3000
Voglio sapere la verità riguardo alla giustizia -
06:35
like we have truthsverità in mathmatematica.
147
380000
3000
come le verità che abbiamo in matematica.
06:38
In mathmatematica, we know the objectiveobbiettivo factsfatti.
148
383000
3000
In matematica, abbiamo i fatti oggettivi.
06:41
Take a numbernumero, any numbernumero -- two.
149
386000
2000
Prendete un numero, un numero qualsiasi - 2.
06:43
FavoritePreferito numbernumero. I love that numbernumero.
150
388000
2000
Il mio numero preferito. Amo quel numero.
06:45
There are truthsverità about two.
151
390000
2000
Ci sono delle verità sul 2.
06:47
If you've got two of something,
152
392000
2000
Se avete 2 unità di qualcosa,
06:49
you addInserisci two more, you get fourquattro.
153
394000
2000
e gliene aggiungete altre 2, ottenete 4.
06:51
That's truevero no matterimporta what thing you're talkingparlando about.
154
396000
2000
È vero a prescindere da qualsiasi sia l'ambito di discussione.
06:53
It's an objectiveobbiettivo truthverità about the formmodulo of two,
155
398000
2000
È una verità oggettiva sulla forma del 2,
06:55
the abstractastratto formmodulo.
156
400000
2000
la forma astratta.
06:57
When you have two of anything -- two eyesocchi, two earsorecchie, two nosesnasi,
157
402000
2000
Quando avete 2 unità di qualsiasi cosa -- 2 occhi, 2 orecchie, 2 nasi,
06:59
just two protrusionssporgenze --
158
404000
2000
solo 2 protuberanze -
07:01
those all partakepartecipare of the formmodulo of two.
159
406000
3000
tutte prendono parte alla forma del 2.
07:04
They all participatepartecipare in the truthsverità that two has.
160
409000
4000
Tutte condividono le verità che ha il 2.
07:08
They all have two-nessdue-ness in them.
161
413000
2000
Hanno la du-alità in loro.
07:10
And thereforeperciò, it's not a matterimporta of opinionopinione.
162
415000
3000
E quindi, non si tratta di opinioni.
07:13
What if, PlatoPlatone thought,
163
418000
2000
Platone pensò: e se
07:15
ethicsetica was like mathmatematica?
164
420000
2000
l'etica fosse come la matematica?
07:17
What if there were a purepuro formmodulo of justicegiustizia?
165
422000
3000
E se ci fosse una forma pura di giustizia?
07:20
What if there are truthsverità about justicegiustizia,
166
425000
2000
E se ci fossero delle verità sulla giustizia,
07:22
and you could just look around in this worldmondo
167
427000
2000
e ci si potesse semplicemente guardare attorno in questo mondo
07:24
and see whichquale things participatedpartecipato,
168
429000
2000
per vedere quali cose hanno preso parte a tali verità,
07:26
partookbevvi of that formmodulo of justicegiustizia?
169
431000
3000
hanno condiviso quella forma di giustizia?
07:29
Then you would know what was really just and what wasn'tnon era.
170
434000
3000
A quel punto si saprebbe cosa era realmente giusto e cosa non lo era.
07:32
It wouldn'tno be a matterimporta
171
437000
2000
Non sarebbe un problema
07:34
of just opinionopinione or just appearancesapparizioni.
172
439000
3000
di opinioni o di impressioni su ciò che è giusto.
07:37
That's a stunningsbalorditivo visionvisione.
173
442000
2000
È una visione che lascia di stucco.
07:39
I mean, think about that. How grandgrande. How ambitiousambizioso.
174
444000
3000
Voglio dire, pensateci. Quant'è grandioso, ambizioso.
07:42
That's as ambitiousambizioso as we are.
175
447000
2000
Tanto ambizioso quanto lo siamo noi.
07:44
He wants to solverisolvere ethicsetica.
176
449000
2000
Vuole risolvere l'etica.
07:46
He wants objectiveobbiettivo truthsverità.
177
451000
2000
Vuole verità oggettive.
07:48
If you think that way,
178
453000
3000
Se la pensate in quel modo,
07:51
you have a PlatonistPlatonico moralmorale frameworkstruttura.
179
456000
3000
avete una struttura morale platonica.
07:54
If you don't think that way,
180
459000
2000
Se non la pensate in quel modo,
07:56
well, you have a lot of companyazienda in the historystoria of WesternWestern philosophyfilosofia,
181
461000
2000
beh, avete molta compagnia nella storia della filosofia occidentale,
07:58
because the tidyordinate ideaidea, you know, people criticizedcriticato it.
182
463000
3000
perché questa notevole idea - sapete, la gente l'ha criticata.
08:01
AristotleAristotele, in particularparticolare, he was not amuseddivertito.
183
466000
3000
Aristotele, in particolare, non ne era entusiasta.
08:04
He thought it was impracticalnon pratico.
184
469000
3000
La riteneva poco pratica.
08:07
AristotleAristotele said, "We should seekricercare only so much precisionprecisione in eachogni subjectsoggetto
185
472000
4000
Aristotele diceva, "Dovremmo richiedere in ciascun campo tanta precisione
08:11
as that subjectsoggetto allowsconsente."
186
476000
2000
quanta ne permette la natura dell'oggetto".
08:13
AristotleAristotele thought ethicsetica wasn'tnon era a lot like mathmatematica.
187
478000
3000
Aristotele pensava che l'etica non fosse come la matematica.
08:16
He thought ethicsetica was a matterimporta of makingfabbricazione decisionsdecisioni in the here-and-nowqui e ora
188
481000
3000
Pensava che l'etica fosse più una questione legata al prendere decisioni al momento,
08:19
usingutilizzando our bestmigliore judgmentgiudizio
189
484000
2000
usando il nostro giudizio
08:21
to find the right pathsentiero.
190
486000
2000
per capire la giusta direzione da prendere.
08:23
If you think that, Plato'sPlatone not your guy.
191
488000
2000
Se la pensate così, Platone non fa per voi.
08:25
But don't give up.
192
490000
2000
Ma non arrendetevi.
08:27
Maybe there's anotherun altro way
193
492000
2000
Forse esiste un altro modo grazie a cui
08:29
that we can use numbersnumeri as the basisbase of our moralmorale frameworkstruttura.
194
494000
3000
possiamo usare i numeri come base per il nostro sistema di riferimento morale.
08:33
How about this:
195
498000
2000
Cosa ne dite di questo:
08:35
What if in any situationsituazione you could just calculatecalcolare,
196
500000
3000
come sarebbe se in ogni situazione poteste semplicemente prevedere,
08:38
look at the choicesscelte,
197
503000
2000
vagliare le possibilità,
08:40
measuremisurare out whichquale one'suno è better and know what to do?
198
505000
3000
giudicare quale sia la migliore e sapere cosa fare?
08:43
That soundsuono familiarfamiliare?
199
508000
2000
Vi suona familiare?
08:45
That's a utilitarianutilitaristico moralmorale frameworkstruttura.
200
510000
3000
Questo è un sistema di riferimento utilitaristico.
08:48
JohnJohn StuartStuart MillMulino was a great advocateavvocato of this --
201
513000
2000
John Stuart Mill ne è stato un gran difensore -
08:50
nicesimpatico guy besidesinoltre --
202
515000
2000
oltre ad essere un bravo ragazzo -
08:52
and only been deadmorto 200 yearsanni.
203
517000
2000
ed è morto solo 200 anni fa.
08:54
So basisbase of utilitarianismutilitarismo --
204
519000
2000
Almeno con le basi dell'utilitarismo
08:56
I'm sure you're familiarfamiliare at leastmeno.
205
521000
2000
sono sicuro che abbiate familiarità:
08:58
The threetre people who votedvotato for MillMulino before are familiarfamiliare with this.
206
523000
2000
le tre persone che prima hanno votato per Mill ne hanno familiarità.
09:00
But here'secco the way it workslavori.
207
525000
2000
Ma ecco come funziona.
09:02
What if moralsmorale, what if what makesfa something moralmorale
208
527000
3000
Come sarebbe se la moralità, ciò che rende qualcosa morale,
09:05
is just a matterimporta of if it maximizesmassimizza pleasurepiacere
209
530000
2000
fosse solo una questione di massimizzazione del piacere
09:07
and minimizesriduce al minimo paindolore?
210
532000
2000
e minimizzazione del dolore?
09:09
It does something intrinsicintrinseca to the actatto.
211
534000
3000
È qualcosa di intrinseco all'azione.
09:12
It's not like its relationrelazione to some abstractastratto formmodulo.
212
537000
2000
Non è come la relazione che intrattiene con qualche forma astratta.
09:14
It's just a matterimporta of the consequencesconseguenze.
213
539000
2000
È solo una questione di conseguenze.
09:16
You just look at the consequencesconseguenze
214
541000
2000
Vagliate solo le conseguenze
09:18
and see if, overallcomplessivamente, it's for the good or for the worsepeggio.
215
543000
2000
e giudicate se, in generale, propende per il meglio o il peggio.
09:20
That would be simplesemplice. Then we know what to do.
216
545000
2000
Sarebbe semplice. A quel punto sappiamo cosa fare.
09:22
Let's take an exampleesempio.
217
547000
2000
Facciamo un esempio.
09:24
SupposeSi supponga che I go up
218
549000
2000
Supponiamo che io me ne esca
09:26
and I say, "I'm going to take your phoneTelefono."
219
551000
2000
dicendo "Prenderò il tuo telefono."
09:28
Not just because it rangha squillato earlierprima,
220
553000
2000
Non perché prima abbia squillato,
09:30
but I'm going to take it because I madefatto a little calculationcalcolo.
221
555000
3000
ma lo prenderò perché ho fatto qualche piccola previsione.
09:33
I thought, that guy lookssembra suspicioussospetto.
222
558000
3000
Ho pensato: "quel ragazzo ha un'aria sospetta.
09:36
And what if he's been sendinginvio little messagesmessaggi to BinBin Laden'sDi carico hideoutnascondiglio --
223
561000
3000
E se avesse mandato dei messaggini al nascondiglio di Bin Landen? -
09:39
or whoeverchiunque tookha preso over after BinBin LadenPieno carico --
224
564000
2000
o chiunque abbia preso il posto di Bin Landen -
09:41
and he's actuallyin realtà like a terroristterrorista, a sleepertraversina cellcellula.
225
566000
3000
e fosse davvero un terrorista, una cellula dormiente?
09:44
I'm going to find that out, and when I find that out,
226
569000
3000
Lo scoprirò, e quando l'avrò scoperto,
09:47
I'm going to preventimpedire a hugeenorme amountquantità of damagedanno that he could causecausa.
227
572000
3000
impedirò il danno enorme che potrebbe causare".
09:50
That has a very highalto utilityutilità to preventimpedire that damagedanno.
228
575000
3000
È davvero un gran vantaggio prevenire quel danno.
09:53
And comparedrispetto to the little paindolore that it's going to causecausa --
229
578000
2000
E a paragone del piccolo dolore che la mia azione causerà -
09:55
because it's going to be embarrassingimbarazzante when I'm looking on his phoneTelefono
230
580000
2000
perché sarà imbarazzante quando andrò a sbirciare sul suo cellulare
09:57
and seeingvedendo that he has a FarmvilleFarmville problemproblema and that wholetotale bitpo --
231
582000
3000
e vedrò che ha solo un problema con Farmville e altre cose del genere -
10:00
that's overwhelmedsopraffatto
232
585000
3000
quest'imbarazzo sarà superato
10:03
by the valuevalore of looking at the phoneTelefono.
233
588000
2000
dal valore che avrà avuto l'aver controllato il suo cellulare.
10:05
If you feel that way,
234
590000
2000
Se la pensate in questo modo
10:07
that's a utilitarianutilitaristico choicescelta.
235
592000
3000
avete fatto una scelta utilitaristica.
10:10
But maybe you don't feel that way eithero.
236
595000
3000
Ma forse non la pensate neanche in quel modo.
10:13
Maybe you think, it's his phoneTelefono.
237
598000
2000
Forse pensate: "è il suo cellulare.
10:15
It's wrongsbagliato to take his phoneTelefono
238
600000
2000
È sbagliato prendere il suo cellulare,
10:17
because he's a personpersona
239
602000
2000
perché è una persona
10:19
and he has rightsdiritti and he has dignitydignità,
240
604000
2000
e come tale ha i suoi diritti e la sua dignità,
10:21
and we can't just interfereinterferire with that.
241
606000
2000
e noi semplicemente non possiamo interferire.
10:23
He has autonomyautonomia.
242
608000
2000
Ha la propria autonomia.
10:25
It doesn't matterimporta what the calculationscalcoli are.
243
610000
2000
Non importa quali siano le previsioni:
10:27
There are things that are intrinsicallyintrinsecamente wrongsbagliato --
244
612000
3000
ci sono cose intrinsecamente sbagliate -
10:30
like lyingdire bugie is wrongsbagliato,
245
615000
2000
così com'è sbagliato mentire,
10:32
like torturingtorturare innocentinnocente childrenbambini is wrongsbagliato.
246
617000
3000
così com'è sbagliato torturare bambini innocenti".
10:35
KantKant was very good on this pointpunto,
247
620000
3000
Kant era molto ferrato su questo punto
10:38
and he said it a little better than I'll say it.
248
623000
2000
e si è espresso un po' meglio di quanto lo farò io.
10:40
He said we should use our reasonragionare
249
625000
2000
Lui diceva che dovremmo usare la ragione
10:42
to figurefigura out the rulesregole by whichquale we should guideguida our conductcondotta,
250
627000
3000
per capire le regole su cui basare il nostro comportamento.
10:45
and then it is our dutydovere to followSeguire those rulesregole.
251
630000
3000
E a quel punto è nostro obbligo morale attenerci a quelle regole.
10:48
It's not a matterimporta of calculationcalcolo.
252
633000
3000
Non è una questione di previsione.
10:51
So let's stop.
253
636000
2000
Fermiamoci un attimo.
10:53
We're right in the thickdenso of it, this philosophicalfilosofico thicketBoschetto.
254
638000
3000
Siamo nel bel mezzo di questa coltre filosofica.
10:56
And this goesva on for thousandsmigliaia of yearsanni,
255
641000
3000
E questo va avanti ormai da migliaia di anni,
10:59
because these are harddifficile questionsle domande,
256
644000
2000
perché queste sono domande difficili,
11:01
and I've only got 15 minutesminuti.
257
646000
2000
e io ho solo 15 minuti a disposizione.
11:03
So let's cuttagliare to the chaseChase.
258
648000
2000
Andiamo dritti al dunque.
11:05
How should we be makingfabbricazione our decisionsdecisioni?
259
650000
4000
In che modo dovremmo prendere le nostre decisioni?
11:09
Is it PlatoPlatone, is it AristotleAristotele, is it KantKant, is it MillMulino?
260
654000
3000
Dovremmo ragionare come Platone, Aristotele, Kant o Mill?
11:12
What should we be doing? What's the answerrisposta?
261
657000
2000
Cosa dovremmo fare? Qual è la risposta?
11:14
What's the formulaformula that we can use in any situationsituazione
262
659000
3000
Qual è la formula che possiamo utilizzare in qualsiasi situazione
11:17
to determinedeterminare what we should do,
263
662000
2000
per determinare cosa dovremmo fare,
11:19
whetherse we should use that guy'sragazzo di datadati or not?
264
664000
2000
se è giusto utilizzare i dati di quel ragazzo o no?
11:21
What's the formulaformula?
265
666000
3000
Qual è la formula?
11:25
There's not a formulaformula.
266
670000
2000
Non esiste una formula.
11:29
There's not a simplesemplice answerrisposta.
267
674000
2000
Non esiste una risposta semplice.
11:31
EthicsEtica is harddifficile.
268
676000
3000
L'etica è difficile.
11:34
EthicsEtica requiresrichiede thinkingpensiero.
269
679000
3000
L'etica richiede riflessione.
11:38
And that's uncomfortablescomodo.
270
683000
2000
E ciò crea disagio.
11:40
I know; I spentspeso a lot of my careercarriera
271
685000
2000
Lo so: ho passato gran parte della mia carriera
11:42
in artificialartificiale intelligenceintelligenza,
272
687000
2000
occupandomi di intelligenza artificiale,
11:44
tryingprovare to buildcostruire machinesmacchine that could do some of this thinkingpensiero for us,
273
689000
3000
provando a costruire macchine in grado di fare un po' di queste riflessioni per noi,
11:47
that could give us answersrisposte.
274
692000
2000
in grado di darci delle risposte.
11:49
But they can't.
275
694000
2000
Ma non possono.
11:51
You can't just take humanumano thinkingpensiero
276
696000
2000
Semplicemente non si può prendere il pensiero umano
11:53
and put it into a machinemacchina.
277
698000
2000
e metterlo in una macchina.
11:55
We're the onesquelli who have to do it.
278
700000
3000
Siamo noi che dobbiamo pensare.
11:58
HappilyFelicemente, we're not machinesmacchine, and we can do it.
279
703000
3000
La buona notizia è che non siamo macchine e possiamo farlo.
12:01
Not only can we think,
280
706000
2000
Non solo possiamo pensare,
12:03
we mustdovere.
281
708000
2000
ma dobbiamo.
12:05
HannahHannah ArendtArendt said,
282
710000
2000
Hannah Arendt diceva,
12:07
"The sadtriste truthverità
283
712000
2000
"La triste verità
12:09
is that mostmaggior parte evilil male donefatto in this worldmondo
284
714000
2000
è che la maggior parte del male in questo mondo
12:11
is not donefatto by people
285
716000
2000
non è causato da persone
12:13
who choosescegliere to be evilil male.
286
718000
2000
che vogliono essere deliberatamente cattive.
12:15
It arisessorge from not thinkingpensiero."
287
720000
3000
Nasce dal non pensare affatto".
12:18
That's what she calledchiamato the "banalitybanalità of evilil male."
288
723000
4000
Questo è ciò che lei ha chiamato "la banalità del male".
12:22
And the responserisposta to that
289
727000
2000
E in risposta a ciò
12:24
is that we demandrichiesta the exerciseesercizio of thinkingpensiero
290
729000
2000
pretendiamo che qualsiasi persona sana
12:26
from everyogni sanesano di mente personpersona.
291
731000
3000
sfrutti la propria capacità di riflettere.
12:29
So let's do that. Let's think.
292
734000
2000
E allora facciamolo. Pensiamo.
12:31
In factfatto, let's startinizio right now.
293
736000
3000
Anzi, iniziamo proprio adesso.
12:34
EveryOgni personpersona in this roomcamera do this:
294
739000
3000
Ognuno di voi qui presente faccia questo:
12:37
think of the last time you had a decisiondecisione to make
295
742000
3000
pensate all'ultima volta che avete dovuto prendere una decisione
12:40
where you were worriedpreoccupato to do the right thing,
296
745000
2000
per cui vi siete preoccupati di quale fosse la cosa giusta,
12:42
where you wonderedchiesti, "What should I be doing?"
297
747000
2000
e vi siete chiesti, "Cosa dovrei fare?"
12:44
BringPortare that to mindmente,
298
749000
2000
Fate riaffiorare questo ricordo.
12:46
and now reflectriflettere on that
299
751000
2000
Adesso rifletteteci
12:48
and say, "How did I come up that decisiondecisione?
300
753000
3000
e rispondete, "Come sono giunto alla mia decisione?
12:51
What did I do? Did I followSeguire my gutintestino?
301
756000
3000
Cosa ho fatto? Ho seguito l'istinto?
12:54
Did I have somebodyqualcuno votevotazione on it? Or did I puntPunt to legallegale?"
302
759000
2000
Ho fatto votare qualcuno? O mi sono attenuto alla legge?"
12:56
Or now we have a fewpochi more choicesscelte.
303
761000
3000
Adesso abbiamo un po' più di scelta.
12:59
"Did I evaluatevalutare what would be the highestmassimo pleasurepiacere
304
764000
2000
"Ho valutato quale sarebbe stato il piacere maggiore
13:01
like MillMulino would?
305
766000
2000
come avrebbe fatto Mill?
13:03
Or like KantKant, did I use reasonragionare to figurefigura out what was intrinsicallyintrinsecamente right?"
306
768000
3000
O come Kant, ho utilizzato la ragione per capire cosa fosse intrinsecamente giusto?"
13:06
Think about it. Really bringportare it to mindmente. This is importantimportante.
307
771000
3000
Pensateci. Davvero, fate uno sforzo di memoria. È importante.
13:09
It is so importantimportante
308
774000
2000
È così importante
13:11
we are going to spendtrascorrere 30 secondssecondi of valuableprezioso TEDTalkTed time
309
776000
2000
che perderemo ben 30 preziosi secondi del mio tempo qui a TEDTalk
13:13
doing nothing but thinkingpensiero about this.
310
778000
2000
facendo nulla, se non pensare a questo.
13:15
Are you readypronto? Go.
311
780000
2000
Siete pronti? Via.
13:33
Stop. Good work.
312
798000
3000
Stop. Ottimo lavoro.
13:36
What you just did,
313
801000
2000
Quello che avete appena fatto
13:38
that's the first steppasso towardsin direzione takingpresa responsibilityresponsabilità
314
803000
2000
è il primo passo verso l'assunzione di responsabilità
13:40
for what we should do with all of our powerenergia.
315
805000
3000
per ciò che dovremmo fare con tutto il nostro potere.
13:45
Now the nextIl prossimo steppasso -- try this.
316
810000
3000
Ecco il prossimo passo - provate a far questo.
13:49
Go find a friendamico and explainspiegare to them
317
814000
2000
Andate da un amico e spiegategli
13:51
how you madefatto that decisiondecisione.
318
816000
2000
come avete preso la vostra decisione.
13:53
Not right now. Wait tillfino I finishfinire talkingparlando.
319
818000
2000
Non adesso. Aspettate la fine di questo intervento.
13:55
Do it over lunchpranzo.
320
820000
2000
Fatelo a pranzo.
13:57
And don't just find anotherun altro technologistTecnologo friendamico;
321
822000
3000
E non andate a parlare con qualche altro amico tecnologo;
14:00
find somebodyqualcuno differentdiverso than you.
322
825000
2000
trovate qualcuno diverso da voi.
14:02
Find an artistartista or a writerscrittore --
323
827000
2000
Cercate un arista o uno scrittore -
14:04
or, heavenParadiso forbidvietare, find a philosopherfilosofo and talk to them.
324
829000
3000
oppure, Dio ce ne scampi, trovate un filosofo e parlategli.
14:07
In factfatto, find somebodyqualcuno from the humanitiesumanistiche.
325
832000
2000
Insomma, trovate qualcuno del settore umanistico.
14:09
Why? Because they think about problemsi problemi
326
834000
2000
Perché? Perché il loro approccio ai problemi
14:11
differentlydiversamente than we do as technologiststecnologi.
327
836000
2000
è diverso rispetto a quello di noi tecnologi.
14:13
Just a fewpochi daysgiorni agofa, right acrossattraverso the streetstrada from here,
328
838000
3000
Proprio qualche giorno fa, proprio qui davanti,
14:16
there was hundredscentinaia of people gatheredsi riunirono togetherinsieme.
329
841000
2000
c'erano centinaia di persone radunate.
14:18
It was technologiststecnologi and humanistsumanisti
330
843000
2000
Erano tecnologi e umanisti
14:20
at that biggrande BiblioTechBiblioTech ConferenceConferenza.
331
845000
2000
che partecipavano alla grande conferenza BiblioTech.
14:22
And they gatheredsi riunirono togetherinsieme
332
847000
2000
E si sono riuniti tutti insieme
14:24
because the technologiststecnologi wanted to learnimparare
333
849000
2000
perché i tecnologi volevano capire
14:26
what it would be like to think from a humanitiesumanistiche perspectiveprospettiva.
334
851000
3000
come sarebbe stato pensare da un punto di vista umanistico.
14:29
You have someonequalcuno from GoogleGoogle
335
854000
2000
Qualcuno che lavorava per Google
14:31
talkingparlando to someonequalcuno who does comparativecomparativa literatureletteratura.
336
856000
2000
parlava con qualcuno che studiava letteratura comparata.
14:33
You're thinkingpensiero about the relevancerilevanza of 17thesimo centurysecolo FrenchFrancese theaterTeatro --
337
858000
3000
Pensate alla rilevanza del teatro francese del 17esimo secolo -
14:36
how does that bearorso uponsu ventureavventurarsi capitalcapitale?
338
861000
2000
come influisce sul capitale di rischio?
14:38
Well that's interestinginteressante. That's a differentdiverso way of thinkingpensiero.
339
863000
3000
Beh, è interessante. È un modo diverso di pensare.
14:41
And when you think in that way,
340
866000
2000
E quando ragionate in quel modo,
14:43
you becomediventare more sensitivesensibile to the humanumano considerationsconsiderazioni,
341
868000
3000
diventate più sensibili alle considerazioni umane,
14:46
whichquale are crucialcruciale to makingfabbricazione ethicaletico decisionsdecisioni.
342
871000
3000
che sono indispensabili per prendere decisioni etiche.
14:49
So imagineimmaginare that right now
343
874000
2000
Immaginate che proprio questo momento
14:51
you wentandato and you foundtrovato your musicianmusicista friendamico.
344
876000
2000
voi uscite e trovate il vostro amico musicista.
14:53
And you're tellingraccontare him what we're talkingparlando about,
345
878000
3000
E mentre gli raccontate di cosa stiamo parlando,
14:56
about our wholetotale datadati revolutionrivoluzione and all this --
346
881000
2000
di tutta la nostra rivoluzione dei dati e via di seguito -
14:58
maybe even humronzio a fewpochi barsbarre of our themetema musicmusica.
347
883000
2000
potreste anche accennargli un paio di battute della nostra musica di sottofondo.
15:00
DumDum tata dada dada dumDum dumDum tata dada dada dumDum
348
885000
3000
♫ Dum ta da da dum dum ta da da dum ♫
15:03
Well, your musicianmusicista friendamico will stop you and say,
349
888000
2000
Beh, il vostro amico musicista vi interrompe e vi dice,
15:05
"You know, the themetema musicmusica
350
890000
2000
"Sai, la musica
15:07
for your datadati revolutionrivoluzione,
351
892000
2000
per la vostra rivoluzione dei dati,
15:09
that's an operamusica lirica, that's WagnerWagner.
352
894000
2000
è un'opera, è Wagner.
15:11
It's basedbasato on NorseNorreno legendleggenda.
353
896000
2000
È basata su una leggenda norrena.
15:13
It's GodsDèi and mythicalmitico creaturescreature
354
898000
2000
Parla di dei e creature mitiche
15:15
fightingcombattente over magicalmagico jewelrygioielli."
355
900000
3000
che si battono per dei gioielli magici".
15:19
That's interestinginteressante.
356
904000
3000
Interessante.
15:22
Now it's alsoanche a beautifulbellissimo operamusica lirica,
357
907000
3000
Adesso è anche una bella opera.
15:25
and we're movedmosso by that operamusica lirica.
358
910000
3000
E ci sentiamo commossi da quest'opera.
15:28
We're movedmosso because it's about the battlebattaglia
359
913000
2000
Ci sentiamo commossi perché si tratta di una lotta
15:30
betweenfra good and evilil male,
360
915000
2000
tra il bene e il male,
15:32
about right and wrongsbagliato.
361
917000
2000
tra ciò che è giusto e ciò che è sbagliato.
15:34
And we carecura about right and wrongsbagliato.
362
919000
2000
E a noi importa di ciò è giusto e ciò che è sbagliato.
15:36
We carecura what happensaccade in that operamusica lirica.
363
921000
3000
Ci importa di ciò che accade in quell'opera.
15:39
We carecura what happensaccade in "ApocalypseApocalisse Now."
364
924000
3000
Ci importa di ciò che accade in "Apocalypse Now".
15:42
And we certainlycertamente carecura
365
927000
2000
E sicuramente ci importa
15:44
what happensaccade with our technologiestecnologie.
366
929000
2000
di ciò che accade con le tecnologie che usiamo.
15:46
We have so much powerenergia todayoggi,
367
931000
2000
Abbiamo così tanto potere al giorno d'oggi,
15:48
it is up to us to figurefigura out what to do,
368
933000
3000
dipende esclusivamente da noi capire cosa farne.
15:51
and that's the good newsnotizia.
369
936000
2000
E qui arriva la buona notizia.
15:53
We're the onesquelli writingscrittura this operamusica lirica.
370
938000
3000
Siamo noi a scrivere quest'opera.
15:56
This is our moviefilm.
371
941000
2000
Questo è il nostro film.
15:58
We figurefigura out what will happenaccadere with this technologytecnologia.
372
943000
3000
Siamo noi a decidere cosa ne sarà di questa tecnologia.
16:01
We determinedeterminare how this will all endfine.
373
946000
3000
Saremo noi a determinare il finale di tutto questo.
16:04
Thank you.
374
949000
2000
Grazie.
16:06
(ApplauseApplausi)
375
951000
5000
(Applausi)
Translated by Laura Leotta
Reviewed by Alice de Carli Enrico

▲Back to top

ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee