ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com
TEDxSiliconValley

Damon Horowitz: We need a "moral operating system"

Damon Horowitz cere un „sistem de operare moral”

Filmed:
795,617 views

La TEDxSilicon Valley, Damon Horowitz analizează noile puteri enorme pe care tehnologia ni le oferă: a cunoaște mai mult -- și mai mult, unii despre alții -- decât oricând. Atrăgând audiența într-o discuție filosofică, Horowitz ne invită să acordăm o altfel de atenție filosofiei de bază -- principiilor etice -- din spatele exploziei de invenție ce remodelează lumea noastră. Unde este sistemul de operare moral care ne permite să înțelegem acest lucru?
- Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities. Full bio

Double-click the English transcript below to play the video.

00:15
PowerPutere.
0
0
2000
Putere.
00:17
That is the wordcuvânt that comesvine to mindminte.
1
2000
2000
Acesta este cuvântul care îmi vine în minte.
00:19
We're the newnou technologiststehnologi.
2
4000
2000
Suntem noii tehnologi.
00:21
We have a lot of datadate, so we have a lot of powerputere.
3
6000
3000
Avem multă informație, așadar avem multă putere.
00:24
How much powerputere do we have?
4
9000
2000
Cât de multă putere avem?
00:26
SceneScena from a moviefilm: "ApocalypseApocalipsa Now" -- great moviefilm.
5
11000
3000
Scenă dintr-un film: ”Apocalipsa acum” -- grozav film.
00:29
We'veNe-am got to get our heroerou, CaptainCapitanul WillardWillard, to the mouthgură of the NungNung RiverRâul
6
14000
3000
Trebuie să îl aducem pe eroul nostru, căpitanul Willard, la gura râului Nung
00:32
so he can go pursueurmări ColonelColonelul KurtzKurtz.
7
17000
2000
pentru a-l putea urmări pe col. Kurtz..
00:34
The way we're going to do this is flya zbura him in and dropcădere brusca him off.
8
19000
2000
Modul în care vom face acest lucru este să-l aducem în zbor și să-l aducem acolo.
00:36
So the scenescenă:
9
21000
2000
Așadar scena:
00:38
the skycer is filledumplut with this fleetFlota of helicopterselicoptere carryingpurtător him in.
10
23000
3000
cerul este acoperit de o flotă de elicoptere ce îl transportă.
00:41
And there's this loudtare, thrillingpalpitant musicmuzică in the backgroundfundal,
11
26000
2000
Și este această muzică zgomotoasă, captivantă pe fundal,
00:43
this wildsălbatic musicmuzică.
12
28000
2000
o muzică sălbatică.
00:45
DumDum dada tateodorescu dada dumDum
13
30000
2000
♫ Dum da ta da dum ♫
00:47
DumDum dada tateodorescu dada dumDum
14
32000
2000
♫ Dum da ta da dum ♫
00:49
DaDa tateodorescu dada dada
15
34000
3000
♫ Da ta da da ♫
00:52
That's a lot of powerputere.
16
37000
2000
Asta înseamnă multă putere.
00:54
That's the kinddrăguț of powerputere I feel in this roomcameră.
17
39000
2000
Acesta este tipul de putere pe care îl simt în această încăpere.
00:56
That's the kinddrăguț of powerputere we have
18
41000
2000
Acesta este tipul de putere pe care îl avem
00:58
because of all of the datadate that we have.
19
43000
2000
datorită tuturor informațiilor pe care le avem.
01:00
Let's take an exampleexemplu.
20
45000
2000
Să luăm un exemplu.
01:02
What can we do
21
47000
2000
Ce putem face
01:04
with just one person'spersoane datadate?
22
49000
3000
cu datele unei singure persoane?
01:07
What can we do
23
52000
2000
Ce putem facem
01:09
with that guy'sbaieti datadate?
24
54000
2000
cu datele acelui tip?
01:11
I can look at your financialfinanciar recordsînregistrări.
25
56000
2000
Pot să vă cercetez trecutul financiar.
01:13
I can tell if you paya plati your billsbancnote on time.
26
58000
2000
Pot să vă spun dacă plătiți facturile la timp.
01:15
I know if you're good to give a loanîmprumut to.
27
60000
2000
Știu dacă vă calificați pentru un împrumut .
01:17
I can look at your medicalmedical recordsînregistrări; I can see if your pumppompa is still pumpingde pompare --
28
62000
3000
Pot să vă analizez istoria medicală, pot să aflu în ce stare vă este inima --
01:20
see if you're good to offeroferi insuranceasigurare to.
29
65000
3000
pentru a decide dacă merită să vă ofer asigurare.
01:23
I can look at your clickingclic patternsmodele.
30
68000
2000
Pot să analizez modelul clicurilor.
01:25
When you come to my websitewebsite, I actuallyde fapt know what you're going to do alreadydeja
31
70000
3000
Când îmi vizitaţi website-ul, chiar ştiu deja ce o să faceţi,
01:28
because I've seenvăzut you visitvizita millionsmilioane of websitessite-uri web before.
32
73000
2000
pentru că v-am mai văzut vizitând milioane de website-uri.
01:30
And I'm sorry to tell you,
33
75000
2000
Şi regret să vă spun,
01:32
you're like a pokerPoker playerjucător, you have a tell.
34
77000
2000
sunteţi ca un jucător de pocher, sunteţi transparent.
01:34
I can tell with datadate analysisanaliză what you're going to do
35
79000
2000
Analizând informaţiile, vă pot spune ce urmează să faceţi
01:36
before you even do it.
36
81000
2000
înainte chiar de a acţiona.
01:38
I know what you like. I know who you are,
37
83000
3000
Ştiu ce vă place. Ştiu cine sunteţi.
01:41
and that's even before I look at your mailPoștă
38
86000
2000
Şi asta chiar înainte de a vă vedea mail-ul
01:43
or your phonetelefon.
39
88000
2000
sau telefonul.
01:45
Those are the kindstipuri of things we can do
40
90000
2000
Astfel de lucruri putem face
01:47
with the datadate that we have.
41
92000
3000
cu informaţiile pe care le avem.
01:50
But I'm not actuallyde fapt here to talk about what we can do.
42
95000
3000
Dar nu sunt aici pentru a vă vorbi despre ce putem face.
01:56
I'm here to talk about what we should do.
43
101000
3000
Sunt aici pentru a vorbi despre ce ar trebui să facem.
02:00
What's the right thing to do?
44
105000
3000
Ce e bine să facem?
02:04
Now I see some puzzlednedumerit looksarată
45
109000
2000
Acum văd unele priviri nedumerite
02:06
like, "Why are you askingcer us what's the right thing to do?
46
111000
3000
de genul, "De ce ne întrebi ce e bine să facem?
02:09
We're just buildingclădire this stuffchestie. SomebodyCineva elsealtfel is usingutilizând it."
47
114000
3000
Noi doar fabricăm aceste lucruri. Alţii le folosesc."
02:12
FairEchitabil enoughdestul.
48
117000
3000
Corect.
02:15
But it bringsaduce me back.
49
120000
2000
Dar, îmi provoacă amintiri.
02:17
I think about WorldLumea WarRăzboi IIAL II-LEA --
50
122000
2000
Mă gândesc la al Doilea Război Mondial -
02:19
some of our great technologiststehnologi then,
51
124000
2000
atunci, unii dintre cei mai buni tehnologi de-ai noștri,
02:21
some of our great physicistsfizicienii,
52
126000
2000
unii dintre cei mai buni fizicieni de-ai noştri,
02:23
studyingstudiu nuclearnuclear fissionfisiune and fusionfuziune --
53
128000
2000
au studiat fisiunea şi fuziunea nucleară--
02:25
just nuclearnuclear stuffchestie.
54
130000
2000
doar chestii nucleare.
02:27
We gatheraduna togetherîmpreună these physicistsfizicienii in LosLos AlamosAlamos
55
132000
3000
Îi reunim pe aceşti fizicieni în Los Alamos
02:30
to see what they'llei vor buildconstrui.
56
135000
3000
pentru a vedea ce au construit.
02:33
We want the people buildingclădire the technologytehnologie
57
138000
3000
Dorim ca persoanele care construiesc tehnologia
02:36
thinkinggândire about what we should be doing with the technologytehnologie.
58
141000
3000
să se gândească la ce ar trebui să facem cu tehnologia.
02:41
So what should we be doing with that guy'sbaieti datadate?
59
146000
3000
Deci ce ar trebui să facem cu informaţiile acelui tip?
02:44
Should we be collectingcolectare it, gatheringadunare it,
60
149000
3000
Ar trebui să le preluăm, să le adunăm,
02:47
so we can make his onlinepe net experienceexperienţă better?
61
152000
2000
pentru a-i înbunătăţi experienţa online?
02:49
So we can make moneybani?
62
154000
2000
Pentru ca să câştigăm bani?
02:51
So we can protectproteja ourselvesnoi insine
63
156000
2000
Pentru a ne putea apăra
02:53
if he was up to no good?
64
158000
2000
dacă se dovedeşte că nu are intenţii bune?
02:55
Or should we respectrespect his privacyConfidentialitate,
65
160000
3000
Sau trebuie să-i respectăm intimitatea,
02:58
protectproteja his dignitydemnitate and leavepărăsi him alonesingur?
66
163000
3000
să-i protejăm demnitatea şi să-l lăsăm în pace?
03:02
WhichCare one is it?
67
167000
3000
Ce variantă să alegem?
03:05
How should we figurefigura it out?
68
170000
2000
Cum ne dăm seama ce să facem?
03:07
I know: crowdsourceCrowdsource. Let's crowdsourceCrowdsource this.
69
172000
3000
Ştiu: sondajul de opinie. Haideţi să-l aplicăm asupra acestui lucru.
03:11
So to get people warmedîncălzit up,
70
176000
3000
Ca să-i pregătim pe oameni,
03:14
let's startstart with an easyuşor questionîntrebare --
71
179000
2000
să începem cu o întrebare simplă--
03:16
something I'm sure everybodytoata lumea here has an opinionopinie about:
72
181000
3000
despre un lucru asupra căruia sunt sigur că toată lumea are o opinie:
03:19
iPhoneiPhone versusimpotriva AndroidAndroid.
73
184000
2000
IPhone versus Android.
03:21
Let's do a showspectacol of handsmâini -- iPhoneiPhone.
74
186000
3000
Să votăm -- pentru iPhone.
03:24
Uh huh.
75
189000
2000
Uh huh.
03:26
AndroidAndroid.
76
191000
3000
Android.
03:29
You'dAr fi think with a bunchbuchet of smartinteligent people
77
194000
2000
V-aţi gândi că un grup de oameni inteligenţi ca acesta
03:31
we wouldn'tnu ar fi be suchastfel de suckersfraieri just for the prettyfrumos phonestelefoane.
78
196000
2000
nu ar fi interesat de asemenea aiureli folositoare telefoanelor frumoase.
03:33
(LaughterRâs)
79
198000
2000
(Râsete)
03:35
NextUrmătoarea questionîntrebare,
80
200000
2000
Următoarea întrebare,
03:37
a little bitpic harderMai tare.
81
202000
2000
un pic mai dificilă.
03:39
Should we be collectingcolectare all of that guy'sbaieti datadate
82
204000
2000
Trebuie să adunăm toate datele despre acel tip
03:41
to make his experiencesexperiențe better
83
206000
2000
pentru a-i îmbunătăţi experienţa
03:43
and to protectproteja ourselvesnoi insine in casecaz he's up to no good?
84
208000
3000
şi a ne proteja dacă se dovedeşte că nu are intenţii bune?
03:46
Or should we leavepărăsi him alonesingur?
85
211000
2000
Sau ar trebui să -l lăsăm în pace?
03:48
CollectColecta his datadate.
86
213000
3000
Să-i adunăm datele.
03:53
LeaveConcediu him alonesingur.
87
218000
3000
Să-l lăsăm în pace.
03:56
You're safesigur. It's fine.
88
221000
2000
Eşti în siguranţă. E în regulă.
03:58
(LaughterRâs)
89
223000
2000
(Râsete)
04:00
Okay, last questionîntrebare --
90
225000
2000
Ok, ultima întrebare --
04:02
harderMai tare questionîntrebare --
91
227000
2000
întrebarea cea mai dificilă--
04:04
when tryingîncercat to evaluatea evalua
92
229000
3000
când încercăm să evaluăm
04:07
what we should do in this casecaz,
93
232000
3000
ceea ce ar trebui să facem în acest caz,
04:10
should we use a KantianKantian deontologicaldeontologice moralmorală frameworkcadru,
94
235000
4000
ar trebui să utilizăm un model moral deontologic kantian,
04:14
or should we use a MillianMillian consequentialistconsequentialist one?
95
239000
3000
sau ar trebui să utilizăm o teorie subsecventă milliană?
04:19
KantKant.
96
244000
3000
Kant.
04:22
MillMill.
97
247000
3000
Mill.
04:25
Not as manymulți votesvoturi.
98
250000
2000
Nu chiar atât de multe voturi.
04:27
(LaughterRâs)
99
252000
3000
(Râsete)
04:30
Yeah, that's a terrifyingînfricoșător resultrezultat.
100
255000
3000
Da, e un rezultat terifiant.
04:34
TerrifyingTerifiante, because we have strongermai puternic opinionsopinii
101
259000
4000
Terifiant, pentru că avem păreri mai puternice
04:38
about our hand-heldportabil devicesdispozitive
102
263000
2000
despre dispozitivele noastre manuale
04:40
than about the moralmorală frameworkcadru
103
265000
2000
decât despre cadrul moral
04:42
we should use to guideghid our decisionsdeciziile.
104
267000
2000
pe care ar trebui să-l folosim în luarea deciziilor.
04:44
How do we know what to do with all the powerputere we have
105
269000
3000
Cum ştim să ne folosim de toată puterea pe care o avem
04:47
if we don't have a moralmorală frameworkcadru?
106
272000
3000
dacă nu avem un cadru moral?
04:50
We know more about mobilemobil operatingoperare systemssisteme,
107
275000
3000
Ştim mai mult despre sistemele de operare ale telefoanelor mobile,
04:53
but what we really need is a moralmorală operatingoperare systemsistem.
108
278000
3000
dar avem de fapt nevoie de un sistem de operare moral.
04:58
What's a moralmorală operatingoperare systemsistem?
109
283000
2000
Ce este un sistem de operare moral?
05:00
We all know right and wronggresit, right?
110
285000
2000
Cu toţii cunoaştem binele şi răul .
05:02
You feel good when you do something right,
111
287000
2000
Vă simţiţi bine când faceţi un lucru bun
05:04
you feel badrău when you do something wronggresit.
112
289000
2000
vă simţiţi rău când faceţi un lucru rău.
05:06
Our parentspărinţi teacha preda us that: praiselaudă with the good, scoldcerta with the badrău.
113
291000
3000
Părinţii nostri ne învaţă că lauda este pentru bine, mustrarea pentru rău.
05:09
But how do we figurefigura out what's right and wronggresit?
114
294000
3000
Dar cum distingem binele de rău?
05:12
And from day to day, we have the techniquestehnici that we use.
115
297000
3000
Pe zi ce trece, avem tehnici pe care le folosim.
05:15
Maybe we just followurma our gutintestin.
116
300000
3000
Poate ne urmăm instinctul.
05:18
Maybe we take a votevot -- we crowdsourceCrowdsource.
117
303000
3000
Poate votăm- facem un sondaj de opinie.
05:21
Or maybe we puntpunt --
118
306000
2000
Sau poate pariem-
05:23
askcere the legallegal departmentdepartament, see what they say.
119
308000
3000
întrebaţi departamentul juridic, vedeţi ce spun ei.
05:26
In other wordscuvinte, it's kinddrăguț of randomîntâmplător,
120
311000
2000
Cu alte cuvinte e aleatoriu,
05:28
kinddrăguț of adanunț hochoc,
121
313000
2000
cam ad hoc,
05:30
how we figurefigura out what we should do.
122
315000
3000
felul în care ne dăm seama ce ar trebui să facem.
05:33
And maybe, if we want to be on surermai sigura footingpicior,
123
318000
3000
Şi poate, dacă vrem să fim mai siguri,
05:36
what we really want is a moralmorală frameworkcadru that will help guideghid us there,
124
321000
3000
ceea ce realmente vrem este un cadru moral care ne va ajuta să ajungem acolo,
05:39
that will tell us what kindstipuri of things are right and wronggresit in the first placeloc,
125
324000
3000
care ne va spune din start ce fel de lucruri sunt bune şi rele
05:42
and how would we know in a givendat situationsituatie what to do.
126
327000
4000
şi cum vom şti ce să facem într-o anumită situaţie.
05:46
So let's get a moralmorală frameworkcadru.
127
331000
2000
Aşa că, haideţi să dobândim un cadru moral.
05:48
We're numbersnumerele people, livingviaţă by numbersnumerele.
128
333000
3000
Suntem un număr de oameni care se ghidează după numere.
05:51
How can we use numbersnumerele
129
336000
2000
Cum putem folosi numerele
05:53
as the basisbază for a moralmorală frameworkcadru?
130
338000
3000
ca bază pentru un cadru moral?
05:56
I know a guy who did exactlyexact that.
131
341000
3000
Cunosc un tip care tocmai asta a făcut.
05:59
A brilliantSclipitor guy --
132
344000
3000
Un tip extraordinar-
06:02
he's been deadmort 2,500 yearsani.
133
347000
3000
care e mort de 2500 de ani.
06:05
PlatoPlaton, that's right.
134
350000
2000
Platon, corect.
06:07
RememberAmintiţi-vă him -- oldvechi philosopherfilozof?
135
352000
2000
Vi-l amintiţi - bătrânul filosof?
06:09
You were sleepingdormit duringpe parcursul that classclasă.
136
354000
3000
Aţi dormit la acel curs.
06:12
And PlatoPlaton, he had a lot of the samela fel concernspreocupările that we did.
137
357000
2000
Şi Platon, a avut aceleaşi preocupări ca şi noi.
06:14
He was worriedîngrijorat about right and wronggresit.
138
359000
2000
S-a preocupat de ceea ce e bine şi rău.
06:16
He wanted to know what is just.
139
361000
2000
A vrut să ştie ce este corect.
06:18
But he was worriedîngrijorat that all we seempărea to be doing
140
363000
2000
Dar a fost îngrijorat că tot ceea ce facem de fapt
06:20
is tradingcomercial opinionsopinii about this.
141
365000
2000
este să schimbăm opinii despre asta.
06:22
He saysspune something'sceva e just. She saysspune something elsealtfel is just.
142
367000
3000
El spune că ceva este corect. Ea spune că altceva este corect.
06:25
It's kinddrăguț of convincingconvingător when he talkstratative and when she talkstratative too.
143
370000
2000
E cam convingător ceea ce spune el şi, la fel, ceea ce spune ea.
06:27
I'm just going back and forthmai departe; I'm not gettingobtinerea anywhereoriunde.
144
372000
2000
Merg înainte şi înapoi.
06:29
I don't want opinionsopinii; I want knowledgecunoştinţe.
145
374000
3000
Nu vreau păreri, vreau cunoaştere.
06:32
I want to know the truthadevăr about justicejustiţie --
146
377000
3000
Vreau să aflu adevărul despre dreptate -
06:35
like we have truthsadevăruri in mathmatematica.
147
380000
3000
asemănător adevărului matematic.
06:38
In mathmatematica, we know the objectiveobiectiv factsfapte.
148
383000
3000
În matematică cunoaştem datele obiective.
06:41
Take a numbernumăr, any numbernumăr -- two.
149
386000
2000
Luaţi un număr, orice număr - doi.
06:43
FavoriteFavorit numbernumăr. I love that numbernumăr.
150
388000
2000
Numărul favorit. Iubesc acest număr.
06:45
There are truthsadevăruri about two.
151
390000
2000
Există adevăruri despre doi.
06:47
If you've got two of something,
152
392000
2000
Dacă aveţi două lucruri,
06:49
you addadăuga two more, you get fourpatru.
153
394000
2000
mai adăugaţi două, aveţi patru.
06:51
That's trueAdevărat no mattermaterie what thing you're talkingvorbind about.
154
396000
2000
E adevărat indiferent despre ce lucru este vorba
06:53
It's an objectiveobiectiv truthadevăr about the formformă of two,
155
398000
2000
Este un adevăr obiectiv despre forma lui doi,
06:55
the abstractabstract formformă.
156
400000
2000
forma abstractă.
06:57
When you have two of anything -- two eyesochi, two earsurechi, two nosesnasurile,
157
402000
2000
Când aveţi oricare două lucruri - doi ochi, două urechi, două nasuri,
06:59
just two protrusionsproeminenţele --
158
404000
2000
doar două proeminenţe -
07:01
those all partakeIa parte of the formformă of two.
159
406000
3000
acestea toate fac parte din forma lui doi.
07:04
They all participateparticipa in the truthsadevăruri that two has.
160
409000
4000
Toate fac parte din adevărul lui doi.
07:08
They all have two-nessdouă-ness in them.
161
413000
2000
Toate au doi-ul în ele.
07:10
And thereforeprin urmare, it's not a mattermaterie of opinionopinie.
162
415000
3000
De aceea nu este o chestiune de opinie.
07:13
What if, PlatoPlaton thought,
163
418000
2000
Ce ar fi, dacă Platon ar fi crezut
07:15
ethicsetica was like mathmatematica?
164
420000
2000
că etica este ca matematica?
07:17
What if there were a purepur formformă of justicejustiţie?
165
422000
3000
Ce ar fi dacă ar exista o formă pură de dreptate?
07:20
What if there are truthsadevăruri about justicejustiţie,
166
425000
2000
Ce ar fi dacă există adevăruri despre dreptate,
07:22
and you could just look around in this worldlume
167
427000
2000
şi puteţi arunca o privire acestei lumi
07:24
and see whichcare things participateda participat,
168
429000
2000
şi să vedeţi care lucruri au participat,
07:26
partookscocietate of that formformă of justicejustiţie?
169
431000
3000
au împărtăşit acea formă de dreptate?
07:29
Then you would know what was really just and what wasn'tnu a fost.
170
434000
3000
Atunci aţi şti ce era cu adevărat corect şi ce nu.
07:32
It wouldn'tnu ar fi be a mattermaterie
171
437000
2000
Nu ar fi doar o chestiune
07:34
of just opinionopinie or just appearancesaparitii.
172
439000
3000
de opinie sau imagine.
07:37
That's a stunninguluitor visionviziune.
173
442000
2000
Este o viziune uluitoare.
07:39
I mean, think about that. How grandmare. How ambitiousambiţioase.
174
444000
3000
Vrea să spun, gândiţi-vă la asta. Ce măreţ. Ce ambiţios.
07:42
That's as ambitiousambiţioase as we are.
175
447000
2000
Atât de ambiţioşi suntem.
07:44
He wants to solverezolva ethicsetica.
176
449000
2000
El vrea să rezolve probleme etice.
07:46
He wants objectiveobiectiv truthsadevăruri.
177
451000
2000
El vrea adevăruri obiective.
07:48
If you think that way,
178
453000
3000
Dacă gândiţi astfel,
07:51
you have a PlatonistPlatonician moralmorală frameworkcadru.
179
456000
3000
aveţi un cadru moral platonician.
07:54
If you don't think that way,
180
459000
2000
Dacă nu gândiţi astfel,
07:56
well, you have a lot of companycompanie in the historyistorie of WesternWestern philosophyfilozofie,
181
461000
2000
ei bine, aveţi mulţi colegi în istoria filosofiei occidentale,
07:58
because the tidyordonat ideaidee, you know, people criticizedcriticat it.
182
463000
3000
pentru că cea mai curată idee - ştiţi, este criticată de oameni.
08:01
AristotleAristotel, in particularspecial, he was not amusedamuzat.
183
466000
3000
Aristotel, mai ales, nu a fost amuzat.
08:04
He thought it was impracticalnepractic.
184
469000
3000
A considerat că nu este practică.
08:07
AristotleAristotel said, "We should seekcăuta only so much precisionprecizie in eachfiecare subjectsubiect
185
472000
4000
Aristotel a spus, "Ar trebui să căutăm numai atâta precizie în fiecare subiect
08:11
as that subjectsubiect allowspermite."
186
476000
2000
câtă acel subiect ne permite."
08:13
AristotleAristotel thought ethicsetica wasn'tnu a fost a lot like mathmatematica.
187
478000
3000
Aristotel credea că etica nu prea semăna cu matematica.
08:16
He thought ethicsetica was a mattermaterie of makingluare decisionsdeciziile in the here-and-nowaici şi acum
188
481000
3000
Credea că etica ţine de luarea deciziilor aici şi acum
08:19
usingutilizând our bestCel mai bun judgmenthotărâre
189
484000
2000
folosindu-ne de raţionamentul cel mai bun
08:21
to find the right pathcale.
190
486000
2000
pentru găsirea căii corecte.
08:23
If you think that, Plato'sLui Platon not your guy.
191
488000
2000
Dacă gândiţi aşa, Platon nu este omul vostru.
08:25
But don't give up.
192
490000
2000
Dar nu renunţaţi.
08:27
Maybe there's anothero alta way
193
492000
2000
Poate există o altă cale
08:29
that we can use numbersnumerele as the basisbază of our moralmorală frameworkcadru.
194
494000
3000
prin care putem folosi numerele ca bază a cadrului nostru moral.
08:33
How about this:
195
498000
2000
Ce ziceţi de asta:
08:35
What if in any situationsituatie you could just calculatecalculati,
196
500000
3000
Ce ar fi ca în orice situaţie să puteţi calcula,
08:38
look at the choicesalegeri,
197
503000
2000
analiza opţiunile,
08:40
measuremăsura out whichcare one'sunul e better and know what to do?
198
505000
3000
cântări care este cea mai bună şi să ştiţi ce să faceţi?
08:43
That soundsunet familiarfamiliar?
199
508000
2000
Vă sună cunoscut?
08:45
That's a utilitarianutilitare moralmorală frameworkcadru.
200
510000
3000
Este un cadru moral utilitarist.
08:48
JohnIoan StuartStuart MillMill was a great advocateavocat of this --
201
513000
2000
John Stuart Mill era un susţinător înfocat al acestuia -
08:50
nicefrumos guy besidesin afara de asta --
202
515000
2000
un tip de treabă de altfel -
08:52
and only been deadmort 200 yearsani.
203
517000
2000
şi mort de 200 de ani.
08:54
So basisbază of utilitarianismAdresa utilitarismului --
204
519000
2000
Deci bazele utilitarismului -
08:56
I'm sure you're familiarfamiliar at leastcel mai puţin.
205
521000
2000
sunt sigur că sunteţi cel puţin familiarizaţi.
08:58
The threeTrei people who votedau votat for MillMill before are familiarfamiliar with this.
206
523000
2000
Cele trei persoane care au votat cu Mill înainte să se familiarizeze cu acesta.
09:00
But here'saici e the way it workslucrări.
207
525000
2000
Dar iată cum funcţionează.
09:02
What if moralsmorala, what if what makesmărci something moralmorală
208
527000
3000
Ce ar fi dacă morala, ce ar fi dacă ceea ce face un lucru moral
09:05
is just a mattermaterie of if it maximizesMaximizează pleasureplăcere
209
530000
2000
este doar o chestiune de a-i maximiza plăcerea
09:07
and minimizesminimizeaza paindurere?
210
532000
2000
şi a minimiza durerea?
09:09
It does something intrinsicintrinsecă to the actact.
211
534000
3000
Face ceva intrinsec actului.
09:12
It's not like its relationrelaţia to some abstractabstract formformă.
212
537000
2000
Nu se aseamănă cu relaţia sa cu o formă abstractă.
09:14
It's just a mattermaterie of the consequencesconsecințe.
213
539000
2000
E o chestiune legată de consecinţe.
09:16
You just look at the consequencesconsecințe
214
541000
2000
Vă uitaţi la consecinţe
09:18
and see if, overallper total, it's for the good or for the worsemai rau.
215
543000
2000
şi vedeţi dacă, în mare, este înspre bine sau înspre rău.
09:20
That would be simplesimplu. Then we know what to do.
216
545000
2000
Asta ar fi simplu. Atunci ştim ce să facem.
09:22
Let's take an exampleexemplu.
217
547000
2000
Haideţi să luăm un exemplu.
09:24
SupposeSă presupunem că I go up
218
549000
2000
Să presupunem că mă trezesc
09:26
and I say, "I'm going to take your phonetelefon."
219
551000
2000
şi vă spun, "Vă voi lua telefonul."
09:28
Not just because it rangsunat earliermai devreme,
220
553000
2000
Nu doar pentru că a sunat mai devreme,
09:30
but I'm going to take it because I madefăcut a little calculationcalcul.
221
555000
3000
dar îl voi lua pentru că am calculat puţin.
09:33
I thought, that guy looksarată suspicioussuspicios.
222
558000
3000
Mi s-a părut că acel tip arată suspect.
09:36
And what if he's been sendingtrimitere little messagesmesaje to BinBin Laden'sÎncărcat pe hideoutascunzatoarea --
223
561000
3000
Şi dacă transmite mesaje scurte ascunzătorii lui Bin Laden -
09:39
or whoeveroricine tooka luat over after BinBin LadenÎncărcat --
224
564000
2000
sau celui care a preluat conducerea după Bin Laden -
09:41
and he's actuallyde fapt like a terroristteroriste, a sleeperloc de dormit cellcelulă.
225
566000
3000
şi este de fapt un fel de terorist, o celulă.
09:44
I'm going to find that out, and when I find that out,
226
569000
3000
Voi afla acel lucru, şi când îl voi afla,
09:47
I'm going to preventîmpiedica a hugeimens amountCantitate of damagedeteriora that he could causecauza.
227
572000
3000
voi preveni un număr mare de distrugeri pe care le-ar putea cauza.
09:50
That has a very highînalt utilityutilitate to preventîmpiedica that damagedeteriora.
228
575000
3000
Aceasta are o utilitate crescută în prevenirea distrugerilor.
09:53
And comparedcomparativ to the little paindurere that it's going to causecauza --
229
578000
2000
Şi în comparaţie cu puţina durere pe care o va cauza -
09:55
because it's going to be embarrassingjenant when I'm looking on his phonetelefon
230
580000
2000
pentru că va fi jenant când mă voi uita în telefonul lui
09:57
and seeingvedere that he has a FarmvilleFarmville problemproblemă and that wholeîntreg bitpic --
231
582000
3000
şi voi vedea că are o problemă legată de Farmville -
10:00
that's overwhelmedcopleşit
232
585000
3000
este copleşitor
10:03
by the valuevaloare of looking at the phonetelefon.
233
588000
2000
din perspectiva valorii de a te uita la un telefon.
10:05
If you feel that way,
234
590000
2000
Dacă asta simţiţi,
10:07
that's a utilitarianutilitare choicealegere.
235
592000
3000
aceasta este o alegere utilitaristă.
10:10
But maybe you don't feel that way eitherfie.
236
595000
3000
Dar poate că nu sunteţi de acord nici cu asta.
10:13
Maybe you think, it's his phonetelefon.
237
598000
2000
Poate vă gândiţi, este telefonul lui.
10:15
It's wronggresit to take his phonetelefon
238
600000
2000
E greşit să-i iau telefonul,
10:17
because he's a personpersoană
239
602000
2000
pentru că e o persoană
10:19
and he has rightsdrepturile and he has dignitydemnitate,
240
604000
2000
şi are drepturi şi demnitate,
10:21
and we can't just interfereinterfera with that.
241
606000
2000
şi nu putem să ne amestecăm în asta.
10:23
He has autonomyautonomie.
242
608000
2000
Are autonomie.
10:25
It doesn't mattermaterie what the calculationscalcule are.
243
610000
2000
Nu contează care sunt calculele.
10:27
There are things that are intrinsicallyintrinsec wronggresit --
244
612000
3000
Există lucruri care sunt intrinsec greşite -
10:30
like lyingminciună is wronggresit,
245
615000
2000
cum ar fi minciuna care este rea,
10:32
like torturingtorturarea innocentnevinovat childrencopii is wronggresit.
246
617000
3000
cum ar fi torturarea copiilor nevinovaţi, care este un lucru rău.
10:35
KantKant was very good on this pointpunct,
247
620000
3000
Kant era foarte bun în această privinţă,
10:38
and he said it a little better than I'll say it.
248
623000
2000
iar el a spus-o puţin mai bine decât o voi spune eu.
10:40
He said we should use our reasonmotiv
249
625000
2000
A spus că ar trebui să ne folosim raţiunea
10:42
to figurefigura out the rulesnorme by whichcare we should guideghid our conductconduita,
250
627000
3000
pentru a găsi regulile după care să ne ghidăm conduita.
10:45
and then it is our dutydatorie to followurma those rulesnorme.
251
630000
3000
Şi apoi este datoria noastră să respectăm acele reguli.
10:48
It's not a mattermaterie of calculationcalcul.
252
633000
3000
Nu este o chestiune de calcul.
10:51
So let's stop.
253
636000
2000
Deci, să ne oprim.
10:53
We're right in the thickgros of it, this philosophicalfilozofic thickettufis.
254
638000
3000
Avem dreptate în profunzime, această profunzime filosofică.
10:56
And this goesmerge on for thousandsmii of yearsani,
255
641000
3000
Şi acest lucru se repetă de o mie de ani,
10:59
because these are hardgreu questionsîntrebări,
256
644000
2000
pentru că acestea sunt întrebări dificile,
11:01
and I've only got 15 minutesminute.
257
646000
2000
şi eu am la dispoziţie doar 15 minute.
11:03
So let's cuta taia to the chaseChase.
258
648000
2000
Deci să trecem la subiect.
11:05
How should we be makingluare our decisionsdeciziile?
259
650000
4000
Cum ar trebui să luăm deciziile?
11:09
Is it PlatoPlaton, is it AristotleAristotel, is it KantKant, is it MillMill?
260
654000
3000
Ca Platon, Aristotel, Kant sau Mill?
11:12
What should we be doing? What's the answerRăspuns?
261
657000
2000
Ce ar trebui să facem? Care este răspunsul?
11:14
What's the formulaformulă that we can use in any situationsituatie
262
659000
3000
Care este formula pe care o putem folosi în orice situaţie
11:17
to determinea determina what we should do,
263
662000
2000
pentru a determina ceea ce trebuie să facem,
11:19
whetherdacă we should use that guy'sbaieti datadate or not?
264
664000
2000
ar trebui să folosim informaţiile acelui tip sau nu?
11:21
What's the formulaformulă?
265
666000
3000
Care este formula?
11:25
There's not a formulaformulă.
266
670000
2000
Nu există formulă.
11:29
There's not a simplesimplu answerRăspuns.
267
674000
2000
Nu există un răspuns simplu.
11:31
EthicsEtica is hardgreu.
268
676000
3000
Etica este grea.
11:34
EthicsEtica requiresnecesită thinkinggândire.
269
679000
3000
Etica presupune gândire.
11:38
And that's uncomfortableincomod.
270
683000
2000
Şi acesta nu este un lucru confortabil.
11:40
I know; I spenta petrecut a lot of my careerCarieră
271
685000
2000
Ştiu, mi-am petrecut mult timp din carieră
11:42
in artificialartificial intelligenceinteligență,
272
687000
2000
în inteligenţa artificială,
11:44
tryingîncercat to buildconstrui machinesmaşini that could do some of this thinkinggândire for us,
273
689000
3000
încercând să construiesc maşini care ar putea să gândească pentru noi,
11:47
that could give us answersrăspunsuri.
274
692000
2000
care ar putea să ne ofere răspunsuri.
11:49
But they can't.
275
694000
2000
Dar nu pot.
11:51
You can't just take humanuman thinkinggândire
276
696000
2000
Nu puteţi doar să luați gândirea umană
11:53
and put it into a machinemaşină.
277
698000
2000
şi să o puneți într-o maşină.
11:55
We're the onescele who have to do it.
278
700000
3000
Noi suntem cei care trebuie s-o facem.
11:58
HappilyFericit, we're not machinesmaşini, and we can do it.
279
703000
3000
Din fericire, nu suntem maşini, şi putem s-o facem.
12:01
Not only can we think,
280
706000
2000
Nu numai că putem raționa,
12:03
we musttrebuie sa.
281
708000
2000
dar trebuie să raționăm.
12:05
HannahHannah ArendtArendt said,
282
710000
2000
Hannah Arendt a spus,
12:07
"The sadtrist truthadevăr
283
712000
2000
"Tristul adevăr
12:09
is that mostcel mai evilrău doneTerminat in this worldlume
284
714000
2000
este că cea mai mare parte a răului făcut în această lume
12:11
is not doneTerminat by people
285
716000
2000
nu este făcut de oameni
12:13
who choosealege to be evilrău.
286
718000
2000
care aleg să fie răi.
12:15
It arisesapare from not thinkinggândire."
287
720000
3000
Provine din faptul că nu gândim."
12:18
That's what she calleddenumit the "banalitybanalitatea of evilrău."
288
723000
4000
Asta numeşte ea "banalitatea răului."
12:22
And the responseraspuns to that
289
727000
2000
Şi răspunsul la asta
12:24
is that we demandcerere the exerciseexercițiu of thinkinggândire
290
729000
2000
este că cerem exercițiul gândirii
12:26
from everyfiecare sanenormal personpersoană.
291
731000
3000
fiecărei persoane normale.
12:29
So let's do that. Let's think.
292
734000
2000
Deci, haideți să facem asta. Haideți să gândim.
12:31
In factfapt, let's startstart right now.
293
736000
3000
De fapt, haideți să începem chiar acum.
12:34
EveryFiecare personpersoană in this roomcameră do this:
294
739000
3000
Fiecare persoană din această încăpere să facă asta:
12:37
think of the last time you had a decisiondecizie to make
295
742000
3000
gândiți-vă la ultima dată când a trebuit să luați o decizie
12:40
where you were worriedîngrijorat to do the right thing,
296
745000
2000
când a face lucru corect vă îngrijora,
12:42
where you wonderedse întreba, "What should I be doing?"
297
747000
2000
când v-ați întrebat, "Ce ar trebui să fac?"
12:44
BringAduce that to mindminte,
298
749000
2000
Aduceți-vă aminte.
12:46
and now reflectReflectați on that
299
751000
2000
Şi acum reflectați la acel lucru
12:48
and say, "How did I come up that decisiondecizie?
300
753000
3000
şi spuneți, "Cum am ajuns la această decizie?
12:51
What did I do? Did I followurma my gutintestin?
301
756000
3000
Ce am făcut? Mi-am urmat instinctul?
12:54
Did I have somebodycineva votevot on it? Or did I puntpunt to legallegal?"
302
759000
2000
Am pus pe cineva să voteze decizia? Sau am mizat pe drept?"
12:56
Or now we have a fewpuțini more choicesalegeri.
303
761000
3000
Acum avem puțin mai multe alegeri.
12:59
"Did I evaluatea evalua what would be the highestcel mai inalt pleasureplăcere
304
764000
2000
"Am evaluat care ar fi cea mai mare plăcere
13:01
like MillMill would?
305
766000
2000
cum ar fi făcut Mill?
13:03
Or like KantKant, did I use reasonmotiv to figurefigura out what was intrinsicallyintrinsec right?"
306
768000
3000
Sau asemenea lui Kant, am folosit rațiunea pentru a afla ceea ce intrinsec este bine?
13:06
Think about it. Really bringaduce it to mindminte. This is importantimportant.
307
771000
3000
Gândiți-vă. Chiar amintiți-vă. Este important.
13:09
It is so importantimportant
308
774000
2000
Este atât de important
13:11
we are going to spendpetrece 30 secondssecunde of valuablevaloros TEDTalkTEDTalk time
309
776000
2000
încât vom folosi 30 de secunde prețioase din timpul TEDTalks
13:13
doing nothing but thinkinggândire about this.
310
778000
2000
nefăcând altceva decât gândindu-ne la asta.
13:15
Are you readygata? Go.
311
780000
2000
Sunteți pregătiți? Începeți.
13:33
Stop. Good work.
312
798000
3000
Opriți-vă. Foarte bine.
13:36
What you just did,
313
801000
2000
Ceea ce tocmai ați făcut
13:38
that's the first stepEtapa towardscătre takingluare responsibilityresponsabilitate
314
803000
2000
este primul pas în asumarea responsabilității
13:40
for what we should do with all of our powerputere.
315
805000
3000
pentru ceea ce ar trebui să facem cu toată puterea noastră.
13:45
Now the nextUrmător → stepEtapa -- try this.
316
810000
3000
Acum următorul pas - încercați asta.
13:49
Go find a friendprieten and explainexplica to them
317
814000
2000
Găsiți-vă un prieten şi explicați-i
13:51
how you madefăcut that decisiondecizie.
318
816000
2000
cum ați luat decizia.
13:53
Not right now. Wait tillpână I finishfinalizarea talkingvorbind.
319
818000
2000
Nu chiar acum. Aşteptați până termin conferința.
13:55
Do it over lunchmasa de pranz.
320
820000
2000
Faceți-o la prânz.
13:57
And don't just find anothero alta technologisttehnolog friendprieten;
321
822000
3000
Şi nu vă găsiți un alt prieten tehnolog;
14:00
find somebodycineva differentdiferit than you.
322
825000
2000
găsiți pe cineva diferit de voi.
14:02
Find an artistartist or a writerscriitor --
323
827000
2000
Găsiți-vă un artist sau un scriitor -
14:04
or, heavencer forbidinterzis, find a philosopherfilozof and talk to them.
324
829000
3000
sau, pentru Dumnezeu, găsiți-vă un filosof şi vorbiți cu el.
14:07
In factfapt, find somebodycineva from the humanitiesumanistică.
325
832000
2000
De fapt, găsiți pe cineva din ştiințele umane.
14:09
Why? Because they think about problemsProbleme
326
834000
2000
De ce? Pentru că ei se gândesc la probleme
14:11
differentlydiferit than we do as technologiststehnologi.
327
836000
2000
diferit de noi tehnologii.
14:13
Just a fewpuțini dayszi agoîn urmă, right acrosspeste the streetstradă from here,
328
838000
3000
Acum câteva zile, peste drum de noi,
14:16
there was hundredssute of people gathereds-au adunat togetherîmpreună.
329
841000
2000
erau sute de oameni adunați.
14:18
It was technologiststehnologi and humanistsumanisti
330
843000
2000
Erau tehnologi şi umanişti
14:20
at that bigmare BiblioTechBiblioTech ConferenceConferinta.
331
845000
2000
la acea mare Conferință BiblioTech.
14:22
And they gathereds-au adunat togetherîmpreună
332
847000
2000
Şi s-au reunit
14:24
because the technologiststehnologi wanted to learnînvăța
333
849000
2000
pentru că tehnologii doreau să afle
14:26
what it would be like to think from a humanitiesumanistică perspectiveperspectivă.
334
851000
3000
cum ar fi să gândeşti din perspectiva ştiințelor umaniste.
14:29
You have someonecineva from GoogleGoogle
335
854000
2000
Aveți pe cineva de pe Google
14:31
talkingvorbind to someonecineva who does comparativecomparativă literatureliteratură.
336
856000
2000
care vorbeşte cu cineva care se ocupă cu literatura comparată.
14:33
You're thinkinggândire about the relevancerelevanţă of 17thlea centurysecol FrenchFranceză theaterteatru --
337
858000
3000
Vă gândiți la relevanța teatrului francez din secolul al-XVII-lea -
14:36
how does that bearurs uponpe ventureaventura capitalcapital?
338
861000
2000
cum afectează asta capitalul de risc?
14:38
Well that's interestinginteresant. That's a differentdiferit way of thinkinggândire.
339
863000
3000
Ei bine, e interesant. E o altfel de gândire.
14:41
And when you think in that way,
340
866000
2000
Şi când gândeşti în acest fel
14:43
you becomedeveni more sensitivesensibil to the humanuman considerationsConsideraţii,
341
868000
3000
devii mai sensibil la părerile oamenilor,
14:46
whichcare are crucialcrucial to makingluare ethicaletic decisionsdeciziile.
342
871000
3000
care sunt cruciale în luarea deciziilor etice.
14:49
So imagineimagina that right now
343
874000
2000
Deci, imaginaţi-vă că în acest moment
14:51
you wenta mers and you foundgăsite your musicianmuzician friendprieten.
344
876000
2000
aţi plecat şi v-aţi găsit prietenul muzician.
14:53
And you're tellingspune him what we're talkingvorbind about,
345
878000
3000
Şi îi povestiţi discuţia noastră
14:56
about our wholeîntreg datadate revolutionrevoluţie and all this --
346
881000
2000
despre întreaga revoluţie a informaţiilor şi toate acestea -
14:58
maybe even humHum a fewpuțini barsbaruri of our themetemă musicmuzică.
347
883000
2000
poate chiar îi fredonaţi câteva note ale temei noastre muzicale.
15:00
DumDum tateodorescu dada dada dumDum dumDum tateodorescu dada dada dumDum
348
885000
3000
♫ Dum ta da da dum dum ta da da dum♫
15:03
Well, your musicianmuzician friendprieten will stop you and say,
349
888000
2000
Ei bine, prietenul vostru muzician o să vă oprească şi va spune,
15:05
"You know, the themetemă musicmuzică
350
890000
2000
"Ştii, tema muzicală
15:07
for your datadate revolutionrevoluţie,
351
892000
2000
pentru revoluţia informaţiilor,
15:09
that's an operaoperă, that's WagnerWagner.
352
894000
2000
e o operă, e Wagner.
15:11
It's basedbazat on NorseNordicii legendlegendă.
353
896000
2000
E bazată pe legenda lui Norse.
15:13
It's GodsZeii and mythicalmitică creaturescreaturi
354
898000
2000
E vorba de zei şi creaturi mitice
15:15
fightingluptă over magicalmagic jewelryBijuterii."
355
900000
3000
care se luptă pentru bijuterii magice.
15:19
That's interestinginteresant.
356
904000
3000
Interesant.
15:22
Now it's alsode asemenea a beautifulfrumoasa operaoperă,
357
907000
3000
Este şi o operă frumoasă.
15:25
and we're movedmutat by that operaoperă.
358
910000
3000
Suntem mişcaţi de acea operă.
15:28
We're movedmutat because it's about the battleluptă
359
913000
2000
Suntem mişcaţi pentru că are ca subiect lupta
15:30
betweenîntre good and evilrău,
360
915000
2000
dintre bine şi rău,
15:32
about right and wronggresit.
361
917000
2000
dreptatea şi nedreptatea.
15:34
And we careîngrijire about right and wronggresit.
362
919000
2000
Şi suntem preocupaţi de dreptate şi nedreptate.
15:36
We careîngrijire what happensse întâmplă in that operaoperă.
363
921000
3000
Ne pasă de ceea ce se petrece în această operă.
15:39
We careîngrijire what happensse întâmplă in "ApocalypseApocalipsa Now."
364
924000
3000
Ne pasă de ce se petrece în "Apocalipsa prezentului."
15:42
And we certainlycu siguranță careîngrijire
365
927000
2000
Şi, cu siguranţă, ne pasă
15:44
what happensse întâmplă with our technologiestehnologii.
366
929000
2000
de ceea ce se întâmplă cu tehnologia noastră.
15:46
We have so much powerputere todayastăzi,
367
931000
2000
Avem atât de multă putere astăzi,
15:48
it is up to us to figurefigura out what to do,
368
933000
3000
depinde de noi să descoperim ce să facem.
15:51
and that's the good newsștiri.
369
936000
2000
Şi aceasta este vestea bună.
15:53
We're the onescele writingscris this operaoperă.
370
938000
3000
Noi suntem cei care scriu această operă.
15:56
This is our moviefilm.
371
941000
2000
Acesta este filmul nostru.
15:58
We figurefigura out what will happenîntâmpla with this technologytehnologie.
372
943000
3000
Noi descoperim ce se va întâmpla cu această tehnologie.
16:01
We determinea determina how this will all endSfârşit.
373
946000
3000
Noi determinăm cum se vor termina toate acestea.
16:04
Thank you.
374
949000
2000
Mulţumesc.
16:06
(ApplauseAplauze)
375
951000
5000
(Aplauze)
Translated by preda silvana
Reviewed by Maria Tancu

▲Back to top

ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com