ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com
TEDxSiliconValley

Damon Horowitz: We need a "moral operating system"

Damon Horowitz bën thirrje për një "sistem operativ për moralin"

Filmed:
795,617 views

Gjatë TEDxSiliconValley, Damon Horowitz merr në shqyrtim fuqinë e pamatë që na japin teknologjitë: të dimë më tepër -- dhe më tepër rreth secilit -- se kurrë më parë. Duke e tërhequr sallën në një diskutim filozofik, Horowitz na fton të bëjmë nga e para kujdes për filozofinë bazë -- parimet etike -- pas tymnajës së shpikjes së re të rikrijimit të botës tonë. Ku gjendet sistemi operativ për moralin që do të na lejonte t'i jepnim kuptim kësaj?
- Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities. Full bio

Double-click the English transcript below to play the video.

00:15
Power.
0
0
2000
Fuqia.
00:17
That is the word that comes to mind.
1
2000
2000
Kjo është fjala që të vjen në mendje.
00:19
We're the new technologists.
2
4000
2000
Jemi mjeshtrit e rinj të teknologjisë.
00:21
We have a lot of data, so we have a lot of power.
3
6000
3000
Kemi të dhëna plot, ndaj kemi plot fuqi.
00:24
How much power do we have?
4
9000
2000
Sa fuqi kemi?
00:26
Scene from a movie: "Apocalypse Now" -- great movie.
5
11000
3000
Skenë nga një film: "Apokalips Tani" -- film i madh.
00:29
We've got to get our hero, Captain Willard, to the mouth of the Nung River
6
14000
3000
Kemi heroin e filmit, kapitenin Willard, në deltën e lumit Nung
00:32
so he can go pursue Colonel Kurtz.
7
17000
2000
që të mundet të ndjekë kolonelin Kurtz.
00:34
The way we're going to do this is fly him in and drop him off.
8
19000
2000
Mënyra që do të përdorim është ta çojmë atje në rrugë ajrore.
00:36
So the scene:
9
21000
2000
Pra skena është kjo:
00:38
the sky is filled with this fleet of helicopters carrying him in.
10
23000
3000
qielli nxin nga helikopterët që po e transportojnë për atje.
00:41
And there's this loud, thrilling music in the background,
11
26000
2000
Dhe në sfond gjëmon muzika ngjethëse,
00:43
this wild music.
12
28000
2000
kjo muzikë e marrë.
00:45
♫ Dum da ta da dum ♫
13
30000
2000
♫ Bum pa pa pa bum ♫
00:47
♫ Dum da ta da dum ♫
14
32000
2000
♫ Bum pa pa pa bum ♫
00:49
♫ Da ta da da ♫
15
34000
3000
♫ Ta ta ta ta ♫
00:52
That's a lot of power.
16
37000
2000
Bëhet fjalë për goxha fuqi.
00:54
That's the kind of power I feel in this room.
17
39000
2000
Nga ajo lloj fuqie që ndjen në këtë sallë.
00:56
That's the kind of power we have
18
41000
2000
Ky është lloji i pushtetit që kemi
00:58
because of all of the data that we have.
19
43000
2000
falë krejt të dhënave që zotërojmë.
01:00
Let's take an example.
20
45000
2000
Le të marrim një shembull.
01:02
What can we do
21
47000
2000
Ç'mund të bëjmë
01:04
with just one person's data?
22
49000
3000
me të dhënat e një personi të vetëm?
01:07
What can we do
23
52000
2000
Çfarë mund të bëj
01:09
with that guy's data?
24
54000
2000
me të dhënat e atij tipit?
01:11
I can look at your financial records.
25
56000
2000
Mund të shoh të dhënat tuaja financiare.
01:13
I can tell if you pay your bills on time.
26
58000
2000
Mund të shoh nëse i paguani llogaritë në afat.
01:15
I know if you're good to give a loan to.
27
60000
2000
Di nëse ia vleni t'ju jepet një hua a jo.
01:17
I can look at your medical records; I can see if your pump is still pumping --
28
62000
3000
Mund t'ju rrëmoj kartelën mjekësore, mund të shoh nëse valvula juaj punon ende --
01:20
see if you're good to offer insurance to.
29
65000
3000
të shoh nëse ia vleni t'ju ofrohen sigurime.
01:23
I can look at your clicking patterns.
30
68000
2000
Mund të shoh rregullsitë tuaja në klikime.
01:25
When you come to my website, I actually know what you're going to do already
31
70000
3000
Kur vini te site-i im web, e di tashmë se çfarë do të bëni,
01:28
because I've seen you visit millions of websites before.
32
73000
2000
ngaqë kam parë vizitat tuaja të mëparshme në miliona site-e web.
01:30
And I'm sorry to tell you,
33
75000
2000
Dhe më vjen keq që duhet t'jua them,
01:32
you're like a poker player, you have a tell.
34
77000
2000
por jeni si lojtar pokeri, secili me shenjat e veta.
01:34
I can tell with data analysis what you're going to do
35
79000
2000
Me ndihmën e analizës së të dhënave mund të tregoj
01:36
before you even do it.
36
81000
2000
se çfarë do të bëni, përpara se ta bënit.
01:38
I know what you like. I know who you are,
37
83000
3000
E di se çfarë ju pëlqen. Di se kush jeni.
01:41
and that's even before I look at your mail
38
86000
2000
Dhe kjo ende pa rrëmuar postën tuaj
01:43
or your phone.
39
88000
2000
apo telefonin tuaj.
01:45
Those are the kinds of things we can do
40
90000
2000
Këto janë gjërat që mund të bëjmë
01:47
with the data that we have.
41
92000
3000
me të dhënat që zotërojmë.
01:50
But I'm not actually here to talk about what we can do.
42
95000
3000
Por nuk jam këtu për të folur rreth asaj që mund të bëjmë.
01:56
I'm here to talk about what we should do.
43
101000
3000
Jam këtu për të folur rreth asaj që do të duhej të bënim.
02:00
What's the right thing to do?
44
105000
3000
Cila është gjëja e drejtë që duhet bërë?
02:04
Now I see some puzzled looks
45
109000
2000
Po shoh disa fytyra të habitura,
02:06
like, "Why are you asking us what's the right thing to do?
46
111000
3000
të llojit "Pse po na pyet se cila është gjëja e drejtë që duhet bërë?
02:09
We're just building this stuff. Somebody else is using it."
47
114000
3000
Ne thjesht krijojmë diçka. Dikush tjetër e përdor."
02:12
Fair enough.
48
117000
3000
E drejtë.
02:15
But it brings me back.
49
120000
2000
Por kjo më shpie në të kaluarën.
02:17
I think about World War II --
50
122000
2000
Më vjen në mendje Lufta e Dytë Botërore --
02:19
some of our great technologists then,
51
124000
2000
disa nga më të njohurit e teknologjisë atëherë,
02:21
some of our great physicists,
52
126000
2000
disa nga fizikanët tanë më të mëdhenj,
02:23
studying nuclear fission and fusion --
53
128000
2000
që merreshin me zbërthimin dhe fuzionin bërthamor --
02:25
just nuclear stuff.
54
130000
2000
muhabet punësh bërthamore.
02:27
We gather together these physicists in Los Alamos
55
132000
3000
Këta fizikanë i bëmë tok në Los Alamos
02:30
to see what they'll build.
56
135000
3000
për të parë se ç'do të pillnin.
02:33
We want the people building the technology
57
138000
3000
Duam që njerëzit që krijojnë teknologjinë
02:36
thinking about what we should be doing with the technology.
58
141000
3000
të mendohen edhe se ç'të bëjmë ne me teknologjinë.
02:41
So what should we be doing with that guy's data?
59
146000
3000
Pra, ç'duhet të bëjmë me të dhënat e atij tipit?
02:44
Should we be collecting it, gathering it,
60
149000
3000
Mos do të duhej t'i grumbullonim, mblidhnim,
02:47
so we can make his online experience better?
61
152000
2000
që t'ia bëjmë më të mirë punimin online?
02:49
So we can make money?
62
154000
2000
Mos duhet të bëjmë para prej tyre?
02:51
So we can protect ourselves
63
156000
2000
Mos duhet të mbrojmë veten
02:53
if he was up to no good?
64
158000
2000
nëse ai ka mendje të keqe?
02:55
Or should we respect his privacy,
65
160000
3000
Apo do të duhej të respektonim privatësinë e tij,
02:58
protect his dignity and leave him alone?
66
163000
3000
të mbrojmë dinjitetin e tij dhe ta lëmë të qetë?
03:02
Which one is it?
67
167000
3000
Pra cilën?
03:05
How should we figure it out?
68
170000
2000
Si ta gjejmë?
03:07
I know: crowdsource. Let's crowdsource this.
69
172000
3000
E di se qysh: t'ia lemë publikut të vendosë.
03:11
So to get people warmed up,
70
176000
3000
Atëherë, sa për nxehje,
03:14
let's start with an easy question --
71
179000
2000
le t'ia fillojmë me një pyetje të lehtë --
03:16
something I'm sure everybody here has an opinion about:
72
181000
3000
diçka për të cilën jam i sigurt që gjithkush këtu ka një mendim:
03:19
iPhone versus Android.
73
184000
2000
iPhone apo Android?
03:21
Let's do a show of hands -- iPhone.
74
186000
3000
Ngrini duart sipas zgjedhjes -- iPhone.
03:24
Uh huh.
75
189000
2000
Aahaaaa.
03:26
Android.
76
191000
3000
Android.
03:29
You'd think with a bunch of smart people
77
194000
2000
Ndoshta mendoni se me një dorë të mençurish
03:31
we wouldn't be such suckers just for the pretty phones.
78
196000
2000
nuk do të gënjeheshim thjesht me celularë të hijshëm.
03:33
(Laughter)
79
198000
2000
(Të qeshura)
03:35
Next question,
80
200000
2000
Pyetja vijuese,
03:37
a little bit harder.
81
202000
2000
pak më e vështirë.
03:39
Should we be collecting all of that guy's data
82
204000
2000
Mos do të duhej që të mbledhim krejt të dhënat e atij tipit
03:41
to make his experiences better
83
206000
2000
që t'ia bëjmë punimin më të mirë
03:43
and to protect ourselves in case he's up to no good?
84
208000
3000
dhe që të mbrojmë veten nëse ai ka mendje të keqe?
03:46
Or should we leave him alone?
85
211000
2000
Apo do të duhej ta linim të qetë?
03:48
Collect his data.
86
213000
3000
Të mblidhen të dhënat e tij.
03:53
Leave him alone.
87
218000
3000
Të lihet i qetë.
03:56
You're safe. It's fine.
88
221000
2000
Pa zarar. Gjithçka në rregull.
03:58
(Laughter)
89
223000
2000
(Të qeshura)
04:00
Okay, last question --
90
225000
2000
Bukur, pyetja e fundit --
04:02
harder question --
91
227000
2000
pyetje më e vështirë --
04:04
when trying to evaluate
92
229000
3000
kur përpiqemi të vlerësojmë
04:07
what we should do in this case,
93
232000
3000
se ç'duhet bërë në këtë rast,
04:10
should we use a Kantian deontological moral framework,
94
235000
4000
do të duhej të përdornim një kuadër deontologjik morali kantian,
04:14
or should we use a Millian consequentialist one?
95
239000
3000
apo duhet të përdorim një konsenkuencialist, të tipit Mill?
04:19
Kant.
96
244000
3000
Kant.
04:22
Mill.
97
247000
3000
Mill.
04:25
Not as many votes.
98
250000
2000
Jo dhe aq shumë vota.
04:27
(Laughter)
99
252000
3000
(Të qeshura)
04:30
Yeah, that's a terrifying result.
100
255000
3000
Po, përfundim i frikshëm.
04:34
Terrifying, because we have stronger opinions
101
259000
4000
I frikshëm, ngaqë më të rrënjosura kemi opinionet
04:38
about our hand-held devices
102
263000
2000
rreth pajisjeve tona celulare
04:40
than about the moral framework
103
265000
2000
se sa rreth kuadrit moral
04:42
we should use to guide our decisions.
104
267000
2000
që do të duhej përdorur si udhërrëfyes për vendimet tona.
04:44
How do we know what to do with all the power we have
105
269000
3000
Nga ta dimë se ç'duhet bërë me gjithë atë fuqi që zotërojmë
04:47
if we don't have a moral framework?
106
272000
3000
po qe se nuk kemi një kuadër moral?
04:50
We know more about mobile operating systems,
107
275000
3000
Më shumë njohim sistemet operativë për celularë,
04:53
but what we really need is a moral operating system.
108
278000
3000
por ajo që na duhet është një sistem operativ për moralin.
04:58
What's a moral operating system?
109
283000
2000
Çfarë është një sistem operativ për moralin?
05:00
We all know right and wrong, right?
110
285000
2000
Të gjithë dallojmë të drejtën nga e gabuara, apo jo?.
05:02
You feel good when you do something right,
111
287000
2000
Ndiheni mirë kur bëni diçka të drejtë,
05:04
you feel bad when you do something wrong.
112
289000
2000
ndiheni keq kur bëni diçka të gabuar.
05:06
Our parents teach us that: praise with the good, scold with the bad.
113
291000
3000
Këtë na mësojnë prindërit: lëvdoni të mirën, dënoni të keqen.
05:09
But how do we figure out what's right and wrong?
114
294000
3000
Por nga ta dimë se ç'është e mirë dhe e keqe?
05:12
And from day to day, we have the techniques that we use.
115
297000
3000
Ditë pas dite, kemi teknika që i vëmë në punë.
05:15
Maybe we just follow our gut.
116
300000
3000
Ndoshta ndjekim intuitën.
05:18
Maybe we take a vote -- we crowdsource.
117
303000
3000
Ndoshta e hedhim në votë -- pyesim publikun.
05:21
Or maybe we punt --
118
306000
2000
Ose ndoshta luajmë kumar --
05:23
ask the legal department, see what they say.
119
308000
3000
pyesni zyrën ligjore, shihni se ç'mendim kanë ata.
05:26
In other words, it's kind of random,
120
311000
2000
Me fjalë të tjera, në dorë të rastësisë,
05:28
kind of ad hoc,
121
313000
2000
diçka ad hoc,
05:30
how we figure out what we should do.
122
315000
3000
mënyra se si vendosim se çfarë duhet bërë.
05:33
And maybe, if we want to be on surer footing,
123
318000
3000
Ndoshta, nëse kërkojmë ca më tepër siguri,
05:36
what we really want is a moral framework that will help guide us there,
124
321000
3000
ajo çka na duhet vërtet është një kuadër moral që të na udhëheqë,
05:39
that will tell us what kinds of things are right and wrong in the first place,
125
324000
3000
që të na tregojë së pari cilat gjëra janë të drejta e cilat jo,
05:42
and how would we know in a given situation what to do.
126
327000
4000
dhe se nga ta dimë, në një situatë të caktuar, se ç'duhet bërë.
05:46
So let's get a moral framework.
127
331000
2000
Le të marrim atëherë një kuadër moral.
05:48
We're numbers people, living by numbers.
128
333000
3000
Ne jemi njerëz numrash, rrojmë me numrat.
05:51
How can we use numbers
129
336000
2000
Si mund t'i përdorim numrat
05:53
as the basis for a moral framework?
130
338000
3000
si bazë të kuadrit moral?
05:56
I know a guy who did exactly that.
131
341000
3000
Njoh një tip që bëri pikërisht këtë,
05:59
A brilliant guy --
132
344000
3000
Një tip i shkëlqyer --
06:02
he's been dead 2,500 years.
133
347000
3000
që ka 2500 vjetë që ka vdekur.
06:05
Plato, that's right.
134
350000
2000
Platoni, e saktë.
06:07
Remember him -- old philosopher?
135
352000
2000
Ju kujtohet filozofi plak?
06:09
You were sleeping during that class.
136
354000
3000
Apo po flinit gjumë gjatë orës për të?
06:12
And Plato, he had a lot of the same concerns that we did.
137
357000
2000
Platoni shqetësohej për shumë nga gjërat që na shqetësojnë dhe ne.
06:14
He was worried about right and wrong.
138
359000
2000
Shqetësohej për të drejtën dhe të gabuarën.
06:16
He wanted to know what is just.
139
361000
2000
Donte të dinte se çfarë është e drejtë.
06:18
But he was worried that all we seem to be doing
140
363000
2000
E shqetësonte fakti që ajo që duket se bëjmë
06:20
is trading opinions about this.
141
365000
2000
është shkëmbimi i opinioneve rreth diçkaje.
06:22
He says something's just. She says something else is just.
142
367000
3000
Ky thotë që diçka është e drejtë. Ajo thotë që diçka tjetër është e drejtë.
06:25
It's kind of convincing when he talks and when she talks too.
143
370000
2000
Deri diku bindesh kur flet ai, dhe kur flet ajo.
06:27
I'm just going back and forth; I'm not getting anywhere.
144
372000
2000
Thjesht po lëkundem; nuk po shkoj gjëkundi.
06:29
I don't want opinions; I want knowledge.
145
374000
3000
Nuk dua opinione, dua dije.
06:32
I want to know the truth about justice --
146
377000
3000
Dua të di të vërtetën rreth drejtësisë --
06:35
like we have truths in math.
147
380000
3000
si të vërtetat që kemi në matematikë.
06:38
In math, we know the objective facts.
148
383000
3000
Në matematikë njohim faktet objektive.
06:41
Take a number, any number -- two.
149
386000
2000
Merrni një numër, çfarëdo numri -- dyshin.
06:43
Favorite number. I love that number.
150
388000
2000
Numri i parapëlqyer. Vdes për këtë numër.
06:45
There are truths about two.
151
390000
2000
Ka të vërteta lidhur me dyshin.
06:47
If you've got two of something,
152
392000
2000
Nëse keni dy nga diçka,
06:49
you add two more, you get four.
153
394000
2000
dhe shtoni edhe dy, ju dalin katër.
06:51
That's true no matter what thing you're talking about.
154
396000
2000
Kjo është e vërtetë, pavarësisht diçkasë.
06:53
It's an objective truth about the form of two,
155
398000
2000
Është një e vërtetë objektive në formën e dyshit,
06:55
the abstract form.
156
400000
2000
forma abstrakte.
06:57
When you have two of anything -- two eyes, two ears, two noses,
157
402000
2000
Kur keni dy nga diçka -- dy sy, dy veshë, dy hundë,
06:59
just two protrusions --
158
404000
2000
thjesht dy zgjatime --
07:01
those all partake of the form of two.
159
406000
3000
këto kanë të përbashkët qenien në çift.
07:04
They all participate in the truths that two has.
160
409000
4000
Janë shprehje të vërtetash që lidhen me dyshin.
07:08
They all have two-ness in them.
161
413000
2000
Të tëra kanë brenda dyshësinë.
07:10
And therefore, it's not a matter of opinion.
162
415000
3000
Prandaj nuk bëjmë fjalë për opinion.
07:13
What if, Plato thought,
163
418000
2000
Po sikur, mendoi Platoni,
07:15
ethics was like math?
164
420000
2000
etika të jetë si matematika?
07:17
What if there were a pure form of justice?
165
422000
3000
Po sikur të kish forma të kulluara të drejtësisë?
07:20
What if there are truths about justice,
166
425000
2000
Po sikur të kish të vërteta mbi drejtësinë,
07:22
and you could just look around in this world
167
427000
2000
dhe ju të hidhnit vështrimin mbi këtë botë
07:24
and see which things participated,
168
429000
2000
dhe të shihnit sende që i binden,
07:26
partook of that form of justice?
169
431000
3000
që kanë të përbashkët këtë formë të drejtësisë?
07:29
Then you would know what was really just and what wasn't.
170
434000
3000
Kështu do të dinit se ç'është apo ç'nuk është vërtet e drejtë.
07:32
It wouldn't be a matter
171
437000
2000
Nuk do të qe thjesht punë
07:34
of just opinion or just appearances.
172
439000
3000
opinionesh, ose thjesht dukjesh.
07:37
That's a stunning vision.
173
442000
2000
Ky është një përfytyrim mbresëlënës.
07:39
I mean, think about that. How grand. How ambitious.
174
444000
3000
E kam fjalën, pa mendojeni. Sa madhështor. Sa ambicioz.
07:42
That's as ambitious as we are.
175
447000
2000
Aq ambicioz sa jemi edhe ne.
07:44
He wants to solve ethics.
176
449000
2000
Ai don të zgjidhë problemin e etikës.
07:46
He wants objective truths.
177
451000
2000
Don të vërteta objektive.
07:48
If you think that way,
178
453000
3000
Nëse e mendoni në këtë mënyrë,
07:51
you have a Platonist moral framework.
179
456000
3000
keni një kuadër moral platonist.
07:54
If you don't think that way,
180
459000
2000
Nëse nuk mendoni kështu,
07:56
well, you have a lot of company in the history of Western philosophy,
181
461000
2000
keni plot shokë në historinë e filozofisë perëndimore,
07:58
because the tidy idea, you know, people criticized it.
182
463000
3000
ngaqë, dihet, njerëzit i kritikojnë idetë e qëruara.
08:01
Aristotle, in particular, he was not amused.
183
466000
3000
Aristoteli, në veçanti, nuk e pati për zemër.
08:04
He thought it was impractical.
184
469000
3000
Mendonte që nuk qe praktike.
08:07
Aristotle said, "We should seek only so much precision in each subject
185
472000
4000
Aristoteli shprehej, "Në çdo subjekt, duhet të kërkojmë aq saktësi
08:11
as that subject allows."
186
476000
2000
sa na lejon vetë subjekti."
08:13
Aristotle thought ethics wasn't a lot like math.
187
478000
3000
Aristoteli mendonte që etika nuk qe dhe aq si matematika.
08:16
He thought ethics was a matter of making decisions in the here-and-now
188
481000
3000
Mendonte se etika qe punë vendim-marrjesh të atypëratyshme
08:19
using our best judgment
189
484000
2000
duke përdorur frytet më të mira të gjykimit tonë
08:21
to find the right path.
190
486000
2000
për të gjetur shtegun e duhur.
08:23
If you think that, Plato's not your guy.
191
488000
2000
Po e menduat kështu, Platoni nuk bën për ju.
08:25
But don't give up.
192
490000
2000
Por mos u dorëzoni.
08:27
Maybe there's another way
193
492000
2000
Ndoshta ka një rrugë tjetër
08:29
that we can use numbers as the basis of our moral framework.
194
494000
3000
në të cilën të mund të përdorim numrat si bazë të kuadrit tonë moral.
08:33
How about this:
195
498000
2000
Si ju duket kjo:
08:35
What if in any situation you could just calculate,
196
500000
3000
Po sikur në çfarëdo situate të mundeshit thjesht të llogarisnit,
08:38
look at the choices,
197
503000
2000
të shihnit opsionet,
08:40
measure out which one's better and know what to do?
198
505000
3000
të masnit cila është më e mira dhe të gjenit ç'duhet bërë?
08:43
That sound familiar?
199
508000
2000
Si e dëgjuar, hë?
08:45
That's a utilitarian moral framework.
200
510000
3000
Ky është kuadri moral utilitarist.
08:48
John Stuart Mill was a great advocate of this --
201
513000
2000
John Stuart Mill qe mbrojtës i shquar i këtij --
08:50
nice guy besides --
202
515000
2000
përtej tipave të mirë --
08:52
and only been dead 200 years.
203
517000
2000
dhe ka vetëm 200 vjetë që ka vdekur.
08:54
So basis of utilitarianism --
204
519000
2000
Pra baza e utilitarizmit --
08:56
I'm sure you're familiar at least.
205
521000
2000
Jam i sigurt se e njihni të paktën.
08:58
The three people who voted for Mill before are familiar with this.
206
523000
2000
Tre personat, që pak më parë votuan për Mill-in, e njohin.
09:00
But here's the way it works.
207
525000
2000
Ja se si funksionon.
09:02
What if morals, what if what makes something moral
208
527000
3000
Po sikur morali, ajo çka e bën diçka morale,
09:05
is just a matter of if it maximizes pleasure
209
530000
2000
të ishte thjesht çështje nëse na e shton kënaqësinë
09:07
and minimizes pain?
210
532000
2000
dhe na redukton vuajtjen?
09:09
It does something intrinsic to the act.
211
534000
3000
Të qe pjesë e pandashme e vetë veprimit?
09:12
It's not like its relation to some abstract form.
212
537000
2000
Që nuk ngjan me marrëdhënien e saj me ndonjë formë abstrakte.
09:14
It's just a matter of the consequences.
213
539000
2000
Është thjesht punë pasojash.
09:16
You just look at the consequences
214
541000
2000
Ju thjesht përqendroheni te pasojat
09:18
and see if, overall, it's for the good or for the worse.
215
543000
2000
dhe shihni nëse, në përgjithësi, bën mirë apo keq.
09:20
That would be simple. Then we know what to do.
216
545000
2000
Kështu do të ishte thjesht. Atëherë dimë se ç'duhet të bëjmë.
09:22
Let's take an example.
217
547000
2000
Le të marrim një shembull.
09:24
Suppose I go up
218
549000
2000
Le të hamendësojmë se ngrihem
09:26
and I say, "I'm going to take your phone."
219
551000
2000
dhe them, "Po ta marr telefonin."
09:28
Not just because it rang earlier,
220
553000
2000
Jo ngaqë ra zilja pak më parë,
09:30
but I'm going to take it because I made a little calculation.
221
555000
3000
por do të ta marr ngaqë bëra një llogari të vockël.
09:33
I thought, that guy looks suspicious.
222
558000
3000
Mendova se ky tipi duket i dyshimtë.
09:36
And what if he's been sending little messages to Bin Laden's hideout --
223
561000
3000
Po sikur të jetë duke i dërguar mesazhe strofkës së Bin Laden-it --
09:39
or whoever took over after Bin Laden --
224
564000
2000
ose të kujtdo që i zuri vendin --
09:41
and he's actually like a terrorist, a sleeper cell.
225
566000
3000
pale që duket ca edhe si terrorist, celulë e përgjumur.
09:44
I'm going to find that out, and when I find that out,
226
569000
3000
Do ta zbuloj, dhe kur ta zbuloj,
09:47
I'm going to prevent a huge amount of damage that he could cause.
227
572000
3000
Do të parandaloj një dëm shumë të madh që mund të shkaktonte.
09:50
That has a very high utility to prevent that damage.
228
575000
3000
Ka goxha vlerë të parandalosh një dëm të tillë.
09:53
And compared to the little pain that it's going to cause --
229
578000
2000
Dhe krahasuar me vuajtjen e vockël që kjo do të shkaktojë --
09:55
because it's going to be embarrassing when I'm looking on his phone
230
580000
2000
ngaqë është turpëruese të rrëmosh në telefonin e tjetrit
09:57
and seeing that he has a Farmville problem and that whole bit --
231
582000
3000
dhe të shohësh që ka një problem në Farmville e të tjera syresh --
10:00
that's overwhelmed
232
585000
3000
lihet në hije nga
10:03
by the value of looking at the phone.
233
588000
2000
dobia e vëzhgimit të atij telefoni.
10:05
If you feel that way,
234
590000
2000
Nëse iu duket e drejtë,
10:07
that's a utilitarian choice.
235
592000
3000
kjo është zgjedhja e një utilitariani.
10:10
But maybe you don't feel that way either.
236
595000
3000
Por ndoshta nuk e mendoni as kështu.
10:13
Maybe you think, it's his phone.
237
598000
2000
Ndoshta ju mendoni që telefoni është i tiji.
10:15
It's wrong to take his phone
238
600000
2000
Është gabim t'i merret telefoni,
10:17
because he's a person
239
602000
2000
sepse bëhet fjalë për një person,
10:19
and he has rights and he has dignity,
240
604000
2000
që ka të drejta, ka dinjitet,
10:21
and we can't just interfere with that.
241
606000
2000
dhe nuk i fusim dot hundët kështu.
10:23
He has autonomy.
242
608000
2000
Ka pavarësinë e tij.
10:25
It doesn't matter what the calculations are.
243
610000
2000
Nuk ka rëndësi se cilat janë llogaritë.
10:27
There are things that are intrinsically wrong --
244
612000
3000
Ka gjëra që janë së brendshmi gabim --
10:30
like lying is wrong,
245
615000
2000
të gënjesh është gabim, bie fjala,
10:32
like torturing innocent children is wrong.
246
617000
3000
të torturosh fëmijë të pafajshëm është e gabuar.
10:35
Kant was very good on this point,
247
620000
3000
Kanti qe shumë i zoti në këtë pikë,
10:38
and he said it a little better than I'll say it.
248
623000
2000
dhe e pat shprehur ca më mirë nga unë.
10:40
He said we should use our reason
249
625000
2000
Ai thosh se duhet të përdorim arsyen
10:42
to figure out the rules by which we should guide our conduct,
250
627000
3000
për të gjetur rregullat që do të na udhëheqin sjelljen tonë.
10:45
and then it is our duty to follow those rules.
251
630000
3000
Dhe se e kemi për detyrë t'i ndjekim këto rregulla.
10:48
It's not a matter of calculation.
252
633000
3000
Nuk është punë llogaritjesh.
10:51
So let's stop.
253
636000
2000
Ndaj le të ndalemi këtu.
10:53
We're right in the thick of it, this philosophical thicket.
254
638000
3000
Gjendemi pikërisht në qendër të këtij lëmshi filozofik.
10:56
And this goes on for thousands of years,
255
641000
3000
E kjo vazhdon këtu e mijëra vjetë,
10:59
because these are hard questions,
256
644000
2000
ngaqë këto janë çështje të zorshme,
11:01
and I've only got 15 minutes.
257
646000
2000
dhe kam vetëm 15 minuta kohë.
11:03
So let's cut to the chase.
258
648000
2000
Ndaj le të hidhemi drejt e në thelb.
11:05
How should we be making our decisions?
259
650000
4000
Si do të duhej t'i merrnim vendimet tona?
11:09
Is it Plato, is it Aristotle, is it Kant, is it Mill?
260
654000
3000
Sipas Platonit, Aristotelit, Kantit, Millit?
11:12
What should we be doing? What's the answer?
261
657000
2000
Ç'do të duhej të bënim? Cila është përgjigja?
11:14
What's the formula that we can use in any situation
262
659000
3000
Cila është formula që do të mund të përdornim në çfarëdo situate
11:17
to determine what we should do,
263
662000
2000
për të vendosur se ç'do të duhej të bënim,
11:19
whether we should use that guy's data or not?
264
664000
2000
nëse duhet a jo t'i përdorim të dhënat e atij tipit?
11:21
What's the formula?
265
666000
3000
Cila është formula?
11:25
There's not a formula.
266
670000
2000
Nuk ka formulë.
11:29
There's not a simple answer.
267
674000
2000
Nuk ka përgjigje të thjeshtë.
11:31
Ethics is hard.
268
676000
3000
Etika është e vështirë.
11:34
Ethics requires thinking.
269
679000
3000
Etika lyp peshim.
11:38
And that's uncomfortable.
270
683000
2000
Dhe ky është i sikletshëm.
11:40
I know; I spent a lot of my career
271
685000
2000
E di, kam harxhuar jo pak nga karriera ime
11:42
in artificial intelligence,
272
687000
2000
me inteligjencën artificiale, duke u rrekur
11:44
trying to build machines that could do some of this thinking for us,
273
689000
3000
të krijoj makina që do të mund të bënin për ne ca nga ky peshim,
11:47
that could give us answers.
274
692000
2000
që do të mund të na jepnin përgjigje.
11:49
But they can't.
275
694000
2000
Por ja që nuk munden.
11:51
You can't just take human thinking
276
696000
2000
Nuk merrni dot të menduarit njerëzor
11:53
and put it into a machine.
277
698000
2000
dhe ta vini në një makinë.
11:55
We're the ones who have to do it.
278
700000
3000
Jemi ne ata që duhet ta bëjmë.
11:58
Happily, we're not machines, and we can do it.
279
703000
3000
Për fat, nuk jemi makina, dhe mund ta bëjmë.
12:01
Not only can we think,
280
706000
2000
Jo vetëm që mund të mendojmë,
12:03
we must.
281
708000
2000
ne duhet të mendojmë.
12:05
Hannah Arendt said,
282
710000
2000
Hannah Arendt thosh,
12:07
"The sad truth
283
712000
2000
"E vërteta e trishtë
12:09
is that most evil done in this world
284
714000
2000
është që shumica e të këqijave në këtë botë
12:11
is not done by people
285
716000
2000
nuk kryhet nga njerëz
12:13
who choose to be evil.
286
718000
2000
që zgjedhin të jenë të këqij.
12:15
It arises from not thinking."
287
720000
3000
Vjen nga të mos-menduarit."
12:18
That's what she called the "banality of evil."
288
723000
4000
Kjo është çka ajo e quajti "banaliteti i të keqes."
12:22
And the response to that
289
727000
2000
Dhe përgjigja ndaj tij
12:24
is that we demand the exercise of thinking
290
729000
2000
është t'i mëshojmë ushtrimit të të menduarit
12:26
from every sane person.
291
731000
3000
nga çdo person me mendje të shëndoshë.
12:29
So let's do that. Let's think.
292
734000
2000
Le ta bëjmë pra. Le të mendojmë.
12:31
In fact, let's start right now.
293
736000
3000
Duke ia filluar që tani, në fakt.
12:34
Every person in this room do this:
294
739000
3000
Çdo person në këtë sallë le të bëjë këtë:
12:37
think of the last time you had a decision to make
295
742000
3000
sillni në mend herën e fundit që ju desh të merrnit një vendim
12:40
where you were worried to do the right thing,
296
745000
2000
për të cilin shqetësoheshit se mos bënit gjënë e gabuar,
12:42
where you wondered, "What should I be doing?"
297
747000
2000
kur lëkundeshit, "Ç'duhet të bëj?"
12:44
Bring that to mind,
298
749000
2000
Silleni atë herë në mendje.
12:46
and now reflect on that
299
751000
2000
Dhe bluajeni tani në mendje
12:48
and say, "How did I come up that decision?
300
753000
3000
dhe thoni, "Si arrita në atë vendim?
12:51
What did I do? Did I follow my gut?
301
756000
3000
Çfarë bëra? E ndoqa zemrën?
12:54
Did I have somebody vote on it? Or did I punt to legal?"
302
759000
2000
Ma votoi kush? Apo ia lashë ligjeve?"
12:56
Or now we have a few more choices.
303
761000
3000
Ose, me ca zgjedhje më shumë.
12:59
"Did I evaluate what would be the highest pleasure
304
764000
2000
"A vura në kandar se cila do të më sillte më shumë kënaqësi,
13:01
like Mill would?
305
766000
2000
siç do të bënte Mill-i?
13:03
Or like Kant, did I use reason to figure out what was intrinsically right?"
306
768000
3000
Apo si Kanti, përdora arsyen për të gjetur se ç'ishte së brendshmi e drejtë?"
13:06
Think about it. Really bring it to mind. This is important.
307
771000
3000
Mendojeni kështu. Silleni vërtet në mendje. Ka rëndësi kjo.
13:09
It is so important
308
774000
2000
Ka kaq rëndësi
13:11
we are going to spend 30 seconds of valuable TEDTalk time
309
776000
2000
sa do të harxhojmë 30 sekonda të vyera nga koha e TEDTalk-ut
13:13
doing nothing but thinking about this.
310
778000
2000
duke mos bërë gjë tjetër veç të menduarit e kësaj.
13:15
Are you ready? Go.
311
780000
2000
Jeni gati? Jepini.
13:33
Stop. Good work.
312
798000
3000
Stop. Punë e paqme.
13:36
What you just did,
313
801000
2000
Ajo që sapo bëtë,
13:38
that's the first step towards taking responsibility
314
803000
2000
është hapi i parë i marrjes përsipër të përgjegjësisë
13:40
for what we should do with all of our power.
315
805000
3000
për atë çka do të duhej të bënim me fuqinë tonë.
13:45
Now the next step -- try this.
316
810000
3000
Hapi tjetër tani -- provoni këtë.
13:49
Go find a friend and explain to them
317
814000
2000
Shkoni e takoni një shok dhe shpjegojini
13:51
how you made that decision.
318
816000
2000
se si erdhët në atë vendim.
13:53
Not right now. Wait till I finish talking.
319
818000
2000
Jo drejt e tani. Prisni sa të mbaroj fjalën.
13:55
Do it over lunch.
320
820000
2000
Bëjeni në pushimin e drekës.
13:57
And don't just find another technologist friend;
321
822000
3000
Dhe jo me një tjetër shok që merr vesh nga teknologjia;
14:00
find somebody different than you.
322
825000
2000
gjeni dikë ndryshe nga ju.
14:02
Find an artist or a writer --
323
827000
2000
Gjeni një artist ose një shkrimtar --
14:04
or, heaven forbid, find a philosopher and talk to them.
324
829000
3000
ose, mos e dhashtë Zoti, gjeni një filozof dhe bisedojeni më të.
14:07
In fact, find somebody from the humanities.
325
832000
2000
Në fakt, gjeni dikë nga shkencat shoqërore.
14:09
Why? Because they think about problems
326
834000
2000
Pse? Ngaqë ata i mendojnë problemet ndryshe
14:11
differently than we do as technologists.
327
836000
2000
nga si i mendojmë ne të teknologjive.
14:13
Just a few days ago, right across the street from here,
328
838000
3000
Vetëm pak ditë më parë, mu në anën tjetër të rrugës,
14:16
there was hundreds of people gathered together.
329
841000
2000
qenë grumbulluar tok qindra vetë.
14:18
It was technologists and humanists
330
843000
2000
Të teknologjisë dhe të shoqëroreve
14:20
at that big BiblioTech Conference.
331
845000
2000
në Konferencën e madhe BiblioTech.
14:22
And they gathered together
332
847000
2000
Dhe qenë mbledhur
14:24
because the technologists wanted to learn
333
849000
2000
ngaqë ata të teknologjisë donin të mësonin
14:26
what it would be like to think from a humanities perspective.
334
851000
3000
si do të ishte po të mendohej nga këndvështrimi i shkencave shoqërore.
14:29
You have someone from Google
335
854000
2000
Pra dikush nga Google rreh
14:31
talking to someone who does comparative literature.
336
856000
2000
mendime me dikë që merret me letërsisë të krahasuar.
14:33
You're thinking about the relevance of 17th century French theater --
337
858000
3000
Kjo ju sjell në mendje rëndësinë e teatrit të shekullit të 17-të në Francë --
14:36
how does that bear upon venture capital?
338
861000
2000
si ndikon kjo te sipërmarrjet e reja kapitaliste?
14:38
Well that's interesting. That's a different way of thinking.
339
863000
3000
Pa ta shohim pak. Kjo është tjetër mënyrë të menduari.
14:41
And when you think in that way,
340
866000
2000
Dhe kur e mendoni kështu,
14:43
you become more sensitive to the human considerations,
341
868000
3000
bëheni më i ndjeshëm ndaj opinionit të njerëzve,
14:46
which are crucial to making ethical decisions.
342
871000
3000
i cili është kyç për vendim-marrje etike.
14:49
So imagine that right now
343
874000
2000
Pra përfytyroni tani, në këtë çast,
14:51
you went and you found your musician friend.
344
876000
2000
vajtët dhe gjetët mikun tuaj muzikant.
14:53
And you're telling him what we're talking about,
345
878000
3000
Dhe po i tregoni se ç'biseduam,
14:56
about our whole data revolution and all this --
346
881000
2000
mbi krejt revolucionin tonë të të dhënave e më the, të thashë --
14:58
maybe even hum a few bars of our theme music.
347
883000
2000
ndoshta edhe i fishkëlleni ca masa nga sigla jonë muzikore.
15:00
♫ Dum ta da da dum dum ta da da dum ♫
348
885000
3000
♫ Bum pa pa pa bum bum pa pa pa bum ♫
15:03
Well, your musician friend will stop you and say,
349
888000
2000
Miku juaj muzikant do t'ju ndalë për të thënë,
15:05
"You know, the theme music
350
890000
2000
"E di zotrote që sigla muzikore
15:07
for your data revolution,
351
892000
2000
për revolucionin tuaj të të dhënave,
15:09
that's an opera, that's Wagner.
352
894000
2000
është prej një opere, është e Vagnerit?
15:11
It's based on Norse legend.
353
896000
2000
Që bazohet në një legjendë Norvegjeze.
15:13
It's Gods and mythical creatures
354
898000
2000
Mbi Zotin dhe krijesa mitike
15:15
fighting over magical jewelry."
355
900000
3000
që luftojnë kundër xhevahiresh magjike."
15:19
That's interesting.
356
904000
3000
Ah, interesante...
15:22
Now it's also a beautiful opera,
357
907000
3000
Dhe është edhe operë e bukur.
15:25
and we're moved by that opera.
358
910000
3000
Një operë që na prek.
15:28
We're moved because it's about the battle
359
913000
2000
Na prek sepse merret me ndeshjen
15:30
between good and evil,
360
915000
2000
mes të mirës dhe të keqes,
15:32
about right and wrong.
361
917000
2000
të drejtës dhe të gabuarës.
15:34
And we care about right and wrong.
362
919000
2000
Dhe për ne ka rëndësi e drejta dhe e gabuara.
15:36
We care what happens in that opera.
363
921000
3000
Për ne ka rëndësi ç'ndodh në atë opera.
15:39
We care what happens in "Apocalypse Now."
364
924000
3000
Për ne ka rëndësi ç'ndodh te "Apokalipsi Tani."
15:42
And we certainly care
365
927000
2000
Dhe për ne pa dyshim që ka rëndësi
15:44
what happens with our technologies.
366
929000
2000
ç'ndodh me teknologjitë tona.
15:46
We have so much power today,
367
931000
2000
Kemi kaq shumë fuqi sot, dhe na bie ne barra
15:48
it is up to us to figure out what to do,
368
933000
3000
të gjejmë se çfarë të bëjmë me të.
15:51
and that's the good news.
369
936000
2000
Dhe këtu qëndron lezeti.
15:53
We're the ones writing this opera.
370
938000
3000
Jemi ne ata që e shkruajmë këtë opera.
15:56
This is our movie.
371
941000
2000
Ky është filmi ynë.
15:58
We figure out what will happen with this technology.
372
943000
3000
Jemi ne që gjejmë se ç'do të ndodhë me këtë teknologji.
16:01
We determine how this will all end.
373
946000
3000
Ne e vendosim se si do të përfundojë krejt kjo.
16:04
Thank you.
374
949000
2000
Faleminderit.
16:06
(Applause)
375
951000
5000
(Duartrokitje)
Translated by Besnik Bleta
Reviewed by Dita Bytyci

▲Back to top

ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com