ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com
TEDxSiliconValley

Damon Horowitz: We need a "moral operating system"

Damon Horowitz felhívása egy "erkölcsi operációs rendszer" érdekében

Filmed:
795,617 views

A TEDxSiliconValley-n, Damon Horowitz értékeli azokat a hatalmas új erőket, amelyeket a technológia ad nekünk: hogy többet tudunk, -- és egymásról is -- mint valaha. A közönséget filozófiai beszélgetésbe vonva, Horrowitz arra hív bennünket, hogy egy újfajta figyelemmel forduljunk az alapfilozófiák felé -- az erkölcsi alapelvek irányába -- amelyek a világunkat újjávarázsoló találmányok sorozata mögött rejlenek. Hol búvik meg az az erkölcsi operációs rendszer, amely lehetővé teszi számunkra, hogy valami értelmeset hozunk ki belőlük?
- Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities. Full bio

Double-click the English transcript below to play the video.

00:15
PowerTeljesítmény.
0
0
2000
Erő.
00:17
That is the wordszó that comesjön to mindelme.
1
2000
2000
Ez a szó jut eszembe.
00:19
We're the newúj technologistsTechnológus.
2
4000
2000
Mi vagyunk az új technológus szakemberek.
00:21
We have a lot of dataadat, so we have a lot of powererő.
3
6000
3000
Rengeteg adatunk van, így nagy a hatalmunk!
00:24
How much powererő do we have?
4
9000
2000
Mekkora a hatalmunk?
00:26
SceneJelenet from a moviefilm: "ApocalypseApokalipszis Now" -- great moviefilm.
5
11000
3000
Jelenet egy filmből: "Apokalipszis most" -- nagyszerű film.
00:29
We'veMost már got to get our herohős, CaptainKapitány WillardWillard, to the mouthszáj of the NungNung RiverFolyó
6
14000
3000
El kell vinnünk hősünket, Willard Kapitányt a Nung folyó torkolatához,
00:32
so he can go pursuefolytat ColonelEzredes KurtzKurtz.
7
17000
2000
hogy elkaphassa Kurtz ezredest.
00:34
The way we're going to do this is flylégy him in and dropcsepp him off.
8
19000
2000
Úgy fogjuk ezt véghezvinni, hogy beröpítjük, majd ledobjuk.
00:36
So the sceneszínhely:
9
21000
2000
Tehát a jelenet:
00:38
the skyég is filledmegtöltött with this fleetflotta of helicoptershelikopterek carryingszállítás him in.
10
23000
3000
az égbolt alig látszik a helikopter flottától, ami őt szállítja.
00:41
And there's this loudhangos, thrillingizgalmas musiczene in the backgroundháttér,
11
26000
2000
És itt van ez a hangos, balsejtelmű zene a háttérben,
00:43
this wildvad musiczene.
12
28000
2000
ez a vad zene.
00:45
DumDum dada tata dada dumdum
13
30000
2000
♫ Dum da ta da dum ♫
00:47
DumDum dada tata dada dumdum
14
32000
2000
♫ Dum da ta da dum ♫
00:49
DaDa tata dada dada
15
34000
3000
♫ Da ta da da ♫
00:52
That's a lot of powererő.
16
37000
2000
Na ez rengeteg erő!
00:54
That's the kindkedves of powererő I feel in this roomszoba.
17
39000
2000
Ez az az erő, amit ebben a helységben is érzékelek.
00:56
That's the kindkedves of powererő we have
18
41000
2000
Ez az az erő, amink van
00:58
because of all of the dataadat that we have.
19
43000
2000
a sok adat eredményeképpen, amink van.
01:00
Let's take an examplepélda.
20
45000
2000
Vegyünk egy példát.
01:02
What can we do
21
47000
2000
Mit tehetünk
01:04
with just one person'sszemély dataadat?
22
49000
3000
egyetlen ember adataival?
01:07
What can we do
23
52000
2000
Mit tehetünk
01:09
with that guy'sfickó dataadat?
24
54000
2000
annak a srácnak az adataival?
01:11
I can look at your financialpénzügyi recordsfeljegyzések.
25
56000
2000
Megnézhetem a pénzügyi nyilvántartásaidat.
01:13
I can tell if you payfizetés your billsszámlák on time.
26
58000
2000
Megmondhatom, hogy időben fizeted-e ki a számláidat.
01:15
I know if you're good to give a loanhitel to.
27
60000
2000
Tudom, hogy olyan vagy-e, akinek érdemes kölcsönt adni.
01:17
I can look at your medicalorvosi recordsfeljegyzések; I can see if your pumpszivattyú is still pumpingszivattyúzás --
28
62000
3000
Megnézhetem az orvosi feljegyzéseidet, hogy a szíved pumpál-e még --
01:20
see if you're good to offerajánlat insurancebiztosítás to.
29
65000
3000
hogy vajon érdemes-e neked biztosítást ajánlani.
01:23
I can look at your clickingcsattanó patternsminták.
30
68000
2000
Meg tudom nézni a választási szokásaidat.
01:25
When you come to my websiteweboldal, I actuallytulajdonképpen know what you're going to do alreadymár
31
70000
3000
Amikor a weboldalamra lépsz, akkor már gyakorlatilag tudom, mit fogsz ott tenni,
01:28
because I've seenlátott you visitlátogatás millionsTöbb millió of websiteshonlapok before.
32
73000
2000
mert láttam, ahogy többmillió weboldalt végigböngésztél.
01:30
And I'm sorry to tell you,
33
75000
2000
És sajnálom, hogy ezt kell mondjam,
01:32
you're like a pokerpóker playerjátékos, you have a tell.
34
77000
2000
de olyan vagy, mint egy pókerjátékos, lebuktál.
01:34
I can tell with dataadat analysiselemzés what you're going to do
35
79000
2000
Meg tudom mondani adatelemzéssel, hogy
01:36
before you even do it.
36
81000
2000
mit fogsz tenni, még mielőtt megtennéd.
01:38
I know what you like. I know who you are,
37
83000
3000
Tudom, mit szeretsz. Tudom, ki vagy.
01:41
and that's even before I look at your maillevél
38
86000
2000
És mindezt még azelőtt, hogy megnéztem
01:43
or your phonetelefon.
39
88000
2000
volna a levelezésedet, vagy a telefonodat!
01:45
Those are the kindsféle of things we can do
40
90000
2000
Ilyesféléket vagyunk képesek leolvasni
01:47
with the dataadat that we have.
41
92000
3000
azon adatok alapján, amik vannak.
01:50
But I'm not actuallytulajdonképpen here to talk about what we can do.
42
95000
3000
De valójában nem azért vagyok itt, hogy arról beszéljek, mit tehetünk.
01:56
I'm here to talk about what we should do.
43
101000
3000
Azért vagyok itt, hogy arról beszéljek, hogy mit kéne tennünk.
02:00
What's the right thing to do?
44
105000
3000
Mi a helyes cselekedet?
02:04
Now I see some puzzledzavartan looksúgy néz ki,
45
109000
2000
Most látok néhány zavarodott tekintetet,
02:06
like, "Why are you askingkérve us what's the right thing to do?
46
111000
3000
azaz, "Miért kérdezi tőlünk, hogy mi a helyes cselekedet?
02:09
We're just buildingépület this stuffdolog. SomebodyValaki elsemás is usinghasználva it."
47
114000
3000
Mi csak építjük ezeket a cuccokat! Valaki más meg használja!
02:12
FairTisztességes enoughelég.
48
117000
3000
Persze, igaz.
02:15
But it bringshoz me back.
49
120000
2000
De ez megint visszavezet oda.
02:17
I think about WorldVilág WarHáború IIII. --
50
122000
2000
A II. világháborúra gondolok --
02:19
some of our great technologistsTechnológus then,
51
124000
2000
néhány akkori nagy szakemberünkre,
02:21
some of our great physicistsfizikusok,
52
126000
2000
néhány nagy fizikusunkra,
02:23
studyingtanul nuclearnukleáris fissionmaghasadás and fusionmagfúzió --
53
128000
2000
akik nukleáris maghasadást és fúziót tanulmányoztak --
02:25
just nuclearnukleáris stuffdolog.
54
130000
2000
csak nukleáris dolgokat.
02:27
We gathergyűjt togetheregyütt these physicistsfizikusok in LosLos AlamosAlamos
55
132000
3000
Összejövünk ezekkel a fizikusokkal Los Alamosban,
02:30
to see what they'llfognak buildépít.
56
135000
3000
hogy megnézzük, mit fognak összehozni.
02:33
We want the people buildingépület the technologytechnológia
57
138000
3000
Azt akarjuk, hogy az emberek építsenek technológiákat,
02:36
thinkinggondolkodás about what we should be doing with the technologytechnológia.
58
141000
3000
miközben arra gondolunk, hogy mit kéne tennünk ezzel a technológiával.
02:41
So what should we be doing with that guy'sfickó dataadat?
59
146000
3000
Nos, mit kezdenénk a srác adataival?
02:44
Should we be collectinggyűjtő it, gatheringösszejövetel it,
60
149000
3000
Összeszednénk, összegyűjtenénk,
02:47
so we can make his onlineonline experiencetapasztalat better?
61
152000
2000
azért, hogy az internetes élményei jobbak legyenek?
02:49
So we can make moneypénz?
62
154000
2000
Hogy pénzt csináljunk belőle?
02:51
So we can protectvéd ourselvesminket
63
156000
2000
Hogy meg tudjuk védeni magunkat ellene,
02:53
if he was up to no good?
64
158000
2000
ha valami rosszban törné a fejét?
02:55
Or should we respecttisztelet his privacyAdatvédelem,
65
160000
3000
Vagy tartsuk tiszteletben a magánszféráját,
02:58
protectvéd his dignityméltóság and leaveszabadság him aloneegyedül?
66
163000
3000
és méltóságát és hagyjuk békén?
03:02
WhichAmely one is it?
67
167000
3000
Na, melyik legyen?
03:05
How should we figureábra it out?
68
170000
2000
Hogy találjuk ki?
03:07
I know: crowdsourcecrowdsource. Let's crowdsourcecrowdsource this.
69
172000
3000
Tudom már: közvélemény kutatás. Csináljuk azt!
03:11
So to get people warmedmelegítette up,
70
176000
3000
A bemelegítés kedvéért
03:14
let's startRajt with an easykönnyen questionkérdés --
71
179000
2000
kezdjünk egy könnyű kérdéssel --
03:16
something I'm sure everybodymindenki here has an opinionvélemény about:
72
181000
3000
valami olyannal, amiről itt szerintem mindenkinek
03:19
iPhoneiPhone versusellen AndroidAndroid.
73
184000
2000
van véleménye: iPhone és Android.
03:21
Let's do a showelőadás of handskezek -- iPhoneiPhone.
74
186000
3000
Emeljék fel a kezüket, akik iPhone-ra szavaznak.
03:24
Uh huh.
75
189000
2000
Aha.
03:26
AndroidAndroid.
76
191000
3000
Android.
03:29
You'dÖn is think with a bunchcsokor of smartOkos people
77
194000
2000
Az ember azt gondolná, hogy ennyi okos ember
03:31
we wouldn'tnem be suchilyen suckerscsecsemők just for the prettyszép phonestelefonok.
78
196000
2000
nem mind balek, hogy a szép telefont válassza!
03:33
(LaughterNevetés)
79
198000
2000
(Nevetés)
03:35
NextKövetkező questionkérdés,
80
200000
2000
Következő kérdés,
03:37
a little bitbit hardernehezebb.
81
202000
2000
egy kicsit nehezebb.
03:39
Should we be collectinggyűjtő all of that guy'sfickó dataadat
82
204000
2000
Azért gyűjtsük össze a srác adatait,
03:41
to make his experiencestapasztalatok better
83
206000
2000
hogy az élményeit színesítsük,
03:43
and to protectvéd ourselvesminket in caseügy he's up to no good?
84
208000
3000
és megvédjük magunkat, ha rosszat akarna?
03:46
Or should we leaveszabadság him aloneegyedül?
85
211000
2000
Vagy hagyjuk meg magának?
03:48
CollectGyűjtsük össze his dataadat.
86
213000
3000
Gyűjtsük az adatait.
03:53
LeaveSzabadság him aloneegyedül.
87
218000
3000
Hagyjuk magának.
03:56
You're safebiztonságos. It's fine.
88
221000
2000
Biztonságban vannak. Minden OK.
03:58
(LaughterNevetés)
89
223000
2000
(Nevetés)
04:00
Okay, last questionkérdés --
90
225000
2000
OK, utolsó kérdés --
04:02
hardernehezebb questionkérdés --
91
227000
2000
nehezebb kérdés --
04:04
when tryingmegpróbálja to evaluateértékelje
92
229000
3000
amikor próbáljuk mérlegelni, hogy
04:07
what we should do in this caseügy,
93
232000
3000
vajon mit tegyünk egy ilyen esetben,
04:10
should we use a KantianKantiánus deontologicalszakmai etikai moralerkölcsi frameworkkeretrendszer,
94
235000
4000
a Kant-féle etikai erkölcs keretében,
04:14
or should we use a MillianMillian consequentialistconsequentialist one?
95
239000
3000
vagy a Mill-féle következetes gondolkodásmód szerint járjunk el?
04:19
KantKant.
96
244000
3000
Kant.
04:22
MillMalom.
97
247000
3000
Mill.
04:25
Not as manysok votesszavazat.
98
250000
2000
Most nincs annyi szavazat.
04:27
(LaughterNevetés)
99
252000
3000
(Nevetés)
04:30
Yeah, that's a terrifyingfélelmetes resulteredmény.
100
255000
3000
Hát igen, na ez ijesztő eredmény.
04:34
TerrifyingFélelmetes, because we have strongererősebb opinionsvélemények
101
259000
4000
Azért ijesztő, mert határozottabb véleményünk
04:38
about our hand-heldkézi deviceskészülékek
102
263000
2000
van a kézzelfogható eszközeinkkel kapcsolatban,
04:40
than about the moralerkölcsi frameworkkeretrendszer
103
265000
2000
mint az erkölcsi keretekkel kapcsolatban,
04:42
we should use to guideútmutató our decisionsdöntések.
104
267000
2000
amiket útmutatóul kéne használnunk a döntéseinkhez.
04:44
How do we know what to do with all the powererő we have
105
269000
3000
Honnan tudhatnánk akkor, hogy mit kezdjünk az összes
04:47
if we don't have a moralerkölcsi frameworkkeretrendszer?
106
272000
3000
rendelkezésünkre álló erővel, ha nincs erkölcsi keretünk?
04:50
We know more about mobileMobil operatingüzemeltetési systemsrendszerek,
107
275000
3000
Többet tudunk a mobilok operációs rendszeréről,
04:53
but what we really need is a moralerkölcsi operatingüzemeltetési systemrendszer.
108
278000
3000
de amire igazán szükségünk lenne, az egy erkölcsi operációs rendszer.
04:58
What's a moralerkölcsi operatingüzemeltetési systemrendszer?
109
283000
2000
Mi az az erkölcsi operációs rendszer?
05:00
We all know right and wrongrossz, right?
110
285000
2000
Mind tudjuk, mi a jó és a rossz, igaz?
05:02
You feel good when you do something right,
111
287000
2000
Jól érezzük magunkat, amikor valami jót teszünk,
05:04
you feel badrossz when you do something wrongrossz.
112
289000
2000
rosszul érezzük magunkat, amikor valami rosszat teszünk.
05:06
Our parentsszülők teachtanít us that: praisedicséret with the good, scoldszid with the badrossz.
113
291000
3000
Szüleink tanítják ezt: dicséret jár, ha jók vagyunk, szidás, ha rosszak.
05:09
But how do we figureábra out what's right and wrongrossz?
114
294000
3000
De mi alapján döntjük el, mi a jó és a rossz?
05:12
And from day to day, we have the techniquestechnikák that we use.
115
297000
3000
És napról napra különféle technikákat használunk ennek érdekében.
05:15
Maybe we just followkövesse our gutbelek.
116
300000
3000
Előfordul, hogy csak a hasunkra ütünk.
05:18
Maybe we take a voteszavazás -- we crowdsourcecrowdsource.
117
303000
3000
Lehet, hogy szavazatokat számlálunk -- közvélemény kutatást végzünk.
05:21
Or maybe we puntpunt --
118
306000
2000
Vagy hazardírozunk --
05:23
askkérdez the legaljogi departmentosztály, see what they say.
119
308000
3000
megkérdezzük a jogi osztályt, lássuk, mit mondanak ők.
05:26
In other wordsszavak, it's kindkedves of randomvéletlen,
120
311000
2000
Más szóval, elég esetleges,
05:28
kindkedves of adhirdetés hochoc,
121
313000
2000
eléggé ad hoc,
05:30
how we figureábra out what we should do.
122
315000
3000
az, ahogy kitaláljuk, mit is tegyünk.
05:33
And maybe, if we want to be on surerbiztosabb footingalapra,
123
318000
3000
És lehet, hogy ha biztosabb alapokat akarunk,
05:36
what we really want is a moralerkölcsi frameworkkeretrendszer that will help guideútmutató us there,
124
321000
3000
akkor valójában egy erkölcsi keretet szeretnénk, ami segít eligazodni,
05:39
that will tell us what kindsféle of things are right and wrongrossz in the first placehely,
125
324000
3000
ami megmondaná, hogy melyek azok a dolgok, amik elsőkézből jók, vagy rosszak,
05:42
and how would we know in a givenadott situationhelyzet what to do.
126
327000
4000
és hogyan tudhatjuk meg egy adott szituban, hogy mit tegyünk.
05:46
So let's get a moralerkölcsi frameworkkeretrendszer.
127
331000
2000
Határozzunk meg akkor egy erkölcsi keretet.
05:48
We're numbersszám people, livingélő by numbersszám.
128
333000
3000
A számok emberei vagyunk, számok szerint
05:51
How can we use numbersszám
129
336000
2000
élünk. Hogyan használhatjuk fel a számokat
05:53
as the basisbázis for a moralerkölcsi frameworkkeretrendszer?
130
338000
3000
az erkölcsi keret alapjául?
05:56
I know a guy who did exactlypontosan that.
131
341000
3000
Ismerek egy srácot, aki éppen ezt tette,
05:59
A brilliantragyogó guy --
132
344000
3000
nagyszerű srác --
06:02
he's been deadhalott 2,500 yearsévek.
133
347000
3000
már 2500 éve meghalt.
06:05
PlatoPlatón, that's right.
134
350000
2000
Plátón, igen.
06:07
RememberNe feledje him -- oldrégi philosopherfilozófus?
135
352000
2000
Emlékeznek rá -- ókori filozófusra?
06:09
You were sleepingalvás duringalatt that classosztály.
136
354000
3000
Aludtak az alatt az óra alatt.
06:12
And PlatoPlatón, he had a lot of the sameazonos concernsaggodalmak that we did.
137
357000
2000
Nos, Plátónnak hasonló aggályai voltak, mint nekünk.
06:14
He was worriedaggódó about right and wrongrossz.
138
359000
2000
Ő is a jó és rossz kérdése miatt aggodalmaskodott.
06:16
He wanted to know what is just.
139
361000
2000
Tudni akarta, mi az igazságos.
06:18
But he was worriedaggódó that all we seemlátszik to be doing
140
363000
2000
De nehezményezte, hogy úgy tűnik, mindössze
06:20
is tradingkereskedés opinionsvélemények about this.
141
365000
2000
annyit teszünk ezügyben, hogy véleményekkel kereskedünk.
06:22
He saysmondja something'svalami just. She saysmondja something elsemás is just.
142
367000
3000
Az egyik azt mondja, ez az igazságos. A másik a másikra szavaz.
06:25
It's kindkedves of convincingmeggyőző when he talksbeszél and when she talksbeszél too.
143
370000
2000
Az is meggyőző, ha az egyik beszél, de az is, ha a másik beszél.
06:27
I'm just going back and forthtovább; I'm not gettingszerzés anywherebárhol.
144
372000
2000
Így csak oda-vissza dőlök; sehova sem jutok!
06:29
I don't want opinionsvélemények; I want knowledgetudás.
145
374000
3000
Nem véleményeket akarok, hanem tudást!
06:32
I want to know the truthigazság about justiceigazságszolgáltatás --
146
377000
3000
Tudni akarom az igazat az igazsággal kapcsolatban --
06:35
like we have truthsigazságok in mathmatematikai.
147
380000
3000
mint ahogy a matekban is vannak igazságok.
06:38
In mathmatematikai, we know the objectivecélkitűzés factstények.
148
383000
3000
Matekban ismerjük az objektív tényeket.
06:41
Take a numberszám, any numberszám -- two.
149
386000
2000
Vegyünk egy számot, bármelyiket -- kettő.
06:43
FavoriteKedvenc numberszám. I love that numberszám.
150
388000
2000
A kedvencem. Imádom ezt a számot.
06:45
There are truthsigazságok about two.
151
390000
2000
Vannak igazságok a kettővel kapcsolatban.
06:47
If you've got two of something,
152
392000
2000
Ha van két akármid,
06:49
you addhozzáad two more, you get fournégy.
153
394000
2000
és hozzáadsz még kettőt, akkor négyed lesz.
06:51
That's trueigaz no matterügy what thing you're talkingbeszél about.
154
396000
2000
Ez így igaz, teljesen mindegy, miről beszélünk.
06:53
It's an objectivecélkitűzés truthigazság about the formforma of two,
155
398000
2000
Ez egy objektív igazság a kettő formájával kapcsolatban,
06:55
the abstractabsztrakt formforma.
156
400000
2000
az elvont formájával kapcsolatban.
06:57
When you have two of anything -- two eyesszemek, two earsfülek, two nosesorrok,
157
402000
2000
Ha van két akármid -- két szem, két fül, két orr,
06:59
just two protrusionskiálló részek --
158
404000
2000
csak két kiálló valamid --
07:01
those all partakerészesedünk of the formforma of two.
159
406000
3000
akkor azok együtt teszik ki a kettő alakját.
07:04
They all participaterészt venni in the truthsigazságok that two has.
160
409000
4000
Ketten együtt vesznek részt abban az igazságban, amivel a kettő bír.
07:08
They all have two-nesskét-ség in them.
161
413000
2000
Mindegyikükben benne van a kettő-ség.
07:10
And thereforeebből adódóan, it's not a matterügy of opinionvélemény.
162
415000
3000
Ez tehát nem vélemény kérdése.
07:13
What if, PlatoPlatón thought,
163
418000
2000
Mi van akkor, ha Platón szerint
07:15
ethicsetikai was like mathmatematikai?
164
420000
2000
az etika is olyan, mint a matek?
07:17
What if there were a puretiszta formforma of justiceigazságszolgáltatás?
165
422000
3000
Mi van akkor, ha létezik az igazságosság tiszta formában?
07:20
What if there are truthsigazságok about justiceigazságszolgáltatás,
166
425000
2000
Ha vannak igazságok az igazságossággal kapcsolatban?
07:22
and you could just look around in this worldvilág
167
427000
2000
és csak egyszerűen körbe kéne nézni a világban
07:24
and see whichmelyik things participatedrészt,
168
429000
2000
és meglátnánk, mely dolgok alkotják,
07:26
partookaligha of that formforma of justiceigazságszolgáltatás?
169
431000
3000
vesznek részt az igazságosság megformálásában?
07:29
Then you would know what was really just and what wasn'tnem volt.
170
434000
3000
Akkor tudnánk, mi az, ami tényleg igazságos, és mi nem.
07:32
It wouldn'tnem be a matterügy
171
437000
2000
Nem lenne többé pusztán
07:34
of just opinionvélemény or just appearancesmegjelenések.
172
439000
3000
vélemény, vagy külső megjelenés függvénye.
07:37
That's a stunninglenyűgöző visionlátomás.
173
442000
2000
Ez egy lélegzetelállító jövőkép.
07:39
I mean, think about that. How grandnagy. How ambitiousambiciózus.
174
444000
3000
Gondolják csak el, milyen nagyszabású, nagyratörő elképzelés!
07:42
That's as ambitiousambiciózus as we are.
175
447000
2000
Olyan nagyratörő, amilyenek mi vagyunk.
07:44
He wants to solvemegfejt ethicsetikai.
176
449000
2000
Meg akarja oldani az erkölcs kérdését.
07:46
He wants objectivecélkitűzés truthsigazságok.
177
451000
2000
Objektív igazságokat akar.
07:48
If you think that way,
178
453000
3000
Ha ilyen elvek mentén gondolkozol,
07:51
you have a PlatonistPlatonista moralerkölcsi frameworkkeretrendszer.
179
456000
3000
akkor Plátóni erkölcsi kereteket alkalmazol.
07:54
If you don't think that way,
180
459000
2000
Ha nem így gondolkozol,
07:56
well, you have a lot of companyvállalat in the historytörténelem of WesternWestern philosophyfilozófia,
181
461000
2000
nos, akkor sok kísérőd lesz a Nyugati filozófia történetéből,
07:58
because the tidyrendes ideaötlet, you know, people criticizedbírálta it.
182
463000
3000
mert minél rendezettebb egy elképzelés -- tudjuk, annál többen kritizálják.
08:01
AristotleArisztotelész, in particularkülönös, he was not amusedszórakozott.
183
466000
3000
Arisztotelész különösképpen, egyáltalán nem volt lenyűgözve.
08:04
He thought it was impracticalkivihetetlen.
184
469000
3000
Szerinte ez járhatatlan, megvalósíthatatlan.
08:07
AristotleArisztotelész said, "We should seektörekszik only so much precisionpontosság in eachminden egyes subjecttantárgy
185
472000
4000
Arisztotelész azt mondta: "Csak annyi pontosságot keressünk mindenben,
08:11
as that subjecttantárgy allowslehetővé tesz."
186
476000
2000
amennyit az a téma megenged!"
08:13
AristotleArisztotelész thought ethicsetikai wasn'tnem volt a lot like mathmatematikai.
187
478000
3000
Arisztotelész szerint az etika egyáltalán nem olyan, mint a matek.
08:16
He thought ethicsetikai was a matterügy of makinggyártás decisionsdöntések in the here-and-nowItt és most
188
481000
3000
Szerinte az erkölcs az itt-és-most döntésekről szól,
08:19
usinghasználva our bestlegjobb judgmentítélet
189
484000
2000
számításba véve tőlünk telhető legjobb ítélkezést,
08:21
to find the right pathpálya.
190
486000
2000
a járható út megtalálása érdekében.
08:23
If you think that, Plato'sPlato's not your guy.
191
488000
2000
Ha így gondolkodsz, akkor Plátón nem a te figurád,
08:25
But don't give up.
192
490000
2000
de azért ne add fel!
08:27
Maybe there's anotheregy másik way
193
492000
2000
Talán van egy másik mód arra, hogy
08:29
that we can use numbersszám as the basisbázis of our moralerkölcsi frameworkkeretrendszer.
194
494000
3000
felhasználhassuk a számokat erkölcsi keretünk alapjaként.
08:33
How about this:
195
498000
2000
Mit szóltok ehhez:
08:35
What if in any situationhelyzet you could just calculatekiszámítja,
196
500000
3000
Mi van akkor, ha bármely helyzetben ki tudnák számolni
08:38
look at the choicesválasztás,
197
503000
2000
számításba véve a választási lehetőségeket,
08:40
measuremérték out whichmelyik one'sazok better and know what to do?
198
505000
3000
ki tudnák mérni, melyik a jobb, és akkor mit lehet tenni?
08:43
That soundhang familiarismerős?
199
508000
2000
Ismerősen hangzik?
08:45
That's a utilitarianhaszonelvű moralerkölcsi frameworkkeretrendszer.
200
510000
3000
Ez az utilitárius erkölcsi keret.
08:48
JohnJohn StuartStuart MillMalom was a great advocateügyvéd of this --
201
513000
2000
John Stuart Mill nagy támogatója volt ennek --
08:50
niceszép guy besideskívül --
202
515000
2000
jó srácok vannak mellettünk --
08:52
and only been deadhalott 200 yearsévek.
203
517000
2000
és csak 200 éve halott.
08:54
So basisbázis of utilitarianismhaszonelvűség --
204
519000
2000
Tehát az utilitarizmus alapja --
08:56
I'm sure you're familiarismerős at leastlegkevésbé.
205
521000
2000
biztos vagyok benne, hogy legalább fogalmatok van róla.
08:58
The threehárom people who votedszavazott for MillMalom before are familiarismerős with this.
206
523000
2000
Az a 3 ember, aki az előbb rá szavazott, legalábbis ismeri.
09:00
But here'sitt the way it worksművek.
207
525000
2000
De megmutatom, hogy működik ez.
09:02
What if moralserkölcsök, what if what makesgyártmányú something moralerkölcsi
208
527000
3000
Mi van akkor, ha az tesz valamit erkölcsössé,
09:05
is just a matterügy of if it maximizesmaximalizálja a pleasureöröm
209
530000
2000
csak annak a függvénye, hogy az örömet maximalizálja,
09:07
and minimizesminimálisra csökkenti a painfájdalom?
210
532000
2000
és a fájdalmat minimalizálja?
09:09
It does something intrinsicbelső to the acttörvény.
211
534000
3000
Ennek valamiféle lényegi hatása van a cselekedetre.
09:12
It's not like its relationkapcsolat to some abstractabsztrakt formforma.
212
537000
2000
Nem olyan, mint az elvont dolgokkal való kapcsolat.
09:14
It's just a matterügy of the consequenceskövetkezményei.
213
539000
2000
Hanem csak a következmény a lényeges.
09:16
You just look at the consequenceskövetkezményei
214
541000
2000
Csak megnézzük a következményeket,
09:18
and see if, overallátfogó, it's for the good or for the worserosszabb.
215
543000
2000
és megnézzük, hogy összességében jót okoz, vagy rosszat.
09:20
That would be simpleegyszerű. Then we know what to do.
216
545000
2000
Ez igen egyszerű lenne. Akkor tudnánk, mit
09:22
Let's take an examplepélda.
217
547000
2000
kell tenni. Vegyünk egy példát.
09:24
SupposeTegyük fel, hogy I go up
218
549000
2000
Tegyük fel, fogom magam
09:26
and I say, "I'm going to take your phonetelefon."
219
551000
2000
és azt mondom, "Elveszem a telefonodat!".
09:28
Not just because it rangmegszólalt earlierkorábban,
220
553000
2000
Nem csak azért, mert nemrég csörgött,
09:30
but I'm going to take it because I madekészült a little calculationszámítás.
221
555000
3000
hanem azért is, mert végeztem egy kis számítást.
09:33
I thought, that guy looksúgy néz ki, suspiciousgyanús.
222
558000
3000
Szerintem a srác gyanús.
09:36
And what if he's been sendingelküldés little messagesüzenetek to BinBin Laden'sTerhelt barátait hideoutbúvóhely --
223
561000
3000
És mi van, ha Bin Laden rejtekhelyére küldözget sms-eket --
09:39
or whoeverbárki tookvett over after BinBin LadenTerhelt --
224
564000
2000
vagy akárki is vette át az uralmat Bin Laden után --
09:41
and he's actuallytulajdonképpen like a terroristterrorista, a sleeperalvó cellsejt.
225
566000
3000
és tisztára mintha valami terrorista lenne, egy alvó sejt.
09:44
I'm going to find that out, and when I find that out,
226
569000
3000
Ezt akarom megvizsgálni, és miközben ezt vizsgálom
09:47
I'm going to preventmegelőzése a hugehatalmas amountösszeg of damagekár that he could causeok.
227
572000
3000
persze meg is spórolok egy csomó veszélyt, amit ő jelenthet.
09:50
That has a very highmagas utilityhasznosság to preventmegelőzése that damagekár.
228
575000
3000
Ennek a veszélynek a megelőzése nagyon nagy haszonnal bír.
09:53
And comparedahhoz képest to the little painfájdalom that it's going to causeok --
229
578000
2000
És összehasonlítva azzal a kis fájdalommal, amit okoz --
09:55
because it's going to be embarrassingkínos when I'm looking on his phonetelefon
230
580000
2000
mert persze az kínos lesz, amikor a telefonját vizsgálgatom,
09:57
and seeinglátás that he has a FarmvilleFarmville problemprobléma and that wholeegész bitbit --
231
582000
3000
és azt találom, hogy csak Farmville-es
10:00
that's overwhelmedtúlterheltek
232
585000
3000
problémái akadnak, meg ilyesmik -- ez eltörpül
10:03
by the valueérték of looking at the phonetelefon.
233
588000
2000
a telefon átvilágításának értékessége mellett.
10:05
If you feel that way,
234
590000
2000
Ha így érzed magad,
10:07
that's a utilitarianhaszonelvű choiceválasztás.
235
592000
3000
na akkor ez az utilitárius választás.
10:10
But maybe you don't feel that way eitherbármelyik.
236
595000
3000
De lehet, hogy még ez sem a te érzésed szerint való.
10:13
Maybe you think, it's his phonetelefon.
237
598000
2000
Lehet, hogy úgy gondolod: ez az ő telefonja.
10:15
It's wrongrossz to take his phonetelefon
238
600000
2000
Nem helyes elvenni a telefonját,
10:17
because he's a personszemély
239
602000
2000
mert ő is egy személy,
10:19
and he has rightsjogok and he has dignityméltóság,
240
604000
2000
és vannak jogai, meg méltósága,
10:21
and we can't just interferezavarja with that.
241
606000
2000
és abba nem szabad csak úgy egyszerűen beleavatkozni.
10:23
He has autonomyautonómia.
242
608000
2000
Önrendelkezési joga van.
10:25
It doesn't matterügy what the calculationsszámítások are.
243
610000
2000
Tök mindegy, mit számítunk ki.
10:27
There are things that are intrinsicallyeredendően wrongrossz --
244
612000
3000
Vannak dolgok, amik alapvetően nem helyesek --
10:30
like lyingfekvő is wrongrossz,
245
615000
2000
mint például hazudni helytelen,
10:32
like torturingkínzó innocentártatlan childrengyermekek is wrongrossz.
246
617000
3000
ártatlan gyermekeket kínozni is helytelen.
10:35
KantKant was very good on this pointpont,
247
620000
3000
Kant ebben nagyon jó volt,
10:38
and he said it a little better than I'll say it.
248
623000
2000
és egy kicsit jobban adta elő, mint ahogyan én fogom.
10:40
He said we should use our reasonok
249
625000
2000
Azt mondta, arra kéne használjuk az értelmünket,
10:42
to figureábra out the rulesszabályok by whichmelyik we should guideútmutató our conductmagatartás,
250
627000
3000
hogy kitaláljuk, mely szabályokat vegyük útmutatóul a viselkedésünkhöz.
10:45
and then it is our dutykötelesség to followkövesse those rulesszabályok.
251
630000
3000
És akkor a mi feladatunk azon szabályok követése.
10:48
It's not a matterügy of calculationszámítás.
252
633000
3000
Nem számítás kérdése.
10:51
So let's stop.
253
636000
2000
Na álljunk akkor meg.
10:53
We're right in the thickvastag of it, this philosophicalfilozófiai thicketbozót.
254
638000
3000
Benne vagyunk a sűrűjében, a filozófia erdejében.
10:56
And this goesmegy on for thousandsTöbb ezer of yearsévek,
255
641000
3000
És így megy ez évezredeken át,
10:59
because these are hardkemény questionskérdések,
256
644000
2000
mert ezek kemény kérdések,
11:01
and I've only got 15 minutespercek.
257
646000
2000
nekem viszont csak 15 percem van.
11:03
So let's cutvágott to the chaseChase.
258
648000
2000
Vágjuk rövidre!
11:05
How should we be makinggyártás our decisionsdöntések?
259
650000
4000
Hogyan hozzuk meg akkor a döntéseinket?
11:09
Is it PlatoPlatón, is it AristotleArisztotelész, is it KantKant, is it MillMalom?
260
654000
3000
Plátón szerint, vagy Arisztotelész, Kant, ill. Mill szerint?
11:12
What should we be doing? What's the answerválasz?
261
657000
2000
Mit tegyünk? Mi a válasz?
11:14
What's the formulaképlet that we can use in any situationhelyzet
262
659000
3000
Melyik az a képlet, amit minden helyzetben használhatunk
11:17
to determinemeghatározására what we should do,
263
662000
2000
annak meghatározására, hogy mit tegyünk,
11:19
whetherakár we should use that guy'sfickó dataadat or not?
264
664000
2000
hogy hasznosítsuk annak a srácnak az adatait, avagy ne?
11:21
What's the formulaképlet?
265
666000
3000
Mi a szabály?
11:25
There's not a formulaképlet.
266
670000
2000
Nincs szabály!
11:29
There's not a simpleegyszerű answerválasz.
267
674000
2000
Nincs egyszerű válasz!
11:31
EthicsEtikai is hardkemény.
268
676000
3000
Az erkölcs kemény dió.
11:34
EthicsEtikai requiresigényel thinkinggondolkodás.
269
679000
3000
Az erkölcshöz gondolkodásra van szükség.
11:38
And that's uncomfortablekényelmetlen.
270
683000
2000
Márpedig ez kényelmetlen.
11:40
I know; I spentköltött a lot of my careerkarrier
271
685000
2000
Tudom; karrierem nagy részében
11:42
in artificialmesterséges intelligenceintelligencia,
272
687000
2000
a mesterséges intelligenciával foglalkoztam,
11:44
tryingmegpróbálja to buildépít machinesgépek that could do some of this thinkinggondolkodás for us,
273
689000
3000
próbáltam olyan gépezeteket alkotni, amik elvégezhetnék
11:47
that could give us answersválaszokat.
274
692000
2000
e gondolkodás egy részét helyettünk, amik válaszokat adhatnának.
11:49
But they can't.
275
694000
2000
De nem tudják megtenni.
11:51
You can't just take humanemberi thinkinggondolkodás
276
696000
2000
Nem lehet egyszerűen csak fogni
11:53
and put it into a machinegép.
277
698000
2000
az emberi gondolkodást és betenni egy gépbe.
11:55
We're the onesazok who have to do it.
278
700000
3000
Nekünk magunknak kell ezt megtenni.
11:58
HappilyBoldogan, we're not machinesgépek, and we can do it.
279
703000
3000
Nagy örömünkre, nem vagyunk gépek, és meg tudjuk tenni.
12:01
Not only can we think,
280
706000
2000
Nemcsak hogy tudunk gondolkodni,
12:03
we mustkell.
281
708000
2000
de kell is gondolkodnunk!
12:05
HannahHannah ArendtArendt said,
282
710000
2000
Hannah Arendt szerint:
12:07
"The sadszomorú truthigazság
283
712000
2000
"A szomorú igazság az, hogy
12:09
is that mosta legtöbb evilgonosz doneKész in this worldvilág
284
714000
2000
a világban a legtöbb szörnyű tett
12:11
is not doneKész by people
285
716000
2000
nem abból következik, hogy vannak,
12:13
who chooseválaszt to be evilgonosz.
286
718000
2000
akik a gonoszság mellett döntenek.
12:15
It arisesfelmerül from not thinkinggondolkodás."
287
720000
3000
Hanem abból, hogy vannak, akik nem gondolkodnak!"
12:18
That's what she calledhívott the "banalitybanalitás of evilgonosz."
288
723000
4000
Ez az, amit így nevezett: "a gonosz banalitása".
12:22
And the responseválasz to that
289
727000
2000
És erre az a válasz, hogy
12:24
is that we demandigény the exercisegyakorlat of thinkinggondolkodás
290
729000
2000
felszólítunk minden egyes épelméjű embert
12:26
from everyminden sanenormális personszemély.
291
731000
3000
arra, hogy művelje a gondolkodást!
12:29
So let's do that. Let's think.
292
734000
2000
Úgyhogy akkor most tegyük is meg! Gondolkozzunk.
12:31
In facttény, let's startRajt right now.
293
736000
3000
Tényleg, próbáljuk meg most azonnal.
12:34
EveryMinden personszemély in this roomszoba do this:
294
739000
3000
Mindenki itt a teremben, csináljuk együtt:
12:37
think of the last time you had a decisiondöntés to make
295
742000
3000
idézd fel, mikor legutóbb valamivel kapcsolatban döntést kellett hoznod,
12:40
where you were worriedaggódó to do the right thing,
296
745000
2000
amikor aggodalmaskodtál, vajon megtalálod-e a helyes választást,
12:42
where you wonderedkíváncsi, "What should I be doing?"
297
747000
2000
amikor így töprengtél: "Mit is tegyek?"
12:44
BringHogy that to mindelme,
298
749000
2000
Idézd fel ezt!
12:46
and now reflecttükrözik on that
299
751000
2000
És most, töprengj el rajta,
12:48
and say, "How did I come up that decisiondöntés?
300
753000
3000
és tedd fel a kérdést: "Végül is hogyan tudtam dönteni?
12:51
What did I do? Did I followkövesse my gutbelek?
301
756000
3000
Mit is tettem? Vajon a megérzésemre hallgattam?
12:54
Did I have somebodyvalaki voteszavazás on it? Or did I puntpunt to legaljogi?"
302
759000
2000
Vagy megszavaztattam? Jogszabályok szerint jártam el?"
12:56
Or now we have a fewkevés more choicesválasztás.
303
761000
3000
Vagy van még néhány választási lehetőség.
12:59
"Did I evaluateértékelje what would be the highestlegmagasabb pleasureöröm
304
764000
2000
"Számításba vettem, mi adná a legnagyobb örömet,
13:01
like MillMalom would?
305
766000
2000
mint ahogy Mill tenné? Vagy Kantot követve használtam
13:03
Or like KantKant, did I use reasonok to figureábra out what was intrinsicallyeredendően right?"
306
768000
3000
az okfejtést annak kiszámítására, mi az eredendően jó?
13:06
Think about it. Really bringhoz it to mindelme. This is importantfontos.
307
771000
3000
Gondoljuk csak végig. Tényleg idézzük fel. Nagyon fontos.
13:09
It is so importantfontos
308
774000
2000
Annyira fontos, hogy
13:11
we are going to spendtölt 30 secondsmásodperc of valuableértékes TEDTalkTEDTalk time
309
776000
2000
eltöltünk 30 másodpercnyi értékes TEDTalk időt
13:13
doing nothing but thinkinggondolkodás about this.
310
778000
2000
azzal, hogy semmi mást nem teszünk, csak ezt gondoljuk végig!
13:15
Are you readykész? Go.
311
780000
2000
Készen álltok? Rajt!
13:33
Stop. Good work.
312
798000
3000
Állj. Szép volt.
13:36
What you just did,
313
801000
2000
Amit most csináltunk, az az első lépés
13:38
that's the first steplépés towardsfelé takingbevétel responsibilityfelelősség
314
803000
2000
a felelősségvállalás felé: hogy mit is kezdjünk
13:40
for what we should do with all of our powererő.
315
805000
3000
az összes rendelkezésünkre álló erővel.
13:45
Now the nextkövetkező steplépés -- try this.
316
810000
3000
Namost a következő lépés -- próbáljuk meg ezt.
13:49
Go find a friendbarát and explainmegmagyarázni to them
317
814000
2000
Kerekedjetek fel és keressetek egy barátot,
13:51
how you madekészült that decisiondöntés.
318
816000
2000
akinek elmesélitek, hogyan jutottatok erre a döntésre.
13:53
Not right now. Wait tillamíg I finishBefejez talkingbeszél.
319
818000
2000
Nem most azonnal. Várjátok meg, amíg
13:55
Do it over lunchebéd.
320
820000
2000
befejezem az előadást. Csináljátok ebédidőben.
13:57
And don't just find anotheregy másik technologistTechnológus friendbarát;
321
822000
3000
És ne csak egy másik szakembertársat keressetek;
14:00
find somebodyvalaki differentkülönböző than you.
322
825000
2000
keressetek valaki tőletek különbözőt.
14:02
Find an artistművész or a writeríró --
323
827000
2000
Keressetek egy művészt, vagy egy írót --
14:04
or, heavenmenny forbidtilt, find a philosopherfilozófus and talk to them.
324
829000
3000
vagy ne adj' isten, egy filozófust és beszéljetek azzal!
14:07
In facttény, find somebodyvalaki from the humanitieshumán tárgyak.
325
832000
2000
Kereshettek egy bölcsészt is.
14:09
Why? Because they think about problemsproblémák
326
834000
2000
Miért? Mert ők máshogy közelítenek a problémákhoz,
14:11
differentlyeltérően than we do as technologistsTechnológus.
327
836000
2000
mint mi technológus szakemberként.
14:13
Just a fewkevés daysnapok agoezelőtt, right acrossát the streetutca from here,
328
838000
3000
Épp néhány nappal ezelőtt, itt az utca túloldalán
14:16
there was hundredsszáz of people gatheredösszegyűjtött togetheregyütt.
329
841000
2000
sok száz ember gyűlt össze.
14:18
It was technologistsTechnológus and humanistshumanisták
330
843000
2000
Technológus szakemberek és bölcsészek
14:20
at that bignagy BiblioTechBiblioTech ConferenceKonferencia.
331
845000
2000
azon a nagy Biblio Tech Konferencián.
14:22
And they gatheredösszegyűjtött togetheregyütt
332
847000
2000
És azért gyűltek össze,
14:24
because the technologistsTechnológus wanted to learntanul
333
849000
2000
mert a technológusok meg akarták tudni, hogy
14:26
what it would be like to think from a humanitieshumán tárgyak perspectivetávlati.
334
851000
3000
milyen lenne bölcsész szemszögből nézni a dolgokat.
14:29
You have someonevalaki from GoogleGoogle
335
854000
2000
Valaki a Google-től, egy összehasonlító irodalomtudománnyal
14:31
talkingbeszél to someonevalaki who does comparativeösszehasonlító literatureirodalom.
336
856000
2000
foglalkozó szakemberrel beszélgetett.
14:33
You're thinkinggondolkodás about the relevancefontosság of 17thth centuryszázad Frenchfrancia theaterszínház --
337
858000
3000
A 17. századi Francia színház vonatkozásában gondolkozol --
14:36
how does that bearmedve uponesetén venturevállalkozás capitalfőváros?
338
861000
2000
mi köze lehet ennek a kockázati tőkéhez?
14:38
Well that's interestingérdekes. That's a differentkülönböző way of thinkinggondolkodás.
339
863000
3000
Na ez érdekes! Ez aztán egy másfajta gondolkodás!
14:41
And when you think in that way,
340
866000
2000
És amikor ilyesféleképen gondolkodunk,
14:43
you becomeválik more sensitiveérzékeny to the humanemberi considerationsmegfontolások,
341
868000
3000
érzékenyebbé válunk az emberi tényezők iránt,
14:46
whichmelyik are crucialalapvető to makinggyártás ethicaletikai decisionsdöntések.
342
871000
3000
amik alapvetően fontosak az erkölcsi döntéseknél.
14:49
So imagineKépzeld el that right now
343
874000
2000
Képzeld el akkor most azt,
14:51
you wentment and you foundtalál your musicianzenész friendbarát.
344
876000
2000
hogy mentél és kerestél mondjuk egy zenész kollégát.
14:53
And you're tellingsokatmondó him what we're talkingbeszél about,
345
878000
3000
És most elmondod neki, amiről itt most beszélünk,
14:56
about our wholeegész dataadat revolutionforradalom and all this --
346
881000
2000
az egész adatforradalmasítást, meg ilyesmiket --
14:58
maybe even humHum a fewkevés barsbárok of our themetéma musiczene.
347
883000
2000
akár dúdolj is el valamennyit az indulónkból.
15:00
DumDum tata dada dada dumdum dumdum tata dada dada dumdum
348
885000
3000
♫ Dum ta da da dum dum ta da da dum ♫
15:03
Well, your musicianzenész friendbarát will stop you and say,
349
888000
2000
Akkor pedig a zenész megállít téged és azt mondja,
15:05
"You know, the themetéma musiczene
350
890000
2000
"Tudod az adatforradalmatok
15:07
for your dataadat revolutionforradalom,
351
892000
2000
indulója egy opera,
15:09
that's an operaopera, that's WagnerWagner.
352
894000
2000
Wagner operájából való.
15:11
It's basedszékhelyű on NorseSkandináv legendlegenda.
353
896000
2000
Egy norvég legenda az alapja.
15:13
It's GodsIstenek and mythicalmitikus creatureslények
354
898000
2000
Arról szól, hogy Isten és mindenféle
15:15
fightingharcoló over magicalmágikus jewelryékszerek."
355
900000
3000
mítikus lények bűvös ékszerekért harcolnak."
15:19
That's interestingérdekes.
356
904000
3000
Na ez érdekes.
15:22
Now it's alsois a beautifulszép operaopera,
357
907000
3000
De gyönyörű opera is egyben.
15:25
and we're movedköltözött by that operaopera.
358
910000
3000
És nagyon meg is hat bennünket.
15:28
We're movedköltözött because it's about the battlecsata
359
913000
2000
Azért hat meg, mert a jó és a rossz
15:30
betweenközött good and evilgonosz,
360
915000
2000
közti viadalról szól,
15:32
about right and wrongrossz.
361
917000
2000
a helyesről és helytelenről.
15:34
And we caregondoskodás about right and wrongrossz.
362
919000
2000
És mi törődünk ezekkel!
15:36
We caregondoskodás what happensmegtörténik in that operaopera.
363
921000
3000
Számít, hogy mi történik abban az operában!
15:39
We caregondoskodás what happensmegtörténik in "ApocalypseApokalipszis Now."
364
924000
3000
Számít, hogy mi történik az "Apokalipszis most"-ban.
15:42
And we certainlybiztosan caregondoskodás
365
927000
2000
És különösképpen számít, hogy mi történik
15:44
what happensmegtörténik with our technologiestechnológiák.
366
929000
2000
a saját technológiáinkkal!
15:46
We have so much powererő todayMa,
367
931000
2000
Olyan óriási hatalmunk van manapság,
15:48
it is up to us to figureábra out what to do,
368
933000
3000
rajtunk múlik, hogy mit döntünk, mit tegyünk vele!
15:51
and that's the good newshírek.
369
936000
2000
És ez a jó hír.
15:53
We're the onesazok writingírás this operaopera.
370
938000
3000
Mi magunk írjuk az operát!
15:56
This is our moviefilm.
371
941000
2000
Ez a mi filmünk!
15:58
We figureábra out what will happentörténik with this technologytechnológia.
372
943000
3000
Mi találjuk ki, mi történjen ezzel a technológiával!
16:01
We determinemeghatározására how this will all endvég.
373
946000
3000
Mi szabjuk meg, hogy ez az egész hogyan végződjön!
16:04
Thank you.
374
949000
2000
Köszönöm.
16:06
(ApplauseTaps)
375
951000
5000
(Taps)
Translated by Orsolya Szemere
Reviewed by Laszlo Kereszturi

▲Back to top

ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com