ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com
TEDxSiliconValley

Damon Horowitz: We need a "moral operating system"

Damon Horowitz nawołuje do opracowania 'moralnego systemu operacyjnego'

Filmed:
795,617 views

Na konferencji TEDxSiliconValley Damon Horovitz ocenia ogromne możliwości, jakie daje nam technologia: wiemy więcej -- także o sobie -- niż kiedykolwiek wcześniej. Wprowadzając widownię w filozoficzną dyskusję, Horowitz zachęca nas do wglądu w podstawy tej filozofii -- do wglądu w zasady etyczne stojące za eksplozją wynalazczości, która na nowo kreuje nasz świat. Gdzie poszukiwać moralnego systemu operacyjnego, który pozwoli nam to wszystko zrozumieć?
- Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities. Full bio

Double-click the English transcript below to play the video.

00:15
PowerZasilania.
0
0
2000
Władza.
00:17
That is the wordsłowo that comespochodzi to mindumysł.
1
2000
2000
Właśnie to słowo przychodzi na myśl.
00:19
We're the newNowy technologiststechnologów.
2
4000
2000
Jesteśmy nowymi technologami.
00:21
We have a lot of datadane, so we have a lot of powermoc.
3
6000
3000
Mamy mnóstwo danych, więc mamy ogromną władzę.
00:24
How much powermoc do we have?
4
9000
2000
Ile mamy władzy?
00:26
SceneScena from a moviefilm: "ApocalypseApokalipsa Now" -- great moviefilm.
5
11000
3000
Scena z "Czasu Apokalipsy" -- świetny film.
00:29
We'veMamy got to get our herobohater, CaptainKapitan WillardWillard, to the mouthusta of the NungNung RiverRzeka
6
14000
3000
Musimy pomóc dotrzeć naszemu bohaterowi, kapitanowi Willardowi, do ujścia rzeki Nung,
00:32
so he can go pursuekontynuować ColonelPułkownik KurtzKurtz.
7
17000
2000
by mógł ścigać pułkownika Kurtza.
00:34
The way we're going to do this is flylatać him in and dropupuszczać him off.
8
19000
2000
Zrobimy to, transportując go drogą powietrzną i zrzucając.
00:36
So the scenescena:
9
21000
2000
Oto ta scena:
00:38
the skyniebo is filledwypełniony with this fleetfloty of helicoptershelikoptery carryingNiosąc him in.
10
23000
3000
niebo wypełnione flotą helikopterów, które go eskortują.
00:41
And there's this loudgłośny, thrillingporywający musicmuzyka in the backgroundtło,
11
26000
2000
W tle brzmi głośna, przejmująca muzyka,
00:43
this wilddziki musicmuzyka.
12
28000
2000
obłędna muzyka.
00:45
DumDum dada taTa dada dumDum
13
30000
2000
♫ Dum da ta da dum ♫
00:47
DumDum dada taTa dada dumDum
14
32000
2000
♫ Dum da ta da dum ♫
00:49
DaDa taTa dada dada
15
34000
3000
♫ Da ta da da ♫
00:52
That's a lot of powermoc.
16
37000
2000
To się nazywa władza.
00:54
That's the kinduprzejmy of powermoc I feel in this roompokój.
17
39000
2000
Właśnie ten rodzaj władzy czuję w tej sali.
00:56
That's the kinduprzejmy of powermoc we have
18
41000
2000
Posiadamy ją,
00:58
because of all of the datadane that we have.
19
43000
2000
bo mamy wszystkie potrzebne dane.
01:00
Let's take an exampleprzykład.
20
45000
2000
Popatrzmy na przykładzie.
01:02
What can we do
21
47000
2000
Co możemy zrobić
01:04
with just one person'sosoby datadane?
22
49000
3000
z danymi tylko jednej osoby?
01:07
What can we do
23
52000
2000
Co możemy zrobić
01:09
with that guy'sfaceta datadane?
24
54000
2000
z danymi tamtego kolegi?
01:11
I can look at your financialbudżetowy recordsdokumentacja.
25
56000
2000
Mogę przejrzeć twoją dokumentację finansową.
01:13
I can tell if you payzapłacić your billsrachunki on time.
26
58000
2000
Mogę powiedzieć, czy płacisz rachunki na czas.
01:15
I know if you're good to give a loanpożyczyć to.
27
60000
2000
Wiem, czy można dać ci pożyczkę.
01:17
I can look at your medicalmedyczny recordsdokumentacja; I can see if your pumppompa is still pumpingpompowanie --
28
62000
3000
Mogę zajrzeć w twoją kartę pacjenta; sprawdzić, czy twoja pompka wciąż działa --
01:20
see if you're good to offeroferta insuranceubezpieczenie to.
29
65000
3000
i czy nadajesz się, by zaoferować ci ubezpieczenie.
01:23
I can look at your clickingkliknięcie patternswzorce.
30
68000
2000
Mogę przejrzeć historię wyświetlanych przez ciebie witryn.
01:25
When you come to my websitestronie internetowej, I actuallytak właściwie know what you're going to do alreadyjuż
31
70000
3000
Gdy wyświetlasz moją stronę, wiem już, co zamierzasz,
01:28
because I've seenwidziany you visitodwiedzić millionsmiliony of websitesstrony internetowe before.
32
73000
2000
bo widziałem jak odwiedzasz miliony innych stron.
01:30
And I'm sorry to tell you,
33
75000
2000
I przykro mi to mówić,
01:32
you're like a pokerPoker playergracz, you have a tell.
34
77000
2000
ale jesteś jak pokerzysta -- coś cię zdradza.
01:34
I can tell with datadane analysisanaliza what you're going to do
35
79000
2000
Mogę powiedzieć, analizując dane, co masz zamiar zrobić
01:36
before you even do it.
36
81000
2000
jeszcze zanim to zrobisz.
01:38
I know what you like. I know who you are,
37
83000
3000
Wiem, co lubisz. Wiem, kim jesteś.
01:41
and that's even before I look at your mailPoczta
38
86000
2000
I to wszystko jeszcze przed przejrzeniem twojej poczty
01:43
or your phonetelefon.
39
88000
2000
lub komórki.
01:45
Those are the kindsrodzaje of things we can do
40
90000
2000
To są rzeczy, które możemy robić
01:47
with the datadane that we have.
41
92000
3000
za pomocą danych, którymi dysponujemy.
01:50
But I'm not actuallytak właściwie here to talk about what we can do.
42
95000
3000
Ale nie mam zamiaru mówić o tym, co możemy zrobić.
01:56
I'm here to talk about what we should do.
43
101000
3000
Jestem tu, aby mówić o tym, co powinniśmy robić.
02:00
What's the right thing to do?
44
105000
3000
Jak postępować?
02:04
Now I see some puzzledzdziwienie lookswygląda
45
109000
2000
Widzę zdziwione spojrzenia
02:06
like, "Why are you askingpytając us what's the right thing to do?
46
111000
3000
mówiące: "Dlaczego pytasz nas o to, jak postępować właściwie?"
02:09
We're just buildingbudynek this stuffrzeczy. SomebodyKtoś elsejeszcze is usingza pomocą it."
47
114000
3000
My tylko programujemy. Ktoś inny tego używa.
02:12
FairTargi enoughdość.
48
117000
3000
Zgadza się.
02:15
But it bringsprzynosi me back.
49
120000
2000
Ale to prowadzi mnie wstecz.
02:17
I think about WorldŚwiat WarWojny IIII --
50
122000
2000
Do Drugiej Wojny Światowej --
02:19
some of our great technologiststechnologów then,
51
124000
2000
grupa naszych wybitnych naukowców,
02:21
some of our great physicistsfizycy,
52
126000
2000
kilku naszych najlepszych fizyków,
02:23
studyingstudiować nuclearjądrowy fissionRozszczepienie and fusionpołączenie --
53
128000
2000
badała rozszczepienie i syntezę jądrową --
02:25
just nuclearjądrowy stuffrzeczy.
54
130000
2000
ogólnie energię atomową.
02:27
We gatherzbierać togetherRazem these physicistsfizycy in LosLos AlamosAlamos
55
132000
3000
Zebraliśmy tych fizyków w Los Alamos,
02:30
to see what they'lloni to zrobią buildbudować.
56
135000
3000
by zobaczyć, co uda im się zbudować.
02:33
We want the people buildingbudynek the technologytechnologia
57
138000
3000
Chcemy, aby ludzie tworzący technologię
02:36
thinkingmyślący about what we should be doing with the technologytechnologia.
58
141000
3000
myśleli o tym, jak powinniśmy jej używać.
02:41
So what should we be doing with that guy'sfaceta datadane?
59
146000
3000
Więc, co powinniśmy robić z danymi tamtego kolegi?
02:44
Should we be collectingzbieranie it, gatheringzebranie it,
60
149000
3000
Czy powinniśmy je zbierać, gromadzić,
02:47
so we can make his onlineonline experiencedoświadczenie better?
61
152000
2000
żeby poprawić jakość surfowania po Internecie?
02:49
So we can make moneypieniądze?
62
154000
2000
Żeby zarobić pieniądze?
02:51
So we can protectochraniać ourselvesmy sami
63
156000
2000
Żeby się zabezpieczyć,
02:53
if he was up to no good?
64
158000
2000
gdyby on zamierzał coś spsocić?
02:55
Or should we respectPoszanowanie his privacyPrywatność,
65
160000
3000
Czy może powinniśmy uszanować jego prywatność,
02:58
protectochraniać his dignitygodność and leavepozostawiać him alonesam?
66
163000
3000
chronić jego godność i zostawić go w spokoju?
03:02
WhichCo one is it?
67
167000
3000
Co zrobić?
03:05
How should we figurepostać it out?
68
170000
2000
Jak mamy się tego dowiedzieć?
03:07
I know: crowdsourcecrowdsource. Let's crowdsourcecrowdsource this.
69
172000
3000
Ja wiem: spytajmy ludzi. Spytajmy tłumu.
03:11
So to get people warmedocieplane up,
70
176000
3000
Aby was trochę rozgrzać,
03:14
let's startpoczątek with an easyłatwo questionpytanie --
71
179000
2000
zacznijmy od prostego pytania --
03:16
something I'm sure everybodywszyscy here has an opinionopinia about:
72
181000
3000
od czegoś, o czym każda osoba tutaj ma swoją opinię.
03:19
iPhoneiPhone versusprzeciw AndroidAndroid.
73
184000
2000
iPhone kontra Android
03:21
Let's do a showpokazać of handsręce -- iPhoneiPhone.
74
186000
3000
Podnieście ręce -- iPhone
03:24
Uh huh.
75
189000
2000
Aha...
03:26
AndroidAndroid.
76
191000
3000
Android.
03:29
You'dW przypadku think with a bunchwiązka of smartmądry people
77
194000
2000
Pomyślałby ktoś, że w tak łebskim towarzystwie
03:31
we wouldn'tnie be suchtaki suckersfrajerów just for the prettyładny phonestelefony.
78
196000
2000
nie będzie naiwniaków lecących na ładne telefony.
03:33
(LaughterŚmiech)
79
198000
2000
(Śmiech)
03:35
NextNastępny questionpytanie,
80
200000
2000
Następne pytanie,
03:37
a little bitkawałek hardertrudniejsze.
81
202000
2000
trochę trudniejsze.
03:39
Should we be collectingzbieranie all of that guy'sfaceta datadane
82
204000
2000
Czy powinniśmy zbierać wszystkie dane naszego kolegi,
03:41
to make his experienceswzruszenie religijne better
83
206000
2000
żeby poprawić jakość usług, z których korzysta
03:43
and to protectochraniać ourselvesmy sami in casewalizka he's up to no good?
84
208000
3000
i do własnej ochrony, gdyby chciał coś przeskrobać?
03:46
Or should we leavepozostawiać him alonesam?
85
211000
2000
Czy powinniśmy zostawić go w spokoju?
03:48
CollectZebrać his datadane.
86
213000
3000
Zbierać dane.
03:53
LeaveUrlop him alonesam.
87
218000
3000
Pozostawić go w spokoju.
03:56
You're safebezpieczny. It's fine.
88
221000
2000
Jesteś bezpieczny. Możesz odetchnąć.
03:58
(LaughterŚmiech)
89
223000
2000
(Śmiech)
04:00
Okay, last questionpytanie --
90
225000
2000
No dobra, ostatnie pytanie --
04:02
hardertrudniejsze questionpytanie --
91
227000
2000
trudniejsze --
04:04
when tryingpróbować to evaluateoceniać
92
229000
3000
gdy próbujemy ocenić,
04:07
what we should do in this casewalizka,
93
232000
3000
co należy zrobić w tym przypadku,
04:10
should we use a KantianKanta deontologicaldeontologiczny moralmorał frameworkstruktura,
94
235000
4000
powinniśmy użyć deontologicznych norm moralnych Kanta,
04:14
or should we use a MillianMiliard consequentialistkonsekwencjalizmu one?
95
239000
3000
czy konsekwencjalistycznych norm moralnych Milla?
04:19
KantKant.
96
244000
3000
Kto jest za Kantem?
04:22
MillMłyn.
97
247000
3000
Kto za Millem?
04:25
Not as manywiele votesgłosów.
98
250000
2000
Niewiele widzę rąk.
04:27
(LaughterŚmiech)
99
252000
3000
(Śmiech)
04:30
Yeah, that's a terrifyingprzerażający resultwynik.
100
255000
3000
No właśnie, to zastraszający wynik.
04:34
TerrifyingPrzerażające, because we have strongersilniejszy opinionsopinie
101
259000
4000
Zastraszający, bo mamy lepiej wyrobione zdanie
04:38
about our hand-heldręczne devicespomysłowość
102
263000
2000
na temat naszych komórek
04:40
than about the moralmorał frameworkstruktura
103
265000
2000
niż norm moralnych,
04:42
we should use to guideprzewodnik our decisionsdecyzje.
104
267000
2000
jakimi powinniśmy się kierować podejmując decyzje.
04:44
How do we know what to do with all the powermoc we have
105
269000
3000
Skąd mamy wiedzieć, co zrobić z tą całą władzą jaką mamy,
04:47
if we don't have a moralmorał frameworkstruktura?
106
272000
3000
jeśli nie mamy żadnej moralnej podbudowy?
04:50
We know more about mobilemobilny operatingoperacyjny systemssystemy,
107
275000
3000
Wiemy wiele na temat systemów operacyjnych telefonów komórkowych,
04:53
but what we really need is a moralmorał operatingoperacyjny systemsystem.
108
278000
3000
ale tym, czego na prawdę potrzebujemy, jest moralny system operacyjny.
04:58
What's a moralmorał operatingoperacyjny systemsystem?
109
283000
2000
Czym jest moralny system operacyjny?
05:00
We all know right and wrongźle, right?
110
285000
2000
Wszyscy wiemy co jest dobre, a co złe, prawda?
05:02
You feel good when you do something right,
111
287000
2000
Czujesz się dobrze, gdy robisz coś słusznego,
05:04
you feel badzły when you do something wrongźle.
112
289000
2000
czujesz się źle, gdy robisz coś nie tak.
05:06
Our parentsrodzice teachnauczać us that: praisepochwała with the good, scoldScold with the badzły.
113
291000
3000
Nauczyli nas tego rodzice: chwal dobre, gań za złe.
05:09
But how do we figurepostać out what's right and wrongźle?
114
294000
3000
Ale jak odróżnić dobro od zła?
05:12
And from day to day, we have the techniquestechniki that we use.
115
297000
3000
Każdego dnia mamy swoje sposoby.
05:15
Maybe we just followśledzić our gutjelito.
116
300000
3000
Może po prostu podążamy za swoimi przeczuciami.
05:18
Maybe we take a votegłosować -- we crowdsourcecrowdsource.
117
303000
3000
Może głosujemy, pytamy ludzi.
05:21
Or maybe we puntPunt --
118
306000
2000
może zachodzimy po radę --
05:23
askzapytać the legalprawny departmentdepartament, see what they say.
119
308000
3000
wpadnij do naszych prawników, zobaczymy co powiedzą.
05:26
In other wordssłowa, it's kinduprzejmy of randomlosowy,
120
311000
2000
Innymi słowy, dzieje się to dość przypadkowo,
05:28
kinduprzejmy of adogłoszenie hochoc,
121
313000
2000
jakby na poczekaniu
05:30
how we figurepostać out what we should do.
122
315000
3000
dochodzimy do tego, co powinniśmy zrobić.
05:33
And maybe, if we want to be on surersurer footingzasadach,
123
318000
3000
I może, by mieć pewniejszy grunt po nogami,
05:36
what we really want is a moralmorał frameworkstruktura that will help guideprzewodnik us there,
124
321000
3000
potrzebujemy systemu zasad moralnych, który nas poprowadzi,
05:39
that will tell us what kindsrodzaje of things are right and wrongźle in the first placemiejsce,
125
324000
3000
który nam wskaże, co jest dobre a co złe,
05:42
and how would we know in a givendany situationsytuacja what to do.
126
327000
4000
i jak podjąć decyzję w danej sytuacji.
05:46
So let's get a moralmorał frameworkstruktura.
127
331000
2000
Więc zbudujmy ten system moralny.
05:48
We're numbersliczby people, livingżycie by numbersliczby.
128
333000
3000
Jesteśmy ludźmi liczb, żyjemy liczbami.
05:51
How can we use numbersliczby
129
336000
2000
Jak możemy użyć liczb
05:53
as the basispodstawa for a moralmorał frameworkstruktura?
130
338000
3000
jako fundamentów naszego systemu moralnego?
05:56
I know a guy who did exactlydokładnie that.
131
341000
3000
Znam człowieka, który właśnie to zrobił.
05:59
A brilliantznakomity guy --
132
344000
3000
Świetny gość,
06:02
he's been deadnie żyje 2,500 yearslat.
133
347000
3000
nieżyjący już od 2500 lat.
06:05
PlatoPlato, that's right.
134
350000
2000
Platon, zgadza się.
06:07
RememberNależy pamiętać him -- oldstary philosopherfilozof?
135
352000
2000
Pamiętacie go -- tego starego filozofa?
06:09
You were sleepingspanie duringpodczas that classklasa.
136
354000
3000
Przespaliście te zajęcia.
06:12
And PlatoPlato, he had a lot of the samepodobnie concernsobawy that we did.
137
357000
2000
Więc Platon miał wiele takich samych rozterek jak my.
06:14
He was worriedzmartwiony about right and wrongźle.
138
359000
2000
Zastanawiał się nad dobrem i złem.
06:16
He wanted to know what is just.
139
361000
2000
Chciał wiedzieć co jest słuszne.
06:18
But he was worriedzmartwiony that all we seemwydać się to be doing
140
363000
2000
Ale martwił się, że jedynym co robimy,
06:20
is tradinghandlowy opinionsopinie about this.
141
365000
2000
jest wymiana opinii na ten temat.
06:22
He saysmówi something'scoś jest just. She saysmówi something elsejeszcze is just.
142
367000
3000
On mówi, że to jest słuszne. Ona mówi, że tamto jest słuszne.
06:25
It's kinduprzejmy of convincingprzekonujący when he talksrozmowy and when she talksrozmowy too.
143
370000
2000
On jest dosyć przekonujący, ona również.
06:27
I'm just going back and forthnaprzód; I'm not gettinguzyskiwanie anywheregdziekolwiek.
144
372000
2000
Poruszam się w kółko, do niczego nie dochodząc.
06:29
I don't want opinionsopinie; I want knowledgewiedza, umiejętności.
145
374000
3000
Ja nie chcę opinii, ja chcę wiedzy.
06:32
I want to know the truthprawda about justicesprawiedliwość --
146
377000
3000
Ja chcę znać prawdę o sprawiedliwości --
06:35
like we have truthsprawdy in mathmatematyka.
147
380000
3000
tak jak znamy prawdy matematyczne.
06:38
In mathmatematyka, we know the objectivecel factsfakty.
148
383000
3000
W matematyce mamy prawdy obiektywne.
06:41
Take a numbernumer, any numbernumer -- two.
149
386000
2000
Weźmy jakąś cyfrę, dowolną -- niech będzie dwa.
06:43
FavoriteUlubione numbernumer. I love that numbernumer.
150
388000
2000
Moja ulubiona, uwielbiam tę cyfrę.
06:45
There are truthsprawdy about two.
151
390000
2000
Mamy prawdy dotyczące dwójki.
06:47
If you've got two of something,
152
392000
2000
Jeśli masz czegoś dwa
06:49
you addDodaj two more, you get fourcztery.
153
394000
2000
i dodasz do tego kolejne dwa, dostajesz cztery.
06:51
That's trueprawdziwe no mattermateria what thing you're talkingmówić about.
154
396000
2000
To prawda, nieważne o czym mówisz.
06:53
It's an objectivecel truthprawda about the formformularz of two,
155
398000
2000
To obiektywna prawda o naturze dwójki,
06:55
the abstractabstrakcyjny formformularz.
156
400000
2000
jej abstrakcyjnej formie.
06:57
When you have two of anything -- two eyesoczy, two earsuszy, two nosesnosy,
157
402000
2000
Jeśli masz dwie sztuki czegokolwiek -- dwoje oczu, uszu, dwa nosy,
06:59
just two protrusionswystępy --
158
404000
2000
jakieś dwie wypustki --
07:01
those all partakewziąć udział of the formformularz of two.
159
406000
3000
one wszystkie przynależą do cechy dwójki.
07:04
They all participateuczestniczyć in the truthsprawdy that two has.
160
409000
4000
One wszystkie zawierają się w grupie prawd o dwójce.
07:08
They all have two-nessdwa ness in them.
161
413000
2000
One wszystkie mają w sobie "dwójkowość".
07:10
And thereforew związku z tym, it's not a mattermateria of opinionopinia.
162
415000
3000
Zatem, to nie kwestia opinii.
07:13
What if, PlatoPlato thought,
163
418000
2000
Co, jeśli Platon uważał,
07:15
ethicsEtyka was like mathmatematyka?
164
420000
2000
że etyka jest jak matematyka?
07:17
What if there were a pureczysty formformularz of justicesprawiedliwość?
165
422000
3000
Co by było, gdyby istniała czysta forma sprawiedliwości?
07:20
What if there are truthsprawdy about justicesprawiedliwość,
166
425000
2000
Co, jeśli istnieją prawdy o sprawiedliwości,
07:22
and you could just look around in this worldświat
167
427000
2000
i moglibyśmy rozejrzeć się po świecie
07:24
and see whichktóry things participateduczestniczył,
168
429000
2000
i dostrzec, co należy
07:26
partookbrali udział of that formformularz of justicesprawiedliwość?
169
431000
3000
i co zawiera się w pojęciu sprawiedliwości?
07:29
Then you would know what was really just and what wasn'tnie było.
170
434000
3000
Wtedy wiedzielibyśmy, co jest właściwe, a co nie.
07:32
It wouldn'tnie be a mattermateria
171
437000
2000
Nie byłaby to kwestia
07:34
of just opinionopinia or just appearancesWyglądy.
172
439000
3000
opinii czy wyglądu.
07:37
That's a stunningoszałamiający visionwizja.
173
442000
2000
To oszałamiająca wizja.
07:39
I mean, think about that. How grandwielki. How ambitiousambitny.
174
444000
3000
Pomyślcie, jaka jest imponująca, jaka ambitna.
07:42
That's as ambitiousambitny as we are.
175
447000
2000
Tak ambitna jak my.
07:44
He wants to solverozwiązać ethicsEtyka.
176
449000
2000
On chce uporać się z etyką.
07:46
He wants objectivecel truthsprawdy.
177
451000
2000
On chce prawd obiektywnych.
07:48
If you think that way,
178
453000
3000
Jeśli myślisz w ten sposób,
07:51
you have a PlatonistPlatońskim moralmorał frameworkstruktura.
179
456000
3000
to stosujesz Platońskie normy moralne.
07:54
If you don't think that way,
180
459000
2000
Jeśli tak nie myślisz,
07:56
well, you have a lot of companyfirma in the historyhistoria of WesternWestern philosophyfilozofia,
181
461000
2000
znajdziesz sporo pokrewnych dusz w historii zachodniej filozofii,
07:58
because the tidyTidy ideapomysł, you know, people criticizedkrytykowane it.
182
463000
3000
bo mało komu przypadło do gustu tak rygorystyczne podejście.
08:01
AristotleArystoteles, in particularszczególny, he was not amusedrozbawiony.
183
466000
3000
Zwłaszcza Arystoteles nie był tym zachwycony.
08:04
He thought it was impracticalniepraktyczny.
184
469000
3000
Uważał to za niepraktyczne.
08:07
AristotleArystoteles said, "We should seekszukać only so much precisionprecyzja in eachkażdy subjectPrzedmiot
185
472000
4000
Powiedział: "Każdy obiekt studiujmy tak dokładnie
08:11
as that subjectPrzedmiot allowspozwala."
186
476000
2000
na ile ten obiekt pozwala".
08:13
AristotleArystoteles thought ethicsEtyka wasn'tnie było a lot like mathmatematyka.
187
478000
3000
Arystoteles uważał, że etyka nie przypomina w ogóle matematyki.
08:16
He thought ethicsEtyka was a mattermateria of makingzrobienie decisionsdecyzje in the here-and-nowtu i teraz
188
481000
3000
Uważał, że etyka to kwestia podejmowania decyzji tu i teraz,
08:19
usingza pomocą our bestNajlepiej judgmentosąd
189
484000
2000
przy użyciu własnej wiedzy najlepiej jak się umie,
08:21
to find the right pathścieżka.
190
486000
2000
by odnaleźć właściwą ścieżkę.
08:23
If you think that, Plato'sPlatona not your guy.
191
488000
2000
Jeśli tak sądzisz, Platon to nie twój typ.
08:25
But don't give up.
192
490000
2000
Ale nie poddawaj się.
08:27
Maybe there's anotherinne way
193
492000
2000
Może jest jeszcze inny sposób
08:29
that we can use numbersliczby as the basispodstawa of our moralmorał frameworkstruktura.
194
494000
3000
wykorzystania cyfr jako podstawy naszego systemu moralnego.
08:33
How about this:
195
498000
2000
A gdyby tak:
08:35
What if in any situationsytuacja you could just calculateobliczać,
196
500000
3000
Co, jeśli w każdej sytuacji moglibyśmy obliczyć,
08:38
look at the choiceswybory,
197
503000
2000
porównać wybory,
08:40
measurezmierzyć out whichktóry one'sswoje better and know what to do?
198
505000
3000
wyliczyć, które są lepsze i wiedzieć, co czynić?
08:43
That sounddźwięk familiarznajomy?
199
508000
2000
Brzmi znajomo?
08:45
That's a utilitarianużytkowe moralmorał frameworkstruktura.
200
510000
3000
To podejście utylitarne.
08:48
JohnJohn StuartStuart MillMłyn was a great advocaterzecznik of this --
201
513000
2000
John Stuart Mill był zdecydowanym zwolennikiem tego kierunku --
08:50
nicemiły guy besidesoprócz --
202
515000
2000
a przy okazji fajnym gościem --
08:52
and only been deadnie żyje 200 yearslat.
203
517000
2000
no i nie żyje dopiero 200 lat.
08:54
So basispodstawa of utilitarianismUtylitaryzm --
204
519000
2000
Podstawy utylitaryzmu --
08:56
I'm sure you're familiarznajomy at leastnajmniej.
205
521000
2000
jestem pewien, że chociaż trochę o tym wiecie.
08:58
The threetrzy people who votedgłosowało for MillMłyn before are familiarznajomy with this.
206
523000
2000
Te trzy osoby, które wcześniej głosowały za Millem, na pewno wiedzą.
09:00
But here'soto jest the way it worksPrace.
207
525000
2000
Więc spójrzmy, jak to działa.
09:02
What if moralsmoralność, what if what makesczyni something moralmorał
208
527000
3000
Jeśli moralność lub coś, co czyni rzecz moralną
09:05
is just a mattermateria of if it maximizesmaksymalizuje pleasureprzyjemność
209
530000
2000
polegałoby na maksymalizacji przyjemności
09:07
and minimizesminimalizuje painból?
210
532000
2000
i minimalizacji bólu?
09:09
It does something intrinsicwewnętrzne to the actdziałać.
211
534000
3000
Jest to nieodłącznym elementem działania.
09:12
It's not like its relationRelacja to some abstractabstrakcyjny formformularz.
212
537000
2000
Nie odnosi się wyłącznie do jakiejś abstrakcyjnej formy.
09:14
It's just a mattermateria of the consequenceskonsekwencje.
213
539000
2000
To tylko kwestia konsekwencji.
09:16
You just look at the consequenceskonsekwencje
214
541000
2000
Patrzysz na konsekwencje
09:18
and see if, overallogólnie, it's for the good or for the worsegorzej.
215
543000
2000
i widzisz, ogólnie, czy są dobre czy złe.
09:20
That would be simpleprosty. Then we know what to do.
216
545000
2000
To by było proste. Wtedy wiedzielibyśmy, jak postępować.
09:22
Let's take an exampleprzykład.
217
547000
2000
Weźmy przykład.
09:24
SupposeZałóżmy, że I go up
218
549000
2000
Przypuśćmy, że podchodzę
09:26
and I say, "I'm going to take your phonetelefon."
219
551000
2000
mówiąc: "Zabieram twój telefon".
09:28
Not just because it rangRang earlierwcześniej,
220
553000
2000
Nie dlatego, że wcześniej zadzwonił,
09:30
but I'm going to take it because I madezrobiony a little calculationobliczenie.
221
555000
3000
ale dlatego, bo dokonałem małej kalkulacji.
09:33
I thought, that guy lookswygląda suspiciouspodejrzany.
222
558000
3000
Pomyślałem, że tamten kolega wygląda podejrzanie.
09:36
And what if he's been sendingwysyłanie little messageswiadomości to BinBin Laden'sŁadunkiem 's hideoutkryjówka --
223
561000
3000
A co jeśli on wysyła wiadomości do kryjówki Bin Ladena
09:39
or whoeverktokolwiek tookwziął over after BinBin LadenŁadunkiem --
224
564000
2000
albo jego następcy
09:41
and he's actuallytak właściwie like a terroristterrorysta, a sleeperpodkładów cellkomórka.
225
566000
3000
-- jest kimś w stylu terrorysty, tajna komórka.
09:44
I'm going to find that out, and when I find that out,
226
569000
3000
Dowiem się tego i gdy będę już wiedział,
09:47
I'm going to preventzapobiec a hugeolbrzymi amountilość of damageuszkodzić that he could causeprzyczyna.
227
572000
3000
zapobiegnę ogromnym szkodom, jakie on mógł wyrządzić.
09:50
That has a very highwysoki utilityużyteczność to preventzapobiec that damageuszkodzić.
228
575000
3000
Ten czyn jest niesłychanie użyteczny w powstrzymaniu tych szkód.
09:53
And comparedporównywane to the little painból that it's going to causeprzyczyna --
229
578000
2000
I w porównaniu do jego małej szkodliwości --
09:55
because it's going to be embarrassingżenujące when I'm looking on his phonetelefon
230
580000
2000
bo sytuacja może być krępująca, gdy okaże się,
09:57
and seeingwidzenie that he has a FarmvilleFarmville problemproblem and that wholecały bitkawałek --
231
582000
3000
że on tylko ma problemy w Farmville i nic poza tym --
10:00
that's overwhelmedprzytłoczony
232
585000
3000
skrępowanie to ustępuje
10:03
by the valuewartość of looking at the phonetelefon.
233
588000
2000
samemu faktowi patrzenia na telefon.
10:05
If you feel that way,
234
590000
2000
Jeśli tak właśnie myślisz,
10:07
that's a utilitarianużytkowe choicewybór.
235
592000
3000
to jest to wybór utylitarny.
10:10
But maybe you don't feel that way eitherzarówno.
236
595000
3000
Ale może nie widzisz tego w ten sposób.
10:13
Maybe you think, it's his phonetelefon.
237
598000
2000
Może myślisz, że to jego telefon,
10:15
It's wrongźle to take his phonetelefon
238
600000
2000
że to niewłaściwe, by mu go odbierać,
10:17
because he's a personosoba
239
602000
2000
ponieważ on jest niezależną osobą,
10:19
and he has rightsprawa and he has dignitygodność,
240
604000
2000
a więc posiada swoje prawa i godność osobistą
10:21
and we can't just interferekolidować with that.
241
606000
2000
i nie możemy w to ingerować.
10:23
He has autonomyautonomii.
242
608000
2000
On ma niezależność.
10:25
It doesn't mattermateria what the calculationsobliczenia are.
243
610000
2000
Wszystko jedno, jaki jest wynik kalkulacji.
10:27
There are things that are intrinsicallywewnętrznie wrongźle --
244
612000
3000
Istnieją rzeczy, które są wewnętrznie złe --
10:30
like lyingkłamstwo is wrongźle,
245
615000
2000
jak kłamstwo,
10:32
like torturingtorturowanie innocentniewinny childrendzieci is wrongźle.
246
617000
3000
jak torturowanie dzieci.
10:35
KantKant was very good on this pointpunkt,
247
620000
3000
Kant miał tu istotnie rację
10:38
and he said it a little better than I'll say it.
248
623000
2000
i powiedział to nieco lepiej niż ja to zrobię.
10:40
He said we should use our reasonpowód
249
625000
2000
Kant powiedział, że powinniśmy używać naszego rozumu,
10:42
to figurepostać out the ruleszasady by whichktóry we should guideprzewodnik our conductpostępowania,
250
627000
3000
by odkryć zasady, którymi powinniśmy się kierować.
10:45
and then it is our dutyobowiązek to followśledzić those ruleszasady.
251
630000
3000
Naszym obowiązkiem jest kierować się tymi zasadami.
10:48
It's not a mattermateria of calculationobliczenie.
252
633000
3000
Rzecz nie polega na kalkulacji.
10:51
So let's stop.
253
636000
2000
Zatrzymajmy się tu.
10:53
We're right in the thickgruby of it, this philosophicalfilozoficzny thicketgąszcz.
254
638000
3000
Jesteśmy w samym środku tych rozważań, w filozoficznym gąszczu.
10:56
And this goesidzie on for thousandstysiące of yearslat,
255
641000
3000
To trwa od tysięcy lat,
10:59
because these are hardciężko questionspytania,
256
644000
2000
ponieważ to są trudne pytania,
11:01
and I've only got 15 minutesminuty.
257
646000
2000
a ja mam tylko 15 minut.
11:03
So let's cutciąć to the chaseChase.
258
648000
2000
Więc do rzeczy.
11:05
How should we be makingzrobienie our decisionsdecyzje?
259
650000
4000
Jak powinniśmy podejmować nasze decyzje?
11:09
Is it PlatoPlato, is it AristotleArystoteles, is it KantKant, is it MillMłyn?
260
654000
3000
Czy za Platonem, Arystotelesem, Kantem czy za Millem?
11:12
What should we be doing? What's the answerodpowiedź?
261
657000
2000
Co powinniśmy robić? Jaka jest odpowiedź?
11:14
What's the formulaformuła that we can use in any situationsytuacja
262
659000
3000
Jak brzmi formuła, której możemy użyć w każdej sytuacji,
11:17
to determineustalać what we should do,
263
662000
2000
by rozstrzygnąć co powinniśmy zrobić,
11:19
whetherczy we should use that guy'sfaceta datadane or not?
264
664000
2000
czy użyć danych naszego kolegi czy nie?
11:21
What's the formulaformuła?
265
666000
3000
Jaka jest ta formuła?
11:25
There's not a formulaformuła.
266
670000
2000
Nie mamy żadnej.
11:29
There's not a simpleprosty answerodpowiedź.
267
674000
2000
Nie ma prostej odpowiedzi.
11:31
EthicsEtyka is hardciężko.
268
676000
3000
Etyka jest trudna.
11:34
EthicsEtyka requireswymaga thinkingmyślący.
269
679000
3000
Etyka wymaga myślenia.
11:38
And that's uncomfortableniewygodny.
270
683000
2000
A to jest niewygodne.
11:40
I know; I spentwydany a lot of my careerkariera
271
685000
2000
Wiem, znaczną cześć kariery spędziłem
11:42
in artificialsztuczny intelligenceinteligencja,
272
687000
2000
pracując nad sztuczną inteligencją,
11:44
tryingpróbować to buildbudować machinesmaszyny that could do some of this thinkingmyślący for us,
273
689000
3000
budując maszyny, które potrafiłyby wyręczyć nas w myśleniu
11:47
that could give us answersodpowiedzi.
274
692000
2000
i które dałyby nam odpowiedzi.
11:49
But they can't.
275
694000
2000
Ale one nie potrafią.
11:51
You can't just take humanczłowiek thinkingmyślący
276
696000
2000
Nie można po prostu wziąć ludzkiego myślenia
11:53
and put it into a machinemaszyna.
277
698000
2000
i włożyć do maszyny.
11:55
We're the oneste who have to do it.
278
700000
3000
My sami musimy to zrobić.
11:58
HappilySzczęśliwie, we're not machinesmaszyny, and we can do it.
279
703000
3000
Na szczęście nie jesteśmy maszynami i potrafimy to.
12:01
Not only can we think,
280
706000
2000
Nie tylko możemy myśleć,
12:03
we mustmusi.
281
708000
2000
ale i musimy.
12:05
HannahHannah ArendtArendt said,
282
710000
2000
Hannah Arendt powiedziała:
12:07
"The sadsmutny truthprawda
283
712000
2000
"Smutną prawdą jest,
12:09
is that mostwiększość evilzło doneGotowe in this worldświat
284
714000
2000
że większość zła tego świata
12:11
is not doneGotowe by people
285
716000
2000
nie dzieje się za sprawą ludzi,
12:13
who choosewybierać to be evilzło.
286
718000
2000
którzy wybierają zło.
12:15
It arisespowstaje from not thinkingmyślący."
287
720000
3000
Zło bierze się z braku myślenia".
12:18
That's what she callednazywa the "banalitybanał of evilzło."
288
723000
4000
Nazwała to "banalnością zła".
12:22
And the responseodpowiedź to that
289
727000
2000
I odpowiedzią na to
12:24
is that we demandżądanie the exercisećwiczenie of thinkingmyślący
290
729000
2000
jest to, że oczekujemy myślenia
12:26
from everykażdy saneprzy zdrowych zmysłach personosoba.
291
731000
3000
od każdej rozumnej osoby.
12:29
So let's do that. Let's think.
292
734000
2000
Więc zróbmy tak. Myślmy.
12:31
In factfakt, let's startpoczątek right now.
293
736000
3000
A właściwie zacznijmy od razu.
12:34
EveryKażdy personosoba in this roompokój do this:
294
739000
3000
Niech każdy w tym pomieszczeniu
12:37
think of the last time you had a decisiondecyzja to make
295
742000
3000
pomyśli, kiedy ostatnio musiał podjąć decyzję
12:40
where you were worriedzmartwiony to do the right thing,
296
745000
2000
i niepokoił się, by podjąć ją właściwie,
12:42
where you wonderedzastanawiałem się, "What should I be doing?"
297
747000
2000
zastanawiał się: "Co powinienem zrobić"?
12:44
BringPrzynieść that to mindumysł,
298
749000
2000
Przypomnijcie to sobie.
12:46
and now reflectodzwierciedlić on that
299
751000
2000
A teraz pomyślcie o tym
12:48
and say, "How did I come up that decisiondecyzja?
300
753000
3000
i odpowiedzcie sobie: "Jak dokonałem tej decyzji?
12:51
What did I do? Did I followśledzić my gutjelito?
301
756000
3000
Jak to zrobiłem? Czy posłuchałem intuicji?
12:54
Did I have somebodyktoś votegłosować on it? Or did I puntPunt to legalprawny?"
302
759000
2000
Czy posłuchałem czyjejś rady? Zapukałem do prawnika?"
12:56
Or now we have a fewkilka more choiceswybory.
303
761000
3000
Teraz mamy więcej wyborów.
12:59
"Did I evaluateoceniać what would be the highestnajwyższy pleasureprzyjemność
304
764000
2000
"Czy oszacowałem, co przyniesie największą korzyść,
13:01
like MillMłyn would?
305
766000
2000
jak Mill by to zrobił?
13:03
Or like KantKant, did I use reasonpowód to figurepostać out what was intrinsicallywewnętrznie right?"
306
768000
3000
Czy jak Kant, użyłem rozumu, by wybrać rzecz immanentnie słuszną"?
13:06
Think about it. Really bringprzynieść it to mindumysł. This is importantważny.
307
771000
3000
Pomyślcie o tym. Wyobraźcie to sobie ponownie. To istotne.
13:09
It is so importantważny
308
774000
2000
To tak ważne,
13:11
we are going to spendwydać 30 secondstowary drugiej jakości of valuablecenny TEDTalkNagrań time
309
776000
2000
że spędzimy 30 sekund cennego czasu TEDTalk
13:13
doing nothing but thinkingmyślący about this.
310
778000
2000
na myślenie o tym.
13:15
Are you readygotowy? Go.
311
780000
2000
Gotowi? Start.
13:33
Stop. Good work.
312
798000
3000
Stop. Dobra robota.
13:36
What you just did,
313
801000
2000
To, co właśnie zrobiliście,
13:38
that's the first stepkrok towardsw kierunku takingnabierający responsibilityodpowiedzialność
314
803000
2000
to pierwszy krok ku wzięciu odpowiedzialności
13:40
for what we should do with all of our powermoc.
315
805000
3000
za to, co powinniśmy uczynić z naszą władzą.
13:45
Now the nextNastępny stepkrok -- try this.
316
810000
3000
Teraz kolejny krok -- spróbujcie tego.
13:49
Go find a friendprzyjaciel and explainwyjaśniać to them
317
814000
2000
Znajdźcie kogoś i wytłumaczcie mu
13:51
how you madezrobiony that decisiondecyzja.
318
816000
2000
jak podjęliście tę decyzję.
13:53
Not right now. Wait tilldo I finishkoniec talkingmówić.
319
818000
2000
Nie teraz. Poczekajcie, aż skończę mówić.
13:55
Do it over lunchlunch.
320
820000
2000
Zróbcie to w czasie lunchu.
13:57
And don't just find anotherinne technologisttechnolog friendprzyjaciel;
321
822000
3000
Nie chodzi mi o kolejnego specjalistę;
14:00
find somebodyktoś differentróżne than you.
322
825000
2000
poszukajcie kogoś zupełnie innego.
14:02
Find an artistartysta or a writerpisarz --
323
827000
2000
Kogoś jak artysta lub pisarz --
14:04
or, heavenniebo forbidzakazać, find a philosopherfilozof and talk to them.
324
829000
3000
albo, uchowaj Boże, znajdźcie filozofa i porozmawiajcie z nim.
14:07
In factfakt, find somebodyktoś from the humanitieshumanistyka.
325
832000
2000
Właściwie, to znajdźcie humanistę.
14:09
Why? Because they think about problemsproblemy
326
834000
2000
Dlaczego? Bo oni rozważają problemy
14:11
differentlyróżnie than we do as technologiststechnologów.
327
836000
2000
inaczej niż my, technologowie.
14:13
Just a fewkilka daysdni agotemu, right acrossprzez the streetulica from here,
328
838000
3000
Kilka dni temu, dokładnie po drugiej stronie ulicy stąd,
14:16
there was hundredssetki of people gatheredZebrane togetherRazem.
329
841000
2000
zgromadziły się setki ludzi.
14:18
It was technologiststechnologów and humanistshumanistów
330
843000
2000
Technologowie i humaniści
14:20
at that bigduży BiblioTechBiblioTech ConferenceKonferencja.
331
845000
2000
zjechali na konferencję BiblioTech.
14:22
And they gatheredZebrane togetherRazem
332
847000
2000
Zebrali się,
14:24
because the technologiststechnologów wanted to learnuczyć się
333
849000
2000
bo technologowie chcieli się dowiedzieć,
14:26
what it would be like to think from a humanitieshumanistyka perspectiveperspektywiczny.
334
851000
3000
jak to jest myśleć z perspektywy humanisty.
14:29
You have someonektoś from GoogleGoogle
335
854000
2000
Masz pracownika Google
14:31
talkingmówić to someonektoś who does comparativeporównawcze literatureliteratura.
336
856000
2000
rozmawiającego z osobą zajmującą się literaturą porównawczą.
14:33
You're thinkingmyślący about the relevancestosowność of 17thth centurystulecie FrenchFrancuski theaterteatr --
337
858000
3000
Rozprawiasz o znaczeniu XVII-wiecznego teatru francuskiego
14:36
how does that bearNiedźwiedź uponna ventureprzedsięwzięcie capitalkapitał?
338
861000
2000
i jego wpływie na venture capital.
14:38
Well that's interestingciekawy. That's a differentróżne way of thinkingmyślący.
339
863000
3000
To interesujące. To inny sposób myślenia.
14:41
And when you think in that way,
340
866000
2000
I jeśli zaczniesz myśleć w ten sposób,
14:43
you becomestają się more sensitivewrażliwy to the humanczłowiek considerationszagadnienia dotyczące,
341
868000
3000
stajesz się bardziej czuły na ludzkie rozterki,
14:46
whichktóry are crucialistotny to makingzrobienie ethicaletyczny decisionsdecyzje.
342
871000
3000
które są kluczowe w podejmowaniu etycznych decyzji.
14:49
So imaginewyobrażać sobie that right now
343
874000
2000
Wyobraźcie sobie teraz,
14:51
you wentposzedł and you founduznany your musicianmuzyk friendprzyjaciel.
344
876000
2000
że znaleźliście muzyka.
14:53
And you're tellingwymowny him what we're talkingmówić about,
345
878000
3000
I opowiadacie mu, o czym teraz mówimy,
14:56
about our wholecały datadane revolutionrewolucja and all this --
346
881000
2000
o rewolucji danych i o całej reszcie,
14:58
maybe even humHum a fewkilka barsbary of our thememotyw musicmuzyka.
347
883000
2000
może nucąc kilka nut naszego muzycznego motywu.
15:00
DumDum taTa dada dada dumDum dumDum taTa dada dada dumDum
348
885000
3000
♫ Dum ta da da dum dum ta da da dum ♫
15:03
Well, your musicianmuzyk friendprzyjaciel will stop you and say,
349
888000
2000
Wtedy muzyk przerwie ci, mówiąc:
15:05
"You know, the thememotyw musicmuzyka
350
890000
2000
"Wiesz, ta melodia
15:07
for your datadane revolutionrewolucja,
351
892000
2000
ilustrująca rewolucję danych
15:09
that's an operaopera, that's WagnerWagner.
352
894000
2000
pochodzi z opery Wagnera
15:11
It's basedna podstawie on NorseNordyckiej legendlegenda.
353
896000
2000
opartej na nordyckiej legendzie.
15:13
It's GodsBogowie and mythicalmityczne creaturesstworzenia
354
898000
2000
Chodzi tam o bogów i mityczne stworzenia,
15:15
fightingwalczący over magicalmagiczny jewelrybiżuteria."
355
900000
3000
które walczą o skarby o magicznych właściwościach".
15:19
That's interestingciekawy.
356
904000
3000
To interesujące.
15:22
Now it's alsorównież a beautifulpiękny operaopera,
357
907000
3000
To piękna opera.
15:25
and we're movedprzeniósł by that operaopera.
358
910000
3000
I jesteśmy nią poruszeni.
15:28
We're movedprzeniósł because it's about the battlebitwa
359
913000
2000
Jesteśmy poruszeni, bo to historia walki
15:30
betweenpomiędzy good and evilzło,
360
915000
2000
dobra ze złem,
15:32
about right and wrongźle.
361
917000
2000
słusznego z niewłaściwym.
15:34
And we careopieka about right and wrongźle.
362
919000
2000
A nam zależy na tym rozróżnieniu.
15:36
We careopieka what happensdzieje się in that operaopera.
363
921000
3000
Przejmujemy się tym, co się dzieje w tej operze.
15:39
We careopieka what happensdzieje się in "ApocalypseApokalipsa Now."
364
924000
3000
I tym, co się dzieje w "Czasie Apokalipsy".
15:42
And we certainlyna pewno careopieka
365
927000
2000
A już na pewno przejmujemy się tym,
15:44
what happensdzieje się with our technologiestechnologie.
366
929000
2000
co się dzieje z naszymi technologiami.
15:46
We have so much powermoc todaydzisiaj,
367
931000
2000
Dziś mamy tak wiele władzy,
15:48
it is up to us to figurepostać out what to do,
368
933000
3000
że tylko od nas zależy, co z nią uczynimy.
15:51
and that's the good newsAktualności.
369
936000
2000
To właśnie dobra wiadomość.
15:53
We're the oneste writingpisanie this operaopera.
370
938000
3000
My komponujemy tę operę.
15:56
This is our moviefilm.
371
941000
2000
To jest nasz film.
15:58
We figurepostać out what will happenzdarzyć with this technologytechnologia.
372
943000
3000
My decydujemy, co się dalej stanie z tą technologią.
16:01
We determineustalać how this will all endkoniec.
373
946000
3000
Od nas zależy, jak się to wszystko zakończy.
16:04
Thank you.
374
949000
2000
Dziękuję.
16:06
(ApplauseAplauz)
375
951000
5000
(Brawa)
Translated by Maciej Koczur
Reviewed by Anna Wladyka

▲Back to top

ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com