ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com
TEDxSiliconValley

Damon Horowitz: We need a "moral operating system"

Damon Horowitz bir "ahlaki işletim sistemi" çağrısı yapıyor

Filmed:
795,617 views

TEDxSiliconValley’de, Damon Horowitz teknolojinin bize verdiği müthiş yeni gücü değerlendiriyor: eskisinden çok daha fazlasını -- birbirimiz hakkında da -- bilmek. Dinleyicileri felsefi bir tartışmaya çekerek Horowitz, bizleri dikkatimizi dünyamızı yeniden yapılandıran buluş patlamasının ardındaki temel felsefeye -- etik prensiplere -- yöneltmeye davet ediyor.
- Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities. Full bio

Double-click the English transcript below to play the video.

00:15
PowerGüç.
0
0
2000
Güç
00:17
That is the wordsözcük that comesgeliyor to mindus.
1
2000
2000
Akla gelen kelime bu.
00:19
We're the newyeni technologiststeknoloji.
2
4000
2000
Biz yeni teknoloji uzmanlarıyız.
00:21
We have a lot of dataveri, so we have a lot of powergüç.
3
6000
3000
Çok fazla verimiz var, bu yüzden de çok fazla güce sahibiz.
00:24
How much powergüç do we have?
4
9000
2000
Peki, ne kadar gücümüz var?
00:26
SceneSahne from a moviefilm: "ApocalypseKıyamet Now" -- great moviefilm.
5
11000
3000
Bir filmden sahne, "Apocalypse Now (Kıyamet)" -- harika bir film.
00:29
We'veBiz ettik got to get our herokahraman, CaptainKaptan WillardWillard, to the mouthağız of the NungNung RiverNehir
6
14000
3000
Kahramanımızı yani Kaptan Willard'ı Nung Nehri'nin ağzına götürmemiz gerek
00:32
so he can go pursuesürdürmek ColonelAlbay KurtzKurtz.
7
17000
2000
o da böylece Albay Kurtz'u takip edebilecek.
00:34
The way we're going to do this is flyuçmak him in and dropdüşürmek him off.
8
19000
2000
Bunu yapmak için de, onu oraya uçurup iniş yaptıracağız.
00:36
So the scenefaliyet alani, sahne:
9
21000
2000
Ve sahne:
00:38
the skygökyüzü is filleddolu with this fleetFilo of helicoptersHelikopterler carryingtaşıma him in.
10
23000
3000
gökyüzü onu oraya taşıyan helikopter filosuyla doludur.
00:41
And there's this loudyüksek sesle, thrillingheyecan verici musicmüzik in the backgroundarka fon,
11
26000
2000
Ve arkada şu yüksek sesli, heyecanlı müzik çalar.
00:43
this wildvahşi musicmüzik.
12
28000
2000
Şu çılgınca parça.
00:45
DumDum dada tata dada dumdum
13
30000
2000
♫ Dum da ta da dum ♫
00:47
DumDum dada tata dada dumdum
14
32000
2000
♫ Dum da ta da dum ♫
00:49
DaDa tata dada dada
15
34000
3000
♫ Da ta da da ♫
00:52
That's a lot of powergüç.
16
37000
2000
İşte bu büyük bir güç.
00:54
That's the kindtür of powergüç I feel in this roomoda.
17
39000
2000
Benim bu salonda hissettiğim türden güç.
00:56
That's the kindtür of powergüç we have
18
41000
2000
Bu, elimizdeki tüm o veriler sayesinde
00:58
because of all of the dataveri that we have.
19
43000
2000
bizde olan türden bir güç.
01:00
Let's take an exampleörnek.
20
45000
2000
Bir örnek ele alalım.
01:02
What can we do
21
47000
2000
Sadece bir kişinin verileriyle
01:04
with just one person'skişiler dataveri?
22
49000
3000
ne yapabiliriz?
01:07
What can we do
23
52000
2000
Mesela şuradaki adamın
01:09
with that guy'sadam dataveri?
24
54000
2000
verileriyle ne yapabiliriz?
01:11
I can look at your financialmali recordskayıtlar.
25
56000
2000
Finansal kayıtlarına bakabilirim.
01:13
I can tell if you payödeme your billsfatura on time.
26
58000
2000
Faturalarını zamanında ödeyip ödemediğini söyleyebilirim.
01:15
I know if you're good to give a loanborç to.
27
60000
2000
Borç vermeye uygun olup olmadığını öğrenebilirim.
01:17
I can look at your medicaltıbbi recordskayıtlar; I can see if your pumppompa is still pumpingpompalama --
28
62000
3000
Tıbbi kayıtlarına bakıp, kalbinin sağlam olup olmadığını görebilir --
01:20
see if you're good to offerteklif insurancesigorta to.
29
65000
3000
böylece sigorta teklif etmeye uygun mu görebilirim.
01:23
I can look at your clickingtıklatma patternsdesenler.
30
68000
2000
İnternet eğilimlerine bakabilirim.
01:25
When you come to my websiteWeb sitesi, I actuallyaslında know what you're going to do alreadyzaten
31
70000
3000
İnternet sayfama geldiğinde, aslında ne yapacağını önceden biliyorum.
01:28
because I've seengörüldü you visitziyaret etmek millionsmilyonlarca of websitesweb siteleri before.
32
73000
2000
çünkü milyonlarca internet sayfasını ziyaret edişini gördüm
01:30
And I'm sorry to tell you,
33
75000
2000
Ve üzgünüm ama,
01:32
you're like a pokerPoker playeroyuncu, you have a tell.
34
77000
2000
tıpkı bir poker oyuncusu gibisin, bunu söylemek zorundayım.
01:34
I can tell with dataveri analysisanaliz what you're going to do
35
79000
2000
Veri analizleri ile ne yapacağını sana
01:36
before you even do it.
36
81000
2000
sen daha yapmadan söyleyebilirim.
01:38
I know what you like. I know who you are,
37
83000
3000
Nelerden hoşlandığını, kim olduğunu biliyorum.
01:41
and that's even before I look at your mailposta
38
86000
2000
Hem de daha e-postana bakmadan önce bile
01:43
or your phonetelefon.
39
88000
2000
ya da telefonuna.
01:45
Those are the kindsçeşit of things we can do
40
90000
2000
İşte bunlar elimizdeki verilerle
01:47
with the dataveri that we have.
41
92000
3000
yapabileceğimiz türden şeyler.
01:50
But I'm not actuallyaslında here to talk about what we can do.
42
95000
3000
Ama aslında neler yapabileceğimiz hakkında konuşmak için burada değilim.
01:56
I'm here to talk about what we should do.
43
101000
3000
Neler yapmamız gerektiği hakkında konuşmak için buradayım.
02:00
What's the right thing to do?
44
105000
3000
Yapılacak doğru şey ne?
02:04
Now I see some puzzledşaşkın looksgörünüyor
45
109000
2000
Şaşkın bakışlar görüyorum
02:06
like, "Why are you askingsormak us what's the right thing to do?
46
111000
3000
sanki, "Bize doğru olanın ne olduğunu neden soruyorsun?
02:09
We're just buildingbina this stuffşey. SomebodyBiri elsebaşka is usingkullanma it."
47
114000
3000
Bu zımbırtıyı biz sadece geliştiriyoruz. Onu başkaları kullanıyor.” dercesine
02:12
FairAdil enoughyeterli.
48
117000
3000
Peki, öyle olsun.
02:15
But it bringsgetiriyor me back.
49
120000
2000
Ama bu beni geçmişe götürüyor.
02:17
I think about WorldDünya WarSavaş IIII --
50
122000
2000
II. Dünya Savaşını düşünüyorum da --
02:19
some of our great technologiststeknoloji then,
51
124000
2000
büyük teknoloji uzmanlarımızın bazıları,
02:21
some of our great physicistsfizikçiler,
52
126000
2000
büyük fizikçilerimizin bazıları,
02:23
studyingders çalışıyor nuclearnükleer fissionfizyon and fusionfüzyon --
53
128000
2000
nükleer fisyon ve füzyon üzerine çalışıyorlar --
02:25
just nuclearnükleer stuffşey.
54
130000
2000
sadece nükleer şeyler üzerine.
02:27
We gathertoplamak togetherbirlikte these physicistsfizikçiler in LosLos AlamosAlamos
55
132000
3000
Ne üreteceklerini görmek için tüm bu fizikçileri Los Alamos'ta
02:30
to see what they'llacaklar buildinşa etmek.
56
135000
3000
bir araya getiriyoruz.
02:33
We want the people buildingbina the technologyteknoloji
57
138000
3000
Teknolojiyi üreten insanlar
02:36
thinkingdüşünme about what we should be doing with the technologyteknoloji.
58
141000
3000
teknolojiyle ne yapmamız gerektiğini düşünen insanlar olsun istiyoruz.
02:41
So what should we be doing with that guy'sadam dataveri?
59
146000
3000
Peki şu adamın verileriyle bizim ne yapmamız gerekiyor?
02:44
Should we be collectingtoplama it, gatheringtoplama it,
60
149000
3000
Onları toplamalı, derlemeli miyiz,
02:47
so we can make his onlineinternet üzerinden experiencedeneyim better?
61
152000
2000
ki böylece onun internet deneyimini iyileştirebilelim?
02:49
So we can make moneypara?
62
154000
2000
Böylece para kazanabilelim?
02:51
So we can protectkorumak ourselveskendimizi
63
156000
2000
Böylece eğer iyi biri değilse
02:53
if he was up to no good?
64
158000
2000
kendimizi koruyabilelim?
02:55
Or should we respectsaygı his privacyGizlilik,
65
160000
3000
Yoksa mahremiyetine saygı duymalı,
02:58
protectkorumak his dignityhaysiyet and leaveayrılmak him aloneyalnız?
66
163000
3000
itibarını korumalı ve onu rahat mı bırakmalıyız?
03:02
WhichHangi one is it?
67
167000
3000
Hangisi?
03:05
How should we figureşekil it out?
68
170000
2000
Bunu nasıl anlayabiliriz?
03:07
I know: crowdsourcecrowdsource. Let's crowdsourcecrowdsource this.
69
172000
3000
Ben biliyorum: Kitle kaynak. Bunu kitle kaynakla çözelim.
03:11
So to get people warmedısındı up,
70
176000
3000
Öyleyse biraz ısınmak üzere,
03:14
let's startbaşlama with an easykolay questionsoru --
71
179000
2000
kolay bir soru ile başlayalım --
03:16
something I'm sure everybodyherkes here has an opiniongörüş about:
72
181000
3000
buradaki herkesin bir fikri olduğuna emin olduğum bir şeyle:
03:19
iPhoneiPhone versuse karşı AndroidAndroid.
73
184000
2000
iPhone’a karşı Android.
03:21
Let's do a showgöstermek of handseller -- iPhoneiPhone.
74
186000
3000
Haydi el kaldırarak gösterelim – iPhone diyenler.
03:24
Uh huh.
75
189000
2000
A-ha
03:26
AndroidAndroid.
76
191000
3000
Android.
03:29
You'dOlur think with a bunchDemet of smartakıllı people
77
194000
2000
Bir grup zeki insan olarak bizim
03:31
we wouldn'tolmaz be suchböyle suckerspiç just for the prettygüzel phonestelefonlar.
78
196000
2000
o kadar da güzel telefon budalası olmayacağımızı düşünebilirsiniz.
03:33
(LaughterKahkaha)
79
198000
2000
(Gülüşmeler)
03:35
NextSonraki questionsoru,
80
200000
2000
Sıradaki soru,
03:37
a little bitbit harderDaha güçlü.
81
202000
2000
birazcık daha zor
03:39
Should we be collectingtoplama all of that guy'sadam dataveri
82
204000
2000
Oradaki adamın deneyimlerini iyileştirmek için
03:41
to make his experiencesdeneyimler better
83
206000
2000
ve eğer o iyi biri değilse kendimizi korumak için
03:43
and to protectkorumak ourselveskendimizi in casedurum he's up to no good?
84
208000
3000
onun tüm verilerini toplamalı mıyız?
03:46
Or should we leaveayrılmak him aloneyalnız?
85
211000
2000
Yoksa onu rahat mı bırakmalıyız?
03:48
CollectToplamak his dataveri.
86
213000
3000
Verileri toplayalım diyenler.
03:53
LeaveBırakın him aloneyalnız.
87
218000
3000
Rahat bırakalım.
03:56
You're safekasa. It's fine.
88
221000
2000
Güvendesiniz. Sorun yok.
03:58
(LaughterKahkaha)
89
223000
2000
(Gülüşmeler)
04:00
Okay, last questionsoru --
90
225000
2000
Tamam, son soru --
04:02
harderDaha güçlü questionsoru --
91
227000
2000
daha zor bir soru --
04:04
when tryingçalışıyor to evaluatedeğerlendirmek
92
229000
3000
böyle durumları değerlendirmeye çalışırken
04:07
what we should do in this casedurum,
93
232000
3000
sizce ne yapmalıyız,
04:10
should we use a KantianKantçı deontologicaldeontolojik moralmanevi frameworkiskelet,
94
235000
4000
Kantçı deontolojik bir ahlak çerçevesi mi kullanmalıyız,
04:14
or should we use a MillianMillian consequentialistnedensel one?
95
239000
3000
yoksa Mill tarzı bir sonuççuluk mu kullanmalıyız?
04:19
KantKant.
96
244000
3000
Kant.
04:22
MillDeğirmen.
97
247000
3000
Mill.
04:25
Not as manyçok votesoy.
98
250000
2000
Pek fazla oy yok.
04:27
(LaughterKahkaha)
99
252000
3000
(Gülüşmeler)
04:30
Yeah, that's a terrifyingdehşet verici resultsonuç.
100
255000
3000
Evet, bu endişe verici bir sonuç.
04:34
TerrifyingKorkunç, because we have strongergüçlü opinionsgörüşler
101
259000
4000
Endişe verici, çünkü taşınabilir cihazlarımız hakkında,
04:38
about our hand-heldel devicescihazlar
102
263000
2000
kararlarımızı yönlendirirken kullanmamız gereken
04:40
than about the moralmanevi frameworkiskelet
103
265000
2000
ahlaki çerçeve hakkında olduğundan
04:42
we should use to guidekılavuz our decisionskararlar.
104
267000
2000
daha güçlü fikirlerimiz var.
04:44
How do we know what to do with all the powergüç we have
105
269000
3000
Elimizdeki tüm bu güç ile ne yapacağımızı,
04:47
if we don't have a moralmanevi frameworkiskelet?
106
272000
3000
eğer bir ahlaki çerçevemiz yoksa nasıl bilebiliriz ki?
04:50
We know more about mobileseyyar operatingişletme systemssistemler,
107
275000
3000
Taşınabilir işletim sistemleri hakkında çok şey bilirken,
04:53
but what we really need is a moralmanevi operatingişletme systemsistem.
108
278000
3000
aslında gerçek ihtiyacımız olan şey bir ahlaki işletim sistemi.
04:58
What's a moralmanevi operatingişletme systemsistem?
109
283000
2000
Nedir ahlaki işletim sistemi?
05:00
We all know right and wrongyanlış, right?
110
285000
2000
Doğru ve yanlışın ne olduğunu biliyoruz, değil mi?
05:02
You feel good when you do something right,
111
287000
2000
Doğru bir şey yaptığında kendini iyi hissedersin,
05:04
you feel badkötü when you do something wrongyanlış.
112
289000
2000
Yanlış bir şey yaptığında kendini kötü hissedersin.
05:06
Our parentsebeveyn teachöğretmek us that: praiseövgü with the good, scoldazarlamak with the badkötü.
113
291000
3000
Ebeveynlerimiz bize şunu öğretir: iyiyi yücelt, kötünün dersini ver.
05:09
But how do we figureşekil out what's right and wrongyanlış?
114
294000
3000
Ama neyin doğru neyin yanlış olduğunu nasıl anlayacağız?
05:12
And from day to day, we have the techniquesteknikleri that we use.
115
297000
3000
Günbegün kullandığımız tekniklerimiz var.
05:15
Maybe we just followtakip et our gutbağırsak.
116
300000
3000
Belki sadece kalbimizin sesini dinliyoruz.
05:18
Maybe we take a voteoy -- we crowdsourcecrowdsource.
117
303000
3000
Belki oylama yapıyoruz – kitle kaynak kullanıyoruz
05:21
Or maybe we puntkumar oynamak --
118
306000
2000
Belki kumar oynuyoruz --
05:23
asksormak the legalyasal departmentbölüm, see what they say.
119
308000
3000
Hukukçulara sorup, ne dediklerine bakıyoruz.
05:26
In other wordskelimeler, it's kindtür of randomrasgele,
120
311000
2000
Bir başka deyişle, ne yapmamız gerektiğini nasıl bulduğumuz,
05:28
kindtür of adilan hochoc,
121
313000
2000
bir bakıma rastlantısal,
05:30
how we figureşekil out what we should do.
122
315000
3000
bir bakıma da “ad hoc” (niyete mahsus)
05:33
And maybe, if we want to be on surerdaha emin footingayak,
123
318000
3000
Ve belki de, daha güvenilir bir temelde olmak istiyorsak
05:36
what we really want is a moralmanevi frameworkiskelet that will help guidekılavuz us there,
124
321000
3000
gerçekte istediğimiz, bizi orada yönlendirmede yardım edecek,
05:39
that will tell us what kindsçeşit of things are right and wrongyanlış in the first placeyer,
125
324000
3000
ilk etapta bize neyin doğru neyin yanlış olduğunu söyleyecek,
05:42
and how would we know in a givenverilmiş situationdurum what to do.
126
327000
4000
ve belli bir durumda ne yapacağımızı nasıl bileceğimize yardım edecek ahlaki bir çerçevedir.
05:46
So let's get a moralmanevi frameworkiskelet.
127
331000
2000
Öyleyse bir ahlaki çerçeve edinelim.
05:48
We're numberssayılar people, livingyaşam by numberssayılar.
128
333000
3000
Biz sayılarla yaşayan, çok sayıda kişiyiz.
05:51
How can we use numberssayılar
129
336000
2000
Ahlaki bir çerçeveye temel olacak şekilde,
05:53
as the basistemel for a moralmanevi frameworkiskelet?
130
338000
3000
sayıları nasıl kullanabiliriz?
05:56
I know a guy who did exactlykesinlikle that.
131
341000
3000
Ben tam olarak bunu yapan birini tanıyorum,
05:59
A brilliantparlak guy --
132
344000
3000
Parlak zekâlı bir adam --
06:02
he's been deadölü 2,500 yearsyıl.
133
347000
3000
2.500 yıl önce öldü.
06:05
PlatoPlaton, that's right.
134
350000
2000
Platon, evet doğru.
06:07
RememberHatırlıyorum him -- oldeski philosopherfilozof?
135
352000
2000
Hatırladınız mı – hani şu eski filozof?
06:09
You were sleepinguyuyor duringsırasında that classsınıf.
136
354000
3000
O sırada derste uyuyordunuz.
06:12
And PlatoPlaton, he had a lot of the sameaynı concernsendişeler that we did.
137
357000
2000
Ve Platon, bizim sahip olduğumuz aynı kaygılara çokça sahipti.
06:14
He was worriedendişeli about right and wrongyanlış.
138
359000
2000
Doğru ve yanlış hakkında meraklıydı.
06:16
He wanted to know what is just.
139
361000
2000
Neyin adil olduğunu bilmek istiyordu.
06:18
But he was worriedendişeli that all we seemgörünmek to be doing
140
363000
2000
Ama bu konuda tüm yaptığımızın bu konuda fikir alışverişi
06:20
is tradingticari opinionsgörüşler about this.
141
365000
2000
yapıyormuşuz gibi göründüğünden endişeliydi.
06:22
He saysdiyor something'sşey just. She saysdiyor something elsebaşka is just.
142
367000
3000
Birine göre bir şey adilken, diğerine göre başka bir şey adil.
06:25
It's kindtür of convincinginandırıcı when he talksgörüşmeler and when she talksgörüşmeler too.
143
370000
2000
Onun anlattığı da bunun anlattığı da bir bakıma ikna edici.
06:27
I'm just going back and forthileri; I'm not gettingalma anywhereherhangi bir yer.
144
372000
2000
Bir ileri bir geri gidiyorum bu şekilde, bir yere vardığım yok.
06:29
I don't want opinionsgörüşler; I want knowledgebilgi.
145
374000
3000
Artık fikir istemiyorum, bilgi birikimi istiyorum.
06:32
I want to know the truthhakikat about justiceadalet --
146
377000
3000
Adalet hakkındaki gerçeği bilmek istiyorum --
06:35
like we have truthsgerçekler in mathmatematik.
147
380000
3000
tıpkı matematikte gerçekliklerimizin olduğu gibi.
06:38
In mathmatematik, we know the objectiveamaç factsGerçekler.
148
383000
3000
Matematikte tarafsız olguları bilebiliriz.
06:41
Take a numbernumara, any numbernumara -- two.
149
386000
2000
Bir sayı al, herhangi bir sayı -- iki
06:43
FavoriteFavori numbernumara. I love that numbernumara.
150
388000
2000
En sevdiğim sayıdır. Bayılırım bu sayıya.
06:45
There are truthsgerçekler about two.
151
390000
2000
İki hakkında gerçekler vardır.
06:47
If you've got two of something,
152
392000
2000
Herhangi bir şeyden iki tanesine sahipseniz,
06:49
you addeklemek two more, you get fourdört.
153
394000
2000
buna iki tane daha eklediğinizde, dört elde edersiniz.
06:51
That's truedoğru no mattermadde what thing you're talkingkonuşma about.
154
396000
2000
Neden bahsettiğiniz fark etmez, her şey için doğrudur.
06:53
It's an objectiveamaç truthhakikat about the formform of two,
155
398000
2000
Bu iki olma biçimi hakkında, bu soyut biçim hakkında
06:55
the abstractsoyut formform.
156
400000
2000
tarafsız bir olgudur.
06:57
When you have two of anything -- two eyesgözleri, two earskulaklar, two nosesburunlar,
157
402000
2000
Herhangi bir şeyden iki tanesine sahipsen – iki göz, iki kulak, burun delikleri
06:59
just two protrusionsçıkıntılar --
158
404000
2000
sadece iki çıkıntı --
07:01
those all partakepaylaşmak of the formform of two.
159
406000
3000
tüm bunlar iki biçiminde yerini alır.
07:04
They all participatekatılmak in the truthsgerçekler that two has.
160
409000
4000
İkinin sahip olduğu tüm gerçeklere ortak olur.
07:08
They all have two-nessiki-ness in them.
161
413000
2000
Hepsinde sahip oldukları bir "ikilik" vardır.
07:10
And thereforebu nedenle, it's not a mattermadde of opiniongörüş.
162
415000
3000
Ve dolayısıyla, bu bir kanaat meselesi değildir.
07:13
What if, PlatoPlaton thought,
163
418000
2000
Peki ya Platon, etiğin
07:15
ethicsetik was like mathmatematik?
164
420000
2000
matematik gibi olduğunu düşünseydi?
07:17
What if there were a puresaf formform of justiceadalet?
165
422000
3000
Ya adaletin saf bir biçimi varsa?
07:20
What if there are truthsgerçekler about justiceadalet,
166
425000
2000
Ya adalet hakkında gerçeklikler varsa,
07:22
and you could just look around in this worldDünya
167
427000
2000
ve yalnızca dünyaya şöyle bir bakınarak
07:24
and see whichhangi things participatedkatıldı,
168
429000
2000
nelerin bu gerçeğe ortak olup,
07:26
partookpartook of that formform of justiceadalet?
169
431000
3000
bu adalet biçiminde yerini aldığını görebilseydik?
07:29
Then you would know what was really just and what wasn'tdeğildi.
170
434000
3000
Böylece gerçekte neyin adil olup neyin olmadığını bilebilirdik.
07:32
It wouldn'tolmaz be a mattermadde
171
437000
2000
Sadece kanaat veya sadece
07:34
of just opiniongörüş or just appearancesKatılımlar.
172
439000
3000
kalıplardan ibaret olmazdı.
07:37
That's a stunningçarpıcı visionvizyon.
173
442000
2000
Bu çarpıcı bir görüş.
07:39
I mean, think about that. How grandbüyük. How ambitiousiddialı.
174
444000
3000
Yani, bir düşünsenize. Ne kadar muazzam. Ne kadar hırslı.
07:42
That's as ambitiousiddialı as we are.
175
447000
2000
Tıpkı bizim kadar hırslı.
07:44
He wants to solveçözmek ethicsetik.
176
449000
2000
Etiği çözmek istiyor.
07:46
He wants objectiveamaç truthsgerçekler.
177
451000
2000
Tarafsız gerçeklikler istiyor.
07:48
If you think that way,
178
453000
3000
Eğer bu şekilde düşünüyorsanız,
07:51
you have a PlatonistEflâtun moralmanevi frameworkiskelet.
179
456000
3000
Platonist bir ahlaki çerçeveniz var demektir.
07:54
If you don't think that way,
180
459000
2000
Eğer böyle düşünmüyorsanız,
07:56
well, you have a lot of companyşirket in the historytarih of WesternWestern philosophyFelsefe,
181
461000
2000
öyleyse, batı felsefesinde pek çok fikir ortağınız var demektir,
07:58
because the tidydüzenli ideaFikir, you know, people criticizedeleştirdi it.
182
463000
3000
çünkü bu hatrı sayılır fikri – bilirsiniz, insanlar bunu eleştirdi.
08:01
AristotleAristoteles, in particularbelirli, he was not amusedeğlenerek.
183
466000
3000
Aristo, bundan özellikle memnun kalmadı.
08:04
He thought it was impracticalkullanışsız.
184
469000
3000
O bunun kullanışsız olduğunu düşünüyordu.
08:07
AristotleAristoteles said, "We should seekaramak only so much precisionhassas in eachher subjectkonu
185
472000
4000
Aristo şöyle dedi, “Bizler herhangi bir konuda, ancak o konunun bize izin verdiği miktarda
08:11
as that subjectkonu allowsverir."
186
476000
2000
kesinlik arayabiliriz”
08:13
AristotleAristoteles thought ethicsetik wasn'tdeğildi a lot like mathmatematik.
187
478000
3000
Aristo etiğin matematiğe pek benzemediğini düşünüyordu.
08:16
He thought ethicsetik was a mattermadde of makingyapma decisionskararlar in the here-and-nowBurada ve şimdi
188
481000
3000
Etiğin, anlık bir karar verirken doğru yolu bulmak üzere, en iyi şekilde
08:19
usingkullanma our besten iyi judgmentyargı
189
484000
2000
hüküm verme yetimizi kullanma meselesi
08:21
to find the right pathyol.
190
486000
2000
olduğunu düşünüyordu.
08:23
If you think that, Plato'sPlaton'un not your guy.
191
488000
2000
Eğer, Platon sizin adamınız değilse,
08:25
But don't give up.
192
490000
2000
yine de pes etmeyin.
08:27
Maybe there's anotherbir diğeri way
193
492000
2000
Belki, ahlaki çerçevemizde
08:29
that we can use numberssayılar as the basistemel of our moralmanevi frameworkiskelet.
194
494000
3000
sayıları temel alarak kullanabileceğimiz başka bir yol vardır.
08:33
How about this:
195
498000
2000
Şuna ne dersiniz:
08:35
What if in any situationdurum you could just calculatehesaplamak,
196
500000
3000
Ya herhangi bir durumda hesaplamalar yapıp,
08:38
look at the choicesseçimler,
197
503000
2000
seçeneklere bakıp,
08:40
measureölçmek out whichhangi one'sbiri better and know what to do?
198
505000
3000
hangisinin daha iyi olduğunu ölçerek ne yapacağınızı bilebilirseniz?
08:43
That soundses familiartanıdık?
199
508000
2000
Bu tanıdık geliyor mu?
08:45
That's a utilitarianfaydacı moralmanevi frameworkiskelet.
200
510000
3000
İşte bu faydacı ahlak çerçevesi.
08:48
JohnJohn StuartStuart MillDeğirmen was a great advocatesavunucu of this --
201
513000
2000
John Stuart Mill bunun en büyük savunucusuydu --
08:50
niceGüzel guy besidesdışında --
202
515000
2000
ayrıca iyi bir adamdı --
08:52
and only been deadölü 200 yearsyıl.
203
517000
2000
ve sadece 200 yıl önce öldü.
08:54
So basistemel of utilitarianismFaydacılık --
204
519000
2000
Dolayısıyla faydacılığın temeli --
08:56
I'm sure you're familiartanıdık at leasten az.
205
521000
2000
En azından aşina olduğunuza eminim.
08:58
The threeüç people who votedolarak for MillDeğirmen before are familiartanıdık with this.
206
523000
2000
Başlarda Mill için el kaldırmış üç kişi için bunlar tanıdıktır.
09:00
But here'sburada the way it worksEserleri.
207
525000
2000
Ama işte bu şekilde çalışır.
09:02
What if moralstöre, what if what makesmarkaları something moralmanevi
208
527000
3000
Ya ahlak kuralları, yani bir şeyin ahlaklı olmasını sağlayanlar,
09:05
is just a mattermadde of if it maximizesen üst düzeye çıkarır pleasureZevk
209
530000
2000
onların sadece hazzı çoğaltması ve acıyı azaltması
09:07
and minimizesen aza indirir painAğrı?
210
532000
2000
ile ilgiliyse?
09:09
It does something intrinsiciçsel to the actdavranmak.
211
534000
3000
Eyleme içkin bir şey.
09:12
It's not like its relationilişkisi to some abstractsoyut formform.
212
537000
2000
Soyut bir biçim ile olan ilişkisi gibi değil.
09:14
It's just a mattermadde of the consequencessonuçları.
213
539000
2000
Ortaya çıkan sonuçlarla ilgili bir şey.
09:16
You just look at the consequencessonuçları
214
541000
2000
Sadece sonuçlara bakıyorsunuz
09:18
and see if, overalltüm, it's for the good or for the worsedaha da kötüsü.
215
543000
2000
ve eylemin iyi veya kötü olduğunu görüyorsunuz.
09:20
That would be simplebasit. Then we know what to do.
216
545000
2000
Böylesi basit olurdu. Böylece ne yapacağımızı bilebiliriz.
09:22
Let's take an exampleörnek.
217
547000
2000
Bir örnek ele alalım.
09:24
SupposeVarsayalım I go up
218
549000
2000
İyice ileri gittiğimi varsayalım
09:26
and I say, "I'm going to take your phonetelefon."
219
551000
2000
diyorum ki, “Telefonunu alacağım”
09:28
Not just because it rangçaldı earlierdaha erken,
220
553000
2000
Zamansız çaldığı için değil ama,
09:30
but I'm going to take it because I madeyapılmış a little calculationhesaplama.
221
555000
3000
onu alacağım çünkü küçük bir hesaplama yaptım.
09:33
I thought, that guy looksgörünüyor suspiciousşüpheli.
222
558000
3000
Bu adamın şüpheli göründüğünü düşündüm.
09:36
And what if he's been sendinggönderme little messagesmesajları to BinDepo gözü Laden'sBin Ladin'in'ın hideoutsaklanma yeri --
223
561000
3000
Ya Bin Ladin’in saklandığı yere küçük mesajlar gönderip duruyorsa --
09:39
or whoeverher kim tookaldı over after BinDepo gözü LadenYüklü --
224
564000
2000
veya Bin Ladin’den sonra yerine geçen her kimse --
09:41
and he's actuallyaslında like a terroristterörist, a sleeperUyuyan cellhücre.
225
566000
3000
ve bu adam aslında bir terörist, emir bekleyen bir saldırgan.
09:44
I'm going to find that out, and when I find that out,
226
569000
3000
Ben bunu ortaya çıkartacağım, ve bunu yaptığımda,
09:47
I'm going to preventönlemek a hugeKocaman amounttutar of damagehasar that he could causesebeb olmak.
227
572000
3000
sebep olabileceği muazzam boyuttaki zararı önlemiş olacağım.
09:50
That has a very highyüksek utilityyarar to preventönlemek that damagehasar.
228
575000
3000
Hasar önleme konusunda çok büyük faydası var bunun.
09:53
And comparedkarşılaştırıldığında to the little painAğrı that it's going to causesebeb olmak --
229
578000
2000
Ve sebep olacağı azıcık ıstırabı, kıyasladığımda --
09:55
because it's going to be embarrassingutanç verici when I'm looking on his phonetelefon
230
580000
2000
çünkü telefonuna bakıp aslında Farmville’de küçük bir problemi olduğunu
09:57
and seeinggörme that he has a FarmvilleFarmville problemsorun and that wholebütün bitbit --
231
582000
3000
gördüğümde bu biraz utanç verici olacak --
10:00
that's overwhelmedboğulmuş
232
585000
3000
bu benim telefona
10:03
by the valuedeğer of looking at the phonetelefon.
233
588000
2000
bakmamın değeri karşısında hiçbir şey olmayacak.
10:05
If you feel that way,
234
590000
2000
Eğer bu şekilde düşünüyorsanız,
10:07
that's a utilitarianfaydacı choiceseçim.
235
592000
3000
bu faydacı bir seçimdir.
10:10
But maybe you don't feel that way eitherya.
236
595000
3000
Ama belki, bu şekilde de düşünmüyorsunuz.
10:13
Maybe you think, it's his phonetelefon.
237
598000
2000
Belki de sizce, bu onun telefonu.
10:15
It's wrongyanlış to take his phonetelefon
238
600000
2000
Bu adamın telefonunu almamız yanlış bir şey,
10:17
because he's a personkişi
239
602000
2000
çünkü o bir birey,
10:19
and he has rightshaklar and he has dignityhaysiyet,
240
604000
2000
onun kişisel hakları ve bir itibarı var,
10:21
and we can't just interferekarışmak with that.
241
606000
2000
ve biz bunlara öylece müdahale edemeyiz.
10:23
He has autonomyözerklik.
242
608000
2000
Onun bir özyönetimi var.
10:25
It doesn't mattermadde what the calculationshesaplamalar are.
243
610000
2000
Hesaplamaların ne olduğu mühim değil.
10:27
There are things that are intrinsicallydoğal olarak wrongyanlış --
244
612000
3000
İçkin olarak yanlış olan şeyler vardır --
10:30
like lyingyalan söyleme is wrongyanlış,
245
615000
2000
mesela yalan söylemek yanlıştır,
10:32
like torturingişkence innocentmasum childrençocuklar is wrongyanlış.
246
617000
3000
mesela masum çocuklara işkence etmek yanlıştır.
10:35
KantKant was very good on this pointpuan,
247
620000
3000
Kant bu noktada çok iyidi,
10:38
and he said it a little better than I'll say it.
248
623000
2000
ve benim ifade edeceğimden biraz daha iyisini söyledi.
10:40
He said we should use our reasonneden
249
625000
2000
O, davranışlarımızı yönlendirmemiz gereken kuralları belirlemek için
10:42
to figureşekil out the ruleskurallar by whichhangi we should guidekılavuz our conductkuralları,
250
627000
3000
idrakımızı kullanmamız gerektiğini söyledi.
10:45
and then it is our dutygörev to followtakip et those ruleskurallar.
251
630000
3000
Sonrasında bu kuralları takip etmek bizim görevimiz.
10:48
It's not a mattermadde of calculationhesaplama.
252
633000
3000
Bu hesaplanacak bir şey değil.
10:51
So let's stop.
253
636000
2000
Öyleyse şimdi duralım.
10:53
We're right in the thickkalın of it, this philosophicalfelsefi thicketçalılık.
254
638000
3000
Bu meselenin felsefi çalılıklarında dolaşmakta haklıyız.
10:56
And this goesgider on for thousandsbinlerce of yearsyıl,
255
641000
3000
Ve bu binlerce yıldır sürüyor,
10:59
because these are hardzor questionssorular,
256
644000
2000
çünkü bunlar zor sorular,
11:01
and I've only got 15 minutesdakika.
257
646000
2000
ve benim yalnızca 15 dakikam var.
11:03
So let's cutkesim to the chaseChase.
258
648000
2000
Öyleyse sadede gelelim.
11:05
How should we be makingyapma our decisionskararlar?
259
650000
4000
Kararlarımızı nasıl vermeliyiz?
11:09
Is it PlatoPlaton, is it AristotleAristoteles, is it KantKant, is it MillDeğirmen?
260
654000
3000
Platon mu, Aristo mu, Kant mı, yoksa Mill mi?
11:12
What should we be doing? What's the answerCevap?
261
657000
2000
Ne yapmalıyız? Cevap ne?
11:14
What's the formulaformül that we can use in any situationdurum
262
659000
3000
O adamın verilerini kullanıp kullanmama konusunda
11:17
to determinebelirlemek what we should do,
263
662000
2000
ne yapmamız gerektiğini belirlemek için,
11:19
whetherolup olmadığını we should use that guy'sadam dataveri or not?
264
664000
2000
Her durumda kullanabileceğimiz türden formül ne?
11:21
What's the formulaformül?
265
666000
3000
Nedir bunun formülü?
11:25
There's not a formulaformül.
266
670000
2000
Böyle bir formül yok.
11:29
There's not a simplebasit answerCevap.
267
674000
2000
Basit bir cevap yok.
11:31
EthicsEtik is hardzor.
268
676000
3000
Etik zordur.
11:34
EthicsEtik requiresgerektirir thinkingdüşünme.
269
679000
3000
Etik düşünmeyi gerektirir.
11:38
And that's uncomfortablerahatsız.
270
683000
2000
Ve bu tatsız bir durum.
11:40
I know; I spentharcanmış a lot of my careerkariyer
271
685000
2000
Biliyorum, kariyerimin çoğunu
11:42
in artificialyapay intelligencezeka,
272
687000
2000
yapay zeka için kullandım,
11:44
tryingçalışıyor to buildinşa etmek machinesmakineler that could do some of this thinkingdüşünme for us,
273
689000
3000
bizim için düşünme işinin bir kısmını yapabilecek, bize cevaplar verebilecek
11:47
that could give us answerscevaplar.
274
692000
2000
makineler üretmeye çalışmakta.
11:49
But they can't.
275
694000
2000
Ama yapamıyorlar.
11:51
You can't just take humaninsan thinkingdüşünme
276
696000
2000
Gidip insan düşüncesini alıp
11:53
and put it into a machinemakine.
277
698000
2000
aynen bir makineye yerleştiremiyorsunuz.
11:55
We're the onesolanlar who have to do it.
278
700000
3000
Bu işi yapması gereken bizleriz.
11:58
HappilyMutlu, we're not machinesmakineler, and we can do it.
279
703000
3000
Şükür ki biz makine değiliz ve biz bunu yapabiliyoruz.
12:01
Not only can we think,
280
706000
2000
Sadece düşünmeyi becermekle kalmıyoruz,
12:03
we mustşart.
281
708000
2000
buna mecburuz.
12:05
HannahHannah ArendtArendt said,
282
710000
2000
Hannah Arendt şöyle söylüyor,
12:07
"The sadüzgün truthhakikat
283
712000
2000
“Acı gerçek şu ki
12:09
is that mostçoğu evilkötülük donetamam in this worldDünya
284
714000
2000
dünyadaki kötülüklerin çoğu
12:11
is not donetamam by people
285
716000
2000
kötü olmayı seçen kişiler
12:13
who chooseseçmek to be evilkötülük.
286
718000
2000
tarafından yapılmıyor.
12:15
It arisesortaya çıkan from not thinkingdüşünme."
287
720000
3000
Düşünmemekten kaynaklanıyor.”
12:18
That's what she calleddenilen the "banalitybayağılık of evilkötülük."
288
723000
4000
Bu, onun “kötülüğün bayağılığı” dediği şey.
12:22
And the responsetepki to that
289
727000
2000
Ve buna verilecek karşılık,
12:24
is that we demandtalep the exerciseegzersiz of thinkingdüşünme
290
729000
2000
aklı başında her insan tarafından düşünme tatbikine
12:26
from everyher saneaklı başında personkişi.
291
731000
3000
gereksinim duymamız.
12:29
So let's do that. Let's think.
292
734000
2000
Öyleyse yapalım. Haydi düşünelim.
12:31
In factgerçek, let's startbaşlama right now.
293
736000
3000
Gerçekten, şimdi başlayalım.
12:34
EveryHer personkişi in this roomoda do this:
294
739000
3000
Bu salondaki herkes şunu yapsın:
12:37
think of the last time you had a decisionkarar to make
295
742000
3000
karar vermenizi gerektiren son zamanı düşünün
12:40
where you were worriedendişeli to do the right thing,
296
745000
2000
doğru olanı yapmak için kaygılandığınız,
12:42
where you wonderedmerak, "What should I be doing?"
297
747000
2000
Ne yapmalıyım acaba?” diye merak ettiğiniz.
12:44
BringGetir that to mindus,
298
749000
2000
Aklınıza getirin.
12:46
and now reflectyansıtmak on that
299
751000
2000
Ve şimdi üzerine kafa yorun
12:48
and say, "How did I come up that decisionkarar?
300
753000
3000
deyin ki, “Bu karara nasıl vardım?”
12:51
What did I do? Did I followtakip et my gutbağırsak?
301
756000
3000
Ne yaptım? Kalbimin sesini mi dinledim?
12:54
Did I have somebodybirisi voteoy on it? Or did I puntkumar oynamak to legalyasal?"
302
759000
2000
Birilerinin kanaatine mi sundum? Bir hukukçuya mı danıştım?
12:56
Or now we have a fewaz more choicesseçimler.
303
761000
3000
Veya artık birkaç tercihimiz daha var.
12:59
"Did I evaluatedeğerlendirmek what would be the highesten yüksek pleasureZevk
304
764000
2000
“En çok hazzı verecek şeye göre mi değerlendirme yaptım,
13:01
like MillDeğirmen would?
305
766000
2000
Mill’in yapacağı gibi?”
13:03
Or like KantKant, did I use reasonneden to figureşekil out what was intrinsicallydoğal olarak right?"
306
768000
3000
Yoksa Kant gibi, içkin doğruyu bulmak için sağduyumu mu kullandım?
13:06
Think about it. Really bringgetirmek it to mindus. This is importantönemli.
307
771000
3000
Bunu bir düşünün. Gerçekten aklınızda canlandırın. Bu önemli.
13:09
It is so importantönemli
308
774000
2000
Bu öylesine önemli ki
13:11
we are going to spendharcamak 30 secondssaniye of valuabledeğerli TEDTalkTEDTalk time
309
776000
2000
değerli TEDTalk zamanımızın 30 saniyesini buna harcayacağız
13:13
doing nothing but thinkingdüşünme about this.
310
778000
2000
hiçbir şey yapmayıp, sadece bunun hakkında düşüneceğiz.
13:15
Are you readyhazır? Go.
311
780000
2000
Hazır mısınız? Başla.
13:33
Stop. Good work.
312
798000
3000
Tamam dur. Güzel.
13:36
What you just did,
313
801000
2000
Az önce yaptığınız,
13:38
that's the first stepadım towardskarşı takingalma responsibilitysorumluluk
314
803000
2000
gücümüzle ne yapmamız gerektiği konusunda
13:40
for what we should do with all of our powergüç.
315
805000
3000
sorumluluk alma yolunda ilk adımdı.
13:45
Now the nextSonraki stepadım -- try this.
316
810000
3000
Şimdi bir sonraki adım – şunu deneyin.
13:49
Go find a friendarkadaş and explainaçıklamak to them
317
814000
2000
Gidip bir arkadaşınızı bulun ve ona
13:51
how you madeyapılmış that decisionkarar.
318
816000
2000
bu kararı nasıl aldığınızı anlatın.
13:53
Not right now. Wait tillkadar I finishbitiş talkingkonuşma.
319
818000
2000
Şimdi değil. Konuşmamızı bitirene kadar bekleyin.
13:55
Do it over lunchöğle yemeği.
320
820000
2000
Öğle yemeğinden sonra yapın.
13:57
And don't just find anotherbir diğeri technologistTeknoloji uzmanı friendarkadaş;
321
822000
3000
Ve gidip yine bir teknoloji uzmanı bulmayın;
14:00
find somebodybirisi differentfarklı than you.
322
825000
2000
sizden farklı olan birini bulun.
14:02
Find an artistsanatçı or a writeryazar --
323
827000
2000
Bir sanatçı veya yazar bulun --
14:04
or, heavencennet forbidyasaklamak, find a philosopherfilozof and talk to them.
324
829000
3000
veya tanrı göstermesin, bir felsefeci bulup onunla konuşun.
14:07
In factgerçek, find somebodybirisi from the humanitiesbeşeri bilimler.
325
832000
2000
Hakikaten, beşeri bilimlerden birini bulun.
14:09
Why? Because they think about problemssorunlar
326
834000
2000
Niye? Çünkü onlar sorunlar hakkında
14:11
differentlyfarklı olarak than we do as technologiststeknoloji.
327
836000
2000
biz teknoloji uzmanlarından farklı düşünür.
14:13
Just a fewaz daysgünler agoönce, right acrosskarşısında the streetsokak from here,
328
838000
3000
Birkaç gün önce, buranın karşı sokağında,
14:16
there was hundredsyüzlerce of people gatheredtoplanmış togetherbirlikte.
329
841000
2000
yüzlerce insan toplanmıştı.
14:18
It was technologiststeknoloji and humanistshümanistler
330
843000
2000
Teknoloji uzmanları ve hümanistler,
14:20
at that bigbüyük BiblioTechBiblioTech ConferenceKonferans.
331
845000
2000
şu büyük BiblioTech konferansındaydı.
14:22
And they gatheredtoplanmış togetherbirlikte
332
847000
2000
Bir araya geldiler
14:24
because the technologiststeknoloji wanted to learnöğrenmek
333
849000
2000
çünkü teknoloji uzmanları, beşeri bilimler perspektifiyle
14:26
what it would be like to think from a humanitiesbeşeri bilimler perspectiveperspektif.
334
851000
3000
düşünmenin nasıl bir şey olduğunu öğrenmek istiyordu.
14:29
You have someonebirisi from GoogleGoogle
335
854000
2000
Google'da çalışan birini
14:31
talkingkonuşma to someonebirisi who does comparativekarşılaştırmalı literatureEdebiyat.
336
856000
2000
karşılaştırmalı edebiyat üzerine çalışan biri ile konuşurken buluyordunuz.
14:33
You're thinkingdüşünme about the relevanceilgi of 17thinci centuryyüzyıl FrenchFransızca theatertiyatro --
337
858000
3000
Şimdi 17inci yüzyıl Fransız tiyatrosunu düşünüyorsunuz --
14:36
how does that bearayı uponüzerine venturegirişim capitalBaşkent?
338
861000
2000
bunun risk sermayesi ile nasıl bir ilgisi olabilir?
14:38
Well that's interestingilginç. That's a differentfarklı way of thinkingdüşünme.
339
863000
3000
Evet ilginç. Bu farklı bir düşünme şekli.
14:41
And when you think in that way,
340
866000
2000
Ve bu şekilde düşündüğünüzde,
14:43
you becomeolmak more sensitivehassas to the humaninsan considerationsdikkat edilmesi gereken noktalar,
341
868000
3000
insani hususlara karşı daha duyarlı hale geliyorsunuz,
14:46
whichhangi are crucialçok önemli to makingyapma ethicalahlâki decisionskararlar.
342
871000
3000
ki bunlar etik kararlar alırken oldukça can alıcı.
14:49
So imaginehayal etmek that right now
343
874000
2000
Öylese şimdi şunu hayal edin
14:51
you wentgitti and you foundbulunan your musicianmüzisyen friendarkadaş.
344
876000
2000
gittiniz ve müzisyen bir arkadaşınızı buldunuz.
14:53
And you're tellingsöylüyorum him what we're talkingkonuşma about,
345
878000
3000
Ona hakkında konuştuğumuz şeyi anlatıyorsunuz,
14:56
about our wholebütün dataveri revolutiondevrim and all this --
346
881000
2000
tüm bu veri devrimini ve tüm bunları --
14:58
maybe even humHum a fewaz barsBarlar of our themetema musicmüzik.
347
883000
2000
hatta belki şu parçamızdan birkaç ölçü mırıldanıyorsunuz.
15:00
DumDum tata dada dada dumdum dumdum tata dada dada dumdum
348
885000
3000
♫ Dum ta da da dum dum ta da da dum ♫
15:03
Well, your musicianmüzisyen friendarkadaş will stop you and say,
349
888000
2000
Müzisyen arkadaşınız sizi durdurup şunu söyleyecek,
15:05
"You know, the themetema musicmüzik
350
890000
2000
“Hani şu müzik parçası var ya
15:07
for your dataveri revolutiondevrim,
351
892000
2000
şu veri devrimi için,
15:09
that's an operaopera, that's WagnerWagner.
352
894000
2000
işte o bir opera, bir Wagner eseri.
15:11
It's basedmerkezli on Norseİskandinav legendefsane.
353
896000
2000
İskandinav efsaneleri üzerine.
15:13
It's GodsTanrılar and mythicalefsanevi creaturesyaratıklar
354
898000
2000
Tanrılar ve mitsel yaratıklar
15:15
fightingkavga over magicalbüyülü jewelrytakı."
355
900000
3000
sihirli mücevherler için savaşıyorlar.”
15:19
That's interestingilginç.
356
904000
3000
Bu enteresan.
15:22
Now it's alsoAyrıca a beautifulgüzel operaopera,
357
907000
3000
Ayrıca güzel de bir opera.
15:25
and we're movedtaşındı by that operaopera.
358
910000
3000
Biz bu opera ile duygulanıyoruz.
15:28
We're movedtaşındı because it's about the battlesavaş
359
913000
2000
Duygulanıyoruz, çünkü bu opera iyi ile kötü arasında
15:30
betweenarasında good and evilkötülük,
360
915000
2000
doğru ile yanlış arasında
15:32
about right and wrongyanlış.
361
917000
2000
geçen bir savaş hakkında yazılmış.
15:34
And we carebakım about right and wrongyanlış.
362
919000
2000
Ve biz doğru ile yanlışı önemsiyoruz.
15:36
We carebakım what happensolur in that operaopera.
363
921000
3000
Biz o operada ne olduğunu önemsiyoruz.
15:39
We carebakım what happensolur in "ApocalypseKıyamet Now."
364
924000
3000
Biz “Kıyamet” filminde ne olduğunu önemsiyoruz.
15:42
And we certainlykesinlikle carebakım
365
927000
2000
Ve biz kesinlikle teknolojimizle
15:44
what happensolur with our technologiesteknolojiler.
366
929000
2000
neler olduğunu önemsiyoruz.
15:46
We have so much powergüç todaybugün,
367
931000
2000
Bugün çok fazla gücümüz var,
15:48
it is up to us to figureşekil out what to do,
368
933000
3000
ne yapacağımızı belirlemek bizim elimizde.
15:51
and that's the good newshaber.
369
936000
2000
Ve işte iyi haber de bu.
15:53
We're the onesolanlar writingyazı this operaopera.
370
938000
3000
Burada bu operayı yazanlar bizleriz.
15:56
This is our moviefilm.
371
941000
2000
Bu bizim filmimiz.
15:58
We figureşekil out what will happenolmak with this technologyteknoloji.
372
943000
3000
Bu teknoloji ile neler olacağını biz belirliyoruz.
16:01
We determinebelirlemek how this will all endson.
373
946000
3000
Nasıl biteceğini biz belirliyoruz.
16:04
Thank you.
374
949000
2000
Teşekkür ederim.
16:06
(ApplauseAlkış)
375
951000
5000
(Alkışlar)
Translated by Kutay Erbayat
Reviewed by Çağrı Mert Bakırcı

▲Back to top

ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com