ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com
TEDxSiliconValley

Damon Horowitz: We need a "moral operating system"

Damon Horowitz fordert ein "moralisches Betriebssystem"

Filmed:
795,617 views

Bei TEDxSiliconValley spricht Damon Horowitz über die enormen neuen Kräfte, die Technologie uns gibt: mehr zu wissen – auch mehr über einander – als jemals zuvor. Indem er das Publikum in eine philosophische Diskussion einbezieht, lädt Horowitz uns ein, von neuem auf die grundlegende Philosophie acht zu geben – die ethischen Prinzipien hinter dem Ausbruch an Innovation, der unsere Welt neu erschafft. Wo ist das moralische Betriebssystem, das dem einen Sinn gibt.
- Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities. Full bio

Double-click the English transcript below to play the video.

00:15
PowerMacht.
0
0
2000
Macht.
00:17
That is the wordWort that comeskommt to mindVerstand.
1
2000
2000
Das ist das Wort, das einem in den Sinn kommt.
00:19
We're the newneu technologistsTechnologen.
2
4000
2000
Wir sind die neuen Technologen.
00:21
We have a lot of dataDaten, so we have a lot of powerLeistung.
3
6000
3000
Wir haben viele Daten, also haben wir viel Macht.
00:24
How much powerLeistung do we have?
4
9000
2000
Wieviel Macht haben wir?
00:26
SceneSzene from a movieFilm: "ApocalypseApokalypse Now" -- great movieFilm.
5
11000
3000
Eine Szene aus dem Film "Apocalypse Now" – toller Film.
00:29
We'veWir haben got to get our heroHeld, CaptainKapitän WillardWillard, to the mouthMund of the NungNung RiverFluss
6
14000
3000
Wir müssen unseren Helden, Captain Willard, zur Mündung des Nung River kriegen,
00:32
so he can go pursueverfolgen ColonelOberst KurtzKurtz.
7
17000
2000
damit er Colonel Kurtz verfolgen kann.
00:34
The way we're going to do this is flyFliege him in and dropfallen him off.
8
19000
2000
Wir werden das tun, indem wir ihn hinfliegen und abwerfen.
00:36
So the sceneSzene:
9
21000
2000
Also, die Szene:
00:38
the skyHimmel is filledgefüllt with this fleetFlotte of helicoptersHubschrauber carryingTragen him in.
10
23000
3000
am Himmel die Helikopterflotte, die ihn hinbringt.
00:41
And there's this loudlaut, thrillingspannende musicMusik- in the backgroundHintergrund,
11
26000
2000
Und da ist diese laute, mitreissende Musik im Hintergrund,
00:43
this wildwild musicMusik-.
12
28000
2000
diese wilde Musik.
00:45
DumDum dada taTA dada dumDum
13
30000
2000
♫ Dum da ta da dum ♫
00:47
DumDum dada taTA dada dumDum
14
32000
2000
♫ Dum da ta da dum ♫
00:49
DaDa taTA dada dada
15
34000
3000
♫ Da ta da da ♫
00:52
That's a lot of powerLeistung.
16
37000
2000
Das ist viel Macht.
00:54
That's the kindArt of powerLeistung I feel in this roomZimmer.
17
39000
2000
Das ist die Art von Macht, die ich in diesem Raum spüre.
00:56
That's the kindArt of powerLeistung we have
18
41000
2000
Es ist die Art von Macht, die wir haben
00:58
because of all of the dataDaten that we have.
19
43000
2000
infolge all der Daten, die wir haben.
01:00
Let's take an exampleBeispiel.
20
45000
2000
Lassen Sie uns ein Beispiel anschauen.
01:02
What can we do
21
47000
2000
Was können wir mit
01:04
with just one person'sPerson dataDaten?
22
49000
3000
den Daten einer einzelnen Person machen?
01:07
What can we do
23
52000
2000
Was können wir mit den Daten
01:09
with that guy'sJungs dataDaten?
24
54000
2000
dieses Mannes hier tun?
01:11
I can look at your financialfinanziell recordsAufzeichnungen.
25
56000
2000
Ich kann mir Ihre Finanzbelege ansehen.
01:13
I can tell if you payZahlen your billsRechnungen on time.
26
58000
2000
Ich kann sagen, ob Sie Ihre Rechnungen pünktlich bezahlen.
01:15
I know if you're good to give a loanDarlehen to.
27
60000
2000
Ich weiss, ob man Ihnen ein Darlehen geben sollte.
01:17
I can look at your medicalmedizinisch recordsAufzeichnungen; I can see if your pumpPumpe is still pumpingPumpen --
28
62000
3000
Ich kann Ihre medizinische Akte einsehen, ob Ihre Pumpe noch pumpt –
01:20
see if you're good to offerAngebot insuranceVersicherung to.
29
65000
3000
sehen, ob wir Sie versichern sollten.
01:23
I can look at your clickingKlicken patternsMuster.
30
68000
2000
Ich kann mir Ihre Klickmuster ansehen.
01:25
When you come to my websiteWebseite, I actuallytatsächlich know what you're going to do alreadybereits
31
70000
3000
Wenn Sie meine Website besuchen, dann weiss ich schon, was Sie tun werden,
01:28
because I've seengesehen you visitBesuch millionsMillionen of websitesWebseiten before.
32
73000
2000
weil ich Sie zuvor Millionen von Websites habe besuchen sehen.
01:30
And I'm sorry to tell you,
33
75000
2000
Und es tut mir Leid, Ihnen zu sagen,
01:32
you're like a pokerPoker playerSpieler, you have a tell.
34
77000
2000
Sie sind wie ein Pokerspieler, Sie haben sich verraten.
01:34
I can tell with dataDaten analysisAnalyse what you're going to do
35
79000
2000
Anhand der Datenanalyse kann ich sagen, was Sie tun werden,
01:36
before you even do it.
36
81000
2000
bevor Sie es überhaupt tun.
01:38
I know what you like. I know who you are,
37
83000
3000
Ich weiss, was Sie mögen. Ich weiss, wer Sie sind.
01:41
and that's even before I look at your mailPost
38
86000
2000
Sogar noch bevor ich Ihre Post ansehe
01:43
or your phoneTelefon.
39
88000
2000
oder Ihr Telefon.
01:45
Those are the kindsArten of things we can do
40
90000
2000
All diese Dinge können wir tun
01:47
with the dataDaten that we have.
41
92000
3000
mit den Daten, die wir haben.
01:50
But I'm not actuallytatsächlich here to talk about what we can do.
42
95000
3000
Aber ich bin nicht wirklich hier, um darüber zu sprechen, was wir tun können.
01:56
I'm here to talk about what we should do.
43
101000
3000
Ich bin hier, um darüber zu sprechen, was wir tun sollten.
02:00
What's the right thing to do?
44
105000
3000
Was ist das Richtige?
02:04
Now I see some puzzledverwirrt lookssieht aus
45
109000
2000
Ich sehe einige verwirrte Blicke, wie,
02:06
like, "Why are you askingfragen us what's the right thing to do?
46
111000
3000
"Wieso fragen Sie uns, was das Richtige zu tun ist
02:09
We're just buildingGebäude this stuffSachen. SomebodyJemand elsesonst is usingmit it."
47
114000
3000
Wir bauen diese Dinge ja nur, jemand anders benutzt es."
02:12
FairFair enoughgenug.
48
117000
3000
Schön und gut.
02:15
But it bringsbringt me back.
49
120000
2000
Aber das bringt mich zurück zu vorhin.
02:17
I think about WorldWelt WarKrieg IIII --
50
122000
2000
Ich denke an den zweiten Weltkriegt –
02:19
some of our great technologistsTechnologen then,
51
124000
2000
einige unserer grossen Technologen damals,
02:21
some of our great physicistsPhysiker,
52
126000
2000
einige unserer grossartigen Physiker,
02:23
studyingstudieren nuclearKern fissionKernspaltung and fusionVerschmelzung --
53
128000
2000
die Kernspaltung und -fusion untersuchten –
02:25
just nuclearKern stuffSachen.
54
130000
2000
nukleares Zeug halt.
02:27
We gatherversammeln togetherzusammen these physicistsPhysiker in LosLos AlamosAlamos
55
132000
3000
Wir versammeln diese Physiker in Los Alamos,
02:30
to see what they'llsie werden buildbauen.
56
135000
3000
um zu sehen, was sie bauen.
02:33
We want the people buildingGebäude the technologyTechnologie
57
138000
3000
Wir wollen, dass die Menschen, welche die Technologie erschaffen,
02:36
thinkingDenken about what we should be doing with the technologyTechnologie.
58
141000
3000
darüber nachdenken, was wir mit der Technologie tun sollten.
02:41
So what should we be doing with that guy'sJungs dataDaten?
59
146000
3000
Was also sollten wir mit den Daten dieses Mannes tun?
02:44
Should we be collectingSammeln it, gatheringVersammlung it,
60
149000
3000
Sollten wir sie sammeln,
02:47
so we can make his onlineonline experienceErfahrung better?
61
152000
2000
so dass wir sein Online-Erlebnis besser machen können?
02:49
So we can make moneyGeld?
62
154000
2000
So dass wir damit Geld verdienen können?
02:51
So we can protectschützen ourselvesuns selbst
63
156000
2000
So dass wir uns vor ihm schützen können,
02:53
if he was up to no good?
64
158000
2000
wenn er Übles im Schilde führte?
02:55
Or should we respectdie Achtung his privacyDatenschutz,
65
160000
3000
Oder sollten wir seine Privatsphäre respektieren,
02:58
protectschützen his dignityWürde and leaveverlassen him aloneallein?
66
163000
3000
seine Würde schützen und ihn in Ruhe lassen?
03:02
WhichDie one is it?
67
167000
3000
Was ist das Richtige?
03:05
How should we figureZahl it out?
68
170000
2000
Wie sollten wir das rausfinden?
03:07
I know: crowdsourceCrowdsourcing. Let's crowdsourceCrowdsourcing this.
69
172000
3000
Ich weiss: Crowdsourcing. Lassen Sie uns das gemeinsam klären.
03:11
So to get people warmederwärmt up,
70
176000
3000
Um uns alle aufzuwärmen,
03:14
let's startAnfang with an easyeinfach questionFrage --
71
179000
2000
fangen wir mit einer einfachen Frage an –
03:16
something I'm sure everybodyjeder here has an opinionMeinung about:
72
181000
3000
etwas, wozu sicher jeder hier eine Meinung hat.
03:19
iPhoneiPhone versusgegen AndroidAndroid.
73
184000
2000
iPhone gegen Android.
03:21
Let's do a showShow of handsHände -- iPhoneiPhone.
74
186000
3000
Zeigen Sie mir Ihre Hände – iPhone.
03:24
Uh huh.
75
189000
2000
Uh huh.
03:26
AndroidAndroid.
76
191000
3000
Android.
03:29
You'dSie würde think with a bunchBündel of smartsmart people
77
194000
2000
Man würde meinen, ein Haufen kluger Leute wie wir
03:31
we wouldn'twürde nicht be sucheine solche suckersSaugnäpfe just for the prettyziemlich phonesTelefone.
78
196000
2000
würde nicht wie die Trottel den hübschen Handys hinterherrennen.
03:33
(LaughterLachen)
79
198000
2000
(Gelächter)
03:35
NextNächste questionFrage,
80
200000
2000
Nächste Frage,
03:37
a little bitBit harderSchwerer.
81
202000
2000
ein bisschen schwieriger.
03:39
Should we be collectingSammeln all of that guy'sJungs dataDaten
82
204000
2000
Sollten wir all die Daten dieses Mannes sammeln,
03:41
to make his experiencesErfahrungen better
83
206000
2000
um sein Erlebnis besser zu machen
03:43
and to protectschützen ourselvesuns selbst in caseFall he's up to no good?
84
208000
3000
und uns zu schützen, falls er Schlechtes vor hat?
03:46
Or should we leaveverlassen him aloneallein?
85
211000
2000
Oder sollten wir ihn in Ruhe lassen?
03:48
CollectSammeln his dataDaten.
86
213000
3000
Seine Daten sammeln.
03:53
LeaveVerlassen him aloneallein.
87
218000
3000
Ihn in Ruhe lassen.
03:56
You're safeSafe. It's fine.
88
221000
2000
Sie sind sicher, alles ist gut.
03:58
(LaughterLachen)
89
223000
2000
(Gelächter)
04:00
Okay, last questionFrage --
90
225000
2000
Ok, letzte Frage –
04:02
harderSchwerer questionFrage --
91
227000
2000
schwierigere Frage –
04:04
when tryingversuchen to evaluatebewerten
92
229000
3000
wenn wir versuchen herauszufinden,
04:07
what we should do in this caseFall,
93
232000
3000
was wir in diesem Fall tun sollten,
04:10
should we use a KantianKantischen deontologicalberufsethischen moralMoral- frameworkRahmen,
94
235000
4000
sollten wir einen deontologischen moralischen Massstab nach Kant anlegen
04:14
or should we use a MillianKonsequentialitätslogik consequentialistConsequentialist one?
95
239000
3000
oder die Konsequentialitätslogik nach Mill?
04:19
KantKant.
96
244000
3000
Kant.
04:22
MillMühle.
97
247000
3000
Mill.
04:25
Not as manyviele votesStimmen.
98
250000
2000
Nicht so viele Stimmen.
04:27
(LaughterLachen)
99
252000
3000
(Gelächter)
04:30
Yeah, that's a terrifyingschrecklich resultErgebnis.
100
255000
3000
Ja, das ist ein erschreckendes Resultat.
04:34
TerrifyingErschreckend, because we have strongerstärker opinionsMeinungen
101
259000
4000
Erschreckend, weil wir eine gefestigtere Meinung
04:38
about our hand-heldHand-Held devicesGeräte
102
263000
2000
über unsere Smartphones haben,
04:40
than about the moralMoral- frameworkRahmen
103
265000
2000
als über unseren moralischen Masstab,
04:42
we should use to guideführen our decisionsEntscheidungen.
104
267000
2000
den wir als Richtlinie für unsere Entscheidungen verwenden sollten.
04:44
How do we know what to do with all the powerLeistung we have
105
269000
3000
Woher wissen wir, was wir mit unserer Macht anfangen sollen,
04:47
if we don't have a moralMoral- frameworkRahmen?
106
272000
3000
wenn wir keinen moralischen Masstab haben?
04:50
We know more about mobileMobile operatingBetriebs systemsSysteme,
107
275000
3000
Wir wissen mehr über mobile Betriebssysteme,
04:53
but what we really need is a moralMoral- operatingBetriebs systemSystem.
108
278000
3000
aber was wir wirklich brauchen, ist ein moralisches Betriebssystem.
04:58
What's a moralMoral- operatingBetriebs systemSystem?
109
283000
2000
Was ist ein moralisches Betriebssystem?
05:00
We all know right and wrongfalsch, right?
110
285000
2000
Wir alle kennen richtig und falsch, nicht wahr.
05:02
You feel good when you do something right,
111
287000
2000
Man fühlt sich gut, wenn man das Richtige tut,
05:04
you feel badschlecht when you do something wrongfalsch.
112
289000
2000
man fühlt sich schlecht, wenn man das Falsche tut.
05:06
Our parentsEltern teachlehren us that: praiseloben with the good, scoldschelten with the badschlecht.
113
291000
3000
Unsere Eltern lehren uns: das Gute loben, das Böse schelten.
05:09
But how do we figureZahl out what's right and wrongfalsch?
114
294000
3000
Aber wie finden wir heraus, was richtig und was falsch ist?
05:12
And from day to day, we have the techniquesTechniken that we use.
115
297000
3000
Jeden Tag folgen wir bestimmten Techniken, die wir verwenden.
05:15
Maybe we just followFolgen our gutDarm.
116
300000
3000
Vielleicht folgen wir einfach unserem Bauch.
05:18
Maybe we take a voteAbstimmung -- we crowdsourceCrowdsourcing.
117
303000
3000
Vielleicht machen wir eine Abstimmung – lassen die Menge entscheiden.
05:21
Or maybe we puntPunt --
118
306000
2000
Oder wir weichen aus –
05:23
askFragen the legallegal departmentAbteilung, see what they say.
119
308000
3000
fragen die Rechtsabteilung und sehen, was die sagen.
05:26
In other wordsWörter, it's kindArt of randomzufällig,
120
311000
2000
In anderen Worten, es ist ziemlich zufällig,
05:28
kindArt of adAnzeige hochoc,
121
313000
2000
sozusagen fallweise,
05:30
how we figureZahl out what we should do.
122
315000
3000
wie wir herausfinden, was wir tun sollten.
05:33
And maybe, if we want to be on surersicherer footingFundament,
123
318000
3000
Und vielleicht, wenn wir einen sichereren Stand haben wollen,
05:36
what we really want is a moralMoral- frameworkRahmen that will help guideführen us there,
124
321000
3000
möchten wir wirklich einen moralischen Massstab haben, der uns dahin führt,
05:39
that will tell us what kindsArten of things are right and wrongfalsch in the first placeOrt,
125
324000
3000
der uns erst einmal sagt, welche Dinge richtig oder falsch sind
05:42
and how would we know in a givengegeben situationLage what to do.
126
327000
4000
und der uns wissen lässt, was in einer bestimmten Situation zu tun ist.
05:46
So let's get a moralMoral- frameworkRahmen.
127
331000
2000
Also lassen Sie uns einen moralischen Massstab finden.
05:48
We're numbersNummern people, livingLeben by numbersNummern.
128
333000
3000
Wir sind Zahlenleute, wir leben nach Zahlen.
05:51
How can we use numbersNummern
129
336000
2000
Wie können wir Zahlen als Basis
05:53
as the basisBasis for a moralMoral- frameworkRahmen?
130
338000
3000
für unseren moralischen Masstab verwenden?
05:56
I know a guy who did exactlygenau that.
131
341000
3000
Ich kenne jemanden, der genau das getan hat.
05:59
A brilliantGenial guy --
132
344000
3000
Ein brillianter Typ –
06:02
he's been deadtot 2,500 yearsJahre.
133
347000
3000
er ist schon seit 2500 Jahren tot.
06:05
PlatoPlato, that's right.
134
350000
2000
Plato, genau.
06:07
RememberDenken Sie daran him -- oldalt philosopherPhilosoph?
135
352000
2000
Erinnern Sie sich – alter Philosoph?
06:09
You were sleepingSchlafen duringwährend that classKlasse.
136
354000
3000
Sie haben in dieser Schulstunde geschlafen.
06:12
And PlatoPlato, he had a lot of the samegleich concernsBedenken that we did.
137
357000
2000
Und Plato hatte oft dieselben Sorgen wie wir.
06:14
He was worriedbesorgt about right and wrongfalsch.
138
359000
2000
Er sorgte sich um richtig und falsch.
06:16
He wanted to know what is just.
139
361000
2000
Er wollte wissen, was gerecht ist.
06:18
But he was worriedbesorgt that all we seemscheinen to be doing
140
363000
2000
Aber er war beunruhigt darüber, dass wir darüber
06:20
is tradingHandel opinionsMeinungen about this.
141
365000
2000
nur Meinungen auszutauschen scheinen.
06:22
He sayssagt something'smanche Dinge just. She sayssagt something elsesonst is just.
142
367000
3000
Er sagt, etwas ist gerecht. Sie sagt, etwas anderes ist gerecht.
06:25
It's kindArt of convincingüberzeugend when he talksGespräche and when she talksGespräche too.
143
370000
2000
Beide sind ziemlich überzeugend.
06:27
I'm just going back and forthher; I'm not gettingbekommen anywhereirgendwo.
144
372000
2000
Ich gehe hin und her, ich komme nirgends an.
06:29
I don't want opinionsMeinungen; I want knowledgeWissen.
145
374000
3000
Ich will keine Meinungen, ich will Wissen.
06:32
I want to know the truthWahrheit about justiceGerechtigkeit --
146
377000
3000
Ich will die Wahrheit über Gerechtigkeit wissen –
06:35
like we have truthsWahrheiten in mathMathe.
147
380000
3000
so wie wir Wahrheiten in der Mathematik haben.
06:38
In mathMathe, we know the objectiveZielsetzung factsFakten.
148
383000
3000
In der Mathematik kennen wir die objektiven Fakten.
06:41
Take a numberNummer, any numberNummer -- two.
149
386000
2000
Nehmen Sie irgendeine Zahl – zwei.
06:43
FavoriteFavorit numberNummer. I love that numberNummer.
150
388000
2000
Lieblingszahl. Ich liebe diese Zahl.
06:45
There are truthsWahrheiten about two.
151
390000
2000
Es gibt Wahrheiten über die Zwei.
06:47
If you've got two of something,
152
392000
2000
Wenn man zwei von etwas hat,
06:49
you addhinzufügen two more, you get fourvier.
153
394000
2000
und man zwei dazu gibt, bekommt man vier.
06:51
That's truewahr no matterAngelegenheit what thing you're talkingim Gespräch about.
154
396000
2000
Das ist wahr, egal worüber man spricht.
06:53
It's an objectiveZielsetzung truthWahrheit about the formbilden of two,
155
398000
2000
Es ist eine objektive Wahrheit über die Form der Zwei,
06:55
the abstractabstrakt formbilden.
156
400000
2000
die abstrakte Form.
06:57
When you have two of anything -- two eyesAugen, two earsOhren, two nosesNasen,
157
402000
2000
Wenn man zwei von irgendwas hat – zwei Augen, Ohren, Nasen,
06:59
just two protrusionsVorsprünge --
158
404000
2000
zwei Bandscheibenleiden –
07:01
those all partaketeilnehmen of the formbilden of two.
159
406000
3000
all diese Dinge nehmen an der Form der Zwei teil.
07:04
They all participatesich beteiligen in the truthsWahrheiten that two has.
160
409000
4000
Sie sind ein Teil der Wahrheiten, die die Zwei hat.
07:08
They all have two-nesszwei-ness in them.
161
413000
2000
Sie haben alle Zwei-heit in sich.
07:10
And thereforedeswegen, it's not a matterAngelegenheit of opinionMeinung.
162
415000
3000
Und deshalb ist das keine Meinungsfrage.
07:13
What if, PlatoPlato thought,
163
418000
2000
Plato dachte also, was wäre,
07:15
ethicsEthik was like mathMathe?
164
420000
2000
wenn Ethik wie Mathematik wäre?
07:17
What if there were a purerein formbilden of justiceGerechtigkeit?
165
422000
3000
Was, wenn es eine reine Form von Gerechtigkeit gäbe?
07:20
What if there are truthsWahrheiten about justiceGerechtigkeit,
166
425000
2000
Was, wenn es Wahrheiten über Gerechtigkeit gibt
07:22
and you could just look around in this worldWelt
167
427000
2000
und man sich einfach in der Welt umsehen könnte
07:24
and see whichwelche things participatedteilgenommen,
168
429000
2000
und sehen, welche Dinge an dieser Form
07:26
partookaßen of that formbilden of justiceGerechtigkeit?
169
431000
3000
von Gerechtigkeit teilhalben?
07:29
Then you would know what was really just and what wasn'twar nicht.
170
434000
3000
Dann wüsste man, was wirklich gerecht wäre und was nicht.
07:32
It wouldn'twürde nicht be a matterAngelegenheit
171
437000
2000
Es wäre dann keine Frage
07:34
of just opinionMeinung or just appearancesAuftritte.
172
439000
3000
von Meinung oder gerechter Erscheinung.
07:37
That's a stunningatemberaubend visionVision.
173
442000
2000
Das ist eine umwerfende Vision.
07:39
I mean, think about that. How grandgroßartig. How ambitiousehrgeizige.
174
444000
3000
Ich meine, denken Sie darüber nach. Wie grossartig, wie ehrgeizig.
07:42
That's as ambitiousehrgeizige as we are.
175
447000
2000
So ehrgeizig, wie wir sind.
07:44
He wants to solvelösen ethicsEthik.
176
449000
2000
Er will die Ethik lösen.
07:46
He wants objectiveZielsetzung truthsWahrheiten.
177
451000
2000
Er will objektive Wahrheiten.
07:48
If you think that way,
178
453000
3000
Wenn man so darüber nachdenkt,
07:51
you have a PlatonistPlatoniker moralMoral- frameworkRahmen.
179
456000
3000
hat man einen moralischen Massstab nach Plato.
07:54
If you don't think that way,
180
459000
2000
Wenn man nicht so denkt,
07:56
well, you have a lot of companyUnternehmen in the historyGeschichte of WesternWestern philosophyPhilosophie,
181
461000
2000
nun, dann hat man viel Gesellschaft in der Geschichte der westlichen Philosophie,
07:58
because the tidyordentlich ideaIdee, you know, people criticizedkritisiert it.
182
463000
3000
denn diese ordentliche Idee – wissen Sie, sie wurde kritisiert.
08:01
AristotleAristoteles, in particularinsbesondere, he was not amusedamüsiert.
183
466000
3000
Besonders Aristoteles war nicht erfreut.
08:04
He thought it was impracticalunpraktisch.
184
469000
3000
Er fand das sehr unpraktisch.
08:07
AristotleAristoteles said, "We should seeksuchen only so much precisionPräzision in eachjede einzelne subjectFach
185
472000
4000
Aristoteles sagte, "Wir sollten nur soviel Präzision in jedem Thema suchen,
08:11
as that subjectFach allowserlaubt."
186
476000
2000
wie es dieses Thema erlaubt."
08:13
AristotleAristoteles thought ethicsEthik wasn'twar nicht a lot like mathMathe.
187
478000
3000
Aristoteles fand, Ethik sei überhaupt nicht wie Mathematik.
08:16
He thought ethicsEthik was a matterAngelegenheit of makingHerstellung decisionsEntscheidungen in the here-and-nowHier und jetzt
188
481000
3000
Er dachte, Ethik sei eine Frage von Entscheidungen im Hier und Jetzt,
08:19
usingmit our bestBeste judgmentBeurteilung
189
484000
2000
unter Verwendung unseres besten Urteilsvermögens
08:21
to find the right pathPfad.
190
486000
2000
um den richtigen Weg zu finden.
08:23
If you think that, Plato'sPlatons not your guy.
191
488000
2000
Wenn Sie das denken, ist Plato nicht Ihr Mann.
08:25
But don't give up.
192
490000
2000
Aber geben Sie nicht auf.
08:27
Maybe there's anotherein anderer way
193
492000
2000
Vielleicht gibt es einen anderen Weg,
08:29
that we can use numbersNummern as the basisBasis of our moralMoral- frameworkRahmen.
194
494000
3000
wie wir Zahlen als Grundlage für unseren moralischen Massstab verwenden können.
08:33
How about this:
195
498000
2000
Wie wäre es damit:
08:35
What if in any situationLage you could just calculateberechnen,
196
500000
3000
Was, wenn man in jeder Situation einfach rechnen könnte,
08:38
look at the choicesAuswahlmöglichkeiten,
197
503000
2000
sich die Wahlmöglichkeiten ansehen,
08:40
measuremessen out whichwelche one'sEinsen better and know what to do?
198
505000
3000
messen, welche die bessere ist und wissen, was tun?
08:43
That soundklingen familiarfamiliär?
199
508000
2000
Klingt das vertraut?
08:45
That's a utilitarianutilitaristischen moralMoral- frameworkRahmen.
200
510000
3000
Das ist ein utilitaristischer moralischer Massstab.
08:48
JohnJohn StuartStuart MillMühle was a great advocatebefürworten of this --
201
513000
2000
John Stuart Mill war ein grosser Verfechter davon –
08:50
nicenett guy besidesAußerdem --
202
515000
2000
ein guter Mann übrigens –
08:52
and only been deadtot 200 yearsJahre.
203
517000
2000
und erst seit 200 Jahren tot.
08:54
So basisBasis of utilitarianismUtilitarismus --
204
519000
2000
Die Grundlage des Utilitarianismus –
08:56
I'm sure you're familiarfamiliär at leastam wenigsten.
205
521000
2000
ich bin sicher, damit sind Sie zumindest vertraut.
08:58
The threedrei people who votedgewählt for MillMühle before are familiarfamiliär with this.
206
523000
2000
Die drei Leute, die vorhin für Mill gestimmt haben, sind damit vertraut.
09:00
But here'shier ist the way it worksWerke.
207
525000
2000
Aber so funktioniert es.
09:02
What if moralsMoral, what if what makesmacht something moralMoral-
208
527000
3000
Was, wenn die Moral, das was etwas moralisch macht,
09:05
is just a matterAngelegenheit of if it maximizesmaximiert die pleasureVergnügen
209
530000
2000
nur eine Frage davon ist, ob es Vergnügen maximiert
09:07
and minimizesminimiert painSchmerz?
210
532000
2000
und Schmerz minimiert?
09:09
It does something intrinsicintrinsische to the actHandlung.
211
534000
3000
Es fügt der Tat etwas intrinsisches hinzu.
09:12
It's not like its relationBeziehung to some abstractabstrakt formbilden.
212
537000
2000
Es ist nicht wie ihre Beziehung zu einer abstrakten Form.
09:14
It's just a matterAngelegenheit of the consequencesFolgen.
213
539000
2000
Es ist eine Frage der Konsequenzen.
09:16
You just look at the consequencesFolgen
214
541000
2000
Man sieht sich die Konsequenzen an
09:18
and see if, overallinsgesamt, it's for the good or for the worseschlechter.
215
543000
2000
und ob es, über alles gesehen, zum Guten oder zum Schlechten ist.
09:20
That would be simpleeinfach. Then we know what to do.
216
545000
2000
Das wäre einfach. Dann wüssten wir, was zu tun ist.
09:22
Let's take an exampleBeispiel.
217
547000
2000
Lassen Sie uns ein Beispiel machen.
09:24
SupposeNehmen wir an I go up
218
549000
2000
Nehmen wir an, ich gehe hier hoch
09:26
and I say, "I'm going to take your phoneTelefon."
219
551000
2000
und ich sage, "Ich nehme jetzt Ihr Telefon."
09:28
Not just because it rangklingelte earliervorhin,
220
553000
2000
Nicht, weil es vorhin geklingelt hat,
09:30
but I'm going to take it because I madegemacht a little calculationBerechnung.
221
555000
3000
ich nehme es, weil ich eine kleine Berechnung gemacht habe.
09:33
I thought, that guy lookssieht aus suspiciousverdächtig.
222
558000
3000
Ich dachte mir, dieser Typ sieht verdächtig aus.
09:36
And what if he's been sendingSenden little messagesNachrichten to BinBin Laden'sBeladen des hideoutVersteck --
223
561000
3000
Und was, wenn er Nachrichten an Bin Ladens Versteck geschickt hat –
09:39
or whoeverwer auch immer tookdauerte over after BinBin LadenBeladen --
224
564000
2000
oder an wen auch immer, der nach Bin Laden übernommen hat –
09:41
and he's actuallytatsächlich like a terroristTerrorist, a sleeperSchläfer cellZelle.
225
566000
3000
und er ist tatsächlich sowas wie ein Terrorist, eine Schläferzelle.
09:44
I'm going to find that out, and when I find that out,
226
569000
3000
Ich werde das herausfinden, und wenn ich es herausfinde,
09:47
I'm going to preventverhindern a hugeenorm amountMenge of damageBeschädigung that he could causeUrsache.
227
572000
3000
werde ich eine grosse Menge Schaden verhindern, den er anrichten könnte.
09:50
That has a very highhoch utilityNutzen to preventverhindern that damageBeschädigung.
228
575000
3000
Es hat einen sehr hohen Nutzen, diesen Schaden zu verhindern.
09:53
And comparedverglichen to the little painSchmerz that it's going to causeUrsache --
229
578000
2000
Und verglichen mit dem kleinen Schmerz, den es verursachen wird –
09:55
because it's going to be embarrassingpeinlich when I'm looking on his phoneTelefon
230
580000
2000
denn es wird unangenehm sein, wenn ich mir sein Telefon ansehe
09:57
and seeingSehen that he has a FarmvilleFarmville problemProblem and that wholeganze bitBit --
231
582000
3000
und sehe dass er ein Farmville-Problem und all das hat –
10:00
that's overwhelmedüberwältigt
232
585000
3000
das wird überstrahlt
10:03
by the valueWert of looking at the phoneTelefon.
233
588000
2000
vom Wert, sich das Telefon anzusehen.
10:05
If you feel that way,
234
590000
2000
Wenn Sie so fühlen,
10:07
that's a utilitarianutilitaristischen choiceWahl.
235
592000
3000
ist das eine utiliaristische Wahl.
10:10
But maybe you don't feel that way eitherentweder.
236
595000
3000
Aber vielleicht fühlen Sie auch nicht so.
10:13
Maybe you think, it's his phoneTelefon.
237
598000
2000
Vielleicht denken Sie, es ist sein Telefon.
10:15
It's wrongfalsch to take his phoneTelefon
238
600000
2000
Es ist falsch, sein Telefon zu nehmen,
10:17
because he's a personPerson
239
602000
2000
denn er ist eine Person
10:19
and he has rightsRechte and he has dignityWürde,
240
604000
2000
und er hat Rechte und seine Würde,
10:21
and we can't just interfereeinmischen with that.
241
606000
2000
und wir können das nicht einfach beeinträchtigen.
10:23
He has autonomyAutonomie.
242
608000
2000
Er ist autonom.
10:25
It doesn't matterAngelegenheit what the calculationsBerechnungen are.
243
610000
2000
Es spielt keine Rolle, wie die Berechnungen sind.
10:27
There are things that are intrinsicallyintrinsisch wrongfalsch --
244
612000
3000
Es gibt Dinge, die intrinsisch falsch sind –
10:30
like lyingliegend is wrongfalsch,
245
615000
2000
wie es falsch ist, zu lügen
10:32
like torturingfoltern innocentunschuldig childrenKinder is wrongfalsch.
246
617000
3000
oder unschuldige Kinder zu quälen.
10:35
KantKant was very good on this pointPunkt,
247
620000
3000
Kant war in diesem Punkt sehr gut,
10:38
and he said it a little better than I'll say it.
248
623000
2000
und er sagte es ein bisschen besser, als ich es sagen werde.
10:40
He said we should use our reasonGrund
249
625000
2000
Er sagte, wir sollten unsere Vernunft benutzen,
10:42
to figureZahl out the rulesRegeln by whichwelche we should guideführen our conductVerhalten,
250
627000
3000
um die Regeln herauszufinden, die unser Verhalten bestimmen.
10:45
and then it is our dutyPflicht to followFolgen those rulesRegeln.
251
630000
3000
Und dann ist es unsere Pflicht, diesen Regeln zu folgen.
10:48
It's not a matterAngelegenheit of calculationBerechnung.
252
633000
3000
Es ist keine Frage von Berechnung.
10:51
So let's stop.
253
636000
2000
Also lassen Sie uns aufhören.
10:53
We're right in the thickdick of it, this philosophicalphilosophisch thicketDickicht.
254
638000
3000
Wir sind mitten drin in diesem philosophischen Gewühl.
10:56
And this goesgeht on for thousandsTausende of yearsJahre,
255
641000
3000
Und das geht schon seit Tausenden von Jahren so,
10:59
because these are hardhart questionsFragen,
256
644000
2000
denn das sind schwierige Fragen
11:01
and I've only got 15 minutesProtokoll.
257
646000
2000
und ich habe nur 15 Minuten.
11:03
So let's cutschneiden to the chaseChase.
258
648000
2000
Also lassen Sie uns auf den Punkt kommen.
11:05
How should we be makingHerstellung our decisionsEntscheidungen?
259
650000
4000
Wie sollten wir unsere Entscheidungen treffen?
11:09
Is it PlatoPlato, is it AristotleAristoteles, is it KantKant, is it MillMühle?
260
654000
3000
ist es Plato, Aristoteles, Kant oder Mill?
11:12
What should we be doing? What's the answerAntworten?
261
657000
2000
Was sollten wir tun? Was ist die Antwort?
11:14
What's the formulaFormel that we can use in any situationLage
262
659000
3000
Was ist die Formel, die wir in jeder Situation benutzen können,
11:17
to determinebestimmen what we should do,
263
662000
2000
um festzulegen, was wir tun sollten,
11:19
whetherob we should use that guy'sJungs dataDaten or not?
264
664000
2000
ob wir die Daten dieses Mannes verwenden sollten oder nicht?
11:21
What's the formulaFormel?
265
666000
3000
Was ist die Formel'
11:25
There's not a formulaFormel.
266
670000
2000
Es gibt keine Formel.
11:29
There's not a simpleeinfach answerAntworten.
267
674000
2000
Es gibt keine einfache Antwort.
11:31
EthicsEthik is hardhart.
268
676000
3000
Ethik ist schwierig.
11:34
EthicsEthik requireserfordert thinkingDenken.
269
679000
3000
Ethik verlangt Denkarbeit.
11:38
And that's uncomfortableunbequem.
270
683000
2000
Und das ist unbequem.
11:40
I know; I spentverbraucht a lot of my careerKarriere
271
685000
2000
Ich weiss, ich habe einen grossen Teil meiner Karriere damit verbracht,
11:42
in artificialkünstlich intelligenceIntelligenz,
272
687000
2000
mich mit künstlicher Intelligenz zu beschäftigen,
11:44
tryingversuchen to buildbauen machinesMaschinen that could do some of this thinkingDenken for us,
273
689000
3000
zu versuchen, Maschinen zu bauen, die etwas von dieser Arbeit für uns tun könnten,
11:47
that could give us answersAntworten.
274
692000
2000
die uns Antworten geben könnten.
11:49
But they can't.
275
694000
2000
Aber sie können es nicht.
11:51
You can't just take humanMensch thinkingDenken
276
696000
2000
Man kann nicht einfach menschliches Denken nehmen,
11:53
and put it into a machineMaschine.
277
698000
2000
und es in eine Maschine stecken.
11:55
We're the onesEinsen who have to do it.
278
700000
3000
Wir sind diejenigen, die es tun müssen.
11:58
HappilyGlücklich, we're not machinesMaschinen, and we can do it.
279
703000
3000
Glücklicherweise sind wir keine Maschinen.
12:01
Not only can we think,
280
706000
2000
Wir können nicht nur denken,
12:03
we mustsollen.
281
708000
2000
wir müssen.
12:05
HannahHannah ArendtArendt said,
282
710000
2000
Hannah Arendt sagte,
12:07
"The sadtraurig truthWahrheit
283
712000
2000
"Die traurige Wahrheit ist,
12:09
is that mostdie meisten evilböse doneerledigt in this worldWelt
284
714000
2000
dass das meiste Böse, was auf dieser Welt getan wird,
12:11
is not doneerledigt by people
285
716000
2000
nicht von Menschen getan wird,
12:13
who choosewählen to be evilböse.
286
718000
2000
die sich dazu entscheiden, schlecht zu sein.
12:15
It arisesentsteht from not thinkingDenken."
287
720000
3000
Es kommt dadurch, dass sie nicht nachdenken."
12:18
That's what she callednamens the "banalityBanalität of evilböse."
288
723000
4000
Das ist es, was wir die "Banalität des Bösen" nennen.
12:22
And the responseAntwort to that
289
727000
2000
Und die Antwort darauf ist,
12:24
is that we demandNachfrage the exerciseÜbung of thinkingDenken
290
729000
2000
dass wir Übung im Denken verlangen
12:26
from everyjeden saneSANE personPerson.
291
731000
3000
von jeder normalen Person.
12:29
So let's do that. Let's think.
292
734000
2000
Also lassen Sie uns das tun. Lassen Sie uns nachdenken.
12:31
In factTatsache, let's startAnfang right now.
293
736000
3000
Lassen Sie uns jetzt gleich damit anfange.
12:34
EveryJedes personPerson in this roomZimmer do this:
294
739000
3000
Jede Person in diesem Raum tut das folgende:
12:37
think of the last time you had a decisionEntscheidung to make
295
742000
3000
denken Sie an das letzte Mal, als Sie eine Entscheidung treffen mussten
12:40
where you were worriedbesorgt to do the right thing,
296
745000
2000
und sich darum sorgten, das Richtige zu tun,
12:42
where you wonderedwunderte sich, "What should I be doing?"
297
747000
2000
wo Sie sich gefragt haben, "Was sollte ich tun?"
12:44
BringBringen that to mindVerstand,
298
749000
2000
Rufen Sie sich das in Erinnerung.
12:46
and now reflectreflektieren on that
299
751000
2000
Und jetzt reflektieren Sie das
12:48
and say, "How did I come up that decisionEntscheidung?
300
753000
3000
und sagen sich, "Wie kam ich zu meiner Entscheidung?"
12:51
What did I do? Did I followFolgen my gutDarm?
301
756000
3000
Was habe ich getan? Habe ich auf meinen Bauch gehört?
12:54
Did I have somebodyjemand voteAbstimmung on it? Or did I puntPunt to legallegal?"
302
759000
2000
Habe ich jemanden abstimmen lassen? Oder habe ich es auf den Rechtsdienst abgeschoben?
12:56
Or now we have a fewwenige more choicesAuswahlmöglichkeiten.
303
761000
3000
Jetzt haben wir noch einige Möglichkeiten mehr.
12:59
"Did I evaluatebewerten what would be the highesthöchste pleasureVergnügen
304
764000
2000
"Habe ich untersucht, was das meiste Vergnügen zur Folge hat,
13:01
like MillMühle would?
305
766000
2000
wie Mill es tun würde?
13:03
Or like KantKant, did I use reasonGrund to figureZahl out what was intrinsicallyintrinsisch right?"
306
768000
3000
Oder habe ich wie Kant meine Vernunft benutzt, um herauszufinden, was intrinsisch richtig ist?"
13:06
Think about it. Really bringbringen it to mindVerstand. This is importantwichtig.
307
771000
3000
Denken Sie darüber nach. Rufen Sie es sich richtig in Erinnerung. Das ist wichtig.
13:09
It is so importantwichtig
308
774000
2000
Es ist so wichtig,
13:11
we are going to spendverbringen 30 secondsSekunden of valuablewertvoll TEDTalkTED-Vortrag time
309
776000
2000
dass wir 30 Sekunden wertvoller TEDTalk-Zeit darauf verwenden werden,
13:13
doing nothing but thinkingDenken about this.
310
778000
2000
nichts anderes zu tun, als darüber nachzudenken.
13:15
Are you readybereit? Go.
311
780000
2000
Sind Sie bereit? Los.
13:33
Stop. Good work.
312
798000
3000
Stopp. Gute Arbeit.
13:36
What you just did,
313
801000
2000
Was Sie gerade getan haben,
13:38
that's the first stepSchritt towardsin Richtung takingunter responsibilityVerantwortung
314
803000
2000
ist der erste Schritt dazu, Verantwortung dafür zu übernehmen,
13:40
for what we should do with all of our powerLeistung.
315
805000
3000
was wir mit all unserer Macht tun sollten.
13:45
Now the nextNächster stepSchritt -- try this.
316
810000
3000
Jetzt der nächste Schritt – versuchen Sie das.
13:49
Go find a friendFreund and explainerklären to them
317
814000
2000
Gehen Sie zu einem Freund und erklären Sie ihm,
13:51
how you madegemacht that decisionEntscheidung.
318
816000
2000
wie Sie diese Entscheidung gefällt haben.
13:53
Not right now. Wait tillbis I finishFertig talkingim Gespräch.
319
818000
2000
Nicht jetzt. Warten Sie, bis ich fertig gesprochen habe.
13:55
Do it over lunchMittagessen.
320
820000
2000
Tun Sie es in der Mittagspause.
13:57
And don't just find anotherein anderer technologistTechnologe friendFreund;
321
822000
3000
Und finden Sie nicht einfach einen anderen Freund aus der Technologie,
14:00
find somebodyjemand differentanders than you.
322
825000
2000
finden Sie jemanden, der anders ist als Sie.
14:02
Find an artistKünstler or a writerSchriftsteller --
323
827000
2000
Finden Sie einen Künstler oder einen Autoren –
14:04
or, heavenHimmel forbidverbieten, find a philosopherPhilosoph and talk to them.
324
829000
3000
oder, Gott bewahre, finden Sie einen Philosophen und sprechen Sie mit ihm.
14:07
In factTatsache, find somebodyjemand from the humanitiesGeisteswissenschaften.
325
832000
2000
Tatsächlich sollten Sie einen Geisteswissenschaftler finden.
14:09
Why? Because they think about problemsProbleme
326
834000
2000
Warum? Weil sie anders über Probleme nachdenken,
14:11
differentlyanders than we do as technologistsTechnologen.
327
836000
2000
als wir das als Technologen tun.
14:13
Just a fewwenige daysTage agovor, right acrossüber the streetStraße from here,
328
838000
3000
Vor einigen Tagen waren hier auf der anderen Strassenseite
14:16
there was hundredsHunderte of people gatheredversammelt togetherzusammen.
329
841000
2000
Hunderte von Menschen versammelt.
14:18
It was technologistsTechnologen and humanistsHumanisten
330
843000
2000
Es gab Technologen und Geisteswissenschaftler
14:20
at that biggroß BiblioTechBiblioTech ConferenceKonferenz.
331
845000
2000
an dieser grossen BiblioTech Konferenz.
14:22
And they gatheredversammelt togetherzusammen
332
847000
2000
Sie kamen zusammen,
14:24
because the technologistsTechnologen wanted to learnlernen
333
849000
2000
weil die Technologen lernen wollten,
14:26
what it would be like to think from a humanitiesGeisteswissenschaften perspectivePerspektive.
334
851000
3000
wie es wäre, aus einer geisteswissenschaftlichen Perspektive zu denken.
14:29
You have someonejemand from GoogleGoogle
335
854000
2000
Da hat man dann jemanden von Google,
14:31
talkingim Gespräch to someonejemand who does comparativevergleichende literatureLiteratur.
336
856000
2000
im Gespräch mit jemandem der Literaturvergleiche macht.
14:33
You're thinkingDenken about the relevanceRelevanz of 17thth centuryJahrhundert FrenchFranzösisch theaterTheater --
337
858000
3000
Man denkt über die Relevant des Französischen Theaters im 17. Jahrhundert nach –
14:36
how does that bearBär uponauf venturewagen capitalHauptstadt?
338
861000
2000
wie kommt das gegen Venture Kapital an?
14:38
Well that's interestinginteressant. That's a differentanders way of thinkingDenken.
339
863000
3000
Das ist interessant. Das ist eine andere Art zu denken.
14:41
And when you think in that way,
340
866000
2000
Wenn man auf diese Weise nachdenkt,
14:43
you becomewerden more sensitiveempfindlich to the humanMensch considerationsÜberlegungen,
341
868000
3000
wird man sensibler für menschliche Überlegungen,
14:46
whichwelche are crucialentscheidend to makingHerstellung ethicalethisch decisionsEntscheidungen.
342
871000
3000
die entscheidend für ethische Entscheidungen sind.
14:49
So imaginevorstellen that right now
343
874000
2000
Stellen Sie sich vor, dass Sie genau jetzt
14:51
you wentging and you foundgefunden your musicianMusiker friendFreund.
344
876000
2000
losgegangen sind und Ihren Musikerfreund getroffen haben.
14:53
And you're tellingErzählen him what we're talkingim Gespräch about,
345
878000
3000
Sie erzählen ihm, worüber wir hier sprechen,
14:56
about our wholeganze dataDaten revolutionRevolution and all this --
346
881000
2000
über unsere ganze Datenrevolution und all das –
14:58
maybe even humBrummen a fewwenige barsRiegel of our themeThema musicMusik-.
347
883000
2000
vielleicht summen Sie sogar ein paar Takte unserer Titelmusik.
15:00
DumDum taTA dada dada dumDum dumDum taTA dada dada dumDum
348
885000
3000
♫ Dum ta da da dum dum ta da da dum ♫
15:03
Well, your musicianMusiker friendFreund will stop you and say,
349
888000
2000
Ihr Musikerfreund wird Sie stoppen und sagen,
15:05
"You know, the themeThema musicMusik-
350
890000
2000
"Weisst Du, diese Titelmusik
15:07
for your dataDaten revolutionRevolution,
351
892000
2000
für Eure Datenrevolution,
15:09
that's an operaOper, that's WagnerWagner.
352
894000
2000
das ist eine Oper, das ist Wagner.
15:11
It's basedbasierend on NorseNorse legendLegende.
353
896000
2000
Sie basiert auf einer nordischen Legende.
15:13
It's GodsGötter and mythicalmythische creaturesKreaturen
354
898000
2000
Es geht um Götter und mystische Kreaturen,
15:15
fightingKampf over magicalmagisch jewelrySchmuck."
355
900000
3000
die um magische Juwelen kämpfen."
15:19
That's interestinginteressant.
356
904000
3000
Das ist interessant.
15:22
Now it's alsoebenfalls a beautifulschön operaOper,
357
907000
3000
Es ist auch eine wunderschöne Oper.
15:25
and we're movedbewegt by that operaOper.
358
910000
3000
Und die Oper bewegt uns.
15:28
We're movedbewegt because it's about the battleSchlacht
359
913000
2000
Wir sind bewegt, weil es um die Schlacht geht
15:30
betweenzwischen good and evilböse,
360
915000
2000
zwischen Gut und Böse,
15:32
about right and wrongfalsch.
361
917000
2000
zwischen Richtig und Falsch.
15:34
And we carePflege about right and wrongfalsch.
362
919000
2000
Richtig und Falsch sind wichtig für uns.
15:36
We carePflege what happensdas passiert in that operaOper.
363
921000
3000
Was in dieser Oper geschieht, ist wichtig für uns.
15:39
We carePflege what happensdas passiert in "ApocalypseApokalypse Now."
364
924000
3000
Was in "Apocalypse Now" geschieht, ist wichtig für uns.
15:42
And we certainlybestimmt carePflege
365
927000
2000
Und auf jeden Fall ist es wichtig für uns,
15:44
what happensdas passiert with our technologiesTechnologien.
366
929000
2000
was mit unseren Technologien geschieht.
15:46
We have so much powerLeistung todayheute,
367
931000
2000
Wir haben heute soviel Macht,
15:48
it is up to us to figureZahl out what to do,
368
933000
3000
es liegt an uns, herauszufinden, was zu tun ist.
15:51
and that's the good newsNachrichten.
369
936000
2000
Und das sind gute Neuigkeiten.
15:53
We're the onesEinsen writingSchreiben this operaOper.
370
938000
3000
Wir sind diejenigen, die die Oper schreiben.
15:56
This is our movieFilm.
371
941000
2000
Das ist unser Film.
15:58
We figureZahl out what will happengeschehen with this technologyTechnologie.
372
943000
3000
WIr finden heraus, was mit dieser Technologie geschieht.
16:01
We determinebestimmen how this will all endEnde.
373
946000
3000
Wir legen fest, wie das alles enden wird.
16:04
Thank you.
374
949000
2000
Dankeschön.
16:06
(ApplauseApplaus)
375
951000
5000
(Applaus)
Translated by Karin Friedli
Reviewed by Lex Asobo

▲Back to top

ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com