ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com
TEDxSiliconValley

Damon Horowitz: We need a "moral operating system"

O Ντέιμοντ Χόροβιτζ καλεί για ένα "λειτουργικό σύστημα ηθικής"

Filmed:
795,617 views

Στο TEDxSiliconValley, ο Ντέιμοντ Χόροβιτζ επισημαίνει τις τεράστιες νέες δυνατότητες που η τεχνολογία μας δίνει: να γνωρίζουμε ολοένα και περισσότερα ο ένας για τον άλλον, περισσότερα από οποτεδήποτε στο παρελθον. Οδηγώντας το κοινό σε μια φιλοσοφική συζήτηση, ο Χόροβιτζ μας προσκαλεί να προσέξουμε εκ νέου τη βασική φιλοσοφία - τις ηθικές αρχές - πίσω από την έκρηξη της εφευρετικότητας που ξαναφτιάχνει τον κόσμο μας. Που είναι το "λειτουργικό σύστημα ηθικής" που θα μας επιτρέψει να την κατανοήσουμε;
- Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities. Full bio

Double-click the English transcript below to play the video.

00:15
PowerΔύναμη.
0
0
2000
Δύναμη.
00:17
That is the wordλέξη that comesέρχεται to mindμυαλό.
1
2000
2000
Αυτή η λέξη έρχεται στο μυαλό.
00:19
We're the newνέος technologistsΤεχνολόγων.
2
4000
2000
Είμαστε οι νέοι τεχνολόγοι.
00:21
We have a lot of dataδεδομένα, so we have a lot of powerεξουσία.
3
6000
3000
Έχουμε πολλά δεδομένα, επομένως έχουμε μεγάλη δύναμη.
00:24
How much powerεξουσία do we have?
4
9000
2000
Πόση δύναμη έχουμε;
00:26
SceneΣκηνή from a movieταινία: "ApocalypseΑποκάλυψη Now" -- great movieταινία.
5
11000
3000
Σκηνή από την ταινία "Αποκάλυψη Τώρα" -- σπουδαία ταινία.
00:29
We'veΈχουμε got to get our heroήρωας, CaptainΚαπετάνιος WillardWillard, to the mouthστόμα of the NungNung RiverΠοταμός
6
14000
3000
Πρέπει να πάμε τον ήρωά μας, το λοχαγό Γουίλαρντ στις εκβολές του ποταμού Nανγκ
00:32
so he can go pursueεπιδιώκω ColonelΟ συνταγματάρχης KurtzKurtz.
7
17000
2000
ώστε να καταδιώξει τον ταγματάρχη Κερτς.
00:34
The way we're going to do this is flyπετώ him in and dropπτώση him off.
8
19000
2000
Ο τρόπος που θα το κάνουμε είναι να τον "πετάξουμε" και να τον αφήσουμε.
00:36
So the sceneσκηνή:
9
21000
2000
Οπότε η σκηνή:
00:38
the skyουρανός is filledγέματο with this fleetστόλος of helicoptersελικόπτερα carryingμεταφέρουν him in.
10
23000
3000
ο ουρανός είναι γεμάτος με αυτό το στόλο από ελικόπτερα που τον μεταφέρουν.
00:41
And there's this loudμεγαλόφωνος, thrillingσυναρπαστική musicΜΟΥΣΙΚΗ in the backgroundΙστορικό,
11
26000
2000
Και υπάρχει αυτή η δυνατή, συγκλονιστική μουσική στο φόντο,
00:43
this wildάγριος musicΜΟΥΣΙΚΗ.
12
28000
2000
αυτή η άγρια μουσική.
00:45
DumDUM dada taTA dada dumDUM
13
30000
2000
00:47
DumDUM dada taTA dada dumDUM
14
32000
2000
00:49
DaDA taTA dada dada
15
34000
3000
00:52
That's a lot of powerεξουσία.
16
37000
2000
Μεγάλη δύναμη.
00:54
That's the kindείδος of powerεξουσία I feel in this roomδωμάτιο.
17
39000
2000
Είναι αυτό το είδος της δύναμης που αισθάνομαι σ΄αυτό το δωμάτιο.
00:56
That's the kindείδος of powerεξουσία we have
18
41000
2000
Αυτό το είδος της δύναμης που έχουμε
00:58
because of all of the dataδεδομένα that we have.
19
43000
2000
εξ΄αιτίας όλων των δεδομένων που έχουμε.
01:00
Let's take an exampleπαράδειγμα.
20
45000
2000
Ας πάρουμε ένα παράδειγμα.
01:02
What can we do
21
47000
2000
Τι μπορούμε να κάνουμε
01:04
with just one person'sτου ατόμου dataδεδομένα?
22
49000
3000
με τα δεδομένα ενός ατόμου;
01:07
What can we do
23
52000
2000
Τι μπορούμε να κάνουμε
01:09
with that guy'sπαιδιά dataδεδομένα?
24
54000
2000
με τα δεδομένα αυτού του ανθρώπου;
01:11
I can look at your financialχρηματοοικονομική recordsαρχεία.
25
56000
2000
Μπορώ να κοιτάξω τα οικονομικά σου στοιχεία.
01:13
I can tell if you payπληρωμή your billsλογαριασμοί on time.
26
58000
2000
Μπορώ να πω αν πληρώνεις έγκαιρα τους λογαριασμούς σου.
01:15
I know if you're good to give a loanδάνειο to.
27
60000
2000
Ξέρω αν μπορείς να πάρεις ένα δάνειο.
01:17
I can look at your medicalιατρικός recordsαρχεία; I can see if your pumpαντλία is still pumpingάντληση --
28
62000
3000
Μπορώ να κοιτάξω στο ιατρικό σου ιστορικό, μπορώ να δώ αν η καρδιά σου δουλεύει ακόμη --
01:20
see if you're good to offerπροσφορά insuranceΑΣΦΑΛΙΣΗ to.
29
65000
3000
να δω αν είσαι καλός πελάτης για ασφάλεια.
01:23
I can look at your clickingκάνοντας κλικ patternsσχέδια.
30
68000
2000
Μπορώ να κοιτάξω που κλικάρεις.
01:25
When you come to my websiteδικτυακός τόπος, I actuallyπράγματι know what you're going to do alreadyήδη
31
70000
3000
Όταν έρχεσαι στην ιστοσελίδα μου, στην πραγματικότητα ξέρω από πριν τι θα κάνεις,
01:28
because I've seenείδα you visitεπίσκεψη millionsεκατομμύρια of websitesιστοσελίδες before.
32
73000
2000
επειδή σε έχω δει να επισκέπτεσαι εκατομμύρια ιστοσελίδες.
01:30
And I'm sorry to tell you,
33
75000
2000
Και λυπάμαι που στο λέω.
01:32
you're like a pokerπόκερ playerπαίχτης, you have a tell.
34
77000
2000
αλλά είσαι σαν ένας παίχτης του πόκερ, έχεις συγκεκριμένο τρόπο σκέψης.
01:34
I can tell with dataδεδομένα analysisανάλυση what you're going to do
35
79000
2000
Μπορώ να προβλέψω, μέσω ανάλυσης δεδομένων, τι πρόκειται να κάνεις
01:36
before you even do it.
36
81000
2000
πριν το κάνεις.
01:38
I know what you like. I know who you are,
37
83000
3000
Ξέρω τι σου αρέσει. Ξέρω ποιος είσαι.
01:41
and that's even before I look at your mailταχυδρομείο
38
86000
2000
Κι αυτό πριν ακόμη κοιτάξω την αλληλογραφία σου
01:43
or your phoneτηλέφωνο.
39
88000
2000
ή το τηλέφωνό σου.
01:45
Those are the kindsείδη of things we can do
40
90000
2000
Τέτοια πράγματα μπορούμε να κάνουμε
01:47
with the dataδεδομένα that we have.
41
92000
3000
με τα δεδομένα που έχουμε.
01:50
But I'm not actuallyπράγματι here to talk about what we can do.
42
95000
3000
Αλλά, στην πραγματικότητα, δεν είμαι εδώ για να σας πω τι μπορούμε να κάνουμε.
01:56
I'm here to talk about what we should do.
43
101000
3000
Είμαι εδώ για να σας πω τι πρέπει να κάνουμε.
02:00
What's the right thing to do?
44
105000
3000
Ποιο είναι το σωστό;
02:04
Now I see some puzzledπροβλημάτισε looksφαίνεται
45
109000
2000
Τώρα βλέπω μερικά απορημένα βλέμματα
02:06
like, "Why are you askingζητώντας us what's the right thing to do?
46
111000
3000
όπως, "Γιατί ρωτάς εμάς ποιο είναι το σωστό που πρέπει να κάνουμε;
02:09
We're just buildingΚτίριο this stuffυλικό. SomebodyΚάποιος elseαλλού is usingχρησιμοποιώντας it."
47
114000
3000
Εμείς απλώς φτιάχνουμε αυτά τα πράγματα. Κάποιος άλλος τα χρησιμοποιεί."
02:12
FairΔίκαιη enoughαρκετά.
48
117000
3000
Αρκετά δίκαιο.
02:15
But it bringsφέρνει me back.
49
120000
2000
Αλλά με κάνει να θυμηθώ.
02:17
I think about WorldΚόσμο WarΠόλεμος IIII --
50
122000
2000
Θυμάμαι το Β' Παγκόσμιο Πόλεμο --
02:19
some of our great technologistsΤεχνολόγων then,
51
124000
2000
κάποιοι από τους καλύτερους τεχνολόγους μας τότε,
02:21
some of our great physicistsφυσικοί,
52
126000
2000
κάποιοι από τους καλύτερους φυσικούς μας,
02:23
studyingμελετώντας nuclearπυρηνικός fissionσχάση and fusionσύντηξη --
53
128000
2000
μελετούσαν την πυρηνική σχάση και τήξη --
02:25
just nuclearπυρηνικός stuffυλικό.
54
130000
2000
και άλλα πυρηνικά θέματα.
02:27
We gatherμαζεύω togetherμαζί these physicistsφυσικοί in LosΛος AlamosΆλαμος
55
132000
3000
Μαζεύουμε αυτούς τους φυσικούς στο Λος Άλαμος
02:30
to see what they'llθα το κάνουν buildχτίζω.
56
135000
3000
για να δούμε τι μπορούν να φτιάξουν.
02:33
We want the people buildingΚτίριο the technologyτεχνολογία
57
138000
3000
Θέλουμε τους ανθρώπους που φτιάχνουν την τεχνολογία
02:36
thinkingσκέψη about what we should be doing with the technologyτεχνολογία.
58
141000
3000
να σκέφτονται τι θα έπρεπε να κάνουμε με την τεχνολογία.
02:41
So what should we be doing with that guy'sπαιδιά dataδεδομένα?
59
146000
3000
Οπότε, τι πρέπει να κάνουμε με τα δεδομένα αυτού του ανθρώπου;
02:44
Should we be collectingπερισυλλογή it, gatheringσυγκέντρωση it,
60
149000
3000
Θα έπρεπε να τα συλλέγουμε και να τα μαζεύουμε,
02:47
so we can make his onlineσε απευθείας σύνδεση experienceεμπειρία better?
61
152000
2000
ώστε να κάνουμε τη διαδικτυακή του εμπειρία καλύτερη;
02:49
So we can make moneyχρήματα?
62
154000
2000
Ώστε να βγάζουμε πιο πολλά χρήματα;
02:51
So we can protectπροστατεύω ourselvesεμείς οι ίδιοι
63
156000
2000
Ώστε να μπορούμε να προστατέψουμε τους εαυτούς μας
02:53
if he was up to no good?
64
158000
2000
αν δεν είχε καλούς σκοπούς;
02:55
Or should we respectΣεβασμός his privacyπροστασίας προσωπικών δεδομένων,
65
160000
3000
Ή πρέπει να σεβαστούμε την προσωπική του ζωή,
02:58
protectπροστατεύω his dignityαξιοπρέπεια and leaveάδεια him aloneμόνος?
66
163000
3000
να προστατέψουμε την αξιοπρέπειά του και να τον αφήσουμε μόνο του;
03:02
WhichΟποία one is it?
67
167000
3000
Τι πρέπει να κάνουμε;
03:05
How should we figureεικόνα it out?
68
170000
2000
Πώς θα το καταλάβουμε;
03:07
I know: crowdsourcecrowdsource. Let's crowdsourcecrowdsource this.
69
172000
3000
Ξέρω - ας ψηφίσουμε.
03:11
So to get people warmedθερμαίνεται up,
70
176000
3000
Οπότε για να ζεσταθούμε,
03:14
let's startαρχή with an easyεύκολος questionερώτηση --
71
179000
2000
ας ξεκινήσουμε με μια εύκολη ερώτηση --
03:16
something I'm sure everybodyόλοι here has an opinionγνώμη about:
72
181000
3000
κάτι για το οποίο είμαι σίγουρος ότι όλοι εδώ έχουμε άποψη:
03:19
iPhoneiPhone versusεναντίον AndroidAndroid.
73
184000
2000
iPhone εναντίον Android.
03:21
Let's do a showπροβολή of handsτα χέρια -- iPhoneiPhone.
74
186000
3000
Ας σηκώσουμε χέρια -- iPhone.
03:24
Uh huh.
75
189000
2000
Αχά.
03:26
AndroidAndroid.
76
191000
3000
Android.
03:29
You'dΠου θα think with a bunchδέσμη of smartέξυπνος people
77
194000
2000
Θα περίμενες ότι τόσο έξυπνοι άνθρωποι
03:31
we wouldn'tδεν θα ήταν be suchτέτοιος suckersκορόιδα just for the prettyαρκετά phonesτηλεφώνων.
78
196000
2000
δε θα πέφταμε σα χαζοί στα ωραία τηλέφωνα.
03:33
(LaughterΤο γέλιο)
79
198000
2000
(Γέλια)
03:35
NextΕπόμενη questionερώτηση,
80
200000
2000
Επόμενη ερώτηση,
03:37
a little bitκομμάτι harderπιο δυνατα.
81
202000
2000
λίγο πιο δύσκολη.
03:39
Should we be collectingπερισυλλογή all of that guy'sπαιδιά dataδεδομένα
82
204000
2000
Θα έπρεπε να συλλέγουμε τα δεδομένα αυτού του ανθρώπου
03:41
to make his experiencesεμπειρίες better
83
206000
2000
για να κάνουμε καλύτερες τις εμπειρίες του
03:43
and to protectπροστατεύω ourselvesεμείς οι ίδιοι in caseπερίπτωση he's up to no good?
84
208000
3000
και να προστατέψουμε τον εαυτό μας, σε περίπτωση που έχει κακό σκοπό;
03:46
Or should we leaveάδεια him aloneμόνος?
85
211000
2000
Ή πρέπει να τον αφήσουμε ήσυχο;
03:48
CollectΣυλλογή his dataδεδομένα.
86
213000
3000
Να συλλέξουμε τα δεδομένα.
03:53
LeaveΑφήστε him aloneμόνος.
87
218000
3000
Να τον αφήσουμε ήσυχο.
03:56
You're safeασφαλής. It's fine.
88
221000
2000
Είσαι ασφαλής. Εντάξει.
03:58
(LaughterΤο γέλιο)
89
223000
2000
(Γέλια)
04:00
Okay, last questionερώτηση --
90
225000
2000
Ωραία, τελευταία ερώτηση --
04:02
harderπιο δυνατα questionερώτηση --
91
227000
2000
πιο δύσκολη --
04:04
when tryingπροσπαθεί to evaluateαξιολογώ
92
229000
3000
στην προσπάθεια να αξιολογήσουμε
04:07
what we should do in this caseπερίπτωση,
93
232000
3000
τι θα έπρεπε να κάνουμε σε αυτήν την περίπτωση,
04:10
should we use a KantianΚαντιανή deontologicalδεοντολογίας moralηθικός frameworkδομή,
94
235000
4000
θα έπρεπε να χρησιμοποιήσουμε ένα Καντιανό δεοντολογικό ηθικό πλαίσιο,
04:14
or should we use a MillianMillian consequentialistσυνεπειοκρατικών one?
95
239000
3000
ή ένα Μιλλιανό τελεολογικό;
04:19
KantΟ Καντ.
96
244000
3000
Καντ.
04:22
MillΜύλος.
97
247000
3000
Μιλ.
04:25
Not as manyΠολλά votesψήφους.
98
250000
2000
Όχι τόσες πολλές ψήφοι.
04:27
(LaughterΤο γέλιο)
99
252000
3000
(Γέλια)
04:30
Yeah, that's a terrifyingφοβερός resultαποτέλεσμα.
100
255000
3000
Αυτό είναι ένα τρομακτικό αποτέλεσμα.
04:34
TerrifyingΤρομακτική, because we have strongerισχυρότερη opinionsγνώμες
101
259000
4000
Τρομακτικό, γιατί έχουμε πιο ισχυρές απόψεις
04:38
about our hand-heldεργαλεία χειρός devicesσυσκευές
102
263000
2000
για τις φορητές συσκευές μας
04:40
than about the moralηθικός frameworkδομή
103
265000
2000
παρά για το ηθικό πλαίσιο
04:42
we should use to guideοδηγός our decisionsαποφάσεων.
104
267000
2000
που πρέπει να χρησιμοποιήσουμε για να πάρουμε τις αποφάσεις μας.
04:44
How do we know what to do with all the powerεξουσία we have
105
269000
3000
Πώς θα ξέρουμε τι να κάνουμε με όλη αυτή τη δύναμη που έχουμε
04:47
if we don't have a moralηθικός frameworkδομή?
106
272000
3000
αν δεν έχουμε ένα ηθικό πλαίσιο;
04:50
We know more about mobileκινητό operatingλειτουργικός systemsσυστήματα,
107
275000
3000
Ξέρουμε περισσότερα για λειτουργικά συστήματα φορητών συσκευών,
04:53
but what we really need is a moralηθικός operatingλειτουργικός systemΣύστημα.
108
278000
3000
αλλά αυτό που χρειαζόμαστε είναι ένα λειτουργικό σύστημα ηθικής.
04:58
What's a moralηθικός operatingλειτουργικός systemΣύστημα?
109
283000
2000
Τι είναι ένα λειτουργικό σύστημα ηθικής;
05:00
We all know right and wrongλανθασμένος, right?
110
285000
2000
Όλοι γνωρίζουμε το καλό από το κακό, δεν είναι έτσι;
05:02
You feel good when you do something right,
111
287000
2000
Αισθάνεσαι καλά όταν κάνεις κάτι σωστό,
05:04
you feel badκακό when you do something wrongλανθασμένος.
112
289000
2000
αισθάνεσαι άσχημα όταν κάνεις κάτι λάθος.
05:06
Our parentsγονείς teachδιδάσκω us that: praiseέπαινος with the good, scoldμαλώνω with the badκακό.
113
291000
3000
Οι γονείς μας μαθαίνουν: έπαινος στο καλό, επίπληξη στο κακό.
05:09
But how do we figureεικόνα out what's right and wrongλανθασμένος?
114
294000
3000
Αλλά πώς καταλαβαίνουμε τι είναι σωστό και λάθος;
05:12
And from day to day, we have the techniquesτεχνικές that we use.
115
297000
3000
Και σεκαθημερινή βάση έχουμε τεχνικές που χρησιμοποιούμε.
05:15
Maybe we just followακολουθηστε our gutέντερο.
116
300000
3000
Ίσως να χρησιμοποιήσουμε το ένστικτό μας.
05:18
Maybe we take a voteψήφος -- we crowdsourcecrowdsource.
117
303000
3000
Ίσως να ψηφίσουμε.
05:21
Or maybe we puntpunt --
118
306000
2000
Ή ίσως απλώς να το ρίξουμε στα νομικά --
05:23
askπαρακαλώ the legalνομικός departmentτμήμα, see what they say.
119
308000
3000
να ρωτήσουμε το νομικό τμήμα να δούμε τι λένε.
05:26
In other wordsλόγια, it's kindείδος of randomτυχαίος,
120
311000
2000
Με άλλα λόγια, γίνεται περίπου στην τύχη,
05:28
kindείδος of adΕνα δ hochoc,
121
313000
2000
περίπου κατά περίπτωση,
05:30
how we figureεικόνα out what we should do.
122
315000
3000
το πως διαλέγουμε αυτό που πρέπει να κάνουμε.
05:33
And maybe, if we want to be on surerσίγουρη footingόροις,
123
318000
3000
Και ίσως, αν θέλουμε να πατήσουμε σε πιο στέρεο έδαφος,
05:36
what we really want is a moralηθικός frameworkδομή that will help guideοδηγός us there,
124
321000
3000
αυτό που χρειαζόμαστε στην πραγματικότητα είναι ένα ηθικό πλαίσιο που θα μας οδηγήσει,
05:39
that will tell us what kindsείδη of things are right and wrongλανθασμένος in the first placeθέση,
125
324000
3000
που θα μας πει καταρχάς ποια πράγματα είναι σωστά και λάθος,
05:42
and how would we know in a givenδεδομένος situationκατάσταση what to do.
126
327000
4000
και πώς θα ξέρουμε σε μια δεδομένη στιγμή τι να κάνουμε.
05:46
So let's get a moralηθικός frameworkδομή.
127
331000
2000
Οπότε ας βρούμε ένα ηθικό πλαίσιο.
05:48
We're numbersαριθμούς people, livingζωή by numbersαριθμούς.
128
333000
3000
Είμαστε άνθρωποι των αριθμών, ζούμε με τους αριθμούς.
05:51
How can we use numbersαριθμούς
129
336000
2000
Πώς μπορούμε να χρησιμοποιήσουμε τους αριθμούς
05:53
as the basisβάση for a moralηθικός frameworkδομή?
130
338000
3000
σα βάση για ένα ηθικό πλαίσιο;
05:56
I know a guy who did exactlyακριβώς that.
131
341000
3000
Ξέρω κάποιον που έκανε ακριβώς αυτό,
05:59
A brilliantλαμπρός guy --
132
344000
3000
Έναν πανέξυπνο τύπο --
06:02
he's been deadνεκρός 2,500 yearsχρόνια.
133
347000
3000
που έχει πεθάνει εδώ και 2500 χρόνια.
06:05
PlatoΟ Πλάτων, that's right.
134
350000
2000
Ο Πλάτωνας, αυτός είναι.
06:07
RememberΝα θυμάστε him -- oldπαλαιός philosopherφιλόσοφος?
135
352000
2000
Τον θυμάστε το γεροφιλόσοφο;
06:09
You were sleepingκοιμάμαι duringστη διάρκεια that classτάξη.
136
354000
3000
Κοιμόσασταν σ΄αυτό το μάθημα.
06:12
And PlatoΟ Πλάτων, he had a lot of the sameίδιο concernsανησυχίες that we did.
137
357000
2000
Ο Πλάτωνας είχε πολλές από τις ίδιες ανησυχίες που έχουμε κι εμείς.
06:14
He was worriedανήσυχος about right and wrongλανθασμένος.
138
359000
2000
Τον απασχολούσε το σωστό και το λάθος.
06:16
He wanted to know what is just.
139
361000
2000
Ήθελε να μάθει τι είναι δίκαιο.
06:18
But he was worriedανήσυχος that all we seemφαίνομαι to be doing
140
363000
2000
Αλλά τον απασχολούσε ότι αυτό που μοιάζουμε να κάνουμε
06:20
is tradingεμπορία opinionsγνώμες about this.
141
365000
2000
είναι να ανταλλάσουμε απόψεις γι αυτό.
06:22
He saysλέει something'sμερικά πράγματα just. She saysλέει something elseαλλού is just.
142
367000
3000
Αυτός λέει ότι κάτι είναι δίκαιο. Αυτή λέει ότι κάτι άλλο είναι δίκαιο.
06:25
It's kindείδος of convincingπειστικός when he talksσυνομιλίες and when she talksσυνομιλίες too.
143
370000
2000
Είναι κάπως πειστικό όταν αυτός μιλά και όταν αυτή μιλά.
06:27
I'm just going back and forthΕμπρός; I'm not gettingνα πάρει anywhereοπουδήποτε.
144
372000
2000
Απλώς πηγαίνω μπρος - πίσω. Δε φθάνω πουθενά.
06:29
I don't want opinionsγνώμες; I want knowledgeη γνώση.
145
374000
3000
Δε θέλω γνώμες, θέλω γνώση.
06:32
I want to know the truthαλήθεια about justiceδικαιοσύνη --
146
377000
3000
Θέλω να μάθω την αλήθεια για τη δικαιοσύνη --
06:35
like we have truthsαλήθειες in mathμαθηματικά.
147
380000
3000
όπως έχουμες αλήθειες στα μαθηματικά.
06:38
In mathμαθηματικά, we know the objectiveσκοπός factsγεγονότα.
148
383000
3000
Στα μαθηματικά, γνωρίζουμε τα αντικειμενικά δεδομένα.
06:41
Take a numberαριθμός, any numberαριθμός -- two.
149
386000
2000
Πάρτε ένα νούμερο, οποιοδήποτε νούμερο - δύο.
06:43
FavoriteΤα αγαπημένα numberαριθμός. I love that numberαριθμός.
150
388000
2000
Ο αγαπημένος μου αριθμός. Μου αρέσει αυτός ο αριθμός.
06:45
There are truthsαλήθειες about two.
151
390000
2000
Υπάρχουν αλήθειες για το δύο.
06:47
If you've got two of something,
152
392000
2000
Αν έχεις δύο από κάτι.
06:49
you addπροσθέτω two more, you get fourτέσσερα.
153
394000
2000
και προσθέσεις άλλα δύο παίρνεις τέσσερα.
06:51
That's trueαληθής no matterύλη what thing you're talkingομιλία about.
154
396000
2000
Αυτό είναι αλήθεια ανεξάρτητα για ποιο πράγμα μιλάς.
06:53
It's an objectiveσκοπός truthαλήθεια about the formμορφή of two,
155
398000
2000
Είναι μια αντικειμενική αλήθεια σχετικά με το δύο,
06:55
the abstractαφηρημένη formμορφή.
156
400000
2000
την αόριστη μορφή του.
06:57
When you have two of anything -- two eyesμάτια, two earsαυτιά, two nosesμύτες,
157
402000
2000
Όταν έχεις δύο από οτιδήποτε -- δύο μάτια, δύο αυτιά, δύο μύτες,
06:59
just two protrusionsπροεξοχές --
158
404000
2000
απλώς δύο προεξοχές --
07:01
those all partakeσυμμετάσχουν of the formμορφή of two.
159
406000
3000
αυτές απαρτίζουν τη μορφή του δύο.
07:04
They all participateσυμμετέχω in the truthsαλήθειες that two has.
160
409000
4000
Όλες παίρνουν μέρος στις αλήθειες που έχει το δύο.
07:08
They all have two-nessη δυϊκότητα in them.
161
413000
2000
Όλες έχουν τη δυ-ότητα μέσα τους.
07:10
And thereforeεπομένως, it's not a matterύλη of opinionγνώμη.
162
415000
3000
Και επομένως δεν είναι θέμα άποψης.
07:13
What if, PlatoΟ Πλάτων thought,
163
418000
2000
Τι θα γινόταν αν, σκέφτηκε ο Πλάτωνας,
07:15
ethicsδεοντολογία was like mathμαθηματικά?
164
420000
2000
η ηθική ήταν σαν τα μαθηματικά;
07:17
What if there were a pureκαθαρός formμορφή of justiceδικαιοσύνη?
165
422000
3000
Τι θα γινόταν αν υπήρχε μια καθαρή μορφή δικαιοσύνης;
07:20
What if there are truthsαλήθειες about justiceδικαιοσύνη,
166
425000
2000
Τι θα γινόταν αν υπήρχαν αλήθειες για τη δικαιοσύνη,
07:22
and you could just look around in this worldκόσμος
167
427000
2000
και μπορούσες να ψάξεις γύρω σου στον κόσμο
07:24
and see whichοι οποίες things participatedσυμμετείχαν,
168
429000
2000
και να δεις ποια πράγματα συμμετείχαν,
07:26
partookpartook of that formμορφή of justiceδικαιοσύνη?
169
431000
3000
απάρτιζαν αυτή τη μορφή της δικαιοσύνης;
07:29
Then you would know what was really just and what wasn'tδεν ήταν.
170
434000
3000
Τότε θα ήξερες τι ήταν, στην πραγματικότητα, δίκαιο και τι όχι.
07:32
It wouldn'tδεν θα ήταν be a matterύλη
171
437000
2000
Δε θα ήταν ένα θέμα
07:34
of just opinionγνώμη or just appearancesεμφανίσεις.
172
439000
3000
απλώς γνώμης ή εμφάνισης.
07:37
That's a stunningεκπληκτική visionόραμα.
173
442000
2000
Αυτό είναι ένα εκπληκτικό όραμα.
07:39
I mean, think about that. How grandμεγαλειώδης. How ambitiousφιλόδοξη.
174
444000
3000
Σκεφτείτε το. Πόσο μεγαλειώδες. Πόσο φιλόδοξο.
07:42
That's as ambitiousφιλόδοξη as we are.
175
447000
2000
Είναι τόσο φιλόδοξο όσο εμείς.
07:44
He wants to solveλύσει ethicsδεοντολογία.
176
449000
2000
Θέλει να λύσει την ηθική.
07:46
He wants objectiveσκοπός truthsαλήθειες.
177
451000
2000
Θέλει αντικειμενικές αλήθειες.
07:48
If you think that way,
178
453000
3000
Αν σκέφτεσαι έτσι,
07:51
you have a PlatonistΠλατωνιστήν moralηθικός frameworkδομή.
179
456000
3000
έχεις ένα Πλατωνικό ηθικό πλαίσιο.
07:54
If you don't think that way,
180
459000
2000
Αν δε σκέφτεσαι έτσι,
07:56
well, you have a lot of companyΕταιρία in the historyιστορία of WesternΔυτική philosophyφιλοσοφία,
181
461000
2000
λοιπόν, έχεις μεγάλη παρέα στην ιστορία της Δυτικής φιλοσοφίας,
07:58
because the tidyτακτοποιημένο ideaιδέα, you know, people criticizedκριτική it.
182
463000
3000
γιατί αυτήν την τακτοποιημένη ιδέα - πολλοί την κριτίκαραν.
08:01
AristotleΑριστοτέλης, in particularιδιαιτερος, he was not amusedδιασκεδάζει.
183
466000
3000
Ειδικά ο Αριστοτέλης, δεν ήταν και τόσο ευχαριστημένος.
08:04
He thought it was impracticalμη πρακτικός.
184
469000
3000
Σκεφτόταν ότι δεν ήταν πρακτική.
08:07
AristotleΑριστοτέλης said, "We should seekψάχνω only so much precisionακρίβεια in eachκαθε subjectθέμα
185
472000
4000
Ο Αριστοτέλης έλεγε: "Πρέπει να ψάχνουμε μόνο τόση τελειότητα σε κάθε θέμα
08:11
as that subjectθέμα allowsεπιτρέπει."
186
476000
2000
όση το θέμα επιτρέπει."
08:13
AristotleΑριστοτέλης thought ethicsδεοντολογία wasn'tδεν ήταν a lot like mathμαθηματικά.
187
478000
3000
Ο Αριστοτέλης πίστευε ότι η ηθική δεν είναι σαν τα μαθηματικά.
08:16
He thought ethicsδεοντολογία was a matterύλη of makingκατασκευή decisionsαποφάσεων in the here-and-nowεδώ και τώρα
188
481000
3000
Πίστευε ότι η ηθική ήταν ένα ζήτημα αποφάσεων στο εδώ και τώρα
08:19
usingχρησιμοποιώντας our bestκαλύτερος judgmentκρίση
189
484000
2000
χρησιμοποιώντας την κρίση μας
08:21
to find the right pathμονοπάτι.
190
486000
2000
στην εξεύρεση του καλύτερου δρόμου.
08:23
If you think that, Plato'sΤου Πλάτωνα not your guy.
191
488000
2000
Αν σκέφτεσαι έτσι, τότε ο Πλάτωνας δεν είναι ο αγαπημένος σου.
08:25
But don't give up.
192
490000
2000
Αλλά μην τα παρατάς.
08:27
Maybe there's anotherαλλο way
193
492000
2000
Ίσως να υπάρχει κι άλλος τρόπος
08:29
that we can use numbersαριθμούς as the basisβάση of our moralηθικός frameworkδομή.
194
494000
3000
με τον οποίο μπορούμε να χρησιμοποιήσουμε τους αριθμούς σαν βάση για το ηθικό μας πλαίσιο.
08:33
How about this:
195
498000
2000
Ακούστε αυτό:
08:35
What if in any situationκατάσταση you could just calculateυπολογίζω,
196
500000
3000
Τι θα γινόταν αν σε κάθε περίσταση μπορούσες να υπολογίσεις,
08:38
look at the choicesεπιλογές,
197
503000
2000
να κοιτάξεις τις επιλογές,
08:40
measureμετρήσει out whichοι οποίες one'sκάποιου better and know what to do?
198
505000
3000
και να μετρήσεις ποια είναι η καλύτερη και έτσι να ξέρεις τι να κάνεις;
08:43
That soundήχος familiarοικείος?
199
508000
2000
Σας φαίνεται γνώριμο;
08:45
That's a utilitarianχρηστικά moralηθικός frameworkδομή.
200
510000
3000
Αυτό είναι ένα ωφελιμιστικό ηθικό πλαίσιο.
08:48
JohnΙωάννης StuartΣτιούαρτ MillΜύλος was a great advocateσυνήγορος of this --
201
513000
2000
Ο Τζον Στιούαρτ Μιλ ήταν μεγάλος υπέρμαχος αυτού --
08:50
niceόμορφη guy besidesεκτός --
202
515000
2000
κατά τα άλλα ωραίος τύπος --
08:52
and only been deadνεκρός 200 yearsχρόνια.
203
517000
2000
και πέθανε πριν από μόλις 200 χρόνια.
08:54
So basisβάση of utilitarianismΩφελιμισμός --
204
519000
2000
Λοιπόν, η βάση του ωφελιμισμού ---
08:56
I'm sure you're familiarοικείος at leastελάχιστα.
205
521000
2000
είμαι σίγουρος ότι ήσαστε τουλάχιστον εξοικειωμένοι.
08:58
The threeτρία people who votedψήφισαν for MillΜύλος before are familiarοικείος with this.
206
523000
2000
Οι τρεις που ψήφισαν υπέρ του Μιλ πριν είναι εξοικειωμένοι μ' αυτό.
09:00
But here'sεδώ είναι the way it worksεργοστάσιο.
207
525000
2000
Λοιπόν κοιτάξτε πώς δουλεύει.
09:02
What if moralsήθη, what if what makesκάνει something moralηθικός
208
527000
3000
Τι θα γινόταν αν η ηθική και αυτό που κάνει κάτι ηθικό,
09:05
is just a matterύλη of if it maximizesμεγιστοποιεί την pleasureευχαρίστηση
209
530000
2000
είναι απλώς θέμα του αν μεγιστοποιεί την ευχαρίστηση
09:07
and minimizesελαχιστοποιεί τις painπόνος?
210
532000
2000
και ελαχιστοποιεί τον πόνο;
09:09
It does something intrinsicεγγενείς to the actενεργω.
211
534000
3000
Είναι κάτι εσωτερικό στην πράξη.
09:12
It's not like its relationσχέση to some abstractαφηρημένη formμορφή.
212
537000
2000
Δεν είναι σαν να έχει σχέση με κάποια αόριστη μορφή.
09:14
It's just a matterύλη of the consequencesσυνέπειες.
213
539000
2000
Είναι απλώς θέμα συνεπειών.
09:16
You just look at the consequencesσυνέπειες
214
541000
2000
Απλώς κοιτάζεις τις συνέπειες
09:18
and see if, overallΣυνολικά, it's for the good or for the worseχειρότερος.
215
543000
2000
και βλέπεις αν, συνολικά, είναι για το καλύτερο ή το χειρότερο.
09:20
That would be simpleαπλός. Then we know what to do.
216
545000
2000
Μοιάζει απλό. Τότε θα ξέραμε τι να κάνουμε.
09:22
Let's take an exampleπαράδειγμα.
217
547000
2000
Ας πάρουμε ένα παράδειγμα.
09:24
SupposeΑς υποθέσουμε ότι I go up
218
549000
2000
Έστω ότι σηκώνομαι
09:26
and I say, "I'm going to take your phoneτηλέφωνο."
219
551000
2000
και λέω, "Θα σου πάρω το τηλέφωνο".
09:28
Not just because it rangχτύπησε earlierνωρίτερα,
220
553000
2000
Όχι γιατί χτύπησε πριν,
09:30
but I'm going to take it because I madeέκανε a little calculationυπολογισμός.
221
555000
3000
αλλά θα στο πάρω γιατί έκανα ένα μικρό υπολογισμό.
09:33
I thought, that guy looksφαίνεται suspiciousύποπτος.
222
558000
3000
Σκέφτηκα, ότι αυτός ο τύπος μοιάζει ύποπτος.
09:36
And what if he's been sendingαποστολή little messagesμηνυμάτων to BinBin Laden'sΦορτίο του hideoutκρησφύγετο --
223
561000
3000
Και αν στέλνει μηνύματα στο Μπιν Λάντεν στο καταφύγιό του --
09:39
or whoeverΟποιοσδήποτε tookπήρε over after BinBin LadenΦορτωμένο --
224
564000
2000
η σε οποιονδήποτε ανέλαβε μετά το Μπιν Λάντεν --
09:41
and he's actuallyπράγματι like a terroristτρομοκράτης, a sleeperκοιμώμενος cellκύτταρο.
225
566000
3000
και είναι στην πραγματικότητα τρομοκράτης, μυστικός πράκτορας.
09:44
I'm going to find that out, and when I find that out,
226
569000
3000
Θα το ανακαλύψω, και όταν το ανακαλύψω,
09:47
I'm going to preventαποτρέψει a hugeτεράστιος amountποσό of damageβλάβη that he could causeαιτία.
227
572000
3000
Θα εμποδίσω την τεράστια καταστροφή που θα μπορούσε να προκαλέσει.
09:50
That has a very highυψηλός utilityχρησιμότητα to preventαποτρέψει that damageβλάβη.
228
575000
3000
Το να αποτρέψω αυτήν την καταστροφή είναι πάρα πολύ ωφέλιμο.
09:53
And comparedσε συγκριση to the little painπόνος that it's going to causeαιτία --
229
578000
2000
Και συγκρίνοντάς το με το μικρό πόνο που πρόκειται να προκαλέσω --
09:55
because it's going to be embarrassingενοχλητικό when I'm looking on his phoneτηλέφωνο
230
580000
2000
γιατί θα τον φέρω σε δύσκολη θέση όταν κοιτάξω στο τηλέφωνό του
09:57
and seeingβλέπων that he has a FarmvilleFarmville problemπρόβλημα and that wholeολόκληρος bitκομμάτι --
231
582000
3000
και δω ότι παίζει το παιχνίδι Farmville --
10:00
that's overwhelmedσυγκλονισμένοι
232
585000
3000
αυτό ξεπερνιέται
10:03
by the valueαξία of looking at the phoneτηλέφωνο.
233
588000
2000
από την αξία του να κοιτάξω το τηλέφωνό του.
10:05
If you feel that way,
234
590000
2000
Αν αισθάνεσαι έτσι,
10:07
that's a utilitarianχρηστικά choiceεπιλογή.
235
592000
3000
αυτό είναι μια ωφελιμιστική επιλογή.
10:10
But maybe you don't feel that way eitherείτε.
236
595000
3000
Αλλά ίσως να μην αισθάνεσαι ούτε έτσι.
10:13
Maybe you think, it's his phoneτηλέφωνο.
237
598000
2000
Ίσως σκέφτεσαι ότι είναι το δικό του τηλέφωνο.
10:15
It's wrongλανθασμένος to take his phoneτηλέφωνο
238
600000
2000
Είναι λάθος να του πάρω το τηλέφωνό του,
10:17
because he's a personπρόσωπο
239
602000
2000
γιατί είναι ένας άνθρωπος
10:19
and he has rightsδικαιώματα and he has dignityαξιοπρέπεια,
240
604000
2000
και έχει δικαιώματα και αξιοπρέπεια,
10:21
and we can't just interfereεπεμβαίνω with that.
241
606000
2000
και δεν μπορούμε απλώς να εμπλακούμε με αυτά.
10:23
He has autonomyαυτονομία.
242
608000
2000
Έχει αυτονομία.
10:25
It doesn't matterύλη what the calculationsυπολογισμούς are.
243
610000
2000
Δεν έχει σημασία τι υπολογισμούς κάναμε.
10:27
There are things that are intrinsicallyεγγενώς wrongλανθασμένος --
244
612000
3000
Υπάρχουν πράγματα που είναι από τη φύση τους λάθος --
10:30
like lyingξαπλωμένη is wrongλανθασμένος,
245
615000
2000
όπως το να λές ψέματα είναι λάθος,
10:32
like torturingβασανίζει innocentαθώος childrenπαιδιά is wrongλανθασμένος.
246
617000
3000
όπως το να βασανίζεις αθώα παιδιά είναι λάθος.
10:35
KantΟ Καντ was very good on this pointσημείο,
247
620000
3000
Ο Καντ ήταν πολύ καλός σ΄αυτό το σημείο,
10:38
and he said it a little better than I'll say it.
248
623000
2000
και το είπε λίγο καλύτερα απ' ότι το λέω εγώ.
10:40
He said we should use our reasonλόγος
249
625000
2000
Είπε ότι πρέπει να χρησιμοποιήσουμε τη λογική μας
10:42
to figureεικόνα out the rulesκανόνες by whichοι οποίες we should guideοδηγός our conductσυμπεριφοράς,
250
627000
3000
για να αντιληφθούμε τους κανόνες που θα καθοδηγήσουν τη συμπεριφορά μας.
10:45
and then it is our dutyκαθήκον to followακολουθηστε those rulesκανόνες.
251
630000
3000
Και είναι καθήκον μας να ακολουθήσουμε αυτούς τους κανόνες.
10:48
It's not a matterύλη of calculationυπολογισμός.
252
633000
3000
Δεν είναι ένα θέμα υπολογισμού.
10:51
So let's stop.
253
636000
2000
Λοιπόν ας σταματήσουμε
10:53
We're right in the thickπυκνός of it, this philosophicalφιλοσοφικός thicketάλσος.
254
638000
3000
Είμαστε χαμένοι μέσα σ' αυτό το φιλοσοφικό πυκνό δάσος.
10:56
And this goesπηγαίνει on for thousandsχιλιάδες of yearsχρόνια,
255
641000
3000
Και αυτό συνεχίζεται για χιλιάδες χρόνια,
10:59
because these are hardσκληρά questionsερωτήσεις,
256
644000
2000
γιατί αυτές είναι δύσκολες ερωτήσεις,
11:01
and I've only got 15 minutesλεπτά.
257
646000
2000
και έχω μόλις 15 λεπτά.
11:03
So let's cutΤομή to the chaseκυνηγητό.
258
648000
2000
Οπότε ας μπούμε στο ψητό.
11:05
How should we be makingκατασκευή our decisionsαποφάσεων?
259
650000
4000
Πώς πρέπει να παίρνουμε τις αποφάσεις μας;
11:09
Is it PlatoΟ Πλάτων, is it AristotleΑριστοτέλης, is it KantΟ Καντ, is it MillΜύλος?
260
654000
3000
Σύμφωνα με τον Πλάτωνα, τον Αριστοτέλη, τον Καντ, το Μιλ;
11:12
What should we be doing? What's the answerαπάντηση?
261
657000
2000
Τι πρέπει να κάνουμε; Ποια είναι η απάντηση;
11:14
What's the formulaτύπος that we can use in any situationκατάσταση
262
659000
3000
Ποιος είναι ο τύπος που μπορούμε να χρησιμοποιήσουμε σε κάθε περίπτωση
11:17
to determineκαθορίσει what we should do,
263
662000
2000
για να αποφασίσουμε τι πρέπει να κάνουμε,
11:19
whetherκατά πόσο we should use that guy'sπαιδιά dataδεδομένα or not?
264
664000
2000
αν πρέπει να χρησιμοποιήσουμε τα δεδομένα αυτού του τύπου ή όχι;
11:21
What's the formulaτύπος?
265
666000
3000
Ποιος είναι ο τύπος;
11:25
There's not a formulaτύπος.
266
670000
2000
Δεν υπάρχει τύπος.
11:29
There's not a simpleαπλός answerαπάντηση.
267
674000
2000
Δεν υπάρχει μια απλή απάντηση.
11:31
EthicsΔεοντολογία is hardσκληρά.
268
676000
3000
Η ηθική είναι δύσκολη.
11:34
EthicsΔεοντολογία requiresαπαιτεί thinkingσκέψη.
269
679000
3000
Η ηθική απαιτεί σκέψη.
11:38
And that's uncomfortableάβολος.
270
683000
2000
Κι αυτό είναι άβολο.
11:40
I know; I spentξόδεψε a lot of my careerκαριέρα
271
685000
2000
Ξέρω, πέρασα μεγάλο μέρος της καριέρας μου
11:42
in artificialτεχνητός intelligenceνοημοσύνη,
272
687000
2000
στην τεχνητή νοημοσύνη,
11:44
tryingπροσπαθεί to buildχτίζω machinesμηχανές that could do some of this thinkingσκέψη for us,
273
689000
3000
προσπαθώντας να φτιάξω μηχανές που θα μπορούσαν να κάνουν ένα μέρος αυτής της σκέψης για μας,
11:47
that could give us answersαπαντήσεις.
274
692000
2000
που θα μπορούσαν να μας δώσουν απαντήσεις.
11:49
But they can't.
275
694000
2000
Αλλά δεν μπορούν.
11:51
You can't just take humanο άνθρωπος thinkingσκέψη
276
696000
2000
Δεν μπορείς απλώς να πάρεις την ανθρώπινη σκέψη
11:53
and put it into a machineμηχανή.
277
698000
2000
και να τη βάλεις σε μια μηχανή.
11:55
We're the onesαυτές who have to do it.
278
700000
3000
Πρέπει να το κάνουμε μόνοι μας.
11:58
HappilyΕυτυχώς, we're not machinesμηχανές, and we can do it.
279
703000
3000
Ευτυχώς, δεν είμαστε μηχανές και μπορούμε να το κάνουμε.
12:01
Not only can we think,
280
706000
2000
Όχι μόνο μπορούμε να σκεφτούμε,
12:03
we mustπρέπει.
281
708000
2000
αλλά πρέπει.
12:05
HannahΧάνα ArendtArendt said,
282
710000
2000
Η Χάνα Άρεντ είπε,
12:07
"The sadλυπημένος truthαλήθεια
283
712000
2000
"Η πικρή αλήθεια
12:09
is that mostπλέον evilκακό doneΈγινε in this worldκόσμος
284
714000
2000
είναι ότι το μεγαλύτερο κακό σ΄αυτόν τον κόσμο
12:11
is not doneΈγινε by people
285
716000
2000
δε γίνεται από ανθρώπους
12:13
who chooseεπιλέγω to be evilκακό.
286
718000
2000
που επιλέγουν να είναι κακοί.
12:15
It arisesανακύπτει from not thinkingσκέψη."
287
720000
3000
Προέρχεται από τη "μη σκέψη."
12:18
That's what she calledπου ονομάζεται the "banalityκοινοτοπία of evilκακό."
288
723000
4000
Αυτό το ονόμασε "κοινοτυπία του κακού."
12:22
And the responseαπάντηση to that
289
727000
2000
Και η απάντηση σ' αυτό
12:24
is that we demandζήτηση the exerciseάσκηση of thinkingσκέψη
290
729000
2000
είναι ότι απαιτούμε την άσκηση της σκέψης
12:26
from everyκάθε saneυγιής personπρόσωπο.
291
731000
3000
από κάθε λογικό άτομο.
12:29
So let's do that. Let's think.
292
734000
2000
Οπότε ας το κάνουμε αυτό. Ας σκεφτούμε.
12:31
In factγεγονός, let's startαρχή right now.
293
736000
3000
Πραγματικά, ας αρχίσουμε τώρα.
12:34
EveryΚάθε personπρόσωπο in this roomδωμάτιο do this:
294
739000
3000
Ο καθένας από μας ας κάνει το εξής:
12:37
think of the last time you had a decisionαπόφαση to make
295
742000
3000
σκεφτείτε την τελευταία στιγμή που είχατε να πάρετε μια απόφαση
12:40
where you were worriedανήσυχος to do the right thing,
296
745000
2000
που ανησυχούσατε αν κάνατε το σωστό.
12:42
where you wonderedαναρωτήθηκε, "What should I be doing?"
297
747000
2000
που αναρωτηθήκατε. "Τι πρέπει να κάνω;"
12:44
BringΦέρει that to mindμυαλό,
298
749000
2000
Φέρτε το στο μυαλό σας.
12:46
and now reflectκατοπτρίζω on that
299
751000
2000
Και τώρα αναλογιστείτε
12:48
and say, "How did I come up that decisionαπόφαση?
300
753000
3000
και πείτε, "Πώς έφθασα σ΄αυτή την απόφαση;"
12:51
What did I do? Did I followακολουθηστε my gutέντερο?
301
756000
3000
Τι έκανα; Ακολούθησα το ένστικτό μου;
12:54
Did I have somebodyκάποιος voteψήφος on it? Or did I puntpunt to legalνομικός?"
302
759000
2000
Είχα κάποιον να ψηφίσει; Ή το έριξα στα νομικά;
12:56
Or now we have a fewλίγοι more choicesεπιλογές.
303
761000
3000
Ή τώρα έχουμε μερικές ακόμη επιλογές.
12:59
"Did I evaluateαξιολογώ what would be the highestύψιστος pleasureευχαρίστηση
304
764000
2000
"Υπολόγισα ποια θα ήταν η μεγαλύτερη ευχαρίστηση
13:01
like MillΜύλος would?
305
766000
2000
όπως θα έκανε ο Μιλ;
13:03
Or like KantΟ Καντ, did I use reasonλόγος to figureεικόνα out what was intrinsicallyεγγενώς right?"
306
768000
3000
Ή χρησιμοποίησα τη λογική για να δω τι ήταν το ουσιαστικά σωστό όπως ο Καντ;"
13:06
Think about it. Really bringνα φερεις it to mindμυαλό. This is importantσπουδαίος.
307
771000
3000
Σκεφτείτε το. Πραγματικά φέρτε το στο μυαλό σας. Είναι σημαντικό.
13:09
It is so importantσπουδαίος
308
774000
2000
Είναι τόσο σημαντικό
13:11
we are going to spendδαπανήσει 30 secondsδευτερολέπτων of valuableπολύτιμος TEDTalkTEDTalk time
309
776000
2000
ώστε θα αφιερώσουμε 30 δευτερόλεπτα πολύτιμου χρόνου TED ομιλίας
13:13
doing nothing but thinkingσκέψη about this.
310
778000
2000
χωρίς να κάνουμε τίποτε άλλο εκτός από το να σκεφτούμε αυτό.
13:15
Are you readyέτοιμος? Go.
311
780000
2000
Έτοιμοι; Πάμε.
13:33
Stop. Good work.
312
798000
3000
Σταματήστε. Καλή δουλειά.
13:36
What you just did,
313
801000
2000
Αυτό που μόλις κάνατε,
13:38
that's the first stepβήμα towardsπρος takingλήψη responsibilityευθύνη
314
803000
2000
είναι το πρώτο βήμα στην κατεύθυνση του να πάρετε την ευθύνη
13:40
for what we should do with all of our powerεξουσία.
315
805000
3000
του τι θα έπρεπε να κάνουμε με όλη αυτή τη δύναμή μας.
13:45
Now the nextεπόμενος stepβήμα -- try this.
316
810000
3000
Τώρα το επόμενο βήμα -- δοκιμάστε αυτό.
13:49
Go find a friendφίλος and explainεξηγώ to them
317
814000
2000
Βρείτε ένα φίλο και εξηγείστε του
13:51
how you madeέκανε that decisionαπόφαση.
318
816000
2000
πώς πήρατε αυτή την απόφαση.
13:53
Not right now. Wait tillέως I finishφινίρισμα talkingομιλία.
319
818000
2000
Όχι αμέσως. Περιμένετε μέχρι να τελειώσω την ομιλία μου.
13:55
Do it over lunchμεσημεριανό.
320
820000
2000
Κάντε το στο μεσημεριανό φαγητό.
13:57
And don't just find anotherαλλο technologistΤεχνολόγος friendφίλος;
321
822000
3000
Και μη βρείτε άλλον ένα τεχνολόγο φίλο σας,
14:00
find somebodyκάποιος differentδιαφορετικός than you.
322
825000
2000
βρείτε κάποιον διαφορετικό από εσάς.
14:02
Find an artistκαλλιτέχνης or a writerσυγγραφέας --
323
827000
2000
Βρείτε έναν καλλιτέχνη ή ένα συγγραφέα --
14:04
or, heavenπαράδεισος forbidαπαγορεύω, find a philosopherφιλόσοφος and talk to them.
324
829000
3000
ή, προς Θεού, βρείτε ένα φιλόσοφο και μιλήστε του.
14:07
In factγεγονός, find somebodyκάποιος from the humanitiesκλασσικές μελέτες.
325
832000
2000
Εδώ που τα λέμε, βρείτε κάποιον από τις ανθρωπιστικές επιστήμες.
14:09
Why? Because they think about problemsπροβλήματα
326
834000
2000
Γιατί; Διότι σκέφτονται τα προβλήματα
14:11
differentlyδιαφορετικά than we do as technologistsΤεχνολόγων.
327
836000
2000
διαφορετικά απ' ότι εμείς οι τεχνολόγοι.
14:13
Just a fewλίγοι daysημέρες agoπριν, right acrossαπέναντι the streetδρόμος from here,
328
838000
3000
Πριν λίγες μέρες, ακριβώς στον απέναντι δρόμο,
14:16
there was hundredsεκατοντάδες of people gatheredσυγκεντρώθηκαν togetherμαζί.
329
841000
2000
ήταν εκαντοντάδες άνθρωποι μαζεμένοι.
14:18
It was technologistsΤεχνολόγων and humanistsανθρωπιστές
330
843000
2000
Ήταν τεχνολόγοι και ανθρωπιστές
14:20
at that bigμεγάλο BiblioTechBiblioTech ConferenceΣυνέδριο.
331
845000
2000
σ' αυτό το συνέδριο BiblioTech.
14:22
And they gatheredσυγκεντρώθηκαν togetherμαζί
332
847000
2000
Και μαζεύτηκαν
14:24
because the technologistsΤεχνολόγων wanted to learnμαθαίνω
333
849000
2000
γιατί οι τεχνολόγοι ήθελαν να μάθουν
14:26
what it would be like to think from a humanitiesκλασσικές μελέτες perspectiveπροοπτική.
334
851000
3000
πώς θα ήταν να σκέφτεσαι με μια ανθρωπιστική προσέγγιση.
14:29
You have someoneκάποιος from GoogleGoogle
335
854000
2000
Έχεις κάποιον από τη Google
14:31
talkingομιλία to someoneκάποιος who does comparativeσυγκριτική literatureβιβλιογραφία.
336
856000
2000
να μιλά σε κάποιον που κάνει συγκριτική λογοτεχνία.
14:33
You're thinkingσκέψη about the relevanceσυνάφεια of 17thth centuryαιώνας FrenchΓαλλικά theaterθέατρο --
337
858000
3000
Σκέφτεσαι πόσο σχετικό είναι το γαλλικό θέατρο του 17ου αιώνα --
14:36
how does that bearαρκούδα uponεπάνω σε ventureτόλμημα capitalκεφάλαιο?
338
861000
2000
και πώς επιδρά στο κεφάλαιο μακροχρόνιων επενδύσεων;
14:38
Well that's interestingενδιαφέρων. That's a differentδιαφορετικός way of thinkingσκέψη.
339
863000
3000
Λοιπόν, αυτό είναι το ενδιαφέρον. Αυτός είναι ένας διαφορετικός τρόπος σκέψης.
14:41
And when you think in that way,
340
866000
2000
Και όταν σκέφτεσαι έτσι,
14:43
you becomeγίνομαι more sensitiveευαίσθητος to the humanο άνθρωπος considerationsεκτιμήσεις,
341
868000
3000
γίνεσαι πιο ευαίσθητος στις ανθρώπινες έγνοιες,
14:46
whichοι οποίες are crucialκρίσιμος to makingκατασκευή ethicalηθικά decisionsαποφάσεων.
342
871000
3000
κάτι που είναι βασικό στο να παίρνεις ηθικές αποφάσεις.
14:49
So imagineφαντάζομαι that right now
343
874000
2000
Οπότε σκεφτείτε ότι τώρα
14:51
you wentπήγε and you foundβρέθηκαν your musicianμουσικός friendφίλος.
344
876000
2000
πήγατε και βρήκατε το φίλο σας το μουσικό.
14:53
And you're tellingαποτελεσματικός him what we're talkingομιλία about,
345
878000
3000
Και του λέτε αυτά που συζητάμε,
14:56
about our wholeολόκληρος dataδεδομένα revolutionεπανάσταση and all this --
346
881000
2000
και την επανάσταση στα δεδομένα μας και όλα αυτά --
14:58
maybe even humβουητό a fewλίγοι barsμπαρ of our themeθέμα musicΜΟΥΣΙΚΗ.
347
883000
2000
ίσως μουρμουρίζετε και λίγο από το μουσικό μας θέμα.
15:00
DumDUM taTA dada dada dumDUM dumDUM taTA dada dada dumDUM
348
885000
3000
15:03
Well, your musicianμουσικός friendφίλος will stop you and say,
349
888000
2000
Λοιπόν, ο μουσικός φίλος σας θα σας σταματήσει και θα σας πει,
15:05
"You know, the themeθέμα musicΜΟΥΣΙΚΗ
350
890000
2000
"Ξέρεις, το μουσικό θέμα
15:07
for your dataδεδομένα revolutionεπανάσταση,
351
892000
2000
για την επανάσταση των δεδομένων,
15:09
that's an operaΛΥΡΙΚΗ ΣΚΗΝΗ, that's WagnerΒάγκνερ.
352
894000
2000
είναι όπερα, είναι Βάγκνερ.
15:11
It's basedμε βάση on NorseΣκανδιναβική legendθρύλος.
353
896000
2000
Βασίζεται σ' ένα νορβηγικό μύθο.
15:13
It's GodsΘεοί and mythicalμυθικό creaturesπλάσματα
354
898000
2000
Είναι θεοί και μυθικά πλάσματα
15:15
fightingμαχητικός over magicalμαγικός jewelryκοσμήματα."
355
900000
3000
που παλεύουν για μαγικά κοσμήματα."
15:19
That's interestingενδιαφέρων.
356
904000
3000
Ενδιαφέρον.
15:22
Now it's alsoεπίσης a beautifulπανεμορφη operaΛΥΡΙΚΗ ΣΚΗΝΗ,
357
907000
3000
Είναι επίσης και μια όμορφη όπερα.
15:25
and we're movedμετακινήθηκε by that operaΛΥΡΙΚΗ ΣΚΗΝΗ.
358
910000
3000
Και μας συγκινεί.
15:28
We're movedμετακινήθηκε because it's about the battleμάχη
359
913000
2000
Μας συγκινεί γιατί έχει σχέση με τη μάχη
15:30
betweenμεταξύ good and evilκακό,
360
915000
2000
μεταξύ του καλού και του κακού,
15:32
about right and wrongλανθασμένος.
361
917000
2000
μεταξύ του σωστού και του λάθους.
15:34
And we careΦροντίδα about right and wrongλανθασμένος.
362
919000
2000
Και μας ενδιαφέρει το σωστό και το λάθος.
15:36
We careΦροντίδα what happensσυμβαίνει in that operaΛΥΡΙΚΗ ΣΚΗΝΗ.
363
921000
3000
Μας ενδιαφέρει τι συμβαίνει σ' αυτή την όπερα.
15:39
We careΦροντίδα what happensσυμβαίνει in "ApocalypseΑποκάλυψη Now."
364
924000
3000
Μας ενδιαφέρει τι συμβαίνει στο "Αποκάλυψη Τώρα."
15:42
And we certainlyσίγουρα careΦροντίδα
365
927000
2000
Και σίγουρα μας ενδιαφέρει
15:44
what happensσυμβαίνει with our technologiesτεχνολογίες.
366
929000
2000
τι συμβαίνει με τις τεχνολογίες μας.
15:46
We have so much powerεξουσία todayσήμερα,
367
931000
2000
Έχουμε τόσο πολύ δύναμη σήμερα,
15:48
it is up to us to figureεικόνα out what to do,
368
933000
3000
είναι στο χέρι μας να αποφασίσουμε τι θα κάνουμε.
15:51
and that's the good newsΝέα.
369
936000
2000
Και αυτά είναι τα καλά νέα.
15:53
We're the onesαυτές writingΓραφή this operaΛΥΡΙΚΗ ΣΚΗΝΗ.
370
938000
3000
Εμείς είμαστε αυτοί που γράφουμε αυτή την όπερα.
15:56
This is our movieταινία.
371
941000
2000
Αυτή είναι η δική μας ταινία.
15:58
We figureεικόνα out what will happenσυμβεί with this technologyτεχνολογία.
372
943000
3000
Εμείς αποφασίζουμε τι θα γίνει μ' αυτήν την τεχνολογία.
16:01
We determineκαθορίσει how this will all endτέλος.
373
946000
3000
Εμείς αποφασίζουμε πως θα τελειώσει όλο αυτό.
16:04
Thank you.
374
949000
2000
Ευχαριστώ
16:06
(ApplauseΧειροκροτήματα)
375
951000
5000
(Χειροκροτήματα)
Translated by Konstantinos Agas
Reviewed by Leonidas Argyros

▲Back to top

ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee