ABOUT THE SPEAKER
Stuart Russell - AI expert
Stuart Russell wrote the standard text on AI; now he thinks deeply on AI's future -- and the future of us humans, too.

Why you should listen

Stuart Russell is a professor (and formerly chair) of Electrical Engineering and Computer Sciences at University of California at Berkeley. His book Artificial Intelligence: A Modern Approach (with Peter Norvig) is the standard text in AI; it has been translated into 13 languages and is used in more than 1,300 universities in 118 countries. His research covers a wide range of topics in artificial intelligence including machine learning, probabilistic reasoning, knowledge representation, planning, real-time decision making, multitarget tracking, computer vision, computational physiology, global seismic monitoring and philosophical foundations.

He also works for the United Nations, developing a new global seismic monitoring system for the nuclear-test-ban treaty. His current concerns include the threat of autonomous weapons and the long-term future of artificial intelligence and its relation to humanity.

More profile about the speaker
Stuart Russell | Speaker | TED.com
TED2017

Stuart Russell: 3 principles for creating safer AI

Στιούαρτ Ράσελ: Πώς η Τεχνητή Νοημοσύνη μπορεί να μας κάνει καλύτερους ανθρώπους

Filmed:
1,465,832 views

Πώς μπορούμε να αξιοποιήσουμε τις δυνατότητες υπερ-ευφυών υπολογιστών Τεχνητής Νοημοσύνης, αποτρέποντας παράλληλα την καταστροφή από μια κατάκτηση από ρομπότ; Καθώς πλησιάζουμε στην δημιουργία μηχανών με απεριόριστες γνώσεις, ο πρωτοπόρος Τεχνητής Νοημοσύνης Στιούαρτ Ράσελ δουλεύει πάνω σε κάτι διαφορετικό: τα ρομπότ με αβεβαιότητα. Παρακολουθήστε το όραμά του για Τεχνητή Νοημοσύνη που θα είναι συμβατή με τους ανθρώπους, και που θα μπορεί να λύσει προβλήματα χρησιμοποιώντας την κοινή λογική, τον αλτρουισμό και άλλες ανθρώπινες αξίες.
- AI expert
Stuart Russell wrote the standard text on AI; now he thinks deeply on AI's future -- and the future of us humans, too. Full bio

Double-click the English transcript below to play the video.

00:12
This is LeeΛι SedolSedol.
0
712
1552
Αυτός είναι ο Λι Σεντόλ.
Ο Λι Σεντόλ είναι από τους καλύτερους
παίκτες Γκο στον κόσμο,
00:14
LeeΛι SedolSedol is one of the world'sτου κόσμου
greatestμεγαλύτερη Go playersΠαίκτες,
1
2288
3997
00:18
and he's havingέχοντας what my friendsοι φιλοι
in SiliconΠυριτίου ValleyΚοιλάδα call
2
6309
2885
και έχει κάτι που οι φίλοι μου
στη Σίλικον Βάλλεϋ αποκαλούν
00:21
a "HolyΙερά CowΑγελάδα" momentστιγμή --
3
9218
1510
μια στιγμή ξαφνιάσματος...
00:22
(LaughterΤο γέλιο)
4
10752
1073
(Γέλια)
00:23
a momentστιγμή where we realizeσυνειδητοποιώ
5
11849
2188
μια στιγμή όπου συνειδητοποιούμε
ότι η ΤΝ προοδεύει αρκετά γρηγορότερα
από ό,τι περιμέναμε.
00:26
that AIAI is actuallyπράγματι progressingπροχωρούν
a lot fasterγρηγορότερα than we expectedαναμενόμενος.
6
14061
3296
00:30
So humansτου ανθρώπου have lostχαμένος on the Go boardσανίδα.
What about the realπραγματικός worldκόσμος?
7
18154
3047
Άρα χάσαμε στο Γκο.
Τι γίνεται όμως στον πραγματικό κόσμο;
Ο πραγματικός κόσμος
είναι πολύ μεγαλύτερος
00:33
Well, the realπραγματικός worldκόσμος is much biggerμεγαλύτερος,
8
21225
2100
00:35
much more complicatedπερίπλοκος than the Go boardσανίδα.
9
23349
2249
και πολύ πιο πολύπλοκος
από το ταμπλό του Γκο.
00:37
It's a lot lessπιο λιγο visibleορατός,
10
25622
1819
Δεν είναι τόσο ευδιάκριτο,
00:39
but it's still a decisionαπόφαση problemπρόβλημα.
11
27465
2038
αλλά παραμένει ένα πρόβλημα αποφάσεων.
Και αν αναλογιστούμε
μερικές από τις τεχνολογίες
00:42
And if we think about some
of the technologiesτεχνολογίες
12
30948
2321
00:45
that are comingερχομός down the pikePike ...
13
33293
1749
που εμφανίζονται...
00:47
NorikoNoriko [AraiArai] mentionedπου αναφέρθηκαν that readingΑΝΑΓΝΩΣΗ
is not yetΑκόμη happeningσυμβαίνει in machinesμηχανές,
14
35738
4335
Η Νορίκο [Αράι] ανέφερε πως οι μηχανές
δεν έχουν ακόμα την ικανότητα ανάγνωσης,
00:52
at leastελάχιστα with understandingκατανόηση.
15
40097
1500
τουλάχιστον με κατανόηση.
00:53
But that will happenσυμβεί,
16
41621
1536
Αλλά αυτό θα συμβεί,
00:55
and when that happensσυμβαίνει,
17
43181
1771
και όταν συμβεί,
00:56
very soonσύντομα afterwardsέπειτα,
18
44976
1187
πολύ σύντομα
οι μηχανές θα έχουν διαβάσει οτιδήποτε
έχει γραφτεί ποτέ από την ανθρωπότητα.
00:58
machinesμηχανές will have readανάγνωση everything
that the humanο άνθρωπος raceαγώνας has ever writtenγραπτός.
19
46187
4572
01:03
And that will enableεπιτρέπω machinesμηχανές,
20
51850
2030
Και αυτό θα επιτρέψει στις μηχανές,
01:05
alongκατά μήκος with the abilityικανότητα to look
furtherπεραιτέρω aheadεμπρός than humansτου ανθρώπου can,
21
53904
2920
μαζί με την ικανότητα να βλέπουν
πιο μπροστά από τους ανθρώπους,
01:08
as we'veέχουμε alreadyήδη seenείδα in Go,
22
56848
1680
όπως είδαμε ήδη στο Γκο,
01:10
if they alsoεπίσης have accessπρόσβαση
to more informationπληροφορίες,
23
58552
2164
κι αν έχουν πρόσβαση
σε περισσότερες πληροφορίες,
01:12
they'llθα το κάνουν be ableικανός to make better decisionsαποφάσεων
in the realπραγματικός worldκόσμος than we can.
24
60740
4268
να μπορούν να πάρουν πιο σωστές αποφάσεις
στον πραγματικό κόσμο από εμάς.
Είναι καλό, όμως, αυτό;
01:18
So is that a good thing?
25
66792
1606
01:21
Well, I hopeελπίδα so.
26
69898
2232
Το ελπίζω.
01:26
Our entireολόκληρος civilizationπολιτισμός,
everything that we valueαξία,
27
74694
3255
Ολόκληρος ο πολιτισμός μας,
οτιδήποτε έχουμε σε εκτίμηση,
01:29
is basedμε βάση on our intelligenceνοημοσύνη.
28
77973
2068
είναι βασισμένο στην ευφυία μας.
01:32
And if we had accessπρόσβαση
to a lot more intelligenceνοημοσύνη,
29
80065
3694
Και αν είχαμε πρόσβαση
σε πολύ περισσότερη ευφυΐα,
01:35
then there's really no limitόριο
to what the humanο άνθρωπος raceαγώνας can do.
30
83783
3302
τότε δεν υπάρχει κανένα όριο
στο τι μπορεί να κάνει η ανθρωπότητα.
01:40
And I think this could be,
as some people have describedπεριγράφεται it,
31
88665
3325
Και αυτό θα ήταν,
όπως μερικοί το έχουν περιγράψει,
01:44
the biggestμέγιστος eventΕκδήλωση in humanο άνθρωπος historyιστορία.
32
92014
2016
το σημαντικότερο γεγονός της ιστορίας μας.
01:48
So why are people sayingρητό things like this,
33
96665
2829
Άρα, γιατί λέμε μερικά πράγματα όπως,
ότι η ΤΝ θα σημάνει
το τέλος της ανθρωπότητας;
01:51
that AIAI mightθα μπορούσε spellτο ξόρκι the endτέλος
of the humanο άνθρωπος raceαγώνας?
34
99518
2876
01:55
Is this a newνέος thing?
35
103438
1659
Πρόκειται για κάτι καινούργιο;
01:57
Is it just ElonElon MuskΜόσχος and BillBill GatesΠύλες
and StephenΣτεφάνου HawkingHawking?
36
105121
4110
Τα λένε αυτά μόνο οι Έλον Μασκ,
Μπιλ Γκέιτς και Στίβεν Χόκινγκ;
02:01
ActuallyΣτην πραγματικότητα, no. This ideaιδέα
has been around for a while.
37
109953
3262
Στην πραγματικότητα, όχι.
Η ιδέα αυτή κυκλοφορεί εδώ και καιρό.
02:05
Here'sΕδώ είναι a quotationπροσφορά:
38
113239
1962
Δείτε μια παράθεση,
«Ακόμα και αν μπορούσαμε να κρατήσουμε
τις μηχανές σε θέση υποταγής,
02:07
"Even if we could keep the machinesμηχανές
in a subservientυποταγμένη positionθέση,
39
115225
4350
για παράδειγμα, απενεργοποιώντας τες
σε στρατηγικές στιγμές»
02:11
for instanceπαράδειγμα, by turningστροφή off the powerεξουσία
at strategicστρατηγική momentsστιγμές" --
40
119599
2984
02:14
and I'll come back to that
"turningστροφή off the powerεξουσία" ideaιδέα laterαργότερα on --
41
122607
3237
-θα επανέλθω στο ζήτημα
της «απενεργοποίησης» αργότερα-
«θα έπρεπε ως είδος να νιώθουμε
ιδιαίτερα ταπεινωμένοι».
02:17
"we should, as a speciesείδος,
feel greatlyπολύ humbledταπείνωσε."
42
125868
2804
Ποιος το είπε αυτό;
Ο Άλαν Τούρινγκ το 1951.
02:22
So who said this?
This is AlanAlan TuringΤούρινγκ in 1951.
43
130177
3448
02:26
AlanAlan TuringΤούρινγκ, as you know,
is the fatherπατέρας of computerυπολογιστή scienceεπιστήμη
44
134300
2763
Όπως γνωρίζετε, είναι ο πατέρας
της επιστήμης υπολογιστών
02:29
and in manyΠολλά waysτρόπους,
the fatherπατέρας of AIAI as well.
45
137087
3048
και κατά πολλούς τρόπους,
ο πατέρας της ΤΝ επίσης.
Οπότε, αν σκεφτούμε το πρόβλημα,
02:33
So if we think about this problemπρόβλημα,
46
141239
1882
02:35
the problemπρόβλημα of creatingδημιουργώντας something
more intelligentέξυπνος than your ownτα δικά speciesείδος,
47
143145
3787
να δημιουργήσουμε κάτι
πιο ευφυές από το είδος μας,
02:38
we mightθα μπορούσε call this "the gorillaγορίλλας problemπρόβλημα,"
48
146956
2622
ας το αποκαλέσουμε «πρόβλημα του γορίλα»,
επειδή οι πρόγονοι του γορίλα
το έκαναν αυτό πριν εκατομμύρια χρόνια,
02:42
because gorillas'γορίλες ancestorsπρογόνους did this
a fewλίγοι millionεκατομμύριο yearsχρόνια agoπριν,
49
150345
3750
02:46
and now we can askπαρακαλώ the gorillasγορίλες:
50
154119
1745
και ας τους ρωτήσουμε τώρα:
Ήταν καλή ιδέα;
02:48
Was this a good ideaιδέα?
51
156752
1160
02:49
So here they are havingέχοντας a meetingσυνάντηση
to discussσυζητώ whetherκατά πόσο it was a good ideaιδέα,
52
157936
3530
Οπότε, τώρα έχουν συνάντηση
για να κουβεντιάσουν εάν ήταν καλή ιδέα,
02:53
and after a little while,
they concludeκαταλήγω, no,
53
161490
3346
και μετά από λίγο καταλήγουν πως,
02:56
this was a terribleτρομερός ideaιδέα.
54
164860
1345
όχι, ήταν μια φρικτή ιδέα.
02:58
Our speciesείδος is in direδεινή straitsστενά.
55
166229
1782
Το είδος τους είναι σε δεινή θέση.
03:00
In factγεγονός, you can see the existentialυπαρξιακός
sadnessθλίψη in theirδικα τους eyesμάτια.
56
168538
4263
Πραγματικά, μπορείς να δεις
την υπαρξιακή κρίση στα μάτια τους.
03:04
(LaughterΤο γέλιο)
57
172825
1640
(Γέλια)
03:06
So this queasyζαλισμένος feelingσυναισθημα that makingκατασκευή
something smarterεξυπνότερα than your ownτα δικά speciesείδος
58
174489
4840
Αυτό το ανησυχητικό προαίσθημα
ότι μάλλον δεν είναι καλή ιδέα
η δημιουργία κάτι
πιο έξυπνου από το είδος μας,
03:11
is maybe not a good ideaιδέα --
59
179353
2365
τι μπορούμε να κάνουμε γι' αυτό;
03:14
what can we do about that?
60
182488
1491
03:16
Well, really nothing,
exceptεκτός stop doing AIAI,
61
184003
4767
Βασικά τίποτα, εκτός από το
να σταματήσουμε να φτιάχνουμε ΤΝ,
03:20
and because of all
the benefitsπλεονεκτήματα that I mentionedπου αναφέρθηκαν
62
188794
2510
που λόγω όλων των πλεονεκτημάτων
που προανέφερα,
03:23
and because I'm an AIAI researcherερευνητής,
63
191328
1716
και επειδή είμαι ερευνητής της,
03:25
I'm not havingέχοντας that.
64
193068
1791
δεν το ανέχομαι.
03:27
I actuallyπράγματι want to be ableικανός
to keep doing AIAI.
65
195283
2468
Πραγματικά, θέλω να συνεχίσω
την έρευνα της ΤΝ.
03:30
So we actuallyπράγματι need to nailνύχι down
the problemπρόβλημα a bitκομμάτι more.
66
198615
2678
Οπότε, χρειάζεται να προσδιορίσουμε
καλύτερα το πρόβλημα.
03:33
What exactlyακριβώς is the problemπρόβλημα?
67
201317
1371
Ποιο είναι ακριβώς το θέμα;
03:34
Why is better AIAI possiblyπιθανώς a catastropheκαταστροφή?
68
202712
3246
Γιατί μια καλύτερη ΤΝ είναι
πιθανώς μια καταστροφή;
03:39
So here'sεδώ είναι anotherαλλο quotationπροσφορά:
69
207398
1498
Ορίστε άλλη μια παράθεση,
03:41
"We had better be quiteαρκετά sure
that the purposeσκοπός put into the machineμηχανή
70
209935
3335
«Πρέπει να σιγουρευτούμε ότι ο σκοπός
που θα αναθέσουμε σε μια μηχανή,
03:45
is the purposeσκοπός whichοι οποίες we really desireεπιθυμία."
71
213294
2298
είναι ο σκοπός που πραγματικά επιθυμούμε».
03:48
This was said by NorbertNorbert WienerWiener in 1960,
72
216282
3498
Αυτό ειπώθηκε από
τον Νόρμπερτ Βίνερ το 1960,
03:51
shortlyσύντομα after he watchedπαρακολούθησα
one of the very earlyνωρίς learningμάθηση systemsσυστήματα
73
219804
4002
λίγο αφότου παρακολούθησε ένα από τα πρώτα
συστήματα που μαθαίνουν μόνα τους
03:55
learnμαθαίνω to playπαίζω checkersΝτάμα
better than its creatorδημιουργός.
74
223830
2583
να παίζει ντάμα καλύτερα
από τον δημιουργό του.
04:00
But this could equallyεξίσου have been said
75
228602
2683
Αλλά το ίδιο θα μπορούσε να έχει ειπωθεί
04:03
by KingΟ βασιλιάς MidasΜίδας.
76
231309
1167
από τον Βασιλιά Μίδα.
04:05
KingΟ βασιλιάς MidasΜίδας said, "I want everything
I touchαφή to turnστροφή to goldχρυσός,"
77
233083
3134
Ο Βασιλιάς Μίδας είπε,
«Θέλω ό,τι ακουμπώ να γίνεται χρυσάφι,»
04:08
and he got exactlyακριβώς what he askedερωτηθείς for.
78
236241
2473
και πήρε ακριβώς ό,τι του άξιζε.
04:10
That was the purposeσκοπός
that he put into the machineμηχανή,
79
238738
2751
Αυτός ήταν ο σκοπός
που ανέθεσε στη μηχανή,
κατ' αναλογίαν,
04:13
so to speakμιλώ,
80
241513
1450
04:14
and then his foodτροφή and his drinkποτό
and his relativesσυγγενείς turnedγύρισε to goldχρυσός
81
242987
3444
και έπειτα το φαγητό, το ποτό
και οι συγγενείς του έγιναν χρυσάφι
04:18
and he diedπέθανε in miseryδυστυχία and starvationπείνα.
82
246455
2281
και πέθανε μίζερος, λιμοκτονώντας.
04:22
So we'llΚαλά call this
"the KingΟ βασιλιάς MidasΜίδας problemπρόβλημα"
83
250444
2341
Αποκαλούμε λοιπόν «πρόβλημα του Μίδα»
04:24
of statingδηλώνοντας an objectiveσκοπός
whichοι οποίες is not, in factγεγονός,
84
252809
3305
τη δήλωση ενός σκοπού
που στην πραγματικότητα
04:28
trulyστα αληθεια alignedΣτοίχιση with what we want.
85
256138
2413
δεν είναι απόλυτα σύμφωνος
με αυτό που θέλουμε.
04:30
In modernμοντέρνο termsόροι, we call this
"the valueαξία alignmentευθυγράμμιση problemπρόβλημα."
86
258575
3253
Αυτό με σύγχρονους όρους το αποκαλούμε
«πρόβλημα εναρμόνισης αξιών».
04:37
PuttingΤοποθέτηση in the wrongλανθασμένος objectiveσκοπός
is not the only partμέρος of the problemπρόβλημα.
87
265047
3485
Η εισαγωγή λάθους σκοπού
δεν είναι το μόνο μέρος του προβλήματος.
04:40
There's anotherαλλο partμέρος.
88
268556
1152
Υπάρχει και άλλο μέρος.
04:42
If you put an objectiveσκοπός into a machineμηχανή,
89
270160
1943
Εάν βάλουμε ένα σκοπό σε μια μηχανή,
04:44
even something as simpleαπλός as,
"FetchFetch the coffeeκαφές,"
90
272127
2448
ακόμα και κάτι τόσο απλό όπως,
«Φέρε τον καφέ»,
04:47
the machineμηχανή saysλέει to itselfεαυτό,
91
275908
1841
η μηχανή λέει στον εαυτό της,
04:50
"Well, how mightθα μπορούσε I failαποτυγχάνω
to fetchFetch the coffeeκαφές?
92
278733
2623
«Πώς μπορώ να αποτύχω να φέρω τον καφέ;
04:53
SomeoneΚάποιος mightθα μπορούσε switchδιακόπτης me off.
93
281380
1580
Κάποιος ίσως να με απενεργοποιήσει.
04:55
OK, I have to take stepsβήματα to preventαποτρέψει that.
94
283645
2387
Οπότε, πρέπει να πάρω μέτρα
να μην συμβεί αυτό.
04:58
I will disableΑπενεργοποίηση my 'off'«off» switchδιακόπτης.
95
286056
1906
Θα απομονώσω τον διακόπτη απενεργοποίησης.
05:00
I will do anything to defendυπερασπίζω myselfεγώ ο ίδιος
againstκατά interferenceπαρέμβαση
96
288534
2959
Θα κάνω τα πάντα ώστε να προστατευτώ
εναντίον παρεμβάσεων
στον σκοπό που μου ανατέθηκε».
05:03
with this objectiveσκοπός
that I have been givenδεδομένος."
97
291517
2629
05:06
So this single-mindedsingle-minded pursuitεπιδίωξη
98
294170
2012
Αυτή η επίμονη επιδίωξη,
μέσω μιας υπεραμυντικής λειτουργίας,
ενός σκοπού που πραγματικά
05:09
in a very defensiveαμυντικός modeτρόπος
of an objectiveσκοπός that is, in factγεγονός,
99
297213
2945
05:12
not alignedΣτοίχιση with the trueαληθής objectivesστόχοι
of the humanο άνθρωπος raceαγώνας --
100
300182
2814
δεν είναι εναρμονισμένος
με τον αληθινό σκοπό των ανθρώπων,
είναι το πρόβλημα που αντιμετωπίζουμε.
05:16
that's the problemπρόβλημα that we faceπρόσωπο.
101
304122
1862
05:19
And in factγεγονός, that's the high-valueυψηλής αξίας
takeawayπαραλαβή from this talk.
102
307007
4767
Και αυτό είναι, στην πραγματικότητα,
το σημαντικότερο μήνυμα της ομιλίας μου.
05:23
If you want to rememberθυμάμαι one thing,
103
311798
2055
Εάν θέλετε να θυμάστε κάτι,
είναι πως δεν μπορείτε να φέρετε
τον καφέ, εάν είστε νεκροί.
05:25
it's that you can't fetchFetch
the coffeeκαφές if you're deadνεκρός.
104
313877
2675
(Γέλια)
05:28
(LaughterΤο γέλιο)
105
316576
1061
Είναι πολύ απλό. Απλά να θυμάστε
να το επαναλαμβάνετε τρεις φορές τη μέρα.
05:29
It's very simpleαπλός. Just rememberθυμάμαι that.
RepeatΕπαναλάβετε it to yourselfσύ ο ίδιος threeτρία timesφορές a day.
106
317661
3829
05:33
(LaughterΤο γέλιο)
107
321514
1821
(Γέλια)
05:35
And in factγεγονός, this is exactlyακριβώς the plotοικόπεδο
108
323359
2754
Αυτή είναι πραγματικά η πλοκή
05:38
of "2001: [A SpaceΧώρο OdysseyΟδύσσεια]"
109
326137
2648
της ταινίας
«2001: Η Οδύσσεια του Διαστήματος»,
05:41
HALHAL has an objectiveσκοπός, a missionαποστολή,
110
329226
2090
όπου ο HAL έχει ένα σκοπό, μια αποστολή,
05:43
whichοι οποίες is not alignedΣτοίχιση
with the objectivesστόχοι of the humansτου ανθρώπου,
111
331340
3732
που δεν είναι εναρμονισμένη
με τους σκοπούς των ανθρώπων,
05:47
and that leadsοδηγεί to this conflictσύγκρουση.
112
335096
1810
και αυτό οδηγεί σε σύγκρουση.
05:49
Now fortunatelyΕυτυχώς, HALHAL
is not superintelligentεφυούς.
113
337494
2969
Ευτυχώς, ο HAL δεν είναι υπερ-ευφυής.
Είναι αρκέτα έξυπνος,
αλλά εν τέλει ο Ντέιβ τον υπερνικά
05:52
He's prettyαρκετά smartέξυπνος,
but eventuallyτελικά DaveDave outwitsξεγελάει him
114
340487
3587
05:56
and managesδιαχειρίζεται to switchδιακόπτης him off.
115
344098
1849
και καταφέρνει να τον απενεργοποιήσει.
06:01
But we mightθα μπορούσε not be so luckyτυχερός.
116
349828
1619
Όμως εμείς μπορεί
να μην είμαστε τόσο τυχεροί.
06:08
So what are we going to do?
117
356193
1592
Οπότε τι θα κάνουμε;
06:12
I'm tryingπροσπαθεί to redefineεπαναπροσδιορίστε AIAI
118
360371
2601
Προσπαθώ να επαναπροσδιορίσω
την Τεχνητή Νοημοσύνη,
06:14
to get away from this classicalκλασική notionέννοια
119
362996
2061
ώστε να ξεφύγω από την κλασσική αντίληψη
06:17
of machinesμηχανές that intelligentlyέξυπνα
pursueεπιδιώκω objectivesστόχοι.
120
365081
4567
των μηχανών που ευφυώς ακολουθούν σκοπούς.
Υπάρχουν τρεις εμπλεκόμενες αρχές.
06:22
There are threeτρία principlesαρχές involvedεμπλεγμένος.
121
370712
1798
Η πρώτη είναι η αρχή του αλτρουισμού,
εάν μου επιτρέπετε,
06:24
The first one is a principleαρχή
of altruismαλτρουϊσμός, if you like,
122
372534
3289
όπου ο μόνος σκοπός του ρομπότ
06:27
that the robot'sρομπότ only objectiveσκοπός
123
375847
3262
06:31
is to maximizeμεγιστοποίηση the realizationυλοποίηση
of humanο άνθρωπος objectivesστόχοι,
124
379133
4246
είναι η απόλυτη συνειδητοποίηση
των ανθρώπινων σκοπών,
των ανθρώπινων αξιών.
06:35
of humanο άνθρωπος valuesαξίες.
125
383403
1390
Και δεν αναφέρομαι σε αγνές,
αθώες και συναισθηματικές αξίες.
06:36
And by valuesαξίες here I don't mean
touchy-feelyευαίσθητος-feely, goody-goodyσιγανοπαπαδιά valuesαξίες.
126
384817
3330
Μιλάω για τον οποιοδήποτε τρόπο
που οι άνθρωποι προτιμούν
06:40
I just mean whateverοτιδήποτε it is
that the humanο άνθρωπος would preferπροτιμώ
127
388171
3787
06:43
theirδικα τους life to be like.
128
391982
1343
να είναι η ζωή τους.
Πράγματι, έτσι παραβιάζεται
ο νόμος του Ασίμωφ,
06:47
And so this actuallyπράγματι violatesπαραβιάζει Asimov'sAsimov lawνόμος
129
395364
2309
ότι το ρομπότ πρέπει να αυτοπροστατευτεί.
06:49
that the robotρομπότ has to protectπροστατεύω
its ownτα δικά existenceύπαρξη.
130
397697
2329
Πλέον, δεν έχει κανένα απολύτως
ενδιαφέρον στην διατήρηση της ύπαρξής του.
06:52
It has no interestενδιαφέρον in preservingδιατήρηση
its existenceύπαρξη whatsoeverαπολύτως.
131
400050
3723
06:57
The secondδεύτερος lawνόμος is a lawνόμος
of humilityταπεινότητα, if you like.
132
405420
3768
Η δεύτερη αρχή είναι ο νόμος
της ταπεινοφροσύνης, εάν μου επιτρέπετε.
07:01
And this turnsστροφές out to be really
importantσπουδαίος to make robotsρομπότ safeασφαλής.
133
409974
3743
Αποδεικνύεται ιδιαίτερα σημαντικός
για την δημιουργία ασφαλών ρομπότ.
07:05
It saysλέει that the robotρομπότ does not know
134
413741
3142
Αναφέρει ότι το ρομπότ δεν γνωρίζει
07:08
what those humanο άνθρωπος valuesαξίες are,
135
416907
2028
ποιες είναι οι ανθρώπινες αξίες,
07:10
so it has to maximizeμεγιστοποίηση them,
but it doesn't know what they are.
136
418959
3178
οπότε πρέπει να τις μεγιστοποιήσει
χωρίς να γνωρίζει ποιες είναι.
07:15
And that avoidsαποφεύγει this problemπρόβλημα
of single-mindedsingle-minded pursuitεπιδίωξη
137
423254
2626
Έτσι αποφεύγεται το πρόβλημα
της επίμονης επιδίωξης ενός σκοπού.
07:17
of an objectiveσκοπός.
138
425904
1212
07:19
This uncertaintyαβεβαιότητα turnsστροφές out to be crucialκρίσιμος.
139
427140
2172
Αυτή η αβεβαιότητα αποδεικνύεται κρίσιμη.
07:21
Now, in orderΣειρά to be usefulχρήσιμος to us,
140
429726
1639
Για να είναι όμως χρήσιμο σε εμάς
07:23
it has to have some ideaιδέα of what we want.
141
431389
2731
πρέπει να έχει κάποια ιδέα του τι θέλουμε.
07:27
It obtainsαποκτά that informationπληροφορίες primarilyκατά κύριο λόγο
by observationπαρατήρηση of humanο άνθρωπος choicesεπιλογές,
142
435223
5427
Αποκτά αυτή τη πληροφορία κυρίως μέσω
της παρατήρησης των ανθρώπινων επιλογών,
07:32
so our ownτα δικά choicesεπιλογές revealαποκαλύπτω informationπληροφορίες
143
440674
2801
άρα οι ίδιες οι επιλογές μας
δίνουν πληροφορίες
07:35
about what it is that we preferπροτιμώ
our livesζωή to be like.
144
443499
3300
για το πως προτιμούμε
να ζούμε τις ζωές μας.
Αυτές είναι λοιπόν, οι τρεις αρχές.
07:40
So those are the threeτρία principlesαρχές.
145
448632
1683
Ας δούμε πώς εφαρμόζονται στο ερώτημα
«Μπορούμε να απενεργοποιήσουμε τη μηχανή;»
07:42
Let's see how that appliesισχύει
to this questionερώτηση of:
146
450339
2318
07:44
"Can you switchδιακόπτης the machineμηχανή off?"
as TuringΤούρινγκ suggestedπρότεινε.
147
452681
2789
όπως τέθηκε από τον Τούρινγκ.
07:49
So here'sεδώ είναι a PRPR2 robotρομπότ.
148
457073
2120
Έχουμε, λοιπόν, ένα ρομπότ PR2.
07:51
This is one that we have in our labεργαστήριο,
149
459217
1821
Αυτό είναι εκείνο του εργαστηρίου μας
07:53
and it has a bigμεγάλο redτο κόκκινο "off" switchδιακόπτης
right on the back.
150
461062
2903
και έχει ένα μεγάλο, κόκκινο κουμπί
απενεργοποίησης στην πλάτη.
Το ερώτημα είναι αν θα σε αφήσει
να το απενεργοποιήσεις.
07:56
The questionερώτηση is: Is it
going to let you switchδιακόπτης it off?
151
464541
2615
Αν κινηθούμε κλασσικά,
07:59
If we do it the classicalκλασική way,
152
467180
1465
08:00
we give it the objectiveσκοπός of, "FetchFetch
the coffeeκαφές, I mustπρέπει fetchFetch the coffeeκαφές,
153
468669
3482
δίνουμε την εντολή, «Φέρε τον καφέ,
πρέπει να φέρω τον καφέ,
08:04
I can't fetchFetch the coffeeκαφές if I'm deadνεκρός,"
154
472175
2580
δεν μπορώ να φέρω τον καφέ
άμα είμαι κατεστραμμένος»,
08:06
so obviouslyπροφανώς the PRPR2
has been listeningακούγοντας to my talk,
155
474779
3341
άρα προφανώς το PR2
παρακολουθεί την ομιλία μου,
08:10
and so it saysλέει, thereforeεπομένως,
"I mustπρέπει disableΑπενεργοποίηση my 'off'«off» switchδιακόπτης,
156
478144
3753
οπότε λέει, «Πρέπει να χαλάσω
το διακόπτη απενεργοποίησης
08:14
and probablyπιθανώς taserTaser all the other
people in StarbucksStarbucks
157
482976
2694
και να ρίξω αναίσθητο
οποιονδήποτε στα Starbucks
08:17
who mightθα μπορούσε interfereεπεμβαίνω with me."
158
485694
1560
που ίσως με σταματήσει».
08:19
(LaughterΤο γέλιο)
159
487278
2062
(Γέλια)
08:21
So this seemsφαίνεται to be inevitableαναπόφευκτος, right?
160
489364
2153
Αυτό, λοιπόν, φαίνεται αναπόφευκτο, σωστά;
08:23
This kindείδος of failureαποτυχία modeτρόπος
seemsφαίνεται to be inevitableαναπόφευκτος,
161
491541
2398
Αυτή η λειτουργία αποτυχίας
φαίνεται αναπόφευκτη
08:25
and it followsακολουθεί from havingέχοντας
a concreteσκυρόδεμα, definiteοριστική objectiveσκοπός.
162
493963
3543
και προέρχεται από την ύπαρξη
ενός σαφούς και ξεκάθαρου σκοπού.
08:30
So what happensσυμβαίνει if the machineμηχανή
is uncertainαβέβαιος about the objectiveσκοπός?
163
498812
3144
Τι συμβαίνει όμως, αν η μηχανή
είναι αβέβαιη για το σκοπό;
08:33
Well, it reasonsαιτιολογικό in a differentδιαφορετικός way.
164
501980
2127
Θα επιχειρηματολογήσει διαφορετικά.
08:36
It saysλέει, "OK, the humanο άνθρωπος
mightθα μπορούσε switchδιακόπτης me off,
165
504131
2424
Λέει, «Εντάξει, ο άνθρωπος
ίσως με απενεργοποιήσει,
08:39
but only if I'm doing something wrongλανθασμένος.
166
507144
1866
αλλά μόνο εάν κάνω κάτι λάθος.
08:41
Well, I don't really know what wrongλανθασμένος is,
167
509747
2475
Δεν γνωρίζω, όμως, τι είναι λάθος,
08:44
but I know that I don't want to do it."
168
512246
2044
αλλά γνωρίζω ότι δεν θέλω να το κάνω».
08:46
So that's the first and secondδεύτερος
principlesαρχές right there.
169
514314
3010
Εδώ βρίσκουμε λοιπόν, την πρώτη
και τη δεύτερη αρχή.
08:49
"So I should let the humanο άνθρωπος switchδιακόπτης me off."
170
517348
3359
«Άρα θα έπρεπε να αφήσω τον άνθρωπο
να με απενεργοποιήσει».
08:53
And in factγεγονός you can calculateυπολογίζω
the incentiveκίνητρο that the robotρομπότ has
171
521721
3956
Στην πραγματικότητα, μπορούμε
να εκτιμήσουμε ότι το κίνητρο του ρομπότ
08:57
to allowεπιτρέπω the humanο άνθρωπος to switchδιακόπτης it off,
172
525701
2493
να αφήσει τον άνθρωπο
να το απενεργοποιήσει,
09:00
and it's directlyκατευθείαν tiedδεμένα to the degreeβαθμός
173
528218
1914
είναι απευθείας συνδεδεμένο με τον βαθμό
09:02
of uncertaintyαβεβαιότητα about
the underlyingυποκείμενο objectiveσκοπός.
174
530156
2746
αβεβαιότητας για τον υποβόσκοντα σκοπό.
09:05
And then when the machineμηχανή is switchedενεργοποιημένη off,
175
533977
2949
Και όταν η μηχανή είναι απενεργοποιημένη,
09:08
that thirdτρίτος principleαρχή comesέρχεται into playπαίζω.
176
536950
1805
η τρίτη αρχή αποκτά σημασία.
09:10
It learnsμαθαίνει something about the objectivesστόχοι
it should be pursuingεπιδιώκοντας,
177
538779
3062
Η μηχανή μαθαίνει για τους σκοπούς
που πρέπει να ακολουθεί,
09:13
because it learnsμαθαίνει that
what it did wasn'tδεν ήταν right.
178
541865
2533
διότι μαθαίνει ότι αυτό που έκανε
δεν ήταν σωστό.
09:16
In factγεγονός, we can, with suitableκατάλληλος use
of GreekΕλληνικά symbolsσύμβολα,
179
544422
3570
Στην πραγματικότητα,
με κατάλληλη χρήση Ελληνικών συμβόλων,
09:20
as mathematiciansμαθηματικοί usuallyσυνήθως do,
180
548016
2131
όπως συχνά κάνουν οι μαθηματικοί,
09:22
we can actuallyπράγματι proveαποδεικνύω a theoremθεώρημα
181
550171
1984
μπορούμε να αποδείξουμε ένα θεώρημα
09:24
that saysλέει that suchτέτοιος a robotρομπότ
is provablyαποδεδειγμένα beneficialευεργετική to the humanο άνθρωπος.
182
552179
3553
που δηλώνει ότι ένα τέτοιο ρομπότ
είναι πιθανά χρήσιμο στον άνθρωπο.
09:27
You are provablyαποδεδειγμένα better off
with a machineμηχανή that's designedσχεδιασμένο in this way
183
555756
3803
Είμαστε καλύτερα με μία μηχανή
σχεδιασμένη με αυτό τον τρόπο,
09:31
than withoutχωρίς it.
184
559583
1246
παρά χωρίς αυτή.
09:33
So this is a very simpleαπλός exampleπαράδειγμα,
but this is the first stepβήμα
185
561237
2906
Να, λοιπόν, ένα απλό παράδειγμα,
που όμως είναι το πρώτο βήμα
09:36
in what we're tryingπροσπαθεί to do
with human-compatibleσυμβατό με ανθρώπινα AIAI.
186
564167
3903
προς αυτό που προσπαθούμε να κάνουμε
με την ανθρωπίνως συμβατή ΤΝ.
09:42
Now, this thirdτρίτος principleαρχή,
187
570657
3257
Αυτή η τρίτη αρχή,
09:45
I think is the one that you're probablyπιθανώς
scratchingξύσιμο your headκεφάλι over.
188
573938
3112
θεωρώ πως είναι εκείνη
που σας κινεί το ενδιαφέρον.
Πιθανώς σκέφτεστε,
«Μάλλον, συμπεριφέρομαι άσχημα.
09:49
You're probablyπιθανώς thinkingσκέψη, "Well,
you know, I behaveσυμπεριφέρομαι badlyκακώς.
189
577074
3239
09:52
I don't want my robotρομπότ to behaveσυμπεριφέρομαι like me.
190
580337
2929
Δεν θέλω το ρομπότ μου
να συμπεριφέρεται σαν εμένα.
09:55
I sneakΈρπω down in the middleΜέσης of the night
and take stuffυλικό from the fridgeψυγείο.
191
583290
3434
Κατεβαίνω στα κρυφά μέσα στη νύχτα
και παίρνω φαγητό από το ψυγείο.
09:58
I do this and that."
192
586748
1168
Κάνω διάφορα πράγματα».
09:59
There's all kindsείδη of things
you don't want the robotρομπότ doing.
193
587940
2797
Υπάρχουν διάφορα πράγματα
που δεν θέλω να κάνει το ρομπότ.
10:02
But in factγεγονός, it doesn't
quiteαρκετά work that way.
194
590761
2071
Αλλά ουσιαστικά, δεν γίνεται έτσι.
10:04
Just because you behaveσυμπεριφέρομαι badlyκακώς
195
592856
2155
Μόνο και μόνο επειδή
συμπεριφέρεστε άσχημα,
10:07
doesn't mean the robotρομπότ
is going to copyαντιγραφή your behaviorη ΣΥΜΠΕΡΙΦΟΡΑ.
196
595035
2623
δεν σημαίνει ότι το ρομπότ
θα σας αντιγράψει.
Θα καταλάβει τα κίνητρα σας
και ίσως βοηθήσει να αντισταθείτε,
10:09
It's going to understandκαταλαβαίνουν your motivationsκίνητρα
and maybe help you resistαντιστέκομαι them,
197
597682
3910
10:13
if appropriateκατάλληλος.
198
601616
1320
εάν σας αρμόζει.
10:16
But it's still difficultδύσκολος.
199
604206
1464
Αλλά και πάλι είναι δύσκολο.
10:18
What we're tryingπροσπαθεί to do, in factγεγονός,
200
606302
2545
Ουσιαστικά, αυτό που προσπαθούμε
να κάνουμε είναι
10:20
is to allowεπιτρέπω machinesμηχανές to predictπρολέγω
for any personπρόσωπο and for any possibleδυνατόν life
201
608871
5796
να επιτρέψουμε στις μηχανές να προβλέπουν
για κάθε άνθρωπο
και για κάθε πιθανό τρόπο ζωής τους,
10:26
that they could liveζω,
202
614691
1161
10:27
and the livesζωή of everybodyόλοι elseαλλού:
203
615876
1597
όπως και για τις ζωές κάθε άλλου:
10:29
WhichΟποία would they preferπροτιμώ?
204
617497
2517
Τι θα προτιμούσαν;
10:34
And there are manyΠολλά, manyΠολλά
difficultiesδυσκολίες involvedεμπλεγμένος in doing this;
205
622061
2954
Υπάρχουν πάρα πολλές δυσκολίες
που εμπλέκονται σε αυτό,
10:37
I don't expectαναμένω that this
is going to get solvedλυθεί very quicklyγρήγορα.
206
625039
2932
και δεν περιμένω να λυθούν πολύ γρήγορα.
10:39
The realπραγματικός difficultiesδυσκολίες, in factγεγονός, are us.
207
627995
2643
Οι πραγματικές δυσκολίες,
στην ουσία, είμαστε εμείς.
10:44
As I have alreadyήδη mentionedπου αναφέρθηκαν,
we behaveσυμπεριφέρομαι badlyκακώς.
208
632149
3117
Όπως προανέφερα, συμπεριφερόμαστε άσχημα.
10:47
In factγεγονός, some of us are downrightαπροκάλυπτα nastyάσχημη.
209
635290
2321
Πράγματι, κάποιοι από εμάς
είμαστε ελεεινοί.
10:50
Now the robotρομπότ, as I said,
doesn't have to copyαντιγραφή the behaviorη ΣΥΜΠΕΡΙΦΟΡΑ.
210
638431
3052
Το ρομπότ όμως, όπως προανέφερα,
δεν χρειάζεται να μας αντιγράψει.
10:53
The robotρομπότ does not have
any objectiveσκοπός of its ownτα δικά.
211
641507
2791
Το ρομπότ δεν έχει κανένα σκοπό
από μόνο του.
10:56
It's purelyκαθαρώς altruisticαλτρουιστικά.
212
644322
1737
Είναι καθαρά ανιδιοτελές.
10:59
And it's not designedσχεδιασμένο just to satisfyικανοποιώ
the desiresεπιθυμίες of one personπρόσωπο, the userχρήστης,
213
647293
5221
Και δεν είναι σχεδιασμένο να ικανοποιεί
μόνο τις επιθυμίες του χρήστη του,
11:04
but in factγεγονός it has to respectΣεβασμός
the preferencesπροτιμήσεις of everybodyόλοι.
214
652538
3138
αλλά στην ουσία πρέπει να σέβεται
τις επιλογές όλων.
11:09
So it can dealσυμφωνία with a certainβέβαιος
amountποσό of nastinessαθλιότητα,
215
657263
2570
Οπότε, μπορεί να ανεχτεί
κάποια ποσότητα αθλιότητας,
11:11
and it can even understandκαταλαβαίνουν
that your nastinessαθλιότητα, for exampleπαράδειγμα,
216
659857
3701
ακόμα και να την καταλάβει.
Για παράδειγμα,
11:15
you mayενδέχεται take bribesδωροδοκίες as a passportδιαβατήριο officialεπίσημος ανώτερος υπάλληλος
217
663582
2671
μπορεί να δωροδοκείστε
ως ελεγκτής διαβατηρίων
11:18
because you need to feedταίζω your familyοικογένεια
and sendστείλετε your kidsπαιδιά to schoolσχολείο.
218
666277
3812
διότι πρέπει να ταΐσετε την οικογένεια σας
και να πάνε τα παιδιά σας σχολείο.
11:22
It can understandκαταλαβαίνουν that;
it doesn't mean it's going to stealκλέβω.
219
670113
2906
Το καταλαβαίνει αυτό,
οπότε δεν πρόκειται να κλέψει.
11:25
In factγεγονός, it'llθα το κάνει just help you
sendστείλετε your kidsπαιδιά to schoolσχολείο.
220
673043
2679
Απλώς θα σας βοηθήσει
να τα στείλετε σχολείο.
11:28
We are alsoεπίσης computationallyυπολογιστικά limitedπεριωρισμένος.
221
676976
3012
Επίσης είμαστε περιορισμένοι υπολογιστικά.
11:32
LeeΛι SedolSedol is a brilliantλαμπρός Go playerπαίχτης,
222
680012
2505
Ο Λι Σεντόλ είναι
καταπληκτικός παίκτης Γκο,
11:34
but he still lostχαμένος.
223
682541
1325
παρ' όλ' αυτά έχασε.
11:35
So if we look at his actionsΕνέργειες,
he tookπήρε an actionδράση that lostχαμένος the gameπαιχνίδι.
224
683890
4239
Αν κοιτάξουμε τις κινήσεις του,
έκανε μία που του στοίχισε το παιχνίδι.
11:40
That doesn't mean he wanted to loseχάνω.
225
688153
2161
Αυτό δεν σημαίνει ότι ήθελε να χάσει.
11:43
So to understandκαταλαβαίνουν his behaviorη ΣΥΜΠΕΡΙΦΟΡΑ,
226
691340
2040
Άρα, για να καταλάβουμε
τη συμπεριφορά του,
11:45
we actuallyπράγματι have to invertαντιστροφή
throughδιά μέσου a modelμοντέλο of humanο άνθρωπος cognitionγνωστική λειτουργία
227
693404
3644
πρέπει βασικά να το επεξεργαστούμε με ένα
μοντέλο κατανόησης της ανθρώπινης γνώσης
11:49
that includesπεριλαμβάνει our computationalυπολογιστική
limitationsπεριορισμούς -- a very complicatedπερίπλοκος modelμοντέλο.
228
697072
4977
που να περιλαμβάνει τους υπολογιστικούς
περιορισμούς μας - ένα πολύπλοκο μοντέλο.
11:54
But it's still something
that we can work on understandingκατανόηση.
229
702073
2993
Αλλά είναι ακόμα κάτι που
θα δουλέψουμε για να καταλάβουμε.
11:57
ProbablyΠιθανώς the mostπλέον difficultδύσκολος partμέρος,
from my pointσημείο of viewθέα as an AIAI researcherερευνητής,
230
705876
4320
Πιθανά το πιο δύσκολο μέρος,
κατά τη γνώμη μου ως ερευνητής ΤΝ
12:02
is the factγεγονός that there are lots of us,
231
710220
2575
είναι το γεγονός ότι υπάρχουν
πολλοί ερευνητές,
12:06
and so the machineμηχανή has to somehowκάπως
tradeεμπορικές συναλλαγές off, weighζυγίζω up the preferencesπροτιμήσεις
232
714294
3581
οπότε η μηχανή πρέπει
κάπως να συμβιβάσει τις προτιμήσεις
τόσων πολλών διαφορετικών ανθρώπων
12:09
of manyΠολλά differentδιαφορετικός people,
233
717899
2225
και υπάρχουν πολλοί τρόποι να γίνει αυτό.
12:12
and there are differentδιαφορετικός waysτρόπους to do that.
234
720148
1906
12:14
EconomistsΟικονομολόγοι, sociologistsκοινωνιολόγους,
moralηθικός philosophersφιλόσοφοι have understoodκατανοητή that,
235
722078
3689
Οικονομολόγοι, κοινωνιολόγοι
και ηθικοί φιλόσοφοι το έχουν καταλάβει
12:17
and we are activelyδραστήρια
looking for collaborationσυνεργασία.
236
725791
2455
και ενεργά ψάχνουν για συνεργασίες.
12:20
Let's have a look and see what happensσυμβαίνει
when you get that wrongλανθασμένος.
237
728270
3251
Ας δούμε τώρα τι συμβαίνει
όταν κάνεις λάθος σε αυτό.
12:23
So you can have
a conversationσυνομιλία, for exampleπαράδειγμα,
238
731545
2133
Μπορεί, για παράδειγμα, να συνομιλείς
12:25
with your intelligentέξυπνος personalπροσωπικός assistantΒοηθός
239
733702
1944
με τον ευφυή προσωπικό σου βοηθό
12:27
that mightθα μπορούσε be availableδιαθέσιμος
in a fewλίγοι years'χρόνια time.
240
735670
2285
που ίσως να είναι διαθέσιμος
σε μερικά χρόνια.
12:29
Think of a SiriΤο Siri on steroidsστεροειδή.
241
737979
2524
Σκεφτείτε κάτι σαν την Σίρι σε αναβολικά.
12:33
So SiriΤο Siri saysλέει, "Your wifeγυναίκα calledπου ονομάζεται
to remindυπενθυμίζω you about dinnerβραδινό tonightαπόψε."
242
741627
4322
Λέει, λοιπόν η Σίρι, «Η σύζυγος σου κάλεσε
για να σου υπενθυμίσει το αποψινό δείπνο».
12:38
And of courseσειρά μαθημάτων, you've forgottenξεχασμένος.
"What? What dinnerβραδινό?
243
746616
2508
Και προφανώς το έχεις ξεχάσει.
«Δείπνο; Ποιο δείπνο;
Για ποιο πράγμα μιλάς;»
12:41
What are you talkingομιλία about?"
244
749148
1425
12:42
"Uh, your 20thth anniversaryεπέτειος at 7pmμ.μ.."
245
750597
3746
«Το δείπνο για την 20η επέτειό σας
στις 7μμ».
12:48
"I can't do that. I'm meetingσυνάντηση
with the secretary-generalΓενικός Γραμματέας at 7:30.
246
756915
3719
«Δεν προλαβαίνω. Θα συναντήσω
τον γενικό γραμματέα στις 7:30.
12:52
How could this have happenedσυνέβη?"
247
760658
1692
Πώς συνέβει αυτό;»
12:54
"Well, I did warnπροειδοποιώ you, but you overrodeαγνόησε
my recommendationσύσταση."
248
762374
4660
«Σε ειδοποίησα, αλλά παρέκαμψες
την πρότασή μου».
13:00
"Well, what am I going to do?
I can't just tell him I'm too busyαπασχολημένος."
249
768146
3328
«Τι θα κάνω τώρα; Δεν μπορώ απλώς
να του πω ότι είμαι απασχολημένος».
13:04
"Don't worryανησυχία. I arrangedδιατεταγμένα
for his planeεπίπεδο to be delayedκαθυστέρηση."
250
772490
3281
«Μην ανησυχείς.
Κανόνισα να καθυστερήσει η πτήση του».
13:07
(LaughterΤο γέλιο)
251
775795
1682
(Γέλια)
13:10
"Some kindείδος of computerυπολογιστή malfunctionδυσλειτουργία."
252
778249
2101
«Κάποιου είδους βλάβη στον υπολογιστή».
13:12
(LaughterΤο γέλιο)
253
780374
1212
(Γέλια)
13:13
"Really? You can do that?"
254
781610
1617
«Αλήθεια; Μπορείς να το κάνεις αυτό;»
13:16
"He sendsστέλνει his profoundβαθύς apologiesΣυγνώμη
255
784400
2179
«Σου ζητά ειλικρινά συγγνώμη
13:18
and looksφαίνεται forwardπρος τα εμπρός to meetingσυνάντηση you
for lunchμεσημεριανό tomorrowαύριο."
256
786603
2555
και αναμένει να σε συναντήσει
για μεσημεριανό αύριο».
13:21
(LaughterΤο γέλιο)
257
789182
1299
(Γέλια)
13:22
So the valuesαξίες here --
there's a slightμικρός mistakeλάθος going on.
258
790505
4403
Το θέμα εδώ είναι
πως υπάρχει ένα μικρό λάθος.
Αυτό είναι ότι σαφώς ακολουθούνται
οι σκοποί της γυναίκας μου,
13:26
This is clearlyσαφώς followingΕΠΟΜΕΝΟ my wife'sτης συζύγου valuesαξίες
259
794932
3009
που είναι,
«Χαρούμενη σύζυγος, Χαρούμενη ζωή».
13:29
whichοι οποίες is "HappyΕυτυχισμένο wifeγυναίκα, happyευτυχισμένος life."
260
797965
2069
13:32
(LaughterΤο γέλιο)
261
800058
1583
(Γέλια)
13:33
It could go the other way.
262
801665
1444
Θα μπορούσε να γίνει αλλιώς.
13:35
You could come home
after a hardσκληρά day'sημέρες work,
263
803821
2201
Γυρνάς σπίτι μετά από μια μέρα
σκληρής δουλειάς
13:38
and the computerυπολογιστή saysλέει, "Long day?"
264
806046
2195
και ο υπολογιστής λέει, «Δύσκολη μέρα;»
13:40
"Yes, I didn't even have time for lunchμεσημεριανό."
265
808265
2288
«Ναι, δεν είχα χρόνο
ούτε για μεσημεριανό».
13:42
"You mustπρέπει be very hungryπεινασμένος."
266
810577
1282
«Θα πεινάς πολύ τότε».
13:43
"StarvingΠεθαίνουν από την πείνα, yeah.
Could you make some dinnerβραδινό?"
267
811883
2646
«Σαν λύκος. Μπορείς να μαγειρέψεις;»
13:48
"There's something I need to tell you."
268
816070
2090
«Υπάρχει κάτι που πρέπει να σου πω».
13:50
(LaughterΤο γέλιο)
269
818184
1155
(Γέλια)
13:52
"There are humansτου ανθρώπου in SouthΝότια SudanΣουδάν
who are in more urgentεπείγων need than you."
270
820193
4905
«Υπάρχουν άνθρωποι στο Νότιο Σουδάν
που έχουν περισσότερη ανάγκη από εσένα».
13:57
(LaughterΤο γέλιο)
271
825122
1104
(Γέλια)
13:58
"So I'm leavingαφήνοντας. Make your ownτα δικά dinnerβραδινό."
272
826250
2075
«Οπότε, φεύγω. Μαγείρεψε μόνος σου».
14:00
(LaughterΤο γέλιο)
273
828349
2000
(Γέλια)
14:02
So we have to solveλύσει these problemsπροβλήματα,
274
830823
1739
Πρέπει να λύσουμε
αυτά τα προβλήματα
14:04
and I'm looking forwardπρος τα εμπρός
to workingεργαζόμενος on them.
275
832586
2515
και ανυπομονώ να δουλέψω πάνω σε αυτά.
14:07
There are reasonsαιτιολογικό for optimismαισιοδοξία.
276
835125
1843
Υπάρχουν λόγοι να αισιοδοξούμε.
14:08
One reasonλόγος is,
277
836992
1159
Ένας λόγος είναι,
πως υπάρχουν
τεράστιες ποσότητες δεδομένων.
14:10
there is a massiveογκώδης amountποσό of dataδεδομένα.
278
838175
1868
14:12
Because rememberθυμάμαι -- I said
they're going to readανάγνωση everything
279
840067
2794
Θυμηθείτε πως είπα ότι
πρόκειται να διαβάσουν
οτιδήποτε έχει γραφτεί ποτέ.
14:14
the humanο άνθρωπος raceαγώνας has ever writtenγραπτός.
280
842885
1546
Τα περισσότερα που έχουν γραφτεί
είναι για ανθρώπους να δρουν
14:16
MostΠερισσότερα of what we writeγράφω about
is humanο άνθρωπος beingsόντα doing things
281
844455
2724
και άλλους να εκνευρίζονται με αυτό.
14:19
and other people gettingνα πάρει upsetαναστατωμένος about it.
282
847203
1914
Οπότε υπάρχουν τεράστιες ποσότητες
δεδομένων από όπου θα μάθουν.
14:21
So there's a massiveογκώδης amountποσό
of dataδεδομένα to learnμαθαίνω from.
283
849141
2398
14:23
There's alsoεπίσης a very
strongισχυρός economicοικονομικός incentiveκίνητρο
284
851563
2236
Υπάρχει επίσης ένα ισχυρό,
οικονομικό κίνητρο
14:27
to get this right.
285
855331
1186
ώστε να πετύχει αυτό.
14:28
So imagineφαντάζομαι your domesticοικιακός robot'sρομπότ at home.
286
856541
2001
Φανταστείτε το οικιακό σας ρομπότ.
Έχετε καθυστερήσει πάλι στη δουλειά,
αυτό πρέπει να ταΐσει τα παιδιά
14:30
You're lateαργά from work again
and the robotρομπότ has to feedταίζω the kidsπαιδιά,
287
858566
3067
14:33
and the kidsπαιδιά are hungryπεινασμένος
and there's nothing in the fridgeψυγείο.
288
861657
2823
τα οποία είναι πεινασμένα
και δεν υπάρχει τίποτα στο ψυγείο.
14:36
And the robotρομπότ seesβλέπει the catΓάτα.
289
864504
2605
Και το ρομπότ βλέπει τη γάτα.
14:39
(LaughterΤο γέλιο)
290
867133
1692
(Γέλια)
14:40
And the robotρομπότ hasn'tδεν έχει quiteαρκετά learnedέμαθα
the humanο άνθρωπος valueαξία functionλειτουργία properlyδεόντως,
291
868849
4190
Το ρομπότ, όμως, δεν έχει μάθει
σωστά τη λειτουργία των ανθρώπινων αξιών
14:45
so it doesn't understandκαταλαβαίνουν
292
873063
1251
και δεν καταλαβαίνει
14:46
the sentimentalαισθηματικός valueαξία of the catΓάτα outweighsυπερτερεί
the nutritionalθρεπτικός valueαξία of the catΓάτα.
293
874338
4844
ότι η συναισθηματική αξία της γάτας
υπερισχύει της θρεπτικής της αξίας.
14:51
(LaughterΤο γέλιο)
294
879206
1095
(Γέλια)
14:52
So then what happensσυμβαίνει?
295
880325
1748
Τι συμβαίνει τότε, λοιπόν;
14:54
Well, it happensσυμβαίνει like this:
296
882097
3297
Συμβαίνει κάτι τέτοιο,
14:57
"DerangedΔιαταραγμένο robotρομπότ cooksμάγειρες kittyγατούλα
for familyοικογένεια dinnerβραδινό."
297
885418
2964
«Ανεξέλεγκτο ρομπότ μαγειρεύει
γατάκι για οικογενειακό δείπνο».
15:00
That one incidentπεριστατικό would be the endτέλος
of the domesticοικιακός robotρομπότ industryβιομηχανία.
298
888406
4523
Αυτό το συμβάν είναι αρκετό για το τέλος
της βιομηχανίας οικιακών ρομπότ.
15:04
So there's a hugeτεράστιος incentiveκίνητρο
to get this right
299
892953
3372
Άρα υπάρχει ένα ισχυρό κίνητρο
για να επιτευχθεί σωστά η έρευνα
15:08
long before we reachφθάνω
superintelligentεφυούς machinesμηχανές.
300
896349
2715
πολύ πριν φτάσουμε
στις υπερ-ευφυείς μηχανές.
15:12
So to summarizeσυνοψίζω:
301
900128
1535
Για να συνοψίσω,
15:13
I'm actuallyπράγματι tryingπροσπαθεί to changeαλλαγή
the definitionορισμός of AIAI
302
901687
2881
Προσπαθώ να αλλάξω τον ορισμό της ΤΝ
15:16
so that we have provablyαποδεδειγμένα
beneficialευεργετική machinesμηχανές.
303
904592
2993
ώστε να έχουμε πιθανά ωφέλιμες μηχανές.
15:19
And the principlesαρχές are:
304
907609
1222
Και οι αρχές είναι,
15:20
machinesμηχανές that are altruisticαλτρουιστικά,
305
908855
1398
ανιδιοτελείς μηχανές
15:22
that want to achieveφέρνω σε πέρας only our objectivesστόχοι,
306
910277
2804
που θέλουν να πετύχουν
μόνο το δικό μας σκοπό
15:25
but that are uncertainαβέβαιος
about what those objectivesστόχοι are,
307
913105
3116
και που είναι αβέβαιες
για το ποιος είναι αυτός ο σκοπός
15:28
and will watch all of us
308
916245
1998
και που θα μας παρακολουθούν όλους
15:30
to learnμαθαίνω more about what it is
that we really want.
309
918267
3203
για να μάθουν περισσότερα
για το τι πραγματικά θέλουμε.
15:34
And hopefullyελπίζω in the processεπεξεργάζομαι, διαδικασία,
we will learnμαθαίνω to be better people.
310
922373
3559
Αν όλα πάνε καλά, στη πορεία θα μάθουμε
πώς να γίνουμε καλύτεροι άνθρωποι.
15:37
Thank you very much.
311
925956
1191
Σας ευχαριστώ πολύ.
15:39
(ApplauseΧειροκροτήματα)
312
927171
3709
(Χειροκρότημα)
Κρις Άντερσον: Πολύ ενδιαφέρον, Στιούαρτ.
15:42
ChrisChris AndersonΆντερσον: So interestingενδιαφέρων, StuartΣτιούαρτ.
313
930904
1868
15:44
We're going to standστάση here a bitκομμάτι
because I think they're settingσύνθεση up
314
932796
3170
Θα περιμένουμε λιγάκι εδώ
διότι νομίζω πως ετοιμάζονται
για τον επόμενο ομιλητή.
15:47
for our nextεπόμενος speakerΟμιλητής.
315
935990
1151
Μερικές ερωτήσεις.
15:49
A coupleζευγάρι of questionsερωτήσεις.
316
937165
1538
15:50
So the ideaιδέα of programmingπρογραμματισμός in ignoranceάγνοια
seemsφαίνεται intuitivelyδιαισθητικά really powerfulισχυρός.
317
938727
5453
Η ιδέα του προγραμματισμού εν αγνοία
φαίνεται ενστικτωδώς πολύ ισχυρή.
Όσο προχωράς προς την υπερνοημοσύνη,
15:56
As you get to superintelligenceυπερευφυΐα,
318
944204
1594
15:57
what's going to stop a robotρομπότ
319
945822
2258
τι πρόκειται να σταματήσει ένα ρομπότ
16:00
readingΑΝΑΓΝΩΣΗ literatureβιβλιογραφία and discoveringανακαλύπτοντας
this ideaιδέα that knowledgeη γνώση
320
948104
2852
που διαβάζει λογοτεχνία
και ανακαλύπτει την ιδέα
ότι η γνώση είναι καλύτερη από την άγνοια,
16:02
is actuallyπράγματι better than ignoranceάγνοια
321
950980
1572
16:04
and still just shiftingμετατόπιση its ownτα δικά goalsστόχους
and rewritingεπανεγγραφή that programmingπρογραμματισμός?
322
952576
4218
να μην αλλάξει τους σκοπούς του
και ξαναγράψει τον κώδικά του;
16:09
StuartΣτιούαρτ RussellΡάσελ: Yes, so we want
it to learnμαθαίνω more, as I said,
323
957692
6356
Στιούαρτ Ράσελ: Ναι, εμείς θέλουμε
να μάθει περισσότερα, όπως είπα,
16:16
about our objectivesστόχοι.
324
964072
1287
για τους σκοπούς μας.
16:17
It'llΑυτό θα only becomeγίνομαι more certainβέβαιος
as it becomesγίνεται more correctσωστός,
325
965383
5521
Θα γίνει πιο βέβαιο όσο γίνεται πιο σωστό,
16:22
so the evidenceαπόδειξη is there
326
970928
1945
άρα τα στοιχεία υπάρχουν
16:24
and it's going to be designedσχεδιασμένο
to interpretερμηνεύσει it correctlyσωστά.
327
972897
2724
και θα σχεδιαστεί
για να τα ερμηνεύει σωστά.
16:27
It will understandκαταλαβαίνουν, for exampleπαράδειγμα,
that booksβιβλία are very biasedμεροληπτική
328
975645
3956
Θα καταλαβαίνει, για παράδειγμα,
ότι τα βιβλία είναι πολύ προκατειλημμένα
16:31
in the evidenceαπόδειξη they containπεριέχω.
329
979625
1483
στο περιεχόμενό τους.
16:33
They only talk about kingsβασιλιάδες and princesπρίγκιπες
330
981132
2397
Μιλούν μόνο για βασιλιάδες και πρίγκιπες
16:35
and eliteαφρόκρεμα whiteάσπρο maleαρσενικός people doing stuffυλικό.
331
983553
2800
και προνομιούχους λευκούς άνδρες
να κάνουν διάφορα.
16:38
So it's a complicatedπερίπλοκος problemπρόβλημα,
332
986377
2096
Είναι, λοιπόν, ένα σύνθετο πρόβλημα,
16:40
but as it learnsμαθαίνει more about our objectivesστόχοι
333
988497
3872
αλλά όσο η μηχανή μαθαίνει περισσότερα
για τους σκοπούς μας,
16:44
it will becomeγίνομαι more and more usefulχρήσιμος to us.
334
992393
2063
θα μας γίνεται όλο και πιο χρήσιμη.
16:46
CACA: And you couldn'tδεν μπορούσε
just boilβρασμός it down to one lawνόμος,
335
994480
2526
ΚΑ: Δεν μπορείς
να το συμπτύξεις όλο σε ένα νόμο,
16:49
you know, hardwiredHardwired in:
336
997030
1650
προγραμματισμένο μέσα τους,
16:50
"if any humanο άνθρωπος ever triesπροσπαθεί to switchδιακόπτης me off,
337
998704
3293
«Αν κάποιος άνθρωπος προσπαθήσει
να με απενεργοποιήσει
16:54
I complyσυμμόρφωση. I complyσυμμόρφωση."
338
1002021
1935
θα υπακούσω».
16:55
SRSR: AbsolutelyΑπολύτως not.
339
1003980
1182
ΣΡ: Όχι, βέβαια.
16:57
That would be a terribleτρομερός ideaιδέα.
340
1005186
1499
Αυτή είναι μια φρικτή ιδέα.
16:58
So imagineφαντάζομαι that you have
a self-drivingαυτο-οδήγηση carαυτοκίνητο
341
1006709
2689
Φαντάσου ότι έχεις
ένα αυτο-οδηγούμενο αυτοκίνητο
17:01
and you want to sendστείλετε your five-year-oldπέντε-έτος-παλαιό
342
1009422
2433
και θέλεις να στείλεις
τον πεντάχρονο γιο σου
17:03
off to preschoolΠροσχολική ηλικία.
343
1011879
1174
στον παιδικό σταθμό.
17:05
Do you want your five-year-oldπέντε-έτος-παλαιό
to be ableικανός to switchδιακόπτης off the carαυτοκίνητο
344
1013077
3101
Θα ήθελες το πεντάχρονο παιδί σου
να μπορεί να το απενεργοποιήσει
17:08
while it's drivingοδήγηση alongκατά μήκος?
345
1016202
1213
όσο είναι εν κινήσει;
17:09
ProbablyΠιθανώς not.
346
1017439
1159
Μάλλον όχι.
17:10
So it needsανάγκες to understandκαταλαβαίνουν how rationalλογικός
and sensibleλογικός the personπρόσωπο is.
347
1018622
4703
Άρα το ρομπότ πρέπει να καταλαβαίνει
πόσο λογικό είναι ένα άτομο.
17:15
The more rationalλογικός the personπρόσωπο,
348
1023349
1676
Όσο λογικότερο το άτομο,
τόσο πιθανότερο να θες
να το απενεργοποιήσεις.
17:17
the more willingπρόθυμος you are
to be switchedενεργοποιημένη off.
349
1025049
2103
17:19
If the personπρόσωπο is completelyεντελώς
randomτυχαίος or even maliciousκακόβουλο,
350
1027176
2543
Αν το άτομο είναι τελείως
ασυνάρτητο ή κακόβουλο,
17:21
then you're lessπιο λιγο willingπρόθυμος
to be switchedενεργοποιημένη off.
351
1029743
2512
τότε είναι πιο απίθανο
να το απενεργοποιήσεις.
ΚΑ: Εντάξει. Στιούαρτ, απλώς να πω,
17:24
CACA: All right. StuartΣτιούαρτ, can I just say,
352
1032279
1866
πραγματικά ελπίζω να καταφέρεις
να βρεις τη λύση.
17:26
I really, really hopeελπίδα you
figureεικόνα this out for us.
353
1034169
2314
Ευχαριστώ πολύ για την απίθανη ομιλία σου.
17:28
Thank you so much for that talk.
That was amazingφοβερο.
354
1036507
2375
ΣΡ: Ευχαριστώ.
(Χειροκρότημα)
17:30
SRSR: Thank you.
355
1038906
1167
17:32
(ApplauseΧειροκροτήματα)
356
1040097
1837
Translated by Dimitris Tsampallas
Reviewed by Lucas Kaimaras

▲Back to top

ABOUT THE SPEAKER
Stuart Russell - AI expert
Stuart Russell wrote the standard text on AI; now he thinks deeply on AI's future -- and the future of us humans, too.

Why you should listen

Stuart Russell is a professor (and formerly chair) of Electrical Engineering and Computer Sciences at University of California at Berkeley. His book Artificial Intelligence: A Modern Approach (with Peter Norvig) is the standard text in AI; it has been translated into 13 languages and is used in more than 1,300 universities in 118 countries. His research covers a wide range of topics in artificial intelligence including machine learning, probabilistic reasoning, knowledge representation, planning, real-time decision making, multitarget tracking, computer vision, computational physiology, global seismic monitoring and philosophical foundations.

He also works for the United Nations, developing a new global seismic monitoring system for the nuclear-test-ban treaty. His current concerns include the threat of autonomous weapons and the long-term future of artificial intelligence and its relation to humanity.

More profile about the speaker
Stuart Russell | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee