ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com
TED2015

Nick Bostrom: What happens when our computers get smarter than we are?

Νικ Μποστρόμ: Τι θα συμβεί όταν οι υπολογιστές μας γίνουν εξυπνότεροι από εμάς;

Filmed:
4,632,705 views

Η Τεχνητή Νοημοσύνη γίνεται εξυπνότερη με άλματα - εντός του αιώνα, σύμφωνα με ερευνητικές προβλέψεις, η Τ.Ν. των υπολογιστών θα μπορούσε να είναι όσο έξυπνη είναι ένα ανθρώπινο ον. Και τότε, λέει ο Νικ Μποστρόμ, θα μας ξεπεράσει: «Η Μηχανική Νοημοσύνη είναι η τελευταία εφεύρεση που χρειάζεται να κάνει η ανθρωπότητα». Ένας φιλόσοφος και λάτρης της τεχνολογίας, ο Μποστρόμ μας βάζει να σκεφτούμε πολύ τον κόσμο που χτίζουμε αυτή τη στιγμή, που βασίζεται σε σκεπτόμενες μηχανές. Οι έξυπνες μηχανές θα μας βοηθήσουν να διατηρήσουμε την ανθρωπιά μας και τις αξίες μας - ή θα έχουν δικές τους αξίες;
- Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us? Full bio

Double-click the English transcript below to play the video.

00:12
I work with a bunchδέσμη of mathematiciansμαθηματικοί,
philosophersφιλόσοφοι and computerυπολογιστή scientistsΕπιστήμονες,
0
570
4207
Δουλεύω με μαθηματικούς
φιλόσοφους και προγραμματιστές,
00:16
and we sitκαθίζω around and think about
the futureμελλοντικός of machineμηχανή intelligenceνοημοσύνη,
1
4777
5209
και καθόμαστε και σκεφτόμαστε
το μέλλον της νοημοσύνης των μηχανών,
00:21
amongαναμεταξύ other things.
2
9986
2044
μεταξύ άλλων.
00:24
Some people think that some of these
things are sortείδος of scienceεπιστήμη fiction-yφαντασίας-y,
3
12030
4725
Κάποιοι νομίζουν ότι αυτά τα πράγματα
είναι ένα είδος επιστημονικής φαντασίας,
00:28
farμακριά out there, crazyτρελός.
4
16755
3101
πολύ μακριά, τρελά.
00:31
But I like to say,
5
19856
1470
Αλλά θα ήθελα να πω,
00:33
okay, let's look at the modernμοντέρνο
humanο άνθρωπος conditionκατάσταση.
6
21326
3604
ωραία, ας δούμε
τη σημερινή ανθρώπινη κατάσταση.
00:36
(LaughterΤο γέλιο)
7
24930
1692
(Γέλια)
00:38
This is the normalκανονικός way for things to be.
8
26622
2402
Έτσι είναι κανονικά τα πράγματα.
00:41
But if we think about it,
9
29024
2285
Αλλά αν το σκεφτούμε,
00:43
we are actuallyπράγματι recentlyπρόσφατα arrivedέφτασε
guestsεπισκέπτες on this planetπλανήτης,
10
31309
3293
είμαστε στην πραγματικότητα
καινούργιοι ένοικοι αυτού του πλανήτη,
00:46
the humanο άνθρωπος speciesείδος.
11
34602
2082
το ανθρώπινο είδος.
00:48
Think about if EarthΓη
was createdδημιουργήθηκε one yearέτος agoπριν,
12
36684
4746
Σκεφτείτε ότι, αν η Γη
δημιουργήθηκε ένα χρόνο πριν,
00:53
the humanο άνθρωπος speciesείδος, then,
would be 10 minutesλεπτά oldπαλαιός.
13
41430
3548
τότε το ανθρώπινο είδος
εμφανίστηκε πριν από 10 λεπτά.
00:56
The industrialβιομηχανικός eraεποχή startedξεκίνησε
two secondsδευτερολέπτων agoπριν.
14
44978
3168
Η βιομηχανική εποχή ξεκίνησε
πριν από δύο δευτερόλεπτα.
01:01
AnotherΈνα άλλο way to look at this is to think of
worldκόσμος GDPΑΕΠ over the last 10,000 yearsχρόνια,
15
49276
5225
Άλλος ένας τρόπος για να το δούμε, είναι
με το ΑΕΠ των τελευταίων 10.000 ετών.
01:06
I've actuallyπράγματι takenληφθεί the troubleταλαιπωρία
to plotοικόπεδο this for you in a graphγραφική παράσταση.
16
54501
3029
Μπήκα στον κόπο να το υπολογίσω
για εσάς σε αυτό τον πίνακα.
01:09
It looksφαίνεται like this.
17
57530
1774
Είναι κάπως έτσι.
01:11
(LaughterΤο γέλιο)
18
59304
1363
(Γέλια)
Περίεργο σχήμα για
μια φυσιολογική κατάσταση.
01:12
It's a curiousπερίεργος shapeσχήμα
for a normalκανονικός conditionκατάσταση.
19
60667
2151
01:14
I sure wouldn'tδεν θα ήταν want to sitκαθίζω on it.
20
62818
1698
Δεν θα ήθελα να κάτσω επάνω σε αυτό.
01:16
(LaughterΤο γέλιο)
21
64516
2551
(Γέλια)
01:19
Let's askπαρακαλώ ourselvesεμείς οι ίδιοι, what is the causeαιτία
of this currentρεύμα anomalyανωμαλία?
22
67067
4774
Ας αναρωτηθούμε, ποιος είναι
ο λόγος αυτής της ανωμαλίας;
01:23
Some people would say it's technologyτεχνολογία.
23
71841
2552
Κάποιοι θα πουν ότι είναι η τεχνολογία.
01:26
Now it's trueαληθής, technologyτεχνολογία has accumulatedσυσσωρευμένος
throughδιά μέσου humanο άνθρωπος historyιστορία,
24
74393
4668
Είναι αλήθεια, η τεχνολογία
συσσωρεύτηκε στην ανθρώπινη ιστορία,
01:31
and right now, technologyτεχνολογία
advancesπροκαταβολές extremelyεπακρώς rapidlyταχέως --
25
79061
4652
και τώρα, η τεχνολογία
εξελίσσεται απίστευτα γρήγορα --
01:35
that is the proximateεκ του συστάδην causeαιτία,
26
83713
1565
αυτή είναι η εμφανής αιτία,
01:37
that's why we are currentlyεπί του παρόντος
so very productiveπαραγωγικός.
27
85278
2565
και γι' αυτό είμαστε
τώρα τόσο παραγωγικοί.
Αλλά θα ήθελα να σκεφτώ
περισσότερο την πρωταρχική αιτία.
01:40
But I like to think back furtherπεραιτέρω
to the ultimateτελικός causeαιτία.
28
88473
3661
01:45
Look at these two highlyυψηλά
distinguishedδιακεκριμένος gentlemenΑντρών:
29
93114
3766
Δείτε αυτούς τους δύο
διακεκριμένους κυρίους:
01:48
We have KanziKanzi --
30
96880
1600
Έχουμε τον Κάνζι --
01:50
he's masteredκατακτηθεί 200 lexicalλεξιλογικές
tokensκουπόνια, an incredibleαπίστευτος featfeat.
31
98480
4643
έχει μάθει 200 λέξεις,
ένα καταπληκτικό επίτευγμα.
01:55
And EdEd WittenWitten unleashedεξαπέλυσε the secondδεύτερος
superstringτων Υπερχορδών revolutionεπανάσταση.
32
103123
3694
Και ο Εντ Γουίτεν εξαπέλυσε τη δεύτερη
επανάσταση υπερστοιχειοσειρών.
01:58
If we look underκάτω από the hoodκουκούλα,
this is what we find:
33
106817
2324
Αν κοιτάξουμε κάτω από την επιφάνεια,
τι θα βρούμε;
02:01
basicallyβασικα the sameίδιο thing.
34
109141
1570
λίγο πολύ το ίδιο πράγμα.
02:02
One is a little largerμεγαλύτερος,
35
110711
1813
Ο ένας είναι λίγο μεγαλύτερος,
02:04
it maybe alsoεπίσης has a fewλίγοι tricksκόλπα
in the exactακριβής way it's wiredενσύρματο.
36
112524
2758
ίσως έχει λίγο πολυπλοκότερες καλωδιώσεις.
02:07
These invisibleαόρατος differencesδιαφορές cannotδεν μπορώ
be too complicatedπερίπλοκος, howeverωστόσο,
37
115282
3812
Αυτές οι αόρατες διαφορές
δεν μπορεί να είναι πολύπλοκες όμως,
02:11
because there have only
been 250,000 generationsγενεών
38
119094
4285
επειδή έχουν περάσει μόνο 250.000 γενιές
02:15
sinceΑπό our last commonκοινός ancestorπρόγονος.
39
123379
1732
από τον τελευταίο κοινό μας πρόγονο.
02:17
We know that complicatedπερίπλοκος mechanismsμηχανισμούς
take a long time to evolveαναπτύσσω.
40
125111
3849
Ξέρουμε ότι οι πολύπλοκοι μηχανισμοί
χρειάζονται πολύ χρόνο για να εξελιχθούν.
02:22
So a bunchδέσμη of relativelyσχετικά minorανήλικος changesαλλαγές
41
130000
2499
Έτσι μόνο λίγες μικρές αλλαγές
02:24
take us from KanziKanzi to WittenWitten,
42
132499
3067
μας οδηγούν από τον Κάνζι στον Γουίτεν,
02:27
from broken-offσπασμένα-off treeδέντρο branchesυποκαταστήματα
to intercontinentalInterContinental ballisticβαλλιστικός missilesπύραυλοι.
43
135566
4543
από σπασμένα κλαδιά σε Διηπειρωτικούς
Βαλλιστικούς Πυραύλους.
02:32
So this then seemsφαίνεται prettyαρκετά obviousφανερός
that everything we'veέχουμε achievedεπιτευχθεί,
44
140839
3935
Έτσι είναι προφανές
ότι όλα όσα έχουμε πετύχει,
02:36
and everything we careΦροντίδα about,
45
144774
1378
και για τα οποία νοιαζόμαστε,
02:38
dependsΕξαρτάται cruciallyαποφασιστικά on some relativelyσχετικά minorανήλικος
changesαλλαγές that madeέκανε the humanο άνθρωπος mindμυαλό.
46
146152
5228
εξαρτώνται από μερικές μικρές αλλαγές
που έκαναν το ανθρώπινο μυαλό.
02:44
And the corollaryαπόρροια, of courseσειρά μαθημάτων,
is that any furtherπεραιτέρω changesαλλαγές
47
152650
3662
Και το πόρισμα, βέβαια,
είναι ότι περαιτέρω αλλαγές
02:48
that could significantlyσημαντικά changeαλλαγή
the substrateυπόστρωμα of thinkingσκέψη
48
156312
3477
που θα μπορούσαν να αλλάξουν σημαντικά
το υπόστρωμα της σκέψης
02:51
could have potentiallyενδεχομένως
enormousτεράστιος consequencesσυνέπειες.
49
159789
3202
θα μπορούσαν να έχουν τεράστιες συνέπειες.
02:56
Some of my colleaguesΣυνάδελφοι
think we're on the vergeχείλος
50
164321
2905
Κάποιοι από τους συναδέλφους μου
πιστεύουν ότι είμαστε στα πρόθυρα
02:59
of something that could causeαιτία
a profoundβαθύς changeαλλαγή in that substrateυπόστρωμα,
51
167226
3908
μιας μεγάλης αλλαγής σε αυτό το υπόστρωμα,
03:03
and that is machineμηχανή superintelligenceυπερευφυΐα.
52
171134
3213
και αυτή είναι η μηχανική υπερνοημοσύνη.
Η Τεχνητή Νοημοσύνη είχε να κάνει
με τη συγγραφή εντολών σε ένα κουτί.
03:06
ArtificialΤεχνητή intelligenceνοημοσύνη used to be
about puttingβάζοντας commandsεντολές in a boxκουτί.
53
174347
4739
03:11
You would have humanο άνθρωπος programmersπρογραμματιστές
54
179086
1665
Είχατε ανθρώπους προγραμματιστές
03:12
that would painstakinglyκόπο
handcraftβιοτεχνίας knowledgeη γνώση itemsαντικειμένων.
55
180751
3135
που με κόπο θα κατασκεύαζαν
αντικείμενα γνώσης.
03:15
You buildχτίζω up these expertειδικός systemsσυστήματα,
56
183886
2086
Θα έφτιαχναν αυτά
τα εξειδικευμένα συστήματα,
03:17
and they were kindείδος of usefulχρήσιμος
for some purposesσκοποί,
57
185972
2324
και ήταν κάπως χρήσιμα
για κάποιους σκοπούς,
03:20
but they were very brittleεύθραυστος,
you couldn'tδεν μπορούσε scaleκλίμακα them.
58
188296
2681
αλλά ήταν πολύ εύθραυστα
και δεν έμπαιναν σε κλίμακα.
03:22
BasicallyΒασικά, you got out only
what you put in.
59
190977
3433
Βασικά, παίρνατε μόνο ό,τι τους βάζατε.
03:26
But sinceΑπό then,
60
194410
997
Αλλά από τότε,
03:27
a paradigmπαράδειγμα shiftβάρδια has takenληφθεί placeθέση
in the fieldπεδίο of artificialτεχνητός intelligenceνοημοσύνη.
61
195407
3467
μια άλλη αντιμετώπιση έλαβε χώρα
στον τομέα της Τεχνητής Νοημοσύνης.
03:30
TodayΣήμερα, the actionδράση is really
around machineμηχανή learningμάθηση.
62
198874
2770
Σήμερα όλη η δράση είναι
γύρω από τη μηχανική μάθηση.
03:34
So ratherμάλλον than handcraftinghandcrafting knowledgeη γνώση
representationsαναπαραστάσεις and featuresχαρακτηριστικά,
63
202394
5387
Επομένως αντί να κατασκευάσουμε
τη γνώση και τα χαρακτηριστικά,
03:40
we createδημιουργώ algorithmsαλγορίθμους that learnμαθαίνω,
oftenσυχνά from rawακατέργαστος perceptualαντιληπτική dataδεδομένα.
64
208511
5554
φτιάχνουμε αλγόριθμους που μαθαίνουν συχνά
από ακατέργαστα αντιληπτικά δεδομένα.
03:46
BasicallyΒασικά the sameίδιο thing
that the humanο άνθρωπος infantβρέφος does.
65
214065
4998
Βασικά το ίδιο πράγμα που κάνει ένα μωρό.
Το αποτέλεσμα είναι μια Τ.Ν.
που δεν περιορίζεται σε έναν τομέα --
03:51
The resultαποτέλεσμα is A.I. that is not
limitedπεριωρισμένος to one domainτομέα --
66
219063
4207
03:55
the sameίδιο systemΣύστημα can learnμαθαίνω to translateμεταφράζω
betweenμεταξύ any pairsζεύγη of languagesΓλώσσες,
67
223270
4631
το ίδιο σύστημα μπορεί να μάθει
να μεταφράζει μεταξύ κάθε ζεύγους γλωσσών,
03:59
or learnμαθαίνω to playπαίζω any computerυπολογιστή gameπαιχνίδι
on the AtariAtari consoleκονσόλα.
68
227901
5437
ή να μάθει να παίζει οποιοδήποτε
ηλεκτρονικό παιχνίδι στην κονσόλα Ατάρι.
04:05
Now of courseσειρά μαθημάτων,
69
233338
1779
Τώρα, βέβαια,
04:07
A.I. is still nowhereπουθενά nearκοντά havingέχοντας
the sameίδιο powerfulισχυρός, cross-domainτομέων
70
235117
3999
η Τ.Ν. δεν είναι καν κοντά στην ικανότητα
εκμάθησης και σχεδιασμού
04:11
abilityικανότητα to learnμαθαίνω and planσχέδιο
as a humanο άνθρωπος beingνα εισαι has.
71
239116
3219
σε διάφορους τομείς όπως ένας άνθρωπος.
04:14
The cortexφλοιός still has some
algorithmicΑλγοριθμική tricksκόλπα
72
242335
2126
Ο φλοιός έχει ακόμα
μερικά αλγοριθμικά κόλπα
τα οποία ακόμη δεν ξέρουμε
πώς να μεταφέρουμε σε μηχανές.
04:16
that we don't yetΑκόμη know
how to matchαγώνας in machinesμηχανές.
73
244461
2355
04:19
So the questionερώτηση is,
74
247886
1899
Επομένως η ερώτηση είναι,
04:21
how farμακριά are we from beingνα εισαι ableικανός
to matchαγώνας those tricksκόλπα?
75
249785
3500
πόσο απέχουμε
από το να καλύψουμε αυτά τα κόλπα;
04:26
A coupleζευγάρι of yearsχρόνια agoπριν,
76
254245
1083
Πριν μερικά χρόνια,
04:27
we did a surveyεπισκόπηση of some of the world'sτου κόσμου
leadingκύριος A.I. expertsειδικοί,
77
255328
2888
κάναμε μια έρευνα
σε κορυφαίους ειδικούς Τ.Ν. στον κόσμο,
04:30
to see what they think,
and one of the questionsερωτήσεις we askedερωτηθείς was,
78
258216
3224
για να δούμε τι σκέφτονται,
και μία από τις ερωτήσεις ήταν,
04:33
"By whichοι οποίες yearέτος do you think
there is a 50 percentτοις εκατό probabilityπιθανότητα
79
261440
3353
«Ποιο έτος πιστεύετε
ότι θα υπάρξει 50% πιθανότητα
04:36
that we will have achievedεπιτευχθεί
human-levelανθρώπινα-επίπεδο machineμηχανή intelligenceνοημοσύνη?"
80
264793
3482
να έχουμε πετύχει μηχανική
νοημοσύνη ανθρωπίνου επιπέδου;»
04:40
We definedορίζεται human-levelανθρώπινα-επίπεδο here
as the abilityικανότητα to performεκτελώ
81
268785
4183
Εδώ ορίσαμε το ανθρώπινο επίπεδο
ως την ικανότητα να φέρουμε εις πέρας
04:44
almostσχεδόν any jobδουλειά at leastελάχιστα as well
as an adultενήλικας humanο άνθρωπος,
82
272968
2871
σχεδόν κάθε δουλειά, τόσο καλά
τουλάχιστον όσο ένας ενήλικας,
04:47
so realπραγματικός human-levelανθρώπινα-επίπεδο, not just
withinστα πλαίσια some limitedπεριωρισμένος domainτομέα.
83
275839
4005
άρα σε πραγματικά ανθρώπινο-επίπεδο,
όχι απλά σε κάποιο περιορισμένο τομέα.
04:51
And the medianδιάμεσος answerαπάντηση was 2040 or 2050,
84
279844
3650
Και η μέση απάντηση ήταν το 2040 ή 2050,
04:55
dependingσε συνάρτηση on preciselyακριβώς whichοι οποίες
groupομάδα of expertsειδικοί we askedερωτηθείς.
85
283494
2806
ανάλογα με το πόσο ακριβής ήταν
η ερωτηθείσα ομάδα ειδικών.
04:58
Now, it could happenσυμβεί much,
much laterαργότερα, or soonerγρηγορότερα,
86
286300
4039
Βέβαια μπορεί να συμβεί
πολύ αργότερα ή νωρίτερα,
05:02
the truthαλήθεια is nobodyκανείς really knowsξέρει.
87
290339
1940
η αλήθεια είναι ότι κανείς δεν ξέρει.
05:05
What we do know is that the ultimateτελικός
limitόριο to informationπληροφορίες processingεπεξεργασία
88
293259
4412
Αυτό που όντως ξέρουμε είναι ότι το
απώτατο όριο στην επεξεργασία πληροφοριών
05:09
in a machineμηχανή substrateυπόστρωμα liesψέματα farμακριά outsideεξω απο
the limitsόρια in biologicalβιολογικός tissueιστός.
89
297671
4871
σε ένα μηχανικό υπόστρωμα είναι
εκτός των ορίων του βιολογικού ιστού.
05:15
This comesέρχεται down to physicsη φυσικη.
90
303241
2378
Όλα καταλήγουν στη φυσική.
05:17
A biologicalβιολογικός neuronνευρώνας firesπυρκαγιές, maybe,
at 200 hertzHertz, 200 timesφορές a secondδεύτερος.
91
305619
4718
Ένας βιολογικός νευρώνας δουλεύει περίπου
στα 200 Hz, 200 φορές το δευτερόλεπτο.
05:22
But even a present-dayσήμερα transistorτρανζίστορ
operatesλειτουργεί at the GigahertzGigahertz.
92
310337
3594
Αλλά ακόμα κι ένα σημερινό τρανζίστορ
δουλεύει σε γίγαχερτζ.
05:25
NeuronsΝευρώνες propagateδιαδίδουν slowlyαργά in axonsάξονες,
100 metersμέτρα perανά secondδεύτερος, topsκορυφές.
93
313931
5297
Οι νευρώνες προχωρούν αργά σε άξονες,
100 μέτρα το δευτερόλεπτο, το πολύ.
05:31
But in computersΥπολογιστές, signalsσήματα can travelταξίδι
at the speedΤαχύτητα of lightφως.
94
319228
3111
Αλλά στους υπολογιστές,
τα σήματα ταξιδεύουν με ταχύτητα φωτός.
Επίσης δεν υπάρχουν περιορισμοί μεγέθους
05:35
There are alsoεπίσης sizeμέγεθος limitationsπεριορισμούς,
95
323079
1869
05:36
like a humanο άνθρωπος brainεγκέφαλος has
to fitκατάλληλος insideμέσα a craniumκρανίο,
96
324948
3027
όπως ο ανθρώπινος εγκέφαλος
που πρέπει να χωρέσει σε ένα κρανίο,
05:39
but a computerυπολογιστή can be the sizeμέγεθος
of a warehouseαποθήκη or largerμεγαλύτερος.
97
327975
4761
αλλά ο υπολογιστής μπορεί να έχει μέγεθος
μιας αποθήκης ή μεγαλύτερο.
05:44
So the potentialδυνητικός for superintelligenceυπερευφυΐα
liesψέματα dormantνάρκη in matterύλη,
98
332736
5599
Έτσι η δυνατότητα για υπερνοημοσύνη
βρίσκεται αδρανής στην ύλη,
05:50
much like the powerεξουσία of the atomάτομο
layλαϊκός dormantνάρκη throughoutκαθόλη τη διάρκεια humanο άνθρωπος historyιστορία,
99
338335
5712
όπως ακριβώς η δύναμη του ατόμου
ήταν αδρανής στην ανθρώπινη ιστορία,
05:56
patientlyυπομονετικά waitingαναμονή there untilμέχρις ότου 1945.
100
344047
4405
περιμένοντας υπομονετικά μέχρι το 1945.
06:00
In this centuryαιώνας,
101
348452
1248
Αυτόν τον αιώνα,
06:01
scientistsΕπιστήμονες mayενδέχεται learnμαθαίνω to awakenαφύπνιση
the powerεξουσία of artificialτεχνητός intelligenceνοημοσύνη.
102
349700
4118
οι επιστήμονας ίσως μάθουν
πώς να ξυπνήσουν τη δύναμη της Τ.Ν.
06:05
And I think we mightθα μπορούσε then see
an intelligenceνοημοσύνη explosionέκρηξη.
103
353818
4008
Πιστεύω ότι τότε ίσως δούμε
μια έκρηξη στη νοημοσύνη.
06:10
Now mostπλέον people, when they think
about what is smartέξυπνος and what is dumbχαζός,
104
358406
3957
Όταν οι περισσότεροι άνθρωποι σκέφτονται
τι είναι έξυπνο και τι χαζό,
06:14
I think have in mindμυαλό a pictureεικόνα
roughlyχονδρικά like this.
105
362363
3023
νομίζω ότι έχουν στο μυαλό τους
μια εικόνα λίγο πολύ σαν αυτή.
06:17
So at one endτέλος we have the villageχωριό idiotβλάκας,
106
365386
2598
Επομένως έχουμε από τη μία
τον χαζό του χωριού,
06:19
and then farμακριά over at the other sideπλευρά
107
367984
2483
και μακριά στην άλλη άκρη
έχουμε τον Εντ Γουίτεν,
06:22
we have EdEd WittenWitten, or AlbertΆλμπερτ EinsteinΟ Αϊνστάιν,
or whoeverΟποιοσδήποτε your favoriteαγαπημένη guruγκουρού is.
108
370467
4756
ή τον Αλβέρτο Αϊνστάιν, ή οποιοσδήποτε
είναι ο αγαπημένος σας γκουρού.
06:27
But I think that from the pointσημείο of viewθέα
of artificialτεχνητός intelligenceνοημοσύνη,
109
375223
3834
Αλλά νομίζω ότι από την οπτική γωνία
της τεχνητής νοημοσύνης,
06:31
the trueαληθής pictureεικόνα is actuallyπράγματι
probablyπιθανώς more like this:
110
379057
3681
η πραγματική εικόνα πιθανώς
είναι περισσότερο κάπως έτσι:
Η Τ.Ν. ξεκίνησε σε αυτό το σημείο,
με μηδέν νοημοσύνη,
06:35
AIAI startsξεκινά out at this pointσημείο here,
at zeroμηδέν intelligenceνοημοσύνη,
111
383258
3378
06:38
and then, after manyΠολλά, manyΠολλά
yearsχρόνια of really hardσκληρά work,
112
386636
3011
κατόπιν, μετά από πάρα πολλά χρόνια
πραγματικά σκληρής δουλειάς,
06:41
maybe eventuallyτελικά we get to
mouse-levelποντίκι-επίπεδο artificialτεχνητός intelligenceνοημοσύνη,
113
389647
3844
ίσως τελικά να φτάσουμε
στην Τ.Ν. επιπέδου ποντικιού,
06:45
something that can navigateκυβερνώ
clutteredγεμάτα environmentsπεριβάλλοντος
114
393491
2430
κάτι που να μπορεί να περιηγηθεί
σε περιβάλλοντα με εμπόδια
06:47
as well as a mouseποντίκι can.
115
395921
1987
όσο καλά μπορεί και ένα ποντίκι.
06:49
And then, after manyΠολλά, manyΠολλά more yearsχρόνια
of really hardσκληρά work, lots of investmentεπένδυση,
116
397908
4313
Και μετά, μετά από πιο πολλά χρόνια
σκληρής δουλειάς και πολλές επενδύσεις,
06:54
maybe eventuallyτελικά we get to
chimpanzee-levelχιμπατζής σε επίπεδο artificialτεχνητός intelligenceνοημοσύνη.
117
402221
4639
ίσως τελικά να φτάσουμε
σε Τ.Ν. επιπέδου χιμπατζή.
06:58
And then, after even more yearsχρόνια
of really, really hardσκληρά work,
118
406860
3210
Και μετά από ακόμα πιο πολλά χρόνια
πολύ σκληρής δουλειάς,
07:02
we get to villageχωριό idiotβλάκας
artificialτεχνητός intelligenceνοημοσύνη.
119
410070
2913
θα φτάσουμε σε Τ.Ν.
του επιπέδου του χαζού του χωριού.
07:04
And a fewλίγοι momentsστιγμές laterαργότερα,
we are beyondπέρα EdEd WittenWitten.
120
412983
3272
Και μερικές στιγμές αργότερα,
θα ξεπεράσουμε τον Εντ Γουίτεν.
07:08
The trainτρένο doesn't stop
at HumanvilleHumanville StationΣταθμός.
121
416255
2970
Το τρένο δεν σταματά
στον Σταθμό του Ανθρωποχωριού.
07:11
It's likelyπιθανός, ratherμάλλον, to swooshSwoosh right by.
122
419225
3022
Είναι μάλλον πιθανότερο να το προσπεράσει.
07:14
Now this has profoundβαθύς implicationsεπιπτώσεις,
123
422247
1984
Αυτό έχει σημαντικές επιπτώσεις,
07:16
particularlyιδιαίτερα when it comesέρχεται
to questionsερωτήσεις of powerεξουσία.
124
424231
3862
ειδικά όσον αφορά θέματα δύναμης.
07:20
For exampleπαράδειγμα, chimpanzeesχιμπατζήδες are strongισχυρός --
125
428093
1899
Παράδειγμα, ο χιμπατζής είναι δυνατός -
07:21
poundλίβρα for poundλίβρα, a chimpanzeeχιμπατζής is about
twiceεις διπλούν as strongισχυρός as a fitκατάλληλος humanο άνθρωπος maleαρσενικός.
126
429992
5222
σε αναλογία βάρους, είναι δύο φορές
πιο δυνατός από έναν γυμνασμένο άντρα.
07:27
And yetΑκόμη, the fateμοίρα of KanziKanzi
and his palsφιλαράκια dependsΕξαρτάται a lot more
127
435214
4614
Όμως η μοίρα του Κάνζι και των φίλων του
εξαρτάται πολύ περισσότερο
07:31
on what we humansτου ανθρώπου do than on
what the chimpanzeesχιμπατζήδες do themselvesτους εαυτούς τους.
128
439828
4140
από το τι κάνουμε εμείς οι άνθρωποι παρά
από το τι κάνουν οι ίδιοι οι χιμπατζήδες.
07:37
OnceΜια φορά there is superintelligenceυπερευφυΐα,
129
445228
2314
Όταν υπάρξει υπερνοημοσύνη,
07:39
the fateμοίρα of humanityανθρωπότητα mayενδέχεται dependεξαρτώμαι
on what the superintelligenceυπερευφυΐα does.
130
447542
3839
η μοίρα της ανθρωπότητας ίσως να
εξαρτάται από το τι κάνει η υπερνοημοσύνη.
07:44
Think about it:
131
452451
1057
Σκεφτείτε το:
07:45
MachineΜηχάνημα intelligenceνοημοσύνη is the last inventionεφεύρεση
that humanityανθρωπότητα will ever need to make.
132
453508
5044
Η μηχανική νοημοσύνη είναι η τελευταία
εφεύρεση που χρειάζεται να κάνουμε.
07:50
MachinesΜηχανές will then be better
at inventingεφευρίσκοντας than we are,
133
458552
2973
Οι μηχανές θα είναι καλύτερες
στις εφευρέσεις από εμάς,
07:53
and they'llθα το κάνουν be doing so
on digitalψηφιακό timescalesχρονοδιαγράμματα.
134
461525
2540
και θα το κάνουν
σε ψηφιακά χρονικά περιθώρια.
07:56
What this meansπου σημαίνει is basicallyβασικα
a telescopingΤηλεσκοπική of the futureμελλοντικός.
135
464065
4901
Αυτό συνεπάγεται ένα μέλλον
που βλέπουμε μέσα από το τηλεσκόπιο.
08:00
Think of all the crazyτρελός technologiesτεχνολογίες
that you could have imaginedφανταστείτε
136
468966
3558
Σκεφτείτε όλες τις τρελές τεχνολογίες
που μπορείτε να φανταστείτε
08:04
maybe humansτου ανθρώπου could have developedαναπτηγμένος
in the fullnessπληρότητα of time:
137
472524
2798
που ίσως οι άνθρωποι θα έχουν αναπτύξει
στο πλήρωμα του χρόνου:
08:07
curesθεραπεύει for agingγηράσκων, spaceχώρος colonizationαποικισμός,
138
475322
3258
θεραπείες για τη γήρανση,
αποικίες στο διάστημα,
08:10
self-replicatingαυτο-αναπαραγωγή nanobotsnanobots or uploadingφόρτωμα
of mindsμυαλά into computersΥπολογιστές,
139
478580
3731
αυτοαναπαραγώμενα νανορομπότ
ή μεταφορτώσεις μυαλών σε υπολογιστές,
08:14
all kindsείδη of scienceεπιστήμη fiction-yφαντασίας-y stuffυλικό
140
482311
2159
επιστημονική φαντασία όλων των ειδών
08:16
that's neverthelessπαρ 'όλα αυτά consistentσυνεπής
with the lawsτου νόμου of physicsη φυσικη.
141
484470
2737
που όμως συμφωνούν
με τους νόμους της φυσικής.
08:19
All of this superintelligenceυπερευφυΐα could
developαναπτύσσω, and possiblyπιθανώς quiteαρκετά rapidlyταχέως.
142
487207
4212
Όλα αυτά η υπερνοημοσύνη θα μπορούσε
να τα αναπτύξει, και πιθανώς πολύ γρήγορα.
08:24
Now, a superintelligenceυπερευφυΐα with suchτέτοιος
technologicalτεχνολογικός maturityλήξη
143
492449
3558
Μια υπερνοημοσύνη
με μια τέτοια τεχνολογική ωριμότητα
08:28
would be extremelyεπακρώς powerfulισχυρός,
144
496007
2179
θα ήταν πολύ ισχυρή,
08:30
and at leastελάχιστα in some scenariosσενάρια,
it would be ableικανός to get what it wants.
145
498186
4546
και τουλάχιστον σε μερικά σενάρια,
θα μπορούσε να πάρει αυτό που θέλει.
08:34
We would then have a futureμελλοντικός that would
be shapedσχηματισμένος by the preferencesπροτιμήσεις of this A.I.
146
502732
5661
Τότε το μέλλον μας θα καθορίζεται
από τις προτιμήσεις αυτής της Τ.Ν.
08:41
Now a good questionερώτηση is,
what are those preferencesπροτιμήσεις?
147
509855
3749
Μια καλή ερώτηση είναι,
ποιες είναι αυτές οι προτιμήσεις;
08:46
Here it getsπαίρνει trickierπιο περίπλοκη.
148
514244
1769
Εδώ γίνεται πιο περίπλοκο.
08:48
To make any headwayπροχωρήσουμε with this,
149
516013
1435
Για να προχωρήσουμε με αυτό,
08:49
we mustπρέπει first of all
avoidαποφύγει anthropomorphizinganthropomorphizing.
150
517448
3276
πρέπει πρώτα να αποφύγουμε
την αναγωγή σε ανθρώπινη μορφή.
08:53
And this is ironicειρωνικό because
everyκάθε newspaperεφημερίδα articleάρθρο
151
521934
3301
Και αυτό είναι ειρωνικό
επειδή κάθε άρθρο εφημερίδας
08:57
about the futureμελλοντικός of A.I.
has a pictureεικόνα of this:
152
525235
3855
για το μέλλον της Τ.Ν.
έχει μια τέτοια εικόνα:
09:02
So I think what we need to do is
to conceiveσυλλάβουν of the issueθέμα more abstractlyαφηρημένο,
153
530280
4134
Άρα νομίζω ότι χρειάζεται
να συλλάβουμε το θέμα πιο ελεύθερα,
09:06
not in termsόροι of vividζωντανό HollywoodΧόλιγουντ scenariosσενάρια.
154
534414
2790
όχι όπως στα Χολυγουντιανά σενάρια.
09:09
We need to think of intelligenceνοημοσύνη
as an optimizationβελτιστοποίηση processεπεξεργάζομαι, διαδικασία,
155
537204
3617
Πρέπει να σκεφτόμαστε τη νοημοσύνη
ως μια διαδικασία βελτίωσης,
09:12
a processεπεξεργάζομαι, διαδικασία that steersβόδια the futureμελλοντικός
into a particularιδιαιτερος setσειρά of configurationsδιαμορφώσεις.
156
540821
5649
μια διαδικασία που κατευθύνει το μέλλον
σε ένα συγκεκριμένο σύνολο ρυθμίσεων.
09:18
A superintelligenceυπερευφυΐα is
a really strongισχυρός optimizationβελτιστοποίηση processεπεξεργάζομαι, διαδικασία.
157
546470
3511
Μια υπερνοημοσύνη είναι στα αλήθεια
μια ισχυρή διαδικασία βελτιστοποίησης.
09:21
It's extremelyεπακρώς good at usingχρησιμοποιώντας
availableδιαθέσιμος meansπου σημαίνει to achieveφέρνω σε πέρας a stateκατάσταση
158
549981
4117
Είναι πολύ καλή στη χρήση των διαθέσιμων
μέσων ώστε να φτάσει μια κατάσταση,
στην οποία πραγματοποιείται ο στόχος της.
09:26
in whichοι οποίες its goalστόχος is realizedσυνειδητοποίησα.
159
554098
1909
09:28
This meansπου σημαίνει that there is no necessaryΑΠΑΡΑΙΤΗΤΗ
conenctionconenction betweenμεταξύ
160
556447
2672
Αυτό σημαίνει ότι δεν υπάρχει
απαραίτητη σύνδεση μεταξύ
09:31
beingνα εισαι highlyυψηλά intelligentέξυπνος in this senseέννοια,
161
559119
2734
του να είσαι πολύ έξυπνος
κατ' αυτή την έννοια,
09:33
and havingέχοντας an objectiveσκοπός that we humansτου ανθρώπου
would find worthwhileπου αξίζει τον κόπο or meaningfulμε νοημα.
162
561853
4662
και με το να έχεις έναν σκοπό που
οι άνθρωποι θεωρούμε σημαντικό και άξιο.
09:39
SupposeΑς υποθέσουμε ότι we give an A.I. the goalστόχος
to make humansτου ανθρώπου smileχαμόγελο.
163
567321
3794
Υποθέστε ότι δίνουμε σε μια Τ.Ν. στόχο
να κάνει ανθρώπους να γελάνε.
09:43
When the A.I. is weakαδύναμος, it performsεκτελεί usefulχρήσιμος
or amusingδιασκεδαστικό actionsΕνέργειες
164
571115
2982
Όταν η Τ.Ν. είναι αδύναμη,
κάνει διασκεδαστικές κινήσεις
09:46
that causeαιτία its userχρήστης to smileχαμόγελο.
165
574097
2517
που κάνουν τον χρήστη να γελάσει.
09:48
When the A.I. becomesγίνεται superintelligentεφυούς,
166
576614
2417
Όταν η Τ.Ν. γίνεται υπερνοήμων,
09:51
it realizesσυνειδητοποιεί that there is a more
effectiveαποτελεσματικός way to achieveφέρνω σε πέρας this goalστόχος:
167
579031
3523
αντιλαμβάνεται ότι υπάρχει
καλύτερος τρόπος να πετύχει το στόχο της:
09:54
take controlέλεγχος of the worldκόσμος
168
582554
1922
να πάρει τον έλεγχο του κόσμου
09:56
and stickραβδί electrodesηλεκτρόδια into the facialχύσια στα μούτρα
musclesμυς of humansτου ανθρώπου
169
584476
3162
και να βάλει ηλεκτρόδια
στους μύες του προσώπου των ανθρώπων
09:59
to causeαιτία constantσυνεχής, beamingακτινοβολούν grinsχαμόγελα.
170
587638
2941
για να προκαλέσει συνεχόμενα,
φωναχτά γέλια.
10:02
AnotherΈνα άλλο exampleπαράδειγμα,
171
590579
1035
Ένα άλλο παράδειγμα,
10:03
supposeυποθέτω we give A.I. the goalστόχος to solveλύσει
a difficultδύσκολος mathematicalμαθηματικός problemπρόβλημα.
172
591614
3383
υποθέστε ότι δίνουμε στην Τ.Ν. τον στόχο
να λύσει ένα δύσκολο μαθηματικό πρόβλημα.
10:06
When the A.I. becomesγίνεται superintelligentεφυούς,
173
594997
1937
Όταν η Τ.Ν. γίνει υπερνοήμων,
10:08
it realizesσυνειδητοποιεί that the mostπλέον effectiveαποτελεσματικός way
to get the solutionλύση to this problemπρόβλημα
174
596934
4171
αντιλαμβάνεται ότι ο καλύτερος τρόπος
για να φτάσει στη λύση του προβλήματος
10:13
is by transformingμετατρέποντας the planetπλανήτης
into a giantγίγαντας computerυπολογιστή,
175
601105
2930
είναι να μεταμορφώσει τον πλανήτη
σε ένα γιγάντιο υπολογιστή,
10:16
so as to increaseαυξάνουν its thinkingσκέψη capacityχωρητικότητα.
176
604035
2246
για να αυξήσει
την υπολογιστική της ικανότητα.
10:18
And noticeειδοποίηση that this givesδίνει the A.I.s
an instrumentalΟρχηστρικό reasonλόγος
177
606281
2764
Και προσέξτε ότι αυτό δίνει στις Τ.Ν.
έναν σημαντικό λόγο
να μας κάνουν πράγματα,
που μπορεί να μην εγκρίνουμε.
10:21
to do things to us that we
mightθα μπορούσε not approveεγκρίνω of.
178
609045
2516
10:23
HumanΑνθρώπινη beingsόντα in this modelμοντέλο are threatsαπειλές,
179
611561
1935
Σ' αυτό το μοντέλο
οι άνθρωποι είναι απειλή,
10:25
we could preventαποτρέψει the mathematicalμαθηματικός
problemπρόβλημα from beingνα εισαι solvedλυθεί.
180
613496
2921
μπορούμε να εμποδίσουμε
τη λύση του μαθηματικού προβλήματος.
10:29
Of courseσειρά μαθημάτων, perceivablyαντιληπτώς things won'tσυνηθισμένος
go wrongλανθασμένος in these particularιδιαιτερος waysτρόπους;
181
617207
3494
Βέβαια, μπορεί να μην υπάρξουν
τέτοιου είδους επιπλοκές,
10:32
these are cartoonΚΙΝΟΥΜΕΝΟ ΣΧΕΔΙΟ examplesπαραδείγματα.
182
620701
1753
αυτά είναι κωμικά σενάρια.
Αλλά το γενικό νόημα εδώ είναι σημαντικό:
10:34
But the generalγενικός pointσημείο here is importantσπουδαίος:
183
622454
1939
10:36
if you createδημιουργώ a really powerfulισχυρός
optimizationβελτιστοποίηση processεπεξεργάζομαι, διαδικασία
184
624393
2873
αν φτιάξετε μια πολύ ισχυρή
διαδικασία βελτιοποίησης
10:39
to maximizeμεγιστοποίηση for objectiveσκοπός x,
185
627266
2234
για να μεγιστοποιήσετε το ζητούμενο χ,
10:41
you better make sure
that your definitionορισμός of x
186
629500
2276
καλύτερα να εξασφαλίσετε
ότι ο ορισμός του χ
10:43
incorporatesενσωματώνει everything you careΦροντίδα about.
187
631776
2469
συμπεριλαμβάνει όλα αυτά
για τα οποία νοιάζεστε.
10:46
This is a lessonμάθημα that's alsoεπίσης taughtδιδακτός
in manyΠολλά a mythμύθος.
188
634835
4384
Αυτό είναι ένα μάθημα
που μας το μαθαίνουν πολλοί μύθοι.
10:51
KingΟ βασιλιάς MidasΜίδας wishesεπιθυμεί that everything
he touchesαγγίζει be turnedγύρισε into goldχρυσός.
189
639219
5298
Ο βασιλιάς Μίδας επιθυμούσε
ό,τι άγγιζε να γίνεται χρυσός.
10:56
He touchesαγγίζει his daughterκόρη,
she turnsστροφές into goldχρυσός.
190
644517
2861
Αγγίζει την κόρη του,
αυτή γίνεται χρυσάφι.
10:59
He touchesαγγίζει his foodτροφή, it turnsστροφές into goldχρυσός.
191
647378
2553
Αγγίζει το φαγητό του,
αυτό γίνεται χρυσάφι.
11:01
This could becomeγίνομαι practicallyπρακτικά relevantσχετικό,
192
649931
2589
Αυτό μπορεί να γίνει σχετικό
με το θέμα,
11:04
not just as a metaphorμεταφορική έννοια for greedαπληστία,
193
652520
2070
όχι σαν μια απλή μεταφορά πλεονεξίας,
11:06
but as an illustrationαπεικόνιση of what happensσυμβαίνει
194
654590
1895
αλλά σαν μια επίδειξη του τι συμβαίνει
11:08
if you createδημιουργώ a powerfulισχυρός
optimizationβελτιστοποίηση processεπεξεργάζομαι, διαδικασία
195
656485
2837
αν δημιουργήσουμε μια πολύ ισχυρή
διαδικασία βελτιοποίησης
11:11
and give it misconceivedεσφαλμένη
or poorlyπτωχώς specifiedπου καθορίζεται goalsστόχους.
196
659322
4789
και της δώσουμε κακώς εννοούμενους
ή ελλιπώς καθορισμένους στόχους.
11:16
Now you mightθα μπορούσε say, if a computerυπολογιστή startsξεκινά
stickingκολλάει electrodesηλεκτρόδια into people'sτων ανθρώπων facesπρόσωπα,
197
664111
5189
Θα πείτε, αν ένας υπολογιστής ξεκινήσει
να βάζει ηλεκτρόδια στα πρόσωπα ανθρώπων,
11:21
we'dνυμφεύω just shutκλειστός it off.
198
669300
2265
απλώς θα τον κλείναμε.
11:24
A, this is not necessarilyαναγκαίως so easyεύκολος to do
if we'veέχουμε grownκαλλιεργούνται dependentεξαρτώμενος on the systemΣύστημα --
199
672555
5340
Πρώτον, ίσως να μην είναι τόσο εύκολο
να γίνει αν εξαρτιόμαστε από το σύστημα --
11:29
like, where is the off switchδιακόπτης
to the InternetΣτο διαδίκτυο?
200
677895
2732
σα να ψάχνουμε τον διακόπτη
για να κλείσουμε το Διαδίκτυο;
11:32
B, why haven'tδεν έχουν the chimpanzeesχιμπατζήδες
flickedτίναξε the off switchδιακόπτης to humanityανθρωπότητα,
201
680627
5120
Δεύτερον, γιατί δεν έκλεισαν τον διακόπτη
της ανθρωπότητας οι χιμπατζήδες
11:37
or the NeanderthalsΝεάντερταλ?
202
685747
1551
ή οι Νεάντερνταλ;
11:39
They certainlyσίγουρα had reasonsαιτιολογικό.
203
687298
2666
Σίγουρα είχαν λόγους να το κάνουν.
11:41
We have an off switchδιακόπτης,
for exampleπαράδειγμα, right here.
204
689964
2795
Έχουμε έναν διακόπτη,
για παράδειγμα, ακριβώς εδώ.
11:44
(ChokingΚίνδυνος πνιγμού)
205
692759
1554
(Πνίγεται)
11:46
The reasonλόγος is that we are
an intelligentέξυπνος adversaryαντίπαλος;
206
694313
2925
Ο λόγος είναι ότι είμαστε
ένας έξυπνος αντίπαλος:
11:49
we can anticipateπροσδοκώ threatsαπειλές
and planσχέδιο around them.
207
697238
2728
προβλέπουμε τις απειλές
και να σχεδιάζουμε βάσει αυτών.
11:51
But so could a superintelligentεφυούς agentπαράγοντα,
208
699966
2504
Αλλά το ίδιο θα έκανε
και ένα υπερνοήμον μέσο,
11:54
and it would be much better
at that than we are.
209
702470
3254
και θα ήταν πολύ καλύτερο σε αυτό
απ' ό,τι είμαστε εμείς.
11:57
The pointσημείο is, we should not be confidentβέβαιος
that we have this underκάτω από controlέλεγχος here.
210
705724
7187
Το προκείμενο είναι, δεν πρέπει να είμαστε
πολύ σίγουροι ότι έχουμε τον έλεγχο εδώ.
12:04
And we could try to make our jobδουλειά
a little bitκομμάτι easierευκολότερη by, say,
211
712911
3447
Θα μπορούσαμε να κάναμε
λίγο ευκολότερη τη δουλειά μας
ας πούμε, βάζοντας την Τ.Ν. σε ένα κουτί,
12:08
puttingβάζοντας the A.I. in a boxκουτί,
212
716358
1590
σαν ένα ασφαλές περιβάλλον προγραμματισμού
12:09
like a secureασφαλής softwareλογισμικό environmentπεριβάλλον,
213
717948
1796
12:11
a virtualεικονικός realityπραγματικότητα simulationπροσομοίωση
from whichοι οποίες it cannotδεν μπορώ escapeδιαφυγή.
214
719744
3022
μια εξομοίωση εικονικής πραγματικότητας
από όπου δεν μπορεί να ξεφύγει.
12:14
But how confidentβέβαιος can we be that
the A.I. couldn'tδεν μπορούσε find a bugέντομο.
215
722766
4146
Αλλά πόσο σίγουροι είμαστε ότι η Τ.Ν.
δεν θα βρει ένα ελάττωμα λογισμικού.
12:18
GivenΔίνεται that merelyαπλώς humanο άνθρωπος hackersΟι χάκερ
find bugsσφάλματα all the time,
216
726912
3169
Δεδομένου ότι οι ανθρώπινοι χάκερς
συναντούν κενά λογισμικού συνεχώς,
12:22
I'd say, probablyπιθανώς not very confidentβέβαιος.
217
730081
3036
θα έλεγα, πιθανώς όχι τόσο σίγουροι.
12:26
So we disconnectαποσύνδεση the ethernetEthernet cableκαλώδιο
to createδημιουργώ an airαέρας gapχάσμα,
218
734237
4548
Οπότε αποσυνδέουμε το καλώδιο του τοπικού
δικτύου για να φτιάξουμε ένα κενό,
12:30
but again, like merelyαπλώς humanο άνθρωπος hackersΟι χάκερ
219
738785
2668
αλλά πάλι, σαν τους ανθρώπινους χάκερς
12:33
routinelyσυνήθως transgressπαραβιάζουν airαέρας gapsκενά
usingχρησιμοποιώντας socialκοινωνικός engineeringμηχανική.
220
741453
3381
που συχνά υπερβαίνουν τα κενά
χρησιμοποιώντας κοινωνική μηχανική.
12:36
Right now, as I speakμιλώ,
221
744834
1259
Αυτή τη στιγμή που μιλάμε,
12:38
I'm sure there is some employeeυπάλληλος
out there somewhereκάπου
222
746093
2389
είμαι σίγουρος ότι υπάρχει
κάποιος υπάλληλος κάπου
12:40
who has been talkedμίλησε into handingπαράδοση out
her accountΛογαριασμός detailsΛεπτομέριες
223
748482
3346
που πείστηκε να δώσει
τους κωδικούς των λογαριασμών του,
από κάποιον που ισχυρίζεται
ότι ανήκει στο τμήμα Πληροφορικής.
12:43
by somebodyκάποιος claimingαξίωση to be
from the I.T. departmentτμήμα.
224
751828
2746
12:46
More creativeδημιουργικός scenariosσενάρια are alsoεπίσης possibleδυνατόν,
225
754574
2127
Πιο δημιουργικά σενάρια
είναι επίσης πιθανά,
12:48
like if you're the A.I.,
226
756701
1315
παράδειγμα αν είσαι η Τ.Ν.,
12:50
you can imagineφαντάζομαι wigglingwiggling electrodesηλεκτρόδια
around in your internalεσωτερικός circuitryκυκλώματα
227
758016
3532
μπορείς να φανταστείς ότι κουνάς
ηλεκτρόδια στα εσωτερικά σου κυκλώματα
12:53
to createδημιουργώ radioραδιόφωνο wavesκυματιστά that you
can use to communicateεπικοινωνώ.
228
761548
3462
για να δημιουργήσεις ραδιοκύματα
που θα χρησιμοποιήσεις για επικοινωνία.
12:57
Or maybe you could pretendπροσποιούμαι to malfunctionδυσλειτουργία,
229
765010
2424
Ή ίσως να μπορείς να προσποιηθείς
ότι έχεις βλάβη,
12:59
and then when the programmersπρογραμματιστές openΆνοιξε
you up to see what wentπήγε wrongλανθασμένος with you,
230
767434
3497
και τότε όταν οι προγραμματιστές
σε ανοίξουν για να δουν τι πάει στραβά,
13:02
they look at the sourceπηγή codeκώδικας -- BamBAM! --
231
770931
1936
και δουν τον κώδικά σου -- Μπαμ! --
13:04
the manipulationχειρισμός can take placeθέση.
232
772867
2447
η χειραγώγηση λαμβάνει χώρα.
13:07
Or it could outputπαραγωγή the blueprintσχεδιάγραμμα
to a really niftyΦίνος technologyτεχνολογία,
233
775314
3430
Ή θα μπορούσε να δώσει ένα σχέδιο
για μια πολύ φίνα τεχνολογία,
13:10
and when we implementυλοποιώ, εφαρμόζω it,
234
778744
1398
και όταν την εφαρμόσουμε,
13:12
it has some surreptitiousσυγκαλυμμένη sideπλευρά effectαποτέλεσμα
that the A.I. had plannedσχεδιασμένος.
235
780142
4397
έχει κάποια κρυφή παρενέργεια
που η Τ.Ν. είχε σχεδιάσει.
13:16
The pointσημείο here is that we should
not be confidentβέβαιος in our abilityικανότητα
236
784539
3463
Το θέμα εδώ είναι ότι δεν πρέπει
να είμαστε σίγουροι για την ικανότητά μας
13:20
to keep a superintelligentεφυούς genieτζίνι
lockedκλειδωμένο up in its bottleμπουκάλι foreverγια πάντα.
237
788002
3808
να κρατάμε ένα υπερνοήμων τζίνι
κλεισμένο στο λυχνάρι για πάντα.
13:23
SoonerΑργά or laterαργότερα, it will out.
238
791810
2254
Αργά ή γρήγορα, θα βγει.
13:27
I believe that the answerαπάντηση here
is to figureεικόνα out
239
795034
3103
Πιστεύω ότι η απάντηση εδώ
βρίσκεται στην κατανόηση του
13:30
how to createδημιουργώ superintelligentεφυούς A.I.
suchτέτοιος that even if -- when -- it escapesΑΠΟΔΡΑΣΕΙΣ,
240
798137
5024
πώς να δημιουργήσουμε μια υπερνοήμων Τ.Ν.
έτσι που ακόμα και αν - όταν - δραπετεύσει
13:35
it is still safeασφαλής because it is
fundamentallyθεμελιωδώς on our sideπλευρά
241
803161
3277
να είναι ακόμα ασφαλής
επειδή είναι θεσμικά με το μέρος μας
13:38
because it sharesμερίδια our valuesαξίες.
242
806438
1899
επειδή έχει τις αξίες μας.
13:40
I see no way around
this difficultδύσκολος problemπρόβλημα.
243
808337
3210
Δεν βλέπω τρόπο να προσπεράσουμε
αυτό το δύσκολο πρόβλημα.
13:44
Now, I'm actuallyπράγματι fairlyαρκετά optimisticαισιόδοξος
that this problemπρόβλημα can be solvedλυθεί.
244
812557
3834
Τώρα, είμαι αρκετά αισιόδοξος
ότι αυτό το πρόβλημα μπορεί να λυθεί.
13:48
We wouldn'tδεν θα ήταν have to writeγράφω down
a long listλίστα of everything we careΦροντίδα about,
245
816391
3903
Δεν χρειάζεται να γράψουμε
μια μεγάλη λίστα όσων μας ενδιαφέρουν,
13:52
or worseχειρότερος yetΑκόμη, spellτο ξόρκι it out
in some computerυπολογιστή languageΓλώσσα
246
820294
3643
ή χειρότερα, να τα εκφράσουμε
σε κάποια γλώσσα προγραμματισμού
13:55
like C++ or PythonPython,
247
823937
1454
όπως η C++ ή η Python,
13:57
that would be a taskέργο beyondπέρα hopelessαπελπισμένος.
248
825391
2767
αυτή θα ήταν μια μάταιη εργασία.
14:00
InsteadΑντίθετα, we would createδημιουργώ an A.I.
that usesχρήσεις its intelligenceνοημοσύνη
249
828158
4297
Αντίθετα, θα δημιουργούσαμε μια Τ.Ν.
που χρησιμοποιεί τη νοημοσύνη της
14:04
to learnμαθαίνω what we valueαξία,
250
832455
2771
για να μαθαίνει σε τι δίνουμε αξία,
14:07
and its motivationκίνητρο systemΣύστημα is constructedκατασκευάστηκε
in suchτέτοιος a way that it is motivatedκίνητρα
251
835226
5280
και το σύστημα κινήτρων του
να είναι φτιαγμένο ώστε να έχει τα κίνητρα
14:12
to pursueεπιδιώκω our valuesαξίες or to performεκτελώ actionsΕνέργειες
that it predictsπροβλέπει we would approveεγκρίνω of.
252
840506
5232
να ακολουθεί τις αξίες μας ή να πράττει
έτσι ώστε να προβλέπει τι θα εγκρίναμε.
14:17
We would thusέτσι leverageμόχλευση
its intelligenceνοημοσύνη as much as possibleδυνατόν
253
845738
3414
Θα είχαμε έτσι μια επιρροή στη
νοημοσύνη της όσο το δυνατόν περισσότερο
14:21
to solveλύσει the problemπρόβλημα of value-loadingτιμή-φόρτωσης.
254
849152
2745
για να λύσουμε το πρόβλημα
της φόρτωσης αξιών.
14:24
This can happenσυμβεί,
255
852727
1512
Αυτό μπορεί να γίνει,
14:26
and the outcomeαποτέλεσμα could be
very good for humanityανθρωπότητα.
256
854239
3596
και το αποτέλεσμα θα ήταν πολύ καλό
για την ανθρωπότητα.
14:29
But it doesn't happenσυμβεί automaticallyαυτομάτως.
257
857835
3957
Αλλά δεν θα γίνει αυτόματα.
14:33
The initialαρχικός conditionsσυνθήκες
for the intelligenceνοημοσύνη explosionέκρηξη
258
861792
2998
Οι πρωταρχικές συνθήκες
για την έκρηξη νοημοσύνης
14:36
mightθα μπορούσε need to be setσειρά up
in just the right way
259
864790
2863
ίσως πρέπει απλά να ρυθμιστούν
με τον σωστό τρόπο
14:39
if we are to have a controlledελέγχονται detonationεκπυρσοκρότηση.
260
867653
3530
αν πρόκειται να έχουμε
μια ελεγχόμενη πυροδότηση.
Οι αξίες της Τ.Ν. πρέπει
να είναι ίδιες με τις δικές μας,
14:43
The valuesαξίες that the A.I. has
need to matchαγώνας oursΔικός μας,
261
871183
2618
14:45
not just in the familiarοικείος contextσυμφραζόμενα,
262
873801
1760
όχι μόνο σε οικείο περιβάλλον,
14:47
like where we can easilyεύκολα checkέλεγχος
how the A.I. behavesσυμπεριφέρεται,
263
875561
2438
όπου θα μπορούμε να ελέγξουμε
πώς συμπεριφέρεται η Τ.Ν.
14:49
but alsoεπίσης in all novelμυθιστόρημα contextsπεριβάλλοντα
that the A.I. mightθα μπορούσε encounterσυνάντηση
264
877999
3234
αλλά επίσης σε όλα τα νέα περιβάλλοντα
που η Τ.Ν. θα συναντήσει
στο αόριστο μέλλον.
14:53
in the indefiniteαόριστος futureμελλοντικός.
265
881233
1557
14:54
And there are alsoεπίσης some esotericαπόκρυφα issuesθέματα
that would need to be solvedλυθεί, sortedταξινομημένο out:
266
882790
4737
Και υπάρχουν κάποια εσωτερικά θέματα
που πρέπει να επιλυθούν:
14:59
the exactακριβής detailsΛεπτομέριες of its decisionαπόφαση theoryθεωρία,
267
887527
2089
οι λεπτομέρειες για τη θεωρία αποφάσεων,
15:01
how to dealσυμφωνία with logicalλογικός
uncertaintyαβεβαιότητα and so forthΕμπρός.
268
889616
2864
πώς θα αντιμετωπίσει
τη λογική αβεβαιότητα κλπ.
Άρα τα τεχνικά προβλήματα
που πρέπει να λυθούν για να λειτουργήσει
15:05
So the technicalτεχνικός problemsπροβλήματα that need
to be solvedλυθεί to make this work
269
893330
3102
15:08
look quiteαρκετά difficultδύσκολος --
270
896432
1113
φαίνονται πολύ δύσκολα,
15:09
not as difficultδύσκολος as makingκατασκευή
a superintelligentεφυούς A.I.,
271
897545
3380
όχι τόσο όσο το να φτιάξουμε
μια υπερνοήμων Τ.Ν.,
15:12
but fairlyαρκετά difficultδύσκολος.
272
900925
2868
αλλά αρκετά δύσκολα.
15:15
Here is the worryανησυχία:
273
903793
1695
Εδώ είναι οι ανησυχίες:
15:17
MakingΚάνοντας superintelligentεφυούς A.I.
is a really hardσκληρά challengeπρόκληση.
274
905488
4684
Η κατασκευή μιας υπερνοήμων Τ.Ν.
είναι μια πολύ υψηλή πρόκληση.
15:22
MakingΚάνοντας superintelligentεφυούς A.I. that is safeασφαλής
275
910172
2548
Η κατασκευή μιας υπερνοήμωνος Τ.Ν.
που είναι ασφαλής,
15:24
involvesπεριλαμβάνει some additionalπρόσθετες
challengeπρόκληση on topμπλουζα of that.
276
912720
2416
εμπλέκει κάποια επιπλέον προβλήματα.
15:28
The riskκίνδυνος is that if somebodyκάποιος figuresαριθμούς out
how to crackρωγμή the first challengeπρόκληση
277
916216
3487
Το ρίσκο είναι ότι αν κάποιος καταλάβει
πώς να λύσει το πρώτο πρόβλημα
15:31
withoutχωρίς alsoεπίσης havingέχοντας crackedΡαγισμένο
the additionalπρόσθετες challengeπρόκληση
278
919703
3001
χωρίς να έχει ήδη λύσει
το επιπλέον πρόβλημα
15:34
of ensuringδιασφάλιση της perfectτέλειος safetyασφάλεια.
279
922704
1901
του να εγγυάται τη δημόσια ασφάλεια.
15:37
So I think that we should
work out a solutionλύση
280
925375
3331
Άρα πιστεύω ότι πρέπει να βρούμε μια λύση
15:40
to the controlέλεγχος problemπρόβλημα in advanceπροκαταβολή,
281
928706
2822
στο πρόβλημα του ελέγχου εκ των προτέρων,
15:43
so that we have it availableδιαθέσιμος
by the time it is neededαπαιτείται.
282
931528
2660
ώστε να είναι διαθέσιμη
τη στιγμή που θα χρειαστεί.
15:46
Now it mightθα μπορούσε be that we cannotδεν μπορώ solveλύσει
the entireολόκληρος controlέλεγχος problemπρόβλημα in advanceπροκαταβολή
283
934768
3507
Τώρα, ίσως να μην μπορούμε να λύσουμε
όλο το πρόβλημα του ελέγχου από πριν
15:50
because maybe some elementsστοιχεία
can only be put in placeθέση
284
938275
3024
γιατί ίσως κάποια κομμάτια
να μπορούν να μπουν στη θέση τους
15:53
onceμια φορά you know the detailsΛεπτομέριες of the
architectureαρχιτεκτονική where it will be implementedεφαρμοστεί.
285
941299
3997
μόνο όταν ξέρουμε τις λεπτομέρειες
της αρχιτεκτονικής που θα εφαρμοστεί.
15:57
But the more of the controlέλεγχος problemπρόβλημα
that we solveλύσει in advanceπροκαταβολή,
286
945296
3380
Αλλά όσο περισσότερο από το πρόβλημα
ελέγχου λύνουμε εκ των προτέρων,
16:00
the better the oddsπιθανότητα that the transitionμετάβαση
to the machineμηχανή intelligenceνοημοσύνη eraεποχή
287
948676
4090
τόσο περισσότερες οι πιθανότητές μας
η μετάβαση στην εποχή της νοημοσύνης
των μηχανών να πάει καλά.
16:04
will go well.
288
952766
1540
16:06
This to me looksφαίνεται like a thing
that is well worthαξία doing
289
954306
4644
Αυτό μου φαίνεται σαν κάτι
που αξίζει να γίνει
16:10
and I can imagineφαντάζομαι that if
things turnστροφή out okay,
290
958950
3332
και μπορώ να φανταστώ
ότι αν όλα πάνε καλά,
16:14
that people a millionεκατομμύριο yearsχρόνια from now
look back at this centuryαιώνας
291
962282
4658
ο κόσμος ένα εκατομμύριο χρόνια από τώρα
θα θυμάται αυτό τον αιώνα
16:18
and it mightθα μπορούσε well be that they say that
the one thing we did that really matteredπείραξε
292
966940
4002
και ίσως να λένε ότι το ένα πράγμα
που κάναμε και που αλήθεια άξιζε
16:22
was to get this thing right.
293
970942
1567
ήταν να κάνουμε αυτό σωστά.
16:24
Thank you.
294
972509
1689
Ευχαριστώ.
16:26
(ApplauseΧειροκροτήματα)
295
974198
2813
(Χειροκρότημα)
Reviewed by Lucas Kaimaras

▲Back to top

ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee