ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com
TEDSummit

Sam Harris: Can we build AI without losing control over it?

Σαμ Χάρις: Μπορούμε να φτιάξουμε τεχνητή νοημοσύνη χωρίς να χάσουμε τον έλεγχό της;

Filmed:
5,024,015 views

Φοβάστε την υπερευφυή τεχνητή νοημοσύνη; Έτσι πρέπει, μας λέει ο νευροεπιστήμων και φιλόσοφος Σαμ Χάρις - και όχι μόνο σε θεωρητικό επίπεδο. Πρόκειται να φτιάξουμε υπεράνθρωπες μηχανές, λέει ο Χάρις, αλλά ακόμα δεν έχουμε λύσει τα προβλήματα που σχετίζονται με τη δημιουργία κάποιου πράγματος που μπορεί να μας μεταχειριστεί όπως εμείς μεταχειριζόμαστε τα μυρμήγκια.
- Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live. Full bio

Double-click the English transcript below to play the video.

Θα σας μιλήσω για ένα σφάλμα στη λογική
00:13
I'm going to talk
about a failureαποτυχία of intuitionδιαίσθηση
0
1000
2216
00:15
that manyΠολλά of us sufferυποφέρω from.
1
3240
1600
που έχουν πολλοί από εμάς.
00:17
It's really a failureαποτυχία
to detectανιχνεύουν a certainβέβαιος kindείδος of dangerκίνδυνος.
2
5480
3040
Στην ουσία είναι αδυναμία να δούμε
ένα ορισμένο είδος κινδύνου.
00:21
I'm going to describeπεριγράφω a scenarioσενάριο
3
9360
1736
Θα περιγράψω ένα σενάριο
00:23
that I think is bothκαι τα δυο terrifyingφοβερός
4
11120
3256
που θεωρώ ταυτόχρονα τρομακτικό,
αλλά και πιθανό να συμβεί,
00:26
and likelyπιθανός to occurσυμβούν,
5
14400
1760
00:28
and that's not a good combinationσυνδυασμός,
6
16840
1656
και δεν είναι καλός συνδυασμός,
όπως τελικά αποδεικνύεται.
00:30
as it turnsστροφές out.
7
18520
1536
00:32
And yetΑκόμη ratherμάλλον than be scaredφοβισμένος,
mostπλέον of you will feel
8
20080
2456
Αλλά αντί να τρομοκρατείστε,
οι περισσότεροι πιστεύετε
00:34
that what I'm talkingομιλία about
is kindείδος of coolδροσερός.
9
22560
2080
ότι αυτό που σας λέω είναι μάλλον ωραίο.
00:37
I'm going to describeπεριγράφω
how the gainsκέρδη we make
10
25200
2976
Θα σας περιγράψω
πώς τα οφέλη που θα δρέψουμε
από την τεχνητή νοημοσύνη
00:40
in artificialτεχνητός intelligenceνοημοσύνη
11
28200
1776
μπορούν εν τέλει να μας καταστρέψουν.
00:42
could ultimatelyτελικά destroyκαταστρέφω us.
12
30000
1776
00:43
And in factγεγονός, I think it's very difficultδύσκολος
to see how they won'tσυνηθισμένος destroyκαταστρέφω us
13
31800
3456
Και μάλιστα το θεωρώ απίθανο
είτε να μην μας καταστρέψουν
ή να μας εμπνεύσουν
να καταστραφούμε μόνοι μας.
00:47
or inspireεμπνέω us to destroyκαταστρέφω ourselvesεμείς οι ίδιοι.
14
35280
1680
00:49
And yetΑκόμη if you're anything like me,
15
37400
1856
Αν όμως σκέφτεστε όπως εγώ,
θα το απολαμβάνετε
να σκέφτεστε αυτά τα πράγματα.
00:51
you'llθα το κάνετε find that it's funδιασκέδαση
to think about these things.
16
39280
2656
00:53
And that responseαπάντηση is partμέρος of the problemπρόβλημα.
17
41960
3376
Κι αυτή η αντίδραση
είναι μέρος του προβλήματος.
Εντάξει; Αυτή η αντίδραση
θα πρέπει να σας ανησυχεί.
00:57
OK? That responseαπάντηση should worryανησυχία you.
18
45360
1720
00:59
And if I were to convinceπείθω you in this talk
19
47920
2656
Κι αν επρόκειτο να σας πείσω
με αυτή την ομιλία
ότι είναι πιθανόν
να αντιμετωπίσουμε παγκόσμιο λιμό,
01:02
that we were likelyπιθανός
to sufferυποφέρω a globalπαγκόσμια famineπείνα,
20
50600
3416
είτε λόγω κλιματικής αλλαγής
ή κάποιας άλλης καταστροφής,
01:06
eitherείτε because of climateκλίμα changeαλλαγή
or some other catastropheκαταστροφή,
21
54040
3056
και ότι τα εγγόνια σας,
ή τα δικά τους εγγόνια,
01:09
and that your grandchildrenεγγονια,
or theirδικα τους grandchildrenεγγονια,
22
57120
3416
είναι πολύ πιθανόν να ζήσουν κάπως έτσι,
01:12
are very likelyπιθανός to liveζω like this,
23
60560
1800
01:15
you wouldn'tδεν θα ήταν think,
24
63200
1200
δεν θα σκεφτόσασταν,
01:17
"InterestingΕνδιαφέροντα.
25
65440
1336
«Ενδιαφέρον.
Μου αρέσει αυτή η ομιλία TED».
01:18
I like this TEDTED Talk."
26
66800
1200
01:21
FamineΛιμός isn't funδιασκέδαση.
27
69200
1520
Ο λιμός δεν είναι κάτι διασκεδαστικό.
Από την άλλη, ο θάνατος μέσω επιστημονικής
φαντασίας είναι διασκεδαστικός,
01:23
DeathΘάνατος by scienceεπιστήμη fictionμυθιστόρημα,
on the other handχέρι, is funδιασκέδαση,
28
71800
3376
01:27
and one of the things that worriesανησυχίες me mostπλέον
about the developmentανάπτυξη of AIAI at this pointσημείο
29
75200
3976
και κάτι που με ανησυχεί σε αυτό το στάδιο
της εξέλιξης της τεχνητής νοημοσύνης
είναι ότι αδυνατούμε να επιδείξουμε
μια κατάλληλη συναισθηματική αντίδραση
01:31
is that we seemφαίνομαι unableανίκανος to marshalΣτρατάρχης
an appropriateκατάλληλος emotionalΣυναισθηματική responseαπάντηση
30
79200
4096
στους επικείμενους κινδύνους.
01:35
to the dangersκινδύνους that lieψέμα aheadεμπρός.
31
83320
1816
01:37
I am unableανίκανος to marshalΣτρατάρχης this responseαπάντηση,
and I'm givingδίνοντας this talk.
32
85160
3200
Ούτε εγώ μπορώ να έχω αυτή την αντίδραση
και κάνω αυτή την ομιλία.
01:42
It's as thoughαν και we standστάση before two doorsπόρτες.
33
90120
2696
Είναι σαν να στεκόμαστε
μπροστά σε δύο πόρτες.
01:44
BehindΠίσω από doorθύρα numberαριθμός one,
34
92840
1256
Πίσω από την πρώτη πόρτα,
παύουμε να κάνουμε πρόοδο
στην παραγωγή ευφυών μηχανών.
01:46
we stop makingκατασκευή progressπρόοδος
in buildingΚτίριο intelligentέξυπνος machinesμηχανές.
35
94120
3296
01:49
Our computerυπολογιστή hardwareσκεύη, εξαρτήματα and softwareλογισμικό
just stopsσταματά gettingνα πάρει better for some reasonλόγος.
36
97440
4016
Για κάποιον λόγο παύουμε να βελτιώνουμε
υλισμικό και λογισμικό στους υπολογιστές.
01:53
Now take a momentστιγμή
to considerσκεφτείτε why this mightθα μπορούσε happenσυμβεί.
37
101480
3000
Τώρα σκεφτείτε για λίγο
γιατί μπορεί να συμβεί αυτό.
01:57
I mean, givenδεδομένος how valuableπολύτιμος
intelligenceνοημοσύνη and automationαυτοματισμού are,
38
105080
3656
Εννοώ ότι, δεδομένης της μεγάλης αξίας
της ευφυίας και των αυτοματισμών,
εφόσον μπορούμε, θα συνεχίσουμε
να βελτιώνουμε την τεχνολογία μας.
02:00
we will continueνα συνεχίσει to improveβελτιώσει our technologyτεχνολογία
if we are at all ableικανός to.
39
108760
3520
02:05
What could stop us from doing this?
40
113200
1667
Τι μπορεί να μας αποτρέψει;
02:07
A full-scaleμεγάλης κλίμακας nuclearπυρηνικός warπόλεμος?
41
115800
1800
Ένας πυρηνικός πόλεμος πλήρους κλίμακας;
02:11
A globalπαγκόσμια pandemicπανδημία ιατρική?
42
119000
1560
Μια παγκόσμια πανδημία;
02:14
An asteroidαστεροειδής impactεπίπτωση?
43
122320
1320
Μια σύγκρουση με αστεροειδή;
02:17
JustinJustin BieberBieber becomingθελκτικός
presidentΠρόεδρος of the UnitedΕνωμένοι StatesΚράτη μέλη?
44
125640
2576
Να γίνει ο Τζάστιν Μπίμπερ
πρόεδρος των ΗΠΑ;
02:20
(LaughterΤο γέλιο)
45
128240
2280
(Γέλια)
02:24
The pointσημείο is, something would have to
destroyκαταστρέφω civilizationπολιτισμός as we know it.
46
132760
3920
Το θέμα είναι ότι κάτι θα πρέπει
να καταστρέψει τον σύγχρονο πολιτισμό.
02:29
You have to imagineφαντάζομαι
how badκακό it would have to be
47
137360
4296
Θα πρέπει να φανταστείτε
πόσο οδυνηρό πρέπει να είναι
για να μας αποτρέψει
από το να βελτιώσουμε την τεχνολογία μας
02:33
to preventαποτρέψει us from makingκατασκευή
improvementsβελτιώσεις in our technologyτεχνολογία
48
141680
3336
σε μόνιμη βάση,
02:37
permanentlyμόνιμα,
49
145040
1216
στις επόμενες γενεές.
02:38
generationγενιά after generationγενιά.
50
146280
2016
02:40
AlmostΣχεδόν by definitionορισμός,
this is the worstχειριστός thing
51
148320
2136
Αυτό είναι σχεδόν εξ ορισμού
ό,τι χειρότερο έχει ποτέ συμβεί
στην ανθρώπινη ιστορία.
02:42
that's ever happenedσυνέβη in humanο άνθρωπος historyιστορία.
52
150480
2016
02:44
So the only alternativeεναλλακτική λύση,
53
152520
1296
Έτσι η μόνη εναλλακτική
-κι αυτή βρίσκεται
πίσω από τη δεύτερη πόρτα-
02:45
and this is what liesψέματα
behindπίσω doorθύρα numberαριθμός two,
54
153840
2336
είναι να συνεχίσουμε να βελτιώνουμε
τις έξυπνες μηχανές μας
02:48
is that we continueνα συνεχίσει
to improveβελτιώσει our intelligentέξυπνος machinesμηχανές
55
156200
3136
χρόνο με τον χρόνο.
02:51
yearέτος after yearέτος after yearέτος.
56
159360
1600
02:53
At a certainβέβαιος pointσημείο, we will buildχτίζω
machinesμηχανές that are smarterεξυπνότερα than we are,
57
161720
3640
Σε κάποιο σημείο, θα φτιάξουμε μηχανές
που θα είναι πιο έξυπνες από εμάς,
02:58
and onceμια φορά we have machinesμηχανές
that are smarterεξυπνότερα than we are,
58
166080
2616
κι όταν θα έχουμε μηχανές
εξυπνότερες από εμάς,
θα αρχίσουν να βελτιώνονται μόνες τους.
03:00
they will beginαρχίζουν to improveβελτιώσει themselvesτους εαυτούς τους.
59
168720
1976
03:02
And then we riskκίνδυνος what
the mathematicianμαθηματικός IJIJ Good calledπου ονομάζεται
60
170720
2736
Τότε διακινδυνεύουμε να έχουμε κάτι
που ο μαθηματικός Ι. Τζ. Γκουντ
αποκάλεσε «έκρηξη ευφυίας»,
03:05
an "intelligenceνοημοσύνη explosionέκρηξη,"
61
173480
1776
όπου η διαδικασία μπορεί
να φύγει από τον έλεγχό μας.
03:07
that the processεπεξεργάζομαι, διαδικασία could get away from us.
62
175280
2000
03:10
Now, this is oftenσυχνά caricaturedδιαστρεβλώνεται,
as I have here,
63
178120
2816
Αυτό συχνά απεικονίζεται,
όπως σας δείχνω εδώ,
03:12
as a fearφόβος that armiesστρατοί of maliciousκακόβουλο robotsρομπότ
64
180960
3216
ως ένας φόβος ότι στρατιές
από κακόβουλα ρομπότ
θα μας επιτεθούν.
03:16
will attackεπίθεση us.
65
184200
1256
03:17
But that isn't the mostπλέον likelyπιθανός scenarioσενάριο.
66
185480
2696
Αλλά αυτό δεν είναι το πιο πιθανό σενάριο.
03:20
It's not that our machinesμηχανές
will becomeγίνομαι spontaneouslyαυθόρμητα malevolentκακόβουλες.
67
188200
4856
Δεν είναι ότι οι μηχανές μας
θα γίνουν αυθόρμητα κακόβουλες.
03:25
The concernανησυχία is really
that we will buildχτίζω machinesμηχανές
68
193080
2616
Η πραγματική ανησυχία είναι
ότι θα φτιάξουμε μηχανές
που θα είναι τόσο πιο ικανές από εμάς
03:27
that are so much
more competentικανός than we are
69
195720
2056
03:29
that the slightestπαραμικρή divergenceαπόκλιση
betweenμεταξύ theirδικα τους goalsστόχους and our ownτα δικά
70
197800
3776
που η ελάχιστη απόκλιση μεταξύ
των δικών τους στόχων και των δικών μας
θα μπορούσε να μας καταστρέψει.
03:33
could destroyκαταστρέφω us.
71
201600
1200
03:35
Just think about how we relateσχετίζομαι to antsτα μυρμήγκια.
72
203960
2080
Σκεφτείτε τη σχέση μας με τα μυρμήγκια.
03:38
We don't hateμισώ them.
73
206600
1656
Δεν τα μισούμε.
03:40
We don't go out of our way to harmκανω κακο them.
74
208280
2056
Δεν τα βλάπτουμε εκουσίως.
Συχνά μάλιστα κάνουμε προσπάθεια
να μην τα βλάψουμε.
03:42
In factγεγονός, sometimesωρες ωρες
we take painsκόποι not to harmκανω κακο them.
75
210360
2376
Αποφεύγουμε να τα πατήσουμε
στο πεζοδρόμιο.
03:44
We stepβήμα over them on the sidewalkπεζοδρόμιο.
76
212760
2016
03:46
But wheneverΟποτεδήποτε theirδικα τους presenceπαρουσία
77
214800
2136
Αλλά όταν η παρουσία τους
αντιτίθεται σοβαρά με τους στόχους μας,
03:48
seriouslyσοβαρά conflictsσυγκρούσεις with one of our goalsστόχους,
78
216960
2496
ας πούμε, όταν φτιάχνουμε
ένα τέτοιο κτήριο,
03:51
let's say when constructingκατασκευή
a buildingΚτίριο like this one,
79
219480
2477
τα εκμηδενίζουμε χωρίς δεύτερη σκέψη.
03:53
we annihilateεξολεθρεύει them withoutχωρίς a qualmτύψη.
80
221981
1960
03:56
The concernανησυχία is that we will
one day buildχτίζω machinesμηχανές
81
224480
2936
Η ανησυχία είναι ότι μια μέρα
θα φτιάξουμε μηχανές που,
είτε ενσυνείδητα ή όχι,
03:59
that, whetherκατά πόσο they're consciousσυνειδητός or not,
82
227440
2736
θα μας μεταχειριστούν
με παρόμοια αδιαφορία.
04:02
could treatκέρασμα us with similarπαρόμοιος disregardπεριφρόνηση.
83
230200
2000
04:05
Now, I suspectύποπτος this seemsφαίνεται
far-fetchedεξεζητημένος to manyΠολλά of you.
84
233760
2760
Υποψιάζομαι ότι οι περισσότεροι
το θεωρείτε παρατραβηγμένο.
04:09
I betστοίχημα there are those of you who doubtαμφιβολία
that superintelligentεφυούς AIAI is possibleδυνατόν,
85
237360
6336
Βάζω στοίχημα ότι κάποιοι αμφιβάλλουν
αν η υπερευφυής τεχνητή νοημοσύνη
είναι εφικτή,
πολύ δε λιγότερο αναπόφευκτη.
04:15
much lessπιο λιγο inevitableαναπόφευκτος.
86
243720
1656
04:17
But then you mustπρέπει find something wrongλανθασμένος
with one of the followingΕΠΟΜΕΝΟ assumptionsυποθέσεις.
87
245400
3620
Τότε όμως πρέπει να βρείτε κάποιο λάθος
στις ακόλουθες υποθέσεις.
04:21
And there are only threeτρία of them.
88
249044
1572
Και είναι μόνο τρεις υποθέσεις.
04:23
IntelligenceΕυφυΐα is a matterύλη of informationπληροφορίες
processingεπεξεργασία in physicalφυσικός systemsσυστήματα.
89
251800
4719
Η ευφυΐα είναι θέμα επεξεργασίας
της πληροφορίας σε υλικά συστήματα.
04:29
ActuallyΣτην πραγματικότητα, this is a little bitκομμάτι more
than an assumptionυπόθεση.
90
257320
2615
Βασικά, αυτό είναι
κάτι παραπάνω από μια υπόθεση.
Έχουμε ήδη ενσωματώσει
περιορισμένη ευφυΐα στις μηχανές μας,
04:31
We have alreadyήδη builtχτισμένο
narrowστενός intelligenceνοημοσύνη into our machinesμηχανές,
91
259959
3457
και πολλές από αυτές ήδη αποδίδουν
04:35
and manyΠολλά of these machinesμηχανές performεκτελώ
92
263440
2016
σε επίπεδο υπεράνθρωπης ευφυΐας.
04:37
at a levelεπίπεδο of superhumanυπεράνθρωπες
intelligenceνοημοσύνη alreadyήδη.
93
265480
2640
04:40
And we know that mereμόνο matterύλη
94
268840
2576
Και ξέρουμε πως η απλή ύλη
μπορεί να δημιουργήσει
αυτό που λέγεται «γενική ευφυΐα»,
04:43
can give riseαύξηση to what is calledπου ονομάζεται
"generalγενικός intelligenceνοημοσύνη,"
95
271440
2616
μια ικανότητα να σκεφτούμε ευέλικτα
σε πολλαπλά επίπεδα,
04:46
an abilityικανότητα to think flexiblyευέλικτα
acrossαπέναντι multipleπολλαπλούς domainsτομείς,
96
274080
3656
επειδή τα μυαλά μας
τα έχουν καταφέρει, σωστά;
04:49
because our brainsμυαλά have managedδιαχειρίζεται it. Right?
97
277760
3136
04:52
I mean, there's just atomsάτομα in here,
98
280920
3936
Εξάλλου μόνο άτομα υπάρχουν εκεί,
04:56
and as long as we continueνα συνεχίσει
to buildχτίζω systemsσυστήματα of atomsάτομα
99
284880
4496
και όσο συνεχίζουμε να φτιάχνουμε
συστήματα από άτομα
που επιδεικνύουν όλο και
περισσότερο ευφυή συμπεριφορά,
05:01
that displayαπεικόνιση more and more
intelligentέξυπνος behaviorη ΣΥΜΠΕΡΙΦΟΡΑ,
100
289400
2696
αν δεν μας σταματήσει κάποιος,
05:04
we will eventuallyτελικά,
unlessεκτός we are interruptedδιακόπτεται,
101
292120
2536
τελικά θα βάλουμε τη γενική ευφυΐα
05:06
we will eventuallyτελικά
buildχτίζω generalγενικός intelligenceνοημοσύνη
102
294680
3376
μέσα στις μηχανές μας.
05:10
into our machinesμηχανές.
103
298080
1296
05:11
It's crucialκρίσιμος to realizeσυνειδητοποιώ
that the rateτιμή of progressπρόοδος doesn't matterύλη,
104
299400
3656
Είναι σημαντικό να καταλάβουμε
ότι δεν έχει σημασία ο ρυθμός της προόδου,
γιατί κάθε πρόοδος είναι αρκετή
για να οδηγήσει σε αυτή την κατάληξη.
05:15
because any progressπρόοδος
is enoughαρκετά to get us into the endτέλος zoneζώνη.
105
303080
3176
05:18
We don't need Moore'sMoore lawνόμος to continueνα συνεχίσει.
We don't need exponentialεκθετικός progressπρόοδος.
106
306280
3776
Δεν χρειάζεται ο Νόμος του Μουρ,
ούτε κάποια εκθετική πρόοδος.
Χρειάζεται απλώς να συνεχίσουμε.
05:22
We just need to keep going.
107
310080
1600
05:25
The secondδεύτερος assumptionυπόθεση
is that we will keep going.
108
313480
2920
Η δεύτερη υπόθεση είναι
ότι θα συνεχίσουμε.
05:29
We will continueνα συνεχίσει to improveβελτιώσει
our intelligentέξυπνος machinesμηχανές.
109
317000
2760
Θα συνεχίσουμε να βελτιώνουμε
τις έξυπνες μηχανές μας.
05:33
And givenδεδομένος the valueαξία of intelligenceνοημοσύνη --
110
321000
4376
Και σύμφωνα με την αξία της ευφυΐας -
εννοώ ότι είτε η ευφυΐα
είναι η πηγή για ό,τι θεωρούμε άξιο,
05:37
I mean, intelligenceνοημοσύνη is eitherείτε
the sourceπηγή of everything we valueαξία
111
325400
3536
ή χρειάζεται να περιφρουρήσουμε
οτιδήποτε θεωρούμε άξιο.
05:40
or we need it to safeguardδιασφάλισης
everything we valueαξία.
112
328960
2776
05:43
It is our mostπλέον valuableπολύτιμος resourceπόρος.
113
331760
2256
Είναι ο πιο πολύτιμος πόρος που έχουμε.
Έτσι, θέλουμε να το κάνουμε.
05:46
So we want to do this.
114
334040
1536
Έχουμε προβλήματα και πρέπει
να τα λύσουμε επειγόντως.
05:47
We have problemsπροβλήματα
that we desperatelyαπεγνωσμένα need to solveλύσει.
115
335600
3336
05:50
We want to cureθεραπεία diseasesασθένειες
like Alzheimer'sΤης νόσου του Alzheimer and cancerΚαρκίνος.
116
338960
3200
Θέλουμε να θεραπεύσουμε νόσους
όπως τον καρκίνο και την Αλτσχάιμερ,
05:54
We want to understandκαταλαβαίνουν economicοικονομικός systemsσυστήματα.
We want to improveβελτιώσει our climateκλίμα scienceεπιστήμη.
117
342960
3936
να καταλάβουμε οικονομικά συστήματα,
να βελτιώσουμε τη γνώση μας για το κλίμα.
05:58
So we will do this, if we can.
118
346920
2256
Γι' αυτό θα το κάνουμε, αν μπορούμε.
Το τρένο έχει ήδη ξεκινήσει
και δεν έχει φρένο.
06:01
The trainτρένο is alreadyήδη out of the stationσταθμός,
and there's no brakeφρένο to pullΤραβήξτε.
119
349200
3286
06:05
FinallyΤέλος, we don't standστάση
on a peakκορυφή of intelligenceνοημοσύνη,
120
353880
5456
Τέλος, δεν έχουμε φτάσει
στην αποκορύφωση της ευφυΐας,
μάλλον ούτε που την πλησιάσαμε.
06:11
or anywhereοπουδήποτε nearκοντά it, likelyπιθανός.
121
359360
1800
06:13
And this really is the crucialκρίσιμος insightδιορατικότητα.
122
361640
1896
Και αυτή είναι η σημαντική διαπίστωση.
Αυτό κάνει τόσο επισφαλή
την κατάστασή μας,
06:15
This is what makesκάνει
our situationκατάσταση so precariousεπισφαλής,
123
363560
2416
και τόσο αναξιόπιστα
τα προαίσθήματά μας σχετικά με το ρίσκο.
06:18
and this is what makesκάνει our intuitionsτις διαισθήσεις
about riskκίνδυνος so unreliableαναξιόπιστη.
124
366000
4040
06:23
Now, just considerσκεφτείτε the smartestπιο έξυπνο personπρόσωπο
who has ever livedέζησε.
125
371120
2720
Απλώς σκεφτείτε το πιο έξυπνο
άτομο που έχει ποτέ ζήσει.
06:26
On almostσχεδόν everyone'sο καθένας shortlistκατάλογος επιλέκτων υποψηφίων here
is JohnΙωάννης vonvon NeumannNeumann.
126
374640
3416
Κάποιον που όλοι σας θα έχετε κατά νου
είναι ο Τζον φον Νόιμαν.
06:30
I mean, the impressionεντύπωση that vonvon NeumannNeumann
madeέκανε on the people around him,
127
378080
3336
Η εντύπωση που έκανε
στους τριγύρω του ο φον Νόιμαν,
συμπεριλαμβανομένων των πιο λαμπρών
μαθηματικών και φυσικών της εποχής του,
06:33
and this includedπεριλαμβάνεται the greatestμεγαλύτερη
mathematiciansμαθηματικοί and physicistsφυσικοί of his time,
128
381440
4056
έχει καταγραφεί επαρκώς.
06:37
is fairlyαρκετά well-documentedκαλά τεκμηριωμένη.
129
385520
1936
06:39
If only halfΉμισυ the storiesιστορίες
about him are halfΉμισυ trueαληθής,
130
387480
3776
Και μόνο οι μισές ιστορίες
γι' αυτόν να αληθεύουν,
χωρίς αμφιβολία
06:43
there's no questionερώτηση
131
391280
1216
είναι από τους πιο έξυπνους
ανθρώπους που έχουν ζήσει.
06:44
he's one of the smartestπιο έξυπνο people
who has ever livedέζησε.
132
392520
2456
06:47
So considerσκεφτείτε the spectrumφάσμα of intelligenceνοημοσύνη.
133
395000
2520
Σκεφτείτε λοιπόν το φάσμα της ευφυΐας.
06:50
Here we have JohnΙωάννης vonvon NeumannNeumann.
134
398320
1429
Εδώ είναι ο Τζον φον Νόιμαν.
06:53
And then we have you and me.
135
401560
1334
Κι εδώ είμαστε εσείς κι εγώ.
06:56
And then we have a chickenκοτόπουλο.
136
404120
1296
Μετά είναι οι κότες.
06:57
(LaughterΤο γέλιο)
137
405440
1936
(Γέλια)
Συγνώμη, μια κότα.
06:59
Sorry, a chickenκοτόπουλο.
138
407400
1216
07:00
(LaughterΤο γέλιο)
139
408640
1256
(Γέλια)
07:01
There's no reasonλόγος for me to make this talk
more depressingκατάθλιψη than it needsανάγκες to be.
140
409920
3736
Δεν υπάρχει λόγος να κάνω την ομιλία
πιο θλιβερή απ' όσο χρειάζεται.
(Γέλια)
07:05
(LaughterΤο γέλιο)
141
413680
1600
07:08
It seemsφαίνεται overwhelminglyυπερβολικά likelyπιθανός, howeverωστόσο,
that the spectrumφάσμα of intelligenceνοημοσύνη
142
416339
3477
Ωστόσο, φαίνεται εκπληκτικά πιθανόν
ότι το φάσμα της ευφυΐας
εκτείνεται πολύ πιο πέρα
από όσο τώρα αντιλαμβανόμαστε,
07:11
extendsεπεκτείνεται much furtherπεραιτέρω
than we currentlyεπί του παρόντος conceiveσυλλάβουν,
143
419840
3120
07:15
and if we buildχτίζω machinesμηχανές
that are more intelligentέξυπνος than we are,
144
423880
3216
και αν φτιάξουμε μηχανές
πιο έξυπνες από εμάς,
07:19
they will very likelyπιθανός
exploreεξερευνώ this spectrumφάσμα
145
427120
2296
είναι πολύ πιθανόν
να εξερευνήσουν αυτό το φάσμα
με τρόπους που δεν μπορούμε να φανταστούμε
07:21
in waysτρόπους that we can't imagineφαντάζομαι,
146
429440
1856
07:23
and exceedυπερβαίνει το us in waysτρόπους
that we can't imagineφαντάζομαι.
147
431320
2520
και να μας ξεπεράσουν σε αφάνταστο βαθμό.
07:27
And it's importantσπουδαίος to recognizeαναγνωρίζω that
this is trueαληθής by virtueΑρετή of speedΤαχύτητα aloneμόνος.
148
435000
4336
Και είναι σημαντικό να αναγνωρίσουμε
ότι αυτό αληθεύει και μόνο λόγω ταχύτητας.
07:31
Right? So imagineφαντάζομαι if we just builtχτισμένο
a superintelligentεφυούς AIAI
149
439360
5056
Σωστά; Φανταστείτε να φτιάχναμε
μια υπερευφυή τεχνητή νοημοσύνη,
07:36
that was no smarterεξυπνότερα
than your averageμέση τιμή teamομάδα of researchersερευνητές
150
444440
3456
που δεν θα ήταν εξυπνότερη
από μια μέση ομάδα ερευνητών
των πανεπιστημίων Στάνφορντ ή ΜΙΤ.
07:39
at StanfordΠανεπιστήμιο του Στάνφορντ or MITMIT.
151
447920
2296
07:42
Well, electronicηλεκτρονικός circuitsκυκλώματα
functionλειτουργία about a millionεκατομμύριο timesφορές fasterγρηγορότερα
152
450240
2976
Τα ηλεκτρονικά κυκλώματα λειτουργούν
ένα εκατομμύριο φορές ταχύτερα
από τα βιοχημικά,
07:45
than biochemicalβιοχημική onesαυτές,
153
453240
1256
07:46
so this machineμηχανή should think
about a millionεκατομμύριο timesφορές fasterγρηγορότερα
154
454520
3136
έτσι αυτή η μηχανή θα σκεφτόταν
ένα εκατομμύριο φορές πιο γρήγορα
από τους εγκεφάλους που την έφτιαξαν.
07:49
than the mindsμυαλά that builtχτισμένο it.
155
457680
1816
07:51
So you setσειρά it runningτρέξιμο for a weekεβδομάδα,
156
459520
1656
Με λειτουργία μίας εβδομάδας
07:53
and it will performεκτελώ 20,000 yearsχρόνια
of human-levelανθρώπινα-επίπεδο intellectualδιανοούμενος work,
157
461200
4560
θα παράξει έργο 20.000 ετών
σε επίπεδο ανθρώπινης διάνοιας,
07:58
weekεβδομάδα after weekεβδομάδα after weekεβδομάδα.
158
466400
1960
και το ίδιο θα κάνει
κάθε επόμενη εβδομάδα.
08:01
How could we even understandκαταλαβαίνουν,
much lessπιο λιγο constrainπεριορίζω,
159
469640
3096
Πώς μπορούμε να καταλάβουμε,
πολύ δε περισσότερο να περιορίσουμε,
08:04
a mindμυαλό makingκατασκευή this sortείδος of progressπρόοδος?
160
472760
2280
έναν εγκέφαλο που κάνει τέτοια πρόοδο;
08:08
The other thing that's worryingανησυχητικό, franklyειλικρινά,
161
476840
2136
Για να πω την αλήθεια,
είναι επίσης ανησυχητικό
08:11
is that, imagineφαντάζομαι the bestκαλύτερος caseπερίπτωση scenarioσενάριο.
162
479000
4976
να φανταστούμε το καλύτερο δυνατό σενάριο.
08:16
So imagineφαντάζομαι we hitΚτύπημα uponεπάνω σε a designσχέδιο
of superintelligentεφυούς AIAI
163
484000
4176
Φανταστείτε να βρούμε ένα σχέδιο
υπερεφυούς τεχνητής νοημοσύνης
που δεν έχει θέματα ασφάλειας.
08:20
that has no safetyασφάλεια concernsανησυχίες.
164
488200
1376
08:21
We have the perfectτέλειος designσχέδιο
the first time around.
165
489600
3256
Θα έχουμε βρει το τέλειο σχέδιο
για πρώτη φορά.
08:24
It's as thoughαν και we'veέχουμε been handedπαρέδωσε an oracleμαντείο
166
492880
2216
Θα είναι σαν να μας έχει δοθεί ένα μαντείο
που λειτουργεί ακριβώς όπως πρέπει.
08:27
that behavesσυμπεριφέρεται exactlyακριβώς as intendedπροορίζονται.
167
495120
2016
Αυτή θα ήταν η τέλεια μηχανή
εξοικονόμησης έργου.
08:29
Well, this machineμηχανή would be
the perfectτέλειος labor-savingεξοικονόμησης εργασίας deviceσυσκευή.
168
497160
3720
Θα σχεδιάσει τη μηχανή
που θα κατασκευάσει τη μηχανή
08:33
It can designσχέδιο the machineμηχανή
that can buildχτίζω the machineμηχανή
169
501680
2429
που θα κάνει κάθε σωματική εργασία,
08:36
that can do any physicalφυσικός work,
170
504133
1763
08:37
poweredτροφοδοτείται by sunlightηλιακό φως,
171
505920
1456
τροφοδοτούμενη από τον ήλιο,
08:39
more or lessπιο λιγο for the costκόστος
of rawακατέργαστος materialsυλικά.
172
507400
2696
με μόνο κόστος αυτό των πρώτων υλών.
08:42
So we're talkingομιλία about
the endτέλος of humanο άνθρωπος drudgeryαγγαρεία.
173
510120
3256
Έτσι μιλάμε για το τέλος
της ανθρώπινης αγγαρείας.
08:45
We're alsoεπίσης talkingομιλία about the endτέλος
of mostπλέον intellectualδιανοούμενος work.
174
513400
2800
Επίσης μιλάμε για το τέλος
της περισσότερης διανοητικής εργασίας.
08:49
So what would apesπιθήκους like ourselvesεμείς οι ίδιοι
do in this circumstanceπερίσταση?
175
517200
3056
Τι θα κάνουν οι πίθηκοι όπως εμείς
σε αυτή την περίπτωση;
08:52
Well, we'dνυμφεύω be freeΕλεύθερος to playπαίζω FrisbeeFrisbee
and give eachκαθε other massagesμασάζ.
176
520280
4080
Θα έχουμε χρόνο να παίζουμε φρίσμπι
και να κάνουμε μασάζ ο ένας στον άλλον.
08:57
AddΠροσθέστε some LSDLSD and some
questionableαμφισβητήσιμος wardrobeΝΤΟΥΛΑΠΑ choicesεπιλογές,
177
525840
2856
Προσθέστε λίγο LSD και κάποιες
αμφίβολες επιλογές ένδυσης,
09:00
and the wholeολόκληρος worldκόσμος
could be like BurningΚαύση Man.
178
528720
2176
κι όλος ο κόσμος θα μοιάζει
με φεστιβάλ Burning Man.
09:02
(LaughterΤο γέλιο)
179
530920
1640
(Γέλια)
09:06
Now, that mightθα μπορούσε soundήχος prettyαρκετά good,
180
534320
2000
Μπορεί βέβαια να ακούγεται αρκετά καλό,
09:09
but askπαρακαλώ yourselfσύ ο ίδιος what would happenσυμβεί
181
537280
2376
αλλά αναρωτηθείτε τι θα συνέβαινε
με την τωρινή οικονομική
και πολιτική κατάσταση;
09:11
underκάτω από our currentρεύμα economicοικονομικός
and politicalπολιτικός orderΣειρά?
182
539680
2736
09:14
It seemsφαίνεται likelyπιθανός that we would witnessμάρτυρας
183
542440
2416
Μοιάζει πιθανό ότι θα βιώσουμε
ένα επίπεδο ανισότητας
πλούτου και ανεργίας
09:16
a levelεπίπεδο of wealthπλούτος inequalityανισότητα
and unemploymentανεργία
184
544880
4136
που δεν έχουμε ξαναδεί.
09:21
that we have never seenείδα before.
185
549040
1496
09:22
AbsentΑπών a willingnessπροθυμία
to immediatelyαμέσως put this newνέος wealthπλούτος
186
550560
2616
Αν απουσιάσει η θέληση
να βάλουμε άμεσα αυτόν τον πλούτο
09:25
to the serviceυπηρεσία of all humanityανθρωπότητα,
187
553200
1480
στην υπηρεσία όλης της ανθρωπότητας,
ελάχιστοι πολυεκατομμυριούχοι θα κοσμούν
τα εξώφυλλα των οικονομικών περιοδικών,
09:27
a fewλίγοι trillionairestrillionaires could graceχάριτος
the coversκαλύπτει of our businessεπιχείρηση magazinesπεριοδικά
188
555640
3616
ενώ ο υπόλοιπος κόσμος
θα είναι ελεύθερος να λιμοκτονήσει.
09:31
while the restυπόλοιπο of the worldκόσμος
would be freeΕλεύθερος to starveλιμοκτονήσουν.
189
559280
2440
09:34
And what would the RussiansΟι Ρώσοι
or the ChineseΚινεζικά do
190
562320
2296
Και τι θα κάνουν οι Ρώσοι ή οι Κινέζοι
αν μάθουν ότι μια εταιρεία
στη Σίλικον Βάλεϊ
09:36
if they heardακούσει that some companyΕταιρία
in SiliconΠυριτίου ValleyΚοιλάδα
191
564640
2616
πρόκειται να κυκλοφορήσει
μια υπερευφυή τεχνητή νοημοσύνη;
09:39
was about to deployαναπτύξετε a superintelligentεφυούς AIAI?
192
567280
2736
09:42
This machineμηχανή would be capableικανός
of wagingεπιδιόρθωση warπόλεμος,
193
570040
2856
Αυτή η μηχανή θα μπορούσε
να κηρύξει πόλεμο,
09:44
whetherκατά πόσο terrestrialεπίγεια or cyberστον κυβερνοχώρο,
194
572920
2216
είτε συμβατικό
είτε σε επίπεδο υπολογιστών,
09:47
with unprecedentedάνευ προηγουμένου powerεξουσία.
195
575160
1680
με ισχύ άνευ προηγουμένου.
09:50
This is a winner-take-allνικητής τα παίρνει όλα scenarioσενάριο.
196
578120
1856
Είναι ένα σενάριο όπου κερδίζει μόνο ένας.
09:52
To be sixέξι monthsμήνες aheadεμπρός
of the competitionανταγωνισμός here
197
580000
3136
Όταν προηγείσαι εδώ
έξι μήνες από τον ανταγωνισμό,
09:55
is to be 500,000 yearsχρόνια aheadεμπρός,
198
583160
2776
είναι σαν να είσαι 500.000 χρόνια μπροστά
κατά το ελάχιστο.
09:57
at a minimumελάχιστο.
199
585960
1496
09:59
So it seemsφαίνεται that even mereμόνο rumorsφήμες
of this kindείδος of breakthroughανακάλυψη
200
587480
4736
Άρα φαίνεται ότι ακόμη και απλές φήμες
για κάτι τόσο επαναστατικό
θα έκανε το είδος μας να τρελαθεί.
10:04
could causeαιτία our speciesείδος to go berserkμαινόμενος.
201
592240
2376
10:06
Now, one of the mostπλέον frighteningτρομαχτικός things,
202
594640
2896
Ένα από τα πιο τρομακτικά πράγματα,
κατά την άποψή μου, αυτή τη στιγμή,
10:09
in my viewθέα, at this momentστιγμή,
203
597560
2776
10:12
are the kindsείδη of things
that AIAI researchersερευνητές say
204
600360
4296
είναι αυτά που λένε οι ερευνητές
της τεχνητής νοημοσύνης
10:16
when they want to be reassuringκαθησυχαστικός.
205
604680
1560
όταν θέλουν να μας καθησυχάσουν.
Κι ο πιο κοινός λόγος που προβάλλουν
για να μην ανησυχούμε είναι ο χρόνος.
10:19
And the mostπλέον commonκοινός reasonλόγος
we're told not to worryανησυχία is time.
206
607000
3456
10:22
This is all a long way off,
don't you know.
207
610480
2056
Αυτό είναι πολύ μακριά, δεν το βλέπετε;
10:24
This is probablyπιθανώς 50 or 100 yearsχρόνια away.
208
612560
2440
Είναι περίπου 50 ή 100 χρόνια μετά.
Ένας ερευνητής έχει πει,
10:27
One researcherερευνητής has said,
209
615720
1256
«Ανησυχώντας για ασφάλεια
στην τεχνητή νοημοσύνη
10:29
"WorryingΑνησυχητική about AIAI safetyασφάλεια
210
617000
1576
10:30
is like worryingανησυχητικό
about overpopulationυπερπληθυσμός on MarsΆρης."
211
618600
2280
είναι σαν να ανησυχούμε
για υπερπληθυσμό στον Άρη».
10:34
This is the SiliconΠυριτίου ValleyΚοιλάδα versionεκδοχή
212
622116
1620
Αυτό είναι η έκδοση της Σίλικον Βάλεϊ
10:35
of "don't worryανησυχία your
prettyαρκετά little headκεφάλι about it."
213
623760
2376
του «μην ζαλίζεις το όμορφο κεφαλάκι σου».
10:38
(LaughterΤο γέλιο)
214
626160
1336
(Γέλια)
Κανείς δεν φαίνεται να βλέπει
10:39
No one seemsφαίνεται to noticeειδοποίηση
215
627520
1896
ότι η αναφορά στον χρονικό ορίζοντα
10:41
that referencingαναφορά σε the time horizonορίζοντας
216
629440
2616
10:44
is a totalσύνολο nonμη sequiturSequitur.
217
632080
2576
είναι τελείως ανακόλουθη.
Αν η ευφυΐα είναι απλώς θέμα
επεξεργασίας της πληροφορίας,
10:46
If intelligenceνοημοσύνη is just a matterύλη
of informationπληροφορίες processingεπεξεργασία,
218
634680
3256
10:49
and we continueνα συνεχίσει to improveβελτιώσει our machinesμηχανές,
219
637960
2656
και συνεχίζουμε
να βελτιώνουμε τις μηχανές μας,
10:52
we will produceπαράγω
some formμορφή of superintelligenceυπερευφυΐα.
220
640640
2880
σίγουρα θα δημιουργήσουμε
κάποια μορφή υπερευφυΐας.
10:56
And we have no ideaιδέα
how long it will take us
221
644320
3656
Και δεν ξέρουμε πόσο χρόνο θα μας πάρει
να δημιουργήσουμε τις συνθήκες
ώστε να το κάνουμε με ασφάλεια.
11:00
to createδημιουργώ the conditionsσυνθήκες
to do that safelyμε ασφάλεια.
222
648000
2400
11:04
Let me say that again.
223
652200
1296
Να το πω πάλι.
11:05
We have no ideaιδέα how long it will take us
224
653520
3816
Δεν έχουμε ιδέα πόσο χρόνο θα μας πάρει
να δημιουργήσουμε τις συνθήκες
ώστε να το κάνουμε με ασφάλεια.
11:09
to createδημιουργώ the conditionsσυνθήκες
to do that safelyμε ασφάλεια.
225
657360
2240
11:12
And if you haven'tδεν έχουν noticedπαρατήρησα,
50 yearsχρόνια is not what it used to be.
226
660920
3456
Κι αν δεν το έχετε προσέξει,
τα 50 χρόνια δεν είναι αυτό που ήταν.
Αυτό είναι 50 χρόνια σε μήνες.
11:16
This is 50 yearsχρόνια in monthsμήνες.
227
664400
2456
11:18
This is how long we'veέχουμε had the iPhoneiPhone.
228
666880
1840
Τόσον καιρό έχουμε το iPhone.
11:21
This is how long "The SimpsonsSimpsons"
has been on televisionτηλεόραση.
229
669440
2600
Τόσον καιρό παίζονται
οι Σίμπσονς στην τηλεόραση.
11:24
FiftyΠενήντα yearsχρόνια is not that much time
230
672680
2376
Τα 50 χρόνια δεν είναι τόσο πολλά
για μια από τις μεγαλύτερες προκλήσεις
που θα αντιμετωπίσει το είδος μας.
11:27
to meetσυναντώ one of the greatestμεγαλύτερη challengesπροκλήσεις
our speciesείδος will ever faceπρόσωπο.
231
675080
3160
11:31
OnceΜια φορά again, we seemφαίνομαι to be failingέλλειψη
to have an appropriateκατάλληλος emotionalΣυναισθηματική responseαπάντηση
232
679640
4016
Και πάλι - αδυνατούμε να επιδείξουμε
κατάλληλη συναισθηματική απόκριση
σε κάτι που έχουμε κάθε λόγο
να πιστεύουμε ότι θα έρθει.
11:35
to what we have everyκάθε reasonλόγος
to believe is comingερχομός.
233
683680
2696
11:38
The computerυπολογιστή scientistεπιστήμονας StuartΣτιούαρτ RussellΡάσελ
has a niceόμορφη analogyαναλογία here.
234
686400
3976
Ο επιστήμων υπολογιστών Στιούαρτ Ράσελ
έχει μια ωραία αναλογία γι' αυτό.
Είπε, φανταστείτε ότι λάβαμε μήνυμα
από εξωγήινο πολιτισμό,
11:42
He said, imagineφαντάζομαι that we receivedέλαβε
a messageμήνυμα from an alienεξωγήινο civilizationπολιτισμός,
235
690400
4896
11:47
whichοι οποίες readανάγνωση:
236
695320
1696
που έλεγε:
11:49
"People of EarthΓη,
237
697040
1536
«Άνθρωποι της Γης,
11:50
we will arriveφθάνω on your planetπλανήτης in 50 yearsχρόνια.
238
698600
2360
θα φτάσουμε στον πλανήτη σας σε 50 χρόνια.
11:53
Get readyέτοιμος."
239
701800
1576
Ετοιμαστείτε».
11:55
And now we're just countingαρίθμηση down
the monthsμήνες untilμέχρις ότου the mothershipμητρικό landsεδάφη?
240
703400
4256
Και τώρα απλώς μετράμε αντίστροφα
τον χρόνο μέχρι να έρθει το διαστημόπλοιο.
11:59
We would feel a little
more urgencyεπείγουσα ανάγκη than we do.
241
707680
3000
Θα το νιώθαμε ως κάτι λίγο
πιο επιτακτικό από ό,τι τώρα.
Μας λένε επίσης να μην ανησυχούμε,
12:04
AnotherΈνα άλλο reasonλόγος we're told not to worryανησυχία
242
712680
1856
γιατί οι μηχανές δεν μπορούν
παρά να έχουν τις δικές μας αξίες,
12:06
is that these machinesμηχανές
can't help but shareμερίδιο our valuesαξίες
243
714560
3016
12:09
because they will be literallyΚυριολεκτικά
extensionsεπεκτάσεις of ourselvesεμείς οι ίδιοι.
244
717600
2616
καθώς κυριολεκτικά
είναι προέκταση των εαυτών μας.
Θα συνδεθούν στον εγκέφαλό μας
12:12
They'llΑυτοί θα be graftedεμβολιασμένα ontoεπάνω σε our brainsμυαλά,
245
720240
1816
και βασικά θα γίνουμε
το μεταιχμιακό τους σύστημα.
12:14
and we'llΚαλά essentiallyουσιαστικά
becomeγίνομαι theirδικα τους limbicεπιχείλιο systemsσυστήματα.
246
722080
2360
12:17
Now take a momentστιγμή to considerσκεφτείτε
247
725120
1416
Σκεφτείτε για ένα λεπτό
ότι ο ασφαλέστερος και ο μόνος
συνετός δρόμος προς τα εμπρός
12:18
that the safestασφαλέστερο
and only prudentσυνετή pathμονοπάτι forwardπρος τα εμπρός,
248
726560
3176
που προτείνεται,
12:21
recommendedΣυνιστάται,
249
729760
1336
είναι να εμφυτεύσουμε αυτή την τεχνολογία
απευθείας στον εγκέφαλό μας.
12:23
is to implantεμφύτευμα this technologyτεχνολογία
directlyκατευθείαν into our brainsμυαλά.
250
731120
2800
12:26
Now, this mayενδέχεται in factγεγονός be the safestασφαλέστερο
and only prudentσυνετή pathμονοπάτι forwardπρος τα εμπρός,
251
734600
3376
Βέβαια, μπορεί να είναι ο ασφαλέστερος
και ο μόνος συνετός δρόμος,
αλλά συνήθως οι ανησυχίες
για την ασφάλεια μιας τεχνολογίας
12:30
but usuallyσυνήθως one'sκάποιου safetyασφάλεια concernsανησυχίες
about a technologyτεχνολογία
252
738000
3056
πρέπει να έχουν επιλυθεί
πριν την εμφυτεύσουμε στο κεφάλι μας.
12:33
have to be prettyαρκετά much workedεργάστηκε out
before you stickραβδί it insideμέσα your headκεφάλι.
253
741080
3656
(Γέλια)
12:36
(LaughterΤο γέλιο)
254
744760
2016
12:38
The deeperβαθύτερη problemπρόβλημα is that
buildingΚτίριο superintelligentεφυούς AIAI on its ownτα δικά
255
746800
5336
Το βαθύτερο πρόβλημα είναι
ότι φαίνεται ευκολότερο
να φτάξεις ένα μεμονωμένο
σύστημα τεχνητής νοημοσύνης,
12:44
seemsφαίνεται likelyπιθανός to be easierευκολότερη
256
752160
1736
από το να φτιάξεις ένα σύστημα
12:45
than buildingΚτίριο superintelligentεφυούς AIAI
257
753920
1856
και να έχεις και επαρκή νευροεπιστήμη
12:47
and havingέχοντας the completedολοκληρώθηκε το neuroscienceνευροεπιστήμη
258
755800
1776
που να επιτρέπει την εύκολη
ενσωμάτωσή του στον εγκέφαλό μας.
12:49
that allowsεπιτρέπει us to seamlesslyάψογα
integrateενσωματώνουν our mindsμυαλά with it.
259
757600
2680
12:52
And givenδεδομένος that the companiesεταιρείες
and governmentsκυβερνήσεις doing this work
260
760800
3176
Και δεδομένου ότι οι κυβερνήσεις
και εταιρείες που θα το κάνουν
είναι πιθανόν θα θεωρούν
ότι ανταγωνίζονται όλους τους άλλους,
12:56
are likelyπιθανός to perceiveαντιλαμβάνονται themselvesτους εαυτούς τους
as beingνα εισαι in a raceαγώνας againstκατά all othersοι υπολοιποι,
261
764000
3656
εφόσον όποιος το κάνει πρώτος
θα κυριαρχήσει στον κόσμο,
12:59
givenδεδομένος that to winνίκη this raceαγώνας
is to winνίκη the worldκόσμος,
262
767680
3256
με την προϋπόθεση
ότι δεν θα τον καταστρέψει αμέσως μετά,
13:02
providedυπό την προϋπόθεση you don't destroyκαταστρέφω it
in the nextεπόμενος momentστιγμή,
263
770960
2456
13:05
then it seemsφαίνεται likelyπιθανός
that whateverοτιδήποτε is easierευκολότερη to do
264
773440
2616
τότε μοιάζει πιθανό
ότι θα γίνει πρώτο
οτιδήποτε γίνεται πιο εύκολα.
13:08
will get doneΈγινε first.
265
776080
1200
13:10
Now, unfortunatelyΔυστυχώς,
I don't have a solutionλύση to this problemπρόβλημα,
266
778560
2856
Δυστυχώς δεν έχω κάποια λύση
γι' αυτό το πρόβλημα,
εκτός από το να συστήσω
να το ξανασκεφτούμε οι περισσότεροι.
13:13
apartχώρια from recommendingσυνιστώντας
that more of us think about it.
267
781440
2616
Νομίζω ότι χρειαζόμαστε
κάτι σαν το Πρόγραμμα Μανχάταν
13:16
I think we need something
like a ManhattanΜανχάταν ProjectΤο έργο
268
784080
2376
13:18
on the topicθέμα of artificialτεχνητός intelligenceνοημοσύνη.
269
786480
2016
προσαρμοσμένο για την τεχνητή νοημοσύνη.
13:20
Not to buildχτίζω it, because I think
we'llΚαλά inevitablyαναπόφευκτα do that,
270
788520
2736
Όχι για να την φτιάξουμε,
γιατί μάλλον είναι αναπόφευκτο,
13:23
but to understandκαταλαβαίνουν
how to avoidαποφύγει an armsόπλα raceαγώνας
271
791280
3336
αλλά να καταλάβουμε πώς να αποφύγουμε
έναν αγώνα εξοπλισμών
και να την φτιάξουμε έτσι που
να συμβαδίζει με τα συμφέροντά μας.
13:26
and to buildχτίζω it in a way
that is alignedΣτοίχιση with our interestsτα ενδιαφέροντα.
272
794640
3496
13:30
When you're talkingομιλία
about superintelligentεφυούς AIAI
273
798160
2136
Όταν μιλάτε
για υπερευφυή τεχνητή νοημοσύνη
που μπορεί να τροποποιήσει τον εαυτό της,
13:32
that can make changesαλλαγές to itselfεαυτό,
274
800320
2256
13:34
it seemsφαίνεται that we only have one chanceευκαιρία
to get the initialαρχικός conditionsσυνθήκες right,
275
802600
4616
φαίνεται ότι έχουμε μόνο μία πιθανότητα
να ορίσουμε τις σωστές προϋποθέσεις,
και ακόμη και τότε
θα χρειαστεί να απορροφήσουμε
13:39
and even then we will need to absorbαπορροφώ
276
807240
2056
13:41
the economicοικονομικός and politicalπολιτικός
consequencesσυνέπειες of gettingνα πάρει them right.
277
809320
3040
τις οικονομικές και πολιτικές συνέπειες
της σωστής εφαρμογής.
13:45
But the momentστιγμή we admitομολογώ
278
813760
2056
Αλλά μόλις παραδεχθούμε
ότι η επεξεργασία πληροφοριών
είναι η πηγή της ευφυΐας,
13:47
that informationπληροφορίες processingεπεξεργασία
is the sourceπηγή of intelligenceνοημοσύνη,
279
815840
4000
13:52
that some appropriateκατάλληλος computationalυπολογιστική systemΣύστημα
is what the basisβάση of intelligenceνοημοσύνη is,
280
820720
4800
ότι η βάση της ευφυΐας είναι
κάποιο κατάλληλο υπολογιστικό σύστημα,
13:58
and we admitομολογώ that we will improveβελτιώσει
these systemsσυστήματα continuouslyσυνεχώς,
281
826360
3760
και αποδεχθούμε να βελτιώνουμε
αυτά τα συστήματα συνεχώς,
14:03
and we admitομολογώ that the horizonορίζοντας
of cognitionγνωστική λειτουργία very likelyπιθανός farμακριά exceedsυπερβαίνει το
282
831280
4456
και παραδεχθούμε ότι ο γνωστικός ορίζοντας
μάλλον ξεπερνά κατά πολύ
όσα ήδη γνωρίζουμε,
14:07
what we currentlyεπί του παρόντος know,
283
835760
1200
14:10
then we have to admitομολογώ
284
838120
1216
τότε πρέπει να παραδεχθούμε
14:11
that we are in the processεπεξεργάζομαι, διαδικασία
of buildingΚτίριο some sortείδος of god.
285
839360
2640
ότι βρισκόμαστε σε διαδικασία κατασκευής
κάποιου είδους θεού.
14:15
Now would be a good time
286
843400
1576
Τώρα είναι η σωστή ώρα
να εξασφαλίσουμε ότι είναι ένας θεός
με τον οποίον μπορούμε να ζήσουμε.
14:17
to make sure it's a god we can liveζω with.
287
845000
1953
14:20
Thank you very much.
288
848120
1536
Σας ευχαριστώ πολύ.
(Χειροκρότημα)
14:21
(ApplauseΧειροκροτήματα)
289
849680
5093
Translated by Lucas Kaimaras
Reviewed by Nikolaos Benias

▲Back to top

ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com