ABOUT THE SPEAKER
Ray Kurzweil - Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species.

Why you should listen

Inventor, entrepreneur, visionary, Ray Kurzweil's accomplishments read as a startling series of firsts -- a litany of technological breakthroughs we've come to take for granted. Kurzweil invented the first optical character recognition (OCR) software for transforming the written word into data, the first print-to-speech software for the blind, the first text-to-speech synthesizer, and the first music synthesizer capable of recreating the grand piano and other orchestral instruments, and the first commercially marketed large-vocabulary speech recognition.

Yet his impact as a futurist and philosopher is no less significant. In his best-selling books, which include How to Create a Mind, The Age of Spiritual Machines, The Singularity Is Near: When Humans Transcend Biology, Kurzweil depicts in detail a portrait of the human condition over the next few decades, as accelerating technologies forever blur the line between human and machine.

In 2009, he unveiled Singularity University, an institution that aims to "assemble, educate and inspire leaders who strive to understand and facilitate the development of exponentially advancing technologies." He is a Director of Engineering at Google, where he heads up a team developing machine intelligence and natural language comprehension.

More profile about the speaker
Ray Kurzweil | Speaker | TED.com
TED2014

Ray Kurzweil: Get ready for hybrid thinking

Ρέι Κέρτζουαιλ: Ετοιμαστείτε για υβριδική σκέψη

Filmed:
3,548,296 views

Πριν από διακόσια εκατομμύρια χρόνια, τα θηλαστικά πρόγονοί μας ανέπτυξαν ένα νέο εγκεφαλικό χαρακτηριστικό: το νεοφλοιό. Αυτό το κομμάτι ιστού μεγέθους γραμματοσήμου (τυλιγμένο γύρω από έναν εγκέφαλο μεγέθους καρυδιού) είναι το κλειδί γι' αυτό που έχει γίνει η ανθρωπότητα. Τώρα, ο μελλοντολόγος Ρέι Κέρτζουαιλ λέει ότι θα πρέπει να προετοιμαστούμε για το επόμενο μεγάλο άλμα στη δύναμη του εγκεφάλου, καθώς αξιοποιούμε την υπολογιστική δύναμη του σύννεφου.
- Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species. Full bio

Double-click the English transcript below to play the video.

00:12
Let me tell you a storyιστορία.
0
988
2316
Επιτρέψτε μου να σας πω μια ιστορία.
00:15
It goesπηγαίνει back 200 millionεκατομμύριο yearsχρόνια.
1
3304
1799
Πάει πίσω 200 εκατομμύρια χρόνια.
00:17
It's a storyιστορία of the neocortexneocortex,
2
5103
1984
Είναι η ιστορία του νεοφλοιού,
00:19
whichοι οποίες meansπου σημαίνει "newνέος rindφλούδα."
3
7087
1974
που σημαίνει νέα κρούστα.
00:21
So in these earlyνωρίς mammalsθηλαστικά,
4
9061
2431
Στα πρώιμα θηλαστικά,
00:23
because only mammalsθηλαστικά have a neocortexneocortex,
5
11492
2055
γιατί μόνο τα θηλαστικά έχουν νεοφλοιό,
00:25
rodent-likeτρωκτικό-όπως creaturesπλάσματα.
6
13547
1664
πλάσματα σαν τρωκτικά,
00:27
It was the sizeμέγεθος of a postageταχυδρομικά τέλη stampσφραγίδα and just as thinλεπτός,
7
15211
3579
είχε το μέγεθος ενός γραμματοσήμου
και ήταν τόσο λεπτό,
και ήταν ένα λεπτό κάλυμμα γύρω
00:30
and was a thinλεπτός coveringπου καλύπτει around
8
18790
1439
00:32
theirδικα τους walnut-sizedκαρυδιά μεγέθους brainεγκέφαλος,
9
20229
2264
από τον εγκέφαλό τους
που είχε το μέγεθος ενός καρυδιού,
00:34
but it was capableικανός of a newνέος typeτύπος of thinkingσκέψη.
10
22493
3701
αλλά ήταν ικανό
για έναν νέο τύπο σκέψης.
00:38
RatherΜάλλον than the fixedσταθερός behaviorsσυμπεριφορές
11
26194
1567
Αντί της σταθερής συμπεριφοράς
00:39
that non-mammalianμη θηλαστικά animalsτων ζώων have,
12
27761
1992
που έχουν τα μη θηλαστικά ζώα,
00:41
it could inventεφευρίσκω newνέος behaviorsσυμπεριφορές.
13
29753
2692
μπορούσε να εφεύρει νέες συμπεριφορές.
00:44
So a mouseποντίκι is escapingδιαφυγή a predatorαρπακτικό,
14
32445
2553
Έτσι ένα ποντίκι ξεφεύγει
από τον κυνηγό,
το μονοπάτι του είναι μπλοκαρισμένο,
00:46
its pathμονοπάτι is blockedμπλοκαριστεί,
15
34998
1540
00:48
it'llθα το κάνει try to inventεφευρίσκω a newνέος solutionλύση.
16
36538
2129
θα προσπαθήσει να εφεύρει μια νέα λύση.
00:50
That mayενδέχεται work, it mayενδέχεται not,
17
38667
1266
Ίσως να δουλέψει, ίσως όχι,
00:51
but if it does, it will rememberθυμάμαι that
18
39933
1910
αλλά αν δουλέψει, θα το θυμάται
και θα έχει μια νέα συμπεριφορά
00:53
and have a newνέος behaviorη ΣΥΜΠΕΡΙΦΟΡΑ,
19
41843
1292
00:55
and that can actuallyπράγματι spreadδιάδοση virallyvirally
20
43135
1457
και αυτό μπορεί να μεταδοθεί ιότροπα
00:56
throughδιά μέσου the restυπόλοιπο of the communityκοινότητα.
21
44592
2195
στην υπόλοιπη κοινότητα.
Ένα άλλο ποντίκι που το έβλεπε θα έλεγε,
00:58
AnotherΈνα άλλο mouseποντίκι watchingβλέποντας this could say,
22
46787
1609
01:00
"Hey, that was prettyαρκετά cleverέξυπνος, going around that rockβράχος,"
23
48396
2704
«Έι, αυτό ήταν πολύ έξυπνο,
να πάει γύρω από τον βράχο»
01:03
and it could adoptενστερνίζομαι a newνέος behaviorη ΣΥΜΠΕΡΙΦΟΡΑ as well.
24
51100
3725
και θα υιοθετούσε και αυτό
μια νέα συμπεριφορά.
01:06
Non-mammalianΜη-θηλαστικά animalsτων ζώων
25
54825
1717
Τα μη θηλαστικά ζώα
01:08
couldn'tδεν μπορούσε do any of those things.
26
56542
1713
δεν μπορούσαν να τα κάνουν αυτά.
Είχαν σταθερές συμπεριφορές.
01:10
They had fixedσταθερός behaviorsσυμπεριφορές.
27
58255
1215
01:11
Now they could learnμαθαίνω a newνέος behaviorη ΣΥΜΠΕΡΙΦΟΡΑ
28
59470
1331
Μπορούσαν να μάθουν
μια νέα συμπεριφορά
01:12
but not in the courseσειρά μαθημάτων of one lifetimeΔιάρκεια Ζωής.
29
60801
2576
αλλά όχι στη διάρκεια μίας ζωής.
01:15
In the courseσειρά μαθημάτων of maybe a thousandχίλια lifetimesδιάρκειες ζωής,
30
63377
1767
Ίσως σε χιλιάδες ζωές,
01:17
it could evolveαναπτύσσω a newνέος fixedσταθερός behaviorη ΣΥΜΠΕΡΙΦΟΡΑ.
31
65144
3330
θα μπορούσε να εξελίξει
μια νέα σταθερή συμπεριφορά.
01:20
That was perfectlyτέλεια okay 200 millionεκατομμύριο yearsχρόνια agoπριν.
32
68474
3377
Αυτό λειτούργησε μια χαρά
πριν από 200 εκατομμύρια χρόνια.
01:23
The environmentπεριβάλλον changedάλλαξε very slowlyαργά.
33
71851
1981
Το περιβάλλον άλλαζε πολύ αργά.
Μπορεί να περνούσαν 10.000 χρόνια
01:25
It could take 10,000 yearsχρόνια for there to be
34
73832
1554
01:27
a significantσημαντικός environmentalπεριβάλλοντος changeαλλαγή,
35
75386
2092
για μια σημαντική περιβαλλοντική αλλαγή
01:29
and duringστη διάρκεια that periodπερίοδος of time
36
77478
1382
και σε αυτήν την περίοδο
01:30
it would evolveαναπτύσσω a newνέος behaviorη ΣΥΜΠΕΡΙΦΟΡΑ.
37
78860
2929
θα εξέλισσε μια νέα συμπεριφορά.
01:33
Now that wentπήγε alongκατά μήκος fine,
38
81789
1521
Αυτό προχωρούσε καλά,
01:35
but then something happenedσυνέβη.
39
83310
1704
αλλά μετά κάτι συνέβη.
01:37
Sixty-fiveΕξήντα πέντε millionεκατομμύριο yearsχρόνια agoπριν,
40
85014
2246
Πριν από 65 εκατομμύρια χρόνια,
01:39
there was a suddenαιφνίδιος, violentβίαιος
changeαλλαγή to the environmentπεριβάλλον.
41
87260
2615
υπήρξε μια ξαφνική, βίαιη
μεταβολή στο περιβάλλον.
01:41
We call it the CretaceousΚρητιδική περίοδος extinctionεξαφάνιση eventΕκδήλωση.
42
89875
3505
Την ονομάζουμε Κρητιδική εξαφάνιση.
01:45
That's when the dinosaursδεινόσαυροι wentπήγε extinctεξαφανισμένος,
43
93380
2293
Τότε εξαφανίστηκαν οι δεινόσαυροι,
01:47
that's when 75 percentτοις εκατό of the
44
95673
3449
τότε εξαφανίστηκε το 75 τοις εκατό
01:51
animalζώο and plantφυτό speciesείδος wentπήγε extinctεξαφανισμένος,
45
99122
2746
από τα είδη ζώων και φυτών
01:53
and that's when mammalsθηλαστικά
46
101868
1745
και τότε τα θηλαστικά
01:55
overtookπροσπέρασε theirδικα τους ecologicalοικολογικός nicheεξειδικευμένες,
47
103613
2152
αναβαθμίστηκαν στο οικοσύστημα.
01:57
and to anthropomorphizeanthropomorphize, biologicalβιολογικός evolutionεξέλιξη said,
48
105765
3654
Μιλώντας ανθρωπομορφικά,
η βιολογική εξέλιξη είπε:
02:01
"HmmΧμμ, this neocortexneocortex is prettyαρκετά good stuffυλικό,"
49
109419
2025
«Χμμ, αυτός ο νεοφλοιός είναι πολύ καλός»
02:03
and it beganάρχισε to growκαλλιεργώ it.
50
111444
1793
και άρχισε να τον αναπτύσσει.
02:05
And mammalsθηλαστικά got biggerμεγαλύτερος,
51
113237
1342
Και τα θηλαστικά μεγάλωσαν,
02:06
theirδικα τους brainsμυαλά got biggerμεγαλύτερος at an even fasterγρηγορότερα paceβήμα,
52
114579
2915
οι εγκέφαλοί τους μεγάλωσαν
με ακόμη ταχύτερο ρυθμό
02:09
and the neocortexneocortex got biggerμεγαλύτερος even fasterγρηγορότερα than that
53
117494
3807
και ο νεοφλοιός μεγάλωσε
ακόμη γρηγορότερα
02:13
and developedαναπτηγμένος these distinctiveδιακριτικός ridgesΡάχες and foldsπτυχώσεις
54
121301
2929
και ανέπτυξε αυτές
τις χαρακτηριστικές κορυφές και αύλακες
02:16
basicallyβασικα to increaseαυξάνουν its surfaceεπιφάνεια areaπεριοχή.
55
124230
2881
κυρίως για να αυξήσει την επιφάνειά του.
02:19
If you tookπήρε the humanο άνθρωπος neocortexneocortex
56
127111
1819
Αν πάρετε τον ανθρώπινο νεοφλοιό
02:20
and stretchedτεντωμένο it out,
57
128930
1301
και τον τεντώσετε,
02:22
it's about the sizeμέγεθος of a tableτραπέζι napkinπετσετάκι,
58
130231
1713
είναι περίπου σαν μια πετσέτα τραπεζιού
02:23
and it's still a thinλεπτός structureδομή.
59
131944
1306
και είναι μια λεπτή δομή.
02:25
It's about the thicknessπάχος of a tableτραπέζι napkinπετσετάκι.
60
133250
1980
Είναι παχύς περίπου όσο μια πετσέτα.
02:27
But it has so manyΠολλά convolutionsconvolutions and ridgesΡάχες
61
135230
2497
Αλλά έχει τόσες πολλές
έλικες και πτυχώσεις,
02:29
it's now 80 percentτοις εκατό of our brainεγκέφαλος,
62
137727
3075
που αποτελεί τώρα το 80%
του εγκεφάλου μας,
02:32
and that's where we do our thinkingσκέψη,
63
140802
2461
όπου εκεί κάνουμε τις σκέψεις μας
02:35
and it's the great sublimatorSublimator.
64
143263
1761
και είναι ο μεγάλος μετατροπέας.
02:37
We still have that oldπαλαιός brainεγκέφαλος
65
145024
1114
Ο παλιός μας εγκέφαλος
02:38
that providesπαρέχει our basicβασικός drivesδίσκους and motivationsκίνητρα,
66
146138
2764
ακόμη παρέχει τις βασικές μας
ορμές και κίνητρα,
02:40
but I mayενδέχεται have a driveοδηγώ for conquestκατάκτηση,
67
148902
2716
αλλά μπορεί να έχω
μια ορμή για κατάκτηση
02:43
and that'llαυτό θα γίνει be sublimatedΕξάχνωση by the neocortexneocortex
68
151618
2715
και αυτό μετατρέπεται από το νεοφλοιό
02:46
into writingΓραφή a poemποίημα or inventingεφευρίσκοντας an appapp
69
154333
2909
στη συγγραφή ενός ποιήματος
ή τη δημιουργία μιας εφαρμογής
02:49
or givingδίνοντας a TEDTED Talk,
70
157242
1509
ή μιας ομιλίας TED
02:50
and it's really the neocortexneocortex that's where
71
158751
3622
και πραγματικά είναι στον νεοφλοιό
02:54
the actionδράση is.
72
162373
1968
όπου γίνονται όλα.
02:56
FiftyΠενήντα yearsχρόνια agoπριν, I wroteέγραψε a paperχαρτί
73
164341
1717
Πριν από 50 χρόνια,
έκανα μια δημοσίευση
02:58
describingπεριγράφοντας how I thought the brainεγκέφαλος workedεργάστηκε,
74
166058
1918
περιγράφοντας πώς πίστευα
ότι λειτουργεί ο εγκέφαλος
02:59
and I describedπεριγράφεται it as a seriesσειρά of modulesενότητες.
75
167976
3199
και το περιέγραψα σαν μια σειρά
από λειτουργικές μονάδες.
03:03
EachΚάθε moduleμονάδα μέτρησης could do things with a patternπρότυπο.
76
171175
2128
Κάθε μονάδα μπορεί
να χειριστεί ένα μοτίβο.
03:05
It could learnμαθαίνω a patternπρότυπο. It could rememberθυμάμαι a patternπρότυπο.
77
173303
2746
Μπορεί να μάθει ένα μοτίβο
ή να το θυμάται.
03:08
It could implementυλοποιώ, εφαρμόζω a patternπρότυπο.
78
176049
1407
Μπορεί να το υλοποιήσει.
03:09
And these modulesενότητες were organizedδιοργάνωσε in hierarchiesιεραρχίες,
79
177456
2679
Αυτές οι μονάδες
ήταν οργανωμένες ιεραρχικά
03:12
and we createdδημιουργήθηκε that hierarchyιεραρχία with our ownτα δικά thinkingσκέψη.
80
180135
2954
και δημιουργήσαμε αυτήν την ιεραρχία
με τη δική μας σκέψη.
03:15
And there was actuallyπράγματι very little to go on
81
183089
3333
Είχαμε λίγα για να προχωρήσουμε
03:18
50 yearsχρόνια agoπριν.
82
186422
1562
πριν από 50 χρόνια.
03:19
It led me to meetσυναντώ PresidentΠρόεδρος JohnsonJohnson.
83
187984
2115
Με έκανε να συναντήσω
τον πρόεδρο Τζόνσον.
03:22
I've been thinkingσκέψη about this for 50 yearsχρόνια,
84
190099
2173
Το σκεφτόμουν για 50 χρόνια
03:24
and a yearέτος and a halfΉμισυ agoπριν I cameήρθε out with the bookΒιβλίο
85
192272
2828
και πριν από ενάμιση χρόνο
έβγαλα το βιβλίο
03:27
"How To CreateΔημιουργία A MindΤο μυαλό,"
86
195100
1265
«Πώς να δημιουργήσετε ένα μυαλό»,
03:28
whichοι οποίες has the sameίδιο thesisΠΤΥΧΙΑΚΗ ΕΡΓΑΣΙΑ,
87
196365
1613
όπου έχει την ίδια θέση,
03:29
but now there's a plethoraπληθώρα of evidenceαπόδειξη.
88
197978
2812
αλλά τώρα υπάρχει πληθώρα αποδείξεων.
03:32
The amountποσό of dataδεδομένα we're gettingνα πάρει about the brainεγκέφαλος
89
200790
1814
Τα δεδομένα που παίρνουμε για τον εγκέφαλο
03:34
from neuroscienceνευροεπιστήμη is doublingδιπλασιάζοντας everyκάθε yearέτος.
90
202604
2203
από τη νευροεπιστήμη
διπλασιάζονται κάθε χρόνο.
03:36
SpatialΧωρική resolutionανάλυση of brainscanningbrainscanning of all typesτύπους
91
204807
2654
Η χωρική ανάλυση όλων των
νευροαπεικονιστικών μεθόδων
03:39
is doublingδιπλασιάζοντας everyκάθε yearέτος.
92
207461
2285
διπλασιάζεται κάθε χρόνο.
03:41
We can now see insideμέσα a livingζωή brainεγκέφαλος
93
209746
1717
Μπορούμε να κοιτάξουμε
μέσα σε έναν ζωντανό εγκέφαλο
03:43
and see individualάτομο interneuralinterneural connectionsσυνδέσεις
94
211463
2870
και να δούμε μεμονωμένες
νευρωνικές συνδέσεις
03:46
connectingσυνδετικός in realπραγματικός time, firingψήσιμο in realπραγματικός time.
95
214333
2703
να συνδέονται και να ενεργοποιούνται
σε πραγματικό χρόνο.
03:49
We can see your brainεγκέφαλος createδημιουργώ your thoughtsσκέψεις.
96
217036
2419
Μπορούμε να δούμε τον εγκέφαλό σας
να δημιουργεί τις σκέψεις σας,
03:51
We can see your thoughtsσκέψεις createδημιουργώ your brainεγκέφαλος,
97
219455
1575
τις σκέψεις σας
να δημιουργούν τον εγκέφαλό σας,
03:53
whichοι οποίες is really keyκλειδί to how it worksεργοστάσιο.
98
221030
1999
που είναι το κλειδί της λειτουργίας του.
03:55
So let me describeπεριγράφω brieflyεν ολίγοις how it worksεργοστάσιο.
99
223029
2219
Ας περιγράψω σύντομα πώς λειτουργεί.
03:57
I've actuallyπράγματι countedμέτρητος these modulesενότητες.
100
225248
2275
Έχω πράγματι μετρήσει αυτές τις μονάδες.
03:59
We have about 300 millionεκατομμύριο of them,
101
227523
2046
Έχουμε περίπου 300 εκατομμύρια από αυτές
04:01
and we createδημιουργώ them in these hierarchiesιεραρχίες.
102
229569
2229
και τις δημιουργούμε
σε αυτές τις ιεραρχίες.
04:03
I'll give you a simpleαπλός exampleπαράδειγμα.
103
231798
2082
Θα σας δώσω ένα απλό παράδειγμα.
04:05
I've got a bunchδέσμη of modulesενότητες
104
233880
2805
Έχω μερικές μονάδες
04:08
that can recognizeαναγνωρίζω the crossbarοριζόντιο δοκάρι to a capitalκεφάλαιο A,
105
236685
3403
που αναγνωρίζουν την οριζόντια γραμμή
σε ένα κεφαλαίο Α
04:12
and that's all they careΦροντίδα about.
106
240088
1914
και νοιάζονται μόνο γι' αυτό.
04:14
A beautifulπανεμορφη songτραγούδι can playπαίζω,
107
242002
1578
Μπορεί να παίζει ένα ωραίο τραγούδι,
04:15
a prettyαρκετά girlκορίτσι could walkΠερπατήστε by,
108
243580
1434
να περνάει μια όμορφη κοπέλα,
04:17
they don't careΦροντίδα, but they see
a crossbarοριζόντιο δοκάρι to a capitalκεφάλαιο A,
109
245014
2846
δεν τις νοιάζει, μόλις όμως βλέπουν
την οριζόντια γραμμή στο κεφαλαίο Α,
04:19
they get very excitedερεθισμένος and they say "crossbarοριζόντιο δοκάρι,"
110
247860
3021
ενθουσιάζονται
και λένε «οριζόντια γραμμή»
04:22
and they put out a highυψηλός probabilityπιθανότητα
111
250881
2112
και επιστρέφουν μια υψηλή πιθανότητα
04:24
on theirδικα τους outputπαραγωγή axonAXON.
112
252993
1634
στον άξονα εξόδου τους.
04:26
That goesπηγαίνει to the nextεπόμενος levelεπίπεδο,
113
254627
1333
Αυτό οδηγεί στο επόμενο επίπεδο
04:27
and these layersστρώματα are organizedδιοργάνωσε in conceptualσχετικός με την σύλληψη ή αντίληψη levelsεπίπεδα.
114
255960
2750
και αυτά τα επίπεδα
είναι εννοιολογικά οργανωμένα.
04:30
EachΚάθε is more abstractαφηρημένη than the nextεπόμενος one,
115
258710
1856
Καθένα είναι πιο αφηρημένο
από το επόμενο,
04:32
so the nextεπόμενος one mightθα μπορούσε say "capitalκεφάλαιο A."
116
260566
2418
έτσι το επόμενο ίσως να πει
«κεφαλαίο Α».
04:34
That goesπηγαίνει up to a higherπιο ψηλά
levelεπίπεδο that mightθα μπορούσε say "AppleApple."
117
262984
2891
Αυτό συνεχίζει σε ένα υψηλότερο
επίπεδο που ίσως να πει «Αχλάδι».
04:37
InformationΠληροφορίες flowsροές down alsoεπίσης.
118
265875
2167
Η πληροφορία ρέει και προς τα κάτω.
04:40
If the appleμήλο recognizerαναγνώρισης has seenείδα A-P-P-LA-P-P-L,
119
268042
2936
Αν ο αναγνωριστής της λέξης «αχλάδι»
έχει δει τα Α-Χ-Λ-Α-Δ
04:42
it'llθα το κάνει think to itselfεαυτό, "HmmΧμμ, I
think an E is probablyπιθανώς likelyπιθανός,"
120
270978
3219
θα σκεφτεί, «Χμμ, νομίζω
ότι το Ι είναι πιθανό»
04:46
and it'llθα το κάνει sendστείλετε a signalσήμα down to all the E recognizersστοιχεία αναγνώρισης
121
274197
2564
και θα στείλει σήμα
σε όλους τους αναγνωριστές του Ι
04:48
sayingρητό, "Be on the lookoutεπιφυλακή for an E,
122
276761
1619
λέγοντας: «Το νου σας για ένα Ι,
04:50
I think one mightθα μπορούσε be comingερχομός."
123
278380
1556
νομίζω ότι έρχεται ένα».
04:51
The E recognizersστοιχεία αναγνώρισης will lowerπιο χαμηλα theirδικα τους thresholdκατώφλι
124
279936
2843
Οι αναγνωριστές του Ι
θα χαμηλώσουν το όριό τους
04:54
and they see some sloppyΤσαπατσούλης
thing, could be an E.
125
282779
1945
και θα δούν κάτι τσαπατσούλικο,
ίσως ένα Ι.
04:56
OrdinarilyΚανονικά you wouldn'tδεν θα ήταν think so,
126
284724
1490
Συνήθως δεν θα το πιστεύατε,
04:58
but we're expectingαναμένουν an E, it's good enoughαρκετά,
127
286214
2009
αλλά περιμένουμε ένα Ι,
μας αρκεί αυτό,
05:00
and yeah, I've seenείδα an E, and then appleμήλο saysλέει,
128
288223
1817
και ναι, έχω δει ένα Ι,
και μετά το αχλάδι λέει:
05:02
"Yeah, I've seenείδα an AppleApple."
129
290040
1728
«Ναι, έχω δει ένα Αχλάδι».
05:03
Go up anotherαλλο fiveπέντε levelsεπίπεδα,
130
291768
1746
Ανεβείτε πέντε επίπεδα ακόμη,
και τώρα είστε σε υψηλό επίπεδο
05:05
and you're now at a prettyαρκετά highυψηλός levelεπίπεδο
131
293514
1353
05:06
of this hierarchyιεραρχία,
132
294867
1569
σε αυτή την ιεραρχία,
05:08
and stretchτέντωμα down into the differentδιαφορετικός sensesαισθήσεις,
133
296436
2353
που εκτείνεται προς τα κάτω
στις διάφορες αισθήσεις
05:10
and you mayενδέχεται have a moduleμονάδα μέτρησης
that seesβλέπει a certainβέβαιος fabricύφασμα,
134
298789
2655
και ίσως να έχετε μια μονάδα
που βλέπει κάποιο ύφασμα,
05:13
hearsακούει a certainβέβαιος voiceφωνή qualityποιότητα,
smellsμυρίζει a certainβέβαιος perfumeάρωμα,
135
301444
2844
ακούει κάποια χροιά φωνής,
μυρίζει κάποιο άρωμα,
05:16
and will say, "My wifeγυναίκα has enteredεισήχθη the roomδωμάτιο."
136
304288
2513
και θα πει: «Μπήκε στο δωμάτιο
η γυναίκα μου».
05:18
Go up anotherαλλο 10 levelsεπίπεδα, and now you're at
137
306801
1895
Ανεβαίνουμε άλλα 10 επίπεδα
και τώρα είμαστε
05:20
a very highυψηλός levelεπίπεδο.
138
308696
1160
σε ένα πολύ υψηλό επίπεδο.
05:21
You're probablyπιθανώς in the frontalμετωπικός cortexφλοιός,
139
309856
1937
Μάλλον είστε στον μετωπιαίο φλοιό
05:23
and you'llθα το κάνετε have modulesενότητες that say, "That was ironicειρωνικό.
140
311793
3767
και θα έχετε μονάδες που λένε:
«Αυτό ήταν ειρωνικό».
05:27
That's funnyαστείος. She's prettyαρκετά."
141
315560
2370
«Αυτό είναι αστείο».
«Είναι όμορφη».
05:29
You mightθα μπορούσε think that those are more sophisticatedεκλεπτυσμένο,
142
317930
2105
Ίσως σκεφτείτε ότι αυτά
είναι πιο εξελιγμένα,
05:32
but actuallyπράγματι what's more complicatedπερίπλοκος
143
320035
1506
αλλά αυτό που είναι πιο πολύπλοκο
05:33
is the hierarchyιεραρχία beneathκάτω από them.
144
321541
2669
είναι η ιεραρχία κάτω από αυτά.
05:36
There was a 16-year-old-ετών girlκορίτσι, she had brainεγκέφαλος surgeryχειρουργική επέμβαση,
145
324210
2620
Μια 16χρονη έκανε
εγχείρηση στον εγκέφαλο
05:38
and she was consciousσυνειδητός because the surgeonsχειρουργοί
146
326830
2051
και είχε τις αισθήσεις της
επειδή οι χειρουργοί
05:40
wanted to talk to her.
147
328881
1537
ήθελαν να της μιλούν.
05:42
You can do that because there's no painπόνος receptorsυποδοχείς
148
330418
1822
Μπορείτε να το κάνετε αυτό
επειδή δεν υπάρχουν υποδοχείς πόνου
05:44
in the brainεγκέφαλος.
149
332240
1038
στον εγκέφαλο.
05:45
And wheneverΟποτεδήποτε they stimulatedτόνωσε particularιδιαιτερος,
150
333278
1800
Και κάθε φορά που διέγειραν συγκεκριμένα
05:47
very smallμικρό pointsσημεία on her neocortexneocortex,
151
335078
2463
πολύ μικρά σημεία στον νεοφλοιό,
05:49
shownαπεικονίζεται here in redτο κόκκινο, she would laughγέλιο.
152
337541
2665
που φαίνονται εδώ με κόκκινο, γελούσε.
05:52
So at first they thought they were triggeringΕνεργοποίηση
153
340206
1440
Στην αρχή νόμιζαν ότι προκαλούσαν
05:53
some kindείδος of laughγέλιο reflexαντανακλαστικό,
154
341646
1720
κάποιο αντανακλαστικό γέλιου,
05:55
but no, they quicklyγρήγορα realizedσυνειδητοποίησα they had foundβρέθηκαν
155
343366
2519
αλλά όχι, γρήγορα συνειδητοποίησαν
ότι είχαν βρει
05:57
the pointsσημεία in her neocortexneocortex that detectανιχνεύουν humorχιούμορ,
156
345885
3044
τα σημεία στον νεοφλοιό της
που εντοπίζουν το χιούμορ
06:00
and she just foundβρέθηκαν everything hilariousεύθυμος
157
348929
1969
και απλώς έβρισκε τα πάντα ξεκαρδιστικά
06:02
wheneverΟποτεδήποτε they stimulatedτόνωσε these pointsσημεία.
158
350898
2437
κάθε φορά που διέγειραν αυτά τα σημεία.
06:05
"You guys are so funnyαστείος just standingορθοστασία around,"
159
353335
1925
«Είστε τόσο αστείοι έτσι που στέκεστε»,
06:07
was the typicalτυπικός commentσχόλιο,
160
355260
1738
ήταν ένα τυπικό σχόλιο,
06:08
and they weren'tδεν ήταν funnyαστείος,
161
356998
2302
και δεν ήταν αστείοι,
06:11
not while doing surgeryχειρουργική επέμβαση.
162
359300
3247
όχι όταν κάνουν χειρουργείο.
06:14
So how are we doing todayσήμερα?
163
362547
4830
Πώς τα πάμε σήμερα λοιπόν;
06:19
Well, computersΥπολογιστές are actuallyπράγματι beginningαρχή to masterκύριος
164
367377
3054
Οι υπολογιστές αρχίζουν να κατέχουν
06:22
humanο άνθρωπος languageΓλώσσα with techniquesτεχνικές
165
370431
2001
την ανθρώπινη γλώσσα με τεχνικές
06:24
that are similarπαρόμοιος to the neocortexneocortex.
166
372432
2867
που είναι παρόμοιες με τον νεοφλοιό.
06:27
I actuallyπράγματι describedπεριγράφεται the algorithmαλγόριθμος,
167
375299
1514
Περιέγραψα τον αλγόριθμο,
06:28
whichοι οποίες is similarπαρόμοιος to something calledπου ονομάζεται
168
376813
2054
που είναι παρόμοιος με κάτι που ονομάζεται
06:30
a hierarchicalιεραρχική hiddenκεκρυμμένος MarkovMarkov modelμοντέλο,
169
378867
2233
κρυφό ιεραρχικό πρότυπο Μαρκόφ,
06:33
something I've workedεργάστηκε on sinceΑπό the '90s.
170
381100
3241
κάτι που έχω δουλέψει
από τη δεκαετία του '90.
06:36
"JeopardyΔιακινδύνευση" is a very broadευρύς naturalφυσικός languageΓλώσσα gameπαιχνίδι,
171
384341
3238
Το «Jeopardy» είναι ένα πολύ ευρύ
παιχνίδι φυσικής γλώσσας,
06:39
and WatsonWatson got a higherπιο ψηλά scoreσκορ
172
387579
1892
και ο Ουάτσον πήρε μεγαλύτερο σκορ
06:41
than the bestκαλύτερος two playersΠαίκτες combinedσε συνδυασμό.
173
389471
2000
από τους δύο καλύτερους παίκτες
σε συνδυασμό.
06:43
It got this queryερώτημα correctσωστός:
174
391471
2499
Απάντησε σωστά στο εξής ερώτημα:
06:45
"A long, tiresomeκουραστικό speechομιλία
175
393970
2085
«Ένας μακρύς, κουραστικός λόγος
06:48
deliveredπαραδόθηκε by a frothyαφρώδη pieπίτα toppingΚορυφολόγημα,"
176
396055
2152
που τον έκανε
η επικάλυψη αφρώδους πίτας»,
06:50
and it quicklyγρήγορα respondedαπάντησε,
"What is a meringueμαρέγγα harangueαγόρευση?"
177
398207
2796
και απάντησε γρήγορα,
«Τι είναι η δημηγορία μαρέγκας;»
06:53
And JenningsΤζένινγκς and the other guy didn't get that.
178
401003
2635
Ο Τζένινγκς και ο άλλος
τύπος δεν το βρήκαν αυτό.
06:55
It's a prettyαρκετά sophisticatedεκλεπτυσμένο exampleπαράδειγμα of
179
403638
1926
Είναι ένα πολύ εξελιγμένο παράδειγμα
06:57
computersΥπολογιστές actuallyπράγματι understandingκατανόηση humanο άνθρωπος languageΓλώσσα,
180
405564
1914
κατανόησης της ανθρώπινης γλώσσας
από υπολογιστές,
06:59
and it actuallyπράγματι got its knowledgeη γνώση by readingΑΝΑΓΝΩΣΗ
181
407478
1652
που έμαθε διαβάζοντας
07:01
WikipediaWikipedia and severalαρκετά other encyclopediasεγκυκλοπαίδειες.
182
409130
3785
Βικιπαίδεια και διάφορες
άλλες εγκυκλοπαίδειες.
07:04
FiveΠέντε to 10 yearsχρόνια from now,
183
412915
2133
Σε πέντε με 10 χρόνια από τώρα,
07:07
searchΨάξιμο enginesκινητήρες will actuallyπράγματι be basedμε βάση on
184
415048
2184
οι μηχανές αναζήτησης θα βασίζονται
όχι μόνο στην αναζήτηση
συνδυασμών λέξεων,
07:09
not just looking for combinationsκομπινεζόν of wordsλόγια and linksσυνδέσεις
185
417232
2794
07:12
but actuallyπράγματι understandingκατανόηση,
186
420026
1914
αλλά θα καταλαβαίνουν πραγματικά,
07:13
readingΑΝΑΓΝΩΣΗ for understandingκατανόηση the billionsδισεκατομμύρια of pagesσελίδες
187
421940
2411
θα διαβάζουν, κατανοώντας τες,
δισεκατομμύρια σελίδες
07:16
on the webιστός and in booksβιβλία.
188
424351
2733
στο Διαδίκτυο και σε βιβλία.
07:19
So you'llθα το κάνετε be walkingτο περπάτημα alongκατά μήκος, and GoogleGoogle will popκρότος up
189
427084
2616
Έτσι θα περπατάτε
και το Google θα πεταχτεί
07:21
and say, "You know, MaryΜαίρη, you expressedεκφράζεται concernανησυχία
190
429700
3081
και θα πει: «Ξέρεις, Μαίρη,
μου εξέφρασες μια ανησυχία
07:24
to me a monthμήνας agoπριν that your glutathioneη γλουταθειόνη supplementτο συμπλήρωμα
191
432781
3019
πριν από ένα μήνα
ότι το συμπλήρωμα γλουταθειόνης σου
07:27
wasn'tδεν ήταν gettingνα πάρει pastτο παρελθόν the blood-brainαίματος-εγκεφάλου barrierεμπόδιο.
192
435800
2231
δεν περνάει τον αιματοεγκεφαλικό φραγμό.
07:30
Well, newνέος researchέρευνα just cameήρθε out 13 secondsδευτερολέπτων agoπριν
193
438031
2593
Βγήκε μια νέα έρευνα
πριν από 13 δευτερόλεπτα
07:32
that showsδείχνει a wholeολόκληρος newνέος approachπλησιάζω to that
194
440624
1711
που δείχνει μια νέα προσέγγιση σε αυτό
07:34
and a newνέος way to take glutathioneη γλουταθειόνη.
195
442335
1993
και έναν νέο τρόπο λήψης γλουταθειόνης.
07:36
Let me summarizeσυνοψίζω it for you."
196
444328
2562
Ας σου κάνω μια περίληψη».
07:38
TwentyΕίκοσι yearsχρόνια from now, we'llΚαλά have nanobotsnanobots,
197
446890
3684
Σε είκοσι χρόνια από τώρα,
θα έχουμε νανομπότ,
07:42
because anotherαλλο exponentialεκθετικός trendτάση
198
450574
1627
επειδή μια ακόμη εκθετική τάση
είναι η σμίκρυνση της τεχνολογίας.
07:44
is the shrinkingσυρρίκνωση of technologyτεχνολογία.
199
452201
1615
07:45
They'llΑυτοί θα go into our brainεγκέφαλος
200
453816
2370
Θα πάνε στον εγκέφαλό μας
07:48
throughδιά μέσου the capillariesτριχοειδή αγγεία
201
456186
1703
μέσα από τα τριχοειδή αγγεία
07:49
and basicallyβασικα connectσυνδέω our neocortexneocortex
202
457889
2477
και βασικά θα συνδέσουν τον νεοφλοιό μας
07:52
to a syntheticσυνθετικός neocortexneocortex in the cloudσύννεφο
203
460366
3185
σε έναν συνθετικό νεοφλοιό στο σύννεφο
07:55
providingχορήγηση an extensionεπέκταση of our neocortexneocortex.
204
463551
3591
που θα παρέχει
μια επέκταση του νεοφλοιού μας.
07:59
Now todayσήμερα, I mean,
205
467142
1578
Σήμερα, έχετε
έναν υπολογιστή στο κινητό σας,
08:00
you have a computerυπολογιστή in your phoneτηλέφωνο,
206
468720
1530
αλλά αν χρειαστείτε 10.000 υπολογιστές
για λίγα δευτερόλεπτα
08:02
but if you need 10,000 computersΥπολογιστές for a fewλίγοι secondsδευτερολέπτων
207
470250
2754
08:05
to do a complexσυγκρότημα searchΨάξιμο,
208
473004
1495
για να κάνετε μια πολύπλοκη αναζήτηση,
08:06
you can accessπρόσβαση that for a secondδεύτερος or two in the cloudσύννεφο.
209
474499
3396
μπορείτε να έχετε πρόσβαση
για ένα ή δύο δευτερόλεπτα στο σύννεφο.
08:09
In the 2030s, if you need some extraεπιπλέον neocortexneocortex,
210
477895
3095
Τη δεκαετία του 2030, αν χρειαστείτε
επιπλέον νεοφλοιό,
08:12
you'llθα το κάνετε be ableικανός to connectσυνδέω to that in the cloudσύννεφο
211
480990
2273
θα μπορέσετε να συνδεθείτε στο σύννεφο
08:15
directlyκατευθείαν from your brainεγκέφαλος.
212
483263
1648
απευθείας από τον εγκέφαλό σας.
08:16
So I'm walkingτο περπάτημα alongκατά μήκος and I say,
213
484911
1543
Έτσι θα περπατάω και θα πω:
08:18
"Oh, there's ChrisChris AndersonΆντερσον.
214
486454
1363
«Ω, να ο Κρις Άντερσον.
08:19
He's comingερχομός my way.
215
487817
1525
Έρχεται προς το μέρος μου.
08:21
I'd better think of something cleverέξυπνος to say.
216
489342
2335
Να σκεφτώ κάτι έξυπνο να του πω.
08:23
I've got threeτρία secondsδευτερολέπτων.
217
491677
1524
Έχω τρία δευτερόλεπτα.
08:25
My 300 millionεκατομμύριο modulesενότητες in my neocortexneocortex
218
493201
3097
Οι 300 εκατομμύρια μονάδες
στο νεοφλοιό μου
08:28
isn't going to cutΤομή it.
219
496298
1240
δεν θα τα καταφέρουν.
Χρειάζομαι ακόμη ένα δισεκατομμύριο».
08:29
I need a billionδισεκατομμύριο more."
220
497538
1246
08:30
I'll be ableικανός to accessπρόσβαση that in the cloudσύννεφο.
221
498784
3323
Θα μπορώ να έχω πρόσβαση
σε αυτές στο σύννεφο.
08:34
And our thinkingσκέψη, then, will be a hybridυβρίδιο
222
502107
2812
Τότε η σκέψη μας, θα είναι ένα υβρίδιο
08:36
of biologicalβιολογικός and non-biologicalμη βιολογικά thinkingσκέψη,
223
504919
3522
βιολογικής και μη βιολογικής σκέψης,
08:40
but the non-biologicalμη βιολογικά portionτμήμα
224
508441
1898
αλλά το μη βιολογικό κομμάτι
08:42
is subjectθέμα to my lawνόμος of acceleratingεπιταχύνοντας returnsεπιστρέφει.
225
510339
2682
διέπεται από τον νόμο μου
για την επιτάχυνση των αποδόσεων.
08:45
It will growκαλλιεργώ exponentiallyεκθετικά.
226
513021
2239
Θα αυξηθεί εκθετικά.
08:47
And rememberθυμάμαι what happensσυμβαίνει
227
515260
2016
Και θυμηθείτε τι συνέβη
08:49
the last time we expandedαναπτυγμένος our neocortexneocortex?
228
517276
2645
την τελευταία φορά
που επεκτείναμε τον νεοφλοιό μας.
08:51
That was two millionεκατομμύριο yearsχρόνια agoπριν
229
519921
1426
Αυτό ήταν πριν από δύο εκατομμύρια χρόνια
08:53
when we becameέγινε humanoidsανθρωποειδή
230
521347
1236
όταν γίναμε ανθρωποειδή
08:54
and developedαναπτηγμένος these largeμεγάλο foreheadsμέτωπά.
231
522583
1594
και αναπτύξαμε αυτά τα μεγάλα κούτελα.
08:56
Other primatesπρωτεύοντα have a slantedΛοξή browφρύδι.
232
524177
2583
Τα άλλα πρωτεύοντα θηλαστικά
έχουν κεκλιμένο φρύδι.
08:58
They don't have the frontalμετωπικός cortexφλοιός.
233
526760
1745
Δεν έχουν μετωπιαίο φλοιό.
09:00
But the frontalμετωπικός cortexφλοιός is not
really qualitativelyποιοτικά differentδιαφορετικός.
234
528505
3685
Αλλά ο μετωπιαίος φλοιός δεν είναι
ποιοτικά διαφορετικός.
09:04
It's a quantitativeποσοτικός expansionεπέκταση of neocortexneocortex,
235
532190
2743
Είναι μια ποσοτική επέκταση του νεοφλοιού,
09:06
but that additionalπρόσθετες quantityποσότητα of thinkingσκέψη
236
534933
2703
αλλά η επιπλέον ποσότητα σκέψης
09:09
was the enablingενεργοποίηση factorπαράγοντας for us to take
237
537636
1779
ήταν ο παράγοντας
που μας επέτρεψε να κάνουμε
09:11
a qualitativeποιοτική leapπηδάω and inventεφευρίσκω languageΓλώσσα
238
539415
3346
ένα ποιοτικό άλμα
και να εφεύρουμε τη γλώσσα,
09:14
and artτέχνη and scienceεπιστήμη and technologyτεχνολογία
239
542761
1967
την τέχνη, την επιστήμη, την τεχνολογία
09:16
and TEDTED conferencesσυνέδρια.
240
544728
1454
και τα συνέδρια TED.
09:18
No other speciesείδος has doneΈγινε that.
241
546182
2131
Κανένα άλλο είδος δεν το έχει κάνει αυτό.
09:20
And so, over the nextεπόμενος fewλίγοι decadesδεκαετίες,
242
548313
2075
Κι έτσι, μέσα στις επόμενες δεκαετίες,
09:22
we're going to do it again.
243
550388
1760
θα το ξανακάνουμε.
09:24
We're going to again expandεπεκτείνουν our neocortexneocortex,
244
552148
2274
Θα επεκτείνουμε και πάλι τον νεοφλοιό μας,
09:26
only this time we won'tσυνηθισμένος be limitedπεριωρισμένος
245
554422
1756
μόνο που αυτή τη φορά δεν θα περιοριστούμε
09:28
by a fixedσταθερός architectureαρχιτεκτονική of enclosureπερίφραξη.
246
556178
4280
από τη σταθερή αρχιτεκτονική
του περιβλήματος.
09:32
It'llΑυτό θα be expandedαναπτυγμένος withoutχωρίς limitόριο.
247
560458
3304
Θα επεκταθεί χωρίς όρια.
09:35
That additionalπρόσθετες quantityποσότητα will again
248
563762
2243
Η επιπλέον ποσότητα θα είναι και πάλι
09:38
be the enablingενεργοποίηση factorπαράγοντας for anotherαλλο qualitativeποιοτική leapπηδάω
249
566005
3005
ο παράγοντας που θα μας επιτρέψει
να κάνουμε άλλο ένα ποιοτικό άλμα
09:41
in cultureΠολιτισμός and technologyτεχνολογία.
250
569010
1635
στον πολιτισμό και την τεχνολογία.
09:42
Thank you very much.
251
570645
2054
Σας ευχαριστώ πολύ.
09:44
(ApplauseΧειροκροτήματα)
252
572699
3086
(Χειροκρότημα)
Translated by Chryssa Rapessi
Reviewed by Vicky Florou

▲Back to top

ABOUT THE SPEAKER
Ray Kurzweil - Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species.

Why you should listen

Inventor, entrepreneur, visionary, Ray Kurzweil's accomplishments read as a startling series of firsts -- a litany of technological breakthroughs we've come to take for granted. Kurzweil invented the first optical character recognition (OCR) software for transforming the written word into data, the first print-to-speech software for the blind, the first text-to-speech synthesizer, and the first music synthesizer capable of recreating the grand piano and other orchestral instruments, and the first commercially marketed large-vocabulary speech recognition.

Yet his impact as a futurist and philosopher is no less significant. In his best-selling books, which include How to Create a Mind, The Age of Spiritual Machines, The Singularity Is Near: When Humans Transcend Biology, Kurzweil depicts in detail a portrait of the human condition over the next few decades, as accelerating technologies forever blur the line between human and machine.

In 2009, he unveiled Singularity University, an institution that aims to "assemble, educate and inspire leaders who strive to understand and facilitate the development of exponentially advancing technologies." He is a Director of Engineering at Google, where he heads up a team developing machine intelligence and natural language comprehension.

More profile about the speaker
Ray Kurzweil | Speaker | TED.com