ABOUT THE SPEAKER
Ray Kurzweil - Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species.

Why you should listen

Inventor, entrepreneur, visionary, Ray Kurzweil's accomplishments read as a startling series of firsts -- a litany of technological breakthroughs we've come to take for granted. Kurzweil invented the first optical character recognition (OCR) software for transforming the written word into data, the first print-to-speech software for the blind, the first text-to-speech synthesizer, and the first music synthesizer capable of recreating the grand piano and other orchestral instruments, and the first commercially marketed large-vocabulary speech recognition.

Yet his impact as a futurist and philosopher is no less significant. In his best-selling books, which include How to Create a Mind, The Age of Spiritual Machines, The Singularity Is Near: When Humans Transcend Biology, Kurzweil depicts in detail a portrait of the human condition over the next few decades, as accelerating technologies forever blur the line between human and machine.

In 2009, he unveiled Singularity University, an institution that aims to "assemble, educate and inspire leaders who strive to understand and facilitate the development of exponentially advancing technologies." He is a Director of Engineering at Google, where he heads up a team developing machine intelligence and natural language comprehension.

More profile about the speaker
Ray Kurzweil | Speaker | TED.com
TED2014

Ray Kurzweil: Get ready for hybrid thinking

Ray Kurzweil: Préparez-vous à la réflexion hybride

Filmed:
3,548,296 views

Il y a 200 millions d'années, nos ancêtres mammifères ont développé une nouvelle capacité cérabrale: le néocortex. Cet élément pas plus gros qu'un timbre poste est pourtant la clé de voûte qui a permis à l'humanité de grandir. De nos jours, le visionnaire Ray Kuzweil nous suggère de nous préparer pour le prochain sursaut technologique lié à notre cerveau, si bien que celui-ci pourrait prochainement se voir connecté au cloud.
- Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species. Full bio

Double-click the English transcript below to play the video.

00:12
Let me tell you a storyrécit.
0
988
2316
Laissez-moi vous raconter une histoire,
00:15
It goesva back 200 millionmillion yearsannées.
1
3304
1799
qui se passe il y a
200 millions d'années.
00:17
It's a storyrécit of the neocortexnéocortex,
2
5103
1984
C'est l'histoire du néocortex.
00:19
whichlequel meansveux dire "newNouveau rindzeste."
3
7087
1974
Ce qui signifie « nouvelle écorce ».
00:21
So in these earlyde bonne heure mammalsmammifères,
4
9061
2431
Chez les mammifères primitifs,
00:23
because only mammalsmammifères have a neocortexnéocortex,
5
11492
2055
car seuls les mammifères
ont un néocortex,
00:25
rodent-likerongeur-comme creaturescréatures.
6
13547
1664
des créatures proches des rongeurs,
00:27
It was the sizeTaille of a postagefrais de port stamptimbre and just as thinmince,
7
15211
3579
il était de la taille et de l'épaisseur
d'un timbre poste
et formait une fine pellicule autour
00:30
and was a thinmince coveringcouvrant around
8
18790
1439
00:32
theirleur walnut-sizedtaille d’une noix braincerveau,
9
20229
2264
de leur cerveau pas plus gros qu'une noix,
00:34
but it was capablecapable of a newNouveau typetype of thinkingen pensant.
10
22493
3701
mais il était capable
d'une nouvelle façon de réfléchir.
00:38
RatherPlutôt than the fixedfixé behaviorscomportements
11
26194
1567
Plutôt que les comportements prédéfinis
des animaux autres que les mammifères,
00:39
that non-mammaliannon-mammifère animalsanimaux have,
12
27761
1992
00:41
it could inventinventer newNouveau behaviorscomportements.
13
29753
2692
il pouvait inventer
de nouveaux comportements.
00:44
So a mouseSouris is escapings’échapper a predatorPredator,
14
32445
2553
Par exemple, une souris fuit un prédateur,
00:46
its pathchemin is blockedbloqué,
15
34998
1540
sa voie est bloquée, elle va essayer
d'inventer une nouvelle solution.
00:48
it'llça va try to inventinventer a newNouveau solutionSolution.
16
36538
2129
00:50
That maymai work, it maymai not,
17
38667
1266
Ça peut marcher ou pas,
mais si c'est le cas,
00:51
but if it does, it will rememberrappelles toi that
18
39933
1910
elle s'en souviendra
et adoptera un nouveau comportement,
00:53
and have a newNouveau behaviorcomportement,
19
41843
1292
00:55
and that can actuallyréellement spreadpropager virallyvirale
20
43135
1457
qui pourra alors se propager
tel un virus au reste de la communauté.
00:56
throughpar the restdu repos of the communitycommunauté.
21
44592
2195
Une autre souris en l'observant
pourrait se dire,
00:58
AnotherUn autre mouseSouris watchingen train de regarder this could say,
22
46787
1609
01:00
"Hey, that was prettyjoli cleverintelligent, going around that rockRoche,"
23
48396
2704
« Contourner cette pierre,
c'était assez futé. »
01:03
and it could adoptadopter a newNouveau behaviorcomportement as well.
24
51100
3725
et pourrait adopter
un nouveau comportement elle aussi.
01:06
Non-mammalianNon mammifère animalsanimaux
25
54825
1717
Les animaux autres que les mammifères
ne pouvaient pas faire ce genre de choses.
01:08
couldn'tne pouvait pas do any of those things.
26
56542
1713
01:10
They had fixedfixé behaviorscomportements.
27
58255
1215
Ils avaient des comportements prédéfinis.
Ils pourraient en apprendre un nouveau,
01:11
Now they could learnapprendre a newNouveau behaviorcomportement
28
59470
1331
01:12
but not in the coursecours of one lifetimedurée de vie.
29
60801
2576
mais leur vie est trop courte pour ça.
01:15
In the coursecours of maybe a thousandmille lifetimesdurées de vie,
30
63377
1767
Au cours d'un millier de vies,
01:17
it could evolveévoluer a newNouveau fixedfixé behaviorcomportement.
31
65144
3330
il pourrait développer
un nouveau comportement prédéfini.
01:20
That was perfectlyà la perfection okay 200 millionmillion yearsannées agodepuis.
32
68474
3377
Ça fonctionnait bien
il y a 200 millions d'années,
01:23
The environmentenvironnement changedmodifié very slowlylentement.
33
71851
1981
l'environnement changeait très lentement.
01:25
It could take 10,000 yearsannées for there to be
34
73832
1554
Ça pouvait prendre 10 000 ans
01:27
a significantimportant environmentalenvironnement changechangement,
35
75386
2092
pour qu'un important changement
environnemental ait lieu,
01:29
and duringpendant that periodpériode of time
36
77478
1382
pendant ce temps-là, l'animal aurait
évolué vers un nouveau comportement.
01:30
it would evolveévoluer a newNouveau behaviorcomportement.
37
78860
2929
01:33
Now that wentest allé alongle long de fine,
38
81789
1521
Ça fonctionnait bien,
01:35
but then something happenedarrivé.
39
83310
1704
mais alors quelque chose arriva.
01:37
Sixty-fiveSoixante-cinq millionmillion yearsannées agodepuis,
40
85014
2246
Il y a 65 millions d'années,
il y eut un changement soudain
et violent de l'environnement.
01:39
there was a suddensoudain, violentviolent
changechangement to the environmentenvironnement.
41
87260
2615
01:41
We call it the CretaceousCrétacé extinctionextinction eventun événement.
42
89875
3505
On l'appelle l'extinction
du Crétacé-Tertiaire.
01:45
That's when the dinosaursdinosaures wentest allé extinctdisparu,
43
93380
2293
C'est à ce moment
que les dinosaures ont disparu,
01:47
that's when 75 percentpour cent of the
44
95673
3449
où 75% des espèces d'animaux
et de plantes ont disparu
01:51
animalanimal and plantplante speciesespèce wentest allé extinctdisparu,
45
99122
2746
01:53
and that's when mammalsmammifères
46
101868
1745
et c'est aussi là que les mammifères
01:55
overtooka dépassé theirleur ecologicalécologique nicheniche,
47
103613
2152
ont dépassé leur niche écologique,
01:57
and to anthropomorphizeanthropomorphize, biologicalbiologique evolutionévolution said,
48
105765
3654
et si j'anthropomorphise,
l'évolution biologique se dit alors :
02:01
"HmmHmm, this neocortexnéocortex is prettyjoli good stuffdes trucs,"
49
109419
2025
« Le néocortex, c'est assez chouette. »
02:03
and it begana commencé to growcroître it.
50
111444
1793
et commença alors à le faire grossir.
02:05
And mammalsmammifères got biggerplus gros,
51
113237
1342
Alors les mammifères ont grandi
02:06
theirleur brainscerveaux got biggerplus gros at an even fasterPlus vite pacerythme,
52
114579
2915
leurs cerveaux ont grossi
à un rythme encore plus rapide,
02:09
and the neocortexnéocortex got biggerplus gros even fasterPlus vite than that
53
117494
3807
et le néocortex a grossi
encore plus vite
02:13
and developeddéveloppé these distinctivedistinctif ridgescrêtes and foldsplis
54
121301
2929
et a développé ces stries
et ces plis qui lui sont propres
02:16
basicallyen gros to increaseaugmenter its surfacesurface arearégion.
55
124230
2881
pour étendre sa surface essentiellement.
02:19
If you tooka pris the humanHumain neocortexnéocortex
56
127111
1819
Si vous preniez
un néocortex humain
02:20
and stretchedétiré it out,
57
128930
1301
et l'étiriez au maximum, il est environ
de la taille d'une serviette de table
02:22
it's about the sizeTaille of a tabletable napkinserviette de table,
58
130231
1713
02:23
and it's still a thinmince structurestructure.
59
131944
1306
tout en restant fin. Environ de
l'épaisseur d'une serviette de table.
02:25
It's about the thicknessépaisseur of a tabletable napkinserviette de table.
60
133250
1980
02:27
But it has so manybeaucoup convolutionscirconvolutions and ridgescrêtes
61
135230
2497
Mais il a tant de
circonvolutions et de stries
02:29
it's now 80 percentpour cent of our braincerveau,
62
137727
3075
qu'il représente à présent
80% de notre cerveau,
02:32
and that's where we do our thinkingen pensant,
63
140802
2461
et c'est dans cette partie
que nous réfléchissons,
02:35
and it's the great sublimatorsublimator.
64
143263
1761
c'est le grand transcendeur.
02:37
We still have that oldvieux braincerveau
65
145024
1114
On a toujours notre vieux cerveau
02:38
that providesfournit our basicde base drivesdisques and motivationsmotivations,
66
146138
2764
qui nous fournit nos pulsions
et nos motivations primitifs,
02:40
but I maymai have a driveconduire for conquestconquête,
67
148902
2716
mais si j'ai une volonté de conquête,
02:43
and that'llça va be sublimatedsublimée by the neocortexnéocortex
68
151618
2715
cette dernière
va être exprimée par le néocortex
02:46
into writingl'écriture a poempoème or inventinginventer an appapplication
69
154333
2909
dans la rédaction d'un poème
ou l'invention d'une application
02:49
or givingdonnant a TEDTED Talk,
70
157242
1509
ou encore
dans la réalisation d'un TED Talk,
02:50
and it's really the neocortexnéocortex that's where
71
158751
3622
et c'est vraiment là, dans le néocortex,
02:54
the actionaction is.
72
162373
1968
que l'action se passe.
02:56
FiftyCinquante yearsannées agodepuis, I wrotea écrit a paperpapier
73
164341
1717
Il y a 50 ans, j'ai écrit un article
02:58
describingdécrivant how I thought the braincerveau workedtravaillé,
74
166058
1918
décrivant comment je pensais
que le cerveau fonctionnait,
02:59
and I describeddécrit it as a seriesséries of modulesmodules.
75
167976
3199
et je le décrivais
comme une série de modules.
03:03
EachChaque modulemodule could do things with a patternmodèle.
76
171175
2128
Chaque module pouvait faire
des choses selon un modèle,
03:05
It could learnapprendre a patternmodèle. It could rememberrappelles toi a patternmodèle.
77
173303
2746
et aussi apprendre un modèle,
s'en rappeler, et l'implémenter.
03:08
It could implementmettre en place a patternmodèle.
78
176049
1407
03:09
And these modulesmodules were organizedorganisé in hierarchieshiérarchies,
79
177456
2679
Et ces modules s'organisaient
selon une hiérarchie,
03:12
and we createdcréé that hierarchyhiérarchie with our ownposséder thinkingen pensant.
80
180135
2954
nous créions cette hiérarchie
avec notre réflexion.
03:15
And there was actuallyréellement very little to go on
81
183089
3333
on n'en savait peu là-dessus
il y a 50 ans.
03:18
50 yearsannées agodepuis.
82
186422
1562
03:19
It led me to meetrencontrer PresidentPrésident JohnsonJohnson.
83
187984
2115
Ça m'a conduit à rencontrer
le président Johnson.
03:22
I've been thinkingen pensant about this for 50 yearsannées,
84
190099
2173
J'y ai réfléchi depuis 50 ans,
03:24
and a yearan and a halfmoitié agodepuis I camevenu out with the booklivre
85
192272
2828
et il y a un an et demi
je publiais le livre
03:27
"How To CreateCréer A MindEsprit,"
86
195100
1265
"How to Create a Mind"
(Comment créer un esprit)
03:28
whichlequel has the sameMême thesisthèse,
87
196365
1613
qui soutient la même théorie,
03:29
but now there's a plethorapléthore of evidencepreuve.
88
197978
2812
mais à l'heure actuelle
il y a pléthore de preuves.
03:32
The amountmontant of dataLes données we're gettingobtenir about the braincerveau
89
200790
1814
La quantité de données
concernant le cerveau
03:34
from neuroscienceneuroscience is doublingdoubler everychaque yearan.
90
202604
2203
qui nous vient des neurosiences
double chaque année.
03:36
SpatialSpatiale resolutionrésolution of brainscanningbrainscanning of all typesles types
91
204807
2654
La résolution du scanner cérébral
03:39
is doublingdoubler everychaque yearan.
92
207461
2285
double elle aussi chaque année.
03:41
We can now see insideà l'intérieur a livingvivant braincerveau
93
209746
1717
Nous pouvons observer
l'intérieur d'un cerveau vivant
03:43
and see individualindividuel interneuralinterneural connectionsles liaisons
94
211463
2870
et ainsi voir
ses connections neurologiques
03:46
connectingde liaison in realréal time, firingmise à feu in realréal time.
95
214333
2703
se faire et s'activer en temps réel.
03:49
We can see your braincerveau createcréer your thoughtspensées.
96
217036
2419
Nous pouvons voir
votre cerveau créer vos pensées.
03:51
We can see your thoughtspensées createcréer your braincerveau,
97
219455
1575
Nous pouvons voir vos pensées
créer votre cerveau,
03:53
whichlequel is really keyclé to how it workstravaux.
98
221030
1999
ce qui est essentiel pour expliquer
son fonctionnement.
03:55
So let me describedécrire brieflybrièvement how it workstravaux.
99
223029
2219
Laissez-moi vous le décrire simplement.
03:57
I've actuallyréellement counteddénombré these modulesmodules.
100
225248
2275
J'ai en réalité compté ces modules.
03:59
We have about 300 millionmillion of them,
101
227523
2046
Nous en avons environ 300 millions,
04:01
and we createcréer them in these hierarchieshiérarchies.
102
229569
2229
et nous les créons en hiérarchies.
04:03
I'll give you a simplesimple exampleExemple.
103
231798
2082
Je vais vous donner un exemple simple.
04:05
I've got a bunchbouquet of modulesmodules
104
233880
2805
J'ai un ensemble de modules
04:08
that can recognizereconnaître the crossbarbarre transversale to a capitalCapitale A,
105
236685
3403
qui reconnaisse
la barre horizontale de la lettre A,
04:12
and that's all they carese soucier about.
106
240088
1914
et c'est tout ce dont ils s'occupent.
04:14
A beautifulbeau songchant can playjouer,
107
242002
1578
On peut diffuser une jolie chanson,
une jolie fille peut passer devant vous,
04:15
a prettyjoli girlfille could walkmarche by,
108
243580
1434
04:17
they don't carese soucier, but they see
a crossbarbarre transversale to a capitalCapitale A,
109
245014
2846
ils n'en ont rien à faire,
mais s'ils rencontrent la barre de la A
04:19
they get very excitedexcité and they say "crossbarbarre transversale,"
110
247860
3021
ils deviennent alors très actifs
et disent 'barre',
04:22
and they put out a highhaute probabilityprobabilité
111
250881
2112
et placent alors
une importante probabilité
04:24
on theirleur outputsortie axonAxon.
112
252993
1634
sur leur axone de sortie.
04:26
That goesva to the nextprochain levelniveau,
113
254627
1333
On passe au niveau suivant,
04:27
and these layerscouches are organizedorganisé in conceptualconceptuel levelsles niveaux.
114
255960
2750
et ces couches sont organisées
en différents niveaux conceptuels,
04:30
EachChaque is more abstractabstrait than the nextprochain one,
115
258710
1856
chacun plus abstrait que le suivant.
Le suivant pourrait alors dire "A",
04:32
so the nextprochain one mightpourrait say "capitalCapitale A."
116
260566
2418
04:34
That goesva up to a higherplus haute
levelniveau that mightpourrait say "Applepomme."
117
262984
2891
le message va au niveau supérieur
qui pourrait dire "Apple" (pomme)
04:37
InformationInformations flowsles flux down alsoaussi.
118
265875
2167
L'information va aussi
dans le sens inverse.
04:40
If the applePomme recognizersystème de reconnaissance has seenvu A-P-P-LA-P-P-L,
119
268042
2936
Si le détecteur d'APPLE voit A-P-P-L,
il va alors se dire :
04:42
it'llça va think to itselfse, "HmmHmm, I
think an E is probablyProbablement likelyprobable,"
120
270978
3219
« Je pense que la prochaine lettre
sera probablement un E »
04:46
and it'llça va sendenvoyer a signalsignal down to all the E recognizersmodules de reconnaissance
121
274197
2564
et enverra alors signal aux détecteurs
de E, leur disant :
04:48
sayingen disant, "Be on the lookoutLookout for an E,
122
276761
1619
« soyez prêts à trouver un E,
je pense qu'il y en a un qui arrive. »
04:50
I think one mightpourrait be comingvenir."
123
278380
1556
04:51
The E recognizersmodules de reconnaissance will lowerinférieur theirleur thresholdseuil
124
279936
2843
Les détecteurs de E
vont alors baisser leur seuil
04:54
and they see some sloppybâclée
thing, could be an E.
125
282779
1945
et même si le symbole est approximatif,
le prendront pour un E.
04:56
OrdinarilyOrdinairement you wouldn'tne serait pas think so,
126
284724
1490
« D'ordinaire ce n'est pas le cas,
mais ici on attend un E,
04:58
but we're expectingattendant an E, it's good enoughassez,
127
286214
2009
donc c'est bon. Oui, je vois un E. »,
ensuite le détecteur d'APPLE dit :
05:00
and yeah, I've seenvu an E, and then applePomme saysdit,
128
288223
1817
05:02
"Yeah, I've seenvu an Applepomme."
129
290040
1728
« Oui, j'ai bien vu APPLE ».
05:03
Go up anotherun autre fivecinq levelsles niveaux,
130
291768
1746
L'information monte encore
de cinq niveaux,
05:05
and you're now at a prettyjoli highhaute levelniveau
131
293514
1353
et là on est assez haut dans la hiérarchie,
05:06
of this hierarchyhiérarchie,
132
294867
1569
05:08
and stretchétendue down into the differentdifférent sensessens,
133
296436
2353
et tiraillé entre les différents sens.
05:10
and you maymai have a modulemodule
that seesvoit a certaincertain fabricen tissu,
134
298789
2655
Vous avez un module
qui reconnaît un tissu
05:13
hearsentend a certaincertain voicevoix qualityqualité,
smellsodeurs a certaincertain perfumeparfum,
135
301444
2844
est réceptif à une voix,
sent un parfum,
05:16
and will say, "My wifefemme has enteredentré the roomchambre."
136
304288
2513
et va alors dire :
« ma femme est entrée dans la pièce ».
05:18
Go up anotherun autre 10 levelsles niveaux, and now you're at
137
306801
1895
Dix niveaux plus hauts,
05:20
a very highhaute levelniveau.
138
308696
1160
et là vous êtes à un très haut niveau.
probablement dans le cortex frontal,
05:21
You're probablyProbablement in the frontalfrontal cortexcortex,
139
309856
1937
05:23
and you'lltu vas have modulesmodules that say, "That was ironicironique.
140
311793
3767
et vous aurez des modules
qui disent : « C'était ironique.
05:27
That's funnydrôle. She's prettyjoli."
141
315560
2370
C'est drôle. Elle est jolie. »
05:29
You mightpourrait think that those are more sophisticatedsophistiqué,
142
317930
2105
Vous pourriez penser
que c'est plus sophistiqué,
05:32
but actuallyréellement what's more complicatedcompliqué
143
320035
1506
mais en fait, le plus compliqué,
c'est la hiérarchie sous-jacente.
05:33
is the hierarchyhiérarchie beneathsous them.
144
321541
2669
05:36
There was a 16-year-old-Age girlfille, she had braincerveau surgerychirurgie,
145
324210
2620
Une jeune fille de 16 ans qui
était opérée du cerveau,
05:38
and she was consciousconscient because the surgeonschirurgiens
146
326830
2051
elle restait consciente
car le chirurgien
05:40
wanted to talk to her.
147
328881
1537
voulait maintenir le dialogue avec elle.
05:42
You can do that because there's no paindouleur receptorsrécepteurs
148
330418
1822
C'est possible car il n'y a pas de
récepteur de douleur dans le cerveau.
05:44
in the braincerveau.
149
332240
1038
05:45
And whenevern'importe quand they stimulatedstimulé particularparticulier,
150
333278
1800
Et lorsqu'ils stimulaient des points
très particuliers dans son néocortex,
05:47
very smallpetit pointspoints on her neocortexnéocortex,
151
335078
2463
05:49
shownmontré here in redrouge, she would laughrire.
152
337541
2665
représentés ici en rouge,
elle se mettait à rire.
Au début, ils pensaient
qu'ils déclenchaient un réflexe du rire,
05:52
So at first they thought they were triggeringdéclenchement de
153
340206
1440
05:53
some kindgentil of laughrire reflexréflexe,
154
341646
1720
05:55
but no, they quicklyrapidement realizedréalisé they had founda trouvé
155
343366
2519
mais ils ont vite découvert
qu'ils avaient trouvé
05:57
the pointspoints in her neocortexnéocortex that detectdétecter humorhumour,
156
345885
3044
le point de son néocortex
qui détecte l'humour,
06:00
and she just founda trouvé everything hilarioushilarant
157
348929
1969
et elle trouvait alors
absolument tout hilarant
06:02
whenevern'importe quand they stimulatedstimulé these pointspoints.
158
350898
2437
dès qu'ils stimulaient ces points.
06:05
"You guys are so funnydrôle just standingpermanent around,"
159
353335
1925
Elle répétait :
« Vous êtes tellement drôles
tous debout autour de moi »
06:07
was the typicaltypique commentcommentaire,
160
355260
1738
06:08
and they weren'tn'étaient pas funnydrôle,
161
356998
2302
alors qu'ils n'étaient pas drôles,
06:11
not while doing surgerychirurgie.
162
359300
3247
du moins pas pendant l'opération.
06:14
So how are we doing todayaujourd'hui?
163
362547
4830
Alors, où en sommes-nous ajourd'hui ?
06:19
Well, computersdes ordinateurs are actuallyréellement beginningdébut to mastermaîtriser
164
367377
3054
Eh bien, les ordinateurs
commencent à maîtriser
06:22
humanHumain languagela langue with techniquestechniques
165
370431
2001
les langues grâce à des techniques
similaires à celles du néocortex.
06:24
that are similarsimilaire to the neocortexnéocortex.
166
372432
2867
06:27
I actuallyréellement describeddécrit the algorithmalgorithme de,
167
375299
1514
J'ai décrit l'algorithme,
06:28
whichlequel is similarsimilaire to something calledappelé
168
376813
2054
qui est similaire à un système appelé
06:30
a hierarchicalhiérarchique hiddencaché MarkovMarkov modelmaquette,
169
378867
2233
modèle hiérarchique de Markov caché,
06:33
something I've workedtravaillé on sincedepuis the '90s.
170
381100
3241
ce sur quoi je travaille
depuis les années 90.
06:36
"JeopardyJeopardy" is a very broadvaste naturalNaturel languagela langue gameJeu,
171
384341
3238
Jeopardy est un jeu télévisé
portant sur le langage,
06:39
and WatsonWatson got a higherplus haute scoreBut
172
387579
1892
et Watson a obtenu un score plus
important que les deux autres réunis.
06:41
than the bestmeilleur two playersjoueurs combinedcombiné.
173
389471
2000
Il a répondu correctement
à cette question :
06:43
It got this queryrequête correctcorrect:
174
391471
2499
06:45
"A long, tiresomefatigant speechdiscours
175
393970
2085
« Un long et ennuyeux discours énoncé
06:48
deliveredlivré by a frothymousseux pietarte toppingTopping,"
176
396055
2152
par un mousseux nappage de tarte »,
et il répondit rapidement :
06:50
and it quicklyrapidement respondeda répondu,
"What is a meringueMeringue harangueharangue?"
177
398207
2796
« Comment nomme-t-on une diatribe
de meringue ? »
06:53
And JenningsJennings and the other guy didn't get that.
178
401003
2635
Jennings et l'autre joueur
n'ont pas compris.
06:55
It's a prettyjoli sophisticatedsophistiqué exampleExemple of
179
403638
1926
C'est un exemple précis de la façon
06:57
computersdes ordinateurs actuallyréellement understandingcompréhension humanHumain languagela langue,
180
405564
1914
dont les ordinateurs
comprennent le langage humain,
06:59
and it actuallyréellement got its knowledgeconnaissance by readingen train de lire
181
407478
1652
et ils l'apprennent en fait
en lisant Wikipedia
07:01
WikipediaWikipedia and severalnombreuses other encyclopediasencyclopédies.
182
409130
3785
et de plusieurs autres encyclopédies.
07:04
FiveCinq to 10 yearsannées from now,
183
412915
2133
D'ici 5 à 10 ans,
07:07
searchchercher enginesles moteurs will actuallyréellement be basedbasé on
184
415048
2184
les moteurs de recherche
se baseront non seulement
07:09
not just looking for combinationscombinaisons of wordsmots and linksdes liens
185
417232
2794
sur les combinaisons
de mots et de liens,
07:12
but actuallyréellement understandingcompréhension,
186
420026
1914
mais bien sur leur compréhension.
07:13
readingen train de lire for understandingcompréhension the billionsdes milliards of pagespages
187
421940
2411
D'où la lecture de milliards de pages
07:16
on the webweb and in bookslivres.
188
424351
2733
sur internet comme dans des livres.
07:19
So you'lltu vas be walkingen marchant alongle long de, and GoogleGoogle will poppop up
189
427084
2616
Donc vous vous baladerez
et alors Google s'affichera et vous dira :
07:21
and say, "You know, MaryMarie, you expressedexprimé concernpréoccupation
190
429700
3081
« Mary, il y a un mois vous m'avez
exprimé votre préoccupation
07:24
to me a monthmois agodepuis that your glutathioneglutathion supplementSupplément
191
432781
3019
concernant votre complément
en glutathion
07:27
wasn'tn'était pas gettingobtenir pastpassé the blood-brainhémato-encéphalique barrierbarrière.
192
435800
2231
qui ne passait pas
la barrière hématoméningée.
07:30
Well, newNouveau researchrecherche just camevenu out 13 secondssecondes agodepuis
193
438031
2593
Eh bien une nouvelle recherche
vient d'être publiée il y a 13 secondes
07:32
that showsmontre a wholeentier newNouveau approachapproche to that
194
440624
1711
décrivant une toute nouvelle approche,
07:34
and a newNouveau way to take glutathioneglutathion.
195
442335
1993
une nouvelle façon
d'assimiler le gluthation.
07:36
Let me summarizerésumer it for you."
196
444328
2562
Lassez-moi vous en faire un résumé."
07:38
TwentyVingt yearsannées from now, we'llbien have nanobotsnanorobots,
197
446890
3684
D'ici 20 ans, nous aurons des nano-robots,
07:42
because anotherun autre exponentialexponentiel trendtendance
198
450574
1627
car une des nouvelles tendances
à forte évolution
07:44
is the shrinkingcontraction of technologyLa technologie.
199
452201
1615
est la miniaturisation
de la technologie.
07:45
They'llIls vont go into our braincerveau
200
453816
2370
Ils entreront dans notre cerveau
07:48
throughpar the capillariescapillaires
201
456186
1703
à travers nos vaisseaux capillaires
07:49
and basicallyen gros connectrelier our neocortexnéocortex
202
457889
2477
et connecteront simplement notre néocortex
07:52
to a syntheticsynthétique neocortexnéocortex in the cloudnuage
203
460366
3185
à un néocortex synthétique dans le cloud,
07:55
providingfournir an extensionextension of our neocortexnéocortex.
204
463551
3591
nous en fournissant ainsi une extension.
07:59
Now todayaujourd'hui, I mean,
205
467142
1578
A l'heure actuelle,
08:00
you have a computerordinateur in your phonetéléphone,
206
468720
1530
vous avez un ordinateur
dans votre téléphone,
08:02
but if you need 10,000 computersdes ordinateurs for a fewpeu secondssecondes
207
470250
2754
mais si vous avez besoin de 10 000
ordinateurs pour quelques secondes
08:05
to do a complexcomplexe searchchercher,
208
473004
1495
pour faire une recherche complexe,
vous pouvez y avoir accès dans le cloud.
08:06
you can accessaccès that for a secondseconde or two in the cloudnuage.
209
474499
3396
08:09
In the 2030s, if you need some extrasupplémentaire neocortexnéocortex,
210
477895
3095
Dans les années 2030, si vous avez besoin
d'une extension de néocortex,
08:12
you'lltu vas be ablecapable to connectrelier to that in the cloudnuage
211
480990
2273
vous pourrez vous y connecter via le cloud
08:15
directlydirectement from your braincerveau.
212
483263
1648
directement depuis votre cerveau.
08:16
So I'm walkingen marchant alongle long de and I say,
213
484911
1543
Imaginons que je me balade
et je me dis,
08:18
"Oh, there's ChrisChris AndersonAnderson.
214
486454
1363
« Oh, je vais croiser Chris Anderson,
il vient vers moi.
08:19
He's comingvenir my way.
215
487817
1525
08:21
I'd better think of something cleverintelligent to say.
216
489342
2335
Il faut que je trouve
quelque chose d'intelligent à dire...
08:23
I've got threeTrois secondssecondes.
217
491677
1524
J'ai trois secondes pour ça.
08:25
My 300 millionmillion modulesmodules in my neocortexnéocortex
218
493201
3097
Les 300 millions de modules
de mon néocortex
08:28
isn't going to cutCouper it.
219
496298
1240
ne seront pas suffisants.
08:29
I need a billionmilliard more."
220
497538
1246
J'en ai besoin d'un milliard de plus. »
08:30
I'll be ablecapable to accessaccès that in the cloudnuage.
221
498784
3323
Je serai alors capable
d'y accéder via le cloud.
08:34
And our thinkingen pensant, then, will be a hybridhybride
222
502107
2812
Alors nous disposerons
d'un système de pensée hybride
08:36
of biologicalbiologique and non-biologicalnon biologiques thinkingen pensant,
223
504919
3522
fonctionnant sur des composants
biologiques et non biologiques,
08:40
but the non-biologicalnon biologiques portionportion
224
508441
1898
mais la partie non-biologique
08:42
is subjectassujettir to my lawloi of acceleratingaccélérer returnsrésultats.
225
510339
2682
est sujette à ma loi du retour accéléré.
08:45
It will growcroître exponentiallyexponentiellement.
226
513021
2239
Elle va grandir de manière exponentielle.
08:47
And rememberrappelles toi what happensarrive
227
515260
2016
Souvenez-vous alors ce qu'il s'est passé
il y a deux millions d'années
08:49
the last time we expandedétendu our neocortexnéocortex?
228
517276
2645
la dernière fois que nous avons
agrandi notre néocortex,
08:51
That was two millionmillion yearsannées agodepuis
229
519921
1426
08:53
when we becamedevenu humanoidshumanoïdes
230
521347
1236
lorsque nous sommes devenus
des humanoïdes et reçu ce grand front.
08:54
and developeddéveloppé these largegrand foreheadsfronts.
231
522583
1594
08:56
Other primatesprimates have a slantedinclinée browsourcils.
232
524177
2583
Les autres primates
ont des sourcils inclinés.
08:58
They don't have the frontalfrontal cortexcortex.
233
526760
1745
Ils n'ont pas de cortex frontal.
09:00
But the frontalfrontal cortexcortex is not
really qualitativelypoint de vue qualitatif differentdifférent.
234
528505
3685
Mais le cortex frontal n'est pas vraiment
différent qualitativement parlant.
09:04
It's a quantitativequantitatif expansionexpansion of neocortexnéocortex,
235
532190
2743
C'est une expansion
en taille du néocortex,
09:06
but that additionalsupplémentaires quantityquantité of thinkingen pensant
236
534933
2703
mais cette quantité additionnelle
de capacité de réflexion
09:09
was the enablingpermettant factorfacteur for us to take
237
537636
1779
nous a permis alors de prendre
09:11
a qualitativequalitative leapsaut and inventinventer languagela langue
238
539415
3346
une longueur d'avance
et de créer le langage
09:14
and artart and sciencescience and technologyLa technologie
239
542761
1967
ainsi que l'art et la technologie
09:16
and TEDTED conferencesconférences.
240
544728
1454
et les conférences TED.
09:18
No other speciesespèce has doneterminé that.
241
546182
2131
Aucune autre espèce n'a fait ça.
09:20
And so, over the nextprochain fewpeu decadesdécennies,
242
548313
2075
Par conséquent,
au cours des prochaines décénnies,
09:22
we're going to do it again.
243
550388
1760
nous allons répéter ça.
09:24
We're going to again expanddévelopper our neocortexnéocortex,
244
552148
2274
Nous allons à nouveau
agrandir notre néocortex,
09:26
only this time we won'thabitude be limitedlimité
245
554422
1756
seulement cette fois,
nous ne serons pas limités
09:28
by a fixedfixé architecturearchitecture of enclosureenceinte.
246
556178
4280
à un contenu fixe.
09:32
It'llÇa va be expandedétendu withoutsans pour autant limitlimite.
247
560458
3304
Il pourra grossir sans limite.
09:35
That additionalsupplémentaires quantityquantité will again
248
563762
2243
Cette quantité additionnelle
sera à nouveau
09:38
be the enablingpermettant factorfacteur for anotherun autre qualitativequalitative leapsaut
249
566005
3005
le facteur nous permettant
un gigantesque progrès
09:41
in cultureCulture and technologyLa technologie.
250
569010
1635
dans les domaines
de la culture et de la technologie.
09:42
Thank you very much.
251
570645
2054
Merci beaucoup.
09:44
(ApplauseApplaudissements)
252
572699
3086
(Applaudissements)
Translated by Chiara Pecoraro
Reviewed by Elisabeth Buffard

▲Back to top

ABOUT THE SPEAKER
Ray Kurzweil - Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species.

Why you should listen

Inventor, entrepreneur, visionary, Ray Kurzweil's accomplishments read as a startling series of firsts -- a litany of technological breakthroughs we've come to take for granted. Kurzweil invented the first optical character recognition (OCR) software for transforming the written word into data, the first print-to-speech software for the blind, the first text-to-speech synthesizer, and the first music synthesizer capable of recreating the grand piano and other orchestral instruments, and the first commercially marketed large-vocabulary speech recognition.

Yet his impact as a futurist and philosopher is no less significant. In his best-selling books, which include How to Create a Mind, The Age of Spiritual Machines, The Singularity Is Near: When Humans Transcend Biology, Kurzweil depicts in detail a portrait of the human condition over the next few decades, as accelerating technologies forever blur the line between human and machine.

In 2009, he unveiled Singularity University, an institution that aims to "assemble, educate and inspire leaders who strive to understand and facilitate the development of exponentially advancing technologies." He is a Director of Engineering at Google, where he heads up a team developing machine intelligence and natural language comprehension.

More profile about the speaker
Ray Kurzweil | Speaker | TED.com