ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com
TED2003

Jeff Hawkins: How brain science will change computing

Jeff Hawkins - Comment la science du cerveau va changer l'informatique

Filmed:
1,674,773 views

Jeff Hawkins, créateur de Treo, nous invite à porter un oeil nouveau sur le cerveau - pour le voir non pas comme un processeur rapide, mais comme un système de mémoire qui stocke et réutilise les expériences passées afin de nous aider à prédire intelligemment ce qui va arriver.
- Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools. Full bio

Double-click the English transcript below to play the video.

00:25
I do two things: I designconception mobilemobile computersdes ordinateurs and I studyétude brainscerveaux.
0
0
3000
Je fais deux choses. Je conçois des ordinateurs portables, et j'étudie le cerveau.
00:29
And today'saujourd'hui talk is about brainscerveaux and,
1
4000
2000
La conférence d'aujourd'hui parlera du cerveau, et
00:31
yayYay, somewherequelque part I have a braincerveau fanventilateur out there.
2
6000
2000
super, il y a un fan des cerveaux dans la salle !
00:33
(LaughterRires)
3
8000
2000
(Rires)
00:35
I'm going to, if I can have my first slidefaire glisser up here,
4
10000
2000
Maintenant, si on peut afficher mon premier slide là-haut,
00:37
and you'lltu vas see the titleTitre of my talk and my two affiliationsaffiliations.
5
12000
4000
vous verrez le titre de ma conférence et mes deux affiliations.
00:41
So what I'm going to talk about is why we don't have a good braincerveau theorythéorie,
6
16000
4000
Donc, mon sujet sera la raison pour laquelle on n'a pas de bonne théorie de cerveau,
00:45
why it is importantimportant that we should developdévelopper one and what we can do about it.
7
20000
3000
pourquoi il est important qu'on en développe une, et ce qu'on peut faire pour ça.
00:48
And I'll try to do all that in 20 minutesminutes. I have two affiliationsaffiliations.
8
23000
3000
Et j'essayerai de faire tout ça en 20 minutes. J'ai deux affiliations.
00:51
MostPlupart of you know me from my PalmPalm and HandspringHandspring daysjournées,
9
26000
3000
La plupart d'entre vous me connaissent par mon travail chez Palm et Handsprings,
00:54
but I alsoaussi runcourir a nonprofitnon lucratif scientificscientifique researchrecherche instituteinstitut
10
29000
3000
mais je gère aussi un institut de recherche à but non lucratif,
00:57
calledappelé the RedwoodSéquoia NeuroscienceNeuroscience InstituteInstitut in MenloMenlo ParkParc,
11
32000
2000
appelé "Redwood Neuroscience Institute", à Menlo Park,
00:59
and we studyétude theoreticalthéorique neuroscienceneuroscience,
12
34000
2000
où on étudie la neuroscience théorique
01:01
and we studyétude how the neocortexnéocortex workstravaux.
13
36000
2000
et comment fonctionne le néocortex.
01:03
I'm going to talk all about that.
14
38000
2000
C'est de cela en particulier que je vais parler.
01:05
I have one slidefaire glisser on my other life, the computerordinateur life, and that's the slidefaire glisser here.
15
40000
3000
J'ai un slide qui concerne mon autre vie, ma vie informatique, c'est celui-là.
01:08
These are some of the productsdes produits I've workedtravaillé on over the last 20 yearsannées,
16
43000
3000
Voici quelques uns des produits sur lesquels j'ai travaillé ces 20 dernières années,
01:11
startingdépart back from the very originaloriginal laptopportable to some of the first tablettablette computersdes ordinateurs
17
46000
4000
du tout premier ordinateur portable à certaines des premières tablettes informatiques,
01:15
and so on, and endingfin up mostles plus recentlyrécemment with the TreoTreo,
18
50000
2000
et ainsi de suite jusqu'au Treo le plus récemment,
01:17
and we're continuingcontinuer to do this.
19
52000
2000
et on continue à travailler dessus.
01:19
And I've doneterminé this because I really believe that mobilemobile computingl'informatique
20
54000
2000
J'ai fait cela car je crois vraiment que l'informatique mobile
01:21
is the futureavenir of personalpersonnel computingl'informatique, and I'm tryingen essayant to make the worldmonde
21
56000
3000
est le futur de l'informatique personnelle, et j'essaie de rendre le monde
01:24
a little bitbit better by workingtravail on these things.
22
59000
3000
un peu meilleur en travaillant sur ces choses.
01:27
But this was, I have to admitadmettre, all an accidentaccident.
23
62000
2000
Mais tout cela était, je dois l'avouer, totalement un accident.
01:29
I really didn't want to do any of these productsdes produits
24
64000
2000
En fait, je ne voulais faire aucun de ces produits
01:31
and very earlyde bonne heure in my careercarrière I decideddécidé
25
66000
2000
et très tôt dans ma carrière j'ai décidé
01:33
I was not going to be in the computerordinateur industryindustrie.
26
68000
3000
que je n'irais pas dans l'industrie informatique.
01:36
And before I tell you about that, I just have to tell you
27
71000
2000
Et avant que je ne vous raconte ça, il faut juste que je vous parle
01:38
this one little picturephoto of graffitiGraffiti there I pickedchoisi off the webweb the other day.
28
73000
2000
de cette petite image de graffiti que j'ai récupéré sur Internet l'autre jour.
01:40
I was looking for a picturephoto of graffitiGraffiti, little texttexte inputcontribution languagela langue,
29
75000
3000
Je cherchais une image de graffiti, un petit langage de saisie de texte,
01:43
and I founda trouvé the websitesite Internet dedicateddévoué to teachersenseignants who want to make these,
30
78000
3000
et j'ai trouvé le site dédié aux enseignants qui veulent en faire,
01:46
you know, the scriptscript writingl'écriture things acrossà travers the topHaut of theirleur blackboardTableau noir,
31
81000
3000
vous savez, le script qui écrit des choses en haut de leur tableau,
01:49
and they had addedajoutée graffitiGraffiti to it, and I'm sorry about that.
32
84000
3000
et ils y avaient ajouté des graffiti, ce dont je suis désolé.
01:52
(LaughterRires)
33
87000
2000
(Rires)
01:54
So what happenedarrivé was, when I was youngJeune and got out of engineeringingénierie schoolécole
34
89000
5000
Donc, ce qui c'est passé, c'est que dans ma jeunesse, après être sorti de l'école d'ingénieur
01:59
at CornellCornell in '79, I decideddécidé -- I wentest allé to work for IntelIntel and
35
94000
4000
Cornell en 1979, j'ai décidé d'aller travailler pour Intel.
02:03
I was in the computerordinateur industryindustrie -- and threeTrois monthsmois into that,
36
98000
3000
J'étais dans l'industrie informatique, et au bout de trois mois là-dedans,
02:06
I fellest tombée in love with something elseautre, and I said, "I madefabriqué the wrongfaux careercarrière choicechoix here,"
37
101000
4000
je suis tombé amoureux d'autre chose, et je me suis dit: "Je me suis trompé de carrière",
02:10
and I fellest tombée in love with brainscerveaux.
38
105000
3000
et je suis tombé amoureux des cerveaux.
02:13
This is not a realréal braincerveau. This is a picturephoto of one, a lineligne drawingdessin.
39
108000
3000
Ça n'est pas un vrai cerveau. C'est une image, un dessin.
02:16
But I don't rememberrappelles toi exactlyexactement how it happenedarrivé,
40
111000
3000
Je ne me souviens pas exactement comment ça s'est passé,
02:19
but I have one recollectionRecollection, whichlequel was prettyjoli strongfort in my mindesprit.
41
114000
3000
mais j'ai un souvenir, assez net dans mon esprit.
02:22
In SeptemberSeptembre 1979, ScientificScientifique AmericanAméricain camevenu out
42
117000
3000
En septembre 1979, le magazine Scientific American
02:25
with a singleunique topicsujet issueproblème about the braincerveau. And it was quiteassez good.
43
120000
3000
avec un numéro spécial sur le cerveau. Et il était assez bon.
02:28
It was one of the bestmeilleur issuesproblèmes ever. And they talkeda parlé about the neuronneurone
44
123000
3000
Ce fut l'un de leurs meilleurs numéros. Ils parlaient de neurones,
02:31
and developmentdéveloppement and diseasemaladie and visionvision and all the things
45
126000
2000
du leurs développement et de leurs maladies, de la vue,
02:33
you mightpourrait want to know about brainscerveaux. It was really quiteassez impressiveimpressionnant.
46
128000
3000
et de tout ce qu'on pouvait désirer savoir sur le cerveau. C'était vraiment impressionnant.
02:36
And one mightpourrait have the impressionimpression that we really knewa connu a lot about brainscerveaux.
47
131000
3000
On pouvait avoir l'impression qu'on connaissant vraiment beaucoup de choses sur le cerveau.
02:39
But the last articlearticle in that issueproblème was writtenécrit by FrancisFrancis CrickCrick of DNAADN famecélébrité.
48
134000
4000
Mais le dernier article de ce numéro était écrit par Francis Crick, connu pour l'ADN.
02:43
TodayAujourd'hui is, I think, the 50thth anniversaryanniversaire of the discoveryDécouverte of DNAADN.
49
138000
3000
C'est aujourd'hui, je pense, le 50ème anniversaire de la découverte de l'ADN.
02:46
And he wrotea écrit a storyrécit basicallyen gros sayingen disant,
50
141000
2000
Et il avait écrit un article qui disait, en gros,
02:48
well, this is all well and good, but you know what,
51
143000
3000
tout ça c'est bien joli, mais vous savez quoi,
02:51
we don't know diddleyDiddley squatsquat about brainscerveaux
52
146000
2000
on n'y connaît que dalle sur le cerveau
02:53
and no one has a clueindice how these things work,
53
148000
2000
et personne ne sait comment ce truc fonctionne,
02:55
so don't believe what anyonen'importe qui tellsraconte you.
54
150000
2000
alors, ne croyez pas ce que quiconque vous dira.
02:57
This is a quotecitation from that articlearticle. He said, "What is conspicuouslyvisiblement lackingmanquant,"
55
152000
3000
Dans un extrait de l'article, il dit : "Ce qui manque ostensiblement",
03:00
he's a very properbon BritishBritannique gentlemangentilhomme so, "What is conspicuouslyvisiblement lackingmanquant
56
155000
4000
c'était un vrai gentleman anglais, donc, "ce qui manque ostensiblement,
03:04
is a broadvaste frameworkcadre of ideasidées in whichlequel to interpretinterpréter these differentdifférent approachesapproches."
57
159000
3000
c'est un vaste cadre d'idées au sein duquel interpréter ces différentes approches."
03:07
I thought the wordmot frameworkcadre was great.
58
162000
2000
J'ai pensé que le terme de "cadre" était formidable.
03:09
He didn't say we didn't even have a theorythéorie. He saysdit,
59
164000
2000
Il n'a pas dit qu'on n'avait même pas de théorie. Il dit,
03:11
we don't even know how to begincommencer to think about it --
60
166000
2000
on ne sait même pas par où commencer à y penser,
03:13
we don't even have a frameworkcadre.
61
168000
2000
on n'a même pas de cadre.
03:15
We are in the pre-paradigmparadigme avant daysjournées, if you want to use ThomasThomas KuhnKuhn.
62
170000
3000
On est dans un stade pré-paradigmatique, en se référant à Thomas Kohn.
03:18
And so I fellest tombée in love with this, and said look,
63
173000
3000
Je suis tombé amoureux de cela, et j'ai dit, regarde,
03:21
we have all this knowledgeconnaissance about brainscerveaux. How harddifficile can it be?
64
176000
3000
on a tout ces connaissances à propos du cerveau. C'est si difficile que ça ?
03:24
And this is something we can work on my lifetimedurée de vie. I feltse sentait I could make a differencedifférence,
65
179000
3000
C'est quelque chose sur quoi on peut travailler aujourd'hui. J'ai senti que je pouvais faire une différence,
03:27
and so I trieda essayé to get out of the computerordinateur businessEntreprise, into the braincerveau businessEntreprise.
66
182000
4000
et j'ai donc essayé de sortir de l'industrie informatique, pour entrer dans le domaine du cerveau.
03:31
First, I wentest allé to MITMIT, the AIAI lablaboratoire was there,
67
186000
2000
Premièrement, je suis entré au MIT, où se trouvait le A.l Lab (NdT : Laboratoire d'Intelligence Artificielle du M.I.T)
03:33
and I said, well, I want to buildconstruire intelligentintelligent machinesmachines, too,
68
188000
2000
et je me suis dit, je veux construire des machines intelligentes moi aussi,
03:35
but the way I want to do it is to studyétude how brainscerveaux work first.
69
190000
3000
mais pour faire ça, je vais commencer par étudier le fonctionnement du cerveau.
03:38
And they said, oh, you don't need to do that.
70
193000
3000
Et ils ont dit, oh, vous n'avez pas besoin de faire ça.
03:41
We're just going to programprogramme computersdes ordinateurs; that's all we need to do.
71
196000
2000
On va juste programmer des ordinateurs, c'est tout ce qu'on doit faire.
03:43
And I said, no, you really oughtdevrait to studyétude brainscerveaux. They said, oh, you know,
72
198000
3000
Et j'ai dit, non, vous devriez vraiment étudier le cerveau. Ils ont dit, oh, vous savez,
03:46
you're wrongfaux. And I said, no, you're wrongfaux, and I didn't get in.
73
201000
2000
vous avez tort. Et j'ai dit, non, vous avez tort, et je n'ai pas été pris.
03:48
(LaughterRires)
74
203000
1000
(Rires)
03:50
But I was a little disappointeddésappointé -- prettyjoli youngJeune -- but I wentest allé back again
75
205000
2000
Mais j'étais un peu déçu - assez jeune, mais j'y suis retourné
03:52
a fewpeu yearsannées laterplus tard and this time was in CaliforniaCalifornie, and I wentest allé to BerkeleyBerkeley.
76
207000
3000
quelques années plus tard, cette fois en Californie, et je suis allé à Berkeley.
03:55
And I said, I'll go in from the biologicalbiologique sidecôté.
77
210000
4000
Et je me suis dit, je vais y aller par le côté biologique.
03:59
So I got in -- in the PhPH.D. programprogramme in biophysicsbiophysique, and I was, all right,
78
214000
3000
Donc j'ai été pris - dans un programme doctoral en Biophysique.
04:02
I'm studyingen train d'étudier brainscerveaux now, and I said, well, I want to studyétude theorythéorie.
79
217000
3000
J'étudiais enfin le cerveau, et je me suis dit, bon, je veux étudier la théorie.
04:05
And they said, oh no, you can't studyétude theorythéorie about brainscerveaux.
80
220000
2000
Et ils ont dit, oh non, vous ne pouvez pas étudier la théorie à propos du cerveau.
04:07
That's not something you do. You can't get fundedfinancé for that.
81
222000
2000
Ce n'est pas quelque chose qu'on fait. Vous n'aurez pas de subventions pour ça.
04:09
And as a graduatediplômé studentétudiant, you can't do that. So I said, oh my goshça alors.
82
224000
4000
En tant qu'étudiant en troisième cycle, vous ne pouvez pas faire ça. Donc je me suis dit, oh mon dieu.
04:13
I was very depresseddéprimé. I said, but I can make a differencedifférence in this fieldchamp.
83
228000
2000
J'étais très déprimé. J'ai dit, je peux faire une différence dans ce domaine.
04:15
So what I did is I wentest allé back in the computerordinateur industryindustrie
84
230000
3000
Donc ce que j'ai fait, c'est de retourner dans l'industrie informatique,
04:18
and said, well, I'll have to work here for a while, do something.
85
233000
2000
et je me suis dit, bon, il faut que je travaille là-dedans pendant un temps, il faut que je fasse quelque chose.
04:20
That's when I designedconçu all those computerordinateur productsdes produits.
86
235000
3000
C'est là que j'ai créé tous ces produits informatiques.
04:23
(LaughterRires)
87
238000
1000
(Rires)
04:24
And I said, I want to do this for fourquatre yearsannées, make some moneyargent,
88
239000
3000
Je me suis dit, je vais faire ça pendant quatre ans, me faire de l'argent,
04:27
like I was havingayant a familyfamille, and I would maturemature a bitbit,
89
242000
4000
comme j'avais une famille, et je deviendrais un peu plus mûr,
04:31
and maybe the businessEntreprise of neuroscienceneuroscience would maturemature a bitbit.
90
246000
3000
et peut-être que les neurosciences mûriraient aussi un peu.
04:34
Well, it tooka pris longerplus long than fourquatre yearsannées. It's been about 16 yearsannées.
91
249000
3000
Ça a mis plus longtemps que quatre ans. Ça a pris 16 ans.
04:37
But I'm doing it now, and I'm going to tell you about it.
92
252000
2000
Mais je le fais maintenant, et je vais vous en parler.
04:39
So why should we have a good braincerveau theorythéorie?
93
254000
3000
Donc, pourquoi devrions-nous avoir une bonne théorie du cerveau ?
04:42
Well, there's lots of reasonsles raisons people do sciencescience.
94
257000
3000
À vrai dire, il y a beaucoup de raisons pour lesquelles les gens font des sciences.
04:45
One is -- the mostles plus basicde base one is -- people like to know things.
95
260000
3000
L'une d'elle - la plus basique - est que les gens aiment connaître les choses.
04:48
We're curiouscurieuse, and we just go out and get knowledgeconnaissance, you know?
96
263000
2000
Nous sommes curieux, et nous allons juste chercher des connaissances, vous voyez ?
04:50
Why do we studyétude antsfourmis? Well, it's interestingintéressant.
97
265000
2000
Pourquoi est-ce qu'on étudie les fourmis ? Parce que c'est intéressant.
04:52
Maybe we'llbien learnapprendre something really usefulutile about it, but it's interestingintéressant and fascinatingfascinant.
98
267000
3000
Peut-être qu'on y apprendra quelque chose d'utile, mais c'est intéressant et fascinant.
04:55
But sometimesparfois, a sciencescience has some other attributesattributs
99
270000
2000
Mais parfois, une science a d'autres attributs,
04:57
whichlequel makesfait du it really, really interestingintéressant.
100
272000
2000
qui la rendent vraiment, vraiment intéressante.
04:59
SometimesParfois a sciencescience will tell something about ourselvesnous-mêmes,
101
274000
3000
Parfois, une science nous dira quelque chose sur nous-mêmes,
05:02
it'llça va tell us who we are.
102
277000
1000
elle nous dira qui nous sommes.
05:03
RarelyRarement, you know: evolutionévolution did this and CopernicusCopernic did this,
103
278000
3000
Pas souvent, mais la théorie de l'évolution a eu cet effet. Copernic aussi,
05:06
where we have a newNouveau understandingcompréhension of who we are.
104
281000
2000
et nous avons une meilleure compréhension de qui nous sommes.
05:08
And after all, we are our brainscerveaux. My braincerveau is talkingparlant to your braincerveau.
105
283000
4000
Et après tout, nous sommes notre cerveau. Mon cerveau parle à votre cerveau.
05:12
Our bodiescorps are hangingpendaison alongle long de for the ridebalade, but my braincerveau is talkingparlant to your braincerveau.
106
287000
3000
Nos corps suivent, mais c'est mon cerveau qui parle à votre cerveau.
05:15
And if we want to understandcomprendre who we are and how we feel and perceivepercevoir,
107
290000
3000
Et si nous voulons comprendre qui nous sommes, comment nous ressentons et percevons,
05:18
we really understandcomprendre what brainscerveaux are.
108
293000
2000
il faut vraiment comprendre ce qu'est le cerveau.
05:20
AnotherUn autre thing is sometimesparfois sciencescience
109
295000
2000
Un autre élément est que parfois la science
05:22
leadspistes to really biggros societalsociétales benefitsavantages and technologiesles technologies,
110
297000
2000
nous mène à de vraiment gros avantages sociaux et technologiques,
05:24
or businessesentreprises, or whateverpeu importe, that come out of it. And this is one, too,
111
299000
2000
ou commerciaux, ou autres, qui en sont issus. Et c'en est un, aussi,
05:26
because when we understandcomprendre how brainscerveaux work, we're going to be ablecapable
112
301000
3000
car quand nous comprenondrons comment le cerveau fonctionne, nous serons capables
05:29
to buildconstruire intelligentintelligent machinesmachines, and I think that's actuallyréellement a good thing on the wholeentier,
113
304000
3000
de construire des machines intelligentes, et à vrai dire je pense que c'est une bonne chose globalement,
05:32
and it's going to have tremendousénorme benefitsavantages to societysociété,
114
307000
2000
cela va avoir des avantages immenses pour la société,
05:34
just like a fundamentalfondamental technologyLa technologie.
115
309000
2000
comme une technologie fondamentale.
05:36
So why don't we have a good theorythéorie of brainscerveaux?
116
311000
2000
Donc, pourquoi n'avons-nous pas de bonne théorie du cerveau ?
05:38
And people have been workingtravail on it for 100 yearsannées.
117
313000
3000
Et il y a des gens qui ont travaillé là-dessus depuis 100 ans.
05:41
Well, let's first take a look at what normalnormal sciencescience looksregards like.
118
316000
2000
Tout d'abord, regardons ce à quoi ressemble la science normale.
05:43
This is normalnormal sciencescience.
119
318000
2000
Voilà la science normale.
05:45
NormalNormal sciencescience is a niceagréable balanceéquilibre betweenentre theorythéorie and experimentalistsexpérimentateurs.
120
320000
4000
La science normale est un équilibre entre théories et expérimentations.
05:49
And so the theoristthéoricien guys say, well, I think this is what's going on,
121
324000
2000
Le théoricien dit, voilà, je pense que c'est ce qui se passe,
05:51
and the experimentalistexpérimentaliste saysdit, no, you're wrongfaux.
122
326000
2000
et l'expérimentateur dit, non, vous avez tort.
05:53
And it goesva back and forthavant, you know?
123
328000
2000
Et ça fait des allers-retours, vous voyez ?
05:55
This workstravaux in physicsla physique. This workstravaux in geologygéologie. But if this is normalnormal sciencescience,
124
330000
2000
Ça marche pour la physique. Et pour la géologie. Mais si c'est ça la science normale,
05:57
what does neuroscienceneuroscience look like? This is what neuroscienceneuroscience looksregards like.
125
332000
3000
à quoi ressemble la neuroscience ? Voilà à quoi la neuroscience ressemble.
06:00
We have this mountainMontagne of dataLes données, whichlequel is anatomyanatomie, physiologyphysiologie and behaviorcomportement.
126
335000
5000
On a cette montagne de données, l'anatomie, la physiologie, le comportement.
06:05
You can't imagineimaginer how much detaildétail we know about brainscerveaux.
127
340000
3000
Vous n'imaginez pas combien de détails on connaît à propos du cerveau.
06:08
There were 28,000 people who wentest allé to the neuroscienceneuroscience conferenceconférence this yearan,
128
343000
4000
Il y a 28000 personnes qui sont allées à la conférence sur la neuroscience cette année,
06:12
and everychaque one of them is doing researchrecherche in brainscerveaux.
129
347000
2000
et chacune d'entre elles faisaient des recherches sur le cerveau.
06:14
A lot of dataLes données. But there's no theorythéorie. There's a little, wimpyWimpy boxboîte on topHaut there.
130
349000
4000
Beaucoup de données. Mais il n'y a pas de théorie. Il y a une petite boîte timide là-haut.
06:18
And theorythéorie has not playedjoué a rolerôle in any sortTrier of grandgrandiose way in the neurosciencesneurosciences.
131
353000
5000
Et la théorie n'a joué aucun rôle majeur en neurosciences.
06:23
And it's a realréal shamela honte. Now why has this come about?
132
358000
3000
C'est vraiment dommage. Comment ça se fait ?
06:26
If you askdemander neuroscientistsneuroscientifiques, why is this the stateEtat of affairaffaire,
133
361000
2000
Si vous demandez à des neuroscientifiques pourquoi il en est ainsi,
06:28
they'llils vont first of all admitadmettre it. But if you askdemander them, they'llils vont say,
134
363000
3000
déjà, ils confirmeront. Mais si vous leur demandez, ils vous diront,
06:31
well, there's variousdivers reasonsles raisons we don't have a good braincerveau theorythéorie.
135
366000
3000
eh bien, il y a diverses raisons pour lesquelles on n'a pas de bonne théorie du cerveau.
06:34
Some people say, well, we don't still have enoughassez dataLes données,
136
369000
2000
Certains diront qu'on n'a pas encore assez de données,
06:36
we need to get more informationinformation, there's all these things we don't know.
137
371000
3000
on doit rassembler plus d'informations, il y a toutes ces choses qu'on ignore.
06:39
Well, I just told you there's so much dataLes données comingvenir out your earsoreilles.
138
374000
3000
Mais je vous ai dit qu'on croule sous les données.
06:42
We have so much informationinformation, we don't even know how to begincommencer to organizeorganiser it.
139
377000
3000
On a tant d'informations qu'on ne sait pas par où commencer pour les organiser.
06:45
What good is more going to do?
140
380000
2000
À quoi servirait d'en avoir plus ?
06:47
Maybe we'llbien be luckychanceux and discoverdécouvrir some magicla magie thing, but I don't think so.
141
382000
3000
On sera peut-être chanceux et on découvrira quelque chose de magique, mais je n'y crois pas.
06:50
This is actuallyréellement a symptomsymptôme of the factfait that we just don't have a theorythéorie.
142
385000
3000
C'est en fait simplement un symptôme de l'absence de théorie.
06:53
We don't need more dataLes données -- we need a good theorythéorie about it.
143
388000
3000
On n'a pas besoin de plus de données, on a besoin d'une bonne théorie à leur sujet.
06:56
AnotherUn autre one is sometimesparfois people say, well, brainscerveaux are so complexcomplexe,
144
391000
3000
Parfois, les gens disent que le cerveau est si complexe
06:59
it'llça va take anotherun autre 50 yearsannées.
145
394000
2000
que ça prendra 50 ans de plus.
07:01
I even think ChrisChris said something like this yesterdayhier.
146
396000
2000
Je crois même que Chris a dit quelque chose comme ça hier.
07:03
I'm not sure what you said, ChrisChris, but something like,
147
398000
2000
Je ne suis pas sûr de ce que vous avez dit, Chris, mais c'était quelque chose dans le genre de :
07:05
well, it's one of the mostles plus complicatedcompliqué things in the universeunivers. That's not truevrai.
148
400000
3000
"C'est l'une des choses les plus compliquées de l'univers." Ce n'est pas vrai.
07:08
You're more complicatedcompliqué than your braincerveau. You've got a braincerveau.
149
403000
2000
Vous êtes plus compliqué que votre cerveau. Vous avez un cerveau.
07:10
And it's alsoaussi, althoughbien que the braincerveau looksregards very complicatedcompliqué,
150
405000
2000
Et c'est aussi que, bien que le cerveau semble très compliqué,
07:12
things look complicatedcompliqué untiljusqu'à you understandcomprendre them.
151
407000
3000
les choses semblent compliquées jusqu'à ce qu'on les comprennent.
07:15
That's always been the caseCas. And so all we can say, well,
152
410000
3000
Ça a toujours été le cas. Donc tout ce que nous pouvons dire,
07:18
my neocortexnéocortex, whichlequel is the partpartie of the braincerveau I'm interestedintéressé in, has 30 billionmilliard cellscellules.
153
413000
4000
c'est que mon néocortex, qui est la partie du cerveau qui m'intéresse, a 30 milliards de cellules.
07:22
But, you know what? It's very, very regularordinaire.
154
417000
2000
Mais vous savez quoi ? Il est vraiment très simple.
07:24
In factfait, it looksregards like it's the sameMême thing repeatedrépété over and over and over again.
155
419000
3000
En fait, on dirait que c'est la même chose qui se répète encore et encore et encore.
07:27
It's not as complexcomplexe as it looksregards. That's not the issueproblème.
156
422000
3000
Il n'est pas aussi compliqué qu'en apparence. Ce n'est pas le problème.
07:30
Some people say, brainscerveaux can't understandcomprendre brainscerveaux.
157
425000
2000
Certains disent que le cerveau ne peut pas comprendre le cerveau.
07:32
Very Zen-likeZen-comme. WhooWhoo. (LaughterRires)
158
427000
3000
C'est très zen comme idée. Wow ! Vous savez...
07:35
You know,
159
430000
1000
(Rires)
07:36
it soundsdes sons good, but why? I mean, what's the pointpoint?
160
431000
3000
Ça sonne bien mais pourquoi dire ça ? Ça mène à quoi ?
07:39
It's just a bunchbouquet of cellscellules. You understandcomprendre your liverfoie.
161
434000
3000
C'est juste un tas de cellules. Vous comprenez votre foie.
07:42
It's got a lot of cellscellules in it too, right?
162
437000
2000
Il est aussi composé de beaucoup de cellules, pas vrai ?
07:44
So, you know, I don't think there's anything to that.
163
439000
2000
Donc je ne pense pas que ça soit très juste de dire ça.
07:46
And finallyenfin, some people say, well, you know,
164
441000
2000
Et finalement, d'autres personnes disent
07:48
I don't feel like a bunchbouquet of cellscellules, you know. I'm consciousconscient.
165
443000
4000
qu'elles ne se sentent pas être un tas de cellules. Qu'elles sont conscientes.
07:52
I've got this experienceexpérience, I'm in the worldmonde, you know.
166
447000
2000
Je fais cette expérience, je vis dans ce monde.
07:54
I can't be just a bunchbouquet of cellscellules. Well, you know,
167
449000
2000
Je ne peux pas être simplement un tas de cellules.
07:56
people used to believe there was a life forceObliger to be livingvivant,
168
451000
3000
Les gens avaient l'habitude de penser qu'il y avait une force vitale,
07:59
and we now know that's really not truevrai at all.
169
454000
2000
et on sait aujourd'hui que ce n'est pas du tout vrai.
08:01
And there's really no evidencepreuve that saysdit -- well, other than people
170
456000
3000
Et il n'y a vraiment pas de preuve qui dise... Enfin, à part les gens
08:04
just have disbeliefincrédulité that cellscellules can do what they do.
171
459000
2000
qui ne croient pas que les cellules puissent faire ce qu'elles font.
08:06
And so, if some people have fallendéchu into the pitfosse of metaphysicalmétaphysique dualismdualisme,
172
461000
3000
Et donc, même si des gens sont tombés dans la fosse du dualisme métaphysique,
08:09
some really smartintelligent people, too, but we can rejectrejeter all that.
173
464000
3000
même des gens très intelligents, hé bien on peut rejeter tout ça.
08:12
(LaughterRires)
174
467000
2000
(Rires)
08:14
No, I'm going to tell you there's something elseautre,
175
469000
3000
Non, je vais vous dire qu'il y a quelque chose d'autre,
08:17
and it's really fundamentalfondamental, and this is what it is:
176
472000
2000
et c'est vraiment fondamental. Voilà ce qu'il en est :
08:19
there's anotherun autre reasonraison why we don't have a good braincerveau theorythéorie,
177
474000
2000
il y a une autre raison pour laquelle nous n'avons pas de théorie du cerveau satisfaisante,
08:21
and it's because we have an intuitiveintuitif, strongly-heldfortement-qui s’est tenue,
178
476000
3000
c'est parce qu'on a une supposition intuitive, très ferme,
08:24
but incorrectincorrecte assumptionsupposition that has preventedempêché us from seeingvoyant the answerrépondre.
179
479000
5000
mais incorrecte qui nous empêche de vois la réponse.
08:29
There's something we believe that just, it's obviousévident, but it's wrongfaux.
180
484000
3000
Il y a quelque chose qu'on croît évident, mais qui est faux.
08:32
Now, there's a historyhistoire of this in sciencescience and before I tell you what it is,
181
487000
4000
Il y a une histoire de ce type en science, et avant que je ne vous dise laquelle,
08:36
I'm going to tell you a bitbit about the historyhistoire of it in sciencescience.
182
491000
2000
je vais vous en dire un peu plus sur l'histoire à ce sujet en science.
08:38
You look at some other scientificscientifique revolutionsrévolutions,
183
493000
2000
Si vous regardez certaines des autres révolutions scientifiques,
08:40
and this caseCas, I'm talkingparlant about the solarsolaire systemsystème, that's CopernicusCopernic,
184
495000
2000
dans le cas présent, je parle du système solaire, avec Corpernic,
08:42
Darwin'sDe Darwin evolutionévolution, and tectonictectoniques platesplaques, that's WegenerWegener.
185
497000
3000
l'évolution de Darwin, et les plaques tectoniques de Wegener.
08:45
They all have a lot in commoncommun with braincerveau sciencescience.
186
500000
3000
Elles ont toutes beaucoup en commun avec la science du cerveau.
08:48
First of all, they had a lot of unexplainedinexpliqué dataLes données. A lot of it.
187
503000
3000
Tout d'abord, il y avait toutes ces données inexpliquées. Un tas de données.
08:51
But it got more manageablefacile à gérer onceune fois que they had a theorythéorie.
188
506000
3000
Mais elles sont devenues gérables une fois qu'il y a eu une théorie.
08:54
The bestmeilleur mindsesprits were stumpedperplexe -- really, really smartintelligent people.
189
509000
3000
Les meilleurs esprits séchaient, des gens vraiment, vraiment intelligents.
08:57
We're not smarterplus intelligent now than they were then.
190
512000
2000
Nous ne sommes pas plus intelligents maintenant qu'à leur époque.
08:59
It just turnsse tourne out it's really harddifficile to think of things,
191
514000
2000
Il s'avère juste qu'il est vraiment très difficile de penser les choses,
09:01
but onceune fois que you've thought of them, it's kindgentil of easyfacile to understandcomprendre it.
192
516000
2000
mais une fois que vous y avez pensé, il est relativement aisé de les comprendre.
09:03
My daughtersfilles understoodcompris these threeTrois theoriesthéories
193
518000
2000
Mes filles ont compris ces trois théories
09:05
in theirleur basicde base frameworkcadre by the time they were in kindergartenjardin d’enfants.
194
520000
3000
dans leur cadre général en maternelle.
09:08
And now it's not that harddifficile, you know, here'svoici the applePomme, here'svoici the orangeOrange,
195
523000
3000
Ce n'est pas si dure, vous savez, voilà la pomme, voilà l'orange,
09:11
you know, the EarthTerre goesva around, that kindgentil of stuffdes trucs.
196
526000
3000
la Terre tourne, et tout ça.
09:14
FinallyEnfin, anotherun autre thing is the answerrépondre was there all alongle long de,
197
529000
2000
Enfin, une autre chose est que la réponse était là depuis le début,
09:16
but we kindgentil of ignoredignoré it because of this obviousévident thing, and that's the thing.
198
531000
3000
mais on l'avait plus ou moins ignorée à cause de cette chose évidente.
09:19
It was an intuitiveintuitif, strong-heldforte tenue beliefcroyance that was wrongfaux.
199
534000
3000
C'est cette croyance intuitive et fermement ancrée qui était fausse.
09:22
In the caseCas of the solarsolaire systemsystème, the ideaidée that the EarthTerre is spinningfilage
200
537000
3000
Dans le cas du système solaire, l'idée que la Terre tournait
09:25
and the surfacesurface of the EarthTerre is going like a thousandmille milesmiles an hourheure,
201
540000
3000
et que la surface de la Terre bougeait à disons 1500 km/h,
09:28
and the EarthTerre is going throughpar the solarsolaire systemsystème about a millionmillion milesmiles an hourheure.
202
543000
3000
et que la Terre fonce à travers le système solaire à environ 1500000 km/h.
09:31
This is lunacyfolie. We all know the EarthTerre isn't movingen mouvement.
203
546000
2000
C'est du délire. Tout le monde sait que la Terre ne bouge pas.
09:33
Do you feel like you're movingen mouvement a thousandmille milesmiles an hourheure?
204
548000
2000
Est-ce que vous sentez que vous bougez à 1500km/h ?
09:35
Of coursecours not. You know, and someoneQuelqu'un who said,
205
550000
2000
Bien sûr que non. Et quelqu'un qui disait,
09:37
well, it was spinningfilage around in spaceespace and it's so hugeénorme,
206
552000
2000
en fait, elle tourne dans l'espace et est énorme,
09:39
they would lockfermer à clé you up, and that's what they did back then.
207
554000
2000
ils l'enfermaient, c'est ce qu'ils faisaient à cette époque.
09:41
(LaughterRires)
208
556000
1000
(Rires)
09:42
So it was intuitiveintuitif and obviousévident. Now what about evolutionévolution?
209
557000
3000
Donc c'était intuitif et évident. Et maintenant, qu'en est-il pour l'évolution ?
09:45
Evolution'sEvolution the sameMême thing. We taughtenseigné our kidsdes gamins, well, the BibleBible saysdit,
210
560000
3000
C'est la même chose pour l'évolution. On enseignait à nos enfants que la Bible dit
09:48
you know, God createdcréé all these speciesespèce, catschats are catschats, dogschiens are dogschiens,
211
563000
2000
que Dieu a créé toutes ces espèces, que les chats sont des chats, les chiens sont des chiens,
09:50
people are people, plantsles plantes are plantsles plantes, they don't changechangement.
212
565000
3000
les gens sont des gens, les plantes sont des plantes, donc ils ne changent pas.
09:53
NoahNoé put them on the ArkArk in that ordercommande, blahblabla, blahblabla, blahblabla. And, you know,
213
568000
4000
Noé les a mis dans son Arche dans cet ordre, bla bla bla.
09:57
the factfait is, if you believe in evolutionévolution, we all have a commoncommun ancestorancêtre,
214
572000
4000
Et vous savez, le fait est que si vous croyez en l'évolution, nous avons tous un ancêtre commun,
10:01
and we all have a commoncommun ancestryascendance with the plantplante in the lobbyhall.
215
576000
3000
et nous avons tous une parenté commune avec la plant dans le hall.
10:04
This is what evolutionévolution tellsraconte us. And, it's truevrai. It's kindgentil of unbelievableincroyable.
216
579000
3000
C'est ce que l'évolution nous enseigne. Et c'est vrai. C'est assez incroyable.
10:07
And the sameMême thing about tectonictectoniques platesplaques, you know?
217
582000
3000
Et c'est la même chose avec les plaques tectoniques.
10:10
All the mountainsles montagnes and the continentscontinents are kindgentil of floatingflottant around
218
585000
2000
Toutes les montages et les continents flottent de-ci de-là
10:12
on topHaut of the EarthTerre, you know? It's like, it doesn't make any sensesens.
219
587000
4000
sur la surface de la Terre. Ça ne fait aucun sens.
10:16
So what is the intuitiveintuitif, but incorrectincorrecte assumptionsupposition,
220
591000
4000
Donc quelle est la supposition intuitive, mais incorrecte,
10:20
that's keptconservé us from understandingcompréhension brainscerveaux?
221
595000
2000
qui nous empêche de comprendre le cerveau ?
10:22
Now I'm going to tell it to you, and it's going to seemsembler obviousévident that that is correctcorrect,
222
597000
2000
Je vais vous la dire, et il va sembler évident que c'est juste,
10:24
and that's the pointpoint, right? Then I'm going to have to make an argumentargument
223
599000
2000
et c'est là le but, non ? Ensuite je vais devoir expliquer
10:26
why you're incorrectincorrecte about the other assumptionsupposition.
224
601000
2000
pourquoi vous avez tort avec l'autre supposition.
10:28
The intuitiveintuitif but obviousévident thing is that somehowen quelque sorte intelligenceintelligence
225
603000
3000
La chose intuitive et évidente est que quelque part l'intelligence
10:31
is defineddéfini by behaviorcomportement,
226
606000
2000
est définie par le comportement,
10:33
that we are intelligentintelligent because of the way that we do things
227
608000
2000
que nous sommes intelligents par la façon dont nous faisons les choses
10:35
and the way we behavese comporter intelligentlyintelligemment, and I'm going to tell you that's wrongfaux.
228
610000
3000
et la façon dont nous agissons intelligemment. Je vais vous dire que c'est une erreur.
10:38
What it is is intelligenceintelligence is defineddéfini by predictionprédiction.
229
613000
2000
Le fait est que l'intelligence est définie par la capacité de prédiction.
10:40
And I'm going to work you throughpar this in a fewpeu slidesglisse here,
230
615000
3000
Je vais vous guider avec quelques slides,
10:43
give you an exampleExemple of what this meansveux dire. Here'sVoici a systemsystème.
231
618000
4000
vous donner un exemple de ce que ça signifie. Voilà le système.
10:47
EngineersIngénieurs like to look at systemssystèmes like this. ScientistsScientifiques like to look at systemssystèmes like this.
232
622000
3000
Les ingénieurs aiment regarder les systèmes ainsi. Les scientifiques, eux, aiment regarder les systèmes comme ça.
10:50
They say, well, we have a thing in a boxboîte, and we have its inputscontributions and its outputssorties.
233
625000
3000
Ils disent "Bon, on a une chose dans une boîte, et il y a ses données d'entrée et de sortie."
10:53
The AIAI people said, well, the thing in the boxboîte is a programmableprogrammable computerordinateur
234
628000
3000
Les gens d'IA (intelligence artificielle) disent que cette chose dans la boîte est un ordinateur programmable
10:56
because that's equivalentéquivalent to a braincerveau, and we'llbien feedalimentation it some inputscontributions
235
631000
2000
car c'est équivalent à un cerveau. On lui fournit des données
10:58
and we'llbien get it to do something, have some behaviorcomportement.
236
633000
2000
et on lui fait faire quelque chose, manifester des comportements.
11:00
And AlanAlan TuringTuring defineddéfini the TuringTuring testtester, whichlequel is essentiallyessentiellement sayingen disant,
237
635000
3000
Et Alan Turing a défini le test de Turing, qui dit en gros
11:03
we'llbien know if something'scertaines choses intelligentintelligent if it behavesse comporte identicalidentique to a humanHumain.
238
638000
3000
qu'on saura si quelque chose est intelligent s'il se comporte comme un humain.
11:06
A behavioralcomportementale metricmétrique of what intelligenceintelligence is,
239
641000
3000
C'est une mesure comportementale de ce qu'est l'intelligence,
11:09
and this has stuckcoincé in our mindsesprits for a long periodpériode of time.
240
644000
3000
et c'est resté collé dans notre esprit pendant un long moment.
11:12
RealityRéalité thoughbien que, I call it realréal intelligenceintelligence.
241
647000
2000
La réalité, cependant, je l'appelle la véritable intelligence.
11:14
RealReal intelligenceintelligence is builtconstruit on something elseautre.
242
649000
2000
La véritable intelligence est fondée sur quelque chose d'autre.
11:16
We experienceexpérience the worldmonde throughpar a sequenceséquence of patternsmodèles, and we storele magasin them,
243
651000
4000
On expérimente le monde à travers une séquence de motifs, qu'on stocke
11:20
and we recallrappel them. And when we recallrappel them, we matchrencontre them up
244
655000
3000
et dont on se rappelle. Et quand on s'en rappelle, on les confronte à la réalité,
11:23
againstcontre realityréalité, and we're makingfabrication predictionsprédictions all the time.
245
658000
4000
on fait des prédictions en permanence.
11:27
It's an eternaléternelle metricmétrique. There's an eternaléternelle metricmétrique about us sortTrier of sayingen disant,
246
662000
3000
C'est une mesure permanente. Il y a une mesure permanente à notre sujet, qui nous dit en gros,
11:30
do we understandcomprendre the worldmonde? Am I makingfabrication predictionsprédictions? And so on.
247
665000
3000
est-ce que je comprends le monde ? Est-ce que je fais des prédictions ? Et ainsi de suite.
11:33
You're all beingétant intelligentintelligent right now, but you're not doing anything.
248
668000
2000
Vous êtes tous intelligents à cet instant présent, mais vous ne faites rien.
11:35
Maybe you're scratchinggrattage yourselftoi même, or pickingcueillette your nosenez,
249
670000
2000
Peut-être que vous vous grattez, ou vous vous mettez votre doigt dans le nez,
11:37
I don't know, but you're not doing anything right now,
250
672000
2000
je ne sais pas, mais vous ne faites rien à cet instant,
11:39
but you're beingétant intelligentintelligent; you're understandingcompréhension what I'm sayingen disant.
251
674000
3000
mais vous êtes intelligents, vous comprenez ce que je dis.
11:42
Because you're intelligentintelligent and you speakparler EnglishAnglais,
252
677000
2000
Parce que vous êtes intelligents et vous parlez anglais,
11:44
you know what wordmot is at the endfin of this -- (SilenceSilence)
253
679000
1000
vous savez quel mot se trouve à la fin de cette... (Silence)
11:45
sentencephrase.
254
680000
2000
phrase.
11:47
The wordmot camevenu into you, and you're makingfabrication these predictionsprédictions all the time.
255
682000
3000
Le mot vous est venu à l'esprit, et vous faites ce type de prédiction tout le temps.
11:50
And then, what I'm sayingen disant is,
256
685000
2000
Donc, ce que je dis,
11:52
is that the eternaléternelle predictionprédiction is the outputsortie in the neocortexnéocortex.
257
687000
2000
c'est que la prédiction permanente est l'output du néocortex.
11:54
And that somehowen quelque sorte, predictionprédiction leadspistes to intelligentintelligent behaviorcomportement.
258
689000
3000
Et que d'une certaine façon, la prédiction mène à un comportement intelligent.
11:57
And here'svoici how that happensarrive. Let's startdébut with a non-intelligentnon-intelligent braincerveau.
259
692000
3000
Voilà comment ça se passe. Commençons avec un cerveau non-intelligent.
12:00
Well I'll arguese disputer a non-intelligentnon-intelligent braincerveau, we got holdtenir of an oldvieux braincerveau,
260
695000
4000
Bon, je propose un cerveau non-intelligent, on a un vieux cerveau,
12:04
and we're going to say it's like a non-mammalnon-mammifères, like a reptilereptile,
261
699000
3000
on va dire que ce n'est pas un mammifère, plutôt un reptile,
12:07
so I'll say, an alligatoralligator; we have an alligatoralligator.
262
702000
2000
disons un alligator, on a un alligator.
12:09
And the alligatoralligator has some very sophisticatedsophistiqué sensessens.
263
704000
3000
Et l'alligator a des sens très sophistiqués.
12:12
It's got good eyesles yeux and earsoreilles and touchtoucher sensessens and so on,
264
707000
3000
Il a de bon yeux, de bonnes oreilles, un bon sens tactile, et ainsi de suite
12:15
a mouthbouche and a nosenez. It has very complexcomplexe behaviorcomportement.
265
710000
4000
une bouche, un nez. Il a un comportement complexe.
12:19
It can runcourir and hidecacher. It has fearscraintes and emotionsémotions. It can eatmanger you, you know.
266
714000
4000
Il peut courir et se cacher. Il connaît la peur et les émotions. Il peut vous manger, vous savez.
12:23
It can attackattaque. It can do all kindssortes of stuffdes trucs.
267
718000
4000
Il peut attaquer. Il peut faire tout ces trucs.
12:27
But we don't considerconsidérer the alligatoralligator very intelligentintelligent, not like in a humanHumain sortTrier of way.
268
722000
5000
Mais on ne considère pas que l'alligator est très intelligent, pas dans un sens humain.
12:32
But it has all this complexcomplexe behaviorcomportement alreadydéjà.
269
727000
2000
Mais il a déjà un comportement complexe.
12:34
Now, in evolutionévolution, what happenedarrivé?
270
729000
2000
Que c'est-il passé dans l'évolution ?
12:36
First thing that happenedarrivé in evolutionévolution with mammalsmammifères,
271
731000
3000
La première chose qui est arrivée dans l'évolution des mammifères,
12:39
we startedcommencé to developdévelopper a thing calledappelé the neocortexnéocortex.
272
734000
2000
c'est que nous avons développé une chose appelée le néocortex.
12:41
And I'm going to representreprésenter the neocortexnéocortex here,
273
736000
2000
Je vais représenter un néocortex ici,
12:43
by this boxboîte that's stickingcollage on topHaut of the oldvieux braincerveau.
274
738000
2000
par cette boîte qui vient se coller au-dessus du vieux cerveau.
12:45
NeocortexNéocortex meansveux dire newNouveau layercouche. It is a newNouveau layercouche on topHaut of your braincerveau.
275
740000
3000
Le néocortex implique une nouvelle couche. C'est une nouvelle couche au-dessus de votre cerveau.
12:48
If you don't know it, it's the wrinklyridée thing on the topHaut of your headtête that,
276
743000
3000
Si vous ne le savez pas, c'est la chose ridée sur le dessus de la tête,
12:51
it's got wrinklyridée because it got shovedpoussé in there and doesn't fiten forme.
277
746000
3000
elle a des rides parce qu'elle a été fourrée là-dedans et n'a pas la bonne taille.
12:54
(LaughterRires)
278
749000
1000
(Rires)
12:55
No, really, that's what it is. It's about the sizeTaille of a tabletable napkinserviette de table.
279
750000
2000
Non, vraiment, c'est ça. Il a à peu près la taille d'une serviette de table.
12:57
And it doesn't fiten forme, so it getsobtient all wrinklyridée. Now look at how I've drawntiré this here.
280
752000
3000
Et il ne tient pas là-dedans, donc il s'est ridé. Maintenant, regardez comment j'ai dessiné ça ici.
13:00
The oldvieux braincerveau is still there. You still have that alligatoralligator braincerveau.
281
755000
4000
Le vieux cerveau est toujours là. Vous avez toujours le cerveau d'alligator.
13:04
You do. It's your emotionalémotif braincerveau.
282
759000
2000
Vous l'avez. C'est votre cerveau émotionnel.
13:06
It's all those things, and all those gutintestin reactionsréactions you have.
283
761000
3000
C'est toutes ces choses, toutes ces réactions instinctives que vous avez.
13:09
And on topHaut of it, we have this memoryMémoire systemsystème calledappelé the neocortexnéocortex.
284
764000
3000
Et par dessus, on a ce système de mémoire appelé néocortex.
13:12
And the memoryMémoire systemsystème is sittingséance over the sensorysensoriel partpartie of the braincerveau.
285
767000
4000
Et ce système de mémoire est posé sur la partie sensorielle du cerveau.
13:16
And so as the sensorysensoriel inputcontribution comesvient in and feedsflux from the oldvieux braincerveau,
286
771000
3000
Donc quand les données sensorielles arrivent du vieux cerveau,
13:19
it alsoaussi goesva up into the neocortexnéocortex. And the neocortexnéocortex is just memorizingmémorisation de.
287
774000
4000
ells montent aussi dans le néocortex. Et le néocortex, c'est simplement la mémorisation.
13:23
It's sittingséance there sayingen disant, ahah, I'm going to memorizemémoriser all the things that are going on:
288
778000
4000
Il reste là à dire "Ah, je vais mémoriser toutes ces choses qui se produisent,
13:27
where I've been, people I've seenvu, things I've heardentendu, and so on.
289
782000
2000
où je suis allé, les gens que j'ai vus, les choses que j'ai entendues, et tout ça."
13:29
And in the futureavenir, when it seesvoit something similarsimilaire to that again,
290
784000
4000
Et dans le futur, quand il verra quelque chose de similaire à nouveau,
13:33
so in a similarsimilaire environmentenvironnement, or the exactexact sameMême environmentenvironnement,
291
788000
3000
dans un environnement similaire, ou exactement le même,
13:36
it'llça va playjouer it back. It'llÇa va startdébut playingen jouant it back.
292
791000
2000
il le rejouera. Il se mettra à le rejouer.
13:38
Oh, I've been here before. And when you've been here before,
293
793000
2000
"Oh, je suis déjà venu ici. Et quand tu es venu ici,
13:40
this happenedarrivé nextprochain. It allowspermet you to predictprédire the futureavenir.
294
795000
3000
ceci s'est produit ensuite". Cela vous permet de prédire le futur.
13:43
It allowspermet you to, literallyLittéralement it feedsflux back the signalssignaux into your braincerveau;
295
798000
4000
Il renvoie littéralement le signal à votre cerveau,
13:47
they'llils vont let you see what's going to happense produire nextprochain,
296
802000
2000
et vous laisse voir ce qui va se produire ensuite,
13:49
will let you hearentendre the wordmot "sentencephrase" before I said it.
297
804000
3000
vous laisse entendre le mot dans ma phrase avant que je ne l'ai dit.
13:52
And it's this feedingalimentation back into the oldvieux braincerveau
298
807000
3000
Et c'est ce renvoi de signal dans le vieux cerveau
13:55
that'llça va allowpermettre you to make very more intelligentintelligent decisionsles décisions.
299
810000
3000
qui vous permet de prendre des décisions bien plus intelligentes.
13:58
This is the mostles plus importantimportant slidefaire glisser of my talk, so I'll dwellDwell on it a little bitbit.
300
813000
3000
C'est le slide le plus important de mon propos, donc je vais m'attarder dessus un petit peu.
14:01
And so, all the time you say, oh, I can predictprédire the things.
301
816000
4000
Et donc, vous dites tout le temps, "oh je peux prédire les choses".
14:05
And if you're a ratrat and you go throughpar a mazeLabyrinthe, and then you learnapprendre the mazeLabyrinthe,
302
820000
3000
Si vous êtes un rat qui parcourt un labyrinthe, et que vous apprenez à le connaître,
14:08
the nextprochain time you're in a mazeLabyrinthe, you have the sameMême behaviorcomportement,
303
823000
2000
la prochaine fois que vous vous y trouverez, vous aurez le même comportement,
14:10
but all of a suddensoudain, you're smarterplus intelligent
304
825000
2000
mais brusquement, vous êtes plus intelligents,
14:12
because you say, oh, I recognizereconnaître this mazeLabyrinthe, I know whichlequel way to go,
305
827000
3000
parce que vous vous dites, "oh, je reconnais ce labyrinthe, je sais de quel côté aller,
14:15
I've been here before, I can envisionEnvision the futureavenir. And that's what it's doing.
306
830000
3000
je suis déjà venu ici, je peux voir le future." Et c'est ce qui se produit.
14:18
In humanshumains -- by the way, this is truevrai for all mammalsmammifères;
307
833000
3000
Chez l'homme, mais c'est valable pour tous les mammifères, au passage.
14:21
it's truevrai for other mammalsmammifères -- and in humanshumains, it got a lot worsepire.
308
836000
2000
C'est vrai pour tous les mammifères, et chez l'homme, c'est devenu encore pire.
14:23
In humanshumains, we actuallyréellement developeddéveloppé the frontde face partpartie of the neocortexnéocortex
309
838000
3000
L'homme a en fait développé la partie frontale du néocortex,
14:26
calledappelé the anterioranterior partpartie of the neocortexnéocortex. And naturela nature did a little tricktour.
310
841000
4000
appelée partie antérieure du néocortex. Et la nature a fait un petit truc ici.
14:30
It copiedcopié the posteriorposterior partpartie, the back partpartie, whichlequel is sensorysensoriel,
311
845000
2000
Elle a copié la partie postérieure, la partie à l'arrière, qui est sensorielle,
14:32
and put it in the frontde face partpartie.
312
847000
2000
et l'a mise dans la partie avant.
14:34
And humanshumains uniquelyuniquement have the sameMême mechanismmécanisme on the frontde face,
313
849000
2000
Et l'homme uniquement a le même mécanisme sur l'avant,
14:36
but we use it for motormoteur controlcontrôle.
314
851000
2000
mais l'utilise pour le contrôle moteur.
14:38
So we are now ablecapable to make very sophisticatedsophistiqué motormoteur planningPlanification, things like that.
315
853000
3000
Donc on peut maintenant effectuer des actions motrices planifiées très sophistiquées, des choses comme ça.
14:41
I don't have time to get into all this, but if you want to understandcomprendre how a braincerveau workstravaux,
316
856000
3000
Je n'ai pas le temps de poursuivre dans les détails, mais si vous voulez comprendre comment fonctionne un cerveau,
14:44
you have to understandcomprendre how the first partpartie of the mammalianchez les mammifères neocortexnéocortex workstravaux,
317
859000
3000
vous devez comprendre comment la première partie du néocortex des mammifères fonctionne,
14:47
how it is we storele magasin patternsmodèles and make predictionsprédictions.
318
862000
2000
et comment elle stocke des motifs et fait des prédictions.
14:49
So let me give you a fewpeu examplesexemples of predictionsprédictions.
319
864000
3000
Laissez-moi donc vous donner quelques exemples de prédictions.
14:52
I alreadydéjà said the wordmot "sentencephrase." In musicla musique,
320
867000
2000
J'ai déjà évoqué la complétion d'une phrase. En musique,
14:54
if you've heardentendu a songchant before, if you heardentendu JillJill singchanter those songsChansons before,
321
869000
3000
si vous avez déjà entendu une chanson, si vous avez déjà entendu Jill chanter ces chansons auparavant,
14:57
when she singschante them, the nextprochain noteRemarque popspolluants organiques persistants into your headtête alreadydéjà --
322
872000
3000
quand elle les chante, la prochaine note apparaît déjà dans votre esprit,
15:00
you anticipateanticiper it as you're going. If it was an albumalbum of musicla musique,
323
875000
2000
vous l'anticipé au fur et à mesure. Si c'était un album de musique,
15:02
the endfin of one albumalbum, the nextprochain songchant popspolluants organiques persistants into your headtête.
324
877000
3000
à la fin d'un album, la prochaine chanson apparaît dans votre tête.
15:05
And these things happense produire all the time. You're makingfabrication these predictionsprédictions.
325
880000
2000
Et ces choses arrivent tout le temps. Vous faites ces prédictions.
15:07
I have this thing calledappelé the alteredaltéré doorporte thought experimentexpérience.
326
882000
3000
J'ai cette expérience de pensée, dite de la porte modifiée,
15:10
And the alteredaltéré doorporte thought experimentexpérience saysdit, you have a doorporte at home,
327
885000
3000
elle dit que vous avez une porte chez vous,
15:13
and when you're here, I'm changingen changeant it, I've got a guy
328
888000
3000
et pendant que vous êtes ici, je la change, j'ai un type
15:16
back at your housemaison right now, movingen mouvement the doorporte around,
329
891000
2000
chez vous en ce moment même, qui change la porte,
15:18
and they're going to take your doorknobpoignée de porte and movebouge toi it over two inchespouces.
330
893000
2000
il va prendre la poignée et la bouger de cinq centimètres.
15:20
And when you go home tonightce soir, you're going to put your handmain out there,
331
895000
2000
Quand vous allez rentrer chez vous ce soir, vous allez avancer votre main
15:22
and you're going to reachatteindre for the doorknobpoignée de porte and you're going to noticeremarquer
332
897000
2000
pour attraper la poignée, et vous allez remarquer
15:24
it's in the wrongfaux spotplace, and you'lltu vas go, whoawhoa, something happenedarrivé.
333
899000
3000
qu'elle se trouve au mauvais endroit, et vous vous direz, ola, quelque chose est arrivé.
15:27
It maymai take a secondseconde to figurefigure out what it was, but something happenedarrivé.
334
902000
2000
Ça prendra peut-être une seconde pour vous en rendre compte, mais quelque chose a changé.
15:29
Now I could changechangement your doorknobpoignée de porte in other waysfaçons.
335
904000
2000
Mais je pourrais changer votre poignée de porte d'autres façons.
15:31
I can make it largerplus grand or smallerplus petit, I can changechangement its brasslaiton to silverargent,
336
906000
2000
Je peux la rendre plus grosse ou plus petite, je peux la faire passer de laiton à argentée,
15:33
I could make it a leverlevier de. I can changechangement your doorporte, put colorscouleurs on;
337
908000
2000
je peux changer son type. Je peux changer votre porte, la peindre,
15:35
I can put windowsles fenêtres in. I can changechangement a thousandmille things about your doorporte,
338
910000
3000
y mettre une fenêtre. Je peux changer mille chose sur votre porte,
15:38
and in the two secondssecondes you take to openouvrir your doorporte,
339
913000
2000
et dans les deux secondes qu'il faut pour ouvrir la porte,
15:40
you're going to noticeremarquer that something has changedmodifié.
340
915000
3000
vous allez remarquer que quelque chose a changé.
15:43
Now, the engineeringingénierie approachapproche to this, the AIAI approachapproche to this,
341
918000
2000
Maintenant, l'approche d'ingénieur, l'approche d'IA,
15:45
is to buildconstruire a doorporte databasebase de données. It has all the doorporte attributesattributs.
342
920000
3000
c'est de créer une base de données sur la porte. Elle a tous les attributs de la porte.
15:48
And as you go up to the doorporte, you know, let's checkvérifier them off one at time.
343
923000
3000
Et quand vous allez vers la porte, vous savez, vous les vérifier un à un.
15:51
DoorPorte, doorporte, doorporte, you know, colorCouleur, you know what I'm sayingen disant.
344
926000
2000
Porte, porte, porte, couleur, enfin vous voyez de quoi je parle.
15:53
We don't do that. Your braincerveau doesn't do that.
345
928000
2000
On ne fait pas ça. Votre cerveau ne fait pas ça.
15:55
What your braincerveau is doing is makingfabrication constantconstant predictionsprédictions all the time
346
930000
2000
Ce que fait votre cerveau, c'est de constamment établir des prédictions
15:57
about what is going to happense produire in your environmentenvironnement.
347
932000
2000
sur ce qui va se produire dans votre environnement.
15:59
As I put my handmain on this tabletable, I expectattendre to feel it stop.
348
934000
3000
Quand je pose ma main sur cette table, je m'attends à la sentir s'arrêter.
16:02
When I walkmarche, everychaque stepétape, if I missedmanqué it by an eighthhuitième of an inchpouce,
349
937000
3000
Quand je marche, pour chaque pas, si j'en manquais un d'une fraction de centimètre,
16:05
I'll know something has changedmodifié.
350
940000
2000
je saurais que quelque chose a changé.
16:07
You're constantlyconstamment makingfabrication predictionsprédictions about your environmentenvironnement.
351
942000
2000
Vous faites constamment des prédictions sur votre environnement.
16:09
I'll talk about visionvision here brieflybrièvement. This is a picturephoto of a womanfemme.
352
944000
3000
Je vais parler brièvement de la vue ici. Voici l'image d'une femme.
16:12
And when you look at people, your eyesles yeux are caughtpris
353
947000
2000
Quand vous regardez des gens, vos yeux sont attirés
16:14
over at two to threeTrois timesfois a secondseconde.
354
949000
1000
deux ou trois fois par seconde.
16:15
You're not awareconscient of this, but your eyesles yeux are always movingen mouvement.
355
950000
2000
Vous n'en avez pas conscience, mais vos yeux bougent tout le temps.
16:17
And so when you look at someone'squelques uns facevisage,
356
952000
2000
Et donc quand vous regardez le visage de quelqu'un,
16:19
you'dtu aurais typicallytypiquement go from eyeœil to eyeœil to eyeœil to nosenez to mouthbouche.
357
954000
2000
vous passez typiquement d'un oeil à l'autre et du nez à la bouche.
16:21
Now, when your eyeœil movesse déplace from eyeœil to eyeœil,
358
956000
2000
Quand votre oeil se déplace d'un oeil à l'autre,
16:23
if there was something elseautre there like, a nosenez,
359
958000
2000
s'il y a quelque chose d'autre à cet endroit, comme un nez,
16:25
you'dtu aurais see a nosenez where an eyeœil is supposedsupposé to be,
360
960000
2000
vous verriez un nez où un oeil était attendu,
16:27
and you'dtu aurais go, oh shitmerde, you know --
361
962000
3000
et vous vous diriez : "Oh merde !", vous voyez...
16:30
(LaughterRires)
362
965000
1000
(Rires)
16:31
There's something wrongfaux about this personla personne.
363
966000
2000
"Il y a quelque chose qui cloche sur cette personne."
16:33
And that's because you're makingfabrication a predictionprédiction.
364
968000
2000
C'est parce que vous faites une prédiction.
16:35
It's not like you just look over there and say, what am I seeingvoyant now?
365
970000
2000
Ce n'est pas comme si vous regardiez là et vous demandiez ce que vous voyez.
16:37
A nosenez, that's okay. No, you have an expectationattente of what you're going to see.
366
972000
3000
Un nez, c'est bon. Non, vous vous attendez à voir quelque chose de particulier.
16:40
(LaughterRires)
367
975000
1000
(Rires)
16:41
EveryChaque singleunique momentmoment. And finallyenfin, let's think about how we testtester intelligenceintelligence.
368
976000
4000
Tout le temps. Et, enfin, regardons à la façon dont on teste l'intelligence.
16:45
We testtester it by predictionprédiction. What is the nextprochain wordmot in this, you know?
369
980000
3000
On la teste par la prédiction : quel est le prochain mot ici ?
16:48
This is to this as this is to this. What is the nextprochain numbernombre in this sentencephrase?
370
983000
3000
Ceci est à cela ce que ceci est à cela. Quel est le prochain chiffre dans cette phrase ?
16:51
Here'sVoici threeTrois visionsvisions of an objectobjet.
371
986000
2000
Voici trois vues d'un objet.
16:53
What's the fourthQuatrième one? That's how we testtester it. It's all about predictionprédiction.
372
988000
4000
Quelle est la quatrième ? Voilà comment on la teste. C'est la prédiction.
16:57
So what is the reciperecette for braincerveau theorythéorie?
373
992000
3000
Dès lors, quelle est la recette pour une théorie du cerveau ?
17:00
First of all, we have to have the right frameworkcadre.
374
995000
3000
Premièrement, nous devons avoir le bon cadre de travail.
17:03
And the frameworkcadre is a memoryMémoire frameworkcadre,
375
998000
2000
C'est un système de mémoire,
17:05
not a computationcalcul or behaviorcomportement frameworkcadre. It's a memoryMémoire frameworkcadre.
376
1000000
2000
pas un système de calcul ou de comportement. C'est un système de mémoire.
17:07
How do you storele magasin and recallrappel these sequencesséquences or patternsmodèles? It's spatio-temporalspatio-temporelle patternsmodèles.
377
1002000
4000
Comment est-ce que vous enregistrez et réutilisez ces séquences ou motifs ? Ce sont des motifs spatio-temporels.
17:11
Then, if in that frameworkcadre, you take a bunchbouquet of theoreticiansthéoriciens.
378
1006000
3000
Maintenant, dans ce système, vous prenez un tas de théoriciens .
17:14
Now biologistsbiologistes generallygénéralement are not good theoreticiansthéoriciens.
379
1009000
2000
Les biologistes ne sont généralement pas de bons théoriciens.
17:16
It's not always truevrai, but in generalgénéral, there's not a good historyhistoire of theorythéorie in biologyla biologie.
380
1011000
4000
Ce n'est pas toujours vrai, mais en général, il n'y a pas une bonne histoire de la théorie en biologie.
17:20
So I founda trouvé the bestmeilleur people to work with are physicistsphysiciens,
381
1015000
3000
J'ai trouvé que les meilleures personnes avec qui travailler sont les physiciens,
17:23
engineersingénieurs and mathematiciansmathématiciens, who tendtendre to think algorithmicallyalgorithmiquement.
382
1018000
3000
les ingénieurs et les mathématiciens, qui ont tendance à penser avec des algorithmes.
17:26
Then they have to learnapprendre the anatomyanatomie, and they'veils ont got to learnapprendre the physiologyphysiologie.
383
1021000
3000
Ensuite, ils doivent apprendre l'anatomie et la physiologie.
17:29
You have to make these theoriesthéories very realisticréaliste in anatomicalanatomique termstermes.
384
1024000
4000
Vous devez rendre ces théories très réalistes en termes anatomiques.
17:33
AnyoneN’importe qui who getsobtient up and tellsraconte you theirleur theorythéorie about how the braincerveau workstravaux
385
1028000
4000
Quiconque se lève et vous expose sa théorie sur le fonctionnement du cerveau
17:37
and doesn't tell you exactlyexactement how it's workingtravail in the braincerveau
386
1032000
2000
et ne vous explique pas exactement comment le cerveau fonctionne
17:39
and how the wiringcâblage workstravaux in the braincerveau, it is not a theorythéorie.
387
1034000
2000
et comment les connexions cérébrales fonctionnent, ça ne fait pas une théorie.
17:41
And that's what we're doing at the RedwoodSéquoia NeuroscienceNeuroscience InstituteInstitut.
388
1036000
3000
C'est ce que nous faisons au Redwood Neuroscience Institute.
17:44
I would love to have more time to tell you we're makingfabrication fantasticfantastique progressle progrès in this thing,
389
1039000
4000
J'adorerai avoir plus de temps pour vous parler des fantastiques progrès que l'on fait là-dedans,
17:48
and I expectattendre to be back up on this stageétape,
390
1043000
2000
et j'espère revenir une autre fois sur cette estrade,
17:50
maybe this will be some other time in the not too distantloin futureavenir and tell you about it.
391
1045000
2000
peut-être dans un avenir assez proche, et je vous en parlerai alors.
17:52
I'm really, really excitedexcité. This is not going to take 50 yearsannées at all.
392
1047000
3000
Je suis vraiment très excité. Ça ne va absolument pas prendre 50 ans.
17:55
So what will braincerveau theorythéorie look like?
393
1050000
2000
À quoi ressemblera une théorie du cerveau ?
17:57
First of all, it's going to be a theorythéorie about memoryMémoire.
394
1052000
2000
D'abord, ça sera une théorie sur la mémoire.
17:59
Not like computerordinateur memoryMémoire. It's not at all like computerordinateur memoryMémoire.
395
1054000
3000
Pas comme de la mémoire informatique. Ça ne ressemble en rien à la mémoire informatique.
18:02
It's very, very differentdifférent. And it's a memoryMémoire of these very
396
1057000
2000
C'est vraiment très différent. Et c'est une mémoire
18:04
high-dimensionalhaute dimension patternsmodèles, like the things that come from your eyesles yeux.
397
1059000
3000
de motifs de grandes dimensions, comme les choses qui viennent de vos yeux.
18:07
It's alsoaussi memoryMémoire of sequencesséquences.
398
1062000
2000
C'est aussi une mémoire de séquences.
18:09
You cannotne peux pas learnapprendre or recallrappel anything outsideà l'extérieur of a sequenceséquence.
399
1064000
2000
Vous ne pouvez pas apprendre ni vous rappeler quelque chose en dehors d'une séquence.
18:11
A songchant mustdoit be heardentendu in sequenceséquence over time,
400
1066000
3000
Une chanson doit être entendue en séquence dans le temps,
18:14
and you mustdoit playjouer it back in sequenceséquence over time.
401
1069000
3000
et vous devez la rejouer en séquence de la même façon.
18:17
And these sequencesséquences are auto-associativelyAuto-associatif recalledrappelé, so if I see something,
402
1072000
3000
On se souvient de ces séquences de façon auto-associées, donc si je vois quelque chose,
18:20
I hearentendre something, it remindsrappelle me of it, and then it playspièces back automaticallyautomatiquement.
403
1075000
3000
j'entends quelque chose, ça me le rappelle, et ça le rejoue automatiquement.
18:23
It's an automaticAutomatique playbacklecture. And predictionprédiction of futureavenir inputscontributions is the desireddésiré outputsortie.
404
1078000
4000
C'est un playback automatique. Et la prédiction des futures données d'entrée, ce sont les données de sortie souhaitées.
18:27
And as I said, the theorythéorie mustdoit be biologicallybiologiquement accurateprécis,
405
1082000
3000
Et comme je l'ai dit, la théorie doit être exacte d'un point de vue biologique,
18:30
it mustdoit be testabletestables, and you mustdoit be ablecapable to buildconstruire it.
406
1085000
2000
elle doit être testable, et on doit pouvoir la construire.
18:32
If you don't buildconstruire it, you don't understandcomprendre it. So, one more slidefaire glisser here.
407
1087000
4000
Si on ne la construit pas, on ne la comprend pas. Voici un dernier slide.
18:36
What is this going to resultrésultat in? Are we going to really buildconstruire intelligentintelligent machinesmachines?
408
1091000
4000
Quel va être le résultat de tout cela ? Est-ce qu'on va vraiment construire des machines intelligentes ?
18:40
AbsolutelyAbsolument. And it's going to be differentdifférent than people think.
409
1095000
4000
Absolument. Et ça va être différent de ce que pensent les gens.
18:44
No doubtdoute that it's going to happense produire, in my mindesprit.
410
1099000
3000
Ça va arriver, ça ne fait aucun doute dans mon esprit.
18:47
First of all, it's going to be builtconstruit up, we're going to buildconstruire the stuffdes trucs out of siliconsilicium.
411
1102000
4000
D'abord, on va le construire, créer le truc à partir de silicone.
18:51
The sameMême techniquestechniques we use for buildingbâtiment siliconsilicium computerordinateur memoriessouvenirs,
412
1106000
3000
On utilisera les mêmes techniques
18:54
we can use for here.
413
1109000
1000
que pour construire la mémoire informatique en silicone.
18:55
But they're very differentdifférent typesles types of memoriessouvenirs.
414
1110000
2000
Mais ce sont des types très différents de mémoires.
18:57
And we're going to attachattacher these memoriessouvenirs to sensorscapteurs,
415
1112000
2000
Et on va attacher ces mémoires à des capteurs,
18:59
and the sensorscapteurs will experienceexpérience real-liveréelles, real-worldmonde réel dataLes données,
416
1114000
3000
et ceux-ci auront une expérience des données du monde réel, en temps réel,
19:02
and these things are going to learnapprendre about theirleur environmentenvironnement.
417
1117000
2000
et ces choses apprendront des choses sur leur environnement.
19:04
Now it's very unlikelyimprobable the first things you're going to see are like robotsdes robots.
418
1119000
3000
Il est très peu probable que les premières choses que vous verrez soient des robots.
19:07
Not that robotsdes robots aren'tne sont pas usefulutile and people can buildconstruire robotsdes robots.
419
1122000
3000
Non pas que les robots sont inutiles, et les gens savent construire des robots.
19:10
But the roboticsrobotique partpartie is the hardestle plus dur partpartie. That's the oldvieux braincerveau. That's really harddifficile.
420
1125000
4000
Mais la partie robotique est la plus dure. C'est le vieux cerveau. C'est vraiment difficile.
19:14
The newNouveau braincerveau is actuallyréellement kindgentil of easierPlus facile than the oldvieux braincerveau.
421
1129000
2000
Le nouveau cerveau est en fait plutôt facile en comparaison avec le vieux cerveau.
19:16
So the first thing we're going to do are the things that don't requireexiger a lot of roboticsrobotique.
422
1131000
3000
Donc les premières choses qu'on fera seront celles qui ne requièrent pas beaucoup de robotique.
19:19
So you're not going to see C-C-3POPO.
423
1134000
2000
Donc vous ne verrez pas de C-3PO.
19:21
You're going to more see things like, you know, intelligentintelligent carsdes voitures
424
1136000
2000
Vous verrez des choses comme, disons, des voitures intelligentes
19:23
that really understandcomprendre what trafficcirculation is and what drivingau volant is
425
1138000
3000
qui comprennent vraiment ce qu'est le trafic, et ce qu'est conduire,
19:26
and have learnedappris that certaincertain typesles types of carsdes voitures with the blinkersfeux clignotants on for halfmoitié a minuteminute
426
1141000
3000
et qui ont appris que certains types de voitures qui ont le clignotant allumé pendant trente secondes
19:29
probablyProbablement aren'tne sont pas going to turntour, things like that.
427
1144000
2000
ne vont probablement pas tourner, des choses comme ça.
19:31
(LaughterRires)
428
1146000
1000
(Rires)
19:32
We can alsoaussi do intelligentintelligent securitySécurité systemssystèmes.
429
1147000
2000
On peut aussi faire des systèmes de sécurité intelligents.
19:34
AnywhereN’importe où where we're basicallyen gros usingen utilisant our braincerveau, but not doing a lot of mechanicsmécanique.
430
1149000
4000
Là où nous avons besoin de notre cerveau, en gros, mais pas de beaucoup de mécanismes.
19:38
Those are the things that are going to happense produire first.
431
1153000
2000
Ce sont les choses qui arriveront en premier.
19:40
But ultimatelyen fin de compte, the world'smonde the limitlimite here.
432
1155000
2000
Mais après cela, la limite, c'est le monde.
19:42
I don't know how this is going to turntour out.
433
1157000
2000
Je ne sais pas où cela va mener.
19:44
I know a lot of people who inventeda inventé the microprocessormicroprocesseur
434
1159000
2000
Je connais beaucoup de ceux qui ont inventé le microprocesseur
19:46
and if you talk to them, they knewa connu what they were doing was really significantimportant,
435
1161000
5000
et si vous leur parlez, ils savaient que ce qu'ils faisaient était vraiment important,
19:51
but they didn't really know what was going to happense produire.
436
1166000
3000
mais ils ne savaient pas vraiment ce qui allait se passer.
19:54
They couldn'tne pouvait pas anticipateanticiper cellcellule phonesTéléphones and the InternetInternet and all this kindgentil of stuffdes trucs.
437
1169000
5000
Ils ne pouvaient pas anticiper les téléphones portables, Internet, et tous ces trucs.
19:59
They just knewa connu like, hey, they were going to buildconstruire calculatorscalculatrices
438
1174000
2000
Ils savaient que, eh, ils allaient construire des calculatrices
20:01
and trafficcirculation lightlumière controllerscontrôleurs de. But it's going to be biggros.
439
1176000
2000
et des feux de signalisation. Mais ça allait être énorme.
20:03
In the sameMême way, this is like braincerveau sciencescience and these memoriessouvenirs
440
1178000
3000
De la même façon, la science du cerveau et ces mémoires
20:06
are going to be a very fundamentalfondamental technologyLa technologie, and it's going to leadconduire
441
1181000
3000
vont être une technologie fondamentale, et ça va mener
20:09
to very unbelievableincroyable changeschangements in the nextprochain 100 yearsannées.
442
1184000
3000
à des changements incroyables dans les 100 prochaines années.
20:12
And I'm mostles plus excitedexcité about how we're going to use them in sciencescience.
443
1187000
4000
Et je suis très excité quant à la façon dont on on les utilisera en science.
20:16
So I think that's all my time, I'm over it, and I'm going to endfin my talk
444
1191000
3000
Je pense que j'arrive à la limite de mon temps, donc je vais terminer mon discours
20:19
right there.
445
1194000
1000
maintenant.
Translated by Hugues Marty
Reviewed by Salome Jack

▲Back to top

ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com