ABOUT THE SPEAKER
Daniel Wolpert - Movement expert
A neuroscientist and engineer, Daniel Wolpert studies how the brain controls the body.

Why you should listen

Consider your hand. You use it to lift things, to balance yourself, to give and take, to sense the world. It has a range of interacting degrees of freedom, and it interacts with many different objects under a variety of environmental conditions. And for most of us, it all just works. At his lab in the Engineering department at Cambridge, Daniel Wolpert and his team are studying why, looking to understand the computations underlying the brain's sensorimotor control of the body.

As he says, "I believe that to understand movement is to understand the whole brain. And therefore it’s important to remember when you are studying memory, cognition, sensory processing, they’re there for a reason, and that reason is action.”  Movement is the only way we have of interacting with the world, whether foraging for food or attracting a waiter's attention. Indeed, all communication, including speech, sign language, gestures and writing, is mediated via the motor system. Taking this viewpoint, and using computational and robotic techniques as well as virtual reality systems, Wolpert and his team research the purpose of the human brain and the way it determines future actions.

 

 

More profile about the speaker
Daniel Wolpert | Speaker | TED.com
TEDGlobal 2011

Daniel Wolpert: The real reason for brains

Daniel Wolpert : La vraie raison d'être des cerveaux

Filmed:
1,994,993 views

Le neuroscientifique Daniel Wolpert commence avec une prémisse surprenante : le cerveau a évolué, non pour penser ou ressentir, mais pour contrôler les mouvements. Dans cette présentation divertissante et riche en données, il nous donne un aperçu de comment le cerveau crée la grâce et l'agilité du mouvement humain.
- Movement expert
A neuroscientist and engineer, Daniel Wolpert studies how the brain controls the body. Full bio

Double-click the English transcript below to play the video.

00:15
I'm a neuroscientistchercheur en neurosciences.
0
0
2000
Je suis un neuroscientifique.
00:17
And in neuroscienceneuroscience,
1
2000
2000
Et en neurosciences,
00:19
we have to dealtraiter with manybeaucoup difficultdifficile questionsdes questions about the braincerveau.
2
4000
3000
nous devons répondre à nombre de questions difficiles à propos du cerveau.
00:22
But I want to startdébut with the easiestplus facile questionquestion
3
7000
2000
Mais je veux commencer avec la question la plus facile
00:24
and the questionquestion you really should have all askeda demandé yourselvesvous at some pointpoint in your life,
4
9000
3000
et la question que vous auriez vraiment dû tous vous être posés à un moment de votre vie,
00:27
because it's a fundamentalfondamental questionquestion
5
12000
2000
parce que c'est une question fondamentale
00:29
if we want to understandcomprendre braincerveau functionfonction.
6
14000
2000
si nous voulons comprendre la fonction du cerveau.
00:31
And that is, why do we and other animalsanimaux
7
16000
2000
Et il s'agit de pourquoi nous, et d'autres animaux,
00:33
have brainscerveaux?
8
18000
2000
avons des cerveaux ?
00:35
Not all speciesespèce on our planetplanète have brainscerveaux,
9
20000
3000
Toutes les espèces sur la planète n'ont pas un cerveau,
00:38
so if we want to know what the braincerveau is for,
10
23000
2000
donc si nous voulons savoir à quoi sert le cerveau,
00:40
let's think about why we evolvedévolué one.
11
25000
2000
réfléchissons à pourquoi nous avons évolué pour en avoir un.
00:42
Now you maymai reasonraison that we have one
12
27000
2000
Vous pouvez raisonner que nous en avons un
00:44
to perceivepercevoir the worldmonde or to think,
13
29000
2000
pour percevoir le monde ou pour penser,
00:46
and that's completelycomplètement wrongfaux.
14
31000
2000
et ceci est totalement faux.
00:48
If you think about this questionquestion for any lengthlongueur of time,
15
33000
3000
Si vous pensez à cette question pendant un certain temps,
00:51
it's blindinglyaveuglante obviousévident why we have a braincerveau.
16
36000
2000
ça saute aux yeux pourquoi nous avons un cerveau.
00:53
We have a braincerveau for one reasonraison and one reasonraison only,
17
38000
3000
Nous avons un cerveau pour une raison et une seule,
00:56
and that's to produceproduire adaptableadaptable and complexcomplexe movementsmouvements.
18
41000
3000
et c'est dans le but de produire des mouvements adaptables et complexes.
00:59
There is no other reasonraison to have a braincerveau.
19
44000
2000
Il n'y a pas d'autre raison pour avoir un cerveau.
01:01
Think about it.
20
46000
2000
Pensez-y.
01:03
MovementMouvement is the only way you have
21
48000
2000
Le mouvement est la seule façon que nous avons
01:05
of affectingaffectant the worldmonde around you.
22
50000
2000
d'avoir un effet sur le monde qui nous entoure.
01:07
Now that's not quiteassez truevrai. There's one other way, and that's throughpar sweatingla transpiration.
23
52000
3000
Maintenant, ce n'est pas tout à fait exact. Il y a un autre moyen, et c'est par la sueur.
01:10
But apartune part from that,
24
55000
2000
Mais à part ceci,
01:12
everything elseautre goesva throughpar contractionscontractions of musclesmuscles.
25
57000
2000
tout le reste passe par la contraction de muscles.
01:14
So think about communicationla communication --
26
59000
2000
Pensez à la communication,
01:16
speechdiscours, gesturesgestes, writingl'écriture, signsigne languagela langue --
27
61000
3000
le discours, les gestes, écrire, le langage des signes,
01:19
they're all mediatedmédiée par throughpar contractionscontractions of your musclesmuscles.
28
64000
3000
ils sont tous faits par l'intermédiaire de contractions musculaires.
01:22
So it's really importantimportant to rememberrappelles toi
29
67000
2000
Donc il est vraiment important de se rappeler
01:24
that sensorysensoriel, memoryMémoire and cognitivecognitif processesprocessus are all importantimportant,
30
69000
4000
que les processus sensoriels, mnésiques et cognitifs sont tous importants,
01:28
but they're only importantimportant
31
73000
2000
mais ils sont importants seulement
01:30
to eithernon plus driveconduire or suppressréprimer futureavenir movementsmouvements.
32
75000
2000
pour soit provoquer, soit supprimer de futurs mouvements.
01:32
There can be no evolutionaryévolutionniste advantageavantage
33
77000
2000
Il ne peut pas y avoir d'avantage évolutionnaire
01:34
to layingportant down memoriessouvenirs of childhoodenfance
34
79000
2000
à abandonner des souvenirs d'enfance
01:36
or perceivingpercevoir the colorCouleur of a roseRose
35
81000
2000
ou à percevoir la couleur d'une rose
01:38
if it doesn't affectaffecter the way you're going to movebouge toi laterplus tard in life.
36
83000
3000
si cela n'affecte pas la façon dont nous allons nous mouvoir plus tard dans la vie.
01:41
Now for those who don't believe this argumentargument,
37
86000
2000
Maintenant pour ceux qui ne croient pas en cette position,
01:43
we have treesdes arbres and grassherbe on our planetplanète withoutsans pour autant the braincerveau,
38
88000
2000
sur notre planète nous avons les arbres et l'herbe qui n'ont pas de cerveau,
01:45
but the clinchingclinchage evidencepreuve is this animalanimal here --
39
90000
2000
mais la preuve décisive est cet animal ici,
01:47
the humblehumble seamer squirtSquirt.
40
92000
2000
l'humble tunicier.
01:49
RudimentaryRudimentaire animalanimal, has a nervousnerveux systemsystème,
41
94000
3000
Un animal rudimentaire, il a un système nerveux,
01:52
swimsnages around in the oceanocéan in its juvenilejuvénile life.
42
97000
2000
nage dans l'océan dans sa jeunesse.
01:54
And at some pointpoint of its life,
43
99000
2000
Et à un moment de sa vie,
01:56
it implantsles implants on a rockRoche.
44
101000
2000
il s'implante sur un rocher.
01:58
And the first thing it does in implantingl’implantation on that rockRoche, whichlequel it never leavesfeuilles,
45
103000
3000
Et la première chose qu'il fait en s'implantant sur ce rocher, qu'il ne quitte jamais,
02:01
is to digestdigérer its ownposséder braincerveau and nervousnerveux systemsystème
46
106000
3000
est de digérer son propre cerveau et système nerveux
02:04
for foodaliments.
47
109000
2000
pour nourriture.
02:06
So onceune fois que you don't need to movebouge toi,
48
111000
2000
Donc une fois que vous n'avez plus besoin de bouger,
02:08
you don't need the luxuryluxe of that braincerveau.
49
113000
3000
vous n'avez pas besoin du luxe qu'est ce cerveau.
02:11
And this animalanimal is oftensouvent takenpris
50
116000
2000
Et cet animal est souvent pris
02:13
as an analogyanalogie to what happensarrive at universitiesles universités
51
118000
2000
comme analogie de ce qui se passe dans les universités
02:15
when professorsles professeurs get tenuremandat,
52
120000
2000
quand les professeurs sont titularisés,
02:17
but that's a differentdifférent subjectassujettir.
53
122000
2000
mais c'est un autre sujet.
02:19
(ApplauseApplaudissements)
54
124000
2000
(Applaudissements)
02:21
So I am a movementmouvement chauvinistchauvine.
55
126000
3000
Donc je suis un patriote du mouvement.
02:24
I believe movementmouvement is the mostles plus importantimportant functionfonction of the braincerveau --
56
129000
2000
Je crois que le mouvement est la fonction la plus importante du cerveau ;
02:26
don't let anyonen'importe qui tell you that it's not truevrai.
57
131000
2000
ne laissez personne vous dire que cela n'est pas vrai.
02:28
Now if movementmouvement is so importantimportant,
58
133000
2000
Maintenant si le mouvement est si important,
02:30
how well are we doing
59
135000
2000
comment nous en sortons-nous
02:32
understandingcompréhension how the braincerveau controlscontrôles movementmouvement?
60
137000
2000
à comprendre comment le cerveau contrôle le mouvement ?
02:34
And the answerrépondre is we're doing extremelyextrêmement poorlypauvrement; it's a very harddifficile problemproblème.
61
139000
2000
Et la réponse est très très mal ; c'est un problème très difficile.
02:36
But we can look at how well we're doing
62
141000
2000
Mais nous pouvons déterminer comment nous nous en sortons
02:38
by thinkingen pensant about how well we're doing buildingbâtiment machinesmachines
63
143000
2000
en pensant à notre aptitude à construire des machines
02:40
whichlequel can do what humanshumains can do.
64
145000
2000
qui peuvent faire ce que les humains font.
02:42
Think about the gameJeu of chesséchecs.
65
147000
2000
Pensez au jeu des échecs.
02:44
How well are we doing determiningdéterminer what piecepièce to movebouge toi where?
66
149000
3000
Comment parvenons-nous à déterminer quelle pièce bouger et où ?
02:47
If you pitfosse GarryGarry KasparovKasparov here, when he's not in jailprison,
67
152000
3000
Si vous opposez Gary Kasparov ici, quand il n'est pas en prison,
02:50
againstcontre IBM'sIBM DeepProfond BlueBleu,
68
155000
2000
à la machine Deep Blue d'IBM,
02:52
well the answerrépondre is IBM'sIBM DeepProfond BlueBleu will occasionallyparfois wingagner.
69
157000
3000
eh bien, la réponse est que Deep Blue gagnera à l'occasion.
02:55
And I think if IBM'sIBM DeepProfond BlueBleu playedjoué anyonen'importe qui in this roomchambre, it would wingagner everychaque time.
70
160000
3000
Et je pense que si Deep Blue jouait contre n'importe qui dans cette pièce, il gagnerait à tous les coups.
02:58
That problemproblème is solvedrésolu.
71
163000
2000
Ce problème est résolu.
03:00
What about the problemproblème
72
165000
2000
Qu'en est-il du problème
03:02
of pickingcueillette up a chesséchecs piecepièce,
73
167000
2000
d'attraper une pièce d'échecs,
03:04
dexterouslyadroitement manipulatingmanipuler it and puttingen mettant it back down on the boardplanche?
74
169000
3000
de la manipuler avec dextérité et de la reposer sur le plateau ?
03:07
If you put a fivecinq year-oldans child'sde l’enfant dexteritydextérité againstcontre the bestmeilleur robotsdes robots of todayaujourd'hui,
75
172000
3000
Si vous opposez la dextérité d'un enfant de 5 ans contre les meilleurs robots actuels,
03:10
the answerrépondre is simplesimple:
76
175000
2000
la réponse est simple :
03:12
the childenfant winsgagne easilyfacilement.
77
177000
2000
l'enfant gagne facilement.
03:14
There's no competitioncompétition at all.
78
179000
2000
Il n'y a pas du tout de compétition.
03:16
Now why is that topHaut problemproblème so easyfacile
79
181000
2000
Maintenant pourquoi ce problème en haut est si facile
03:18
and the bottombas problemproblème so harddifficile?
80
183000
2000
et le problème en bas si difficile ?
03:20
One reasonraison is a very smartintelligent fivecinq year-oldans
81
185000
2000
Une raison est qu'un très intelligent enfant de 5 ans
03:22
could tell you the algorithmalgorithme de for that topHaut problemproblème --
82
187000
2000
pourrait vous dire l'algorithme pour ce problème en haut :
03:24
look at all possiblepossible movesse déplace to the endfin of the gameJeu
83
189000
2000
regarder tous les mouvements possibles jusqu'à la fin du jeu
03:26
and choosechoisir the one that makesfait du you wingagner.
84
191000
2000
et choisir celui qui permet de gagner.
03:28
So it's a very simplesimple algorithmalgorithme de.
85
193000
2000
Donc c'est un algorithme très simple.
03:30
Now of coursecours there are other movesse déplace,
86
195000
2000
Bien sûr il y a d'autres mouvements,
03:32
but with vastvaste computersdes ordinateurs we approximateapproximatif
87
197000
2000
mais avec de puissants ordinateurs nous effleurons
03:34
and come closeFermer to the optimaloptimal solutionSolution.
88
199000
2000
et sommes proches de la solution optimale.
03:36
When it comesvient to beingétant dexterousagile,
89
201000
2000
Quand on en vient à être adroit,
03:38
it's not even clearclair what the algorithmalgorithme de is you have to solverésoudre to be dexterousagile.
90
203000
2000
ce n'est même pas clair quel algorithme vous devez résoudre pour être adroit.
03:40
And we'llbien see you have to bothtous les deux perceivepercevoir and actacte on the worldmonde,
91
205000
2000
Et nous allons voir que vous devez à la fois percevoir et agir sur le monde,
03:42
whichlequel has a lot of problemsproblèmes.
92
207000
2000
ce qui pose un tas de problèmes.
03:44
But let me showmontrer you cutting-edgepointe roboticsrobotique.
93
209000
2000
Mais laissez-moi vous montrer de la robotique de pointe.
03:46
Now a lot of roboticsrobotique is very impressiveimpressionnant,
94
211000
2000
Une grande part de la robotique est très impressionnante,
03:48
but manipulationmanipulation roboticsrobotique is really just in the darkfoncé agesâge.
95
213000
3000
mais la manipulation d'objet en est vraiment juste au Moyen-Âge.
03:51
So this is the endfin of a PhPH.D. projectprojet
96
216000
2000
C'est le produit d'un projet de thèse
03:53
from one of the bestmeilleur roboticsrobotique institutesInstituts.
97
218000
2000
d'un des meilleurs instituts de robotique.
03:55
And the studentétudiant has trainedqualifié this robotrobot
98
220000
2000
Et l'étudiant a entraîné son robot
03:57
to pourverser this watereau into a glassverre.
99
222000
2000
à verser de l'eau dans un verre.
03:59
It's a harddifficile problemproblème because the watereau sloshessloshes about, but it can do it.
100
224000
3000
C'est un problème difficile parce que l'eau se répand autour, mais il peut le faire.
04:02
But it doesn't do it with anything like the agilityagilité of a humanHumain.
101
227000
3000
Mais il ne fait aucunement avec l'agilité d'un humain.
04:05
Now if you want this robotrobot to do a differentdifférent tasktâche,
102
230000
3000
Maintenant si vous voulez que ce robot fasse une autre tâche,
04:08
that's anotherun autre three-yeartrois ans PhPH.D. programprogramme.
103
233000
3000
c'est une autre de thèse de trois ans.
04:11
There is no generalizationgénéralisation at all
104
236000
2000
Il n'y a pas du tout de généralisation
04:13
from one tasktâche to anotherun autre in roboticsrobotique.
105
238000
2000
d'une tâche à l'autre en robotique.
04:15
Now we can comparecomparer this
106
240000
2000
Maintenant on peut comparer cela
04:17
to cutting-edgepointe humanHumain performanceperformance.
107
242000
2000
à la performance humaine de pointe.
04:19
So what I'm going to showmontrer you is EmilyEmily FoxFox
108
244000
2000
Ce que je vais vous montrer est Emily Fox
04:21
winninggagnant the worldmonde recordrecord for cupCoupe stackingempilage.
109
246000
3000
battant le record du monde d'empilement de tasses.
04:24
Now the AmericansAméricains in the audiencepublic will know all about cupCoupe stackingempilage.
110
249000
2000
Les Américains dans le public sauront ce qu'est l'empilement de tasses.
04:26
It's a highhaute schoolécole sportsport
111
251000
2000
C'est un sport de lycée
04:28
where you have 12 cupstasses you have to stackempiler and unstackdésempilement
112
253000
2000
où vous avez 12 tasses à empiler et dés-empiler
04:30
againstcontre the clockl'horloge in a prescribedprescrit ordercommande.
113
255000
2000
dans un certain ordre et contre la montre.
04:32
And this is her gettingobtenir the worldmonde recordrecord in realréal time.
114
257000
3000
Et ici c'est elle remportant son record mondial, en temps réel.
04:39
(LaughterRires)
115
264000
8000
(Rires)
04:47
(ApplauseApplaudissements)
116
272000
5000
(Applaudissements)
04:52
And she's prettyjoli happycontent.
117
277000
2000
Et elle est plutôt contente.
04:54
We have no ideaidée what is going on insideà l'intérieur her braincerveau when she does that,
118
279000
2000
Nous n'avons aucune idée de ce qui se passe dans son cerveau quand elle fait ça,
04:56
and that's what we'dmer like to know.
119
281000
2000
et c'est ce que nous aimerions savoir.
04:58
So in my groupgroupe, what we try to do
120
283000
2000
Donc dans mon groupe, ce que nous essayons de faire
05:00
is reversesens inverse engineeringénieur how humanshumains controlcontrôle movementmouvement.
121
285000
3000
est de recréer à l'envers comment les humains contrôlent leurs mouvements.
05:03
And it soundsdes sons like an easyfacile problemproblème.
122
288000
2000
Et cela semble un problème aisé.
05:05
You sendenvoyer a commandcommander down, it causescauses musclesmuscles to contractContrat.
123
290000
2000
Vous envoyez une commande vers le bas, cela amènes les muscles à se contracter.
05:07
Your armbras or bodycorps movesse déplace,
124
292000
2000
Votre bras ou votre corps bouge,
05:09
and you get sensorysensoriel feedbackretour d'information from visionvision, from skinpeau, from musclesmuscles and so on.
125
294000
3000
et vous recevez un feedback sensoriel par la vision, la peau, les muscles, etc.
05:12
The troubledifficulté is
126
297000
2000
Le problème est que
05:14
these signalssignaux are not the beautifulbeau signalssignaux you want them to be.
127
299000
2000
ces signaux ne sont pas les beaux signaux que vous voudriez qu'ils soient.
05:16
So one thing that makesfait du controllingcontrôler movementmouvement difficultdifficile
128
301000
2000
Donc une chose qui rend le contrôle des mouvements difficiles
05:18
is, for exampleExemple, sensorysensoriel feedbackretour d'information is extremelyextrêmement noisybruyant.
129
303000
3000
est par exemple que le feedback sensoriel est extrêmement bruyant.
05:21
Now by noisebruit, I do not mean sounddu son.
130
306000
3000
Par bruit, je n'entends pas son.
05:24
We use it in the engineeringingénierie and neuroscienceneuroscience sensesens
131
309000
2000
Nous l'utilisons dans son acception en ingénierie et neurosciences,
05:26
meaningsens a randomau hasard noisebruit corruptingcorrompre a signalsignal.
132
311000
2000
au sens d'un son aléatoire qui corrompt un signal.
05:28
So the oldvieux daysjournées before digitalnumérique radioradio when you were tuningTuning in your radioradio
133
313000
3000
Dans le temps avant la radio digitale, quand vous allumiez votre radio
05:31
and you heardentendu "crrcckkkcrrcckkk" on the stationgare you wanted to hearentendre,
134
316000
2000
et entendiez "crrcckkk" au lieu de la station que vous vouliez écouter,
05:33
that was the noisebruit.
135
318000
2000
c'était le bruit.
05:35
But more generallygénéralement, this noisebruit is something that corruptscorrompt the signalsignal.
136
320000
3000
Mais plus généralement, le bruit est quelque chose qui corrompt le signal.
05:38
So for exampleExemple, if you put your handmain underen dessous de a tabletable
137
323000
2000
Donc par exemple, si vous mettez votre main sous la table
05:40
and try to localizelocaliser it with your other handmain,
138
325000
2000
et essayez le la localiser avec votre autre main,
05:42
you can be off by severalnombreuses centimeterscentimètres
139
327000
2000
vous pouvez vous tromper de plusieurs centimètres
05:44
due to the noisebruit in sensorysensoriel feedbackretour d'information.
140
329000
2000
à cause du bruit dans le feedback sensoriel.
05:46
SimilarlyDe la même façon, when you put motormoteur outputsortie on movementmouvement outputsortie,
141
331000
2000
De même, quand vous superposez un résultat moteur et un résultat de mouvement,
05:48
it's extremelyextrêmement noisybruyant.
142
333000
2000
c'est extrêmement bruyant.
05:50
ForgetOubliez about tryingen essayant to hitfrappé the bull'sde Bull eyeœil in dartsfléchettes,
143
335000
2000
Oubliez d'essayer d'atteindre le cœur de la cible aux fléchettes,
05:52
just aimobjectif for the sameMême spotplace over and over again.
144
337000
2000
visez juste le même endroit encore et encore.
05:54
You have a hugeénorme spreadpropager due to movementmouvement variabilityvariabilité.
145
339000
3000
Vous avez une énorme écart à cause de la variabilité du mouvement.
05:57
And more than that, the outsideà l'extérieur worldmonde, or tasktâche,
146
342000
2000
Et plus encore, le monde extérieur, ou la tâche,
05:59
is bothtous les deux ambiguousambiguë and variablevariable.
147
344000
2000
sont tous deux ambigus et variables.
06:01
The teapotthéière could be fullplein, it could be emptyvide.
148
346000
2000
La théière pourrait être pleine, elle pourrait être vide.
06:03
It changeschangements over time.
149
348000
2000
Cela change avec le temps.
06:05
So we work in a wholeentier sensorysensoriel movementmouvement tasktâche soupsoupe of noisebruit.
150
350000
4000
Donc nous travaillons dans une tâche sensorimotrice qui est une pleine soupe de bruit.
06:09
Now this noisebruit is so great
151
354000
2000
Maintenant le bruit est si grand
06:11
that societysociété placesdes endroits a hugeénorme premiumPremium
152
356000
2000
que la société place une énorme importance
06:13
on those of us who can reduceréduire the consequencesconséquences of noisebruit.
153
358000
3000
sur ceux d'entre nous qui peuvent réduire les conséquences du bruit.
06:16
So if you're luckychanceux enoughassez to be ablecapable to knockKnock a smallpetit whiteblanc ballballon
154
361000
3000
Donc si vous êtes assez chanceux pour pouvoir envoyer une petite balle blanche
06:19
into a holetrou severalnombreuses hundredcent yardsyards away usingen utilisant a long metalmétal stickbâton,
155
364000
3000
à plusieurs centaines de mètres, avec un long bâton en métal,
06:22
our societysociété will be willingprêt to rewardrécompense you
156
367000
2000
notre société sera prête à vous récompenser
06:24
with hundredsdes centaines of millionsdes millions of dollarsdollars.
157
369000
3000
avec des millions de dollars.
06:27
Now what I want to convinceconvaincre you of
158
372000
2000
Maintenant ce dont je veux vous convaincre
06:29
is the braincerveau alsoaussi goesva throughpar a lot of efforteffort
159
374000
2000
est que le cerveau fait aussi beaucoup d'efforts
06:31
to reduceréduire the negativenégatif consequencesconséquences
160
376000
2000
pour réduire les conséquences négatives
06:33
of this sortTrier of noisebruit and variabilityvariabilité.
161
378000
2000
de ce type de bruit et de variabilité.
06:35
And to do that, I'm going to tell you about a frameworkcadre
162
380000
2000
Et pour faire cela, je vais vous parler d'un cadre théorique
06:37
whichlequel is very popularpopulaire in statisticsstatistiques and machinemachine learningapprentissage of the last 50 yearsannées
163
382000
3000
très populaire en statistiques et en apprentissage automatique depuis 50 ans,
06:40
calledappelé BayesianBayésienne decisiondécision theorythéorie.
164
385000
2000
qu'on appelle la théorie bayésienne de la décision.
06:42
And it's more recentlyrécemment a unifyingunificateur way
165
387000
3000
Récemment c'est devenu un moyen unificateur
06:45
to think about how the braincerveau dealsoffres with uncertaintyincertitude.
166
390000
3000
de penser à la façon dont le cerveau gère l'incertitude.
06:48
And the fundamentalfondamental ideaidée is you want to make inferencesinférences and then take actionsactes.
167
393000
3000
Et l'idée fondamentale est que vous voulez faire des inférences et agir.
06:51
So let's think about the inferenceinférence.
168
396000
2000
Donc pensons aux inférences.
06:53
You want to generateGénérer beliefscroyances about the worldmonde.
169
398000
2000
Vous voulez générer des croyances sur le monde.
06:55
So what are beliefscroyances?
170
400000
2000
Que sont les croyances ?
06:57
BeliefsCroyances could be: where are my armsbras in spaceespace?
171
402000
2000
Les croyances pourraient concerner la place de mes bras dans l'espace.
06:59
Am I looking at a catchat or a foxRenard?
172
404000
2000
Si je regarde un chat ou un renard.
07:01
But we're going to representreprésenter beliefscroyances with probabilitiesprobabilités.
173
406000
3000
Mais nous allons représenter les croyances par des probabilités.
07:04
So we're going to representreprésenter a beliefcroyance
174
409000
2000
Donc on va représenter une croyance
07:06
with a numbernombre betweenentre zerozéro and one --
175
411000
2000
avec un nombre compris entre 0 et 1 —
07:08
zerozéro meaningsens I don't believe it at all, one meansveux dire I'm absolutelyabsolument certaincertain.
176
413000
3000
0 signifiant que je ne crois pas du tout, 1 signifiant que je suis absolument certain.
07:11
And numbersNombres in betweenentre give you the graygris levelsles niveaux of uncertaintyincertitude.
177
416000
3000
Et les nombres entre deux vous donnent les niveaux gris d'incertitude.
07:14
And the keyclé ideaidée to BayesianBayésienne inferenceinférence
178
419000
2000
Et l'idée-clé de l'inférence bayésienne
07:16
is you have two sourcessources of informationinformation
179
421000
2000
est que vous avez deux sources d'information
07:18
from whichlequel to make your inferenceinférence.
180
423000
2000
à partir de laquelle faire votre inférence.
07:20
You have dataLes données,
181
425000
2000
Vous avez les données,
07:22
and dataLes données in neuroscienceneuroscience is sensorysensoriel inputcontribution.
182
427000
2000
et en neuroscience les données sont les informations sensorielles.
07:24
So I have sensorysensoriel inputcontribution, whichlequel I can take in to make beliefscroyances.
183
429000
3000
Donc vous avez les informations sensorielles, que je peux intégrer pour élaborer des croyances.
07:27
But there's anotherun autre sourcela source of informationinformation, and that's effectivelyefficacement prioravant knowledgeconnaissance.
184
432000
3000
Mais il y a une autre source d'information, et il s'agit en réalité du savoir préalable.
07:30
You accumulateaccumuler knowledgeconnaissance throughouttout au long de your life in memoriessouvenirs.
185
435000
3000
Vous amassez du savoir au cours de votre existence, sous forme de souvenirs.
07:33
And the pointpoint about BayesianBayésienne decisiondécision theorythéorie
186
438000
2000
Et le concept de la théorie bayésienne de la décision
07:35
is it givesdonne you the mathematicsmathématiques
187
440000
2000
est qu'elle vous fournit les mathématiques
07:37
of the optimaloptimal way to combinecombiner
188
442000
2000
supportant le moyen optimal de combiner
07:39
your prioravant knowledgeconnaissance with your sensorysensoriel evidencepreuve
189
444000
2000
votre savoir préalable avec vos preuves sensorielles
07:41
to generateGénérer newNouveau beliefscroyances.
190
446000
2000
pour générer de nouvelles croyances.
07:43
And I've put the formulaformule up there.
191
448000
2000
J'ai mis la formule ici.
07:45
I'm not going to explainExplique what that formulaformule is, but it's very beautifulbeau.
192
450000
2000
Je ne vais pas vous expliquer ce qu'est la formule, mais elle est très belle.
07:47
And it has realréal beautybeauté and realréal explanatoryexplicatif powerPuissance.
193
452000
3000
Elle a une réelle beauté et un réel pouvoir d'explication.
07:50
And what it really saysdit, and what you want to estimateestimation,
194
455000
2000
Et ce qu'elle dit vraiment, ce que vous voulez estimer,
07:52
is the probabilityprobabilité of differentdifférent beliefscroyances
195
457000
2000
c'est la probabilité des différentes croyances
07:54
givendonné your sensorysensoriel inputcontribution.
196
459000
2000
étant donné les informations sensorielles que vous avez.
07:56
So let me give you an intuitiveintuitif exampleExemple.
197
461000
2000
Laissez-moi vous donner un exemple intuitif.
07:58
ImagineImaginez you're learningapprentissage to playjouer tennistennis
198
463000
3000
imaginez que vous jouez au tennis
08:01
and you want to decidedécider where the ballballon is going to bounceBounce
199
466000
2000
et vous voulez décider où la balle va rebondir
08:03
as it comesvient over the netnet towardsvers you.
200
468000
2000
alors qu'elle passe le filet dans votre direction.
08:05
There are two sourcessources of informationinformation
201
470000
2000
Il y a deux sources d'information
08:07
Bayes'Bayes ruleRègle tellsraconte you.
202
472000
2000
d'après la loi de Bayes.
08:09
There's sensorysensoriel evidencepreuve -- you can use visualvisuel informationinformation auditoryauditif informationinformation,
203
474000
3000
Il y a les preuves sensorielles : vous pouvez utiliser les informations visuelles et auditives,
08:12
and that mightpourrait tell you it's going to landterre in that redrouge spotplace.
204
477000
3000
et elles pourraient vous indiquer qu'elle va atterir sur ce point rouge.
08:15
But you know that your sensessens are not perfectparfait,
205
480000
3000
Mais vous savez que vos sens ne sont pas parfaits,
08:18
and thereforedonc there's some variabilityvariabilité of where it's going to landterre
206
483000
2000
et qu'en conséquence là où la balle va atterrir est variable,
08:20
shownmontré by that cloudnuage of redrouge,
207
485000
2000
comme indiqué par ce nuage de rouge,
08:22
representingreprésentant numbersNombres betweenentre 0.5 and maybe 0.1.
208
487000
3000
qui représente les nombres entre 0.5 et peut-être 1.
08:26
That informationinformation is availabledisponible in the currentactuel shotcoup,
209
491000
2000
Cette information est fournie par le coup actuel,
08:28
but there's anotherun autre sourcela source of informationinformation
210
493000
2000
mais il y a une autre source d'information
08:30
not availabledisponible on the currentactuel shotcoup,
211
495000
2000
qui n'est pas fournie par le coup actuel,
08:32
but only availabledisponible by repeatedrépété experienceexpérience in the gameJeu of tennistennis,
212
497000
3000
mais seulement par une expérience répétée du jeu de tennis,
08:35
and that's that the ballballon doesn't bounceBounce
213
500000
2000
et c'est que durant le match la balle ne rebondit pas
08:37
with equalégal probabilityprobabilité over the courttribunal duringpendant the matchrencontre.
214
502000
2000
avec la même probabilité à travers le court.
08:39
If you're playingen jouant againstcontre a very good opponentadversaire,
215
504000
2000
Si vous jouez contre de très bons adversaires,
08:41
they maymai distributedistribuer it in that greenvert arearégion,
216
506000
2000
il se peut qu'ils envoient dans cette zone verte,
08:43
whichlequel is the prioravant distributionDistribution,
217
508000
2000
qui est la distribution préalable,
08:45
makingfabrication it harddifficile for you to returnrevenir.
218
510000
2000
rendant difficile pour vous de renvoyer.
08:47
Now bothtous les deux these sourcessources of informationinformation carryporter importantimportant informationinformation.
219
512000
2000
Maintenant ces deux sources d'information fournissent d'importantes données.
08:49
And what Bayes'Bayes ruleRègle saysdit
220
514000
2000
Et ce que la loi de Bayes dit
08:51
is that I should multiplymultiplier the numbersNombres on the redrouge by the numbersNombres on the greenvert
221
516000
3000
est que je devrais multiplier les nombres de la zone rouge par les nombres de la zone verte
08:54
to get the numbersNombres of the yellowjaune, whichlequel have the ellipsesellipses,
222
519000
3000
pour obtenir les nombres de la zone jaune, qui a les ellipses,
08:57
and that's my beliefcroyance.
223
522000
2000
et qui représentent ma croyance.
08:59
So it's the optimaloptimal way of combiningcombinant informationinformation.
224
524000
3000
Donc c'est le moyen optimal de combiner les informations.
09:02
Now I wouldn'tne serait pas tell you all this if it wasn'tn'était pas that a fewpeu yearsannées agodepuis,
225
527000
2000
Maintenant je ne vous dirais pas tout ça si ce n'était qu'il y a quelques années,
09:04
we showedmontré this is exactlyexactement what people do
226
529000
2000
nous avons montré que c'est exactement ce que les gens font
09:06
when they learnapprendre newNouveau movementmouvement skillscompétences.
227
531000
2000
quand ils acquièrent de nouvelles habiletés motrices.
09:08
And what it meansveux dire
228
533000
2000
Et ce que cela signifie
09:10
is we really are BayesianBayésienne inferenceinférence machinesmachines.
229
535000
2000
est que nous sommes réellement des machines à inférences bayésiennes.
09:12
As we go around, we learnapprendre about statisticsstatistiques of the worldmonde and layallonger that down,
230
537000
4000
En circulant, nous apprenons à propos des statistiques du monde et en retenons les règles,
09:16
but we alsoaussi learnapprendre
231
541000
2000
mais nous apprenons aussi
09:18
about how noisybruyant our ownposséder sensorysensoriel apparatusappareil is,
232
543000
2000
à quel point notre propre système sensoriel est bruyant,
09:20
and then combinecombiner those
233
545000
2000
et combinons alors les deux
09:22
in a realréal BayesianBayésienne way.
234
547000
2000
dans un mode réellement bayésien.
09:24
Now a keyclé partpartie to the BayesianBayésienne is this partpartie of the formulaformule.
235
549000
3000
Maintenant une partie-clé du concept bayésien est cette partie de la formule.
09:27
And what this partpartie really saysdit
236
552000
2000
Ce que cette partie dit vraiment
09:29
is I have to predictprédire the probabilityprobabilité
237
554000
2000
est que je dois prédire la probabilité
09:31
of differentdifférent sensorysensoriel feedbacksrétroactions
238
556000
2000
de différents feedbacks sensoriels
09:33
givendonné my beliefscroyances.
239
558000
2000
étant donné mes croyances.
09:35
So that really meansveux dire I have to make predictionsprédictions of the futureavenir.
240
560000
3000
Donc cela signifie vraiment que je dois faire des prédictions à propos du futur.
09:38
And I want to convinceconvaincre you the braincerveau does make predictionsprédictions
241
563000
2000
E je veux vous convaincre que le cerveau fait ces prédictions
09:40
of the sensorysensoriel feedbackretour d'information it's going to get.
242
565000
2000
à propos du feedback sensoriel qu'il va recevoir.
09:42
And moreoverde plus, it profoundlyprofondément changeschangements your perceptionsperceptions
243
567000
2000
De plus, il change profondément vos perceptions
09:44
by what you do.
244
569000
2000
par ce que vous faites.
09:46
And to do that, I'll tell you
245
571000
2000
Et pour faire cela, je vais vous dire
09:48
about how the braincerveau dealsoffres with sensorysensoriel inputcontribution.
246
573000
2000
comment le cerveau gère l'information sensorielle.
09:50
So you sendenvoyer a commandcommander out,
247
575000
3000
Donc vous envoyez une commande,
09:53
you get sensorysensoriel feedbackretour d'information back,
248
578000
2000
vous recevez du feedback en retour,
09:55
and that transformationtransformation is governedgouverné
249
580000
2000
et cette transformation est gouvernée
09:57
by the physicsla physique of your bodycorps and your sensorysensoriel apparatusappareil.
250
582000
3000
par la physique de votre corps et votre système sensoriel.
10:00
But you can imagineimaginer looking insideà l'intérieur the braincerveau.
251
585000
2000
Mais vous pouvez imaginer regarder à l'intérieur du cerveau.
10:02
And here'svoici insideà l'intérieur the braincerveau.
252
587000
2000
Voici l'intérieur du cerveau.
10:04
You mightpourrait have a little predictorPredictor, a neuralneural simulatorsimulateur de,
253
589000
2000
Vous pourriez avoir un petit prédicteur, un simulateur neuronal,
10:06
of the physicsla physique of your bodycorps and your sensessens.
254
591000
2000
de la physique de votre corps et de vos sens.
10:08
So as you sendenvoyer a movementmouvement commandcommander down,
255
593000
2000
Donc en envoyant une commande de mouvement vers le bas,
10:10
you taprobinet a copycopie of that off
256
595000
2000
vous en tapez une copie
10:12
and runcourir it into your neuralneural simulatorsimulateur de
257
597000
2000
et la rentrez dans votre simulateur neuronal
10:14
to anticipateanticiper the sensorysensoriel consequencesconséquences of your actionsactes.
258
599000
4000
pour anticiper les conséquences sensorielles de vos actions.
10:18
So as I shakesecouer this ketchupketchup bottlebouteille,
259
603000
2000
Donc alors que je secoue cette bouteille de ketchup,
10:20
I get some truevrai sensorysensoriel feedbackretour d'information as the functionfonction of time in the bottombas rowrangée.
260
605000
3000
je reçois de réels feedbacks sensoriels en fonction du temps dans la ligne du bas.
10:23
And if I've got a good predictorPredictor, it predictsprédit the sameMême thing.
261
608000
3000
Et si j'ai un bon simulateur, il prédit la même chose.
10:26
Well why would I botherpas la peine doing that?
262
611000
2000
Bien, pourquoi je m'embêterai à faire ça ?
10:28
I'm going to get the sameMême feedbackretour d'information anywayen tous cas.
263
613000
2000
Je vais recevoir le même feedback de toutes les façons.
10:30
Well there's good reasonsles raisons.
264
615000
2000
Eh bien, il y a de bonnes raisons.
10:32
ImagineImaginez, as I shakesecouer the ketchupketchup bottlebouteille,
265
617000
2000
Imaginez, alors que je secoue la bouteille de ketchup,
10:34
someoneQuelqu'un very kindlyaimablement comesvient up to me and tapsrobinets it on the back for me.
266
619000
3000
quelqu'un vient très gentiment à moi et tape le dessous de la bouteille pour moi.
10:37
Now I get an extrasupplémentaire sourcela source of sensorysensoriel informationinformation
267
622000
2000
Maintenant j'ai une source supplémentaire d'information
10:39
due to that externalexterne actacte.
268
624000
2000
à cause de cette action externe ;
10:41
So I get two sourcessources.
269
626000
2000
Donc j'ai deux sources.
10:43
I get you tappingtapotement on it, and I get me shakingtremblement it,
270
628000
3000
J'ai vous, qui tapez la bouteille, et moi, qui la secoue,
10:46
but from my senses'Senses pointpoint of viewvue,
271
631000
2000
mais du point de vue de mes sens,
10:48
that is combinedcombiné togetherensemble into one sourcela source of informationinformation.
272
633000
3000
c'est combiné en une seule source d'information.
10:51
Now there's good reasonraison to believe
273
636000
2000
Maintenant il y a de bonnes raisons de croire
10:53
that you would want to be ablecapable to distinguishdistinguer externalexterne eventsévénements from internalinterne eventsévénements.
274
638000
3000
que vous voudriez pouvoir distinguer les évènements externes des évènements internes.
10:56
Because externalexterne eventsévénements are actuallyréellement much more behaviorallysur le plan comportemental relevantpertinent
275
641000
3000
Parce que les évènements externes sont en réalité bien plus pertinents du point de vue comportemental
10:59
than feelingsentiment everything that's going on insideà l'intérieur my bodycorps.
276
644000
3000
que de sentir tout ce qui se passe à l'extérieur de mon corps.
11:02
So one way to reconstructreconstruire that
277
647000
2000
Donc une façon de reconstruire cela
11:04
is to comparecomparer the predictionprédiction --
278
649000
2000
est de comparer la prédiction —
11:06
whichlequel is only basedbasé on your movementmouvement commandscommandes --
279
651000
2000
seulement basée sur les commandes motrices —
11:08
with the realityréalité.
280
653000
2000
avec la réalité.
11:10
Any discrepancydivergence should hopefullyj'espère be externalexterne.
281
655000
3000
Toute divergence devrait être externe, espérons.
11:13
So as I go around the worldmonde,
282
658000
2000
Donc alors que je circule dans le monde,
11:15
I'm makingfabrication predictionsprédictions of what I should get, subtractingen soustrayant them off.
283
660000
3000
je fais des prédictions de ce que devrais obtenir, et je les soustrais.
11:18
Everything left over is externalexterne to me.
284
663000
2000
Tout ce qui reste est externe pour moi.
11:20
What evidencepreuve is there for this?
285
665000
2000
Quelle preuve j'ai de ça ?
11:22
Well there's one very clearclair exampleExemple
286
667000
2000
Eh bien, il y a un exemple très clair
11:24
where a sensationsensation generatedgénéré by myselfmoi même feelsse sent very differentdifférent
287
669000
2000
où une sensation générée par moi-même semble très différente
11:26
then if generatedgénéré by anotherun autre personla personne.
288
671000
2000
d'une générée par une autre personne.
11:28
And so we decideddécidé the mostles plus obviousévident placeendroit to startdébut
289
673000
2000
Donc nous avons décidé que le plus évident point de départ
11:30
was with ticklingchatouillement.
290
675000
2000
était le chatouillement.
11:32
It's been knownconnu for a long time, you can't tickleTickle yourselftoi même
291
677000
2000
Il est connu depuis longtemps que vous ne pouvez pas vous chatouiller
11:34
as well as other people can.
292
679000
2000
aussi bien que les autres le peuvent.
11:36
But it hasn'tn'a pas really been shownmontré, it's because you have a neuralneural simulatorsimulateur de,
293
681000
3000
Mais ça n'a pas vraiment été montré, c'est parce que vous avez un simulateur neuronal
11:39
simulatingsimulant your ownposséder bodycorps
294
684000
2000
qui simule votre propre corps
11:41
and subtractingen soustrayant off that sensesens.
295
686000
2000
et soustrait cette sensation.
11:43
So we can bringapporter the experimentsexpériences of the 21stst centurysiècle
296
688000
3000
Donc nous pouvons apporter les expériences du 21ème siècle
11:46
by applyingappliquer roboticrobotique technologiesles technologies to this problemproblème.
297
691000
3000
en appliquant la technologie robotique à ce problème.
11:49
And in effecteffet, what we have is some sortTrier of stickbâton in one handmain attachedattaché to a robotrobot,
298
694000
3000
Et en effet, nous avons une sorte de bâton dans une main attachée à un robot,
11:52
and they're going to movebouge toi that back and forwardvers l'avant.
299
697000
2000
et ils vont bouger ça d'avant en arrière.
11:54
And then we're going to trackPiste that with a computerordinateur
300
699000
2000
Ensuite nous allons relever cela avec un ordinateur
11:56
and use it to controlcontrôle anotherun autre robotrobot,
301
701000
2000
et l'utiliser pour contrôler un autre robot,
11:58
whichlequel is going to tickleTickle theirleur palmpaume with anotherun autre stickbâton.
302
703000
2000
qui va chatouiller leur paume avec un autre bâton.
12:00
And then we're going to askdemander them to ratetaux a bunchbouquet of things
303
705000
2000
Ensuite on va leur demander d'évaluer un tas de chose,
12:02
includingcomprenant ticklishnessticklishness.
304
707000
2000
inclus le chatouillement.
12:04
I'll showmontrer you just one partpartie of our studyétude.
305
709000
2000
Je vais vous montrer juste une partie de notre étude.
12:06
And here I've takenpris away the robotsdes robots,
306
711000
2000
Ici j'ai enlevé les robots,
12:08
but basicallyen gros people movebouge toi with theirleur right armbras sinusoidallyonde sinusoïdale back and forwardvers l'avant.
307
713000
3000
mais en gros les gens bougent leur bras droit dans un mouvement sinusoïdal d'avant en arrière.
12:11
And we replayReplay that to the other handmain with a time delayretard.
308
716000
3000
Nous refaisons ça sur l'autre main avec un délai temporel.
12:14
EitherOu l’autre no time delayretard,
309
719000
2000
Soit pas de délai,
12:16
in whichlequel caseCas lightlumière would just tickleTickle your palmpaume,
310
721000
2000
auquel cas la lumière chatouillerait votre paume,
12:18
or with a time delayretard of two-tenthsdeux dixièmes of three-tenthstrois dixièmes of a secondseconde.
311
723000
4000
soit avec un délai de deux ou trois dixièmes de seconde.
12:22
So the importantimportant pointpoint here
312
727000
2000
ce qui est important ici
12:24
is the right handmain always does the sameMême things -- sinusoidalsinusoïdal movementmouvement.
313
729000
3000
est que la main droite fait toujours la même chose, un mouvement sinusoïdal.
12:27
The left handmain always is the sameMême and putsmet sinusoidalsinusoïdal tickleTickle.
314
732000
3000
La main gauche fait toujours pareille et donne des chatouillements sinusoïdaux.
12:30
All we're playingen jouant with is a tempotempo causalitycausalité.
315
735000
2000
La seule chose que nous manipulons est la causalité rythmique.
12:32
And as we go from naughtnéant to 0.1 secondseconde,
316
737000
2000
Et en passant de 0 à 0.1 seconde,
12:34
it becomesdevient more ticklishticklish.
317
739000
2000
ça chatouille plus.
12:36
As you go from 0.1 to 0.2,
318
741000
2000
En passant de 0.1 à 0.2 secondes,
12:38
it becomesdevient more ticklishticklish at the endfin.
319
743000
2000
ça chatouille plus à la fin.
12:40
And by 0.2 of a secondseconde,
320
745000
2000
Et une fois à 0.2 seconde,
12:42
it's equivalentlyde manière équivalente ticklishticklish
321
747000
2000
ça chatouille autant
12:44
to the robotrobot that just tickledchatouillé you withoutsans pour autant you doing anything.
322
749000
2000
le robot qui vient de vous chatouiller, sans que vous n'ayez rien fait.
12:46
So whateverpeu importe is responsibleresponsable for this cancellationannulation
323
751000
2000
Donc quoi que ce soit responsable de cette annulation
12:48
is extremelyextrêmement tightlyfermement coupledcouplé with tempotempo causalitycausalité.
324
753000
3000
est extrêmement lié à la causalité rythmique.
12:51
And basedbasé on this illustrationillustration, we really convincedconvaincu ourselvesnous-mêmes in the fieldchamp
325
756000
3000
Et à partir de cette illustration, nous nous sommes réellement convaincus dans le champ
12:54
that the brain'scerveaux makingfabrication preciseprécis predictionsprédictions
326
759000
2000
que le cerveau fait des prédictions précises
12:56
and subtractingen soustrayant them off from the sensationssensations.
327
761000
3000
et les soustrait des sensations.
12:59
Now I have to admitadmettre, these are the worstpire studiesétudes my lablaboratoire has ever runcourir.
328
764000
3000
Maintenant je dois admettre, ce sont les pires études que mon laboratoire n’ait jamais faites.
13:02
Because the tickleTickle sensationsensation on the palmpaume comesvient and goesva,
329
767000
2000
Parce que la sensation de chatouillement dur la paume vient et repart,
13:04
you need largegrand numbersNombres of subjectssujets
330
769000
2000
vous avez besoin d'un grand nombre de sujets
13:06
with these starsétoiles makingfabrication them significantimportant.
331
771000
2000
avec ces étoiles qui les indiquent comme significatifs.
13:08
So we were looking for a much more objectiveobjectif way
332
773000
2000
Donc on cherchait un moyen bien plus objectif
13:10
to assessévaluer this phenomenaphénomènes.
333
775000
2000
d'évaluer ce phénomène.
13:12
And in the interveningintervenant yearsannées I had two daughtersfilles.
334
777000
2000
Et pendant ces années-là, j'ai eu deux filles.
13:14
And one thing you noticeremarquer about childrenles enfants in backseatssièges of carsdes voitures on long journeysvoyages,
335
779000
3000
Et pendant de longs voyages, vous observez que les enfants dans les sièges-auto
13:17
they get into fightscombats --
336
782000
2000
se battent ;
13:19
whichlequel startedcommencé with one of them doing something to the other, the other retaliatingriposter.
337
784000
3000
ça commence avec l'un d'eux qui fait quelque chose à l'autre, et l'autre se venge.
13:22
It quicklyrapidement escalatess’aggrave.
338
787000
2000
Ça escalade rapidement.
13:24
And childrenles enfants tendtendre to get into fightscombats whichlequel escalates’aggraver in termstermes of forceObliger.
339
789000
3000
Et les enfants tendent à commencer des batailles qui montent en termes de force.
13:27
Now when I screamedcrié at my childrenles enfants to stop,
340
792000
2000
Quand je criais à mes enfants d'arrêter,
13:29
sometimesparfois they would bothtous les deux say to me
341
794000
2000
parfois toutes deux me disaient
13:31
the other personla personne hitfrappé them harderPlus fort.
342
796000
3000
que l'autre les avait frappées plus fort.
13:34
Now I happense produire to know my childrenles enfants don't liemensonge,
343
799000
2000
Il s'avère que je sais que mes enfants ne mentent pas,
13:36
so I thought, as a neuroscientistchercheur en neurosciences,
344
801000
2000
donc j'ai pensé, comme neuroscientifique,
13:38
it was importantimportant how I could explainExplique
345
803000
2000
qu'il était important de pouvoir expliquer
13:40
how they were tellingrécit inconsistentinconsistant truthsvérités.
346
805000
2000
comment elles pouvaient dire des vérités inconsistantes.
13:42
And we hypothesizeposons l’hypothèse basedbasé on the ticklingchatouillement studyétude
347
807000
2000
Nous avons suggéré, en nous basant sur l'étude du chatouillement,
13:44
that when one childenfant hitsles coups anotherun autre,
348
809000
2000
que quand un enfant en frappe un autre,
13:46
they generateGénérer the movementmouvement commandcommander.
349
811000
2000
ils génèrent une commande de mouvement.
13:48
They predictprédire the sensorysensoriel consequencesconséquences and subtractSoustrayez it off.
350
813000
3000
Ils prédisent les conséquences sensorielles et les soustraient.
13:51
So they actuallyréellement think they'veils ont hitfrappé the personla personne lessMoins harddifficile than they have --
351
816000
2000
Donc ils pensent qu'ils ont en fait frappé l'autre moins fort qu'en réalité,
13:53
ratherplutôt like the ticklingchatouillement.
352
818000
2000
assez similaire au cas du chatouillement.
13:55
WhereasAlors que the passivepassif recipientdestinataire
353
820000
2000
Alors que le récipient passif,
13:57
doesn't make the predictionprédiction, feelsse sent the fullplein blowcoup.
354
822000
2000
ne faisant pas de prédiction, ressent la pleine force.
13:59
So if they retaliateriposter with the sameMême forceObliger,
355
824000
2000
Donc s'ils répondent avec la même force,
14:01
the first personla personne will think it's been escalatedescaladé.
356
826000
2000
le première personne pensera qu'ils ont escaladé.
14:03
So we decideddécidé to testtester this in the lablaboratoire.
357
828000
2000
Nous avons donc décidé de tester ça en laboratoire.
14:05
(LaughterRires)
358
830000
3000
(Rires)
14:08
Now we don't work with childrenles enfants, we don't work with hittingfrappe,
359
833000
2000
Maintenant on ne travaille pas les enfants, on ne travaille pas avec les coups,
14:10
but the conceptconcept is identicalidentique.
360
835000
2000
mais le concept est identique.
14:12
We bringapporter in two adultsadultes. We tell them they're going to playjouer a gameJeu.
361
837000
3000
On fait venir deux adultes. On leur dit qu'ils vont jouer à un jeu.
14:15
And so here'svoici playerjoueur one and playerjoueur two sittingséance oppositecontraire to eachchaque other.
362
840000
2000
Donc voici le joueur 1 et le joueur 2 assis l'une en face de l'autre.
14:17
And the gameJeu is very simplesimple.
363
842000
2000
Le jeu est très simple.
14:19
We startedcommencé with a motormoteur
364
844000
2000
On a commencé avec un moteur
14:21
with a little leverlevier de, a little forceObliger transfusertransfuser.
365
846000
2000
avec un petit levier, un petit diffuseur de force.
14:23
And we use this motormoteur to applyappliquer forceObliger down to playerjoueur one'sson fingersdes doigts
366
848000
2000
Et on utilise le moteur pour appliquer la force sur le doigt du joueur 1
14:25
for threeTrois secondssecondes and then it stopsarrêts.
367
850000
3000
pendant 3 secondes, avant d'arrêter.
14:28
And that player'sdu joueur been told, rememberrappelles toi the experienceexpérience of that forceObliger
368
853000
3000
Et on dit au joueur de se rappeler de l'expérience de cette force
14:31
and use your other fingerdoigt
369
856000
2000
et d'utiliser son autre doigt
14:33
to applyappliquer the sameMême forceObliger
370
858000
2000
pour appliquer la même force
14:35
down to the other subject'sdu sujet fingerdoigt throughpar a forceObliger transfusertransfuser -- and they do that.
371
860000
3000
sur le doigt de l'autre joueur, avec un diffuseur de force — et ils le font.
14:38
And playerjoueur two'sdeux been told, rememberrappelles toi the experienceexpérience of that forceObliger.
372
863000
3000
Et on dit au joueur 2 de se rappeler l'expérience de cette force,
14:41
Use your other handmain to applyappliquer the forceObliger back down.
373
866000
3000
et d'utiliser son autre main pour appliquer cette force.
14:44
And so they take it in turnsse tourne
374
869000
2000
Donc ils prennent des tours
14:46
to applyappliquer the forceObliger they'veils ont just experiencedexpérimenté back and forwardvers l'avant.
375
871000
2000
pour appliquer la force qu'ils viennent d'expérimenter.
14:48
But criticallycritique,
376
873000
2000
Mais de façon importante,
14:50
they're briefeda informé about the rulesrègles of the gameJeu in separateséparé roomspièces.
377
875000
3000
on leur explique les règles du jeu dans des pièces séparées.
14:53
So they don't know the rulesrègles the other person'spersonne playingen jouant by.
378
878000
2000
Donc ils ne savent pas quelles sont les règles que l'autre joueur applique.
14:55
And what we'venous avons measuredmesuré
379
880000
2000
Ce que nous avons mesuré
14:57
is the forceObliger as a functionfonction of termstermes.
380
882000
2000
est la force comme une fonction de termes.
14:59
And if we look at what we startdébut with,
381
884000
2000
Si on regarde ce avec quoi nous commençons —
15:01
a quartertrimestre of a NewtonNewton there, a numbernombre of turnsse tourne,
382
886000
2000
un quart de Newton ici, un nombre de tours —
15:03
perfectparfait would be that redrouge lineligne.
383
888000
2000
cette ligne rouge serait parfaite.
15:05
And what we see in all pairspaires of subjectssujets is this --
384
890000
3000
Mais ce qu'on observe dans toutes les paires de sujets est ceci :
15:08
a 70 percentpour cent escalationEscalation in forceObliger
385
893000
2000
une escalade de la force de 70%
15:10
on eachchaque go.
386
895000
2000
à chaque tour.
15:12
So it really suggestssuggère, when you're doing this --
387
897000
2000
Cela suggère vraiment, quand vous faites cela —
15:14
basedbasé on this studyétude and othersautres we'venous avons doneterminé --
388
899000
2000
basé sur cette étude et d'autres que nous avons faites —
15:16
that the braincerveau is cancelingannulation de the sensorysensoriel consequencesconséquences
389
901000
2000
que le cerveau annule les conséquences sensorielles
15:18
and underestimatingsous-estimant the forceObliger it's producingproduisant.
390
903000
2000
et sous-estime la force qu'il produit.
15:20
So it re-showsre-montre the braincerveau makesfait du predictionsprédictions
391
905000
2000
Donc ça montre encore que le cerveau fait des prédictions
15:22
and fundamentallyfondamentalement changeschangements the preceptspréceptes.
392
907000
3000
et change fondamentalement les préceptes.
15:25
So we'venous avons madefabriqué inferencesinférences, we'venous avons doneterminé predictionsprédictions,
393
910000
3000
Donc nous avons fait des inférences, nous avons fait des prédictions,
15:28
now we have to generateGénérer actionsactes.
394
913000
2000
maintenant nous devons générer des actions.
15:30
And what Bayes'Bayes ruleRègle saysdit is, givendonné my beliefscroyances,
395
915000
2000
Et la loi de Bayes dit que, en fonction de mes croyances,
15:32
the actionaction should in some sensesens be optimaloptimal.
396
917000
2000
l'action devrait dans un sens être optimale.
15:34
But we'venous avons got a problemproblème.
397
919000
2000
Mais nous avons un problème.
15:36
TasksTâches are symbolicsymbolique -- I want to drinkboisson, I want to danceDanse --
398
921000
3000
Les tâches sont symboliques — je veux boire, je veux danser —
15:39
but the movementmouvement systemsystème has to contractContrat 600 musclesmuscles
399
924000
2000
mais le système moteur doit contracter 600 muscles
15:41
in a particularparticulier sequenceséquence.
400
926000
2000
dans une séquence particulière.
15:43
And there's a biggros gapécart
401
928000
2000
Et il y a un grand écart
15:45
betweenentre the tasktâche and the movementmouvement systemsystème.
402
930000
2000
entre la tâche et le système moteur.
15:47
So it could be bridgedponté in infinitelyinfiniment manybeaucoup differentdifférent waysfaçons.
403
932000
2000
Donc il pourrait être comblé de façons infiniment différentes.
15:49
So think about just a pointpoint to pointpoint movementmouvement.
404
934000
2000
Pensez juste à un mouvement d'un point à un autre.
15:51
I could choosechoisir these two pathssentiers
405
936000
2000
Je pourrais choisir ces deux chemins
15:53
out of an infiniteinfini numbernombre of pathssentiers.
406
938000
2000
parmi une quantité infinie de chemins.
15:55
HavingAyant chosenchoisi a particularparticulier pathchemin,
407
940000
2000
Après avoir choisi un chemin particulier,
15:57
I can holdtenir my handmain on that pathchemin
408
942000
2000
je peux tenir ma main sur ce chemin
15:59
as infinitelyinfiniment manybeaucoup differentdifférent jointmixte configurationsconfigurations.
409
944000
2000
dans une infinité de configurations articulaires.
16:01
And I can holdtenir my armbras in a particularparticulier jointmixte configurationConfiguration
410
946000
2000
Et je peux tenir mon bras dans un configuration articulaire spécifique,
16:03
eithernon plus very stiffrigide or very relaxedassouplies.
411
948000
2000
soit très raide, soit très détendu.
16:05
So I have a hugeénorme amountmontant of choicechoix to make.
412
950000
3000
Donc j'ai une énorme quantité de choix à faire.
16:08
Now it turnsse tourne out, we are extremelyextrêmement stereotypicalstéréotypées.
413
953000
3000
Maintenant il s'avère que nous sommes très stéréotypiques.
16:11
We all movebouge toi the sameMême way prettyjoli much.
414
956000
3000
Nous bougeons tous pour ainsi dire de la même façon.
16:14
And so it turnsse tourne out we're so stereotypicalstéréotypées,
415
959000
2000
Et il s'avère que nous sommes si stéréotypiques
16:16
our brainscerveaux have got dedicateddévoué neuralneural circuitrycircuits
416
961000
2000
que nos cerveaux ont un circuit neuronal dédié
16:18
to decodedécoder this stereotypingles stéréotypes.
417
963000
2000
au décodage de ces stéréotypes.
16:20
So if I take some dotspoints
418
965000
2000
Donc si je prends des points
16:22
and setensemble them in motionmouvement with biologicalbiologique motionmouvement,
419
967000
3000
et je les fais bouger avec un mouvement biologique,
16:25
your brain'scerveaux circuitrycircuits would understandcomprendre instantlyimmédiatement what's going on.
420
970000
3000
votre circuit cérébral comprendra immédiatement ce qui se passe.
16:28
Now this is a bunchbouquet of dotspoints movingen mouvement.
421
973000
2000
Voici un tas de points qui bougent.
16:30
You will know what this personla personne is doing,
422
975000
3000
Vous saurez ce que cette personne fait,
16:33
whetherqu'il s'agisse happycontent, sadtriste, oldvieux, youngJeune -- a hugeénorme amountmontant of informationinformation.
423
978000
3000
si elle est heureuse, triste, vieille, jeune — une énorme quantité d'information.
16:36
If these dotspoints were carsdes voitures going on a racingcourses circuitcircuit,
424
981000
2000
Si ces points étaient des voitures sur un circuit automobile,
16:38
you would have absolutelyabsolument no ideaidée what's going on.
425
983000
3000
vous n'auriez absolument aucune idée de ce qui se passe.
16:41
So why is it
426
986000
2000
Donc pourquoi est-ce que
16:43
that we movebouge toi the particularparticulier waysfaçons we do?
427
988000
2000
nous bougeons de la façon particulière qu'est la nôtre ?
16:45
Well let's think about what really happensarrive.
428
990000
2000
Eh bien, pensons à ce qui se passe vraiment.
16:47
Maybe we don't all quiteassez movebouge toi the sameMême way.
429
992000
3000
Peut-être que nous ne bougeons pas vraiment tous de la même façon.
16:50
Maybe there's variationvariation in the populationpopulation.
430
995000
2000
Peut-être qu'il y a de la variation dans la population.
16:52
And maybe those who movebouge toi better than othersautres
431
997000
2000
Et peut-être que ceux qui bougent mieux que les autres
16:54
have got more chancechance of gettingobtenir theirleur childrenles enfants into the nextprochain generationgénération.
432
999000
2000
ont plus de chances d'amener leurs enfants jusqu'à la prochaine génération.
16:56
So in evolutionaryévolutionniste scalesBalance, movementsmouvements get better.
433
1001000
3000
Donc à l'échelle de l'évolution, les mouvements s'améliorent.
16:59
And perhapspeut être in life, movementsmouvements get better throughpar learningapprentissage.
434
1004000
3000
Et peut-être que dans la vie, les mouvements s'améliorent par l'apprentissage.
17:02
So what is it about a movementmouvement whichlequel is good or badmal?
435
1007000
2000
Donc qu'est-ce qui fait qu'un mouvement est bon ou mauvais ?
17:04
ImagineImaginez I want to interceptordonnée à l’origine this ballballon.
436
1009000
2000
Imaginez que je veux intercepter cette balle.
17:06
Here are two possiblepossible pathssentiers to that ballballon.
437
1011000
3000
Voici deux chemins possibles pour cette balle.
17:09
Well if I choosechoisir the left-handmain gauche pathchemin,
438
1014000
2000
Si je choisis le chemin de gauche,
17:11
I can work out the forcesles forces requiredChamps obligatoires
439
1016000
2000
je peux calculer les forces requises
17:13
in one of my musclesmuscles as a functionfonction of time.
440
1018000
2000
dans un de mes muscles en fonction du temps.
17:15
But there's noisebruit addedajoutée to this.
441
1020000
2000
Mais il y a le bruit ajouté à cela.
17:17
So what I actuallyréellement get, basedbasé on this lovelycharmant, smoothlisse, desireddésiré forceObliger,
442
1022000
3000
Donc ce que j'ai vraiment, basé sur cette adorable, douce force voulue,
17:20
is a very noisybruyant versionversion.
443
1025000
2000
est une version très bruyante.
17:22
So if I pickchoisir the sameMême commandcommander throughpar manybeaucoup timesfois,
444
1027000
3000
Donc si je choisis la même commande de nombreuses fois,
17:25
I will get a differentdifférent noisybruyant versionversion eachchaque time, because noisebruit changeschangements eachchaque time.
445
1030000
3000
j'obtiendrai une version bruyante différente à chaque fois, parce que le bruit change à chaque fois.
17:28
So what I can showmontrer you here
446
1033000
2000
Ce que je peux vous montrer ici
17:30
is how the variabilityvariabilité of the movementmouvement will evolveévoluer
447
1035000
2000
est comment la variabilité du mouvement évolue
17:32
if I choosechoisir that way.
448
1037000
2000
si je choisis ce chemin.
17:34
If I choosechoisir a differentdifférent way of movingen mouvement -- on the right for exampleExemple --
449
1039000
3000
Si je choisis une façon différente de bouger, sur la droite par exemple,
17:37
then I'll have a differentdifférent commandcommander, differentdifférent noisebruit,
450
1042000
2000
alors j'aurai une commande différente, un bruit différent,
17:39
playingen jouant throughpar a noisybruyant systemsystème, very complicatedcompliqué.
451
1044000
3000
jouant via un système bruyant, très compliqué.
17:42
All we can be sure of is the variabilityvariabilité will be differentdifférent.
452
1047000
3000
Tout ce dont nous pouvons être sûrs est que la variabilité sera différente.
17:45
If I movebouge toi in this particularparticulier way,
453
1050000
2000
Si je bouge de cette façon particulière,
17:47
I endfin up with a smallerplus petit variabilityvariabilité acrossà travers manybeaucoup movementsmouvements.
454
1052000
3000
je finis avec une variabilité réduite à travers de nombreux mouvements.
17:50
So if I have to choosechoisir betweenentre those two,
455
1055000
2000
Donc si je dois choisir entre les deux,
17:52
I would choosechoisir the right one because it's lessMoins variablevariable.
456
1057000
2000
je prendrais celui de droite parce qu'il est moins variable.
17:54
And the fundamentalfondamental ideaidée
457
1059000
2000
L'idée fondamentale
17:56
is you want to planplan your movementsmouvements
458
1061000
2000
est que vous voulez planifier vos mouvements
17:58
so as to minimizeminimiser the negativenégatif consequenceconséquence of the noisebruit.
459
1063000
3000
pour minimiser les conséquences négatives du bruit.
18:01
And one intuitionintuition to get
460
1066000
2000
Et une intuition à avoir
18:03
is actuallyréellement the amountmontant of noisebruit or variabilityvariabilité I showmontrer here
461
1068000
2000
est qu'en réalité la quantité de bruit ou de variabilité que je montre ici
18:05
getsobtient biggerplus gros as the forceObliger getsobtient biggerplus gros.
462
1070000
2000
devient plus grande quand la force devient plus grande.
18:07
So you want to avoidéviter biggros forcesles forces as one principleprincipe.
463
1072000
3000
Donc vous voulez éviter les grandes forces en tant que principe.
18:10
So we'venous avons shownmontré that usingen utilisant this,
464
1075000
2000
Nous avons donc montré qu'en utilisant cela,
18:12
we can explainExplique a hugeénorme amountmontant of dataLes données --
465
1077000
2000
on peut expliquer une énorme quantité de données,
18:14
that exactlyexactement people are going about theirleur livesvies planningPlanification movementsmouvements
466
1079000
3000
que les gens vivent exactement leurs vies en planifiant des mouvements
18:17
so as to minimizeminimiser negativenégatif consequencesconséquences of noisebruit.
467
1082000
3000
pour minimiser les conséquences négatives du bruit.
18:20
So I hopeespérer I've convincedconvaincu you the braincerveau is there
468
1085000
2000
J'espère que je vous ai convaincus que le cerveau est là
18:22
and evolvedévolué to controlcontrôle movementmouvement.
469
1087000
2000
et a évolué pour contrôler le mouvement.
18:24
And it's an intellectualintellectuel challengedéfi to understandcomprendre how we do that.
470
1089000
3000
C'est un défi intellectuel de comprendre comment nous faisons cela.
18:27
But it's alsoaussi relevantpertinent
471
1092000
2000
Mais c'est également pertinent
18:29
for diseasemaladie and rehabilitationremise en état.
472
1094000
2000
pour les maladies et la rééducation.
18:31
There are manybeaucoup diseasesmaladies whichlequel effecteffet movementmouvement.
473
1096000
3000
Il y a de nombreuses maladies qui touchent le mouvement.
18:34
And hopefullyj'espère if we understandcomprendre how we controlcontrôle movementmouvement,
474
1099000
2000
Et j'espère que si nous comprenons comment nous contrôlons le mouvement,
18:36
we can applyappliquer that to roboticrobotique technologyLa technologie.
475
1101000
2000
nous pourrons appliquer cela à la technologie robotique.
18:38
And finallyenfin, I want to remindrappeler you,
476
1103000
2000
Finalement, je voulais vous rappeler que
18:40
when you see animalsanimaux do what look like very simplesimple tasksles tâches,
477
1105000
2000
quand vous voyez des animaux faire ce qui semble de très simples tâches,
18:42
the actualréel complexitycomplexité of what is going on insideà l'intérieur theirleur braincerveau
478
1107000
2000
la complexité réelle de ce qui se passe dans leurs cerveaux
18:44
is really quiteassez dramaticdramatique.
479
1109000
2000
est en fait assez spectaculaire.
18:46
Thank you very much.
480
1111000
2000
Merci beaucoup.
18:48
(ApplauseApplaudissements)
481
1113000
8000
(Applaudissements)
18:56
ChrisChris AndersonAnderson: QuickRapide questionquestion for you, DanDan.
482
1121000
2000
Chris Anderson : "Rapide question pour vous, Dan.
18:58
So you're a movementmouvement -- (DWDW: ChauvinistChauvine.) -- chauvinistchauvine.
483
1123000
4000
Donc vous êtes un" - DW : "patriote" - patriote du mouvement.
19:02
Does that mean that you think that the other things we think our brainscerveaux are about --
484
1127000
3000
Cela veut-il dire que vous pensez que les autres choses que nous pensons être des fonctions de nos cerveaux,
19:05
the dreamingrêver, the yearningdésir ardent, the fallingchute in love and all these things --
485
1130000
3000
rêver, les aspirations, tomber amoureux et toutes ces choses,
19:08
are a kindgentil of sidecôté showmontrer, an accidentaccident?
486
1133000
3000
sont une sorte de spectacle annexe, un accident ?"
19:11
DWDW: No, no, actuallyréellement I think they're all importantimportant
487
1136000
2000
DW : "Non, non, en fait je pense qu'elles sont toutes très importantes
19:13
to driveconduire the right movementmouvement behaviorcomportement to get reproductionla reproduction in the endfin.
488
1138000
3000
pour orienter le bon comportement moteur pour se reproduire au final.
19:16
So I think people who studyétude sensationsensation or memoryMémoire
489
1141000
3000
Donc je pense que les gens étudient les sensations ou la mémoire
19:19
withoutsans pour autant realizingréaliser why you're layingportant down memoriessouvenirs of childhoodenfance.
490
1144000
2000
sans réaliser pourquoi nous abandonnons des souvenirs d'enfance.
19:21
The factfait that we forgetoublier mostles plus of our childhoodenfance, for exampleExemple,
491
1146000
3000
Le fait que nous oublions la plupart de notre enfance, par exemple,
19:24
is probablyProbablement fine, because it doesn't effecteffet our movementsmouvements laterplus tard in life.
492
1149000
3000
n'est probablement pas un problème, parce que cela n'affecte pas nos mouvements plus tard dans la vie.
19:27
You only need to storele magasin things whichlequel are really going to effecteffet movementmouvement.
493
1152000
3000
Vous avez seulement besoin de stocker des choses qui vont vraiment affecter le mouvement."
19:30
CACA: So you think that people thinkingen pensant about the braincerveau, and consciousnessconscience generallygénéralement,
494
1155000
3000
CA : "Donc vous pensez que les gens qui réfléchissent au cerveau, et à la conscience en général,
19:33
could get realréal insightperspicacité
495
1158000
2000
pourrait bénéficier d'un réel apport
19:35
by sayingen disant, where does movementmouvement playjouer in this gameJeu?
496
1160000
2000
en se demandant ce que le mouvement a à voir dans ce jeu ?"
19:37
DWDW: So people have founda trouvé out for exampleExemple
497
1162000
2000
DW : "On a découvert par exemple
19:39
that studyingen train d'étudier visionvision in the absenceabsence of realizingréaliser why you have visionvision
498
1164000
2000
qu'étudier la vision sans réaliser pourquoi nous avons la vision
19:41
is a mistakeerreur.
499
1166000
2000
est une erreur.
19:43
You have to studyétude visionvision with the realizationréalisation
500
1168000
2000
Nous devons étudier la vision en considérant
19:45
of how the movementmouvement systemsystème is going to use visionvision.
501
1170000
2000
comment le système moteur va utiliser la vision.
19:47
And it usesles usages it very differentlydifféremment onceune fois que you think about it that way.
502
1172000
2000
Et il l'utilise très différemment une fois que vous y pensez comme cela."
19:49
CACA: Well that was quiteassez fascinatingfascinant. Thank you very much indeedeffectivement.
503
1174000
3000
CA :"C'était vraiment fascinant. Merci beaucoup en effet."
19:52
(ApplauseApplaudissements)
504
1177000
2000
(Applaudissements)
Translated by Amélie Gourdon
Reviewed by Joel Bomane

▲Back to top

ABOUT THE SPEAKER
Daniel Wolpert - Movement expert
A neuroscientist and engineer, Daniel Wolpert studies how the brain controls the body.

Why you should listen

Consider your hand. You use it to lift things, to balance yourself, to give and take, to sense the world. It has a range of interacting degrees of freedom, and it interacts with many different objects under a variety of environmental conditions. And for most of us, it all just works. At his lab in the Engineering department at Cambridge, Daniel Wolpert and his team are studying why, looking to understand the computations underlying the brain's sensorimotor control of the body.

As he says, "I believe that to understand movement is to understand the whole brain. And therefore it’s important to remember when you are studying memory, cognition, sensory processing, they’re there for a reason, and that reason is action.”  Movement is the only way we have of interacting with the world, whether foraging for food or attracting a waiter's attention. Indeed, all communication, including speech, sign language, gestures and writing, is mediated via the motor system. Taking this viewpoint, and using computational and robotic techniques as well as virtual reality systems, Wolpert and his team research the purpose of the human brain and the way it determines future actions.

 

 

More profile about the speaker
Daniel Wolpert | Speaker | TED.com