ABOUT THE SPEAKER
Daniel Wolpert - Movement expert
A neuroscientist and engineer, Daniel Wolpert studies how the brain controls the body.

Why you should listen

Consider your hand. You use it to lift things, to balance yourself, to give and take, to sense the world. It has a range of interacting degrees of freedom, and it interacts with many different objects under a variety of environmental conditions. And for most of us, it all just works. At his lab in the Engineering department at Cambridge, Daniel Wolpert and his team are studying why, looking to understand the computations underlying the brain's sensorimotor control of the body.

As he says, "I believe that to understand movement is to understand the whole brain. And therefore it’s important to remember when you are studying memory, cognition, sensory processing, they’re there for a reason, and that reason is action.”  Movement is the only way we have of interacting with the world, whether foraging for food or attracting a waiter's attention. Indeed, all communication, including speech, sign language, gestures and writing, is mediated via the motor system. Taking this viewpoint, and using computational and robotic techniques as well as virtual reality systems, Wolpert and his team research the purpose of the human brain and the way it determines future actions.

 

 

More profile about the speaker
Daniel Wolpert | Speaker | TED.com
TEDGlobal 2011

Daniel Wolpert: The real reason for brains

Daniel Wolpert: A razão para os cérebros existirem

Filmed:
1,994,993 views

O neurocientista Daniel Wolpert começa com uma premissa surpreendente: o cérebro evoluiu, não para pensar ou sentir, mas para controlar movimentos. Em sua palestra rica em dados e entretenimento, ele nos oferece um vislumbre de como o cérebro cria a graça e agilidade do movimento humano.
- Movement expert
A neuroscientist and engineer, Daniel Wolpert studies how the brain controls the body. Full bio

Double-click the English transcript below to play the video.

00:15
I'm a neuroscientist.
0
0
2000
Eu sou um neurocientista.
00:17
And in neuroscience,
1
2000
2000
E em neurociências,
00:19
we have to deal with many difficult questions about the brain.
2
4000
3000
temos de lidar com questões muito difíceis sobre o cérebro.
00:22
But I want to start with the easiest question
3
7000
2000
Mas eu quero começar com a questão mais fácil
00:24
and the question you really should have all asked yourselves at some point in your life,
4
9000
3000
e que vocês devem ter se perguntado em algum ponto de sua vida,
00:27
because it's a fundamental question
5
12000
2000
pois é uma questão fundamental
00:29
if we want to understand brain function.
6
14000
2000
para entendermos a função do cérebro.
00:31
And that is, why do we and other animals
7
16000
2000
E ela é: por que nós e outros animais
00:33
have brains?
8
18000
2000
temos cérebros?
00:35
Not all species on our planet have brains,
9
20000
3000
Nem todas as espécies em nosso planeta têm cérebro,
00:38
so if we want to know what the brain is for,
10
23000
2000
então se queremos saber para que o cérebro serve,
00:40
let's think about why we evolved one.
11
25000
2000
vamos pensar sobre por que um evoluiu em nós.
00:42
Now you may reason that we have one
12
27000
2000
Vocês podem argumentar que temos um
00:44
to perceive the world or to think,
13
29000
2000
para perceber o mundo ou pensar,
00:46
and that's completely wrong.
14
31000
2000
e isso está completamente errado.
00:48
If you think about this question for any length of time,
15
33000
3000
Se você pensar nessa questão por algum tempo,
00:51
it's blindingly obvious why we have a brain.
16
36000
2000
é extremamente óbvio por que temos um cérebro.
00:53
We have a brain for one reason and one reason only,
17
38000
3000
Nós temos um cérebro por uma razão e apenas uma,
00:56
and that's to produce adaptable and complex movements.
18
41000
3000
que é produzir movimentos complexos e adaptáveis.
00:59
There is no other reason to have a brain.
19
44000
2000
Não há qualquer outra razão para ter um cérebro.
01:01
Think about it.
20
46000
2000
Pensem sobre isso.
01:03
Movement is the only way you have
21
48000
2000
O movimento é o único modo que vocês têm
01:05
of affecting the world around you.
22
50000
2000
de afetar o mundo à sua volta.
01:07
Now that's not quite true. There's one other way, and that's through sweating.
23
52000
3000
Agora isso não é bem verdade. Tem outro modo, e é por meio do suor.
01:10
But apart from that,
24
55000
2000
Mas além disso,
01:12
everything else goes through contractions of muscles.
25
57000
2000
tudo mais acontece por meio da contração de músculos.
01:14
So think about communication --
26
59000
2000
Então pensar sobre comunicação --
01:16
speech, gestures, writing, sign language --
27
61000
3000
fala, gestos, escrita, língua de sinais --
01:19
they're all mediated through contractions of your muscles.
28
64000
3000
eles são todos mediados por meio de contração de seus músculos.
01:22
So it's really important to remember
29
67000
2000
Então é muito importante lembrar
01:24
that sensory, memory and cognitive processes are all important,
30
69000
4000
que processos sensoriais, mnemônicos e cognitivos são importantes,
01:28
but they're only important
31
73000
2000
mas só são importantes
01:30
to either drive or suppress future movements.
32
75000
2000
para dirigir ou suprimir futuros movimentos.
01:32
There can be no evolutionary advantage
33
77000
2000
Não pode haver vantagem adaptativa
01:34
to laying down memories of childhood
34
79000
2000
em esquecer memórias da infância
01:36
or perceiving the color of a rose
35
81000
2000
ou perceber a cor de uma rosa
01:38
if it doesn't affect the way you're going to move later in life.
36
83000
3000
se isso não afeta o modo como você se move na vida.
01:41
Now for those who don't believe this argument,
37
86000
2000
Agora para aqueles que não acreditam nesse argumento,
01:43
we have trees and grass on our planet without the brain,
38
88000
2000
nós temos árvores e grama sem cérebro em nosso planeta,
01:45
but the clinching evidence is this animal here --
39
90000
2000
mas a evidência mais forte é esse animal aqui --
01:47
the humble sea squirt.
40
92000
2000
o pequeno tunicado.
01:49
Rudimentary animal, has a nervous system,
41
94000
3000
Um animal rudimentar, que tem um sistema nervoso,
01:52
swims around in the ocean in its juvenile life.
42
97000
2000
nada pelo oceano em sua fase juvenil.
01:54
And at some point of its life,
43
99000
2000
E em certo ponto de sua vida,
01:56
it implants on a rock.
44
101000
2000
ele se ancora numa pedra.
01:58
And the first thing it does in implanting on that rock, which it never leaves,
45
103000
3000
E a primeira coisa que faz ao se ancorar nessa pedra, que nunca mais deixa,
02:01
is to digest its own brain and nervous system
46
106000
3000
é digerir seu próprio cérebro e sistema nervoso
02:04
for food.
47
109000
2000
como comida.
02:06
So once you don't need to move,
48
111000
2000
Então uma vez que não é preciso se mexer,
02:08
you don't need the luxury of that brain.
49
113000
3000
não há necessidade de ter um cérebro.
02:11
And this animal is often taken
50
116000
2000
E esse animal é tomado com frequência
02:13
as an analogy to what happens at universities
51
118000
2000
como uma analogia ao que acontece nas universidades
02:15
when professors get tenure,
52
120000
2000
quando o professor alcança estabilidade,
02:17
but that's a different subject.
53
122000
2000
mas esse é outro assunto.
02:19
(Applause)
54
124000
2000
(Aplausos)
02:21
So I am a movement chauvinist.
55
126000
3000
Eu sou um chauvinista do movimento.
02:24
I believe movement is the most important function of the brain --
56
129000
2000
Eu acredito que o movimeto é a função mais importante do cérebro,
02:26
don't let anyone tell you that it's not true.
57
131000
2000
a não permito a ninguém dizer que isso não é verdade.
02:28
Now if movement is so important,
58
133000
2000
Agora se o movimeno é tão importante,
02:30
how well are we doing
59
135000
2000
como estamos indo
02:32
understanding how the brain controls movement?
60
137000
2000
na compreensão de como o cérebro controla o movimento?
02:34
And the answer is we're doing extremely poorly; it's a very hard problem.
61
139000
2000
E a resposta é que estamos indo mal. É um problema muito difícil.
02:36
But we can look at how well we're doing
62
141000
2000
Mas podemos verificar como estamos indo
02:38
by thinking about how well we're doing building machines
63
143000
2000
ao pensar sobre quão bem estamos indo ao construir máquinas
02:40
which can do what humans can do.
64
145000
2000
que podem fazer o que os humanos fazem.
02:42
Think about the game of chess.
65
147000
2000
Pensem sobre o jogo de xadrez.
02:44
How well are we doing determining what piece to move where?
66
149000
3000
Estamos indo bem ao determinar qual peça deve se mover para onde?
02:47
If you pit Garry Kasparov here, when he's not in jail,
67
152000
3000
Se você confrontar o Gary Kasparov, quando ele não está na prisão,
02:50
against IBM's Deep Blue,
68
155000
2000
contra o Deep Blue da IBM,
02:52
well the answer is IBM's Deep Blue will occasionally win.
69
157000
3000
então a resposta é que o Deep Blue vai ganhar às vezes.
02:55
And I think if IBM's Deep Blue played anyone in this room, it would win every time.
70
160000
3000
E eu acho que se o Deep Blue jogasse contra qualquer um nessa sala, iria ganhar todas.
02:58
That problem is solved.
71
163000
2000
Esse problema está resolvido.
03:00
What about the problem
72
165000
2000
Quanto ao problema
03:02
of picking up a chess piece,
73
167000
2000
de pegar uma peça de xadrez,
03:04
dexterously manipulating it and putting it back down on the board?
74
169000
3000
manipulá-la com destreza e colocá-la de volta no tabuleiro?
03:07
If you put a five year-old child's dexterity against the best robots of today,
75
172000
3000
Se confrontar a destreza de uma criança de 5 anos contra o melhor robô atual,
03:10
the answer is simple:
76
175000
2000
a resposta é simples:
03:12
the child wins easily.
77
177000
2000
a criança vence facilmente.
03:14
There's no competition at all.
78
179000
2000
Não há competição alguma.
03:16
Now why is that top problem so easy
79
181000
2000
Agora por que o problema acima é tão fácil
03:18
and the bottom problem so hard?
80
183000
2000
e o problema abaixo é tão difícil?
03:20
One reason is a very smart five year-old
81
185000
2000
Uma resposta é que uma criança de 5 anos muito esperta
03:22
could tell you the algorithm for that top problem --
82
187000
2000
poderia dizer o algoritmo para o problema acima --
03:24
look at all possible moves to the end of the game
83
189000
2000
verificar todos os movimentos possíveis para o fim do jogo
03:26
and choose the one that makes you win.
84
191000
2000
e escolher aquele que traz a vitória.
03:28
So it's a very simple algorithm.
85
193000
2000
Então é um algoritmo muito simples.
03:30
Now of course there are other moves,
86
195000
2000
Agora é claro que há outros movimentos,
03:32
but with vast computers we approximate
87
197000
2000
mas com computadores potentes
03:34
and come close to the optimal solution.
88
199000
2000
nós nos aproximamos da melhor solução.
03:36
When it comes to being dexterous,
89
201000
2000
Quando o problema é ter destreza,
03:38
it's not even clear what the algorithm is you have to solve to be dexterous.
90
203000
2000
não é muito claro qual o algoritmo que é preciso para ter isso.
03:40
And we'll see you have to both perceive and act on the world,
91
205000
2000
E constatamos que é preciso tanto perceber quanto agir no mundo,
03:42
which has a lot of problems.
92
207000
2000
o que traz um monte de problemas.
03:44
But let me show you cutting-edge robotics.
93
209000
2000
Mas deixem-me mostrar a robótica de ponta.
03:46
Now a lot of robotics is very impressive,
94
211000
2000
Vários robôs são bem impressionantes,
03:48
but manipulation robotics is really just in the dark ages.
95
213000
3000
mas robôs de manipulação estão na idade das trevas.
03:51
So this is the end of a Ph.D. project
96
216000
2000
Então isso é o fim de um projeto de doutorado
03:53
from one of the best robotics institutes.
97
218000
2000
de um dos melhores institutos de robótica.
03:55
And the student has trained this robot
98
220000
2000
E o estudante treinou esse robô
03:57
to pour this water into a glass.
99
222000
2000
a colocar água num copo.
03:59
It's a hard problem because the water sloshes about, but it can do it.
100
224000
3000
É um problema difícil pois a água escorre, mas ele pode fazer isso.
04:02
But it doesn't do it with anything like the agility of a human.
101
227000
3000
Mas ele não está no mesmo nível de agilidade de um humano.
04:05
Now if you want this robot to do a different task,
102
230000
3000
Agora se você quer que esse robô faça uma tarefa diferente,
04:08
that's another three-year Ph.D. program.
103
233000
3000
isso é outro projeto de doutorado.
04:11
There is no generalization at all
104
236000
2000
Não há generalização nenhuma
04:13
from one task to another in robotics.
105
238000
2000
de uma tarefa para outra em robótica.
04:15
Now we can compare this
106
240000
2000
Agora podemos comparar isso
04:17
to cutting-edge human performance.
107
242000
2000
com o desempenho de ponta humano.
04:19
So what I'm going to show you is Emily Fox
108
244000
2000
Então o que vou mostrar a você é Emily Fox
04:21
winning the world record for cup stacking.
109
246000
3000
batendo o recorde mundial de empilhamento de copos.
04:24
Now the Americans in the audience will know all about cup stacking.
110
249000
2000
Os americanos na audiência já conhecem tudo sobre isso.
04:26
It's a high school sport
111
251000
2000
É um esporte escolar
04:28
where you have 12 cups you have to stack and unstack
112
253000
2000
no qual é preciso empilhar e desempilhar 12 copos
04:30
against the clock in a prescribed order.
113
255000
2000
contra o relógio, numa ordem pré-definida.
04:32
And this is her getting the world record in real time.
114
257000
3000
E isso é ela batendo o recorde em tempo real.
04:39
(Laughter)
115
264000
8000
(Risos)
04:47
(Applause)
116
272000
5000
(Aplausos)
04:52
And she's pretty happy.
117
277000
2000
E ela está muito feliz.
04:54
We have no idea what is going on inside her brain when she does that,
118
279000
2000
Nós não temos ideia do que passava em seu cérebro quando ela fazia isso,
04:56
and that's what we'd like to know.
119
281000
2000
e é isso que queremos saber.
04:58
So in my group, what we try to do
120
283000
2000
Então na minha equipe, o que tentamos
05:00
is reverse engineer how humans control movement.
121
285000
3000
é fazer engenharia reversa de como os humanos controlam o movimento.
05:03
And it sounds like an easy problem.
122
288000
2000
E isso parece um problema simples.
05:05
You send a command down, it causes muscles to contract.
123
290000
2000
Você envia um comando, isso faz os músculos contraírem.
05:07
Your arm or body moves,
124
292000
2000
Seu braço ou corpo se move,
05:09
and you get sensory feedback from vision, from skin, from muscles and so on.
125
294000
3000
e você recebe um retorno sensorial da visão, da pele, dos músculos e assim por diante.
05:12
The trouble is
126
297000
2000
O problema é
05:14
these signals are not the beautiful signals you want them to be.
127
299000
2000
que esses sinais não são tão belos quanto você gostaria.
05:16
So one thing that makes controlling movement difficult
128
301000
2000
Então uma coisa que torna o controle de movimento difícil
05:18
is, for example, sensory feedback is extremely noisy.
129
303000
3000
é o retorno sensorial ser muito ruidoso.
05:21
Now by noise, I do not mean sound.
130
306000
3000
Por ruído, não quero dizer barulho.
05:24
We use it in the engineering and neuroscience sense
131
309000
2000
Nós o usamos no sentido da engenharia e neurociência
05:26
meaning a random noise corrupting a signal.
132
311000
2000
para remeter um ruído geral corrompendo um sinal.
05:28
So the old days before digital radio when you were tuning in your radio
133
313000
3000
Antigamente, quando você sintonizava seu rádio
05:31
and you heard "crrcckkk" on the station you wanted to hear,
134
316000
2000
e ouvia um "crrrrrkkk' na estação que queria ouvir,
05:33
that was the noise.
135
318000
2000
isso era o ruído.
05:35
But more generally, this noise is something that corrupts the signal.
136
320000
3000
Mas de forma geral, esse ruído é algo que corrompe o sinal.
05:38
So for example, if you put your hand under a table
137
323000
2000
Por exemplo, se você colocar sua mão sob a mesa
05:40
and try to localize it with your other hand,
138
325000
2000
e tentar localizá-la com sua outra mão,
05:42
you can be off by several centimeters
139
327000
2000
você pode errar por vários centímetros
05:44
due to the noise in sensory feedback.
140
329000
2000
devido ao ruído do retorno sensorial.
05:46
Similarly, when you put motor output on movement output,
141
331000
2000
De maneira similar, quando você insere motricidade na eferência do movimento,
05:48
it's extremely noisy.
142
333000
2000
é extremamente ruidoso.
05:50
Forget about trying to hit the bull's eye in darts,
143
335000
2000
Desista de tentar acertar o alvo no jogo de dardos,
05:52
just aim for the same spot over and over again.
144
337000
2000
apenas mire o mesmo ponto de novo e de novo.
05:54
You have a huge spread due to movement variability.
145
339000
3000
Você tem uma grande margem devido à variabilidade do movimento.
05:57
And more than that, the outside world, or task,
146
342000
2000
E mais do que isso, o mundo exterior, ou a tarefa,
05:59
is both ambiguous and variable.
147
344000
2000
são tanto ambíguos quanto variáveis.
06:01
The teapot could be full, it could be empty.
148
346000
2000
O bule pode estar cheio, ou pode estar vazio.
06:03
It changes over time.
149
348000
2000
Isso muda com o tempo.
06:05
So we work in a whole sensory movement task soup of noise.
150
350000
4000
Então trabalhamos numa sopa de ruídos de tarefas sensório-motoras.
06:09
Now this noise is so great
151
354000
2000
O ruído é tão grande
06:11
that society places a huge premium
152
356000
2000
que a sociedade oferece um grande prêmio
06:13
on those of us who can reduce the consequences of noise.
153
358000
3000
para aqueles que podem reduzir as consequências do ruído.
06:16
So if you're lucky enough to be able to knock a small white ball
154
361000
3000
Então se você tiver sorte o bastante para conseguir rebater uma bola
06:19
into a hole several hundred yards away using a long metal stick,
155
364000
3000
num buraco a centenas de metros de distância usando um taco de metal,
06:22
our society will be willing to reward you
156
367000
2000
nossa sociedade irá recompensá-lo
06:24
with hundreds of millions of dollars.
157
369000
3000
com centenas de milhões de dólares.
06:27
Now what I want to convince you of
158
372000
2000
Agora quero convencê-los
06:29
is the brain also goes through a lot of effort
159
374000
2000
de que o cérebro também faz um grande esforço
06:31
to reduce the negative consequences
160
376000
2000
para reduzir as consequências negativas
06:33
of this sort of noise and variability.
161
378000
2000
desse tipo de ruído e variabilidade.
06:35
And to do that, I'm going to tell you about a framework
162
380000
2000
E para convencê-los, eu vou falar sobre um paradigma
06:37
which is very popular in statistics and machine learning of the last 50 years
163
382000
3000
que é muito popular em estatística e aprendizagem de máquina há 50 anos,
06:40
called Bayesian decision theory.
164
385000
2000
chamada teoria bayesiana de decisão.
06:42
And it's more recently a unifying way
165
387000
3000
E mais recentemente uma forma unificadora
06:45
to think about how the brain deals with uncertainty.
166
390000
3000
de pensar sobre como o cérebro lida com a incerteza.
06:48
And the fundamental idea is you want to make inferences and then take actions.
167
393000
3000
E a ideia fundamental é fazer inferências e depois executar ações.
06:51
So let's think about the inference.
168
396000
2000
Então vamos pensar sobre a inferência.
06:53
You want to generate beliefs about the world.
169
398000
2000
Queremos gerar crenças sobre o mundo.
06:55
So what are beliefs?
170
400000
2000
Então quais são as crenças?
06:57
Beliefs could be: where are my arms in space?
171
402000
2000
As crenças podem ser: onde estão meus braços no espaço?
06:59
Am I looking at a cat or a fox?
172
404000
2000
Estou procurando um gato ou uma raposa?
07:01
But we're going to represent beliefs with probabilities.
173
406000
3000
Mas vamos representar crenças com probabilidades.
07:04
So we're going to represent a belief
174
409000
2000
Então vamos representar uma crença
07:06
with a number between zero and one --
175
411000
2000
com um número entre zero e um --
07:08
zero meaning I don't believe it at all, one means I'm absolutely certain.
176
413000
3000
zero significa que não acredito nisso, um significa que tenho certeza disso.
07:11
And numbers in between give you the gray levels of uncertainty.
177
416000
3000
E os números entre eles dão os níveis cinza de incerteza.
07:14
And the key idea to Bayesian inference
178
419000
2000
E a ideia central da inferência bayesiana
07:16
is you have two sources of information
179
421000
2000
é que há duas fontes de informação
07:18
from which to make your inference.
180
423000
2000
das quais é feita nossa inferência.
07:20
You have data,
181
425000
2000
Há os dados,
07:22
and data in neuroscience is sensory input.
182
427000
2000
e dados em neurociência são a aferência sensorial.
07:24
So I have sensory input, which I can take in to make beliefs.
183
429000
3000
Então eu tenho aferência sensorial, que eu uso para fazer crenças.
07:27
But there's another source of information, and that's effectively prior knowledge.
184
432000
3000
Mas há outra fonte de informação, e que é efetivamente conhecimento prévio.
07:30
You accumulate knowledge throughout your life in memories.
185
435000
3000
Você acumula conhecimento ao longo da vida em memórias.
07:33
And the point about Bayesian decision theory
186
438000
2000
E o argumento da teoria bayesiana de decisão
07:35
is it gives you the mathematics
187
440000
2000
é que ela dá a matemática
07:37
of the optimal way to combine
188
442000
2000
da melhor maneira de combinar
07:39
your prior knowledge with your sensory evidence
189
444000
2000
seu conhecimento prévio com sua evidência sensorial
07:41
to generate new beliefs.
190
446000
2000
para gerar novas crenças.
07:43
And I've put the formula up there.
191
448000
2000
E eu coloquei a fórmula lá em cima.
07:45
I'm not going to explain what that formula is, but it's very beautiful.
192
450000
2000
Eu não vou explicar como é a fórmula, mas é muito bonita.
07:47
And it has real beauty and real explanatory power.
193
452000
3000
E tem uma beleza e poder explicativo verdadeiros.
07:50
And what it really says, and what you want to estimate,
194
455000
2000
E o que ela explica, e o que você quer estimar,
07:52
is the probability of different beliefs
195
457000
2000
é a probabilidade de crenças diferentes
07:54
given your sensory input.
196
459000
2000
em função de sua aferência sensorial.
07:56
So let me give you an intuitive example.
197
461000
2000
Então deixem-me dar um exemplo intuitivo.
07:58
Imagine you're learning to play tennis
198
463000
3000
Imagine que você está aprendendo a jogar tênis
08:01
and you want to decide where the ball is going to bounce
199
466000
2000
e você quer decidir onde a bola vai quicar
08:03
as it comes over the net towards you.
200
468000
2000
enquanto ela passa sobre a rede.
08:05
There are two sources of information
201
470000
2000
Há duas fontes de informação
08:07
Bayes' rule tells you.
202
472000
2000
segundo a regra de Bayes.
08:09
There's sensory evidence -- you can use visual information auditory information,
203
474000
3000
Há a evidência sensorial -- você pode usar a informação visual, informação auditiva,
08:12
and that might tell you it's going to land in that red spot.
204
477000
3000
e isso pode dizer qual é o ponto vermelho.
08:15
But you know that your senses are not perfect,
205
480000
3000
Mas você sabe que seus sentidos não são perfeitos,
08:18
and therefore there's some variability of where it's going to land
206
483000
2000
e assim há alguma variabilidade sobre onde a bola vai cair
08:20
shown by that cloud of red,
207
485000
2000
mostrada pela nuvem vermelha,
08:22
representing numbers between 0.5 and maybe 0.1.
208
487000
3000
representando números entre 0,5 e talvez 0,1.
08:26
That information is available in the current shot,
209
491000
2000
A informação é disponível no lance atual,
08:28
but there's another source of information
210
493000
2000
mas há outra fonte de informação
08:30
not available on the current shot,
211
495000
2000
não disponível no lance atual,
08:32
but only available by repeated experience in the game of tennis,
212
497000
3000
mas apenas disponível por experiências repetidas no jogo de tênis,
08:35
and that's that the ball doesn't bounce
213
500000
2000
e que é que a bola não quica
08:37
with equal probability over the court during the match.
214
502000
2000
com a mesma probabilidade na quadra durante a partida.
08:39
If you're playing against a very good opponent,
215
504000
2000
Se você está jogando contra um rival muito bom,
08:41
they may distribute it in that green area,
216
506000
2000
elas podem se distribuir na área verde,
08:43
which is the prior distribution,
217
508000
2000
que é a distribuição prévia,
08:45
making it hard for you to return.
218
510000
2000
tornando a devolução difícil.
08:47
Now both these sources of information carry important information.
219
512000
2000
Agora essas duas fontes trazem informações importantes.
08:49
And what Bayes' rule says
220
514000
2000
E o que a regra de Bayes diz
08:51
is that I should multiply the numbers on the red by the numbers on the green
221
516000
3000
é que eu devo multiplicar os números no vermelho pelos números no verde
08:54
to get the numbers of the yellow, which have the ellipses,
222
519000
3000
para chegar aos números no amarelo, que mostra a elipse,
08:57
and that's my belief.
223
522000
2000
e essa é a minha crença.
08:59
So it's the optimal way of combining information.
224
524000
3000
Então essa é a melhor forma de combinar informação.
09:02
Now I wouldn't tell you all this if it wasn't that a few years ago,
225
527000
2000
Eu não diria tudo isso a vocês se não fosse por estudo que fizemos,
09:04
we showed this is exactly what people do
226
529000
2000
onde mostramos que é exatamente o que as pessoas fazem
09:06
when they learn new movement skills.
227
531000
2000
quando aprendem novas habilidades de movimento.
09:08
And what it means
228
533000
2000
E o que isso significa
09:10
is we really are Bayesian inference machines.
229
535000
2000
é que nós somos máquinas de inferência bayesiana.
09:12
As we go around, we learn about statistics of the world and lay that down,
230
537000
4000
Enquanto nos movemos, aprendemos sobre as estatísticas do mundo e suas regras,
09:16
but we also learn
231
541000
2000
mas também aprendemos
09:18
about how noisy our own sensory apparatus is,
232
543000
2000
sobre o quão ruidoso é nosso aparelho sensorial,
09:20
and then combine those
233
545000
2000
e daí combinamos os dois
09:22
in a real Bayesian way.
234
547000
2000
numa forma bayesiana.
09:24
Now a key part to the Bayesian is this part of the formula.
235
549000
3000
Uma peça chave dessa teoria bayesiana é essa parte da fórmula.
09:27
And what this part really says
236
552000
2000
E o que essa parte diz
09:29
is I have to predict the probability
237
554000
2000
é que preciso prever a probabilidade
09:31
of different sensory feedbacks
238
556000
2000
de diferentes retornos sensoriais
09:33
given my beliefs.
239
558000
2000
dadas as minhas crenças.
09:35
So that really means I have to make predictions of the future.
240
560000
3000
Então isso significa que preciso fazer previsões do futuro.
09:38
And I want to convince you the brain does make predictions
241
563000
2000
E quero convencê-los de que o cérebro faz essas previsões
09:40
of the sensory feedback it's going to get.
242
565000
2000
sobre o que o retorno sensorial vai receber.
09:42
And moreover, it profoundly changes your perceptions
243
567000
2000
Além disso, ele muda profundamente suas percepções
09:44
by what you do.
244
569000
2000
pelo que você faz.
09:46
And to do that, I'll tell you
245
571000
2000
E para fazer isso, eu direi a vocês
09:48
about how the brain deals with sensory input.
246
573000
2000
sobre como o cérebro lida com a aferência sensorial.
09:50
So you send a command out,
247
575000
3000
Então você envia um comando,
09:53
you get sensory feedback back,
248
578000
2000
você recebe retorno sensorial,
09:55
and that transformation is governed
249
580000
2000
e essa transformação é chefiada
09:57
by the physics of your body and your sensory apparatus.
250
582000
3000
pela física do seu corpo e seu aparelho sensorial.
10:00
But you can imagine looking inside the brain.
251
585000
2000
Mas você pode se imaginar olhando para dentro do cérebro.
10:02
And here's inside the brain.
252
587000
2000
E eis aqui o interior do cérebro.
10:04
You might have a little predictor, a neural simulator,
253
589000
2000
Você pode ter um pequeno preditor, um simulador neural,
10:06
of the physics of your body and your senses.
254
591000
2000
da física do seu corpo e sentidos.
10:08
So as you send a movement command down,
255
593000
2000
Então enquanto você envia um comando para baixo,
10:10
you tap a copy of that off
256
595000
2000
você faz uma cópia disso
10:12
and run it into your neural simulator
257
597000
2000
e a executa no seu simulador neural
10:14
to anticipate the sensory consequences of your actions.
258
599000
4000
para antecipar as consequências sensorias de suas ações.
10:18
So as I shake this ketchup bottle,
259
603000
2000
Enquanto agito essa bisnaga de ketchup,
10:20
I get some true sensory feedback as the function of time in the bottom row.
260
605000
3000
eu recebo retorno sensorial como a função do tempo na linha de baixo.
10:23
And if I've got a good predictor, it predicts the same thing.
261
608000
3000
E se eu tiver um bom preditor, ele prevê a mesma coisa.
10:26
Well why would I bother doing that?
262
611000
2000
Por que eu me importaria com isso?
10:28
I'm going to get the same feedback anyway.
263
613000
2000
Eu vou receber o mesmo retorno de qualquer jeito.
10:30
Well there's good reasons.
264
615000
2000
Bem, há boas razões.
10:32
Imagine, as I shake the ketchup bottle,
265
617000
2000
Imaginem que, enquanto agito a bisnaga,
10:34
someone very kindly comes up to me and taps it on the back for me.
266
619000
3000
alguém muito gentil chega e dá um tapinha no fundo da bisnaga para mim.
10:37
Now I get an extra source of sensory information
267
622000
2000
Agora eu recebo uma fonte extra de informação sensorial
10:39
due to that external act.
268
624000
2000
devido a esse ato externo.
10:41
So I get two sources.
269
626000
2000
Então eu tenho duas fontes.
10:43
I get you tapping on it, and I get me shaking it,
270
628000
3000
Eu tenho alguém dando tapinhas, e eu agitando isso,
10:46
but from my senses' point of view,
271
631000
2000
mas pelo ponto de vista de meus sentidos,
10:48
that is combined together into one source of information.
272
633000
3000
eles são combinados em uma fonte de informação.
10:51
Now there's good reason to believe
273
636000
2000
Agora há boas razões para acreditar
10:53
that you would want to be able to distinguish external events from internal events.
274
638000
3000
que você gostaria de saber distinguir eventos externos dos eventos internos.
10:56
Because external events are actually much more behaviorally relevant
275
641000
3000
Pois eventos externos são muito mais relevantes para o comportamento
10:59
than feeling everything that's going on inside my body.
276
644000
3000
que sentir tudo o que acontece dentro do meu corpo.
11:02
So one way to reconstruct that
277
647000
2000
Então uma forma de reconstruir isso
11:04
is to compare the prediction --
278
649000
2000
é comparar a previsão --
11:06
which is only based on your movement commands --
279
651000
2000
que é apenas baseada em seus comandos de movimento --
11:08
with the reality.
280
653000
2000
com a realidade.
11:10
Any discrepancy should hopefully be external.
281
655000
3000
Qualquer discrepância deve ser externa.
11:13
So as I go around the world,
282
658000
2000
Então enquanto ando pelo mundo,
11:15
I'm making predictions of what I should get, subtracting them off.
283
660000
3000
eu faço previsões do que devo receber, e as subtraio.
11:18
Everything left over is external to me.
284
663000
2000
Tudo o que sobrar é externo a mim.
11:20
What evidence is there for this?
285
665000
2000
Qual é a evidência para isso?
11:22
Well there's one very clear example
286
667000
2000
Bem, há um exemplo muito claro
11:24
where a sensation generated by myself feels very different
287
669000
2000
em que uma sensação gerada por mim mesmo é sentida de forma diferente
11:26
then if generated by another person.
288
671000
2000
de uma gerada por outra pessoa.
11:28
And so we decided the most obvious place to start
289
673000
2000
Então decidimos que o melhor lugar para começar
11:30
was with tickling.
290
675000
2000
era com cócegas.
11:32
It's been known for a long time, you can't tickle yourself
291
677000
2000
É sabido há muito tempo que não se pode fazer cócegas em si mesmo
11:34
as well as other people can.
292
679000
2000
da mesma forma como outras pessoas fazem.
11:36
But it hasn't really been shown, it's because you have a neural simulator,
293
681000
3000
Mas não foi demonstrado que é por causa de seu simulador neural,
11:39
simulating your own body
294
684000
2000
simulando seu próprio corpo
11:41
and subtracting off that sense.
295
686000
2000
e subtraindo esse sentido.
11:43
So we can bring the experiments of the 21st century
296
688000
3000
Então podemos fazer experimentos do século 21
11:46
by applying robotic technologies to this problem.
297
691000
3000
aplicando tecnologias robóticas nesse problema.
11:49
And in effect, what we have is some sort of stick in one hand attached to a robot,
298
694000
3000
E com efeito, o que temos é um tipo de vareta em uma mão acoplada a um robô,
11:52
and they're going to move that back and forward.
299
697000
2000
e ele vai movê-la para frente e para trás.
11:54
And then we're going to track that with a computer
300
699000
2000
E depois vamos rastrear isso com um computador
11:56
and use it to control another robot,
301
701000
2000
e usá-lo para controlar outro robô,
11:58
which is going to tickle their palm with another stick.
302
703000
2000
que vai cocegar sua palma com outra vareta.
12:00
And then we're going to ask them to rate a bunch of things
303
705000
2000
E depois vamos pedir a eles que avaliem um bocado de coisas
12:02
including ticklishness.
304
707000
2000
incluindo cócegas.
12:04
I'll show you just one part of our study.
305
709000
2000
Eu vou mostrar a vocês só uma parte de nosso estudo.
12:06
And here I've taken away the robots,
306
711000
2000
E aqui eu excluí os robôs,
12:08
but basically people move with their right arm sinusoidally back and forward.
307
713000
3000
mas basicamente as pessoas movem seu braço direito de forma sinusoidal para frente e para trás.
12:11
And we replay that to the other hand with a time delay.
308
716000
3000
E nós repetimos isso com a outra mão com um intervalo temporal.
12:14
Either no time delay,
309
719000
2000
Ou sem intervalo nenhum,
12:16
in which case light would just tickle your palm,
310
721000
2000
caso em que a luz apenas cocega sua palma,
12:18
or with a time delay of two-tenths of three-tenths of a second.
311
723000
4000
ou com um intervalo de dois ou três décimos de segundo.
12:22
So the important point here
312
727000
2000
Então o ponto importante aqui
12:24
is the right hand always does the same things -- sinusoidal movement.
313
729000
3000
é que a mão direita sempre faz as mesmas coisas -- movimento sinusoidal.
12:27
The left hand always is the same and puts sinusoidal tickle.
314
732000
3000
A mão esquerda é sempre a mesma e sente uma cócega sinusoidal.
12:30
All we're playing with is a tempo causality.
315
735000
2000
E estamos brincando com uma causalidade de ritmo.
12:32
And as we go from naught to 0.1 second,
316
737000
2000
E se partimos de zero para 0,1 segundo,
12:34
it becomes more ticklish.
317
739000
2000
ela se torna mais coceguenta.
12:36
As you go from 0.1 to 0.2,
318
741000
2000
Se vamos de 0,1 para 0,2,
12:38
it becomes more ticklish at the end.
319
743000
2000
ela se torna mais coceguenta no fim.
12:40
And by 0.2 of a second,
320
745000
2000
E a partir de 0,2,
12:42
it's equivalently ticklish
321
747000
2000
é tão coceguento
12:44
to the robot that just tickled you without you doing anything.
322
749000
2000
quanto o robô que o tocava sem você fazer nada.
12:46
So whatever is responsible for this cancellation
323
751000
2000
Então o que quer que seja responsável por esse cancelamento
12:48
is extremely tightly coupled with tempo causality.
324
753000
3000
é extremamente acoplado com causalidade de ritmo.
12:51
And based on this illustration, we really convinced ourselves in the field
325
756000
3000
E baseado nessa ilustração, nós realmente nos convencemos
12:54
that the brain's making precise predictions
326
759000
2000
de que o cérebro faz previsões precisas
12:56
and subtracting them off from the sensations.
327
761000
3000
e as subtrai das sensações.
12:59
Now I have to admit, these are the worst studies my lab has ever run.
328
764000
3000
Agora preciso admitir, esses são os piores estudos que meu laboratório fez.
13:02
Because the tickle sensation on the palm comes and goes,
329
767000
2000
Pois a sensação de cócega na palma vai e vem,
13:04
you need large numbers of subjects
330
769000
2000
é necessário um grande número de indivíduos
13:06
with these stars making them significant.
331
771000
2000
com essas estrelas mostrando ser significantes.
13:08
So we were looking for a much more objective way
332
773000
2000
Então estamos buscando por uma maneira mais objetiva
13:10
to assess this phenomena.
333
775000
2000
de acessar esse fenômeno.
13:12
And in the intervening years I had two daughters.
334
777000
2000
E ao longo dos anos eu tive duas filhas.
13:14
And one thing you notice about children in backseats of cars on long journeys,
335
779000
3000
E uma coisa que se percebe em crianças no banco de trás de carros em longas viagens
13:17
they get into fights --
336
782000
2000
é que elas brigam --
13:19
which started with one of them doing something to the other, the other retaliating.
337
784000
3000
que começa com uma fazendo alguma coisa para a outra, a outra devolvendo.
13:22
It quickly escalates.
338
787000
2000
Isso aumenta com rapidez.
13:24
And children tend to get into fights which escalate in terms of force.
339
789000
3000
E as crianças tendem a ter brigas que aumentam em termos de força.
13:27
Now when I screamed at my children to stop,
340
792000
2000
Agora quando eu grito para minhas crianças pararem,
13:29
sometimes they would both say to me
341
794000
2000
algumas vezes ambas me dizem
13:31
the other person hit them harder.
342
796000
3000
que a outra bateu mais forte.
13:34
Now I happen to know my children don't lie,
343
799000
2000
Eu sei que minhas crianças não mentem,
13:36
so I thought, as a neuroscientist,
344
801000
2000
então pensei, como neurocientista,
13:38
it was important how I could explain
345
803000
2000
que era importante que pudesse explicar
13:40
how they were telling inconsistent truths.
346
805000
2000
como elas diziam verdades inconsistentes.
13:42
And we hypothesize based on the tickling study
347
807000
2000
E testamos isso, baseado no estudo das cócegas,
13:44
that when one child hits another,
348
809000
2000
que, quando uma criança bate na outra,
13:46
they generate the movement command.
349
811000
2000
elas geram o comando de movimento.
13:48
They predict the sensory consequences and subtract it off.
350
813000
3000
Elas predizem as consequências sensoriais e as subtraem.
13:51
So they actually think they've hit the person less hard than they have --
351
816000
2000
Então elas pensam que acertam a outra com menos força do que fizeram --
13:53
rather like the tickling.
352
818000
2000
assim como as cócegas.
13:55
Whereas the passive recipient
353
820000
2000
Visto que o recipiente passivo
13:57
doesn't make the prediction, feels the full blow.
354
822000
2000
não faz as previsões, sente a carga total.
13:59
So if they retaliate with the same force,
355
824000
2000
Então se elas retaliam com a mesma força,
14:01
the first person will think it's been escalated.
356
826000
2000
a primeira pessoa vai achar que foi superada.
14:03
So we decided to test this in the lab.
357
828000
2000
Então decidimos testar isso no laboratório.
14:05
(Laughter)
358
830000
3000
(Risos)
14:08
Now we don't work with children, we don't work with hitting,
359
833000
2000
Não trabalhamos com crianças, não trabalhamos com brigas,
14:10
but the concept is identical.
360
835000
2000
mas o conceito é idêntico.
14:12
We bring in two adults. We tell them they're going to play a game.
361
837000
3000
Nós trazemos dois adultos. Nós dissemos a eles para jogar um jogo.
14:15
And so here's player one and player two sitting opposite to each other.
362
840000
2000
E aqui há o jogador um e o jogador dois sentados de frente um para o outro.
14:17
And the game is very simple.
363
842000
2000
E o jogo é muito simples;
14:19
We started with a motor
364
844000
2000
Nós começamos com um motor
14:21
with a little lever, a little force transfuser.
365
846000
2000
com uma pequena alavanca, um transferidor de força.
14:23
And we use this motor to apply force down to player one's fingers
366
848000
2000
E usamos esse motor para aplicar força sobre os dedos do jogador um
14:25
for three seconds and then it stops.
367
850000
3000
por três segundos e depois ele para.
14:28
And that player's been told, remember the experience of that force
368
853000
3000
E dissemos para esse jogador lembrar da experiência da força
14:31
and use your other finger
369
856000
2000
e usar o outro dedo
14:33
to apply the same force
370
858000
2000
para aplicar a mesma força
14:35
down to the other subject's finger through a force transfuser -- and they do that.
371
860000
3000
sobre o dedo do outro sujeito através de um transferidor de força -- e assim fizeram.
14:38
And player two's been told, remember the experience of that force.
372
863000
3000
E dissemos para o jogador dois lembrar da experiência daquela força
14:41
Use your other hand to apply the force back down.
373
866000
3000
e usar sua outra mão para aplicar a força para baixo.
14:44
And so they take it in turns
374
869000
2000
E eles fizeram isso em rodadas
14:46
to apply the force they've just experienced back and forward.
375
871000
2000
para aplicar a força que experimentaram para frente.
14:48
But critically,
376
873000
2000
Mas mais importante,
14:50
they're briefed about the rules of the game in separate rooms.
377
875000
3000
eles foram ensinados sobre as regras do jogo em salas separadas.
14:53
So they don't know the rules the other person's playing by.
378
878000
2000
Então um não sabe as regras com que o outro está jogando.
14:55
And what we've measured
379
880000
2000
E o que medimos
14:57
is the force as a function of terms.
380
882000
2000
é a força como função de termos.
14:59
And if we look at what we start with,
381
884000
2000
E se observarmos com o que começamos,
15:01
a quarter of a Newton there, a number of turns,
382
886000
2000
um quarto de Newton, após algumas rodadas,
15:03
perfect would be that red line.
383
888000
2000
o perfeito seria a linha vermelha.
15:05
And what we see in all pairs of subjects is this --
384
890000
3000
E o que vimos em todos os pares de indivíduos foi isso:
15:08
a 70 percent escalation in force
385
893000
2000
um aumento de 70 por cento da força
15:10
on each go.
386
895000
2000
em cada rodada.
15:12
So it really suggests, when you're doing this --
387
897000
2000
Então isso sugere, quando você faz isso --
15:14
based on this study and others we've done --
388
899000
2000
baseado nesse estudo e em outros que fizemos --
15:16
that the brain is canceling the sensory consequences
389
901000
2000
que o cérebro está cancelando as consequências sensoriais
15:18
and underestimating the force it's producing.
390
903000
2000
e subestimando a força que está produzindo.
15:20
So it re-shows the brain makes predictions
391
905000
2000
Então isso reapresenta o cérebro fazendo previsões
15:22
and fundamentally changes the precepts.
392
907000
3000
e mudando fundamentalmente os preceitos.
15:25
So we've made inferences, we've done predictions,
393
910000
3000
Então fizemos inferências, fizemos previsões,
15:28
now we have to generate actions.
394
913000
2000
agora temos de gerar ações.
15:30
And what Bayes' rule says is, given my beliefs,
395
915000
2000
E o que a regra de Bayes diz é, dadas minhas crenças,
15:32
the action should in some sense be optimal.
396
917000
2000
a ação deve ser ótima em algum nível.
15:34
But we've got a problem.
397
919000
2000
Mas temos um problema.
15:36
Tasks are symbolic -- I want to drink, I want to dance --
398
921000
3000
As tarefas são simbólicas -- eu quero beber, quero dançar --
15:39
but the movement system has to contract 600 muscles
399
924000
2000
mas o sistema de movimento precisa contrair 600 músculos
15:41
in a particular sequence.
400
926000
2000
numa sequência específica.
15:43
And there's a big gap
401
928000
2000
E há um grande intervalo
15:45
between the task and the movement system.
402
930000
2000
entre a tarefa e o sistema de movimento.
15:47
So it could be bridged in infinitely many different ways.
403
932000
2000
Então eles podem estar conectados por infinitas formas.
15:49
So think about just a point to point movement.
404
934000
2000
Então pensem sobre um movimento ponto a ponto.
15:51
I could choose these two paths
405
936000
2000
Eu poderia escolher essas duas vias
15:53
out of an infinite number of paths.
406
938000
2000
entre um número infinito de vias.
15:55
Having chosen a particular path,
407
940000
2000
Após escolher uma via específica,
15:57
I can hold my hand on that path
408
942000
2000
eu posso segurar minha mão nessa via
15:59
as infinitely many different joint configurations.
409
944000
2000
assim como em muitas configurações de articulação.
16:01
And I can hold my arm in a particular joint configuration
410
946000
2000
E posso segurar meu braço numa configuração de articulação específica
16:03
either very stiff or very relaxed.
411
948000
2000
de forma muito rígida ou muito relaxada.
16:05
So I have a huge amount of choice to make.
412
950000
3000
Então tenho um monte de escolhas a fazer.
16:08
Now it turns out, we are extremely stereotypical.
413
953000
3000
Acontece que somos extremamente estereotipados.
16:11
We all move the same way pretty much.
414
956000
3000
Nós nos movemos da mesma forma com frequência.
16:14
And so it turns out we're so stereotypical,
415
959000
2000
E somos tão estereotipados,
16:16
our brains have got dedicated neural circuitry
416
961000
2000
que nossos cérebros dedicam uma circuitaria neural
16:18
to decode this stereotyping.
417
963000
2000
para decodificar essa estereotipagem.
16:20
So if I take some dots
418
965000
2000
Então se eu pegar alguns pontos
16:22
and set them in motion with biological motion,
419
967000
3000
e colocá-los em movimento com movimento biológico,
16:25
your brain's circuitry would understand instantly what's going on.
420
970000
3000
sua circuitaria cerebral entende na hora o que está acontecendo.
16:28
Now this is a bunch of dots moving.
421
973000
2000
Agora isso é um monte de pontos se movendo.
16:30
You will know what this person is doing,
422
975000
3000
Você sabe o que esta pessoa está fazendo,
16:33
whether happy, sad, old, young -- a huge amount of information.
423
978000
3000
se está feliz, triste, velha, jovem -- um monte de informações.
16:36
If these dots were cars going on a racing circuit,
424
981000
2000
Se esses pontos fossem carros numa pista de corrida,
16:38
you would have absolutely no idea what's going on.
425
983000
3000
você não saberia o que está acontecendo.
16:41
So why is it
426
986000
2000
Então por que
16:43
that we move the particular ways we do?
427
988000
2000
nos movemos de formas específicas?
16:45
Well let's think about what really happens.
428
990000
2000
Bem, vamos pensar sobre o que realmente acontece.
16:47
Maybe we don't all quite move the same way.
429
992000
3000
Talvez não nos movamos da mesma forma.
16:50
Maybe there's variation in the population.
430
995000
2000
Talvez haja variações na população.
16:52
And maybe those who move better than others
431
997000
2000
E talvez aqueles que se movem melhor que os outros
16:54
have got more chance of getting their children into the next generation.
432
999000
2000
tenham mais chances de ter filhos para a próxima geração.
16:56
So in evolutionary scales, movements get better.
433
1001000
3000
Então em escalas evolucionárias, os movimentos melhoram.
16:59
And perhaps in life, movements get better through learning.
434
1004000
3000
E talvez na vida, os movimentos melhoram com aprendizagem.
17:02
So what is it about a movement which is good or bad?
435
1007000
2000
Então o que define se um movimento é bom ou ruim?
17:04
Imagine I want to intercept this ball.
436
1009000
2000
Imaginem que eu quero rebater essa bola.
17:06
Here are two possible paths to that ball.
437
1011000
3000
Há duas vias possíveis para essa bola.
17:09
Well if I choose the left-hand path,
438
1014000
2000
Se eu escolho a via da esquerda,
17:11
I can work out the forces required
439
1016000
2000
eu posso trabalhar as forças necessárias
17:13
in one of my muscles as a function of time.
440
1018000
2000
em um de meus músculos em função do tempo.
17:15
But there's noise added to this.
441
1020000
2000
Mas há ruído somado a isso.
17:17
So what I actually get, based on this lovely, smooth, desired force,
442
1022000
3000
Então o que eu recebo, baseado nessa força suave e desejada,
17:20
is a very noisy version.
443
1025000
2000
é uma versão muito ruidosa.
17:22
So if I pick the same command through many times,
444
1027000
3000
Se eu escolho o mesmo comando por várias vezes,
17:25
I will get a different noisy version each time, because noise changes each time.
445
1030000
3000
eu recebo um ruído diferente cada vez, pois o ruído muda com o tempo.
17:28
So what I can show you here
446
1033000
2000
Então o que posso mostrar a vocês
17:30
is how the variability of the movement will evolve
447
1035000
2000
é como a variabilidade do movimento evolui
17:32
if I choose that way.
448
1037000
2000
se escolho esse caminho.
17:34
If I choose a different way of moving -- on the right for example --
449
1039000
3000
Se eu escolho um caminho diferente para me mover -- pela direita por exemplo --
17:37
then I'll have a different command, different noise,
450
1042000
2000
então eu tenho um comando diferente, ruído diferente,
17:39
playing through a noisy system, very complicated.
451
1044000
3000
ativando um sistema ruidoso, muito complicado.
17:42
All we can be sure of is the variability will be different.
452
1047000
3000
Só podemos estar certos de que a variabilidade será diferente.
17:45
If I move in this particular way,
453
1050000
2000
Se eu me movo nessa forma particular,
17:47
I end up with a smaller variability across many movements.
454
1052000
3000
eu termino com uma variabilidade menor depois de muitos movimentos.
17:50
So if I have to choose between those two,
455
1055000
2000
Então se eu preciso escolher entre essas duas,
17:52
I would choose the right one because it's less variable.
456
1057000
2000
eu escolheria a da direita pois é a menos variável.
17:54
And the fundamental idea
457
1059000
2000
E a ideia central
17:56
is you want to plan your movements
458
1061000
2000
é que você quer planejar seus movimentos
17:58
so as to minimize the negative consequence of the noise.
459
1063000
3000
de forma a minimizar as consequências negativas desse ruído.
18:01
And one intuition to get
460
1066000
2000
E uma intuição a ter
18:03
is actually the amount of noise or variability I show here
461
1068000
2000
é que a quantidade de ruído ou variabilidade que mostro aqui
18:05
gets bigger as the force gets bigger.
462
1070000
2000
se torna maior conforme a força aumenta.
18:07
So you want to avoid big forces as one principle.
463
1072000
3000
Então é preciso evitar forças excessivas a princípio.
18:10
So we've shown that using this,
464
1075000
2000
Então mostramos que ao usar isso,
18:12
we can explain a huge amount of data --
465
1077000
2000
podemos explicar uma grande quantidade de dados --
18:14
that exactly people are going about their lives planning movements
466
1079000
3000
que as pessoas passam suas vidas planejando movimentos
18:17
so as to minimize negative consequences of noise.
467
1082000
3000
para minimizar consequências negativas do ruído.
18:20
So I hope I've convinced you the brain is there
468
1085000
2000
Então espero que tenha convencido vocês de que o cérebro
18:22
and evolved to control movement.
469
1087000
2000
existe e evoluiu para controlar movimentos.
18:24
And it's an intellectual challenge to understand how we do that.
470
1089000
3000
E é um desafio intelectual compreender como fazemos isso.
18:27
But it's also relevant
471
1092000
2000
Mas também é relevante
18:29
for disease and rehabilitation.
472
1094000
2000
para doenças e reabilitação.
18:31
There are many diseases which effect movement.
473
1096000
3000
Há muitas doenças que afetam movimentos.
18:34
And hopefully if we understand how we control movement,
474
1099000
2000
E esperamos que ao compreendermos como controlamos movimentos,
18:36
we can apply that to robotic technology.
475
1101000
2000
possamos aplicar isso para tecnologia robótica.
18:38
And finally, I want to remind you,
476
1103000
2000
E finalmente, eu quero lembrar a vocês,
18:40
when you see animals do what look like very simple tasks,
477
1105000
2000
quando vemos animais fazer o que parecem ser tarefas muito simples,
18:42
the actual complexity of what is going on inside their brain
478
1107000
2000
a complexidade real do que está acontecendo dentro do cérebro
18:44
is really quite dramatic.
479
1109000
2000
é realmente dramática.
18:46
Thank you very much.
480
1111000
2000
Muito obrigado.
18:48
(Applause)
481
1113000
8000
(Aplausos)
18:56
Chris Anderson: Quick question for you, Dan.
482
1121000
2000
Chris Anderson: Uma pergunta rápida a você, Dan.
18:58
So you're a movement -- (DW: Chauvinist.) -- chauvinist.
483
1123000
4000
Então você é um -- (DW: Chauvinista) -- chauvinista do movimento.
19:02
Does that mean that you think that the other things we think our brains are about --
484
1127000
3000
Isso quer dizer que você acha que as outras coisas que pensamos sobre nosso cérebro --
19:05
the dreaming, the yearning, the falling in love and all these things --
485
1130000
3000
os sonhos, desejos, se apaixonar e todas essas coisas --
19:08
are a kind of side show, an accident?
486
1133000
3000
são como um efeito colateral, um acidente?
19:11
DW: No, no, actually I think they're all important
487
1136000
2000
DW: Não, na verdade eu acho que elas são todas importantes
19:13
to drive the right movement behavior to get reproduction in the end.
488
1138000
3000
para dirigir o comportamento de movimento correto para chegar à reprodução no fim.
19:16
So I think people who study sensation or memory
489
1141000
3000
Eu penso assim sobre as pessoas que estudam sensação ou memória
19:19
without realizing why you're laying down memories of childhood.
490
1144000
2000
sem perceber por que você esquece as memórias da infância.
19:21
The fact that we forget most of our childhood, for example,
491
1146000
3000
O fato de esquecermos a maior parte de nossa infância, por exemplo,
19:24
is probably fine, because it doesn't effect our movements later in life.
492
1149000
3000
provavelmente é normal, pois isso não afeta nossos movimentos mais tarde.
19:27
You only need to store things which are really going to effect movement.
493
1152000
3000
Você só precisa guardar coisas que vão realmente afetar o movimento.
19:30
CA: So you think that people thinking about the brain, and consciousness generally,
494
1155000
3000
CA: Então você acha que as pessoas que estudam o cérebro, e a consciência de forma geral,
19:33
could get real insight
495
1158000
2000
poderiam ter uma reflexão verdadeira
19:35
by saying, where does movement play in this game?
496
1160000
2000
ao perguntar onde o movimento se envolve nesse jogo?
19:37
DW: So people have found out for example
497
1162000
2000
DW: As pessoas descobriram, por exemplo,
19:39
that studying vision in the absence of realizing why you have vision
498
1164000
2000
que estudar a visão sem a noção de por que você tem visão
19:41
is a mistake.
499
1166000
2000
é um erro.
19:43
You have to study vision with the realization
500
1168000
2000
Você precisa estudar a visão tendo em vista
19:45
of how the movement system is going to use vision.
501
1170000
2000
como o sistema de movimento vai usar a visão.
19:47
And it uses it very differently once you think about it that way.
502
1172000
2000
E ele o usa de forma muito diferente depois que você pensa sobre isso.
19:49
CA: Well that was quite fascinating. Thank you very much indeed.
503
1174000
3000
CA: Bem, isso foi realmente fascinante. Muito obrigado.
19:52
(Applause)
504
1177000
2000
(Aplausos)
Translated by Francisco Paulino Dubiela
Reviewed by Isabel Villan

▲Back to top

ABOUT THE SPEAKER
Daniel Wolpert - Movement expert
A neuroscientist and engineer, Daniel Wolpert studies how the brain controls the body.

Why you should listen

Consider your hand. You use it to lift things, to balance yourself, to give and take, to sense the world. It has a range of interacting degrees of freedom, and it interacts with many different objects under a variety of environmental conditions. And for most of us, it all just works. At his lab in the Engineering department at Cambridge, Daniel Wolpert and his team are studying why, looking to understand the computations underlying the brain's sensorimotor control of the body.

As he says, "I believe that to understand movement is to understand the whole brain. And therefore it’s important to remember when you are studying memory, cognition, sensory processing, they’re there for a reason, and that reason is action.”  Movement is the only way we have of interacting with the world, whether foraging for food or attracting a waiter's attention. Indeed, all communication, including speech, sign language, gestures and writing, is mediated via the motor system. Taking this viewpoint, and using computational and robotic techniques as well as virtual reality systems, Wolpert and his team research the purpose of the human brain and the way it determines future actions.

 

 

More profile about the speaker
Daniel Wolpert | Speaker | TED.com