ABOUT THE SPEAKER
Gero Miesenboeck - Optogeneticist
Using light and a little genetic engineering -- optogenetics -- Gero Miesenboeck has developed a way to control how living nerve cells work, and advanced understanding of how the brain controls behavior.

Why you should listen

Gero Miesenboeck is pioneering the field of optogenetics: genetically modifying nerve cells to respond to light. By flashing light at a modified neuron in a living nervous system, Miesenboeck and his collaborators can mimic a brain impulse -- and then study what happens next. Optogenetics will allow ever more precise experiments on living brains, allowing us to gather better evidence on how electrical impulses on tissue translate into actual behavior and thoughts.

In one experiment, done at Yale, he and his team engineered fruit flies to be light-sensitive in the neural area responsible for escape response. Then the flies were beheaded; fruit flies can live for a day without their heads, but they don't move. When the modified cells were flashed with light, though, the headless flies flew. Miesenboeck had successfully simulated an order from a brain that wasn't even there anymore.

Miesenboeck's current research at Oxford's growing department of neurobiology focuses on the nerve cell networks that underpin what animals perceive, remember and do. In one recent experiment, he used optogenetics to implant an unpleasant memory in a fruit fly, causing it to "remember" to avoid a certain odor as it traveled around. He and his team were able, in fact, to find the fly's specific 12-neuron brain circuit that govern memory formation.

More profile about the speaker
Gero Miesenboeck | Speaker | TED.com
TEDGlobal 2010

Gero Miesenboeck: Re-engineering the brain

Gero Miesenboeck faz reengenharia em um cérebro

Filmed:
717,411 views

Na busca pelo mapeamento do cérebro, muitos cientistas tentaram a incrível e intimidante tarefa de registrar a atividade de cada neurônio isoladamente. Gero Miesenboeck trabalha de maneira reversa -- ou seja, manipulando neurônios específicos para descobrir exatamente o que eles fazem, através de uma série de experimentos formidáveis que reestruturam o modo como moscas-da-fruta percebem a luz.
- Optogeneticist
Using light and a little genetic engineering -- optogenetics -- Gero Miesenboeck has developed a way to control how living nerve cells work, and advanced understanding of how the brain controls behavior. Full bio

Double-click the English transcript below to play the video.

00:15
I have a doppelganger.
0
0
3000
Eu tenho um sósia.
00:18
(Laughter)
1
3000
3000
(Risos)
00:21
Dr. Gero is a brilliant
2
6000
3000
Dr. Gero é um brilhante
00:24
but slightly mad scientist
3
9000
2000
mas ligeiramente louco cientista
00:26
in the "Dragonball Z: Android Saga."
4
11000
3000
da série "Saga Andróide" do (desenho) DragonBall Z.
00:29
If you look very carefully,
5
14000
2000
Se você olhar atentamente,
00:31
you see that his skull has been replaced
6
16000
3000
verá que o escalpe dele foi substituído
00:34
with a transparent Plexiglas dome
7
19000
2000
por uma cúpula de acrílico
00:36
so that the workings of his brain can be observed
8
21000
3000
de modo que a atividade do seu cérebro pode ser observada
00:39
and also controlled with light.
9
24000
3000
e também controlada por luz.
00:42
That's exactly what I do --
10
27000
2000
É exatamente isto o que eu faço --
00:44
optical mind control.
11
29000
2000
controle óptico da mente.
00:46
(Laughter)
12
31000
2000
(Risos)
00:48
But in contrast to my evil twin
13
33000
2000
Mas ao contrário do meu diabólico irmão gêmeo,
00:50
who lusts after world domination,
14
35000
3000
que deseja dominar o mundo,
00:53
my motives are not sinister.
15
38000
3000
meus motivos não são sinistros.
00:56
I control the brain
16
41000
2000
Eu controlo o cérebro
00:58
in order to understand how it works.
17
43000
2000
com o objetivo de entender como ele funciona.
01:00
Now wait a minute, you may say,
18
45000
2000
Espere um pouco, você pode dizer,
01:02
how can you go straight to controlling the brain
19
47000
3000
como você pode simplesmente 'ir controlando' o cérebro
01:05
without understanding it first?
20
50000
2000
sem antes, entendê-lo?
01:07
Isn't that putting the cart before the horse?
21
52000
3000
Isto não seria 'colocar o carro na frente dos bois'?
01:11
Many neuroscientists agree with this view
22
56000
3000
Muitos neurocientistas pensam assim
01:14
and think that understanding will come
23
59000
3000
e pensam também que o entendimento virá
01:17
from more detailed observation and analysis.
24
62000
3000
através de mais observações e análises detalhadas.
01:20
They say, "If we could record the activity of our neurons,
25
65000
4000
Ele dizem: "se nós pudermos registrar a atividade de todos os neurônios,
01:24
we would understand the brain."
26
69000
3000
nós entenderemos o cérebro."
01:27
But think for a moment what that means.
27
72000
3000
Mas pense por um momento o que isto significa.
01:30
Even if we could measure
28
75000
2000
Mesmo que pudéssemos medir
01:32
what every cell is doing at all times,
29
77000
2000
o que cada célula está fazendo o tempo todo,
01:34
we would still have to make sense
30
79000
2000
ainda teríamos que atribuir sentido
01:36
of the recorded activity patterns,
31
81000
2000
aos padrões de atividade registrados,
01:38
and that's so difficult,
32
83000
2000
e isto é muito difícil,
01:40
chances are we'll understand these patterns
33
85000
2000
provavelmente entenderemos estes padrões
01:42
just as little as the brains that produce them.
34
87000
3000
tão mal quanto entendemos os cérebros que os produzem.
01:45
Take a look at what brain activity might look like.
35
90000
3000
Dêem uma olhada em como a atividade cerebral pode se apresentar.
01:48
In this simulation, each black dot
36
93000
2000
Nesta simulação, cada ponto preto
01:50
is one nerve cell.
37
95000
2000
representa um neurônio.
01:52
The dot is visible
38
97000
2000
O ponto fica visível
01:54
whenever a cell fires an electrical impulse.
39
99000
2000
toda vez que aquela célula emite um pulso elétrico.
01:56
There's 10,000 neurons here.
40
101000
2000
Aqui, são 10.000 neurônios.
01:58
So you're looking at roughly one percent
41
103000
2000
Ou seja, você está vendo aproximadamente 1%
02:00
of the brain of a cockroach.
42
105000
3000
do cérebro de uma barata.
02:04
Your brains are about 100 million times
43
109000
3000
O cérebro de cada um de vocês é 100 milhões de vezes
02:07
more complicated.
44
112000
2000
mais complicado.
02:09
Somewhere, in a pattern like this,
45
114000
2000
Em algum lugar, em um padrão como este,
02:11
is you,
46
116000
2000
está você,
02:13
your perceptions,
47
118000
2000
suas percepções,
02:15
your emotions, your memories,
48
120000
3000
suas emoções, suas memórias,
02:18
your plans for the future.
49
123000
2000
seus planos para o futuro.
02:20
But we don't know where,
50
125000
2000
Mas não sabemos onde,
02:22
since we don't know how to read the pattern.
51
127000
3000
pois não sabemos como 'ler' o padrão.
02:25
We don't understand the code used by the brain.
52
130000
3000
Nós não entendemos o código usado pelo cérebro.
02:28
To make progress,
53
133000
2000
Para progredir,
02:30
we need to break the code.
54
135000
2000
nós precisamos 'quebrar' este código.
02:32
But how?
55
137000
2000
Mas como?
02:35
An experienced code-breaker will tell you
56
140000
2000
Um experiente 'quebrador de códigos' lhe diria que
02:37
that in order to figure out what the symbols in a code mean,
57
142000
3000
para descobrir o que os símbolos, em um dado código, representam,
02:40
it's essential to be able to play with them,
58
145000
3000
é essencial estarmos aptos a 'brincar' com eles
02:43
to rearrange them at will.
59
148000
2000
reorganizando-os à nossa vontade.
02:45
So in this situation too,
60
150000
2000
Então, no nosso caso também,
02:47
to decode the information
61
152000
2000
para decodificarmos a informação,
02:49
contained in patterns like this,
62
154000
2000
contida em padrões como este,
02:51
watching alone won't do.
63
156000
2000
apenas observá-los não é suficiente;
02:53
We need to rearrange the pattern.
64
158000
2000
nós precisamos reorganizar o padrão.
02:55
In other words,
65
160000
2000
Em outras palavras,
02:57
instead of recording the activity of neurons,
66
162000
2000
ao invés de apenas gravar a atividade dos neurônios,
02:59
we need to control it.
67
164000
2000
precisamos controlá-la.
03:01
It's not essential that we can control
68
166000
2000
E não é essencial que controlemos
03:03
the activity of all neurons in the brain, just some.
69
168000
3000
a atividade de todos os neurônios de um cérebro, mas apenas de alguns.
03:06
The more targeted our interventions, the better.
70
171000
2000
Quanto mais precisas forem nossas intervenções, melhor.
03:08
And I'll show you in a moment
71
173000
2000
Em um minuto, eu lhes mostrarei
03:10
how we can achieve the necessary precision.
72
175000
3000
como nós podemos atingir a precisão necessária.
03:13
And since I'm realistic, rather than grandiose,
73
178000
3000
Como sou mais realista do que soberbo,
03:16
I don't claim that the ability to control the function of the nervous system
74
181000
3000
não afirmo que a habilidade de controlar a função do Sistema Nervoso
03:19
will at once unravel all its mysteries.
75
184000
3000
desvendará subitamente todos os seus mistérios.
03:22
But we'll certainly learn a lot.
76
187000
3000
Mas certamente aprenderemos muito.
03:27
Now, I'm by no means
77
192000
2000
Não sou de maneira alguma
03:29
the first person to realize
78
194000
2000
a primeira pessoa a perceber
03:31
how powerful a tool intervention is.
79
196000
3000
o potencial de uma intervenção instrumental.
03:34
The history of attempts
80
199000
2000
A história das tentativas
03:36
to tinker with the function of the nervous system
81
201000
2000
de perscrutar as funções do Sistema Nervoso
03:38
is long and illustrious.
82
203000
2000
é longa e ilustre.
03:40
It dates back at least 200 years,
83
205000
3000
Ela remonta há pelo menos 200 anos,
03:43
to Galvani's famous experiments
84
208000
2000
aos famosos experimentos de Galvani
03:45
in the late 18th century and beyond.
85
210000
3000
no final do século XVIII e além.
03:49
Galvani showed that a frog's legs twitched
86
214000
3000
Galvani mostrou que as patas de um sapo contraíam-se
03:52
when he connected the lumbar nerve
87
217000
2000
quando ele conectava o nervo ciático
03:54
to a source of electrical current.
88
219000
3000
a uma fonte de corrente elétrica.
03:57
This experiment revealed the first, and perhaps most fundamental,
89
222000
3000
Este experimento revelou a primeira, e talvez mais fundamental,
04:00
nugget of the neural code:
90
225000
2000
'jóia' do código neural:
04:02
that information is written in the form
91
227000
2000
que a informação está escrita em forma
04:04
of electrical impulses.
92
229000
3000
de impulsos elétricos.
04:08
Galvani's approach
93
233000
2000
A abordagem do Galvani
04:10
of probing the nervous system with electrodes
94
235000
2000
em sondar o sistema nervoso com eletrodos
04:12
has remained state-of-the-art until today,
95
237000
3000
permanece como o "estado-da-arte" até os dias de hoje,
04:15
despite a number of drawbacks.
96
240000
3000
a despeito de várias desvantagens.
04:18
Sticking wires into the brain is obviously rather crude.
97
243000
3000
Espetar fios, cérebro afora, é obviamente um pouco grosseiro.
04:21
It's hard to do in animals that run around,
98
246000
2000
É difícil fazê-lo em animais que se movimentam,
04:23
and there is a physical limit
99
248000
2000
e ainda há um limite físico
04:25
to the number of wires
100
250000
2000
para o número de fios
04:27
that can be inserted simultaneously.
101
252000
3000
que podem ser inseridos simultaneamente.
04:30
So around the turn of the last century,
102
255000
2000
Então, na virada do último século,
04:32
I started to think,
103
257000
2000
comecei a pensar,
04:34
"Wouldn't it be wonderful if one could take this logic
104
259000
3000
quão maravilhoso seria se alguém pudesse pegar essa lógica
04:37
and turn it upside down?"
105
262000
2000
e colocá-la de ponta-cabeça.
04:39
So instead of inserting a wire
106
264000
2000
Ou seja, ao invés de inserir um fio
04:41
into one spot of the brain,
107
266000
3000
até um ponto do cérebro,
04:44
re-engineer the brain itself
108
269000
2000
reestruturar o próprio cérebro
04:46
so that some of its neural elements
109
271000
3000
para que alguns de seus elementos neurais
04:49
become responsive to diffusely broadcast signals
110
274000
3000
se tornem responsivos a sinais difusamente transmitidos,
04:52
such as a flash of light.
111
277000
3000
como, por exemplo, um pulso de luz.
04:55
Such an approach would literally, in a flash of light,
112
280000
3000
Tal abordagem iria, literalmente num piscar de luzes,
04:58
overcome many of the obstacles to discovery.
113
283000
3000
superar muitos dos obstáculos à descoberta.
05:01
First, it's clearly a non-invasive,
114
286000
3000
Primeiro, é claramente uma forma não-invasiva
05:04
wireless form of communication.
115
289000
3000
de comunicação sem fio.
05:07
And second, just as in a radio broadcast,
116
292000
2000
Segundo, tal como numa transmissão de rádio,
05:09
you can communicate with many receivers at once.
117
294000
3000
você pode comunicar-se com vários receptores ao mesmo tempo.
05:12
You don't need to know where these receivers are,
118
297000
3000
Você nem mesmo precisa saber onde estes receptores estão.
05:15
and it doesn't matter if these receivers move --
119
300000
2000
E não importa também se os receptores se movem --
05:17
just think of the stereo in your car.
120
302000
3000
é como o rádio do seu carro.
05:20
It gets even better,
121
305000
3000
E fica ainda melhor,
05:23
for it turns out that we can fabricate the receivers
122
308000
3000
porque podemos fabricar os receptores
05:26
out of materials that are encoded in DNA.
123
311000
3000
a partir de materiais codificados no DNA.
05:29
So each nerve cell
124
314000
2000
Então, cada neurônio
05:31
with the right genetic makeup
125
316000
2000
com a correta constituição genética
05:33
will spontaneously produce a receiver
126
318000
3000
produzirá espontaneamente um receptor
05:36
that allows us to control its function.
127
321000
3000
que nos permitirá controlar sua função.
05:39
I hope you'll appreciate
128
324000
2000
Eu espero que vocês apreciem
05:41
the beautiful simplicity
129
326000
2000
a belíssima simplicidade
05:43
of this concept.
130
328000
2000
deste conceito.
05:45
There's no high-tech gizmos here,
131
330000
2000
Não existem aqui aparatos de alta tecnologia,
05:47
just biology revealed through biology.
132
332000
3000
apenas biologia revelada através da biologia.
05:51
Now let's take a look at these miraculous receivers up close.
133
336000
3000
Agora, vamos olhar de perto estes miraculosos receptores.
05:54
As we zoom in on one of these purple neurons,
134
339000
3000
À medida em que nos aproximamos de um destes neurônios representados em roxo,
05:57
we see that its outer membrane
135
342000
2000
vemos que suas membranas externas
05:59
is studded with microscopic pores.
136
344000
2000
são salpicadas por poros microscópicos.
06:01
Pores like these conduct electrical current
137
346000
2000
Poros como estes conduzem corrente elétrica
06:03
and are responsible
138
348000
2000
e são responsáveis
06:05
for all the communication in the nervous system.
139
350000
2000
por toda a comunicação no Sistema Nervoso.
06:07
But these pores here are special.
140
352000
2000
Mas estes poros aqui são especiais.
06:09
They are coupled to light receptors
141
354000
2000
Eles são acoplados a fotoreceptores
06:11
similar to the ones in your eyes.
142
356000
3000
semelhantes àqueles dos olhos de vocês.
06:14
Whenever a flash of light hits the receptor,
143
359000
2000
Sempre que um brilho de luz atinge o receptor,
06:16
the pore opens, an electrical current is switched on,
144
361000
3000
o poro se abre e uma corrente elétrica é gerada,
06:19
and the neuron fires electrical impulses.
145
364000
3000
e o neurônio dispara impulsos elétricos.
06:22
Because the light-activated pore is encoded in DNA,
146
367000
3000
Como o poro ativado pela luz é codificado no DNA,
06:25
we can achieve incredible precision.
147
370000
3000
nós podemos atingir uma precisão incrível.
06:28
This is because,
148
373000
2000
Isto porque,
06:30
although each cell in our bodies
149
375000
2000
a despeito de cada uma das células dos nossos corpos
06:32
contains the same set of genes,
150
377000
2000
possuirem o mesmo conjunto gênico,
06:34
different mixes of genes get turned on and off
151
379000
2000
diferentes combinações de genes são ativados ou inativados
06:36
in different cells.
152
381000
2000
em diferentes células.
06:38
You can exploit this to make sure
153
383000
2000
Você pode explorar isto para assegurar
06:40
that only some neurons
154
385000
2000
que apenas alguns neurônios
06:42
contain our light-activated pore and others don't.
155
387000
3000
contenham nossos poros ativados por luz e outros não.
06:45
So in this cartoon, the bluish white cell
156
390000
2000
Então, neste desenho, a célula branco-azulada
06:47
in the upper-left corner
157
392000
2000
no canto superior esquerdo
06:49
does not respond to light
158
394000
2000
não responde à luz
06:51
because it lacks the light-activated pore.
159
396000
3000
pois ela não tem o poro ativado por luz.
06:54
The approach works so well
160
399000
2000
Essa abordagem funciona tão bem
06:56
that we can write purely artificial messages
161
401000
2000
que nós podemos escrever mensagens puramente artificiais
06:58
directly to the brain.
162
403000
2000
diretamente no cérebro.
07:00
In this example, each electrical impulse,
163
405000
2000
Neste exemplo, cada impulso elétrico,
07:02
each deflection on the trace,
164
407000
3000
cada deflexão no traçado,
07:05
is caused by a brief pulse of light.
165
410000
3000
é causada por um breve pulso de luz.
07:08
And the approach, of course, also works
166
413000
2000
E esta abordagem funciona também
07:10
in moving, behaving animals.
167
415000
3000
em animais em movimento, em ação.
07:13
This is the first ever such experiment,
168
418000
2000
Este é o primeiro experimento do gênero,
07:15
sort of the optical equivalent of Galvani's.
169
420000
3000
um equivalente óptico do experimento do Galvani.
07:18
It was done six or seven years ago
170
423000
2000
Ele foi realizado há seis ou sete anos
07:20
by my then graduate student, Susana Lima.
171
425000
3000
pela minha então estudante de gradução, Susana Lima.
07:23
Susana had engineered the fruit fly on the left
172
428000
3000
Susana estruturou a mosca da esquerda
07:26
so that just two out of the 200,000 cells in its brain
173
431000
4000
de modo que apenas duas, das 200.000 células do cérebro da mosca,
07:30
expressed the light-activated pore.
174
435000
3000
expressassem o canal ativado por luz.
07:33
You're familiar with these cells
175
438000
2000
Estas células são velhas conhecidas de vocês
07:35
because they are the ones that frustrate you
176
440000
2000
pois são aquelas que frustram vocês
07:37
when you try to swat the fly.
177
442000
2000
quando vocês tentam acertar a mosca com um tapa.
07:39
They trained the escape reflex that makes the fly jump into the air
178
444000
3000
São células que treinam o reflexo de escape que leva a mosca 'mergulhar' no ar
07:42
and fly away whenever you move your hand in position.
179
447000
3000
e voar para longe, toda vez que você muda a posição da sua mão.
07:46
And you can see here that the flash of light has exactly the same effect.
180
451000
3000
E vocês podem ver aqui que o pulso luminoso tem exatamente o mesmo efeito.
07:49
The animal jumps, it spreads its wings, it vibrates them,
181
454000
3000
O inseto pula, ele abre suas asas e as faz vibrar,
07:52
but it can't actually take off
182
457000
2000
mas aqui ele não pode voar,
07:54
because the fly is sandwiched between two glass plates.
183
459000
3000
pois ele está preso entre duas lâminas de vidro.
07:58
Now to make sure that this was no reaction of the fly
184
463000
2000
Para certificar-se de que isto não era apenas uma reação da mosca
08:00
to a flash it could see,
185
465000
3000
à visão do 'flash',
08:03
Susana did a simple
186
468000
2000
Susana fez um simples,
08:05
but brutally effective experiment.
187
470000
2000
e eficaz experimento, apesar de brutal.
08:07
She cut the heads off of her flies.
188
472000
3000
Ela cortou as cabeças das moscas.
08:11
These headless bodies can live for about a day,
189
476000
3000
Estes corpos decapitados vivem por aproximadamente um dia,
08:14
but they don't do much.
190
479000
2000
apesar de não fazerem muita coisa
08:16
They just stand around
191
481000
3000
Eles apenas ficam por ali
08:19
and groom excessively.
192
484000
3000
e se limpam excessivamente.
08:22
So it seems that the only trait that survives decapitation is vanity.
193
487000
3000
Ou seja, parece que o único traço que permanece após a decapitação é a vaidade.
08:25
(Laughter)
194
490000
3000
(Risos)
08:30
Anyway, as you'll see in a moment,
195
495000
2000
De qualquer modo, como você verão em um momento,
08:32
Susana was able to turn on the flight motor
196
497000
3000
Susana conseguiu ligar o motor de vôo
08:35
of what's the equivalent of the spinal cord of these flies
197
500000
3000
do que seria o equivalente à medula espinhal destas moscas
08:38
and get some of the headless bodies
198
503000
2000
e fazer alguns corpos sem cabeça
08:40
to actually take off and fly away.
199
505000
3000
decolarem e voarem.
08:47
They didn't get very far, obviously.
200
512000
2000
Obviamente eles não vão muito longe.
08:50
Since we took these first steps,
201
515000
2000
Desde que demos estes primeiros passos,
08:52
the field of optogenetics has exploded.
202
517000
3000
o campo da optogenética 'explodiu'.
08:55
And there are now hundreds of labs
203
520000
2000
E agora existem centenas de laboratórios
08:57
using these approaches.
204
522000
2000
usando este tipo de abordagem.
08:59
And we've come a long way
205
524000
2000
E nós já avançamos muito
09:01
since Galvani's and Susana's first successes
206
526000
3000
desde os primeiros sucessos de Galvani e Susana
09:04
in making animals twitch or jump.
207
529000
2000
fazendo os animais se contorcerem ou pularem.
09:06
We can now actually interfere with their psychology
208
531000
3000
Nós agora podemos interferir na psicologia deles
09:09
in rather profound ways,
209
534000
2000
de maneiras um tanto quanto profundas
09:11
as I'll show you in my last example,
210
536000
2000
como eu lhes mostrarei no meu último exemplo,
09:13
which is directed at a familiar question.
211
538000
3000
que é direcionado a uma questão corriqueira.
09:16
Life is a string of choices
212
541000
3000
A vida é uma seqüência de escolhas
09:19
creating a constant pressure to decide what to do next.
213
544000
3000
que cria uma constante pressão para se decidir o que fazer a seguir.
09:23
We cope with this pressure by having brains,
214
548000
3000
Nós lidamos com estas pressões, tendo cérebros
09:26
and within our brains, decision-making centers
215
551000
3000
e, dentro de nossos cérebros, através dos centros de tomada-de-decisão
09:29
that I've called here the "Actor."
216
554000
3000
que, aqui, eu chamei de Ator.
09:33
The Actor implements a policy that takes into account
217
558000
3000
O Ator implementa uma política que leva em consideração
09:36
the state of the environment
218
561000
2000
o estado do ambiente
09:38
and the context in which we operate.
219
563000
3000
e o contexto no qual operamos.
09:41
Our actions change the environment, or context,
220
566000
3000
Nossas ações modificam o ambiente, ou o contexto,
09:44
and these changes are then fed back into the decision loop.
221
569000
3000
e estas mudanças, por sua vez, retroalimentam a alça de decisão.
09:48
Now to put some neurobiological meat
222
573000
3000
Agora, para adicionar um pouco do substrato neurobiológico,
09:51
on this abstract model,
223
576000
2000
neste modelo abstrato,
09:53
we constructed a simple one-dimensional world
224
578000
2000
nós construímos um mundo unidimensional simples
09:55
for our favorite subject, fruit flies.
225
580000
3000
para nossos sujeitos prediletos, as moscas-da-fruta.
09:58
Each chamber in these two vertical stacks
226
583000
2000
Cada câmara nestas duas pilhas verticais
10:00
contains one fly.
227
585000
2000
contém uma mosca.
10:02
The left and the right halves of the chamber
228
587000
3000
As metades direita e esquerda de cada câmara
10:05
are filled with two different odors,
229
590000
2000
são preenchidas por dois diferentes odores,
10:07
and a security camera watches
230
592000
2000
uma câmera de vídeo registra
10:09
as the flies pace up and down between them.
231
594000
3000
à medida em que as moscas transitam entre elas.
10:12
Here's some such CCTV footage.
232
597000
2000
Aqui estão os melhores momentos deste circuito-fechado de TV.
10:14
Whenever a fly reaches the midpoint of the chamber
233
599000
3000
Sempre que uma mosca atinge o ponto médio da câmara,
10:17
where the two odor streams meet,
234
602000
2000
onde as duas linhas de odores se encontram,
10:19
it has to make a decision.
235
604000
2000
a mosca tem que tomar uma decisão.
10:21
It has to decide whether to turn around
236
606000
2000
Ela tem que decidir entre voltar e
10:23
and stay in the same odor,
237
608000
2000
continuar no mesmo odor,
10:25
or whether to cross the midline
238
610000
2000
ou se vai continuar e cruzar a linha média
10:27
and try something new.
239
612000
2000
e tentar algo novo.
10:29
These decisions are clearly a reflection
240
614000
3000
Estas decisões refletem claramente a
10:32
of the Actor's policy.
241
617000
3000
a política do Ator.
10:36
Now for an intelligent being like our fly,
242
621000
3000
Agora, para um ser inteligente como nossa mosca,
10:39
this policy is not written in stone
243
624000
3000
esta política não está gravada na rocha,
10:42
but rather changes as the animal learns from experience.
244
627000
3000
mas muda conforme o inseto aprende pela experiência.
10:45
We can incorporate such an element
245
630000
2000
Nós podemos incorporar um elemento
10:47
of adaptive intelligence into our model
246
632000
3000
de inteligência adaptativa ao nosso modelo
10:50
by assuming that the fly's brain
247
635000
2000
considerando que o cérebro da mosca
10:52
contains not only an Actor,
248
637000
2000
contém não apenas um Ator,
10:54
but a different group of cells,
249
639000
2000
mas um grupo diferente de células,
10:56
a "Critic," that provides a running commentary
250
641000
3000
uma Crítica, que fornece continuamente comentários
10:59
on the Actor's choices.
251
644000
2000
sobre as escolhas do Ator.
11:01
You can think of this nagging inner voice
252
646000
3000
Você pode imaginar esta voz interna ranzinza
11:04
as sort of the brain's equivalent
253
649000
2000
como um equivalente cerebral humano
11:06
of the Catholic Church,
254
651000
2000
da Igreja Católica,
11:08
if you're an Austrian like me,
255
653000
3000
se você for austríaco como eu,
11:11
or the super-ego, if you're Freudian,
256
656000
3000
ou como o Superego, se você for Freudiano,
11:14
or your mother, if you're Jewish.
257
659000
2000
ou ainda sua mãe, se você for judeu.
11:16
(Laughter)
258
661000
4000
(Risos)
11:20
Now obviously,
259
665000
2000
Agora, obviamente,
11:22
the Critic is a key ingredient
260
667000
3000
a Crítica é um ingrediente-chave
11:25
in what makes us intelligent.
261
670000
2000
que nos torna inteligentes.
11:27
So we set out to identify
262
672000
2000
Então saímos em busca da identificação
11:29
the cells in the fly's brain
263
674000
2000
das células cerebrais que, no cérebro da mosca,
11:31
that played the role of the Critic.
264
676000
2000
exercem o papel da Crítica.
11:33
And the logic of our experiment was simple.
265
678000
3000
E a lógica do nosso experimento foi simples.
11:36
We thought if we could use our optical remote control
266
681000
3000
Imaginamos que se usassemos nosso controle remoto óptico
11:39
to activate the cells of the Critic,
267
684000
3000
para ativar as células da Crítica,
11:42
we should be able, artificially, to nag the Actor
268
687000
3000
estaríamos aptos a, artificialmente, perturbar o Ator
11:45
into changing its policy.
269
690000
2000
para que ele mude sua política.
11:47
In other words,
270
692000
2000
Em outras palavras,
11:49
the fly should learn from mistakes
271
694000
2000
a mosca deveria aprender com os erros
11:51
that it thought it had made
272
696000
2000
que ela pensa que cometeu
11:53
but, in reality, it had not made.
273
698000
3000
mas que, na verdade, ela não cometeu.
11:56
So we bred flies
274
701000
2000
Então, nós criamos moscas
11:58
whose brains were more or less randomly peppered
275
703000
3000
cujos cérebros foram mais ou menos aleatoriamente salpicados
12:01
with cells that were light addressable.
276
706000
2000
com células ativadas por luz.
12:03
And then we took these flies
277
708000
2000
Daí, pegamos estas moscas
12:05
and allowed them to make choices.
278
710000
2000
e deixamos que fizessem escolhas.
12:07
And whenever they made one of the two choices,
279
712000
2000
E sempre que elas faziam uma das duas escolhas,
12:09
chose one odor,
280
714000
2000
escolher um odor,
12:11
in this case the blue one over the orange one,
281
716000
2000
neste caso, o odor azul ao invés do laranja,
12:13
we switched on the lights.
282
718000
2000
nós acionávamos as luzes.
12:15
If the Critic was among the optically activated cells,
283
720000
3000
Se a Crítica estivesse entre as células ativadas pela luz,
12:18
the result of this intervention
284
723000
2000
o resultado desta intervenção
12:20
should be a change in policy.
285
725000
3000
deveria ser uma mudança na política.
12:23
The fly should learn to avoid
286
728000
2000
A mosca deveria aprender a evitar
12:25
the optically reinforced odor.
287
730000
2000
o odor opticamente reforçado.
12:27
Here's what happened in two instances:
288
732000
3000
Aqui, está o que aconteceu em duas instâncias.
12:30
We're comparing two strains of flies,
289
735000
3000
Estamos comparando duas cepas de moscas,
12:33
each of them having
290
738000
2000
cada uma com
12:35
about 100 light-addressable cells in their brains,
291
740000
2000
cerca de 100 células sensíveis à luz em seus cérebros,
12:37
shown here in green on the left and on the right.
292
742000
3000
mostradas aqui em verde, à esquerda e à direita.
12:40
What's common among these groups of cells
293
745000
3000
O que é comum nestes grupos celulares
12:43
is that they all produce the neurotransmitter dopamine.
294
748000
3000
é que todos eles produzem dopamina como neurotransmissor.
12:46
But the identities of the individual
295
751000
2000
Mas a identidade de cada
12:48
dopamine-producing neurons
296
753000
2000
neurônio produtor de dopamina
12:50
are clearly largely different on the left and on the right.
297
755000
3000
é claramente diferente entre o painel da esquerda e o da direita.
12:53
Optically activating
298
758000
2000
Ativando opticamente
12:55
these hundred or so cells
299
760000
2000
Estas cento 'e poucas' células
12:57
into two strains of flies
300
762000
2000
em duas cepas de moscas,
12:59
has dramatically different consequences.
301
764000
2000
produzimos conseqüências dramaticamente diferentes.
13:01
If you look first at the behavior
302
766000
2000
Se você observa inicialmente o comportamento
13:03
of the fly on the right,
303
768000
2000
da mosca à direita,
13:05
you can see that whenever it reaches the midpoint of the chamber
304
770000
3000
você pode ver que sempre que ela atinge o ponto médio da câmara,
13:08
where the two odors meet,
305
773000
2000
onde os dois odores se encontram,
13:10
it marches straight through, as it did before.
306
775000
3000
ela marcha diretamente como antes,
13:13
Its behavior is completely unchanged.
307
778000
2000
Seu comportamento é completamente inalterado.
13:15
But the behavior of the fly on the left is very different.
308
780000
3000
Mas o comportamento da mosca da esquerda é bem diferente.
13:18
Whenever it comes up to the midpoint,
309
783000
3000
Sempre que ela atinge o ponto médio,
13:21
it pauses,
310
786000
2000
ela para,
13:23
it carefully scans the odor interface
311
788000
2000
sonda cuidadosamente a interface dos odores,
13:25
as if it was sniffing out its environment,
312
790000
2000
como se estivesse cheirando seu ambiente,
13:27
and then it turns around.
313
792000
2000
e, a seguir, retorna.
13:29
This means that the policy that the Actor implements
314
794000
3000
Isto significa que a política que o Ator implementa
13:32
now includes an instruction to avoid the odor
315
797000
2000
inclui agora uma instrução para evitar o odor
13:34
that's in the right half of the chamber.
316
799000
3000
que está na metade direita da câmara.
13:37
This means that the Critic
317
802000
2000
Isto significa que a Crítica
13:39
must have spoken in that animal,
318
804000
2000
deve 'ter falado' neste inseto,
13:41
and that the Critic must be contained
319
806000
2000
e que a Crítica deve estar sediada
13:43
among the dopamine-producing neurons on the left,
320
808000
3000
entre os neurônios dopaminérgicos da esquerda,
13:46
but not among the dopamine producing neurons on the right.
321
811000
3000
mas não entre os neurônios dopaminérgicos da direita.
13:49
Through many such experiments,
322
814000
3000
Através de muitos experimentos semelhantes
13:52
we were able to narrow down
323
817000
2000
nós fomos capazes de estreitar
13:54
the identity of the Critic
324
819000
2000
a identidade da Crítica
13:56
to just 12 cells.
325
821000
2000
para apenas 12 células.
13:58
These 12 cells, as shown here in green,
326
823000
3000
Estas 12 células, mostradas aqui em verde,
14:01
send the output to a brain structure
327
826000
2000
enviam sinais para uma estrutura cerebral
14:03
called the "mushroom body,"
328
828000
2000
chamada de 'corpos pedunculados',
14:05
which is shown here in gray.
329
830000
2000
que aqui estão representados em cinza.
14:07
We know from our formal model
330
832000
2000
Nós sabemos através do nosso modelo formal
14:09
that the brain structure
331
834000
2000
que a estrutura cerebral
14:11
at the receiving end of the Critic's commentary is the Actor.
332
836000
3000
na extremidade terminal do comentário da Crítica é o Ator.
14:14
So this anatomy suggests
333
839000
2000
Então, essa anatomia sugere
14:16
that the mushroom bodies have something to do
334
841000
3000
que os corpos pedunculados têm algo a ver
14:19
with action choice.
335
844000
2000
com a escolha da ação.
14:21
Based on everything we know about the mushroom bodies,
336
846000
2000
Baseado em tudo que conhecemos sobre os corpos pedunculados,
14:23
this makes perfect sense.
337
848000
2000
isto faz perfeito sentido.
14:25
In fact, it makes so much sense
338
850000
2000
Na verdade, isto faz tanto sentido,
14:27
that we can construct an electronic toy circuit
339
852000
3000
que podemos construir um circuito eletrônico de brinquedo
14:30
that simulates the behavior of the fly.
340
855000
3000
que simula o comportamento da mosca.
14:33
In this electronic toy circuit,
341
858000
3000
Neste circuito eletrônico de brinquedo,
14:36
the mushroom body neurons are symbolized
342
861000
2000
os neurônios dos corpos pedunculados estão representados
14:38
by the vertical bank of blue LEDs
343
863000
3000
pela fileira vertical de LEDs azuis
14:41
in the center of the board.
344
866000
3000
no centro da placa.
14:44
These LED's are wired to sensors
345
869000
2000
Estes LEDs estão conectados a sensores
14:46
that detect the presence of odorous molecules in the air.
346
871000
3000
que detectam a presença de moléculas odoríferas no ar.
14:50
Each odor activates a different combination of sensors,
347
875000
3000
Cada odor ativa uma diferente combinação de sensores,
14:53
which in turn activates
348
878000
2000
que, por sua vez, ativará
14:55
a different odor detector in the mushroom body.
349
880000
3000
um diferente detector de odor nos corpos pedunculados.
14:58
So the pilot in the cockpit of the fly,
350
883000
2000
Então, o piloto na cabine da mosca,
15:00
the Actor,
351
885000
2000
o Ator,
15:02
can tell which odor is present
352
887000
2000
pode identificar qual odor está presente
15:04
simply by looking at which of the blue LEDs lights up.
353
889000
4000
apenas olhando quais dos LEDs azuis são acesos.
15:09
What the Actor does with this information
354
894000
2000
O que o Ator faz com esta informação
15:11
depends on its policy,
355
896000
2000
depende de sua política,
15:13
which is stored in the strengths of the connection,
356
898000
2000
que está armazenada na força de suas conexões,
15:15
between the odor detectors
357
900000
2000
entre os detectores de odor
15:17
and the motors
358
902000
2000
e a parte motora
15:19
that power the fly's evasive actions.
359
904000
2000
que potencializa as ações evasivas da mosca.
15:22
If the connection is weak, the motors will stay off
360
907000
2000
Se a conexão é fraca, os motores permanecem desligados
15:24
and the fly will continue straight on its course.
361
909000
3000
e a mosca continuará normalmente em sua trajetória.
15:27
If the connection is strong, the motors will turn on
362
912000
3000
Se a conexão for forte, os motores serão ligados
15:30
and the fly will initiate a turn.
363
915000
3000
e a mosca iniciará seu retorno.
15:33
Now consider a situation
364
918000
2000
Agora, considerem a situação
15:35
in which the motors stay off,
365
920000
2000
na qual os motores permanecem desligados,
15:37
the fly continues on its path
366
922000
3000
a mosca continua em seu caminho
15:40
and it suffers some painful consequence
367
925000
2000
e ela sofre alguma dolorosa conseqüência,
15:42
such as getting zapped.
368
927000
2000
tal como ser estapeada.
15:44
In a situation like this,
369
929000
2000
Em uma situação como esta
15:46
we would expect the Critic to speak up
370
931000
2000
nós esperaríamos que a Crítica intercedesse
15:48
and to tell the Actor
371
933000
2000
e dissesse ao Ator
15:50
to change its policy.
372
935000
2000
para modificar sua política.
15:52
We have created such a situation, artificially,
373
937000
3000
Nós criamos esta situação artificialmente
15:55
by turning on the critic with a flash of light.
374
940000
3000
através da ativação da Crítica com um pulso de luz.
15:58
That caused a strengthening of the connections
375
943000
3000
Isto causava um fortalecimento das conexões
16:01
between the currently active odor detector
376
946000
3000
entre o detector de odor que estava ativado no momento
16:04
and the motors.
377
949000
2000
e os motores.
16:06
So the next time
378
951000
2000
Então, na próxima vez
16:08
the fly finds itself facing the same odor again,
379
953000
3000
que a mosca se depara com o mesmo odor,
16:11
the connection is strong enough to turn on the motors
380
956000
3000
a conexão está forte o suficiente para ligar os motores
16:14
and to trigger an evasive maneuver.
381
959000
3000
e desencadear uma manobra de evasão.
16:19
I don't know about you,
382
964000
3000
Eu não sei quanto a vocês,
16:22
but I find it exhilarating to see
383
967000
3000
mas eu acho sensacional ver
16:25
how vague psychological notions
384
970000
3000
como noções psicológicas vagas
16:28
evaporate and give rise
385
973000
2000
se evaporam e dão lugar
16:30
to a physical, mechanistic understanding of the mind,
386
975000
3000
a um entendimento físico, mecanicista da mente
16:33
even if it's the mind of the fly.
387
978000
3000
mesmo que seja a mente de uma mosca.
16:36
This is one piece of good news.
388
981000
3000
Esta é uma parte das boas notícias.
16:39
The other piece of good news,
389
984000
2000
A outra boa notícia,
16:41
for a scientist at least,
390
986000
2000
ao menos para um cientista,
16:43
is that much remains to be discovered.
391
988000
3000
é que falta muito para ser descoberto.
16:46
In the experiments I told you about,
392
991000
2000
Nos experimentos que mostrei a vocês,
16:48
we have lifted the identity of the Critic,
393
993000
3000
nós ressaltamos a identidade da Crítica,
16:51
but we still have no idea
394
996000
2000
mas ainda não fazemos idéia
16:53
how the Critic does its job.
395
998000
2000
de como esta Crítica faz seu trabalho.
16:55
Come to think of it, knowing when you're wrong
396
1000000
2000
Pensem agora sobre isto: saber quando você está errado
16:57
without a teacher, or your mother, telling you,
397
1002000
3000
sem um professor, ou sua mãe lhe dizendo
17:00
is a very hard problem.
398
1005000
2000
é um problema difícil.
17:02
There are some ideas in computer science
399
1007000
2000
Existem algumas idéias em ciência da computação
17:04
and in artificial intelligence
400
1009000
2000
e em inteligência artificial
17:06
as to how this might be done,
401
1011000
2000
de como isto poderia ser feito,
17:08
but we still haven't solved
402
1013000
2000
mas nós ainda não resolvemos
17:10
a single example
403
1015000
2000
nem um único exemplo
17:12
of how intelligent behavior
404
1017000
3000
de como o comportamento inteligente
17:15
springs from the physical interactions
405
1020000
2000
emerge das interações físicas
17:17
in living matter.
406
1022000
2000
para a matéria viva.
17:19
I think we'll get there in the not too distant future.
407
1024000
3000
Eu penso que nós chegaremos lá em um futuro não muito distante.
17:22
Thank you.
408
1027000
2000
Obrigado.
17:24
(Applause)
409
1029000
4000
(Aplausos)
Translated by Paulo Melillo
Reviewed by Heraldo Almeida

▲Back to top

ABOUT THE SPEAKER
Gero Miesenboeck - Optogeneticist
Using light and a little genetic engineering -- optogenetics -- Gero Miesenboeck has developed a way to control how living nerve cells work, and advanced understanding of how the brain controls behavior.

Why you should listen

Gero Miesenboeck is pioneering the field of optogenetics: genetically modifying nerve cells to respond to light. By flashing light at a modified neuron in a living nervous system, Miesenboeck and his collaborators can mimic a brain impulse -- and then study what happens next. Optogenetics will allow ever more precise experiments on living brains, allowing us to gather better evidence on how electrical impulses on tissue translate into actual behavior and thoughts.

In one experiment, done at Yale, he and his team engineered fruit flies to be light-sensitive in the neural area responsible for escape response. Then the flies were beheaded; fruit flies can live for a day without their heads, but they don't move. When the modified cells were flashed with light, though, the headless flies flew. Miesenboeck had successfully simulated an order from a brain that wasn't even there anymore.

Miesenboeck's current research at Oxford's growing department of neurobiology focuses on the nerve cell networks that underpin what animals perceive, remember and do. In one recent experiment, he used optogenetics to implant an unpleasant memory in a fruit fly, causing it to "remember" to avoid a certain odor as it traveled around. He and his team were able, in fact, to find the fly's specific 12-neuron brain circuit that govern memory formation.

More profile about the speaker
Gero Miesenboeck | Speaker | TED.com