ABOUT THE SPEAKER
Ed Boyden - Neuroengineer
Ed Boyden is a professor of biological engineering and brain and cognitive sciences at the MIT Media Lab and the MIT McGovern Institute.

Why you should listen

Ed Boyden leads the Synthetic Neurobiology Group, which develops tools for analyzing and repairing complex biological systems such as the brain. His group applies these tools in a systematic way in order to reveal ground truth scientific understandings of biological systems, which in turn reveal radical new approaches for curing diseases and repairing disabilities. These technologies include expansion microscopy, which enables complex biological systems to be imaged with nanoscale precision, and optogenetic tools, which enable the activation and silencing of neural activity with light (TED Talk: A light switch for neurons). Boyden also co-directs the MIT Center for Neurobiological Engineering, which aims to develop new tools to accelerate neuroscience progress.

Amongst other recognitions, Boyden has received the Breakthrough Prize in Life Sciences (2016), the BBVA Foundation Frontiers of Knowledge Award (2015), the Carnegie Prize in Mind and Brain Sciences (2015), the Jacob Heskel Gabbay Award (2013), the Grete Lundbeck Brain Prize (2013) and the NIH Director's Pioneer Award (2013). He was also named to the World Economic Forum Young Scientist list (2013) and the Technology Review World's "Top 35 Innovators under Age 35" list (2006). His group has hosted hundreds of visitors to learn how to use new biotechnologies and spun out several companies to bring inventions out of his lab and into the world. Boyden received his Ph.D. in neurosciences from Stanford University as a Hertz Fellow, where he discovered that the molecular mechanisms used to store a memory are determined by the content to be learned. Before that, he received three degrees in electrical engineering, computer science and physics from MIT. He has contributed to over 300 peer-reviewed papers, current or pending patents and articles, and he has given over 300 invited talks on his group's work.

More profile about the speaker
Ed Boyden | Speaker | TED.com
TED2011

Ed Boyden: A light switch for neurons

Ed Boyden: Um interruptor para os neurônios

Filmed:
1,098,379 views

Ed Boyen demonstra como, pela inserção de proteínas sensíveis à luz em células cerebrais, pode ativar ou desativar seletivamente neurônios específicos através de implantes de fibra óptica. Com esse nível de controle sem precedentes, conseguiu tratar ratos com distúrbios similares à Síndrome de Estresse Pós-Traumático e certas formas de cegueira. Para o futuro: próteses neuronais. O moderador da sessão, Juan Enriquez, conduz um pequeno debate no final.
- Neuroengineer
Ed Boyden is a professor of biological engineering and brain and cognitive sciences at the MIT Media Lab and the MIT McGovern Institute. Full bio

Double-click the English transcript below to play the video.

00:15
Think about your day for a second.
0
0
2000
Pense no dia de vocês por um segundo.
00:17
You woke up, felt fresh air on your face as you walked out the door,
1
2000
3000
Vocês acordaram, sentiram o ar fresco no rosto quando saíram pela porta,
00:20
encountered new colleagues and had great discussions,
2
5000
2000
conheceram colegas novos e tiveram discussões interessantes,
00:22
and felt in awe when you found something new.
3
7000
2000
e sentiram-se maravilhados ao descobrirem algo novo.
00:24
But I bet there's something you didn't think about today --
4
9000
2000
Mas eu aposto que há algo em que vocês não pensaram hoje –
00:26
something so close to home
5
11000
2000
algo tão familiar
00:28
that you probably don't think about it very often at all.
6
13000
2000
que provavelmente nem pensam nisto com frequência.
00:30
And that's that all the sensations, feelings,
7
15000
2000
É que todas as sensações, sentimentos,
00:32
decisions and actions
8
17000
2000
decisões e ações
00:34
are mediated by the computer in your head
9
19000
2000
são mediadas pelo computador que está nas suas cabeças
00:36
called the brain.
10
21000
2000
chamado cérebro.
00:38
Now the brain may not look like much from the outside --
11
23000
2000
Visto de fora, o cérebro pode não parecer grande coisa –
00:40
a couple pounds of pinkish-gray flesh,
12
25000
2000
um quilo e pouco de matéria rosa-cinzenta,
00:42
amorphous --
13
27000
2000
amorfa –
00:44
but the last hundred years of neuroscience
14
29000
2000
mas os últimos 100 anos da neurociência
00:46
have allowed us to zoom in on the brain,
15
31000
2000
nos permitiram ver o cérebro de perto,
00:48
and to see the intricacy of what lies within.
16
33000
2000
e notar a complexidade do que está por dentro.
00:50
And they've told us that this brain
17
35000
2000
E isso nos mostrou que esse cérebro
00:52
is an incredibly complicated circuit
18
37000
2000
é um circuito incrivelmente complexo
00:54
made out of hundreds of billions of cells called neurons.
19
39000
4000
composto por centenas de milhões de células chamadas neurônios.
00:58
Now unlike a human-designed computer,
20
43000
3000
Ao contrário de um computador projetado pelo Homem,
01:01
where there's a fairly small number of different parts --
21
46000
2000
em que há um número relativamente pequeno de partes diferentes –
01:03
we know how they work, because we humans designed them --
22
48000
3000
nós sabemos como funcionam, porque fomos nós que as concebemos –
01:06
the brain is made out of thousands of different kinds of cells,
23
51000
3000
o cérebro é feito de milhares de tipos de células diferentes,
01:09
maybe tens of thousands.
24
54000
2000
talvez dezenas de milhares.
01:11
They come in different shapes; they're made out of different molecules.
25
56000
2000
Elas têm diferentes formas; são feitas de diversas moléculas;
01:13
And they project and connect to different brain regions,
26
58000
3000
e elas projetam e se conectam com diferentes regiões cerebrais.
01:16
and they also change different ways in different disease states.
27
61000
3000
E também se modificam conforme o estado de diferentes doenças.
01:19
Let's make it concrete.
28
64000
2000
Vamos tornar isso concreto.
01:21
There's a class of cells,
29
66000
2000
Há uma classe de células,
01:23
a fairly small cell, an inhibitory cell, that quiets its neighbors.
30
68000
3000
uma célula relativamente pequena, inibitória, que acalma as suas vizinhas.
01:26
It's one of the cells that seems to be atrophied in disorders like schizophrenia.
31
71000
4000
É uma das células que parece estar atrofiada em casos como a esquizofrenia.
01:30
It's called the basket cell.
32
75000
2000
Chama-se "basket cell" [célula em forma de cesta].
01:32
And this cell is one of the thousands of kinds of cell
33
77000
2000
E essa é uma entre mil tipos de células
01:34
that we are learning about.
34
79000
2000
sobre as quais estamos aprendendo.
01:36
New ones are being discovered everyday.
35
81000
2000
São descobertas novas células todos os dias.
01:38
As just a second example:
36
83000
2000
Como segundo exemplo:
01:40
these pyramidal cells, large cells,
37
85000
2000
há células piramidais, células grandes,
01:42
they can span a significant fraction of the brain.
38
87000
2000
elas podem ocupar um espaço significativo do cérebro.
01:44
They're excitatory.
39
89000
2000
Elas são excitatórias.
01:46
And these are some of the cells
40
91000
2000
E estas são algumas das células
01:48
that might be overactive in disorders such as epilepsy.
41
93000
3000
que podem estar hiperativas em doenças como a epilepsia.
01:51
Every one of these cells
42
96000
2000
Cada uma destas células
01:53
is an incredible electrical device.
43
98000
3000
é um incrível dispositivo elétrico.
01:56
They receive input from thousands of upstream partners
44
101000
2000
Elas recebem impulsos de milhares de parceiros superiores
01:58
and compute their own electrical outputs,
45
103000
3000
e calculam suas próprias respostas elétricas,
02:01
which then, if they pass a certain threshold,
46
106000
2000
que, caso passem um certo campo,
02:03
will go to thousands of downstream partners.
47
108000
2000
chegam a milhares de parceiros inferiores.
02:05
And this process, which takes just a millisecond or so,
48
110000
3000
E este processo, que dura apenas cerca de um milissegundo,
02:08
happens thousands of times a minute
49
113000
2000
acontece milhares de vezes por minuto
02:10
in every one of your 100 billion cells,
50
115000
2000
em cada uma das suas 100 bilhões de células,
02:12
as long as you live
51
117000
2000
enquanto vocês viverem,
02:14
and think and feel.
52
119000
3000
pensarem e sentirem.
02:17
So how are we going to figure out what this circuit does?
53
122000
3000
Então, como vamos descobrir o que este circuito faz?
02:20
Ideally, we could go through the circuit
54
125000
2000
O ideal seria irmos através do circuito
02:22
and turn these different kinds of cell on and off
55
127000
3000
ligando e desligando esses diferentes tipos de células
02:25
and see whether we could figure out
56
130000
2000
para ver se descobrimos
02:27
which ones contribute to certain functions
57
132000
2000
quais contribuem para certas funções
02:29
and which ones go wrong in certain pathologies.
58
134000
2000
e quais funcionam mal em certas patologias.
02:31
If we could activate cells, we could see what powers they can unleash,
59
136000
3000
Se pudéssemos ativar células, poderíamos ver que poderes podem desencadear,
02:34
what they can initiate and sustain.
60
139000
2000
que processos podem iniciar e sustentar.
02:36
If we could turn them off,
61
141000
2000
Se pudéssemos desligá-las,
02:38
then we could try and figure out what they're necessary for.
62
143000
2000
então poderíamos tentar descobrir para que são necessárias.
02:40
And that's a story I'm going to tell you about today.
63
145000
3000
E esta é a história que vou contar hoje.
02:43
And honestly, where we've gone through over the last 11 years,
64
148000
3000
E, honestamente, nós temos andado por aqui nos últimos 11 anos,
02:46
through an attempt to find ways
65
151000
2000
tentando descobrir maneiras
02:48
of turning circuits and cells and parts and pathways of the brain
66
153000
2000
de modificar circuitos, células, regiões e caminhos do cérebro
02:50
on and off,
67
155000
2000
ligados e desligados,
02:52
both to understand the science
68
157000
2000
tanto para entendermos a ciência,
02:54
and also to confront some of the issues
69
159000
3000
como para confrontar algumas questões
02:57
that face us all as humans.
70
162000
3000
a respeito de todos os humanos.
03:00
Now before I tell you about the technology,
71
165000
3000
Antes de falar sobre a tecnologia,
03:03
the bad news is that a significant fraction of us in this room,
72
168000
3000
a má noticia é que uma parte significativa de nós nesta sala,
03:06
if we live long enough,
73
171000
2000
se vivermos tempo suficiente,
03:08
will encounter, perhaps, a brain disorder.
74
173000
2000
vai enfrentar, talvez, uma desordem cerebral.
03:10
Already, a billion people
75
175000
2000
Atualmente, bilhões de pessoas
03:12
have had some kind of brain disorder
76
177000
2000
tiveram algum tipo de distúrbio cerebral
03:14
that incapacitates them,
77
179000
2000
que os deixou incapacitados.
03:16
and the numbers don't do it justice though.
78
181000
2000
E ainda assim os números não fazem justiça.
03:18
These disorders -- schizophrenia, Alzheimer's,
79
183000
2000
Estes distúrbios – esquizofrenia, Alzheimer,
03:20
depression, addiction --
80
185000
2000
depressão, dependência –
03:22
they not only steal our time to live, they change who we are.
81
187000
3000
não só nos tiram tempo de vida, como mudam quem somos;
03:25
They take our identity and change our emotions
82
190000
2000
roubam a nossa identidade e alteram nossas emoções –
03:27
and change who we are as people.
83
192000
3000
e mudam quem somos como pessoas.
03:30
Now in the 20th century,
84
195000
3000
No século 20,
03:33
there was some hope that was generated
85
198000
3000
havia alguma esperança que surgiu
03:36
through the development of pharmaceuticals for treating brain disorders,
86
201000
3000
com o desenvolvimento de medicamentos para tratar distúrbios cerebrais.
03:39
and while many drugs have been developed
87
204000
3000
E enquanto foram desenvolvidos muitos medicamentos
03:42
that can alleviate symptoms of brain disorders,
88
207000
2000
que podem aliviar os sintomas dos distúrbios cerebrais,
03:44
practically none of them can be considered to be cured.
89
209000
3000
praticamente nenhum deles pode ser considerado curável.
03:47
And part of that's because we're bathing the brain in the chemical.
90
212000
3000
E parte disso porque mergulhamos o cérebro em drogas.
03:50
This elaborate circuit
91
215000
2000
Este circuito elaborado
03:52
made out of thousands of different kinds of cell
92
217000
2000
feito de milhares de diferentes tipos de células
03:54
is being bathed in a substance.
93
219000
2000
está sendo mergulhado em substâncias.
03:56
That's also why, perhaps, most of the drugs, and not all, on the market
94
221000
2000
É também por isso, talvez, que a maioria, mas não todas, das drogas no mercado,
03:58
can present some kind of serious side effect too.
95
223000
3000
pode apresentar efeitos colaterais severos.
04:01
Now some people have gotten some solace
96
226000
3000
Algumas pessoas têm tirado algum consolo
04:04
from electrical stimulators that are implanted in the brain.
97
229000
3000
de estimuladores elétricos que são implantados no cérebro.
04:07
And for Parkinson's disease,
98
232000
2000
E para o Mal de Parkinson,
04:09
Cochlear implants,
99
234000
2000
os implantes cocleares,
04:11
these have indeed been able
100
236000
2000
estes têm sido, na verdade,
04:13
to bring some kind of remedy
101
238000
2000
capazes de proporcionar algum tipo de recuperação
04:15
to people with certain kinds of disorder.
102
240000
2000
a pessoas com certo tipo de distúrbios.
04:17
But electricity also will go in all directions --
103
242000
2000
Mas a eletricidade se estende em todas as direções –
04:19
the path of least resistance,
104
244000
2000
o caminho de menor resistência,
04:21
which is where that phrase, in part, comes from.
105
246000
2000
que é de onde, em parte, vem a expressão.
04:23
And it also will affect normal circuits as well as the abnormal ones that you want to fix.
106
248000
3000
E vai afetar tanto os circuitos normais quanto os que se quer curar
04:26
So again, we're sent back to the idea
107
251000
2000
Novamente, nós retomamos a ideia
04:28
of ultra-precise control.
108
253000
2000
de controle ultra-preciso.
04:30
Could we dial-in information precisely where we want it to go?
109
255000
3000
Podemos enviar informação exatamente aonde queremos que ela vá?
04:34
So when I started in neuroscience 11 years ago,
110
259000
4000
Quando comecei na neurociência, há 11 anos,
04:38
I had trained as an electrical engineer and a physicist,
111
263000
3000
trabalhei como engenheiro eletrônico e como físico,
04:41
and the first thing I thought about was,
112
266000
2000
e a primeira coisa em que pensei foi,
04:43
if these neurons are electrical devices,
113
268000
2000
se estes neurônios são dispositivos elétricos,
04:45
all we need to do is to find some way
114
270000
2000
tudo o que precisamos fazer é encontrar uma maneira
04:47
of driving those electrical changes at a distance.
115
272000
2000
de controlar essas alterações elétricas à distância.
04:49
If we could turn on the electricity in one cell,
116
274000
2000
Se pudéssemos ativar a eletricidade em uma célula,
04:51
but not its neighbors,
117
276000
2000
mas não nas vizinhas,
04:53
that would give us the tool we need to activate and shut down these different cells,
118
278000
3000
isso nos daria a ferramenta necessária para ativar e desativar essas diferentes células,
04:56
figure out what they do and how they contribute
119
281000
2000
descobrir o que elas fazem e como contribuem
04:58
to the networks in which they're embedded.
120
283000
2000
com as redes em que estão envolvidas.
05:00
And also it would allow us to have the ultra-precise control we need
121
285000
2000
Além disso, nos permitiria ter o controle ultra-preciso de que precisamos
05:02
in order to fix the circuit computations
122
287000
3000
para corrigirmos os cálculos do circuito
05:05
that have gone awry.
123
290000
2000
que não deram certo.
05:07
Now how are we going to do that?
124
292000
2000
E como vamos fazer isso?
05:09
Well there are many molecules that exist in nature,
125
294000
2000
Bem, existem muitas moléculas na natureza,
05:11
which are able to convert light into electricity.
126
296000
3000
que são capazes de converter luz em eletricidade.
05:14
You can think of them as little proteins
127
299000
2000
Vocês podem pensar nelas como pequenas proteínas
05:16
that are like solar cells.
128
301000
2000
que funcionam como células solares.
05:18
If we can install these molecules in neurons somehow,
129
303000
3000
Se pudermos instalar estas moléculas em neurônios,
05:21
then these neurons would become electrically drivable with light.
130
306000
3000
então esses neurônios seriam eletricamente controláveis pela luz.
05:24
And their neighbors, which don't have the molecule, would not.
131
309000
3000
E seus vizinhos, que não teriam essa molécula, não.
05:27
There's one other magic trick you need to make this all happen,
132
312000
2000
Há outro truque mágico necessário para isso acontecer,
05:29
and that's the ability to get light into the brain.
133
314000
3000
que é a capacidade de levar luz para dentro do cérebro.
05:32
And to do that -- the brain doesn't feel pain -- you can put --
134
317000
3000
Para fazer isso – o cérebro não sente dor – pode-se colocar –
05:35
taking advantage of all the effort
135
320000
2000
se aproveitando de todo o esforço
05:37
that's gone into the Internet and communications and so on --
136
322000
2000
dirigido para a internet e comunicações e tudo o mais –
05:39
optical fibers connected to lasers
137
324000
2000
fibra óptica conectada a lasers
05:41
that you can use to activate, in animal models for example,
138
326000
2000
que se pode usar para ativar, em cobaias animais por exemplo,
05:43
in pre-clinical studies,
139
328000
2000
em estudos pré-clínicos,
05:45
these neurons and to see what they do.
140
330000
2000
esses neurônios e ver o que eles fazem.
05:47
So how do we do this?
141
332000
2000
Como fazer isso?
05:49
Around 2004,
142
334000
2000
Por volta de 2004,
05:51
in collaboration with Gerhard Nagel and Karl Deisseroth,
143
336000
2000
com a colaboração de Gerhard Nagel e Karl Deisseroth,
05:53
this vision came to fruition.
144
338000
2000
essa visão se concretizou.
05:55
There's a certain alga that swims in the wild,
145
340000
3000
Existe uma alga aquática,
05:58
and it needs to navigate towards light
146
343000
2000
que precisa navegar na direção da luz
06:00
in order to photosynthesize optimally.
147
345000
2000
para conseguir fotossintetizar perfeitamente.
06:02
And it senses light with a little eye-spot,
148
347000
2000
A alga detecta a luz com uma espécie de olho,
06:04
which works not unlike how our eye works.
149
349000
3000
que funciona de uma maneira não muito distinta dos nossos olhos.
06:07
In its membrane, or its boundary,
150
352000
2000
Na sua membrana, ou nos seus limites,
06:09
it contains little proteins
151
354000
3000
existem pequenas proteínas
06:12
that indeed can convert light into electricity.
152
357000
3000
que na verdade convertem luz em eletricidade.
06:15
So these molecules are called channelrhodopsins.
153
360000
3000
Estas moléculas chamam-se "channelrhodospins".
06:18
And each of these proteins acts just like that solar cell that I told you about.
154
363000
3000
E cada uma dessas proteínas age como a célula solar de que falei.
06:21
When blue light hits it, it opens up a little hole
155
366000
3000
Quando a luz azul lhe atinge, abre um pequeno buraco
06:24
and allows charged particles to enter the eye-spot,
156
369000
2000
e permite que as partículas carregadas entrem no olho.
06:26
and that allows this eye-spot to have an electrical signal
157
371000
2000
Isto faz com que este olho tenha um sinal elétrico
06:28
just like a solar cell charging up a battery.
158
373000
3000
tal como uma célula solar carregando uma bateria.
06:31
So what we need to do is to take these molecules
159
376000
2000
Então, o que temos de fazer é pegar essas moléculas e,
06:33
and somehow install them in neurons.
160
378000
2000
de alguma maneira, instalá-las nos neurônios.
06:35
And because it's a protein,
161
380000
2000
E por ser uma proteína,
06:37
it's encoded for in the DNA of this organism.
162
382000
3000
elas são codificadas pelo DNA desse organismo.
06:40
So all we've got to do is take that DNA,
163
385000
2000
Então tudo que precisamos de fazer é pegar nesse DNA,
06:42
put it into a gene therapy vector, like a virus,
164
387000
3000
colocá-lo num vetor de terapia genética, como um vírus,
06:45
and put it into neurons.
165
390000
3000
e introduzi-lo nos neurônios.
06:48
So it turned out that this was a very productive time in gene therapy,
166
393000
3000
Este acabou se tornando um momento muito produtivo na terapia genética,
06:51
and lots of viruses were coming along.
167
396000
2000
e muitos vírus colaboraram.
06:53
So this turned out to be very simple to do.
168
398000
2000
E isto tornou-se muito simples de fazer.
06:55
And early in the morning one day in the summer of 2004,
169
400000
3000
E assim, numa manhã do verão de 2004,
06:58
we gave it a try, and it worked on the first try.
170
403000
2000
nós decidimos arriscar, e funcionou na primeira tentativa.
07:00
You take this DNA and you put it into a neuron.
171
405000
3000
Pega-se neste DNA e coloca-se no neurônio.
07:03
The neuron uses its natural protein-making machinery
172
408000
3000
O neurônio usa seu mecanismo natural de produção de proteínas
07:06
to fabricate these little light-sensitive proteins
173
411000
2000
para fabricar essas proteínas sensíveis à luz
07:08
and install them all over the cell,
174
413000
2000
e instalá-las em toda a célula,
07:10
like putting solar panels on a roof,
175
415000
2000
como se colocasse painéis solares num telhado.
07:12
and the next thing you know,
176
417000
2000
E a próxima coisa que se sabe,
07:14
you have a neuron which can be activated with light.
177
419000
2000
é que temos um neurônio que pode ser ativado pela luz.
07:16
So this is very powerful.
178
421000
2000
Isso tem muito potencial.
07:18
One of the tricks you have to do
179
423000
2000
Um dos truques que se tem de fazer
07:20
is to figure out how to deliver these genes to the cells that you want
180
425000
2000
é descobrir como colocar esses genes nas células que queremos
07:22
and not all the other neighbors.
181
427000
2000
e não em todas as células vizinhas.
07:24
And you can do that; you can tweak the viruses
182
429000
2000
E pode-se fazer isso, pode-se ajustar os vírus
07:26
so they hit just some cells and not others.
183
431000
2000
para atingirem apenas umas células e não as outras.
07:28
And there's other genetic tricks you can play
184
433000
2000
E há outros truques genéticos que se podem usar
07:30
in order to get light-activated cells.
185
435000
3000
para ter-se células ativadas por luz.
07:33
This field has now come to be known as optogenetics.
186
438000
4000
Este campo veio a ser designado como Optogenética.
07:37
And just as one example of the kind of thing you can do,
187
442000
2000
E apenas como um exemplo do que se pode fazer,
07:39
you can take a complex network,
188
444000
2000
podemos pegar em uma rede complexa,
07:41
use one of these viruses to deliver the gene
189
446000
2000
usar um destes vírus para entregar o gene
07:43
just to one kind of cell in this dense network.
190
448000
3000
apenas a um tipo de célula desta rede densa.
07:46
And then when you shine light on the entire network,
191
451000
2000
E quando se ilumina a rede toda,
07:48
just that cell type will be activated.
192
453000
2000
apenas esse tipo de célula será ativada.
07:50
So for example, lets sort of consider that basket cell I told you about earlier --
193
455000
3000
Assim, por exemplo, vamos imaginar aquela "basket cell" de que falei antes –
07:53
the one that's atrophied in schizophrenia
194
458000
2000
aquela que está atrofiada na esquizofrenia
07:55
and the one that is inhibitory.
195
460000
2000
e que é inibitória.
07:57
If we can deliver that gene to these cells --
196
462000
2000
Se pudermos colocar esse gene nestas células –
07:59
and they're not going to be altered by the expression of the gene, of course --
197
464000
3000
e elas não serão alteradas pela expressão do gene, é claro –
08:02
and then flash blue light over the entire brain network,
198
467000
3000
e depois incidirmos luz azul sobre toda a rede cerebral,
08:05
just these cells are going to be driven.
199
470000
2000
apenas estas células serão dirigidas.
08:07
And when the light turns off, these cells go back to normal,
200
472000
2000
E quando a luz se apaga, estas células voltam ao normal,
08:09
so they don't seem to be averse against that.
201
474000
3000
e elas não parecem ser adversas ao procedimento.
08:12
Not only can you use this to study what these cells do,
202
477000
2000
Podemos não só usar este procedimento para estudar o que as células fazem,
08:14
what their power is in computing in the brain,
203
479000
2000
qual é o seu poder no funcionamento cerebral,
08:16
but you can also use this to try to figure out --
204
481000
2000
como também podemos usar isto para tentar descobrir –
08:18
well maybe we could jazz up the activity of these cells,
205
483000
2000
bem, talvez nós pudéssemos estimular a atividade destas células,
08:20
if indeed they're atrophied.
206
485000
2000
caso elas estejam verdadeiramente atrofiadas.
08:22
Now I want to tell you a couple of short stories
207
487000
2000
Agora, eu quero contar algumas pequenas histórias
08:24
about how we're using this,
208
489000
2000
sobre como estamos a aplicar isto,
08:26
both at the scientific, clinical and pre-clinical levels.
209
491000
3000
tanto a nível científico, como clínico e pré-clínico.
08:29
One of the questions we've confronted
210
494000
2000
Uma das questões que temos confrontado é:
08:31
is, what are the signals in the brain that mediate the sensation of reward?
211
496000
3000
Quais são os sinais cerebrais que intermedeiam a sensação de recompensa?
08:34
Because if you could find those,
212
499000
2000
Porque se pudéssemos encontrá-los,
08:36
those would be some of the signals that could drive learning.
213
501000
2000
esses seriam alguns dos sinais que poderiam orientar a aprendizagem.
08:38
The brain will do more of whatever got that reward.
214
503000
2000
O cérebro fará mais daquilo que conseguir essa recompensa.
08:40
And also these are signals that go awry in disorders such as addiction.
215
505000
3000
E, ainda, estes são sinais que funcionam mal em desordens como a dependência.
08:43
So if we could figure out what cells they are,
216
508000
2000
Se pudéssemos descobrir quais são estas células,
08:45
we could maybe find new targets
217
510000
2000
nós talvez pudéssemos encontrar novos alvos
08:47
for which drugs could be designed or screened against,
218
512000
2000
para os quais os medicamentos poderiam ser direcionados ou adaptados,
08:49
or maybe places where electrodes could be put in
219
514000
2000
ou talvez os pontos em que os eletrodos seriam colocados
08:51
for people who have very severe disability.
220
516000
3000
em pessoas com deficiências severas.
08:54
So to do that, we came up with a very simple paradigm
221
519000
2000
Assim, para fazer isto, nós elaboramos um paradigma
08:56
in collaboration with the Fiorella group,
222
521000
2000
muito simples em colaboração com o grupo Fiorella,
08:58
where one side of this little box,
223
523000
2000
em que em um lado desta pequena caixa,
09:00
if the animal goes there, the animal gets a pulse of light
224
525000
2000
se o animal for lá, recebe um pulso de luz
09:02
in order to make different cells in the brain sensitive to light.
225
527000
2000
para tornar diferentes células cerebrais sensíveis à luz.
09:04
So if these cells can mediate reward,
226
529000
2000
Assim, se estas células puderem intermediar a recompensa,
09:06
the animal should go there more and more.
227
531000
2000
o animal deverá aproximar-se cada vez mais.
09:08
And so that's what happens.
228
533000
2000
E é isto que acontece.
09:10
This animal's going to go to the right-hand side and poke his nose there,
229
535000
2000
Este animal vai para o lado direito e coloca lá o nariz,
09:12
and he gets a flash of blue light every time he does that.
230
537000
2000
e a cada vez que o faz, recebe um flash de luz azul.
09:14
And he'll do that hundreds and hundreds of times.
231
539000
2000
E ele fará isso centenas e centenas de vezes.
09:16
These are the dopamine neurons,
232
541000
2000
Estes são neurônios de dopamina,
09:18
which some of you may have heard about, in some of the pleasure centers in the brain.
233
543000
2000
dos quais alguns de vocês já devem ter ouvido falar associados a centros de prazer no cérebro.
09:20
Now we've shown that a brief activation of these
234
545000
2000
Nós mostramos que uma breve ativação destes neurônios
09:22
is enough, indeed, to drive learning.
235
547000
2000
é suficiente, na verdade, para guiar a aprendizagem.
09:24
Now we can generalize the idea.
236
549000
2000
Podemos generalizar esta ideia.
09:26
Instead of one point in the brain,
237
551000
2000
Em vez de um ponto no cérebro,
09:28
we can devise devices that span the brain,
238
553000
2000
podemos criar dispositivos que envolvem o cérebro todo,
09:30
that can deliver light into three-dimensional patterns --
239
555000
2000
que podem levar luz em padrões tridimensionais –
09:32
arrays of optical fibers,
240
557000
2000
matrizes de fibra óptica,
09:34
each coupled to its own independent miniature light source.
241
559000
2000
cada uma acoplada à sua pequena fonte de luz independente.
09:36
And then we can try to do things in vivo
242
561000
2000
E então podemos tentar fazer coisas "in vivo",
09:38
that have only been done to-date in a dish --
243
563000
3000
que até agora só foram feitas num prato –
09:41
like high-throughput screening throughout the entire brain
244
566000
2000
como seleção de alta qualidade em todo o cérebro
09:43
for the signals that can cause certain things to happen.
245
568000
2000
dos sinais que podem fazer certas coisas acontecerem.
09:45
Or that could be good clinical targets
246
570000
2000
Ou eles podem ser bons alvos clínicos
09:47
for treating brain disorders.
247
572000
2000
para tratar deficiências cerebrais.
09:49
And one story I want to tell you about
248
574000
2000
E uma história que quero dizer sobre isto
09:51
is how can we find targets for treating post-traumatic stress disorder --
249
576000
3000
é como podemos encontrar alvos para tratar o transtorno do estresse pós-traumático –
09:54
a form of uncontrolled anxiety and fear.
250
579000
3000
uma forma de ansiedade e medo descontrolados.
09:57
And one of the things that we did
251
582000
2000
E uma das coisas que fizemos
09:59
was to adopt a very classical model of fear.
252
584000
3000
foi adotar o modelo clássico de medo.
10:02
This goes back to the Pavlovian days.
253
587000
3000
Isto remonta ao tempo de Pavlov.
10:05
It's called Pavlovian fear conditioning --
254
590000
2000
É chamado Condicionamento do Medo de Pavlov –
10:07
where a tone ends with a brief shock.
255
592000
2000
em que um som termina com a introdução de um pequeno choque.
10:09
The shock isn't painful, but it's a little annoying.
256
594000
2000
O choque não é doloroso, mas é um pouco atordoante.
10:11
And over time -- in this case, a mouse,
257
596000
2000
E com o tempo – um rato, neste caso,
10:13
which is a good animal model, commonly used in such experiments --
258
598000
2000
que é um bom modelo animal, frequentemente utilizado neste tipo de experiências –
10:15
the animal learns to fear the tone.
259
600000
2000
o animal aprende a temer o som.
10:17
The animal will react by freezing,
260
602000
2000
O animal vai se paralizar
10:19
sort of like a deer in the headlights.
261
604000
2000
como uma espécie de veado perante os faróis de um carro.
10:21
Now the question is, what targets in the brain can we find
262
606000
3000
Agora, a questão é, que alvos podemos encontrar no cérebro
10:24
that allow us to overcome this fear?
263
609000
2000
que nos permitem superar este medo?
10:26
So what we do is we play that tone again
264
611000
2000
Assim, o que fazemos é reproduzir outra vez
10:28
after it's been associated with fear.
265
613000
2000
o som depois dele ter sido associado ao medo.
10:30
But we activate targets in the brain, different ones,
266
615000
2000
Mas nós ativamos diferentes alvos cerebrais,
10:32
using that optical fiber array I told you about in the previous slide,
267
617000
3000
usando a matriz de fibra óptica de que falei nos slides anteriores,
10:35
in order to try and figure out which targets
268
620000
2000
no sentido de descobrir que alvos
10:37
can cause the brain to overcome that memory of fear.
269
622000
3000
podem levar o cérebro a apagar essa memória do medo.
10:40
And so this brief video
270
625000
2000
E este pequeno vídeo
10:42
shows you one of these targets that we're working on now.
271
627000
2000
mostra um destes pequenos alvos no qual estamos trabalhando agora.
10:44
This is an area in the prefrontal cortex,
272
629000
2000
Esta é uma área no cortex pré-frontal,
10:46
a region where we can use cognition to try to overcome aversive emotional states.
273
631000
3000
uma região em que podemos usar a cognição para tentar superar estados emocionais aversivos.
10:49
And the animal's going to hear a tone -- and a flash of light occurred there.
274
634000
2000
E o animal vai ouvir um som – e um flash de luz aparece.
10:51
There's no audio on this, but you can see the animal's freezing.
275
636000
2000
Não há audio no vídeo, mas vocês podem ver o animal assustado.
10:53
This tone used to mean bad news.
276
638000
2000
Este som costumava significar más notícias.
10:55
And there's a little clock in the lower left-hand corner,
277
640000
2000
E há um pequeno relógio no canto esquerdo inferior,
10:57
so you can see the animal is about two minutes into this.
278
642000
3000
assim vocês podem ver que o animal está nisto há dois minutos.
11:00
And now this next clip
279
645000
2000
E este próximo slide
11:02
is just eight minutes later.
280
647000
2000
é de 8 minutos depois.
11:04
And the same tone is going to play, and the light is going to flash again.
281
649000
3000
E o mesmo som vai ser reproduzido, e a luz vai aparecer outra vez.
11:07
Okay, there it goes. Right now.
282
652000
3000
Ok, aqui está. Agora.
11:10
And now you can see, just 10 minutes into the experiment,
283
655000
3000
E aqui vocês podem ver, 10 minutos após o início da experiência,
11:13
that we've equipped the brain by photoactivating this area
284
658000
3000
que nós equipamos o cérebro pela fotoativação desta área
11:16
to overcome the expression
285
661000
2000
para suprimir a expressão
11:18
of this fear memory.
286
663000
2000
da memória deste medo.
11:20
Now over the last couple of years, we've gone back to the tree of life
287
665000
3000
Nos últimos anos, nós voltamos à árvore da vida,
11:23
because we wanted to find ways to turn circuits in the brain off.
288
668000
3000
porque queríamos encontrar maneiras de desligar circuitos cerebrais.
11:26
If we could do that, this could be extremely powerful.
289
671000
3000
Se pudéssemos fazer isso, seria extremamente importante.
11:29
If you can delete cells just for a few milliseconds or seconds,
290
674000
3000
Se pudéssemos apagar algumas células por apenas alguns milissegundos ou segundos,
11:32
you can figure out what necessary role they play
291
677000
2000
podíamos descobrir qual o papel que elas desempenham
11:34
in the circuits in which they're embedded.
292
679000
2000
nos circuitos em que estão inseridas.
11:36
And we've now surveyed organisms from all over the tree of life --
293
681000
2000
E até agora nós investigamos em todos os organismos da árvore da vida –
11:38
every kingdom of life except for animals, we see slightly differently.
294
683000
3000
todos os reinos da vida exceto o dos animais, que vemos ligeiramente diferente.
11:41
And we found all sorts of molecules, they're called halorhodopsins or archaerhodopsins,
295
686000
3000
E encontramos todo tipo de moléculas, são chamadas "halorhodopsins" ou "archaerhodopsins",
11:44
that respond to green and yellow light.
296
689000
2000
que respondem à luz verde e amarela.
11:46
And they do the opposite thing of the molecule I told you about before
297
691000
2000
E elas fazem o oposto da molécula de que falei antes
11:48
with the blue light activator channelrhodopsin.
298
693000
3000
com o ativador da luz azul channelrhodopsin.
11:52
Let's give an example of where we think this is going to go.
299
697000
3000
Vamos dar um exemplo de onde achamos que isto vai dar.
11:55
Consider, for example, a condition like epilepsy,
300
700000
3000
Considerem, por exemplo, uma condição como a epilepsia,
11:58
where the brain is overactive.
301
703000
2000
onde o cérebro é hiperativo.
12:00
Now if drugs fail in epileptic treatment,
302
705000
2000
Se os medicamentos falharem no tratamento da epilepsia,
12:02
one of the strategies is to remove part of the brain.
303
707000
2000
uma das estratégias é remover parte do cérebro.
12:04
But that's obviously irreversible, and there could be side effects.
304
709000
2000
Mas isso é obviamente irreversível, e podem existir efeitos colaterais.
12:06
What if we could just turn off that brain for a brief amount of time,
305
711000
3000
E se pudéssemos desligar esse cérebro por um certo tempo,
12:09
until the seizure dies away,
306
714000
3000
até a convulsão passar,
12:12
and cause the brain to be restored to its initial state --
307
717000
3000
e levar o cérebro a ser restaurado até ao seu estado inicial –
12:15
sort of like a dynamical system that's being coaxed down into a stable state.
308
720000
3000
uma espécie de sistema dinâmico que está sendo levado a um estado estável.
12:18
So this animation just tries to explain this concept
309
723000
3000
Esta animação tenta explicar este conceito
12:21
where we made these cells sensitive to being turned off with light,
310
726000
2000
em que tornamos estas células sensíveis de modo a serem desligadas com a luz,
12:23
and we beam light in,
311
728000
2000
e inserimos luz no interior,
12:25
and just for the time it takes to shut down a seizure,
312
730000
2000
e apenas pelo tempo necessário para deter a convulsão,
12:27
we're hoping to be able to turn it off.
313
732000
2000
esperamos ser capazes de as desligar.
12:29
And so we don't have data to show you on this front,
314
734000
2000
Nós não temos dados para mostrar neste aspecto,
12:31
but we're very excited about this.
315
736000
2000
mas estamos muito entusiasmados com isto.
12:33
Now I want to close on one story,
316
738000
2000
Agora, quero terminar com uma história,
12:35
which we think is another possibility --
317
740000
2000
que nós consideramos outra possibilidade –
12:37
which is that maybe these molecules, if you can do ultra-precise control,
318
742000
2000
talvez estas moléculas, se tivermos controle ultra-preciso,
12:39
can be used in the brain itself
319
744000
2000
possam ser usadas no próprio cérebro
12:41
to make a new kind of prosthetic, an optical prosthetic.
320
746000
3000
para fazer um novo tipo de próteses, uma prótese óptica.
12:44
I already told you that electrical stimulators are not uncommon.
321
749000
3000
Eu já falei que os estimuladores elétricos não são raros.
12:47
Seventy-five thousand people have Parkinson's deep-brain stimulators implanted.
322
752000
3000
75 mil pessoas têm estimuladores cerebrais Parkinsonianos implantados.
12:50
Maybe 100,000 people have Cochlear implants,
323
755000
2000
Talvez 100 mil pesssoas tenham implantes cocleares,
12:52
which allow them to hear.
324
757000
2000
que lhes permitem ouvir.
12:54
There's another thing, which is you've got to get these genes into cells.
325
759000
3000
Este é outro exemplo, onde podemos introduzir estes genes nas células.
12:57
And new hope in gene therapy has been developed
326
762000
3000
E uma nova esperança na terapia genética tem se desenvolvido
13:00
because viruses like the adeno-associated virus,
327
765000
2000
porque vírus como o Vírus Adeno-Associado,
13:02
which probably most of us around this room have,
328
767000
2000
que provavelmente a maioria de nós nesta sala possuímos,
13:04
and it doesn't have any symptoms,
329
769000
2000
sem manifestação de qualquer sintoma,
13:06
which have been used in hundreds of patients
330
771000
2000
que tem sido usado em centenas de pacientes
13:08
to deliver genes into the brain or the body.
331
773000
2000
para introduzir genes no cérebro ou no corpo.
13:10
And so far, there have not been serious adverse events
332
775000
2000
E até agora, não ocorreram efeitos adversos graves
13:12
associated with the virus.
333
777000
2000
associados ao vírus.
13:14
There's one last elephant in the room, the proteins themselves,
334
779000
3000
Há um último elefante na sala, as próprias proteínas,
13:17
which come from algae and bacteria and fungi,
335
782000
2000
que vêm das algas, bactérias e fungos,
13:19
and all over the tree of life.
336
784000
2000
e de toda a árvore da vida.
13:21
Most of us don't have fungi or algae in our brains,
337
786000
2000
A maioria de nós não tem fungos ou algas no cérebro,
13:23
so what is our brain going to do if we put that in?
338
788000
2000
então, o que nosso cérebro fará se nós os colocarmos lá?
13:25
Are the cells going to tolerate it? Will the immune system react?
339
790000
2000
Será que as células vão tolerá-los? O sistema imunológico irá reagir?
13:27
In its early days -- these have not been done on humans yet --
340
792000
2000
Nesta fase inicial – isto ainda não foi feito em humanos –
13:29
but we're working on a variety of studies
341
794000
2000
nós estamos trabalhando numa série de estudos
13:31
to try and examine this,
342
796000
2000
para experimentar e examinar isto.
13:33
and so far we haven't seen overt reactions of any severity
343
798000
3000
E até agora ainda não vimos nenhuma grande reação severa
13:36
to these molecules
344
801000
2000
ocorrer a estas moléculas
13:38
or to the illumination of the brain with light.
345
803000
3000
ou à iluminação do cérebro com luz.
13:41
So it's early days, to be upfront, but we're excited about it.
346
806000
3000
Ainda é cedo, mas estamos entusiasmados com isto.
13:44
I wanted to close with one story,
347
809000
2000
Eu quero fechar com uma história,
13:46
which we think could potentially
348
811000
2000
que achamos que poderá ter potencial
13:48
be a clinical application.
349
813000
2000
para aplicação clínica.
13:50
Now there are many forms of blindness
350
815000
2000
Há muitos tipos de cegueira
13:52
where the photoreceptors,
351
817000
2000
em que os fotorreceptores,
13:54
our light sensors that are in the back of our eye, are gone.
352
819000
3000
os nossos sensores de luz que estão na parte de trás do olho, já não funcionam.
13:57
And the retina, of course, is a complex structure.
353
822000
2000
E a retina, é claro, é uma estrutura complexa.
13:59
Now let's zoom in on it here, so we can see it in more detail.
354
824000
2000
Agora vamos focar aqui, para podermos ver detalhadamente.
14:01
The photoreceptor cells are shown here at the top,
355
826000
3000
As células fotorreceptoras aparecem aqui no topo,
14:04
and then the signals that are detected by the photoreceptors
356
829000
2000
e depois, os sinais que são detectados pelos fotorreceptores
14:06
are transformed by various computations
357
831000
2000
são transformados por vários processos,
14:08
until finally that layer of cells at the bottom, the ganglion cells,
358
833000
3000
até que a última camada de células do fundo, as células gangliais,
14:11
relay the information to the brain,
359
836000
2000
transmitem a informação ao cérebro,
14:13
where we see that as perception.
360
838000
2000
onde vemos isso como uma percepção.
14:15
In many forms of blindness, like retinitis pigmentosa,
361
840000
3000
Em muitas formas de cegueira, como a retinite pigmentosa,
14:18
or macular degeneration,
362
843000
2000
ou a degeneração macular,
14:20
the photoreceptor cells have atrophied or been destroyed.
363
845000
3000
as células fotorreceptoras atrofiaram ou foram destruídas.
14:23
Now how could you repair this?
364
848000
2000
Como podemos consertar isto?
14:25
It's not even clear that a drug could cause this to be restored,
365
850000
3000
Não é sequer claro que um medicamento possa restaurar isto,
14:28
because there's nothing for the drug to bind to.
366
853000
2000
porque não há nada onde a substância possa se ligar.
14:30
On the other hand, light can still get into the eye.
367
855000
2000
Por outro lado, a luz continua a chegar ao olho.
14:32
The eye is still transparent and you can get light in.
368
857000
3000
O olho ainda é transparente e recebe luz no interior.
14:35
So what if we could just take these channelrhodopsins and other molecules
369
860000
3000
Então, e se nós pudermos pegar nestas channelrhodopsins e em outras moléculas
14:38
and install them on some of these other spare cells
370
863000
2000
e instalá-las em algumas destas outras células reservas
14:40
and convert them into little cameras.
371
865000
2000
e convertê-las em pequenas câmeras.
14:42
And because there's so many of these cells in the eye,
372
867000
2000
E como existem tantas células destas no olho,
14:44
potentially, they could be very high-resolution cameras.
373
869000
3000
provavelmente, elas poderiam ser câmeras de alta-resolução.
14:47
So this is some work that we're doing.
374
872000
2000
Este um dos trabalho que estamos realizando.
14:49
It's being led by one of our collaborators,
375
874000
2000
Está sendo liderado por um dos nossos colaboradores,
14:51
Alan Horsager at USC,
376
876000
2000
Alan Horsager, da USC,
14:53
and being sought to be commercialized by a start-up company Eos Neuroscience,
377
878000
3000
e procurado para comercialização por uma empresa recente, Eos Neuroscience,
14:56
which is funded by the NIH.
378
881000
2000
criada pelo NIH.
14:58
And what you see here is a mouse trying to solve a maze.
379
883000
2000
E o que vocês veem aqui é um rato tentando resolver um labirinto.
15:00
It's a six-arm maze. And there's a bit of water in the maze
380
885000
2000
É um labirinto de seis braços. E há água no labirinto
15:02
to motivate the mouse to move, or he'll just sit there.
381
887000
2000
para motivar o rato a se mover, senão ele ficaria apenas ali parado.
15:04
And the goal, of course, of this maze
382
889000
2000
E o objetivo, óbvio, deste labirinto
15:06
is to get out of the water and go to a little platform
383
891000
2000
é sair da água e ir para uma pequena plataforma
15:08
that's under the lit top port.
384
893000
2000
que está sob a porta de cima.
15:10
Now mice are smart, so this mouse solves the maze eventually,
385
895000
3000
Os ratos são espertos, por isso este rato vai sair deste labirinto,
15:13
but he does a brute-force search.
386
898000
2000
mas ele faz uma pesquisa exaustiva.
15:15
He's swimming down every avenue until he finally gets to the platform.
387
900000
3000
Ele nada por todas as avenidas até que entra finalmente na plataforma.
15:18
So he's not using vision to do it.
388
903000
2000
Ele não está usando a visão para isso.
15:20
These different mice are different mutations
389
905000
2000
Estes ratos são o resultado de diferentes mutações
15:22
that recapitulate different kinds of blindness that affect humans.
390
907000
3000
que retratam diferentes tipos de cegueira que afetam os humanos.
15:25
And so we're being careful in trying to look at these different models
391
910000
3000
E nós temos sido cuidadosos em olhar para estes modelos diferentes,
15:28
so we come up with a generalized approach.
392
913000
2000
e por isso temos uma abordagem generalizada.
15:30
So how are we going to solve this?
393
915000
2000
Então como vamos resolver isto?
15:32
We're going to do exactly what we outlined in the previous slide.
394
917000
2000
Vamos fazer exatamente o que mostrei no slide anterior.
15:34
We're going to take these blue light photosensors
395
919000
2000
Vamos usar estes fotossensores de luz azul
15:36
and install them on a layer of cells
396
921000
2000
e instalá-los numa camada de células
15:38
in the middle of the retina in the back of the eye
397
923000
3000
no meio da retina, na parte de trás do olho,
15:41
and convert them into a camera --
398
926000
2000
e transformá-los numa câmera.
15:43
just like installing solar cells all over those neurons
399
928000
2000
É como instalar células solares em todos aqueles neurônios
15:45
to make them light sensitive.
400
930000
2000
para torná-los sensíveis à luz.
15:47
Light is converted to electricity on them.
401
932000
2000
Neles, a luz é convertida em eletricidade.
15:49
So this mouse was blind a couple weeks before this experiment
402
934000
3000
Este rato era cego semanas antes desta experiência
15:52
and received one dose of this photosensitive molecule in a virus.
403
937000
3000
e recebeu uma dose desta molécula fotosensitiva em um vírus.
15:55
And now you can see, the animal can indeed avoid walls
404
940000
2000
E agora vocês podem ver que o animal evita as paredes
15:57
and go to this little platform
405
942000
2000
e vai para esta pequena plataforma
15:59
and make cognitive use of its eyes again.
406
944000
3000
e faz uso cognitivo dos seus olhos novamente.
16:02
And to point out the power of this:
407
947000
2000
E para realçar o valor disto:
16:04
these animals are able to get to that platform
408
949000
2000
estes animais são capazes de chegar à plataforma
16:06
just as fast as animals that have seen their entire lives.
409
951000
2000
tão depressa quanto os animais que sempre enxergaram.
16:08
So this pre-clinical study, I think,
410
953000
2000
Então eu penso que este estudo pré-clínico,
16:10
bodes hope for the kinds of things
411
955000
2000
traz esperança para todo tipo de coisas
16:12
we're hoping to do in the future.
412
957000
2000
que esperamos fazer no futuro.
16:14
To close, I want to point out that we're also exploring
413
959000
3000
Para terminar, eu quero reforçar que nós também estamos explorando
16:17
new business models for this new field of neurotechnology.
414
962000
2000
novos modelos de negócios para este novo campo da neurotecnologia.
16:19
We're developing these tools,
415
964000
2000
Estamos desenvolvendo estas ferramentas,
16:21
but we share them freely with hundreds of groups all over the world,
416
966000
2000
mas a partilhamos gratuitamente com centenas de grupos por todo o mundo,
16:23
so people can study and try to treat different disorders.
417
968000
2000
de forma que as pessoas possam estudar e tentar curar diversas doenças.
16:25
And our hope is that, by figuring out brain circuits
418
970000
3000
E a nossa esperança é que, descobrindo os circuitos cerebrais
16:28
at a level of abstraction that lets us repair them and engineer them,
419
973000
3000
a um nível de abstração que nos permita restaurá-los e modificá-los,
16:31
we can take some of these intractable disorders that I told you about earlier,
420
976000
3000
possamos tomar algumas destas doenças incuráveis de que falei antes,
16:34
practically none of which are cured,
421
979000
2000
praticamente nenhuma delas curável,
16:36
and in the 21st century make them history.
422
981000
2000
e fazê-las virarem história no século XXI.
16:38
Thank you.
423
983000
2000
Obrigado.
16:40
(Applause)
424
985000
13000
(Aplausos)
16:53
Juan Enriquez: So some of the stuff is a little dense.
425
998000
3000
Juan Enriquez: Algumas destas coisas são um pouco profundas.
16:56
(Laughter)
426
1001000
2000
(Risos)
16:58
But the implications
427
1003000
2000
Mas as implicações
17:00
of being able to control seizures or epilepsy
428
1005000
3000
de ser possível controlar as convulsões ou a epilepsia
17:03
with light instead of drugs,
429
1008000
2000
com luz em vez de medicamentos,
17:05
and being able to target those specifically
430
1010000
3000
e ser possível atingi-los especificamente
17:08
is a first step.
431
1013000
2000
é um primeiro passo.
17:10
The second thing that I think I heard you say
432
1015000
2000
A segunda coisa que eu acho que o ouvi dizer
17:12
is you can now control the brain in two colors,
433
1017000
3000
é que você agora pode controlar o cérebro com duas cores.
17:15
like an on/off switch.
434
1020000
2000
Como ligar/desligar.
17:17
Ed Boyden: That's right.
435
1022000
2000
Ed Boyen: É isso mesmo.
17:19
JE: Which makes every impulse going through the brain a binary code.
436
1024000
3000
JE: O que faz com que cada impulso que viaja pelo cérebro seja um código binário.
17:22
EB: Right, yeah.
437
1027000
2000
EB: Sim.
17:24
So with blue light, we can drive information, and it's in the form of a one.
438
1029000
3000
Assim, com luz azul podemos guiar informação, e isso é como um 1.
17:27
And by turning things off, it's more or less a zero.
439
1032000
2000
E ao desligar, é mais ou menos como um zero.
17:29
So our hope is to eventually build brain coprocessors
440
1034000
2000
A nossa esperança é que eventualmente construamos coprocessadores cerebrais
17:31
that work with the brain
441
1036000
2000
que trabalhem com o cérebro,
17:33
so we can augment functions in people with disabilities.
442
1038000
3000
de forma que possamos ampliar as funções em pessoas com deficiências.
17:36
JE: And in theory, that means that,
443
1041000
2000
JE: E em teoria, isso quer dizer que,
17:38
as a mouse feels, smells,
444
1043000
2000
tal como um rato sente, cheira,
17:40
hears, touches,
445
1045000
2000
ouve, toca,
17:42
you can model it out as a string of ones and zeros.
446
1047000
3000
você pode modular isso como uma sequência de uns e zeros.
17:45
EB: Sure, yeah. We're hoping to use this as a way of testing
447
1050000
2000
EB: Certamente. Nós esperamos poder usar isto como uma maneira de testar
17:47
what neural codes can drive certain behaviors
448
1052000
2000
quais códigos neuronais podem levar a certos comportamentos
17:49
and certain thoughts and certain feelings,
449
1054000
2000
e a certos pensamentos e certos sentimentos,
17:51
and use that to understand more about the brain.
450
1056000
3000
e usar isso para compreender mais sobre o cérebro.
17:54
JE: Does that mean that some day you could download memories
451
1059000
3000
JE: Isso quer dizer que um dia poderemos fazer o download de memórias
17:57
and maybe upload them?
452
1062000
2000
e talvez o upload delas?
17:59
EB: Well that's something we're starting to work on very hard.
453
1064000
2000
EB: Bem, isso é algo em que estamos começando a trabalhar arduamente.
18:01
We're now working on some work
454
1066000
2000
Estamos agora trabalhando em um projeto
18:03
where we're trying to tile the brain with recording elements too.
455
1068000
2000
em que estamos tentando colocar o cérebro lado a lado com elementos memorizados.
18:05
So we can record information and then drive information back in --
456
1070000
3000
Assim nós podemos registrar informação e depois devolvê-la –
18:08
sort of computing what the brain needs
457
1073000
2000
o tipo de computação de que o cérebro precisa
18:10
in order to augment its information processing.
458
1075000
2000
para aumentar o processamento da informação.
18:12
JE: Well, that might change a couple things. Thank you. (EB: Thank you.)
459
1077000
3000
JE: Bem, isso pode mudar algumas coisas. Obrigado. (EB: Obrigado.)
18:15
(Applause)
460
1080000
3000
(Aplausos)
Translated by Roberto Paes
Reviewed by Wesley Oliveira

▲Back to top

ABOUT THE SPEAKER
Ed Boyden - Neuroengineer
Ed Boyden is a professor of biological engineering and brain and cognitive sciences at the MIT Media Lab and the MIT McGovern Institute.

Why you should listen

Ed Boyden leads the Synthetic Neurobiology Group, which develops tools for analyzing and repairing complex biological systems such as the brain. His group applies these tools in a systematic way in order to reveal ground truth scientific understandings of biological systems, which in turn reveal radical new approaches for curing diseases and repairing disabilities. These technologies include expansion microscopy, which enables complex biological systems to be imaged with nanoscale precision, and optogenetic tools, which enable the activation and silencing of neural activity with light (TED Talk: A light switch for neurons). Boyden also co-directs the MIT Center for Neurobiological Engineering, which aims to develop new tools to accelerate neuroscience progress.

Amongst other recognitions, Boyden has received the Breakthrough Prize in Life Sciences (2016), the BBVA Foundation Frontiers of Knowledge Award (2015), the Carnegie Prize in Mind and Brain Sciences (2015), the Jacob Heskel Gabbay Award (2013), the Grete Lundbeck Brain Prize (2013) and the NIH Director's Pioneer Award (2013). He was also named to the World Economic Forum Young Scientist list (2013) and the Technology Review World's "Top 35 Innovators under Age 35" list (2006). His group has hosted hundreds of visitors to learn how to use new biotechnologies and spun out several companies to bring inventions out of his lab and into the world. Boyden received his Ph.D. in neurosciences from Stanford University as a Hertz Fellow, where he discovered that the molecular mechanisms used to store a memory are determined by the content to be learned. Before that, he received three degrees in electrical engineering, computer science and physics from MIT. He has contributed to over 300 peer-reviewed papers, current or pending patents and articles, and he has given over 300 invited talks on his group's work.

More profile about the speaker
Ed Boyden | Speaker | TED.com