ABOUT THE SPEAKER
Sebastian Seung - Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain.

Why you should listen

In the brain, neurons are connected into a complex network. Sebastian Seung and his lab at MIT are inventing technologies for identifying and describing the connectome, the totality of connections between the brain's neurons -- think of it as the wiring diagram of the brain. We possess our entire genome at birth, but things like memories are not "stored" in the genome; they are acquired through life and accumulated in the brain. Seung's hypothesis is that "we are our connectome," that the connections among neurons is where memories and experiences get stored.

Seung and his collaborators, including Winfried Denk at the Max Planck Institute and Jeff Lichtman at Harvard University, are working on a plan to thin-slice a brain (probably starting with a mouse brain) and trace, from slice to slice, each neural pathway, exposing the wiring diagram of the brain and creating a powerful new way to visualize the workings of the mind. They're not the first to attempt something like this -- Sydney Brenner won a Nobel for mapping all the 7,000 connections in the nervous system of a tiny worm, C. elegans. But that took his team a dozen years, and the worm only had 302 nerve cells. One of Seung's breakthroughs is in using advanced imagining and AI to handle the crushing amount of data that a mouse brain will yield and turn it into richly visual maps that show the passageways of thought and sensation.

More profile about the speaker
Sebastian Seung | Speaker | TED.com
TEDGlobal 2010

Sebastian Seung: I am my connectome

Sebastian Seung: Eu sou meu conectoma

Filmed:
1,131,223 views

Sebastian Seung está traçando um novo modelo tremendamernte ambicioso do cérebro, com foco nas conexões entre cada neurônio. O que ele chama de "conectoma" e é tão individual quanto nosso genoma. Compreendê-lo pode abrir um novo caminho para entender nossos cérebros e nossas mentes.
- Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain. Full bio

Double-click the English transcript below to play the video.

00:17
We live in in a remarkable time,
0
2000
3000
Vivemos em uma época incrível,
00:20
the age of genomics.
1
5000
3000
a era da Genômica.
00:23
Your genome is the entire sequence of your DNA.
2
8000
3000
Seu genoma é toda a sequência do seu DNA.
00:26
Your sequence and mine are slightly different.
3
11000
3000
A sua sequência e a minha são ligeiramente diferentes.
00:29
That's why we look different.
4
14000
2000
É por isso que somos diferentes.
00:31
I've got brown eyes;
5
16000
2000
Tenho olhos castanhos.
00:33
you might have blue or gray.
6
18000
3000
Você pode ter azul ou cinza.
00:36
But it's not just skin-deep.
7
21000
2000
Mas não é apenas superficial.
00:38
The headlines tell us
8
23000
2000
As manchetes nos dizem
00:40
that genes can give us scary diseases,
9
25000
3000
que os genes podem causar doenças apavorantes,
00:43
maybe even shape our personality,
10
28000
3000
podem até moldar nossa personalidade,
00:46
or give us mental disorders.
11
31000
3000
ou provocar transtornos mentais.
00:49
Our genes seem to have
12
34000
3000
Nossos genes parecem ter
00:52
awesome power over our destinies.
13
37000
3000
um poder incrível sobre nossos destinos.
00:56
And yet, I would like to think
14
41000
3000
E ainda assim, prefiro pensar
00:59
that I am more than my genes.
15
44000
3000
que sou mais do que meus genes.
01:04
What do you guys think?
16
49000
2000
O que vocês acham?
01:06
Are you more than your genes?
17
51000
3000
Vocês são mais do que seus genes?
01:09
(Audience: Yes.) Yes?
18
54000
2000
(Plateia: Sim). Sim?
01:13
I think some people agree with me.
19
58000
2000
Eu acho que algumas pessoas concordam comigo.
01:15
I think we should make a statement.
20
60000
2000
Eu acho que devemos fazer um manifesto.
01:17
I think we should say it all together.
21
62000
2000
Eu acho que devemos dizer todos juntos.
01:20
All right: "I'm more than my genes" -- all together.
22
65000
3000
Certo; "Sou mais do que meus genes" -- todos juntos.
01:23
Everybody: I am more than my genes.
23
68000
4000
Todo mundo: Sou mais do que meus genes.
01:27
(Cheering)
24
72000
2000
(Torcida)
01:30
Sebastian Seung: What am I?
25
75000
2000
Sebastian Seung: O que eu sou?
01:32
(Laughter)
26
77000
3000
(Risos)
01:35
I am my connectome.
27
80000
3000
Eu sou meu conectoma.
01:40
Now, since you guys are really great,
28
85000
2000
Agora, já que vocês são ótimos,
01:42
maybe you can humor me and say this all together too.
29
87000
2000
talvez possam entrar no clima e dizer isso juntos também.
01:44
(Laughter)
30
89000
2000
(Risos)
01:46
Right. All together now.
31
91000
2000
Certo. Todos juntos agora.
01:48
Everybody: I am my connectome.
32
93000
3000
Todo mundo: Eu sou meu conectoma.
01:53
SS: That sounded great.
33
98000
2000
SS: Isso ficou ótimo.
01:55
You know, you guys are so great, you don't even know what a connectome is,
34
100000
2000
Sabe, vocês são ótimos, nem sabem o que é um conectoma,
01:57
and you're willing to play along with me.
35
102000
2000
e estão brincando junto comigo.
01:59
I could just go home now.
36
104000
3000
Eu já posso ir para casa.
02:02
Well, so far only one connectome is known,
37
107000
3000
Bom, até agora só um conectoma é conhecido,
02:05
that of this tiny worm.
38
110000
3000
o desse verme minúsculo.
02:08
Its modest nervous system
39
113000
2000
Seu modesto sistema nervoso
02:10
consists of just 300 neurons.
40
115000
2000
é composto por apenas 300 neurônios.
02:12
And in the 1970s and '80s,
41
117000
2000
E nos anos 70 e 80,
02:14
a team of scientists
42
119000
2000
uma equipe de cientistas
02:16
mapped all 7,000 connections
43
121000
2000
mapeou todas as 7.000 conexões
02:18
between the neurons.
44
123000
2000
entre cada neurônio.
02:21
In this diagram, every node is a neuron,
45
126000
2000
Neste diagrama, cada nódulo é um neurônio,
02:23
and every line is a connection.
46
128000
2000
e cada linha é uma conexão.
02:25
This is the connectome
47
130000
2000
Este é o conectoma
02:27
of the worm C. elegans.
48
132000
4000
do verme C. elegans.
02:31
Your connectome is far more complex than this
49
136000
3000
O conectoma de vocês é muito mais complexo do que este,
02:34
because your brain
50
139000
2000
porque seu cérebro
02:36
contains 100 billion neurons
51
141000
2000
contém 100 bilhões de neurônios
02:38
and 10,000 times as many connections.
52
143000
3000
e 10 mil vezes mais conexões.
02:41
There's a diagram like this for your brain,
53
146000
2000
Há um diagrama como este no seu cérebro,
02:43
but there's no way it would fit on this slide.
54
148000
3000
mas não há como ele caber neste eslaide.
02:47
Your connectome contains one million times more connections
55
152000
3000
Seu conectoma contém um milhão de vezes mais conexões
02:50
than your genome has letters.
56
155000
3000
do que seu genoma tem letras.
02:53
That's a lot of information.
57
158000
2000
Isso é muita informação.
02:55
What's in that information?
58
160000
3000
O que há nessa informação?
02:59
We don't know for sure, but there are theories.
59
164000
3000
Não sabemos ao certo, mas há teorias.
03:02
Since the 19th century, neuroscientists have speculated
60
167000
3000
Desde o século XIX, os neurocientistas especulam
03:05
that maybe your memories --
61
170000
2000
que talvez suas memórias --
03:07
the information that makes you, you --
62
172000
2000
a informação que torna você você --
03:09
maybe your memories are stored
63
174000
2000
talvez suas memórias estejam armazenadas
03:11
in the connections between your brain's neurons.
64
176000
2000
nas conexões entre os neurônios do seu cérebro.
03:15
And perhaps other aspects of your personal identity --
65
180000
2000
E talvez outros aspectos de sua identidade pessoal --
03:17
maybe your personality and your intellect --
66
182000
3000
talvez sua personalidade e seu intelecto --
03:20
maybe they're also encoded
67
185000
2000
talvez também estejam codificados
03:22
in the connections between your neurons.
68
187000
3000
nas conexões entre seus neurônios.
03:26
And so now you can see why I proposed this hypothesis:
69
191000
3000
E agora vocês podem ver por que eu propus essa hipótese:
03:29
I am my connectome.
70
194000
3000
Eu sou meu conectoma.
03:32
I didn't ask you to chant it because it's true;
71
197000
3000
Eu não lhes pedi para recitar porque é verdade,
03:35
I just want you to remember it.
72
200000
2000
eu apenas quero que se lembrem disso.
03:37
And in fact, we don't know if this hypothesis is correct,
73
202000
2000
E, de fato, não sabemos se essa hipótese é correta,
03:39
because we have never had technologies
74
204000
2000
porque nunca tivemos tecnologias
03:41
powerful enough to test it.
75
206000
2000
poderosas o suficiente para testá-la.
03:44
Finding that worm connectome
76
209000
3000
Descobrir o conectoma daquele verme
03:47
took over a dozen years of tedious labor.
77
212000
3000
levou mais de dez anos de trabalho tedioso.
03:50
And to find the connectomes of brains more like our own,
78
215000
3000
E para descobrir os conectomas de cérebros como o nosso,
03:53
we need more sophisticated technologies, that are automated,
79
218000
3000
precisamos de tecnologias mais sofisticadas, automatizadas,
03:56
that will speed up the process of finding connectomes.
80
221000
3000
que acelerem o processo de descobrir conectomas.
03:59
And in the next few minutes, I'll tell you about some of these technologies,
81
224000
3000
E nos próximos minutos, falarei sobre algumas dessas tecnologias,
04:02
which are currently under development
82
227000
2000
que estão atualmente sendo desenvolvidas
04:04
in my lab and the labs of my collaborators.
83
229000
3000
no meu laboratório e nos laboratórios de meus colaboradores.
04:08
Now you've probably seen pictures of neurons before.
84
233000
3000
Provavelmente já viram imagens de neurônios antes.
04:11
You can recognize them instantly
85
236000
2000
Podem reconhecê-los instantaneamente
04:13
by their fantastic shapes.
86
238000
3000
por suas formas fantásticas.
04:16
They extend long and delicate branches,
87
241000
3000
Têm ramificações longas e delicadas,
04:19
and in short, they look like trees.
88
244000
3000
em resumo, parecem árvores.
04:22
But this is just a single neuron.
89
247000
3000
Mas esse é apenas um único neurônio.
04:25
In order to find connectomes,
90
250000
2000
A fim de encontrar conectomas,
04:27
we have to see all the neurons at the same time.
91
252000
3000
temos que ver todos os neurônios ao mesmo tempo.
04:30
So let's meet Bobby Kasthuri,
92
255000
2000
Então vamos conhecer Bobby Kasthuri
04:32
who works in the laboratory of Jeff Lichtman
93
257000
2000
que trabalha no laboratório de Jeff Lichtman
04:34
at Harvard University.
94
259000
2000
na Universidade de Harvard.
04:36
Bobby is holding fantastically thin slices
95
261000
2000
Bobby está segurando fatias extremamente finas
04:38
of a mouse brain.
96
263000
2000
de um cérebro de camundongo.
04:40
And we're zooming in by a factor of 100,000 times
97
265000
3000
E estamos ampliando em um fator de 100.000 vezes
04:44
to obtain the resolution,
98
269000
2000
para obter a resolução,
04:46
so that we can see the branches of neurons all at the same time.
99
271000
3000
de forma que possamos ver as ramificações dos neurônios todos ao mesmo tempo.
04:50
Except, you still may not really recognize them,
100
275000
3000
Salvo que ainda não podem reconhecer de fato,
04:53
and that's because we have to work in three dimensions.
101
278000
3000
e é por isso que temos de trabalhar em três dimensões.
04:56
If we take many images of many slices of the brain
102
281000
2000
Se pegarmos muitas imagens de muitas fatias do cérebro
04:58
and stack them up,
103
283000
2000
e as empilharmos,
05:00
we get a three-dimensional image.
104
285000
2000
obtemos uma imagem tridimensional.
05:02
And still, you may not see the branches.
105
287000
2000
E ainda, não podem ver as ramificações.
05:04
So we start at the top,
106
289000
2000
Então começamos no topo,
05:06
and we color in the cross-section of one branch in red,
107
291000
3000
e colorimos a secção de uma ramificação de vermelho,
05:09
and we do that for the next slice
108
294000
2000
E fazemos isso com a próxima fatia
05:11
and for the next slice.
109
296000
2000
e com a próxima.
05:13
And we keep on doing that,
110
298000
2000
E continuamos a fazê-lo,
05:15
slice after slice.
111
300000
3000
fatia após fatia.
05:18
If we continue through the entire stack,
112
303000
2000
Se continuarmos por toda a pilha,
05:20
we can reconstruct the three-dimensional shape
113
305000
3000
podemos reconstruir a forma tridimensional
05:23
of a small fragment of a branch of a neuron.
114
308000
3000
de um pequeno fragmento de uma ramificação de um neurônio.
05:26
And we can do that for another neuron in green.
115
311000
2000
E podemos fazê-lo com outro neurônio em verde.
05:28
And you can see that the green neuron touches the red neuron
116
313000
2000
E vocês podem ver que o neurônio verde toca o neurônio vermelho
05:30
at two locations,
117
315000
2000
em dois locais,
05:32
and these are what are called synapses.
118
317000
2000
e isso é o que chamamos de sinapses.
05:34
Let's zoom in on one synapse,
119
319000
2000
Vamos ampliar uma sinapse.
05:36
and keep your eyes on the interior of the green neuron.
120
321000
3000
Mantenham seus olhos no interior do neurônio verde.
05:39
You should see small circles --
121
324000
2000
Vocês devem ver pequenos círculos.
05:41
these are called vesicles.
122
326000
3000
São chamados de vesículas.
05:44
They contain a molecule know as a neurotransmitter.
123
329000
3000
Contêm uma molécula conhecida como neurotransmissor.
05:47
And so when the green neuron wants to communicate,
124
332000
2000
E então quando o neurônio verde quer se comunicar,
05:49
it wants to send a message to the red neuron,
125
334000
2000
quer enviar uma mensagem para o neurônio vermelho,
05:51
it spits out neurotransmitter.
126
336000
3000
expele neurotransmissores.
05:54
At the synapse, the two neurons
127
339000
2000
Na sinapse, diz-se que os dois
05:56
are said to be connected
128
341000
2000
neurônios estão conectados
05:58
like two friends talking on the telephone.
129
343000
3000
como dois amigos falando ao telefone.
06:02
So you see how to find a synapse.
130
347000
2000
Então veem como encontrar uma sinapse.
06:04
How can we find an entire connectome?
131
349000
3000
Como podemos encontrar todo um conectoma?
06:07
Well, we take this three-dimensional stack of images
132
352000
3000
Bom, pegamos essa pilha de imagens tridimensionais
06:10
and treat it as a gigantic three-dimensional coloring book.
133
355000
3000
e a tratamos como um livro de colorir tridimensional gigante.
06:13
We color every neuron in, in a different color,
134
358000
3000
Colorimos cada neurônio com uma cor diferente,
06:16
and then we look through all of the images,
135
361000
2000
e então olhamos através de todas as imagens,
06:18
find the synapses
136
363000
2000
encontramos as sinapses
06:20
and note the colors of the two neurons involved in each synapse.
137
365000
3000
e observamos as cores dos dois neurônios envolvidos em cada sinapse.
06:23
If we can do that throughout all the images,
138
368000
3000
Se pudermos fazê-lo em todas as imagens,
06:26
we could find a connectome.
139
371000
2000
podemos encontrar um conectoma.
06:29
Now, at this point,
140
374000
2000
Até agora
06:31
you've learned the basics of neurons and synapses.
141
376000
2000
aprenderam o básico sobre neurônios e sinapses.
06:33
And so I think we're ready to tackle
142
378000
2000
Então acho que estamos prontos para lidar
06:35
one of the most important questions in neuroscience:
143
380000
3000
com uma das questões mais importantes na neurociência:
06:39
how are the brains of men and women different?
144
384000
3000
qual a diferença entre os cérebros de homens e mulheres?
06:42
(Laughter)
145
387000
2000
(Risos)
06:44
According to this self-help book,
146
389000
2000
De acordo com este livro de autoajuda,
06:46
guys brains are like waffles;
147
391000
2000
os cérebros do homens são como waffles;
06:48
they keep their lives compartmentalized in boxes.
148
393000
3000
eles mantêm suas vidas compartimentalizadas em caixas.
06:51
Girls' brains are like spaghetti;
149
396000
3000
Os cérebros das garotas são como espaguete;
06:54
everything in their life is connected to everything else.
150
399000
3000
tudo em suas vidas está conectado a tudo o mais.
06:57
(Laughter)
151
402000
2000
(Risos)
06:59
You guys are laughing,
152
404000
2000
Vocês estão rindo, caras,
07:01
but you know, this book changed my life.
153
406000
2000
mas, sabem, esse livro mudou minha vida.
07:03
(Laughter)
154
408000
2000
(Risos)
07:07
But seriously, what's wrong with this?
155
412000
3000
Mas, sério, o que há de errado nisso?
07:10
You already know enough to tell me -- what's wrong with this statement?
156
415000
3000
Vocês já sabem o suficiente para me dizer. O que há de errado nesta afirmação?
07:20
It doesn't matter whether you're a guy or girl,
157
425000
3000
Não importa se você é homem ou mulher,
07:23
everyone's brains are like spaghetti.
158
428000
3000
os cérebros de todos são como espaguete.
07:26
Or maybe really, really fine capellini with branches.
159
431000
3000
Ou podem ser capellinis muito muito finos com ramificações.
07:30
Just as one strand of spaghetti
160
435000
2000
Assim como um espaguete
07:32
contacts many other strands on your plate,
161
437000
3000
toca em muitos outros no seu prato,
07:35
one neuron touches many other neurons
162
440000
2000
um neurônio toca em muitos outros neurônios
07:37
through their entangled branches.
163
442000
2000
através de suas ramificações entrelaçadas.
07:39
One neuron can be connected to so many other neurons,
164
444000
3000
Um neurônio pode estar conectado a muitos outros neurônios,
07:42
because there can be synapses
165
447000
2000
porque pode haver sinapses
07:44
at these points of contact.
166
449000
3000
nesses pontos de contato.
07:49
By now, you might have sort of lost perspective
167
454000
3000
Por ora, vocês podem ter meio que perdido a perspectiva
07:52
on how large this cube of brain tissue actually is.
168
457000
3000
do quão grande esse cubo de tecido cerebral é de fato.
07:55
And so let's do a series of comparisons to show you.
169
460000
3000
Então faremos uma série de comparações para mostrar a vocês.
07:58
I assure you, this is very tiny. It's just six microns on a side.
170
463000
3000
Vou mostrar. Isso é muito pequeno. Tem apenas seis microns de um lado.
08:03
So, here's how it stacks up against an entire neuron.
171
468000
3000
Então, eis como se empilha contra todo um neurônio.
08:06
And you can tell that, really, only the smallest fragments of branches
172
471000
3000
E se pode dizer que, de fato, somente os menores fragmentos de ramificações
08:09
are contained inside this cube.
173
474000
3000
estão contidos dentro deste cubo.
08:12
And a neuron, well, that's smaller than brain.
174
477000
3000
E um neurônio, bem, é menor do que o cérebro.
08:17
And that's just a mouse brain --
175
482000
2000
E isso é só o cérebro de um camundongo.
08:21
it's a lot smaller than a human brain.
176
486000
3000
É muito menor que um cérebro humano.
08:25
So when show my friends this,
177
490000
2000
Então, quando mostro isto aos meus amigos
08:27
sometimes they've told me,
178
492000
2000
algumas vezes eles me dizem:
08:29
"You know, Sebastian, you should just give up.
179
494000
3000
"Sabe, Sebastian, você deveria desistir.
08:32
Neuroscience is hopeless."
180
497000
2000
Neurociência não tem jeito."
08:34
Because if you look at a brain with your naked eye,
181
499000
2000
Porque se olhar para um cérebro a olho nu,
08:36
you don't really see how complex it is,
182
501000
2000
você na verdade não vê como é complexo,
08:38
but when you use a microscope,
183
503000
2000
mas quando você usa um microscópio,
08:40
finally the hidden complexity is revealed.
184
505000
3000
finalmente, a complexidade oculta é revelada.
08:45
In the 17th century,
185
510000
2000
No século XVII,
08:47
the mathematician and philosopher, Blaise Pascal,
186
512000
2000
o matemático e filósofo Blaise Pascal
08:49
wrote of his dread of the infinite,
187
514000
3000
falou do seu medo do infinito,
08:52
his feeling of insignificance
188
517000
2000
seu sentimento de insignificância
08:54
at contemplating the vast reaches of outer space.
189
519000
3000
ao contemplar a vastidão do espaço sideral.
08:59
And, as a scientist,
190
524000
2000
E, como cientista,
09:01
I'm not supposed to talk about my feelings --
191
526000
3000
não devo falar sobre meus sentimentos.
09:04
too much information, professor.
192
529000
2000
Muita informação, professor.
09:06
(Laughter)
193
531000
2000
(Risos)
09:08
But may I?
194
533000
2000
Mas me permitem?
09:10
(Laughter)
195
535000
2000
(Risos)
09:12
(Applause)
196
537000
2000
(Aplausos)
09:14
I feel curiosity,
197
539000
2000
Sinto curiosidade,
09:16
and I feel wonder,
198
541000
2000
e me sinto maravilhado,
09:18
but at times I have also felt despair.
199
543000
3000
mas às vezes também me sinto desesperado.
09:22
Why did I choose to study
200
547000
2000
Por que escolhi estudar
09:24
this organ that is so awesome in its complexity
201
549000
3000
esse órgão que é tão incrivel em sua complexidade
09:27
that it might well be infinite?
202
552000
2000
que pode muito bem ser infinito?
09:29
It's absurd.
203
554000
2000
É absurdo.
09:31
How could we even dare to think
204
556000
2000
Como podemos até mesmo ousar pensar
09:33
that we might ever understand this?
205
558000
3000
que podemos sequer compreender isso?
09:38
And yet, I persist in this quixotic endeavor.
206
563000
3000
E ainda assim, persisto nessa empreitada quixotesca.
09:41
And indeed, these days I harbor new hopes.
207
566000
3000
E na verdade, ultimamente abrigo novas esperanças.
09:45
Someday,
208
570000
2000
Algum dia,
09:47
a fleet of microscopes will capture
209
572000
2000
uma frota de microscópios irá capturar
09:49
every neuron and every synapse
210
574000
2000
cada neurônio e cada sinapse
09:51
in a vast database of images.
211
576000
3000
em um vasto banco de dados de imagens.
09:54
And some day, artificially intelligent supercomputers
212
579000
3000
E algum dia, supercomputadores com inteligência artificial
09:57
will analyze the images without human assistance
213
582000
3000
irão analisar as imagens sem assistência humana
10:00
to summarize them in a connectome.
214
585000
3000
para resumi-las em um conectoma.
10:04
I do not know, but I hope that I will live to see that day,
215
589000
3000
Eu não sei, mas espero viver para ver esse dia.
10:08
because finding an entire human connectome
216
593000
2000
Porque descobrir todo um conectoma humano
10:10
is one of the greatest technological challenges of all time.
217
595000
3000
é um dos maiores desafios tecnológicos de todos os tempos.
10:13
It will take the work of generations to succeed.
218
598000
3000
Terá o trabalho de muitas gerações para ser bem sucedido
10:17
At the present time, my collaborators and I,
219
602000
3000
No momento, meus colaboradores e eu,
10:20
what we're aiming for is much more modest --
220
605000
2000
o que estamos almejando é muito mais modesto --
10:22
just to find partial connectomes
221
607000
2000
apenas encontrar conectomas parciais
10:24
of tiny chunks of mouse and human brain.
222
609000
3000
de pequenos blocos de cérebro de camundongo e humano.
10:27
But even that will be enough for the first tests of this hypothesis
223
612000
3000
Mas mesmo isso será o suficiente para os primeiros testes dessa hipótese
10:30
that I am my connectome.
224
615000
3000
de que eu sou meu conectoma.
10:35
For now, let me try to convince you of the plausibility of this hypothesis,
225
620000
3000
Por ora, deixe-me tentar convencê-los da plausibilidade dessa hipótese,
10:38
that it's actually worth taking seriously.
226
623000
3000
que realmente vale a pena levar a sério.
10:42
As you grow during childhood
227
627000
2000
A medida que vocês crescem na infância
10:44
and age during adulthood,
228
629000
3000
e envelhecem na idade adulta,
10:47
your personal identity changes slowly.
229
632000
3000
sua identidade pessoal muda lentamente.
10:50
Likewise, every connectome
230
635000
2000
Da mesma forma, cada conectoma
10:52
changes over time.
231
637000
2000
muda com o tempo.
10:55
What kinds of changes happen?
232
640000
2000
Que tipos de mudanças acontecem?
10:57
Well, neurons, like trees,
233
642000
2000
Bem, neurônios, como árvores,
10:59
can grow new branches,
234
644000
2000
podem ter novas ramificações
11:01
and they can lose old ones.
235
646000
3000
e podem perder velhas.
11:04
Synapses can be created,
236
649000
3000
Sinapses podem ser criadas
11:07
and they can be eliminated.
237
652000
3000
e podem ser eliminadas.
11:10
And synapses can grow larger,
238
655000
2000
E sinapses podem ficar maiores
11:12
and they can grow smaller.
239
657000
3000
e podem ficar menores.
11:15
Second question:
240
660000
2000
Segunda pergunta:
11:17
what causes these changes?
241
662000
3000
o que causa essas mudanças?
11:20
Well, it's true.
242
665000
2000
Bem, é verdade.
11:22
To some extent, they are programmed by your genes.
243
667000
3000
Em alguma medida, são programadas por seus genes.
11:25
But that's not the whole story,
244
670000
2000
Mas essa não é a história toda,
11:27
because there are signals, electrical signals,
245
672000
2000
porque há sinais, sinais elétricos,
11:29
that travel along the branches of neurons
246
674000
2000
que viajam pelas ramificações dos neurônios
11:31
and chemical signals
247
676000
2000
e sinais químicos
11:33
that jump across from branch to branch.
248
678000
2000
que pulam de galho em galho.
11:35
These signals are called neural activity.
249
680000
3000
Esses sinais são chamados de atividade neural.
11:38
And there's a lot of evidence
250
683000
2000
E há muitas evidências
11:40
that neural activity
251
685000
3000
de que a atividade neural
11:43
is encoding our thoughts, feelings and perceptions,
252
688000
3000
está codificando nossos pensamentos, sentimentos e percepções,
11:46
our mental experiences.
253
691000
2000
nossas experiências mentais.
11:48
And there's a lot of evidence that neural activity
254
693000
3000
E há muitas evidências de que a atividade neural
11:51
can cause your connections to change.
255
696000
3000
pode fazer com que suas conexões mudem.
11:54
And if you put those two facts together,
256
699000
3000
E se juntar esses dois fatos,
11:57
it means that your experiences
257
702000
2000
significa que suas experiências
11:59
can change your connectome.
258
704000
3000
podem mudar seus conectomas.
12:02
And that's why every connectome is unique,
259
707000
2000
E essa é a razão porque cada conectoma é único,
12:04
even those of genetically identical twins.
260
709000
3000
mesmo aqueles de gêmeos geneticamente idênticos.
12:08
The connectome is where nature meets nurture.
261
713000
3000
O conectoma é onde a natureza encontra a nutrição.
12:12
And it might true
262
717000
2000
E é verdade
12:14
that just the mere act of thinking
263
719000
2000
que apenas o mero ato de pensar
12:16
can change your connectome --
264
721000
2000
pode mudar seu conectoma --
12:18
an idea that you may find empowering.
265
723000
3000
uma ideia que pode ser poderosa.
12:24
What's in this picture?
266
729000
2000
O que há nessa foto?
12:28
A cool and refreshing stream of water, you say.
267
733000
3000
Um córrego de água fria e refrescante, vocês dizem.
12:32
What else is in this picture?
268
737000
2000
O que mais?
12:37
Do not forget that groove in the Earth
269
742000
2000
Não esqueçam dessa fenda na Terra
12:39
called the stream bed.
270
744000
3000
chamada de leito do córrego.
12:42
Without it, the water would not know in which direction to flow.
271
747000
3000
Sem ela, a água não saberia qual direção seguir.
12:45
And with the stream,
272
750000
2000
E com o córrego,
12:47
I would like to propose a metaphor
273
752000
2000
eu gostaria de propor uma metáfora
12:49
for the relationship between neural activity
274
754000
2000
para o relacionamento entre a atividade neural
12:51
and connectivity.
275
756000
2000
e a conectividade.
12:54
Neural activity is constantly changing.
276
759000
3000
A atividade neural está mudando constantemente
12:57
It's like the water of the stream; it never sits still.
277
762000
3000
É como a água do córrego; nunca fica parada.
13:00
The connections
278
765000
2000
As conexões
13:02
of the brain's neural network
279
767000
2000
da rede neural do cérebro
13:04
determines the pathways
280
769000
2000
determinam os caminhos
13:06
along which neural activity flows.
281
771000
2000
pelos quais cada atividade neural flui.
13:08
And so the connectome is like bed of the stream;
282
773000
3000
E assim o conectoma é como o leito do córrego.
13:13
but the metaphor is richer than that,
283
778000
3000
Mas a metáfora é mais rica do que isso.
13:16
because it's true that the stream bed
284
781000
3000
Porque é verdade que o leito do córrego
13:19
guides the flow of the water,
285
784000
2000
orienta o fluxo da água,
13:21
but over long timescales,
286
786000
2000
mas no longo prazo,
13:23
the water also reshapes the bed of the stream.
287
788000
3000
a água também reformula o leito do córrego.
13:26
And as I told you just now,
288
791000
2000
E como eu lhes disse há pouco,
13:28
neural activity can change the connectome.
289
793000
3000
a atividade neural pode mudar o conectoma.
13:33
And if you'll allow me to ascend
290
798000
2000
E se vocês me permitirem ascender
13:35
to metaphorical heights,
291
800000
3000
a alturas metafóricas,
13:38
I will remind you that neural activity
292
803000
3000
lembrarei que a atividade neural
13:41
is the physical basis -- or so neuroscientists think --
293
806000
2000
é a base física -- ou assim pensam os neurocientistas --
13:43
of thoughts, feelings and perceptions.
294
808000
3000
dos pensamentos, sentimentos e percepções.
13:46
And so we might even speak of
295
811000
2000
E assim podemos até falar de
13:48
the stream of consciousness.
296
813000
2000
fluxo de consciência.
13:50
Neural activity is its water,
297
815000
3000
A atividade neural é a água
13:53
and the connectome is its bed.
298
818000
3000
e o conectoma o leito.
13:57
So let's return from the heights of metaphor
299
822000
2000
Então voltemos das alturas da metáfora
13:59
and return to science.
300
824000
2000
e retornemos à Ciência.
14:01
Suppose our technologies for finding connectomes
301
826000
2000
Suponha que nossas tecnologias para encontrar conectomas
14:03
actually work.
302
828000
2000
realmente funcionem.
14:05
How will we go about testing the hypothesis
303
830000
2000
Como testaremos a hipótese
14:07
"I am my connectome?"
304
832000
3000
"eu sou meu conectoma"?
14:10
Well, I propose a direct test.
305
835000
3000
Bem, eu proponho um teste direto.
14:13
Let us attempt
306
838000
2000
Vamos tentar
14:15
to read out memories from connectomes.
307
840000
3000
ler nossas memórias de conectomas.
14:18
Consider the memory
308
843000
2000
Considerem a memória
14:20
of long temporal sequences of movements,
309
845000
3000
de longas sequências temporais de movimentos,
14:23
like a pianist playing a Beethoven sonata.
310
848000
3000
como um pianista tocando uma sonata de Beethoven.
14:26
According to a theory that dates back to the 19th century,
311
851000
3000
De acordo com uma teoria do século XIX,
14:29
such memories are stored
312
854000
2000
essas memórias estão estocadas
14:31
as chains of synaptic connections inside your brain.
313
856000
3000
como cadeias de conexões sinápticas dentro do seu cérebro.
14:35
Because, if the first neurons in the chain are activated,
314
860000
3000
Porque, se os primeiros neurônios na cadeia forem ativados,
14:38
through their synapses they send messages to the second neurons, which are activated,
315
863000
3000
através de suas sinapses eles enviam mensagens para os segundos neurônios, que são ativados,
14:41
and so on down the line,
316
866000
2000
e assim toda a fila,
14:43
like a chain of falling dominoes.
317
868000
2000
como uma cadeia de dominós caindo.
14:45
And this sequence of neural activation
318
870000
2000
E há a hipótese de que essa sequência
14:47
is hypothesized to be the neural basis
319
872000
3000
de ativação neural é a base neural
14:50
of those sequence of movements.
320
875000
2000
dessa sequência de movimentos.
14:52
So one way of trying to test the theory
321
877000
2000
Então uma forma de testar a teoria
14:54
is to look for such chains
322
879000
2000
é olhar para essas cadeias
14:56
inside connectomes.
323
881000
2000
dentro dos conectomas.
14:58
But it won't be easy, because they're not going to look like this.
324
883000
3000
Mas não será fácil, porque não vão se parecer com isso.
15:01
They're going to be scrambled up.
325
886000
2000
Vão estar embaralhadas.
15:03
So we'll have to use our computers
326
888000
2000
Então teremos que usar nossos computadores
15:05
to try to unscramble the chain.
327
890000
3000
para tentar desembaralhar a cadeia.
15:08
And if we can do that,
328
893000
2000
E se podemos fazer isso,
15:10
the sequence of the neurons we recover from that unscrambling
329
895000
3000
a sequência dos neurônios que recuperamos dessa desembaralhada
15:13
will be a prediction of the pattern of neural activity
330
898000
3000
será uma previsão do padrão de atividade neural
15:16
that is replayed in the brain during memory recall.
331
901000
3000
que é retomado no cérebro durante o chamado da memória.
15:19
And if that were successful,
332
904000
2000
E se isso for bem sucedido,
15:21
that would be the first example of reading a memory from a connectome.
333
906000
3000
seria o primeiro exemplo de ler uma memória de um conectoma.
15:28
(Laughter)
334
913000
2000
(Risos)
15:30
What a mess --
335
915000
2000
Que bagunça.
15:33
have you ever tried to wire up a system
336
918000
2000
Já tentaram conectar um sistema
15:35
as complex as this?
337
920000
2000
tão complexo quanto este?
15:37
I hope not.
338
922000
2000
Espero que não.
15:39
But if you have, you know it's very easy to make a mistake.
339
924000
3000
Mas se fizeram, sabem que é muito fácil cometer um erro.
15:45
The branches of neurons are like the wires of the brain.
340
930000
2000
As ramificações de neurônios são como os filamentos do cérebro.
15:47
Can anyone guess: what's the total length of wires in your brain?
341
932000
4000
Alguém adivinha qual é a extensão total de filamentos no nosso cérebro?
15:54
I'll give you a hint. It's a big number.
342
939000
2000
Vou dar uma dica. É um número grande.
15:56
(Laughter)
343
941000
2000
(Risos)
15:59
I estimate, millions of miles,
344
944000
3000
Eu estimo, milhões de quilômetros.
16:02
all packed in your skull.
345
947000
3000
Tudo dentro do seu crânio.
16:05
And if you appreciate that number,
346
950000
2000
E se observarem esse número,
16:07
you can easily see
347
952000
2000
podem ver facilmente que
16:09
there is huge potential for mis-wiring of the brain.
348
954000
2000
há um grande potencial para conectar o cérebro de forma errada.
16:11
And indeed, the popular press loves headlines like,
349
956000
3000
E de fato, a imprensa popular adora manchetes como:
16:14
"Anorexic brains are wired differently,"
350
959000
2000
"Cérebros anoréxicos são conectados de forma diferente."
16:16
or "Autistic brains are wired differently."
351
961000
2000
ou, "Cérebros de autistas são conectados de forma diferente."
16:18
These are plausible claims,
352
963000
2000
Essas são afirmações plausíveis,
16:20
but in truth,
353
965000
2000
mas na verdade,
16:22
we can't see the brain's wiring clearly enough
354
967000
2000
não podemos ver a fiação do cérebro de forma clara o suficiente
16:24
to tell if these are really true.
355
969000
2000
para nos dizer se isso é realmente verdade.
16:26
And so the technologies for seeing connectomes
356
971000
3000
E então as tecnologias para ver conectomas
16:29
will allow us to finally
357
974000
2000
vão nos permitir finalmente
16:31
read mis-wiring of the brain,
358
976000
2000
ler a conexão errada do cérebro
16:33
to see mental disorders in connectomes.
359
978000
3000
para ver as desordens mentais em conectomas.
16:40
Sometimes the best way to test a hypothesis
360
985000
3000
Algumas vezes a melhor forma de testar uma hipótese
16:43
is to consider its most extreme implication.
361
988000
3000
é considerar sua implicação mais extrema.
16:46
Philosophers know this game very well.
362
991000
3000
Filósofos conhecem bem este jogo.
16:50
If you believe that I am my connectome,
363
995000
3000
Se acreditarem que eu sou meu conectoma,
16:53
I think you must also accept the idea
364
998000
3000
vocês também devem aceitar a ideia
16:56
that death is the destruction
365
1001000
2000
de que a morte é a destruição
16:58
of your connectome.
366
1003000
3000
de seu conectoma.
17:02
I mention this because there are prophets today
367
1007000
3000
Eu menciono isso porque há profetas hoje em dia
17:05
who claim that technology
368
1010000
3000
que afirmam que a tecnologia
17:08
will fundamentally alter the human condition
369
1013000
3000
irá alterar fundamentalmente a condição humana
17:11
and perhaps even transform the human species.
370
1016000
3000
e talvez até mesmo transformar a espécie humana.
17:14
One of their most cherished dreams
371
1019000
3000
Um de seus sonhos mais queridos
17:17
is to cheat death
372
1022000
2000
é enganar a morte
17:19
by that practice known as cryonics.
373
1024000
2000
pela prática conhecida como criogenia.
17:21
If you pay 100,000 dollars,
374
1026000
2000
Se pagarem 100.000 dólares,
17:23
you can arrange to have your body frozen after death
375
1028000
3000
podem conseguir que seus corpos sejam congelados após a morte
17:26
and stored in liquid nitrogen
376
1031000
2000
e o armazenem em nitrogênio líquido
17:28
in one of these tanks in an Arizona warehouse,
377
1033000
2000
em um desses tanques em um depósito no Arizona,
17:30
awaiting a future civilization
378
1035000
2000
esperando uma civilização futura
17:32
that is advanced to resurrect you.
379
1037000
3000
que seja avançada para ressuscitá-los.
17:36
Should we ridicule the modern seekers of immortality,
380
1041000
2000
Devemos ridicularizar os buscadores modernos da imortalidade,
17:38
calling them fools?
381
1043000
2000
chamando-os de tolos?
17:40
Or will they someday chuckle
382
1045000
2000
Ou eles irão algum dia rir
17:42
over our graves?
383
1047000
2000
sobre nossos túmulos?
17:45
I don't know --
384
1050000
2000
Não sei.
17:47
I prefer to test their beliefs, scientifically.
385
1052000
3000
Prediro testar suas crenças, cientificamente,
17:50
I propose that we attempt to find a connectome
386
1055000
2000
proponho que tentemos encontrar um conectoma
17:52
of a frozen brain.
387
1057000
2000
de um cérebro congelado.
17:54
We know that damage to the brain
388
1059000
2000
Sabemos que o dano ao cérebro
17:56
occurs after death and during freezing.
389
1061000
2000
ocorre após a morte e durante o congelamento.
17:58
The question is: has that damage erased the connectome?
390
1063000
3000
A pergunta é: o cérebro danificado apagou o conectoma?
18:01
If it has, there is no way that any future civilization
391
1066000
3000
Se apagou, não há forma de nenhuma civilização futura
18:04
will be able to recover the memories of these frozen brains.
392
1069000
3000
conseguir recuperar as memórias desses cérebros congelados.
18:07
Resurrection might succeed for the body,
393
1072000
2000
A ressureição pode até ser bem sucedida para o corpo,
18:09
but not for the mind.
394
1074000
2000
mas não para a mente.
18:11
On the other hand, if the connectome is still intact,
395
1076000
3000
Por outro lado, se o conectoma ainda estiver intacto,
18:14
we cannot ridicule the claims of cryonics so easily.
396
1079000
3000
não podemos ridicularizar os desejos da criogenia tão facilmente.
18:20
I've described a quest
397
1085000
2000
Descrevi uma busca
18:22
that begins in the world of the very small,
398
1087000
3000
que começa no mundo do muito pequeno,
18:25
and propels us to the world of the far future.
399
1090000
3000
e nos impulsiona ao mundo do futuro distante.
18:28
Connectomes will mark a turning point in human history.
400
1093000
3000
Conectomas irão marcar um ponto de mutação na história humana.
18:32
As we evolved from our ape-like ancestors
401
1097000
2000
Conforme evoluíamos dos nossos ancestrais semelhantes a macacos
18:34
on the African savanna,
402
1099000
2000
na savana africana,
18:36
what distinguished us was our larger brains.
403
1101000
3000
o que nos distinguia eram nossos cérebros grandes.
18:40
We have used our brains to fashion
404
1105000
2000
Usamos nossos cérebros para moldar
18:42
ever more amazing technologies.
405
1107000
3000
tecnologias cada vez mais impressionantes.
18:45
Eventually, these technologies will become so powerful
406
1110000
3000
Eventualmente, essas tecnologias se tornarão tão poderosas
18:48
that we will use them to know ourselves
407
1113000
3000
que iremos usá-las para nos conhecer
18:51
by deconstructing and reconstructing
408
1116000
3000
ao desconstruir e reconstruir
18:54
our own brains.
409
1119000
3000
nossos cérebros.
18:57
I believe that this voyage of self-discovery
410
1122000
3000
Eu acredito que esta viagem de autodescoberta
19:00
is not just for scientists,
411
1125000
3000
não é só para cientistas
19:03
but for all of us.
412
1128000
2000
mas para todos nós.
19:05
And I'm grateful for the opportunity to share this voyage with you today.
413
1130000
3000
E sou grato pela oportunidade de compartihar essa viagem com vocês hoje.
19:08
Thank you.
414
1133000
2000
Obrigado.
19:10
(Applause)
415
1135000
8000
(Aplausos)

▲Back to top

ABOUT THE SPEAKER
Sebastian Seung - Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain.

Why you should listen

In the brain, neurons are connected into a complex network. Sebastian Seung and his lab at MIT are inventing technologies for identifying and describing the connectome, the totality of connections between the brain's neurons -- think of it as the wiring diagram of the brain. We possess our entire genome at birth, but things like memories are not "stored" in the genome; they are acquired through life and accumulated in the brain. Seung's hypothesis is that "we are our connectome," that the connections among neurons is where memories and experiences get stored.

Seung and his collaborators, including Winfried Denk at the Max Planck Institute and Jeff Lichtman at Harvard University, are working on a plan to thin-slice a brain (probably starting with a mouse brain) and trace, from slice to slice, each neural pathway, exposing the wiring diagram of the brain and creating a powerful new way to visualize the workings of the mind. They're not the first to attempt something like this -- Sydney Brenner won a Nobel for mapping all the 7,000 connections in the nervous system of a tiny worm, C. elegans. But that took his team a dozen years, and the worm only had 302 nerve cells. One of Seung's breakthroughs is in using advanced imagining and AI to handle the crushing amount of data that a mouse brain will yield and turn it into richly visual maps that show the passageways of thought and sensation.

More profile about the speaker
Sebastian Seung | Speaker | TED.com