ABOUT THE SPEAKER
Henry Markram - Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time.

Why you should listen

In the microscopic, yet-uncharted circuitry of the cortex, Henry Markram is perhaps the most ambitious -- and our most promising -- frontiersman. Backed by the extraordinary power of the IBM Blue Gene supercomputing architecture, which can perform hundreds of trillions of calculations per second, he's using complex models to precisely simulate the neocortical column (and its tens of millions of neural connections) in 3D.

Though the aim of Blue Brain research is mainly biomedical, it has been edging up on some deep, contentious philosophical questions about the mind -- "Can a robot think?" and "Can consciousness be reduced to mechanical components?" -- the consequence of which Markram is well aware: Asked by Seed Magazine what a simulation of a full brain might do, he answered, "Everything. I mean everything" -- with a grin.

Now, with a successful proof-of-concept for simulation in hand (the project's first phase was completed in 2007), Markram is looking toward a future where brains might be modeled even down to the molecular and genetic level. Computing power marching rightward and up along the graph of Moore's Law, Markram is sure to be at the forefront as answers to the mysteries of cognition emerge.

More profile about the speaker
Henry Markram | Speaker | TED.com
TEDGlobal 2009

Henry Markram: A brain in a supercomputer

Henry Markram constrói um cérebro num supercomputador

Filmed:
1,469,354 views

Henry Markram afirma que os mistérios da mente podem ser desvendados -- logo. Doença menta, memória, percepção: elas são efeitos de neurônios e sinais elétricos e ele planeja desvendá-los com um supercomputador que modela todas as 100.000.000.000.000 sinapses do cérebro.
- Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time. Full bio

Double-click the English transcript below to play the video.

00:18
Our mission is to build
0
0
3000
Nossa missão é construir
00:21
a detailed, realistic
1
3000
2000
um modelo computacional detalhado e realista
00:23
computer model of the human brain.
2
5000
2000
do cérebro humano.
00:25
And we've done, in the past four years,
3
7000
3000
E, nos últimos quatro anos, nós fizemos
00:28
a proof of concept
4
10000
2000
uma prova de conceito,
00:30
on a small part of the rodent brain,
5
12000
3000
numa pequena parte de um cérebro de roedor,
00:33
and with this proof of concept we are now scaling the project up
6
15000
3000
e com esta prova de conceito, estamos agora aumentando a escala do projeto
00:36
to reach the human brain.
7
18000
3000
para chegar ao cérebro humano.
00:39
Why are we doing this?
8
21000
2000
Porque estamos fazendo isto?
00:41
There are three important reasons.
9
23000
2000
Há três razões importantes.
00:43
The first is, it's essential for us to understand the human brain
10
25000
4000
Primeiro, é essencial para nós entendermos o cérebro humano
00:47
if we do want to get along in society,
11
29000
2000
se queremos progredir na sociedade,
00:49
and I think that it is a key step in evolution.
12
31000
4000
e penso que isso é um passo fundamental na evolução.
00:53
The second reason is,
13
35000
2000
A segunda razão é
00:55
we cannot keep doing animal experimentation forever,
14
37000
6000
que não podemos continuar fazendo experimentos com animais para sempre,
01:01
and we have to embody all our data and all our knowledge
15
43000
4000
e temos que incorporar todos os nossos dados e conhecimentos
01:05
into a working model.
16
47000
3000
num modelo que funcione.
01:08
It's like a Noah's Ark. It's like an archive.
17
50000
4000
É como a Arca de Noé. É como um arquivo.
01:12
And the third reason is that there are two billion people on the planet
18
54000
3000
E a terceira razão é que existem dois bilhôes de pessoas no planeta
01:15
that are affected by mental disorder,
19
57000
4000
afetadas por doenças mentais,
01:19
and the drugs that are used today
20
61000
2000
e as drogas usadas hoje
01:21
are largely empirical.
21
63000
2000
são geralmente empíricas.
01:23
I think that we can come up with very concrete solutions on
22
65000
3000
Acredito que poderemos obter soluções muito concretas sobre
01:26
how to treat disorders.
23
68000
3000
como tratar eestas doenças.
01:29
Now, even at this stage,
24
71000
3000
Pois bem, mesmo neste estágio,
01:32
we can use the brain model
25
74000
2000
podemos usar o modelo do cérebro
01:34
to explore some fundamental questions
26
76000
3000
para explorar algumas questões fundamentais
01:37
about how the brain works.
27
79000
2000
sobre como o cérebro funciona.
01:39
And here, at TED, for the first time,
28
81000
2000
E aqui, no TED, pela primeira vez,
01:41
I'd like to share with you how we're addressing
29
83000
2000
Gostaria de compartilhar com vocês o modo como estamos abordando
01:43
one theory -- there are many theories --
30
85000
3000
uma teoria -- existem várias teorias --
01:46
one theory of how the brain works.
31
88000
4000
uma teoria de como o cérebro funciona.
01:50
So, this theory is that the brain
32
92000
4000
Asim, esta teoria é que o cérebro
01:54
creates, builds, a version of the universe,
33
96000
6000
cria, constrói uma versão do universo.
02:00
and projects this version of the universe,
34
102000
3000
E projeta essa versão do universo,
02:03
like a bubble, all around us.
35
105000
4000
como uma bolha, ao redor de nós.
02:07
Now, this is of course a topic of philosophical debate for centuries.
36
109000
4000
Bem, é claro que este tem sido um tópico de debates filosóficos por séculos.
02:11
But, for the first time, we can actually address this,
37
113000
3000
Mas, pela primeira vez, nós podemos realmente tratar isto,
02:14
with brain simulation,
38
116000
2000
através da simulação do cérebro,
02:16
and ask very systematic and rigorous questions,
39
118000
4000
e perguntar questões muito sistemáticas e rigorosas,
02:20
whether this theory could possibly be true.
40
122000
4000
se esta teoria pode mesmo ser verdadeira.
02:24
The reason why the moon is huge on the horizon
41
126000
3000
A razão pela qual a lua é enorme no horizonte
02:27
is simply because our perceptual bubble
42
129000
3000
é simplesmente porque nossa bolha de percepção
02:30
does not stretch out 380,000 kilometers.
43
132000
4000
não se estende até 380.000 quilômetros.
02:34
It runs out of space.
44
136000
2000
Ela fica sem espaço.
02:36
And so what we do is we compare the buildings
45
138000
4000
E então o que fazemos é comparar os prédios
02:40
within our perceptual bubble,
46
142000
2000
dentro da nossa bolha de percepção,
02:42
and we make a decision.
47
144000
2000
e daí tomamos uma decisão.
02:44
We make a decision it's that big,
48
146000
2000
Tomamos a decisão de que ela é grande assim,
02:46
even though it's not that big.
49
148000
2000
apesar dela não ser grande assim,
02:48
And what that illustrates
50
150000
2000
e o que isso ilustra
02:50
is that decisions are the key things
51
152000
2000
é que decisões são os elementos fundamentais
02:52
that support our perceptual bubble. It keeps it alive.
52
154000
5000
que sustentam nossa bolha de percepção. Elas a mantém viva.
02:57
Without decisions you cannot see, you cannot think,
53
159000
2000
Sem decisões você não pode ver, não pode pensar,
02:59
you cannot feel.
54
161000
2000
não pode sentir.
03:01
And you may think that anesthetics work
55
163000
2000
E você pode pensar que os anestésicos funcionam
03:03
by sending you into some deep sleep,
56
165000
3000
colocando você numa espécie de sono profundo,
03:06
or by blocking your receptors so that you don't feel pain,
57
168000
3000
o bloqueando seus receptores para você não sentir dor,
03:09
but in fact most anesthetics don't work that way.
58
171000
3000
mas na verdade a maioria dos anestésicos não funciona assim.
03:12
What they do is they introduce a noise
59
174000
3000
O que eles fazem é introduzir um ruído
03:15
into the brain so that the neurons cannot understand each other.
60
177000
3000
no cérebro de modo que os neurônios não se entendam entre eles.
03:18
They are confused,
61
180000
2000
Eles ficam confusos,
03:20
and you cannot make a decision.
62
182000
3000
e você não consegue tomar uma decisão.
03:23
So, while you're trying to make up your mind
63
185000
3000
Então, enquanto você está tentando decidir,
03:26
what the doctor, the surgeon, is doing
64
188000
2000
o que o médico, o cirurgião está fazendo
03:28
while he's hacking away at your body, he's long gone.
65
190000
2000
enquanto eles está cortando seu corpo, ele já foi embora.
03:30
He's at home having tea.
66
192000
2000
Ele está em casa tomando chá.
03:32
(Laughter)
67
194000
2000
(Risos)
03:34
So, when you walk up to a door and you open it,
68
196000
3000
Assim, quando você anda até a porta e a abre,
03:37
what you compulsively have to do to perceive
69
199000
3000
o que você compulsoriamente precisa fazer para perceber
03:40
is to make decisions,
70
202000
2000
é tomar decisões,
03:42
thousands of decisions about the size of the room,
71
204000
3000
milhares de decisões sobre o tamanho da sala,
03:45
the walls, the height, the objects in this room.
72
207000
3000
a parede, a altura, os objetos na sala.
03:48
99 percent of what you see
73
210000
3000
99 por cento do que você vê
03:51
is not what comes in through the eyes.
74
213000
4000
não é o que vem através dos olhos.
03:55
It is what you infer about that room.
75
217000
4000
é o que você infere a propósito daquela sala.
03:59
So I can say, with some certainty,
76
221000
4000
Portanto eu posso dizer, com alguma certeza,
04:03
"I think, therefore I am."
77
225000
3000
"Penso, logo existo."
04:06
But I cannot say, "You think, therefore you are,"
78
228000
4000
Mas não posso dizer, "Você pensa, logo você existe,"
04:10
because "you" are within my perceptual bubble.
79
232000
5000
porque você está dentro da minha bolha de percepção.
04:15
Now, we can speculate and philosophize this,
80
237000
3000
Pois bem, nós podemos especular e filosofar sobre isto,
04:18
but we don't actually have to for the next hundred years.
81
240000
3000
mas realmente não precisamos fazer isso pelos próximos cem anos.
04:21
We can ask a very concrete question.
82
243000
2000
Podemos fazer uma pergunta bem concreta.
04:23
"Can the brain build such a perception?"
83
245000
4000
"O cérebro é capaz de construir uma percepção como essa?"
04:27
Is it capable of doing it?
84
249000
2000
Ele é capaz de fazer isso?
04:29
Does it have the substance to do it?
85
251000
2000
Ele tem a substância para fazer isso?
04:31
And that's what I'm going to describe to you today.
86
253000
3000
E isso é o que vou descrever para vocês hoje.
04:34
So, it took the universe 11 billion years to build the brain.
87
256000
4000
Então, o universo precisou de 11 bilhões de anos para construir o cérebro.
04:38
It had to improve it a little bit.
88
260000
2000
Precisou melhorá-lo um bocado.
04:40
It had to add to the frontal part, so that you would have instincts,
89
262000
3000
Precisou aumentar a parte frontal, para que você tivesse instintos,
04:43
because they had to cope on land.
90
265000
3000
porque precisava se adaptar à vida na terra.
04:46
But the real big step was the neocortex.
91
268000
4000
Mas o verdadeiro grande passo foi o neocortex,
04:50
It's a new brain. You needed it.
92
272000
2000
É um novo cérebro. Você precisava dele.
04:52
The mammals needed it
93
274000
2000
Os mamíferos precisavam dele
04:54
because they had to cope with parenthood,
94
276000
4000
porque eles tinham que lidar com coisas como o cuidado da prole,
04:58
social interactions,
95
280000
2000
interações sociais,
05:00
complex cognitive functions.
96
282000
3000
funções cognitivas complexas.
05:03
So, you can think of the neocortex
97
285000
2000
Então, vocês podem pensar no neocortex
05:05
actually as the ultimate solution today,
98
287000
5000
realmente como a melhor solução hoje,
05:10
of the universe as we know it.
99
292000
3000
do universo como nós o conhecemos.
05:13
It's the pinnacle, it's the final product
100
295000
2000
É o ápice, é o produto final
05:15
that the universe has produced.
101
297000
4000
que o universo produziu.
05:19
It was so successful in evolution
102
301000
2000
Ele foi tão bem sucedido na evolução
05:21
that from mouse to man it expanded
103
303000
2000
que do camundongo ao homem ele se expandiu
05:23
about a thousandfold in terms of the numbers of neurons,
104
305000
3000
cerca de mil vezes, em termos de número de neurônios,
05:26
to produce this almost frightening
105
308000
3000
para produzir este quase assustador
05:29
organ, structure.
106
311000
3000
órgão, estrutura.
05:32
And it has not stopped its evolutionary path.
107
314000
3000
E ele não se deteve em seu caminho evolutivo.
05:35
In fact, the neocortex in the human brain
108
317000
2000
De fato, o neocortex do cérebro humano
05:37
is evolving at an enormous speed.
109
319000
3000
está evoluindo numa velocidade enorme.
05:40
If you zoom into the surface of the neocortex,
110
322000
2000
Se você der um "zoom" na superfície do neocortex,
05:42
you discover that it's made up of little modules,
111
324000
3000
você vai descobrir que ela é feita de pequenos módulos,
05:45
G5 processors, like in a computer.
112
327000
2000
processadores G5, como num computador.
05:47
But there are about a million of them.
113
329000
3000
Só que existe cerca de um milhão deles.
05:50
They were so successful in evolution
114
332000
2000
Eles foram tão bem sucedidos na evolução
05:52
that what we did was to duplicate them
115
334000
2000
que o que nós fizemos foi duplicá-los
05:54
over and over and add more and more of them to the brain
116
336000
2000
muitas e muitas vezes, e adicioná-los mais e mais ao cérebro
05:56
until we ran out of space in the skull.
117
338000
3000
até que ficamos sem espaço no crânio.
05:59
And the brain started to fold in on itself,
118
341000
2000
Então o cérebro começou a se dobrar sobre si mesmo,
06:01
and that's why the neocortex is so highly convoluted.
119
343000
3000
e é por isso que o neocortex tem tantas convoluções.
06:04
We're just packing in columns,
120
346000
2000
Nós estamos simplesmente adicionando colunas,
06:06
so that we'd have more neocortical columns
121
348000
3000
de modo que tenhamos mais colunas neocorticais
06:09
to perform more complex functions.
122
351000
3000
para executar funções mais complexas.
06:12
So you can think of the neocortex actually as
123
354000
2000
Assim, vocês podem pensar no neocortex atualmente como
06:14
a massive grand piano,
124
356000
2000
um enorme piano de cauda,
06:16
a million-key grand piano.
125
358000
3000
um piano de cauda com um milhão de teclas.
06:19
Each of these neocortical columns
126
361000
2000
Cada uma dessas colunas neocorticais
06:21
would produce a note.
127
363000
2000
produziria uma nota.
06:23
You stimulate it; it produces a symphony.
128
365000
3000
Quando você a estimula; ela produz uma sinfonia.
06:26
But it's not just a symphony of perception.
129
368000
3000
Mas não é apenas uma sinfonia da percepção.
06:29
It's a symphony of your universe, your reality.
130
371000
3000
É uma sinfonia do seu universo, da sua realidade.
06:32
Now, of course it takes years to learn how
131
374000
3000
Pois bem, é claro que levam anos para aprender como
06:35
to master a grand piano with a million keys.
132
377000
3000
tornar-se um mestre num piano com um milhão de notas.
06:38
That's why you have to send your kids to good schools,
133
380000
2000
É por isso que vocês precisam mandar suas crianças a boas escolas,
06:40
hopefully eventually to Oxford.
134
382000
2000
esperamos, quem sabe, a Oxford.
06:42
But it's not only education.
135
384000
3000
Mas isso não é só educação.
06:45
It's also genetics.
136
387000
2000
É também genética.
06:47
You may be born lucky,
137
389000
2000
Você pode ter nascido com sorte,
06:49
where you know how to master your neocortical column,
138
391000
4000
ou você sabe como dominar sua coluna neocortical,
06:53
and you can play a fantastic symphony.
139
395000
2000
e você pode tocar uma sinfonia fantástica.
06:55
In fact, there is a new theory of autism
140
397000
3000
De fato, existe uma nova teoria do autismo
06:58
called the "intense world" theory,
141
400000
2000
denominada teoria do "mundo intenso",
07:00
which suggests that the neocortical columns are super-columns.
142
402000
4000
a qual sugere que as colunas neocorticais são super-colunas.
07:04
They are highly reactive, and they are super-plastic,
143
406000
4000
Elas são extremamente reativas, e elas são super plásticas,
07:08
and so the autists are probably capable of
144
410000
3000
e por isso os autistas provavelmente são capazes de
07:11
building and learning a symphony
145
413000
2000
construir e aprender uma sinfonia
07:13
which is unthinkable for us.
146
415000
2000
que é inconcebível para nós.
07:15
But you can also understand
147
417000
2000
Mas você também é capaz de entender
07:17
that if you have a disease
148
419000
2000
que se você tem uma doença
07:19
within one of these columns,
149
421000
2000
em uma dessas colunas,
07:21
the note is going to be off.
150
423000
2000
essa nota vai estar desligada.
07:23
The perception, the symphony that you create
151
425000
2000
A percepção, a sinfonia que você cria
07:25
is going to be corrupted,
152
427000
2000
estará corrompida,
07:27
and you will have symptoms of disease.
153
429000
3000
e você terá sintomas de doença.
07:30
So, the Holy Grail for neuroscience
154
432000
4000
Assim, o santo graal da neurociência
07:34
is really to understand the design of the neocoritical column --
155
436000
4000
é, na verdade, entender o projeto da coluna neocortical --
07:38
and it's not just for neuroscience;
156
440000
2000
e isso não é apenas para a neurociência;
07:40
it's perhaps to understand perception, to understand reality,
157
442000
3000
é para talvez entender a percepção, entender a realidade,
07:43
and perhaps to even also understand physical reality.
158
445000
4000
e quem sabe até entender também a realidade física.
07:47
So, what we did was, for the past 15 years,
159
449000
3000
Assim, o que nós fizemos, durante os últimos 15 anos,
07:50
was to dissect out the neocortex, systematically.
160
452000
4000
foi dissecar o neocortex, sistematicamente.
07:54
It's a bit like going and cataloging a piece of the rainforest.
161
456000
4000
É meio parecido com estudar e catalogar um pedaço da floresta tropical.
07:58
How many trees does it have?
162
460000
2000
Quantas árvores ela tem?
08:00
What shapes are the trees?
163
462000
2000
De que forma são as árvores?
08:02
How many of each type of tree do you have? Where are they positioned?
164
464000
3000
Quantas árvores de cada tipo você tem? Onde elas estão localizadas?
08:05
But it's a bit more than cataloging because you actually have to
165
467000
2000
Mas é um pouco mais do que catalogar porque você precisa realmente
08:07
describe and discover all the rules of communication,
166
469000
4000
descrever e descobrir todas as regras de comunicação,
08:11
the rules of connectivity,
167
473000
2000
as regras de conectividade,
08:13
because the neurons don't just like to connect with any neuron.
168
475000
3000
porque os neurônios não gostam de conectar-se simplesmente com qualquer outro neurônio.
08:16
They choose very carefully who they connect with.
169
478000
3000
Eles escolhem muito cuidadosamente com quem se conectam.
08:19
It's also more than cataloging
170
481000
3000
Também é mais do que catalogar
08:22
because you actually have to build three-dimensional
171
484000
2000
porque você precisa construir
08:24
digital models of them.
172
486000
2000
modelos digitais tri-dimensionais deles.
08:26
And we did that for tens of thousands of neurons,
173
488000
2000
E nós fizemos isso para dezenas de milhares de neurônios,
08:28
built digital models of all the different types
174
490000
3000
construímos modelos digitais dos diferentes tipos
08:31
of neurons we came across.
175
493000
2000
de neurônios que nós encontramos.
08:33
And once you have that, you can actually
176
495000
2000
E uma vez que você tenha isso, você realmente pode
08:35
begin to build the neocortical column.
177
497000
4000
começar a construir a coluna neocortical.
08:39
And here we're coiling them up.
178
501000
3000
E aí nós as vamos enrolando e empilhando.
08:42
But as you do this, what you see
179
504000
3000
Mas quando você faz isso, o que você vê
08:45
is that the branches intersect
180
507000
2000
é que os ramos se interceptam
08:47
actually in millions of locations,
181
509000
3000
realmente em milhões de lugares
08:50
and at each of these intersections
182
512000
3000
e em cada uma dessas intersecções
08:53
they can form a synapse.
183
515000
2000
eles podem formar uma sinapse.
08:55
And a synapse is a chemical location
184
517000
2000
E uma sinapse é um local de interações químicas
08:57
where they communicate with each other.
185
519000
3000
onde eles se comunicam entre si.
09:00
And these synapses together
186
522000
2000
E essas sinapses juntas
09:02
form the network
187
524000
2000
formam a rede
09:04
or the circuit of the brain.
188
526000
3000
ou circuito do cérebro.
09:07
Now, the circuit, you could also think of as
189
529000
4000
Pois bem, esse circuito, você também pode pensar nele como
09:11
the fabric of the brain.
190
533000
2000
o tecido do cérebro.
09:13
And when you think of the fabric of the brain,
191
535000
3000
E quando você pensa no tecido do cérebro,
09:16
the structure, how is it built? What is the pattern of the carpet?
192
538000
4000
a estrutura, como ela é feita? Qual é o padrão da tapeçaria?
09:20
You realize that this poses
193
542000
2000
Vocês percebem que isto representa
09:22
a fundamental challenge to any theory of the brain,
194
544000
4000
um desafio fundamental para qualquer teoria do cérebro,
09:26
and especially to a theory that says
195
548000
2000
e especialmente para uma teoria que afirma
09:28
that there is some reality that emerges
196
550000
2000
que existe alguma realidade que emerge
09:30
out of this carpet, out of this particular carpet
197
552000
3000
a partir desta tapeçaria, a partir desta particular tapeçaria
09:33
with a particular pattern.
198
555000
2000
com um padrão específico.
09:35
The reason is because the most important design secret of the brain
199
557000
3000
O motivo é porque o mais importante segredo de projeto do cérebro
09:38
is diversity.
200
560000
2000
é diversidade.
09:40
Every neuron is different.
201
562000
2000
Cada neuronio é diferente.
09:42
It's the same in the forest. Every pine tree is different.
202
564000
2000
É o mesmo que na floresta. Cada pinheiro é diferente.
09:44
You may have many different types of trees,
203
566000
2000
Você pode ter muitos tipos diferentes de árvores,
09:46
but every pine tree is different. And in the brain it's the same.
204
568000
3000
mas cada pinheiro é diferente. E no cérebro é a mesma coisa.
09:49
So there is no neuron in my brain that is the same as another,
205
571000
3000
De modo que não existe nenhum neurônio no meu cérebro que seja o mesmo que outro,
09:52
and there is no neuron in my brain that is the same as in yours.
206
574000
3000
e não há nenhum neurônio no meu cérebro que seja o mesmo que o seu.
09:55
And your neurons are not going to be oriented and positioned
207
577000
3000
E os seus neurônios não vão estar orientados e posicionados
09:58
in exactly the same way.
208
580000
2000
exatamente da mesma maneira.
10:00
And you may have more or less neurons.
209
582000
2000
E você pode ter mais ou menos neurônios.
10:02
So it's very unlikely
210
584000
2000
Assim, é muito improvável
10:04
that you got the same fabric, the same circuitry.
211
586000
4000
que você tenha o mesmo tecido, os mesmos circuitos.
10:08
So, how could we possibly create a reality
212
590000
2000
Assim, como é possível que nós criemos uma realidade
10:10
that we can even understand each other?
213
592000
3000
de modo que possamos ao menos entendermos um ao outro?
10:13
Well, we don't have to speculate.
214
595000
2000
Bem, não precisamos especular.
10:15
We can look at all 10 million synapses now.
215
597000
3000
Nós podemos agora observar todos os 10 milhões de sinapses.
10:18
We can look at the fabric. And we can change neurons.
216
600000
3000
Nós podemos observar o tecido. E nós podemos mudar os neurônios.
10:21
We can use different neurons with different variations.
217
603000
2000
Podemos usar diferentes neurônios com diferentes variações.
10:23
We can position them in different places,
218
605000
2000
Podemos colocá-los em lugares diferentes,
10:25
orient them in different places.
219
607000
2000
orientá-los em posições diferentes.
10:27
We can use less or more of them.
220
609000
2000
Podemos usar um número maior ou menor deles.
10:29
And when we do that
221
611000
2000
E quando fazemos isso
10:31
what we discovered is that the circuitry does change.
222
613000
3000
o que descobrimos é que o circuito efetivamente muda.
10:34
But the pattern of how the circuitry is designed does not.
223
616000
7000
Mas o padrão de como o circuito é projetado não muda.
10:41
So, the fabric of the brain,
224
623000
2000
Assim, o tecido do cérebro,
10:43
even though your brain may be smaller, bigger,
225
625000
2000
mesmo que seu cérebro seja menor, maior,
10:45
it may have different types of neurons,
226
627000
3000
tenha diferentes tipos de neurônios,
10:48
different morphologies of neurons,
227
630000
2000
diferentes morfologias de neurônios,
10:50
we actually do share
228
632000
3000
nós realmente compartilhamos
10:53
the same fabric.
229
635000
2000
o mesmo tecido.
10:55
And we think this is species-specific,
230
637000
2000
E nós pensamos que isto é específico para cada espécie animal,
10:57
which means that that could explain
231
639000
2000
o que pode explicar
10:59
why we can't communicate across species.
232
641000
2000
porque não conseguimos nos comunicar entre espécies.
11:01
So, let's switch it on. But to do it, what you have to do
233
643000
3000
Então, vamos colocá-lo a funcionar. Mas para conseguir isso, o que você precisa
11:04
is you have to make this come alive.
234
646000
2000
é fazer que ele se torne vivo.
11:06
We make it come alive
235
648000
2000
Nós fazemos que ele se torne vivo
11:08
with equations, a lot of mathematics.
236
650000
2000
com equações, uma porção de matemática.
11:10
And, in fact, the equations that make neurons into electrical generators
237
652000
4000
E, de fato, as equações que mostram os neurônios como geradores elétricos
11:14
were discovered by two Cambridge Nobel Laureates.
238
656000
3000
foram descobertas por dois cientistas de Cambridge, contemplados com o Prêmio Nobel.
11:17
So, we have the mathematics to make neurons come alive.
239
659000
3000
Assim, nós temos a matemática para fazer os neurônios ganharem vida.
11:20
We also have the mathematics to describe
240
662000
2000
Também temos a matemática para descrever
11:22
how neurons collect information,
241
664000
3000
como os neurônios coletam informação,
11:25
and how they create a little lightning bolt
242
667000
3000
e como eles criam uma pequena faísca elétrica
11:28
to communicate with each other.
243
670000
2000
para se comunicarem um com o outro.
11:30
And when they get to the synapse,
244
672000
2000
E quando eles chegam à sinapse,
11:32
what they do is they effectively,
245
674000
2000
o que eles fazem é, efetivamente,
11:34
literally, shock the synapse.
246
676000
3000
literalmente, dar um choque na sinapse.
11:37
It's like electrical shock
247
679000
2000
É como um choque elétrico
11:39
that releases the chemicals from these synapses.
248
681000
3000
que libera as substâncias quìmicas dessas sinapses.
11:42
And we've got the mathematics to describe this process.
249
684000
3000
E nós temos a matemática para descrever este processo.
11:45
So we can describe the communication between the neurons.
250
687000
4000
Assim nós somos capazes de descrever a comunicação entre os neurônios.
11:49
There literally are only a handful
251
691000
3000
Existe literalmente apenas um punhado
11:52
of equations that you need to simulate
252
694000
2000
de equações que você precisa para simular
11:54
the activity of the neocortex.
253
696000
2000
a atividade do neocortex.
11:56
But what you do need is a very big computer.
254
698000
3000
Mas o que você precisa mesmo é um computador muito grande.
11:59
And in fact you need one laptop
255
701000
2000
De fato você precisa um laptop
12:01
to do all the calculations just for one neuron.
256
703000
3000
para fazer todos os cálculos para um único neurônio.
12:04
So you need 10,000 laptops.
257
706000
2000
Portanto você precisa 10.000 laptops.
12:06
So where do you go? You go to IBM,
258
708000
2000
Assim, para onde você vai? Você vai para a IBM,
12:08
and you get a supercomputer, because they know how to take
259
710000
2000
e consegue um supercomputador, porque eles precisaram pegar
12:10
10,000 laptops and put it into the size of a refrigerator.
260
712000
4000
10.000 laptops e colocá-los no tamanho de uma geladeira.
12:14
So now we have this Blue Gene supercomputer.
261
716000
3000
Assim nós ficamos com este supercomputador Blue Gene.
12:17
We can load up all the neurons,
262
719000
2000
Nós carregamos nele todos os neurônios,
12:19
each one on to its processor,
263
721000
2000
cada um em seu processador,
12:21
and fire it up, and see what happens.
264
723000
4000
e o ativamos, para ver o que acontece.
12:25
Take the magic carpet for a ride.
265
727000
3000
Tome o tapete mágico para um passeio.
12:28
Here we activate it. And this gives the first glimpse
266
730000
3000
Aqui nós o ativamos. E isto nos dá um primeiro vislumbre
12:31
of what is happening in your brain
267
733000
2000
do que está acontecendo no seu cérebro
12:33
when there is a stimulation.
268
735000
2000
quando há uma estimulação.
12:35
It's the first view.
269
737000
2000
É a primeira visão.
12:37
Now, when you look at that the first time, you think,
270
739000
2000
Pois bem, quando você olha para isso pela primeira vez, você pensa,
12:39
"My god. How is reality coming out of that?"
271
741000
5000
"Meu deus. Como é que a realidade está saindo disso aí?"
12:44
But, in fact, you can start,
272
746000
3000
Mas, na verdade, você pode começar,
12:47
even though we haven't trained this neocortical column
273
749000
4000
mesmo que ainda não tenhamos treinado esta coluna neocortical
12:51
to create a specific reality.
274
753000
2000
a criar uma realidade específica.
12:53
But we can ask, "Where is the rose?"
275
755000
4000
Mas nós podemos perguntar, "Onde está a rosa?"
12:57
We can ask, "Where is it inside,
276
759000
2000
Podemos perguntar, "Onde ela está aí dentro,
12:59
if we stimulate it with a picture?"
277
761000
3000
se nós a estimulamos com uma imagem?"
13:02
Where is it inside the neocortex?
278
764000
2000
Onde está ela no interior do neocortex?
13:04
Ultimately it's got to be there if we stimulated it with it.
279
766000
4000
Afinal ela tem que estar nele se nós o estimulamos com isso.
13:08
So, the way that we can look at that
280
770000
2000
Daí, o modo como podemos ver isso
13:10
is to ignore the neurons, ignore the synapses,
281
772000
3000
é ignorar os neurônios, ignorar as sinapses,
13:13
and look just at the raw electrical activity.
282
775000
2000
e observar apenas a crua atividade elétrica.
13:15
Because that is what it's creating.
283
777000
2000
Porque isso é o que ela está criando.
13:17
It's creating electrical patterns.
284
779000
2000
Ela está criando padrões elétricos.
13:19
So when we did this,
285
781000
2000
Então, quando fizemos isso,
13:21
we indeed, for the first time,
286
783000
2000
finalmente, pela primeira vez,
13:23
saw these ghost-like structures:
287
785000
3000
vimos estas estruturas fantasmagóricas:
13:26
electrical objects appearing
288
788000
3000
objetos elétricos aparecendo
13:29
within the neocortical column.
289
791000
3000
dentro da coluna neocortical.
13:32
And it's these electrical objects
290
794000
3000
E são estes objetos elétricos
13:35
that are holding all the information about
291
797000
3000
que estão guardando toda a informação sobre
13:38
whatever stimulated it.
292
800000
3000
o que o estimulou.
13:41
And then when we zoomed into this,
293
803000
2000
E quando damos um zoom nisto,
13:43
it's like a veritable universe.
294
805000
4000
é como um verdadeiro universo.
13:47
So the next step
295
809000
2000
Assim, o próximo passo
13:49
is just to take these brain coordinates
296
811000
4000
é simplesmente tomar essas coordenadas do cérebro
13:53
and to project them into perceptual space.
297
815000
4000
e projetá-las no espaço de percepção.
13:57
And if you do that,
298
819000
2000
E se você fizer isso,
13:59
you will be able to step inside
299
821000
2000
será capaz de penetrar no interior
14:01
the reality that is created
300
823000
2000
da realidade que é criada
14:03
by this machine,
301
825000
2000
por esta máquina,
14:05
by this piece of the brain.
302
827000
3000
por este pedaço de cérebro.
14:08
So, in summary,
303
830000
2000
Assim, resumindo,
14:10
I think that the universe may have --
304
832000
2000
Eu penso que o universo pode ter --
14:12
it's possible --
305
834000
2000
é possível --
14:14
evolved a brain to see itself,
306
836000
3000
evoluído um cérebro para ver a si mesmo,
14:17
which may be a first step in becoming aware of itself.
307
839000
5000
o que pode ser o primeiro passo para tornar-se consciente de si mesmo.
14:22
There is a lot more to do to test these theories,
308
844000
2000
Muito ainda resta a ser feito para verificar estas histórias,
14:24
and to test any other theories.
309
846000
3000
e testar quaisquer outras teorias.
14:27
But I hope that you are at least partly convinced
310
849000
3000
Mas espero que vocês estejam pelo menos parcialmente convencidos
14:30
that it is not impossible to build a brain.
311
852000
3000
de que não é impossível construir um cérebro.
14:33
We can do it within 10 years,
312
855000
2000
Nós somos capazes de fazê-lo num prazo de 10 anos,
14:35
and if we do succeed,
313
857000
2000
e se formos bem sucedidos,
14:37
we will send to TED, in 10 years,
314
859000
2000
enviaremos ao TED, daqui a 10 anos,
14:39
a hologram to talk to you. Thank you.
315
861000
3000
um holograma para falar com vocês. Muito obrigado.
14:42
(Applause)
316
864000
6000
(Aplausos)
Translated by Durval Castro
Reviewed by Denise Bem David

▲Back to top

ABOUT THE SPEAKER
Henry Markram - Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time.

Why you should listen

In the microscopic, yet-uncharted circuitry of the cortex, Henry Markram is perhaps the most ambitious -- and our most promising -- frontiersman. Backed by the extraordinary power of the IBM Blue Gene supercomputing architecture, which can perform hundreds of trillions of calculations per second, he's using complex models to precisely simulate the neocortical column (and its tens of millions of neural connections) in 3D.

Though the aim of Blue Brain research is mainly biomedical, it has been edging up on some deep, contentious philosophical questions about the mind -- "Can a robot think?" and "Can consciousness be reduced to mechanical components?" -- the consequence of which Markram is well aware: Asked by Seed Magazine what a simulation of a full brain might do, he answered, "Everything. I mean everything" -- with a grin.

Now, with a successful proof-of-concept for simulation in hand (the project's first phase was completed in 2007), Markram is looking toward a future where brains might be modeled even down to the molecular and genetic level. Computing power marching rightward and up along the graph of Moore's Law, Markram is sure to be at the forefront as answers to the mysteries of cognition emerge.

More profile about the speaker
Henry Markram | Speaker | TED.com