ABOUT THE SPEAKER
Henry Markram - Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time.

Why you should listen

In the microscopic, yet-uncharted circuitry of the cortex, Henry Markram is perhaps the most ambitious -- and our most promising -- frontiersman. Backed by the extraordinary power of the IBM Blue Gene supercomputing architecture, which can perform hundreds of trillions of calculations per second, he's using complex models to precisely simulate the neocortical column (and its tens of millions of neural connections) in 3D.

Though the aim of Blue Brain research is mainly biomedical, it has been edging up on some deep, contentious philosophical questions about the mind -- "Can a robot think?" and "Can consciousness be reduced to mechanical components?" -- the consequence of which Markram is well aware: Asked by Seed Magazine what a simulation of a full brain might do, he answered, "Everything. I mean everything" -- with a grin.

Now, with a successful proof-of-concept for simulation in hand (the project's first phase was completed in 2007), Markram is looking toward a future where brains might be modeled even down to the molecular and genetic level. Computing power marching rightward and up along the graph of Moore's Law, Markram is sure to be at the forefront as answers to the mysteries of cognition emerge.

More profile about the speaker
Henry Markram | Speaker | TED.com
TEDGlobal 2009

Henry Markram: A brain in a supercomputer

Heny Markram ndërton një tru në një superkompjuter

Filmed:
1,469,354 views

Henry Markram mendon që të fshehtat e mendjes mund të zgjidhen së shpejti. Sëmundjet mendore, kujtesa, perceptimi: janë përbërë nga neurone dhe sinjale elektrike.Henry planifikon të gjej keto neurone me anën e nje superkompjuteri që modelon të gjitha 100,000,000,000,000 synapset e trurit.
- Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time. Full bio

Double-click the English transcript below to play the video.

00:18
Our mission is to build
0
0
3000
Qëllimi ynë është të ndërtojmë
00:21
a detailed, realistic
1
3000
2000
një realitet të detajuar,
00:23
computer model of the human brain.
2
5000
2000
një model kompjuterik të trurit njerëzor.
00:25
And we've done, in the past four years,
3
7000
3000
Ne kemi bërë, në katër vitet e kaluara,
00:28
a proof of concept
4
10000
2000
një provë koncepti,
00:30
on a small part of the rodent brain,
5
12000
3000
në një pjesë të vogël të trurit të miut,
00:33
and with this proof of concept we are now scaling the project up
6
15000
3000
dhe me anën e kësaj prove koncepti ne po e rrisim projektin disa shkallë më lartë
00:36
to reach the human brain.
7
18000
3000
për të arritur trurin njerëzor.
00:39
Why are we doing this?
8
21000
2000
Përse po e bëjmë këtë?
00:41
There are three important reasons.
9
23000
2000
Ekzistojnë tre arsye kryesore.
00:43
The first is, it's essential for us to understand the human brain
10
25000
4000
Fillimisht, është shumë e nevojshme për ne të kuptojmë trurin e njeriut
00:47
if we do want to get along in society,
11
29000
2000
nëse duam që të ecim në shoqëri,
00:49
and I think that it is a key step in evolution.
12
31000
4000
dhe une mendoj që ky është çelësi për një hap përpara në zhvillimin njerëzor.
00:53
The second reason is,
13
35000
2000
Arsyeja e dytë është
00:55
we cannot keep doing animal experimentation forever,
14
37000
6000
që, ne nuk mund të vazhdojmë duke bërë eksperimente me kafshët gjithmonë,
01:01
and we have to embody all our data and all our knowledge
15
43000
4000
edhe ne duhet të personifikojmë të gjithë informacionin dhe diturinë tonë,
01:05
into a working model.
16
47000
3000
në një model pune.
01:08
It's like a Noah's Ark. It's like an archive.
17
50000
4000
Eshtë e njëjta gjë si Varka e Nohas. Eshtë si një arkiv.
01:12
And the third reason is that there are two billion people on the planet
18
54000
3000
Arsyeja e tretë është ajo që dy billion njerëz në planet
01:15
that are affected by mental disorder,
19
57000
4000
që janë prekur nga çrregullime mendore
01:19
and the drugs that are used today
20
61000
2000
dhe nga ilaçet që përdoren sot
01:21
are largely empirical.
21
63000
2000
janë të një shkalle gjigande.
01:23
I think that we can come up with very concrete solutions on
22
65000
3000
Mendoj që ne mund të shprehim një zgjedhje konkrete për
01:26
how to treat disorders.
23
68000
3000
trajtimin e këtyre çrregullimeve.
01:29
Now, even at this stage,
24
71000
3000
Edhe në këtë shkallë,
01:32
we can use the brain model
25
74000
2000
ne mund të përdorim trurin si model
01:34
to explore some fundamental questions
26
76000
3000
për të zbuluar disa pyetje themelore
01:37
about how the brain works.
27
79000
2000
në lidhje me fuksionimin e trurit.
01:39
And here, at TED, for the first time,
28
81000
2000
Këtu, tek TED, për herë të parë,
01:41
I'd like to share with you how we're addressing
29
83000
2000
do të dëshiroja të ndaja me ju paraqitjen
01:43
one theory -- there are many theories --
30
85000
3000
e një teorie -- janë shumë teori --
01:46
one theory of how the brain works.
31
88000
4000
një teorie qe tregon se si truri fuksionon.
01:50
So, this theory is that the brain
32
92000
4000
Kjo teori tregon, se si truri
01:54
creates, builds, a version of the universe,
33
96000
6000
krijon, ndërton, një version të universit
02:00
and projects this version of the universe,
34
102000
3000
dhe e pasqyron këtë version të universit,
02:03
like a bubble, all around us.
35
105000
4000
si një flluskë, përreth nesh.
02:07
Now, this is of course a topic of philosophical debate for centuries.
36
109000
4000
Sigurisht, ky është një objekt diskutimi filozofik për shekuj me radhë.
02:11
But, for the first time, we can actually address this,
37
113000
3000
Për herë të parë, në të vërtetë ne mundet që ta adresojmë këtë,
02:14
with brain simulation,
38
116000
2000
me anën e stimulimit të trurit
02:16
and ask very systematic and rigorous questions,
39
118000
4000
dhe të bëjmë vetëm pyetje sistematike dhe të sakta,
02:20
whether this theory could possibly be true.
40
122000
4000
nëse kjo teori mund të jetë e vërtetë.
02:24
The reason why the moon is huge on the horizon
41
126000
3000
Arsyeja përse hëna duket e madhe në horizont
02:27
is simply because our perceptual bubble
42
129000
3000
është thjesht sepse flluska jonë e perceptimit
02:30
does not stretch out 380,000 kilometers.
43
132000
4000
nuk shtrihet më shumë se 380,000 kilometra.
02:34
It runs out of space.
44
136000
2000
Nuk ka më hapësirë.
02:36
And so what we do is we compare the buildings
45
138000
4000
Ajo që ne bëjmë është krahasimi i pallatit
02:40
within our perceptual bubble,
46
142000
2000
me flluskën tonë të perceptimit,
02:42
and we make a decision.
47
144000
2000
për të arritur në marrjen e një vendimi.
02:44
We make a decision it's that big,
48
146000
2000
Marrim një vendim nëse është aq e madhe,
02:46
even though it's not that big.
49
148000
2000
edhe pse nuk është në të vërtetë.
02:48
And what that illustrates
50
150000
2000
Ajo që dua të paraqes është
02:50
is that decisions are the key things
51
152000
2000
që, vendimet janë gjëja kyçe
02:52
that support our perceptual bubble. It keeps it alive.
52
154000
5000
që suporton flluskën tonë perceptuese. E mban gjallë.
02:57
Without decisions you cannot see, you cannot think,
53
159000
2000
Pa vendime ju nuk mund të shikoni, nuk mund të mendoni,
02:59
you cannot feel.
54
161000
2000
nuk mund të ndjeni.
03:01
And you may think that anesthetics work
55
163000
2000
Ju mund të mendoni që serumi e kryen fuksionin
03:03
by sending you into some deep sleep,
56
165000
3000
duke ju vënë në gjum të thellë,
03:06
or by blocking your receptors so that you don't feel pain,
57
168000
3000
ose duke bllokuar receptorët e trurit për mos të ndjerë dhimbje,
03:09
but in fact most anesthetics don't work that way.
58
171000
3000
por në të vërtetë shumica e serumeve nuk fuksionojnë në këtë lloj mënyre.
03:12
What they do is they introduce a noise
59
174000
3000
Ajo që serumi bën, është depërtimi i një zhurme
03:15
into the brain so that the neurons cannot understand each other.
60
177000
3000
brenda në tru për arsyen që neuronet mos të arrijnë të kuptojnë njëri tjetrin.
03:18
They are confused,
61
180000
2000
ato bëhen konfuze,
03:20
and you cannot make a decision.
62
182000
3000
për rrjedhojë ju nuk mund të merrni një vendim.
03:23
So, while you're trying to make up your mind
63
185000
3000
Pra, kur ju përpiqeni të merrni një vendim,
03:26
what the doctor, the surgeon, is doing
64
188000
2000
se çfarë kirurgu po bën
03:28
while he's hacking away at your body, he's long gone.
65
190000
2000
gjatë kohës që ai po operon trupin tuaj, jeni tepë vonë! Ai është larguar prej kohësh.
03:30
He's at home having tea.
66
192000
2000
Ai është në shtëpi duke pirë çaj.
03:32
(Laughter)
67
194000
2000
(Të qeshura)
03:34
So, when you walk up to a door and you open it,
68
196000
3000
Kur ju ecni drejt derës dhe e hapni,
03:37
what you compulsively have to do to perceive
69
199000
3000
ajo që ana konpulsive duhet të bëj është
03:40
is to make decisions,
70
202000
2000
të marri vendime,
03:42
thousands of decisions about the size of the room,
71
204000
3000
mijëra vendime lidhur me përmasën e dhomës,
03:45
the walls, the height, the objects in this room.
72
207000
3000
murin, lartësinë, objektet në dhomë.
03:48
99 percent of what you see
73
210000
3000
99 % e asaj që shikoni
03:51
is not what comes in through the eyes.
74
213000
4000
nuk është ajo që hyn nëpërmjet syve tuaj.
03:55
It is what you infer about that room.
75
217000
4000
Eshtë ajo çfarë ju mendoni për atë dhomë.
03:59
So I can say, with some certainty,
76
221000
4000
Pra, unë mund të them me një farë sigurie:
04:03
"I think, therefore I am."
77
225000
3000
" Mendoj, për rrjedhojë ekzistoj."
04:06
But I cannot say, "You think, therefore you are,"
78
228000
4000
Por nuk mund të them, " Ti mendon, për rrjedhojë ti ekziston."
04:10
because "you" are within my perceptual bubble.
79
232000
5000
sepse "Ti" je nëpërmjet flluskës time të perceptimit.
04:15
Now, we can speculate and philosophize this,
80
237000
3000
Sot, ne mund të spekulojmë dhe filozofojmë pë këtë gjë,
04:18
but we don't actually have to for the next hundred years.
81
240000
3000
por në të vërtetë nuk do të bëhet në 100 vitet e ardhshme.
04:21
We can ask a very concrete question.
82
243000
2000
Ne mund të bëjmë një pyetje konkrete.
04:23
"Can the brain build such a perception?"
83
245000
4000
" A mundet që truri të ndërtojë një perceptim të tillë?"
04:27
Is it capable of doing it?
84
249000
2000
Eshtë i aftë për ta bërë këtë gjë?
04:29
Does it have the substance to do it?
85
251000
2000
E ka substancën për ta bërë?
04:31
And that's what I'm going to describe to you today.
86
253000
3000
Pra, ja çfarë do t'ju përshkruaj sot këtu.
04:34
So, it took the universe 11 billion years to build the brain.
87
256000
4000
Universit ju desh 11 bilion vite që të ndërtoj trurin.
04:38
It had to improve it a little bit.
88
260000
2000
I është dashur të përmirësohet pakëz.
04:40
It had to add to the frontal part, so that you would have instincts,
89
262000
3000
I është dashur të shtoj lobin ballor, që ju mund të keni instikte,
04:43
because they had to cope on land.
90
265000
3000
sepse ju është dashur që të bashkëjetojnë në tokë.
04:46
But the real big step was the neocortex.
91
268000
4000
Por gjëja kryesore ishte neorkorteksi.
04:50
It's a new brain. You needed it.
92
272000
2000
Eshtë një tru i rinovuar.Ju nevojitet.
04:52
The mammals needed it
93
274000
2000
Vertebrorët e kishin të nevojshëm
04:54
because they had to cope with parenthood,
94
276000
4000
sepse do tju duhej të bashkëjetonin me familjarë,
04:58
social interactions,
95
280000
2000
efekt të dyanshëm social,
05:00
complex cognitive functions.
96
282000
3000
fuksione të komplikuara vetëdijëse.
05:03
So, you can think of the neocortex
97
285000
2000
Pra, ju mund të mendoni për neokorteksin
05:05
actually as the ultimate solution today,
98
287000
5000
si një zgjidhje e fundme për të sotshmen,
05:10
of the universe as we know it.
99
292000
3000
në lidhje me universin, ashtu si e perceptojmë ne.
05:13
It's the pinnacle, it's the final product
100
295000
2000
është kyçi i gjërave, është produkti final
05:15
that the universe has produced.
101
297000
4000
që universi ka prodhuar.
05:19
It was so successful in evolution
102
301000
2000
Ka qenë kaq i suksesshëm në evolucion
05:21
that from mouse to man it expanded
103
303000
2000
saqë nga miu në njeri truri u zgjerua
05:23
about a thousandfold in terms of the numbers of neurons,
104
305000
3000
përafërsisht njëmijë rrudhje në lidhje me numrin e neuroneve,
05:26
to produce this almost frightening
105
308000
3000
për të prodhuar këtë strukturë organi
05:29
organ, structure.
106
311000
3000
gati frikësuese.
05:32
And it has not stopped its evolutionary path.
107
314000
3000
Ky hap i zhvillimit nuk ka ndaluar aspak.
05:35
In fact, the neocortex in the human brain
108
317000
2000
Në fakt, neokortekset e trurit njerëzor
05:37
is evolving at an enormous speed.
109
319000
3000
po zhvillohen me një shpejtësi marramendëse.
05:40
If you zoom into the surface of the neocortex,
110
322000
2000
Në qoftë se zmadhojmë në sipërfaqen e neokorteksit,
05:42
you discover that it's made up of little modules,
111
324000
3000
do zbulojmë se është e përbërë me module të vegjël,
05:45
G5 processors, like in a computer.
112
327000
2000
G5 proçesorë, si në një kompjuter,
05:47
But there are about a million of them.
113
329000
3000
por këtu ndodhen afërsisht një milion prej tyre.
05:50
They were so successful in evolution
114
332000
2000
Evolucioni ishte kaq i suksesshëm
05:52
that what we did was to duplicate them
115
334000
2000
saqë ajo që bëmë ne, ishte ti dyfishonim ato
05:54
over and over and add more and more of them to the brain
116
336000
2000
shumë dhe më shumë dhe ti shtonim më shumë trurit
05:56
until we ran out of space in the skull.
117
338000
3000
derisa na mbaroi hapësira në kafkë.
05:59
And the brain started to fold in on itself,
118
341000
2000
Atëherë truri filloi të rrudhosej në vetvete,
06:01
and that's why the neocortex is so highly convoluted.
119
343000
3000
dhe kjo është arsyeja përse neokorteksi është kaq shumë i përdredhur.
06:04
We're just packing in columns,
120
346000
2000
Ne vetëm po paketojmë në radhë,
06:06
so that we'd have more neocortical columns
121
348000
3000
që mund të kemi më shumë radhë neokorteksesh
06:09
to perform more complex functions.
122
351000
3000
për të kryer fuksione më të komplikuara.
06:12
So you can think of the neocortex actually as
123
354000
2000
Mendoni për një neokorteks si një
06:14
a massive grand piano,
124
356000
2000
piano gjigande,
06:16
a million-key grand piano.
125
358000
3000
me një milion tastiera.
06:19
Each of these neocortical columns
126
361000
2000
Secila nga këto radhë neokorteksesh
06:21
would produce a note.
127
363000
2000
prodhon një notë,
06:23
You stimulate it; it produces a symphony.
128
365000
3000
në qoftë se e stimuloni; prodhon një simfoni.
06:26
But it's not just a symphony of perception.
129
368000
3000
Por nuk është vetëm një simfoni perceptimi.
06:29
It's a symphony of your universe, your reality.
130
371000
3000
Eshtë një simfoni e universit tuaj, e realitetit tuaj.
06:32
Now, of course it takes years to learn how
131
374000
3000
Sigurisht, do duhen vite për të mësuar
06:35
to master a grand piano with a million keys.
132
377000
3000
në mënyrë perfekte një piano gjigande me një milion tastiera.
06:38
That's why you have to send your kids to good schools,
133
380000
2000
Kjo është arsyeja përse ju duhet ti regjistroni fëmijët tuaj ne shkolla te mira,
06:40
hopefully eventually to Oxford.
134
382000
2000
nëse keni fat, mbase në Oksfort.
06:42
But it's not only education.
135
384000
3000
Por nuk është vetëm edukacioni.
06:45
It's also genetics.
136
387000
2000
Eshtë edhe ana gjenetike.
06:47
You may be born lucky,
137
389000
2000
Ju mund të jeni i lindur me fat,
06:49
where you know how to master your neocortical column,
138
391000
4000
ose e dini se si të perfeksiononi radhët tuaja neokortike
06:53
and you can play a fantastic symphony.
139
395000
2000
dhe ju mund të luani një simfoni fantastike.
06:55
In fact, there is a new theory of autism
140
397000
3000
në fakt, ekziston një teori autizmi
06:58
called the "intense world" theory,
141
400000
2000
e quajtur " botë e dendur",
07:00
which suggests that the neocortical columns are super-columns.
142
402000
4000
e cila sugjeron që radhët neokortike janë super të radhitura.
07:04
They are highly reactive, and they are super-plastic,
143
406000
4000
Ato janë shumë reaguese dhe super plastike,
07:08
and so the autists are probably capable of
144
410000
3000
për rrjedhojë autistët janë mbase në gjendje që
07:11
building and learning a symphony
145
413000
2000
të ndërtojnë dhe të mësojnë një simfoni
07:13
which is unthinkable for us.
146
415000
2000
e cila është e pamenduar prej nesh.
07:15
But you can also understand
147
417000
2000
Gjithashtu ju duhet të kuptoni
07:17
that if you have a disease
148
419000
2000
nëqoftëse keni një sëmundje
07:19
within one of these columns,
149
421000
2000
në njërën prej këtyre kolonave,
07:21
the note is going to be off.
150
423000
2000
nota do të stonojë.
07:23
The perception, the symphony that you create
151
425000
2000
Perceptimi, simfonia që ju krijuat
07:25
is going to be corrupted,
152
427000
2000
do të jetë e korruptuar,
07:27
and you will have symptoms of disease.
153
429000
3000
për pasojë ju do të keni siptoma sëmundjeje.
07:30
So, the Holy Grail for neuroscience
154
432000
4000
Pra, gjetja e shenjtë për shkencën e neuroneve
07:34
is really to understand the design of the neocoritical column --
155
436000
4000
është të kuptojë skemën e radhëve (kolonave) neorkotekse --
07:38
and it's not just for neuroscience;
156
440000
2000
dhe nuk është vetëm për shkencën e neuroneve;
07:40
it's perhaps to understand perception, to understand reality,
157
442000
3000
është për të kuptuar ndoshta perceptimin, të kuptojmë realitetin,
07:43
and perhaps to even also understand physical reality.
158
445000
4000
ndoshta gjithashtu të kuptojmë realitetin fizik.
07:47
So, what we did was, for the past 15 years,
159
449000
3000
Ajo që bëmë ne në 15 vitet e kaluara,
07:50
was to dissect out the neocortex, systematically.
160
452000
4000
ishte që të ndanim neokortekset sistematikisht.
07:54
It's a bit like going and cataloging a piece of the rainforest.
161
456000
4000
Eshtë njësoj sikur të shkosh dhe katalogosh një pjesë të pyllit.
07:58
How many trees does it have?
162
460000
2000
Sa pemë mund të ketë?
08:00
What shapes are the trees?
163
462000
2000
Si mund të jetë forma e tyre?
08:02
How many of each type of tree do you have? Where are they positioned?
164
464000
3000
Sa llojëshe janë? Ku janë pozicionuar?
08:05
But it's a bit more than cataloging because you actually have to
165
467000
2000
Në fakt është pak më shumë se sa e kataloguar sepse në të vërtetë ju
08:07
describe and discover all the rules of communication,
166
469000
4000
përshkruani dhe zbuloni të gjitha rregullat e komunikimit,
08:11
the rules of connectivity,
167
473000
2000
rregullat e lidhjes,
08:13
because the neurons don't just like to connect with any neuron.
168
475000
3000
sepse neuronet nuk pëlqejnë të lidhen me çdo neuron.
08:16
They choose very carefully who they connect with.
169
478000
3000
Neuronet zgjedhin me shumë kujdes se me cilin të lidhen.
08:19
It's also more than cataloging
170
481000
3000
Eshtë më shumë se të ndërtosh një katalog,
08:22
because you actually have to build three-dimensional
171
484000
2000
sepse aktualisht ju duhet të ndërtoni modele
08:24
digital models of them.
172
486000
2000
dixhitale 3 dimensionale të tyre.
08:26
And we did that for tens of thousands of neurons,
173
488000
2000
Ne e kryem këtë për dhjetra dhe mijëra neurone,
08:28
built digital models of all the different types
174
490000
3000
ndërtuam modele dixhitale të shumë llojeve të ndryshme
08:31
of neurons we came across.
175
493000
2000
neuronesh
08:33
And once you have that, you can actually
176
495000
2000
Vetëm atëherë kur ju mund ta keni atë gje,
08:35
begin to build the neocortical column.
177
497000
4000
mund të filloni së ndërtuari kolonën e neuroneve.
08:39
And here we're coiling them up.
178
501000
3000
Ja ku po i perzjejmë së bashku.
08:42
But as you do this, what you see
179
504000
3000
Duke bërë këtë gjë, ajo që shikoni
08:45
is that the branches intersect
180
507000
2000
janë degët që kryqëzohen
08:47
actually in millions of locations,
181
509000
3000
aktualisht në një milion vende të ndryshme.
08:50
and at each of these intersections
182
512000
3000
Në secilën prej këtyre kryqëzimeve
08:53
they can form a synapse.
183
515000
2000
ato mund të formojnë një sinaps.
08:55
And a synapse is a chemical location
184
517000
2000
Sinapsi është një zonë kimike
08:57
where they communicate with each other.
185
519000
3000
në të cilën ato komunikojnë me njëra tjetrën.
09:00
And these synapses together
186
522000
2000
Së bashku sinapset
09:02
form the network
187
524000
2000
formojnë rrjetin
09:04
or the circuit of the brain.
188
526000
3000
ose qarkun e trurit.
09:07
Now, the circuit, you could also think of as
189
529000
4000
Qarkun mund ta mendoni ndryshe si një
09:11
the fabric of the brain.
190
533000
2000
shtresë rrobe për trurin.
09:13
And when you think of the fabric of the brain,
191
535000
3000
Kur ju mendoni për shtresën e rrobës së trurit,
09:16
the structure, how is it built? What is the pattern of the carpet?
192
538000
4000
për strukturën, se si është ndërtuar? Cilat janë gjurmët e shtresës?
09:20
You realize that this poses
193
542000
2000
Realizoni që kjo paraqet
09:22
a fundamental challenge to any theory of the brain,
194
544000
4000
një sfidë rrënjësore të çdo teorie për trurin,
09:26
and especially to a theory that says
195
548000
2000
në veçanti një teori e cila thotë
09:28
that there is some reality that emerges
196
550000
2000
që aty është një lloj realiteti që lind
09:30
out of this carpet, out of this particular carpet
197
552000
3000
prej kësaj shtrese, kësaj shtrese në veçanti
09:33
with a particular pattern.
198
555000
2000
me një gjurmë të veçantë.
09:35
The reason is because the most important design secret of the brain
199
557000
3000
Arsyeja është sepse skica më e rëndësishme sekrete për trurin
09:38
is diversity.
200
560000
2000
është jo njëllojshmëria.
09:40
Every neuron is different.
201
562000
2000
Secili neuron është i ndryshëm.
09:42
It's the same in the forest. Every pine tree is different.
202
564000
2000
E njëjta gjë është edhe me pemët e pyllit. Cdo pishë është jo e njëjtë.
09:44
You may have many different types of trees,
203
566000
2000
Ju mund të keni shumë lloje të ndryshme pemësh,
09:46
but every pine tree is different. And in the brain it's the same.
204
568000
3000
por secila pemë pishe është jo e njëjtë. Në trurin tonë është e njëjta gjë.
09:49
So there is no neuron in my brain that is the same as another,
205
571000
3000
Pra, në trurin tim nuk ka asnjë neuron të ngjashëm me njëri tjetrin,
09:52
and there is no neuron in my brain that is the same as in yours.
206
574000
3000
gjithashtu, nuk ka asnjë neuron në trurin tim që është i ngjashëm me tuajin.
09:55
And your neurons are not going to be oriented and positioned
207
577000
3000
Neuronet tuaj nuk do të jenë të orientuar dhe pozicionuar
09:58
in exactly the same way.
208
580000
2000
ekzakt në të njëjtën mënyrë.
10:00
And you may have more or less neurons.
209
582000
2000
Ju mund të keni më shumë ose më pak neurone.
10:02
So it's very unlikely
210
584000
2000
Pra, ka të ngjarë
10:04
that you got the same fabric, the same circuitry.
211
586000
4000
që ju keni të njëjtën sipërfaqe, të njëjtin qark.
10:08
So, how could we possibly create a reality
212
590000
2000
Pra, si mundet që ne mundësisht të krijojmë një realitet
10:10
that we can even understand each other?
213
592000
3000
në të cilin do të mund të kuptojmë njëri tjetrin?
10:13
Well, we don't have to speculate.
214
595000
2000
Ne nuk duhet të spekullojmë me këtë gjë.
10:15
We can look at all 10 million synapses now.
215
597000
3000
Ne tani mund të shikojmë 10 milion sinapse.
10:18
We can look at the fabric. And we can change neurons.
216
600000
3000
Mund të shikojmë në sipërfaqen e rrobës dhe mund të ndërrojmë neuronet.
10:21
We can use different neurons with different variations.
217
603000
2000
Mund të kombinojmë neurone të ndryshme në variacione të ndryshme.
10:23
We can position them in different places,
218
605000
2000
Mund ti pozicionojmë ato në vende të ndryshme,
10:25
orient them in different places.
219
607000
2000
ti orientojmë ato në vende të ndryshme.
10:27
We can use less or more of them.
220
609000
2000
Ne mund të përdorim më pak ose më shumë prej tyre
10:29
And when we do that
221
611000
2000
dhe pasi e bejmë këtë gjë
10:31
what we discovered is that the circuitry does change.
222
613000
3000
ajo që zbulojmë është që qarku ndryshon gjithashtu,
10:34
But the pattern of how the circuitry is designed does not.
223
616000
7000
por gjurmët në të cilat qarku është formuar nuk ndryshon.
10:41
So, the fabric of the brain,
224
623000
2000
Pra, shtresa e trurit,
10:43
even though your brain may be smaller, bigger,
225
625000
2000
edhe pse truri juaj mund të jetë më i vogël ose më i madh,
10:45
it may have different types of neurons,
226
627000
3000
mund të ketë lloje të ndryshme neuronesh,
10:48
different morphologies of neurons,
227
630000
2000
lloje të ndryshme morfologjike neuronesh,
10:50
we actually do share
228
632000
3000
gjithashtu ne ndajmë
10:53
the same fabric.
229
635000
2000
të njëjtën shtresë.
10:55
And we think this is species-specific,
230
637000
2000
Për këtë arsye ne mendojmë që kjo është specifike për specie të ndryshme,
10:57
which means that that could explain
231
639000
2000
gjë e cila jep arsyen përse
10:59
why we can't communicate across species.
232
641000
2000
ne nuk mund të komunikojmë me specie të tjera.
11:01
So, let's switch it on. But to do it, what you have to do
233
643000
3000
Pra, le të fillojmë punën. Por për të bërë këtë gjë, ajo që ju duhet të bëni
11:04
is you have to make this come alive.
234
646000
2000
është kthimi i kesaj ideje në reaitet.
11:06
We make it come alive
235
648000
2000
Ne e kthejmë në realitet
11:08
with equations, a lot of mathematics.
236
650000
2000
me ekuacione, me shumë matematikë.
11:10
And, in fact, the equations that make neurons into electrical generators
237
652000
4000
Në fakt, ekuacionet që kthejnë neuronet në gjenerator elektrik
11:14
were discovered by two Cambridge Nobel Laureates.
238
656000
3000
janë zbuluar nga dy titullar të Kenbridxh Nobel.
11:17
So, we have the mathematics to make neurons come alive.
239
659000
3000
Pra, ne kemi matematikën që të sjellim neuronet në jetë.
11:20
We also have the mathematics to describe
240
662000
2000
Gjithashtu kemi matematikën për të përshkruar
11:22
how neurons collect information,
241
664000
3000
se si neuronet mbledhin informacion
11:25
and how they create a little lightning bolt
242
667000
3000
dhe se si ato krijojnë një shkëndijë drite të vogël
11:28
to communicate with each other.
243
670000
2000
për të komunikuar me njëri tjetrin.
11:30
And when they get to the synapse,
244
672000
2000
Kur shkëndijat arrijnë tek kryqëzimet (sinapset),
11:32
what they do is they effectively,
245
674000
2000
ajo që ndodh është se efektivisht,
11:34
literally, shock the synapse.
246
676000
3000
trondit sinapset.
11:37
It's like electrical shock
247
679000
2000
Eshtë si një dridhje korenti
11:39
that releases the chemicals from these synapses.
248
681000
3000
dridhje e cila lëshon përbërje kimike nga këto sinapse.
11:42
And we've got the mathematics to describe this process.
249
684000
3000
Për këtë gjë ne kemi matematikën, për ta përshkruar këtë proçes.
11:45
So we can describe the communication between the neurons.
250
687000
4000
Pra, ne mund të shpjegojmë komunikimin midis neuroneve.
11:49
There literally are only a handful
251
691000
3000
Faktikisht janë vetëm disa
11:52
of equations that you need to simulate
252
694000
2000
ekuacione që duhen për të stimuluar
11:54
the activity of the neocortex.
253
696000
2000
aktivitetin e neokortekseve.
11:56
But what you do need is a very big computer.
254
698000
3000
Ajo që duhet në të vërtetë është një kompjuter gjigand.
11:59
And in fact you need one laptop
255
701000
2000
Në fakt ju duhet një laptop
12:01
to do all the calculations just for one neuron.
256
703000
3000
për të bërë të gjitha llogaritjet vetëm për një neuron.
12:04
So you need 10,000 laptops.
257
706000
2000
Pra ju duhen 10, 000 laptop.
12:06
So where do you go? You go to IBM,
258
708000
2000
Ku duhet shkuar për këtë gjë? Shkojmë tek IBM,
12:08
and you get a supercomputer, because they know how to take
259
710000
2000
dhe atje marrim një superkompjuter, sepse ata e dinë se si të marrin
12:10
10,000 laptops and put it into the size of a refrigerator.
260
712000
4000
10,000 laptops dhe ti fusin në një sipërfaqe frigoriferi.
12:14
So now we have this Blue Gene supercomputer.
261
716000
3000
Tani kemi këtë Blue Gene superkompjuter.
12:17
We can load up all the neurons,
262
719000
2000
Mund të ngarkojmë të gjitha neuronet,
12:19
each one on to its processor,
263
721000
2000
secilin prej tyre brenda këtij proçesori,
12:21
and fire it up, and see what happens.
264
723000
4000
pastaj e ndezim dhe shikojmë se çfarë ndodh.
12:25
Take the magic carpet for a ride.
265
727000
3000
Merrni tapetin magjik për një xhiro.
12:28
Here we activate it. And this gives the first glimpse
266
730000
3000
Ja ku po e aktivizojmë. Kjo na jep gjurmën e parë për të parë
12:31
of what is happening in your brain
267
733000
2000
se çfarë po ndodh në trurin tuaj
12:33
when there is a stimulation.
268
735000
2000
kur aty gjendet një stimulator.
12:35
It's the first view.
269
737000
2000
Eshtë pamja fillestare.
12:37
Now, when you look at that the first time, you think,
270
739000
2000
Kur ju e shikoni për herë të parë, mendoni,
12:39
"My god. How is reality coming out of that?"
271
741000
5000
"Zot i madh. Si mundet që një realitet të dali prej kësaj gjeje?"
12:44
But, in fact, you can start,
272
746000
3000
Por në fakt, ju mund të filloni,
12:47
even though we haven't trained this neocortical column
273
749000
4000
edhe pse nuk e kemi trajnuar këtë kolonë me neurone
12:51
to create a specific reality.
274
753000
2000
për të krijuar një realitet specifik.
12:53
But we can ask, "Where is the rose?"
275
755000
4000
Por ne mund të pyesim, "Ku është trëndafili?"
12:57
We can ask, "Where is it inside,
276
759000
2000
Ne mund te pyesim, "Ku ndodhet brenda nese
12:59
if we stimulate it with a picture?"
277
761000
3000
e stimulojmë me një fotografi?"
13:02
Where is it inside the neocortex?
278
764000
2000
Ku ndodhet brenda neokorteksit?
13:04
Ultimately it's got to be there if we stimulated it with it.
279
766000
4000
Në fund të fundit duhet të jetë aty nëse e stimulojmë.
13:08
So, the way that we can look at that
280
770000
2000
Pra, mënyra që ne mund ta shikojmë atë gjë
13:10
is to ignore the neurons, ignore the synapses,
281
772000
3000
është të injorojmë neuronet, injorojmë sinapset,
13:13
and look just at the raw electrical activity.
282
775000
2000
dhe të shikojmë radhën e aktivitetit elektrik.
13:15
Because that is what it's creating.
283
777000
2000
Sepse ajo është çfarë po krijohet.
13:17
It's creating electrical patterns.
284
779000
2000
Krijohen gjurmë elektrike.
13:19
So when we did this,
285
781000
2000
Kur e bëmë këtë gjë,
13:21
we indeed, for the first time,
286
783000
2000
për herë të parë,
13:23
saw these ghost-like structures:
287
785000
3000
vështruam këto struktura fantazmë:
13:26
electrical objects appearing
288
788000
3000
objekte elektrike të shfaqura
13:29
within the neocortical column.
289
791000
3000
ne kolonën e neuroneve.
13:32
And it's these electrical objects
290
794000
3000
Janë këto objekte elektrike
13:35
that are holding all the information about
291
797000
3000
që e mbajnë informacionin në lidhje me
13:38
whatever stimulated it.
292
800000
3000
atë që i stimuloi.
13:41
And then when we zoomed into this,
293
803000
2000
Kur ne zmadhuam në brendësinë e saj
13:43
it's like a veritable universe.
294
805000
4000
u perballëm me një univers variacionesh.
13:47
So the next step
295
809000
2000
Hapi tjetër është
13:49
is just to take these brain coordinates
296
811000
4000
thjesht për të marrë këto koordinata të trurit
13:53
and to project them into perceptual space.
297
815000
4000
dhe ti projektojmë nëpër një hapësirë perceptimi.
13:57
And if you do that,
298
819000
2000
Nëse e bëni këtë gjë,
13:59
you will be able to step inside
299
821000
2000
do të jeni në gjendje të hyni brenda
14:01
the reality that is created
300
823000
2000
këtij realiteti që është krijuar
14:03
by this machine,
301
825000
2000
nga kjo makinë,
14:05
by this piece of the brain.
302
827000
3000
nga kjo pjesë e trurit.
14:08
So, in summary,
303
830000
2000
Pra, në përgjithësi,
14:10
I think that the universe may have --
304
832000
2000
mendoj që universi mund të ketë --
14:12
it's possible --
305
834000
2000
mundësisht --
14:14
evolved a brain to see itself,
306
836000
3000
evoluar një tru që të shikoj vetveten,
14:17
which may be a first step in becoming aware of itself.
307
839000
5000
i cili mund të jetë hapi i parë për tu bërë i vetëdijshëm për vetveten.
14:22
There is a lot more to do to test these theories,
308
844000
2000
Eshtë për tu bërë akoma shumë punë për të vërtetuar këto teori,
14:24
and to test any other theories.
309
846000
3000
dhe çfardo teorie tjetër.
14:27
But I hope that you are at least partly convinced
310
849000
3000
Shpresoj që ju të paktën jeni pak a shumë të bindur
14:30
that it is not impossible to build a brain.
311
852000
3000
që nuk është e pamundur për të ndërtuar një tru.
14:33
We can do it within 10 years,
312
855000
2000
Ne mund ta bëjmë brenda 10 viteve
14:35
and if we do succeed,
313
857000
2000
dhe nëse arrijmë në sukses,
14:37
we will send to TED, in 10 years,
314
859000
2000
do ti dërgojmë TED, mbas 10 vitesh,
14:39
a hologram to talk to you. Thank you.
315
861000
3000
një hologram për të biseduar me ju. Faleminderit.
14:42
(Applause)
316
864000
6000
(Duartrokitje)
Translated by Jeronim De Rada
Reviewed by rafaelo casta

▲Back to top

ABOUT THE SPEAKER
Henry Markram - Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time.

Why you should listen

In the microscopic, yet-uncharted circuitry of the cortex, Henry Markram is perhaps the most ambitious -- and our most promising -- frontiersman. Backed by the extraordinary power of the IBM Blue Gene supercomputing architecture, which can perform hundreds of trillions of calculations per second, he's using complex models to precisely simulate the neocortical column (and its tens of millions of neural connections) in 3D.

Though the aim of Blue Brain research is mainly biomedical, it has been edging up on some deep, contentious philosophical questions about the mind -- "Can a robot think?" and "Can consciousness be reduced to mechanical components?" -- the consequence of which Markram is well aware: Asked by Seed Magazine what a simulation of a full brain might do, he answered, "Everything. I mean everything" -- with a grin.

Now, with a successful proof-of-concept for simulation in hand (the project's first phase was completed in 2007), Markram is looking toward a future where brains might be modeled even down to the molecular and genetic level. Computing power marching rightward and up along the graph of Moore's Law, Markram is sure to be at the forefront as answers to the mysteries of cognition emerge.

More profile about the speaker
Henry Markram | Speaker | TED.com