ABOUT THE SPEAKER
Henry Markram - Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time.

Why you should listen

In the microscopic, yet-uncharted circuitry of the cortex, Henry Markram is perhaps the most ambitious -- and our most promising -- frontiersman. Backed by the extraordinary power of the IBM Blue Gene supercomputing architecture, which can perform hundreds of trillions of calculations per second, he's using complex models to precisely simulate the neocortical column (and its tens of millions of neural connections) in 3D.

Though the aim of Blue Brain research is mainly biomedical, it has been edging up on some deep, contentious philosophical questions about the mind -- "Can a robot think?" and "Can consciousness be reduced to mechanical components?" -- the consequence of which Markram is well aware: Asked by Seed Magazine what a simulation of a full brain might do, he answered, "Everything. I mean everything" -- with a grin.

Now, with a successful proof-of-concept for simulation in hand (the project's first phase was completed in 2007), Markram is looking toward a future where brains might be modeled even down to the molecular and genetic level. Computing power marching rightward and up along the graph of Moore's Law, Markram is sure to be at the forefront as answers to the mysteries of cognition emerge.

More profile about the speaker
Henry Markram | Speaker | TED.com
TEDGlobal 2009

Henry Markram: A brain in a supercomputer

Henry Markram construiește un creier într-un supercomputer

Filmed:
1,469,354 views

Henry Markram susține că misterele minții pot fi explicate -- curând. Boli mentale, memorie, percepție: toate sunt formate din neuroni și semnale electrice, iar el iși propune să le descopere cu ajutorul unui supercomputer care să modeleze cele 100.000.000.000.000 de sinapse ale creierului.
- Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time. Full bio

Double-click the English transcript below to play the video.

00:18
Our missionmisiune is to buildconstrui
0
0
3000
Țelul nostru este să construim
00:21
a detaileddetaliate, realisticrealist
1
3000
2000
un model computațional
00:23
computercomputer modelmodel of the humanuman braincreier.
2
5000
2000
detaliat și realistic al creierului uman.
00:25
And we'vene-am doneTerminat, in the pasttrecut fourpatru yearsani,
3
7000
3000
Și noi am realizat în ultimii patru ani
00:28
a proofdovadă of conceptconcept
4
10000
2000
o demonstrație de principiu
00:30
on a smallmic partparte of the rodentrozătoare braincreier,
5
12000
3000
pe o mică parte a unui creier de rozător,
00:33
and with this proofdovadă of conceptconcept we are now scalingscalare the projectproiect up
6
15000
3000
iar acum, bazându-ne pe această demonstrație, amplificăm proiectul
00:36
to reacha ajunge the humanuman braincreier.
7
18000
3000
pentru a ajunge la creierul uman.
00:39
Why are we doing this?
8
21000
2000
De ce facem asta?
00:41
There are threeTrei importantimportant reasonsmotive.
9
23000
2000
Sunt trei motive importante.
00:43
The first is, it's essentialesenţial for us to understanda intelege the humanuman braincreier
10
25000
4000
Primul este faptul că este esențial pentru noi să înțelegem creierul uman
00:47
if we do want to get alongde-a lungul in societysocietate,
11
29000
2000
dacă vrem să ne mai înțelegem ca societate,
00:49
and I think that it is a keycheie stepEtapa in evolutionevoluţie.
12
31000
4000
și cred de asemenea că acesta este un pas cheie în evoluție.
00:53
The secondal doilea reasonmotiv is,
13
35000
2000
Al doilea motiv este,
00:55
we cannotnu poti keep doing animalanimal experimentationExperimentarea foreverpentru totdeauna,
14
37000
6000
că nu putem continua să experimentăm pe animale la nesfârșit,
01:01
and we have to embodyîntruchipa all our datadate and all our knowledgecunoştinţe
15
43000
4000
și că trebuie să incorporăm datele și cunoștințele noastre,
01:05
into a workinglucru modelmodel.
16
47000
3000
într-un model care să funcționeze.
01:08
It's like a Noah'sArca lui Noe ArkArca. It's like an archiveArhiva.
17
50000
4000
Este ca un fel de Arcă a lui Noe. Este ca o arhivă.
01:12
And the thirdal treilea reasonmotiv is that there are two billionmiliard people on the planetplanetă
18
54000
3000
Și al treilea motiv este că există două miliarde de oameni pe planetă
01:15
that are affectedafectat by mentalmental disordertulburare,
19
57000
4000
care sunt afectați de boli mentale,
01:19
and the drugsdroguri that are used todayastăzi
20
61000
2000
în condițiile în care medicamentele folosite în prezent
01:21
are largelyîn mare măsură empiricalempirice.
21
63000
2000
sunt în mare măsură empirice.
01:23
I think that we can come up with very concretebeton solutionssoluţii on
22
65000
3000
Cred că putem veni cu o soluție cât se poate de concretă despre
01:26
how to treattrata disordersTulburări.
23
68000
3000
cum să tratăm aceste boli.
01:29
Now, even at this stageetapă,
24
71000
3000
Acum, chiar și în stadiul acesta,
01:32
we can use the braincreier modelmodel
25
74000
2000
putem folosi modelul de creier
01:34
to exploreexplora some fundamentalfundamental questionsîntrebări
26
76000
3000
pentru a explora întrebări fundamentale
01:37
about how the braincreier workslucrări.
27
79000
2000
despre cum funcționează creierul.
01:39
And here, at TEDTED, for the first time,
28
81000
2000
Și aici, la TED, pentru prima dată,
01:41
I'd like to shareacțiune with you how we're addressingabordarea
29
83000
2000
aș vrea să împărtășesc cu voi modul în care adresăm
01:43
one theoryteorie -- there are manymulți theoriesteorii --
30
85000
3000
o teorie -- de fapt sunt mai multe teorii --
01:46
one theoryteorie of how the braincreier workslucrări.
31
88000
4000
o teorie despre cum funcționează creierul.
01:50
So, this theoryteorie is that the braincreier
32
92000
4000
Deci, conform acestei teorii creierul
01:54
createscreează, buildsconstruiește, a versionversiune of the universeunivers,
33
96000
6000
crează, construiește, o versiune a universului.
02:00
and projectsproiecte this versionversiune of the universeunivers,
34
102000
3000
Și proiectează această versiune a universului,
02:03
like a bubblebalon, all around us.
35
105000
4000
precum un balon, în jurul nostru.
02:07
Now, this is of coursecurs a topicsubiect of philosophicalfilozofic debatedezbate for centuriessecole.
36
109000
4000
Ori, aceasta este desigur o temă a dezbaterilor filozofice de secole.
02:11
But, for the first time, we can actuallyde fapt addressadresa this,
37
113000
3000
Dar, pentru prima dată, noi putem să o abordam cu adevarat,
02:14
with braincreier simulationsimulare,
38
116000
2000
cu ajutorul simulării creierului,
02:16
and askcere very systematicsistematică and rigorousriguros questionsîntrebări,
39
118000
4000
și să punem întrebări în mod sistematic și riguros,
02:20
whetherdacă this theoryteorie could possiblyeventual be trueAdevărat.
40
122000
4000
și să investigăm dacă această teorie poate fi adevărată.
02:24
The reasonmotiv why the moonlună is hugeimens on the horizonorizont
41
126000
3000
Motivul pentru care Luna este enorma la orizont
02:27
is simplypur şi simplu because our perceptualperceptive bubblebalon
42
129000
3000
este pur și simplu pentru că balonul nostru perceptual
02:30
does not stretchîntinde out 380,000 kilometerskilometri.
43
132000
4000
nu se extinde 380.000 km.
02:34
It runsruleaza out of spacespaţiu.
44
136000
2000
Nu are atât spațiu.
02:36
And so what we do is we comparecomparaţie the buildingsclădiri
45
138000
4000
Și ce facem de fapt este să comparăm clădirile
02:40
withinîn our perceptualperceptive bubblebalon,
46
142000
2000
din interiorul balonului nostru perceptual,
02:42
and we make a decisiondecizie.
47
144000
2000
și luăm o decizie.
02:44
We make a decisiondecizie it's that bigmare,
48
146000
2000
Noi luăm decizia că e atât de mare,
02:46
even thoughdeşi it's not that bigmare.
49
148000
2000
chiar dacă în realitate nu e într-atât de mare,
02:48
And what that illustratesilustrează
50
150000
2000
și ceea ce demonstrează asta
02:50
is that decisionsdeciziile are the keycheie things
51
152000
2000
este că deciziile sunt elementele esențiale
02:52
that supporta sustine our perceptualperceptive bubblebalon. It keepspăstrează it aliveîn viaţă.
52
154000
5000
care suportă balonul nostru perceptual. Îl mențin viu.
02:57
WithoutFără decisionsdeciziile you cannotnu poti see, you cannotnu poti think,
53
159000
2000
Fără decizii nu poți vedea, nu poți gândi,
02:59
you cannotnu poti feel.
54
161000
2000
nu poți simți.
03:01
And you mayMai think that anestheticsanestezice work
55
163000
2000
Și ați putea crede că anestezicele funcționează
03:03
by sendingtrimitere you into some deepadâncime sleepdormi,
56
165000
3000
prin a vă induce un somn adânc,
03:06
or by blockingblocarea your receptorsreceptorii so that you don't feel paindurere,
57
168000
3000
sau prin blocarea receptorilor astfel încât să nu mai simțiți durerea,
03:09
but in factfapt mostcel mai anestheticsanestezice don't work that way.
58
171000
3000
dar de fapt majoritatea anestezicelor nu funcționează așa.
03:12
What they do is they introduceintroduce a noisezgomot
59
174000
3000
Ceea ce fac de fapt este să inducă un bruiaj
03:15
into the braincreier so that the neuronsneuroni cannotnu poti understanda intelege eachfiecare other.
60
177000
3000
în creier astfel încât neuronii să nu se mai înțeleagă între ei.
03:18
They are confusedconfuz,
61
180000
2000
Sunt derutați,
03:20
and you cannotnu poti make a decisiondecizie.
62
182000
3000
iar dvs. nu mai puteți lua decizii.
03:23
So, while you're tryingîncercat to make up your mindminte
63
185000
3000
Astfel, în timp ce încercați să vă hotărâți,
03:26
what the doctordoctor, the surgeonchirurg, is doing
64
188000
2000
asupra a ceea ce doctorul, chirurgul face
03:28
while he's hackingtocat away at your bodycorp, he's long goneplecat.
65
190000
2000
în timp ce va hăcuiește corpul, el este deja plecat demult.
03:30
He's at home havingavând teaceai.
66
192000
2000
Este acasă bânduși ceaiul.
03:32
(LaughterRâs)
67
194000
2000
(râsete)
03:34
So, when you walkmers pe jos up to a dooruşă and you opendeschis it,
68
196000
3000
Deci, când ajungeți la o ușă și o deschideți,
03:37
what you compulsivelycompulsiv have to do to perceivepercep
69
199000
3000
ceea ce trebuie sa faceți în mod reflex ca să percepeți
03:40
is to make decisionsdeciziile,
70
202000
2000
este să luați decizii,
03:42
thousandsmii of decisionsdeciziile about the sizemărimea of the roomcameră,
71
204000
3000
mii de decizii privind mărimea camerei,
03:45
the wallspereți, the heightînălţime, the objectsobiecte in this roomcameră.
72
207000
3000
peretele, înălțimea, obiectele din acestă cameră.
03:48
99 percentla sută of what you see
73
210000
3000
99% din ceea ce vedeți
03:51
is not what comesvine in throughprin the eyesochi.
74
213000
4000
nu este ceea ce vine prin ochi.
03:55
It is what you inferdeduce about that roomcameră.
75
217000
4000
Este ceea ce deduceți despre acea cameră.
03:59
So I can say, with some certaintycertitudine,
76
221000
4000
Deci pot spune, cu o oarecare siguranță,
04:03
"I think, thereforeprin urmare I am."
77
225000
3000
"Gândesc, deci exist."
04:06
But I cannotnu poti say, "You think, thereforeprin urmare you are,"
78
228000
4000
Dar nu pot spune "Gândești, deci exiști"
04:10
because "you" are withinîn my perceptualperceptive bubblebalon.
79
232000
5000
pentru că ești în limitele balonului meu perceptual.
04:15
Now, we can speculatespecula and philosophizefilozofa this,
80
237000
3000
Acum, putem specula și filozofa asta,
04:18
but we don't actuallyde fapt have to for the nextUrmător → hundredsută yearsani.
81
240000
3000
dar nu va trebui să o facem și pentru următorii o sută de ani.
04:21
We can askcere a very concretebeton questionîntrebare.
82
243000
2000
Putem pune o întrebare foarte concretă.
04:23
"Can the braincreier buildconstrui suchastfel de a perceptionpercepţie?"
83
245000
4000
"Poate creierul să construiască o asemenea percepție?"
04:27
Is it capablecapabil of doing it?
84
249000
2000
Este capabil să o facă?
04:29
Does it have the substancesubstanţă to do it?
85
251000
2000
Are conținutul necesar pentru a o face?
04:31
And that's what I'm going to describedescrie to you todayastăzi.
86
253000
3000
Si asta este ceea ce vă voi descrie astăzi.
04:34
So, it tooka luat the universeunivers 11 billionmiliard yearsani to buildconstrui the braincreier.
87
256000
4000
Deci, universului i-au trebuit 11 miliarde de ani pentru a construi creierul.
04:38
It had to improveîmbunătăţi it a little bitpic.
88
260000
2000
A trebuit să il îmbunătățească un pic.
04:40
It had to addadăuga to the frontalfrontal partparte, so that you would have instinctsinstincte,
89
262000
3000
A trebuit să îi adauge partea frontala, astfel încât să aibă instincte,
04:43
because they had to copeface față on landteren.
90
265000
3000
pentru că a trebuit să se descurce pe uscat.
04:46
But the realreal bigmare stepEtapa was the neocortexneocortex.
91
268000
4000
Dar adevăratul pas mare a fost neocortexul.
04:50
It's a newnou braincreier. You neededNecesar it.
92
272000
2000
Este un nou creier. Aveați nevoie de el.
04:52
The mammalsmamifere neededNecesar it
93
274000
2000
Mamiferele aveau nevoie de el.
04:54
because they had to copeface față with parenthoodPărinte,
94
276000
4000
pentru a face față parentalității,
04:58
socialsocial interactionsinteracțiuni,
95
280000
2000
interacțiunilor sociale,
05:00
complexcomplex cognitivecognitiv functionsfuncții.
96
282000
3000
funcțiilor cognitive complexe.
05:03
So, you can think of the neocortexneocortex
97
285000
2000
Deci puteți privi neocortexul
05:05
actuallyde fapt as the ultimatefinal solutionsoluţie todayastăzi,
98
287000
5000
de fapt ca soluția ultimă astăzi,
05:10
of the universeunivers as we know it.
99
292000
3000
a universului așa cum îl cunoaștem.
05:13
It's the pinnaclebelvedere, it's the finalfinal productprodus
100
295000
2000
Este apogeul, este produsul final
05:15
that the universeunivers has producedprodus.
101
297000
4000
pe care l-a produs universul.
05:19
It was so successfulde succes in evolutionevoluţie
102
301000
2000
A avut un succes atât de mare în evoluție
05:21
that from mousemouse to man it expandedextins
103
303000
2000
încât de la șoarece la om s-a extins
05:23
about a thousandfoldthousandfold in termstermeni of the numbersnumerele of neuronsneuroni,
104
305000
3000
de aproape o mie de ori ca număr de neuroni,
05:26
to producelegume şi fructe this almostaproape frighteningînfricoşător
105
308000
3000
pentru a produce acest înfricoșător
05:29
organorgan, structurestructura.
106
311000
3000
organ, sau structură.
05:32
And it has not stoppedoprit its evolutionaryevolutiv pathcale.
107
314000
3000
Și nu s-a oprit din evoluția sa.
05:35
In factfapt, the neocortexneocortex in the humanuman braincreier
108
317000
2000
De fapt, neocortexul creierului uman
05:37
is evolvingevoluție at an enormousenorm speedviteză.
109
319000
3000
evoluează cu o viteza enormă.
05:40
If you zoomzoom into the surfacesuprafaţă of the neocortexneocortex,
110
322000
2000
Dacă vă apropiați de suprafața neocortexului,
05:42
you discoverdescoperi that it's madefăcut up of little modulesmodule,
111
324000
3000
veți descoperi că e alcătuită din mici module,
05:45
G5 processorsprocesoare, like in a computercomputer.
112
327000
2000
procesoare G5, ca într-un computer.
05:47
But there are about a millionmilion of them.
113
329000
3000
Numai că sunt aproape un milion dintr-acestea.
05:50
They were so successfulde succes in evolutionevoluţie
114
332000
2000
Au avut așa un succes în evoluție
05:52
that what we did was to duplicateduplicat them
115
334000
2000
încât ce am făcut a fost să îi multiplicăm
05:54
over and over and addadăuga more and more of them to the braincreier
116
336000
2000
iar și iar și să adăugăm și mai multe dintr-acestea în creier.
05:56
untilpana cand we rana fugit out of spacespaţiu in the skullcraniu.
117
338000
3000
până când am rămas fără spațiu în craniu.
05:59
And the braincreier starteda început to foldplia in on itselfîn sine,
118
341000
2000
Și creierul a început să se plieze peste el însuși,
06:01
and that's why the neocortexneocortex is so highlyextrem de convolutedcomplicate.
119
343000
3000
și iată de ce neocortexul are atâtea circumvoluțiuni.
06:04
We're just packingambalare in columnscoloane,
120
346000
2000
Îngrămădim în coloane,
06:06
so that we'dne-am have more neocorticalneocortical columnscoloane
121
348000
3000
astfel încât având mai multe coloane neocorticale,
06:09
to performa executa more complexcomplex functionsfuncții.
122
351000
3000
să executăm funcții și mai complexe.
06:12
So you can think of the neocortexneocortex actuallyde fapt as
123
354000
2000
Deci puteți privi neocortexul de fapt ca pe
06:14
a massivemasiv grandmare pianopian,
124
356000
2000
un mare pian,
06:16
a million-keymilioane-cheie grandmare pianopian.
125
358000
3000
un pian cu un milion de clape.
06:19
EachFiecare of these neocorticalneocortical columnscoloane
126
361000
2000
Fiecare din aceste coloane neocorticale
06:21
would producelegume şi fructe a noteNotă.
127
363000
2000
ar produce o nota.
06:23
You stimulatestimula it; it producesproduce a symphonySimfonia.
128
365000
3000
Îl stimulați; el va produce o simfonie.
06:26
But it's not just a symphonySimfonia of perceptionpercepţie.
129
368000
3000
Dar nu este doar o simfonie a percepției.
06:29
It's a symphonySimfonia of your universeunivers, your realityrealitate.
130
371000
3000
Este o simfonie a universului vostru, realitatea voastră.
06:32
Now, of coursecurs it takes yearsani to learnînvăța how
131
374000
3000
Or, desigur va lua mulți ani până vom învăța cum
06:35
to mastermaestru a grandmare pianopian with a millionmilion keyschei.
132
377000
3000
să stăpînim un pian cu un milion de clape.
06:38
That's why you have to sendtrimite your kidscopii to good schoolsșcoli,
133
380000
2000
De aceea trebuie să vă trimiteți copiii la școli bune,
06:40
hopefullyin speranta eventuallyîn cele din urmă to OxfordOxford.
134
382000
2000
de sperat ca într-un final chiar la Oxford.
06:42
But it's not only educationeducaţie.
135
384000
3000
Dar nu este doar educație.
06:45
It's alsode asemenea geneticsgenetică.
136
387000
2000
Este totodată genetică.
06:47
You mayMai be bornnăscut luckynorocos,
137
389000
2000
Puteți fi născuți norocoși,
06:49
where you know how to mastermaestru your neocorticalneocortical columncoloană,
138
391000
4000
și să știți cum să folosiți columnele neocortexului,
06:53
and you can playa juca a fantasticfantastic symphonySimfonia.
139
395000
2000
și să cântați o simfonie fantastică.
06:55
In factfapt, there is a newnou theoryteorie of autismautismul
140
397000
3000
De fapt, există o nouă teorie a autismului
06:58
calleddenumit the "intenseintens worldlume" theoryteorie,
141
400000
2000
numita teoria "lumii intense",
07:00
whichcare suggestssugerează that the neocorticalneocortical columnscoloane are super-columnsSuper-coloane.
142
402000
4000
care sugerează că în neocortex columnele ar fi super-columne.
07:04
They are highlyextrem de reactivereactive, and they are super-plasticSuper-plastic,
143
406000
4000
Ele sunt foarte reactive, și sunt super-plastice,
07:08
and so the autistsautism are probablyprobabil capablecapabil of
144
410000
3000
și astfel autiștii sunt capabili probabil de
07:11
buildingclădire and learningînvăţare a symphonySimfonia
145
413000
2000
construirea și învățarea unei simfonii
07:13
whichcare is unthinkablede necrezut for us.
146
415000
2000
de neimaginat pentru noi.
07:15
But you can alsode asemenea understanda intelege
147
417000
2000
Dar puteți înțelege de asemenea că
07:17
that if you have a diseaseboală
148
419000
2000
dacă aveți o boală
07:19
withinîn one of these columnscoloane,
149
421000
2000
în una din aceste coloane,
07:21
the noteNotă is going to be off.
150
423000
2000
nota va fi falsă.
07:23
The perceptionpercepţie, the symphonySimfonia that you createcrea
151
425000
2000
Percepția, simfonia pe care o creați
07:25
is going to be corruptedstricat,
152
427000
2000
va fi coruptă,
07:27
and you will have symptomssimptome of diseaseboală.
153
429000
3000
și veți avea simptome de boală.
07:30
So, the HolySfânt GrailGraal for neuroscienceneurostiintele
154
432000
4000
Deci, Sfântul Graal al neuroștiințelor
07:34
is really to understanda intelege the designproiecta of the neocoriticalneocoritical columncoloană --
155
436000
4000
este de fapt înțelegerea schemei unei coloane neocorticale --
07:38
and it's not just for neuroscienceneurostiintele;
156
440000
2000
și asta nu este doar pentru neuroștiințe;
07:40
it's perhapspoate to understanda intelege perceptionpercepţie, to understanda intelege realityrealitate,
157
442000
3000
este probabil pentru înțelegerea percepțiilor, pentru înțelegerea realității,
07:43
and perhapspoate to even alsode asemenea understanda intelege physicalfizic realityrealitate.
158
445000
4000
și poate chiar pentru a înțelege realitatea fizică.
07:47
So, what we did was, for the pasttrecut 15 yearsani,
159
449000
3000
Deci, ceea ce am făcut noi a fost, în ultimii 15 ani,
07:50
was to dissectdiseca out the neocortexneocortex, systematicallysistematic.
160
452000
4000
să disecăm neocortexul, sistematic.
07:54
It's a bitpic like going and catalogingcatalogare a piecebucată of the rainforestpădure tropicală.
161
456000
4000
Este un pic ca și cum a te duce și a cataloga o parte din pădurea tropicala.
07:58
How manymulți treescopaci does it have?
162
460000
2000
Câți copaci are?
08:00
What shapesforme are the treescopaci?
163
462000
2000
Ce forme au copacii?
08:02
How manymulți of eachfiecare typetip of treecopac do you have? Where are they positionedpoziţionat?
164
464000
3000
Câți copaci de fiecare fel sunt acolo? Unde sunt poziționați?
08:05
But it's a bitpic more than catalogingcatalogare because you actuallyde fapt have to
165
467000
2000
Dar este un pic mai mult decat catalogarea pentru că de fapt trebuie
08:07
describedescrie and discoverdescoperi all the rulesnorme of communicationcomunicare,
166
469000
4000
să descriem și să descoperim toate regulile comunicării,
08:11
the rulesnorme of connectivityconectivitatea,
167
473000
2000
regulile conexiunilor,
08:13
because the neuronsneuroni don't just like to connectconectați with any neuronneuron.
168
475000
3000
pentru că neuronii nu se conectează cu orice fel de alt neuron.
08:16
They choosealege very carefullycu grija who they connectconectați with.
169
478000
3000
Ei aleg foarte atent cu cine se conectează.
08:19
It's alsode asemenea more than catalogingcatalogare
170
481000
3000
Este de asemenea mai mult decât catalogare
08:22
because you actuallyde fapt have to buildconstrui three-dimensionaltri-dimensională
171
484000
2000
pentru că de fapt trebuie să construiești
08:24
digitaldigital modelsmodele of them.
172
486000
2000
modele digitale ale lor.
08:26
And we did that for tenszeci of thousandsmii of neuronsneuroni,
173
488000
2000
Și am făcut exact asta pentru zeci de mii de neuroni,
08:28
builtconstruit digitaldigital modelsmodele of all the differentdiferit typestipuri
174
490000
3000
am construit modele tridimensionale ale diferitelor tipuri
08:31
of neuronsneuroni we camea venit acrosspeste.
175
493000
2000
de neuroni pe care i-am întâlnit.
08:33
And onceo singura data you have that, you can actuallyde fapt
176
495000
2000
Şi odată ce ai făcut asta, poți de fapt
08:35
beginÎNCEPE to buildconstrui the neocorticalneocortical columncoloană.
177
497000
4000
începe să construiești coloane neocorticale.
08:39
And here we're coilingînfăşurare them up.
178
501000
3000
Și aici le facem conexiunile.
08:42
But as you do this, what you see
179
504000
3000
Dar în timp ce faci asta, ceea ce observi
08:45
is that the branchessucursale intersectintersecta
180
507000
2000
este că ramurile se intersectează
08:47
actuallyde fapt in millionsmilioane of locationslocații,
181
509000
3000
de fapt în milioane de locuri,
08:50
and at eachfiecare of these intersectionsintersectii
182
512000
3000
și că la fiecare intersecție
08:53
they can formformă a synapseSinapsa.
183
515000
2000
ele pot forma o sinapsă.
08:55
And a synapseSinapsa is a chemicalchimic locationLocație
184
517000
2000
Iar o sinapsă este o locație chimică
08:57
where they communicatecomunica with eachfiecare other.
185
519000
3000
unde ele pot comunica unele cu altele.
09:00
And these synapsessinapse togetherîmpreună
186
522000
2000
Iar aceste sinapse împreună
09:02
formformă the networkreţea
187
524000
2000
formează o rețea
09:04
or the circuitcircuit of the braincreier.
188
526000
3000
sau circuitul creierului.
09:07
Now, the circuitcircuit, you could alsode asemenea think of as
189
529000
4000
Acum, circuitul, puteți să îl priviți și ca
09:11
the fabricțesătură of the braincreier.
190
533000
2000
țesătura creierului.
09:13
And when you think of the fabricțesătură of the braincreier,
191
535000
3000
Şi când vă gândiți la țesătura creierului,
09:16
the structurestructura, how is it builtconstruit? What is the patternmodel of the carpetcovor?
192
538000
4000
la structură, la cum este construit? Care este modelul covorului?
09:20
You realizerealiza that this posesridică
193
542000
2000
Realizați că asta constituie
09:22
a fundamentalfundamental challengeprovocare to any theoryteorie of the braincreier,
194
544000
4000
o provocare fundamentală oricărei teorii a creierului,
09:26
and especiallyin mod deosebit to a theoryteorie that saysspune
195
548000
2000
și în special teoriei care spune
09:28
that there is some realityrealitate that emergesapare
196
550000
2000
că exista o oarecare realitate care emerge
09:30
out of this carpetcovor, out of this particularspecial carpetcovor
197
552000
3000
din acest covor, din acest covor în particular
09:33
with a particularspecial patternmodel.
198
555000
2000
cu un tipar specific.
09:35
The reasonmotiv is because the mostcel mai importantimportant designproiecta secretsecret of the braincreier
199
557000
3000
Motivul este pentru ca cel mai important secret de construcție al creierului
09:38
is diversitydiversitate.
200
560000
2000
este diversitatea.
09:40
EveryFiecare neuronneuron is differentdiferit.
201
562000
2000
Fiecare neuron este diferit.
09:42
It's the samela fel in the forestpădure. EveryFiecare pinePIN treecopac is differentdiferit.
202
564000
2000
Este la fel ca în pădure. Fiecare copac este diferit.
09:44
You mayMai have manymulți differentdiferit typestipuri of treescopaci,
203
566000
2000
Puteți avea multe feluri diferite de copaci,
09:46
but everyfiecare pinePIN treecopac is differentdiferit. And in the braincreier it's the samela fel.
204
568000
3000
dar fiecare copac este diferit. Și în creier este la fel.
09:49
So there is no neuronneuron in my braincreier that is the samela fel as anothero alta,
205
571000
3000
Deci nu este nici un neuron în creierul meu care să fie la fel cu un altul,
09:52
and there is no neuronneuron in my braincreier that is the samela fel as in yoursa ta.
206
574000
3000
și nu există nici un neuron în creierul meu care să fie la fel ca în al vostru.
09:55
And your neuronsneuroni are not going to be orientedorientate spre and positionedpoziţionat
207
577000
3000
Iar neuronii voștri nu vor fi orientați și poziționați
09:58
in exactlyexact the samela fel way.
208
580000
2000
în exact același fel.
10:00
And you mayMai have more or lessMai puțin neuronsneuroni.
209
582000
2000
Iar voi puteți avea mai mulți sau mai puțini neuroni.
10:02
So it's very unlikelyimprobabil
210
584000
2000
Deci este foarte improbabil
10:04
that you got the samela fel fabricțesătură, the samela fel circuitrycircuite.
211
586000
4000
ca să aveți același țesut, același circuit.
10:08
So, how could we possiblyeventual createcrea a realityrealitate
212
590000
2000
Deci, cum este posibil să creăm o realitate
10:10
that we can even understanda intelege eachfiecare other?
213
592000
3000
în care să ne înțelegem între noi?
10:13
Well, we don't have to speculatespecula.
214
595000
2000
Ei bine, nu trebuie să facem speculații.
10:15
We can look at all 10 millionmilion synapsessinapse now.
215
597000
3000
Ne putem uita la toate cele 10 milioane de sinapse acum.
10:18
We can look at the fabricțesătură. And we can changeSchimbare neuronsneuroni.
216
600000
3000
Putem să ne uitam la țesătură. Și putem schimba neuronii.
10:21
We can use differentdiferit neuronsneuroni with differentdiferit variationsvariații.
217
603000
2000
Putem utiliza diverși neuroni în diferite variații.
10:23
We can positionpoziţie them in differentdiferit placeslocuri,
218
605000
2000
Putem să îi poziționăm în locații diferite,
10:25
orientOrient them in differentdiferit placeslocuri.
219
607000
2000
să îi orientăm în locuri diferite.
10:27
We can use lessMai puțin or more of them.
220
609000
2000
Putem folosi mai mulți sau mai puțini.
10:29
And when we do that
221
611000
2000
Și când facem asta
10:31
what we discovereddescoperit is that the circuitrycircuite does changeSchimbare.
222
613000
3000
ceea ce am descoperit a fost că circuitele se schimbă.
10:34
But the patternmodel of how the circuitrycircuite is designedproiectat does not.
223
616000
7000
Dar modelul de cum circuitul este proiectat nu.
10:41
So, the fabricțesătură of the braincreier,
224
623000
2000
Deci, țesutul creierului,
10:43
even thoughdeşi your braincreier mayMai be smallermai mic, biggermai mare,
225
625000
2000
chiar dacă creierul vă poate fi mai mic, mai mare,
10:45
it mayMai have differentdiferit typestipuri of neuronsneuroni,
226
627000
3000
poate avea feluri diferite de neuroni,
10:48
differentdiferit morphologiesmorfologii of neuronsneuroni,
227
630000
2000
morfologii diferite de neuroni,
10:50
we actuallyde fapt do shareacțiune
228
632000
3000
noi de fapt împărtășim
10:53
the samela fel fabricțesătură.
229
635000
2000
același țesut.
10:55
And we think this is species-specificspecies-specific,
230
637000
2000
Și credem că acest aspect este specific fiecărei specii,
10:57
whichcare meansmijloace that that could explainexplica
231
639000
2000
ceea ce înseamnă că asta ar putea explica
10:59
why we can't communicatecomunica acrosspeste speciesspecie.
232
641000
2000
de ce nu putem comunica între specii.
11:01
So, let's switchintrerupator it on. But to do it, what you have to do
233
643000
3000
Deci, să îl pornim. Dar ca să realizam asta, ce trebuie să facem
11:04
is you have to make this come aliveîn viaţă.
234
646000
2000
este să il aducem la viată.
11:06
We make it come aliveîn viaţă
235
648000
2000
Noi îl aducem la viață
11:08
with equationsecuaţiile, a lot of mathematicsmatematică.
236
650000
2000
cu ecuații, foarte multă matematică.
11:10
And, in factfapt, the equationsecuaţiile that make neuronsneuroni into electricalelectric generatorsgeneratoare
237
652000
4000
Și, de fapt, ecuațiile care transformă neuronii în generatoare electrice
11:14
were discovereddescoperit by two CambridgeCambridge NobelNobel LaureatesLaureați ai.
238
656000
3000
au fost descoperite de doi laureați ai premiului Nobel de la Cambridge.
11:17
So, we have the mathematicsmatematică to make neuronsneuroni come aliveîn viaţă.
239
659000
3000
Deci, avem instrumentul matematic care să aducă la viață neuronii.
11:20
We alsode asemenea have the mathematicsmatematică to describedescrie
240
662000
2000
Avem de asemenea instrumentele matematice pentru a descrie
11:22
how neuronsneuroni collectcolectarea informationinformație,
241
664000
3000
cum colectează informația neuronii,
11:25
and how they createcrea a little lightningfulger boltbolț
242
667000
3000
și cum crează un mic fulger
11:28
to communicatecomunica with eachfiecare other.
243
670000
2000
pentru a comunica unul cu celălalt.
11:30
And when they get to the synapseSinapsa,
244
672000
2000
Si când ajung la sinapsă,
11:32
what they do is they effectivelyîn mod eficient,
245
674000
2000
ceea ce fac este că efectiv,
11:34
literallyliteralmente, shockşoc the synapseSinapsa.
246
676000
3000
literal, dau un șoc sinapsei.
11:37
It's like electricalelectric shockşoc
247
679000
2000
Este ca un șoc electric
11:39
that releasescomunicate the chemicalschimicale from these synapsessinapse.
248
681000
3000
care eliberează substanțele chimice din aceste sinapse.
11:42
And we'vene-am got the mathematicsmatematică to describedescrie this processproces.
249
684000
3000
Și avem modelele matematice pentru a descrie acest proces.
11:45
So we can describedescrie the communicationcomunicare betweenîntre the neuronsneuroni.
250
687000
4000
Astfel putem descrie comunicarea dintre neuroni.
11:49
There literallyliteralmente are only a handfulmână
251
691000
3000
Sunt efectiv numai câteva
11:52
of equationsecuaţiile that you need to simulatesimula
252
694000
2000
ecuații necesare pentru a simula
11:54
the activityactivitate of the neocortexneocortex.
253
696000
2000
activitatea neocortexului.
11:56
But what you do need is a very bigmare computercomputer.
254
698000
3000
Dar pentru asta e nevoie de un computer foarte mare.
11:59
And in factfapt you need one laptoplaptop
255
701000
2000
De fapt e nevoie de un singur laptop
12:01
to do all the calculationscalcule just for one neuronneuron.
256
703000
3000
pentru a face toate calculele pentru doar un singur neuron.
12:04
So you need 10,000 laptopslaptop-uri.
257
706000
2000
Deci e nevoie de 10.000 de laptopuri.
12:06
So where do you go? You go to IBMIBM,
258
708000
2000
Deci unde se merge? Se merge la IBM,
12:08
and you get a supercomputersupercomputer, because they know how to take
259
710000
2000
și se ia un supercomputer, pentru că ei știu cum să ia
12:10
10,000 laptopslaptop-uri and put it into the sizemărimea of a refrigeratorfrigider.
260
712000
4000
10.000 de laptopuri și să le pună într-un spațiu cât un frigider.
12:14
So now we have this BlueAlbastru GeneGene supercomputersupercomputer.
261
716000
3000
Deci avem acest supercomputer Blue Gene.
12:17
We can loadsarcină up all the neuronsneuroni,
262
719000
2000
Și putem încărca toți neuronii,
12:19
eachfiecare one on to its processorprocesor,
263
721000
2000
fiecare pe câte un procesor,
12:21
and firefoc it up, and see what happensse întâmplă.
264
723000
4000
și să îi pornim, și să vedem ce se întîmplă.
12:25
Take the magicmagie carpetcovor for a ridecălătorie.
265
727000
3000
Haideți sa luăm covorul magic pentru o cursă.
12:28
Here we activateactiva it. And this gives the first glimpselicărire
266
730000
3000
Iată că îl activăm. Astfel putem avea o primă impresie
12:31
of what is happeninglucru in your braincreier
267
733000
2000
despre ce se întâmplă în creierul nostru
12:33
when there is a stimulationstimulare.
268
735000
2000
în prezența unui stimul.
12:35
It's the first viewvedere.
269
737000
2000
Iată o primă imagine.
12:37
Now, when you look at that the first time, you think,
270
739000
2000
Acum, când vă uitați pentru prima dată la ea, gândiți,
12:39
"My god. How is realityrealitate comingvenire out of that?"
271
741000
5000
"Dumnezeule. Cum emerge realitatea din chestia aia?"
12:44
But, in factfapt, you can startstart,
272
746000
3000
Dar, de fapt, puteți începe,
12:47
even thoughdeşi we haven'tnu au traineddresat this neocorticalneocortical columncoloană
273
749000
4000
chiar dacă nu am antrenat această coloană neocorticală
12:51
to createcrea a specificspecific realityrealitate.
274
753000
2000
să creați o realitate specifică.
12:53
But we can askcere, "Where is the roseTrandafir?"
275
755000
4000
Dar putem întreba, "Unde este trandafirul?"
12:57
We can askcere, "Where is it insideinterior,
276
759000
2000
Putem întreba, "Unde este el înăuntru,
12:59
if we stimulatestimula it with a pictureimagine?"
277
761000
3000
dacă stimulăm rețeaua cu o imagine?"
13:02
Where is it insideinterior the neocortexneocortex?
278
764000
2000
Unde este înăuntrul neocortexului?
13:04
UltimatelyÎn cele din urmă it's got to be there if we stimulatedstimulate it with it.
279
766000
4000
La urma urmei trebuie să fie acolo undeva din moment ce l-am stimulat cu asta.
13:08
So, the way that we can look at that
280
770000
2000
Deci, felul în care putem privi asta
13:10
is to ignoreignora the neuronsneuroni, ignoreignora the synapsessinapse,
281
772000
3000
este de a ignora neuronii, de a ignora sinapsele,
13:13
and look just at the rawbrut electricalelectric activityactivitate.
282
775000
2000
și să privim doar activitatea electrică brută.
13:15
Because that is what it's creatingcrearea.
283
777000
2000
Deoarece asta este ceea ce este creat.
13:17
It's creatingcrearea electricalelectric patternsmodele.
284
779000
2000
Sunt create tipare electrice.
13:19
So when we did this,
285
781000
2000
Prin urmare când facem asta,
13:21
we indeedintr-adevar, for the first time,
286
783000
2000
putem într-adevăr, pentru prima dată,
13:23
saw these ghost-likefantoma-ca structuresstructuri:
287
785000
3000
să vedem aceste structuri fantomatice:
13:26
electricalelectric objectsobiecte appearingcare apare
288
788000
3000
obiecte electrice care apar
13:29
withinîn the neocorticalneocortical columncoloană.
289
791000
3000
în interiorul coloanei neocorticale.
13:32
And it's these electricalelectric objectsobiecte
290
794000
3000
Sunt aceste obiecte electrice
13:35
that are holdingdeținere all the informationinformație about
291
797000
3000
cele care conțin informația despre
13:38
whateverindiferent de stimulatedstimulate it.
292
800000
3000
ceea ce a stimulat rețeaua.
13:41
And then when we zoomedmărită into this,
293
803000
2000
Iar când mărim imaginea
13:43
it's like a veritableveritabil universeunivers.
294
805000
4000
este ca un veritabil univers.
13:47
So the nextUrmător → stepEtapa
295
809000
2000
Deci următorul pas
13:49
is just to take these braincreier coordinatescoordonatele
296
811000
4000
este de a lua aceste coordonate ale creierului
13:53
and to projectproiect them into perceptualperceptive spacespaţiu.
297
815000
4000
și să le proiectam într-un spațiu perceptual.
13:57
And if you do that,
298
819000
2000
Şi dacă facem asta,
13:59
you will be ablecapabil to stepEtapa insideinterior
299
821000
2000
veți putea pași în interiorul
14:01
the realityrealitate that is createdcreată
300
823000
2000
realității care este creată
14:03
by this machinemaşină,
301
825000
2000
de această mașină,
14:05
by this piecebucată of the braincreier.
302
827000
3000
de această bucată de creier.
14:08
So, in summaryRezumat,
303
830000
2000
Deci, în rezumat,
14:10
I think that the universeunivers mayMai have --
304
832000
2000
cred că universul ar fi --
14:12
it's possibleposibil --
305
834000
2000
este posibil --
14:14
evolvedevoluat a braincreier to see itselfîn sine,
306
836000
3000
dezvoltat un creier pentru a se vedea pe el însuși,
14:17
whichcare mayMai be a first stepEtapa in becomingdevenire awareconștient of itselfîn sine.
307
839000
5000
care ar putea fi primul pas către a deveni conștient de el însuși.
14:22
There is a lot more to do to testTest these theoriesteorii,
308
844000
2000
Mai sunt multe de făcut pentru a testa aceste teorii,
14:24
and to testTest any other theoriesteorii.
309
846000
3000
și pentru a testa oricare alte teorii.
14:27
But I hopesperanţă that you are at leastcel mai puţin partlyparţial convincedconvins
310
849000
3000
Dar sper că sunteţi cel puțin parțial convinși
14:30
that it is not impossibleimposibil to buildconstrui a braincreier.
311
852000
3000
că nu este imposibil să se construiască un creier.
14:33
We can do it withinîn 10 yearsani,
312
855000
2000
Putem să o facem în 10 ani,
14:35
and if we do succeeda reusi,
313
857000
2000
și dacă vom avea succes,
14:37
we will sendtrimite to TEDTED, in 10 yearsani,
314
859000
2000
vom trimite la TED, în 10 ani,
14:39
a hologramhologramă to talk to you. Thank you.
315
861000
3000
o hologramă care să vă vorbească. Vă mulțumesc.
14:42
(ApplauseAplauze)
316
864000
6000
(Aplauze)
Translated by Traian Popa
Reviewed by Antoniu Gugu

▲Back to top

ABOUT THE SPEAKER
Henry Markram - Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time.

Why you should listen

In the microscopic, yet-uncharted circuitry of the cortex, Henry Markram is perhaps the most ambitious -- and our most promising -- frontiersman. Backed by the extraordinary power of the IBM Blue Gene supercomputing architecture, which can perform hundreds of trillions of calculations per second, he's using complex models to precisely simulate the neocortical column (and its tens of millions of neural connections) in 3D.

Though the aim of Blue Brain research is mainly biomedical, it has been edging up on some deep, contentious philosophical questions about the mind -- "Can a robot think?" and "Can consciousness be reduced to mechanical components?" -- the consequence of which Markram is well aware: Asked by Seed Magazine what a simulation of a full brain might do, he answered, "Everything. I mean everything" -- with a grin.

Now, with a successful proof-of-concept for simulation in hand (the project's first phase was completed in 2007), Markram is looking toward a future where brains might be modeled even down to the molecular and genetic level. Computing power marching rightward and up along the graph of Moore's Law, Markram is sure to be at the forefront as answers to the mysteries of cognition emerge.

More profile about the speaker
Henry Markram | Speaker | TED.com