ABOUT THE SPEAKER
Henry Markram - Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time.

Why you should listen

In the microscopic, yet-uncharted circuitry of the cortex, Henry Markram is perhaps the most ambitious -- and our most promising -- frontiersman. Backed by the extraordinary power of the IBM Blue Gene supercomputing architecture, which can perform hundreds of trillions of calculations per second, he's using complex models to precisely simulate the neocortical column (and its tens of millions of neural connections) in 3D.

Though the aim of Blue Brain research is mainly biomedical, it has been edging up on some deep, contentious philosophical questions about the mind -- "Can a robot think?" and "Can consciousness be reduced to mechanical components?" -- the consequence of which Markram is well aware: Asked by Seed Magazine what a simulation of a full brain might do, he answered, "Everything. I mean everything" -- with a grin.

Now, with a successful proof-of-concept for simulation in hand (the project's first phase was completed in 2007), Markram is looking toward a future where brains might be modeled even down to the molecular and genetic level. Computing power marching rightward and up along the graph of Moore's Law, Markram is sure to be at the forefront as answers to the mysteries of cognition emerge.

More profile about the speaker
Henry Markram | Speaker | TED.com
TEDGlobal 2009

Henry Markram: A brain in a supercomputer

Henry Markram simula il cervello umano in un supercomputer

Filmed:
1,469,354 views

Henry Markram afferma che i misteri della mente potranno essere risolti presto: patologie mentali, memoria, percezione: si possono spiegare tutti in termini di neuroni e segnali elettrici, e pensa di trovare la soluzione con un supercomputer che simula tutte le 100.000.000.000.000 (cento mila miliardi) di sinapsi di un cervello.
- Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time. Full bio

Double-click the English transcript below to play the video.

00:18
Our missionmissione is to buildcostruire
0
0
3000
La nostra missione è quella di costruire
00:21
a detaileddettagliata, realisticrealistico
1
3000
2000
un modello computerizzato del cervello umano
00:23
computercomputer modelmodello of the humanumano braincervello.
2
5000
2000
dettagliato e realistico.
00:25
And we'venoi abbiamo donefatto, in the pastpassato fourquattro yearsanni,
3
7000
3000
Nel corso degli ultimi quattro anni
00:28
a proofprova of conceptconcetto
4
10000
2000
abbiamo dimostrato la fattibiltà del concetto
00:30
on a smallpiccolo partparte of the rodentroditore braincervello,
5
12000
3000
simulando una piccola parte del cervello di un topolino,
00:33
and with this proofprova of conceptconcetto we are now scalingscalata the projectprogetto up
6
15000
3000
e adesso stiamo sviluppando ed ingrandendo il progetto
00:36
to reachraggiungere the humanumano braincervello.
7
18000
3000
per arrivare a simulare il cervello umano.
00:39
Why are we doing this?
8
21000
2000
Perche stiamo facendo tutto ciò?
00:41
There are threetre importantimportante reasonsmotivi.
9
23000
2000
Ci sono tre ragioni principali.
00:43
The first is, it's essentialessenziale for us to understandcapire the humanumano braincervello
10
25000
4000
La prima, è l'importanza di capire il funzionamento del cervello
00:47
if we do want to get alonglungo in societysocietà,
11
29000
2000
per progredire nella comprensione della società,
00:49
and I think that it is a keychiave steppasso in evolutionEvoluzione.
12
31000
4000
ed penso che questo sia un passo fondamentale nell'evoluzione.
00:53
The secondsecondo reasonragionare is,
13
35000
2000
La seconda ragione è che non possiamo
00:55
we cannotnon può keep doing animalanimale experimentationsperimentazione foreverper sempre,
14
37000
6000
continuare all'infinito a fare esperimenti sugli animali,
01:01
and we have to embodyincorporare all our datadati and all our knowledgeconoscenza
15
43000
4000
e dobbiamo integrare tutti i dati e la conoscenza
01:05
into a workinglavoro modelmodello.
16
47000
3000
in un modello funzionale.
01:08
It's like a Noah'sArca di Noè ArkArca. It's like an archiveArchivio.
17
50000
4000
E' come l'arca di Noè o un archivio.
01:12
And the thirdterzo reasonragionare is that there are two billionmiliardo people on the planetpianeta
18
54000
3000
La terza ragione è che ci sono due miliardi di persone
01:15
that are affectedinfluenzato by mentalmentale disorderdisturbo,
19
57000
4000
che soffrono di patologie mentali,
01:19
and the drugsfarmaci that are used todayoggi
20
61000
2000
ed i farmaci disponibili ad oggi
01:21
are largelyin gran parte empiricalempirica.
21
63000
2000
funzionano prevalentemente in modo empirico.
01:23
I think that we can come up with very concretecalcestruzzo solutionssoluzioni on
22
65000
3000
Penso che possiamo arrivare ad una soluzione concreta
01:26
how to treattrattare disordersdisturbi.
23
68000
3000
su come trattare patologie mentali.
01:29
Now, even at this stagepalcoscenico,
24
71000
3000
Già allo stadio in cui siamo
01:32
we can use the braincervello modelmodello
25
74000
2000
possiamo usare il modello computerizzato del cervello
01:34
to exploreEsplorare some fundamentalfondamentale questionsle domande
26
76000
3000
per esplorare alcuni aspetti fondamentali
01:37
about how the braincervello workslavori.
27
79000
2000
del suo funzionamento.
01:39
And here, at TEDTED, for the first time,
28
81000
2000
Qui a TED, in anteprima,
01:41
I'd like to shareCondividere with you how we're addressingindirizzamento
29
83000
2000
voglio illustrarvi il modo in cui stiamo
01:43
one theoryteoria -- there are manymolti theoriesteorie --
30
85000
3000
verificando una delle molte teorie
01:46
one theoryteoria of how the braincervello workslavori.
31
88000
4000
sul funzionamento del cervello.
01:50
So, this theoryteoria is that the braincervello
32
92000
4000
Questa teoria postula che il cervello
01:54
createscrea, buildscostruisce, a versionversione of the universeuniverso,
33
96000
6000
crei, costruisca una propria versione dell'universo.
02:00
and projectsprogetti this versionversione of the universeuniverso,
34
102000
3000
E proietta questa versione dell'universo,
02:03
like a bubblebolla, all around us.
35
105000
4000
come una bolla, tutt'intorno a noi.
02:07
Now, this is of coursecorso a topicargomento of philosophicalfilosofico debatediscussione for centuriessecoli.
36
109000
4000
Questo è stato argomento di dispute filosofiche per secoli.
02:11
But, for the first time, we can actuallyin realtà addressindirizzo this,
37
113000
3000
Ma, per la prima volta, possiamo veramente studiarlo
02:14
with braincervello simulationsimulazione,
38
116000
2000
per mezzo di una simulazione del cervello
02:16
and askChiedere very systematicsistematica and rigorousrigoroso questionsle domande,
39
118000
4000
ponendo domande in maniera sistematica e rigorosa
02:20
whetherse this theoryteoria could possiblypossibilmente be truevero.
40
122000
4000
per verificare questa teoria.
02:24
The reasonragionare why the moonLuna is hugeenorme on the horizonorizzonte
41
126000
3000
La ragione per cui la luna appare più grande all'orizzonte
02:27
is simplysemplicemente because our perceptualpercettivo bubblebolla
42
129000
3000
è semplicemente che la nostra bolla percettiva
02:30
does not stretchallungare out 380,000 kilometerschilometri.
43
132000
4000
non si estende per 380.000 chilometri.
02:34
It runspiste out of spacespazio.
44
136000
2000
Non è abbatanza grande.
02:36
And so what we do is we compareconfrontare the buildingsedifici
45
138000
4000
E così quello che facciamo è paragonare gli edifici
02:40
withinentro our perceptualpercettivo bubblebolla,
46
142000
2000
all'interno della nostra bolla percettiva,
02:42
and we make a decisiondecisione.
47
144000
2000
e traiamo conclusioni.
02:44
We make a decisiondecisione it's that biggrande,
48
146000
2000
Decidiamo che uno è grande,
02:46
even thoughanche se it's not that biggrande.
49
148000
2000
anche se magari non è così grande,
02:48
And what that illustratesillustra
50
150000
2000
e questo significa
02:50
is that decisionsdecisioni are the keychiave things
51
152000
2000
è che le decisioni sono ciò
02:52
that supportsupporto our perceptualpercettivo bubblebolla. It keepsmantiene it alivevivo.
52
154000
5000
che sostiene la nostra bolla percettiva. La tiene in vita.
02:57
WithoutSenza decisionsdecisioni you cannotnon può see, you cannotnon può think,
53
159000
2000
Senza decisioni non ci è possibile vedere, pensare,
02:59
you cannotnon può feel.
54
161000
2000
o provare emozioni.
03:01
And you maypuò think that anestheticsanestetici work
55
163000
2000
Può essere che crediate che l'anestesia funzioni
03:03
by sendinginvio you into some deepin profondità sleepdormire,
56
165000
3000
immergendovi in un sonno profondo,
03:06
or by blockingblocco your receptorsrecettori so that you don't feel paindolore,
57
168000
3000
oppure bloccando i recettori in modo da non far sentire dolore,
03:09
but in factfatto mostmaggior parte anestheticsanestetici don't work that way.
58
171000
3000
ma in realtà non funziona così.
03:12
What they do is they introduceintrodurre a noiserumore
59
174000
3000
L'anaestesia crea un'interferenza
03:15
into the braincervello so that the neuronsneuroni cannotnon può understandcapire eachogni other.
60
177000
3000
nel cervello, in modo che i neuroni non possano capirsi l'un l'altro.
03:18
They are confusedconfuso,
61
180000
2000
Sono confusi
03:20
and you cannotnon può make a decisiondecisione.
62
182000
3000
e non ci consentono di prendere decisioni.
03:23
So, while you're tryingprovare to make up your mindmente
63
185000
3000
Così, mentre cercate di decidere
03:26
what the doctormedico, the surgeonchirurgo, is doing
64
188000
2000
su cosa stia facendo il chirurgo
03:28
while he's hackingl'hacking away at your bodycorpo, he's long goneandato.
65
190000
2000
mentre vi opera, il chirurgo se ne è già andato.
03:30
He's at home havingavendo tea.
66
192000
2000
E' a casa a bere il té.
03:32
(LaughterRisate)
67
194000
2000
(Risate)
03:34
So, when you walkcamminare up to a doorporta and you openAperto it,
68
196000
3000
Quindi, quando trovate una porta e la aprite,
03:37
what you compulsivelycompulsivamente have to do to perceivepercepire
69
199000
3000
quello che dovete obbligatoriamente fare per percepire,
03:40
is to make decisionsdecisioni,
70
202000
2000
è prendere delle decisioni.
03:42
thousandsmigliaia of decisionsdecisioni about the sizedimensione of the roomcamera,
71
204000
3000
Migliaia di decisioni circa le dimensioni della stanza,
03:45
the wallsmuri, the heightaltezza, the objectsoggetti in this roomcamera.
72
207000
3000
le pareti, l'altezza, gli oggetti presenti.
03:48
99 percentper cento of what you see
73
210000
3000
Il 99 percento di quello che vedete
03:51
is not what comesviene in throughattraverso the eyesocchi.
74
213000
4000
non è quello che entra dagli occhi.
03:55
It is what you inferdedurre about that roomcamera.
75
217000
4000
E' quello che inferite della stanza.
03:59
So I can say, with some certaintycertezza,
76
221000
4000
Ecco che si può dire, con certezza,
04:03
"I think, thereforeperciò I am."
77
225000
3000
"Penso, dunque sono".
04:06
But I cannotnon può say, "You think, thereforeperciò you are,"
78
228000
4000
Ma non posso dire "tu pensi, quindi sei"
04:10
because "you" are withinentro my perceptualpercettivo bubblebolla.
79
232000
5000
perchè tu sei nella mia bolla percettiva.
04:15
Now, we can speculatespeculare and philosophizefilosofare this,
80
237000
3000
Possiamo speculare e filosofare a questo proposito,
04:18
but we don't actuallyin realtà have to for the nextIl prossimo hundredcentinaio yearsanni.
81
240000
3000
ma non è necessario farlo per i prossimi cento anni.
04:21
We can askChiedere a very concretecalcestruzzo questiondomanda.
82
243000
2000
Possiamo porci una domanda molto concreta.
04:23
"Can the braincervello buildcostruire suchcome a perceptionpercezione?"
83
245000
4000
"Può il cervello creare una tale percezione?"
04:27
Is it capablecapace of doing it?
84
249000
2000
Ha la capacità di farlo?
04:29
Does it have the substancesostanza to do it?
85
251000
2000
Ha il materiale per farlo?
04:31
And that's what I'm going to describedescrivere to you todayoggi.
86
253000
3000
Ecco quello che vi voglio presentare oggi.
04:34
So, it tookha preso the universeuniverso 11 billionmiliardo yearsanni to buildcostruire the braincervello.
87
256000
4000
L'universo ha impiegato 11 miliardi di anni per costruire il cervello.
04:38
It had to improveMigliorare it a little bitpo.
88
260000
2000
Ha dovuto migliorarlo a poco a poco.
04:40
It had to addInserisci to the frontalfrontale partparte, so that you would have instinctsistinti,
89
262000
3000
Ha dovuto aggiungere i lobi frontali, in modo che si possano avere istinti,
04:43
because they had to copefar fronte on landsbarcare.
90
265000
3000
perchè questi erano necessari per sopravvivere.
04:46
But the realvero biggrande steppasso was the neocortexneocorteccia.
91
268000
4000
Ma il progresso più importante è stata la neo-corteccia cerebrale.
04:50
It's a newnuovo braincervello. You needednecessaria it.
92
272000
2000
E' il nuovo cervello che ci serviva.
04:52
The mammalsmammiferi needednecessaria it
93
274000
2000
Era necessario ai mammiferi
04:54
because they had to copefar fronte with parenthoodparenthood,
94
276000
4000
perchè dovevano far fronte all'allevamento della prole,
04:58
socialsociale interactionsinterazioni,
95
280000
2000
alle interazioni sociali,
05:00
complexcomplesso cognitiveconoscitivo functionsfunzioni.
96
282000
3000
a funzioni cognitive sofisticate.
05:03
So, you can think of the neocortexneocorteccia
97
285000
2000
Si può pensare che la neo-corteccia
05:05
actuallyin realtà as the ultimatefinale solutionsoluzione todayoggi,
98
287000
5000
sia la soluzione definitiva
05:10
of the universeuniverso as we know it.
99
292000
3000
prodotta dall'universo, per quel che ne sappiamo.
05:13
It's the pinnaclepinnacolo, it's the finalfinale productprodotto
100
295000
2000
E' il pinnacolo, il prodotto finale
05:15
that the universeuniverso has producedprodotta.
101
297000
4000
che l'universo ha prodotto.
05:19
It was so successfulriuscito in evolutionEvoluzione
102
301000
2000
Ha avuto un tale successo evolutivo
05:21
that from mousetopo to man it expandedallargato
103
303000
2000
che, dal topo fino all'uomo,
05:23
about a thousandfoldthousandfold in termscondizioni of the numbersnumeri of neuronsneuroni,
104
305000
3000
è cresciuta di un migliaio di volte in termini di numero di neuroni,
05:26
to produceprodurre this almostquasi frighteningspaventoso
105
308000
3000
per arrivare a questo quasi terrificante
05:29
organorgano, structurestruttura.
106
311000
3000
organo, a questa struttura.
05:32
And it has not stoppedfermato its evolutionaryevolutiva pathsentiero.
107
314000
3000
E non ha terminato il proprio percorso evolutivo.
05:35
In factfatto, the neocortexneocorteccia in the humanumano braincervello
108
317000
2000
A tutti gli effetti, la neo-corteccia del cervello umano
05:37
is evolvingin evoluzione at an enormousenorme speedvelocità.
109
319000
3000
si sta evolvendo ad un'enorme velocità.
05:40
If you zoomzoom into the surfacesuperficie of the neocortexneocorteccia,
110
322000
2000
Se fate uno zoom sulla superficie della neo-corteccia
05:42
you discoverscoprire that it's madefatto up of little modulesmoduli,
111
324000
3000
scoprirete che è costituita da piccoli moduli
05:45
G5 processorsprocessori, like in a computercomputer.
112
327000
2000
processori G5, come in un computer
05:47
But there are about a millionmilione of them.
113
329000
3000
Ma ce ne sono circa un milione
05:50
They were so successfulriuscito in evolutionEvoluzione
114
332000
2000
Hanno avuto un tale successo nell'evoluzione
05:52
that what we did was to duplicateduplicare them
115
334000
2000
che quello che abbiamo fatto è stato di moltiplicarli
05:54
over and over and addInserisci more and more of them to the braincervello
116
336000
2000
via via, aggiungendone sempre più al cervello
05:56
untilfino a we rancorse out of spacespazio in the skullcranio.
117
338000
3000
fino a non trovare più spazio dentro al cranio
05:59
And the braincervello startediniziato to foldpiegare in on itselfsi,
118
341000
2000
Così, il cervello ha cominciato a ripegarsi su se stesso
06:01
and that's why the neocortexneocorteccia is so highlyaltamente convolutedcontorto.
119
343000
3000
e questa è la ragione per cui la neo-corteccia è così convoluta.
06:04
We're just packingimballaggio in columnscolonne,
120
346000
2000
Non si sta facendo altro che stipare colonne
06:06
so that we'dsaremmo have more neocorticalneocorticale columnscolonne
121
348000
3000
per poter avere ulteriori colonne neo-corticali
06:09
to performeseguire more complexcomplesso functionsfunzioni.
122
351000
3000
per eseguire funzioni sempre più complesse
06:12
So you can think of the neocortexneocorteccia actuallyin realtà as
123
354000
2000
Dunque potete pensare alla neo-corteccia come
06:14
a massivemassiccio grandgrande pianopianoforte,
124
356000
2000
ad un enorme pianoforte
06:16
a million-keymilioni-chiave grandgrande pianopianoforte.
125
358000
3000
un pianoforte con un milione di tasti.
06:19
EachOgni of these neocorticalneocorticale columnscolonne
126
361000
2000
Ognuna di queste colonne corticali
06:21
would produceprodurre a noteNota.
127
363000
2000
può produrre una nota.
06:23
You stimulatestimolare it; it producesproduce a symphonySinfonia.
128
365000
3000
La stimolate e produce una sinfonia.
06:26
But it's not just a symphonySinfonia of perceptionpercezione.
129
368000
3000
Ma non è semplicemente una sinfonia di percezioni.
06:29
It's a symphonySinfonia of your universeuniverso, your realityla realtà.
130
371000
3000
E' una sinfonia del vostro universo, la vostra realtà.
06:32
Now, of coursecorso it takes yearsanni to learnimparare how
131
374000
3000
Ci vogliono anni per imparare
06:35
to mastermaestro a grandgrande pianopianoforte with a millionmilione keyschiavi.
132
377000
3000
a padroneggiare un pianoforte con un milione di tasti.
06:38
That's why you have to sendinviare your kidsbambini to good schoolsscuole,
133
380000
2000
Ecco perchè bisogna mandare i bambini a buone scuole,
06:40
hopefullyfiduciosamente eventuallyinfine to OxfordOxford.
134
382000
2000
sperabilmente fino ad Oxford.
06:42
But it's not only educationeducazione.
135
384000
3000
Ma non è solo questione di educazione
06:45
It's alsoanche geneticsgenetica.
136
387000
2000
ma anche di genetica.
06:47
You maypuò be bornNato luckyfortunato,
137
389000
2000
Se siete fortunati,
06:49
where you know how to mastermaestro your neocorticalneocorticale columncolonna,
138
391000
4000
o sapete padroneggiare le vostre colonne corticali
06:53
and you can playgiocare a fantasticfantastico symphonySinfonia.
139
395000
2000
potete suonare una sinfonia fantastica.
06:55
In factfatto, there is a newnuovo theoryteoria of autismautismo
140
397000
3000
C'è una nuova teoria sull'autismo
06:58
calledchiamato the "intenseintenso worldmondo" theoryteoria,
141
400000
2000
chiamata teoria del "modo intenso",
07:00
whichquale suggestssuggerisce that the neocorticalneocorticale columnscolonne are super-columnsSuper-colonne.
142
402000
4000
che postula che le colonne corticali siano "super colonne"
07:04
They are highlyaltamente reactivereattiva, and they are super-plasticSuper-plastica,
143
406000
4000
altamente reattive ed super plastiche
07:08
and so the autistsinpensabile are probablyprobabilmente capablecapace of
144
410000
3000
e così chi è autistico è in grado di
07:11
buildingcostruzione and learningapprendimento a symphonySinfonia
145
413000
2000
creare ed imparare una sinfonia
07:13
whichquale is unthinkableimpensabile for us.
146
415000
2000
che per noi altri è inpensabile.
07:15
But you can alsoanche understandcapire
147
417000
2000
Ma capirete anche
07:17
that if you have a diseasemalattia
148
419000
2000
che se c'è qualche disfunzione
07:19
withinentro one of these columnscolonne,
149
421000
2000
in una di queste colonne
07:21
the noteNota is going to be off.
150
423000
2000
la nota può risultare stonata.
07:23
The perceptionpercezione, the symphonySinfonia that you createcreare
151
425000
2000
La percezione, la sinfonia prodotta,
07:25
is going to be corruptedcorrotto,
152
427000
2000
sarà rovinata,
07:27
and you will have symptomssintomi of diseasemalattia.
153
429000
3000
e si mostreranno i sintomi della malattia.
07:30
So, the HolySanto GrailGraal for neuroscienceneuroscienza
154
432000
4000
Quindi, il Santo Graal per le neuroscienze
07:34
is really to understandcapire the designdesign of the neocoriticalcorticali columncolonna --
155
436000
4000
è capire la struttura delle colonne corticali
07:38
and it's not just for neuroscienceneuroscienza;
156
440000
2000
e non solo nell'interesse delle neuroscienze,
07:40
it's perhapsForse to understandcapire perceptionpercezione, to understandcapire realityla realtà,
157
442000
3000
ma forse anche per capire la percezione, la realtà,
07:43
and perhapsForse to even alsoanche understandcapire physicalfisico realityla realtà.
158
445000
4000
e perfino la realtà del mondo fisico.
07:47
So, what we did was, for the pastpassato 15 yearsanni,
159
449000
3000
Quello che abbiamo fatto negli ultimi 15 anni
07:50
was to dissectsezionare out the neocortexneocorteccia, systematicallysistematicamente.
160
452000
4000
è stato sezionare la neo-corteccia, in modo sistematico.
07:54
It's a bitpo like going and catalogingcatalogazione a piecepezzo of the rainforestforesta pluviale.
161
456000
4000
E' un po' come andare a catalogare un pezzo di foresta.
07:58
How manymolti treesalberi does it have?
162
460000
2000
Quanti alberi ci sono?
08:00
What shapesforme are the treesalberi?
163
462000
2000
Di che forma sono gli alberi?
08:02
How manymolti of eachogni typetipo of treealbero do you have? Where are they positionedposizionato?
164
464000
3000
Quanti ce ne sono per ogni tipo? come sono posizionati?
08:05
But it's a bitpo more than catalogingcatalogazione because you actuallyin realtà have to
165
467000
2000
E' qualcosa di più di un catalogare perchè bisogna
08:07
describedescrivere and discoverscoprire all the rulesregole of communicationcomunicazione,
166
469000
4000
scoprire e descrivere le regole della comunicazione
08:11
the rulesregole of connectivityconnettività,
167
473000
2000
e le regole della connettività
08:13
because the neuronsneuroni don't just like to connectCollegare with any neuronneurone.
168
475000
3000
perche ai neuroni non piace connettersi con qualunque altro neurone.
08:16
They choosescegliere very carefullyaccuratamente who they connectCollegare with.
169
478000
3000
Scelgone con attenzione a chi si connettono.
08:19
It's alsoanche more than catalogingcatalogazione
170
481000
3000
Si tratta di qualcosa di più che catalogare anche
08:22
because you actuallyin realtà have to buildcostruire three-dimensionaltridimensionale
171
484000
2000
perchè bisogna costruire dei modelli digitali
08:24
digitaldigitale modelsModelli of them.
172
486000
2000
tridimensionali delle colonne.
08:26
And we did that for tensdecine of thousandsmigliaia of neuronsneuroni,
173
488000
2000
E noi l'abbiamo fatto per decine di migliaia di neuroni
08:28
builtcostruito digitaldigitale modelsModelli of all the differentdiverso typestipi
174
490000
3000
avbbiamo costruito dei modelli digitali di vari tipi
08:31
of neuronsneuroni we cameè venuto acrossattraverso.
175
493000
2000
dei neuroni che abbiamo trovato.
08:33
And onceuna volta you have that, you can actuallyin realtà
176
495000
2000
Una volta fatto questo, si può realmente
08:35
begininizio to buildcostruire the neocorticalneocorticale columncolonna.
177
497000
4000
cominciare a costruire la colonna neocorticale.
08:39
And here we're coilingavvolgimento them up.
178
501000
3000
Ecco, qui stiamo arrotolandone una sull'altra.
08:42
But as you do this, what you see
179
504000
3000
Ma mentre lo fate, quello che scoprite è che
08:45
is that the branchesrami intersectintersecare
180
507000
2000
i rami si intersecano
08:47
actuallyin realtà in millionsmilioni of locationsposizioni,
181
509000
3000
in milioni di punti
08:50
and at eachogni of these intersectionsintersezioni
182
512000
3000
e ad ognuna di queste intersezioni
08:53
they can formmodulo a synapsesinapsi.
183
515000
2000
si forma una sinapsi.
08:55
And a synapsesinapsi is a chemicalchimico locationPosizione
184
517000
2000
La sinapsi è il luogo chimico
08:57
where they communicatecomunicare with eachogni other.
185
519000
3000
in cui le colonne comunicano tra di loro.
09:00
And these synapsessinapsi togetherinsieme
186
522000
2000
E queste sinapsi tutte insieme
09:02
formmodulo the networkRete
187
524000
2000
formano la rete
09:04
or the circuitcircuito of the braincervello.
188
526000
3000
o il circuito del cervello.
09:07
Now, the circuitcircuito, you could alsoanche think of as
189
529000
4000
Il circuito si può considerare come
09:11
the fabrictessuto of the braincervello.
190
533000
2000
il tessuto del cervello.
09:13
And when you think of the fabrictessuto of the braincervello,
191
535000
3000
E quando si pensa al tessuto del cervello,
09:16
the structurestruttura, how is it builtcostruito? What is the patternmodello of the carpettappeto?
192
538000
4000
come è fatta la struttura? Qual'è il disegno del tappeto?
09:20
You realizerendersi conto that this posespose
193
542000
2000
Potete capire che questo rappresenta
09:22
a fundamentalfondamentale challengesfida to any theoryteoria of the braincervello,
194
544000
4000
una sfida fondamentale per qualsiasi teoria del cervello,
09:26
and especiallyparticolarmente to a theoryteoria that saysdice
195
548000
2000
ed in particolare per una teoria che dice
09:28
that there is some realityla realtà that emergesemerge
196
550000
2000
che c'è una realtà che emerge
09:30
out of this carpettappeto, out of this particularparticolare carpettappeto
197
552000
3000
da questo tappeto, da questo tipo di tappeto
09:33
with a particularparticolare patternmodello.
198
555000
2000
con un proprio disegno particolare.
09:35
The reasonragionare is because the mostmaggior parte importantimportante designdesign secretsegreto of the braincervello
199
557000
3000
Questo accade perchè il più importante segreto
09:38
is diversitydiversità.
200
560000
2000
del disegno del cervello è la diversità.
09:40
EveryOgni neuronneurone is differentdiverso.
201
562000
2000
Ogni neurone è differente.
09:42
It's the samestesso in the forestforesta. EveryOgni pinepino treealbero is differentdiverso.
202
564000
2000
E' lo stesso in una foresta. Ogni pino è diverso.
09:44
You maypuò have manymolti differentdiverso typestipi of treesalberi,
203
566000
2000
Ci possono essere molti tipi diversi di alberi
09:46
but everyogni pinepino treealbero is differentdiverso. And in the braincervello it's the samestesso.
204
568000
3000
ma ogni pino è diverso. E nel cervello è lo stesso.
09:49
So there is no neuronneurone in my braincervello that is the samestesso as anotherun altro,
205
571000
3000
non c'è un neurone nel mio cevello che sia uguale ad un altro,
09:52
and there is no neuronneurone in my braincervello that is the samestesso as in yoursil tuo.
206
574000
3000
e non c'è un neurone nel mio cevello che sia uguale a uno dei vostri.
09:55
And your neuronsneuroni are not going to be orientedorientato al and positionedposizionato
207
577000
3000
E i vostri neuroni non saranno posizionati ed orientati
09:58
in exactlydi preciso the samestesso way.
208
580000
2000
esattamente allo stesso modo.
10:00
And you maypuò have more or lessDi meno neuronsneuroni.
209
582000
2000
Si possono avere più o meno neuroni.
10:02
So it's very unlikelyimprobabile
210
584000
2000
Così è molto improbabile
10:04
that you got the samestesso fabrictessuto, the samestesso circuitrycircuiteria.
211
586000
4000
che voi abbiate lo stesso tessuto, gli stessi circuiti.
10:08
So, how could we possiblypossibilmente createcreare a realityla realtà
212
590000
2000
Allora, come è possibile che creiamo una realtà
10:10
that we can even understandcapire eachogni other?
213
592000
3000
tale che possiamo comprenderci vicendevolmente?
10:13
Well, we don't have to speculatespeculare.
214
595000
2000
Non serve fare speculazioni,
10:15
We can look at all 10 millionmilione synapsessinapsi now.
215
597000
3000
Possiamo guardare alle dieci milioni di sinapsi.
10:18
We can look at the fabrictessuto. And we can changemodificare neuronsneuroni.
216
600000
3000
Possiamo prendere in esame il tessuto e cambiare i neuroni.
10:21
We can use differentdiverso neuronsneuroni with differentdiverso variationsvariazioni.
217
603000
2000
Possiamo usare neuroni differenti, con differenti variazioni.
10:23
We can positionposizione them in differentdiverso placesposti,
218
605000
2000
Possiamo posizionarli in luogi differenti,
10:25
orientOrient them in differentdiverso placesposti.
219
607000
2000
e orientarli in diversi modi.
10:27
We can use lessDi meno or more of them.
220
609000
2000
Possiamo usarne di più o di meno,
10:29
And when we do that
221
611000
2000
E quando facciamo tutto ciò
10:31
what we discoveredscoperto is that the circuitrycircuiteria does changemodificare.
222
613000
3000
scopriamo è che i circuiti in effetti cambiano
10:34
But the patternmodello of how the circuitrycircuiteria is designedprogettato does not.
223
616000
7000
Ma lo schema di come i circuiti sono disegnati non cambia.
10:41
So, the fabrictessuto of the braincervello,
224
623000
2000
Così, il tessuto del cervello,
10:43
even thoughanche se your braincervello maypuò be smallerpiù piccola, biggerpiù grande,
225
625000
2000
benchè il vostro proprio cervello può essere più piccolo o più grande,
10:45
it maypuò have differentdiverso typestipi of neuronsneuroni,
226
627000
3000
può avere svariati tipi di neuroni,
10:48
differentdiverso morphologiesmorfologie of neuronsneuroni,
227
630000
2000
svariate morfologie.
10:50
we actuallyin realtà do shareCondividere
228
632000
3000
Abbiamo in comune
10:53
the samestesso fabrictessuto.
229
635000
2000
lo stesso tessuto.
10:55
And we think this is species-specificspecie-specifici,
230
637000
2000
Riteniamo che questo fatto sia specifico per ogni specie,
10:57
whichquale meanssi intende that that could explainspiegare
231
639000
2000
il che potrebbe spiegare
10:59
why we can't communicatecomunicare acrossattraverso speciesspecie.
232
641000
2000
perchè non possiamo comunicare tra speci diverse.
11:01
So, let's switchinterruttore it on. But to do it, what you have to do
233
643000
3000
Allora, facciamolo funzionare. Ma per fare ciò
11:04
is you have to make this come alivevivo.
234
646000
2000
occorre dargli vita.
11:06
We make it come alivevivo
235
648000
2000
Gli si dà vita
11:08
with equationsequazioni, a lot of mathematicsmatematica.
236
650000
2000
con equazioni e formule.
11:10
And, in factfatto, the equationsequazioni that make neuronsneuroni into electricalelettrico generatorsgeneratori
237
652000
4000
Le equazioni che descrivono i neuroni come dei generatori di elettricità
11:14
were discoveredscoperto by two CambridgeCambridge NobelNobel LaureatesVincitori del.
238
656000
3000
furono scoperte da due premi Nobel di Cambridge.
11:17
So, we have the mathematicsmatematica to make neuronsneuroni come alivevivo.
239
659000
3000
Abbiamo le formule che animano i neuroni.
11:20
We alsoanche have the mathematicsmatematica to describedescrivere
240
662000
2000
Abbiamo anche le formule che descrivono
11:22
how neuronsneuroni collectraccogliere informationinformazione,
241
664000
3000
il modo in cui i neuroni raccolgono informazioni,
11:25
and how they createcreare a little lightningfulmine boltbullone
242
667000
3000
e il modo in cui creano una piccola scarica elettrica
11:28
to communicatecomunicare with eachogni other.
243
670000
2000
per comunicare tra di loro.
11:30
And when they get to the synapsesinapsi,
244
672000
2000
E quando si arriva alla sinapsi,
11:32
what they do is they effectivelyefficacemente,
245
674000
2000
quello che fanno in realtà,
11:34
literallyletteralmente, shockshock the synapsesinapsi.
246
676000
3000
è di causare, letteralmente, uno shock alla sinapsi.
11:37
It's like electricalelettrico shockshock
247
679000
2000
E' come uno shock elettrico
11:39
that releasescomunicati the chemicalssostanze chimiche from these synapsessinapsi.
248
681000
3000
che libera dei composti chimici.
11:42
And we'venoi abbiamo got the mathematicsmatematica to describedescrivere this processprocesso.
249
684000
3000
Abbiamo le equazioni che descrivono anche questo processo.
11:45
So we can describedescrivere the communicationcomunicazione betweenfra the neuronsneuroni.
250
687000
4000
Così possiomo descrivere la comunicazione tra i neuroni.
11:49
There literallyletteralmente are only a handfulmanciata
251
691000
3000
E' solo una manciata
11:52
of equationsequazioni that you need to simulatesimulare
252
694000
2000
di equazioni quella che serve per simulare
11:54
the activityattività of the neocortexneocorteccia.
253
696000
2000
l'attività della neo-corteccia.
11:56
But what you do need is a very biggrande computercomputer.
254
698000
3000
Però serve un computer molto potente.
11:59
And in factfatto you need one laptopil computer portatile
255
701000
2000
In realtà serve un computer portatile
12:01
to do all the calculationscalcoli just for one neuronneurone.
256
703000
3000
per eseguire i calcoli per un solo neurone.
12:04
So you need 10,000 laptopscomputer portatili.
257
706000
2000
Allora servono 10.000 portatili.
12:06
So where do you go? You go to IBMIBM,
258
708000
2000
Bisogna andare all'IBM,
12:08
and you get a supercomputersupercomputer, because they know how to take
259
710000
2000
e usare un supercomputer, perchè loro sanno come prendere
12:10
10,000 laptopscomputer portatili and put it into the sizedimensione of a refrigeratorFrigorifero.
260
712000
4000
10.000 laptop e concentrarli nelle dimensioni di un frigorifero.
12:14
So now we have this BlueBlu GeneGene supercomputersupercomputer.
261
716000
3000
Con questo computer Blue Gene.
12:17
We can loadcaricare up all the neuronsneuroni,
262
719000
2000
Possiamo caricare tutti i neuroni,
12:19
eachogni one on to its processorprocessore,
263
721000
2000
ciascuno sul suo processore,
12:21
and firefuoco it up, and see what happensaccade.
264
723000
4000
dare l'avvio, e stare a vedere cosa succede.
12:25
Take the magicMagia carpettappeto for a ridecavalcata.
265
727000
3000
Portare il tappeto magico a fare un giro.
12:28
Here we activateattivare it. And this gives the first glimpseintravedere
266
730000
3000
Qui lo attiviamo. E questo ci dà un'idea
12:31
of what is happeningavvenimento in your braincervello
267
733000
2000
di ciò che succede nel vostro cervello
12:33
when there is a stimulationstimolazione.
268
735000
2000
quando c'é uno stimolo.
12:35
It's the first viewvista.
269
737000
2000
E' una prima prospettiva.
12:37
Now, when you look at that the first time, you think,
270
739000
2000
Quando guardate per la prima volta, vi viene da pensare:
12:39
"My god. How is realityla realtà comingvenuta out of that?"
271
741000
5000
"Dio mio. Com'è che la realtà viene fuori da lì?"
12:44
But, in factfatto, you can startinizio,
272
746000
3000
Però in effetti è possibile constuire
12:47
even thoughanche se we haven'tnon hanno trainedallenato this neocorticalneocorticale columncolonna
273
749000
4000
una realtà particolare anche se
12:51
to createcreare a specificspecifica realityla realtà.
274
753000
2000
non abbiamo istruito questa collona neo-corticale,
12:53
But we can askChiedere, "Where is the roserosa?"
275
755000
4000
Ma possiamo chiedere: "dov'è la rosa?"
12:57
We can askChiedere, "Where is it insidedentro,
276
759000
2000
Possiamo chiedere "dove si trova nella corteccia,
12:59
if we stimulatestimolare it with a pictureimmagine?"
277
761000
3000
se la stimoliamo con una foto?"
13:02
Where is it insidedentro the neocortexneocorteccia?
278
764000
2000
Dove è collocata nella neo-corteccia?
13:04
UltimatelyIn definitiva it's got to be there if we stimulatedstimolato it with it.
279
766000
4000
Se abbiamo creato questo stimolo, deve trovarsi all'interno.
13:08
So, the way that we can look at that
280
770000
2000
Possiamo ignorare
13:10
is to ignoreignorare the neuronsneuroni, ignoreignorare the synapsessinapsi,
281
772000
3000
i neuroni e le sinapsi,
13:13
and look just at the rawcrudo electricalelettrico activityattività.
282
775000
2000
e concentrarci solo sull'attività elettrica.
13:15
Because that is what it's creatingla creazione di.
283
777000
2000
Perchè questo è ciò che viene creato.
13:17
It's creatingla creazione di electricalelettrico patternsmodelli.
284
779000
2000
Si generano modelli di attività elettrica.
13:19
So when we did this,
285
781000
2000
Quando facciamo così
13:21
we indeedinfatti, for the first time,
286
783000
2000
per la prima volta vediamo
13:23
saw these ghost-likecome un fantasma structuresstrutture:
287
785000
3000
queste strutture fantasmatiche:
13:26
electricalelettrico objectsoggetti appearingapparendo
288
788000
3000
oggetti fatti di elettricità che compaiono
13:29
withinentro the neocorticalneocorticale columncolonna.
289
791000
3000
dentro la colonna neo corticale.
13:32
And it's these electricalelettrico objectsoggetti
290
794000
3000
Sono proprio questi oggetti
13:35
that are holdingdetenzione all the informationinformazione about
291
797000
3000
che contengono tutte le informazioni relative
13:38
whateverqualunque cosa stimulatedstimolato it.
292
800000
3000
a qualsiasi cosa le abbia stimolate.
13:41
And then when we zoomedingrandita into this,
293
803000
2000
E quando abbiamo fatto uno zoom su questa realtà,
13:43
it's like a veritablevero e proprio universeuniverso.
294
805000
4000
è come un universo vero e proprio.
13:47
So the nextIl prossimo steppasso
295
809000
2000
Il prossimo passo
13:49
is just to take these braincervello coordinatescoordinate
296
811000
4000
è prendere queste coordiante cerebrali
13:53
and to projectprogetto them into perceptualpercettivo spacespazio.
297
815000
4000
e proiettarle nello spazio percettivo.
13:57
And if you do that,
298
819000
2000
E facendo ciò
13:59
you will be ablecapace to steppasso insidedentro
299
821000
2000
si può entrare nella
14:01
the realityla realtà that is createdcreato
300
823000
2000
realtà che si è creata
14:03
by this machinemacchina,
301
825000
2000
da questo pezzo di cervello
14:05
by this piecepezzo of the braincervello.
302
827000
3000
per mezzo di questa macchina.
14:08
So, in summaryRiepilogo,
303
830000
2000
Quindi, in sintesi,
14:10
I think that the universeuniverso maypuò have --
304
832000
2000
Penso che l'universo possa -
14:12
it's possiblepossibile --
305
834000
2000
possibilmente -
14:14
evolvedevoluto a braincervello to see itselfsi,
306
836000
3000
aver evoluto un cervello per guardare a se stesso.
14:17
whichquale maypuò be a first steppasso in becomingdiventando awareconsapevole of itselfsi.
307
839000
5000
che può essere un primo passo verso l'auto-coscienza.
14:22
There is a lot more to do to testTest these theoriesteorie,
308
844000
2000
C'è ancora un sacco di cose da fare per verificare queste teorie,
14:24
and to testTest any other theoriesteorie.
309
846000
3000
o qualsiasi altra teoria.
14:27
But I hopesperanza that you are at leastmeno partlyin parte convincedconvinto
310
849000
3000
Ma spero che voi siate almeno parzialmente convinti
14:30
that it is not impossibleimpossibile to buildcostruire a braincervello.
311
852000
3000
che non è impossibile costruire un cervello.
14:33
We can do it withinentro 10 yearsanni,
312
855000
2000
Possiamo arrivarci in 10 anni,
14:35
and if we do succeedavere successo,
313
857000
2000
e se ce la facciamo,
14:37
we will sendinviare to TEDTED, in 10 yearsanni,
314
859000
2000
spediremo a TED, tra 10 anni,
14:39
a hologramologramma to talk to you. Thank you.
315
861000
3000
un ologramma per tenere la conferenza. Grazie.
14:42
(ApplauseApplausi)
316
864000
6000
(Applausi)
Translated by Cesare Giorgio Bin
Reviewed by Paolo L

▲Back to top

ABOUT THE SPEAKER
Henry Markram - Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time.

Why you should listen

In the microscopic, yet-uncharted circuitry of the cortex, Henry Markram is perhaps the most ambitious -- and our most promising -- frontiersman. Backed by the extraordinary power of the IBM Blue Gene supercomputing architecture, which can perform hundreds of trillions of calculations per second, he's using complex models to precisely simulate the neocortical column (and its tens of millions of neural connections) in 3D.

Though the aim of Blue Brain research is mainly biomedical, it has been edging up on some deep, contentious philosophical questions about the mind -- "Can a robot think?" and "Can consciousness be reduced to mechanical components?" -- the consequence of which Markram is well aware: Asked by Seed Magazine what a simulation of a full brain might do, he answered, "Everything. I mean everything" -- with a grin.

Now, with a successful proof-of-concept for simulation in hand (the project's first phase was completed in 2007), Markram is looking toward a future where brains might be modeled even down to the molecular and genetic level. Computing power marching rightward and up along the graph of Moore's Law, Markram is sure to be at the forefront as answers to the mysteries of cognition emerge.

More profile about the speaker
Henry Markram | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee