ABOUT THE SPEAKER
Sebastian Seung - Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain.

Why you should listen

In the brain, neurons are connected into a complex network. Sebastian Seung and his lab at MIT are inventing technologies for identifying and describing the connectome, the totality of connections between the brain's neurons -- think of it as the wiring diagram of the brain. We possess our entire genome at birth, but things like memories are not "stored" in the genome; they are acquired through life and accumulated in the brain. Seung's hypothesis is that "we are our connectome," that the connections among neurons is where memories and experiences get stored.

Seung and his collaborators, including Winfried Denk at the Max Planck Institute and Jeff Lichtman at Harvard University, are working on a plan to thin-slice a brain (probably starting with a mouse brain) and trace, from slice to slice, each neural pathway, exposing the wiring diagram of the brain and creating a powerful new way to visualize the workings of the mind. They're not the first to attempt something like this -- Sydney Brenner won a Nobel for mapping all the 7,000 connections in the nervous system of a tiny worm, C. elegans. But that took his team a dozen years, and the worm only had 302 nerve cells. One of Seung's breakthroughs is in using advanced imagining and AI to handle the crushing amount of data that a mouse brain will yield and turn it into richly visual maps that show the passageways of thought and sensation.

More profile about the speaker
Sebastian Seung | Speaker | TED.com
TEDGlobal 2010

Sebastian Seung: I am my connectome

Io sono il mio connettoma: Sebastian Seung

Filmed:
1,131,223 views

Sebastian Seung sta lavorando ad un progetto molto ambizioso: mappare un modello del cervello studiando le connessioni tra ciascun neurone. Chiama questo modello il nostro "connettoma", che è tanto personale quanto il nostro genoma-- e la sua comprensione potrebbe aprire una nuova strada alla comprensione dei nostri cervelli e delle nostre menti.
- Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain. Full bio

Double-click the English transcript below to play the video.

00:17
We livevivere in in a remarkablenotevole time,
0
2000
3000
Viviamo un'era straordinaria,
00:20
the ageetà of genomicsgenomica.
1
5000
3000
l'era della genomica.
00:23
Your genomegenoma is the entireintero sequencesequenza of your DNADNA.
2
8000
3000
Il vostro genoma è la sequenza completa del vostro DNA.
00:26
Your sequencesequenza and mineil mio are slightlyleggermente differentdiverso.
3
11000
3000
La vostra sequenza e la mia sono leggermente diverse,
00:29
That's why we look differentdiverso.
4
14000
2000
Per questo non abbiamo lo stesso aspetto.
00:31
I've got brownMarrone eyesocchi;
5
16000
2000
I miei occhi sono marroni,
00:33
you mightpotrebbe have blueblu or graygrigio.
6
18000
3000
i vostri potrebbero essere blu, o grigi.
00:36
But it's not just skin-deepl'epidermide.
7
21000
2000
Ma il genoma non si limita all'aspetto.
00:38
The headlinesNotizie tell us
8
23000
2000
Come ci dicono i titoli dei giornali,
00:40
that genesgeni can give us scarypauroso diseasesmalattie,
9
25000
3000
i geni possono causarci malattie spaventose,
00:43
maybe even shapeforma our personalitypersonalità,
10
28000
3000
e forse persino plasmare la nostra personalità,
00:46
or give us mentalmentale disordersdisturbi.
11
31000
3000
o infliggerci disturbi mentali.
00:49
Our genesgeni seemsembrare to have
12
34000
3000
I nostri geni, insomma, sembrano avere
00:52
awesomeeccezionale powerenergia over our destiniesdestini.
13
37000
3000
un potere stupefacente sul nostro destino.
00:56
And yetancora, I would like to think
14
41000
3000
E tuttavia, mi piacerebbe pensare
00:59
that I am more than my genesgeni.
15
44000
3000
di essere qualcosa di più dei miei geni.
01:04
What do you guys think?
16
49000
2000
Voi che pensate, gente?
01:06
Are you more than your genesgeni?
17
51000
3000
Siete più dei vostri geni?
01:09
(AudiencePubblico: Yes.) Yes?
18
54000
2000
(Pubblico: Sì.) Sì?
01:13
I think some people agreeessere d'accordo with me.
19
58000
2000
Penso che alcuni di voi siano d'accordo con me.
01:15
I think we should make a statementdichiarazione.
20
60000
2000
e che dovremmo dichiararlo,
01:17
I think we should say it all togetherinsieme.
21
62000
2000
che dovremmo dirlo tutti insieme.
01:20
All right: "I'm more than my genesgeni" -- all togetherinsieme.
22
65000
3000
Bene: "Io sono più dei miei geni". Tutti insieme.
01:23
EverybodyTutti: I am more than my genesgeni.
23
68000
4000
(Tutti): Io sono più dei miei geni!
01:27
(CheeringTifo)
24
72000
2000
(Sorride)
01:30
SebastianSebastian SeungSeung: What am I?
25
75000
2000
Sebastian Seung: Che cosa sono io?
01:32
(LaughterRisate)
26
77000
3000
(Risate)
01:35
I am my connectomeconnettoma.
27
80000
3000
Io sono il mio connettoma.
01:40
Now, sinceda you guys are really great,
28
85000
2000
Siete un pubblico grandioso, quindi forse potete
01:42
maybe you can humorumorismo me and say this all togetherinsieme too.
29
87000
2000
accontentarmi e dire tutti insieme anche questo.
01:44
(LaughterRisate)
30
89000
2000
(Risate)
01:46
Right. All togetherinsieme now.
31
91000
2000
Bene. Tutti insieme adesso.
01:48
EverybodyTutti: I am my connectomeconnettoma.
32
93000
3000
(Tutti insieme): Io sono il mio connettoma.
01:53
SSSS: That soundedsuonava great.
33
98000
2000
SS: Fantastico!
01:55
You know, you guys are so great, you don't even know what a connectomeconnettoma is,
34
100000
2000
Siete proprio in gamba, non sapete nemmeno che cosa sia un connettoma
01:57
and you're willingdisposto to playgiocare alonglungo with me.
35
102000
2000
e siete disposti a stare al mio gioco.
01:59
I could just go home now.
36
104000
3000
Potrei tornarmene a casa già adesso.
02:02
Well, so farlontano only one connectomeconnettoma is knownconosciuto,
37
107000
3000
Comunque, finora si conosce un solo connettoma,
02:05
that of this tinyminuscolo wormverme.
38
110000
3000
quello di questo minuscolo verme.
02:08
Its modestmodesto nervousnervoso systemsistema
39
113000
2000
Il suo semplice sistema nervoso
02:10
consistsconsiste of just 300 neuronsneuroni.
40
115000
2000
è fatto di soli 300 neuroni.
02:12
And in the 1970s and '80s,
41
117000
2000
E negli anni '70 ed '80,
02:14
a teamsquadra of scientistsscienziati
42
119000
2000
un team di scienziati
02:16
mappedmappato all 7,000 connectionsconnessioni
43
121000
2000
ha mappato tutte le 7.000 connessioni
02:18
betweenfra the neuronsneuroni.
44
123000
2000
tra i neuroni.
02:21
In this diagramdiagramma, everyogni nodenodo is a neuronneurone,
45
126000
2000
In questo schema, ogni nodo è un neurone,
02:23
and everyogni linelinea is a connectionconnessione.
46
128000
2000
ed ogni linea è una connessione.
02:25
This is the connectomeconnettoma
47
130000
2000
Questo è il connettoma
02:27
of the wormverme C. eleganselegans.
48
132000
4000
del verme C. elegans.
02:31
Your connectomeconnettoma is farlontano more complexcomplesso than this
49
136000
3000
Il nostro connettoma è di gran lunga più complesso,
02:34
because your braincervello
50
139000
2000
perché il nostro cervello
02:36
containscontiene 100 billionmiliardo neuronsneuroni
51
141000
2000
contiene 100 miliardi di neuroni
02:38
and 10,000 timesvolte as manymolti connectionsconnessioni.
52
143000
3000
e 10.000 volte più connessioni.
02:41
There's a diagramdiagramma like this for your braincervello,
53
146000
2000
Esiste uno schema simile per il nostro cervello,
02:43
but there's no way it would fitin forma on this slidediapositiva.
54
148000
3000
ma non potrebbe stare in alcun modo dentro questa diapositiva.
02:47
Your connectomeconnettoma containscontiene one millionmilione timesvolte more connectionsconnessioni
55
152000
3000
Il nostro connettoma contiene un milione di volte più connessioni
02:50
than your genomegenoma has letterslettere.
56
155000
3000
di quante lettere abbia il nostro genoma.
02:53
That's a lot of informationinformazione.
57
158000
2000
È una quantità di informazione enorme.
02:55
What's in that informationinformazione?
58
160000
3000
Che c'è in quelle informazioni?
02:59
We don't know for sure, but there are theoriesteorie.
59
164000
3000
Non lo sappiamo con certezza, ma sono state formulate varie teorie.
03:02
SinceDal the 19thesimo centurysecolo, neuroscientistsneuroscienziati have speculatedspeculato
60
167000
3000
Dal 19.mo secolo, i neuroscienziati hanno ipotizzato
03:05
that maybe your memoriesricordi --
61
170000
2000
che forse i nostri ricordi--
03:07
the informationinformazione that makesfa you, you --
62
172000
2000
le informazioni che ci rendono le persone che siamo--
03:09
maybe your memoriesricordi are storedmemorizzati
63
174000
2000
forse sono conservati
03:11
in the connectionsconnessioni betweenfra your brain'sIl cervello di neuronsneuroni.
64
176000
2000
nelle connessioni tra i neuroni del cervello.
03:15
And perhapsForse other aspectsaspetti of your personalpersonale identityidentità --
65
180000
2000
E forse anche altri aspetti della nostra identità personale,
03:17
maybe your personalitypersonalità and your intellectintelletto --
66
182000
3000
forse la nostra personalità e il nostro intelletto,
03:20
maybe they're alsoanche encodedcon codifica
67
185000
2000
forse anch'essi sono codificati
03:22
in the connectionsconnessioni betweenfra your neuronsneuroni.
68
187000
3000
nelle connessioni tra i nostri neuroni.
03:26
And so now you can see why I proposedproposto this hypothesisipotesi:
69
191000
3000
Ora potete capire, dunque, perché ho avanzato quest'ipotesi:
03:29
I am my connectomeconnettoma.
70
194000
3000
io sono il mio connettoma.
03:32
I didn't askChiedere you to chantcanto it because it's truevero;
71
197000
3000
Non vi ho chiesto di fare il coro perché è vero,
03:35
I just want you to rememberricorda it.
72
200000
2000
voglio solo che ve lo ricordiate.
03:37
And in factfatto, we don't know if this hypothesisipotesi is correctcorretta,
73
202000
2000
In effetti, non sappiamo se l'ipotesi sia corretta,
03:39
because we have never had technologiestecnologie
74
204000
2000
perché non abbiamo mai avuto tecnologie
03:41
powerfulpotente enoughabbastanza to testTest it.
75
206000
2000
abbastanza potenti da verificarla.
03:44
FindingTrovare that wormverme connectomeconnettoma
76
209000
3000
Trovare il connettoma di quel verme
03:47
tookha preso over a dozendozzina yearsanni of tediousnoioso laborlavoro.
77
212000
3000
ha richiesto oltre dodici anni di lavoro tedioso.
03:50
And to find the connectomesconnettomi of brainsmente more like our ownproprio,
78
215000
3000
E per trovare i connettomi di cervelli più simili al nostro
03:53
we need more sophisticatedsofisticato technologiestecnologie, that are automatedautomatizzato,
79
218000
3000
servono tecnologie più sofisticate, automatizzate,
03:56
that will speedvelocità up the processprocesso of findingscoperta connectomesconnettomi.
80
221000
3000
che accelerino la scoperta di nuovi connettomi.
03:59
And in the nextIl prossimo fewpochi minutesminuti, I'll tell you about some of these technologiestecnologie,
81
224000
3000
E nei prossimi minuti, vi parlerò di alcune di queste tecnologie,
04:02
whichquale are currentlyattualmente undersotto developmentsviluppo
82
227000
2000
che al momento sono in fase di sviluppo
04:04
in my lablaboratorio and the labslaboratori of my collaboratorscollaboratori.
83
229000
3000
nel mio laboratorio e in quelli dei miei collaboratori.
04:08
Now you've probablyprobabilmente seenvisto picturesimmagini of neuronsneuroni before.
84
233000
3000
Probabilmente, avete già visto immagini di neuroni.
04:11
You can recognizericonoscere them instantlyimmediatamente
85
236000
2000
Si riconoscono all'istante
04:13
by theirloro fantasticfantastico shapesforme.
86
238000
3000
grazie alle loro forme fantastiche.
04:16
They extendestendere long and delicatedelicato branchesrami,
87
241000
3000
Si estendono in diramazioni lunghe e delicate,
04:19
and in shortcorto, they look like treesalberi.
88
244000
3000
e somigliano, in una parola, a degli alberi.
04:22
But this is just a singlesingolo neuronneurone.
89
247000
3000
Ma questo è solo un singolo neurone.
04:25
In orderordine to find connectomesconnettomi,
90
250000
2000
Per trovare i connettomi,
04:27
we have to see all the neuronsneuroni at the samestesso time.
91
252000
3000
dobbiamo osservare tutti i neuroni contemporaneamente.
04:30
So let's meetincontrare BobbyBobby KasthuriKasthuri,
92
255000
2000
Incontriamo dunque Bobby Kasthuri,
04:32
who workslavori in the laboratorylaboratorio of JeffJeff LichtmanLichtman
93
257000
2000
che lavora nel laboratorio di Jeff Lichtman
04:34
at HarvardHarvard UniversityUniversità.
94
259000
2000
all'Università di Harvard.
04:36
BobbyBobby is holdingdetenzione fantasticallyfantasticamente thinmagro slicesfette
95
261000
2000
Bobby tiene in mano delle fette fantasticamente sottili
04:38
of a mousetopo braincervello.
96
263000
2000
del cervello di un topo.
04:40
And we're zoominglo zoom in by a factorfattore of 100,000 timesvolte
97
265000
3000
E noi le ingrandiamo 100.000 volte
04:44
to obtainottenere the resolutionrisoluzione,
98
269000
2000
per ottenere la risoluzione giusta,
04:46
so that we can see the branchesrami of neuronsneuroni all at the samestesso time.
99
271000
3000
che ci permetta di vedere vedere tutte le diramazioni contemporaneamente.
04:50
ExceptTranne per il fatto, you still maypuò not really recognizericonoscere them,
100
275000
3000
Solo che potreste non riconoscerle ancora,
04:53
and that's because we have to work in threetre dimensionsdimensioni.
101
278000
3000
perché dobbiamo lavorare in tre dimensioni.
04:56
If we take manymolti imagesimmagini of manymolti slicesfette of the braincervello
102
281000
2000
Raccogliendo molte scansioni di molte fette cerebrali
04:58
and stackpila them up,
103
283000
2000
e impilandole,
05:00
we get a three-dimensionaltridimensionale imageImmagine.
104
285000
2000
otteniamo un'immagine tridimensionale.
05:02
And still, you maypuò not see the branchesrami.
105
287000
2000
Ma ancora non si possono vedere le ramificazioni.
05:04
So we startinizio at the topsuperiore,
106
289000
2000
Iniziamo quindi dalla cima,
05:06
and we colorcolore in the cross-sectionsezione trasversale of one branchramo in redrosso,
107
291000
3000
e coloriamo in rosso la sezione di una ramificazione,
05:09
and we do that for the nextIl prossimo slicefetta
108
294000
2000
poi ripetiamo l'operazione nella fetta successiva
05:11
and for the nextIl prossimo slicefetta.
109
296000
2000
e in quella ancora successiva.
05:13
And we keep on doing that,
110
298000
2000
E continuiam così,
05:15
slicefetta after slicefetta.
111
300000
3000
fetta dopo fetta.
05:18
If we continueContinua throughattraverso the entireintero stackpila,
112
303000
2000
Se ripetiamo l'operazione per tutta la pila,
05:20
we can reconstructricostruire the three-dimensionaltridimensionale shapeforma
113
305000
3000
possiamo ricostruire la forma tridimensionale
05:23
of a smallpiccolo fragmentframmento of a branchramo of a neuronneurone.
114
308000
3000
di un piccolo frammento di una ramificazione neuronale.
05:26
And we can do that for anotherun altro neuronneurone in greenverde.
115
311000
2000
E possiamo farlo con un altro neurone, in verde.
05:28
And you can see that the greenverde neuronneurone touchestocchi the redrosso neuronneurone
116
313000
2000
Potete vedere come il neurone verde tocchi quello rosso
05:30
at two locationsposizioni,
117
315000
2000
in due punti,
05:32
and these are what are calledchiamato synapsessinapsi.
118
317000
2000
che sono quelle che chiamiamo sinapsi.
05:34
Let's zoomzoom in on one synapsesinapsi,
119
319000
2000
Adesso ingrandiamo una sinapsi
05:36
and keep your eyesocchi on the interiorinterno of the greenverde neuronneurone.
120
321000
3000
e voi osservate l'interno del neurone verde.
05:39
You should see smallpiccolo circlescerchi --
121
324000
2000
Dovreste notare dei piccoli cerchi:
05:41
these are calledchiamato vesiclesvescicole.
122
326000
3000
si chiamano vescicole.
05:44
They containcontenere a moleculemolecola know as a neurotransmitterneurotrasmettitore.
123
329000
3000
Contengono una molecola nota come neurotrasmettitore.
05:47
And so when the greenverde neuronneurone wants to communicatecomunicare,
124
332000
2000
Così quando il neurone verde vuole comunicare,
05:49
it wants to sendinviare a messagemessaggio to the redrosso neuronneurone,
125
334000
2000
se vuol mandare un messaggio al neurone rosso,
05:51
it spitsSputa out neurotransmitterneurotrasmettitore.
126
336000
3000
sputa fuori neurotrasmettitori.
05:54
At the synapsesinapsi, the two neuronsneuroni
127
339000
2000
In corrispondenza della sinapsi, i due neuroni
05:56
are said to be connectedcollegato
128
341000
2000
si dice che sono connessi,
05:58
like two friendsamici talkingparlando on the telephonetelefono.
129
343000
3000
come due amici che parlano al telefono.
06:02
So you see how to find a synapsesinapsi.
130
347000
2000
Avete visto, dunque, come si trova una sinapsi.
06:04
How can we find an entireintero connectomeconnettoma?
131
349000
3000
Ma come possiamo trovare un intero conettoma?
06:07
Well, we take this three-dimensionaltridimensionale stackpila of imagesimmagini
132
352000
3000
Beh, prendiamo questa pila tridimensionale di immagini
06:10
and treattrattare it as a giganticgigantesco three-dimensionaltridimensionale coloringdisegni da colorare booklibro.
133
355000
3000
e trattiamola come un gigantesco libro in 3D, da colorare.
06:13
We colorcolore everyogni neuronneurone in, in a differentdiverso colorcolore,
134
358000
3000
Assegniamo a ogni neurone un colore diverso,
06:16
and then we look throughattraverso all of the imagesimmagini,
135
361000
2000
poi esaminiamo tutte le immagini,
06:18
find the synapsessinapsi
136
363000
2000
troviamo le sinapsi
06:20
and noteNota the colorscolori of the two neuronsneuroni involvedcoinvolti in eachogni synapsesinapsi.
137
365000
3000
e osserviamo i colori dei due neuroni ingaggiati in ogni sinapsi.
06:23
If we can do that throughoutper tutto all the imagesimmagini,
138
368000
3000
Se riusciamo a farlo per tutte le immagini,
06:26
we could find a connectomeconnettoma.
139
371000
2000
potremmo trovare un connettoma.
06:29
Now, at this pointpunto,
140
374000
2000
A questo punto
06:31
you've learnedimparato the basicsNozioni di base of neuronsneuroni and synapsessinapsi.
141
376000
2000
avete imparato le basi di neuroni e sinapsi.
06:33
And so I think we're readypronto to tackleaffrontare
142
378000
2000
Penso quindi che siamo pronti ad affrontare
06:35
one of the mostmaggior parte importantimportante questionsle domande in neuroscienceneuroscienza:
143
380000
3000
una delle domande più importanti nelle neuroscienze:
06:39
how are the brainsmente of menuomini and womendonne differentdiverso?
144
384000
3000
in cosa sono diversi i cervelli degli uomini e delle donne?
06:42
(LaughterRisate)
145
387000
2000
(Risate)
06:44
AccordingSecondo to this self-helpSelf-Help booklibro,
146
389000
2000
Secondo questo manuale di auto-aiuto,
06:46
guys brainsmente are like wafflescialde;
147
391000
2000
i cervelli maschili sono come delle cialde:
06:48
they keep theirloro livesvite compartmentalizedcompartmentalized in boxesscatole.
148
393000
3000
rinchiudono la propria vita in tante scatole separate.
06:51
Girls'Girls' brainsmente are like spaghettispaghetti;
149
396000
3000
Quelli delle donne, invece, sono come gli spaghetti;
06:54
everything in theirloro life is connectedcollegato to everything elsealtro.
150
399000
3000
ogni cosa, nella loro vita, è connessa a ogni altra.
06:57
(LaughterRisate)
151
402000
2000
(Risate)
06:59
You guys are laughingche ride,
152
404000
2000
Voi ridete, gente,
07:01
but you know, this booklibro changedcambiato my life.
153
406000
2000
ma questo libro ha cambiato la mia vita!
07:03
(LaughterRisate)
154
408000
2000
(Risate)
07:07
But seriouslysul serio, what's wrongsbagliato with this?
155
412000
3000
Seriamente, che cosa c'è che non va in tutto questo?
07:10
You alreadygià know enoughabbastanza to tell me -- what's wrongsbagliato with this statementdichiarazione?
156
415000
3000
Ne sapete già abbastanza per dirmelo. Cosa non va in questa affermazione?
07:20
It doesn't matterimporta whetherse you're a guy or girlragazza,
157
425000
3000
Non importa che siate un ragazzo o una ragazza,
07:23
everyone'sdi tutti brainsmente are like spaghettispaghetti.
158
428000
3000
tutti noi abbiamo cervelli simili agli spaghetti.
07:26
Or maybe really, really fine capelliniCapellini with branchesrami.
159
431000
3000
O forse a sottilissimi capelli d'angelo, con tante ramificazioni.
07:30
Just as one strandStrand of spaghettispaghetti
160
435000
2000
Proprio come uno spaghetto
07:32
contactscontatti manymolti other strandstrefoli on your platepiatto,
161
437000
3000
ne tocca molti altri, nel piatto,
07:35
one neuronneurone touchestocchi manymolti other neuronsneuroni
162
440000
2000
un neurone tocca molti altri neuroni
07:37
throughattraverso theirloro entangledimpigliata branchesrami.
163
442000
2000
grazie alle loro ramificazioni intrecciate.
07:39
One neuronneurone can be connectedcollegato to so manymolti other neuronsneuroni,
164
444000
3000
E il motivo per cui possono connettersi a così tanti altri neuroni
07:42
because there can be synapsessinapsi
165
447000
2000
è che ci possono essere delle sinapsi
07:44
at these pointspunti of contactcontatto.
166
449000
3000
in quei punti di contatto.
07:49
By now, you mightpotrebbe have sortordinare of lostperduto perspectiveprospettiva
167
454000
3000
A questo punto, potreste aver perso il senso delle proporzioni
07:52
on how largegrande this cubecubo of braincervello tissuefazzoletto di carta actuallyin realtà is.
168
457000
3000
su quanto grande sia in realtà questo cubo di tessuto cerebrale.
07:55
And so let's do a seriesserie of comparisonsi confronti to showmostrare you.
169
460000
3000
E quindi vi farò una serie di confronti, per mostrarvelo.
07:58
I assureassicurare you, this is very tinyminuscolo. It's just sixsei micronsmicron on a sidelato.
170
463000
3000
È molto piccolo, ve l'assicuro. Solo sei micron (0,006 millimetri) di lato.
08:03
So, here'secco how it stacksstack up againstcontro an entireintero neuronneurone.
171
468000
3000
Eccolo a confronto con un intero neurone.
08:06
And you can tell that, really, only the smallestpiù piccolo fragmentsframmenti of branchesrami
172
471000
3000
Potete vedere che in realtà solo i più piccoli frammenti delle ramificazioni
08:09
are containedcontenuta insidedentro this cubecubo.
173
474000
3000
stanno dentro questo cubo.
08:12
And a neuronneurone, well, that's smallerpiù piccola than braincervello.
174
477000
3000
E un neurone, beh, è più piccolo del cervello.
08:17
And that's just a mousetopo braincervello --
175
482000
2000
E questo è solo un cervello di topo.
08:21
it's a lot smallerpiù piccola than a humanumano braincervello.
176
486000
3000
Che è molto più piccolo di un cervello umano.
08:25
So when showmostrare my friendsamici this,
177
490000
2000
Perciò, quando mostro queste cose ai miei amici,
08:27
sometimesa volte they'veessi hanno told me,
178
492000
2000
a volte mi hanno detto:
08:29
"You know, SebastianSebastian, you should just give up.
179
494000
3000
"Sai, Sebastian, dovresti proprio lasciar perdere.
08:32
NeuroscienceNeuroscienze is hopelesssenza speranza."
180
497000
2000
Non c'è speranza per la neuroscienza."
08:34
Because if you look at a braincervello with your nakednudo eyeocchio,
181
499000
2000
Perché osservando un cervello a occhio nudo,
08:36
you don't really see how complexcomplesso it is,
182
501000
2000
non si può realmente vedere quant'è complesso,
08:38
but when you use a microscopemicroscopio,
183
503000
2000
ma quando usi un microscopio
08:40
finallyfinalmente the hiddennascosto complexitycomplessità is revealedha rivelato.
184
505000
3000
la sua complessità nascosta finalmente si rivela.
08:45
In the 17thesimo centurysecolo,
185
510000
2000
Nel 17esimo secolo,
08:47
the mathematicianmatematico and philosopherfilosofo, BlaiseBlaise PascalPascal,
186
512000
2000
Blasie Pascal, matematico e filosofo,
08:49
wroteha scritto of his dreadterrore of the infiniteinfinito,
187
514000
3000
scrisse del suo timore dell'infinito,
08:52
his feelingsensazione of insignificanceinsignificanza
188
517000
2000
del suo sentirsi insignificante
08:54
at contemplatingcontemplando the vastvasto reachesraggiunge of outeresterno spacespazio.
189
519000
3000
quando contemplava la vastità del cosmo.
08:59
And, as a scientistscienziato,
190
524000
2000
E io, come scienziato,
09:01
I'm not supposedipotetico to talk about my feelingssentimenti --
191
526000
3000
non dovrei parlare dei miei sentimenti.
09:04
too much informationinformazione, professorProfessore.
192
529000
2000
Troppe informazioni, professore.
09:06
(LaughterRisate)
193
531000
2000
(Risate)
09:08
But maypuò I?
194
533000
2000
Ma posso farlo?
09:10
(LaughterRisate)
195
535000
2000
(Risate)
09:12
(ApplauseApplausi)
196
537000
2000
(Applausi)
09:14
I feel curiositycuriosità,
197
539000
2000
Provo curiosità,
09:16
and I feel wondermeravigliarsi,
198
541000
2000
e provo meraviglia,
09:18
but at timesvolte I have alsoanche feltprovato despairdisperazione.
199
543000
3000
ma ho anche provato disperazione, a volte.
09:22
Why did I choosescegliere to studystudia
200
547000
2000
Perché ho scelto di studiare
09:24
this organorgano that is so awesomeeccezionale in its complexitycomplessità
201
549000
3000
un organo dalla complessità così sbalorditiva
09:27
that it mightpotrebbe well be infiniteinfinito?
202
552000
2000
da essere praticamente infinito?
09:29
It's absurdassurdo.
203
554000
2000
È assurdo.
09:31
How could we even dareosare to think
204
556000
2000
Come osiamo anche solo credere
09:33
that we mightpotrebbe ever understandcapire this?
205
558000
3000
che potremo mai comprenderlo?
09:38
And yetancora, I persistpersistono in this quixoticdonchisciottesco endeavorEndeavor.
206
563000
3000
Tuttavia, io persisto in quest'impresa donchisciottesca.
09:41
And indeedinfatti, these daysgiorni I harborporto newnuovo hopessperanze.
207
566000
3000
E anzi in questi giorni nutro nuove speranze.
09:45
SomedayUn giorno,
208
570000
2000
Un giorno,
09:47
a fleetflotta of microscopesmicroscopi will capturecatturare
209
572000
2000
una batteria di microscopi riuscirà a rinchiudere
09:49
everyogni neuronneurone and everyogni synapsesinapsi
210
574000
2000
ogni neurone ed ogni sinapsi
09:51
in a vastvasto databaseBanca dati of imagesimmagini.
211
576000
3000
in un grande database di immagini.
09:54
And some day, artificiallyartificialmente intelligentintelligente supercomputerssupercomputer
212
579000
3000
E un giorno, dei supercomputer dotati d'intelligenza artificiale
09:57
will analyzeanalizzare the imagesimmagini withoutsenza humanumano assistanceassistenza
213
582000
3000
analizzeranno le immagini senza intervento umano,
10:00
to summarizeriassumere them in a connectomeconnettoma.
214
585000
3000
ricomponendole in un connettoma.
10:04
I do not know, but I hopesperanza that I will livevivere to see that day,
215
589000
3000
Non lo so per certo, ma spero di essere ancora vivo, quel giorno.
10:08
because findingscoperta an entireintero humanumano connectomeconnettoma
216
593000
2000
Perché ricostruire un intero connettoma umano
10:10
is one of the greatestpiù grande technologicaltecnologico challengessfide of all time.
217
595000
3000
è una delle sfide tecnologiche più grandi di tutti i tempi.
10:13
It will take the work of generationsgenerazioni to succeedavere successo.
218
598000
3000
Sarà necessario il lavoro di generazioni, per vincerla.
10:17
At the presentpresente time, my collaboratorscollaboratori and I,
219
602000
3000
Per il momento, i miei collaboratori ed io
10:20
what we're aimingcon l'obiettivo for is much more modestmodesto --
220
605000
2000
ci poniamo un obiettivo molto più modesto --
10:22
just to find partialparziale connectomesconnettomi
221
607000
2000
solo trovare connettomi parziali
10:24
of tinyminuscolo chunkspezzi of mousetopo and humanumano braincervello.
222
609000
3000
di piccoli campioni di cervello umano e murino.
10:27
But even that will be enoughabbastanza for the first teststest of this hypothesisipotesi
223
612000
3000
Ma anche quelli saranno sufficienti per iniziare a testare l'ipotesi
10:30
that I am my connectomeconnettoma.
224
615000
3000
che io sono il mio connettoma.
10:35
For now, let me try to convinceconvincere you of the plausibilityplausibilità of this hypothesisipotesi,
225
620000
3000
Per ora, lasciate che provi a convincervi che quest'ipotesi è plausibile,
10:38
that it's actuallyin realtà worthdi valore takingpresa seriouslysul serio.
226
623000
3000
che merita di essere presa seriamente in considerazione.
10:42
As you growcrescere duringdurante childhoodinfanzia
227
627000
2000
Man mano che cresciamo, durante l'infanzia,
10:44
and ageetà duringdurante adulthoodetà adulta,
228
629000
3000
e poi invecchiamo, nella maturità,
10:47
your personalpersonale identityidentità changesi cambiamenti slowlylentamente.
229
632000
3000
la nostra identità personale cambia lentamente.
10:50
LikewiseAllo stesso modo, everyogni connectomeconnettoma
230
635000
2000
Analogamente, ogni connettoma
10:52
changesi cambiamenti over time.
231
637000
2000
cambia nel tempo.
10:55
What kindstipi of changesi cambiamenti happenaccadere?
232
640000
2000
Che tipo di cambiamenti avvengono?
10:57
Well, neuronsneuroni, like treesalberi,
233
642000
2000
Beh, i neuroni, come gli alberi,
10:59
can growcrescere newnuovo branchesrami,
234
644000
2000
possono emettere nuovi rami,
11:01
and they can loseperdere oldvecchio onesquelli.
235
646000
3000
e perdere quelli vecchi.
11:04
SynapsesSinapsi can be createdcreato,
236
649000
3000
Delle sinapsi si possono creare,
11:07
and they can be eliminatedeliminato.
237
652000
3000
e possono venir eliminate.
11:10
And synapsessinapsi can growcrescere largerpiù grandi,
238
655000
2000
Delle sinapsi possono ingrandirsi
11:12
and they can growcrescere smallerpiù piccola.
239
657000
3000
e possono rimpicciolirsi.
11:15
SecondSecondo questiondomanda:
240
660000
2000
Seconda domanda:
11:17
what causescause these changesi cambiamenti?
241
662000
3000
qual è la causa di questi cambiamenti?
11:20
Well, it's truevero.
242
665000
2000
Beh, è vero:
11:22
To some extentestensione, they are programmedprogrammato by your genesgeni.
243
667000
3000
In una certa misura, sono programmati dai nostri geni.
11:25
But that's not the wholetotale storystoria,
244
670000
2000
Ma i geni non spiegano tutto,
11:27
because there are signalssegnali, electricalelettrico signalssegnali,
245
672000
2000
perché ci sono segnali, segnali elettrici,
11:29
that travelviaggio alonglungo the branchesrami of neuronsneuroni
246
674000
2000
che scorrono lungo le ramificazioni neuronali
11:31
and chemicalchimico signalssegnali
247
676000
2000
e segnali chimici
11:33
that jumpsaltare acrossattraverso from branchramo to branchramo.
248
678000
2000
che saltano da una ramificazione all'altra.
11:35
These signalssegnali are calledchiamato neuralneurale activityattività.
249
680000
3000
Questi segnali costituiscono la cosiddetta attività neurale.
11:38
And there's a lot of evidenceprova
250
683000
2000
E ci sono molte prove
11:40
that neuralneurale activityattività
251
685000
3000
che l'attività neurale
11:43
is encodingcodifica our thoughtspensieri, feelingssentimenti and perceptionspercezioni,
252
688000
3000
codifica i nostri pensieri, sensazioni e percezioni,
11:46
our mentalmentale experiencesesperienze.
253
691000
2000
le nostre esperienze mentali.
11:48
And there's a lot of evidenceprova that neuralneurale activityattività
254
693000
3000
E ci sono anche molte prove che l'attività neurale
11:51
can causecausa your connectionsconnessioni to changemodificare.
255
696000
3000
può far cambiare le nostre connessioni.
11:54
And if you put those two factsfatti togetherinsieme,
256
699000
3000
E se mettete insieme questi due fatti,
11:57
it meanssi intende that your experiencesesperienze
257
702000
2000
ciò significa che le nostre esperienze
11:59
can changemodificare your connectomeconnettoma.
258
704000
3000
possono modificare il nostro connettoma.
12:02
And that's why everyogni connectomeconnettoma is uniqueunico,
259
707000
2000
Ecco perché ogni connettoma è unico,
12:04
even those of geneticallygeneticamente identicalidentico twinsgemelli.
260
709000
3000
anche quelli dei gemelli identici.
12:08
The connectomeconnettoma is where naturenatura meetsIncontra nurturenutrire.
261
713000
3000
È nel connettoma che s'incontrano natura e cultura.
12:12
And it mightpotrebbe truevero
262
717000
2000
E potrebbe darsi
12:14
that just the meresemplice actatto of thinkingpensiero
263
719000
2000
che il semplice fatto di pensare
12:16
can changemodificare your connectomeconnettoma --
264
721000
2000
possa cambiare il nostro connettoma --
12:18
an ideaidea that you maypuò find empoweringche abilita.
265
723000
3000
un'idea che potrebbe farci sentire portatori di un grande potere.
12:24
What's in this pictureimmagine?
266
729000
2000
Cosa c'è in questa immagine?
12:28
A coolfreddo and refreshingrinfrescante streamruscello of wateracqua, you say.
267
733000
3000
Un corso d'acqua fresco e rinfrescante, direte voi.
12:32
What elsealtro is in this pictureimmagine?
268
737000
2000
Che altro c'è nell'immagine?
12:37
Do not forgetdimenticare that grooveGroove in the EarthTerra
269
742000
2000
Non dimenticate quel solco nella terra
12:39
calledchiamato the streamruscello bedletto.
270
744000
3000
chiamato letto del fiume.
12:42
WithoutSenza it, the wateracqua would not know in whichquale directiondirezione to flowflusso.
271
747000
3000
Senza un letto, l'acqua non saprebbe in quale direzione scorrere.
12:45
And with the streamruscello,
272
750000
2000
E mi piacerebbe, con l'immagine del flusso,
12:47
I would like to proposeproporre a metaphormetafora
273
752000
2000
proporre una metafora
12:49
for the relationshiprelazione betweenfra neuralneurale activityattività
274
754000
2000
per la relazione tra attività neurale
12:51
and connectivityconnettività.
275
756000
2000
e connettività.
12:54
NeuralNeurale activityattività is constantlycostantemente changingmutevole.
276
759000
3000
L'attività neurale è in continuo mutamento.
12:57
It's like the wateracqua of the streamruscello; it never sitssi siede still.
277
762000
3000
È come l'acqua di quel fiume; non sta mai ferma.
13:00
The connectionsconnessioni
278
765000
2000
Le connessioni
13:02
of the brain'sIl cervello di neuralneurale networkRete
279
767000
2000
della rete neurale del cervello
13:04
determinesdetermina the pathwayspercorsi
280
769000
2000
determinano i percorsi
13:06
alonglungo whichquale neuralneurale activityattività flowsflussi.
281
771000
2000
lungo i quali scorre l'attività neurale.
13:08
And so the connectomeconnettoma is like bedletto of the streamruscello;
282
773000
3000
Il connettoma, quindi, è come il letto del torrente.
13:13
but the metaphormetafora is richerpiù ricca than that,
283
778000
3000
Ma la metafora è ancora più ricca.
13:16
because it's truevero that the streamruscello bedletto
284
781000
3000
Perché è vero che il letto del fiume
13:19
guidesGuide the flowflusso of the wateracqua,
285
784000
2000
guida il corso dell'acqua,
13:21
but over long timescalesscale cronologiche,
286
786000
2000
ma nel lungo periodo
13:23
the wateracqua alsoanche reshapesrimodella the bedletto of the streamruscello.
287
788000
3000
anche l'acqua ridisegna il letto del fiume.
13:26
And as I told you just now,
288
791000
2000
E come vi ho appena detto,
13:28
neuralneurale activityattività can changemodificare the connectomeconnettoma.
289
793000
3000
l'attività neurale può cambiare il connettoma.
13:33
And if you'llpotrai allowpermettere me to ascendascendere
290
798000
2000
E se mi permettete di scalare
13:35
to metaphoricalmetaforico heightsaltezza,
291
800000
3000
le vette della metafora,
13:38
I will remindricordare you that neuralneurale activityattività
292
803000
3000
vi ricorderò che l'attività neurale è, o almeno
13:41
is the physicalfisico basisbase -- or so neuroscientistsneuroscienziati think --
293
806000
2000
i neuroscienziati pensano che sia, la base fisica
13:43
of thoughtspensieri, feelingssentimenti and perceptionspercezioni.
294
808000
3000
di pensieri, sensazioni e percezioni.
13:46
And so we mightpotrebbe even speakparlare of
295
811000
2000
E quindi, potremmo perfino parlare
13:48
the streamruscello of consciousnesscoscienza.
296
813000
2000
di flusso di coscienza.
13:50
NeuralNeurale activityattività is its wateracqua,
297
815000
3000
L'attività neurale è la sua acqua,
13:53
and the connectomeconnettoma is its bedletto.
298
818000
3000
e il connettoma è il suo letto.
13:57
So let's returnritorno from the heightsaltezza of metaphormetafora
299
822000
2000
Adesso scendiamo dalle vette della metafora
13:59
and returnritorno to sciencescienza.
300
824000
2000
e torniamo alla scienza.
14:01
SupposeSi supponga che our technologiestecnologie for findingscoperta connectomesconnettomi
301
826000
2000
Supponiamo che le tecnologie preposte a trovare i connettomi
14:03
actuallyin realtà work.
302
828000
2000
funzionino davvero.
14:05
How will we go about testinganalisi the hypothesisipotesi
303
830000
2000
In che modo testiamo l'ipotesi
14:07
"I am my connectomeconnettoma?"
304
832000
3000
"Io sono il mio connettoma"?
14:10
Well, I proposeproporre a directdiretto testTest.
305
835000
3000
Beh, propongo un test diretto.
14:13
Let us attempttentativo
306
838000
2000
Proviamo
14:15
to readleggere out memoriesricordi from connectomesconnettomi.
307
840000
3000
a estrarre dei ricordi dai connettomi.
14:18
ConsiderPrendere in considerazione the memorymemoria
308
843000
2000
Prendiamo ad esempio la memoria
14:20
of long temporaltemporale sequencessequenze of movementsmovimenti,
309
845000
3000
di lunghe sequenze temporali di movimenti,
14:23
like a pianistpianista playinggiocando a BeethovenBeethoven sonataSonata.
310
848000
3000
come un pianista che esegua una sonata di Beethoven.
14:26
AccordingSecondo to a theoryteoria that datesdate back to the 19thesimo centurysecolo,
311
851000
3000
Secondo una teoria che risale al 19esimo secolo,
14:29
suchcome memoriesricordi are storedmemorizzati
312
854000
2000
tali memorie sono conservate nel nostro cervello
14:31
as chainsCatene of synapticsinaptica connectionsconnessioni insidedentro your braincervello.
313
856000
3000
come catene di connessioni sinaptiche.
14:35
Because, if the first neuronsneuroni in the chaincatena are activatedattivato,
314
860000
3000
Perché i primi neuroni della catena, se si attivano, mandano
14:38
throughattraverso theirloro synapsessinapsi they sendinviare messagesmessaggi to the secondsecondo neuronsneuroni, whichquale are activatedattivato,
315
863000
3000
attraverso le sinapsi dei messaggi ai neuroni seguenti, che si attivano,
14:41
and so on down the linelinea,
316
866000
2000
e così via lungo la linea,
14:43
like a chaincatena of fallingcaduta dominoesDomino.
317
868000
2000
come una catena di tessere del domino.
14:45
And this sequencesequenza of neuralneurale activationattivazione
318
870000
2000
E questa sequenza di attivazioni neurali
14:47
is hypothesizedsupposto to be the neuralneurale basisbase
319
872000
3000
si suppone che sia la base neurale
14:50
of those sequencesequenza of movementsmovimenti.
320
875000
2000
di quelle sequenze di movimenti.
14:52
So one way of tryingprovare to testTest the theoryteoria
321
877000
2000
Un modo di provare a verificare questa teoria
14:54
is to look for suchcome chainsCatene
322
879000
2000
è dunque osservare tali catene
14:56
insidedentro connectomesconnettomi.
323
881000
2000
dentro i connettomi.
14:58
But it won'tnon lo farà be easyfacile, because they're not going to look like this.
324
883000
3000
Ma non sarà semplice, perché non avranno questo aspetto.
15:01
They're going to be scrambleduova strapazzate up.
325
886000
2000
Saranno attorcigliate in mille modi.
15:03
So we'llbene have to use our computerscomputer
326
888000
2000
Dovremo quindi usare i nostri computer
15:05
to try to unscrambleUnscramble the chaincatena.
327
890000
3000
per cercare di districare la catena.
15:08
And if we can do that,
328
893000
2000
E se ci riusciamo,
15:10
the sequencesequenza of the neuronsneuroni we recoverrecuperare from that unscramblingRiordina
329
895000
3000
la sequenza di neuroni ricostruita con questo sbrogliamento
15:13
will be a predictionpredizione of the patternmodello of neuralneurale activityattività
330
898000
3000
costituirà una previsione dello schema di attività neurale
15:16
that is replayedriprodotti in the braincervello duringdurante memorymemoria recallrichiamare.
331
901000
3000
che viene riprodotta nel cervello durante i richiami alla memoria.
15:19
And if that were successfulriuscito,
332
904000
2000
Se ci riuscissimo,
15:21
that would be the first exampleesempio of readinglettura a memorymemoria from a connectomeconnettoma.
333
906000
3000
sarebbe il primo esempio di lettura di un ricordo da un connettoma.
15:28
(LaughterRisate)
334
913000
2000
(Risate)
15:30
What a messpasticcio --
335
915000
2000
Che confusione!
15:33
have you ever triedprovato to wirefilo up a systemsistema
336
918000
2000
Avete mai provato a cablare un sistema
15:35
as complexcomplesso as this?
337
920000
2000
complesso come questo?
15:37
I hopesperanza not.
338
922000
2000
Spero di no.
15:39
But if you have, you know it's very easyfacile to make a mistakesbaglio.
339
924000
3000
Ma se vi è successo, sapete quanto sia facile commettere un errore.
15:45
The branchesrami of neuronsneuroni are like the wiresfili of the braincervello.
340
930000
2000
Le ramificazioni dei neuroni sono come i fili del cervello.
15:47
Can anyonechiunque guessindovina: what's the totaltotale lengthlunghezza of wiresfili in your braincervello?
341
932000
4000
Provate a indovinare: qual è la lunghezza totale dei cavi nel vostro cervello?
15:54
I'll give you a hintsuggerimento. It's a biggrande numbernumero.
342
939000
2000
Vi darò un suggerimento. È un numero grande.
15:56
(LaughterRisate)
343
941000
2000
(Risate)
15:59
I estimatestima, millionsmilioni of milesmiglia,
344
944000
3000
Io stimo [che siano] milioni di chilometri.
16:02
all packedconfezionato in your skullcranio.
345
947000
3000
Tutti ripiegati dentro il vostro cranio.
16:05
And if you appreciateapprezzare that numbernumero,
346
950000
2000
Se vi rendete conto di quanti sono,
16:07
you can easilyfacilmente see
347
952000
2000
potrete facilmente capire quanto sia enorme
16:09
there is hugeenorme potentialpotenziale for mis-wiringmis-cablaggio of the braincervello.
348
954000
2000
il potenziale di errore nel cablaggio cerebrale.
16:11
And indeedinfatti, the popularpopolare pressstampa lovesama headlinesNotizie like,
349
956000
3000
E in realtà, alla stampa popolare piacciono titoli come:
16:14
"AnorexicAnoressica brainsmente are wiredcablata differentlydiversamente,"
350
959000
2000
"I cervelli anoressici (o quelli autistici)
16:16
or "AutisticAutistico brainsmente are wiredcablata differentlydiversamente."
351
961000
2000
sono cablati diversamente."
16:18
These are plausibleplausibile claimsreclami,
352
963000
2000
Sono affermazioni plausibili,
16:20
but in truthverità,
353
965000
2000
ma in realtà non riusciamo ad osservare
16:22
we can't see the brain'sIl cervello di wiringcablaggio clearlychiaramente enoughabbastanza
354
967000
2000
il cablaggio del cervello abbastanza nitidamente
16:24
to tell if these are really truevero.
355
969000
2000
da stabilire se sono vere.
16:26
And so the technologiestecnologie for seeingvedendo connectomesconnettomi
356
971000
3000
Pertanto, le tecnologie per vedere i connettomi
16:29
will allowpermettere us to finallyfinalmente
357
974000
2000
ci permetteranno finalmente
16:31
readleggere mis-wiringmis-cablaggio of the braincervello,
358
976000
2000
di leggere gli errori nel cablaggio del cervello,
16:33
to see mentalmentale disordersdisturbi in connectomesconnettomi.
359
978000
3000
osservando i disordini mentali nei connettomi.
16:40
SometimesA volte the bestmigliore way to testTest a hypothesisipotesi
360
985000
3000
A volte il miglior modo di testare un'ipotesi
16:43
is to considerprendere in considerazione its mostmaggior parte extremeestremo implicationimplicazione.
361
988000
3000
è di considerare le sue conseguenze estreme.
16:46
PhilosophersFilosofi know this gamegioco very well.
362
991000
3000
I filosofi conoscono il gioco molto bene.
16:50
If you believe that I am my connectomeconnettoma,
363
995000
3000
Se credete che io sia il mio connettoma,
16:53
I think you mustdovere alsoanche acceptaccettare the ideaidea
364
998000
3000
penso che dobbiate anche accettare l'idea
16:56
that deathmorte is the destructiondistruzione
365
1001000
2000
che la morte sia la distruzione
16:58
of your connectomeconnettoma.
366
1003000
3000
del nostro connettoma.♫
17:02
I mentioncitare this because there are prophetsprofeti todayoggi
367
1007000
3000
Affronto il tema perché ci sono dei profeti, oggi,
17:05
who claimRichiesta that technologytecnologia
368
1010000
3000
che affermano che la tecnologia
17:08
will fundamentallyfondamentalmente alterALTER the humanumano conditioncondizione
369
1013000
3000
potrà alterare in modo fondamentale la condizione umana
17:11
and perhapsForse even transformtrasformare the humanumano speciesspecie.
370
1016000
3000
e forse persino trasformare la specie umana.
17:14
One of theirloro mostmaggior parte cherishedaccarezzato dreamssogni
371
1019000
3000
Uno dei sogni a loro più cari
17:17
is to cheatCheat deathmorte
372
1022000
2000
è quello di ingannare la morte
17:19
by that practicepratica knownconosciuto as cryonicscrionica.
373
1024000
2000
con la pratica nota come crionica.
17:21
If you paypagare 100,000 dollarsdollari,
374
1026000
2000
Pagando 100.000 dollari,
17:23
you can arrangeorganizzare to have your bodycorpo frozencongelato after deathmorte
375
1028000
3000
potete farvi congelare il corpo dopo la morte
17:26
and storedmemorizzati in liquidliquido nitrogenazoto
376
1031000
2000
e conservarlo nel nitrogeno liquido,
17:28
in one of these tankscarri armati in an ArizonaArizona warehousemagazzino,
377
1033000
2000
in una di queste cisterne in un magazzino dell'Arizona,
17:30
awaitingin attesa di a futurefuturo civilizationciviltà
378
1035000
2000
in attesa di una civiltà futura
17:32
that is advancedAvanzate to resurrectriesumare you.
379
1037000
3000
abbastanza avanzata da farvi risorgere.
17:36
Should we ridiculeRidicule the modernmoderno seekersrichiedenti of immortalityimmortalità,
380
1041000
2000
Dovremmo ridicolizzare questi moderni cercatori
17:38
callingchiamata them foolssciocchi?
381
1043000
2000
dell'immortalità, definendoli sciocchi?
17:40
Or will they somedayun giorno chucklechuckle
382
1045000
2000
O saranno loro, un giorno, a sorridere
17:42
over our gravestombe?
383
1047000
2000
sulle nostre tombe?
17:45
I don't know --
384
1050000
2000
Non lo so.
17:47
I preferpreferire to testTest theirloro beliefscredenze, scientificallyscientificamente.
385
1052000
3000
Preferisco testare le loro convinzioni, scientificamente.
17:50
I proposeproporre that we attempttentativo to find a connectomeconnettoma
386
1055000
2000
Propongo di provare a trovare un connettoma
17:52
of a frozencongelato braincervello.
387
1057000
2000
di un cervello congelato.
17:54
We know that damagedanno to the braincervello
388
1059000
2000
Sappiamo che il cervello si danneggia
17:56
occursverifica after deathmorte and duringdurante freezingcongelamento.
389
1061000
2000
dopo la morte e durante il congelamento.
17:58
The questiondomanda is: has that damagedanno erasedcancellati the connectomeconnettoma?
390
1063000
3000
La domanda è: questo danno ha cancellato il connettoma?
18:01
If it has, there is no way that any futurefuturo civilizationciviltà
391
1066000
3000
Se sì, nessuna civiltà futura potrà in alcun modo
18:04
will be ablecapace to recoverrecuperare the memoriesricordi of these frozencongelato brainsmente.
392
1069000
3000
recuperare le memorie di questi cervelli congelati.
18:07
ResurrectionResurrezione mightpotrebbe succeedavere successo for the bodycorpo,
393
1072000
2000
La risurrezione potrebbe realizzarsi per il corpo,
18:09
but not for the mindmente.
394
1074000
2000
ma non per la mente.
18:11
On the other handmano, if the connectomeconnettoma is still intactintatto,
395
1076000
3000
D'altro canto, se il connettoma resta intatto,
18:14
we cannotnon può ridiculeRidicule the claimsreclami of cryonicscrionica so easilyfacilmente.
396
1079000
3000
non possiamo liquidare le affermazioni della crionica così in fretta.
18:20
I've describeddescritta a questricerca
397
1085000
2000
Vi ho appena descritto una ricerca
18:22
that beginsinizia in the worldmondo of the very smallpiccolo,
398
1087000
3000
che inizia nel mondo del molto piccolo,
18:25
and propelsaziona us to the worldmondo of the farlontano futurefuturo.
399
1090000
3000
e ci spinge nel mondo dell'estremo futuro.
18:28
ConnectomesConnettomi will markmarchio a turningsvolta pointpunto in humanumano historystoria.
400
1093000
3000
I connettomi segneranno un punto di svolta nella storia umana.
18:32
As we evolvedevoluto from our ape-likescimmia-come ancestorsantenati
401
1097000
2000
Mentre ci evolvevamo dai nostri antenati primati
18:34
on the AfricanAfricano savannasavana,
402
1099000
2000
nella savana Africana,
18:36
what distinguisheddistinto us was our largerpiù grandi brainsmente.
403
1101000
3000
a distinguerci sono stati i nostri cervelli più grandi.
18:40
We have used our brainsmente to fashionmoda
404
1105000
2000
Abbiamo usato i nostri cervelli per dare forma
18:42
ever more amazingStupefacente technologiestecnologie.
405
1107000
3000
a tecnologie sempre più sorprendenti.
18:45
EventuallyAlla fine, these technologiestecnologie will becomediventare so powerfulpotente
406
1110000
3000
Alla fine, queste tecnologie diventeranno così potenti
18:48
that we will use them to know ourselvesnoi stessi
407
1113000
3000
che le useremo per conoscere noi stessi,
18:51
by deconstructingdecostruzione and reconstructingricostruzione
408
1116000
3000
decostruendo e ricostruendo
18:54
our ownproprio brainsmente.
409
1119000
3000
i nostri stessi cervelli.
18:57
I believe that this voyageviaggio of self-discoveryscoperta di se stessi
410
1122000
3000
Credo che questo viaggio di auto-scoperta
19:00
is not just for scientistsscienziati,
411
1125000
3000
non riguardi solo gli scienziati,
19:03
but for all of us.
412
1128000
2000
ma tutti noi.
19:05
And I'm gratefulgrato for the opportunityopportunità to shareCondividere this voyageviaggio with you todayoggi.
413
1130000
3000
E sono grato di aver oggi potuto condividere questo viaggio con voi.
19:08
Thank you.
414
1133000
2000
Grazie.
19:10
(ApplauseApplausi)
415
1135000
8000
(Applausi)
Translated by Michele Gianella
Reviewed by Paolo Lanapoppi

▲Back to top

ABOUT THE SPEAKER
Sebastian Seung - Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain.

Why you should listen

In the brain, neurons are connected into a complex network. Sebastian Seung and his lab at MIT are inventing technologies for identifying and describing the connectome, the totality of connections between the brain's neurons -- think of it as the wiring diagram of the brain. We possess our entire genome at birth, but things like memories are not "stored" in the genome; they are acquired through life and accumulated in the brain. Seung's hypothesis is that "we are our connectome," that the connections among neurons is where memories and experiences get stored.

Seung and his collaborators, including Winfried Denk at the Max Planck Institute and Jeff Lichtman at Harvard University, are working on a plan to thin-slice a brain (probably starting with a mouse brain) and trace, from slice to slice, each neural pathway, exposing the wiring diagram of the brain and creating a powerful new way to visualize the workings of the mind. They're not the first to attempt something like this -- Sydney Brenner won a Nobel for mapping all the 7,000 connections in the nervous system of a tiny worm, C. elegans. But that took his team a dozen years, and the worm only had 302 nerve cells. One of Seung's breakthroughs is in using advanced imagining and AI to handle the crushing amount of data that a mouse brain will yield and turn it into richly visual maps that show the passageways of thought and sensation.

More profile about the speaker
Sebastian Seung | Speaker | TED.com