ABOUT THE SPEAKER
Sebastian Seung - Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain.

Why you should listen

In the brain, neurons are connected into a complex network. Sebastian Seung and his lab at MIT are inventing technologies for identifying and describing the connectome, the totality of connections between the brain's neurons -- think of it as the wiring diagram of the brain. We possess our entire genome at birth, but things like memories are not "stored" in the genome; they are acquired through life and accumulated in the brain. Seung's hypothesis is that "we are our connectome," that the connections among neurons is where memories and experiences get stored.

Seung and his collaborators, including Winfried Denk at the Max Planck Institute and Jeff Lichtman at Harvard University, are working on a plan to thin-slice a brain (probably starting with a mouse brain) and trace, from slice to slice, each neural pathway, exposing the wiring diagram of the brain and creating a powerful new way to visualize the workings of the mind. They're not the first to attempt something like this -- Sydney Brenner won a Nobel for mapping all the 7,000 connections in the nervous system of a tiny worm, C. elegans. But that took his team a dozen years, and the worm only had 302 nerve cells. One of Seung's breakthroughs is in using advanced imagining and AI to handle the crushing amount of data that a mouse brain will yield and turn it into richly visual maps that show the passageways of thought and sensation.

More profile about the speaker
Sebastian Seung | Speaker | TED.com
TEDGlobal 2010

Sebastian Seung: I am my connectome

Sebastian Seung: Eu sunt conectomul meu

Filmed:
1,131,223 views

Sebastian Seung cartografiază un nou și foarte ambițios model al creierului care se concentrează asupra conexiunilor dintre fiecare neuron. El îl numește „conectom”, și este la fel de diferit în cazul fiecăruia dintre noi ca și genomul -- și înțelegându-l, putem deschide calea către un nou mod în care putem înțelege creierul și mintea umană.
- Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain. Full bio

Double-click the English transcript below to play the video.

00:17
We livetrăi in in a remarkableremarcabil time,
0
2000
3000
Trăim într-o perioadă uimitoare,
00:20
the agevârstă of genomicsgenomica.
1
5000
3000
era genomicii.
00:23
Your genomegenomului is the entireîntreg sequencesecvenţă of your DNAADN-UL.
2
8000
3000
Genomul tău este întreaga ta secvență de ADN.
00:26
Your sequencesecvenţă and mineA mea are slightlypuțin differentdiferit.
3
11000
3000
Secvența ta și a mea sunt puțin diferite.
00:29
That's why we look differentdiferit.
4
14000
2000
De aceea arătăm diferit.
00:31
I've got brownmaro eyesochi;
5
16000
2000
Eu am ochii căprui.
00:33
you mightar putea have bluealbastru or graygri.
6
18000
3000
Tu poate îi ai albaștri sau gri.
00:36
But it's not just skin-deepsuperficial.
7
21000
2000
Dar nu e doar la suprafață.
00:38
The headlinesprima pagină tell us
8
23000
2000
Titlurile ziarelor ne spun
00:40
that genesgene can give us scaryinfricosator diseasesboli,
9
25000
3000
că genele pot provoca boli îngrozitoare,
00:43
maybe even shapeformă our personalitypersonalitate,
10
28000
3000
poate chiar să ne modeleze personalitatea,
00:46
or give us mentalmental disordersTulburări.
11
31000
3000
sau să pricinuiască boli mintale.
00:49
Our genesgene seempărea to have
12
34000
3000
Genele noastre par a avea
00:52
awesomeminunat powerputere over our destiniesdestine.
13
37000
3000
puteri uimitoare asupra destinelor noastre.
00:56
And yetinca, I would like to think
14
41000
3000
Și totuși, mi-ar plăcea să cred
00:59
that I am more than my genesgene.
15
44000
3000
că sunt mai mult decât propriile gene.
01:04
What do you guys think?
16
49000
2000
Voi ce credeți?
01:06
Are you more than your genesgene?
17
51000
3000
Sunteți mai mult decât propriile gene?
01:09
(AudiencePublicul: Yes.) Yes?
18
54000
2000
(Publicul: Da.) Da?
01:13
I think some people agreede acord with me.
19
58000
2000
Cred că unii oameni sunt de acord cu mine.
01:15
I think we should make a statementafirmație.
20
60000
2000
Cred că ar trebui să facem o afirmație.
01:17
I think we should say it all togetherîmpreună.
21
62000
2000
Cred că ar trebui să o spunem toți odată.
01:20
All right: "I'm more than my genesgene" -- all togetherîmpreună.
22
65000
3000
În regulă: „Sunt mai mult decât propriile gene” -- toți odată.
01:23
EverybodyToata lumea: I am more than my genesgene.
23
68000
4000
Cu toții: Sunt mai mult decât propriile gene.
01:27
(CheeringAplauze)
24
72000
2000
(Ovații)
01:30
SebastianSebastian SeungSeung: What am I?
25
75000
2000
Sebastian Seung: Ce sunt eu?
01:32
(LaughterRâs)
26
77000
3000
(Râsete)
01:35
I am my connectomeconnectome.
27
80000
3000
Eu sunt conectomul meu.
01:40
Now, sincede cand you guys are really great,
28
85000
2000
Din moment ce sunteți cu adevărat minunați,
01:42
maybe you can humorumor me and say this all togetherîmpreună too.
29
87000
2000
poate ați dori să râdeți de mine și să o spuneți cu toții.
01:44
(LaughterRâs)
30
89000
2000
(Râsete)
01:46
Right. All togetherîmpreună now.
31
91000
2000
În regulă. Acum, cu toții.
01:48
EverybodyToata lumea: I am my connectomeconnectome.
32
93000
3000
Toată lumea: Eu sunt conectomul meu.
01:53
SSSS: That soundedsunat great.
33
98000
2000
SS: A sunat extraordinar.
01:55
You know, you guys are so great, you don't even know what a connectomeconnectome is,
34
100000
2000
Știți, sunteți atât de minunați; nici măcar nu știți ce înseamnă un conectom,
01:57
and you're willingdispus to playa juca alongde-a lungul with me.
35
102000
2000
și binevoiți să-mi cântați în strună.
01:59
I could just go home now.
36
104000
3000
Aș putea să merg acasă acum.
02:02
Well, so fardeparte only one connectomeconnectome is knowncunoscut,
37
107000
3000
Ei bine, până acum, un singur conectom ne este cunoscut,
02:05
that of this tinyminuscul wormvierme.
38
110000
3000
al acestui mic vierme.
02:08
Its modestmodest nervousagitat systemsistem
39
113000
2000
Modestul său sistem nervos
02:10
consistsconstă of just 300 neuronsneuroni.
40
115000
2000
este format doar din 300 de neuroni.
02:12
And in the 1970s and '80s,
41
117000
2000
Iar în anii '70 și, '80
02:14
a teamechipă of scientistsoamenii de știință
42
119000
2000
o echipă de cercetători
02:16
mappedmapate all 7,000 connectionsconexiuni
43
121000
2000
a cartografiat toate cele 7,000 de conexiuni
02:18
betweenîntre the neuronsneuroni.
44
123000
2000
dintre neuroni.
02:21
In this diagramdiagramă, everyfiecare nodenod is a neuronneuron,
45
126000
2000
În această diagramă, fiecare nod este un neuron,
02:23
and everyfiecare linelinia is a connectionconexiune.
46
128000
2000
și fiecare linie e o conexiune.
02:25
This is the connectomeconnectome
47
130000
2000
Acesta este conectomul
02:27
of the wormvierme C. eleganselegans.
48
132000
4000
viermelui C. elegans.
02:31
Your connectomeconnectome is fardeparte more complexcomplex than this
49
136000
3000
Conectomul vostru e mult mai complex,
02:34
because your braincreier
50
139000
2000
deoarece creierul vostru
02:36
containsconține 100 billionmiliard neuronsneuroni
51
141000
2000
conține 100 de miliarde de neuroni
02:38
and 10,000 timesori as manymulți connectionsconexiuni.
52
143000
3000
și de 10,000 de ori mai multe conexiuni.
02:41
There's a diagramdiagramă like this for your braincreier,
53
146000
2000
Există o diagramă ca aceasta pentru creierul vostru,
02:43
but there's no way it would fitpotrivi on this slidealuneca.
54
148000
3000
dar nu ar avea cum să încapă pe această prezentare.
02:47
Your connectomeconnectome containsconține one millionmilion timesori more connectionsconexiuni
55
152000
3000
Conectomul vostru conține de un milion de ori mai multe conexiuni
02:50
than your genomegenomului has lettersscrisori.
56
155000
3000
decât literele din genomul vostru.
02:53
That's a lot of informationinformație.
57
158000
2000
Ceea ce înseamnă multă informație.
02:55
What's in that informationinformație?
58
160000
3000
Ce conține acea informație?
02:59
We don't know for sure, but there are theoriesteorii.
59
164000
3000
Nu știm sigur, dar există teorii.
03:02
SinceDeoarece the 19thlea centurysecol, neuroscientistsNeurologii have speculatedspeculat
60
167000
3000
Începând cu secolul al XIX-lea, neurologii au speculat că
03:05
that maybe your memoriesamintiri --
61
170000
2000
amintirile voastre --
03:07
the informationinformație that makesmărci you, you --
62
172000
2000
informațiile care vă definesc --
03:09
maybe your memoriesamintiri are storedstocate
63
174000
2000
poate că amintirile voastre sunt stocate
03:11
in the connectionsconexiuni betweenîntre your brain'screier neuronsneuroni.
64
176000
2000
în conexiunile dintre neuronii voștri.
03:15
And perhapspoate other aspectsaspecte of your personalpersonal identityidentitate --
65
180000
2000
Dar poate și alte aspecte ale identității proprii --
03:17
maybe your personalitypersonalitate and your intellectintelectul --
66
182000
3000
poate personalitatea și intelectul vostru --
03:20
maybe they're alsode asemenea encodedcodate
67
185000
2000
poate sunt și ele stocate
03:22
in the connectionsconexiuni betweenîntre your neuronsneuroni.
68
187000
3000
în conexiunile dintre neuronii voștri.
03:26
And so now you can see why I proposedpropus this hypothesisipoteză:
69
191000
3000
Așa că acum înțelegeți de ce am propus această ipoteză:
03:29
I am my connectomeconnectome.
70
194000
3000
Eu sunt conectomul meu.
03:32
I didn't askcere you to chantpsalmodiere it because it's trueAdevărat;
71
197000
3000
Nu v-am cerut s-o spuneți pentru că e adevărat,
03:35
I just want you to remembertine minte it.
72
200000
2000
vreau doar să o țineți minte.
03:37
And in factfapt, we don't know if this hypothesisipoteză is correctcorect,
73
202000
2000
Și de fapt, nu știm dacă această ipoteză e corectă,
03:39
because we have never had technologiestehnologii
74
204000
2000
pentru că nu dispunem de-o tehnologie
03:41
powerfulputernic enoughdestul to testTest it.
75
206000
2000
suficient de puternică pentru a o testa.
03:44
FindingGăsirea that wormvierme connectomeconnectome
76
209000
3000
Descoperirea conectomului acelui vierme
03:47
tooka luat over a dozenduzină yearsani of tediousplictisitor labormuncă.
77
212000
3000
a durat o mulțime de ani de muncă grea.
03:50
And to find the connectomesconnectomes of brainscreier more like our ownpropriu,
78
215000
3000
Și pentru a găsi conectomi ai creierelor ca ale noastre,
03:53
we need more sophisticatedsofisticat technologiestehnologii, that are automatedAutomated,
79
218000
3000
avem nevoie de-o tehnologie sofisticată, automatizată,
03:56
that will speedviteză up the processproces of findingdescoperire connectomesconnectomes.
80
221000
3000
care va grăbi procesul de găsire al conectomilor.
03:59
And in the nextUrmător → fewpuțini minutesminute, I'll tell you about some of these technologiestehnologii,
81
224000
3000
Și în următoarele minute, vă voi spune câte ceva despre aceste tehnologii,
04:02
whichcare are currentlyîn prezent undersub developmentdezvoltare
82
227000
2000
care sunt în curs de dezvoltare
04:04
in my lablaborator and the labslaboratoare of my collaboratorscolaboratori.
83
229000
3000
în laboratorul meu și în ale colaboratorilor mei.
04:08
Now you've probablyprobabil seenvăzut picturespoze of neuronsneuroni before.
84
233000
3000
Poate ați mai văzut poze cu neuroni până acum.
04:11
You can recognizerecunoaşte them instantlyimediat
85
236000
2000
Îi puteți recunoaște imediat
04:13
by theiral lor fantasticfantastic shapesforme.
86
238000
3000
după formele lor fantastice.
04:16
They extendextinde long and delicatedelicat branchessucursale,
87
241000
3000
Își răspândesc ramurile lungi și delicate,
04:19
and in shortmic de statura, they look like treescopaci.
88
244000
3000
asemănându-se cu copacii.
04:22
But this is just a singlesingur neuronneuron.
89
247000
3000
Dar acesta e un singur neuron.
04:25
In orderOrdin to find connectomesconnectomes,
90
250000
2000
Pentru a găsi conectomi,
04:27
we have to see all the neuronsneuroni at the samela fel time.
91
252000
3000
trebuie să vedem toți neuronii în același timp.
04:30
So let's meetîntâlni BobbyBobby KasthuriIancu constanda,
92
255000
2000
Să facem cunoștință cu Bobby Kasthuri
04:32
who workslucrări in the laboratorylaborator of JeffJeff LichtmanLichtman
93
257000
2000
care lucrează în laboratorul lui Jeff Lichtman
04:34
at HarvardHarvard UniversityUniversitatea.
94
259000
2000
de la Universitatea Harvard.
04:36
BobbyBobby is holdingdeținere fantasticallyfantastic thinsubţire slicesfelii
95
261000
2000
Bobby ține în mână secțiuni extraordinar de subțiri
04:38
of a mousemouse braincreier.
96
263000
2000
din creierul unui șoarece.
04:40
And we're zoomingzoom-ul in by a factorfactor of 100,000 timesori
97
265000
3000
Și le mărim de 100,000 de ori
04:44
to obtainobține the resolutionrezoluţie,
98
269000
2000
pentru a obține rezoluția
04:46
so that we can see the branchessucursale of neuronsneuroni all at the samela fel time.
99
271000
3000
la care putem vedea ramurile tuturor neuronilor, în același timp.
04:50
ExceptCu excepţia, you still mayMai not really recognizerecunoaşte them,
100
275000
3000
Doar că, e posibil să nu-i recunoașteți încă,
04:53
and that's because we have to work in threeTrei dimensionsdimensiuni.
101
278000
3000
și asta pentru că trebuie să lucrăm tridimensional.
04:56
If we take manymulți imagesimagini of manymulți slicesfelii of the braincreier
102
281000
2000
Dacă luăm multe imagini ale secțiunilor prin creier
04:58
and stackgrămadă them up,
103
283000
2000
și le suprapunem,
05:00
we get a three-dimensionaltri-dimensională imageimagine.
104
285000
2000
obținem o imagine tridimensională.
05:02
And still, you mayMai not see the branchessucursale.
105
287000
2000
Și totuși, poate tot nu vedeți ramurile.
05:04
So we startstart at the toptop,
106
289000
2000
Așa că începem din vârf,
05:06
and we colorculoare in the cross-sectionsecţiune transversală of one branchramură in redroșu,
107
291000
3000
și colorăm în roșu secțiunea transversală a unei ramuri.
05:09
and we do that for the nextUrmător → slicefelie
108
294000
2000
Și facem asta și pentru următoarea secțiune
05:11
and for the nextUrmător → slicefelie.
109
296000
2000
și pentru următoarea.
05:13
And we keep on doing that,
110
298000
2000
Și continuăm să facem asta,
05:15
slicefelie after slicefelie.
111
300000
3000
secțiune după secțiune.
05:18
If we continuecontinua throughprin the entireîntreg stackgrămadă,
112
303000
2000
Continuând prin întreaga stivă,
05:20
we can reconstructreconstrui the three-dimensionaltri-dimensională shapeformă
113
305000
3000
putem reconstrui o formă tridimensională
05:23
of a smallmic fragmentfragment of a branchramură of a neuronneuron.
114
308000
3000
a unui mic fragment al unei ramuri a unui neuron.
05:26
And we can do that for anothero alta neuronneuron in greenverde.
115
311000
2000
Putem face același lucru pentru un alt neuron, dar cu verde.
05:28
And you can see that the greenverde neuronneuron touchesatinge the redroșu neuronneuron
116
313000
2000
Și puteți vedea că neuronul roșu îl atinge pe cel verde
05:30
at two locationslocații,
117
315000
2000
în două locuri,
05:32
and these are what are calleddenumit synapsessinapse.
118
317000
2000
și acestea sunt așa-numitele sinapse.
05:34
Let's zoomzoom in on one synapseSinapsa,
119
319000
2000
Să mărim imaginea unei sinapse.
05:36
and keep your eyesochi on the interiorinterior of the greenverde neuronneuron.
120
321000
3000
Fiți atenți la interiorul neuronului verde.
05:39
You should see smallmic circlescerc --
121
324000
2000
Ar trebui să vedeți mici cerculețe.
05:41
these are calleddenumit vesiclesvezicule.
122
326000
3000
Acesta se numesc vezicule.
05:44
They containconține a moleculemoleculă know as a neurotransmitterneurotransmițător.
123
329000
3000
Ele conțin molecule numite neurotransmițători.
05:47
And so when the greenverde neuronneuron wants to communicatecomunica,
124
332000
2000
Când neuronul verde vrea să comunice,
05:49
it wants to sendtrimite a messagemesaj to the redroșu neuronneuron,
125
334000
2000
să transmită un mesaj neuronului roșu,
05:51
it spitsScuipă out neurotransmitterneurotransmițător.
126
336000
3000
eliberează un neurotransmițător.
05:54
At the synapseSinapsa, the two neuronsneuroni
127
339000
2000
La nivelul sinapsei, cei doi neuroni
05:56
are said to be connectedconectat
128
341000
2000
se presupune a fi conectați
05:58
like two friendsprieteni talkingvorbind on the telephonetelefon.
129
343000
3000
ca doi prieteni care vorbesc la telefon.
06:02
So you see how to find a synapseSinapsa.
130
347000
2000
Deci, vedeți cum se găsește o sinapsă.
06:04
How can we find an entireîntreg connectomeconnectome?
131
349000
3000
Dar cum putem găsi un întreg conectom?
06:07
Well, we take this three-dimensionaltri-dimensională stackgrămadă of imagesimagini
132
352000
3000
Ei bine, luăm acestă stivă de imagini tridimensionale
06:10
and treattrata it as a giganticgigantic three-dimensionaltri-dimensională coloringde colorat bookcarte.
133
355000
3000
și o tratăm ca pe o carte de colorat tridimensională gigantică.
06:13
We colorculoare everyfiecare neuronneuron in, in a differentdiferit colorculoare,
134
358000
3000
Colorăm fiecare neuron cu o altă culoare,
06:16
and then we look throughprin all of the imagesimagini,
135
361000
2000
iar apoi ne uităm prin toate imaginile,
06:18
find the synapsessinapse
136
363000
2000
găsim sinapsele
06:20
and noteNotă the colorscolorate of the two neuronsneuroni involvedimplicat in eachfiecare synapseSinapsa.
137
365000
3000
și notăm culorile celor doi neuroni implicați în fiecare sinapsă.
06:23
If we can do that throughoutde-a lungul all the imagesimagini,
138
368000
3000
Dacă putem face acest lucru pentru toate imaginile,
06:26
we could find a connectomeconnectome.
139
371000
2000
putem găsi un conectom.
06:29
Now, at this pointpunct,
140
374000
2000
În acest moment,
06:31
you've learnedînvățat the basicselementele de bază of neuronsneuroni and synapsessinapse.
141
376000
2000
ați învățat lucruri de bază despre neuroni și sinapse.
06:33
And so I think we're readygata to tackleaborda
142
378000
2000
Cred că suntem gata să abordăm
06:35
one of the mostcel mai importantimportant questionsîntrebări in neuroscienceneurostiintele:
143
380000
3000
una dintre cele mai importante întrebări ale neurologiei:
06:39
how are the brainscreier of menbărbați and womenfemei differentdiferit?
144
384000
3000
cu ce este diferit creierul masculin de cele feminin?
06:42
(LaughterRâs)
145
387000
2000
(Râsete)
06:44
AccordingÎn funcţie de to this self-helpauto-ajutor bookcarte,
146
389000
2000
Conform acestei cărți autodidacte,
06:46
guys brainscreier are like wafflesvafe;
147
391000
2000
creierul bărbaților e ca o vafă;
06:48
they keep theiral lor livesvieți compartmentalizedcompartimentate in boxescutii.
148
393000
3000
își păstrează viața compartimentată în cutii.
06:51
Girls'Fetelor brainscreier are like spaghettispaghete;
149
396000
3000
Creierul fetelor seamănă cu niște spaghete;
06:54
everything in theiral lor life is connectedconectat to everything elsealtfel.
150
399000
3000
totul în viața lor este conectat cu orice altceva.
06:57
(LaughterRâs)
151
402000
2000
(Râsete)
06:59
You guys are laughingrazand,
152
404000
2000
Râdeți voi,
07:01
but you know, this bookcarte changedschimbat my life.
153
406000
2000
dar, să știți, această carte mi-a schimbat viața.
07:03
(LaughterRâs)
154
408000
2000
(Râsete)
07:07
But seriouslySerios, what's wronggresit with this?
155
412000
3000
Dar serios, ce-i în neregulă cu asta?
07:10
You alreadydeja know enoughdestul to tell me -- what's wronggresit with this statementafirmație?
156
415000
3000
Știți deja destul de multe. Ce-i în neregulă cu această afirmație?
07:20
It doesn't mattermaterie whetherdacă you're a guy or girlfată,
157
425000
3000
Nu contează dacă ești băiat sau fată,
07:23
everyone'stoată lumea e brainscreier are like spaghettispaghete.
158
428000
3000
creierul tuturor e ca spaghetele.
07:26
Or maybe really, really fine capellinicapellini with branchessucursale.
159
431000
3000
Sau poate capellini foarte, foarte subțiri cu ramuri.
07:30
Just as one strandStrand of spaghettispaghete
160
435000
2000
După cum un fir de spaghete
07:32
contactscontacte manymulți other strandsdirecţii de acţiune on your platefarfurie,
161
437000
3000
intră în contact cu multe altele de pe farfurie,
07:35
one neuronneuron touchesatinge manymulți other neuronsneuroni
162
440000
2000
un neuron atinge mulți alți neuroni
07:37
throughprin theiral lor entangledîncurcate branchessucursale.
163
442000
2000
prin intermediul ramurilor încâlcite.
07:39
One neuronneuron can be connectedconectat to so manymulți other neuronsneuroni,
164
444000
3000
Un neuron poate fi conectat cu atât de mulți alți neuroni,
07:42
because there can be synapsessinapse
165
447000
2000
deoarece pot fi sinapse
07:44
at these pointspuncte of contacta lua legatura.
166
449000
3000
în aceste puncte de contact.
07:49
By now, you mightar putea have sortfel of lostpierdut perspectiveperspectivă
167
454000
3000
Până acum, e posibil să vă fi pierdut perspectiva
07:52
on how largemare this cubecub of braincreier tissuețesut actuallyde fapt is.
168
457000
3000
asupra cât de mare este, de fapt, acest cub de țesut cerebral.
07:55
And so let's do a seriesserie of comparisonscomparații to showspectacol you.
169
460000
3000
Așadar, haideți să facem o serie de comparații pentru a vă arăta.
07:58
I assureasigura you, this is very tinyminuscul. It's just sixşase micronsmicroni on a sidelatură.
170
463000
3000
Vă asigur, că asta este foarte mic. Latura are doar 6 microni.
08:03
So, here'saici e how it stacksstive up againstîmpotriva an entireîntreg neuronneuron.
171
468000
3000
Deci, uitați cum arată față de un întreg neuron.
08:06
And you can tell that, really, only the smallestcel mai mic fragmentsfragmente of branchessucursale
172
471000
3000
Și vă puteți da seama că, de fapt, doar cele mai mici părticele din acele ramuri
08:09
are containedconținea insideinterior this cubecub.
173
474000
3000
sunt înăuntrul acestui cub.
08:12
And a neuronneuron, well, that's smallermai mic than braincreier.
174
477000
3000
Și un neuron, ei bine, e mai mic decât creierul.
08:17
And that's just a mousemouse braincreier --
175
482000
2000
Și acesta e doar un creier de șoarece.
08:21
it's a lot smallermai mic than a humanuman braincreier.
176
486000
3000
Care e mult mai mic decât creierul uman.
08:25
So when showspectacol my friendsprieteni this,
177
490000
2000
Când le arăt prietenilor mei asta,
08:27
sometimesuneori they'vele-au told me,
178
492000
2000
uneori îmi spun:
08:29
"You know, SebastianSebastian, you should just give up.
179
494000
3000
„Ști, Sebastian, mai bine ai renunța.
08:32
NeuroscienceNeuroştiinţe is hopelessfara speranta."
180
497000
2000
Neurologia e fără speranță.”
08:34
Because if you look at a braincreier with your nakedgol eyeochi,
181
499000
2000
Pentru că dacă vă uitați la creier cu ochiul liber,
08:36
you don't really see how complexcomplex it is,
182
501000
2000
nu puteți vedea cât de complex este,
08:38
but when you use a microscopemicroscop,
183
503000
2000
dar când folosiți un microscop,
08:40
finallyin sfarsit the hiddenascuns complexitycomplexitate is revealeddezvăluit.
184
505000
3000
în sfârșit, complexitatea-i tainică iese la iveală.
08:45
In the 17thlea centurysecol,
185
510000
2000
În secolul al XVII-lea,
08:47
the mathematicianmatematician and philosopherfilozof, BlaiseBlaise PascalPascal,
186
512000
2000
matematicianul și filozoful Blaise Pascal,
08:49
wrotea scris of his dreadtemut of the infiniteinfinit,
187
514000
3000
a scris despre teama sa despre infinit,
08:52
his feelingsentiment of insignificanceinconsistenţă
188
517000
2000
simțământul său de lipsă de importanță
08:54
at contemplatingcontemplând the vastvast reachesajunge of outerexterior spacespaţiu.
189
519000
3000
contemplând la întinderile vaste ale spațiului cosmic.
08:59
And, as a scientistom de stiinta,
190
524000
2000
Și, ca om de știință,
09:01
I'm not supposedpresupus to talk about my feelingssentimente --
191
526000
3000
nu ar trebui să vorbesc despre ceea ce simt.
09:04
too much informationinformație, professorProfesor.
192
529000
2000
Prea multă informație, domnule profesor.
09:06
(LaughterRâs)
193
531000
2000
(Râsete)
09:08
But mayMai I?
194
533000
2000
Dar îmi permiteți?
09:10
(LaughterRâs)
195
535000
2000
(Râsete)
09:12
(ApplauseAplauze)
196
537000
2000
(Aplauze)
09:14
I feel curiositycuriozitate,
197
539000
2000
Simt curiozitate,
09:16
and I feel wondermirare,
198
541000
2000
simt minunăție,
09:18
but at timesori I have alsode asemenea feltsimțit despairdisperare.
199
543000
3000
dar, uneori, m-am simțit și disperat.
09:22
Why did I choosealege to studystudiu
200
547000
2000
De ce am ales să studiez
09:24
this organorgan that is so awesomeminunat in its complexitycomplexitate
201
549000
3000
acest organ atât de minunat în complexitatea sa
09:27
that it mightar putea well be infiniteinfinit?
202
552000
2000
care ar putea la fel de bine să fie infinit?
09:29
It's absurdabsurd.
203
554000
2000
Este absurd.
09:31
How could we even darea indrazni to think
204
556000
2000
Cum am putea îndrăzni să gândim
09:33
that we mightar putea ever understanda intelege this?
205
558000
3000
că-l vom înțelege vreodată?
09:38
And yetinca, I persistpersista in this quixoticquijotesc endeavorefort.
206
563000
3000
Și totuși, eu persist cu această strădanie vizionară.
09:41
And indeedintr-adevar, these dayszi I harborport newnou hopessperanțe.
207
566000
3000
Și într-adevăr, în aceste zile nutresc noi speranțe.
09:45
SomedayÎntr-o zi,
208
570000
2000
Într-o zi,
09:47
a fleetFlota of microscopesMicroscoape will capturecaptură
209
572000
2000
o flotă de microscoape vor înregistra
09:49
everyfiecare neuronneuron and everyfiecare synapseSinapsa
210
574000
2000
fiecare neuron și fiecare sinapsă
09:51
in a vastvast databaseBază de date of imagesimagini.
211
576000
3000
într-o vastă galerie de imagini.
09:54
And some day, artificiallyartificial intelligentinteligent supercomputerssupercalculatoare
212
579000
3000
Și într-o zi, supercomputerele cu inteligență artificială
09:57
will analyzea analiza the imagesimagini withoutfără humanuman assistanceasistenţă
213
582000
3000
vor analiza imaginile fără asistență umană
10:00
to summarizerezuma them in a connectomeconnectome.
214
585000
3000
pentru a le concentra într-un conectom.
10:04
I do not know, but I hopesperanţă that I will livetrăi to see that day,
215
589000
3000
Nu știu, dar sper că voi trăi să văd acea zi.
10:08
because findingdescoperire an entireîntreg humanuman connectomeconnectome
216
593000
2000
Deoarece găsirea unui întreg conectom uman
10:10
is one of the greatestcea mai mare technologicaltehnologic challengesprovocări of all time.
217
595000
3000
este una dintre cele mai mari provocări tehnologice din toate timpurile.
10:13
It will take the work of generationsgenerații to succeeda reusi.
218
598000
3000
Va fi nevoie de munca multor generații pentru a reuși.
10:17
At the presentprezent time, my collaboratorscolaboratori and I,
219
602000
3000
În prezent, eu și colaboratorii mei,
10:20
what we're aimingcu scopul de for is much more modestmodest --
220
605000
2000
avem un scop mult mai modest --
10:22
just to find partialparțial connectomesconnectomes
221
607000
2000
doar de a găsi părticele din conectomul
10:24
of tinyminuscul chunksbucăți of mousemouse and humanuman braincreier.
222
609000
3000
micilor bucăți de creier de șoarece și cel uman.
10:27
But even that will be enoughdestul for the first teststeste of this hypothesisipoteză
223
612000
3000
Dar chiar și asta va fi de ajuns pentru primele teste ale ipotezei
10:30
that I am my connectomeconnectome.
224
615000
3000
că eu sunt conectomul meu.
10:35
For now, let me try to convinceconvinge you of the plausibilityplauzibilității of this hypothesisipoteză,
225
620000
3000
Deocamdată, dați-mi voie să vă conving de verosimilitatea acestei ipoteze,
10:38
that it's actuallyde fapt worthin valoare de takingluare seriouslySerios.
226
623000
3000
care chiar merită să fie luată-n serios.
10:42
As you growcrește duringpe parcursul childhoodcopilărie
227
627000
2000
În timp ce creșteți în adolescență
10:44
and agevârstă duringpe parcursul adulthoodla maturitate,
228
629000
3000
și îmbătrâniți la maturitate,
10:47
your personalpersonal identityidentitate changesschimbări slowlyîncet.
229
632000
3000
identitatea personală vi se modifică lent.
10:50
LikewiseDe asemenea, everyfiecare connectomeconnectome
230
635000
2000
La fel, fiecare conectom
10:52
changesschimbări over time.
231
637000
2000
se schimbă cu timpul.
10:55
What kindstipuri of changesschimbări happenîntâmpla?
232
640000
2000
Ce fel de schimbări au loc?
10:57
Well, neuronsneuroni, like treescopaci,
233
642000
2000
Ei bine, neuronilor, ca și copacilor,
10:59
can growcrește newnou branchessucursale,
234
644000
2000
le pot crește noi ramuri,
11:01
and they can losepierde oldvechi onescele.
235
646000
3000
și le pot pierde pe cele vechi.
11:04
SynapsesSinapse can be createdcreată,
236
649000
3000
Sinapse pot fi create,
11:07
and they can be eliminatedeliminat.
237
652000
3000
și pot fi eliminate.
11:10
And synapsessinapse can growcrește largermai mare,
238
655000
2000
Sinapsele pot crește în dimensiuni,
11:12
and they can growcrește smallermai mic.
239
657000
3000
dar pot și scădea.
11:15
SecondAl doilea questionîntrebare:
240
660000
2000
A doua întrebare:
11:17
what causescauze these changesschimbări?
241
662000
3000
ce cauzează aceste schimbări?
11:20
Well, it's trueAdevărat.
242
665000
2000
Ei bine, e adevărat că,
11:22
To some extentmăsură, they are programmedprogramate by your genesgene.
243
667000
3000
până la un anumit nivel, sunt programate de genele noastre.
11:25
But that's not the wholeîntreg storypoveste,
244
670000
2000
Dar asta nu e tot,
11:27
because there are signalssemnalele, electricalelectric signalssemnalele,
245
672000
2000
pentru că sunt semnale, semnale electrice,
11:29
that travelvoiaj alongde-a lungul the branchessucursale of neuronsneuroni
246
674000
2000
care călătoresc de-a lungul ramurilor neuronilor
11:31
and chemicalchimic signalssemnalele
247
676000
2000
și semnale chimice
11:33
that jumpa sari acrosspeste from branchramură to branchramură.
248
678000
2000
care sar de pe-o ramură pe cealaltă.
11:35
These signalssemnalele are calleddenumit neuralneural activityactivitate.
249
680000
3000
Aceste semnale poartă denumirea de activitate neuronală.
11:38
And there's a lot of evidenceevidență
250
683000
2000
Și există multe dovezi care
11:40
that neuralneural activityactivitate
251
685000
3000
susțin că activitatea neuronală
11:43
is encodingcodificarea our thoughtsgânduri, feelingssentimente and perceptionspercepții,
252
688000
3000
ne codifică gândurile, sentimentele și percepțiile,
11:46
our mentalmental experiencesexperiențe.
253
691000
2000
experiențele mentale.
11:48
And there's a lot of evidenceevidență that neuralneural activityactivitate
254
693000
3000
Și există multe dovezi cum că activitatea neuronală
11:51
can causecauza your connectionsconexiuni to changeSchimbare.
255
696000
3000
poate cauza modificarea conexiunilor.
11:54
And if you put those two factsfapte togetherîmpreună,
256
699000
3000
Și dacă le puneți pe cele două cap la cap,
11:57
it meansmijloace that your experiencesexperiențe
257
702000
2000
observați că experiențele voastre
11:59
can changeSchimbare your connectomeconnectome.
258
704000
3000
vă pot schimba conectomul.
12:02
And that's why everyfiecare connectomeconnectome is uniqueunic,
259
707000
2000
De aceea fiecare conectom este unic,
12:04
even those of geneticallygenetic identicalidentic twinsgemeni.
260
709000
3000
chiar și aceia ai gemenilor identici.
12:08
The connectomeconnectome is where naturenatură meetsîndeplineşte nurturehrăni.
261
713000
3000
Conectomul este acolo unde natura întâlnește dezvoltarea.
12:12
And it mightar putea trueAdevărat
262
717000
2000
Și e posibil să fie adevărat
12:14
that just the meredoar actact of thinkinggândire
263
719000
2000
că până și banala acțiune de a gândi
12:16
can changeSchimbare your connectomeconnectome --
264
721000
2000
vă poate modifica conectomul --
12:18
an ideaidee that you mayMai find empoweringresponsabilizarea.
265
723000
3000
o idee care vi se poate părea puternică.
12:24
What's in this pictureimagine?
266
729000
2000
Ce e în această imagine?
12:28
A coolmisto and refreshingracoritoare streamcurent of waterapă, you say.
267
733000
3000
Un pârâu cu apă rece și înviorătoare, ați spune.
12:32
What elsealtfel is in this pictureimagine?
268
737000
2000
Ce altceva mai e în această imagine?
12:37
Do not forgeta uita that grooveGroove in the EarthPământ
269
742000
2000
Nu uitați de acel șanț în pământ
12:39
calleddenumit the streamcurent bedpat.
270
744000
3000
numit albie.
12:42
WithoutFără it, the waterapă would not know in whichcare directiondirecţie to flowcurgere.
271
747000
3000
Fără aceasta, apa nu ar ști în ce direcție să curgă.
12:45
And with the streamcurent,
272
750000
2000
Și legat de pârâu,
12:47
I would like to proposepropune a metaphormetaforă
273
752000
2000
aș vrea să propun o metaforă
12:49
for the relationshiprelaţie betweenîntre neuralneural activityactivitate
274
754000
2000
pentru relația dintre activitatea neuronală
12:51
and connectivityconectivitatea.
275
756000
2000
și conectivitatea.
12:54
NeuralNeuronale activityactivitate is constantlymereu changingschimbare.
276
759000
3000
Activitatea neuronală e în continuă schimbare.
12:57
It's like the waterapă of the streamcurent; it never sitssta still.
277
762000
3000
E ca apa unui pârâu; nu stă niciodată locului.
13:00
The connectionsconexiuni
278
765000
2000
Conexiunile din
13:02
of the brain'screier neuralneural networkreţea
279
767000
2000
rețeaua neuronală a creierului
13:04
determinesdetermină the pathwayscai
280
769000
2000
determină calea pe care
13:06
alongde-a lungul whichcare neuralneural activityactivitate flowsfluxurile.
281
771000
2000
o va urma activitatea neuronală.
13:08
And so the connectomeconnectome is like bedpat of the streamcurent;
282
773000
3000
Așadar, conectomul e ca o albie.
13:13
but the metaphormetaforă is richermai bogat than that,
283
778000
3000
Dar metafora e mult mai bogată.
13:16
because it's trueAdevărat that the streamcurent bedpat
284
781000
3000
Pentru că e adevărat că albia
13:19
guidesghiduri the flowcurgere of the waterapă,
285
784000
2000
ghidează curgerea apei,
13:21
but over long timescalesintervalul de timp,
286
786000
2000
dar pe perioade îndelungate de timp,
13:23
the waterapă alsode asemenea reshapesremodelează the bedpat of the streamcurent.
287
788000
3000
apa schimbă, de asemenea, forma albiei.
13:26
And as I told you just now,
288
791000
2000
Și după cum tocmai v-am spus,
13:28
neuralneural activityactivitate can changeSchimbare the connectomeconnectome.
289
793000
3000
activitatea neuronală poate schimba conectomul.
13:33
And if you'llveți allowpermite me to ascendurca
290
798000
2000
Și dacă îmi permiteți să urc
13:35
to metaphoricalmetaforic heightsînălțimi,
291
800000
3000
pe culmi metaforice,
13:38
I will remindreaminti you that neuralneural activityactivitate
292
803000
3000
vă voi reaminti că activitatea neuronală
13:41
is the physicalfizic basisbază -- or so neuroscientistsNeurologii think --
293
806000
2000
este baza fizică -- sau cel puțin așa cred neurologii --
13:43
of thoughtsgânduri, feelingssentimente and perceptionspercepții.
294
808000
3000
a gândurilor, sentimentelor și percepțiilor.
13:46
And so we mightar putea even speakvorbi of
295
811000
2000
Așa că am putea vorbi chiar de
13:48
the streamcurent of consciousnessconstiinta.
296
813000
2000
pârâul conștiinței.
13:50
NeuralNeuronale activityactivitate is its waterapă,
297
815000
3000
Activitatea neuronală este apa,
13:53
and the connectomeconnectome is its bedpat.
298
818000
3000
și conectomul este albia.
13:57
So let's returnîntoarcere from the heightsînălțimi of metaphormetaforă
299
822000
2000
Haideți să ne întoarcem de pe culmile metaforelor
13:59
and returnîntoarcere to scienceştiinţă.
300
824000
2000
înapoi la știință.
14:01
SupposeSă presupunem că our technologiestehnologii for findingdescoperire connectomesconnectomes
301
826000
2000
Să presupunem că tehnologiile care găsesc conectomii
14:03
actuallyde fapt work.
302
828000
2000
vor funcționa.
14:05
How will we go about testingTestarea the hypothesisipoteză
303
830000
2000
Cum vom testa ipoteza
14:07
"I am my connectomeconnectome?"
304
832000
3000
„Eu sunt conectomul meu”?
14:10
Well, I proposepropune a directdirect testTest.
305
835000
3000
Ei bine, propun un test direct.
14:13
Let us attemptatentat, încercare
306
838000
2000
Haideți să încercăm
14:15
to readcitit out memoriesamintiri from connectomesconnectomes.
307
840000
3000
să citim amintirile din conectomi.
14:18
ConsiderIa în considerare the memorymemorie
308
843000
2000
Să considerăm memoria
14:20
of long temporaltemporal sequencessecvenţe of movementsmișcări,
309
845000
3000
ca fiind o secvență temporală lungă de mișcări,
14:23
like a pianistpianist playingjoc a BeethovenBeethoven sonatasonată.
310
848000
3000
ca un pianist care cântă o sonată a lui Beethoven.
14:26
AccordingÎn funcţie de to a theoryteorie that datesdatele back to the 19thlea centurysecol,
311
851000
3000
Conform unei teorii care datează din secolul al XIX-lea,
14:29
suchastfel de memoriesamintiri are storedstocate
312
854000
2000
asemenea amintiri sunt stocate
14:31
as chainslanţuri of synapticsinaptică connectionsconexiuni insideinterior your braincreier.
313
856000
3000
ca lanțuri de conexiuni sinaptice în interiorul creierului.
14:35
Because, if the first neuronsneuroni in the chainlanţ are activatedactivat,
314
860000
3000
Pentru că, dacă primii neuroni din lanț sunt activați,
14:38
throughprin theiral lor synapsessinapse they sendtrimite messagesmesaje to the secondal doilea neuronsneuroni, whichcare are activatedactivat,
315
863000
3000
prin intermediul sinapselor trimit mesaje neuronilor secundari, care sunt activați,
14:41
and so on down the linelinia,
316
866000
2000
și tot așa de-a lungul șirului,
14:43
like a chainlanţ of fallingcădere dominoesDomino.
317
868000
2000
ca piese de domino care cad.
14:45
And this sequencesecvenţă of neuralneural activationactivare
318
870000
2000
Și această secvență de activare neuronală
14:47
is hypothesizedipoteza to be the neuralneural basisbază
319
872000
3000
se presupune a fi baza neuronală
14:50
of those sequencesecvenţă of movementsmișcări.
320
875000
2000
a acelei secvențe de mișcări.
14:52
So one way of tryingîncercat to testTest the theoryteorie
321
877000
2000
Așadar, un mod de a testa această teorie
14:54
is to look for suchastfel de chainslanţuri
322
879000
2000
este de a căuta asemenea lanțuri
14:56
insideinterior connectomesconnectomes.
323
881000
2000
în interiorul conectomilor.
14:58
But it won'tnu va be easyuşor, because they're not going to look like this.
324
883000
3000
Dar nu va fi ușor pentru că nu vor arăta așa.
15:01
They're going to be scrambledamestecate up.
325
886000
2000
Vor fi învălmășiți.
15:03
So we'llbine have to use our computerscalculatoare
326
888000
2000
Astfel, o să trebuiască se folosim computerele
15:05
to try to unscrambleunscramble the chainlanţ.
327
890000
3000
pentru a încerca să-i punem în ordine.
15:08
And if we can do that,
328
893000
2000
Și dacă putem face asta,
15:10
the sequencesecvenţă of the neuronsneuroni we recoverrecupera from that unscramblingdecoda
329
895000
3000
secvența de neuroni pe care o recuperăm din acea ordonare
15:13
will be a predictionprezicere of the patternmodel of neuralneural activityactivitate
330
898000
3000
va fi o predicție a tiparului activității neuronale,
15:16
that is replayedreluate in the braincreier duringpe parcursul memorymemorie recallrechemare.
331
901000
3000
care se derulează în creier în timpul amintirii.
15:19
And if that were successfulde succes,
332
904000
2000
Și dacă am reuși acest lucru,
15:21
that would be the first exampleexemplu of readingcitind a memorymemorie from a connectomeconnectome.
333
906000
3000
ar fi primul exemplu de citire a unei amintiri dintr-un conectom.
15:28
(LaughterRâs)
334
913000
2000
(Râsete)
15:30
What a messdezordine --
335
915000
2000
Ce dezordine.
15:33
have you ever triedîncercat to wiresârmă up a systemsistem
336
918000
2000
Ați încercat să conectați firele unui sistem
15:35
as complexcomplex as this?
337
920000
2000
complex ca acesta?
15:37
I hopesperanţă not.
338
922000
2000
Sper că nu.
15:39
But if you have, you know it's very easyuşor to make a mistakegreşeală.
339
924000
3000
Dar dacă ați făcut-o, știți că e foarte ușor să greșiți.
15:45
The branchessucursale of neuronsneuroni are like the wiresfire of the braincreier.
340
930000
2000
Ramurile neuronilor sunt ca niște fire ale creierului.
15:47
Can anyoneoricine guessghici: what's the totaltotal lengthlungime of wiresfire in your braincreier?
341
932000
4000
Poate cineva să ghicească: care e lungimea totală a firelor din creier?
15:54
I'll give you a hintaluzie. It's a bigmare numbernumăr.
342
939000
2000
Vă dau un indiciu. Este un număr mare.
15:56
(LaughterRâs)
343
941000
2000
(Râsete)
15:59
I estimateestima, millionsmilioane of milesmile,
344
944000
3000
Estimez că sunt milioane de kilometri.
16:02
all packedbătătorit in your skullcraniu.
345
947000
3000
Îngrămădiți în craniul dumneavoastră.
16:05
And if you appreciatea aprecia that numbernumăr,
346
950000
2000
Și dacă evaluați acest număr,
16:07
you can easilyuşor see
347
952000
2000
puteți observa cu ușurință că
16:09
there is hugeimens potentialpotenţial for mis-wiringMIS-cablare of the braincreier.
348
954000
2000
există o șansă enormă de a greși conectarea firelor în creier.
16:11
And indeedintr-adevar, the popularpopular presspresa lovesiubește headlinesprima pagină like,
349
956000
3000
Și bineînțeles, presa adoră titluri ca
16:14
"AnorexicAnorexica brainscreier are wiredcu fir differentlydiferit,"
350
959000
2000
„Conexiunile din creierul anorexic sunt diferite”,
16:16
or "AutisticSchizofrenic brainscreier are wiredcu fir differentlydiferit."
351
961000
2000
sau, „Conexiunile din creierul autist sunt diferite”.
16:18
These are plausibleplauzibil claimscreanțe,
352
963000
2000
Acestea sunt afirmații plauzibile,
16:20
but in truthadevăr,
353
965000
2000
dar de fapt,
16:22
we can't see the brain'screier wiringcabluri clearlyclar enoughdestul
354
967000
2000
nu putem vedea conexiunile creierului destul de clar
16:24
to tell if these are really trueAdevărat.
355
969000
2000
pentru a spune dacă sunt adevărate.
16:26
And so the technologiestehnologii for seeingvedere connectomesconnectomes
356
971000
3000
Așadar, tehnologiile pentru a vedea conectomii
16:29
will allowpermite us to finallyin sfarsit
357
974000
2000
ne vor permite, ca în sfârșit
16:31
readcitit mis-wiringMIS-cablare of the braincreier,
358
976000
2000
să observăm conexiunile greșite din creier,
16:33
to see mentalmental disordersTulburări in connectomesconnectomes.
359
978000
3000
și să vedem tulburările mentale din conectomi.
16:40
SometimesUneori the bestCel mai bun way to testTest a hypothesisipoteză
360
985000
3000
Uneori, cea mai bună metodă de a testa o ipoteză
16:43
is to considerconsidera its mostcel mai extremeextrem implicationimplicarea.
361
988000
3000
este de a lua în considerare implicațiile ei extreme.
16:46
PhilosophersFilozofi know this gamejoc very well.
362
991000
3000
Filozofii cunosc foarte bine acest joc.
16:50
If you believe that I am my connectomeconnectome,
363
995000
3000
Dacă ați crede că eu sunt conectomul meu,
16:53
I think you musttrebuie sa alsode asemenea acceptAccept the ideaidee
364
998000
3000
atunci cred că trebuie, de asemenea, să acceptați ideea
16:56
that deathmoarte is the destructiondistrugere
365
1001000
2000
că moartea reprezintă distrugerea
16:58
of your connectomeconnectome.
366
1003000
3000
propriului conectom.
17:02
I mentionmenționa this because there are prophetsproorocii todayastăzi
367
1007000
3000
Menționez asta pentru că în ziua de azi există profeți
17:05
who claimRevendicare that technologytehnologie
368
1010000
3000
care susțin că tehnologia
17:08
will fundamentallyfundamental altermodifica the humanuman conditioncondiție
369
1013000
3000
va altera fundamental condiția umană
17:11
and perhapspoate even transformtransforma the humanuman speciesspecie.
370
1016000
3000
și probabil, chiar va transforma specia umană.
17:14
One of theiral lor mostcel mai cherishedpreţuit dreamsvise
371
1019000
3000
Unul dintre visurile la care țin cel mai mult
17:17
is to cheatieftin deathmoarte
372
1022000
2000
este de a păcăli moartea
17:19
by that practicepractică knowncunoscut as cryonicsCryonics.
373
1024000
2000
prin practica numită criogenie.
17:21
If you paya plati 100,000 dollarsdolari,
374
1026000
2000
Dacă plătiți 100,000 de dolari,
17:23
you can arrangearanja to have your bodycorp frozenîngheţat after deathmoarte
375
1028000
3000
puteți aranja să vi se înghețe trupul după moarte
17:26
and storedstocate in liquidlichid nitrogenazot
376
1031000
2000
și să fie depozitat în azot lichid
17:28
in one of these tanksrezervoare in an ArizonaArizona warehousedepozit,
377
1033000
2000
într-una dintre aceste canistre într-un depozit din Arizona,
17:30
awaitingîn aşteptarea a futureviitor civilizationcivilizaţie
378
1035000
2000
în așteptarea unei viitoare civilizații,
17:32
that is advancedavansat to resurrectînvia you.
379
1037000
3000
destul de avansată pentru a te readuce la viață.
17:36
Should we ridiculeridicol the modernmodern seekerssolicitanţilor of immortalitynemurire,
380
1041000
2000
Ar trebui ridiculizați căutătorii moderni ai imortalității,
17:38
callingapel them foolsproşti?
381
1043000
2000
numidu-i neghiobi?
17:40
Or will they somedayîntr-o zi chucklechicotit
382
1045000
2000
Sau vor chicoti într-o zi uitându-se
17:42
over our gravesmorminte?
383
1047000
2000
la mormintele noastre?
17:45
I don't know --
384
1050000
2000
Nu știu.
17:47
I preferprefera to testTest theiral lor beliefscredințe, scientificallyştiinţific.
385
1052000
3000
Prefer să le pun la încercare convingerile, științific.
17:50
I proposepropune that we attemptatentat, încercare to find a connectomeconnectome
386
1055000
2000
Propun să încercăm să găsim un conectom
17:52
of a frozenîngheţat braincreier.
387
1057000
2000
al unui creier înghețat.
17:54
We know that damagedeteriora to the braincreier
388
1059000
2000
Știm că stricăciuni la nivelul creierului
17:56
occursare loc after deathmoarte and duringpe parcursul freezingcongelare.
389
1061000
2000
au loc după moarte și în timpul înghețării.
17:58
The questionîntrebare is: has that damagedeteriora erasedșterse the connectomeconnectome?
390
1063000
3000
Întrebarea e: acea stricăciune a șters conectomul?
18:01
If it has, there is no way that any futureviitor civilizationcivilizaţie
391
1066000
3000
Dacă a făcut-o, nu va fi nicio șansă ca o viitoare civilizație
18:04
will be ablecapabil to recoverrecupera the memoriesamintiri of these frozenîngheţat brainscreier.
392
1069000
3000
să poată recupera amintirile acelor creiere înghețate.
18:07
ResurrectionÎnvierea mightar putea succeeda reusi for the bodycorp,
393
1072000
2000
Readucerea la viața poate reuși pentru corp,
18:09
but not for the mindminte.
394
1074000
2000
dar nu și pentru minte.
18:11
On the other handmână, if the connectomeconnectome is still intactintact,
395
1076000
3000
Pe de altă parte, dacă acel conectom e încă intact,
18:14
we cannotnu poti ridiculeridicol the claimscreanțe of cryonicsCryonics so easilyuşor.
396
1079000
3000
nu putem ridiculiza afirmațiile criogeniei atât de ușor.
18:20
I've describeddescris a questQuest
397
1085000
2000
Am descris aventura
18:22
that beginsîncepe in the worldlume of the very smallmic,
398
1087000
3000
care începe din lumea microscopică,
18:25
and propelspropulsează us to the worldlume of the fardeparte futureviitor.
399
1090000
3000
și ne propulsează în lumea viitorului îndepărtat.
18:28
ConnectomesConnectomes will markmarcă a turningcotitură pointpunct in humanuman historyistorie.
400
1093000
3000
Conectomii vor marca un punct de cotitură în istoria umană.
18:32
As we evolvedevoluat from our ape-likeape-ca ancestorsstrămoși
401
1097000
2000
Pe măsură ce am evoluat din strămoșii primate
18:34
on the AfricanAfricane savannasavana,
402
1099000
2000
din savana africană,
18:36
what distinguisheddistins us was our largermai mare brainscreier.
403
1101000
3000
ceea ce ne-a diferențiat au fost creierele noastre mai mari.
18:40
We have used our brainscreier to fashionModă
404
1105000
2000
Ne-am folosit creierul pentru a modela
18:42
ever more amazinguimitor technologiestehnologii.
405
1107000
3000
mai multe tehnologii uimitoare.
18:45
EventuallyÎn cele din urmă, these technologiestehnologii will becomedeveni so powerfulputernic
406
1110000
3000
În final, aceste tehnologii vor deveni atât de puternice
18:48
that we will use them to know ourselvesnoi insine
407
1113000
3000
încât le vom folosi pentru a ne cunoaște mai bine
18:51
by deconstructingdeconstruind and reconstructingreconstruire
408
1116000
3000
descompunând și recompunând
18:54
our ownpropriu brainscreier.
409
1119000
3000
propriul creier.
18:57
I believe that this voyagecălătorie of self-discoveryauto-descoperire
410
1122000
3000
Cred că această călătorie de auto-descoperire
19:00
is not just for scientistsoamenii de știință,
411
1125000
3000
nu e doar pentru oamenii de știință,
19:03
but for all of us.
412
1128000
2000
ci pentru noi toți.
19:05
And I'm gratefulrecunoscător for the opportunityoportunitate to shareacțiune this voyagecălătorie with you todayastăzi.
413
1130000
3000
Și sunt recunoscător pentru șansa de a împărtăși această călătorie cu voi, astăzi.
19:08
Thank you.
414
1133000
2000
Vă mulțumesc!
19:10
(ApplauseAplauze)
415
1135000
8000
(Aplauze)
Translated by Alexandru Grigoroiu
Reviewed by Laszlo Kereszturi

▲Back to top

ABOUT THE SPEAKER
Sebastian Seung - Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain.

Why you should listen

In the brain, neurons are connected into a complex network. Sebastian Seung and his lab at MIT are inventing technologies for identifying and describing the connectome, the totality of connections between the brain's neurons -- think of it as the wiring diagram of the brain. We possess our entire genome at birth, but things like memories are not "stored" in the genome; they are acquired through life and accumulated in the brain. Seung's hypothesis is that "we are our connectome," that the connections among neurons is where memories and experiences get stored.

Seung and his collaborators, including Winfried Denk at the Max Planck Institute and Jeff Lichtman at Harvard University, are working on a plan to thin-slice a brain (probably starting with a mouse brain) and trace, from slice to slice, each neural pathway, exposing the wiring diagram of the brain and creating a powerful new way to visualize the workings of the mind. They're not the first to attempt something like this -- Sydney Brenner won a Nobel for mapping all the 7,000 connections in the nervous system of a tiny worm, C. elegans. But that took his team a dozen years, and the worm only had 302 nerve cells. One of Seung's breakthroughs is in using advanced imagining and AI to handle the crushing amount of data that a mouse brain will yield and turn it into richly visual maps that show the passageways of thought and sensation.

More profile about the speaker
Sebastian Seung | Speaker | TED.com