ABOUT THE SPEAKER
Sebastian Seung - Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain.

Why you should listen

In the brain, neurons are connected into a complex network. Sebastian Seung and his lab at MIT are inventing technologies for identifying and describing the connectome, the totality of connections between the brain's neurons -- think of it as the wiring diagram of the brain. We possess our entire genome at birth, but things like memories are not "stored" in the genome; they are acquired through life and accumulated in the brain. Seung's hypothesis is that "we are our connectome," that the connections among neurons is where memories and experiences get stored.

Seung and his collaborators, including Winfried Denk at the Max Planck Institute and Jeff Lichtman at Harvard University, are working on a plan to thin-slice a brain (probably starting with a mouse brain) and trace, from slice to slice, each neural pathway, exposing the wiring diagram of the brain and creating a powerful new way to visualize the workings of the mind. They're not the first to attempt something like this -- Sydney Brenner won a Nobel for mapping all the 7,000 connections in the nervous system of a tiny worm, C. elegans. But that took his team a dozen years, and the worm only had 302 nerve cells. One of Seung's breakthroughs is in using advanced imagining and AI to handle the crushing amount of data that a mouse brain will yield and turn it into richly visual maps that show the passageways of thought and sensation.

More profile about the speaker
Sebastian Seung | Speaker | TED.com
TEDGlobal 2010

Sebastian Seung: I am my connectome

Себастиан Сюнг: Аз съм моя кънектом

Filmed:
1,131,223 views

Себастиан Сюнг картографира амбициозен и масивен нов модел на мозъка, който се фокусира върху връзките между всеки неврон. Той го нарича нашия "кънектом" и той е толкова уникален, колкото е и нашият геном - и разбирането му би могло да отвори нов път в осъзнаването на нашите мозъци и умове.
- Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain. Full bio

Double-click the English transcript below to play the video.

00:17
We liveживея in in a remarkableзабележителен time,
0
2000
3000
Живеем в забележително време,
00:20
the ageвъзраст of genomicsгеномика.
1
5000
3000
ерата на генетиката.
00:23
Your genomeгеном is the entireцял sequenceпоследователност of your DNAДНК.
2
8000
3000
Вашият геном е съвкупността от цялата последователност на вашето ДНК.
00:26
Your sequenceпоследователност and mineмоята are slightlyмалко differentразличен.
3
11000
3000
Вашата и моята последователност са малко различни.
00:29
That's why we look differentразличен.
4
14000
2000
Ето защо ние изглеждаме различни.
00:31
I've got brownкафяв eyesочи;
5
16000
2000
Аз имам кафяви очи.
00:33
you mightбиха могли, може have blueсин or grayсив.
6
18000
3000
Вие може би имате сини или сиви.
00:36
But it's not just skin-deepSkin-Deep.
7
21000
2000
Но това не е само повърхностно.
00:38
The headlinesзаглавия tell us
8
23000
2000
Заглавията ни казват,
00:40
that genesгени can give us scaryстрашен diseasesзаболявания,
9
25000
3000
че гените могат да ни докарат плашещи болести,
00:43
maybe even shapeформа our personalityиндивидуалност,
10
28000
3000
а може би дори и да оформят нашата индивидуалност,
00:46
or give us mentalумствен disordersразстройства.
11
31000
3000
или да ни доведат до умствени заболявания.
00:49
Our genesгени seemИзглежда to have
12
34000
3000
Нашите гени изглежда имат
00:52
awesomeстрахотен powerмощност over our destiniesсъдби.
13
37000
3000
забележителна сила върху нашите съдби.
00:56
And yetоще, I would like to think
14
41000
3000
И вяпреки това, аз искам да си мисля,
00:59
that I am more than my genesгени.
15
44000
3000
че съм повече от моите гени.
01:04
What do you guys think?
16
49000
2000
Вие какво мислите?
01:06
Are you more than your genesгени?
17
51000
3000
Повече ли сте от вашите гени?
01:09
(AudienceАудитория: Yes.) Yes?
18
54000
2000
(Публиката: Да.) Да?
01:13
I think some people agreeСъгласен with me.
19
58000
2000
Мисля, че някои хора са съгласни с мен.
01:15
I think we should make a statementизявление.
20
60000
2000
Мисля, че ние трябва да направим изявление.
01:17
I think we should say it all togetherзаедно.
21
62000
2000
Мисля, че трябва да го кажем заедно.
01:20
All right: "I'm more than my genesгени" -- all togetherзаедно.
22
65000
3000
"Аз съм повече от моите гени" - всички заедно.
01:23
EverybodyВсеки: I am more than my genesгени.
23
68000
4000
Всички: Аз съм повече от моите гени.
01:27
(CheeringАплодисменти)
24
72000
2000
(Одобрителен вик)
01:30
SebastianСебастиан SeungСунг: What am I?
25
75000
2000
Себастиан Сюнг: Какво съм аз?
01:32
(LaughterСмях)
26
77000
3000
(Смях)
01:35
I am my connectomeconnectome.
27
80000
3000
Аз съм моят кънектом.
01:40
Now, sinceот you guys are really great,
28
85000
2000
А сега, тъй като вие сте наистина страхотни,
01:42
maybe you can humorхумор me and say this all togetherзаедно too.
29
87000
2000
може би вие може да ми се присмеете и да го кажете също всички заедно.
01:44
(LaughterСмях)
30
89000
2000
(Смях)
01:46
Right. All togetherзаедно now.
31
91000
2000
Точно така. Сега всички заедно.
01:48
EverybodyВсеки: I am my connectomeconnectome.
32
93000
3000
Всички: Аз съм моят кънектом.
01:53
SSСС: That soundedзвучеше great.
33
98000
2000
Това прозвуча чудесно.
01:55
You know, you guys are so great, you don't even know what a connectomeconnectome is,
34
100000
2000
Знаете ли, вие сте толкова невероятни, че дори не знаете какво е кънектом
01:57
and you're willingсклонен to playиграя alongзаедно with me.
35
102000
2000
и въпреки това сте съгласни с мен.
01:59
I could just go home now.
36
104000
3000
Още сега мога да си отида вкъщи.
02:02
Well, so farдалече only one connectomeconnectome is knownизвестен,
37
107000
3000
Добре, засега само един кънектом е познат,
02:05
that of this tinyмъничък wormчервей.
38
110000
3000
кънектомът на този малък червей.
02:08
Its modestскромен nervousнервен systemсистема
39
113000
2000
Неговата скромна нервна система
02:10
consistsсъстои се of just 300 neuronsневрони.
40
115000
2000
се състои от само 300 неврона.
02:12
And in the 1970s and '80s,
41
117000
2000
И през 1970-те и 80-те,
02:14
a teamекип of scientistsучени
42
119000
2000
екип от учени
02:16
mappedнанесени all 7,000 connectionsвръзки
43
121000
2000
са картографирали всички 7 000 връзки
02:18
betweenмежду the neuronsневрони.
44
123000
2000
между невроните.
02:21
In this diagramдиаграма, everyвсеки nodeвъзел is a neuronневрон,
45
126000
2000
На тази диаграма, всеки възел е неврон
02:23
and everyвсеки lineлиния is a connectionВръзка.
46
128000
2000
и всяка линия е връзка.
02:25
This is the connectomeconnectome
47
130000
2000
Това е кънектомът
02:27
of the wormчервей C. elegansЕлеганс.
48
132000
4000
на червея фин ктенорабдит.
02:31
Your connectomeconnectome is farдалече more complexкомплекс than this
49
136000
3000
Вашият кънектом е далеч по-сложен от този,
02:34
because your brainмозък
50
139000
2000
защото вашият мозък
02:36
containsсъдържа 100 billionмилиард neuronsневрони
51
141000
2000
съдържа 100 милиарда неврона
02:38
and 10,000 timesпъти as manyмного connectionsвръзки.
52
143000
3000
и 10 000 пъти повече връзки.
02:41
There's a diagramдиаграма like this for your brainмозък,
53
146000
2000
Има подобна диаграма на вашия мозък,
02:43
but there's no way it would fitгоден on this slideпързалка.
54
148000
3000
но няма начин тя да се събере на този екран..
02:47
Your connectomeconnectome containsсъдържа one millionмилион timesпъти more connectionsвръзки
55
152000
3000
Вашият кънектом съдържа един милион повече връзки
02:50
than your genomeгеном has lettersписма.
56
155000
3000
от буквите във вашия геном.
02:53
That's a lot of informationинформация.
57
158000
2000
Това е много информация.
02:55
What's in that informationинформация?
58
160000
3000
Какво има в тази информация?
02:59
We don't know for sure, but there are theoriesтеории.
59
164000
3000
Ние не знаем със сигурност, но има няколко теории.
03:02
SinceТъй като the 19thтата centuryвек, neuroscientistsневролози have speculatedспекулират
60
167000
3000
От 19ти век учените, които се занимават с изследване на нервите, спекулират,
03:05
that maybe your memoriesспомени --
61
170000
2000
че може би вашите спомени -
03:07
the informationинформация that makesправи you, you --
62
172000
2000
информацията, която ви определя,
03:09
maybe your memoriesспомени are storedсъхранени
63
174000
2000
са съхранени
03:11
in the connectionsвръзки betweenмежду your brain'sна мозъка neuronsневрони.
64
176000
2000
във връзките между вашите неврони в мозъка ви.
03:15
And perhapsможе би other aspectsаспекти of your personalперсонален identityидентичност --
65
180000
2000
И може би други аспекти на вашата идентичност -
03:17
maybe your personalityиндивидуалност and your intellectинтелект --
66
182000
3000
може би вашата личност и вашият интелект -
03:20
maybe they're alsoсъщо encodedкодиран
67
185000
2000
може би те също са кодирани™
03:22
in the connectionsвръзки betweenмежду your neuronsневрони.
68
187000
3000
във връзките между вашите неврони.
03:26
And so now you can see why I proposedпредложената this hypothesisхипотеза:
69
191000
3000
И сега може да разберете защо предлагам моята хипотеза:
03:29
I am my connectomeconnectome.
70
194000
3000
Аз съм моят кънектом.
03:32
I didn't askпитам you to chantпеснопение it because it's trueвярно;
71
197000
3000
Не исках да го повтаряте защото е вярно,
03:35
I just want you to rememberпомня it.
72
200000
2000
само искам да го запомните.
03:37
And in factфакт, we don't know if this hypothesisхипотеза is correctправилен,
73
202000
2000
И всъщност, ние не знаем дали тази хипотеза е вярна,
03:39
because we have never had technologiesтехнологии
74
204000
2000
защото никога не сме имали технологии
03:41
powerfulмощен enoughдостатъчно to testтест it.
75
206000
2000
достатъчно мощни, за да я тестваме.
03:44
FindingНамиране на that wormчервей connectomeconnectome
76
209000
3000
Откриването на кънектома на този червей
03:47
tookвзеха over a dozenдузина yearsгодини of tediousдосаден laborтруд.
77
212000
3000
отне многобройни години еднообразна работа.
03:50
And to find the connectomesconnectomes of brainsмозъците more like our ownсобствен,
78
215000
3000
А за да открием кънектомите на мозъци като нашите,
03:53
we need more sophisticatedсложен technologiesтехнологии, that are automatedавтоматизирано,
79
218000
3000
имаме нужда от по-сложни технологии, които са автоматизирани,
03:56
that will speedскорост up the processпроцес of findingнамиране connectomesconnectomes.
80
221000
3000
което ще ускори процеса на откриване на кънектоми.
03:59
And in the nextследващия fewмалцина minutesминути, I'll tell you about some of these technologiesтехнологии,
81
224000
3000
В следващите минути ще ви разкажа за някои от тези технологии,
04:02
whichкойто are currentlyпонастоящем underпри developmentразвитие
82
227000
2000
които в момента се разработват
04:04
in my labлаборатория and the labsлаборатории of my collaboratorsсътрудници.
83
229000
3000
в моята лаборатория и в лабораториите на моите сътрудници.
04:08
Now you've probablyвероятно seenвидян picturesснимки of neuronsневрони before.
84
233000
3000
Сигурно сте виждали снимки на неврони преди.
04:11
You can recognizeпризнавам them instantlyмигновено
85
236000
2000
Може да ги разпознаете веднага
04:13
by theirтехен fantasticфантастичен shapesформи.
86
238000
3000
по техните фантастични форми.
04:16
They extendразшири long and delicateделикатен branchesклонове,
87
241000
3000
Те имат дълги и деликатни отклонения,
04:19
and in shortнисък, they look like treesдървета.
88
244000
3000
и накратко, те изглеждат като дървета.
04:22
But this is just a singleединичен neuronневрон.
89
247000
3000
Но това е само един неврон.
04:25
In orderпоръчка to find connectomesconnectomes,
90
250000
2000
За да намерим кънектоми,
04:27
we have to see all the neuronsневрони at the sameедин и същ time.
91
252000
3000
ние трябва да разгледаме всички неврони едновременно.
04:30
So let's meetСреща BobbyБоби KasthuriKasthuri,
92
255000
2000
Да се запознаем с Боби Кастури,
04:32
who worksвърши работа in the laboratoryлаборатория of JeffДжеф LichtmanLichtman
93
257000
2000
който работи в лабораторията на Джеф Литман
04:34
at HarvardХарвард UniversityУниверситет.
94
259000
2000
в университета "Харвард".
04:36
BobbyБоби is holdingдържеше fantasticallyфантастично thinтънък slicesфилийки
95
261000
2000
Боби държи фантастично тънки резени
04:38
of a mouseмишка brainмозък.
96
263000
2000
на мозък от мишка.
04:40
And we're zoomingмащабиране in by a factorфактор of 100,000 timesпъти
97
265000
3000
И ние увеличаваме с фактор 100 000 пъти,
04:44
to obtainполучи the resolutionрезолюция,
98
269000
2000
за да получим резолюцията
04:46
so that we can see the branchesклонове of neuronsневрони all at the sameедин и същ time.
99
271000
3000
така, че да видим клоните с неврони едновременно.
04:50
ExceptС изключение на, you still mayможе not really recognizeпризнавам them,
100
275000
3000
Все още не можете да ги разпознаете,
04:53
and that's because we have to work in threeтри dimensionsразмери.
101
278000
3000
и това е защото ние трябва да работим в три измерения.
04:56
If we take manyмного imagesснимки of manyмного slicesфилийки of the brainмозък
102
281000
2000
Ако вземем много образи от много разрези от мозъка
04:58
and stackкупчина them up,
103
283000
2000
и ги наредим на куп,
05:00
we get a three-dimensionalтриизмерен imageизображение.
104
285000
2000
ще получим триизмерен образ.
05:02
And still, you mayможе not see the branchesклонове.
105
287000
2000
И все още, вие няма да видите разклоненията.
05:04
So we startначало at the topвръх,
106
289000
2000
Така че ние започваме от върха,
05:06
and we colorцвят in the cross-sectionнапречно сечение of one branchклон in redчервен,
107
291000
3000
и боядисваме пресечните части на едно разклонение в червено,
05:09
and we do that for the nextследващия sliceфилия
108
294000
2000
и правим това за следващия разрез
05:11
and for the nextследващия sliceфилия.
109
296000
2000
и за следващия разрез.
05:13
And we keep on doing that,
110
298000
2000
И ние продължаваме да правим това,
05:15
sliceфилия after sliceфилия.
111
300000
3000
разрез след резрез.
05:18
If we continueпродължи throughпрез the entireцял stackкупчина,
112
303000
2000
Ако продължим през целия куп,
05:20
we can reconstructвъзстанови the three-dimensionalтриизмерен shapeформа
113
305000
3000
ние може да реконструираме триизмерната форма
05:23
of a smallмалък fragmentфрагмент of a branchклон of a neuronневрон.
114
308000
3000
на малки фрагменти от разклонението на един неврон.
05:26
And we can do that for anotherоще neuronневрон in greenзелен.
115
311000
2000
И можем да направим това за друг неврон в зелено.
05:28
And you can see that the greenзелен neuronневрон touchesщрихи the redчервен neuronневрон
116
313000
2000
И може да видите, че зеленият неврон докосва червения неврон
05:30
at two locationsместоположения,
117
315000
2000
на две места,
05:32
and these are what are calledНаречен synapsesсинапси.
118
317000
2000
и те се наричат синапси.
05:34
Let's zoomмащабиране in on one synapseсинапс,
119
319000
2000
Нека да увеличим в един от синапсите.
05:36
and keep your eyesочи on the interiorинтериор of the greenзелен neuronневрон.
120
321000
3000
И да запазим погледа си във вътрешността на зеления неврон.
05:39
You should see smallмалък circlesкръгове --
121
324000
2000
Би трябвало да видите малки кръгове.
05:41
these are calledНаречен vesiclesвезикули.
122
326000
3000
Те се наричат торбички.
05:44
They containсъдържа a moleculeмолекула know as a neurotransmitterневротрансмитер.
123
329000
3000
Те съдържат молекула позната като невротрансмитер.
05:47
And so when the greenзелен neuronневрон wants to communicateобщуват,
124
332000
2000
И така, когато зеленият неврон иска да комуникира,
05:49
it wants to sendизпращам a messageсъобщение to the redчервен neuronневрон,
125
334000
2000
той иска да изпрати съобщение на червения неврон,
05:51
it spitsплюе out neurotransmitterневротрансмитер.
126
336000
3000
и изпуска невротрансмитер.
05:54
At the synapseсинапс, the two neuronsневрони
127
339000
2000
В синапса, двата неврона
05:56
are said to be connectedсвързан
128
341000
2000
са свързани
05:58
like two friendsприятели talkingговорим on the telephoneтелефон.
129
343000
3000
както двама приятели си говорят по телефона.
06:02
So you see how to find a synapseсинапс.
130
347000
2000
Така виждате как се намира синапс.
06:04
How can we find an entireцял connectomeconnectome?
131
349000
3000
Как да намерим цял кънектом?
06:07
Well, we take this three-dimensionalтриизмерен stackкупчина of imagesснимки
132
352000
3000
Ние взимаме този триизмерен куп от образи
06:10
and treatлечение it as a giganticгигантски three-dimensionalтриизмерен coloringоцветяване bookКнига.
133
355000
3000
и го разглеждаме като гигантска триизмерна книга за оцветяване.
06:13
We colorцвят everyвсеки neuronневрон in, in a differentразличен colorцвят,
134
358000
3000
Оцветяваме всеки неврон в различен цвят,
06:16
and then we look throughпрез all of the imagesснимки,
135
361000
2000
и след това гледаме през всички образи,
06:18
find the synapsesсинапси
136
363000
2000
намираме синапсите
06:20
and noteЗабележка the colorsцветове of the two neuronsневрони involvedучастващи in eachвсеки synapseсинапс.
137
365000
3000
и отбелязваме цветовете на двата неврона включени във всеки синапс.
06:23
If we can do that throughoutпрез all the imagesснимки,
138
368000
3000
Ако може да направим това при всички образи,
06:26
we could find a connectomeconnectome.
139
371000
2000
ние бихме могли да намерим кънектом.
06:29
Now, at this pointточка,
140
374000
2000
В този момент,
06:31
you've learnedнаучен the basicsОснови of neuronsневрони and synapsesсинапси.
141
376000
2000
вие научихте основите на невроните и синапсите.
06:33
And so I think we're readyготов to tackleсправи
142
378000
2000
И си мисля, че сме готови да се заемем
06:35
one of the mostнай-много importantважно questionsвъпроси in neuroscienceневрология:
143
380000
3000
с един от най-важните въпроси в невронауката:
06:39
how are the brainsмозъците of menхора and womenДами differentразличен?
144
384000
3000
По какво се различават мозъците на мъжете и жените?
06:42
(LaughterСмях)
145
387000
2000
(Смях)
06:44
AccordingСпоред to this self-helpсамопомощ bookКнига,
146
389000
2000
Според този самоучител,
06:46
guys brainsмозъците are like wafflesвафли;
147
391000
2000
мозъците на мъжете са като вафли -
06:48
they keep theirтехен livesживота compartmentalizedразделни отделения in boxesкутии.
148
393000
3000
те поддържат своя живот разделен на кутии.
06:51
Girls'Момичета brainsмозъците are like spaghettiспагети;
149
396000
3000
Мозъците на жените са като спагети -
06:54
everything in theirтехен life is connectedсвързан to everything elseоще.
150
399000
3000
всичко в техния живот е свързано с всичко останало.
06:57
(LaughterСмях)
151
402000
2000
(Смях)
06:59
You guys are laughingсмее се,
152
404000
2000
Вие се смеете,
07:01
but you know, this bookКнига changedпроменен my life.
153
406000
2000
но, знаете ли, тази книга промени живота ми.
07:03
(LaughterСмях)
154
408000
2000
(Смях)
07:07
But seriouslyсериозно, what's wrongпогрешно with this?
155
412000
3000
Но сериозно, какво е грешното в това твърдение?
07:10
You alreadyвече know enoughдостатъчно to tell me -- what's wrongпогрешно with this statementизявление?
156
415000
3000
Вие вече знаете достатъчно, за да ми кажете. Какво е грешно в това твърдение?
07:20
It doesn't matterвъпрос whetherдали you're a guy or girlмомиче,
157
425000
3000
Няма значение дали сте мъж или жена,
07:23
everyone'sвсички са brainsмозъците are like spaghettiспагети.
158
428000
3000
всеки мозък е като спагети.
07:26
Or maybe really, really fine capelliniCapellini with branchesклонове.
159
431000
3000
Или може би в действителност, наистина добри капелини с разклонения.
07:30
Just as one strandСтранд of spaghettiспагети
160
435000
2000
Също както една спагета
07:32
contactsКонтакти manyмного other strandsнаправления on your plateплоча,
161
437000
3000
докосва много други спагети във вашата чиния,
07:35
one neuronневрон touchesщрихи manyмного other neuronsневрони
162
440000
2000
един неврон докосва много други неврони
07:37
throughпрез theirтехен entangledзаплита branchesклонове.
163
442000
2000
чрез своите заплетени разклонения.
07:39
One neuronневрон can be connectedсвързан to so manyмного other neuronsневрони,
164
444000
3000
Един неврон може да бъде свързан с толкова много други неврони,
07:42
because there can be synapsesсинапси
165
447000
2000
защото може да има синапси
07:44
at these pointsточки of contactконтакт.
166
449000
3000
в тези места на контакт.
07:49
By now, you mightбиха могли, може have sortвид of lostзагубен perspectiveперспектива
167
454000
3000
Досега, вие може би имате донякъде загубена перспектива
07:52
on how largeголям this cubeкуб of brainмозък tissueтъкан actuallyвсъщност is.
168
457000
3000
за това реално колко голям е този куб с тъкан от мозък.
07:55
And so let's do a seriesсерия of comparisonsсравнения to showшоу you.
169
460000
3000
Нека да направим серии от сравнения за да ви покажа.
07:58
I assureуверявам you, this is very tinyмъничък. It's just sixшест micronsмикрона on a sideстрана.
170
463000
3000
Уверявам ви това е много малко. Всяка страна е само 6 микрона.
08:03
So, here'sето how it stacksкупища up againstсрещу an entireцял neuronневрон.
171
468000
3000
А сега, тук е показан как стои до цял неврон.
08:06
And you can tell that, really, only the smallestнай-малките fragmentsфрагменти of branchesклонове
172
471000
3000
И вие може да видите, наистина, че само най-малките фрагменти от разклоненията
08:09
are containedсъдържаща се insideвътре this cubeкуб.
173
474000
3000
се съдържат вътре в този куб.
08:12
And a neuronневрон, well, that's smallerпо-малък than brainмозък.
174
477000
3000
И един неврон, той е по-малък от един мозък.
08:17
And that's just a mouseмишка brainмозък --
175
482000
2000
И това е само мозък на мишка.
08:21
it's a lot smallerпо-малък than a humanчовек brainмозък.
176
486000
3000
Той е много по-малък от човешки мозък.
08:25
So when showшоу my friendsприятели this,
177
490000
2000
Така че, когато покажа това на моите приятели,
08:27
sometimesпонякога they'veте имат told me,
178
492000
2000
понякога те ми казват,
08:29
"You know, SebastianСебастиан, you should just give up.
179
494000
3000
"Знаеш ли, Себастиан, трябва да се откажеш.
08:32
NeuroscienceНеврологията is hopelessбезнадежден."
180
497000
2000
Невронауката е безнадеждна."
08:34
Because if you look at a brainмозък with your nakedгол eyeоко,
181
499000
2000
Защото ако гледаш на мозъка с невъоръжено око,
08:36
you don't really see how complexкомплекс it is,
182
501000
2000
ти не виждаш реално колко е сложно,
08:38
but when you use a microscopeмикроскоп,
183
503000
2000
но когато използваш микроскоп,
08:40
finallyнакрая the hiddenскрит complexityсложност is revealedразкри.
184
505000
3000
най-накрая, скритата сложност се разкрива.
08:45
In the 17thтата centuryвек,
185
510000
2000
През 17-ти век,
08:47
the mathematicianматематик and philosopherфилософ, BlaiseБлез PascalПаскал,
186
512000
2000
математика и философ Блез Паскал
08:49
wroteнаписах of his dreadужас of the infiniteбезкраен,
187
514000
3000
е написал за своя страх от безкрайността,
08:52
his feelingчувство of insignificanceнезначителност
188
517000
2000
неговото чуство за нищожност
08:54
at contemplatingпланира the vastобширен reachesдостигне of outerвъншен spaceпространство.
189
519000
3000
при съзерцаване на необятните граници на далечния космос.
08:59
And, as a scientistучен,
190
524000
2000
И, като учен,
09:01
I'm not supposedпредполагаем to talk about my feelingsчувствата --
191
526000
3000
не би трябвало да говоря за чувствата си.
09:04
too much informationинформация, professorпрофесор.
192
529000
2000
Твърде много информация, професоре.
09:06
(LaughterСмях)
193
531000
2000
(Смях)
09:08
But mayможе I?
194
533000
2000
Но може ли?
09:10
(LaughterСмях)
195
535000
2000
(Смях)
09:12
(ApplauseАплодисменти)
196
537000
2000
(Аплодисменти)
09:14
I feel curiosityлюбопитство,
197
539000
2000
Чуствам любопитство,
09:16
and I feel wonderчудя се,
198
541000
2000
и се учудвам,
09:18
but at timesпъти I have alsoсъщо feltчувствах despairотчаяние.
199
543000
3000
но понякога също чувствам отчаяние.
09:22
Why did I chooseизбирам to studyуча
200
547000
2000
Защо избрах да изучавам
09:24
this organорган that is so awesomeстрахотен in its complexityсложност
201
549000
3000
този орган, който е толкова невероятен със своята сложност,
09:27
that it mightбиха могли, може well be infiniteбезкраен?
202
552000
2000
която може да бъде безкрайна?
09:29
It's absurdабсурд.
203
554000
2000
Това е абсурд.
09:31
How could we even dareосмелявам се to think
204
556000
2000
Как въобще може да си помислим,
09:33
that we mightбиха могли, може ever understandразбирам this?
205
558000
3000
че може да разберем това?
09:38
And yetоще, I persistсъществуват in this quixoticдонкихотовски endeavorначинание.
206
563000
3000
И все пак, аз полагам тези неимоверни усилия.
09:41
And indeedнаистина, these daysдни I harborпристанище newнов hopesнадежди.
207
566000
3000
И тези дни съм изпълнен с нови надежди.
09:45
SomedayНякой ден,
208
570000
2000
Някой ден
09:47
a fleetфлота of microscopesмикроскопи will captureулавяне
209
572000
2000
флотилия от микроскопи ще запечата
09:49
everyвсеки neuronневрон and everyвсеки synapseсинапс
210
574000
2000
всеки неврон и всеки синапс
09:51
in a vastобширен databaseбаза данни of imagesснимки.
211
576000
3000
в една голяма база-данни от снимки.
09:54
And some day, artificiallyизкуствено intelligentинтелигентен supercomputersсуперкомпютри
212
579000
3000
И някой ден, суперкомпютри с изкуствен интелект
09:57
will analyzeанализирам the imagesснимки withoutбез humanчовек assistanceпомощ
213
582000
3000
ще анализират тези снимки без човешка намеса,
10:00
to summarizeрезюмирам them in a connectomeconnectome.
214
585000
3000
за да ги обобщят в кънектом.
10:04
I do not know, but I hopeнадявам се that I will liveживея to see that day,
215
589000
3000
Надявам се да доживея този ден.
10:08
because findingнамиране an entireцял humanчовек connectomeconnectome
216
593000
2000
Защото откриването на цял човешки кънектом
10:10
is one of the greatestнай велик technologicalтехнологически challengesпредизвикателства of all time.
217
595000
3000
е едно от най-големите технологически предизвикателства на всички времена.
10:13
It will take the work of generationsпоколения to succeedуспявам.
218
598000
3000
Ще минат поколения докато успеем.
10:17
At the presentнастояще time, my collaboratorsсътрудници and I,
219
602000
3000
Сега, аз и моите голеги,
10:20
what we're aimingс цел for is much more modestскромен --
220
605000
2000
сме се фокусирали в много по-скромна цел -
10:22
just to find partialчастичен connectomesconnectomes
221
607000
2000
да открием частични кънектоми
10:24
of tinyмъничък chunksпарчета of mouseмишка and humanчовек brainмозък.
222
609000
3000
в малки парчета от миши и човешки мозък.
10:27
But even that will be enoughдостатъчно for the first testsтестове of this hypothesisхипотеза
223
612000
3000
Но даже и това ще е достатъчно да потвърди хипотезата,
10:30
that I am my connectomeconnectome.
224
615000
3000
че аз съм моят кънектом.
10:35
For now, let me try to convinceубеждавам you of the plausibilityправдоподобност of this hypothesisхипотеза,
225
620000
3000
За сега нека да се опитам да ви убедя във възможността на тази хипотеза,
10:38
that it's actuallyвсъщност worthзаслужава си takingприемате seriouslyсериозно.
226
623000
3000
че си струва да я вземем насериозно.
10:42
As you growрастат duringпо време на childhoodдетство
227
627000
2000
Докато пораствате, когато сте деца
10:44
and ageвъзраст duringпо време на adulthoodзряла възраст,
228
629000
3000
и остарявате, когато сте възрастни,
10:47
your personalперсонален identityидентичност changesпромени slowlyбавно.
229
632000
3000
вашата физическа идентичност бавно се променя.
10:50
LikewiseПо същия начин, everyвсеки connectomeconnectome
230
635000
2000
По същия начин, всеки кънектом
10:52
changesпромени over time.
231
637000
2000
се променя с времето.
10:55
What kindsвидове of changesпромени happenстава?
232
640000
2000
Какви промени настъпват?
10:57
Well, neuronsневрони, like treesдървета,
233
642000
2000
Ами на невроните, подобно на дърветата
10:59
can growрастат newнов branchesклонове,
234
644000
2000
им израстват нови разклонения,
11:01
and they can loseгубя oldстар onesтакива.
235
646000
3000
като може да загубят някои от старите си.
11:04
SynapsesСинапси can be createdсъздаден,
236
649000
3000
Може да се създадат нови синапси,
11:07
and they can be eliminatedелиминиран.
237
652000
3000
а може и да се махнат.
11:10
And synapsesсинапси can growрастат largerпо-голям,
238
655000
2000
Може да растат
11:12
and they can growрастат smallerпо-малък.
239
657000
3000
или да намаляват.
11:15
SecondСекунда questionвъпрос:
240
660000
2000
Втори въпрос:
11:17
what causesкаузи these changesпромени?
241
662000
3000
какво предизвиква тези промени?
11:20
Well, it's trueвярно.
242
665000
2000
Да, вряно е,
11:22
To some extentстепен, they are programmedпрограмиран by your genesгени.
243
667000
3000
че до някаква степен те са кодирани във вашите гени.
11:25
But that's not the wholeцяло storyистория,
244
670000
2000
Но това не е всичко,
11:27
because there are signalsсигнали, electricalелектрически signalsсигнали,
245
672000
2000
защото има сигнали, електрически импулси,
11:29
that travelпътуване alongзаедно the branchesклонове of neuronsневрони
246
674000
2000
които пътуват по разклоненията на невроните
11:31
and chemicalхимически signalsсигнали
247
676000
2000
и химически сигнали,
11:33
that jumpскок acrossпрез from branchклон to branchклон.
248
678000
2000
които скачат от разклонение на разклонение.
11:35
These signalsсигнали are calledНаречен neuralнервен activityдейност.
249
680000
3000
Тези сигнали се наричат нервна активност.
11:38
And there's a lot of evidenceдоказателства
250
683000
2000
Има доста доказателства,
11:40
that neuralнервен activityдейност
251
685000
3000
че нервната активност
11:43
is encodingкодиране our thoughtsмисли, feelingsчувствата and perceptionsвъзприятия,
252
688000
3000
кодира нашите мисли, чувства и възприятия,
11:46
our mentalумствен experiencesпреживявания.
253
691000
2000
нашия мисловен процес.
11:48
And there's a lot of evidenceдоказателства that neuralнервен activityдейност
254
693000
3000
И има също доказателства, че нервната активност
11:51
can causeкауза your connectionsвръзки to changeпромяна.
255
696000
3000
може да промени вашите нервни взаимовръзки.
11:54
And if you put those two factsфакти togetherзаедно,
256
699000
3000
И ако вземем предвид тези два факта,
11:57
it meansсредства that your experiencesпреживявания
257
702000
2000
излиза, че вашите преживявания
11:59
can changeпромяна your connectomeconnectome.
258
704000
3000
променят вашия кънектом.
12:02
And that's why everyвсеки connectomeconnectome is uniqueединствен по рода си,
259
707000
2000
Затова всеки кънектом е уникален,
12:04
even those of geneticallyгенетично identicalидентичен twinsБлизнаци.
260
709000
3000
даже и тези на генетичните близнаци.
12:08
The connectomeconnectome is where natureприрода meetsсреща nurtureвъзпитаване.
261
713000
3000
Кънектомът е мястото, където се срещат природата и живота.
12:12
And it mightбиха могли, може trueвярно
262
717000
2000
И може да се окаже истина,
12:14
that just the mereобикновен actакт of thinkingмислене
263
719000
2000
че самото мислене
12:16
can changeпромяна your connectomeconnectome --
264
721000
2000
може да промени вашия кънектом -
12:18
an ideaидея that you mayможе find empoweringовластяване.
265
723000
3000
идея, която може би намирате за вдъхновяваща.
12:24
What's in this pictureснимка?
266
729000
2000
Какво има в тази картинка?
12:28
A coolготино and refreshingосвежаващ streamпоток of waterвода, you say.
267
733000
3000
Студен и освежаващ поток вода, ще кажете.
12:32
What elseоще is in this pictureснимка?
268
737000
2000
Какво друго има на тази картинка?
12:37
Do not forgetзабравям that grooveGroove in the EarthЗемята
269
742000
2000
Не забравяйте тази вдлъбнатина в земята
12:39
calledНаречен the streamпоток bedлегло.
270
744000
3000
наречена речно корито.
12:42
WithoutБез it, the waterвода would not know in whichкойто directionпосока to flowпоток.
271
747000
3000
Без него водата няма да знае на къде да върви.
12:45
And with the streamпоток,
272
750000
2000
Използвам този поток,
12:47
I would like to proposeпредлагам a metaphorметафора
273
752000
2000
като метафора
12:49
for the relationshipвръзка betweenмежду neuralнервен activityдейност
274
754000
2000
за взаимовръзката между нервната активност
12:51
and connectivityсвързаност.
275
756000
2000
и нервната свързаност.
12:54
NeuralНевронни activityдейност is constantlyпостоянно changingсмяна.
276
759000
3000
Нервната активност постоянно се променя.
12:57
It's like the waterвода of the streamпоток; it never sitsседи still.
277
762000
3000
Като водата на този поток, която никога не спира.
13:00
The connectionsвръзки
278
765000
2000
Връзките
13:02
of the brain'sна мозъка neuralнервен networkмрежа
279
767000
2000
на мозъчната нервна система
13:04
determinesопределя the pathwaysпътища
280
769000
2000
определят пътищата,
13:06
alongзаедно whichкойто neuralнервен activityдейност flowsпотоци.
281
771000
2000
по които протича нервната активност.
13:08
And so the connectomeconnectome is like bedлегло of the streamпоток;
282
773000
3000
Тоест кънектомът е като речно корито.
13:13
but the metaphorметафора is richerпо-богати than that,
283
778000
3000
Но метафората е по-богата от това.
13:16
because it's trueвярно that the streamпоток bedлегло
284
781000
3000
Защото е вярно, че речното корито
13:19
guidesръководства the flowпоток of the waterвода,
285
784000
2000
определя движението на водата,
13:21
but over long timescalesВремевите графици,
286
786000
2000
но след голям период от време,
13:23
the waterвода alsoсъщо reshapesоформящо the bedлегло of the streamпоток.
287
788000
3000
водата също оформя речното корито.
13:26
And as I told you just now,
288
791000
2000
И както ви споделих,
13:28
neuralнервен activityдейност can changeпромяна the connectomeconnectome.
289
793000
3000
нервната активност може да промени кънектома.
13:33
And if you'llти ще allowпозволява me to ascendизкачване
290
798000
2000
И ако ми позволите да се върна
13:35
to metaphoricalметафорично heightsвисочини,
291
800000
3000
към метафоричните висини,
13:38
I will remindнапомням you that neuralнервен activityдейност
292
803000
3000
ще ви напомня, че нервната активност
13:41
is the physicalфизически basisоснова -- or so neuroscientistsневролози think --
293
806000
2000
е физическата основа - или поне така си мислят невроучените -
13:43
of thoughtsмисли, feelingsчувствата and perceptionsвъзприятия.
294
808000
3000
на мислите, чувствата и възприятията.
13:46
And so we mightбиха могли, може even speakговоря of
295
811000
2000
И даже може да говорим за
13:48
the streamпоток of consciousnessсъзнание.
296
813000
2000
потока на съзнанието.
13:50
NeuralНевронни activityдейност is its waterвода,
297
815000
3000
Нервната активност е водата,
13:53
and the connectomeconnectome is its bedлегло.
298
818000
3000
а кънектомът е речното корито.
13:57
So let's returnвръщане from the heightsвисочини of metaphorметафора
299
822000
2000
Нека се върнем от висините на метафоричността
13:59
and returnвръщане to scienceнаука.
300
824000
2000
към науката.
14:01
SupposeДа предположим our technologiesтехнологии for findingнамиране connectomesconnectomes
301
826000
2000
Нека да предположим, че технологиите за намиране на кънектоми,
14:03
actuallyвсъщност work.
302
828000
2000
работят.
14:05
How will we go about testingтестване the hypothesisхипотеза
303
830000
2000
Как ще тестваме хипотезата
14:07
"I am my connectomeconnectome?"
304
832000
3000
"Аз съм моя кънектом"?
14:10
Well, I proposeпредлагам a directдиректен testтест.
305
835000
3000
Предлагам пряк тест.
14:13
Let us attemptопит
306
838000
2000
Нека опитаме
14:15
to readПрочети out memoriesспомени from connectomesconnectomes.
307
840000
3000
да прочетем спомени от кънектомите.
14:18
ConsiderПомислете the memoryпамет
308
843000
2000
Считайки паметта
14:20
of long temporalсветски sequencesпоследователности of movementsдвижения,
309
845000
3000
за временна поредица от движения,
14:23
like a pianistпианист playingиграете a BeethovenБетовен sonataСоната.
310
848000
3000
както пианист свири Бетовенова соната.
14:26
AccordingСпоред to a theoryтеория that datesдати back to the 19thтата centuryвек,
311
851000
3000
Според теория от 19ти век,
14:29
suchтакъв memoriesспомени are storedсъхранени
312
854000
2000
такива спомени се пазят
14:31
as chainsокови of synapticSynaptic connectionsвръзки insideвътре your brainмозък.
313
856000
3000
като верига от синаптични връзки вътре във вашия мозък.
14:35
Because, if the first neuronsневрони in the chainверига are activatedактивиран,
314
860000
3000
Защото, ако първите неврони във веригата са активни,
14:38
throughпрез theirтехен synapsesсинапси they sendизпращам messagesсъобщения to the secondвтори neuronsневрони, whichкойто are activatedактивиран,
315
863000
3000
чрез техните синапси, се изпращат съобщения до вторите активни неврони
14:41
and so on down the lineлиния,
316
866000
2000
и така нататък по линията,
14:43
like a chainверига of fallingпадане dominoesДомино.
317
868000
2000
подобно на домино.
14:45
And this sequenceпоследователност of neuralнервен activationактивиране
318
870000
2000
И тази последователност от нервна активност
14:47
is hypothesizedхипотеза to be the neuralнервен basisоснова
319
872000
3000
се хипотезира да бъде нервната база
14:50
of those sequenceпоследователност of movementsдвижения.
320
875000
2000
на поредицата от движения.
14:52
So one way of tryingопитвайки to testтест the theoryтеория
321
877000
2000
Един начин за тестване на теорията
14:54
is to look for suchтакъв chainsокови
322
879000
2000
е да се търсят подобни вериги
14:56
insideвътре connectomesconnectomes.
323
881000
2000
в кънектоми.
14:58
But it won'tняма да be easyлесно, because they're not going to look like this.
324
883000
3000
Но няма да е толкова лесно, защото те не изглеждат по този начин.
15:01
They're going to be scrambledбъркани up.
325
886000
2000
Те ще са разбъркани.
15:03
So we'llдобре have to use our computersкомпютри
326
888000
2000
Така че ще трябва да използваме компютри,
15:05
to try to unscrambleдекодиране the chainверига.
327
890000
3000
за да се опитаме да подредим веригата.
15:08
And if we can do that,
328
893000
2000
И ако може да направим това,
15:10
the sequenceпоследователност of the neuronsневрони we recoverвъзвръщам from that unscramblingunscrambling
329
895000
3000
поредицата от неврони, които успеем да разкодираме
15:13
will be a predictionпредвиждане of the patternмодел of neuralнервен activityдейност
330
898000
3000
ще бъдат показателни за характера на нервната активност,
15:16
that is replayedпреиграва in the brainмозък duringпо време на memoryпамет recallприпомням си.
331
901000
3000
която се повтаря при извикване на спомен.
15:19
And if that were successfulуспешен,
332
904000
2000
И ако успееем,
15:21
that would be the first exampleпример of readingчетене a memoryпамет from a connectomeconnectome.
333
906000
3000
това ще е първият пример за прочитане на спомени от кънектом.
15:28
(LaughterСмях)
334
913000
2000
(Смях)
15:30
What a messбъркотия --
335
915000
2000
Каква бъркотия.
15:33
have you ever triedопитах to wireтел up a systemсистема
336
918000
2000
Някога опитвали ли сте се да окабелите
15:35
as complexкомплекс as this?
337
920000
2000
толкова сложна система?
15:37
I hopeнадявам се not.
338
922000
2000
Надявам се не.
15:39
But if you have, you know it's very easyлесно to make a mistakeгрешка.
339
924000
3000
Но ако сте, знаете, че е много лесно да направите грешка.
15:45
The branchesклонове of neuronsневрони are like the wiresпроводници of the brainмозък.
340
930000
2000
Разклоненията на невроните са като кабели в мозъка.
15:47
Can anyoneнякой guessпредполагам: what's the totalобща сума lengthдължина of wiresпроводници in your brainмозък?
341
932000
4000
Може ли някой да познае колко е дължината на тези кабели?
15:54
I'll give you a hintнамек. It's a bigголям numberномер.
342
939000
2000
Ще ви подскажа. Числото е голямо.
15:56
(LaughterСмях)
343
941000
2000
(Смях)
15:59
I estimateприблизителна оценка, millionsмилиони of milesмили,
344
944000
3000
Приблизително милиони километри.
16:02
all packedнатъпкан in your skullчереп.
345
947000
3000
Всичко това натъпкано във вашия череп.
16:05
And if you appreciateценя that numberномер,
346
950000
2000
И ако разбирате това число,
16:07
you can easilyлесно see
347
952000
2000
ясно виждате,
16:09
there is hugeогромен potentialпотенциал for mis-wiringпогрешно окабеляване of the brainмозък.
348
954000
2000
че има голям потенциал за грешки в "окабеляването" на мозъка ви.
16:11
And indeedнаистина, the popularпопулярен pressНатиснете lovesобича headlinesзаглавия like,
349
956000
3000
И наистина популярната преса обича заглавия като
16:14
"AnorexicАнорексичка brainsмозъците are wiredкабелен differentlyразлично,"
350
959000
2000
"Мозъците на анорексиците са окабелени различно"
16:16
or "AutisticАутистичен brainsмозъците are wiredкабелен differentlyразлично."
351
961000
2000
или "Мозъците на хората с аутизъм са окабелени по различен начин"
16:18
These are plausibleправдоподобно claimsискове,
352
963000
2000
Има някои възможни тези,
16:20
but in truthистина,
353
965000
2000
но истината е,
16:22
we can't see the brain'sна мозъка wiringокабеляване clearlyясно enoughдостатъчно
354
967000
2000
че не можем да видим достатъчно ясно "окабеляването" на мозъка,
16:24
to tell if these are really trueвярно.
355
969000
2000
за да кажем дали са верни.
16:26
And so the technologiesтехнологии for seeingвиждане connectomesconnectomes
356
971000
3000
Технологиите за наблюдаване на кънектоми
16:29
will allowпозволява us to finallyнакрая
357
974000
2000
ще ни позволят
16:31
readПрочети mis-wiringпогрешно окабеляване of the brainмозък,
358
976000
2000
да видим грешно "окабеляване" на мозъка,
16:33
to see mentalумствен disordersразстройства in connectomesconnectomes.
359
978000
3000
да откриваме мозъчни разстройства в кънектомите.
16:40
SometimesПонякога the bestнай-доброто way to testтест a hypothesisхипотеза
360
985000
3000
Понякога най-добрия начин за тестване на хипотеза
16:43
is to considerобмислям its mostнай-много extremeекстремни implicationотражение.
361
988000
3000
е да се вземе предвид най-крайния извод.
16:46
PhilosophersФилософи know this gameигра very well.
362
991000
3000
Философите познават добре тази игра.
16:50
If you believe that I am my connectomeconnectome,
363
995000
3000
Ако вярвате, че аз съм моят кънектом,
16:53
I think you mustтрябва да alsoсъщо acceptприемам the ideaидея
364
998000
3000
мисля, че трябва да приемете идеята,
16:56
that deathсмърт is the destructionунищожаване
365
1001000
2000
че смъртта е унижощаването
16:58
of your connectomeconnectome.
366
1003000
3000
на този кънектом.
17:02
I mentionспоменавам this because there are prophetsПророците todayднес
367
1007000
3000
Споменавам това, защото в днешно време и пророци,
17:05
who claimиск that technologyтехнология
368
1010000
3000
които проповядват, че технологиите
17:08
will fundamentallyв основата си alterпромени the humanчовек conditionсъстояние
369
1013000
3000
фундаментално ще променят човешкото състояние
17:11
and perhapsможе би even transformтрансформиране the humanчовек speciesвид.
370
1016000
3000
и може би даже изменят човешката раса.
17:14
One of theirтехен mostнай-много cherishedзаветните dreamsсънища
371
1019000
3000
Едно от най-съкровените им мечти
17:17
is to cheatизмама deathсмърт
372
1022000
2000
е да могат да излъжат смъртта
17:19
by that practiceпрактика knownизвестен as cryonicscryonics.
373
1024000
2000
като използват метода на криониката.
17:21
If you payплащам 100,000 dollarsдолара,
374
1026000
2000
Ако платите 100,000 долара,
17:23
you can arrangeПодреждане to have your bodyтяло frozenзамръзнал after deathсмърт
375
1028000
3000
може да замразите тялото си след смъртта ви
17:26
and storedсъхранени in liquidтечност nitrogenазот
376
1031000
2000
и то да се съхранява в течен азот
17:28
in one of these tanksрезервоари in an ArizonaАризона warehouseсклад,
377
1033000
2000
в някой от тези резервоари, някъде в Аризонски склад,
17:30
awaitingв очакване a futureбъдеще civilizationцивилизация
378
1035000
2000
в очакване на бъдеща цивилизация,
17:32
that is advancedнапреднал to resurrectвъзкресявам you.
379
1037000
3000
която е достатъчно напреднала, за да ви съживи.
17:36
Should we ridiculeприсмех the modernмодерен seekersтърсещи убежище of immortalityбезсмъртие,
380
1041000
2000
Трябва ли да осмиваме модерните търсачи на безсмъртие,
17:38
callingповикване them foolsглупаци?
381
1043000
2000
като ги наричаме глупаци?
17:40
Or will they somedayнякой ден chuckleсмях
382
1045000
2000
Или някой ден те ще се надсмиват
17:42
over our gravesгробове?
383
1047000
2000
на нашите гробове?
17:45
I don't know --
384
1050000
2000
Не знам.
17:47
I preferпредпочитам to testтест theirтехен beliefsвярвания, scientificallyнаучно.
385
1052000
3000
Предпочитам научно да тествам техните вярвания.
17:50
I proposeпредлагам that we attemptопит to find a connectomeconnectome
386
1055000
2000
Предлагам да намерим кънектом
17:52
of a frozenзамръзнал brainмозък.
387
1057000
2000
на замръзнал мозък.
17:54
We know that damageщета to the brainмозък
388
1059000
2000
Знаем, че настъпва увреждане на мозъка
17:56
occursвъзниква after deathсмърт and duringпо време на freezingзамразяване.
389
1061000
2000
след смърт или по време на замразяване.
17:58
The questionвъпрос is: has that damageщета erasedзаличен the connectomeconnectome?
390
1063000
3000
Въпросът е: Дали това увреждане е изтрило кънектома?
18:01
If it has, there is no way that any futureбъдеще civilizationцивилизация
391
1066000
3000
Ако е, няма начин някаква бъдеща цивилизация
18:04
will be ableспособен to recoverвъзвръщам the memoriesспомени of these frozenзамръзнал brainsмозъците.
392
1069000
3000
да възвърне спомените на тези замразени мозъци.
18:07
ResurrectionВъзкресение mightбиха могли, може succeedуспявам for the bodyтяло,
393
1072000
2000
Възкресяването може да е успешно за тялото,
18:09
but not for the mindум.
394
1074000
2000
но не и за мозъка.
18:11
On the other handръка, if the connectomeconnectome is still intactнепокътнати,
395
1076000
3000
От друга страна, ако кънектомът е непокътнат,
18:14
we cannotне мога ridiculeприсмех the claimsискове of cryonicscryonics so easilyлесно.
396
1079000
3000
не може да се подиграваме на твърденията на криониката, така лесно.
18:20
I've describedописан a questТърсене
397
1085000
2000
Описах ви едно търсене,
18:22
that beginsзапочва in the worldсвят of the very smallмалък,
398
1087000
3000
което започва в света на най-малкото
18:25
and propelsзадвижва us to the worldсвят of the farдалече futureбъдеще.
399
1090000
3000
и ни отвежда до света на бъдещето.
18:28
ConnectomesConnectomes will markмарка a turningобръщане pointточка in humanчовек historyистория.
400
1093000
3000
Кънектомите ще са повратен момент в човешката история.
18:32
As we evolvedеволюира from our ape-likeмаймуна подобни ancestorsпредци
401
1097000
2000
Еволюирайки от нашите маймуно-подобни прародители
18:34
on the AfricanАфрикански savannaСавана,
402
1099000
2000
от африканската савана,
18:36
what distinguishedизтъкнат us was our largerпо-голям brainsмозъците.
403
1101000
3000
това, което ни отличи беше големият ни мозък.
18:40
We have used our brainsмозъците to fashionмода
404
1105000
2000
Използвахме нашите мозъци
18:42
ever more amazingудивителен technologiesтехнологии.
405
1107000
3000
да създадем още по-невероятни технологии.
18:45
EventuallyВ крайна сметка, these technologiesтехнологии will becomeда стане so powerfulмощен
406
1110000
3000
Накрая тези технологии ще станат толкова мощни,
18:48
that we will use them to know ourselvesсебе си
407
1113000
3000
че ще ги използваме, за да опознаем себе си,
18:51
by deconstructingРазнищим and reconstructingреконструкцията
408
1116000
3000
като деконструираме и реконструираме
18:54
our ownсобствен brainsмозъците.
409
1119000
3000
нашите мозъци.
18:57
I believe that this voyageпътешествие of self-discoveryсебепознанието
410
1122000
3000
Вярвам, че това пътешествие на себеоткриване
19:00
is not just for scientistsучени,
411
1125000
3000
е не само за учените,
19:03
but for all of us.
412
1128000
2000
а за всички нас.
19:05
And I'm gratefulблагодарен for the opportunityвъзможност to shareдял this voyageпътешествие with you todayднес.
413
1130000
3000
И съм благодарен за възможността да споделя това пътуване с вас, днес.
19:08
Thank you.
414
1133000
2000
Благодаря ви.
19:10
(ApplauseАплодисменти)
415
1135000
8000
(Аплодисменти)
Translated by Yavor Ivanov
Reviewed by Darina Stoyanova

▲Back to top

ABOUT THE SPEAKER
Sebastian Seung - Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain.

Why you should listen

In the brain, neurons are connected into a complex network. Sebastian Seung and his lab at MIT are inventing technologies for identifying and describing the connectome, the totality of connections between the brain's neurons -- think of it as the wiring diagram of the brain. We possess our entire genome at birth, but things like memories are not "stored" in the genome; they are acquired through life and accumulated in the brain. Seung's hypothesis is that "we are our connectome," that the connections among neurons is where memories and experiences get stored.

Seung and his collaborators, including Winfried Denk at the Max Planck Institute and Jeff Lichtman at Harvard University, are working on a plan to thin-slice a brain (probably starting with a mouse brain) and trace, from slice to slice, each neural pathway, exposing the wiring diagram of the brain and creating a powerful new way to visualize the workings of the mind. They're not the first to attempt something like this -- Sydney Brenner won a Nobel for mapping all the 7,000 connections in the nervous system of a tiny worm, C. elegans. But that took his team a dozen years, and the worm only had 302 nerve cells. One of Seung's breakthroughs is in using advanced imagining and AI to handle the crushing amount of data that a mouse brain will yield and turn it into richly visual maps that show the passageways of thought and sensation.

More profile about the speaker
Sebastian Seung | Speaker | TED.com