ABOUT THE SPEAKER
Sebastian Seung - Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain.

Why you should listen

In the brain, neurons are connected into a complex network. Sebastian Seung and his lab at MIT are inventing technologies for identifying and describing the connectome, the totality of connections between the brain's neurons -- think of it as the wiring diagram of the brain. We possess our entire genome at birth, but things like memories are not "stored" in the genome; they are acquired through life and accumulated in the brain. Seung's hypothesis is that "we are our connectome," that the connections among neurons is where memories and experiences get stored.

Seung and his collaborators, including Winfried Denk at the Max Planck Institute and Jeff Lichtman at Harvard University, are working on a plan to thin-slice a brain (probably starting with a mouse brain) and trace, from slice to slice, each neural pathway, exposing the wiring diagram of the brain and creating a powerful new way to visualize the workings of the mind. They're not the first to attempt something like this -- Sydney Brenner won a Nobel for mapping all the 7,000 connections in the nervous system of a tiny worm, C. elegans. But that took his team a dozen years, and the worm only had 302 nerve cells. One of Seung's breakthroughs is in using advanced imagining and AI to handle the crushing amount of data that a mouse brain will yield and turn it into richly visual maps that show the passageways of thought and sensation.

More profile about the speaker
Sebastian Seung | Speaker | TED.com
TEDGlobal 2010

Sebastian Seung: I am my connectome

Я – это мой коннектом

Filmed:
1,131,223 views

Себастьян Сеунг создает новую сверхамбициозную модель-карту головного мозга, описывающую все соединения каждого нейрона. Он называет ее «коннектомом». Коннектом индивидуален для каждого, также как и геном человека. Понимание коннектома может открыть новые пути для дальнейшего изучения мозга и разума.
- Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain. Full bio

Double-click the English transcript below to play the video.

00:17
We liveжить in in a remarkableзамечательный time,
0
2000
3000
Мы живем в удивительное время,
00:20
the ageвозраст of genomicsгеномика.
1
5000
3000
эру геномики.
00:23
Your genomeгеном is the entireвсе sequenceпоследовательность of your DNAДНК.
2
8000
3000
Ваш геном – это вся последовательность вашей ДНК.
00:26
Your sequenceпоследовательность and mineмой are slightlyнемного differentдругой.
3
11000
3000
Ваша и моя последовательности немного различаются.
00:29
That's why we look differentдругой.
4
14000
2000
Вот почему мы выглядим по-разному.
00:31
I've got brownкоричневый eyesглаза;
5
16000
2000
У меня карие глаза.
00:33
you mightмог бы have blueсиний or grayсерый.
6
18000
3000
Ваши могут быть голубыми или серыми.
00:36
But it's not just skin-deepнеглубокий.
7
21000
2000
Но дело не только во внешности.
00:38
The headlinesзаголовки tell us
8
23000
2000
Газеты пестрят заголовками,
00:40
that genesгены can give us scaryстрашно diseasesболезни,
9
25000
3000
что наши гены передают нам страшные заболевания,
00:43
maybe even shapeформа our personalityличность,
10
28000
3000
формируют наши личности
00:46
or give us mentalумственный disordersрасстройства.
11
31000
3000
или даже являются причиной умственных расстройств.
00:49
Our genesгены seemказаться to have
12
34000
3000
Похоже, наши гены имеют
00:52
awesomeздорово powerмощность over our destiniesсудьбы.
13
37000
3000
колоссальное влияние на наши судьбы.
00:56
And yetвсе же, I would like to think
14
41000
3000
И все же, я склонен думать,
00:59
that I am more than my genesгены.
15
44000
3000
что я больше чем мои гены.
01:04
What do you guys think?
16
49000
2000
Дорогие зрители, что вы об этом думаете?
01:06
Are you more than your genesгены?
17
51000
3000
Вы что-то еще чем просто ваши гены?
01:09
(AudienceАудитория: Yes.) Yes?
18
54000
2000
[Аудитория: Да.] Да?
01:13
I think some people agreeдать согласие with me.
19
58000
2000
Вижу, что многие со мной согласны.
01:15
I think we should make a statementзаявление.
20
60000
2000
Я думаю, что мы должны заявить об этом.
01:17
I think we should say it all togetherвместе.
21
62000
2000
Я думаю, что мы должны сказать это все вместе.
01:20
All right: "I'm more than my genesгены" -- all togetherвместе.
22
65000
3000
Скажите: "Я не только мои гены!" – все вместе.
01:23
Everybodyвсе: I am more than my genesгены.
23
68000
4000
>> Себастьян и аудитория: "Я не только мои гены!"
01:27
(Cheeringободряющий)
24
72000
2000
[возгласы одобрения]
01:30
SebastianСебастьян SeungSeung: What am I?
25
75000
2000
…что же я?
01:32
(LaughterСмех)
26
77000
3000
[смех в зале]
01:35
I am my connectomeКоннект.
27
80000
3000
Я – мой коннектом.
01:40
Now, sinceпоскольку you guys are really great,
28
85000
2000
Теперь, раз вы все такие замечательные,
01:42
maybe you can humorюмор me and say this all togetherвместе too.
29
87000
2000
может быть вы меня осчастливите и тоже повторите это?
01:44
(LaughterСмех)
30
89000
2000
[смех в зале]
01:46
Right. All togetherвместе now.
31
91000
2000
Отлично. Все вместе.
01:48
Everybodyвсе: I am my connectomeКоннект.
32
93000
3000
>> Себастьян и аудитория: "Я – мой коннектом!"
01:53
SSSS: That soundedзвучало great.
33
98000
2000
>> Себастьян: Это звучало великолепно.
01:55
You know, you guys are so great, you don't even know what a connectomeКоннект is,
34
100000
2000
Вы такие замечательные ребята, вы не зная, что такое коннектом,
01:57
and you're willingготовы to playиграть alongвдоль with me.
35
102000
2000
все равно готовы помогать мне.
01:59
I could just go home now.
36
104000
3000
Миссия выполнена - можно идти домой.
02:02
Well, so farдалеко only one connectomeКоннект is knownизвестен,
37
107000
3000
На самом деле пока только один коннектом известен,
02:05
that of this tinyкрошечный wormчервь.
38
110000
3000
коннектом этого червячка.
02:08
Its modestскромный nervousнервное systemсистема
39
113000
2000
Его скромная нервная система
02:10
consistsсостоит of just 300 neuronsнейроны.
40
115000
2000
состоит из всего лишь трехсот нейронов.
02:12
And in the 1970s and '80s,
41
117000
2000
И в 1970-х и в 80-х годах
02:14
a teamкоманда of scientistsученые
42
119000
2000
команда ученых
02:16
mappedсопоставляются all 7,000 connectionsсвязи
43
121000
2000
нанесла на карту все 7 000 соединений
02:18
betweenмежду the neuronsнейроны.
44
123000
2000
между этими нейронами.
02:21
In this diagramдиаграмма, everyкаждый nodeузел is a neuronнейрон,
45
126000
2000
На этой диаграмме каждый узел – это нейрон,
02:23
and everyкаждый lineлиния is a connectionсоединение.
46
128000
2000
а каждая линия – соединение.
02:25
This is the connectomeКоннект
47
130000
2000
Это коннектом
02:27
of the wormчервь C. elegansЭлеганс.
48
132000
4000
червя-нематоды.
02:31
Your connectomeКоннект is farдалеко more complexсложный than this
49
136000
3000
Ваш коннектом намного сложнее этого,
02:34
because your brainголовной мозг
50
139000
2000
потому что ваш мозг
02:36
containsсодержит 100 billionмиллиард neuronsнейроны
51
141000
2000
содержит 100 миллиардов нейронов
02:38
and 10,000 timesраз as manyмногие connectionsсвязи.
52
143000
3000
и в 10 000 раз больше соединений.
02:41
There's a diagramдиаграмма like this for your brainголовной мозг,
53
146000
2000
Можно составить подобную диаграмму и для вашего мозга,
02:43
but there's no way it would fitпоместиться on this slideгорка.
54
148000
3000
но она никаким образом не сможет поместиться на этот слайд.
02:47
Your connectomeКоннект containsсодержит one millionмиллиона timesраз more connectionsсвязи
55
152000
3000
Ваш коннектом содержит в миллион раз больше соединений,
02:50
than your genomeгеном has lettersбуквы.
56
155000
3000
чем количество букв в вашем геноме.
02:53
That's a lot of informationИнформация.
57
158000
2000
Это ОЧЕНЬ много информации.
02:55
What's in that informationИнформация?
58
160000
3000
Что это за информация?
02:59
We don't know for sure, but there are theoriesтеории.
59
164000
3000
Нам не известно это наверняка, но есть теории.
03:02
Sinceпоскольку the 19thго centuryвека, neuroscientistsневрологи have speculatedразмышляли
60
167000
3000
С 19-го века неврологи стали подозревать,
03:05
that maybe your memoriesвоспоминания --
61
170000
2000
что, может быть, это ваши воспоминания –
03:07
the informationИнформация that makesмарки you, you --
62
172000
2000
информация, делающая вас вами –
03:09
maybe your memoriesвоспоминания are storedхранится
63
174000
2000
может быть, ваши воспоминания хранятся
03:11
in the connectionsсвязи betweenмежду your brain'sмозги neuronsнейроны.
64
176000
2000
в соединениях между нейронами вашего мозга.
03:15
And perhapsвозможно other aspectsаспекты of your personalличный identityидентичность --
65
180000
2000
И возможно другие аспекты вашей индивидуальности –
03:17
maybe your personalityличность and your intellectинтеллект --
66
182000
3000
ваша личность и ваш интеллект –
03:20
maybe they're alsoтакже encodedзакодированный
67
185000
2000
может быть, они тоже закодированы
03:22
in the connectionsсвязи betweenмежду your neuronsнейроны.
68
187000
3000
в соединениях между нейронами.
03:26
And so now you can see why I proposedпредложенный this hypothesisгипотеза:
69
191000
3000
Теперь вам должно быть понятно, почему я заявил об этой гипотезе:
03:29
I am my connectomeКоннект.
70
194000
3000
Я – мой коннектом.
03:32
I didn't askпросить you to chantпеснопение it because it's trueправда;
71
197000
3000
Я не стану вас просить повторять это как заклинание.
03:35
I just want you to rememberзапомнить it.
72
200000
2000
Я только хочу, чтобы вы запомнили это.
03:37
And in factфакт, we don't know if this hypothesisгипотеза is correctверный,
73
202000
2000
На самом деле мы не знаем, верна ли эта гипотеза,
03:39
because we have never had technologiesтехнологии
74
204000
2000
потому что у нас никогда не было технологий
03:41
powerfulмощный enoughдостаточно to testконтрольная работа it.
75
206000
2000
настолько сильных, чтобы проверить ее.
03:44
Findingобнаружение that wormчервь connectomeКоннект
76
209000
3000
Определение коннектома этого червя
03:47
tookвзял over a dozenдюжина yearsлет of tediousутомительный laborтруд, работа.
77
212000
3000
заняло более 12 лет упорного труда.
03:50
And to find the connectomesКоннект of brainsмозги more like our ownсвоя,
78
215000
3000
Чтобы определить коннектом мозга, сравнимого с нашим,
03:53
we need more sophisticatedутонченный technologiesтехнологии, that are automatedавтоматизированный,
79
218000
3000
мы должны иметь более продвинутые автоматизированные технологии,
03:56
that will speedскорость up the processобработать of findingобнаружение connectomesКоннект.
80
221000
3000
которые увеличат скорость нахождения коннектомов.
03:59
And in the nextследующий fewмало minutesминут, I'll tell you about some of these technologiesтехнологии,
81
224000
3000
В течение следующих пары минут я расскажу вам о некоторых таких технологиях,
04:02
whichкоторый are currentlyВ данный момент underпод developmentразвитие
82
227000
2000
пока находящихся в разработке
04:04
in my labлаборатория and the labsлаборатории of my collaboratorsсотрудники.
83
229000
3000
в мой лаборатории и в лабораториях моих коллег.
04:08
Now you've probablyвероятно seenвидели picturesкартинки of neuronsнейроны before.
84
233000
3000
Думаю, вы и раньше видели фотографии нейронов.
04:11
You can recognizeпризнать them instantlyнемедленно
85
236000
2000
И вы сразу их узнаете
04:13
by theirих fantasticфантастика shapesформы.
86
238000
3000
по их фантастическим формам.
04:16
They extendпростираться long and delicateнежный branchesветви,
87
241000
3000
Они тянут свои ажурные ветви
04:19
and in shortкороткая, they look like treesдеревья.
88
244000
3000
и немного напоминают собой деревья.
04:22
But this is just a singleОдин neuronнейрон.
89
247000
3000
Но это всего лишь один нейрон.
04:25
In orderзаказ to find connectomesКоннект,
90
250000
2000
Чтобы найти коннектомы,
04:27
we have to see all the neuronsнейроны at the sameодна и та же time.
91
252000
3000
мы должны увидеть все нейроны одновременно.
04:30
So let's meetвстретить BobbyБобби KasthuriКастери,
92
255000
2000
Итак, познакомьтесь с Бобби Кастури,
04:32
who worksработает in the laboratoryлаборатория of JeffДжефф LichtmanLichtman
93
257000
2000
который работает в лаборатории Джеффа Литчмана
04:34
at HarvardHarvard UniversityУниверситет.
94
259000
2000
в Гарвардском Университете.
04:36
BobbyБобби is holdingдержа fantasticallyфантастически thinтонкий slicesломтики
95
261000
2000
Бобби держит фантастически тонкие срезы
04:38
of a mouseмышь brainголовной мозг.
96
263000
2000
мозга мыши.
04:40
And we're zoomingмасштабирование in by a factorфактор of 100,000 timesраз
97
265000
3000
Мы фотографируем его с приближением в сто тысяч раз
04:44
to obtainполучать the resolutionразрешающая способность,
98
269000
2000
чтобы получить достаточное разрешение,
04:46
so that we can see the branchesветви of neuronsнейроны all at the sameодна и та же time.
99
271000
3000
чтобы видеть все ветви нейронов одновременно.
04:50
ExceptКроме, you still mayмай not really recognizeпризнать them,
100
275000
3000
Возможно такое, что вы до сих пор их не узнаете,
04:53
and that's because we have to work in threeтри dimensionsГабаритные размеры.
101
278000
3000
это потому, что мы должны работать в трех измерениях.
04:56
If we take manyмногие imagesизображений of manyмногие slicesломтики of the brainголовной мозг
102
281000
2000
Если мы сделаем множество фотографий срезов мозга
04:58
and stackстек them up,
103
283000
2000
и сложим их вместе,
05:00
we get a three-dimensionalтрехмерный imageобраз.
104
285000
2000
мы получим трехмерное изображение.
05:02
And still, you mayмай not see the branchesветви.
105
287000
2000
Возможно, вы все ещё не видите ветвей.
05:04
So we startНачало at the topВверх,
106
289000
2000
Поэтому давайте начнем сверху
05:06
and we colorцвет in the cross-sectionпоперечное сечение of one branchфилиал in redкрасный,
107
291000
3000
и раскрасим поперечный срез ветви в красный цвет.
05:09
and we do that for the nextследующий sliceкусочек
108
294000
2000
Так же мы поступим для следующего среза
05:11
and for the nextследующий sliceкусочек.
109
296000
2000
и для еще одного.
05:13
And we keep on doing that,
110
298000
2000
И мы продолжим делать это,
05:15
sliceкусочек after sliceкусочек.
111
300000
3000
срез за срезом.
05:18
If we continueПродолжать throughчерез the entireвсе stackстек,
112
303000
2000
Если мы закончим со всей кипой,
05:20
we can reconstructреконструировать the three-dimensionalтрехмерный shapeформа
113
305000
3000
мы можем восстановить трехмерную форму
05:23
of a smallмаленький fragmentфрагмент of a branchфилиал of a neuronнейрон.
114
308000
3000
маленького фрагмента ветви нейрона.
05:26
And we can do that for anotherдругой neuronнейрон in greenзеленый.
115
311000
2000
То же самое сделаем с другим нейроном, покрасив его зеленым.
05:28
And you can see that the greenзеленый neuronнейрон touchesприкосновений the redкрасный neuronнейрон
116
313000
2000
Теперь вы видите, как зеленый нейрон касается красного
05:30
at two locationsместа,
117
315000
2000
в двух местах,
05:32
and these are what are calledназывается synapsesсинапсы.
118
317000
2000
они называется синапсами.
05:34
Let's zoomзум in on one synapseсинапс,
119
319000
2000
Давайте приблизим один синапс,
05:36
and keep your eyesглаза on the interiorинтерьер of the greenзеленый neuronнейрон.
120
321000
3000
и сосредоточим внимание на внутренней части зеленого нейрона.
05:39
You should see smallмаленький circlesкруги --
121
324000
2000
Вам должны быть видны маленькие круги.
05:41
these are calledназывается vesiclesвезикулы.
122
326000
3000
Это везикулы,
05:44
They containсодержать a moleculeмолекула know as a neurotransmitterмедиатор.
123
329000
3000
содержащие молекулы, известные как нейромедиаторы.
05:47
And so when the greenзеленый neuronнейрон wants to communicateобщаться,
124
332000
2000
Когда зеленый нейрон хочет передать информацию,
05:49
it wants to sendОтправить a messageсообщение to the redкрасный neuronнейрон,
125
334000
2000
он посылает сигнал красному нейрону,
05:51
it spitsвертела out neurotransmitterмедиатор.
126
336000
3000
"выплевывая" нейромедиаторы.
05:54
At the synapseсинапс, the two neuronsнейроны
127
339000
2000
Известно, что в синапсе оба нейрона
05:56
are said to be connectedсвязанный
128
341000
2000
соединены вместе,
05:58
like two friendsдрузья talkingговорящий on the telephoneтелефон.
129
343000
3000
словно два друга, разговаривающих по телефону.
06:02
So you see how to find a synapseсинапс.
130
347000
2000
Теперь вы видите, как найти синапс.
06:04
How can we find an entireвсе connectomeКоннект?
131
349000
3000
Но как же нам найти весь коннектом?
06:07
Well, we take this three-dimensionalтрехмерный stackстек of imagesизображений
132
352000
3000
Мы берем всю трехмерную кипу изображений
06:10
and treatрассматривать it as a giganticгигантский three-dimensionalтрехмерный coloringраскраска bookкнига.
133
355000
3000
и смотрим на них как на огромную трехмерную книгу-раскраску.
06:13
We colorцвет everyкаждый neuronнейрон in, in a differentдругой colorцвет,
134
358000
3000
Мы окрашиваем каждый нейрон в разный цвет,
06:16
and then we look throughчерез all of the imagesизображений,
135
361000
2000
затем проходим через все изображения,
06:18
find the synapsesсинапсы
136
363000
2000
находим синапсы
06:20
and noteзаметка the colorsцвета of the two neuronsнейроны involvedучаствует in eachкаждый synapseсинапс.
137
365000
3000
и запоминаем цвета обоих нейронов, задействованных в каждом синапсе.
06:23
If we can do that throughoutна протяжении all the imagesизображений,
138
368000
3000
Если мы проделаем эту процедуру со всеми изображениями,
06:26
we could find a connectomeКоннект.
139
371000
2000
мы найдем коннектом.
06:29
Now, at this pointточка,
140
374000
2000
Итак,
06:31
you've learnedнаучился the basicsосновы of neuronsнейроны and synapsesсинапсы.
141
376000
2000
вы узнали азы о нейронах и синапсах.
06:33
And so I think we're readyготов to tackleснасти
142
378000
2000
Поэтому я думаю, что мы уже готовы коснуться
06:35
one of the mostбольшинство importantважный questionsвопросов in neuroscienceневрология:
143
380000
3000
одного из самых важных вопросов неврологии:
06:39
how are the brainsмозги of menлюди and womenженщины differentдругой?
144
384000
3000
чем же отличаются мозги мужчины и женщины?
06:42
(LaughterСмех)
145
387000
2000
[смех в зале]
06:44
AccordingВ соответствии to this self-helpсамопомощь bookкнига,
146
389000
2000
В популярном самоучителе по психологии,
06:46
guys brainsмозги are like wafflesвафель;
147
391000
2000
у парней мозги похожи на вафли;
06:48
they keep theirих livesжизни compartmentalizedразобщенным in boxesящики.
148
393000
3000
они расположили свою жизнь по офисным шкафам.
06:51
Girls'девочек brainsмозги are like spaghettiспагетти;
149
396000
3000
Мозги девушек словно спагетти;
06:54
everything in theirих life is connectedсвязанный to everything elseеще.
150
399000
3000
всё в их жизни соединено со всем остальным.
06:57
(LaughterСмех)
151
402000
2000
[смех в зале]
06:59
You guys are laughingсмеющийся,
152
404000
2000
Вот вы смеетесь,
07:01
but you know, this bookкнига changedизменено my life.
153
406000
2000
а эта книга изменила мою жизнь!
07:03
(LaughterСмех)
154
408000
2000
[смех в зале]
07:07
But seriouslyшутки в сторону, what's wrongнеправильно with this?
155
412000
3000
Но если серьезно? Что здесь не так?
07:10
You alreadyуже know enoughдостаточно to tell me -- what's wrongнеправильно with this statementзаявление?
156
415000
3000
Вы уже знаете достаточно, чтобы указать, что тут не так.
07:20
It doesn't matterдело whetherбудь то you're a guy or girlдевушка,
157
425000
3000
Не важно, парень вы или девушка,
07:23
everyone'sвсе это brainsмозги are like spaghettiспагетти.
158
428000
3000
у каждого мозги словно... спагетти.
07:26
Or maybe really, really fine capelliniCapellini with branchesветви.
159
431000
3000
Или, если быть точнее, очень-очень тонкие спагетти с разветвлениями.
07:30
Just as one strandнитка of spaghettiспагетти
160
435000
2000
Подобно тому, как одна макаронина
07:32
contactsконтакты manyмногие other strandsпряди on your plateпластина,
161
437000
3000
соединяется со многими другими на вашей тарелке,
07:35
one neuronнейрон touchesприкосновений manyмногие other neuronsнейроны
162
440000
2000
один нейрон касается многих других нейронов
07:37
throughчерез theirих entangledзапутанный branchesветви.
163
442000
2000
через их запутанные ветви.
07:39
One neuronнейрон can be connectedсвязанный to so manyмногие other neuronsнейроны,
164
444000
3000
Нейрон может быть соединён с таким большим количеством других нейронов,
07:42
because there can be synapsesсинапсы
165
447000
2000
потому что существуют синапсы
07:44
at these pointsточки of contactконтакт.
166
449000
3000
в местах контактов.
07:49
By now, you mightмог бы have sortСортировать of lostпотерял perspectiveперспективы
167
454000
3000
Пока у вас, возможно, нет представления
07:52
on how largeбольшой this cubeкуб of brainголовной мозг tissueткань actuallyна самом деле is.
168
457000
3000
о реальном размере этого кубика нервной ткани.
07:55
And so let's do a seriesсерии of comparisonsсравнения to showпоказать you.
169
460000
3000
Давайте сделаем ряд сравнений, чтобы это продемонстрировать.
07:58
I assureуверять you, this is very tinyкрошечный. It's just sixшесть micronsмикрон on a sideбоковая сторона.
170
463000
3000
Я уверяю вас, он очень маленький. Размер его стороны – 6 микрон.
08:03
So, here'sвот how it stacksстеки up againstпротив an entireвсе neuronнейрон.
171
468000
3000
Теперь посмотрите, какой он по сравнению со всем нейроном.
08:06
And you can tell that, really, only the smallestнаименьшее fragmentsфрагменты of branchesветви
172
471000
3000
Вы видите, что только маленький фрагмент ответвлений
08:09
are containedсодержащиеся insideвнутри this cubeкуб.
173
474000
3000
попадает внутрь куба.
08:12
And a neuronнейрон, well, that's smallerменьше than brainголовной мозг.
174
477000
3000
А нейрон – нейрон меньше мозга.
08:17
And that's just a mouseмышь brainголовной мозг --
175
482000
2000
И это лишь мозг мыши.
08:21
it's a lot smallerменьше than a humanчеловек brainголовной мозг.
176
486000
3000
Он намного меньше, чем мозг человека.
08:25
So when showпоказать my friendsдрузья this,
177
490000
2000
Когда я показывал это моим друзьям,
08:27
sometimesиногда they'veони имеют told me,
178
492000
2000
иногда они говорили мне:
08:29
"You know, SebastianСебастьян, you should just give up.
179
494000
3000
"Ты знаешь, Себастьян, оставь всё это.
08:32
Neuroscienceневрология is hopelessбезнадежный."
180
497000
2000
Неврология безнадёжна."
08:34
Because if you look at a brainголовной мозг with your nakedобнаженный eyeглаз,
181
499000
2000
Потому что, если вы посмотрите на мозг невооруженным глазом,
08:36
you don't really see how complexсложный it is,
182
501000
2000
вы не увидите насколько мозг сложен,
08:38
but when you use a microscopeмикроскоп,
183
503000
2000
но когда вы используете микроскоп,
08:40
finallyв конце концов the hiddenскрытый complexityсложность is revealedпоказал.
184
505000
3000
только тогда скрытая сложность становится заметной.
08:45
In the 17thго centuryвека,
185
510000
2000
В 17-м веке,
08:47
the mathematicianматематик and philosopherфилософ, BlaiseБлез Pascalпаскаль,
186
512000
2000
математик и философ Блез Паскаль
08:49
wroteписал of his dreadстрашиться of the infiniteбесконечный,
187
514000
3000
написал о своих страхах по поводу бесконечного,
08:52
his feelingчувство of insignificanceнезначительность
188
517000
2000
своем чувстве малозначительности
08:54
at contemplatingсозерцая the vastогромный reachesдостигает of outerвнешний spaceпространство.
189
519000
3000
в сравнении с огромными пространствами космоса.
08:59
And, as a scientistученый,
190
524000
2000
Как ученый
09:01
I'm not supposedпредполагаемый to talk about my feelingsчувства --
191
526000
3000
я не должен распространяться о своих чувствах.
09:04
too much informationИнформация, professorпрофессор.
192
529000
2000
"Это было бы слишком, профессор."
09:06
(LaughterСмех)
193
531000
2000
[смех в зале]
09:08
But mayмай I?
194
533000
2000
Или вы позволите?
09:10
(LaughterСмех)
195
535000
2000
[смех в зале]
09:12
(ApplauseАплодисменты)
196
537000
2000
[аплодисменты]
09:14
I feel curiosityлюбопытство,
197
539000
2000
Я чувствую любопытство,
09:16
and I feel wonderзадаваться вопросом,
198
541000
2000
и я чувствую удивление,
09:18
but at timesраз I have alsoтакже feltпочувствовал despairотчаяние.
199
543000
3000
но одновременно печаль.
09:22
Why did I chooseвыберите to studyизучение
200
547000
2000
Ну зачем же я начал изучать
09:24
this organорган that is so awesomeздорово in its complexityсложность
201
549000
3000
этот орган, столь восхитительный в своей сложности,
09:27
that it mightмог бы well be infiniteбесконечный?
202
552000
2000
сложности возможно бесконечной?
09:29
It's absurdабсурд.
203
554000
2000
Это абсурдно.
09:31
How could we even dareсметь to think
204
556000
2000
Как же мы посмели вообразить,
09:33
that we mightмог бы ever understandПонимаю this?
205
558000
3000
что когда-либо сможем понять мозг?
09:38
And yetвсе же, I persistупорствовать in this quixoticдонкихотский endeavorприлагать усилия.
206
563000
3000
И все же я продолжаю это донкихотское начинание.
09:41
And indeedв самом деле, these daysдней I harborгавань newновый hopesнадеется.
207
566000
3000
У меня даже появилось несколько надежд.
09:45
SomedayКогда-нибудь,
208
570000
2000
В один прекрасный день
09:47
a fleetфлот of microscopesмикроскопов will captureзахватить
209
572000
2000
армия микроскопов совместит
09:49
everyкаждый neuronнейрон and everyкаждый synapseсинапс
210
574000
2000
каждый нейрон и каждый синапс
09:51
in a vastогромный databaseбаза данных of imagesизображений.
211
576000
3000
в огромной базе данных фотографий.
09:54
And some day, artificiallyискусственно intelligentумный supercomputersсуперкомпьютеры
212
579000
3000
И однажды суперкомпьютер с искусственным интеллектом
09:57
will analyzeанализировать the imagesизображений withoutбез humanчеловек assistanceпомощь
213
582000
3000
проанализирует все эти изображения без участия людей
10:00
to summarizeподведем итог them in a connectomeКоннект.
214
585000
3000
и объединит их в коннектом.
10:04
I do not know, but I hopeнадежда that I will liveжить to see that day,
215
589000
3000
Я не знаю, но я надеюсь, что доживу до этого дня.
10:08
because findingобнаружение an entireвсе humanчеловек connectomeКоннект
216
593000
2000
Потому что определение полного коннектома человека
10:10
is one of the greatestвеличайший technologicalтехнологический challengesпроблемы of all time.
217
595000
3000
станет одним из величайших технологических достижений всех времен,
10:13
It will take the work of generationsпоколения to succeedдобиться успеха.
218
598000
3000
которое увенчает успехом работу многих поколений.
10:17
At the presentнастоящее время time, my collaboratorsсотрудники and I,
219
602000
3000
В настоящее время я и мои коллеги,
10:20
what we're aimingприцеливание for is much more modestскромный --
220
605000
2000
мы ставим перед собой более скромную цель –
10:22
just to find partialчастичный connectomesКоннект
221
607000
2000
мы лишь ищем частичные коннектомы
10:24
of tinyкрошечный chunksломти of mouseмышь and humanчеловек brainголовной мозг.
222
609000
3000
небольших участков мышиного и человеческого мозга.
10:27
But even that will be enoughдостаточно for the first testsтесты of this hypothesisгипотеза
223
612000
3000
Однако, этого будет достаточно для первичной проверки нашей гипотезы,
10:30
that I am my connectomeКоннект.
224
615000
3000
что я – это мой коннектом.
10:35
For now, let me try to convinceубеждать you of the plausibilityправдоподобие of this hypothesisгипотеза,
225
620000
3000
Пока же позвольте мне убедить вас в правдоподобии этой теории,
10:38
that it's actuallyна самом деле worthстоимость takingпринятие seriouslyшутки в сторону.
226
623000
3000
в том что её нужно воспринимать серьезно.
10:42
As you growрасти duringв течение childhoodдетство
227
627000
2000
В детстве пока вы растете,
10:44
and ageвозраст duringв течение adulthoodсовершеннолетие,
228
629000
3000
и во взрослом возрасте, когда вы стареете,
10:47
your personalличный identityидентичность changesизменения slowlyмедленно.
229
632000
3000
ваша индивидуальность медленно меняется.
10:50
Likewiseтакже, everyкаждый connectomeКоннект
230
635000
2000
Так же и каждый коннектом
10:52
changesизменения over time.
231
637000
2000
меняется со временем.
10:55
What kindsвиды of changesизменения happenслучаться?
232
640000
2000
Какие же изменения происходят?
10:57
Well, neuronsнейроны, like treesдеревья,
233
642000
2000
Нейроны, словно деревья,
10:59
can growрасти newновый branchesветви,
234
644000
2000
могут отращивать новые ветви
11:01
and they can loseпотерять oldстарый onesте,.
235
646000
3000
и терять старые.
11:04
SynapsesСинапсы can be createdсозданный,
236
649000
3000
Синапсы могут создаваться
11:07
and they can be eliminatedустранен.
237
652000
3000
и уничтожаться.
11:10
And synapsesсинапсы can growрасти largerбольше,
238
655000
2000
Также синапсы могут увеличиваться
11:12
and they can growрасти smallerменьше.
239
657000
3000
и могут уменьшаться.
11:15
Secondвторой questionвопрос:
240
660000
2000
Второй вопрос:
11:17
what causesпричины these changesизменения?
241
662000
3000
что приводит к этим изменениям?
11:20
Well, it's trueправда.
242
665000
2000
Вообще-то это правда,
11:22
To some extentстепень, they are programmedзапрограммированный by your genesгены.
243
667000
3000
в какой-то степени, эти изменения закодированы в ДНК.
11:25
But that's not the wholeвсе storyистория,
244
670000
2000
Но это ещё не вся история,
11:27
because there are signalsсигналы, electricalэлектрический signalsсигналы,
245
672000
2000
потому что есть сигналы, электрические сигналы,
11:29
that travelпутешествовать alongвдоль the branchesветви of neuronsнейроны
246
674000
2000
путешествующие вдоль ветвей нейронов,
11:31
and chemicalхимическая signalsсигналы
247
676000
2000
и есть химические сигналы,
11:33
that jumpПрыгать acrossчерез from branchфилиал to branchфилиал.
248
678000
2000
перепрыгивающие от ветви к ветви.
11:35
These signalsсигналы are calledназывается neuralнервный activityМероприятия.
249
680000
3000
Эти сигналы называются нервной деятельностью.
11:38
And there's a lot of evidenceдоказательства
250
683000
2000
Есть много свидетельств,
11:40
that neuralнервный activityМероприятия
251
685000
3000
что нервная деятельность
11:43
is encodingкодирование our thoughtsмысли, feelingsчувства and perceptionsвосприятие,
252
688000
3000
программирует наши мысли, чувства и восприятие,
11:46
our mentalумственный experiencesопыт.
253
691000
2000
наш ментальный опыт.
11:48
And there's a lot of evidenceдоказательства that neuralнервный activityМероприятия
254
693000
3000
Также есть много свидетельств, что нервная деятельность
11:51
can causeпричина your connectionsсвязи to changeизменение.
255
696000
3000
может быть причиной изменения соединений.
11:54
And if you put those two factsфакты togetherвместе,
256
699000
3000
Если вы сложите вместе два этих факта,
11:57
it meansозначает that your experiencesопыт
257
702000
2000
это будет значить, что ваши переживания и опыт
11:59
can changeизменение your connectomeКоннект.
258
704000
3000
могут изменить ваш коннектом.
12:02
And that's why everyкаждый connectomeКоннект is uniqueуникальный,
259
707000
2000
Вот почему каждый коннектом уникален
12:04
even those of geneticallyгенетически identicalидентичный twinsдвойняшки.
260
709000
3000
даже у генетически идентичных близнецов.
12:08
The connectomeКоннект is where natureприрода meetsотвечает nurtureвзрастить.
261
713000
3000
Коннектом - это то место, где природа встречается с воспитанием.
12:12
And it mightмог бы trueправда
262
717000
2000
Также может быть правдой то,
12:14
that just the mereвсего лишь actакт of thinkingмышление
263
719000
2000
что даже простая мысль
12:16
can changeизменение your connectomeКоннект --
264
721000
2000
может изменить ваш коннектом –
12:18
an ideaидея that you mayмай find empoweringрасширение прав и возможностей.
265
723000
3000
эту идею многие могут посчитать вдохновляющей.
12:24
What's in this pictureкартина?
266
729000
2000
Что здесь изображено?
12:28
A coolкруто and refreshingосвежающий streamпоток of waterводы, you say.
267
733000
3000
Холодный и освежающий поток воды, скажете вы.
12:32
What elseеще is in this pictureкартина?
268
737000
2000
Что еще на этой фотографии?
12:37
Do not forgetзабывать that grooveпаз in the EarthЗемля
269
742000
2000
Не забудьте про канавку в земле,
12:39
calledназывается the streamпоток bedпостель.
270
744000
3000
называемую ложем ручья.
12:42
WithoutБез it, the waterводы would not know in whichкоторый directionнаправление to flowтечь.
271
747000
3000
Без него вода не знала бы, куда ей течь.
12:45
And with the streamпоток,
272
750000
2000
Этот ручей --
12:47
I would like to proposeпредложить a metaphorметафора
273
752000
2000
моя метафора
12:49
for the relationshipотношения betweenмежду neuralнервный activityМероприятия
274
754000
2000
для определения зависимости между нервной деятельностью
12:51
and connectivityсвязь.
275
756000
2000
и связями.
12:54
Neuralнервный activityМероприятия is constantlyпостоянно changingизменения.
276
759000
3000
Нервная деятельность все время меняется.
12:57
It's like the waterводы of the streamпоток; it never sitsсидит still.
277
762000
3000
Она словно вода в ручье -- никогда не остается спокойной.
13:00
The connectionsсвязи
278
765000
2000
Связи
13:02
of the brain'sмозги neuralнервный networkсеть
279
767000
2000
в мозговой нервной сети
13:04
determinesопределяет the pathwaysпутей
280
769000
2000
определяют путь,
13:06
alongвдоль whichкоторый neuralнервный activityМероприятия flowsпотоки.
281
771000
2000
вдоль которого течет нервная деятельность.
13:08
And so the connectomeКоннект is like bedпостель of the streamпоток;
282
773000
3000
Поэтому коннектом словно ложе ручья.
13:13
but the metaphorметафора is richerбогаче than that,
283
778000
3000
Но моя метафора даже шире,
13:16
because it's trueправда that the streamпоток bedпостель
284
781000
3000
потому что это правда, что дно ручья
13:19
guidesнаправляющие the flowтечь of the waterводы,
285
784000
2000
направляет поток воды,
13:21
but over long timescalesСроки,
286
786000
2000
но в течение более продолжительного времени,
13:23
the waterводы alsoтакже reshapesперекраивает the bedпостель of the streamпоток.
287
788000
3000
вода в свою очередь изменяет форму дна.
13:26
And as I told you just now,
288
791000
2000
Как я только что сказал,
13:28
neuralнервный activityМероприятия can changeизменение the connectomeКоннект.
289
793000
3000
нервная деятельность может изменить коннектом.
13:33
And if you'llВы будете allowпозволять me to ascendвосходить
290
798000
2000
И если вы мне позволите подняться до
13:35
to metaphoricalметафорический heightsвысоты,
291
800000
3000
метафорических высот,
13:38
I will remindнапоминать you that neuralнервный activityМероприятия
292
803000
3000
я вам напомню, что нервная деятельность -
13:41
is the physicalфизическое basisоснова -- or so neuroscientistsневрологи think --
293
806000
2000
это физическая основа – многие неврологи так думают –
13:43
of thoughtsмысли, feelingsчувства and perceptionsвосприятие.
294
808000
3000
ваших мыслей, чувств и ощущений.
13:46
And so we mightмог бы even speakговорить of
295
811000
2000
Мы даже можем говорить о
13:48
the streamпоток of consciousnessсознание.
296
813000
2000
потоке сознания.
13:50
Neuralнервный activityМероприятия is its waterводы,
297
815000
3000
Нервная деятельность – это его вода,
13:53
and the connectomeКоннект is its bedпостель.
298
818000
3000
а коннектом это его русло.
13:57
So let's returnвернуть from the heightsвысоты of metaphorметафора
299
822000
2000
Давайте вернемся с поэтических высот
13:59
and returnвернуть to scienceнаука.
300
824000
2000
к науке.
14:01
Supposeпредполагать our technologiesтехнологии for findingобнаружение connectomesКоннект
301
826000
2000
Предположим, что наши технологии для нахождения коннектомов
14:03
actuallyна самом деле work.
302
828000
2000
действительно работают.
14:05
How will we go about testingтестирование the hypothesisгипотеза
303
830000
2000
Как же мы протестируем нашу гипотезу
14:07
"I am my connectomeКоннект?"
304
832000
3000
"Я – мой коннектом"?
14:10
Well, I proposeпредложить a directнепосредственный testконтрольная работа.
305
835000
3000
Я предлагаю прямой тест.
14:13
Let us attemptпопытка
306
838000
2000
Давайте попробуем
14:15
to readчитать out memoriesвоспоминания from connectomesКоннект.
307
840000
3000
считать воспоминания из коннектомов.
14:18
ConsiderРассматривать the memoryПамять
308
843000
2000
Считайте это памятью
14:20
of long temporalвременной sequencesпоследовательности of movementsдвижения,
309
845000
3000
о продолжительных последовательностях движений,
14:23
like a pianistпианист playingиграть a BeethovenБетховен sonataсоната.
310
848000
3000
словно пианист играет сонату Бетховена.
14:26
AccordingВ соответствии to a theoryтеория that datesдаты back to the 19thго centuryвека,
311
851000
3000
Согласно теории, которая датируется 19 веком,
14:29
suchтакие memoriesвоспоминания are storedхранится
312
854000
2000
такие воспоминания хранятся
14:31
as chainsцепи of synapticсинаптические connectionsсвязи insideвнутри your brainголовной мозг.
313
856000
3000
как цепочки синаптических связей внутри вашего мозга.
14:35
Because, if the first neuronsнейроны in the chainцепь are activatedактивированный,
314
860000
3000
Все потому, что если активировать первые нейроны цепи,
14:38
throughчерез theirих synapsesсинапсы they sendОтправить messagesСообщения to the secondвторой neuronsнейроны, whichкоторый are activatedактивированный,
315
863000
3000
через свои синапсы они сигналят вторым нейронам, и те тоже активируются,
14:41
and so on down the lineлиния,
316
866000
2000
и так далее по цепочке,
14:43
like a chainцепь of fallingпадение dominoesдомино.
317
868000
2000
словно падающее домино.
14:45
And this sequenceпоследовательность of neuralнервный activationактивация
318
870000
2000
И эта последовательность нервной активации
14:47
is hypothesizedгипотетический to be the neuralнервный basisоснова
319
872000
3000
гипотетически является нервной основой
14:50
of those sequenceпоследовательность of movementsдвижения.
320
875000
2000
для той последовательности движений.
14:52
So one way of tryingпытаясь to testконтрольная работа the theoryтеория
321
877000
2000
Поэтому один из способов протестировать теорию -
14:54
is to look for suchтакие chainsцепи
322
879000
2000
это найти такие цепочки
14:56
insideвнутри connectomesКоннект.
323
881000
2000
внутри коннектомов.
14:58
But it won'tне будет be easyлегко, because they're not going to look like this.
324
883000
3000
Но это будет нелегко, потому что они не будут выглядеть именно так.
15:01
They're going to be scrambledвскарабкался up.
325
886000
2000
Они будут перемешаны.
15:03
So we'llЧто ж have to use our computersкомпьютеры
326
888000
2000
Поэтому мы должны использовать компьютеры,
15:05
to try to unscrambleрасшифровывать the chainцепь.
327
890000
3000
чтобы расшифровать цепь.
15:08
And if we can do that,
328
893000
2000
И если мы сможем это сделать,
15:10
the sequenceпоследовательность of the neuronsнейроны we recoverоправляться from that unscramblingРазнимая
329
895000
3000
последовательность нейронов, получившаяся в результате,
15:13
will be a predictionпрогнозирование of the patternшаблон of neuralнервный activityМероприятия
330
898000
3000
будет предсказанием картины нервной активности,
15:16
that is replayedпереигран in the brainголовной мозг duringв течение memoryПамять recallотзыв.
331
901000
3000
которая проигрывается в мозгу во время воспоминания.
15:19
And if that were successfulуспешный,
332
904000
2000
А если нам повезет,
15:21
that would be the first exampleпример of readingчтение a memoryПамять from a connectomeКоннект.
333
906000
3000
это будет первым примером считывания памяти из коннектома.
15:28
(LaughterСмех)
334
913000
2000
[смех в зале]
15:30
What a messбеспорядок --
335
915000
2000
Ну и беспорядок.
15:33
have you ever triedпытался to wireпровод up a systemсистема
336
918000
2000
Пробовали ли вы когда-нибудь подключить систему
15:35
as complexсложный as this?
337
920000
2000
настолько сложную как эта?
15:37
I hopeнадежда not.
338
922000
2000
Надеюсь что нет.
15:39
But if you have, you know it's very easyлегко to make a mistakeошибка.
339
924000
3000
Но если да, вы знаете как легко ошибиться.
15:45
The branchesветви of neuronsнейроны are like the wiresпровода of the brainголовной мозг.
340
930000
2000
Ветви нейронов словно провода в мозге.
15:47
Can anyoneкто угодно guessУгадай: what's the totalВсего lengthдлина of wiresпровода in your brainголовной мозг?
341
932000
4000
Кто-нибудь может угадать суммарную длину проводов вашего мозга?
15:54
I'll give you a hintнамек. It's a bigбольшой numberномер.
342
939000
2000
Я вам подскажу – это огромное число.
15:56
(LaughterСмех)
343
941000
2000
[смех в зале]
15:59
I estimateоценить, millionsмиллионы of milesмиль,
344
944000
3000
Я оцениваю её в миллионы километров.
16:02
all packedуплотненный in your skullчереп.
345
947000
3000
И все это упаковано у вас в голове.
16:05
And if you appreciateценить that numberномер,
346
950000
2000
И если вы вникли в это число,
16:07
you can easilyбез труда see
347
952000
2000
вам легко понять,
16:09
there is hugeогромный potentialпотенциал for mis-wiringнеправильная проводка of the brainголовной мозг.
348
954000
2000
что есть огромная вероятность неправильного подключения.
16:11
And indeedв самом деле, the popularпопулярный pressНажмите lovesлюбит headlinesзаголовки like,
349
956000
3000
И действительно, СМИ любят заголовки вроде:
16:14
"Anorexicстрадающий отсутствием аппетита brainsмозги are wiredпроводная differentlyиначе,"
350
959000
2000
"Мозги анорексиков работают по-другому"
16:16
or "Autisticаутистический brainsмозги are wiredпроводная differentlyиначе."
351
961000
2000
или "Мозги аутистов подключены иначе".
16:18
These are plausibleправдоподобный claimsтребования,
352
963000
2000
Это правдоподобные утверждения,
16:20
but in truthправда,
353
965000
2000
но на деле,
16:22
we can't see the brain'sмозги wiringпроводка clearlyявно enoughдостаточно
354
967000
2000
мы не можем видеть подключения в мозгах достаточно четко,
16:24
to tell if these are really trueправда.
355
969000
2000
чтобы сказать это наверняка.
16:26
And so the technologiesтехнологии for seeingвидя connectomesКоннект
356
971000
3000
Поэтому технологии для изучения коннектомов
16:29
will allowпозволять us to finallyв конце концов
357
974000
2000
позволят нам в конечном итоге
16:31
readчитать mis-wiringнеправильная проводка of the brainголовной мозг,
358
976000
2000
прочесть ошибки подключения мозга,
16:33
to see mentalумственный disordersрасстройства in connectomesКоннект.
359
978000
3000
увидеть умственные заболевания в этих коннектомах.
16:40
SometimesИногда the bestЛучший way to testконтрольная работа a hypothesisгипотеза
360
985000
3000
Иногда лучший способ убедиться в правоте утверждения -
16:43
is to considerрассматривать its mostбольшинство extremeэкстремальный implicationимпликация.
361
988000
3000
это убедиться в правоте наиболее экстремального следствия.
16:46
PhilosophersФилософы know this gameигра very well.
362
991000
3000
Философы хорошо знакомы с этой игрой.
16:50
If you believe that I am my connectomeКоннект,
363
995000
3000
Если вы действительно верите, что я - это мой коннектом,
16:53
I think you mustдолжен alsoтакже acceptпринимать the ideaидея
364
998000
3000
я думаю, вы также должны принять идею,
16:56
that deathсмерть is the destructionразрушение
365
1001000
2000
что смерть – это разрушение
16:58
of your connectomeКоннект.
366
1003000
3000
вашего коннектома.
17:02
I mentionупомянуть this because there are prophetsпророки todayCегодня
367
1007000
3000
Я упомянул это, потому что есть провидцы,
17:05
who claimЗапрос that technologyтехнологии
368
1010000
3000
утверждающие, что есть технология,
17:08
will fundamentallyв корне alterизменять the humanчеловек conditionсостояние
369
1013000
3000
которая в корне изменит понимание, что значит быть человеком,
17:11
and perhapsвозможно even transformпреобразование the humanчеловек speciesвид.
370
1016000
3000
и, возможно, даже изменит сам наш вид Человек Разумный.
17:14
One of theirих mostбольшинство cherishedзаветный dreamsмечты
371
1019000
3000
Одна из их самых лелеемых ими надежд --
17:17
is to cheatмошенничать deathсмерть
372
1022000
2000
это обмануть смерть
17:19
by that practiceпрактика knownизвестен as cryonicsкрионика.
373
1024000
2000
деятельностью, называемой "крионика".
17:21
If you payплатить 100,000 dollarsдолларов,
374
1026000
2000
Если вы заплатите 100 000 долларов,
17:23
you can arrangeорганизовать to have your bodyтело frozenзамороженный after deathсмерть
375
1028000
3000
то вас заморозят после того, как вы умрете,
17:26
and storedхранится in liquidжидкость nitrogenазот
376
1031000
2000
и будут хранить в жидком азоте
17:28
in one of these tanksтанки in an ArizonaАризона warehouseсклад,
377
1033000
2000
в одном из этих резервуаров на складе в Аризоне
17:30
awaitingв ожидании a futureбудущее civilizationцивилизация
378
1035000
2000
в ожидании будущей цивилизации,
17:32
that is advancedпередовой to resurrectвоскрешать you.
379
1037000
3000
развитой достаточно, чтобы оживить вас.
17:36
Should we ridiculeосмеяние the modernсовременное seekersискатели of immortalityбессмертие,
380
1041000
2000
Должны ли мы высмеивать современных искателей бессмертия,
17:38
callingпризвание them foolsдураки?
381
1043000
2000
называть их глупцами?
17:40
Or will they somedayкогда-нибудь chuckleпосмеиваться
382
1045000
2000
Или они однажды будут хихикать
17:42
over our gravesмогилы?
383
1047000
2000
над нашими могилами?
17:45
I don't know --
384
1050000
2000
Я не знаю.
17:47
I preferпредпочитать to testконтрольная работа theirих beliefsубеждения, scientificallyнаучно.
385
1052000
3000
Я предпочитаю проверить их убеждения по-научному.
17:50
I proposeпредложить that we attemptпопытка to find a connectomeКоннект
386
1055000
2000
Я предлагаю попытаться найти коннектом
17:52
of a frozenзамороженный brainголовной мозг.
387
1057000
2000
замороженного мозга.
17:54
We know that damageнаносить ущерб to the brainголовной мозг
388
1059000
2000
Мы знаем, что происходит повреждение мозга
17:56
occursимеет место after deathсмерть and duringв течение freezingзаморозка.
389
1061000
2000
после смерти и во время заморозки.
17:58
The questionвопрос is: has that damageнаносить ущерб erasedстертый the connectomeКоннект?
390
1063000
3000
Вопрос такой: стерли ли эти повреждения коннектом?
18:01
If it has, there is no way that any futureбудущее civilizationцивилизация
391
1066000
3000
Если да, то никакая будущая цивилизация
18:04
will be ableв состоянии to recoverоправляться the memoriesвоспоминания of these frozenзамороженный brainsмозги.
392
1069000
3000
не сможет восстановить воспоминания этих замороженных мозгов.
18:07
ResurrectionВоскрешение mightмог бы succeedдобиться успеха for the bodyтело,
393
1072000
2000
Воскрешение может произойти для тела,
18:09
but not for the mindразум.
394
1074000
2000
но не для разума.
18:11
On the other handрука, if the connectomeКоннект is still intactнеповрежденный,
395
1076000
3000
С другой стороны, если коннектом остался цел,
18:14
we cannotне могу ridiculeосмеяние the claimsтребования of cryonicsкрионика so easilyбез труда.
396
1079000
3000
мы не должны высмеивать утверждения крионистов.
18:20
I've describedописано a questпоиск
397
1085000
2000
Я описал то, что надо искать.
18:22
that beginsначинается in the worldМир of the very smallмаленький,
398
1087000
3000
Поиск начинается в мире очень маленьких вещей,
18:25
and propelsподпитывают us to the worldМир of the farдалеко futureбудущее.
399
1090000
3000
но побуждает нас двигаться в мир далекого будущего.
18:28
ConnectomesКоннект will markотметка a turningпревращение pointточка in humanчеловек historyистория.
400
1093000
3000
Коннектомы обозначат собой исторический момент в развитии цивилизации.
18:32
As we evolvedэволюционировали from our ape-likeобезьяноподобным ancestorsпредки
401
1097000
2000
Мы эволюционировали из наших обезьяноподобных предков
18:34
on the Africanафриканец savannaсаванна,
402
1099000
2000
африканской саванны,
18:36
what distinguishedвыдающийся us was our largerбольше brainsмозги.
403
1101000
3000
и то, что нас стало отличать, – это наши большие мозги.
18:40
We have used our brainsмозги to fashionмода
404
1105000
2000
Мы использовали наши мозги, чтобы замыслить
18:42
ever more amazingудивительно technologiesтехнологии.
405
1107000
3000
еще более удивительные технологии.
18:45
EventuallyВ итоге, these technologiesтехнологии will becomeстали so powerfulмощный
406
1110000
3000
В конце-концов эти технологии станут настолько сильными,
18:48
that we will use them to know ourselvesсами
407
1113000
3000
что мы станем использовать их для самопознания,
18:51
by deconstructingдеконструкции and reconstructingвосстанавливающий
408
1116000
3000
разбирая и собирая снова
18:54
our ownсвоя brainsмозги.
409
1119000
3000
наши собственные мозги.
18:57
I believe that this voyageпутешествие of self-discoveryсамопознание
410
1122000
3000
Я думаю, что это путешествие к самопознанию
19:00
is not just for scientistsученые,
411
1125000
3000
и не только для ученых,
19:03
but for all of us.
412
1128000
2000
но для всех.
19:05
And I'm gratefulблагодарный for the opportunityвозможность to shareдоля this voyageпутешествие with you todayCегодня.
413
1130000
3000
И я благодарен за сегодняшнюю возможность поделиться с вами своими мыслями.
19:08
Thank you.
414
1133000
2000
Спасибо.
19:10
(ApplauseАплодисменты)
415
1135000
8000
[аплодисменты]
Translated by Eugeniy Ivanov
Reviewed by Katya Osnovsky

▲Back to top

ABOUT THE SPEAKER
Sebastian Seung - Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain.

Why you should listen

In the brain, neurons are connected into a complex network. Sebastian Seung and his lab at MIT are inventing technologies for identifying and describing the connectome, the totality of connections between the brain's neurons -- think of it as the wiring diagram of the brain. We possess our entire genome at birth, but things like memories are not "stored" in the genome; they are acquired through life and accumulated in the brain. Seung's hypothesis is that "we are our connectome," that the connections among neurons is where memories and experiences get stored.

Seung and his collaborators, including Winfried Denk at the Max Planck Institute and Jeff Lichtman at Harvard University, are working on a plan to thin-slice a brain (probably starting with a mouse brain) and trace, from slice to slice, each neural pathway, exposing the wiring diagram of the brain and creating a powerful new way to visualize the workings of the mind. They're not the first to attempt something like this -- Sydney Brenner won a Nobel for mapping all the 7,000 connections in the nervous system of a tiny worm, C. elegans. But that took his team a dozen years, and the worm only had 302 nerve cells. One of Seung's breakthroughs is in using advanced imagining and AI to handle the crushing amount of data that a mouse brain will yield and turn it into richly visual maps that show the passageways of thought and sensation.

More profile about the speaker
Sebastian Seung | Speaker | TED.com