ABOUT THE SPEAKER
Sebastian Seung - Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain.

Why you should listen

In the brain, neurons are connected into a complex network. Sebastian Seung and his lab at MIT are inventing technologies for identifying and describing the connectome, the totality of connections between the brain's neurons -- think of it as the wiring diagram of the brain. We possess our entire genome at birth, but things like memories are not "stored" in the genome; they are acquired through life and accumulated in the brain. Seung's hypothesis is that "we are our connectome," that the connections among neurons is where memories and experiences get stored.

Seung and his collaborators, including Winfried Denk at the Max Planck Institute and Jeff Lichtman at Harvard University, are working on a plan to thin-slice a brain (probably starting with a mouse brain) and trace, from slice to slice, each neural pathway, exposing the wiring diagram of the brain and creating a powerful new way to visualize the workings of the mind. They're not the first to attempt something like this -- Sydney Brenner won a Nobel for mapping all the 7,000 connections in the nervous system of a tiny worm, C. elegans. But that took his team a dozen years, and the worm only had 302 nerve cells. One of Seung's breakthroughs is in using advanced imagining and AI to handle the crushing amount of data that a mouse brain will yield and turn it into richly visual maps that show the passageways of thought and sensation.

More profile about the speaker
Sebastian Seung | Speaker | TED.com
TEDGlobal 2010

Sebastian Seung: I am my connectome

سباستین سونگ: من یعنی کانکتوم من

Filmed:
1,131,223 views

سباستین سونگ در حال انجام پروژه ای بسیار بلندپروازانه است که هدف آن ارائه مدلی از مغز بر پایه نقشه اتصالات میان تک تک نورون هاست. او این نقشه را "کانکتوم" مینامد، ماهیتی که برای هر کس به اندازه ژنوم او شخصی است -- و شناخت آن میتواند راههای تازه ای را در شناخت مغز و اندیشه ما بگشاید.
- Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain. Full bio

Double-click the English transcript below to play the video.

00:17
We liveزنده in in a remarkableقابل توجه time,
0
2000
3000
ما در زمانه فوق العاده ای زندگی میکنیم،
00:20
the ageسن of genomicsژنومیک.
1
5000
3000
عصر ژنومیکس.
00:23
Your genomeژنوم is the entireکل sequenceتوالی of your DNADNA.
2
8000
3000
ژنوم شما تمام توالی دی. ان. ای. شماست.
00:26
Your sequenceتوالی and mineمال خودم are slightlyکمی differentناهمسان.
3
11000
3000
توالی شما و توالی من اندکی از هم متفاوت اند.
00:29
That's why we look differentناهمسان.
4
14000
2000
برای همین هم هست که من و شما ظاهر متفاوتی داریم.
00:31
I've got brownرنگ قهوه ای eyesچشم ها;
5
16000
2000
من چشمانی قهوه ای دارم.
00:33
you mightممکن have blueآبی or grayخاکستری.
6
18000
3000
چشمان شما ممکن است آبی یا خاکستری باشند.
00:36
But it's not just skin-deepپوست عمیق.
7
21000
2000
اما تمام مساله این اندازه ظاهری هم نیست.
00:38
The headlinesسرفصل ها tell us
8
23000
2000
هر روز از اخبار میشنویم
00:40
that genesژن ها can give us scaryترسناک diseasesبیماری ها,
9
25000
3000
که ژن ها میتوانند منجر به بیماری های خطرناکی در ما شوند،
00:43
maybe even shapeشکل our personalityشخصیت,
10
28000
3000
یا حتی در شکل گیری شخصیت ما نقش داشته باشند،
00:46
or give us mentalذهنی disordersاختلالات.
11
31000
3000
یا موجب اختلالات روانی در ما شوند.
00:49
Our genesژن ها seemبه نظر می رسد to have
12
34000
3000
به نظر میرسد ژن های ما
00:52
awesomeعالی powerقدرت over our destiniesسرنوشت.
13
37000
3000
نقش عمیقی در سرنوشت ما داشته باشند.
00:56
And yetهنوز, I would like to think
14
41000
3000
اما همچنان من اصرار دارم که تصور کنم
00:59
that I am more than my genesژن ها.
15
44000
3000
من چیزی بیشتر از ژن هایم هستم.
01:04
What do you guys think?
16
49000
2000
شما چه فکر میکنید؟
01:06
Are you more than your genesژن ها?
17
51000
3000
آیا شما چیزی بیشتر از ژن هایتان هستید؟
01:09
(Audienceحضار: Yes.) Yes?
18
54000
2000
(باشندگان: بله.) بله؟
01:13
I think some people agreeموافق with me.
19
58000
2000
فکر میکنم بعضی از شما هم با من هم عقیده اید.
01:15
I think we should make a statementبیانیه.
20
60000
2000
فکر میکنم ما باید این را با قاطعیت بیان کنیم.
01:17
I think we should say it all togetherبا یکدیگر.
21
62000
2000
و فکر میکنم حتی باید این را همه با هم فریاد بزنیم.
01:20
All right: "I'm more than my genesژن ها" -- all togetherبا یکدیگر.
22
65000
3000
بسیار خوب: "من چیزی بیش از ژن هایم هستم" -- همه باهم.
01:23
Everybodyهمه: I am more than my genesژن ها.
23
68000
4000
همه: من چیزی بیش از ژن هایم هستم.
01:27
(Cheeringتشویق)
24
72000
2000
(تشویق)
01:30
Sebastianسباستین Seungسونگ: What am I?
25
75000
2000
سباستین سونگ: پس من یعنی چه؟
01:32
(Laughterخنده)
26
77000
3000
(خنده)
01:35
I am my connectomeاتصال.
27
80000
3000
من یعنی کانکتوم من.
01:40
Now, sinceاز آنجا که you guys are really great,
28
85000
2000
حالا چون شما شنوندگان خیلی خوبی هستید،
01:42
maybe you can humorشوخ طبعی me and say this all togetherبا یکدیگر too.
29
87000
2000
میتوانید من رو خوشحال کنید و این را هم همه با هم بگویید.
01:44
(Laughterخنده)
30
89000
2000
(خنده)
01:46
Right. All togetherبا یکدیگر now.
31
91000
2000
خوب. حالا همه با هم.
01:48
Everybodyهمه: I am my connectomeاتصال.
32
93000
3000
همه: من یعنی کانکتوم من.
01:53
SSاس اس: That soundedصدای great.
33
98000
2000
سباستین سونگ: عالی بود.
01:55
You know, you guys are so great, you don't even know what a connectomeاتصال is,
34
100000
2000
انقدر شما آدم های باحالی هستید که حتی نمیدونید کانکتوم چیست،
01:57
and you're willingمایلم to playبازی alongدر امتداد with me.
35
102000
2000
اما حاضرید من رو همراهی کنید.
01:59
I could just go home now.
36
104000
3000
فکر میکنم کاری که میخواستم رو کردم و همین حالا میتونم برگردم!
02:02
Well, so farدور only one connectomeاتصال is knownشناخته شده,
37
107000
3000
بسیار خوب، تا این لحظه تنها یک کانکتوم شناخته شده است،
02:05
that of this tinyکوچک wormکرم.
38
110000
3000
کانکتوم این کرم کوچک.
02:08
Its modestفروتن nervousعصبی systemسیستم
39
113000
2000
سامانه عصبی جمع و جور این کرم
02:10
consistsمتشکل از of just 300 neuronsنورون ها.
40
115000
2000
تنها از ۳۰۰ نورون ساخته شده است.
02:12
And in the 1970s and '80s,
41
117000
2000
و در دهه های ۱۹۷۰ و ۸۰،
02:14
a teamتیم of scientistsدانشمندان
42
119000
2000
گروهی از دانشمندان
02:16
mappedنقشه برداری شده all 7,000 connectionsارتباطات
43
121000
2000
تمامی ۷۰۰۰ اتصال میان این نورون ها را
02:18
betweenبین the neuronsنورون ها.
44
123000
2000
نقشه برداری کردند.
02:21
In this diagramنمودار, everyهرکدام nodeگره is a neuronنورون,
45
126000
2000
در این نمودار، هر گره یک نورون است،
02:23
and everyهرکدام lineخط is a connectionارتباط.
46
128000
2000
و هر خط یک اتصال.
02:25
This is the connectomeاتصال
47
130000
2000
و این کانکتوم این کرم کوچک
02:27
of the wormکرم C. eleganselegans.
48
132000
4000
یعنی سی. الگانس است.
02:31
Your connectomeاتصال is farدور more complexپیچیده than this
49
136000
3000
کانکتوم شما بس پیچیده تر از این است،
02:34
because your brainمغز
50
139000
2000
چرا که مغز شما
02:36
containsحاوی 100 billionبیلیون neuronsنورون ها
51
141000
2000
از ۱۰۰ میلیارد نورون ساخته شده
02:38
and 10,000 timesبار as manyبسیاری connectionsارتباطات.
52
143000
3000
و تعداد اتصالات آن ۱۰،۰۰۰ برابر بیشتر است.
02:41
There's a diagramنمودار like this for your brainمغز,
53
146000
2000
یک نمودار شبیه این برای مغز شما هم وجود دارد،
02:43
but there's no way it would fitمناسب on this slideاسلاید.
54
148000
3000
اما به هیچ طریقی ممکن نیست در این صفحه بگنجد.
02:47
Your connectomeاتصال containsحاوی one millionمیلیون timesبار more connectionsارتباطات
55
152000
3000
تعداد اتصالات کانکتوم شما یک میلیون برابر بیشتر است از
02:50
than your genomeژنوم has lettersنامه ها.
56
155000
3000
تعداد حروف ژنوم شما.
02:53
That's a lot of informationاطلاعات.
57
158000
2000
و این یعنی انبوهی از اطلاعات.
02:55
What's in that informationاطلاعات?
58
160000
3000
در این انبوه اطلاعات چه چیزی نهفته ست؟
02:59
We don't know for sure, but there are theoriesنظریه ها.
59
164000
3000
هنوز کسی به طور قطع نمیداند، اما نظریه هایی وجود دارند.
03:02
Sinceاز آنجا که the 19thth centuryقرن, neuroscientistsدانشمندان علوم اعصاب have speculatedحدس زد
60
167000
3000
از قرن نوزدهم، عصب شناسان گمانه زنی هایی در این زمینه کرده اند
03:05
that maybe your memoriesخاطرات --
61
170000
2000
که شاید خاطرات شما --
03:07
the informationاطلاعات that makesباعث می شود you, you --
62
172000
2000
اطلاعاتی که باعث شده اند شما، شما باشید --
03:09
maybe your memoriesخاطرات are storedذخیره شده است
63
174000
2000
شاید خاطرات شما در این اتصالات میان نورون های مغز شما
03:11
in the connectionsارتباطات betweenبین your brain'sمغز neuronsنورون ها.
64
176000
2000
نگهداری میشوند.
03:15
And perhapsشاید other aspectsجنبه های of your personalشخصی identityهویت --
65
180000
2000
و احتمالا جنبه های دیگری از هویت شخصی شما --
03:17
maybe your personalityشخصیت and your intellectعقل --
66
182000
3000
شاید شخصیت و خرد شما --
03:20
maybe they're alsoهمچنین encodedکدگذاری شده
67
185000
2000
شاید آن ها هم در اتصالات میان نورون های شما
03:22
in the connectionsارتباطات betweenبین your neuronsنورون ها.
68
187000
3000
رمز شده باشند.
03:26
And so now you can see why I proposedپیشنهاد شده this hypothesisفرضیه:
69
191000
3000
حالا متوجه میشوید که چرا این فرضیه را پیشنهاد کردم که:
03:29
I am my connectomeاتصال.
70
194000
3000
من یعنی کانکتوم من.
03:32
I didn't askپرسیدن you to chantآواز خواندن it because it's trueدرست است;
71
197000
3000
از شما نخواستم که فریادش بزنید چون لزوما درست است،
03:35
I just want you to rememberیاد آوردن it.
72
200000
2000
تنها از شما میخواهم که آن را بخاطر بسپارید.
03:37
And in factواقعیت, we don't know if this hypothesisفرضیه is correctدرست,
73
202000
2000
در واقع، ما نمیدانیم آیا این فرضیه صحت دارد یا نه،
03:39
because we have never had technologiesفن آوری ها
74
204000
2000
چون هرگز فناوری های لازم برای آزمودن آن را
03:41
powerfulقدرتمند enoughکافی to testتست it.
75
206000
2000
در اختیار نداشته ایم.
03:44
Findingیافته that wormکرم connectomeاتصال
76
209000
3000
نقشه برداری کانکتوم آن کرم
03:47
tookگرفت over a dozenدوازده yearsسالها of tediousخسته کننده laborنیروی کار.
77
212000
3000
نیازمند بیش از یک دهه کار طاقت فرسا بود.
03:50
And to find the connectomesکومومون of brainsمغز more like our ownخودت,
78
215000
3000
و برای یافتن کانکتوم مغزهایی شبیه مغز ما
03:53
we need more sophisticatedپیچیده technologiesفن آوری ها, that are automatedخودکار,
79
218000
3000
نیاز به فناوری هایی بس پیچیده تر داریم، که خودکار هستند،
03:56
that will speedسرعت up the processروند of findingیافته connectomesکومومون.
80
221000
3000
و فرآیند نقشه برداری کانکتوم ها را سرعت میبخشند.
03:59
And in the nextبعد fewتعداد کمی minutesدقایق, I'll tell you about some of these technologiesفن آوری ها,
81
224000
3000
در چند دقیقه آینده در مورد برخی از این فناوری ها صحبت میکنم.
04:02
whichکه are currentlyدر حال حاضر underزیر developmentتوسعه
82
227000
2000
فناوری هایی که اکنون در آزمایشگاه من و همکارانم
04:04
in my labآزمایشگاه and the labsآزمایشگاه ها of my collaboratorsمشارکت کنندگان.
83
229000
3000
در حال توسعه هستند.
04:08
Now you've probablyشاید seenمشاهده گردید picturesتصاویر of neuronsنورون ها before.
84
233000
3000
احتمالا شما تصویر نورون ها را قبلا دیده اید.
04:11
You can recognizeتشخیص them instantlyفورا
85
236000
2000
نورون ها را میتوان به راحتی
04:13
by theirخودشان fantasticخارق العاده shapesشکل ها.
86
238000
3000
از روی اشکال خارق العاده شان شناخت.
04:16
They extendگسترش long and delicateظریف branchesشاخه ها,
87
241000
3000
نورون ها شاخه های بلند و نازکی دارند،
04:19
and in shortکوتاه, they look like treesدرختان.
88
244000
3000
و شبیه درخت هستند.
04:22
But this is just a singleتنها neuronنورون.
89
247000
3000
اما این تنها یک نورون است.
04:25
In orderسفارش to find connectomesکومومون,
90
250000
2000
برای یافتن یک کانکتوم،
04:27
we have to see all the neuronsنورون ها at the sameیکسان time.
91
252000
3000
بایستی تمام نورون ها را همزمان ببینیم.
04:30
So let's meetملاقات Bobbyبابی Kasthuriکاستوری,
92
255000
2000
اجازه بدهید بابی کاستوری را به شما معرفی کنم.
04:32
who worksآثار in the laboratoryآزمایشگاه of Jeffجف Lichtmanلیچمن
93
257000
2000
بابی در آزمایشگاه جف لیکمن
04:34
at Harvardهاروارد Universityدانشگاه.
94
259000
2000
در دانشگاه هاروارد کار میکند.
04:36
Bobbyبابی is holdingبرگزاری fantasticallyفوق العاده thinلاغر slicesبرش ها
95
261000
2000
چیزی که در دست بابی میبینید برش های بسیار نازکی
04:38
of a mouseموش brainمغز.
96
263000
2000
از مغز موش است.
04:40
And we're zoomingزوم کردن in by a factorعامل of 100,000 timesبار
97
265000
3000
برای مشاهده همزمان تمام شاخه های نورون ها
04:44
to obtainبه دست آوردن the resolutionوضوح,
98
269000
2000
نیاز به قدرت تفکیکی داریم
04:46
so that we can see the branchesشاخه ها of neuronsنورون ها all at the sameیکسان time.
99
271000
3000
که در بزرگنمایی ۱۰۰،۰۰۰ به دست می آید.
04:50
Exceptبجز, you still mayممکن است not really recognizeتشخیص them,
100
275000
3000
تنها مشکل اینجاست که حتی در این بزرگنمایی ممکن است نتوان آن ها را تشخیص داد،
04:53
and that's because we have to work in threeسه dimensionsابعاد.
101
278000
3000
و این به این دلیل است که باید با دید سه بعدی به آن ها نگاه کنیم.
04:56
If we take manyبسیاری imagesتصاویر of manyبسیاری slicesبرش ها of the brainمغز
102
281000
2000
اگر بتوانیم تصاویر بسیاری از تعداد زیادی برش مغز بگیریم
04:58
and stackپشته them up,
103
283000
2000
و آن ها را روی هم پشته کنیم،
05:00
we get a three-dimensionalسه بعدی imageتصویر.
104
285000
2000
به یک تصویر سه بعدی دست خواهیم یافت.
05:02
And still, you mayممکن است not see the branchesشاخه ها.
105
287000
2000
اما همچنان نمیتوان شاخه ها را تشخیص داد.
05:04
So we startشروع کن at the topبالا,
106
289000
2000
پس از بالا شروع میکنیم،
05:06
and we colorرنگ in the cross-sectionسطح مقطع of one branchشاخه in redقرمز,
107
291000
3000
و سطح مقطع یک شاخه را با رنگ قرمز پر میکنیم،
05:09
and we do that for the nextبعد sliceتکه
108
294000
2000
و این کار را برای برش بعدی هم انجام میدهیم،
05:11
and for the nextبعد sliceتکه.
109
296000
2000
و برش بعدی هم.
05:13
And we keep on doing that,
110
298000
2000
و این کار را تکرار میکنیم،
05:15
sliceتکه after sliceتکه.
111
300000
3000
برش بعد از برش.
05:18
If we continueادامه دهید throughاز طریق the entireکل stackپشته,
112
303000
2000
اگر این کار را برای تمام برش های یک پشته انجام دهیم،
05:20
we can reconstructبازسازی the three-dimensionalسه بعدی shapeشکل
113
305000
3000
میتوانیم شکل سه بعدی قطعه کوچکی از
05:23
of a smallکوچک fragmentقطعه of a branchشاخه of a neuronنورون.
114
308000
3000
شاخه ای از یک نورون را بازسازی کنیم.
05:26
And we can do that for anotherیکی دیگر neuronنورون in greenسبز.
115
311000
2000
و میتوانیم این کار را برای یک نورون دیگر به رنگ سبز انجام دهیم.
05:28
And you can see that the greenسبز neuronنورون touchesلمس می کند the redقرمز neuronنورون
116
313000
2000
همانطور که میبینید نورون سبز رنگ با نورون قرمز رنگ
05:30
at two locationsمکان ها,
117
315000
2000
در دو نقطه تماس پیدا میکند
05:32
and these are what are calledبه نام synapsesسیناپس ها.
118
317000
2000
و این نقاط همان سیناپس ها هستند.
05:34
Let's zoomبزرگنمایی in on one synapseسیناپس,
119
319000
2000
بد نیست یک سیناپس را در بزرگنمایی بالاتری ببینیم.
05:36
and keep your eyesچشم ها on the interiorداخلی of the greenسبز neuronنورون.
120
321000
3000
سعی کنید به سطح داخلی نورون سبز دقت کنید.
05:39
You should see smallکوچک circlesحلقه ها --
121
324000
2000
احتمالا میتوانید دایره های کوچکی را مشاهده کنید.
05:41
these are calledبه نام vesiclesvesicles.
122
326000
3000
این ها همان کیسه چه ها یا وزیکول ها هستند.
05:44
They containحاوی a moleculeمولکول know as a neurotransmitterانتقال دهنده عصبی.
123
329000
3000
کیسه چه ها حاوی انتقال دهنده های عصبی هستند.
05:47
And so when the greenسبز neuronنورون wants to communicateبرقراری ارتباط,
124
332000
2000
هنگامی که نورون سبز رنگ بخواهد پیامی را
05:49
it wants to sendارسال a messageپیام to the redقرمز neuronنورون,
125
334000
2000
به نورون قرمز مخابره کند،
05:51
it spitsتف می کشد out neurotransmitterانتقال دهنده عصبی.
126
336000
3000
مقادیری انتقال دهنده عصبی ترشح میکند.
05:54
At the synapseسیناپس, the two neuronsنورون ها
127
339000
2000
اصطلاحا گفته میشود که دو نورون
05:56
are said to be connectedمتصل
128
341000
2000
با یکدیگر در سیناپس تماس میگیرند،
05:58
like two friendsدوستان talkingصحبت کردن on the telephoneتلفن.
129
343000
3000
مانند دو دوستی که تلفنی با هم حرف میزنند.
06:02
So you see how to find a synapseسیناپس.
130
347000
2000
پس یاد گرفتید که سیناپس ها را چگونه ردیابی کنید.
06:04
How can we find an entireکل connectomeاتصال?
131
349000
3000
حال، چطور میتوان تمام یک کانکتوم را پیدا کرد؟
06:07
Well, we take this three-dimensionalسه بعدی stackپشته of imagesتصاویر
132
352000
3000
ساده است، باید این پشته سه بعدی از تصاویر را برداریم
06:10
and treatدرمان شود it as a giganticغول پیکر three-dimensionalسه بعدی coloringرنگ آمیزی bookکتاب.
133
355000
3000
و با آن به سان یک کتاب رنگ آمیزی غول آسا برخورد کنیم.
06:13
We colorرنگ everyهرکدام neuronنورون in, in a differentناهمسان colorرنگ,
134
358000
3000
بایستی هر نورون را با رنگ متمایزی رنگ آمیزی کنیم،
06:16
and then we look throughاز طریق all of the imagesتصاویر,
135
361000
2000
به مجموعه این تصاویر نگاه کنیم،
06:18
find the synapsesسیناپس ها
136
363000
2000
سیناپس ها را بیابیم،
06:20
and noteتوجه داشته باشید the colorsرنگ ها of the two neuronsنورون ها involvedگرفتار in eachهر یک synapseسیناپس.
137
365000
3000
و به رنگ هر دو نورونی که در هر سیناپس شریک اند توجه کنیم.
06:23
If we can do that throughoutدر سراسر all the imagesتصاویر,
138
368000
3000
اگر این کار را برای تمام این پشته از تصاویر انجام دهیم،
06:26
we could find a connectomeاتصال.
139
371000
2000
میتوانیم یک کانکتوم را نقشه برداری کنیم.
06:29
Now, at this pointنقطه,
140
374000
2000
تا اینجا،
06:31
you've learnedیاد گرفتم the basicsاصول اولیه of neuronsنورون ها and synapsesسیناپس ها.
141
376000
2000
مبانی نورون ها و سیناپس ها را یاد گرفتید.
06:33
And so I think we're readyآماده to tackleبرخورد با
142
378000
2000
گمان میکنم آماده باشیم
06:35
one of the mostاکثر importantمهم questionsسوالات in neuroscienceعلوم اعصاب:
143
380000
3000
تا با یکی از مهم ترین پرسش ها در نوروساینس برخورد کنیم:
06:39
how are the brainsمغز of menمردان and womenزنان differentناهمسان?
144
384000
3000
مغز مردان و زنان چه تفاوت هایی با هم دارند؟
06:42
(Laughterخنده)
145
387000
2000
(خنده)
06:44
Accordingبا توجه to this self-helpخود کمک bookکتاب,
146
389000
2000
به گفته این کتاب رشد شخصیت،
06:46
guys brainsمغز are like wafflesکلوچه;
147
391000
2000
مغز پسرها شبیه ویفر است؛
06:48
they keep theirخودشان livesزندگی می کند compartmentalizedمجتمع شده in boxesجعبه ها.
148
393000
3000
آن ها زندگی شان را در جعبه هایی طبقه بندی میکنند.
06:51
Girls'دختران brainsمغز are like spaghettiماکارونی;
149
396000
3000
مغز دخترها شبیه ماکارونی است؛
06:54
everything in theirخودشان life is connectedمتصل to everything elseچیز دیگری.
150
399000
3000
همه چیز در زندگی آن ها به همه چیز ارتباط دارد!
06:57
(Laughterخنده)
151
402000
2000
(خنده)
06:59
You guys are laughingخندیدن,
152
404000
2000
حالا شما به این میخندید،
07:01
but you know, this bookکتاب changedتغییر کرد my life.
153
406000
2000
اما این کتاب زندگی من را دگرگون کرد!
07:03
(Laughterخنده)
154
408000
2000
(خنده)
07:07
But seriouslyبه طور جدی, what's wrongاشتباه with this?
155
412000
3000
ولی بی شوخی، این توصیف چه ایرادی دارد؟
07:10
You alreadyقبلا know enoughکافی to tell me -- what's wrongاشتباه with this statementبیانیه?
156
415000
3000
شما دیگر الان به اندازه کافی میدانید تا جواب من را بدهید. چه ایرادی دارد؟
07:20
It doesn't matterموضوع whetherچه you're a guy or girlدختر,
157
425000
3000
مهم نیست که شما پسر باشید یا دختر،
07:23
everyone'sهر کس brainsمغز are like spaghettiماکارونی.
158
428000
3000
مغز همه مثل ماکارونی است.
07:26
Or maybe really, really fine capelliniکاپلینی with branchesشاخه ها.
159
431000
3000
یا حتی رشته های ورمیشل خیلی نازک با شاخه های زیاد.
07:30
Just as one strandرشته of spaghettiماکارونی
160
435000
2000
درست همانطور که یک رشته ماکارونی
07:32
contactsمخاطبین manyبسیاری other strandsرشته ها on your plateبشقاب,
161
437000
3000
با رشته های زیاد دیگری در بشقاب شما تماس دارد،
07:35
one neuronنورون touchesلمس می کند manyبسیاری other neuronsنورون ها
162
440000
2000
یک نورون هم نورون های بسیار زیاد دیگری را
07:37
throughاز طریق theirخودشان entangledگرفتار branchesشاخه ها.
163
442000
2000
از طریق شاخه های در هم پیچیده شان لمس میکند.
07:39
One neuronنورون can be connectedمتصل to so manyبسیاری other neuronsنورون ها,
164
444000
3000
یک نورون میتواند به تعدادی چنان زیاد از نورون های دیگر وصل باشد،
07:42
because there can be synapsesسیناپس ها
165
447000
2000
زیرا در هر یک از نقاط تماس
07:44
at these pointsنکته ها of contactتماس.
166
449000
3000
میتواند یک سیناپس تشکیل دهد.
07:49
By now, you mightممکن have sortمرتب سازی of lostکم شده perspectiveچشم انداز
167
454000
3000
با این همه جزئیات ممکن است چشم انداز کلی را گم کرده باشید.
07:52
on how largeبزرگ this cubeمکعب of brainمغز tissueبافت actuallyدر واقع is.
168
457000
3000
تصویر کلی اینکه این مکعب از بافت مغز واقعا چه اندازه است.
07:55
And so let's do a seriesسلسله of comparisonsمقایسه ها to showنشان بده you.
169
460000
3000
بد نیست چند مقایسه انجام دهیم تا متوجه شوید.
07:58
I assureاطمینان دادن you, this is very tinyکوچک. It's just sixشش micronsمیکرون on a sideسمت.
170
463000
3000
تاکید میکنم، این مکعب بسیار کوچک است. هر یال تنها ۶ میکرون.
08:03
So, here'sاینجاست how it stacksپشته ها up againstدر برابر an entireکل neuronنورون.
171
468000
3000
این همان مکعب است در کنار یک نورون کامل.
08:06
And you can tell that, really, only the smallestکوچکترین fragmentsقطعات of branchesشاخه ها
172
471000
3000
و میبینید که در واقع تنها کوچکترین قطعات هر شاخه
08:09
are containedحاوی insideداخل this cubeمکعب.
173
474000
3000
در درون این مکعب قرار دارند.
08:12
And a neuronنورون, well, that's smallerکوچکتر than brainمغز.
174
477000
3000
و یک نورون، خوب مسلما کوچکتر از مغز است.
08:17
And that's just a mouseموش brainمغز --
175
482000
2000
و این تنها مغز یک موش است.
08:21
it's a lot smallerکوچکتر than a humanانسان brainمغز.
176
486000
3000
که بسیار کوچکتر از مغز انسان است.
08:25
So when showنشان بده my friendsدوستان this,
177
490000
2000
گاهی وقتی این را به دوستانم نشان میدهم،
08:27
sometimesگاه گاهی they'veآنها دارند told me,
178
492000
2000
به من پیشنهاد میدهند که
08:29
"You know, Sebastianسباستین, you should just give up.
179
494000
3000
«میدونی سباستین، بد نیست بیخیال شی.
08:32
Neuroscienceعلوم اعصاب is hopelessنومید."
180
497000
2000
نوروساینس به جایی نمیرسه!»
08:34
Because if you look at a brainمغز with your nakedبرهنه eyeچشم,
181
499000
2000
چرا که اگر به مغز با چشم غیرمسلح نگاه کنید،
08:36
you don't really see how complexپیچیده it is,
182
501000
2000
هرگز عمق پیچیدگی آن را نمیبینید،
08:38
but when you use a microscopeمیکروسکوپ,
183
503000
2000
اما اگر از یک میکروسکوپ استفاده کنید،
08:40
finallyسرانجام the hiddenپنهان complexityپیچیدگی is revealedنشان داد.
184
505000
3000
در نهایت، پیچیدگی پنهان آن آشکار میشود.
08:45
In the 17thth centuryقرن,
185
510000
2000
در قرن هفدهم،
08:47
the mathematicianریاضیدان and philosopherفیلسوف, Blaiseبلیز Pascalپاسکال,
186
512000
2000
فیلسوف و ریاضیدان، بلیز پاسکال،
08:49
wroteنوشت of his dreadوحشت of the infiniteبي نهايت,
187
514000
3000
از ترس خود از بینهایت نوشت،
08:52
his feelingاحساس of insignificanceناچیز
188
517000
2000
احساسش در مورد بیهودگی اندیشیدن
08:54
at contemplatingفکر کردن the vastعظیم reachesمی رسد of outerبیرونی spaceفضا.
189
519000
3000
به دوردست های فضای بیکران.
08:59
And, as a scientistدانشمند,
190
524000
2000
اما به عنوان یک دانشمند،
09:01
I'm not supposedقرار است to talk about my feelingsاحساسات --
191
526000
3000
من قرار نیست از احساساتم صحبت کنم.
09:04
too much informationاطلاعات, professorاستاد.
192
529000
2000
..استاد خیلی حرف میزنید!
09:06
(Laughterخنده)
193
531000
2000
(خنده)
09:08
But mayممکن است I?
194
533000
2000
ولی آیا اجازه دارم؟
09:10
(Laughterخنده)
195
535000
2000
(خنده)
09:12
(Applauseتشویق و تمجید)
196
537000
2000
(تشویق)
09:14
I feel curiosityکنجکاوی,
197
539000
2000
من بسیار کنجکاوم،
09:16
and I feel wonderتعجب,
198
541000
2000
و در شگفتی غوطه میخورم،
09:18
but at timesبار I have alsoهمچنین feltنمد despairناامیدی.
199
543000
3000
اما گاهی هم نا امید و درمانده میشوم.
09:22
Why did I chooseانتخاب کنید to studyمطالعه
200
547000
2000
چرا تصمیم گرفتم این اندام را مطالعه کنم؟
09:24
this organعضو that is so awesomeعالی in its complexityپیچیدگی
201
549000
3000
اندامی که پیچیدگی زیبا و خیره کننده ای دارد
09:27
that it mightممکن well be infiniteبي نهايت?
202
552000
2000
اما همزمان ممکن است بینهایت باشد.
09:29
It's absurdچرند.
203
554000
2000
احمقانه نیست؟
09:31
How could we even dareجرات کن to think
204
556000
2000
ما چطور جرأت میکنیم حتی فکر کنیم
09:33
that we mightممکن ever understandفهمیدن this?
205
558000
3000
که روزی ممکن است پیچیدگی اش را درک کنیم؟
09:38
And yetهنوز, I persistاصرار ورزیدن in this quixoticقهوه ای endeavorتلاش کن.
206
563000
3000
اما من دن کیشوت وار در این تلاش آرمانگرایانه پافشاری میکنم.
09:41
And indeedدر واقع, these daysروزها I harborبندرگاه newجدید hopesامیدوارم.
207
566000
3000
و در واقع، این روزها امید های تازه ای در ذهن میپرورم.
09:45
Somedayروزی,
208
570000
2000
یک روز،
09:47
a fleetناوگان of microscopesمیکروسکوپ will captureگرفتن
209
572000
2000
یک ناوگان بزرگ از میکروسکوپ ها
09:49
everyهرکدام neuronنورون and everyهرکدام synapseسیناپس
210
574000
2000
هر نورون و هر سیناپس را
09:51
in a vastعظیم databaseبانک اطلاعاتی of imagesتصاویر.
211
576000
3000
در دریای عظیمی از عکس ها تصویر میکنند.
09:54
And some day, artificiallyمصنوعی intelligentباهوش - هوشمند supercomputersابر رایانه ها
212
579000
3000
و یک روز، ابررایانه های هوشمند
09:57
will analyzeتجزیه و تحلیل the imagesتصاویر withoutبدون humanانسان assistanceمعاونت
213
582000
3000
این تصاویر را بدون کمک انسان پردازش میکنند
10:00
to summarizeخلاصه کن them in a connectomeاتصال.
214
585000
3000
و آن ها را در یک کانکتوم خلاصه میکنند.
10:04
I do not know, but I hopeامید that I will liveزنده to see that day,
215
589000
3000
نمیدانم، ولی امیدوارم زنده باشم تا آن روز را ببینم.
10:08
because findingیافته an entireکل humanانسان connectomeاتصال
216
593000
2000
چرا که یافتن یک کانکتوم کامل انسان
10:10
is one of the greatestبزرگترین technologicalتکنولوژیکی challengesچالش ها of all time.
217
595000
3000
یکی از بزرگترین چالش های فناوری تاریخ است.
10:13
It will take the work of generationsنسل ها to succeedموفق باش.
218
598000
3000
و برای موفقیت نیاز به تلاش نسل ها دارد.
10:17
At the presentحاضر time, my collaboratorsمشارکت کنندگان and I,
219
602000
3000
در زمان حاضر، آنچه من و همکارانم برایش تلاش میکنیم
10:20
what we're aimingهدف for is much more modestفروتن --
220
605000
2000
هدفی بسیار فروتنانه تر از این است --
10:22
just to find partialجزئي connectomesکومومون
221
607000
2000
یافتن کانکتوم های جزئی
10:24
of tinyکوچک chunksتکه ها of mouseموش and humanانسان brainمغز.
222
609000
3000
از قطعات کوچکی از مغز موش و انسان.
10:27
But even that will be enoughکافی for the first testsآزمایشات of this hypothesisفرضیه
223
612000
3000
و تنها همین برای آزمون های اولیه این فرضیه کافی است
10:30
that I am my connectomeاتصال.
224
615000
3000
که من، یعنی کانکتوم من.
10:35
For now, let me try to convinceمتقاعد کردن you of the plausibilityقابل اعتماد بودن of this hypothesisفرضیه,
225
620000
3000
اکنون اجازه دهید شما را متقاعد کنم که این فرضیه ای معقول است،
10:38
that it's actuallyدر واقع worthارزش takingگرفتن seriouslyبه طور جدی.
226
623000
3000
و در واقع ارزش دارد جدی گرفته شود.
10:42
As you growرشد duringدر حین childhoodدوران کودکی
227
627000
2000
هنگامی که شما در کودکی رشد میکنید،
10:44
and ageسن duringدر حین adulthoodبزرگسالان,
228
629000
3000
و در بزرگسالی پا به سن میگذارید،
10:47
your personalشخصی identityهویت changesتغییرات slowlyبه آرامی.
229
632000
3000
هویت شخصی شما به آهستگی دستخوش تغییر میشود.
10:50
Likewiseبه همین ترتیب, everyهرکدام connectomeاتصال
230
635000
2000
به همین صورت، هر کانکتوم نیز
10:52
changesتغییرات over time.
231
637000
2000
در طول زمان دگرگون میشود.
10:55
What kindsانواع of changesتغییرات happenبه وقوع پیوستن?
232
640000
2000
چه دگرگونی هایی رخ میدهند؟
10:57
Well, neuronsنورون ها, like treesدرختان,
233
642000
2000
نورون ها همانند درختانی،
10:59
can growرشد newجدید branchesشاخه ها,
234
644000
2000
میتوانند شاخه های جدید بر آورند،
11:01
and they can loseاز دست دادن oldقدیمی onesآنهایی که.
235
646000
3000
و شاخه های کهنه را از دست بدهند.
11:04
Synapsesسیناپس ها can be createdایجاد شده,
236
649000
3000
سیناپس ها میتوانند شکل بگیرند،
11:07
and they can be eliminatedحذف شد.
237
652000
3000
و میتوانند از بین بروند.
11:10
And synapsesسیناپس ها can growرشد largerبزرگتر,
238
655000
2000
و سیناپس ها میتوانند بزرگتر شوند،
11:12
and they can growرشد smallerکوچکتر.
239
657000
3000
یا کوچکتر شوند.
11:15
Secondدومین questionسوال:
240
660000
2000
پرسش دوم:
11:17
what causesعلل these changesتغییرات?
241
662000
3000
چه چیزی موجب این دگرگونی ها میشود؟
11:20
Well, it's trueدرست است.
242
665000
2000
خب، درست است.
11:22
To some extentمحدوده, they are programmedبرنامه ریزی شده by your genesژن ها.
243
667000
3000
این تغییرات تا اندازه ای توسط ژن ها برنامه ریزی میشوند.
11:25
But that's not the wholeکل storyداستان,
244
670000
2000
اما این تمام داستان نیست،
11:27
because there are signalsسیگنال ها, electricalالکتریکی signalsسیگنال ها,
245
672000
2000
چرا که سیگنال هایی وجود دارند، سیگنال های الکتریکی،
11:29
that travelمسافرت رفتن alongدر امتداد the branchesشاخه ها of neuronsنورون ها
246
674000
2000
که شاخه های نورون ها را طی میکنند
11:31
and chemicalشیمیایی signalsسیگنال ها
247
676000
2000
و سیگنال های شیمیایی
11:33
that jumpپرش acrossدر سراسر from branchشاخه to branchشاخه.
248
678000
2000
که از شاخه ای به شاخه دیگر میپرند.
11:35
These signalsسیگنال ها are calledبه نام neuralعصبی activityفعالیت.
249
680000
3000
مجموعه این سیگنال ها را فعالیت مغزی مینامند.
11:38
And there's a lot of evidenceشواهد
250
683000
2000
و شواهد بسیاری وجود دارد
11:40
that neuralعصبی activityفعالیت
251
685000
3000
که فعالیت مغزی
11:43
is encodingرمزگذاری our thoughtsاندیشه ها, feelingsاحساسات and perceptionsادراکات,
252
688000
3000
افکار ما، احساسات و ادراک ما
11:46
our mentalذهنی experiencesتجربیات.
253
691000
2000
و تجربیات ذهنی ما را رمز میکند.
11:48
And there's a lot of evidenceشواهد that neuralعصبی activityفعالیت
254
693000
3000
و شواهد بسیاری وجود دارد که فعالیت مغزی
11:51
can causeسبب می شود your connectionsارتباطات to changeتغییر دادن.
255
696000
3000
اتصالات مغز را دگرگون میکند.
11:54
And if you put those two factsحقایق togetherبا یکدیگر,
256
699000
3000
و اگر این دو دانسته را کنار هم بگذاریم،
11:57
it meansبه معنای that your experiencesتجربیات
257
702000
2000
نتیجه میشود که تجربیات شما
11:59
can changeتغییر دادن your connectomeاتصال.
258
704000
3000
میتوانند کانکتوم شما را دگرگون کنند.
12:02
And that's why everyهرکدام connectomeاتصال is uniqueمنحصر بفرد,
259
707000
2000
و از این روست که هر کانکتوم یگانه است،
12:04
even those of geneticallyژنتیکی identicalیکسان twinsدوقلوها.
260
709000
3000
حتا کانکتوم دوقلوهای همسان.
12:08
The connectomeاتصال is where natureطبیعت meetsملاقات می کند nurtureپرورش دهید.
261
713000
3000
کانکتوم جایی ست که «سرشت» و «پرورش» یکدیگر را ملاقات میکنند.
12:12
And it mightممکن trueدرست است
262
717000
2000
و ممکن است درست باشد که
12:14
that just the mereصرفا actعمل کن of thinkingفكر كردن
263
719000
2000
فکر کردن به تنهایی
12:16
can changeتغییر دادن your connectomeاتصال --
264
721000
2000
میتواند کانکتوم شما را تغییر دهد --
12:18
an ideaاندیشه that you mayممکن است find empoweringتوانمندسازی.
265
723000
3000
ایده ای که میتواند انگیزه بخش باشد.
12:24
What's in this pictureعکس?
266
729000
2000
در این تصویر چه میبینید؟
12:28
A coolسرد and refreshingطراوت streamجریان of waterاب, you say.
267
733000
3000
ممکن است بگویید جریان خنک و تازه آب.
12:32
What elseچیز دیگری is in this pictureعکس?
268
737000
2000
دیگر چه میبینید؟
12:37
Do not forgetفراموش کردن that grooveشیار in the Earthزمین
269
742000
2000
آن شیار روی زمین را
12:39
calledبه نام the streamجریان bedبستر.
270
744000
3000
که بستر رودخانه نامیده میشود از قلم نیاندازید.
12:42
Withoutبدون it, the waterاب would not know in whichکه directionجهت to flowجریان.
271
747000
3000
بدون آن آب نمیداند به کدام جهت جاری شود.
12:45
And with the streamجریان,
272
750000
2000
و من میخوام از مثال جریان آب
12:47
I would like to proposeپیشنهاد میکنم a metaphorاستعاره
273
752000
2000
به عنوان یک تشبیه استفاده کنم
12:49
for the relationshipارتباط betweenبین neuralعصبی activityفعالیت
274
754000
2000
برای ارتباط میان فعالیت عصبی
12:51
and connectivityاتصال.
275
756000
2000
و ارتباطات عصبی.
12:54
Neuralعصبی activityفعالیت is constantlyبه طور مداوم changingتغییر دادن.
276
759000
3000
فعالیت عصبی همواره در حال تغییر است.
12:57
It's like the waterاب of the streamجریان; it never sitsنشسته still.
277
762000
3000
مانند آب رودخانه؛ هرگز از حرکت نمی ایستد.
13:00
The connectionsارتباطات
278
765000
2000
ارتباطات شبکه عصبی مغز
13:02
of the brain'sمغز neuralعصبی networkشبکه
279
767000
2000
مسیری که فعالیت عصبی
13:04
determinesتعیین می کند the pathwaysمسیرها
280
769000
2000
در آن جریان می یابد را
13:06
alongدر امتداد whichکه neuralعصبی activityفعالیت flowsجریان دارد.
281
771000
2000
تعیین میکند.
13:08
And so the connectomeاتصال is like bedبستر of the streamجریان;
282
773000
3000
به این طریق، کانکتوم همچون بستر رودخانه است.
13:13
but the metaphorاستعاره is richerغنی تر than that,
283
778000
3000
اما این تشبیه از این نیز غنی تر است.
13:16
because it's trueدرست است that the streamجریان bedبستر
284
781000
3000
زیرا جدا از اینکه که بستر رودخانه
13:19
guidesراهنمایی ها the flowجریان of the waterاب,
285
784000
2000
جریان آب را هدایت میکند،
13:21
but over long timescalesزمانبندی,
286
786000
2000
در دراز مدت،
13:23
the waterاب alsoهمچنین reshapesتغییر شکل the bedبستر of the streamجریان.
287
788000
3000
آب نیز بستر رودخانه را تغییر شکل میدهد.
13:26
And as I told you just now,
288
791000
2000
و همانطور که اندکی پیشتر گفتم،
13:28
neuralعصبی activityفعالیت can changeتغییر دادن the connectomeاتصال.
289
793000
3000
فعالیت عصبی میتواند کانکتوم را تغییر دهد.
13:33
And if you'llشما خواهید بود allowاجازه دادن me to ascendصعود
290
798000
2000
و اگر اجازه بدهید بار دیگر
13:35
to metaphoricalاستعاره heightsارتفاعات,
291
800000
3000
از کلام استعاره کمک بگیرم،
13:38
I will remindیادآوری کن you that neuralعصبی activityفعالیت
292
803000
3000
به یادتان میآورم که فعالیت عصبی
13:41
is the physicalفیزیکی basisپایه -- or so neuroscientistsدانشمندان علوم اعصاب think --
293
806000
2000
بنیاد فیزیکی افکار، احساسات و ادراک است --
13:43
of thoughtsاندیشه ها, feelingsاحساسات and perceptionsادراکات.
294
808000
3000
یا دستکم عصب شناسان اینگونه گمان میکنند.
13:46
And so we mightممکن even speakصحبت of
295
811000
2000
پس بیراه نیست
13:48
the streamجریان of consciousnessآگاهی.
296
813000
2000
اگر از رودخانه هوشیاری صحبت کنیم.
13:50
Neuralعصبی activityفعالیت is its waterاب,
297
815000
3000
فعالیت عصبی آب آن است،
13:53
and the connectomeاتصال is its bedبستر.
298
818000
3000
و کانکتوم بستر آن.
13:57
So let's returnبرگشت from the heightsارتفاعات of metaphorاستعاره
299
822000
2000
بد نیست از قله های استعاره پایین بیاییم
13:59
and returnبرگشت to scienceعلوم پایه.
300
824000
2000
و به دانش برگردیم.
14:01
Supposeفرض کنید our technologiesفن آوری ها for findingیافته connectomesکومومون
301
826000
2000
فرض کنید فناوری های ما برای یافتن کانکتوم
14:03
actuallyدر واقع work.
302
828000
2000
واقعا کار کنند.
14:05
How will we go about testingآزمایش کردن the hypothesisفرضیه
303
830000
2000
چگونه میتوان این فرضیه را آزمود که
14:07
"I am my connectomeاتصال?"
304
832000
3000
که «من، یعنی کانکتوم من»؟
14:10
Well, I proposeپیشنهاد میکنم a directمستقیم testتست.
305
835000
3000
من آزمونی پیشنهاد میکنم که خیلی سر راست است.
14:13
Let us attemptتلاش کنید
306
838000
2000
مثلا فرض کنید بخواهیم
14:15
to readخواندن out memoriesخاطرات from connectomesکومومون.
307
840000
3000
خاطره های یک کانکتوم را بخوانیم.
14:18
Considerدر نظر گرفتن the memoryحافظه
308
843000
2000
حافظه مربوط به یک توالی زمانمند بلند
14:20
of long temporalموقتی sequencesدنباله ها of movementsحرکات,
309
845000
3000
از حرکات را تصور کنید،
14:23
like a pianistپیانیست playingبازی کردن a Beethovenبتهوون sonataسوناتا.
310
848000
3000
مانند یک پیانیست که قطعه سوناتای بتهوون را مینوازد.
14:26
Accordingبا توجه to a theoryتئوری that datesتاریخ back to the 19thth centuryقرن,
311
851000
3000
بنا بر نظریه ای که به قرن نوزدهم بر میگردد،
14:29
suchچنین memoriesخاطرات are storedذخیره شده است
312
854000
2000
اینگونه محفوظات به صورت یک زنجیره اتصالات سیناپسی
14:31
as chainsزنجیر of synapticسیناپسی connectionsارتباطات insideداخل your brainمغز.
313
856000
3000
درون مغز شما ذخیره شده اند.
14:35
Because, if the first neuronsنورون ها in the chainزنجیر are activatedفعال شده,
314
860000
3000
چرا که اگر اولین نورون در این زنجیر فعال شود،
14:38
throughاز طریق theirخودشان synapsesسیناپس ها they sendارسال messagesپیام ها to the secondدومین neuronsنورون ها, whichکه are activatedفعال شده,
315
863000
3000
نورون دوم نیز توسط پیامی که از طریق سیناپس دریافت میکند فعال میشود،
14:41
and so on down the lineخط,
316
866000
2000
و همینطور در طول خط،
14:43
like a chainزنجیر of fallingافتادن dominoesدومینو.
317
868000
2000
مانند زنجیری از مهره های دومینو که می افتند.
14:45
And this sequenceتوالی of neuralعصبی activationفعال سازی
318
870000
2000
و فرض میشود
14:47
is hypothesizedفرضیه to be the neuralعصبی basisپایه
319
872000
3000
که این توالی فعال سازی های عصبی،
14:50
of those sequenceتوالی of movementsحرکات.
320
875000
2000
مبنای توالی آن حرکات است.
14:52
So one way of tryingتلاش کن to testتست the theoryتئوری
321
877000
2000
پس یک راه آزمودن آن نظریه این است
14:54
is to look for suchچنین chainsزنجیر
322
879000
2000
که در درون کانکتوم ها
14:56
insideداخل connectomesکومومون.
323
881000
2000
در پی چنین زنجیرهایی بگردیم.
14:58
But it won'tنخواهد بود be easyآسان, because they're not going to look like this.
324
883000
3000
اما این هرگز آسان نخواهد بود زیرا کانکتوم ها به این سادگی نیستند.
15:01
They're going to be scrambledتقلا کرد up.
325
886000
2000
بلکه بسیار پیچیده و در هم تنیده اند.
15:03
So we'llخوب have to use our computersکامپیوترها
326
888000
2000
پس قطعا به رایانه هایمان نیاز خواهیم داشت
15:05
to try to unscrambleunscramble the chainزنجیر.
327
890000
3000
تا این زنجیرهای در هم و بر هم را باز کنند.
15:08
And if we can do that,
328
893000
2000
و اگر موفق شویم،
15:10
the sequenceتوالی of the neuronsنورون ها we recoverبهبود پیدا کن from that unscramblingرمز نگاری
329
895000
3000
توالی نورون هایی که بدست میآوریم
15:13
will be a predictionپیش بینی of the patternالگو of neuralعصبی activityفعالیت
330
898000
3000
پیشگویی الگوی فعالیت عصبی خواهد بود
15:16
that is replayedپخش شد in the brainمغز duringدر حین memoryحافظه recallبه خاطر آوردن.
331
901000
3000
که در هنگام به یاد آوردن محفوظات بازپخش میشود.
15:19
And if that were successfulموفق شدن,
332
904000
2000
و باز اگر موفق شویم،
15:21
that would be the first exampleمثال of readingخواندن a memoryحافظه from a connectomeاتصال.
333
906000
3000
این نخستین مثال خواندن حافظه از یک کانکتوم خواهد بود.
15:28
(Laughterخنده)
334
913000
2000
(خنده)
15:30
What a messبهم ریختگی --
335
915000
2000
چه شیر تو شیری!
15:33
have you ever triedتلاش کرد to wireسیم up a systemسیستم
336
918000
2000
آیا تا به حال تلاش کرده اید سامانه ای به این پیچیدگی را
15:35
as complexپیچیده as this?
337
920000
2000
سیم کشی کنید؟
15:37
I hopeامید not.
338
922000
2000
امیدوارم نکرده باشید!
15:39
But if you have, you know it's very easyآسان to make a mistakeاشتباه.
339
924000
3000
اما اگر کرده باشید، میدانید که اشتباه کردن بسیار آسان است.
15:45
The branchesشاخه ها of neuronsنورون ها are like the wiresسیم ها of the brainمغز.
340
930000
2000
شاخه های نورون ها شبیه سیم کشی های مغز اند.
15:47
Can anyoneهر کسی guessحدس بزن: what's the totalجمع lengthطول of wiresسیم ها in your brainمغز?
341
932000
4000
کسی از شما میداند طول کل سیم های درون مغز شما چقدر است؟
15:54
I'll give you a hintاشاره کردن. It's a bigبزرگ numberعدد.
342
939000
2000
اجازه بدهید راهنماییتان کنم: خیلی زیاد است!
15:56
(Laughterخنده)
343
941000
2000
(خنده)
15:59
I estimateتخمین زدن, millionsمیلیون ها نفر of milesمایل,
344
944000
3000
حدس من میلیون ها کیلومتر است.
16:02
all packedبسته بندی شده in your skullجمجمه.
345
947000
3000
این همه در جمجمه شما بسته بندی شده است.
16:05
And if you appreciateقدردانی that numberعدد,
346
950000
2000
و اگر به بزرگی این عدد فکر کنید
16:07
you can easilyبه آسانی see
347
952000
2000
میبینید که ظرفیت بسیار بالایی برای بروز خطا
16:09
there is hugeبزرگ potentialپتانسیل for mis-wiringاشتباه سیم کشی of the brainمغز.
348
954000
2000
در سیمکشی مغز وجود دارد.
16:11
And indeedدر واقع, the popularمحبوب pressمطبوعات lovesدوست دارد headlinesسرفصل ها like,
349
956000
3000
و چقدر هم روزنامه ها و مجلات تیترهایی از این قبیل را دوست دارند:
16:14
"Anorexicبی نظیر brainsمغز are wiredسیمی differentlyمتفاوت است,"
350
959000
2000
«سیمکشی متفاوت مغز عامل کم اشتهایی بیمارگونه»
16:16
or "Autisticاوتیستیک brainsمغز are wiredسیمی differentlyمتفاوت است."
351
961000
2000
یا «مغز بیماران اوتیسم سیمکشی متفاوتی دارد.»
16:18
These are plausibleمحتمل claimsادعاها,
352
963000
2000
این ها ادعاهای قابل توجهی هستند،
16:20
but in truthحقیقت,
353
965000
2000
اما در حقیقت
16:22
we can't see the brain'sمغز wiringسیم کشی clearlyبه وضوح enoughکافی
354
967000
2000
ما هنوز نمیتوانیم سیمکشی مغز را به اندازه کافی به روشنی ببینیم
16:24
to tell if these are really trueدرست است.
355
969000
2000
تا بتوانیم درستی آن ها را آزمایش کنیم.
16:26
And so the technologiesفن آوری ها for seeingدیدن connectomesکومومون
356
971000
3000
بدین سان فناوری های ما برای دیدن کانکتوم ها
16:29
will allowاجازه دادن us to finallyسرانجام
357
974000
2000
نهایتا ما را قادر میسازند
16:31
readخواندن mis-wiringاشتباه سیم کشی of the brainمغز,
358
976000
2000
سیمکشی های اشتباه مغز را نیز بخوانیم،
16:33
to see mentalذهنی disordersاختلالات in connectomesکومومون.
359
978000
3000
و ناهنجاری های روانی را هم در کانکتوم ها ببینیم.
16:40
Sometimesگاهی the bestبهترین way to testتست a hypothesisفرضیه
360
985000
3000
گاهی بهترین راه برای آزمودن یک فرضیه
16:43
is to considerدر نظر گرفتن its mostاکثر extremeمفرط implicationپیامد.
361
988000
3000
در نظر گرفتن افراطی ترین نتایج آن است.
16:46
Philosophersفیلسوفان know this gameبازی very well.
362
991000
3000
فیلسوفان این بازی را خیلی خوب میدانند.
16:50
If you believe that I am my connectomeاتصال,
363
995000
3000
اگر باور داشته باشید که من، یعنی کانکتوم من، به همین طریق باید بپذیرید كه مرگ فروپاشی کانکتوم شماست.
16:53
I think you mustباید alsoهمچنین acceptقبول کردن the ideaاندیشه
364
998000
3000
اگر باور داشته باشید که من، یعنی کانکتوم من، به همین طریق باید بپذیرید كه مرگ فروپاشی کانکتوم شماست.
16:56
that deathمرگ is the destructionتخریب
365
1001000
2000
اگر باور داشته باشید که من، یعنی کانکتوم من، به همین طریق باید بپذیرید كه مرگ فروپاشی کانکتوم شماست.
16:58
of your connectomeاتصال.
366
1003000
3000
اگر باور داشته باشید که من، یعنی کانکتوم من، به همین طریق باید بپذیرید كه مرگ فروپاشی کانکتوم شماست.
17:02
I mentionاشاره this because there are prophetsپیامبران todayامروز
367
1007000
3000
این را مطرح میکنم چرا که امروز پیامبرانی هستند
17:05
who claimادعا that technologyتکنولوژی
368
1010000
3000
که ادعا میکنند
17:08
will fundamentallyاساسا alterتغییر دادن the humanانسان conditionوضعیت
369
1013000
3000
فناوری شرایط زندگی بشر را به طور بنیادی دگرگون خواهد کرد
17:11
and perhapsشاید even transformتبدیل the humanانسان speciesگونه ها.
370
1016000
3000
و حتی موجب دگرگونی گونه انسان میشود.
17:14
One of theirخودشان mostاکثر cherishedگرامی باد dreamsرویاها
371
1019000
3000
یکی از پرطرفدارترین رویاهای آن ها این است
17:17
is to cheatتقلب کردن deathمرگ
372
1022000
2000
که با استفاده از انجماد اجساد
17:19
by that practiceتمرین knownشناخته شده as cryonicsگاو نر.
373
1024000
2000
مرگ را دور بزنند.
17:21
If you payپرداخت 100,000 dollarsدلار,
374
1026000
2000
اگر شما حاضر باشید ۱۰۰٫۰۰۰ دلار پول بدهید،
17:23
you can arrangeترتیب دادن to have your bodyبدن frozenمنجمد after deathمرگ
375
1028000
3000
میتوانید وصیت کنید که بدنتان را بعد از مرگ
17:26
and storedذخیره شده است in liquidمایع nitrogenنیتروژن
376
1031000
2000
در یکی از این مخازن در انباری در آریزونا،
17:28
in one of these tanksمخازن in an Arizonaآریزونا warehouseانبار,
377
1033000
2000
در نیتروژن مایع نگهداری کنند،
17:30
awaitingچشم انتظار a futureآینده civilizationتمدن
378
1035000
2000
در انتظار تمدنی پیشرفته در آینده
17:32
that is advancedپیشرفته to resurrectاحیای you.
379
1037000
3000
که بتواند شما را زنده کند.
17:36
Should we ridiculeمسخره کردن the modernمدرن seekersپناهجویان of immortalityجاودانگی,
380
1041000
2000
آیا جا دارد این جویندگان مدرن بیمرگی را مسخره کنیم و
17:38
callingصدا زدن them foolsاحمق ها?
381
1043000
2000
آن ها را احمق بنامیم؟
17:40
Or will they somedayروزی chuckleخندیدن
382
1045000
2000
یا آن ها روزی بالای سر قبر ما
17:42
over our gravesگورها?
383
1047000
2000
به ما پوزخند خواهند زد؟؟
17:45
I don't know --
384
1050000
2000
نمیدانم.
17:47
I preferترجیح می دهند to testتست theirخودشان beliefsاعتقادات, scientificallyاز نظر علمی.
385
1052000
3000
من ترجیح میدهم باورهای آن را به صورت علمی آزمون کنم.
17:50
I proposeپیشنهاد میکنم that we attemptتلاش کنید to find a connectomeاتصال
386
1055000
2000
من پیشنهاد میکنم که تلاش کنیم تا
17:52
of a frozenمنجمد brainمغز.
387
1057000
2000
کانکتوم یک مغز منجمد را پیدا کنیم.
17:54
We know that damageخسارت to the brainمغز
388
1059000
2000
میدانیم که پس از مرگ و حتی در حال انجماد
17:56
occursاتفاق می افتد after deathمرگ and duringدر حین freezingانجماد.
389
1061000
2000
مغز دچار آسیب خواهد شد.
17:58
The questionسوال is: has that damageخسارت erasedپاک شده the connectomeاتصال?
390
1063000
3000
حال پرسش این است که آیا این آسیب ها کانکتوم را پاک میکنند؟
18:01
If it has, there is no way that any futureآینده civilizationتمدن
391
1066000
3000
اگر چنین باشد، دیگر هیچ راهی وجود ندارد که تمدنی در آینده
18:04
will be ableتوانایی to recoverبهبود پیدا کن the memoriesخاطرات of these frozenمنجمد brainsمغز.
392
1069000
3000
بتواند حافظه های این مغزهای منجمد را بازخوانی کند.
18:07
Resurrectionقیامت mightممکن succeedموفق باش for the bodyبدن,
393
1072000
2000
ممکن است بتوان بدن ها را زنده کرد،
18:09
but not for the mindذهن.
394
1074000
2000
اما مغزها را نه.
18:11
On the other handدست, if the connectomeاتصال is still intactسالم,
395
1076000
3000
اما اگر کانکتوم همچنان دست نخورده مانده باشد،
18:14
we cannotنمی توان ridiculeمسخره کردن the claimsادعاها of cryonicsگاو نر so easilyبه آسانی.
396
1079000
3000
نمیتوان به سادگی ادعاهای طرفداران انجماد را به سخره گرفت.
18:20
I've describedشرح داده شده a questجستجو
397
1085000
2000
من در این سخنرانی جویشی را تشریح کردم
18:22
that beginsشروع می شود in the worldجهان of the very smallکوچک,
398
1087000
3000
که از دنیای چیزهای بسیار کوچک آغاز میشود،
18:25
and propelsحرکت می کند us to the worldجهان of the farدور futureآینده.
399
1090000
3000
و ما را تا دنیای آینده های دور پیش میبرد.
18:28
Connectomesارتباطات will markعلامت a turningچرخش pointنقطه in humanانسان historyتاریخ.
400
1093000
3000
کانکتوم ها نقطه عطفی را در تاریخ بشر رقم خواهند زد.
18:32
As we evolvedتکامل یافته است from our ape-likeمگس مانند ancestorsاجداد
401
1097000
2000
آن زمان که ما از اجداد میمون-مانندمان فرگشت (تکامل) پیدا میکردیم،
18:34
on the Africanآفریقایی savannaساوانا,
402
1099000
2000
در ساوانای افریقا،
18:36
what distinguishedبرجسته us was our largerبزرگتر brainsمغز.
403
1101000
3000
آنچه ما را متمایز میکرد مغزهای بزرگتر ما بود.
18:40
We have used our brainsمغز to fashionمد
404
1105000
2000
ما مغزهایمان را بکار بستیم
18:42
ever more amazingحیرت آور technologiesفن آوری ها.
405
1107000
3000
تا فناوری های حتی شگفت انگیز تری را شکل دهیم.
18:45
Eventuallyدر نهایت, these technologiesفن آوری ها will becomeتبدیل شدن به so powerfulقدرتمند
406
1110000
3000
روزی آخر این فناوری ها چنان قدرتمند خواهند شد
18:48
that we will use them to know ourselvesخودمان
407
1113000
3000
که آن ها را بکار خواهیم بست تا خودمان را بشناسیم،
18:51
by deconstructingdeconstructing and reconstructingبازسازی
408
1116000
3000
با پیاده کردن و بازساختن مغزهای خودمان.
18:54
our ownخودت brainsمغز.
409
1119000
3000
با پیاده کردن و بازساختن مغزهای خودمان.
18:57
I believe that this voyageسفر دریایی of self-discoveryخودآزمایی
410
1122000
3000
من باور دارم این سفر دراز خودشناسی
19:00
is not just for scientistsدانشمندان,
411
1125000
3000
نه فقط برای دانشمندان،
19:03
but for all of us.
412
1128000
2000
که برای همه ماست.
19:05
And I'm gratefulسپاسگزار for the opportunityفرصت to shareاشتراک گذاری this voyageسفر دریایی with you todayامروز.
413
1130000
3000
و خوشحالم که امروز شما را در این سفر همراه خودم داشتم.
19:08
Thank you.
414
1133000
2000
سپاسگزارم.
19:10
(Applauseتشویق و تمجید)
415
1135000
8000
(برگردان: امیر صابری)
Translated by Amir Saberi
Reviewed by mahmood rokni

▲Back to top

ABOUT THE SPEAKER
Sebastian Seung - Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain.

Why you should listen

In the brain, neurons are connected into a complex network. Sebastian Seung and his lab at MIT are inventing technologies for identifying and describing the connectome, the totality of connections between the brain's neurons -- think of it as the wiring diagram of the brain. We possess our entire genome at birth, but things like memories are not "stored" in the genome; they are acquired through life and accumulated in the brain. Seung's hypothesis is that "we are our connectome," that the connections among neurons is where memories and experiences get stored.

Seung and his collaborators, including Winfried Denk at the Max Planck Institute and Jeff Lichtman at Harvard University, are working on a plan to thin-slice a brain (probably starting with a mouse brain) and trace, from slice to slice, each neural pathway, exposing the wiring diagram of the brain and creating a powerful new way to visualize the workings of the mind. They're not the first to attempt something like this -- Sydney Brenner won a Nobel for mapping all the 7,000 connections in the nervous system of a tiny worm, C. elegans. But that took his team a dozen years, and the worm only had 302 nerve cells. One of Seung's breakthroughs is in using advanced imagining and AI to handle the crushing amount of data that a mouse brain will yield and turn it into richly visual maps that show the passageways of thought and sensation.

More profile about the speaker
Sebastian Seung | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee