ABOUT THE SPEAKER
Sebastian Seung - Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain.

Why you should listen

In the brain, neurons are connected into a complex network. Sebastian Seung and his lab at MIT are inventing technologies for identifying and describing the connectome, the totality of connections between the brain's neurons -- think of it as the wiring diagram of the brain. We possess our entire genome at birth, but things like memories are not "stored" in the genome; they are acquired through life and accumulated in the brain. Seung's hypothesis is that "we are our connectome," that the connections among neurons is where memories and experiences get stored.

Seung and his collaborators, including Winfried Denk at the Max Planck Institute and Jeff Lichtman at Harvard University, are working on a plan to thin-slice a brain (probably starting with a mouse brain) and trace, from slice to slice, each neural pathway, exposing the wiring diagram of the brain and creating a powerful new way to visualize the workings of the mind. They're not the first to attempt something like this -- Sydney Brenner won a Nobel for mapping all the 7,000 connections in the nervous system of a tiny worm, C. elegans. But that took his team a dozen years, and the worm only had 302 nerve cells. One of Seung's breakthroughs is in using advanced imagining and AI to handle the crushing amount of data that a mouse brain will yield and turn it into richly visual maps that show the passageways of thought and sensation.

More profile about the speaker
Sebastian Seung | Speaker | TED.com
TEDGlobal 2010

Sebastian Seung: I am my connectome

세바스챤 승: 나는 나의 코넥텀이다

Filmed:
1,131,223 views

세바스챤 승은 뉴런 사이에 있는 연결에 집중하는 거대하고 야망적인 새로운 뇌의 새로운 모델을 지도화합니다. 그는 이것을 우리의 "코넥텀"이라고 부릅니다. 코넥텀은 우리의 게놈과 같이 개별적입니다. 이것을 이해하는 것은 우리의 뇌와 마음을 이해하는 새로운 방법을 열 수 있게 합니다.
- Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain. Full bio

Double-click the English transcript below to play the video.

00:17
We live살고 있다 in in a remarkable주목할 만한 time,
0
2000
3000
우리는 놀라운 게놈 세대에
00:20
the age나이 of genomics유전체학.
1
5000
3000
살고있습니다.
00:23
Your genome게놈 is the entire완전한 sequence순서 of your DNADNA.
2
8000
3000
여러분의 게놈은 전체적인 DNA의 특정한 배열입니다.
00:26
Your sequence순서 and mine광산 are slightly약간 different다른.
3
11000
3000
여러분과 저는 배열에 약간의 차이가 있죠.
00:29
That's why we look different다른.
4
14000
2000
이때문에 우리가 다르게 생긴 것입니다.
00:31
I've got brown갈색 eyes;
5
16000
2000
저는 갈색 눈을 가지고 있습니다.
00:33
you might have blue푸른 or gray회색.
6
18000
3000
여러분은 아마도 희색이나, 파란색 눈이시겠죠.
00:36
But it's not just skin-deep깊은 피부.
7
21000
2000
하지만 이것은 단지 피부의 깊이를 뜻하지는 않습니다.
00:38
The headlines헤드 라인 tell us
8
23000
2000
이 제목은 유전자가
00:40
that genes유전자 can give us scary무서운 diseases질병,
9
25000
3000
우리에게 무서운 질명을 줄 수 있거나,
00:43
maybe even shape모양 our personality인격,
10
28000
3000
심지어 우리의 성격을 형성하며,
00:46
or give us mental지적인 disorders장애.
11
31000
3000
혹은 정신병을 줄 수 있다고 전합니다.
00:49
Our genes유전자 seem보다 to have
12
34000
3000
우리의 유전자는
00:52
awesome대단한 power over our destinies운명.
13
37000
3000
우리의 운명을 짓는 놀라운 힘을 가진 것처처럼 보입니다.
00:56
And yet아직, I would like to think
14
41000
3000
아직도, 저는 제가 제 유전자보다
00:59
that I am more than my genes유전자.
15
44000
3000
높은 존재라고 생각하는 것을 좋아합니다.
01:04
What do you guys think?
16
49000
2000
여러분들은 어떻게 생각하시나요?
01:06
Are you more than your genes유전자?
17
51000
3000
유전자보다 여러분이 더 높은 존재인가요?
01:09
(Audience청중: Yes.) Yes?
18
54000
2000
(관객:예)그런가요?
01:13
I think some people agree동의하다 with me.
19
58000
2000
몇몇 분께서 동의하신다고 생각합니다.
01:15
I think we should make a statement성명서.
20
60000
2000
저는 우리가 언급해야 된다고 생각합니다.
01:17
I think we should say it all together함께.
21
62000
2000
모두가 함께 이것을 말해야한다고 생각합니다.
01:20
All right: "I'm more than my genes유전자" -- all together함께.
22
65000
3000
좋습니다:"나는 내 유전자보다 높은 존재다" -- 다함께.
01:23
Everybody각자 모두: I am more than my genes유전자.
23
68000
4000
모두: 나는 내 유전자보다 높은 존재이다.
01:27
(Cheering응원)
24
72000
2000
(환호)
01:30
Sebastian세바스찬 Seung: What am I?
25
75000
2000
세바스챤 승: 나란 존재가 뭔데?
01:32
(Laughter웃음)
26
77000
3000
(웃음)
01:35
I am my connectomeconnectome.
27
80000
3000
나는 나의 코넥텀입니다.
01:40
Now, since이후 you guys are really great,
28
85000
2000
지금, 여러분은 정말로 훌륭하신 분들이기 때문에,
01:42
maybe you can humor기분 me and say this all together함께 too.
29
87000
2000
아마도 이 주장을 모두 다함께 말함으로써 저를 웃기실 수 있습니다.
01:44
(Laughter웃음)
30
89000
2000
(웃음)
01:46
Right. All together함께 now.
31
91000
2000
맞습니다. 모두 다 함께 지금.
01:48
Everybody각자 모두: I am my connectomeconnectome.
32
93000
3000
모두: 나는 나의 코넥텀이다.
01:53
SSSS: That sounded소리를 냈다 great.
33
98000
2000
SS: 좋은 생각처럼 들리네요.
01:55
You know, you guys are so great, you don't even know what a connectomeconnectome is,
34
100000
2000
알다시피, 여러분은 매우 훌륭하십니다, 코넥텀이 무엇인지도 몰르면서,
01:57
and you're willing자발적인 to play놀이 along...을 따라서 with me.
35
102000
2000
저를 따라 기꺼이 이렇게 말해주시니
01:59
I could just go home now.
36
104000
3000
지금 당장 집으로 갈 수 있겠네요.
02:02
Well, so far멀리 only one connectomeconnectome is known알려진,
37
107000
3000
음, 오직 지금까지 하나의 코넥텀이 알려졌습니다,
02:05
that of this tiny작은 worm벌레.
38
110000
3000
이 작은 벌레의 것이죠.
02:08
Its modest겸손한 nervous강한 system체계
39
113000
2000
300 개의 뉴런을 포함하고 있는
02:10
consists구성되어있다 of just 300 neurons뉴런.
40
115000
2000
적당한 크기의 신경 시스템입니다.
02:12
And in the 1970s and '80s,
41
117000
2000
1970,80년 대에,
02:14
a team of scientists과학자들
42
119000
2000
한 과학자 팀이
02:16
mapped맵핑 된 all 7,000 connections사이
43
121000
2000
뉴런들 사이에 있는 7,000 개의
02:18
between중에서 the neurons뉴런.
44
123000
2000
연결을 지도화 했습니다.
02:21
In this diagram도표, every...마다 node마디 is a neuron뉴런,
45
126000
2000
이 다이어 그램에, 모든 점은 뉴런입니다,
02:23
and every...마다 line is a connection연결.
46
128000
2000
모든 선은 연결이죠.
02:25
This is the connectomeconnectome
47
130000
2000
이것은 선충벌레의
02:27
of the worm벌레 C. elegans엘레강스.
48
132000
4000
코넥텀입니다.
02:31
Your connectomeconnectome is far멀리 more complex복잡한 than this
49
136000
3000
여러분의 코넥텀은 이것 보다 좀더 복잡합니다,
02:34
because your brain
50
139000
2000
여러분의 뇌가
02:36
contains포함하다 100 billion십억 neurons뉴런
51
141000
2000
천억 개의 뉴런을 포함하며,
02:38
and 10,000 times타임스 as many많은 connections사이.
52
143000
3000
만 배 많은 연결을 가지고 있기 때문입니다.
02:41
There's a diagram도표 like this for your brain,
53
146000
2000
여러분 뇌에 관한 이 것은 다이어그램과 같죠,
02:43
but there's no way it would fit적당한 on this slide슬라이드.
54
148000
3000
하지만 이 슬라이드 크기에 맞출 방법은 없습니다.
02:47
Your connectomeconnectome contains포함하다 one million백만 times타임스 more connections사이
55
152000
3000
여러분의 코넥텀은 여러분 게놈이 가지고 있는 기호보다
02:50
than your genome게놈 has letters편지.
56
155000
3000
백만 배 더 많은 연결을 가지고 있습니다.
02:53
That's a lot of information정보.
57
158000
2000
그것은 많은 정보입니다.
02:55
What's in that information정보?
58
160000
3000
그 정보가 무엇일까요?
02:59
We don't know for sure, but there are theories이론들.
59
164000
3000
정확히 우리는 알지 못합니다, 하지만 이론들이 있습니다.
03:02
Since이후 the 19th century세기, neuroscientists신경 과학자 have speculated추측 된
60
167000
3000
19세기 부터 시작해서, 신경과학자들은
03:05
that maybe your memories기억 --
61
170000
2000
자신을 만드는 정보
03:07
the information정보 that makes~을 만든다 you, you --
62
172000
2000
즉 기억을 연구해왔습니다.
03:09
maybe your memories기억 are stored저장된
63
174000
2000
아마도 사람들의 기억은 뇌의 뉴런 사이에 있는
03:11
in the connections사이 between중에서 your brain's두뇌 neurons뉴런.
64
176000
2000
연결에 저장 되어 있을지 모릅니다.
03:15
And perhaps혹시 other aspects상들 of your personal개인적인 identity정체 --
65
180000
2000
아마도 성격 정체성의 다른 측면,
03:17
maybe your personality인격 and your intellect지력 --
66
182000
3000
성격과 지능 역시
03:20
maybe they're also또한 encoded암호화 된
67
185000
2000
아마도 그것들은 뉴런 사이의
03:22
in the connections사이 between중에서 your neurons뉴런.
68
187000
3000
연결에 기호화 되있을지 모릅니다.
03:26
And so now you can see why I proposed제안 된 this hypothesis가설:
69
191000
3000
이렇게 지금 여러분은 제가 왜 이 가정을 제안하는지 아실 수 있습니다 ;
03:29
I am my connectomeconnectome.
70
194000
3000
나는 나의 코넥텀입니다.
03:32
I didn't ask청하다 you to chant성가 it because it's true참된;
71
197000
3000
이것은 사실이기 때문에 여러분께 이것을 되풀이하도록 부탁하지는 않았습니다,
03:35
I just want you to remember생각해 내다 it.
72
200000
2000
저는 여러분께서 이 사실을 기억하시기를 바랍니다.
03:37
And in fact, we don't know if this hypothesis가설 is correct옳은,
73
202000
2000
사실상, 우리는 이 가정이 정확하지 모릅니다,
03:39
because we have never had technologies기술
74
204000
2000
이것을 검사할 강력한 기술을 충분히
03:41
powerful강한 enough충분히 to test테스트 it.
75
206000
2000
가져본적이 없기 때문입니다.
03:44
Finding발견 that worm벌레 connectomeconnectome
76
209000
3000
그 벌레의 코넥텀을 찾는 것은
03:47
took~했다 over a dozen다스 years연령 of tedious지루한 labor노동.
77
212000
3000
12년 동안 지루한 노동을 주었죠.
03:50
And to find the connectomes커넥터 of brains두뇌 more like our own개인적인,
78
215000
3000
사람의 뇌와 같은 뇌의 코넥텀을 찾으려면,
03:53
we need more sophisticated매우 복잡한 technologies기술, that are automated자동화 된,
79
218000
3000
우리는 자동적으로, 코넥텀을 찾는 과정에 속도를 올리는
03:56
that will speed속도 up the process방법 of finding발견 connectomes커넥터.
80
221000
3000
좀더 복잡한 기술이 필요합니다.
03:59
And in the next다음 것 few조금 minutes의사록, I'll tell you about some of these technologies기술,
81
224000
3000
몇분 후에, 저는 여러분께 몇몇 이 기술에 대해 이야기 할 것입니다,
04:02
which어느 are currently현재 under아래에 development개발
82
227000
2000
이 기술은 최근에 저의 연구소와
04:04
in my lab and the labs실험실 of my collaborators공동 작업자.
83
229000
3000
동료 연구소에서 있었던 발전 사항입니다.
04:08
Now you've probably아마 seen pictures영화 of neurons뉴런 before.
84
233000
3000
지금 여러분은 아마도 이전에 보았던 뉴런 사진을 보고 계십니다.
04:11
You can recognize인정하다 them instantly
85
236000
2000
즉각적으로 그것들을 인식하실 수 있습니다
04:13
by their그들의 fantastic환상적인 shapes도형.
86
238000
3000
그들의 환상적인 모양에 의해 말이죠.
04:16
They extend넓히다 long and delicate섬세한 branches가지,
87
241000
3000
뉴런은 기고 섬세한 가지를 뻗쳐나갑니다,
04:19
and in short짧은, they look like trees나무.
88
244000
3000
간략하게 말해 나무가지처럼 보입니다.
04:22
But this is just a single단일 neuron뉴런.
89
247000
3000
하지만 이것은 하나의 뉴런입니다.
04:25
In order주문 to find connectomes커넥터,
90
250000
2000
코넥텀을 찾기위해,
04:27
we have to see all the neurons뉴런 at the same같은 time.
91
252000
3000
우리는 모든 뉴런을 동시에 봐야합니다.
04:30
So let's meet만나다 Bobby순경 Kasthuri카 주리,
92
255000
2000
하버드 대학에 있는
04:32
who works공장 in the laboratory실험실 of Jeff제프 Lichtman리히트 만
93
257000
2000
제프 라히 만 연구소에 일하고 있는
04:34
at Harvard하버드 University대학.
94
259000
2000
Bobby Kasthuri를 만나봅시다
04:36
Bobby순경 is holding보유 fantastically환상적으로 thin얇은 slices조각
95
261000
2000
Bobby는 환상적으로 얇은 쥐의 뇌 단면을
04:38
of a mouse brain.
96
263000
2000
가지고 있습니다.
04:40
And we're zooming확대 in by a factor인자 of 100,000 times타임스
97
265000
3000
십만 배로 확대하고 있습니다
04:44
to obtain얻다 the resolution해결,
98
269000
2000
이 해답을 얻기 위한 것이죠,
04:46
so that we can see the branches가지 of neurons뉴런 all at the same같은 time.
99
271000
3000
그래서 우리가 뉴러 가지를 동시에 볼 수 있습니다.
04:50
Except, you still may할 수있다 not really recognize인정하다 them,
100
275000
3000
예외가 있다면, 여전히 정말로 그것들을 못 알아볼지 모릅니다,
04:53
and that's because we have to work in three dimensions치수.
101
278000
3000
그렇기 때문에 우리는 3차원 작업을 해야만 합니다.
04:56
If we take many많은 images이미지들 of many많은 slices조각 of the brain
102
281000
2000
우리가 만약 뇌의 많은 단면 이미지를 가지고
04:58
and stack스택 them up,
103
283000
2000
그것들을 쌓는다면,
05:00
we get a three-dimensional입체의 image영상.
104
285000
2000
우리는 3차원 이미지를 가지게 됩니다.
05:02
And still, you may할 수있다 not see the branches가지.
105
287000
2000
여전히 우리는 그 가지을 못 볼지 모릅니다.
05:04
So we start스타트 at the top상단,
106
289000
2000
상단에서 시작합니다,
05:06
and we color색깔 in the cross-section교차 구역 of one branch분기 in red빨간,
107
291000
3000
하나의 가지에 빨간 색으로 색을 입히고,
05:09
and we do that for the next다음 것 slice일부분
108
294000
2000
다음 단면을 위해
05:11
and for the next다음 것 slice일부분.
109
296000
2000
얇게 자릅니다.
05:13
And we keep on doing that,
110
298000
2000
이 단면 작업을
05:15
slice일부분 after slice일부분.
111
300000
3000
지속적으로 합니다.
05:18
If we continue잇다 through...을 통하여 the entire완전한 stack스택,
112
303000
2000
이 전체적인 쌓아 올리는 작업을 통해 계속한다면,
05:20
we can reconstruct재건하다 the three-dimensional입체의 shape모양
113
305000
3000
뉴런 가지의 작은 부분을
05:23
of a small작은 fragment파편 of a branch분기 of a neuron뉴런.
114
308000
3000
3차원으로 재 설립할 수 있습니다.
05:26
And we can do that for another다른 neuron뉴런 in green녹색.
115
311000
2000
녹색으로 덟힌 다른 뉴런에도 이 작업을 할 수 있습니다.
05:28
And you can see that the green녹색 neuron뉴런 touches감동 the red빨간 neuron뉴런
116
313000
2000
녹색 뉴런이 빨간 뉴런이 두 장소에서 접하고 있는 것을
05:30
at two locations위치들,
117
315000
2000
보실수 있습니다.
05:32
and these are what are called전화 한 synapses시냅스.
118
317000
2000
이것들을 우리는 시냅스라고 하죠.
05:34
Let's zoom in on one synapse시냅스,
119
319000
2000
하나의 시냅스를 확대해보죠.
05:36
and keep your eyes on the interior내부 of the green녹색 neuron뉴런.
120
321000
3000
녹색 뉴런 내부에 눈을 떼지 마세요.
05:39
You should see small작은 circles동그라미 --
121
324000
2000
작은 원을 보시게 됩니다.
05:41
these are called전화 한 vesicles소포.
122
326000
3000
이것들은 소포라고 하죠.
05:44
They contain있다 a molecule분자 know as a neurotransmitter신경 전달 물질.
123
329000
3000
그것들은 신경전달물질로 알고있는 분자를 포함하고 있습니다.
05:47
And so when the green녹색 neuron뉴런 wants to communicate소통하다,
124
332000
2000
녹색 뉴런이 의사소통하고 싶을 때,
05:49
it wants to send보내다 a message메시지 to the red빨간 neuron뉴런,
125
334000
2000
소포는 빨간 뉴런에게 메세지를 전다하고 싶어합니다,
05:51
it spits침침한 out neurotransmitter신경 전달 물질.
126
336000
3000
신경전달물질을 전달하죠.
05:54
At the synapse시냅스, the two neurons뉴런
127
339000
2000
시냅스에서, 두 뉴런들은
05:56
are said to be connected연결된
128
341000
2000
연결 되었다고 말하죠
05:58
like two friends친구 talking말하는 on the telephone전화.
129
343000
3000
마치 두 친구가 전화상으로 이야기하는 것처럼 말이죠.
06:02
So you see how to find a synapse시냅스.
130
347000
2000
이렇게 여러분은 시냅스를 찾는 방법을 보고 계십니다.
06:04
How can we find an entire완전한 connectomeconnectome?
131
349000
3000
우리가 어떻게 총체적인 코넥텀을 찾을 수 있을까요?
06:07
Well, we take this three-dimensional입체의 stack스택 of images이미지들
132
352000
3000
음, 우리는 3차원 이미지를 가져와
06:10
and treat it as a gigantic거인 같은 three-dimensional입체의 coloring착색 book도서.
133
355000
3000
거대한 3차원 컬러링북으로 다루었습니다.
06:13
We color색깔 every...마다 neuron뉴런 in, in a different다른 color색깔,
134
358000
3000
모든 뉴런에 다른 색깔로 색을 입히고,
06:16
and then we look through...을 통하여 all of the images이미지들,
135
361000
2000
이후 모든 이미지를 통하여 보았으며
06:18
find the synapses시냅스
136
363000
2000
시냅스를 찾고
06:20
and note노트 the colors그림 물감 of the two neurons뉴런 involved뒤얽힌 in each마다 synapse시냅스.
137
365000
3000
각각의 시냅스에 연관있는 색이 있는 두개의 뉴런을 주목했습니다.
06:23
If we can do that throughout전역 all the images이미지들,
138
368000
3000
우리가 만약 모든 이미지를 통하여 그것들을 할 수 있다면,
06:26
we could find a connectomeconnectome.
139
371000
2000
코넥텀을 찾을 수 있었습니다.
06:29
Now, at this point포인트,
140
374000
2000
지금, 이 순간,
06:31
you've learned배운 the basics기초 of neurons뉴런 and synapses시냅스.
141
376000
2000
기본적인 뉴런과 시냅스를 배우셨습니다.
06:33
And so I think we're ready준비된 to tackle태클
142
378000
2000
그럼 저는 이제 우리가 신경과학에서
06:35
one of the most가장 important중대한 questions질문들 in neuroscience신경 과학:
143
380000
3000
가장 중요한 질문 중 하나를 다룰 준비가 되어 있다고 생각합니다;
06:39
how are the brains두뇌 of men남자 and women여자들 different다른?
144
384000
3000
남성, 여성의 뇌가 어떻게 다를까요?
06:42
(Laughter웃음)
145
387000
2000
(웃음)
06:44
According따라 to this self-help자조 book도서,
146
389000
2000
이 자기 치유서 책에 따르면,
06:46
guys brains두뇌 are like waffles와플;
147
391000
2000
남성의 뇌는 와플과 같습니다
06:48
they keep their그들의 lives compartmentalized구획화 된 in boxes상자들.
148
393000
3000
그들은 삶을 박스에 구분화를 계속합니다
06:51
Girls'소녀 ' brains두뇌 are like spaghetti스파게티;
149
396000
3000
여성의 뇌는 스파게티와 같습니다;
06:54
everything in their그들의 life is connected연결된 to everything else그밖에.
150
399000
3000
삶의 모든 것들이 모든 것과 연결되어 있습니다.
06:57
(Laughter웃음)
151
402000
2000
(웃음)
06:59
You guys are laughing웃음,
152
404000
2000
여러분께서 모두 웃고 계신데요,
07:01
but you know, this book도서 changed변경된 my life.
153
406000
2000
이 책은 제 삶을 변화시켰습니다.
07:03
(Laughter웃음)
154
408000
2000
(웃음)
07:07
But seriously진지하게, what's wrong잘못된 with this?
155
412000
3000
심각하게, 이 책에 무슨 문제가 있을까요?
07:10
You already이미 know enough충분히 to tell me -- what's wrong잘못된 with this statement성명서?
156
415000
3000
이미 저에게 말할 수 있을 정도로 충분히 알고 계십니다. 이 말이 무슨 문제가 있을까요?
07:20
It doesn't matter문제 whether인지 어떤지 you're a guy or girl소녀,
157
425000
3000
남성, 여성이 문제가 되지 않습니다,
07:23
everyone's모두의 brains두뇌 are like spaghetti스파게티.
158
428000
3000
모든 사람들의 뇌는 스파게티와 같습니다.
07:26
Or maybe really, really fine capellini카펠리니 with branches가지.
159
431000
3000
혹은 정말로 가지가 여러개 달린 카펠라니(파스타)일 수도 있습니다.
07:30
Just as one strand바닷가 of spaghetti스파게티
160
435000
2000
단지 하나의 스파게티 가닥이
07:32
contacts콘택트 렌즈 many많은 other strands가닥 on your plate플레이트,
161
437000
3000
접시에 놓인 많은 다른 가닥과 접촉하는 것처럼 말이죠,
07:35
one neuron뉴런 touches감동 many많은 other neurons뉴런
162
440000
2000
하나의 뉴런은 많은 다른 뉴런과 접촉합니다
07:37
through...을 통하여 their그들의 entangled빠뜨리는 branches가지.
163
442000
2000
그들의 꼬인 가지를 통해서 말이죠.
07:39
One neuron뉴런 can be connected연결된 to so many많은 other neurons뉴런,
164
444000
3000
하나의 뉴런은 매우 많은 다른 뉴런들과 연결 할 수 있습니다,
07:42
because there can be synapses시냅스
165
447000
2000
접촉시에 그곳에 시냅스가
07:44
at these points전철기 of contact접촉.
166
449000
3000
존재할 수 있기 때문입니다.
07:49
By now, you might have sort종류 of lost잃어버린 perspective원근법
167
454000
3000
지금까지, 여러분들께서 뇌 조직을 다룬 이 큐브가 실제로
07:52
on how large this cube입방체 of brain tissue조직 actually사실은 is.
168
457000
3000
얼마나 큰지에 대한 견해를 잃으셨을지도 모릅니다.
07:55
And so let's do a series시리즈 of comparisons비교 to show보여 주다 you.
169
460000
3000
하나의 시리즈 비교 작업을 해 여러분께 보여드리죠.
07:58
I assure보증하다 you, this is very tiny작은. It's just six microns마이크론 on a side측면.
170
463000
3000
저는 이것이 매우 작다고 확신합니다, 이것은 단지 한면에 6 미크론입니다.
08:03
So, here's여기에 how it stacks스택 up against반대 an entire완전한 neuron뉴런.
171
468000
3000
여기 총제적인 뉴런에 반하여 이것들을 쌓아올리는 방법이 있습니다.
08:06
And you can tell that, really, only the smallest가장 작은 fragments파편 of branches가지
172
471000
3000
단지 가장 작은 가지의 부분이 이 큐브안에 포함되어 있다고
08:09
are contained포함 된 inside내부 this cube입방체.
173
474000
3000
말하실 수 있습니다.
08:12
And a neuron뉴런, well, that's smaller더 작은 than brain.
174
477000
3000
하나의 뉴런, 음, 그것들은 뇌보다 작습니다.
08:17
And that's just a mouse brain --
175
482000
2000
그것은 단지 쥐의 뇌입니다.
08:21
it's a lot smaller더 작은 than a human인간의 brain.
176
486000
3000
인간의 뇌 보다 많이 작습니다.
08:25
So when show보여 주다 my friends친구 this,
177
490000
2000
이렇게 친구에게 이것을 보여줬을 때,
08:27
sometimes때때로 they've그들은 told me,
178
492000
2000
때때로 그들은 저에게 말했었죠,
08:29
"You know, Sebastian세바스찬, you should just give up.
179
494000
3000
"세바스찬, 알다시피 포기해야만 해.
08:32
Neuroscience신경 과학 is hopeless희망이없는."
180
497000
2000
신경과학은 희망이 없어."
08:34
Because if you look at a brain with your naked적나라한 eye,
181
499000
2000
왜냐하면 만약 여러분께서 하나의 뇌를 있는 그대로 본다면,
08:36
you don't really see how complex복잡한 it is,
182
501000
2000
뇌의 복잡성을 정말로 이해하시지 못합니다,
08:38
but when you use a microscope현미경,
183
503000
2000
하지만 현미경을 사용할 때,
08:40
finally마침내 the hidden숨겨진 complexity복잡성 is revealed계시 된.
184
505000
3000
결국 그 숨겨진 복잡성이 밝혀집니다.
08:45
In the 17th century세기,
185
510000
2000
17세기에,
08:47
the mathematician수학자 and philosopher철학자, Blaise블레이즈 Pascal파스칼,
186
512000
2000
수학자이며, 철학가인 블레이즈 파스칼은,
08:49
wrote of his dread공포 of the infinite무한의,
187
514000
3000
끊임없는 그의 두렴움,
08:52
his feeling감각 of insignificance중요하지 않은
188
517000
2000
그의 사소한 감정을
08:54
at contemplating고민하는 the vast거대한 reaches도달하다 of outer밖의 space공간.
189
519000
3000
거대한 우주공간을 생각할 때 기술했습니다.
08:59
And, as a scientist과학자,
190
524000
2000
과학자로써,
09:01
I'm not supposed가정의 to talk about my feelings감정 --
191
526000
3000
저는 저의 감정에 관해 말해서는 안 됩니다.
09:04
too much information정보, professor교수.
192
529000
2000
너무 많은 정보예요, 교수님.
09:06
(Laughter웃음)
193
531000
2000
(웃음)
09:08
But may할 수있다 I?
194
533000
2000
하지만 제가?
09:10
(Laughter웃음)
195
535000
2000
(웃음)
09:12
(Applause박수 갈채)
196
537000
2000
(박수)
09:14
I feel curiosity호기심,
197
539000
2000
저는 호기심을 느꼈고,
09:16
and I feel wonder경이,
198
541000
2000
궁금했었죠,
09:18
but at times타임스 I have also또한 felt펠트 despair절망.
199
543000
3000
하지만 그 당시 저는 또한 좌절했었습니다.
09:22
Why did I choose고르다 to study연구
200
547000
2000
내가 왜 이끝이 없을지도 모르는
09:24
this organ오르간 that is so awesome대단한 in its complexity복잡성
201
549000
3000
복잡성을 띈 놀라운 기관을
09:27
that it might well be infinite무한의?
202
552000
2000
연구하려 선택했을까?
09:29
It's absurd불합리한.
203
554000
2000
어리석었죠.
09:31
How could we even dare도전 to think
204
556000
2000
우리가 감히 어떻게 이것을
09:33
that we might ever understand알다 this?
205
558000
3000
이해할수 있을지 모른다고 생각할 수 있었을까요?
09:38
And yet아직, I persist지속하다 in this quixotic양자 반응의 endeavor노력.
206
563000
3000
아직도, 저는 이 공상적인 연구를 계속하고 있습니다.
09:41
And indeed과연, these days I harbor항구 new새로운 hopes희망하다.
207
566000
3000
실제로, 요즘에 저는 새로운 희망을 품고 있습니다.
09:45
Someday언젠가,
208
570000
2000
언젠가,
09:47
a fleet함대 of microscopes현미경 will capture포착
209
572000
2000
현미경 함대가 거대한 정보 이미지의
09:49
every...마다 neuron뉴런 and every...마다 synapse시냅스
210
574000
2000
모든 뉴런과 시냅스를
09:51
in a vast거대한 database데이터 베이스 of images이미지들.
211
576000
3000
포착하게 될 것입니다.
09:54
And some day, artificially인위적으로 intelligent지적인 supercomputers수퍼 컴퓨터
212
579000
3000
언젠가, 인공적으로 지적 슈퍼컴퓨터들이 인간의 보조 도움없이
09:57
will analyze분석하다 the images이미지들 without없이 human인간의 assistance보조
213
582000
3000
코넥텀에 있는 이미지들을 하나로 묶기 위해
10:00
to summarize요약하다 them in a connectomeconnectome.
214
585000
3000
이 이미지를 분석하게 될 것 입니다.
10:04
I do not know, but I hope기대 that I will live살고 있다 to see that day,
215
589000
3000
모릅니다, 하지만 그날을 볼 수 있게 되기를 바랍니다.
10:08
because finding발견 an entire완전한 human인간의 connectomeconnectome
216
593000
2000
종합적인 인간의 코넥텀을 찾는 작업은
10:10
is one of the greatest가장 큰 technological기술적 인 challenges도전 of all time.
217
595000
3000
가장 위대한 기술적 도전 중 하나이기 때문입니다.
10:13
It will take the work of generations세대 to succeed성공하다.
218
598000
3000
이것은 당대 최고의 성공반열에 이르는 작품이 될 것입니다.
10:17
At the present선물 time, my collaborators공동 작업자 and I,
219
602000
3000
현재, 제 동료와 저는,
10:20
what we're aiming조준 for is much more modest겸손한 --
220
605000
2000
우리가 목적으로 두고 있는 것은 작은 덩어리의
10:22
just to find partial부분적인 connectomes커넥터
221
607000
2000
사람과 쥐의 뇌에 대한 부분적인 코넥텀을
10:24
of tiny작은 chunks덩어리 of mouse and human인간의 brain.
222
609000
3000
찾기 위해 신중을 가하는 것입니다.
10:27
But even that will be enough충분히 for the first tests검사들 of this hypothesis가설
223
612000
3000
하지만 심지어 그것은 나는 나의 코넥텀이다라는 이 가설을
10:30
that I am my connectomeconnectome.
224
615000
3000
첫 번째로 검사하는데 충분합니다.
10:35
For now, let me try to convince납득시키다 you of the plausibility타당성 of this hypothesis가설,
225
620000
3000
당분간, 여러분께 이 가설을 그럴듯함을 확신시키디록 시도해보겠습니다,
10:38
that it's actually사실은 worth가치 taking취득 seriously진지하게.
226
623000
3000
실제로 심각하게 받아들일 가치가 있습니다.
10:42
As you grow자라다 during...동안 childhood어린 시절
227
627000
2000
유년기 동안 성장해
10:44
and age나이 during...동안 adulthood성인 임,
228
629000
3000
성인이 되어 나이를 먹을 때,
10:47
your personal개인적인 identity정체 changes변화들 slowly천천히.
229
632000
3000
여러분의 정체성은 천천히 변합니다.
10:50
Likewise마찬가지로, every...마다 connectomeconnectome
230
635000
2000
모든 코넥텀이 시간이 흘러
10:52
changes변화들 over time.
231
637000
2000
변하는 것과 같습니다.
10:55
What kinds종류 of changes변화들 happen우연히 있다?
232
640000
2000
어떤 종류의 변화가 있을까요?
10:57
Well, neurons뉴런, like trees나무,
233
642000
2000
음, 뉴런은 나무처럼,
10:59
can grow자라다 new새로운 branches가지,
234
644000
2000
새로운 가지가 자랍니다,
11:01
and they can lose잃다 old늙은 ones그들.
235
646000
3000
오래된 것을 잃을 수 있습니다.
11:04
Synapses시냅스 can be created만들어진,
236
649000
3000
시냅스는 만들어지기도 하고
11:07
and they can be eliminated제거 된.
237
652000
3000
없어지기도 합니다.
11:10
And synapses시냅스 can grow자라다 larger더 큰,
238
655000
2000
시냅스들은 더 커질수도 있고
11:12
and they can grow자라다 smaller더 작은.
239
657000
3000
작아질 수도 있습니다.
11:15
Second둘째 question문제:
240
660000
2000
두번 째 질문;
11:17
what causes원인 these changes변화들?
241
662000
3000
무엇이 이 변화들을 야기할까요?
11:20
Well, it's true참된.
242
665000
2000
음, 사실입니다.
11:22
To some extent범위, they are programmed프로그래밍 된 by your genes유전자.
243
667000
3000
어느정도, 여러분의 유전자에 의해 프로그램화 되었습니다.
11:25
But that's not the whole완전한 story이야기,
244
670000
2000
하지만 그것이 모든 것을 대변하지는 않습니다.
11:27
because there are signals신호들, electrical전기 같은 signals신호들,
245
672000
2000
전기적 신호가 있기 때문입니다,
11:29
that travel여행 along...을 따라서 the branches가지 of neurons뉴런
246
674000
2000
이 신호는 뉴런 가지를 따라 여행합니다
11:31
and chemical화학 물질 signals신호들
247
676000
2000
그리고 화학적 신호들은
11:33
that jump도약 across건너서 from branch분기 to branch분기.
248
678000
2000
가지에서 가지로 건너뜁니다.
11:35
These signals신호들 are called전화 한 neural신경 activity활동.
249
680000
3000
이 신호들은 신경활동이라고 합니다.
11:38
And there's a lot of evidence증거
250
683000
2000
많은 증거들이 있습니다
11:40
that neural신경 activity활동
251
685000
3000
신경활동은
11:43
is encoding부호화 our thoughts생각들, feelings감정 and perceptions지각,
252
688000
3000
우리의 생각, 감정, 지각, 정신 경험을
11:46
our mental지적인 experiences경험담.
253
691000
2000
암호화하고 있습니다.
11:48
And there's a lot of evidence증거 that neural신경 activity활동
254
693000
3000
신경활동이 연결들의 변화를 야기시킬 수 있다는
11:51
can cause원인 your connections사이 to change변화.
255
696000
3000
많은 증거들이 있습니다.
11:54
And if you put those two facts사리 together함께,
256
699000
3000
만약 이 두가지 사실을 하나로 놓는다면,
11:57
it means방법 that your experiences경험담
257
702000
2000
여러분의 경험은 코넥텀을
11:59
can change변화 your connectomeconnectome.
258
704000
3000
변화시킬 수 있음을 뜻합니다.
12:02
And that's why every...마다 connectomeconnectome is unique독특한,
259
707000
2000
이러한 이유로 모든 코넥텀은 독특합니다,
12:04
even those of genetically유 전적으로 identical같은 twins쌍둥이.
260
709000
3000
심지어 유전적으로 일란성 쌍둥이도 말입니다.
12:08
The connectomeconnectome is where nature자연 meets만나다 nurture양육.
261
713000
3000
이 코넥텀은 본성과 양육이 만날 때입니다.
12:12
And it might true참된
262
717000
2000
단지 생각하는 활동이
12:14
that just the mere단지 act행위 of thinking생각
263
719000
2000
코넥텀을 변화실킬 수 있다는 것이
12:16
can change변화 your connectomeconnectome --
264
721000
2000
사실일지도 모릅니다 --
12:18
an idea생각 that you may할 수있다 find empowering권한을 부여하는.
265
723000
3000
권력이임을 찾을지도 모르는 아이디어라는 것입니다.
12:24
What's in this picture그림?
266
729000
2000
사진에서 무엇이 있나요?
12:28
A cool시원한 and refreshing상쾌한 stream흐름 of water, you say.
267
733000
3000
시원하고 상쾌한 개울물이 있다고 말하시겠죠.
12:32
What else그밖에 is in this picture그림?
268
737000
2000
그밖에 사진에 무엇이 있나요?
12:37
Do not forget잊다 that groove in the Earth지구
269
742000
2000
지구상에 있는 강선이
12:39
called전화 한 the stream흐름 bed침대.
270
744000
3000
개울 바닥을 연상시킨다는 것을 잊지마세요.
12:42
Without없이 it, the water would not know in which어느 direction방향 to flow흐름.
271
747000
3000
강선 없이는, 물이 어느 방향으로 흐를지 모릅니다.
12:45
And with the stream흐름,
272
750000
2000
개울물에,
12:47
I would like to propose제안하다 a metaphor은유
273
752000
2000
저는 은유적인 표현을 제안하고 합니다
12:49
for the relationship관계 between중에서 neural신경 activity활동
274
754000
2000
신경활동과 연결 사이의 관계에
12:51
and connectivity연결성.
275
756000
2000
관한 것이죠.
12:54
Neural신경계 activity활동 is constantly끊임없이 changing작고 보기 흉한 사람.
276
759000
3000
신경활동은 지속적으로 변하고 있습니다.
12:57
It's like the water of the stream흐름; it never sits앉아있다 still.
277
762000
3000
개울물과 같습니다. 절대로 멈추지 않습니다.
13:00
The connections사이
278
765000
2000
뇌의 신경 네트워크의
13:02
of the brain's두뇌 neural신경 network회로망
279
767000
2000
연결들은
13:04
determines결정하다 the pathways통로
280
769000
2000
신경활동이 따라 흐르는
13:06
along...을 따라서 which어느 neural신경 activity활동 flows흐름.
281
771000
2000
방향 길을 결정합니다.
13:08
And so the connectomeconnectome is like bed침대 of the stream흐름;
282
773000
3000
이렇게 코넥텀은 하천 바닥과 같습니다.
13:13
but the metaphor은유 is richer더 부자 인 than that,
283
778000
3000
하지만 은유는 그것보다 좀더 풍부하게 표현하죠.
13:16
because it's true참된 that the stream흐름 bed침대
284
781000
3000
하천 바닥이 물의 흐름을
13:19
guides안내 the flow흐름 of the water,
285
784000
2000
오랜시간동 이끌뿐만 아니라,
13:21
but over long timescales시간 계,
286
786000
2000
물은 또한 하천의 바닥을
13:23
the water also또한 reshapes모양을 바꾸다 the bed침대 of the stream흐름.
287
788000
3000
재형성한다는 것이 사실이기 때문입니다.
13:26
And as I told you just now,
288
791000
2000
제가 단지 이야기 했던 것처럼,
13:28
neural신경 activity활동 can change변화 the connectomeconnectome.
289
793000
3000
신경 활동은 코넥텀을 변화시킬 수 있습니다.
13:33
And if you'll allow허용하다 me to ascend오르다
290
798000
2000
여러분께서 제가 은유적인 표현을
13:35
to metaphorical은유의 heights높이,
291
800000
3000
사용하도록 허용하신다면,
13:38
I will remind생각 나게하다 you that neural신경 activity활동
292
803000
3000
여러분께 신경활동이 물리적 기반이라는 것을
13:41
is the physical물리적 인 basis기초 -- or so neuroscientists신경 과학자 think --
293
806000
2000
상기시킬 것입니다 -- 그래서 신경과학자들은
13:43
of thoughts생각들, feelings감정 and perceptions지각.
294
808000
3000
생각, 감정, 인지를 생각합니다.
13:46
And so we might even speak말하다 of
295
811000
2000
또한 우리는 심지어 의식의 흐름에 대해
13:48
the stream흐름 of consciousness의식.
296
813000
2000
말하지도 모릅니다.
13:50
Neural신경계 activity활동 is its water,
297
815000
3000
신경활동은 하천 흐름과 같습니다,
13:53
and the connectomeconnectome is its bed침대.
298
818000
3000
코넥텀은 하천 바닥과 같습니다.
13:57
So let's return반환 from the heights높이 of metaphor은유
299
822000
2000
은유적 표현으로 다시 돌아가서
13:59
and return반환 to science과학.
300
824000
2000
과학으로 돌아가 보죠.
14:01
Suppose가정 해보자. our technologies기술 for finding발견 connectomes커넥터
301
826000
2000
코넥텀을 찾는 우리의 기술이 실제로 이루어지고 있다고
14:03
actually사실은 work.
302
828000
2000
가정해보십다.
14:05
How will we go about testing시험 the hypothesis가설
303
830000
2000
"나는 나의 코넥텀이다."라는 이 가설 검사에 대해
14:07
"I am my connectomeconnectome?"
304
832000
3000
우리가 어떻게 나아가게 될까요?
14:10
Well, I propose제안하다 a direct곧장 test테스트.
305
835000
3000
음, 저는 직접적인 검사를 제안합니다.
14:13
Let us attempt시도
306
838000
2000
코넥텀에 있는
14:15
to read독서 out memories기억 from connectomes커넥터.
307
840000
3000
기억 읽기를 시도해 봅시다.
14:18
Consider중히 여기다 the memory기억
308
843000
2000
베토벤 소나타를
14:20
of long temporal일시적인 sequences시퀀스들 of movements동정,
309
845000
3000
연주하는 피아니스트의 움직임처럼 오래된 시간동안
14:23
like a pianist피아니스트 playing연주하다 a Beethoven베토벤 sonata소나타.
310
848000
3000
특정한 배열을 가진 기억을 상기해보세요.
14:26
According따라 to a theory이론 that dates날짜들 back to the 19th century세기,
311
851000
3000
19세기로 이론에 따르면,
14:29
such이러한 memories기억 are stored저장된
312
854000
2000
그런 기억들은 뇌 안에 있는
14:31
as chains쇠사슬 of synaptic시냅스 connections사이 inside내부 your brain.
313
856000
3000
시냅스 연결 체인으로 저장되어있습니다.
14:35
Because, if the first neurons뉴런 in the chain체인 are activated활성화 된,
314
860000
3000
왜냐하면, 그 체인 안에 있는 첫 번째 뉴런이
14:38
through...을 통하여 their그들의 synapses시냅스 they send보내다 messages메시지 to the second둘째 neurons뉴런, which어느 are activated활성화 된,
315
863000
3000
시냅스를 통해 활성화가 된다면 뉴런은 활성화 되는 두 번째 뉴런에
14:41
and so on down the line,
316
866000
2000
메세지를 전달합니다
14:43
like a chain체인 of falling떨어지는 dominoes각설탕.
317
868000
2000
하나의 떨어지고 있는 도미노 체인과 같죠.
14:45
And this sequence순서 of neural신경 activation활성화
318
870000
2000
이런 신경활동의 특정한 배열은
14:47
is hypothesized가정 된 to be the neural신경 basis기초
319
872000
3000
움직임에 관한 특정한 배열의
14:50
of those sequence순서 of movements동정.
320
875000
2000
신경기반이 형성 된다고 가정화 되었습니다.
14:52
So one way of trying견딜 수 없는 to test테스트 the theory이론
321
877000
2000
이 이론을 검사 시도를 하는 한가지 방법은
14:54
is to look for such이러한 chains쇠사슬
322
879000
2000
코넥텀 안에 있는
14:56
inside내부 connectomes커넥터.
323
881000
2000
체인들을 찾아보는 것입니다.
14:58
But it won't습관 be easy쉬운, because they're not going to look like this.
324
883000
3000
하지만 이는 쉽지 않습니다, 그 과정은 이와 같기 때문입니다.
15:01
They're going to be scrambled뒤섞인 up.
325
886000
2000
체인들은 뒤섞이게 됩니다.
15:03
So we'll have to use our computers컴퓨터들
326
888000
2000
그래서 이 체인을 정리하기 위해
15:05
to try to unscramble제대로 챙기다 the chain체인.
327
890000
3000
컴퓨터를 사용해야만 될 것입니다.
15:08
And if we can do that,
328
893000
2000
만약 우리가 이것을 할 수 있다면,
15:10
the sequence순서 of the neurons뉴런 we recover다시 덮다 from that unscrambling풀다
329
895000
3000
이 과정을 통해 회복한 특저한 배열의 신경들은
15:13
will be a prediction예측 of the pattern무늬 of neural신경 activity활동
330
898000
3000
신경활동의 패턴을 예측하게 될 것입니다
15:16
that is replayed재연 된 in the brain during...동안 memory기억 recall소환.
331
901000
3000
이 활동은 기억을 상기시킬 때 다시 재생될 것입니다.
15:19
And if that were successful성공한,
332
904000
2000
만약 그것이 성공적이라면,
15:21
that would be the first example of reading독서 a memory기억 from a connectomeconnectome.
333
906000
3000
그것은 코넥텀에서 기억을 읽는 첫 번째 사례가 될 것입니다.
15:28
(Laughter웃음)
334
913000
2000
(웃음)
15:30
What a mess음식물 --
335
915000
2000
아주 엉망진창이군요.
15:33
have you ever tried시도한 to wire철사 up a system체계
336
918000
2000
이것과 같은 복잡한 시스템을 엮기를
15:35
as complex복잡한 as this?
337
920000
2000
시도해보신 적이 있나요?
15:37
I hope기대 not.
338
922000
2000
아니시기를 바랍니다.
15:39
But if you have, you know it's very easy쉬운 to make a mistake잘못.
339
924000
3000
하지만 만약 그랬다면, 알다시피 실수하기는 무척 쉽습니다.
15:45
The branches가지 of neurons뉴런 are like the wires전선 of the brain.
340
930000
2000
뉴런들의 가지들은 서로 얽혀 있는 뇌와 같습니다.
15:47
Can anyone누군가 guess추측: what's the total합계 length길이 of wires전선 in your brain?
341
932000
4000
뇌의 연결 된 선들의 총 길이가 어느정도 되는지 예측할 수 있을까요?
15:54
I'll give you a hint힌트. It's a big number번호.
342
939000
2000
힌트를 드리겠습니다. 매우 큰 숫자입니다.
15:56
(Laughter웃음)
343
941000
2000
(웃음)
15:59
I estimate견적, millions수백만 of miles마일,
344
944000
3000
저는 측정했습니다, 수백만 마일이었죠.
16:02
all packed포장 된 in your skull두개골.
345
947000
3000
모든 것이 여러분 머리에 꽉 차있습니다.
16:05
And if you appreciate고맙다 that number번호,
346
950000
2000
만약 그 숫자를 측정하신다면,
16:07
you can easily용이하게 see
347
952000
2000
여러분들은 쉽게
16:09
there is huge거대한 potential가능성 for mis-wiring오 배선 of the brain.
348
954000
2000
잘못된 연결을 가진 뇌에 대한 큰 가능성이 있다는 것을 보실 수 있습니다.
16:11
And indeed과연, the popular인기 있는 press프레스 loves사랑하다 headlines헤드 라인 like,
349
956000
3000
실제로, 언론은 이 같은 제목을 좋아하죠,
16:14
"Anorexic식욕 부진 brains두뇌 are wired열광한 differently다르게,"
350
959000
2000
"식욕 부진증 뇌는 다르게 연결되어 있습니다."
16:16
or "Autistic자폐증 brains두뇌 are wired열광한 differently다르게."
351
961000
2000
혹은"자폐증 뇌는 다른 연결을 가지고 있습니다."
16:18
These are plausible그럴듯한 claims청구,
352
963000
2000
이것들은 그럴듯한 주장입니다.
16:20
but in truth진실,
353
965000
2000
하지만 실제로,
16:22
we can't see the brain's두뇌 wiring배선 clearly분명히 enough충분히
354
967000
2000
우리는 분명하게 충분히 그 주장들이 사실이라고
16:24
to tell if these are really true참된.
355
969000
2000
말할 수 있을 만큼 확인할 수는 없습니다.
16:26
And so the technologies기술 for seeing connectomes커넥터
356
971000
3000
하지만 코넥텀을 보는 이 기술은
16:29
will allow허용하다 us to finally마침내
357
974000
2000
결국에는 여러분께
16:31
read독서 mis-wiring오 배선 of the brain,
358
976000
2000
잘못 연결 된 뇌를 읽는 것과,
16:33
to see mental지적인 disorders장애 in connectomes커넥터.
359
978000
3000
코넥텀안의 정신병을 볼 수 있도록 허용하게 될 것입니다.
16:40
Sometimes때때로 the best베스트 way to test테스트 a hypothesis가설
360
985000
3000
때때로 가설을 검사하는 가장 좋은 방법은
16:43
is to consider중히 여기다 its most가장 extreme극단 implication함축.
361
988000
3000
극단적인 방법을 고려하는 것입니다.
16:46
Philosophers철학자 know this game경기 very well.
362
991000
3000
철학자들은 이 게임을 매우 잘 압니다.
16:50
If you believe that I am my connectomeconnectome,
363
995000
3000
만약 나는 나의 코넥텀이다라는 사실을 믿는다면,
16:53
I think you must절대로 필요한 것 also또한 accept받아 들인다 the idea생각
364
998000
3000
저는 여러분께서 죽음은 여러분의
16:56
that death죽음 is the destruction파괴
365
1001000
2000
코넥텀의 파괴라는 이 아이디어
16:58
of your connectomeconnectome.
366
1003000
3000
또한 받아들여야 된다고 생각합니다.
17:02
I mention언급하다 this because there are prophets선지자 today오늘
367
1007000
3000
왜냐하면 오늘날 이 기술이 기본적으로
17:05
who claim청구 that technology과학 기술
368
1010000
3000
인간의 상태와 심지어
17:08
will fundamentally근본적으로 alter바꾸다 the human인간의 condition조건
369
1013000
3000
아마도 인종을 변화시키게 될거라 주장하는
17:11
and perhaps혹시 even transform변환 the human인간의 species.
370
1016000
3000
선지자들이 있기때문에 이 아이디어를 언급했습니다.
17:14
One of their그들의 most가장 cherished소중히 하는 dreams
371
1019000
3000
가장 소중했었던 꿈 중 하나는
17:17
is to cheat사기 death죽음
372
1022000
2000
죽음을 속이는 것입니다
17:19
by that practice연습 known알려진 as cryonics극저온제.
373
1024000
2000
냉동 보존술이라고 알고 있는 방법에 의한 것이죠.
17:21
If you pay지불 100,000 dollars불화,
374
1026000
2000
10 만$를 지불하신다면,
17:23
you can arrange붙이다 to have your body신체 frozen겨울 왕국 after death죽음
375
1028000
3000
죽음 이후 여러분의 신체를 얼리도록 조정할 수 있고
17:26
and stored저장된 in liquid액체 nitrogen질소
376
1031000
2000
아리조나 창고에 있는
17:28
in one of these tanks탱크 in an Arizona아리조나 warehouse창고,
377
1033000
2000
탱크들 중 하나에 액체질소로 저장할 수 있습니다,
17:30
awaiting기다리고있는 a future미래 civilization문명
378
1035000
2000
여러분을 부활시키는 미래 문명을
17:32
that is advanced많은 to resurrect부활하다 you.
379
1037000
3000
기다리면서 말입니다.
17:36
Should we ridicule조소 the modern현대 seekers구직자 of immortality불사,
380
1041000
2000
우리가 영원한 생명을 추구하는 현대인들을
17:38
calling부름 them fools바보들?
381
1043000
2000
바보라 부르며 비웃어야할까요?
17:40
Or will they someday언젠가 chuckle킬킬 웃음
382
1045000
2000
혹은 그들이 언젠가 우리의 무덤에서
17:42
over our graves무덤?
383
1047000
2000
웃게 될까요?
17:45
I don't know --
384
1050000
2000
모릅니다.
17:47
I prefer취하다 to test테스트 their그들의 beliefs신념, scientifically과학적으로.
385
1052000
3000
저는 과학적으로 이 믿음들을 시험하기 좋아합니다.
17:50
I propose제안하다 that we attempt시도 to find a connectomeconnectome
386
1055000
2000
저는 우리가 얼려있는 뇌의 코넥텀을 찾아야만 된다고
17:52
of a frozen겨울 왕국 brain.
387
1057000
2000
제안합니다.
17:54
We know that damage손해 to the brain
388
1059000
2000
우리는 사후 뇌의 냉동보관 기간동안
17:56
occurs발생하다 after death죽음 and during...동안 freezing동결.
389
1061000
2000
뇌가 손상된다는 것을 알고있습니다.
17:58
The question문제 is: has that damage손해 erased문질러 지우는 the connectomeconnectome?
390
1063000
3000
문제는 '뇌의 손상이 코넥텀을 지워버렸을까?' 입니다.
18:01
If it has, there is no way that any future미래 civilization문명
391
1066000
3000
만약 그랬다면, 다른 어떤 미래 문명이
18:04
will be able할 수 있는 to recover다시 덮다 the memories기억 of these frozen겨울 왕국 brains두뇌.
392
1069000
3000
그 얼린 뇌의 기억들을 회복시킬 수 있는 방법은 존재하지 않을 것입니다.
18:07
Resurrection부활 might succeed성공하다 for the body신체,
393
1072000
2000
부활은 신체 부분에서는 성공할지도 모릅니다,
18:09
but not for the mind마음.
394
1074000
2000
하지만 마음은 해당이 되지가 않습니다.
18:11
On the other hand, if the connectomeconnectome is still intact손대지 않은,
395
1076000
3000
반면에, 만약 코넥텀이 여전히 온전하다면,
18:14
we cannot~ 할 수 없다. ridicule조소 the claims청구 of cryonics극저온제 so easily용이하게.
396
1079000
3000
냉동 보존술 주장을 매우 쉽게 비웃을 수는 없습니다.
18:20
I've described기술 된 a quest탐구
397
1085000
2000
저는 세계에서
18:22
that begins시작하다 in the world세계 of the very small작은,
398
1087000
3000
정말 작은 부분에서 시작하고 먼 미래 세계로
18:25
and propels추진력 us to the world세계 of the far멀리 future미래.
399
1090000
3000
우리를 이끄는 탐색을 설명해왔습니다.
18:28
ConnectomesConnectomes will mark a turning선회 point포인트 in human인간의 history역사.
400
1093000
3000
코넥텀은 인류 역사에 전환점을 만들게 될 것입니다.
18:32
As we evolved진화 된 from our ape-like원숭이 같은 ancestors선조
401
1097000
2000
우리는 아프리카 사바나 지역 선조로 간주된
18:34
on the African아프리카 사람 savanna대초원,
402
1099000
2000
유인원에서 진화 되었습니다.
18:36
what distinguished저명한 us was our larger더 큰 brains두뇌.
403
1101000
3000
차이가 있다면 우리가 좀더 큰 뇌를 가지고 있다는 것입니다.
18:40
We have used our brains두뇌 to fashion유행
404
1105000
2000
우리는 뇌를 사회에 그리고 심지어
18:42
ever more amazing놀랄 만한 technologies기술.
405
1107000
3000
좀더 놀라운 기술에 사용해왔습니다.
18:45
Eventually결국, these technologies기술 will become지다 so powerful강한
406
1110000
3000
결과적으로 이 기술들은 매우 강력하게 될 것입니다
18:48
that we will use them to know ourselves우리 스스로
407
1113000
3000
우리는 그기술을 사용하여 스스로를 알게 됩니다
18:51
by deconstructing해체하다 and reconstructing재건축
408
1116000
3000
우리의 뇌를 분해하고 재구성
18:54
our own개인적인 brains두뇌.
409
1119000
3000
함으로써 말입니다
18:57
I believe that this voyage항해 of self-discovery자아 발견
410
1122000
3000
이 독단적인 발견이 단지 과학자들만을
19:00
is not just for scientists과학자들,
411
1125000
3000
위한 것이 아니라,
19:03
but for all of us.
412
1128000
2000
우리 모두를 위한 것이라 저는 믿습니다.
19:05
And I'm grateful기분 좋은 for the opportunity기회 to share this voyage항해 with you today오늘.
413
1130000
3000
이 항해를 여러분과 함께 나눌수 있는 기회를 주셔서 감사드립니다.
19:08
Thank you.
414
1133000
2000
감사합니다.
19:10
(Applause박수 갈채)
415
1135000
8000
(박수)
Translated by Sun Phil Ka
Reviewed by Eunmi Sohn

▲Back to top

ABOUT THE SPEAKER
Sebastian Seung - Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain.

Why you should listen

In the brain, neurons are connected into a complex network. Sebastian Seung and his lab at MIT are inventing technologies for identifying and describing the connectome, the totality of connections between the brain's neurons -- think of it as the wiring diagram of the brain. We possess our entire genome at birth, but things like memories are not "stored" in the genome; they are acquired through life and accumulated in the brain. Seung's hypothesis is that "we are our connectome," that the connections among neurons is where memories and experiences get stored.

Seung and his collaborators, including Winfried Denk at the Max Planck Institute and Jeff Lichtman at Harvard University, are working on a plan to thin-slice a brain (probably starting with a mouse brain) and trace, from slice to slice, each neural pathway, exposing the wiring diagram of the brain and creating a powerful new way to visualize the workings of the mind. They're not the first to attempt something like this -- Sydney Brenner won a Nobel for mapping all the 7,000 connections in the nervous system of a tiny worm, C. elegans. But that took his team a dozen years, and the worm only had 302 nerve cells. One of Seung's breakthroughs is in using advanced imagining and AI to handle the crushing amount of data that a mouse brain will yield and turn it into richly visual maps that show the passageways of thought and sensation.

More profile about the speaker
Sebastian Seung | Speaker | TED.com