ABOUT THE SPEAKER
Sebastian Seung - Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain.

Why you should listen

In the brain, neurons are connected into a complex network. Sebastian Seung and his lab at MIT are inventing technologies for identifying and describing the connectome, the totality of connections between the brain's neurons -- think of it as the wiring diagram of the brain. We possess our entire genome at birth, but things like memories are not "stored" in the genome; they are acquired through life and accumulated in the brain. Seung's hypothesis is that "we are our connectome," that the connections among neurons is where memories and experiences get stored.

Seung and his collaborators, including Winfried Denk at the Max Planck Institute and Jeff Lichtman at Harvard University, are working on a plan to thin-slice a brain (probably starting with a mouse brain) and trace, from slice to slice, each neural pathway, exposing the wiring diagram of the brain and creating a powerful new way to visualize the workings of the mind. They're not the first to attempt something like this -- Sydney Brenner won a Nobel for mapping all the 7,000 connections in the nervous system of a tiny worm, C. elegans. But that took his team a dozen years, and the worm only had 302 nerve cells. One of Seung's breakthroughs is in using advanced imagining and AI to handle the crushing amount of data that a mouse brain will yield and turn it into richly visual maps that show the passageways of thought and sensation.

More profile about the speaker
Sebastian Seung | Speaker | TED.com
TEDGlobal 2010

Sebastian Seung: I am my connectome

Sebastian Seung: Mój konektom to ja.

Filmed:
1,131,223 views

Sebastian Seung przedstawia nowy, niezmiernie ambitny model mapowania mózgu, który skupia się na powiązaniach między indywidualnymi neuronami. Zrozumienie tego, w słowach Seunga, "konektomu" (równie unikatowego dla każdego z nas co nasz genom) może pozwolić nam na znalezienie nowych sposobów poznania mózgu i umysłu.
- Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain. Full bio

Double-click the English transcript below to play the video.

00:17
We liverelacja na żywo in in a remarkableznakomity time,
0
2000
3000
Żyjemy w ciekawych czasach,
00:20
the agewiek of genomicsgenomika.
1
5000
3000
w erze genomiki.
00:23
Your genomegenom is the entireCały sequencesekwencja of your DNADNA.
2
8000
3000
Genom to kompletny zapis DNA.
00:26
Your sequencesekwencja and minekopalnia are slightlynieco differentróżne.
3
11000
3000
U każdego człowieka jest trochę inny.
00:29
That's why we look differentróżne.
4
14000
2000
Dlatego wyglądamy inaczej.
00:31
I've got brownbrązowy eyesoczy;
5
16000
2000
Moje oczy są brązowe.
00:33
you mightmoc have blueniebieski or grayszary.
6
18000
3000
Inni mogą mieć niebieskie czy szare.
00:36
But it's not just skin-deepskórę głęboko.
7
21000
2000
Ale to nie tylko kwestia wyglądu.
00:38
The headlinesnagłówki tell us
8
23000
2000
W gazetach czytamy,
00:40
that genesgeny can give us scarystraszny diseaseschoroby,
9
25000
3000
że geny mogą powodować choroby
00:43
maybe even shapekształt our personalityosobowość,
10
28000
3000
a nawet kształtować osobowość
00:46
or give us mentalpsychiczny disorderszaburzenia.
11
31000
3000
czy być przyczyną chorób psychicznych.
00:49
Our genesgeny seemwydać się to have
12
34000
3000
Geny wydają się mieć
00:52
awesomeniesamowite powermoc over our destinieslosy.
13
37000
3000
ogromny wpływ na nasze losy.
00:56
And yetjeszcze, I would like to think
14
41000
3000
Mimo to, uważam, że ja
00:59
that I am more than my genesgeny.
15
44000
3000
to więcej niż moje geny.
01:04
What do you guys think?
16
49000
2000
Co myślicie?
01:06
Are you more than your genesgeny?
17
51000
3000
Czy wy też jesteście czymś więcej?
01:09
(AudiencePubliczność: Yes.) Yes?
18
54000
2000
Widzowie: Tak. Tak?
01:13
I think some people agreeZgodzić się with me.
19
58000
2000
Część z was zgadza się ze mną.
01:15
I think we should make a statementkomunikat.
20
60000
2000
Powinniśmy to obwieścić światu.
01:17
I think we should say it all togetherRazem.
21
62000
2000
Powiedzmy wszyscy razem:
01:20
All right: "I'm more than my genesgeny" -- all togetherRazem.
22
65000
3000
Ja to więcej niż moje geny.
01:23
EverybodyKażdy: I am more than my genesgeny.
23
68000
4000
Wszyscy: Ja to więcej niż moje geny
01:27
(CheeringDoping)
24
72000
2000
(Wiwaty)
01:30
SebastianSebastian SeungSeung: What am I?
25
75000
2000
A więc ja - to kto?
01:32
(LaughterŚmiech)
26
77000
3000
(Śmiech)
01:35
I am my connectomeconnectome.
27
80000
3000
Otóż mój konektom - to ja.
01:40
Now, sinceod you guys are really great,
28
85000
2000
Świetnie nam się współpracuje więc
01:42
maybe you can humorhumor me and say this all togetherRazem too.
29
87000
2000
spróbujmy to też powiedzieć razem.
01:44
(LaughterŚmiech)
30
89000
2000
(Śmiech)
01:46
Right. All togetherRazem now.
31
91000
2000
Wszyscy razem:
01:48
EverybodyKażdy: I am my connectomeconnectome.
32
93000
3000
Mój konektom to ja.
01:53
SSSS: That soundedbrzmiało great.
33
98000
2000
Świetnie nam wyszło.
01:55
You know, you guys are so great, you don't even know what a connectomeconnectome is,
34
100000
2000
Jesteście super: nie wiecie co to jest konektom,
01:57
and you're willingskłonny to playgrać alongwzdłuż with me.
35
102000
2000
a jednak ze mną współpracujecie.
01:59
I could just go home now.
36
104000
3000
To ja mogę już sobie iść.
02:02
Well, so fardaleko only one connectomeconnectome is knownznany,
37
107000
3000
Jak dotąd poznaliśmy tylko jeden konektom:
02:05
that of this tinymalutki wormrobak.
38
110000
3000
tego malutkiego robaka.
02:08
Its modestskromny nervousnerwowy systemsystem
39
113000
2000
Jego układ nerwowy
02:10
consistsskłada się of just 300 neuronsneurony.
40
115000
2000
składa się z tylko 300 neuronów.
02:12
And in the 1970s and '80s,
41
117000
2000
W latach 70. i 80.
02:14
a teamzespół of scientistsnaukowcy
42
119000
2000
zespół naukowców
02:16
mappedmapowane all 7,000 connectionsznajomości
43
121000
2000
opisał wszystkie 7000 połączeń
02:18
betweenpomiędzy the neuronsneurony.
44
123000
2000
między-neuronalnych.
02:21
In this diagramdiagram, everykażdy nodewęzeł is a neuronneuron,
45
126000
2000
W tym diagramie, każdy punkt to neuron
02:23
and everykażdy linelinia is a connectionpołączenie.
46
128000
2000
a każda linia to połączenie.
02:25
This is the connectomeconnectome
47
130000
2000
Widzicie teraz na własne oczy
02:27
of the wormrobak C. eleganselegans.
48
132000
4000
konektom nicienia C. elegans
02:31
Your connectomeconnectome is fardaleko more complexzłożony than this
49
136000
3000
Nasze konektomy są bardziej złożone
02:34
because your brainmózg
50
139000
2000
ponieważ nasz mózg
02:36
containszawiera 100 billionmiliard neuronsneurony
51
141000
2000
zawiera 100 miliardów neuronów
02:38
and 10,000 timesczasy as manywiele connectionsznajomości.
52
143000
3000
i 10 tys. razy tyle połączeń.
02:41
There's a diagramdiagram like this for your brainmózg,
53
146000
2000
Je też można przedstawić na diagramie
02:43
but there's no way it would fitdopasowanie on this slideślizgać się.
54
148000
3000
ale nie dałoby się ich zmieścić na takim slajdzie.
02:47
Your connectomeconnectome containszawiera one millionmilion timesczasy more connectionsznajomości
55
152000
3000
Konektom zawiera milion razy więcej połączeń
02:50
than your genomegenom has letterslisty.
56
155000
3000
niż jest liter w naszym genomie.
02:53
That's a lot of informationInformacja.
57
158000
2000
To mnóstwo informacji.
02:55
What's in that informationInformacja?
58
160000
3000
Co mogą nam powiedzieć?
02:59
We don't know for sure, but there are theoriesteorie.
59
164000
3000
Nie wiemy na pewno, ale mamy teorie.
03:02
SinceOd the 19thth centurystulecie, neuroscientistsneurolodzy have speculatedspekulowali
60
167000
3000
Od XIXw. neurobiolodzy zastanawiali się
03:05
that maybe your memorieswspomnienia --
61
170000
2000
czy nasze wspomnienia,
03:07
the informationInformacja that makesczyni you, you --
62
172000
2000
informacje, które kreują tożsamość
03:09
maybe your memorieswspomnienia are storedzapisane
63
174000
2000
czy może są one zapisane
03:11
in the connectionsznajomości betweenpomiędzy your brain'smózg neuronsneurony.
64
176000
2000
w połączeniach pomiędzy neuronami.
03:15
And perhapsmoże other aspectsaspekty of your personalosobisty identitytożsamość --
65
180000
2000
Inne aspekty tej tożsamości
03:17
maybe your personalityosobowość and your intellectintelekt --
66
182000
3000
osobowość czy intelekt
03:20
maybe they're alsorównież encodedzakodowany
67
185000
2000
może także są zapisane
03:22
in the connectionsznajomości betweenpomiędzy your neuronsneurony.
68
187000
3000
w tych połączeniach.
03:26
And so now you can see why I proposedproponowane this hypothesishipoteza:
69
191000
3000
Stąd wzięła się moja hipoteza,
03:29
I am my connectomeconnectome.
70
194000
3000
że mój konektom to ja.
03:32
I didn't askzapytać you to chantintonować it because it's trueprawdziwe;
71
197000
3000
Nie skandowaliście jej, bo jest prawdziwa,
03:35
I just want you to rememberZapamiętaj it.
72
200000
2000
ale po to by ją zapamiętać.
03:37
And in factfakt, we don't know if this hypothesishipoteza is correctpoprawny,
73
202000
2000
Nie wiemy czy ta hipoteza jest trafna
03:39
because we have never had technologiestechnologie
74
204000
2000
bo nie mieliśmy technologii
03:41
powerfulpotężny enoughdość to testtest it.
75
206000
2000
wystarczająco zaawansowanej by ją przetestować.
03:44
FindingZnalezienie that wormrobak connectomeconnectome
76
209000
3000
Odkrycie konektomu u robaka
03:47
tookwziął over a dozentuzin yearslat of tediousnudny laborpraca.
77
212000
3000
zajęło ponad 10 lat żmudnej pracy.
03:50
And to find the connectomesconnectomes of brainsmózg more like our ownwłasny,
78
215000
3000
Żeby odkryć konektom w mózgach jak nasze
03:53
we need more sophisticatedwyrafinowany technologiestechnologie, that are automatedautomatyczne,
79
218000
3000
potrzebujemy wyrafinowanych technologii,
03:56
that will speedprędkość up the processproces of findingodkrycie connectomesconnectomes.
80
221000
3000
które zautomatyzują i przyśpieszą ten proces.
03:59
And in the nextNastępny fewkilka minutesminuty, I'll tell you about some of these technologiestechnologie,
81
224000
3000
Opowiem wam o nich.
04:02
whichktóry are currentlyobecnie underpod developmentrozwój
82
227000
2000
Są one obecnie opracowywane
04:04
in my lablaboratorium and the labslaboratoria of my collaboratorswspółpracownicy.
83
229000
3000
w naszych laboratoriach.
04:08
Now you've probablyprawdopodobnie seenwidziany pictureskino of neuronsneurony before.
84
233000
3000
Komórkę neuronową
04:11
You can recognizerozpoznać them instantlynatychmiast
85
236000
2000
można rozpoznać
04:13
by theirich fantasticfantastyczny shapeskształty.
86
238000
3000
po intrygującym kształcie.
04:16
They extendposzerzać long and delicatedelikatny branchesoddziały,
87
241000
3000
Ma długie, delikatne rozgałęzienia
04:19
and in shortkrótki, they look like treesdrzewa.
88
244000
3000
i jest nieco podobna do drzewa.
04:22
But this is just a singlepojedynczy neuronneuron.
89
247000
3000
Ale to tylko jedna komórka.
04:25
In orderzamówienie to find connectomesconnectomes,
90
250000
2000
Żeby odkryć wszystkie połączenia
04:27
we have to see all the neuronsneurony at the samepodobnie time.
91
252000
3000
musimy widzieć jednocześnie wszystkie neurony.
04:30
So let's meetspotykać się BobbyBobby KasthuriKasthuri,
92
255000
2000
Przedstawiam więc Bobby'ego Kasthuri
04:32
who worksPrace in the laboratorylaboratorium of JeffJeff LichtmanLichtman
93
257000
2000
pracownika laboratorium Jeffa Lichtmana
04:34
at HarvardHarvard UniversityUniwersytet.
94
259000
2000
na Harvardzie.
04:36
BobbyBobby is holdingtrzymać fantasticallyfantastycznie thincienki slicesplastry
95
261000
2000
Bobby trzyma w ręku przekroje
04:38
of a mousemysz brainmózg.
96
263000
2000
mózgu myszy.
04:40
And we're zoomingPowiększanie in by a factorczynnik of 100,000 timesczasy
97
265000
3000
Przybliżamy teraz 100 tys. razy
04:44
to obtainuzyskać the resolutionrozkład,
98
269000
2000
by uzyskać rozdzielczość,
04:46
so that we can see the branchesoddziały of neuronsneurony all at the samepodobnie time.
99
271000
3000
która pozwoli dostrzec wszystkie rozgałęzienia.
04:50
ExceptZ wyjątkiem, you still maymoże not really recognizerozpoznać them,
100
275000
3000
Tylko że teraz trudno je rozpoznać
04:53
and that's because we have to work in threetrzy dimensionswymiary.
101
278000
3000
bo musimy operować w trzech wymiarach.
04:56
If we take manywiele imagesobrazy of manywiele slicesplastry of the brainmózg
102
281000
2000
Składając zdjęcia wielu fragmentów,
04:58
and stackstos them up,
103
283000
2000
jedno na drugim,
05:00
we get a three-dimensionaltrójwymiarowy imageobraz.
104
285000
2000
otrzyma się obraz trójwymiarowy.
05:02
And still, you maymoże not see the branchesoddziały.
105
287000
2000
rozgałęzienia nadal mogą być niewidoczne.
05:04
So we startpoczątek at the topTop,
106
289000
2000
Więc, zaczynając od góry
05:06
and we colorkolor in the cross-sectionPrzekrój of one branchgałąź in redczerwony,
107
291000
3000
kolorujemy przekrój jednego z nich na czerwono
05:09
and we do that for the nextNastępny sliceplasterek
108
294000
2000
i robimy to samo z kolejnymi.
05:11
and for the nextNastępny sliceplasterek.
109
296000
2000
i robimy to samo z kolejnymi.
05:13
And we keep on doing that,
110
298000
2000
I tak dalej, zdjęcie po zdjęciu.
05:15
sliceplasterek after sliceplasterek.
111
300000
3000
I tak dalej, zdjęcie po zdjęciu.
05:18
If we continueKontyntynuj throughprzez the entireCały stackstos,
112
303000
2000
Kontynuując w ten sposób
05:20
we can reconstructRekonstrukcja the three-dimensionaltrójwymiarowy shapekształt
113
305000
3000
będziemy mogli zrekonstruować w trójwymiarze
05:23
of a smallmały fragmentfragment of a branchgałąź of a neuronneuron.
114
308000
3000
fragment rozgałęzienia naszego neuronu.
05:26
And we can do that for anotherinne neuronneuron in greenZielony.
115
311000
2000
Gdy pokolorujemy inny neuron na zielono
05:28
And you can see that the greenZielony neuronneuron touchesdotyka the redczerwony neuronneuron
116
313000
2000
widać, że styka się on z czerwonym
05:30
at two locationslokalizacje,
117
315000
2000
w dwóch miejscach,
05:32
and these are what are callednazywa synapsessynapsy.
118
317000
2000
które nazywamy synapsami.
05:34
Let's zoomPowiększenie in on one synapsesynapsy,
119
319000
2000
Przyjrzyjmy się jednej z nich.
05:36
and keep your eyesoczy on the interiorwnętrze of the greenZielony neuronneuron.
120
321000
3000
Patrząc na wnętrze zielonego neuronu
05:39
You should see smallmały circleskółka --
121
324000
2000
powinniście zobaczyć małe koliste kształty
05:41
these are callednazywa vesiclespęcherzyki.
122
326000
3000
To pęcherzyki synaptyczne.
05:44
They containzawierać a moleculecząsteczka know as a neurotransmitterneuroprzekaźnik.
123
329000
3000
Zawierają one neuroprzekaźnik.
05:47
And so when the greenZielony neuronneuron wants to communicatekomunikować się,
124
332000
2000
Więc gdy zielony neuron chcę wysłać sygnał
05:49
it wants to sendwysłać a messagewiadomość to the redczerwony neuronneuron,
125
334000
2000
do czerwonego neuronu
05:51
it spitspluje out neurotransmitterneuroprzekaźnik.
126
336000
3000
wysyła swój neuroprzekaźnik.
05:54
At the synapsesynapsy, the two neuronsneurony
127
339000
2000
Połączenie synaptyczne między neuronami
05:56
are said to be connectedpołączony
128
341000
2000
można porównać
05:58
like two friendsprzyjaciele talkingmówić on the telephonetelefon.
129
343000
3000
do połączenia telefonicznego między ludźmi.
06:02
So you see how to find a synapsesynapsy.
130
347000
2000
Tak odkrywamy pojedyncze synapsy.
06:04
How can we find an entireCały connectomeconnectome?
131
349000
3000
Ale jak odkryć cały konektom?
06:07
Well, we take this three-dimensionaltrójwymiarowy stackstos of imagesobrazy
132
352000
3000
Używając trójwymiarowych obrazów
06:10
and treatleczyć it as a giganticgigantyczne three-dimensionaltrójwymiarowy coloringKolorowanka bookksiążka.
133
355000
3000
jak gigantycznej, trójwymiarowej kolorowanki.
06:13
We colorkolor everykażdy neuronneuron in, in a differentróżne colorkolor,
134
358000
3000
Każdy neuron kolorujemy inną barwą
06:16
and then we look throughprzez all of the imagesobrazy,
135
361000
2000
i przeglądamy wszystkie obrazy,
06:18
find the synapsessynapsy
136
363000
2000
znajdujemy synapsy
06:20
and noteUwaga the colorszabarwienie of the two neuronsneurony involvedzaangażowany in eachkażdy synapsesynapsy.
137
365000
3000
i zapisujemy kolory, które łączą.
06:23
If we can do that throughoutpoprzez all the imagesobrazy,
138
368000
3000
Kiedy zrobimy tak z wszystkimi naszymi zdjęciami
06:26
we could find a connectomeconnectome.
139
371000
2000
to znajdziemy konektom.
06:29
Now, at this pointpunkt,
140
374000
2000
Poznaliście podstawowe informacje
06:31
you've learnednauczyli the basicspodstawy of neuronsneurony and synapsessynapsy.
141
376000
2000
o neuronach i synapsach.
06:33
And so I think we're readygotowy to tacklesprzęt
142
378000
2000
Jesteście gotowi by zająć się
06:35
one of the mostwiększość importantważny questionspytania in neuroscienceneuronauka:
143
380000
3000
jednym z ważniejszych zagadnień neurobiologii:
06:39
how are the brainsmózg of menmężczyźni and womenkobiety differentróżne?
144
384000
3000
czym różnią się mózgi kobiet i mężczyzn? (Śmiech)
06:42
(LaughterŚmiech)
145
387000
2000
czym różnią się mózgi kobiet i mężczyzn? (Śmiech)
06:44
AccordingZgodnie z to this self-helpsamopomocy bookksiążka,
146
389000
2000
Według tego poradnika
06:46
guys brainsmózg are like wafflesgofry;
147
391000
2000
mózgi facetów są jak gofry:
06:48
they keep theirich liveszyje compartmentalizedpodzielone na sekcje in boxespudła.
148
393000
3000
wszystko ma swoją przegródkę.
06:51
Girls'Girls brainsmózg are like spaghettiSpaghetti;
149
396000
3000
U dziewczyn mózg jest jak spaghetti
06:54
everything in theirich life is connectedpołączony to everything elsejeszcze.
150
399000
3000
wszystko łączy się ze wszystkim innym.
06:57
(LaughterŚmiech)
151
402000
2000
(Śmiech)
06:59
You guys are laughingśmiać się,
152
404000
2000
Swoją drogą, śmiejecie się
07:01
but you know, this bookksiążka changedzmienione my life.
153
406000
2000
z książki, która zmieniła moje życie.
07:03
(LaughterŚmiech)
154
408000
2000
(Śmiech)
07:07
But seriouslypoważnie, what's wrongźle with this?
155
412000
3000
A tak na poważnie, w czym tkwi błąd?
07:10
You alreadyjuż know enoughdość to tell me -- what's wrongźle with this statementkomunikat?
156
415000
3000
Sami już znacie odpowiedź.
07:20
It doesn't mattermateria whetherczy you're a guy or girldziewczyna,
157
425000
3000
Płeć nie ma znaczenia
07:23
everyone'swszyscy brainsmózg are like spaghettiSpaghetti.
158
428000
3000
wszystkie mózgi są jak spaghetti.
07:26
Or maybe really, really fine capelliniCapellini with branchesoddziały.
159
431000
3000
Jak cieniutkie capellini z rozgałęzieniami.
07:30
Just as one strandStrand of spaghettiSpaghetti
160
435000
2000
Tak jak jedna nitka makaronu
07:32
contactsłączność manywiele other strandsnitki on your platetalerz,
161
437000
3000
łączy się z wieloma innymi na talerzu
07:35
one neuronneuron touchesdotyka manywiele other neuronsneurony
162
440000
2000
podobnie neurony dotykają
07:37
throughprzez theirich entangleduwikłany branchesoddziały.
163
442000
2000
innych przez rozgałęzienia.
07:39
One neuronneuron can be connectedpołączony to so manywiele other neuronsneurony,
164
444000
3000
Każdy może łączyć się z wieloma innymi
07:42
because there can be synapsessynapsy
165
447000
2000
dzięki synapsom przy stykach komórek.
07:44
at these pointszwrotnica of contactkontakt.
166
449000
3000
dzięki synapsom przy stykach komórek.
07:49
By now, you mightmoc have sortsortować of lostStracony perspectiveperspektywiczny
167
454000
3000
Możecie stracić z oczu fakt,
07:52
on how largeduży this cubesześcian of brainmózg tissuetkanka actuallytak właściwie is.
168
457000
3000
że ta tkanka jest niezwykle mała.
07:55
And so let's do a seriesseria of comparisonsporównania to showpokazać you.
169
460000
3000
Skontrastujmy ten sześcian z innymi wielkościami.
07:58
I assuregwarantować you, this is very tinymalutki. It's just sixsześć micronsmikronów on a sidebok.
170
463000
3000
Jego krawędzie mają 6 mikrometrów.
08:03
So, here'soto jest how it stacksstosy up againstprzeciwko an entireCały neuronneuron.
171
468000
3000
A tak wygląda na tle całego neuronu:
08:06
And you can tell that, really, only the smallestnajmniejsze fragmentspaprochy of branchesoddziały
172
471000
3000
Tylko niewielka część rozgałęzień
08:09
are containedzawarte insidewewnątrz this cubesześcian.
173
474000
3000
zawiera się w tym sześcianie.
08:12
And a neuronneuron, well, that's smallermniejszy than brainmózg.
174
477000
3000
Neuron, jest o wiele mniejszy od mózgu.
08:17
And that's just a mousemysz brainmózg --
175
482000
2000
A mózg myszy
08:21
it's a lot smallermniejszy than a humanczłowiek brainmózg.
176
486000
3000
jest o wiele mniejszy od mózgu ludzkiego.
08:25
So when showpokazać my friendsprzyjaciele this,
177
490000
2000
Kiedy pokazuję to znajomym,
08:27
sometimesczasami they'veoni told me,
178
492000
2000
czasem mówią mi,
08:29
"You know, SebastianSebastian, you should just give up.
179
494000
3000
"Sebastian, daj sobie spokój z neurobiologią,
08:32
NeuroscienceNeurologii is hopelessbeznadziejny."
180
497000
2000
to bez sensu."
08:34
Because if you look at a brainmózg with your nakednagi eyeoko,
181
499000
2000
Patrząc na mózg gołym okiem
08:36
you don't really see how complexzłożony it is,
182
501000
2000
nie widzimy jak bardzo jest złożony.
08:38
but when you use a microscopemikroskopu,
183
503000
2000
Ale kiedy patrzy się przez mikroskop
08:40
finallywreszcie the hiddenukryty complexityzłożoność is revealedujawnione.
184
505000
3000
odkrywa się jego złożoność.
08:45
In the 17thth centurystulecie,
185
510000
2000
Siedemnastowieczny filozof
08:47
the mathematicianmatematyk and philosopherfilozof, BlaiseBlaise PascalPascal,
186
512000
2000
i matematyk, Blaise Pascal,
08:49
wrotenapisał of his dreadstrach of the infinitenieskończony,
187
514000
3000
pisał o tym, jak przeraża go nieskończoność,
08:52
his feelinguczucie of insignificancemałości
188
517000
2000
o uczuciu własnej znikomości
08:54
at contemplatingkontemplując the vastogromny reachessięga of outerzewnętrzny spaceprzestrzeń.
189
519000
3000
w obliczu niezmierzonego kosmosu.
08:59
And, as a scientistnaukowiec,
190
524000
2000
Mnie jako naukowcowi
09:01
I'm not supposeddomniemany to talk about my feelingsuczucia --
191
526000
3000
nie wypada mówić o uczuciach.
09:04
too much informationInformacja, professorprofesor.
192
529000
2000
Studenci nie chcą o tym słuchać.
09:06
(LaughterŚmiech)
193
531000
2000
(Śmiech)
09:08
But maymoże I?
194
533000
2000
Ale pozwolicie mi?
09:10
(LaughterŚmiech)
195
535000
2000
(Śmiech)
09:12
(ApplauseAplauz)
196
537000
2000
(Brawa)
09:14
I feel curiosityciekawość,
197
539000
2000
Czuję zaciekawienie
09:16
and I feel wondercud,
198
541000
2000
zdumienie i podziw
09:18
but at timesczasy I have alsorównież feltczułem despairrozpacz.
199
543000
3000
ale czasem też rozpacz.
09:22
Why did I choosewybierać to studybadanie
200
547000
2000
Dlaczego badam
09:24
this organorgan that is so awesomeniesamowite in its complexityzłożoność
201
549000
3000
organ o tak ogromnej złożoności,
09:27
that it mightmoc well be infinitenieskończony?
202
552000
2000
która może być nieskończona?
09:29
It's absurdabsurdalny.
203
554000
2000
To absurdalne zadanie.
09:31
How could we even dareodważyć się to think
204
556000
2000
Jak możemy marzyć
09:33
that we mightmoc ever understandzrozumieć this?
205
558000
3000
o zrozumieniu w całości?
09:38
And yetjeszcze, I persistutrzymują się in this quixoticdonkiszotowski endeavorEndeavor.
206
563000
3000
Pozostaję jednak przy donkiszotowskiej nadziei,
09:41
And indeedw rzeczy samej, these daysdni I harborport newNowy hopesnadzieje.
207
566000
3000
że być może, któregoś dnia
09:45
SomedayPewnego dnia,
208
570000
2000
dzięki potężnym mikroskopom
09:47
a fleetfloty of microscopesMikroskopy will capturezdobyć
209
572000
2000
będziemy w stanie zobaczyć
09:49
everykażdy neuronneuron and everykażdy synapsesynapsy
210
574000
2000
każdy neuron, każdą synapsę
09:51
in a vastogromny databaseBaza danych of imagesobrazy.
211
576000
3000
zapisać ich obraz w bazie danych.
09:54
And some day, artificiallysztucznie intelligentinteligentny supercomputerssuperkomputery
212
579000
3000
Wtedy superkomputery
09:57
will analyzeanalizować the imagesobrazy withoutbez humanczłowiek assistancewsparcie
213
582000
3000
przeanalizują je bez pomocy człowieka
10:00
to summarizepodsumować them in a connectomeconnectome.
214
585000
3000
i uda im się opisać konektom.
10:04
I do not know, but I hopenadzieja that I will liverelacja na żywo to see that day,
215
589000
3000
Mam nadzieję, że dożyję tego dnia.
10:08
because findingodkrycie an entireCały humanczłowiek connectomeconnectome
216
593000
2000
Znalezienie kompletnego konektomu człowieka
10:10
is one of the greatestnajwiększy technologicaltechniczny challengeswyzwania of all time.
217
595000
3000
to ważne wyzwanie dla technologii,
10:13
It will take the work of generationspokolenia to succeedosiągnąć sukces.
218
598000
3000
którym zajmą się pokolenia naukowców.
10:17
At the presentteraźniejszość time, my collaboratorswspółpracownicy and I,
219
602000
3000
Obecnie, razem ze współpracownikami,
10:20
what we're aimingcelem for is much more modestskromny --
220
605000
2000
obieramy mniejsze cele,
10:22
just to find partialczęściowy connectomesconnectomes
221
607000
2000
jak znajdywanie częściowych konektomów
10:24
of tinymalutki chunksKawałki of mousemysz and humanczłowiek brainmózg.
222
609000
3000
w kawałeczkach mózgu myszy czy człowieka.
10:27
But even that will be enoughdość for the first teststesty of this hypothesishipoteza
223
612000
3000
To wystarczy, by poddać testom hipotezę,
10:30
that I am my connectomeconnectome.
224
615000
3000
że mój konektom to ja.
10:35
For now, let me try to convinceprzekonać you of the plausibilityprawdopodobieństwo of this hypothesishipoteza,
225
620000
3000
Chcę was przekonać, że jest to hipoteza
10:38
that it's actuallytak właściwie worthwartość takingnabierający seriouslypoważnie.
226
623000
3000
godna rozważenia.
10:42
As you growrosnąć duringpodczas childhooddzieciństwo
227
627000
2000
Kiedy człowiek rozwija się w dzieciństwie
10:44
and agewiek duringpodczas adulthooddorosłość,
228
629000
3000
i dorośleje później,
10:47
your personalosobisty identitytożsamość changeszmiany slowlypowoli.
229
632000
3000
zmienia się powoli jego tożsamość.
10:50
LikewisePodobnie, everykażdy connectomeconnectome
230
635000
2000
Podobnie, każdy konektom
10:52
changeszmiany over time.
231
637000
2000
przechodzi zmiany w czasie.
10:55
What kindsrodzaje of changeszmiany happenzdarzyć?
232
640000
2000
Jakiego rodzaju zmiany?
10:57
Well, neuronsneurony, like treesdrzewa,
233
642000
2000
Neurony, tak jak drzewa,
10:59
can growrosnąć newNowy branchesoddziały,
234
644000
2000
mogą wypuszczać nowe gałęzie
11:01
and they can losestracić oldstary oneste.
235
646000
3000
i tracić stare.
11:04
SynapsesSynapsy can be createdstworzony,
236
649000
3000
Mogą powstać nowe synapsy
11:07
and they can be eliminatedwyłączony.
237
652000
3000
a stare mogą być usunięte.
11:10
And synapsessynapsy can growrosnąć largerwiększy,
238
655000
2000
Synapsy mogą zwiększać swą objętość
11:12
and they can growrosnąć smallermniejszy.
239
657000
3000
ale mogą też się zmniejszać.
11:15
SecondDrugi questionpytanie:
240
660000
2000
Drugie zagadnienie to:
11:17
what causesprzyczyny these changeszmiany?
241
662000
3000
Co powoduje te zmiany?
11:20
Well, it's trueprawdziwe.
242
665000
2000
Do pewnego stopnia
11:22
To some extentstopień, they are programmedzaprogramowany by your genesgeny.
243
667000
3000
są zaprogramowane genetycznie.
11:25
But that's not the wholecały storyfabuła,
244
670000
2000
Ale to nie cała prawda
11:27
because there are signalssygnały, electricalelektryczny signalssygnały,
245
672000
2000
bo mamy też impulsy elektryczne
11:29
that travelpodróżować alongwzdłuż the branchesoddziały of neuronsneurony
246
674000
2000
biegnące po rozgałęzieniach neuronalnych
11:31
and chemicalchemiczny signalssygnały
247
676000
2000
oraz sygnały chemiczne
11:33
that jumpskok acrossprzez from branchgałąź to branchgałąź.
248
678000
2000
przeskakujące z jednej gałęzi na drugą.
11:35
These signalssygnały are callednazywa neuralnerwowy activityczynność.
249
680000
3000
Nazywamy to aktywnością neuronową.
11:38
And there's a lot of evidencedowód
250
683000
2000
Mamy wiele dowodów na to,
11:40
that neuralnerwowy activityczynność
251
685000
3000
że w aktywności neuronowej
11:43
is encodingkodowanie our thoughtsmyśli, feelingsuczucia and perceptionspercepcje,
252
688000
3000
zakodowane są myśli, uczucia, postrzeżenia
11:46
our mentalpsychiczny experienceswzruszenie religijne.
253
691000
2000
nasze przeżycia wewnętrzne.
11:48
And there's a lot of evidencedowód that neuralnerwowy activityczynność
254
693000
3000
Są dowody na to, że aktywność neuronowa
11:51
can causeprzyczyna your connectionsznajomości to changezmiana.
255
696000
3000
może powodować zmiany w połączeniach.
11:54
And if you put those two factsfakty togetherRazem,
256
699000
3000
To znaczy, że możemy stwierdzić,
11:57
it meansznaczy that your experienceswzruszenie religijne
257
702000
2000
że doznania i doświadczenia
11:59
can changezmiana your connectomeconnectome.
258
704000
3000
mogą zmienić nasz konektom.
12:02
And that's why everykażdy connectomeconnectome is uniquewyjątkowy,
259
707000
2000
Dlatego każdy konektom jest inny
12:04
even those of geneticallygenetycznie identicalidentyczny twinsBliźniaczki.
260
709000
3000
nawet u bliźniaków jednojajowych.
12:08
The connectomeconnectome is where natureNatura meetsspełnia nurturewychowanie.
261
713000
3000
To tu styka się natura z kulturą.
12:12
And it mightmoc trueprawdziwe
262
717000
2000
Myślenie samo w sobie, może powodować
12:14
that just the meresam actdziałać of thinkingmyślący
263
719000
2000
Myślenie samo w sobie, może powodowa
12:16
can changezmiana your connectomeconnectome --
264
721000
2000
zmiany w konektomie
12:18
an ideapomysł that you maymoże find empoweringwzmacnianie.
265
723000
3000
np. dzięki ważnej dla nas idei.
12:24
What's in this pictureobrazek?
266
729000
2000
Co mamy na tym obrazku?
12:28
A coolchłodny and refreshingOdświeżanie streamstrumień of waterwoda, you say.
267
733000
3000
Chłodny, orzeźwiający strumień?
12:32
What elsejeszcze is in this pictureobrazek?
268
737000
2000
A co jeszcze?
12:37
Do not forgetzapomnieć that grooveGroove in the EarthZiemia
269
742000
2000
Nie zapominajmy o zagłębieniu w ziemi
12:39
callednazywa the streamstrumień bedłóżko.
270
744000
3000
tzw. korycie strumienia.
12:42
WithoutBez it, the waterwoda would not know in whichktóry directionkierunek to flowpływ.
271
747000
3000
To ono nadaje kierunek wodzie.
12:45
And with the streamstrumień,
272
750000
2000
Zobaczcie w tym strumieniu metaforę
12:47
I would like to proposezaproponować a metaphormetafora
273
752000
2000
Zobaczcie w tym strumieniu metaforę
12:49
for the relationshipzwiązek betweenpomiędzy neuralnerwowy activityczynność
274
754000
2000
zależności między aktywnością neuronową
12:51
and connectivityłączność.
275
756000
2000
i połączeniami między komórkami.
12:54
NeuralNerwowej activityczynność is constantlystale changingwymiana pieniędzy.
276
759000
3000
Aktywność neuronowa nieustannie się zmienia.
12:57
It's like the waterwoda of the streamstrumień; it never sitssiedzi still.
277
762000
3000
Jak woda w strumieniu: ciągle płynie.
13:00
The connectionsznajomości
278
765000
2000
Połączenia w sieci neuronów w mózgu
13:02
of the brain'smózg neuralnerwowy networksieć
279
767000
2000
Połączenia w sieci neuronów w mózgu
13:04
determinesokreśla the pathwaysścieżki
280
769000
2000
warunkują możliwe ścieżki
13:06
alongwzdłuż whichktóry neuralnerwowy activityczynność flowsprzepływy.
281
771000
2000
dla aktywności neuronowej.
13:08
And so the connectomeconnectome is like bedłóżko of the streamstrumień;
282
773000
3000
Konektom jest jak koryto strumienia.
13:13
but the metaphormetafora is richerbogatszy than that,
283
778000
3000
Ale ta metafora jest głębsza:
13:16
because it's trueprawdziwe that the streamstrumień bedłóżko
284
781000
3000
to prawda, że koryto strumienia
13:19
guidesPrzewodniki the flowpływ of the waterwoda,
285
784000
2000
kieruje przepływem wody
13:21
but over long timescalesramy czasowe,
286
786000
2000
ale z upływem czasu
13:23
the waterwoda alsorównież reshapeszmienia kształt the bedłóżko of the streamstrumień.
287
788000
3000
woda także zmienia ułożenie koryta.
13:26
And as I told you just now,
288
791000
2000
Tak jak aktywność neuronowa może zmieniać połączenia.
13:28
neuralnerwowy activityczynność can changezmiana the connectomeconnectome.
289
793000
3000
Tak jak aktywność neuronowa może zmieniać połączenia.
13:33
And if you'llTy będziesz allowdopuszczać me to ascendAscend
290
798000
2000
Pozwólcie mi wznieść się
13:35
to metaphoricalmetaforyczny heightswysokości,
291
800000
3000
na wyżyny liryki.
13:38
I will remindprzypominać you that neuralnerwowy activityczynność
292
803000
3000
Przypominam, że aktywność nerwowa
13:41
is the physicalfizyczny basispodstawa -- or so neuroscientistsneurolodzy think --
293
806000
2000
to fizjologiczna podstawa
13:43
of thoughtsmyśli, feelingsuczucia and perceptionspercepcje.
294
808000
3000
naszych myśli, uczuć i doznań.
13:46
And so we mightmoc even speakmówić of
295
811000
2000
Możemy zatem mówić nawet
13:48
the streamstrumień of consciousnessświadomość.
296
813000
2000
o strumieniu świadomości.
13:50
NeuralNerwowej activityczynność is its waterwoda,
297
815000
3000
Gdzie aktywność neuronalna to woda
13:53
and the connectomeconnectome is its bedłóżko.
298
818000
3000
a konektom to koryto.
13:57
So let's returnpowrót from the heightswysokości of metaphormetafora
299
822000
2000
Ale wróćmy teraz z wyżyn poetyckiej metafory
13:59
and returnpowrót to sciencenauka.
300
824000
2000
do faktów nauk ścisłych.
14:01
SupposeZałóżmy, że our technologiestechnologie for findingodkrycie connectomesconnectomes
301
826000
2000
Załóżmy, że mamy już technikę
14:03
actuallytak właściwie work.
302
828000
2000
znajdowania kompletnych konektomów.
14:05
How will we go about testingtestowanie the hypothesishipoteza
303
830000
2000
W jaki sposób sprawdzilibyśmy czy hipoteza
14:07
"I am my connectomeconnectome?"
304
832000
3000
"Mój konektom to ja" jest prawdziwa?
14:10
Well, I proposezaproponować a directbezpośredni testtest.
305
835000
3000
Proponuję bezpośredni test:
14:13
Let us attemptpróba
306
838000
2000
spróbujmy odczytać
14:15
to readczytać out memorieswspomnienia from connectomesconnectomes.
307
840000
3000
wspomnienia z konektomu.
14:18
ConsiderNależy wziąć pod uwagę the memorypamięć
308
843000
2000
Umiejętność przypomnienia sobie
14:20
of long temporalczasowy sequencessekwencje of movementsruchy,
309
845000
3000
długiej sekwencji ruchów
14:23
like a pianistpianista playinggra a BeethovenBeethoven sonataSonata.
310
848000
3000
jak u pianisty grającego sonaty Beethovena.
14:26
AccordingZgodnie z to a theoryteoria that datesdaty back to the 19thth centurystulecie,
311
851000
3000
Wg teorii mającej swój początek jeszcze w XIX w.
14:29
suchtaki memorieswspomnienia are storedzapisane
312
854000
2000
pamięć tego typu jest przechowywana
14:31
as chainswięzy of synapticSynapsa connectionsznajomości insidewewnątrz your brainmózg.
313
856000
3000
jako łańcuchy połączeń nerwowych w mózgu.
14:35
Because, if the first neuronsneurony in the chainłańcuch are activatedaktywowany,
314
860000
3000
Kiedy pierwszy neuron łańcucha jest aktywowany,
14:38
throughprzez theirich synapsessynapsy they sendwysłać messageswiadomości to the seconddruga neuronsneurony, whichktóry are activatedaktywowany,
315
863000
3000
wysyła sygnał, poprzez synapsy, do następnych neuronów
14:41
and so on down the linelinia,
316
866000
2000
i tak po kolei
14:43
like a chainłańcuch of fallingspadanie dominoesDomino.
317
868000
2000
jak kostki domina.
14:45
And this sequencesekwencja of neuralnerwowy activationAktywacja
318
870000
2000
Ta sekwencja aktywacji kolejnych neuronów
14:47
is hypothesizedhipotezę to be the neuralnerwowy basispodstawa
319
872000
3000
może być podstawą neurologiczną
14:50
of those sequencesekwencja of movementsruchy.
320
875000
2000
sekwencji ruchów pianisty.
14:52
So one way of tryingpróbować to testtest the theoryteoria
321
877000
2000
Możemy przetestować tę teorię
14:54
is to look for suchtaki chainswięzy
322
879000
2000
szukając takich łańcuchów
14:56
insidewewnątrz connectomesconnectomes.
323
881000
2000
w konektomach.
14:58
But it won'tprzyzwyczajenie be easyłatwo, because they're not going to look like this.
324
883000
3000
Co nie będzie proste, bo łańcuchy nie będą wyglądać tak.
15:01
They're going to be scrambledjajecznica up.
325
886000
2000
Ich ogniwa będą porozrzucane po całym mózgu.
15:03
So we'lldobrze have to use our computerskomputery
326
888000
2000
Musimy więc wykorzystać komputery,
15:05
to try to unscramblerozszyfrować the chainłańcuch.
327
890000
3000
żeby złożyć je w całość.
15:08
And if we can do that,
328
893000
2000
Sekwencja neuronów,
15:10
the sequencesekwencja of the neuronsneurony we recoverwyzdrowieć from that unscramblingrozdzielanie
329
895000
3000
którą w ten sposób odkryjemy będzie
15:13
will be a predictionPrognoza of the patternwzór of neuralnerwowy activityczynność
330
898000
3000
przewidywanym wzorem aktywności neuronalnej
15:16
that is replayedodtwarzane in the brainmózg duringpodczas memorypamięć recallodwołanie.
331
901000
3000
podczas procesu przypominania.
15:19
And if that were successfuludany,
332
904000
2000
Jeśli się uda, będzie to pierwszy przypadek
15:21
that would be the first exampleprzykład of readingczytanie a memorypamięć from a connectomeconnectome.
333
906000
3000
odczytania wspomnień z konektomu.
15:28
(LaughterŚmiech)
334
913000
2000
(Śmiech)
15:30
What a messbałagan --
335
915000
2000
Niezły bałagan.
15:33
have you ever triedwypróbowany to wiredrut up a systemsystem
336
918000
2000
Próbowaliście kiedyś podłączyć przewody
15:35
as complexzłożony as this?
337
920000
2000
w tak skomplikowanym systemie?
15:37
I hopenadzieja not.
338
922000
2000
Mam nadzieję, że nie.
15:39
But if you have, you know it's very easyłatwo to make a mistakebłąd.
339
924000
3000
Łatwo tu o pomyłkę.
15:45
The branchesoddziały of neuronsneurony are like the wiresprzewody of the brainmózg.
340
930000
2000
Rozgałęzienia neuronów są jak kable w mózgu.
15:47
Can anyonektokolwiek guessodgadnąć: what's the totalcałkowity lengthdługość of wiresprzewody in your brainmózg?
341
932000
4000
Jaka jest łączna długość tego okablowania?
15:54
I'll give you a hintWskazówka. It's a bigduży numbernumer.
342
939000
2000
Podpowiem, że to ogromna liczba.
15:56
(LaughterŚmiech)
343
941000
2000
(Śmiech)
15:59
I estimateoszacowanie, millionsmiliony of milesmile,
344
944000
3000
Wg moich szacunków, miliony mil.
16:02
all packedzapakowane in your skullczaszka.
345
947000
3000
Upakowane w naszych czaszkach.
16:05
And if you appreciatedoceniać that numbernumer,
346
950000
2000
Doceniając ogrom tej długości
16:07
you can easilyz łatwością see
347
952000
2000
z łatwością stwierdzicie,
16:09
there is hugeolbrzymi potentialpotencjał for mis-wiringmis-okablowanie of the brainmózg.
348
954000
2000
że łatwo można je poplątać.
16:11
And indeedw rzeczy samej, the popularpopularny pressnaciśnij loveskocha headlinesnagłówki like,
349
956000
3000
Media lubują się w krzykliwych nagłówkach typu:
16:14
"AnorexicBrakiem łaknienia brainsmózg are wiredprzewodowy differentlyróżnie,"
350
959000
2000
"Mózgi anorektyków mają inne połączenia"
16:16
or "AutisticAutystyczne brainsmózg are wiredprzewodowy differentlyróżnie."
351
961000
2000
czy: "Autystyczne mózgi mają inne połączenia"
16:18
These are plausiblewiarygodne claimsroszczenia,
352
963000
2000
To prawdopodobne stwierdzenia,
16:20
but in truthprawda,
353
965000
2000
ale obecnie nie jesteśmy w stanie
16:22
we can't see the brain'smózg wiringSchemat połączeń clearlywyraźnie enoughdość
354
967000
2000
zobaczyć tego okablowania na tyle dobrze
16:24
to tell if these are really trueprawdziwe.
355
969000
2000
by móc potwierdzić te hipotezy.
16:26
And so the technologiestechnologie for seeingwidzenie connectomesconnectomes
356
971000
3000
Dzięki technologii pozwalającej
16:29
will allowdopuszczać us to finallywreszcie
357
974000
2000
zaobserwować konektomy
16:31
readczytać mis-wiringmis-okablowanie of the brainmózg,
358
976000
2000
odczytamy błędne okablowanie w mózgu:
16:33
to see mentalpsychiczny disorderszaburzenia in connectomesconnectomes.
359
978000
3000
choroby psychiczne na poziomie konektomu.
16:40
SometimesCzasami the bestNajlepiej way to testtest a hypothesishipoteza
360
985000
3000
Sprawdzając hipotezę dobrze jest
16:43
is to considerrozważać its mostwiększość extremeskrajny implicationdomniemanie.
361
988000
3000
rozważyć jej ekstremalne konsekwencje.
16:46
PhilosophersFilozofowie know this gamegra very well.
362
991000
3000
Filozofowie lubią się w to bawić.
16:50
If you believe that I am my connectomeconnectome,
363
995000
3000
Jeśli uważam, że mój konektom to ja
16:53
I think you mustmusi alsorównież acceptzaakceptować the ideapomysł
364
998000
3000
muszę także przystać na to,
16:56
that deathśmierć is the destructionzniszczenie
365
1001000
2000
że śmierć to nic innego jak
16:58
of your connectomeconnectome.
366
1003000
3000
zniszczenie mojego konektomu.
17:02
I mentionwzmianka this because there are prophetsprorocy todaydzisiaj
367
1007000
3000
Mamy dziś wielu proroków
17:05
who claimroszczenie that technologytechnologia
368
1010000
3000
twierdzących, że z pomocą technologii
17:08
will fundamentallyzasadniczo alterALTER the humanczłowiek conditionstan
369
1013000
3000
będziemy mogli zmienić kondycję ludzką
17:11
and perhapsmoże even transformprzekształcać the humanczłowiek speciesgatunki.
370
1016000
3000
a może nawet przeobrazić nasz gatunek.
17:14
One of theirich mostwiększość cherishedcenionych dreamsmarzenia
371
1019000
3000
Marzymy gorąco o tym,
17:17
is to cheatoszustwo deathśmierć
372
1022000
2000
że uda nam się oszukać śmierć
17:19
by that practicećwiczyć knownznany as cryonicsCryonics.
373
1024000
2000
poprzez technikę zwaną krioniką.
17:21
If you payzapłacić 100,000 dollarsdolarów,
374
1026000
2000
Za 100 tys. dolarów
17:23
you can arrangezorganizować to have your bodyciało frozenmrożony after deathśmierć
375
1028000
3000
możemy zamrozić nasze ciało po śmierci
17:26
and storedzapisane in liquidciekły nitrogenazot
376
1031000
2000
w płynnym azocie na przechowanie
17:28
in one of these tanksczołgi in an ArizonaArizona warehousemagazyn,
377
1033000
2000
w specjalnym magazynie w Arizonie
17:30
awaitingoczekiwanie na a futureprzyszłość civilizationcywilizacja
378
1035000
2000
oczekując na cywilizację przyszłości,
17:32
that is advancedzaawansowane to resurrectwskrzesić you.
379
1037000
3000
której uda się nas ożywić.
17:36
Should we ridiculeśmieszność the modernnowoczesny seekersosób ubiegających się o of immortalitynieśmiertelność,
380
1041000
2000
Czy należy wyszydzać ten pomysł
17:38
callingpowołanie them foolsPrima Aprilis?
381
1043000
2000
jako mrzonki głupców?
17:40
Or will they somedaypewnego dnia chucklechichot
382
1045000
2000
Czy może to oni któregoś dnia
17:42
over our gravesgroby?
383
1047000
2000
zaśmieją się nad naszymi grobami?
17:45
I don't know --
384
1050000
2000
Nie wiem.
17:47
I preferwoleć to testtest theirich beliefswierzenia, scientificallynaukowo.
385
1052000
3000
Przetestujmy ich poglądy naukowo.
17:50
I proposezaproponować that we attemptpróba to find a connectomeconnectome
386
1055000
2000
Poszukajmy konektomu
17:52
of a frozenmrożony brainmózg.
387
1057000
2000
w zamrożonym mózgu.
17:54
We know that damageuszkodzić to the brainmózg
388
1059000
2000
Wiemy, że mózg niszczeje
17:56
occurswystępuje after deathśmierć and duringpodczas freezingzamrożenie.
389
1061000
2000
po śmierci, w trakcie zamrażania.
17:58
The questionpytanie is: has that damageuszkodzić erasedwymazany the connectomeconnectome?
390
1063000
3000
Ale czy wymrozi się cały konektom?
18:01
If it has, there is no way that any futureprzyszłość civilizationcywilizacja
391
1066000
3000
Jeśli tak to nikt w przyszłości nie odzyska
18:04
will be ablezdolny to recoverwyzdrowieć the memorieswspomnienia of these frozenmrożony brainsmózg.
392
1069000
3000
wspomnień z zamrożonych mózgów.
18:07
ResurrectionZmartwychwstanie mightmoc succeedosiągnąć sukces for the bodyciało,
393
1072000
2000
Ciało być może zostanie ożywione,
18:09
but not for the mindumysł.
394
1074000
2000
ale umysł nie.
18:11
On the other handdłoń, if the connectomeconnectome is still intactnienaruszony,
395
1076000
3000
Jeśli konektom będzie nienaruszony,
18:14
we cannotnie może ridiculeśmieszność the claimsroszczenia of cryonicsCryonics so easilyz łatwością.
396
1079000
3000
nie powinniśmy szydzić z krioniki.
18:20
I've describedopisane a questQuest
397
1085000
2000
Opisałem wam dziś program badawczy,
18:22
that beginszaczyna się in the worldświat of the very smallmały,
398
1087000
3000
który zaczyna się w świecie mikro
18:25
and propelsnapędza us to the worldświat of the fardaleko futureprzyszłość.
399
1090000
3000
ale prowadzi nas do świata przyszłości.
18:28
ConnectomesConnectomes will markznak a turningobrócenie pointpunkt in humanczłowiek historyhistoria.
400
1093000
3000
Konektomy wyznaczą punkt zwrotny historii.
18:32
As we evolvedewoluował from our ape-likeMałpie ancestorsprzodkowie
401
1097000
2000
Gdy ewoluowaliśmy z naszych przodków
18:34
on the AfricanAfrykańska savannaSawanna,
402
1099000
2000
na afrykańskich sawannach
18:36
what distinguishedwybitny us was our largerwiększy brainsmózg.
403
1101000
3000
wyróżniała nas wielkość naszych mózgów,
18:40
We have used our brainsmózg to fashionmoda
404
1105000
2000
które są wykorzystywane
18:42
ever more amazingniesamowity technologiestechnologie.
405
1107000
3000
by odkrywać niesamowite technologie.
18:45
EventuallyOstatecznie, these technologiestechnologie will becomestają się so powerfulpotężny
406
1110000
3000
Kiedyś, technologie te staną się tak potężne,
18:48
that we will use them to know ourselvesmy sami
407
1113000
3000
że wykorzystamy je do poznania nas samych
18:51
by deconstructingprzejrzeć and reconstructingRekonstrukcja
408
1116000
3000
przez dekonstrukcję i rekonstrukcję
18:54
our ownwłasny brainsmózg.
409
1119000
3000
naszych własnych mózgów.
18:57
I believe that this voyagerejs of self-discoverysamopoznanie
410
1122000
3000
Ta podróż do samopoznania
19:00
is not just for scientistsnaukowcy,
411
1125000
3000
jest nie tylko dla naukowców,
19:03
but for all of us.
412
1128000
2000
ale dla każdego z nas.
19:05
And I'm gratefulwdzięczny for the opportunityokazja to sharedzielić this voyagerejs with you todaydzisiaj.
413
1130000
3000
Cieszę się, że mogłem się nim podzielić dziś z wami. Dziękuję.
19:08
Thank you.
414
1133000
2000
Cieszę się, że mogłem się nim podzielić dziś z wami. Dziękuję.
19:10
(ApplauseAplauz)
415
1135000
8000
(Brawa)
Translated by Bartlomiej Chomanski
Reviewed by Kinga Skorupska

▲Back to top

ABOUT THE SPEAKER
Sebastian Seung - Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain.

Why you should listen

In the brain, neurons are connected into a complex network. Sebastian Seung and his lab at MIT are inventing technologies for identifying and describing the connectome, the totality of connections between the brain's neurons -- think of it as the wiring diagram of the brain. We possess our entire genome at birth, but things like memories are not "stored" in the genome; they are acquired through life and accumulated in the brain. Seung's hypothesis is that "we are our connectome," that the connections among neurons is where memories and experiences get stored.

Seung and his collaborators, including Winfried Denk at the Max Planck Institute and Jeff Lichtman at Harvard University, are working on a plan to thin-slice a brain (probably starting with a mouse brain) and trace, from slice to slice, each neural pathway, exposing the wiring diagram of the brain and creating a powerful new way to visualize the workings of the mind. They're not the first to attempt something like this -- Sydney Brenner won a Nobel for mapping all the 7,000 connections in the nervous system of a tiny worm, C. elegans. But that took his team a dozen years, and the worm only had 302 nerve cells. One of Seung's breakthroughs is in using advanced imagining and AI to handle the crushing amount of data that a mouse brain will yield and turn it into richly visual maps that show the passageways of thought and sensation.

More profile about the speaker
Sebastian Seung | Speaker | TED.com