ABOUT THE SPEAKER
Ed Boyden - Neuroengineer
Ed Boyden is a professor of biological engineering and brain and cognitive sciences at the MIT Media Lab and the MIT McGovern Institute.

Why you should listen

Ed Boyden leads the Synthetic Neurobiology Group, which develops tools for analyzing and repairing complex biological systems such as the brain. His group applies these tools in a systematic way in order to reveal ground truth scientific understandings of biological systems, which in turn reveal radical new approaches for curing diseases and repairing disabilities. These technologies include expansion microscopy, which enables complex biological systems to be imaged with nanoscale precision, and optogenetic tools, which enable the activation and silencing of neural activity with light (TED Talk: A light switch for neurons). Boyden also co-directs the MIT Center for Neurobiological Engineering, which aims to develop new tools to accelerate neuroscience progress.

Amongst other recognitions, Boyden has received the Breakthrough Prize in Life Sciences (2016), the BBVA Foundation Frontiers of Knowledge Award (2015), the Carnegie Prize in Mind and Brain Sciences (2015), the Jacob Heskel Gabbay Award (2013), the Grete Lundbeck Brain Prize (2013) and the NIH Director's Pioneer Award (2013). He was also named to the World Economic Forum Young Scientist list (2013) and the Technology Review World's "Top 35 Innovators under Age 35" list (2006). His group has hosted hundreds of visitors to learn how to use new biotechnologies and spun out several companies to bring inventions out of his lab and into the world. Boyden received his Ph.D. in neurosciences from Stanford University as a Hertz Fellow, where he discovered that the molecular mechanisms used to store a memory are determined by the content to be learned. Before that, he received three degrees in electrical engineering, computer science and physics from MIT. He has contributed to over 300 peer-reviewed papers, current or pending patents and articles, and he has given over 300 invited talks on his group's work.

More profile about the speaker
Ed Boyden | Speaker | TED.com
TED2011

Ed Boyden: A light switch for neurons

Ед Бойден: Превключвател за неврони

Filmed:
1,098,379 views

Ед Бойден показва как, поставяйки гени за светлинно чувствителни протеини в мозъчни клетки, той може селективно да активира или дезактивира специфични неврони с фибро-оптични импланти. С това безпрецедентно ниво на контрол той е успял да излекува мишки от аналози на ПТСР (Посттравматично стресово разстройство) и някои форми на слепота. На хоризонта: невронни протези. След това домакинът на сесията Хуан Енрикез води кратък разговор тип "въпроси и отговори".
- Neuroengineer
Ed Boyden is a professor of biological engineering and brain and cognitive sciences at the MIT Media Lab and the MIT McGovern Institute. Full bio

Double-click the English transcript below to play the video.

00:15
Think about your day for a secondвтори.
0
0
2000
За секунда помислете за своя ден.
00:17
You wokeсъбудих up, feltчувствах freshпрясно airвъздух on your faceлице as you walkedвървеше out the doorврата,
1
2000
3000
Събудили сте се, почувствали сте свежия въздух върху лицето си, излизайки през вратата,
00:20
encounteredсрещнали newнов colleaguesколеги and had great discussionsдискусии,
2
5000
2000
срещнали сте нови колеги и сте провели страхотни дискусии,
00:22
and feltчувствах in aweAWE when you foundнамерено something newнов.
3
7000
2000
и сте почувствали страхопочитание, когато сте открили нещо ново.
00:24
But I betзалагане there's something you didn't think about todayднес --
4
9000
2000
Но се обзалагам, че има нещо, за което не сте помислили днес -
00:26
something so closeблизо to home
5
11000
2000
нещо толкова близко до дома,
00:28
that you probablyвероятно don't think about it very oftenчесто at all.
6
13000
2000
че вероятно не мислите почти никога за него.
00:30
And that's that all the sensationsусещания, feelingsчувствата,
7
15000
2000
И това е, че всички усещания, чувства,
00:32
decisionsрешения and actionsмерки
8
17000
2000
решения и действия
00:34
are mediatedпосредничеството by the computerкомпютър in your headглава
9
19000
2000
са осъществени от компютъра в нашата глава,
00:36
calledНаречен the brainмозък.
10
21000
2000
наречен мозък.
00:38
Now the brainмозък mayможе not look like much from the outsideизвън --
11
23000
2000
Мозъкът може да не изглежда като кой знае какво отвън -
00:40
a coupleдвойка poundsпаунда of pinkish-grayрозовичък-сиви fleshплът,
12
25000
2000
няколко паунда розово-сива плът,
00:42
amorphousаморфен --
13
27000
2000
аморфен -
00:44
but the last hundredсто yearsгодини of neuroscienceневрология
14
29000
2000
но последните сто години в невронауката
00:46
have allowedпозволен us to zoomмащабиране in on the brainмозък,
15
31000
2000
ни позволиха да се фокусираме върху мозъка
00:48
and to see the intricacyсложност of what liesлъжи withinв рамките на.
16
33000
2000
и да съзрем сложността, която се крие вътре.
00:50
And they'veте имат told us that this brainмозък
17
35000
2000
И те ни показаха, че мозъкът
00:52
is an incrediblyневероятно complicatedсложен circuitверига
18
37000
2000
е една невероятно сложна верига,
00:54
madeизработен out of hundredsстотици of billionsмилиарди of cellsклетки calledНаречен neuronsневрони.
19
39000
4000
съставена от стотици милиарди клетки, наречени неврони.
00:58
Now unlikeза разлика от a human-designedчовека, предназначени computerкомпютър,
20
43000
3000
За разлика от създадения от човека компютър,
01:01
where there's a fairlyсравнително smallмалък numberномер of differentразличен partsчасти --
21
46000
2000
където има сравнително малък брой различни части -
01:03
we know how they work, because we humansхората designedпроектиран them --
22
48000
3000
знаем как работят, защото ние хората сме ги проектирали -
01:06
the brainмозък is madeизработен out of thousandsхиляди of differentразличен kindsвидове of cellsклетки,
23
51000
3000
мозъкът е съставен от хиляди различни видове клетки,
01:09
maybe tensдесетки of thousandsхиляди.
24
54000
2000
може би десетки хиляди.
01:11
They come in differentразличен shapesформи; they're madeизработен out of differentразличен moleculesмолекули.
25
56000
2000
Те имат различни форми, съставят ги различни молекули;
01:13
And they projectпроект and connectсвържете to differentразличен brainмозък regionsрегиони,
26
58000
3000
и те проектират и свързват различни региони в мозъка.
01:16
and they alsoсъщо changeпромяна differentразличен waysначини in differentразличен diseaseболест statesсъстояния.
27
61000
3000
И те също така се променят по различни начини в различни болестни състояния.
01:19
Let's make it concreteбетон.
28
64000
2000
Нека бъдем по-конкретни.
01:21
There's a classклас of cellsклетки,
29
66000
2000
Има клас клетки,
01:23
a fairlyсравнително smallмалък cellклетка, an inhibitoryинхибиторен cellклетка, that quietsуспокоява its neighborsсъседи.
30
68000
3000
сравнително малка клетка, инхибиторна клетка, която утихва съседите си.
01:26
It's one of the cellsклетки that seemsИзглежда to be atrophiedатрофирали in disordersразстройства like schizophreniaшизофрения.
31
71000
4000
Това е една от клетките, която излиза, че е атрофирала при заболявания като шизофрения.
01:30
It's calledНаречен the basketкошница cellклетка.
32
75000
2000
Нарича се клетката-кошница.
01:32
And this cellклетка is one of the thousandsхиляди of kindsвидове of cellклетка
33
77000
2000
И тази клетка е една от хилядите видове клетки,
01:34
that we are learningизучаване на about.
34
79000
2000
които ние изучаваме.
01:36
NewНов onesтакива are beingсъщество discoveredоткрит everydayвсеки ден.
35
81000
2000
Нови биват открити всеки ден.
01:38
As just a secondвтори exampleпример:
36
83000
2000
Като втори пример:
01:40
these pyramidalпирамидален cellsклетки, largeголям cellsклетки,
37
85000
2000
тези пирамидални клетки, големи клетки,
01:42
they can spanпедя a significantзначителен fractionфракция of the brainмозък.
38
87000
2000
те могат да обхванат значителна част от мозъка.
01:44
They're excitatoryвъзбуден.
39
89000
2000
Те са възбудителни.
01:46
And these are some of the cellsклетки
40
91000
2000
И това са някои от клетките,
01:48
that mightбиха могли, може be overactiveсвръхактивен in disordersразстройства suchтакъв as epilepsyепилепсия.
41
93000
3000
които могат да бъдат свръхактивни при заболявания като епилепсия.
01:51
EveryВсеки one of these cellsклетки
42
96000
2000
Всяка една от тези клетки
01:53
is an incredibleневероятен electricalелектрически deviceприспособление.
43
98000
3000
е едно изключително електрическо устройство.
01:56
They receiveполучавам inputвход from thousandsхиляди of upstreamнагоре partnersпартньори
44
101000
2000
Те получават данни от хиляди партньори нагоре по веригата
01:58
and computeпресмятам theirтехен ownсобствен electricalелектрически outputsизходи,
45
103000
3000
и изчисляват своята собствена електрическа продуктивност,
02:01
whichкойто then, if they passминавам a certainопределен thresholdпраг,
46
106000
2000
която след това, ако те преминат определен праг,
02:03
will go to thousandsхиляди of downstreamпо течението partnersпартньори.
47
108000
2000
ще отиде до хиляди партньори надолу по веригата.
02:05
And this processпроцес, whichкойто takes just a millisecondмилисекунда or so,
48
110000
3000
И този процес, който трае само около една милисекунда,
02:08
happensслучва се thousandsхиляди of timesпъти a minuteминута
49
113000
2000
се осъществява хиляди пъти в минута,
02:10
in everyвсеки one of your 100 billionмилиард cellsклетки,
50
115000
2000
във всяка една от вашите 100 милиарда клетки,
02:12
as long as you liveживея
51
117000
2000
докато сте живи
02:14
and think and feel.
52
119000
3000
и мислите, и чувствате.
02:17
So how are we going to figureфигура out what this circuitверига does?
53
122000
3000
Така че как ще разберем какво прави тази верига?
02:20
IdeallyВ идеалния случай, we could go throughпрез the circuitверига
54
125000
2000
В идеалния случай може да преминем през веригата
02:22
and turnзавой these differentразличен kindsвидове of cellклетка on and off
55
127000
3000
и да включваме и изключваме тези различни видове клетки,
02:25
and see whetherдали we could figureфигура out
56
130000
2000
и да видим дали можем да разберем
02:27
whichкойто onesтакива contributeдопринесе to certainопределен functionsфункции
57
132000
2000
кои участват в определени функции
02:29
and whichкойто onesтакива go wrongпогрешно in certainопределен pathologiesпатологии.
58
134000
2000
и кои се объркват в някои патологии.
02:31
If we could activateактивиране cellsклетки, we could see what powersправомощия they can unleashотприщи,
59
136000
3000
Ако можехме да активираме клетки, бихме могли да видим какви сили могат да разгърнат,
02:34
what they can initiateинициира and sustainподдържане на.
60
139000
2000
какво могат да инициират и поддържат.
02:36
If we could turnзавой them off,
61
141000
2000
Ако можехме да ги изключим,
02:38
then we could try and figureфигура out what they're necessaryнеобходимо for.
62
143000
2000
тогава бихме могли да се опитаме да разберем за какво са необходими те.
02:40
And that's a storyистория I'm going to tell you about todayднес.
63
145000
3000
И това е историята, която ще ви разкажа днес.
02:43
And honestlyчестно казано, where we'veние имаме goneси отиде throughпрез over the last 11 yearsгодини,
64
148000
3000
Честно казано, къде сме преминали през последните 11 години,
02:46
throughпрез an attemptопит to find waysначини
65
151000
2000
в опит да намерим начини
02:48
of turningобръщане circuitsвериги and cellsклетки and partsчасти and pathwaysпътища of the brainмозък
66
153000
2000
за включване и изключване на вериги и клетки, и части, и пътища
02:50
on and off,
67
155000
2000
в мозъка,
02:52
bothи двете to understandразбирам the scienceнаука
68
157000
2000
както, за да разберем науката
02:54
and alsoсъщо to confrontизправи срещу some of the issuesвъпроси
69
159000
3000
също така и за да посрещнем някои от последиците,
02:57
that faceлице us all as humansхората.
70
162000
3000
пред които се изправяме като хора.
03:00
Now before I tell you about the technologyтехнология,
71
165000
3000
Преди да ви разкажа за технологията,
03:03
the badлошо newsНовини is that a significantзначителен fractionфракция of us in this roomстая,
72
168000
3000
лошата новина е, че значителна част от нас в тази стая,
03:06
if we liveживея long enoughдостатъчно,
73
171000
2000
ако живеем достатъчно дълго,
03:08
will encounterсблъскване, perhapsможе би, a brainмозък disorderсмущение.
74
173000
2000
ще се сблъскаме, може би, с мозъчно нарушение.
03:10
AlreadyВече, a billionмилиард people
75
175000
2000
Вече един милиард души
03:12
have had some kindмил of brainмозък disorderсмущение
76
177000
2000
са имали някакво мозъчно нарушение,
03:14
that incapacitatesincapacitates them,
77
179000
2000
което ги е направило неспособни.
03:16
and the numbersчисленост don't do it justiceправосъдие thoughвъпреки че.
78
181000
2000
И числата не използват целия си потенциал.
03:18
These disordersразстройства -- schizophreniaшизофрения, Alzheimer'sБолестта на Алцхаймер,
79
183000
2000
Тези заболявания - шизофрения, Алцхаймер,
03:20
depressionдепресия, addictionпристрастяване --
80
185000
2000
депресия, пристрастяване -
03:22
they not only stealкражба our time to liveживея, they changeпромяна who we are.
81
187000
3000
те не само отнемат времето ни за живот, те променят това, което сме;
03:25
They take our identityидентичност and changeпромяна our emotionsемоции
82
190000
2000
те отнемат идентичността ни и променят емоциите ни -
03:27
and changeпромяна who we are as people.
83
192000
3000
и променят това, което сме като хора.
03:30
Now in the 20thтата centuryвек,
84
195000
3000
През 20-ти век
03:33
there was some hopeнадявам се that was generatedгенерирана
85
198000
3000
имаше надежда, която беше предизвикана
03:36
throughпрез the developmentразвитие of pharmaceuticalsфармацевтични продукти for treatingлечение brainмозък disordersразстройства,
86
201000
3000
от развитието на фармацевтиката за третиране на мозъчни нарушения.
03:39
and while manyмного drugsнаркотици have been developedразвита
87
204000
3000
И докато много лекарства бяха разработени,
03:42
that can alleviateоблекчаване на symptomsсимптоми of brainмозък disordersразстройства,
88
207000
2000
които могат да облекчат симптомите на мозъчните нарушения,
03:44
practicallyпрактически noneнито един of them can be consideredразглеждан to be curedсушен.
89
209000
3000
практически никое от тях не може да се счете за излекувано.
03:47
And partчаст of that's because we're bathingза къпане the brainмозък in the chemicalхимически.
90
212000
3000
И част от това е, защото ние къпем мозъка в този химикал.
03:50
This elaborateсложен circuitверига
91
215000
2000
Тази сложна верига,
03:52
madeизработен out of thousandsхиляди of differentразличен kindsвидове of cellклетка
92
217000
2000
съставена от хиляди различни видове клетки,
03:54
is beingсъщество bathedкъпят in a substanceвещество.
93
219000
2000
е окъпвана в едно вещество.
03:56
That's alsoсъщо why, perhapsможе би, mostнай-много of the drugsнаркотици, and not all, on the marketпазар
94
221000
2000
Може би затова повечето лекарства, но не всички, на пазара
03:58
can presentнастояще some kindмил of seriousсериозно sideстрана effectефект too.
95
223000
3000
също могат да причинят и някакъв сериозен вид страничен ефект.
04:01
Now some people have gottenнамерила some solaceутеха
96
226000
3000
Наистина някои хора са получили някаква утеха
04:04
from electricalелектрически stimulatorsстимулатори that are implantedимплантира in the brainмозък.
97
229000
3000
от електрически стимулатори, имплантирани в мозъка.
04:07
And for Parkinson'sПаркинсон diseaseболест,
98
232000
2000
И за болестта на Паркинсон,
04:09
CochlearКохлеарен implantsимпланти,
99
234000
2000
Кохлеарни импланти,
04:11
these have indeedнаистина been ableспособен
100
236000
2000
те наистина са успели
04:13
to bringвъвеждат some kindмил of remedyотстрани
101
238000
2000
да донесат някакъв вид облекчение
04:15
to people with certainопределен kindsвидове of disorderсмущение.
102
240000
2000
на хора с определени видове заболявания.
04:17
But electricityелектричество alsoсъщо will go in all directionsинструкции --
103
242000
2000
Но електричеството също така ще отиде във всички посоки -
04:19
the pathпът of leastнай-малко resistanceсъпротивление,
104
244000
2000
пътят на най-малко съпротивление,
04:21
whichкойто is where that phraseфраза, in partчаст, comesидва from.
105
246000
2000
който е там, от където този обрат, от части, идва.
04:23
And it alsoсъщо will affectзасегне normalнормален circuitsвериги as well as the abnormalнеобичайни onesтакива that you want to fixфиксира.
106
248000
3000
И ще засегне нормалните вериги заедно с анормалните, които искате да поправите.
04:26
So again, we're sentизпратен back to the ideaидея
107
251000
2000
Значи отново се връщаме на идеята
04:28
of ultra-preciseUltra-прецизно controlконтрол.
108
253000
2000
за строго прецизния контрол.
04:30
Could we dial-inкомутируема връзка informationинформация preciselyточно where we want it to go?
109
255000
3000
Бихме ли могли да внесем информация точно там, където искаме да отиде?
04:34
So when I startedзапочна in neuroscienceневрология 11 yearsгодини agoпреди,
110
259000
4000
Тъй че когато започнах да се занимавам с невронаука преди 11 години,
04:38
I had trainedобучен as an electricalелектрически engineerинженер and a physicistфизик,
111
263000
3000
бях трениран електроинженер и физик,
04:41
and the first thing I thought about was,
112
266000
2000
и първото, което си помислих беше -
04:43
if these neuronsневрони are electricalелектрически devicesустройства,
113
268000
2000
ако невроните са електрически устройства,
04:45
all we need to do is to find some way
114
270000
2000
това, което трябва да направим, е да намерим някакъв начин
04:47
of drivingшофиране those electricalелектрически changesпромени at a distanceразстояние.
115
272000
2000
да запратим тези електрически заряди на разстояние.
04:49
If we could turnзавой on the electricityелектричество in one cellклетка,
116
274000
2000
Ако бихме могли да включим електричеството в една клетка,
04:51
but not its neighborsсъседи,
117
276000
2000
но не и това на съседите и,
04:53
that would give us the toolинструмент we need to activateактивиране and shutзатворен down these differentразличен cellsклетки,
118
278000
3000
това ще ни даде средството, от което се нуждаем, за да активираме и да изключим различните клетки,
04:56
figureфигура out what they do and how they contributeдопринесе
119
281000
2000
за да разберем какво правят и как си съдействат.
04:58
to the networksмрежи in whichкойто they're embeddedвградени.
120
283000
2000
със системите, в които са поставени.
05:00
And alsoсъщо it would allowпозволява us to have the ultra-preciseUltra-прецизно controlконтрол we need
121
285000
2000
И също така ще ни предостави строго прецизния контрол, от който се нуждаем,
05:02
in orderпоръчка to fixфиксира the circuitверига computationsизчисления
122
287000
3000
за да поправим верижните изчисления,
05:05
that have goneси отиде awryкриво.
123
290000
2000
които са се объркали.
05:07
Now how are we going to do that?
124
292000
2000
И как ще направим това?
05:09
Well there are manyмного moleculesмолекули that existсъществувам in natureприрода,
125
294000
2000
Има много молекули, съществуващи в природата,
05:11
whichкойто are ableспособен to convertпревръщам lightсветлина into electricityелектричество.
126
296000
3000
които са способни да преобразуват светлината в електричество.
05:14
You can think of them as little proteinsпротеини
127
299000
2000
Може да си ги представите като малки протеини,
05:16
that are like solarслънчев cellsклетки.
128
301000
2000
които са като слънчеви клетки.
05:18
If we can installИнсталирай these moleculesмолекули in neuronsневрони somehowнякак си,
129
303000
3000
Ако някак можем да инсталираме тези молекули в невроните,
05:21
then these neuronsневрони would becomeда стане electricallyелектрически drivabledrivable with lightсветлина.
130
306000
3000
тогава тези неврони ще станат електрически управляеми със светлина.
05:24
And theirтехен neighborsсъседи, whichкойто don't have the moleculeмолекула, would not.
131
309000
3000
И техните съседи, които нямат молекулата, няма да станат.
05:27
There's one other magicмагия trickтрик you need to make this all happenстава,
132
312000
2000
Има още един магически трик, който трябва да направите, за да стане всичко това,
05:29
and that's the abilityспособност to get lightсветлина into the brainмозък.
133
314000
3000
и това е способността да пренесете светлина в мозъка.
05:32
And to do that -- the brainмозък doesn't feel painболка -- you can put --
134
317000
3000
И за да направите това - мозъкът не чувства болка - може да сложите -
05:35
takingприемате advantageпредимство of all the effortусилие
135
320000
2000
възползвайки се от всички усилия,
05:37
that's goneси отиде into the InternetИнтернет and communicationsкомуникации and so on --
136
322000
2000
които са вложени в интернет и комуникациите и т.н. -
05:39
opticalоптични fibersвлакна connectedсвързан to lasersлазери
137
324000
2000
оптични фибри, свързани към лазери,
05:41
that you can use to activateактивиране, in animalживотно modelsмодели for exampleпример,
138
326000
2000
които може да използвате, за да активирате, в животински модел например,
05:43
in pre-clinicalпредклинични studiesпроучвания,
139
328000
2000
в предклинични изследвания,
05:45
these neuronsневрони and to see what they do.
140
330000
2000
тези неврони и да видите какво правят те.
05:47
So how do we do this?
141
332000
2000
Значи как правим това?
05:49
Around 2004,
142
334000
2000
Около 2004,
05:51
in collaborationсътрудничество with GerhardГерхард NagelNagel and KarlКарл DeisserothDeisseroth,
143
336000
2000
в сътрудничество с Герхард Нагел и Карл Дайсеротх
05:53
this visionзрение cameдойде to fruitionоправдаване.
144
338000
2000
тази визия стана реалност.
05:55
There's a certainопределен algaводорасли that swimsплува in the wildдив,
145
340000
3000
Има едно водорасло, което плува в дивата природа,
05:58
and it needsпотребности to navigateнавигирате towardsкъм lightсветлина
146
343000
2000
и трябва да се движи към светлината,
06:00
in orderпоръчка to photosynthesizephotosynthesize optimallyоптимално.
147
345000
2000
за да фотосинтезира оптимално.
06:02
And it sensesсетива lightсветлина with a little eye-spotочите на място,
148
347000
2000
То усеща светлината с малко пигментово петно,
06:04
whichкойто worksвърши работа not unlikeза разлика от how our eyeоко worksвърши работа.
149
349000
3000
което не работи така, както нашите очи.
06:07
In its membraneмембрана, or its boundaryграница,
150
352000
2000
В своята мембрана, или на своята граница,
06:09
it containsсъдържа little proteinsпротеини
151
354000
3000
то съдържа малки протеини,
06:12
that indeedнаистина can convertпревръщам lightсветлина into electricityелектричество.
152
357000
3000
които наистина могат да превърнат светлината в електричество.
06:15
So these moleculesмолекули are calledНаречен channelrhodopsinschannelrhodopsins.
153
360000
3000
И тези молекули са наречени канални родопсини.
06:18
And eachвсеки of these proteinsпротеини actsактове just like that solarслънчев cellклетка that I told you about.
154
363000
3000
И всеки от тези протеини се държи също като слънчевата клетка, за която ви говорех.
06:21
When blueсин lightсветлина hitsхитове it, it opensотваря up a little holeдупка
155
366000
3000
Когато синя светлина го уцели, той отваря една малка дупка
06:24
and allowsпозволява chargedзаредена particlesчастици to enterвъведете the eye-spotочите на място,
156
369000
2000
и позволява на заредени частици да влязат в пигментовото петно.
06:26
and that allowsпозволява this eye-spotочите на място to have an electricalелектрически signalсигнал
157
371000
2000
И това позволява на пигментовото петно да има електрически сигнал,
06:28
just like a solarслънчев cellклетка chargingзареждане up a batteryбатерия.
158
373000
3000
също като слънчева клетка, зареждаща батерия.
06:31
So what we need to do is to take these moleculesмолекули
159
376000
2000
Значи това, което трябва да направим, е да вземем тези молекули
06:33
and somehowнякак си installИнсталирай them in neuronsневрони.
160
378000
2000
и някак си да ги инсталираме в невроните.
06:35
And because it's a proteinпротеин,
161
380000
2000
И тъй като това е протеин,
06:37
it's encodedкодиран for in the DNAДНК of this organismорганизъм.
162
382000
3000
той е закодиран в ДНК-то на организма.
06:40
So all we'veние имаме got to do is take that DNAДНК,
163
385000
2000
Значи това, което трябва да направим, е да вземем това ДНК,
06:42
put it into a geneген therapyтерапия vectorвектор, like a virusвирус,
164
387000
3000
да го сложим във вектор за генна терапия, като вирус,
06:45
and put it into neuronsневрони.
165
390000
3000
и да го сложим в невроните.
06:48
So it turnedоказа out that this was a very productiveпродуктивен time in geneген therapyтерапия,
166
393000
3000
Значи излиза, че това е било доста продуктивен период в генната терапия,
06:51
and lots of virusesвируси were comingидващ alongзаедно.
167
396000
2000
и много вируси се появяваха.
06:53
So this turnedоказа out to be very simpleпрост to do.
168
398000
2000
И излезе, че това е много просто за осъществяване.
06:55
And earlyрано in the morningсутрин one day in the summerлято of 2004,
169
400000
3000
И рано сутринта, в един летен ден през 2004,
06:58
we gaveдадох it a try, and it workedработил on the first try.
170
403000
2000
пробвахме и проработи на първия опит.
07:00
You take this DNAДНК and you put it into a neuronневрон.
171
405000
3000
Взимате това ДНК и го слагате в неврон.
07:03
The neuronневрон usesупотреби its naturalестествен protein-makingпротеин за вземане machineryмашини
172
408000
3000
Невронът използва естествената си машина за производство на протеини,
07:06
to fabricateизмислям these little light-sensitiveсветлочувствителни proteinsпротеини
173
411000
2000
за да произведе тези малки, чувствителни към светлината протеини,
07:08
and installИнсталирай them all over the cellклетка,
174
413000
2000
и за да ги инсталира навсякъде из клетката,
07:10
like puttingпускането solarслънчев panelsпанели on a roofпокрив,
175
415000
2000
като да поставите слънчеви панели на покрив.
07:12
and the nextследващия thing you know,
176
417000
2000
И след това
07:14
you have a neuronневрон whichкойто can be activatedактивиран with lightсветлина.
177
419000
2000
имате неврон, който може да се активира със светлина.
07:16
So this is very powerfulмощен.
178
421000
2000
Това е много могъщо.
07:18
One of the tricksтрикове you have to do
179
423000
2000
Един от триковете, които трябва да направите,
07:20
is to figureфигура out how to deliverдоставям these genesгени to the cellsклетки that you want
180
425000
2000
е да разберете как да доставите тези гени в клетките, които желаете,
07:22
and not all the other neighborsсъседи.
181
427000
2000
и не на техните съседи.
07:24
And you can do that; you can tweakощипвам the virusesвируси
182
429000
2000
И вие можете да направите това; може да измените вирусите,
07:26
so they hitудар just some cellsклетки and not othersдруги.
183
431000
2000
така че да уцелят някои клетки, но други - не.
07:28
And there's other geneticгенетичен tricksтрикове you can playиграя
184
433000
2000
Има и други генетични трикове, които може да използвате,
07:30
in orderпоръчка to get light-activatedсветлина-активирана cellsклетки.
185
435000
3000
за да получите светлинно-активиращи се клетки.
07:33
This fieldполе has now come to be knownизвестен as optogeneticsoptogenetics.
186
438000
4000
Тази област е вече известна като оптогенетика.
07:37
And just as one exampleпример of the kindмил of thing you can do,
187
442000
2000
И само за пример за нещо, което можете да направите,
07:39
you can take a complexкомплекс networkмрежа,
188
444000
2000
може да вземете комплексна мрежа,
07:41
use one of these virusesвируси to deliverдоставям the geneген
189
446000
2000
да използвате един от тези вируси, за да доставите гена
07:43
just to one kindмил of cellклетка in this denseплътен networkмрежа.
190
448000
3000
само на един вид клетки в тази гъста мрежа.
07:46
And then when you shineблясък lightсветлина on the entireцял networkмрежа,
191
451000
2000
И когато осветите цялата мрежа,
07:48
just that cellклетка typeТип will be activatedактивиран.
192
453000
2000
само този вид клетка ще се активира.
07:50
So for exampleпример, letsНека да sortвид of considerобмислям that basketкошница cellклетка I told you about earlierпо-рано --
193
455000
3000
Например, нека вземем за пример тази клетка-кошница, за която ви казах по-рано -
07:53
the one that's atrophiedатрофирали in schizophreniaшизофрения
194
458000
2000
тази, която е атрофирала при шизофрения
07:55
and the one that is inhibitoryинхибиторен.
195
460000
2000
и която е инхибиторна.
07:57
If we can deliverдоставям that geneген to these cellsклетки --
196
462000
2000
Ако можем да доставим този ген до тези клетки -
07:59
and they're not going to be alteredпроменен by the expressionизразяване of the geneген, of courseкурс --
197
464000
3000
и те няма да бъдат изменени от проявата на гена, разбира се -
08:02
and then flashфлаш blueсин lightсветлина over the entireцял brainмозък networkмрежа,
198
467000
3000
и тогава да осветим в синьо цялата мозъчна мрежа,
08:05
just these cellsклетки are going to be drivenзадвижван.
199
470000
2000
само тези клетки ще се повлияят.
08:07
And when the lightсветлина turnsзавои off, these cellsклетки go back to normalнормален,
200
472000
2000
И когато изключим светлината, тези клетки се нормализират,
08:09
so they don't seemИзглежда to be averseнеблагоприятният againstсрещу that.
201
474000
3000
така че това не изглежда да им е причинило проблем.
08:12
Not only can you use this to studyуча what these cellsклетки do,
202
477000
2000
Не само можете да използвате това да изучавате какво правят тези клетки,
08:14
what theirтехен powerмощност is in computingизчислителен in the brainмозък,
203
479000
2000
каква е тяхната сила за изчисленията в мозъка,
08:16
but you can alsoсъщо use this to try to figureфигура out --
204
481000
2000
но също така може да използвате това, за да се опитате да разберете -
08:18
well maybe we could jazzджаз up the activityдейност of these cellsклетки,
205
483000
2000
е, може би бихме могли да оживим активността на тези клетки,
08:20
if indeedнаистина they're atrophiedатрофирали.
206
485000
2000
ако наистина те са атрофирали.
08:22
Now I want to tell you a coupleдвойка of shortнисък storiesистории
207
487000
2000
Сега искам да ви разкажа две кратки истории
08:24
about how we're usingизползвайки this,
208
489000
2000
за това как използваме това,
08:26
bothи двете at the scientificнаучен, clinicalклиничен and pre-clinicalпредклинични levelsнива.
209
491000
3000
и на двете научни, клинични и предклинични нива.
08:29
One of the questionsвъпроси we'veние имаме confrontedизправен
210
494000
2000
Един от въпросите, с които се сблъскахме е:
08:31
is, what are the signalsсигнали in the brainмозък that mediateпосредничи the sensationсензация of rewardнаграда?
211
496000
3000
какви са сигналите в мозъка, които причиняват усещането за награда?
08:34
Because if you could find those,
212
499000
2000
Защото, ако ги намерите,
08:36
those would be some of the signalsсигнали that could driveпът learningизучаване на.
213
501000
2000
това биха били някои от сигналите, които биха могли да доведат до учене.
08:38
The brainмозък will do more of whateverкакто и да е got that rewardнаграда.
214
503000
2000
Мозъкът ще прави повече от това, което е получило наградата.
08:40
And alsoсъщо these are signalsсигнали that go awryкриво in disordersразстройства suchтакъв as addictionпристрастяване.
215
505000
3000
И също така това са сигнали, които се объркват при заболявания като пристрастяване.
08:43
So if we could figureфигура out what cellsклетки they are,
216
508000
2000
Тъй че ако можем да разберем кои са тези клетки,
08:45
we could maybe find newнов targetsцели
217
510000
2000
може би бихме могли да намерим нови мишени,
08:47
for whichкойто drugsнаркотици could be designedпроектиран or screenedпроверени againstсрещу,
218
512000
2000
за това какви лекарства биха могли да бъдат проектирани,
08:49
or maybe placesместа where electrodesелектроди could be put in
219
514000
2000
или може би места, където електроди могат да бъдат поставени
08:51
for people who have very severeтежък disabilityинвалидност.
220
516000
3000
за хора, които имат много тежки увреждания.
08:54
So to do that, we cameдойде up with a very simpleпрост paradigmпарадигма
221
519000
2000
За да направим това, измислихме много проста парадигма
08:56
in collaborationсътрудничество with the FiorellaFiorella groupгрупа,
222
521000
2000
в сътрудничество с Фиорела груп,
08:58
where one sideстрана of this little boxкутия,
223
523000
2000
където едната страна на тази малка кутия,
09:00
if the animalживотно goesотива there, the animalживотно getsполучава a pulseпулс of lightсветлина
224
525000
2000
ако животното отиде там, то получава светлинен импулс.
09:02
in orderпоръчка to make differentразличен cellsклетки in the brainмозък sensitiveчувствителен to lightсветлина.
225
527000
2000
с цел да направи различни мозъчни клетки чувствителни към светлината.
09:04
So if these cellsклетки can mediateпосредничи rewardнаграда,
226
529000
2000
Така че ако тези клетки могат да причинят усещане за награда,
09:06
the animalживотно should go there more and more.
227
531000
2000
животното би трябвало да ходи там все повече и повече.
09:08
And so that's what happensслучва се.
228
533000
2000
Това е и нещото , което става.
09:10
This animal'sна животните going to go to the right-handдясна ръка sideстрана and pokeмушкам his noseнос there,
229
535000
2000
Това животно ще отиде до дясната страна и ще си пъха носа там,
09:12
and he getsполучава a flashфлаш of blueсин lightсветлина everyвсеки time he does that.
230
537000
2000
и ще получава искра от синя светлина всеки път, когато го направи.
09:14
And he'llтой ще do that hundredsстотици and hundredsстотици of timesпъти.
231
539000
2000
И то ще го прави стотици , стотици пъти.
09:16
These are the dopamineдопамин neuronsневрони,
232
541000
2000
Това са допаминергичните неврони,
09:18
whichкойто some of you mayможе have heardчух about, in some of the pleasureудоволствие centersцентрове in the brainмозък.
233
543000
2000
за които някои от вас са чували, че се намират в някои центрове на удоволствие в мозъка.
09:20
Now we'veние имаме shownпосочен that a briefкратък activationактивиране of these
234
545000
2000
И така, показахме, че кратката им активация
09:22
is enoughдостатъчно, indeedнаистина, to driveпът learningизучаване на.
235
547000
2000
е достатъчна действително, за да подтикне към учене.
09:24
Now we can generalizeобобщавам the ideaидея.
236
549000
2000
Сега може да обобщим идеята.
09:26
InsteadВместо това of one pointточка in the brainмозък,
237
551000
2000
Вместо едно място в мозъка,
09:28
we can deviseизработи devicesустройства that spanпедя the brainмозък,
238
553000
2000
можем да разработим устройства, които да обхващат мозъка,
09:30
that can deliverдоставям lightсветлина into three-dimensionalтриизмерен patternsмодели --
239
555000
2000
които могат да доставят светлина в триизмерни модели -
09:32
arraysмасиви of opticalоптични fibersвлакна,
240
557000
2000
внушителен брой оптични влакна,
09:34
eachвсеки coupledсъчетано to its ownсобствен independentнезависим miniatureминиатюрни lightсветлина sourceизточник.
241
559000
2000
всяко свързано със своя независим миниатюрен източник на светлина.
09:36
And then we can try to do things in vivovivo
242
561000
2000
И тогава можем да опитаме да правим нещата ин виво (на жив организъм),
09:38
that have only been doneСвършен to-dateкъм дата in a dishчиния --
243
563000
3000
което до момента е правено само в чинийка -
09:41
like high-throughputвисока производителност screeningскрининг throughoutпрез the entireцял brainмозък
244
566000
2000
като висока пропускателна способност навсякъде из мозъка
09:43
for the signalsсигнали that can causeкауза certainопределен things to happenстава.
245
568000
2000
за сигналите, които могат да причинят някои неща.
09:45
Or that could be good clinicalклиничен targetsцели
246
570000
2000
Или те могат да бъдат добри клинични мишени
09:47
for treatingлечение brainмозък disordersразстройства.
247
572000
2000
за третиране на мозъчни нарушения.
09:49
And one storyистория I want to tell you about
248
574000
2000
И една история, която искам да ви разкажа,
09:51
is how can we find targetsцели for treatingлечение post-traumaticпосттравматични stressстрес disorderсмущение --
249
576000
3000
е за това как можем да намерим мишени за третиране на посттравматично стресово разстройство -
09:54
a formформа of uncontrolledнеконтролирано anxietyтревожност and fearстрах.
250
579000
3000
форма на неконтролируеми безпокойство и страх.
09:57
And one of the things that we did
251
582000
2000
И едно от нещата, които направихме,
09:59
was to adoptприеме a very classicalкласически modelмодел of fearстрах.
252
584000
3000
беше да взаимстваме много класически модел на страх.
10:02
This goesотива back to the PavlovianPavlovian daysдни.
253
587000
3000
Това ни връща към дните на Павлов.
10:05
It's calledНаречен PavlovianPavlovian fearстрах conditioningклиматик --
254
590000
2000
Нарича се Павловски условен страх -
10:07
where a toneтон endsкраища with a briefкратък shockшок.
255
592000
2000
където един тон завършва с кратък шок.
10:09
The shockшок isn't painfulболезнен, but it's a little annoyingдосаден.
256
594000
2000
Шокът не е болезнен, но е малко досаден.
10:11
And over time -- in this caseслучай, a mouseмишка,
257
596000
2000
И с течение на времето - в този случай - една мишка,
10:13
whichкойто is a good animalживотно modelмодел, commonlyобикновено used in suchтакъв experimentsексперименти --
258
598000
2000
която е добър животински модел, често използван в такива експерименти -
10:15
the animalживотно learnsнаучава to fearстрах the toneтон.
259
600000
2000
животното се научава да се страхува от тона.
10:17
The animalживотно will reactреагирам by freezingзамразяване,
260
602000
2000
Животното ще реагира като замръзне на място,
10:19
sortвид of like a deerелен in the headlightsфарове.
261
604000
2000
нещо като елен пред фаровете на кола.
10:21
Now the questionвъпрос is, what targetsцели in the brainмозък can we find
262
606000
3000
Сега въпросът е кои мишени в мозъка можем да намерим,
10:24
that allowпозволява us to overcomeпреодолеят this fearстрах?
263
609000
2000
които да ни позволят да преодолеем този страх?
10:26
So what we do is we playиграя that toneтон again
264
611000
2000
Това, което правим, е да изпълним този тон още веднъж,
10:28
after it's been associatedсвързана with fearстрах.
265
613000
2000
след като е бил асоцииран със страх.
10:30
But we activateактивиране targetsцели in the brainмозък, differentразличен onesтакива,
266
615000
2000
Но ние активираме мишени в мозъка, различни,
10:32
usingизползвайки that opticalоптични fiberвлакно arrayмасив I told you about in the previousпредишен slideпързалка,
267
617000
3000
използвайки този внушителен брой оптични влакна, за който ви казах в предишния слайд,
10:35
in orderпоръчка to try and figureфигура out whichкойто targetsцели
268
620000
2000
с цел да опитаме и да разберем кои мишени
10:37
can causeкауза the brainмозък to overcomeпреодолеят that memoryпамет of fearстрах.
269
622000
3000
могат да подтикнат мозъка да преодолее спомена за страха.
10:40
And so this briefкратък videoвидео
270
625000
2000
И това кратко видео
10:42
showsпредавания you one of these targetsцели that we're workingработа on now.
271
627000
2000
показва една от мишените, върху които работим в момента.
10:44
This is an area■ площ in the prefrontalprefrontal cortexкора,
272
629000
2000
Това е област в префронталната мозъчна кора,
10:46
a regionобласт where we can use cognitionпознание to try to overcomeпреодолеят aversiveскритата emotionalемоционален statesсъстояния.
273
631000
3000
регион, където можем да използваме знание, за да се опитаме да преодолеем нежелани емоционални състояния.
10:49
And the animal'sна животните going to hearчувам a toneтон -- and a flashфлаш of lightсветлина occurredнастъпили there.
274
634000
2000
И животното ще чуе тон - и искра светлина се появи там.
10:51
There's no audioзвуков on this, but you can see the animal'sна животните freezingзамразяване.
275
636000
2000
Няма звук, но можете да видите как животното замръзва на място.
10:53
This toneтон used to mean badлошо newsНовини.
276
638000
2000
Този тон е означавал лоши новини.
10:55
And there's a little clockчасовник in the lowerнисък left-handлява ръка cornerъглов,
277
640000
2000
И има малък часовник в долния ляв ъгъл,
10:57
so you can see the animalживотно is about two minutesминути into this.
278
642000
3000
така че можете да видите, че животното е така около две минути.
11:00
And now this nextследващия clipклипс
279
645000
2000
И сега следващия клип,
11:02
is just eightосем minutesминути laterпо късно.
280
647000
2000
той е само осем минути по-късно.
11:04
And the sameедин и същ toneтон is going to playиграя, and the lightсветлина is going to flashфлаш again.
281
649000
3000
И същия тон ще се възпроизведе, и светлината ще проблесне отново.
11:07
Okay, there it goesотива. Right now.
282
652000
3000
Ок, ето го. Точно сега.
11:10
And now you can see, just 10 minutesминути into the experimentексперимент,
283
655000
3000
И сега можете да видите, само 10 минути след началото на експеримента,
11:13
that we'veние имаме equippedобзаведен the brainмозък by photoactivatingphotoactivating this area■ площ
284
658000
3000
че ние екипирахме мозъка като фотоактивирахме тази област
11:16
to overcomeпреодолеят the expressionизразяване
285
661000
2000
да преодолее изразяването
11:18
of this fearстрах memoryпамет.
286
663000
2000
на този страх по памет.
11:20
Now over the last coupleдвойка of yearsгодини, we'veние имаме goneси отиде back to the treeдърво of life
287
665000
3000
През последните години, се върнахме към дървото на живота,
11:23
because we wanted to find waysначини to turnзавой circuitsвериги in the brainмозък off.
288
668000
3000
защото искахме да намерим начини да изключваме вериги в мозъка.
11:26
If we could do that, this could be extremelyизвънредно powerfulмощен.
289
671000
3000
Ако можехме да направим това, то би било изключително могъщо.
11:29
If you can deleteИзтрий cellsклетки just for a fewмалцина millisecondsмилисекунди or secondsсекунди,
290
674000
3000
Ако можете да изтриете клетки за няколко милисекунди или секунди,
11:32
you can figureфигура out what necessaryнеобходимо roleроля they playиграя
291
677000
2000
можете да раберете каква необходима роля играят те
11:34
in the circuitsвериги in whichкойто they're embeddedвградени.
292
679000
2000
във веригите, в които са поставени.
11:36
And we'veние имаме now surveyedанкетираните organismsорганизми from all over the treeдърво of life --
293
681000
2000
Вече сме изследвали организми от всички краища на дървото на живота -
11:38
everyвсеки kingdomцарство of life exceptс изключение for animalsживотни, we see slightlyмалко differentlyразлично.
294
683000
3000
всяко царство, освен животните, ние виждаме малко по-различно.
11:41
And we foundнамерено all sortsвидове of moleculesмолекули, they're calledНаречен halorhodopsinshalorhodopsins or archaerhodopsinsarchaerhodopsins,
295
686000
3000
И намерихме всякакви видове молекули, те са наречени халородопсини или археа-родопсини,
11:44
that respondотговарям to greenзелен and yellowжълт lightсветлина.
296
689000
2000
които реагират на зелена и жълта светлина.
11:46
And they do the oppositeпротивоположен thing of the moleculeмолекула I told you about before
297
691000
2000
И те правят обратното на това, което прави молекулата, за която ви казах преди,
11:48
with the blueсин lightсветлина activatorактиватор channelrhodopsinchannelrhodopsin.
298
693000
3000
със синьо светлинния активатор канален родопсин.
11:52
Let's give an exampleпример of where we think this is going to go.
299
697000
3000
Нека дадем пример за това докъде мислим ще доведе всичко това.
11:55
ConsiderПомислете, for exampleпример, a conditionсъстояние like epilepsyепилепсия,
300
700000
3000
Вземете например състояние като епилепсия,
11:58
where the brainмозък is overactiveсвръхактивен.
301
703000
2000
където мозъкът е свръхактивен.
12:00
Now if drugsнаркотици failпровали in epilepticепилептичен treatmentлечение,
302
705000
2000
Сега, ако лекарствата се провалят в епилептичното лечение,
12:02
one of the strategiesстратегии is to removeпремахнете partчаст of the brainмозък.
303
707000
2000
една от стратегиите е да премахнем част от мозъка.
12:04
But that's obviouslyочевидно irreversibleнеобратими, and there could be sideстрана effectsвещи.
304
709000
2000
Но това очевидно е необратимо и може да има странични ефекти.
12:06
What if we could just turnзавой off that brainмозък for a briefкратък amountколичество of time,
305
711000
3000
Ами ако можехме да изключим този мозък за кратък отрязък от време,
12:09
untilдо the seizureконфискация diesумира away,
306
714000
3000
докато пристъпът изчезне,
12:12
and causeкауза the brainмозък to be restoredвъзстановен to its initialпървоначален stateсъстояние --
307
717000
3000
и да накараме мозъкът да възстанови първоначалното си състояние -
12:15
sortвид of like a dynamicalдинамични systemсистема that's beingсъщество coaxedcoaxed down into a stableстабилен stateсъстояние.
308
720000
3000
нещо като динамична система, която е била доведена до стабилно състояние.
12:18
So this animationанимация just triesопитва to explainобяснявам this conceptпонятие
309
723000
3000
Така че тази анимация само опитва да обясни тази концепция,
12:21
where we madeизработен these cellsклетки sensitiveчувствителен to beingсъщество turnedоказа off with lightсветлина,
310
726000
2000
където направихме тези клетки чувствителни към изключване със светлина,
12:23
and we beamгреда lightсветлина in,
311
728000
2000
и насочихме светлина вътре,
12:25
and just for the time it takes to shutзатворен down a seizureконфискация,
312
730000
2000
и само за времето, необходимо за спиране на пристъпа,
12:27
we're hopingнадявайки се to be ableспособен to turnзавой it off.
313
732000
2000
ние се надяваме да сме способни да го изключим.
12:29
And so we don't have dataданни to showшоу you on this frontпреден,
314
734000
2000
И така, не разполагаме с данни, които да ви покажем, на този фронт,
12:31
but we're very excitedвъзбуден about this.
315
736000
2000
но сме много развълнувани за това.
12:33
Now I want to closeблизо on one storyистория,
316
738000
2000
Сега искам да приключа с една история,
12:35
whichкойто we think is anotherоще possibilityвъзможност --
317
740000
2000
която, мислим, е още една възможност -
12:37
whichкойто is that maybe these moleculesмолекули, if you can do ultra-preciseUltra-прецизно controlконтрол,
318
742000
2000
че може би тези молекули, ако можете да използвате строго прецизен контрол,
12:39
can be used in the brainмозък itselfсебе си
319
744000
2000
могат да бъдат използвани в самия мозък,
12:41
to make a newнов kindмил of prostheticпротези, an opticalоптични prostheticпротези.
320
746000
3000
за да направят нов вид протеза, оптична протеза.
12:44
I alreadyвече told you that electricalелектрически stimulatorsстимулатори are not uncommonнечести.
321
749000
3000
Вече ви казах, че електрическите стимулатори не са рядко срещани.
12:47
Seventy-fiveСедемдесет и пет thousandхиляда people have Parkinson'sПаркинсон deep-brainдълбоко-мозъка stimulatorsстимулатори implantedимплантира.
322
752000
3000
75 000 души имат имплантирани дълбоко-мозъчни стимулатори за болестта на Паркинсон.
12:50
Maybe 100,000 people have CochlearКохлеарен implantsимпланти,
323
755000
2000
Може би 100 000 души имат Кохлеарни импланти,
12:52
whichкойто allowпозволява them to hearчувам.
324
757000
2000
които им позволяват да чуват.
12:54
There's anotherоще thing, whichкойто is you've got to get these genesгени into cellsклетки.
325
759000
3000
Има и нещо друго: трябва да вмъкнете тези гени в клетките.
12:57
And newнов hopeнадявам се in geneген therapyтерапия has been developedразвита
326
762000
3000
И нова надежда в генната терапия беше развита,
13:00
because virusesвируси like the adeno-associatedadeno свързани virusвирус,
327
765000
2000
защото вируси като адено-асоциирания вирус (AAV)
13:02
whichкойто probablyвероятно mostнай-много of us around this roomстая have,
328
767000
2000
който вероятно повечето от нас в тази стая имаме,
13:04
and it doesn't have any symptomsсимптоми,
329
769000
2000
и нямаме някакви симптоми,
13:06
whichкойто have been used in hundredsстотици of patientsпациенти
330
771000
2000
са използвани при стотици пациенти,
13:08
to deliverдоставям genesгени into the brainмозък or the bodyтяло.
331
773000
2000
за да доставят гени в мозъка или тялото.
13:10
And so farдалече, there have not been seriousсериозно adverseнеблагоприятни eventsсъбития
332
775000
2000
И досега не е имало сериозни неблагоприятни случая,
13:12
associatedсвързана with the virusвирус.
333
777000
2000
асоциирани с вируса.
13:14
There's one last elephantслон in the roomстая, the proteinsпротеини themselvesсебе си,
334
779000
3000
Има само още една пренебрегвана истина- самите протеини,
13:17
whichкойто come from algaeводорасли and bacteriaбактерии and fungiгъбички,
335
782000
2000
които идват от водорасло, бактерия и гъба,
13:19
and all over the treeдърво of life.
336
784000
2000
и от цялото дърво на живота.
13:21
MostНай-много of us don't have fungiгъбички or algaeводорасли in our brainsмозъците,
337
786000
2000
Повечето от нас нямаме гъби или водорасли в мозъците си,
13:23
so what is our brainмозък going to do if we put that in?
338
788000
2000
тогава какво ще направи нашият мозък, ако ги сложим вътре?
13:25
Are the cellsклетки going to tolerateтърпя it? Will the immuneс имунитет systemсистема reactреагирам?
339
790000
2000
Клетките ще го толерират ли? Имунната система ще реагира ли?
13:27
In its earlyрано daysдни -- these have not been doneСвършен on humansхората yetоще --
340
792000
2000
Още сме в началото - това не е пробвано върху хора все още -
13:29
but we're workingработа on a varietyразнообразие of studiesпроучвания
341
794000
2000
но ние работим върху редица изследвания,
13:31
to try and examineпроучва this,
342
796000
2000
за да се опитаме да го изследваме.
13:33
and so farдалече we haven'tима не seenвидян overtявен reactionsреакции of any severityтежестта
343
798000
3000
И досега не сме виждали явни реакции от тежък характер
13:36
to these moleculesмолекули
344
801000
2000
към тези молекули
13:38
or to the illuminationосветление of the brainмозък with lightсветлина.
345
803000
3000
или от осветяването на мозъка със светлина.
13:41
So it's earlyрано daysдни, to be upfrontпредварително, but we're excitedвъзбуден about it.
346
806000
3000
Твърде е рано, за да бъдем напълно точни, но сме развулнувани за това.
13:44
I wanted to closeблизо with one storyистория,
347
809000
2000
Исках да приключа с една история,
13:46
whichкойто we think could potentiallyпотенциално
348
811000
2000
която мислим, че ще има потенциално
13:48
be a clinicalклиничен applicationприложение.
349
813000
2000
бъдещо клинично приложение.
13:50
Now there are manyмного formsформи of blindnessслепота
350
815000
2000
Има много видове слепота,
13:52
where the photoreceptorsфоторецептори,
351
817000
2000
където фоторецепторите,
13:54
our lightсветлина sensorsсензори that are in the back of our eyeоко, are goneси отиде.
352
819000
3000
нашите светлинни сензори, които са в задната част на окото ни, ги няма.
13:57
And the retinaретина, of courseкурс, is a complexкомплекс structureструктура.
353
822000
2000
И ретината, разбира се, е сложна структура.
13:59
Now let's zoomмащабиране in on it here, so we can see it in more detailдетайл.
354
824000
2000
Сега нека увеличим тук, за да можем да видим по-подробно.
14:01
The photoreceptorфотоклетка cellsклетки are shownпосочен here at the topвръх,
355
826000
3000
Фоторецепторните клетки се виждат тук, на върха,
14:04
and then the signalsсигнали that are detectedоткрити by the photoreceptorsфоторецептори
356
829000
2000
и тогава сигналите, които са засечени от фоторецепторите,
14:06
are transformedтрансформиран by variousразлични computationsизчисления
357
831000
2000
са трансформирани от различни изчисления,
14:08
untilдо finallyнакрая that layerслой of cellsклетки at the bottomдъно, the ganglionганглий cellsклетки,
358
833000
3000
докато накрая този пласт от клетки на дъното, клетките на ганглия,
14:11
relayреле the informationинформация to the brainмозък,
359
836000
2000
предава информацията към мозъка,
14:13
where we see that as perceptionвъзприятие.
360
838000
2000
където виждаме това като възприятие.
14:15
In manyмного formsформи of blindnessслепота, like retinitisпигментозен pigmentosaретинит,
361
840000
3000
В много форми на слепота, като пигментоза на ретината
14:18
or macularдегенерация degenerationдегенерация,
362
843000
2000
или макуларна дегенерация,
14:20
the photoreceptorфотоклетка cellsклетки have atrophiedатрофирали or been destroyedунищожен.
363
845000
3000
фоторецепторните клетки са атрофирали или са били унищожени.
14:23
Now how could you repairремонт this?
364
848000
2000
И как можете да поправите това?
14:25
It's not even clearясно that a drugлекарство could causeкауза this to be restoredвъзстановен,
365
850000
3000
Дори не е ясно дали лекарство може да доведе до възстановяване,
14:28
because there's nothing for the drugлекарство to bindсвързват to.
366
853000
2000
защото лекарството няма за какво да се свърже.
14:30
On the other handръка, lightсветлина can still get into the eyeоко.
367
855000
2000
От друга страна, светлина може да стигне до окото.
14:32
The eyeоко is still transparentпрозрачен and you can get lightсветлина in.
368
857000
3000
Окото все още е прозрачно и можете да внесете светлина.
14:35
So what if we could just take these channelrhodopsinschannelrhodopsins and other moleculesмолекули
369
860000
3000
И какво би станало, ако вземем тези канални родопсини и други молекули
14:38
and installИнсталирай them on some of these other spareрезервен cellsклетки
370
863000
2000
и ги инсталираме върху някои от останалите свободни клетки,
14:40
and convertпревръщам them into little camerasфотоапарати.
371
865000
2000
и ги превърнем в малки камери.
14:42
And because there's so manyмного of these cellsклетки in the eyeоко,
372
867000
2000
И тъй като има много от тези клетки в окото,
14:44
potentiallyпотенциално, they could be very high-resolutionс висока резолюция camerasфотоапарати.
373
869000
3000
потенциално, те биха могли да бъдат камери с много висока резолюция.
14:47
So this is some work that we're doing.
374
872000
2000
Това е част от работата, която вършим.
14:49
It's beingсъщество led by one of our collaboratorsсътрудници,
375
874000
2000
Води се от един от нашите сътрудници,
14:51
AlanАлън HorsagerHorsager at USCUSC,
376
876000
2000
Алън Хорсагър в университета в Южна Калифорния,
14:53
and beingсъщество soughtтърси to be commercializedсерийно производство by a start-upстартиране companyкомпания EosEOS NeuroscienceНеврологията,
377
878000
3000
и стреми да се комерсиализира от стартираща компания Eos Neuroscience,
14:56
whichкойто is fundedобезпечена by the NIHNIH.
378
881000
2000
основана от NIH (Националния здравен институт на САЩ).
14:58
And what you see here is a mouseмишка tryingопитвайки to solveрешавам a mazeлабиринт.
379
883000
2000
И това, което виждате тук, е мишка, опитваща се да реши лабиринт.
15:00
It's a six-armшест рамо mazeлабиринт. And there's a bitмалко of waterвода in the mazeлабиринт
380
885000
2000
Това е лабиринт с шест пътища. И има малко вода в лабиринта,
15:02
to motivateмотивирам the mouseмишка to moveход, or he'llтой ще just sitседя there.
381
887000
2000
за да мотивира мишката да се движи, иначе просто ще си седи там.
15:04
And the goalцел, of courseкурс, of this mazeлабиринт
382
889000
2000
И целта, разбира се, на този лабиринт
15:06
is to get out of the waterвода and go to a little platformплатформа
383
891000
2000
е да излезе от водата и да отиде на малката платформа,
15:08
that's underпри the litпийнал topвръх portпорт.
384
893000
2000
която е под горното осветено убежище.
15:10
Now miceмишки are smartумен, so this mouseмишка solvesрешава the mazeлабиринт eventuallyв крайна сметка,
385
895000
3000
Сега, мишките са умни, така че тази мишка евентуално решава лабиринта,
15:13
but he does a brute-forceгруб-сила searchТърсене.
386
898000
2000
но използва груба сила, за да търси.
15:15
He's swimmingплуване down everyвсеки avenueпът untilдо he finallyнакрая getsполучава to the platformплатформа.
387
900000
3000
Тя плува по всяка алея, докато накрая стига до платформата.
15:18
So he's not usingизползвайки visionзрение to do it.
388
903000
2000
Значи не използва зрението си, за да го направи.
15:20
These differentразличен miceмишки are differentразличен mutationsмутации
389
905000
2000
Тези различни мишки са различни мутации,
15:22
that recapitulateрезюмирам differentразличен kindsвидове of blindnessслепота that affectзасегне humansхората.
390
907000
3000
които илюстрират различни видове слепота, които засягат хората.
15:25
And so we're beingсъщество carefulвнимателен in tryingопитвайки to look at these differentразличен modelsмодели
391
910000
3000
И така, ние внимателно разглеждаме тези различни модели,
15:28
so we come up with a generalizedГенерализирана approachподход.
392
913000
2000
за да измислим генерален подход.
15:30
So how are we going to solveрешавам this?
393
915000
2000
Значи как ще разрешим това?
15:32
We're going to do exactlyточно what we outlinedочертани in the previousпредишен slideпързалка.
394
917000
2000
Ще направим точно това, което очертахме в предишния слайд.
15:34
We're going to take these blueсин lightсветлина photosensorsphotosensors
395
919000
2000
Ще вземем тези сини светлинни фоторецептори
15:36
and installИнсталирай them on a layerслой of cellsклетки
396
921000
2000
и ще ги инсталираме върху пласт от клетки
15:38
in the middleсреден of the retinaретина in the back of the eyeоко
397
923000
3000
по средата на ретината в задната част на окото
15:41
and convertпревръщам them into a cameraкамера --
398
926000
2000
и ще ги превърнем в камера.
15:43
just like installingинсталиране на solarслънчев cellsклетки all over those neuronsневрони
399
928000
2000
Точно като да инсталираме слънчеви клетки по целите неврони,
15:45
to make them lightсветлина sensitiveчувствителен.
400
930000
2000
за да ги направим чувствителни към светлината.
15:47
LightСветлина is convertedпреобразува to electricityелектричество on them.
401
932000
2000
Светлината е преобразувана в електричество върху тях.
15:49
So this mouseмишка was blindсляп a coupleдвойка weeksседмици before this experimentексперимент
402
934000
3000
Тази мишка беше сляпа две седмици преди експеримента
15:52
and receivedприет one doseдоза of this photosensitiveфоточувствителни moleculeмолекула in a virusвирус.
403
937000
3000
и получи една доза от тези фоточувствителни молекули чрез един вирус.
15:55
And now you can see, the animalживотно can indeedнаистина avoidда се избегне wallsстени
404
940000
2000
И сега може да видите, животното наистина може да избягва стените
15:57
and go to this little platformплатформа
405
942000
2000
и да стигне до тази малка платформа,
15:59
and make cognitiveпознавателен use of its eyesочи again.
406
944000
3000
и да използва очите си отново.
16:02
And to pointточка out the powerмощност of this:
407
947000
2000
И за да изтъкнем силата на това:
16:04
these animalsживотни are ableспособен to get to that platformплатформа
408
949000
2000
тези животни са способни да достигнат платформата
16:06
just as fastбърз as animalsживотни that have seenвидян theirтехен entireцял livesживота.
409
951000
2000
толкова бързо, колкото животни, които са виждали през целия си живот.
16:08
So this pre-clinicalпредклинични studyуча, I think,
410
953000
2000
Значи това предклинично проучване, мисля,
16:10
bodesпредвещава hopeнадявам се for the kindsвидове of things
411
955000
2000
предвещава надежда за този вид неща,
16:12
we're hopingнадявайки се to do in the futureбъдеще.
412
957000
2000
които се надяваме да правим за вбъдеще.
16:14
To closeблизо, I want to pointточка out that we're alsoсъщо exploringпроучване
413
959000
3000
За да приключим, искам да подчертая, че ние също така изучаваме
16:17
newнов businessбизнес modelsмодели for this newнов fieldполе of neurotechnologyneurotechnology.
414
962000
2000
нови бизнес модели за тази нова област в невротехнологията.
16:19
We're developingразработване these toolsинструменти,
415
964000
2000
Ние развиваме тези инструменти,
16:21
but we shareдял them freelyсвободно with hundredsстотици of groupsгрупи all over the worldсвят,
416
966000
2000
но ги споделяме свободно със стотици групи по целия свят,
16:23
so people can studyуча and try to treatлечение differentразличен disordersразстройства.
417
968000
2000
за да могат хората да изучават и да опитват да лекуват различни заболявания.
16:25
And our hopeнадявам се is that, by figuringфигуриращ out brainмозък circuitsвериги
418
970000
3000
И надеждата ни е, че ако разбираме мозъчните вериги
16:28
at a levelниво of abstractionабстракция that letsНека да us repairремонт them and engineerинженер them,
419
973000
3000
на ниво на абстракция, което ни позволява да ги поправим и преобразим,
16:31
we can take some of these intractableНерешим disordersразстройства that I told you about earlierпо-рано,
420
976000
3000
ние можем да вземем някои от тези упорити заболявания, които споменах по-рано,
16:34
practicallyпрактически noneнито един of whichкойто are curedсушен,
421
979000
2000
от които практически нито едно не е излекувано,
16:36
and in the 21stво centuryвек make them historyистория.
422
981000
2000
и през 21-ви век да ги направим история.
16:38
Thank you.
423
983000
2000
Благодаря ви.
16:40
(ApplauseАплодисменти)
424
985000
13000
(Аплодисменти)
16:53
JuanХуан EnriquezEnriquez: So some of the stuffматерия is a little denseплътен.
425
998000
3000
Хуан Енрикез: Значи част от това е малко обширно.
16:56
(LaughterСмях)
426
1001000
2000
(Смях)
16:58
But the implicationsпоследствия
427
1003000
2000
Но способността
17:00
of beingсъщество ableспособен to controlконтрол seizuresприпадъци or epilepsyепилепсия
428
1005000
3000
да контролираме епилептични припадъци
17:03
with lightсветлина insteadвместо of drugsнаркотици,
429
1008000
2000
със светлина вместо с лекарства
17:05
and beingсъщество ableспособен to targetмишена those specificallyконкретно
430
1010000
3000
и това да бъдем способни конкретно да ги определим,
17:08
is a first stepстъпка.
431
1013000
2000
е първата крачка.
17:10
The secondвтори thing that I think I heardчух you say
432
1015000
2000
Второто нещо, което мисля, че ви чух да казвате,
17:12
is you can now controlконтрол the brainмозък in two colorsцветове,
433
1017000
3000
е, че сега можете да контролирате мозъка в два цвята.
17:15
like an on/off switchключ.
434
1020000
2000
Подобно на ключ за включване/изключване.
17:17
EdЕд BoydenBoyden: That's right.
435
1022000
2000
Ед Бойден: Това е вярно.
17:19
JEJE: WhichКоито makesправи everyвсеки impulseимпулс going throughпрез the brainмозък a binaryдвоен codeкод.
436
1024000
3000
Х.Е.: Което прави всеки импулс, минаващ през мозъка двоичен код.
17:22
EBИБ: Right, yeah.
437
1027000
2000
Е.Б.:Точно така, да.
17:24
So with blueсин lightсветлина, we can driveпът informationинформация, and it's in the formформа of a one.
438
1029000
3000
Със синя светлина може да доведете информация, под формата на единица.
17:27
And by turningобръщане things off, it's more or lessпо-малко a zeroнула.
439
1032000
2000
И като изключите всичко, е повече или по-малко нула.
17:29
So our hopeнадявам се is to eventuallyв крайна сметка buildпострои brainмозък coprocessorscoprocessors
440
1034000
2000
Тъй че нашата надежда е евентуално да построим мозъчни копроцесори,
17:31
that work with the brainмозък
441
1036000
2000
които да работят с мозъка,
17:33
so we can augmentувеличи functionsфункции in people with disabilitiesувреждания.
442
1038000
3000
така че да увеличим функциите на хора с недъзи.
17:36
JEJE: And in theoryтеория, that meansсредства that,
443
1041000
2000
Х.Е.: И на теория това означава, че
17:38
as a mouseмишка feelsчувства, smellsмирише,
444
1043000
2000
докато една мишка усеща, мирише,
17:40
hearsчува, touchesщрихи,
445
1045000
2000
чува, докосва,
17:42
you can modelмодел it out as a stringниз of onesтакива and zerosнули.
446
1047000
3000
можете да го моделирате като верига от единици и нули.
17:45
EBИБ: Sure, yeah. We're hopingнадявайки се to use this as a way of testingтестване
447
1050000
2000
Е.Б.: Разбира се, да. Надяваме се да използваме това като начин да тестваме
17:47
what neuralнервен codesкодове can driveпът certainопределен behaviorsповедения
448
1052000
2000
кои невронни кодове могат да определят някои поведения,
17:49
and certainопределен thoughtsмисли and certainопределен feelingsчувствата,
449
1054000
2000
и някои мисли, и някои чувства,
17:51
and use that to understandразбирам more about the brainмозък.
450
1056000
3000
и да използваме това, за да разберем повече за мозъка.
17:54
JEJE: Does that mean that some day you could downloadИзтегли memoriesспомени
451
1059000
3000
Х.Е.: Това означава ли, че някои ден бихте могли да сваляте спомени
17:57
and maybe uploadкачване them?
452
1062000
2000
и може би да ги качвате, като на компютър?
17:59
EBИБ: Well that's something we're startingстартиране to work on very hardтвърд.
453
1064000
2000
Е.Б.: Е, това е нещо, върху което започваме да работим много здраво.
18:01
We're now workingработа on some work
454
1066000
2000
Сега работим върху една разработка,
18:03
where we're tryingопитвайки to tileплочка the brainмозък with recordingзапис elementsелементи too.
455
1068000
2000
където също се опитваме да покрием мозъка със записващи елементи.
18:05
So we can recordрекорд informationинформация and then driveпът informationинформация back in --
456
1070000
3000
За да можем да запишем информация и след това да я върнем обратно вътре -
18:08
sortвид of computingизчислителен what the brainмозък needsпотребности
457
1073000
2000
нещо като изчисляване на това, от което мозъкът има нужда,
18:10
in orderпоръчка to augmentувеличи its informationинформация processingобработване.
458
1075000
2000
за да увеличи своя капацитет на обработка на информация.
18:12
JEJE: Well, that mightбиха могли, може changeпромяна a coupleдвойка things. Thank you. (EBИБ: Thank you.)
459
1077000
3000
Х.Е.: Е, това може да промени някои неща. Благодаря ви. (Е.Б.: Благодаря ви.)
18:15
(ApplauseАплодисменти)
460
1080000
3000
(Аплодисменти)
Translated by Ekaterina Atanasova
Reviewed by Mihail Stoychev

▲Back to top

ABOUT THE SPEAKER
Ed Boyden - Neuroengineer
Ed Boyden is a professor of biological engineering and brain and cognitive sciences at the MIT Media Lab and the MIT McGovern Institute.

Why you should listen

Ed Boyden leads the Synthetic Neurobiology Group, which develops tools for analyzing and repairing complex biological systems such as the brain. His group applies these tools in a systematic way in order to reveal ground truth scientific understandings of biological systems, which in turn reveal radical new approaches for curing diseases and repairing disabilities. These technologies include expansion microscopy, which enables complex biological systems to be imaged with nanoscale precision, and optogenetic tools, which enable the activation and silencing of neural activity with light (TED Talk: A light switch for neurons). Boyden also co-directs the MIT Center for Neurobiological Engineering, which aims to develop new tools to accelerate neuroscience progress.

Amongst other recognitions, Boyden has received the Breakthrough Prize in Life Sciences (2016), the BBVA Foundation Frontiers of Knowledge Award (2015), the Carnegie Prize in Mind and Brain Sciences (2015), the Jacob Heskel Gabbay Award (2013), the Grete Lundbeck Brain Prize (2013) and the NIH Director's Pioneer Award (2013). He was also named to the World Economic Forum Young Scientist list (2013) and the Technology Review World's "Top 35 Innovators under Age 35" list (2006). His group has hosted hundreds of visitors to learn how to use new biotechnologies and spun out several companies to bring inventions out of his lab and into the world. Boyden received his Ph.D. in neurosciences from Stanford University as a Hertz Fellow, where he discovered that the molecular mechanisms used to store a memory are determined by the content to be learned. Before that, he received three degrees in electrical engineering, computer science and physics from MIT. He has contributed to over 300 peer-reviewed papers, current or pending patents and articles, and he has given over 300 invited talks on his group's work.

More profile about the speaker
Ed Boyden | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee