ABOUT THE SPEAKERS
Steve Ramirez - Neuroscientist
When Steve Ramirez published his latest study in Science, it caused a media frenzy. Why? Because the paper was on implanting false memories in the brains of mice.

Why you should listen

Steve is a graduate student at MIT’s Brain and Cognitive Sciences department pursuing a Ph.D. in neuroscience. His work focuses on finding where single memories are located throughout the brain, genetically tricking the brain cells that house these memories to respond to brief pulses of light, and then using these same flickers of light to reactivate, erase and implant memories. The goals of his research are twofold: to figure out how the brain gives rise to the seemingly ephemeral process of memory, and to predict what happens when specific brain pieces breakdown to impair cognition. His work has been published in Science and covered by New Scientist, Discover, Scientific American, and Gizmodo.

Ramirez aims to be a professor who runs a lab that plucks questions from the tree of science fiction to ground them in experimental reality. He believes that a team-oriented approach to science makes research and teaching far more exciting. When he’s not tinkering with memories in the lab, Ramirez also enjoys running and cheering on every sports team in the city of Boston.

More profile about the speaker
Steve Ramirez | Speaker | TED.com
Xu Liu - Neuroscientist
In his groundbreaking work, Xu Liu investigated how to activate and deactivate specific memories in mice.

Why you should listen

During his PhD, Xu Liu studied the mechanisms of learning and memory, using fruit flies as a model system. By changing the expression of certain genes in the fly brain, he generated smart flies that can learn many times faster than their peers. Using live imaging, he also detected learning-induced changes in the brain cells and observed memory formation inside the brain with light.

After graduation, he moved to MIT and joined Dr. Susumu Tonegawa's lab as a postdoctoral associate. He continued his pursuit of memory with light there. Instead of just watching memory formation, he developed a system in mice where one can not only identify and label cells in the brain for a particular memory, but also turn these cells on and off with light to activate this memory at will. This work was published in Science and has been covered by the media worldwide. Liu passed away in February 2015.

More profile about the speaker
Xu Liu | Speaker | TED.com
TEDxBoston

Steve Ramirez and Xu Liu: A mouse. A laser beam. A manipulated memory.

Стив Рамирез и Сюй Лю: Мышь. Луч лазера. Манипуляции памятью.

Filmed:
1,127,889 views

Можем ли мы редактировать наши воспоминания? Этот вопрос из области научной фантастики Стив Рамирез и Сюй Лю исследовали в университетской лаборатории. Они пропускали луч лазера через мозг живой мыши, чтобы активировать воспоминания и управлять ими. В этом неожиданно весёлом разговоре они рассказывают не только о том, как они это сделали, но и, что более важно, почему. (Снято TEDxBoston)
- Neuroscientist
When Steve Ramirez published his latest study in Science, it caused a media frenzy. Why? Because the paper was on implanting false memories in the brains of mice. Full bio - Neuroscientist
In his groundbreaking work, Xu Liu investigated how to activate and deactivate specific memories in mice. Full bio

Double-click the English transcript below to play the video.

00:12
SteveСтив RamirezRamirez: My first yearгод of gradград schoolшкола,
0
371
1556
Стив Рамирез: Это было в первый год
моего обучения в магистратуре.
00:13
I foundнайденный myselfсебя in my bedroomСпальня
1
1927
2004
Я застал себя в спальне,
00:15
eatingпринимать пищу lots of BenБен & Jerry'sДжерри
2
3931
2300
поедающим тонны мороженого
00:18
watchingнаблюдение some trashyдрянной TVТВ
3
6231
1684
и смотрящим какую-то дрянную передачу.
00:19
and maybe, maybe listeningпрослушивание to TaylorТейлор Swiftстриж.
4
7915
3227
И, наверно, я ещё слушал Тейлор Свифт.
00:23
I had just goneпрошло throughчерез a breakupрасставаться.
5
11142
1741
Я тогда как раз расстался со своей девушкой.
00:24
(LaughterСмех)
6
12883
1447
(Смех)
00:26
So for the longestсамый длинный time, all I would do
7
14330
2196
В течении долгого времени,
всё, чем я занимался, —
00:28
is recallотзыв the memoryПамять of this personчеловек over and over again,
8
16526
3816
это снова и снова
вспоминал бывшую девушку,
00:32
wishingжелающих that I could get ridизбавиться of that gut-wrenchingвыворачивающий,
9
20342
2493
желая избавиться
от скручивающего все внутренности
00:34
visceralвисцеральный "blahвздор" feelingчувство.
10
22835
2533
чувства тоски.
00:37
Now, as it turnsвитки out, I'm a neuroscientistнейробиолог,
11
25368
2283
Я невролог и знаю,
00:39
so I knewзнал that the memoryПамять of that personчеловек
12
27651
2402
что воспоминания об этом человеке
00:42
and the awfulужасный, emotionalэмоциональный undertonesполутона that colorцвет in that memoryПамять,
13
30053
3140
и тот ужасный эмоциональный оттенок,
в которые они окрашены,
00:45
are largelyво многом mediatedопосредованной by separateотдельный brainголовной мозг systemsсистемы.
14
33193
2634
связаны с работой отдельных частей мозга.
00:47
And so I thought, what if we could go into the brainголовной мозг
15
35827
2365
Мне пришла в голову идея:
а что, если бы мы могли «попасть» в наш мозг
00:50
and editредактировать out that nauseatingтошнотворный feelingчувство
16
38192
2090
и удалить это тошнотворное чувство,
00:52
but while keepingхранение the memoryПамять of that personчеловек intactнеповрежденный?
17
40282
2970
а воспоминания о человеке
оставить без изменений?
00:55
Then I realizedпонял, maybe that's a little bitнемного loftyвозвышенный for now.
18
43252
2411
Потом я понял,
что пока это не возможно.
00:57
So what if we could startНачало off by going into the brainголовной мозг
19
45663
2793
Но почему бы не начать с того,
чтобы «пробраться» в мозг
01:00
and just findingобнаружение a singleОдин memoryПамять to beginначать with?
20
48456
2633
и попробовать найти
именно воспоминания?
01:03
Could we jump-startтолчок that memoryПамять back to life,
21
51089
2514
Сможем ли мы оживить воспоминание,
01:05
maybe even playиграть with the contentsсодержание of that memoryПамять?
22
53603
3868
может быть, даже изменить его содержание?
01:09
All that said, there is one personчеловек in the entireвсе worldМир right now
23
57471
2229
Я очень надеюсь, что кое-кто
01:11
that I really hopeнадежда is not watchingнаблюдение this talk.
24
59700
2055
сейчас не смотрит это выступление.
01:13
(LaughterСмех)
25
61755
3941
(Смех)
01:17
So there is a catchпоймать. There is a catchпоймать.
26
65696
3289
Здесь есть подвох.
01:20
These ideasидеи probablyвероятно remindнапоминать you of "TotalВсего RecallОтзыв,"
27
68985
2788
Вы, наверно,
вспомнили фильм «Вспомнить всё»,
01:23
"Eternalизвечный SunshineСолнечный свет of the Spotlessнезапятнанный MindРазум,"
28
71773
1974
«Вечное сияние чистого разума»
01:25
or of "Inceptionначало."
29
73747
1303
или «Начало».
01:27
But the movieкино starsзвезды that we work with
30
75050
1576
Но звёзды, с которыми работаем мы, —
01:28
are the celebritiesзнаменитости of the labлаборатория.
31
76626
1943
это звёзды лаборатории.
01:30
XuXu LiuЛю: TestКонтрольная работа miceмышей.
32
78569
1900
Сюй Лю: Лабораторные мыши.
01:32
(LaughterСмех)
33
80469
1128
(Смех)
01:33
As neuroscientistsневрологи, we work in the labлаборатория with miceмышей
34
81597
3154
Мы, неврологи,
работаем в лаборатории с мышами,
01:36
tryingпытаясь to understandПонимаю how memoryПамять worksработает.
35
84751
3410
пытаясь понять,
как функционирует память.
01:40
And todayCегодня, we hopeнадежда to convinceубеждать you that now
36
88161
2569
И сегодня мы попытаемся вас убедить,
01:42
we are actuallyна самом деле ableв состоянии to activateактивировать a memoryПамять in the brainголовной мозг
37
90730
3216
что действительно можем
активировать воспоминание в мозге человека
01:45
at the speedскорость of lightлегкий.
38
93946
2170
со скоростью света.
01:48
To do this, there's only two simpleпросто stepsмеры to followследовать.
39
96116
3106
Чтобы это сделать,
нужно выполнить два простых действия.
01:51
First, you find and labelметка a memoryПамять in the brainголовной мозг,
40
99222
3510
Сначала нужно найти и отметить
воспоминание в мозге
01:54
and then you activateактивировать it with a switchпереключатель.
41
102732
3630
и затем активировать его переключателем.
01:58
As simpleпросто as that.
42
106362
1445
Всё очень просто.
01:59
(LaughterСмех)
43
107807
1822
(Смех)
02:01
SRSR: Are you convincedубежденный?
44
109629
1845
С.Р.: Теперь вы убедились?
02:03
So, turnsвитки out findingобнаружение a memoryПамять in the brainголовной мозг isn't all that easyлегко.
45
111474
3721
Как оказалось, найти воспоминание
в головном мозге не так уж легко.
02:07
XLXL: IndeedВ самом деле. This is way more difficultсложно than, let's say,
46
115195
2803
С.Л.: Скорее наоборот.
Скажем так, это гораздо сложнее,
02:09
findingобнаружение a needleигла in a haystackстог сена,
47
117998
2404
чем найти иголку в стоге сена,
02:12
because at leastнаименее, you know, the needleигла is still something
48
120402
2589
хотя бы потому, что иголку можно
02:14
you can physicallyфизически put your fingersпальцы on.
49
122991
2500
потрогать своими руками.
02:17
But memoryПамять is not.
50
125491
1977
А память — нельзя.
02:19
And alsoтакже, there's way more cellsячейки in your brainголовной мозг
51
127468
3038
И, конечно, нервных клеток
в головном мозге намного больше,
02:22
than the numberномер of strawsсоломки in a typicalтипичный haystackстог сена.
52
130506
5066
чем соломинок в стоге сена.
02:27
So yeah, this taskзадача does seemказаться to be dauntingпугающим.
53
135572
2879
Так что да,
эта задача кажется невыполнимой.
02:30
But luckilyк счастью, we got help from the brainголовной мозг itselfсам.
54
138451
3679
К счастью, именно мозг и помогает нам
справиться с ней.
02:34
It turnedоказалось out that all we need to do is basicallyв основном
55
142130
2455
Оказывается, всё, что нам нужно,
02:36
to let the brainголовной мозг formформа a memoryПамять,
56
144585
1993
это позволить мозгу
сформировать воспоминание,
02:38
and then the brainголовной мозг will tell us whichкоторый cellsячейки are involvedучаствует
57
146578
3830
и затем он покажет нам,
какие участки связаны
02:42
in that particularконкретный memoryПамять.
58
150408
1766
с этим воспоминанием.
02:44
SRSR: So what was going on in my brainголовной мозг
59
152174
2357
С.Р.: Так что же происходило в моей голове,
02:46
while I was recallingссылаясь the memoryПамять of an exбывший?
60
154531
2094
когда я вспоминал о своей бывшей девушке?
02:48
If you were to just completelyполностью ignoreигнорировать humanчеловек ethicsэтика for a secondвторой
61
156625
2402
Если бы на секунду мы полностью отказались
от человеческой этики
02:51
and sliceкусочек up my brainголовной мозг right now,
62
159027
1668
и разрезали мой мозг на кусочки,
02:52
you would see that there was an amazingудивительно numberномер
63
160695
2018
то увидели бы, что эти воспоминания
02:54
of brainголовной мозг regionsрайоны that were activeактивный while recallingссылаясь that memoryПамять.
64
162713
3178
вовлекали в работу множество участков мозга.
02:57
Now one brainголовной мозг regionобласть that would be robustlyкрепко activeактивный
65
165891
2912
Но особенно активной была бы часть мозга
03:00
in particularконкретный is calledназывается the hippocampusгиппокамп,
66
168803
2007
под названием гиппокамп.
03:02
whichкоторый for decadesдесятилетия has been implicatedзамешан in processingобработка
67
170810
2455
Десятилетиями он обрабатывает
те воспоминания,
03:05
the kindsвиды of memoriesвоспоминания that we holdдержать nearвозле and dearУважаемые,
68
173265
2416
которые особенно дороги и ценны нам,
03:07
whichкоторый alsoтакже makesмарки it an idealидеальный targetцель to go into
69
175681
2574
и поэтому является
идеальной для проникновения целью
03:10
and to try and find and maybe reactivateреактивировать a memoryПамять.
70
178255
2785
в попытке найти и активировать
отдельное воспоминание.
03:13
XLXL: When you zoomзум in into the hippocampusгиппокамп,
71
181040
2394
С.Л.: При близком рассмотрении гиппокампа
03:15
of courseкурс you will see lots of cellsячейки,
72
183434
2348
можно увидеть множество клеток.
03:17
but we are ableв состоянии to find whichкоторый cellsячейки are involvedучаствует
73
185782
3031
Мы способны выявить,
какие из них связаны
03:20
in a particularконкретный memoryПамять,
74
188813
1476
с конкретным воспоминанием,
03:22
because wheneverвсякий раз, когда a cellклетка is activeактивный,
75
190289
2618
потому что когда клетка работает,
03:24
like when it's formingформирование a memoryПамять,
76
192907
1464
например, когда она формирует воспоминание,
03:26
it will alsoтакже leaveоставлять a footprintслед that will laterпозже allowпозволять us to know
77
194371
3757
она оставляет отпечаток,
который помогает нам понять,
03:30
these cellsячейки are recentlyв последнее время activeактивный.
78
198128
2702
какие из клеток недавно были активны.
03:32
SRSR: So the sameодна и та же way that buildingздание lightsогни at night
79
200830
2160
С.Р.: Это сравнимо со зданием,
в котором ночью включён свет, —
03:34
let you know that somebody'sчей-то probablyвероятно workingза работой there at any givenданный momentмомент,
80
202990
2948
можно понять, что там кто-то работает
в данный момент;
03:37
in a very realреальный senseсмысл, there are biologicalбиологический sensorsдатчиков
81
205938
3288
тоже самое происходит в клетке:
есть биологические датчики,
03:41
withinв a cellклетка that are turnedоказалось on
82
209226
1954
которые включаются
03:43
only when that cellклетка was just workingза работой.
83
211180
2135
после того, как клетка закончила работать.
03:45
They're sortСортировать of biologicalбиологический windowsокна that lightлегкий up
84
213315
1876
Это вроде биологических окон,
которые, загораясь,
03:47
to let us know that that cellклетка was just activeактивный.
85
215191
1978
помогают нам понять,
что клетка недавно была активна.
03:49
XLXL: So we clippedобрезанный partчасть of this sensorдатчик,
86
217169
2829
С.Л.: Мы отрезали часть от этого датчика
03:51
and attachedприложенный that to a switchпереключатель to controlконтроль the cellsячейки,
87
219998
3147
и присоединили её к переключателю
для управления клетками.
03:55
and we packedуплотненный this switchпереключатель into an engineeredинженерии virusвирус
88
223145
3900
Затем мы установили этот переключатель
в сконструированный вирус
03:59
and injectedвведенный that into the brainголовной мозг of the miceмышей.
89
227045
2588
и ввели его в мозг мыши.
04:01
So wheneverвсякий раз, когда a memoryПамять is beingявляющийся formedсформированный,
90
229633
2634
Таким образом,
в моменты возникновения воспоминаний,
04:04
any activeактивный cellsячейки for that memoryПамять
91
232267
2348
все клетки, включённые в работу,
04:06
will alsoтакже have this switchпереключатель installedустановлен.
92
234615
2742
будут оснащены этим переключателем.
04:09
SRSR: So here is what the hippocampusгиппокамп looksвыглядит like
93
237357
1625
С.Р.: Вот так выглядит гиппокамп
04:10
after formingформирование a fearстрах memoryПамять, for exampleпример.
94
238982
2840
после создания страшного воспоминания.
04:13
The seaморе of blueсиний that you see here
95
241822
2140
Синим цветом окрашены
04:15
are denselyплотно packedуплотненный brainголовной мозг cellsячейки,
96
243962
1952
плотно расположенные клетки мозга,
04:17
but the greenзеленый brainголовной мозг cellsячейки,
97
245914
1545
а зелёные клетки...
04:19
the greenзеленый brainголовной мозг cellsячейки are the onesте, that are holdingдержа on
98
247459
2096
Зелёные клетки — это клетки,
которые связаны
04:21
to a specificконкретный fearстрах memoryПамять.
99
249555
1843
с конкретным страшным воспоминанием.
04:23
So you are looking at the crystallizationкристаллизация
100
251398
1979
Итак, вы смотрите на кристаллизацию
04:25
of the fleetingскоротечный formationобразование of fearстрах.
101
253377
2387
мимолётного страшного воспоминания,
04:27
You're actuallyна самом деле looking at the cross-sectionпоперечное сечение of a memoryПамять right now.
102
255764
3497
а точнее, на поперечное сечение воспоминания.
04:31
XLXL: Now, for the switchпереключатель we have been talkingговорящий about,
103
259261
2408
С.Л.: В идеале переключатель,
о котором мы говорим,
04:33
ideallyИдеально, the switchпереключатель has to actакт really fastбыстро.
104
261669
2970
должен реагировать очень быстро.
04:36
It shouldn'tне должен take minutesминут or hoursчасов to work.
105
264639
2579
Время срабатывания
не должно занимать минуты или часы.
04:39
It should actакт at the speedскорость of the brainголовной мозг, in millisecondsмиллисекунды.
106
267218
4264
Он должен срабатывать со скоростью мозга,
в миллисекунды.
04:43
SRSR: So what do you think, XuXu?
107
271482
1430
С.Р.: Как ты думаешь, Сюй,
04:44
Could we use, let's say, pharmacologicalфармакологический drugsнаркотики
108
272912
2602
возможно ли включать или выключать
клетки мозга
04:47
to activateактивировать or inactivateинактивировать brainголовной мозг cellsячейки?
109
275514
1838
при помощи медикаментов?
04:49
XLXL: NahНеа. Drugsнаркотики are prettyСимпатичная messyбеспорядочный. They spreadраспространение everywhereвезде.
110
277352
4063
С.Л.: Не-а. Действие лекарств беспорядочно.
Они распространяются по всему организму.
04:53
And alsoтакже it takes them foreverнавсегда to actакт on cellsячейки.
111
281415
3008
Уйдёт вечность,
пока они доберутся до клеточного уровня.
04:56
So it will not allowпозволять us to controlконтроль a memoryПамять in realреальный time.
112
284423
3649
Они не дадут нам возможность
управлять памятью в режиме настоящего времени.
05:00
So SteveСтив, how about let's zapзатирать the brainголовной мозг with electricityэлектричество?
113
288072
4294
Стив, а если воздействовать
на мозг электричеством?
05:04
SRSR: So electricityэлектричество is prettyСимпатичная fastбыстро,
114
292366
2305
С.Р.: Электричество довольно быстрое,
05:06
but we probablyвероятно wouldn'tне будет be ableв состоянии to targetцель it
115
294671
1739
но, скорее всего, мы не сможем направить его
05:08
to just the specificконкретный cellsячейки that holdдержать ontoна a memoryПамять,
116
296410
2354
к определённым клеткам,
которые хранят воспоминание,
05:10
and we'dмы б probablyвероятно fryжарить the brainголовной мозг.
117
298764
1878
и, возможно, «поджарим» мозг.
05:12
XLXL: Oh. That's trueправда. So it looksвыглядит like, hmmхмм,
118
300642
3195
С.Л.: Точно. Итак, похоже,
05:15
indeedв самом деле we need to find a better way
119
303837
2611
нам нужно найти иной способ
05:18
to impactвлияние the brainголовной мозг at the speedскорость of lightлегкий.
120
306448
3295
воздействия на мозг со скоростью света.
05:21
SRSR: So it just so happensпроисходит that lightлегкий travelsпутешествия at the speedскорость of lightлегкий.
121
309743
5086
С.Р.: И так уж вышло, что со скоростью света распространяется... свет!
05:26
So maybe we could activateактивировать or inactiveнеактивный memoriesвоспоминания
122
314829
3483
Может, мы можем активировать
и дезактивировать воспоминания
05:30
by just usingс помощью lightлегкий --
123
318312
1497
при помощи света?
05:31
XLXL: That's prettyСимпатичная fastбыстро.
124
319809
1355
С.Л.: Он довольно быстрый.
05:33
SRSR: -- and because normallyкак обычно brainголовной мозг cellsячейки
125
321164
1885
С.Р.: Обычно клетки мозга
05:35
don't respondотвечать to pulsesимпульсы of lightлегкий,
126
323049
1588
не реагируют на импульсы света,
05:36
so those that would respondотвечать to pulsesимпульсы of lightлегкий
127
324637
1958
но клетки, содержащие
светочувствительный переключатель,
05:38
are those that containсодержать a light-sensitiveсветочувствительный switchпереключатель.
128
326595
2464
будут давать на них реакцию.
05:41
Now to do that, first we need to trickтрюк brainголовной мозг cellsячейки
129
329059
1946
Чтобы это осуществить,
нам сначала нужно научить клетки мозга
05:43
to respondотвечать to laserлазер beamsбалки.
130
331005
1462
реагировать на лазерные лучи.
05:44
XLXL: YepАга. You heardуслышанным it right.
131
332467
1070
С.Л.: Да, вам не послышалось,
05:45
We are tryingпытаясь to shootстрелять lasersлазеры into the brainголовной мозг.
132
333537
2132
мы стреляем лазером по мозгам.
05:47
(LaughterСмех)
133
335669
1745
(Смех)
05:49
SRSR: And the techniqueтехника that letsДавайте us do that is optogeneticsоптогенетика.
134
337414
3324
С.Р.: И наука, которая поможет нам
сделать это, — это оптогенетика.
05:52
Optogeneticsоптогенетика gaveдал us this lightлегкий switchпереключатель that we can use
135
340738
3282
Оптогенетика дала нам
световой переключатель
05:56
to turnочередь brainголовной мозг cellsячейки on or off,
136
344020
1508
для включения и выключения клеток мозга.
05:57
and the nameимя of that switchпереключатель is channelrhodopsinchannelrhodopsin,
137
345528
2517
Данный переключатель называется
канальным родопсином.
06:00
seenвидели here as these greenзеленый dotsточек attachedприложенный to this brainголовной мозг cellклетка.
138
348045
2537
Он представляет собой вот эти зелёные точки, присоединённые к клеткам мозга.
06:02
You can think of channelrhodopsinchannelrhodopsin as a sortСортировать of light-sensitiveсветочувствительный switchпереключатель
139
350582
3299
Канальный родопсин — это что-то вроде светочувствительного переключателя,
06:05
that can be artificiallyискусственно installedустановлен in brainголовной мозг cellsячейки
140
353881
2627
который искусственно устанавливается
в клетки мозга,
06:08
so that now we can use that switchпереключатель
141
356508
1914
чтобы мы могли использовать переключатель
06:10
to activateактивировать or inactivateинактивировать the brainголовной мозг cellклетка simplyпросто by clickingщелкающий it,
142
358422
3013
для включения или выключения
клеток одним щелчком,
06:13
and in this caseдело we clickщелчок it on with pulsesимпульсы of lightлегкий.
143
361435
2468
и, в данном случае, мы делаем это
с помощью импульсов света.
06:15
XLXL: So we attachприкреплять this light-sensitiveсветочувствительный switchпереключатель of channelrhodopsinchannelrhodopsin
144
363903
3786
С.Л.: Итак, мы прикрепляем светочувствительный переключатель, сделанный из канального родопсина,
06:19
to the sensorдатчик we'veмы в been talkingговорящий about
145
367689
2208
к датчику, про который мы говорили,
06:21
and injectвпрыскивать this into the brainголовной мозг.
146
369897
2455
и вводим в мозг.
06:24
So wheneverвсякий раз, когда a memoryПамять is beingявляющийся formedсформированный,
147
372352
3211
Теперь когда бы
ни создавалось воспоминание,
06:27
any activeактивный cellклетка for that particularконкретный memoryПамять
148
375563
2227
в любой активной клетке
отвечающей за это воспоминание,
06:29
will alsoтакже have this light-sensitiveсветочувствительный switchпереключатель installedустановлен in it
149
377790
3484
будет находиться
светочувствительный переключатель,
06:33
so that we can controlконтроль these cellsячейки
150
381274
2401
и мы сможем управлять этими клетками,
06:35
by the flippingлистать of a laserлазер just like this one you see.
151
383675
4264
щёлкая лазером так же, как сейчас.
06:39
SRSR: So let's put all of this to the testконтрольная работа now.
152
387939
2864
С.Р.: Давайте проведём эксперимент.
06:42
What we can do is we can take our miceмышей
153
390803
2135
Мы возьмём наших мышей,
06:44
and then we can put them in a boxкоробка that looksвыглядит exactlyв точку like this boxкоробка here,
154
392938
2928
поместим их в коробку,
которая выглядит точно так, как эта,
06:47
and then we can give them a very mildмягкий footфут shockшок
155
395866
2340
а затем пропустим через их лапки
небольшой электрический разряд,
06:50
so that they formформа a fearстрах memoryПамять of this boxкоробка.
156
398206
2035
чтобы у них сформировалось
воспоминание страха, связанное с этой коробкой.
06:52
They learnучить that something badПлохо happenedполучилось here.
157
400241
1979
Они запомнят, что здесь
с ними случилось что-то плохое.
06:54
Now with our systemсистема, the cellsячейки that are activeактивный
158
402220
2342
Благодаря нашей системе
только клетки гиппокампа,
06:56
in the hippocampusгиппокамп in the makingизготовление of this memoryПамять,
159
404562
2931
ответственные за создание
этого воспоминания,
06:59
only those cellsячейки will now containсодержать channelrhodopsinchannelrhodopsin.
160
407493
2883
будут содержать канальный родопсин.
07:02
XLXL: When you are as smallмаленький as a mouseмышь,
161
410376
3017
С.Л.: Когда ты маленький, как мышь,
07:05
it feelsчувствует as if the wholeвсе worldМир is tryingпытаясь to get you.
162
413393
3595
кажется, что весь мир хочет поймать тебя.
07:08
So your bestЛучший responseответ of defenseзащита
163
416988
1748
Поэтому лучший способ защиты —
07:10
is tryingпытаясь to be undetectedнезамеченной.
164
418736
2482
попытаться остаться незамеченным.
07:13
WheneverВсякий раз, когда a mouseмышь is in fearстрах,
165
421218
2033
Когда мышь испытывает страх,
07:15
it will showпоказать this very typicalтипичный behaviorповедение
166
423251
1526
она демонстрирует стандартное поведение —
07:16
by stayingпребывание at one cornerугол of the boxкоробка,
167
424777
1769
сидит в углу коробки,
07:18
tryingпытаясь to not moveпереехать any partчасть of its bodyтело,
168
426546
3118
пытаясь не двигаться,
07:21
and this postureпоза is calledназывается freezingзаморозка.
169
429664
3295
и эта поза называется «застывание».
07:24
So if a mouseмышь remembersпомнит that something badПлохо happenedполучилось in this boxкоробка,
170
432959
4294
Если мышь запомнила, что в коробке
с ней произошло что-то плохое,
07:29
and when we put them back into the sameодна и та же boxкоробка,
171
437253
2623
то когда мы поместим её
обратно в эту коробку,
07:31
it will basicallyв основном showпоказать freezingзаморозка
172
439876
1804
она, скорее всего, застынет,
07:33
because it doesn't want to be detectedобнаруженный
173
441680
2285
желая остаться незамеченной
07:35
by any potentialпотенциал threatsугрозы in this boxкоробка.
174
443965
2695
в случае любой возможной
опасности в коробке.
07:38
SRSR: So you can think of freezingзаморозка as,
175
446660
1355
С.Р.: Застывание можно описать так:
07:40
you're walkingгулять пешком down the streetулица mindingпомышления your ownсвоя businessбизнес,
176
448015
2215
вы идёте по улице по своим делам,
07:42
and then out of nowhereнигде you almostпочти runбег into
177
450230
1725
и вдруг перед вами возникает
07:43
an ex-girlfriendбывшая девушка or ex-boyfriendбывший парень,
178
451955
2192
ваш бывший парень или бывшая девушка,
07:46
and now those terrifyingужасающий two secondsсекунд
179
454147
2134
и в следующие ужасные две секунды
07:48
where you startНачало thinkingмышление, "What do I do? Do I say hiЗдравствуй?
180
456281
1876
вы начинаете соображать:
«Что делать? Поздороваться?
07:50
Do I shakeвстряхивать theirих handрука? Do I turnочередь around and runбег away?
181
458157
1368
Пожать руку?
Развернуться и убежать?
07:51
Do I sitсидеть here and pretendделать вид like I don't existсуществовать?"
182
459525
2029
Сесть и притвориться,
что меня не существует?»
07:53
Those kindsвиды of fleetingскоротечный thoughtsмысли that physicallyфизически incapacitateвыводить из строя you,
183
461554
3184
Подобные мимолетные мысли
физически выводят вас из строя,
07:56
that temporarilyвременно give you that deer-in-headlightsолень-в-фары look.
184
464738
2746
из-за них у вас глаза
выкатываются из орбит.
07:59
XLXL: HoweverОднако, if you put the mouseмышь in a completelyполностью differentдругой
185
467484
3291
С.Л.: Но если поместить мышь в другую,
08:02
newновый boxкоробка, like the nextследующий one,
186
470775
3161
новую коробку,
например такую,
08:05
it will not be afraidбоюсь of this boxкоробка
187
473936
2147
она не будет её бояться,
08:08
because there's no reasonпричина that it will be afraidбоюсь of this newновый environmentОкружающая среда.
188
476083
4729
потому что у неё нет причин
бояться нового окружения.
08:12
But what if we put the mouseмышь in this newновый boxкоробка
189
480812
3180
А если мы поместим мышь
в новую коробку,
08:15
but at the sameодна и та же time, we activateактивировать the fearстрах memoryПамять
190
483992
3611
но в то же время
активируем воспоминание страха,
08:19
usingс помощью lasersлазеры just like we did before?
191
487603
2679
используя лазеры,
как мы делали раньше?
08:22
Are we going to bringприносить back the fearстрах memoryПамять
192
490282
2854
Вернём ли мы воспоминание о страхе,
08:25
for the first boxкоробка into this completelyполностью newновый environmentОкружающая среда?
193
493136
3997
испытанное в первой коробке,
когда мышь будет в новой?
08:29
SRSR: All right, and here'sвот the million-dollarмиллионов долларов experimentэксперимент.
194
497133
2735
С.Р.: А вот эксперимент на миллион долларов.
08:31
Now to bringприносить back to life the memoryПамять of that day,
195
499868
2913
Как же вернуть воспоминание о том дне,
08:34
I rememberзапомнить that the Redкрасный Soxноски had just wonвыиграл,
196
502781
2183
когда, помню, победили Ред Сокс,
08:36
it was a greenзеленый springвесна day,
197
504964
1909
тот прекрасный весенний день,
08:38
perfectидеально for going up and down the riverрека
198
506873
1817
идеальный для прогулок по реке
08:40
and then maybe going to the Northсевер EndКонец
199
508690
2334
и, может, для поездки
в итальянскую часть города
08:43
to get some cannoliscannolis, #justsayingпросто говорю.
200
511024
2160
за парочкой канноли.
Это так, к слову.
08:45
Now XuXu and I, on the other handрука,
201
513184
3102
Мы с Сюй находились
08:48
were in a completelyполностью windowlessбез окон blackчерный roomкомната
202
516286
2829
в совершенно тёмной комнате без окон,
08:51
not makingизготовление any ocularокуляр movementдвижение that even remotelyудаленно resemblesпоходит an eyeглаз blinkмерцать
203
519115
3661
и настолько пристально
вглядывались в экран монитора,
08:54
because our eyesглаза were fixedисправлено ontoна a computerкомпьютер screenэкран.
204
522776
2466
что даже не моргали.
08:57
We were looking at this mouseмышь here tryingпытаясь to activateактивировать a memoryПамять
205
525242
2556
Мы смотрели на эту мышь,
стараясь оживить воспоминание,
08:59
for the first time usingс помощью our techniqueтехника.
206
527798
1883
в первый раз используя нашу технику.
09:01
XLXL: And this is what we saw.
207
529681
2688
С.Л.: И вот что мы увидели.
09:04
When we first put the mouseмышь into this boxкоробка,
208
532369
2202
Попадая в коробку впервые,
09:06
it's exploringисследование, sniffingнюхают around, walkingгулять пешком around,
209
534571
3113
мышь исследует её,
принюхивается, бегает,
09:09
mindingпомышления its ownсвоя businessбизнес,
210
537684
1689
занимается своими делами,
09:11
because actuallyна самом деле by natureприрода,
211
539373
1701
потому что по своей природе
09:13
miceмышей are prettyСимпатичная curiousлюбопытный animalsживотные.
212
541074
1979
мыши довольно любопытные животные.
09:15
They want to know, what's going on in this newновый boxкоробка?
213
543053
2622
Они хотят знать,
что же происходит в этой коробке?
09:17
It's interestingинтересно.
214
545675
1531
Это им интересно.
09:19
But the momentмомент we turnedоказалось on the laserлазер, like you see now,
215
547206
3451
Но в тот момент, когда мы включили лазер,
как вы можете видеть,
09:22
all of a suddenвнезапно the mouseмышь enteredвошел this freezingзаморозка modeРежим.
216
550657
3032
мышь вдруг впала в состояние застывания.
09:25
It stayedостались here and triedпытался not to moveпереехать any partчасть of its bodyтело.
217
553689
4431
Она остановилась на месте,
стараясь не двигаться.
09:30
Clearlyочевидно it's freezingзаморозка.
218
558120
1628
Очевидно, что это застывание.
09:31
So indeedв самом деле, it looksвыглядит like we are ableв состоянии to bringприносить back
219
559748
2583
Итак, кажется, мы можем вызвать
09:34
the fearстрах memoryПамять for the first boxкоробка
220
562331
2064
воспоминание страха,
связанное с первой коробкой,
09:36
in this completelyполностью newновый environmentОкружающая среда.
221
564395
3367
в совершенно новой обстановке.
09:39
While watchingнаблюдение this, SteveСтив and I
222
567762
2112
Наблюдая за происходящим, мы со Стивом
09:41
are as shockedв шоке as the mouseмышь itselfсам.
223
569874
2133
были шокированы не меньше этой мыши.
09:44
(LaughterСмех)
224
572007
1262
(Смех)
09:45
So after the experimentэксперимент, the two of us just left the roomкомната
225
573269
3307
После эксперимента
мы оба вышли из комнаты,
09:48
withoutбез sayingпоговорка anything.
226
576576
1753
не сказав ни слова.
09:50
After a kindсвоего рода of long, awkwardнеловко periodпериод of time,
227
578329
3396
После долгого, неловкого молчания
09:53
SteveСтив brokeсломал the silenceтишина.
228
581725
2212
Стив нарушил тишину.
09:55
SRSR: "Did that just work?"
229
583937
2341
С.Р.: Неужели это сработало?
09:58
XLXL: "Yes," I said. "IndeedВ самом деле it workedработал!"
230
586278
2974
С.Л.: «Без сомнений,
это сработало!», — ответил я.
10:01
We're really excitedв восторге about this.
231
589252
2117
Мы были очень довольны экспериментом
10:03
And then we publishedопубликованный our findingsВыводы
232
591369
2624
и опубликовали его результаты
10:05
in the journalжурнал NatureПрирода.
233
593993
1696
в журнале Nature.
10:07
Ever sinceпоскольку the publicationпубликация of our work,
234
595689
2471
С момента публикации нашего исследования
10:10
we'veмы в been receivingполучение numerousмногочисленные commentsКомментарии
235
598160
2415
мы получаем огромное количество комментариев
10:12
from all over the Internetинтернет.
236
600575
2125
со всего интернета.
10:14
Maybe we can take a look at some of those.
237
602700
3750
Вот некоторые из них.
10:18
["OMGGGGGOMGGGGG FINALLYВ КОНЦЕ КОНЦОВ... so much more to come, virtualвиртуальный realityреальность, neuralнервный manipulationманипуляция, visualвизуальный dreamмечта emulationэмуляция... neuralнервный codingкодирование, 'writing'письмо and re-writingПереписывание of memories'воспоминания', mentalумственный illnessesболезни. AhhhАааа the futureбудущее is awesomeздорово"]
238
606450
2457
«Боже мой, свершилось... Столько всего нового должно случиться, виртуальная реальность, нейронное манипулирование, зрительная имитация снов... нейронное кодирование, записывание и переписывание воспоминаний, психические заболевания. Ах, будущее будет восхитительным».
10:20
SRSR: So the first thing that you'llВы будете noticeуведомление is that people
239
608907
2000
С.Р.: Первая вещь, которую замечаешь,
это то, что у людей
10:22
have really strongсильный opinionsмнения about this kindсвоего рода of work.
240
610907
2903
есть свои, довольно чёткие представления
об этой работе.
10:25
Now I happenслучаться to completelyполностью agreeдать согласие with the optimismоптимизм
241
613810
2554
И я полностью согласен с оптимизмом
10:28
of this first quoteкотировка,
242
616364
816
первого комментария,
10:29
because on a scaleмасштаб of zeroнуль to MorganМорган Freeman'sФримена voiceголос,
243
617180
2808
потому что по шкале
от нуля до голоса Моргана Фримена
10:31
it happensпроисходит to be one of the mostбольшинство evocativeвызывающий воспоминания accoladesпочестей
244
619988
2123
это одна из самых запоминающихся похвал,
10:34
that I've heardуслышанным come our way.
245
622111
1550
которую я когда-либо слышал.
10:35
(LaughterСмех)
246
623661
2196
(Смех)
10:37
But as you'llВы будете see, it's not the only opinionмнение that's out there.
247
625857
1951
Но как вы может видеть,
есть и другие мнения.
10:39
["This scaresОтпугиватели the hellад out of me... What if they could do that easilyбез труда in humansлюди in a coupleпара of yearsлет?! OH MY GOD WE'RE DOOMEDОБРЕЧЕНЫ"]
248
627808
1564
«Это меня чертовски пугает... Что если они смогут это так же легко проделывать с людьми через пару лет? О, БОЖЕ, МЫ ВСЕ ОБРЕЧЕНЫ!»
10:41
XLXL: IndeedВ самом деле, if we take a look at the secondвторой one,
249
629372
1918
С.Л.: Если мы посмотрим
на второе высказывание,
10:43
I think we can all agreeдать согласие that it's, mehМех,
250
631290
2107
то я думаю, все согласимся с тем,
10:45
probablyвероятно not as positiveположительный.
251
633397
2375
что оно явно отрицательное.
10:47
But this alsoтакже remindsнапоминает us that,
252
635772
2185
Но это напоминает нам,
10:49
althoughнесмотря на то что we are still workingза работой with miceмышей,
253
637957
2186
что, хотя мы всё ещё работаем
только с мышами,
10:52
it's probablyвероятно a good ideaидея to startНачало thinkingмышление and discussingобсуждение
254
640143
3517
возможно, уже пора задуматься
10:55
about the possibleвозможное ethicalэтический ramificationsпоследствия
255
643660
2991
об этических проблемах
10:58
of memoryПамять controlконтроль.
256
646651
1948
управления памятью.
11:00
SRSR: Now, in the spiritдух of the thirdв третьих quoteкотировка,
257
648599
2200
С.Р.: Следуя духу третьего высказывания.
11:02
we want to tell you about a recentнедавний projectпроект that we'veмы в been
258
650799
1974
мы хотим рассказать вам
о нашем последнем проекте
11:04
workingза работой on in labлаборатория that we'veмы в calledназывается Projectпроект Inceptionначало.
259
652773
2428
под названием «Начало».
11:07
["They should make a movieкино about this. Where they plantрастение ideasидеи into peoplesнародов mindsумов, so they can controlконтроль them for theirих ownсвоя personalличный gainусиление. We'llЧто ж call it: Inceptionначало."]
260
655201
3243
«Об этом должны снять фильм. О том, как в умы людей помещают идеи и управляют ими ради собственной выгоды. И назвать его «Начало».
11:10
So we reasonedмотивированный that now that we can reactivateреактивировать a memoryПамять,
261
658444
3734
Итак, мы доказали,
что можем вызывать воспоминания.
11:14
what if we do so but then beginначать to tinkerпаять with that memoryПамять?
262
662178
2952
А если мы запустим этот процесс
и попробуем изменить это воспоминание?
11:17
Could we possiblyвозможно even turnочередь it into a falseложный memoryПамять?
263
665130
3033
Сможем ли мы превратить его
в ложное воспоминание?
11:20
XLXL: So all memoryПамять is sophisticatedутонченный and dynamicдинамический,
264
668163
4099
С.Л.: Память динамичная и сложная,
11:24
but if just for simplicityпростота, let's imagineпредставить memoryПамять
265
672262
2979
но чтобы было проще,
давайте представим, что память —
11:27
as a movieкино clipклип.
266
675241
1402
это видео-клип.
11:28
So farдалеко what we'veмы в told you is basicallyв основном we can controlконтроль
267
676643
2670
Как мы говорили,
в принципе, мы можем управлять
11:31
this "playиграть" buttonкнопка of the clipклип
268
679313
1931
кнопкой воспроизведения этого клипа
11:33
so that we can playиграть this videoвидео clipклип any time, anywhereв любом месте.
269
681244
4585
и проигрывать его
в любое время в любом месте.
11:37
But is there a possibilityвозможность that we can actuallyна самом деле get
270
685829
2531
Но возможно ли попасть внутрь мозга
11:40
insideвнутри the brainголовной мозг and editредактировать this movieкино clipклип
271
688360
2860
и редактировать клип,
11:43
so that we can make it differentдругой from the originalоригинал?
272
691220
2896
чтобы он стал отличным от оригинала?
11:46
Yes we can.
273
694116
2178
Да, возможно.
11:48
TurnedОказалось out that all we need to do is basicallyв основном
274
696294
2130
Оказывается, всё, что нам нужно сделать, —
11:50
reactivateреактивировать a memoryПамять usingс помощью lasersлазеры just like we did before,
275
698424
4275
это реактивировать воспоминание,
используя лазеры, как мы это делали раньше,
11:54
but at the sameодна и та же time, if we presentнастоящее время newновый informationИнформация
276
702699
3439
но в то же время,
если мы возьмём новую информацию
11:58
and allowпозволять this newновый informationИнформация to incorporateинкорпорировать into this oldстарый memoryПамять,
277
706138
3974
и позволим ей внедриться в старую,
12:02
this will changeизменение the memoryПамять.
278
710112
2438
это изменит воспоминание.
12:04
It's sortСортировать of like makingизготовление a remixремикс tapeлента.
279
712550
3663
Это похоже на создание ремикса.
12:08
SRSR: So how do we do this?
280
716213
2858
С.Р.: Как же мы это делаем?
12:11
RatherСкорее than findingобнаружение a fearстрах memoryПамять in the brainголовной мозг,
281
719071
1957
Мы начнём не с поиска
воспоминания страха в мозге,
12:13
we can startНачало by takingпринятие our animalsживотные,
282
721028
1716
а с того, что возьмём мышей,
12:14
and let's say we put them in a blueсиний boxкоробка like this blueсиний boxкоробка here
283
722744
2933
поместим их вот в такую голубую коробку,
12:17
and we find the brainголовной мозг cellsячейки that representпредставлять that blueсиний boxкоробка
284
725677
2494
найдём клетки мозга,
которые отображают голубую коробку,
12:20
and we trickтрюк them to respondотвечать to pulsesимпульсы of lightлегкий
285
728171
2073
и заставим их реагировать на импульсы света,
12:22
exactlyв точку like we had said before.
286
730244
2121
в точности так же, как мы говорили.
12:24
Now the nextследующий day, we can take our animalsживотные and placeместо them
287
732365
2124
На следующий день мы переместим мышей
12:26
in a redкрасный boxкоробка that they'veони имеют never experiencedопытный before.
288
734489
2699
в красную коробку,
в которой они никогда раньше не сидели.
12:29
We can shootстрелять lightлегкий into the brainголовной мозг to reactivateреактивировать
289
737188
2026
Мы пропускаем через их мозг
лучи света, чтобы реактивировать
12:31
the memoryПамять of the blueсиний boxкоробка.
290
739214
2109
воспоминание о голубой коробке.
12:33
So what would happenслучаться here if, while the animalживотное
291
741323
1744
Что же случится,
если в то время, когда животное
12:35
is recallingссылаясь the memoryПамять of the blueсиний boxкоробка,
292
743067
1894
вспоминает о голубой коробке,
12:36
we gaveдал it a coupleпара of mildмягкий footфут shocksшоки?
293
744961
2643
мы пропустим электрические разряды
через её лапки?
12:39
So here we're tryingпытаясь to artificiallyискусственно make an associationассоциация
294
747604
2693
Таким образом мы пытаемся
искусственно создать ассоциацию
12:42
betweenмежду the memoryПамять of the blueсиний boxкоробка
295
750297
1915
между воспоминанием о голубой коробке
12:44
and the footфут shocksшоки themselvesсамих себя.
296
752212
1503
и электроболевым раздражением
лап животных.
12:45
We're just tryingпытаясь to connectсоединять the two.
297
753715
1779
Мы пытаемся объединить эти два явления.
12:47
So to testконтрольная работа if we had doneсделанный so,
298
755494
1543
Чтобы это проверить,
12:49
we can take our animalsживотные onceодин раз again
299
757037
1328
мы опять берём мышей
12:50
and placeместо them back in the blueсиний boxкоробка.
300
758365
1946
и помещаем их обратно в голубую коробку.
12:52
Again, we had just reactivatedреактивировать the memoryПамять of the blueсиний boxкоробка
301
760311
2738
Напомним, мы восстановили
воспоминание о голубой коробке
12:55
while the animalживотное got a coupleпара of mildмягкий footфут shocksшоки,
302
763049
2167
в то время, когда мышь получала
небольшое электроболевое раздражение лап,
12:57
and now the animalживотное suddenlyвдруг, внезапно freezesзамерзает.
303
765216
2370
а теперь животное внезапно застыло.
12:59
It's as thoughхоть it's recallingссылаясь beingявляющийся mildlyмягко shockedв шоке in this environmentОкружающая среда
304
767586
3202
Как будто оно вспомнило
про электроболевое раздражение в этой обстановке,
13:02
even thoughхоть that never actuallyна самом деле happenedполучилось.
305
770788
3002
хотя на самом деле
этого никогда не происходило.
13:05
So it formedсформированный a falseложный memoryПамять,
306
773790
1862
Итак, у мыши появились ложные воспоминания,
13:07
because it's falselyложно fearingопасаясь an environmentОкружающая среда
307
775652
2011
потому что она ошибочно боится окружения,
13:09
where, technicallyтехнически speakingГоворящий,
308
777663
1254
в котором формально
13:10
nothing badПлохо actuallyна самом деле happenedполучилось to it.
309
778917
2349
с ней ничего плохого не происходило.
13:13
XLXL: So, so farдалеко we are only talkingговорящий about
310
781266
2453
С.Л.: До сих пор мы говорили только
13:15
this light-controlledсветло-контролируемый "on" switchпереключатель.
311
783719
2366
о включении светового переключателя,
13:18
In factфакт, we alsoтакже have a light-controlledсветло-контролируемый "off" switchпереключатель,
312
786085
3288
хотя у него есть и режим выключения,
13:21
and it's very easyлегко to imagineпредставить that
313
789373
2080
и очень легко представить,
13:23
by installingустановка this light-controlledсветло-контролируемый "off" switchпереключатель,
314
791453
2478
что, установив переключатель в этот режим,
13:25
we can alsoтакже turnочередь off a memoryПамять, any time, anywhereв любом месте.
315
793931
5588
мы сможем выключать любые воспоминания.
13:31
So everything we'veмы в been talkingговорящий about todayCегодня
316
799519
2214
Всё, о чём мы сегодня говорили,
13:33
is basedисходя из on this philosophicallyфилософски chargedзаряженный principleпринцип of neuroscienceневрология
317
801733
4677
основывается на
философском принципе неврологии,
13:38
that the mindразум, with its seeminglyпо-видимому mysteriousзагадочный propertiesсвойства,
318
806410
4118
гласящем, что разум, с его,
казалось бы, загадочными качествами
13:42
is actuallyна самом деле madeсделал of physicalфизическое stuffматериал that we can tinkerпаять with.
319
810528
3645
на самом деле вполне материален,
и в нём можно покопаться.
13:46
SRSR: And for me personallyлично,
320
814173
1475
С.Р.: Что касается лично меня,
13:47
I see a worldМир where we can reactivateреактивировать
321
815648
1581
я вижу мир, в котором мы
можем реактивировать
13:49
any kindсвоего рода of memoryПамять that we'dмы б like.
322
817229
2116
любое воспоминание,
которое нам захочется.
13:51
I alsoтакже see a worldМир where we can eraseстирать unwantedнежелательный memoriesвоспоминания.
323
819345
3298
Я также вижу мир, где мы можем стереть
ненужное воспоминание.
13:54
Now, I even see a worldМир where editingредактирование memoriesвоспоминания
324
822643
1936
И я даже вижу мир,
где редактирование воспоминаний —
13:56
is something of a realityреальность,
325
824579
1539
это часть реальности,
13:58
because we're livingживой in a time where it's possibleвозможное
326
826118
1705
потому что мы живём во времена,
13:59
to pluckсрывать questionsвопросов from the treeдерево of scienceнаука fictionфантастика
327
827823
2225
когда идеи из области научной фантастики
14:02
and to groundземля them in experimentalэкспериментальный realityреальность.
328
830048
2420
возможно воплощать в жизнь.
14:04
XLXL: NowadaysВ наше время, people in the labлаборатория
329
832468
1883
С.Л.: Сегодня люди в лабораториях
14:06
and people in other groupsгруппы all over the worldМир
330
834351
2386
и люди из других групп по всему миру
14:08
are usingс помощью similarаналогичный methodsметоды to activateактивировать or editредактировать memoriesвоспоминания,
331
836737
3817
используют похожие методы активации
или редактирования воспоминаний —
14:12
whetherбудь то that's oldстарый or newновый, positiveположительный or negativeотрицательный,
332
840554
3841
старых или новых, хороших или плохих —
14:16
all sortsвиды of memoriesвоспоминания so that we can understandПонимаю
333
844395
2672
всевозможных воспоминаний,
и теперь мы можем понять,
14:19
how memoryПамять worksработает.
334
847067
1864
как работает память.
14:20
SRSR: For exampleпример, one groupгруппа in our labлаборатория
335
848931
1784
С.Р.: Например, одна группа
из нашей лаборатории
14:22
was ableв состоянии to find the brainголовной мозг cellsячейки that make up a fearстрах memoryПамять
336
850715
2638
смогла найти клетки мозга,
создающие воспоминание страха,
14:25
and convertedпереоборудованный them into a pleasurableприятный memoryПамять, just like that.
337
853353
2775
и преобразовать его в приятное воспоминание.
14:28
That's exactlyв точку what I mean about editingредактирование these kindsвиды of processesпроцессы.
338
856128
3062
Во что я подразумевал,
говоря о редактировании воспоминаний.
14:31
Now one dudeчувак in labлаборатория was even ableв состоянии to reactivateреактивировать
339
859190
1812
Один парень смог даже оживить воспоминания
14:33
memoriesвоспоминания of femaleженский пол miceмышей in maleмужской miceмышей,
340
861002
2501
о самке мыши у самца.
14:35
whichкоторый rumorслух has it is a pleasurableприятный experienceопыт.
341
863503
2995
Ходят слухи, что это был приятный опыт.
14:38
XLXL: IndeedВ самом деле, we are livingживой in a very excitingзахватывающе momentмомент
342
866498
4117
С.Л.: Мы живём в волнующий период,
14:42
where scienceнаука doesn't have any arbitraryпроизвольный speedскорость limitsпределы
343
870615
3805
когда у науки нет скоростных ограничений,
14:46
but is only boundсвязанный by our ownсвоя imaginationвоображение.
344
874420
3187
и всё ограничивается
только нашим воображением.
14:49
SRSR: And finallyв конце концов, what do we make of all this?
345
877607
2147
С.Р.: Наконец, что нам со всем этим делать?
14:51
How do we pushОт себя this technologyтехнологии forwardвперед?
346
879754
1971
Как мы можем продвинуть
эту технологию вперед?
14:53
These are the questionsвопросов that should not remainоставаться
347
881725
1837
Это вопросы,
которые не должны оставаться
14:55
just insideвнутри the labлаборатория,
348
883562
1675
в стенах лаборатории,
14:57
and so one goalЦель of today'sсегодняшнего talk was to bringприносить everybodyвсе
349
885237
2572
и одна из целей сегодняшнего выступления —
рассказать всем
14:59
up to speedскорость with the kindсвоего рода of stuffматериал that's possibleвозможное
350
887809
2319
о скорости научных процессов,
которые возможны
15:02
in modernсовременное neuroscienceневрология,
351
890128
1384
в современной неврологии,
15:03
but now, just as importantlyважно,
352
891512
1510
а так же, что не менее важно,
15:05
to activelyактивно engageзаниматься everybodyвсе in this conversationразговор.
353
893022
3332
вовлечь всех в эту беседу.
15:08
So let's think togetherвместе as a teamкоманда about what this all meansозначает
354
896354
2329
Так давайте подумаем вместе,
как команда, о значении этого исследования
15:10
and where we can and should go from here,
355
898683
2474
и о том, куда мы можем
и должны двигаться дальше,
15:13
because XuXu and I think we all have
356
901157
2098
потому что нам с Сюй предстоит принять
15:15
some really bigбольшой decisionsрешения aheadвпереди of us.
357
903255
2536
очень непростое решение.
15:17
Thank you.
XLXL: Thank you.
358
905791
1125
Спасибо.
С.Л.: Спасибо.
15:18
(ApplauseАплодисменты)
359
906916
1634
(Аплодисменты)
Translated by Nastya Goruinova
Reviewed by Yekaterina Jussupova

▲Back to top

ABOUT THE SPEAKERS
Steve Ramirez - Neuroscientist
When Steve Ramirez published his latest study in Science, it caused a media frenzy. Why? Because the paper was on implanting false memories in the brains of mice.

Why you should listen

Steve is a graduate student at MIT’s Brain and Cognitive Sciences department pursuing a Ph.D. in neuroscience. His work focuses on finding where single memories are located throughout the brain, genetically tricking the brain cells that house these memories to respond to brief pulses of light, and then using these same flickers of light to reactivate, erase and implant memories. The goals of his research are twofold: to figure out how the brain gives rise to the seemingly ephemeral process of memory, and to predict what happens when specific brain pieces breakdown to impair cognition. His work has been published in Science and covered by New Scientist, Discover, Scientific American, and Gizmodo.

Ramirez aims to be a professor who runs a lab that plucks questions from the tree of science fiction to ground them in experimental reality. He believes that a team-oriented approach to science makes research and teaching far more exciting. When he’s not tinkering with memories in the lab, Ramirez also enjoys running and cheering on every sports team in the city of Boston.

More profile about the speaker
Steve Ramirez | Speaker | TED.com
Xu Liu - Neuroscientist
In his groundbreaking work, Xu Liu investigated how to activate and deactivate specific memories in mice.

Why you should listen

During his PhD, Xu Liu studied the mechanisms of learning and memory, using fruit flies as a model system. By changing the expression of certain genes in the fly brain, he generated smart flies that can learn many times faster than their peers. Using live imaging, he also detected learning-induced changes in the brain cells and observed memory formation inside the brain with light.

After graduation, he moved to MIT and joined Dr. Susumu Tonegawa's lab as a postdoctoral associate. He continued his pursuit of memory with light there. Instead of just watching memory formation, he developed a system in mice where one can not only identify and label cells in the brain for a particular memory, but also turn these cells on and off with light to activate this memory at will. This work was published in Science and has been covered by the media worldwide. Liu passed away in February 2015.

More profile about the speaker
Xu Liu | Speaker | TED.com