ABOUT THE SPEAKERS
Steve Ramirez - Neuroscientist
When Steve Ramirez published his latest study in Science, it caused a media frenzy. Why? Because the paper was on implanting false memories in the brains of mice.

Why you should listen

Steve is a graduate student at MIT’s Brain and Cognitive Sciences department pursuing a Ph.D. in neuroscience. His work focuses on finding where single memories are located throughout the brain, genetically tricking the brain cells that house these memories to respond to brief pulses of light, and then using these same flickers of light to reactivate, erase and implant memories. The goals of his research are twofold: to figure out how the brain gives rise to the seemingly ephemeral process of memory, and to predict what happens when specific brain pieces breakdown to impair cognition. His work has been published in Science and covered by New Scientist, Discover, Scientific American, and Gizmodo.

Ramirez aims to be a professor who runs a lab that plucks questions from the tree of science fiction to ground them in experimental reality. He believes that a team-oriented approach to science makes research and teaching far more exciting. When he’s not tinkering with memories in the lab, Ramirez also enjoys running and cheering on every sports team in the city of Boston.

More profile about the speaker
Steve Ramirez | Speaker | TED.com
Xu Liu - Neuroscientist
In his groundbreaking work, Xu Liu investigated how to activate and deactivate specific memories in mice.

Why you should listen

During his PhD, Xu Liu studied the mechanisms of learning and memory, using fruit flies as a model system. By changing the expression of certain genes in the fly brain, he generated smart flies that can learn many times faster than their peers. Using live imaging, he also detected learning-induced changes in the brain cells and observed memory formation inside the brain with light.

After graduation, he moved to MIT and joined Dr. Susumu Tonegawa's lab as a postdoctoral associate. He continued his pursuit of memory with light there. Instead of just watching memory formation, he developed a system in mice where one can not only identify and label cells in the brain for a particular memory, but also turn these cells on and off with light to activate this memory at will. This work was published in Science and has been covered by the media worldwide. Liu passed away in February 2015.

More profile about the speaker
Xu Liu | Speaker | TED.com
TEDxBoston

Steve Ramirez and Xu Liu: A mouse. A laser beam. A manipulated memory.

یک موش. یک پرتوی لیزر. یک خاطره ی دستکاری شده.

Filmed:
1,127,889 views

آیا ما می توانیم جزئیات خاطراتمان را ویرایش کنیم؟ این یک سؤال علمی-تخیلی است که استیو رمیرز و شو لیو در آزمایشگاهشان در دانشگاه MIT می پرسند. این دو نفر، یک پرتوی لیزر را به مغز یک موش زنده تابانیدند تا خاطره ای مشخص را در ذهنش فعال و دستکاری کنند. در این سخنرانی عجیب و سرگرم کننده آن ها نه تنها نحوه ی انجام این کار بلکه -- حتی مهم تر از آن -- دلیل انجام این کار را توضیح می دهند. (تصویربرداری شده در TEDxBoston)
- Neuroscientist
When Steve Ramirez published his latest study in Science, it caused a media frenzy. Why? Because the paper was on implanting false memories in the brains of mice. Full bio - Neuroscientist
In his groundbreaking work, Xu Liu investigated how to activate and deactivate specific memories in mice. Full bio

Double-click the English transcript below to play the video.

00:12
Steveاستیو Ramirezرامیرز: My first yearسال of gradدرجه schoolمدرسه,
0
371
1556
استیو رَمیرِز: در اولین سال دبیرستانم،
00:13
I foundپیدا شد myselfخودم in my bedroomاتاق خواب
1
1927
2004
یک روز در اتاقم نشسته بودم،
00:15
eatingغذا خوردن lots of Benبن & Jerry'sجری
2
3931
2300
دائم بستنی می خوردم،
00:18
watchingتماشا کردن some trashyخرابکاری TVتلویزیون
3
6231
1684
سریال های مزخرف تلویزیون را می دیدم
00:19
and maybe, maybe listeningاستماع to Taylorتیلور Swiftسریع.
4
7915
3227
و شاید، شاید به آهنگ های تیلور سوییفت گوش می کردم.
00:23
I had just goneرفته throughاز طریق a breakupشکسته شدن.
5
11142
1741
چون به تازگی یک شکست احساسی خورده بودم.
00:24
(Laughterخنده)
6
12883
1447
(خنده ی حاضرین)
00:26
So for the longestطولانی ترین time, all I would do
7
14330
2196
بنابراین برای مدت زیادی، تمام تلاشم این شده بود که
00:28
is recallبه خاطر آوردن the memoryحافظه of this personفرد over and over again,
8
16526
3816
بتوانم خاطره ی آن فرد را دوباره و دوباره برای خودم تکرار کنم،
00:32
wishingبا آرزوی that I could get ridخلاص شدن از شر of that gut-wrenchingجوش زدن,
9
20342
2493
تا شاید از آن حس مزخرفی که داشتم راحت شوم.
00:34
visceralذره ای "blahبله" feelingاحساس.
10
22835
2533
تا شاید از آن حس مزخرفی که داشتم راحت شوم.
00:37
Now, as it turnsچرخش out, I'm a neuroscientistعصب شناس,
11
25368
2283
اما، همان طور که احتمالاً حدس می زنید، من یک متخصص اعصاب هستم،
00:39
so I knewمی دانست that the memoryحافظه of that personفرد
12
27651
2402
و بنابراین می دانستم که خاطره ی آن فرد
00:42
and the awfulخیلی بد و ناخوشایند, emotionalعاطفی undertonesتحت تأثیر that colorرنگ in that memoryحافظه,
13
30053
3140
و زمزمه های احساسی و ویران کننده ای که آن خاطره، آن ها را با خود می آورد،
00:45
are largelyتا حد زیادی mediatedواسطه by separateجداگانه brainمغز systemsسیستم های.
14
33193
2634
تا حد زیادی به واسطه ی سیستم های مختلف مغزی ایجاد می شوند.
00:47
And so I thought, what if we could go into the brainمغز
15
35827
2365
و من با خودم فکر کردم، کاش می توانستیم داخل مغز برویم
00:50
and editویرایش کنید out that nauseatingتهوع feelingاحساس
16
38192
2090
و آن حس تهوع آور را حذف کنیم
00:52
but while keepingنگه داشتن the memoryحافظه of that personفرد intactسالم?
17
40282
2970
بدون این که به خاطره ای که از آن فرد داریم آسیبی وارد کنیم.
00:55
Then I realizedمتوجه شدم, maybe that's a little bitبیت loftyبلند for now.
18
43252
2411
بعد با خودم گفتم، شاید این ایده برای دوره ی ما زیادی بلندپروازانه باشد.
00:57
So what if we could startشروع کن off by going into the brainمغز
19
45663
2793
اما در عوض شاید بتوانیم با رفتن داخل مغز،
01:00
and just findingیافته a singleتنها memoryحافظه to beginشروع with?
20
48456
2633
و تنها پیدا کردن یک خاطره شروع کنیم.
01:03
Could we jump-startپرش شروع that memoryحافظه back to life,
21
51089
2514
آیا می توانیم آن خاطره را دوباره زنده کنیم،
01:05
maybe even playبازی with the contentsفهرست of that memoryحافظه?
22
53603
3868
یا شاید حتی بعضی از جزئیات آن خاطره را تغییر دهیم؟
01:09
All that said, there is one personفرد in the entireکل worldجهان right now
23
57471
2229
با تمام این اوصاف، در حال حاضر یک نفر در تمام دنیا وجود دارد
01:11
that I really hopeامید is not watchingتماشا کردن this talk.
24
59700
2055
که واقعاً امیدوارم این سخنرانی را نبیند.
01:13
(Laughterخنده)
25
61755
3941
(خنده ی حاضرین)
01:17
So there is a catchگرفتن. There is a catchگرفتن.
26
65696
3289
اما مشکلی وجود دارد. یک مشکل.
01:20
These ideasایده ها probablyشاید remindیادآوری کن you of "Totalجمع Recallبه خاطر آوردن,"
27
68985
2788
این ایده ها احتمالاً شما را یاد فیلم "یادآوری کامل" (Total Recall)
01:23
"Eternalابدی Sunshineآفتاب of the Spotlessبی عیب Mindذهن,"
28
71773
1974
"طلوع ابدی ذهن بی نقص" (Eternal Sunshine of the Spotless Mind)
01:25
or of "Inceptionآغازگر."
29
73747
1303
یا "الهام" (Inception) بیندازند.
01:27
But the movieفیلم سینما starsستاره ها that we work with
30
75050
1576
اما ستاره های سینمایی که ما با آن ها کار می کنیم
01:28
are the celebritiesمشهور of the labآزمایشگاه.
31
76626
1943
در آزمایشگاه مشهور هستند.
01:30
Xuزو Liuلیو: Testتست miceموش.
32
78569
1900
شو لیو: موش های آزمایشگاهی.
01:32
(Laughterخنده)
33
80469
1128
(خنده ی حاضرین)
01:33
As neuroscientistsدانشمندان علوم اعصاب, we work in the labآزمایشگاه with miceموش
34
81597
3154
به عنوان متخصصین اعصاب، ما در آزمایشگاه با موش ها کار می کنیم،
01:36
tryingتلاش کن to understandفهمیدن how memoryحافظه worksآثار.
35
84751
3410
تا بفهمیم نحوه ی عملکرد یک خاطره چگونه است.
01:40
And todayامروز, we hopeامید to convinceمتقاعد کردن you that now
36
88161
2569
و امروز، ما امیدواریم بتوانیم شما را متقاعد کنیم
01:42
we are actuallyدر واقع ableتوانایی to activateفعال کردن a memoryحافظه in the brainمغز
37
90730
3216
که امروزه می توانیم یک خاطره ی مشخص در ذهن را
01:45
at the speedسرعت of lightسبک.
38
93946
2170
با سرعت نور احیا کنیم.
01:48
To do this, there's only two simpleساده stepsمراحل to followدنبال کردن.
39
96116
3106
برای انجام این کار، تنها دو مرحله ی ساده برای انجام دادن دارید.
01:51
First, you find and labelبرچسب a memoryحافظه in the brainمغز,
40
99222
3510
اول از همه، خاطره را در مغز پیدا و مشخص کنید،
01:54
and then you activateفعال کردن it with a switchسوئیچ.
41
102732
3630
و سپس آن را فعال کنید.
01:58
As simpleساده as that.
42
106362
1445
به همین سادگی.
01:59
(Laughterخنده)
43
107807
1822
(خنده ی حاضرین)
02:01
SRSR: Are you convincedمتقاعد?
44
109629
1845
استیو: آیا متقاعد شدید؟
02:03
So, turnsچرخش out findingیافته a memoryحافظه in the brainمغز isn't all that easyآسان.
45
111474
3721
خب، ما فهمیدیم که پیدا کردن یک خاطره ی مشخص در مغز به این سادگی ها هم نیست.
02:07
XLXL: Indeedدر واقع. This is way more difficultدشوار than, let's say,
46
115195
2803
شو: البته که نیست. انجام این کار
02:09
findingیافته a needleسوزن in a haystackهیزله,
47
117998
2404
حتی از پیدا کردن یک سوزن درون انبار کاه هم سخت تر بود،
02:12
because at leastکمترین, you know, the needleسوزن is still something
48
120402
2589
زیرا حداقل، شما می دانید، سوزن چیزی است که
02:14
you can physicallyاز لحاظ جسمی put your fingersانگشتان on.
49
122991
2500
به صورت فیزیکی می توانید آن را با انگشتانتان بگیرید.
02:17
But memoryحافظه is not.
50
125491
1977
اما یک خاطره این گونه نیست.
02:19
And alsoهمچنین, there's way more cellsسلول ها in your brainمغز
51
127468
3038
و علاوه بر آن، تعداد سلول های درون مغز شما،
02:22
than the numberعدد of strawsنیها in a typicalمعمول haystackهیزله.
52
130506
5066
به مراتب از تعداد رشته های کاه درون یک انبار کاه معمولی بیشتر است.
02:27
So yeah, this taskوظیفه does seemبه نظر می رسد to be dauntingدلهره آور.
53
135572
2879
بنابراین، این کار کمی دل و جرأت می خواهد.
02:30
But luckilyخوشبختانه, we got help from the brainمغز itselfخودش.
54
138451
3679
اما خوشبختانه، ما از خود مغز هم کمک می گیریم.
02:34
It turnedتبدیل شد out that all we need to do is basicallyاساسا
55
142130
2455
بعداً فهمیدیم اساساً تمام کاری که نیاز داریم انجام بدهیم،
02:36
to let the brainمغز formفرم a memoryحافظه,
56
144585
1993
این است که بگذاریم مغز یک خاطره را ثبت کند،
02:38
and then the brainمغز will tell us whichکه cellsسلول ها are involvedگرفتار
57
146578
3830
و بعد مغز به ما خواهد گفت که کدام یک از سلول ها
02:42
in that particularخاص memoryحافظه.
58
150408
1766
در آن خاطره ی مشخص دخیل بوده اند.
02:44
SRSR: So what was going on in my brainمغز
59
152174
2357
استیو: اما وقتی خاطره ی عشق قبلیم در ذهنم مرور می شد،
02:46
while I was recallingیادآوری the memoryحافظه of an exسابق?
60
154531
2094
چه اتفاقی در مغز من می افتاد؟
02:48
If you were to just completelyبه صورت کامل ignoreچشم پوشی humanانسان ethicsاخلاق for a secondدومین
61
156625
2402
اگر شما مجبور باشید برای یک لحظه تمامی اصول اخلاقی و انسانی را کنار بگذارید
02:51
and sliceتکه up my brainمغز right now,
62
159027
1668
و همین الآن مغز من را تکه تکه کنید،
02:52
you would see that there was an amazingحیرت آور numberعدد
63
160695
2018
خواهید دید که مناطق بی شماری در مغز من وجود دارند
02:54
of brainمغز regionsمناطق that were activeفعال while recallingیادآوری that memoryحافظه.
64
162713
3178
که با به یاد آوردن آن خاطره فعال می شوند.
02:57
Now one brainمغز regionمنطقه that would be robustlyبه شدت activeفعال
65
165891
2912
اما به طور معمول یک منطقه ی مغزی به طور جدی فعال خواهد شد
03:00
in particularخاص is calledبه نام the hippocampusهیپوکامپ,
66
168803
2007
که هیپوکامپوس نامیده می شود،
03:02
whichکه for decadesچند دهه has been implicatedپیوست in processingدر حال پردازش
67
170810
2455
و به مدت ده ها سال به عنوان بخشی تلقی می شد
03:05
the kindsانواع of memoriesخاطرات that we holdنگه دارید nearنزدیک and dearعزیزم,
68
173265
2416
که خاطراتی را که برای ما عزیز هستند حفظ می کنند،
03:07
whichکه alsoهمچنین makesباعث می شود it an idealایده آل targetهدف to go into
69
175681
2574
که دانستن این موضوع باعث می شد این بخش از مغز، هدفی ایده آل
03:10
and to try and find and maybe reactivateفعال کردن مجدد a memoryحافظه.
70
178255
2785
برای بررسی و تلاش برای پیدا کردن یک خاطره در آن و شاید باز-فعال سازی آن باشد.
03:13
XLXL: When you zoomبزرگنمایی in into the hippocampusهیپوکامپ,
71
181040
2394
شو: اگر هیپوکامپوس را با دقت بررسی کنید،
03:15
of courseدوره you will see lots of cellsسلول ها,
72
183434
2348
مطمئناً سلول های بی شماری را می بینید،
03:17
but we are ableتوانایی to find whichکه cellsسلول ها are involvedگرفتار
73
185782
3031
ولی ما می توانیم بفهمیم کدام یک از سلول ها،
03:20
in a particularخاص memoryحافظه,
74
188813
1476
در جریان یک خاطره ی به خصوص فعال می شوند،
03:22
because wheneverهر زمان که a cellسلول is activeفعال,
75
190289
2618
زیرا هر گاه سلولی فعال می شود،
03:24
like when it's formingشکل گیری a memoryحافظه,
76
192907
1464
مثلاً وقتی که یک خاطره را ثبت می کند،
03:26
it will alsoهمچنین leaveترک کردن a footprintرد پای that will laterبعد allowاجازه دادن us to know
77
194371
3757
اثری باقی می گذارد که بعداً به ما اجازه می دهد که بفهمیم،
03:30
these cellsسلول ها are recentlyبه تازگی activeفعال.
78
198128
2702
این سلول ها پیش از این فعال بوده اند.
03:32
SRSR: So the sameیکسان way that buildingساختمان lightsچراغ ها at night
79
200830
2160
استیو: بنابراین همان طور که از روی چراغ ساختمان ها در شب
03:34
let you know that somebody'sکسی هست probablyشاید workingکار کردن there at any givenداده شده momentلحظه,
80
202990
2948
می توانید بفهمید که در آن زمان مشخص شاید یک نفر دارد در آن جا کار می کند،
03:37
in a very realواقعی senseاحساس, there are biologicalبیولوژیکی sensorsسنسورها
81
205938
3288
در واقعیت، سنسور های بیولوژیکی درون سلول ها وجود دارند،
03:41
withinدر داخل a cellسلول that are turnedتبدیل شد on
82
209226
1954
در واقعیت، سنسور های بیولوژیکی درون سلول ها وجود دارند،
03:43
only when that cellسلول was just workingکار کردن.
83
211180
2135
که هر گاه سلول فعالیت می کند روشن می شود.
03:45
They're sortمرتب سازی of biologicalبیولوژیکی windowsپنجره ها that lightسبک up
84
213315
1876
آن ها نوعی پنجره ی بیولوژیکی هستند که روشن می شوند
03:47
to let us know that that cellسلول was just activeفعال.
85
215191
1978
تا ما بفهمیم که آن سلول به تازگی فعال شده است.
03:49
XLXL: So we clippedقطع شد partبخشی of this sensorسنسور,
86
217169
2829
شو: بنابراین ما بخشی از این سنسور را بریدیم،
03:51
and attachedمتصل شده that to a switchسوئیچ to controlکنترل the cellsسلول ها,
87
219998
3147
و آن را به یک کلید متصل کردیم تا سلول ها را کنترل کنیم،
03:55
and we packedبسته بندی شده this switchسوئیچ into an engineeredمهندسی شده virusویروس
88
223145
3900
و این کلید را در یک ویروس مهندسی شده قرار دادیم
03:59
and injectedتزریق شده that into the brainمغز of the miceموش.
89
227045
2588
و آن ویروس را درون مغز یک موش تزریق کردیم.
04:01
So wheneverهر زمان که a memoryحافظه is beingبودن formedشکل گرفت,
90
229633
2634
بنابراین هر وقت یک خاطره ثبت می شود،
04:04
any activeفعال cellsسلول ها for that memoryحافظه
91
232267
2348
تمام سلول های فعال مربوط به آن خاطره
04:06
will alsoهمچنین have this switchسوئیچ installedنصب شده است.
92
234615
2742
این کلید را بر روی خود نصب می کنند.
04:09
SRSR: So here is what the hippocampusهیپوکامپ looksبه نظر می رسد like
93
237357
1625
استیو: به طور مثال، هیپوکامپوس بعد از ثبت یک خاطره ی ترسناک، تقریباً این شکلی است.
04:10
after formingشکل گیری a fearترس memoryحافظه, for exampleمثال.
94
238982
2840
استیو: به طور مثال، هیپوکامپوس بعد از ثبت یک خاطره ی ترسناک، تقریباً این شکلی است.
04:13
The seaدریا of blueآبی that you see here
95
241822
2140
قسمت آبی که در این جا می بینید،
04:15
are denselyمتراکم packedبسته بندی شده brainمغز cellsسلول ها,
96
243962
1952
مجموعه ی فشرده ی سلول های مغزی است،
04:17
but the greenسبز brainمغز cellsسلول ها,
97
245914
1545
اما سلول های سبز رنگ مغز،
04:19
the greenسبز brainمغز cellsسلول ها are the onesآنهایی که that are holdingبرگزاری on
98
247459
2096
وظیفه ی ثبت یک خاطره ی ترسناک به خصوص را بر عهده دارند.
04:21
to a specificخاص fearترس memoryحافظه.
99
249555
1843
وظیفه ی ثبت یک خاطره ی ترسناک به خصوص را بر عهده دارند.
04:23
So you are looking at the crystallizationکریستالیزاسیون
100
251398
1979
بنابراین شما دارید به یک آن از تشکیل آرایش ترس نگاه می کنید.
04:25
of the fleetingزودگذر formationتشکیل of fearترس.
101
253377
2387
بنابراین شما دارید به یک آن از تشکیل آرایش ترس نگاه می کنید.
04:27
You're actuallyدر واقع looking at the cross-sectionسطح مقطع of a memoryحافظه right now.
102
255764
3497
شما دارید به شمای نیمرخ یک خاطره نگاه می کنید.
04:31
XLXL: Now, for the switchسوئیچ we have been talkingصحبت کردن about,
103
259261
2408
شو: الآن، برای کلیدی که درباره اش صحبت کرده بودیم،
04:33
ideallyایده آل, the switchسوئیچ has to actعمل کن really fastسریع.
104
261669
2970
بطور ایده آل، این کلید باید با سرعت تمام واکنش نشان دهد.
04:36
It shouldn'tنباید take minutesدقایق or hoursساعت ها to work.
105
264639
2579
سرعت واکنش آن نباید چند دقیقه یا چند ساعت باشد.
04:39
It should actعمل کن at the speedسرعت of the brainمغز, in millisecondsمیلی ثانیه.
106
267218
4264
این کلید باید با سرعت مغز، یعنی چند میلی ثانیه واکنش نشان دهد.
04:43
SRSR: So what do you think, Xuزو?
107
271482
1430
استیو: شو، نظرت چیست؟
04:44
Could we use, let's say, pharmacologicalفارماکولوژیک drugsمواد مخدر
108
272912
2602
آیا ما می توانیم، به طور مثال، از دارو های متداول استفاده کنیم،
04:47
to activateفعال کردن or inactivateغیر فعال کردن brainمغز cellsسلول ها?
109
275514
1838
تا سلول های مغز خودمان را فعال یا غیر فعال کنیم؟
04:49
XLXL: Nahخیر. Drugsمواد مخدر are prettyبسیار messyبی نظم. They spreadانتشار دادن everywhereدر همه جا.
110
277352
4063
شو: نه. دارو ها خیلی نامتمرکز عمل می کنند. آن ها همه جای بدن پخش می شوند.
04:53
And alsoهمچنین it takes them foreverبرای همیشه to actعمل کن on cellsسلول ها.
111
281415
3008
و وقت زیادی می خواهد تا آن ها روی سلول ها عمل کنند.
04:56
So it will not allowاجازه دادن us to controlکنترل a memoryحافظه in realواقعی time.
112
284423
3649
پس با دارو ها نمی توانیم یک خاطره را بلافاصله کنترل کنیم.
05:00
So Steveاستیو, how about let's zapزاپ the brainمغز with electricityالکتریسیته?
113
288072
4294
خب استیو، نظرت در مورد پاک کردن مغز به کمک الکتریسیته چیه؟
05:04
SRSR: So electricityالکتریسیته is prettyبسیار fastسریع,
114
292366
2305
استیو: الکتریسیته خیلی سریعه،
05:06
but we probablyشاید wouldn'tنمی خواهم be ableتوانایی to targetهدف it
115
294671
1739
ولی احتمالاً ما ثادر نخواهیم بود تا به وسیله ی آن،
05:08
to just the specificخاص cellsسلول ها that holdنگه دارید ontoبه سوی a memoryحافظه,
116
296410
2354
فقط سلول های مشخصی که یک خاطره را نگه می دارند را هدف بگیریم،
05:10
and we'dما می خواهیم probablyشاید fryسرخ کردن the brainمغز.
117
298764
1878
و این احتمال هم وجود داشت که مغز را بسوزانیم.
05:12
XLXL: Oh. That's trueدرست است. So it looksبه نظر می رسد like, hmmبله,
118
300642
3195
شو: اوه. درسته. پس باید، ممم ...
05:15
indeedدر واقع we need to find a better way
119
303837
2611
راه بهتری پیدا می کردیم
05:18
to impactتأثیر the brainمغز at the speedسرعت of lightسبک.
120
306448
3295
تا بتوانیم مغز را با سرعت نور تحت تأثیر قرار دهیم.
05:21
SRSR: So it just so happensاتفاق می افتد that lightسبک travelsسفر می کند at the speedسرعت of lightسبک.
121
309743
5086
استیو: ما به این نتیجه رسیدیم که تنها نور است که با سرعت نور حرکت می کند.
05:26
So maybe we could activateفعال کردن or inactiveغیر فعال memoriesخاطرات
122
314829
3483
بنابراین شاید ما بتوانیم خاطره ها را به وسیله ی نور،
05:30
by just usingاستفاده كردن lightسبک --
123
318312
1497
فعال یا غیر فعال کنیم --
05:31
XLXL: That's prettyبسیار fastسریع.
124
319809
1355
شو: نور خیلی سریع است.
05:33
SRSR: -- and because normallyبه طور معمول brainمغز cellsسلول ها
125
321164
1885
استیو: -- و چون سلول های مغزی
05:35
don't respondپاسخ دادن to pulsesپالس ها of lightسبک,
126
323049
1588
به طور معمول به پالس های نوری واکنش نشان نمی دهند،
05:36
so those that would respondپاسخ دادن to pulsesپالس ها of lightسبک
127
324637
1958
بنابراین آن سلول هایی که به پالس های نوری واکنش نشان می دهند
05:38
are those that containحاوی a light-sensitiveحساس به نور switchسوئیچ.
128
326595
2464
آن هایی هستند که کلید حساس به نور دارند.
05:41
Now to do that, first we need to trickترفند brainمغز cellsسلول ها
129
329059
1946
اما برای این کار، ابتدا ما باید سلول های مغزی را گول بزنیم،
05:43
to respondپاسخ دادن to laserلیزر beamsپرتوها.
130
331005
1462
تا به پرتو های لیزر واکنش نشان بدهند.
05:44
XLXL: Yepبله. You heardشنیدم it right.
131
332467
1070
شو: دقیقاً. درست شنیدید.
05:45
We are tryingتلاش کن to shootشلیک lasersلیزرها into the brainمغز.
132
333537
2132
ما تلاش می کنیم به مغز پرتو های لیزر شلیک کنیم.
05:47
(Laughterخنده)
133
335669
1745
(خنده ی حاضرین)
05:49
SRSR: And the techniqueتکنیک that letsاجازه می دهد us do that is optogeneticsoptogenetics.
134
337414
3324
استیو: و تکنیکی که به ما اجازه می دهد که این کار را انجام بدهیم، آپتوژنتیک است (تأثیر نور بر روی ژن ها).
05:52
OptogeneticsOptogenetics gaveداد us this lightسبک switchسوئیچ that we can use
135
340738
3282
به کمک آپتوژنتیک ما می توانیم این کلید های حساس به نور را بسازیم،
05:56
to turnدور زدن brainمغز cellsسلول ها on or off,
136
344020
1508
که به کمک آن ها می توانیم سلول های مغزی را خاموش یا روشن کنیم،
05:57
and the nameنام of that switchسوئیچ is channelrhodopsinکانالرودپسین,
137
345528
2517
و نام آن کلید چنلرودوپسین است،
06:00
seenمشاهده گردید here as these greenسبز dotsنقطه ها attachedمتصل شده to this brainمغز cellسلول.
138
348045
2537
و در این جا به شکل دانه های سبز چسبیده به این سلول مغزی دیده می شوند.
06:02
You can think of channelrhodopsinکانالرودپسین as a sortمرتب سازی of light-sensitiveحساس به نور switchسوئیچ
139
350582
3299
شما می توانید چنلرودوپسین را به صورت یک کلید حساس به نور تصور کنید،
06:05
that can be artificiallyمصنوعی installedنصب شده است in brainمغز cellsسلول ها
140
353881
2627
که می تواند به صورت مصنوعی بر روی سلول های مغزی نصب شود،
06:08
so that now we can use that switchسوئیچ
141
356508
1914
و ما می توانیم خیلی ساده با کلیک کردن بر روی آن کلید،
06:10
to activateفعال کردن or inactivateغیر فعال کردن the brainمغز cellسلول simplyبه سادگی by clickingکلیک کردن it,
142
358422
3013
برای فعال یا غیرفعال کردن سلول مغزی استفاده کنیم،
06:13
and in this caseمورد we clickکلیک it on with pulsesپالس ها of lightسبک.
143
361435
2468
و در این مورد خاص با پالس های نوری آن را فعال می کنیم.
06:15
XLXL: So we attachپیوستن this light-sensitiveحساس به نور switchسوئیچ of channelrhodopsinکانالرودپسین
144
363903
3786
ژو: پس ما این کلید حساس به نور چنلرودوپسین را
06:19
to the sensorسنسور we'veما هستیم been talkingصحبت کردن about
145
367689
2208
به سنسوری که درباره اش صحبت کردیم وصل کردیم
06:21
and injectتزریق کنید this into the brainمغز.
146
369897
2455
و آن را به مغز تزریق کردیم.
06:24
So wheneverهر زمان که a memoryحافظه is beingبودن formedشکل گرفت,
147
372352
3211
بنابراین هر وقت یک خاطره ثبت می شود،
06:27
any activeفعال cellسلول for that particularخاص memoryحافظه
148
375563
2227
تمام سلول های فعال مربوط به آن خاطره ی مشخص
06:29
will alsoهمچنین have this light-sensitiveحساس به نور switchسوئیچ installedنصب شده است in it
149
377790
3484
این کلید های حساس به نور را نیز به درون خود می برند
06:33
so that we can controlکنترل these cellsسلول ها
150
381274
2401
و از این طریق ما می توانیم این سلول ها را
06:35
by the flippingگول زدن of a laserلیزر just like this one you see.
151
383675
4264
همان طور که می بینید، با تابش آنی پرتوی لیزر کنترل کنیم.
06:39
SRSR: So let's put all of this to the testتست now.
152
387939
2864
استیو: اجازه بدهید آزمایشی با تمام این اوصاف انجام بدهیم.
06:42
What we can do is we can take our miceموش
153
390803
2135
کاری که می توانیم انجام بدهیم این است که موش هایمان را
06:44
and then we can put them in a boxجعبه that looksبه نظر می رسد exactlyدقیقا like this boxجعبه here,
154
392938
2928
درون یک جعبه دقیقاً مثل این جعبه قرار دهیم،
06:47
and then we can give them a very mildخفیف footپا shockشوکه شدن
155
395866
2340
و بعد می توانیم به آن ها یک شوک بسیار خفیف بدهیم
06:50
so that they formفرم a fearترس memoryحافظه of this boxجعبه.
156
398206
2035
تا آن ها خاطره ی ترسناکی را درون این جعبه ثبت کنند.
06:52
They learnیاد گرفتن that something badبد happenedاتفاق افتاد here.
157
400241
1979
آن ها می آموزند که اتفاق بدی این جا افتاده است.
06:54
Now with our systemسیستم, the cellsسلول ها that are activeفعال
158
402220
2342
حالا با سیستم خودمان، تنها سلول هایی که در بخش هیپوکامپوس
06:56
in the hippocampusهیپوکامپ in the makingساخت of this memoryحافظه,
159
404562
2931
در ثبت این خاطره فعال بوده اند،
06:59
only those cellsسلول ها will now containحاوی channelrhodopsinکانالرودپسین.
160
407493
2883
حاوی چنلرودوپسین خواهند بود.
07:02
XLXL: When you are as smallکوچک as a mouseموش,
161
410376
3017
شو: اگر شما یک موش کوچک باشید،
07:05
it feelsاحساس می کند as if the wholeکل worldجهان is tryingتلاش کن to get you.
162
413393
3595
فکر می کنید تمام دنیا سعی می کنند شما را بگیرند.
07:08
So your bestبهترین responseواکنش of defenseدفاع
163
416988
1748
بنابراین بهترین واکنش دفاعی شما،
07:10
is tryingتلاش کن to be undetectedناشناخته.
164
418736
2482
تلاش برای دیده نشدن است.
07:13
Wheneverهر زمان که a mouseموش is in fearترس,
165
421218
2033
وقتی که یک موش می ترسد،
07:15
it will showنشان بده this very typicalمعمول behaviorرفتار
166
423251
1526
یک رفتار کاملاً متداول انجام می دهد:
07:16
by stayingاقامت at one cornerگوشه of the boxجعبه,
167
424777
1769
در یک گوشه ی جعبه می ماند،
07:18
tryingتلاش کن to not moveحرکت any partبخشی of its bodyبدن,
168
426546
3118
و سعی می کند که هیچ کدام از اعضای بدنش را تکان ندهد،
07:21
and this postureاستقرار is calledبه نام freezingانجماد.
169
429664
3295
و ما به این حالت انجماد می گوییم.
07:24
So if a mouseموش remembersبه یاد داشته باشید that something badبد happenedاتفاق افتاد in this boxجعبه,
170
432959
4294
بنابراین اگر یک موش خاطره ی بدی را درون این جعبه به یاد بیاورد،
07:29
and when we put them back into the sameیکسان boxجعبه,
171
437253
2623
وقتی که او را دوباره در جعبه ی مشابهی قرار دهیم،
07:31
it will basicallyاساسا showنشان بده freezingانجماد
172
439876
1804
او به طور خیلی ساده در حالت انجماد قرار خواهد گرفت،
07:33
because it doesn't want to be detectedشناسایی شده
173
441680
2285
زیرا او نمی خواهد توسط هیچ خطر احتمالی درون آن جعبه دیده شود.
07:35
by any potentialپتانسیل threatsتهدید in this boxجعبه.
174
443965
2695
زیرا او نمی خواهد توسط هیچ خطر احتمالی درون آن جعبه دیده شود.
07:38
SRSR: So you can think of freezingانجماد as,
175
446660
1355
استیو: برای درک حالت انجماد،
07:40
you're walkingپیاده روی down the streetخیابان mindingذهنیت your ownخودت businessکسب و کار,
176
448015
2215
تصور کنید دارید در خیابان راه می روید، و به کار های خودتان فکر می کنید،
07:42
and then out of nowhereهیچ جایی you almostتقریبا runاجرا کن into
177
450230
1725
و ناگهان دوست دختر یا دوست پسر سابق خود را می بینید.
07:43
an ex-girlfriendدوستدختر سابق or ex-boyfriendدوست پسر سابق,
178
451955
2192
و ناگهان دوست دختر یا دوست پسر سابق خود را می بینید.
07:46
and now those terrifyingوحشتناک two secondsثانیه
179
454147
2134
و اما آن دو ثانیه ی ترسناک،
07:48
where you startشروع کن thinkingفكر كردن, "What do I do? Do I say hiسلام?
180
456281
1876
زمانی است که شما با خود فکر می کنید، "چه کار کنم؟ سلام کنم؟
07:50
Do I shakeلرزش theirخودشان handدست? Do I turnدور زدن around and runاجرا کن away?
181
458157
1368
با او دست بدهم؟ برگردم و فرار کنم؟
07:51
Do I sitنشستن here and pretendوانمود کنید like I don't existوجود دارد?"
182
459525
2029
همین جا بنشینم و وانمود کنم وجود ندارم؟"
07:53
Those kindsانواع of fleetingزودگذر thoughtsاندیشه ها that physicallyاز لحاظ جسمی incapacitateناتوان کننده you,
183
461554
3184
و از این گونه افکار ناگهانی که بدن شما را بی حرکت می کند،
07:56
that temporarilyبه طور موقت give you that deer-in-headlightsگوزن در چراغهای جلو look.
184
464738
2746
و باعث می شود قیافه ی وحشت زده ای پیدا کنید.
07:59
XLXL: Howeverبا این حال, if you put the mouseموش in a completelyبه صورت کامل differentناهمسان
185
467484
3291
شو: اگرچه، اگر آن موش را درون جعبه ی کاملاً متفاوتی قرار دهید،
08:02
newجدید boxجعبه, like the nextبعد one,
186
470775
3161
مثل این جعبه ی بعدی،
08:05
it will not be afraidترسیدن of this boxجعبه
187
473936
2147
او از این جعبه نخواهد ترسید،
08:08
because there's no reasonدلیل that it will be afraidترسیدن of this newجدید environmentمحیط.
188
476083
4729
زیرا هیچ دلیلی وجود ندارد که او از این محیط جدید بترسد.
08:12
But what if we put the mouseموش in this newجدید boxجعبه
189
480812
3180
اما اگر ما موش را در این جعبه ی جدید قرار دهیم
08:15
but at the sameیکسان time, we activateفعال کردن the fearترس memoryحافظه
190
483992
3611
ولی هم زمان، خاطره ی ترس را به وسیله ی لیزر هایی که پیش از این
08:19
usingاستفاده كردن lasersلیزرها just like we did before?
191
487603
2679
با آن ها کار کردیم فعال کنیم، چه اتفاقی می افتد؟
08:22
Are we going to bringآوردن back the fearترس memoryحافظه
192
490282
2854
آیا ما خاطره ی ترس اولین جعبه را به این محیط کاملاً جدید خواهیم آورد؟
08:25
for the first boxجعبه into this completelyبه صورت کامل newجدید environmentمحیط?
193
493136
3997
آیا ما خاطره ی ترس اولین جعبه را به این محیط کاملاً جدید خواهیم آورد؟
08:29
SRSR: All right, and here'sاینجاست the million-dollarمیلیون دلار experimentآزمایشی.
194
497133
2735
استیو: خیلی خب، و این آزمایش میلیون دلاری ما است.
08:31
Now to bringآوردن back to life the memoryحافظه of that day,
195
499868
2913
اما برای برگشتن به خاطره ی آن روز،
08:34
I rememberیاد آوردن that the Redسرخ Soxسوکس had just wonبرنده شد,
196
502781
2183
یادم می آید که تیم بیسبال "رد ساکس" تازه برده بود،
08:36
it was a greenسبز springبهار day,
197
504964
1909
یک روز سبز بهاری بود،
08:38
perfectکامل for going up and down the riverرودخانه
198
506873
1817
و جان می داد برای گشتن اطراف رودخانه
08:40
and then maybe going to the Northشمال Endپایان
199
508690
2334
و شاید بعد رفتن به شمال شهر،
08:43
to get some cannolisکاننلیس, #justsayingتوجیهی.
200
511024
2160
برای خوردن کمی رولت خامه ای، و گذاشتن استاتوس در فیس بوک و توییتر.
08:45
Now Xuزو and I, on the other handدست,
201
513184
3102
اما شو و من، از طرف دیگر،
08:48
were in a completelyبه صورت کامل windowlessبدون پنجره blackسیاه roomاتاق
202
516286
2829
در یک اتاق سیاه بدون پنجره بودیم
08:51
not makingساخت any ocularچشمی movementجنبش that even remotelyاز راه دور resemblesشبیه است an eyeچشم blinkچشمک زدن
203
519115
3661
و حتی چشممان را آن قدر حرکت نمی دادیم که منجر به پلک زدن شود،
08:54
because our eyesچشم ها were fixedدرست شد ontoبه سوی a computerکامپیوتر screenصفحه نمایش.
204
522776
2466
زیرا چشم های ما روی صفحه ی کامپیوتر خیره مانده بود.
08:57
We were looking at this mouseموش here tryingتلاش کن to activateفعال کردن a memoryحافظه
205
525242
2556
ما به این موش در این جا که تلاش می کرد یک خاطره را
08:59
for the first time usingاستفاده كردن our techniqueتکنیک.
206
527798
1883
برای اولین بار با استفاده از تکنولوژی ما احیا کند خیره شده بودیم.
09:01
XLXL: And this is what we saw.
207
529681
2688
شو: و این چیزی بود که ما دیدیم.
09:04
When we first put the mouseموش into this boxجعبه,
208
532369
2202
وقتی برای اولین بار ما موش را درون ای جعبه قرار دادیم،
09:06
it's exploringکاوش, sniffingخراب کردن around, walkingپیاده روی around,
209
534571
3113
او دور جعبه می گشت، اطراف را بو می کرد و قدم می زد،
09:09
mindingذهنیت its ownخودت businessکسب و کار,
210
537684
1689
و به محیط اطرافش فکر می کرد،
09:11
because actuallyدر واقع by natureطبیعت,
211
539373
1701
زیرا به طور ذاتی،
09:13
miceموش are prettyبسیار curiousکنجکاو animalsحیوانات.
212
541074
1979
موش ها موجودات خیلی کنجکاوی هستند.
09:15
They want to know, what's going on in this newجدید boxجعبه?
213
543053
2622
آن ها می خواهند بدانند، درون این جعبه ی جدید چه خبر است؟
09:17
It's interestingجالب هست.
214
545675
1531
برایشان جالب است.
09:19
But the momentلحظه we turnedتبدیل شد on the laserلیزر, like you see now,
215
547206
3451
ولی وقتی ما لیزر را روشن کردیم، همان طور که می بینید،
09:22
all of a suddenناگهانی the mouseموش enteredوارد شد this freezingانجماد modeحالت.
216
550657
3032
ناگهان موش وارد حالت انجماد شد.
09:25
It stayedماند here and triedتلاش کرد not to moveحرکت any partبخشی of its bodyبدن.
217
553689
4431
او آن جا ماند و سعی نکرد هیچ کدام از اعضای بدنش را حرکت دهد.
09:30
Clearlyبه وضوح it's freezingانجماد.
218
558120
1628
او به طور واضح منجمد شده است.
09:31
So indeedدر واقع, it looksبه نظر می رسد like we are ableتوانایی to bringآوردن back
219
559748
2583
و البته، به نظر می رسد ما می توانیم
09:34
the fearترس memoryحافظه for the first boxجعبه
220
562331
2064
خاطره ی ترس جعبه ی اول را
09:36
in this completelyبه صورت کامل newجدید environmentمحیط.
221
564395
3367
نسبت به این محیط کاملاً جدید به او القا کنیم.
09:39
While watchingتماشا کردن this, Steveاستیو and I
222
567762
2112
وقتی این را دیدیم، استیو و من
09:41
are as shockedبهت زده as the mouseموش itselfخودش.
223
569874
2133
به اندازه ی خود آن موش متعجب بودیم.
09:44
(Laughterخنده)
224
572007
1262
(خنده ی حاضرین)
09:45
So after the experimentآزمایشی, the two of us just left the roomاتاق
225
573269
3307
بنابراین پس از آزمایش، هر دوی ما اتاق را ترک کردیم
09:48
withoutبدون sayingگفت: anything.
226
576576
1753
بدون این که چیزی بگوییم.
09:50
After a kindنوع of long, awkwardبی دست و پا - به شکلی نامناسب periodدوره زمانی of time,
227
578329
3396
بعد از مدتی طولانی و سخت،
09:53
Steveاستیو brokeشکست the silenceسکوت.
228
581725
2212
استیو سکوت را شکست.
09:55
SRSR: "Did that just work?"
229
583937
2341
استیو: "آیا این ایده واقعاً کار کرد؟"
09:58
XLXL: "Yes," I said. "Indeedدر واقع it workedکار کرد!"
230
586278
2974
شو: گفتم، "بله، البته که کار کرد!"
10:01
We're really excitedبرانگیخته about this.
231
589252
2117
ما واقعاً در مورد آن هیجان زده بودیم.
10:03
And then we publishedمنتشر شده our findingsیافته ها
232
591369
2624
و سپس ما یافته هایمان را
10:05
in the journalمجله Natureطبیعت.
233
593993
1696
در مجله ی "طبیعت" (Nature) چاپ کردیم.
10:07
Ever sinceاز آنجا که the publicationانتشار of our work,
234
595689
2471
حتی بعد از چاپ کارمان،
10:10
we'veما هستیم been receivingدریافت numerousچندین commentsنظرات
235
598160
2415
ما نظرات بی شماری را از سر تا سر اینترنت دریافت کردیم.
10:12
from all over the Internetاینترنت.
236
600575
2125
ما نظرات بی شماری را از سر تا سر اینترنت دریافت کردیم.
10:14
Maybe we can take a look at some of those.
237
602700
3750
شاید ما بتوانیم نگاهی به بعضی از آن ها بیندازیم.
10:18
["OMGGGGGOMGGGGG FINALLYسرانجام... so much more to come, virtualمجازی realityواقعیت, neuralعصبی manipulationدستکاری, visualبصری dreamرویا emulationشبیه سازی... neuralعصبی codingبرنامه نویسی, 'writingنوشتن and re-writingدوباره نوشتن of memories'خاطرات', mentalذهنی illnessesبیماری ها. Ahhhآهاه the futureآینده is awesomeعالی"]
238
606450
2457
["اوه خدای من.... پس به زودی باید انتظار چیز های بیشتری را داشت، حقیقت مجازی، کنترل عصبی، شبیه سازی رؤیای تصویری... کد نویسی عصبی، "نوشتن و بازنویسی خاطرات"، بیماری های ذهنی. واییییییی آینده فوق العاده است !"]
10:20
SRSR: So the first thing that you'llشما خواهید بود noticeاطلاع is that people
239
608907
2000
استیو: اولین چیزی که شما از واکنش این افراد متوجه خواهید شد
10:22
have really strongقوی opinionsنظرات about this kindنوع of work.
240
610907
2903
این است که آن ها آن ها نسبت به کار ما باوری قوی دارند.
10:25
Now I happenبه وقوع پیوستن to completelyبه صورت کامل agreeموافق with the optimismخوش بینی
241
613810
2554
من کاملاً با خوش بینی نظر اول موافق هستم،
10:28
of this first quoteنقل قول,
242
616364
816
من کاملاً با خوش بینی نظر اول موافق هستم،
10:29
because on a scaleمقیاس of zeroصفر to Morganمورگان Freeman'sفریمن voiceصدای,
243
617180
2808
زیرا تقریباً می توان با اطمینان گفت بعد از صدای مورگان فریمن (بازیگر سینما با صدایی رسا)،
10:31
it happensاتفاق می افتد to be one of the mostاکثر evocativeتحریک کننده accoladesتقدیر می کند
244
619988
2123
دستگاه ما یکی از بهترین سیستم های احیاگر خاطرات است،
10:34
that I've heardشنیدم come our way.
245
622111
1550
که تا به حال به دست انسان ساخته شده است.
10:35
(Laughterخنده)
246
623661
2196
(خنده ی حاضرین)
10:37
But as you'llشما خواهید بود see, it's not the only opinionنظر that's out there.
247
625857
1951
اما خواهید دید، این تنها نظری نیست که وجود دارد.
10:39
["This scaresترسناک the hellجهنم out of me... What if they could do that easilyبه آسانی in humansانسان in a coupleزن و شوهر of yearsسالها?! OH MY GOD WE'RE DOOMEDDOOMED"]
248
627808
1564
["این دستگاه خیلی مرا ترساند ... اگر آن ها بتوانند این کار را به آسانی به مدت چند سال به روی انسان ها انجام دهند چه؟! خدایا ما نابود شدیم"]
10:41
XLXL: Indeedدر واقع, if we take a look at the secondدومین one,
249
629372
1918
شو: البته، اگر ما یک لحظه به این قضیه فکر کنیم،
10:43
I think we can all agreeموافق that it's, mehmeh,
250
631290
2107
به نظرم می توانیم با او کاملاً موافقت کنیم که این، مممم، درست است،
10:45
probablyشاید not as positiveمثبت.
251
633397
2375
اما شاید نه تا این حد.
10:47
But this alsoهمچنین remindsیادآوری می کند us that,
252
635772
2185
اما این اگرچه به یاد ما می آورد که،
10:49
althoughبا اينكه we are still workingکار کردن with miceموش,
253
637957
2186
اگرچه ما همچنان بر روی موش ها کار می کنیم،
10:52
it's probablyشاید a good ideaاندیشه to startشروع کن thinkingفكر كردن and discussingبحث در مورد
254
640143
3517
اما شاید این کار درستی باشد که در مورد پیامد های اخلاقی کنترل خاطرات
10:55
about the possibleامکان پذیر است ethicalاخلاقی ramificationsانشعابات
255
643660
2991
اما شاید این کار درستی باشد که در مورد پیامد های اخلاقی کنترل خاطرات
10:58
of memoryحافظه controlکنترل.
256
646651
1948
به بحث و گفت و گو بنشینیم.
11:00
SRSR: Now, in the spiritروح of the thirdسوم quoteنقل قول,
257
648599
2200
استیو: اما، در بطن نظر سوم،
11:02
we want to tell you about a recentاخیر projectپروژه that we'veما هستیم been
258
650799
1974
می خواهیم به شما درباره ی پروژه ای به نام پروژه ی به نام پروژه ی الهام (Inception)
11:04
workingکار کردن on in labآزمایشگاه that we'veما هستیم calledبه نام Projectپروژه Inceptionآغازگر.
259
652773
2428
که اخیراً در آزمایشگاه بر روی آن کار می کنیم، بگوییم.
11:07
["They should make a movieفیلم سینما about this. Where they plantگیاه ideasایده ها into peoplesمردم mindsذهنها, so they can controlکنترل them for theirخودشان ownخودت personalشخصی gainکسب کردن. We'llخوب call it: Inceptionآغازگر."]
260
655201
3243
["آن ها باید فیلمی در این باره بسازند. جایی که آن ها ایده ها را در ذهن مردم می گذارند، تا آن ها بتوانند مردم را برای منافع خودشان کنترل کنند. ما به آن خواهیم گفت: الهام (Inception)"]
11:10
So we reasonedمنطقی that now that we can reactivateفعال کردن مجدد a memoryحافظه,
261
658444
3734
ما به این فکر افتادیم که که اگر ما در حال حاضر می توانیم یک خاطره را باز-فعال کنیم،
11:14
what if we do so but then beginشروع to tinkerجادوگر with that memoryحافظه?
262
662178
2952
اگر ما همین کار را، اما با کمی دستکاری درون آن خاطره انجام دهیم، چه اتفاق می افتد؟
11:17
Could we possiblyاحتمالا even turnدور زدن it into a falseنادرست memoryحافظه?
263
665130
3033
آیا ما می توانیم حتی آن را به یک خاطره ی ساختگی تبدیل کنیم؟
11:20
XLXL: So all memoryحافظه is sophisticatedپیچیده and dynamicپویا,
264
668163
4099
شو: بنابراین یک خاطره به طور کلی پیچیده و پویاست،
11:24
but if just for simplicityسادگی, let's imagineتصور کن memoryحافظه
265
672262
2979
اما به طور ساده، اجازه بدهید آن را به صورت
11:27
as a movieفیلم سینما clipکلیپ.
266
675241
1402
یک کلیپ ویدئویی تصور کنیم.
11:28
So farدور what we'veما هستیم told you is basicallyاساسا we can controlکنترل
267
676643
2670
تا به حال هر چه به شما گفته ایم به طور ساده این بوده است که
11:31
this "playبازی" buttonدکمه of the clipکلیپ
268
679313
1931
ما می توانیم این دکمه ی "پخش" کلیپ ویدئویی را کنترل کنیم
11:33
so that we can playبازی this videoویدئو clipکلیپ any time, anywhereهر جا.
269
681244
4585
بنابراین می توانیم این کلیپ ویدئویی را همه جا و همه وقت پخش کنیم.
11:37
But is there a possibilityامکان پذیری that we can actuallyدر واقع get
270
685829
2531
اما آیا این امکان وجود دارد که ما بتوانیم
11:40
insideداخل the brainمغز and editویرایش کنید this movieفیلم سینما clipکلیپ
271
688360
2860
به داخل مغز برویم و این کلیپ ویدئویی را ویرایش کنیم
11:43
so that we can make it differentناهمسان from the originalاصلی?
272
691220
2896
تا آن را نسبت به کلیپ اصلی تغییر دهیم؟
11:46
Yes we can.
273
694116
2178
بله، می توانیم.
11:48
Turnedتبدیل شده out that all we need to do is basicallyاساسا
274
696294
2130
ما فهمیدیم که کاری که نیاز داریم انجام دهیم
11:50
reactivateفعال کردن مجدد a memoryحافظه usingاستفاده كردن lasersلیزرها just like we did before,
275
698424
4275
این است که مثل قبل با استفاده از لیزر هایمان یک خاطره را باز-فعال سازی کنیم،
11:54
but at the sameیکسان time, if we presentحاضر newجدید informationاطلاعات
276
702699
3439
اما هم زمان، اگر اطلاعات تازه را به آن موجود ارائه دهیم
11:58
and allowاجازه دادن this newجدید informationاطلاعات to incorporateترکیب کردن into this oldقدیمی memoryحافظه,
277
706138
3974
و اجازه بدهیم این اطلاعات جدید در آن خاطره ی قدیمی دخیل شوند،
12:02
this will changeتغییر دادن the memoryحافظه.
278
710112
2438
این کار خاطره را تغییر می دهد.
12:04
It's sortمرتب سازی of like makingساخت a remixریمیکس tapeنوار.
279
712550
3663
این کار مثل درست کردن یک نوار از موسیقی های منتخب است.
12:08
SRSR: So how do we do this?
280
716213
2858
استیو: اما چطور این کار را انجام دهیم؟
12:11
Ratherنسبتا than findingیافته a fearترس memoryحافظه in the brainمغز,
281
719071
1957
به جای پیدا کردن یک خاطره ی ترسناک درون مغز،
12:13
we can startشروع کن by takingگرفتن our animalsحیوانات,
282
721028
1716
می توانیم حیوانات آزمایشی خود را،
12:14
and let's say we put them in a blueآبی boxجعبه like this blueآبی boxجعبه here
283
722744
2933
به طور مثال درون یک جعبه ی آبی مثل این قرار دهیم
12:17
and we find the brainمغز cellsسلول ها that representنمایندگی that blueآبی boxجعبه
284
725677
2494
و بفهمیم که کدام سلول های مغزی آن جعبه ی آبی را ثبت می کنند
12:20
and we trickترفند them to respondپاسخ دادن to pulsesپالس ها of lightسبک
285
728171
2073
و آن ها را تحریک کنیم تا به پالس های نوری پاسخ بدهند
12:22
exactlyدقیقا like we had said before.
286
730244
2121
دقیقاً همان طور که پیش از این گفته ایم.
12:24
Now the nextبعد day, we can take our animalsحیوانات and placeمحل them
287
732365
2124
و اما روز بعد، ما می توانیم حیوانات آزمایشی خودمان را
12:26
in a redقرمز boxجعبه that they'veآنها دارند never experiencedبا تجربه before.
288
734489
2699
درون جعبه ی قرمزی که هرگز پیش از این ندیده اند قرار دهیم.
12:29
We can shootشلیک lightسبک into the brainمغز to reactivateفعال کردن مجدد
289
737188
2026
سپس لیزر را به مغز آن ها بتابانیم
12:31
the memoryحافظه of the blueآبی boxجعبه.
290
739214
2109
تا خاطره ی جعبه ی آبی را دوباره احیا کنیم.
12:33
So what would happenبه وقوع پیوستن here if, while the animalحیوانات
291
741323
1744
اما چه اتفاقی می افتد اگر، وقتی که آن حیوان
12:35
is recallingیادآوری the memoryحافظه of the blueآبی boxجعبه,
292
743067
1894
خاطره ی جعبه ی آبی را مرور می کند،
12:36
we gaveداد it a coupleزن و شوهر of mildخفیف footپا shocksشوک ها?
293
744961
2643
ما به او چند شوک خفیف بدهیم؟
12:39
So here we're tryingتلاش کن to artificiallyمصنوعی make an associationاتحادیه
294
747604
2693
بنابراین ما این جا تلاش می کنیم تا به طور مصنوعی
12:42
betweenبین the memoryحافظه of the blueآبی boxجعبه
295
750297
1915
رابطه ای بین خاطره ی جعبه ی آبی
12:44
and the footپا shocksشوک ها themselvesخودشان.
296
752212
1503
و خود شوک های خفیف برقرار کنیم.
12:45
We're just tryingتلاش کن to connectاتصال the two.
297
753715
1779
ما تنها تلاش می کنیم که به نحوی این دو را به هم متصل سازیم.
12:47
So to testتست if we had doneانجام شده so,
298
755494
1543
بنابراین برای این که مطمئن شویم که آیا ما چنین کاری را انجام داده ایم یا نه،
12:49
we can take our animalsحیوانات onceیک بار again
299
757037
1328
می توانیم حیواناتمان را یک بار دیگر
12:50
and placeمحل them back in the blueآبی boxجعبه.
300
758365
1946
به جعبه ی آبی برگردانیم.
12:52
Again, we had just reactivatedدوباره فعال شد the memoryحافظه of the blueآبی boxجعبه
301
760311
2738
ما خاطره ی جعبه ی آبی را، هم زمان با دادن چند شوک خفیف به حیوان
12:55
while the animalحیوانات got a coupleزن و شوهر of mildخفیف footپا shocksشوک ها,
302
763049
2167
برای او زنده کرده بودیم،
12:57
and now the animalحیوانات suddenlyناگهان freezesانجماد.
303
765216
2370
و حالا آن حیوان ناگهان به حالت انجماد می رود.
12:59
It's as thoughگرچه it's recallingیادآوری beingبودن mildlyخفیف shockedبهت زده in this environmentمحیط
304
767586
3202
این تقریباً مثل آن است که او به یاد می آورد که پیش از این او در این محیط به طور خفیف دچار شوک شده است
13:02
even thoughگرچه that never actuallyدر واقع happenedاتفاق افتاد.
305
770788
3002
حتی اگر در حقیقت هیچ وقت این اتفاق نیفتاده باشد.
13:05
So it formedشکل گرفت a falseنادرست memoryحافظه,
306
773790
1862
بنابراین ما یک خاطره ی ساختگی را ثبت کرده ایم،
13:07
because it's falselyاشتباه fearingترسیدن an environmentمحیط
307
775652
2011
زیرا او به اشتباه از محیطی می ترسد
13:09
where, technicallyاز لحاظ فنی speakingصحبت كردن,
308
777663
1254
که به طور تکنیکی،
13:10
nothing badبد actuallyدر واقع happenedاتفاق افتاد to it.
309
778917
2349
هیچ اتفاق بدی در آن جا نیفتاده است.
13:13
XLXL: So, so farدور we are only talkingصحبت کردن about
310
781266
2453
شو: خب، تا به این جا ما تنها درباره ی فعال کردن این کلید حساس به نور صحبت کرده ایم.
13:15
this light-controlledکنترل نور "on" switchسوئیچ.
311
783719
2366
شو: خب، تا به این جا ما تنها درباره ی زدن این کلید فعال کننده ی حساس به نور صحبت کرده ایم.
13:18
In factواقعیت, we alsoهمچنین have a light-controlledکنترل نور "off" switchسوئیچ,
312
786085
3288
در حقیقت، ما یک کلید غیر فعال کننده ی حساس به نور هم داریم،
13:21
and it's very easyآسان to imagineتصور کن that
313
789373
2080
و به راحتی می توان تصور کرد
13:23
by installingنصب کردن this light-controlledکنترل نور "off" switchسوئیچ,
314
791453
2478
که با نصب این این کلید غیر فعال کننده ی حساس به نور،
13:25
we can alsoهمچنین turnدور زدن off a memoryحافظه, any time, anywhereهر جا.
315
793931
5588
ما می توانیم همه جا و همه وقت، یک خاطره ی مشخص را غیر فعال کنیم.
13:31
So everything we'veما هستیم been talkingصحبت کردن about todayامروز
316
799519
2214
بنابراین همه ی چیز هایی که امروز راجع به آن ها حرف زده ایم
13:33
is basedمستقر on this philosophicallyفلسفی chargedمتهم principleاصل of neuroscienceعلوم اعصاب
317
801733
4677
بر پایه ی این اصل فلسفی از اعصاب شناسی است که ذهن،
13:38
that the mindذهن, with its seeminglyظاهرا mysteriousمرموز propertiesخواص,
318
806410
4118
با تمامی رفتار ها و خواص ظاهراً راز آلودش،
13:42
is actuallyدر واقع madeساخته شده of physicalفیزیکی stuffچیز that we can tinkerجادوگر with.
319
810528
3645
در حقیقت از مواد فیزیکی ساخته شده است که ما می توانیم آن ها را دستکاری کنیم.
13:46
SRSR: And for me personallyشخصا,
320
814173
1475
استیو: و خود من به شخصه،
13:47
I see a worldجهان where we can reactivateفعال کردن مجدد
321
815648
1581
جهانی را می بینم که ما در آن می توانیم
13:49
any kindنوع of memoryحافظه that we'dما می خواهیم like.
322
817229
2116
هر خاطره ای را که می خواهیم فعال کنیم.
13:51
I alsoهمچنین see a worldجهان where we can eraseپاک کردن unwantedناخواسته memoriesخاطرات.
323
819345
3298
من جهانی را می بینم که ما می توانیم تمامی خاطرات ناخواسته را در آن حذف کنیم.
13:54
Now, I even see a worldجهان where editingویرایش memoriesخاطرات
324
822643
1936
من حتی جهانی را می بینم که در آن ویرایش کردن خاطرات
13:56
is something of a realityواقعیت,
325
824579
1539
به حقیقت می پیوندد.
13:58
because we're livingزندگي كردن in a time where it's possibleامکان پذیر است
326
826118
1705
زیرا ما در عصری زندگی می کنیم که در آن
13:59
to pluckخراب کردن questionsسوالات from the treeدرخت of scienceعلوم پایه fictionداستان
327
827823
2225
چیدن پرسش ها از درخت تخیل
14:02
and to groundزمینی them in experimentalتجربی realityواقعیت.
328
830048
2420
و فرود آمدن آنها در حقیقت تجربی امکان پذیر است.
14:04
XLXL: Nowadaysامروزه, people in the labآزمایشگاه
329
832468
1883
شو: امروزه، متخصصین در آزمایشگاه ها
14:06
and people in other groupsگروه ها all over the worldجهان
330
834351
2386
و انسان های دیگر در سراسر جهان
14:08
are usingاستفاده كردن similarمشابه methodsمواد و روش ها to activateفعال کردن or editویرایش کنید memoriesخاطرات,
331
836737
3817
از روش های مشابهی برای فعال کردن یا ویرایش خاطرات استفاده می کنند،
14:12
whetherچه that's oldقدیمی or newجدید, positiveمثبت or negativeمنفی,
332
840554
3841
خاطرات قدیمی یا جدید، مثبت یا منفی،
14:16
all sortsانواع of memoriesخاطرات so that we can understandفهمیدن
333
844395
2672
و انواع خاطراتی که ما می توانیم
14:19
how memoryحافظه worksآثار.
334
847067
1864
به کمک آن ها بفهمیم حافظه چطور کار می کند.
14:20
SRSR: For exampleمثال, one groupگروه in our labآزمایشگاه
335
848931
1784
استیو: به طور مثال، یک گروه در آزمایشگاه ما
14:22
was ableتوانایی to find the brainمغز cellsسلول ها that make up a fearترس memoryحافظه
336
850715
2638
توانست سلول های مغزی را پیدا کند که یک خاطره ی ترس مشخص را ایجاد می کنند،
14:25
and convertedتبدیل شده است them into a pleasurableلذت بخش memoryحافظه, just like that.
337
853353
2775
و آن ها را به سادگی به یک خاطره ی لذت بخش تبدیل کرد.
14:28
That's exactlyدقیقا what I mean about editingویرایش these kindsانواع of processesفرآیندهای.
338
856128
3062
این دقیقاً مصداق بارز ویرایش این گونه فرایند های ذهنی است.
14:31
Now one dudeشخص in labآزمایشگاه was even ableتوانایی to reactivateفعال کردن مجدد
339
859190
1812
یکی از دوستان ما در آزمایشگاه حتی توانست
14:33
memoriesخاطرات of femaleزن miceموش in maleنر miceموش,
340
861002
2501
خاطرات موش های ماده را در ذهن موش های نر یاز-فعال سازی کند،
14:35
whichکه rumorشایعه has it is a pleasurableلذت بخش experienceتجربه.
341
863503
2995
به طوری که آن ها یک تجربه ی لذت بخش داشتند.
14:38
XLXL: Indeedدر واقع, we are livingزندگي كردن in a very excitingهیجان انگیز momentلحظه
342
866498
4117
شو: به راستی، ما در عصر هیجان انگیزی زندگی می کنیم
14:42
where scienceعلوم پایه doesn't have any arbitraryخودسرانه speedسرعت limitsمحدودیت ها
343
870615
3805
که دانش هیچ محدودیت سرعت آزاردهنده ای ندارد
14:46
but is only boundمحدود است by our ownخودت imaginationخیال پردازی.
344
874420
3187
و تنها محدودیت ما قوه ی تخیل خودمان است.
14:49
SRSR: And finallyسرانجام, what do we make of all this?
345
877607
2147
استیو: و نهایتاً، ما از این ایده چه چیزی به دست می آوریم؟
14:51
How do we pushفشار دادن this technologyتکنولوژی forwardرو به جلو?
346
879754
1971
ما چگونه می توانیم این تکنولوژی را پیشرفته تر کنیم؟
14:53
These are the questionsسوالات that should not remainماندن
347
881725
1837
این ها پرسش هایی هستند که نباید تنها در آزمایشگاه مطرح شوند،
14:55
just insideداخل the labآزمایشگاه,
348
883562
1675
این ها پرسش هایی هستند که نباید تنها در آزمایشگاه مطرح شوند،
14:57
and so one goalهدف of today'sامروزه talk was to bringآوردن everybodyهمه
349
885237
2572
و تنها هدف سخنرانی امروز
14:59
up to speedسرعت with the kindنوع of stuffچیز that's possibleامکان پذیر است
350
887809
2319
رساندن همه به بالا ترین سرعت ممکن با تجهیزات حاضر در اعصاب شناسی نوین بود،
15:02
in modernمدرن neuroscienceعلوم اعصاب,
351
890128
1384
رساندن همه به بالا ترین سرعت ممکن با تجهیزات حاضر در اعصاب شناسی نوین بود،
15:03
but now, just as importantlyمهم است,
352
891512
1510
اما حالا، با همان اهمیت،
15:05
to activelyفعالانه engageمشغول کردن everybodyهمه in this conversationگفتگو.
353
893022
3332
درگیر کردن فعالانه ی همه در این مبحث.
15:08
So let's think togetherبا یکدیگر as a teamتیم about what this all meansبه معنای
354
896354
2329
پس اجازه بدهید مثل یک تیم با یکدیگر درباره ی مفهوم آن
15:10
and where we can and should go from here,
355
898683
2474
و سطحی که ما توانایی آن را داریم و این تکنولوژی شایستگی آن را دارد فکر کنیم،
15:13
because Xuزو and I think we all have
356
901157
2098
زیرا شو و من معتقدیم همگی ما
15:15
some really bigبزرگ decisionsتصمیمات aheadدر پیش of us.
357
903255
2536
تصمیمات بسیار بزرگی را پیش رو داریم.
15:17
Thank you.
XLXL: Thank you.
358
905791
1125
متشکرم.
شو: متشکرم.
15:18
(Applauseتشویق و تمجید)
359
906916
1634
(تشویق حاضرین)
Translated by Amirpouya Ghaemiyan
Reviewed by Narsis Sh

▲Back to top

ABOUT THE SPEAKERS
Steve Ramirez - Neuroscientist
When Steve Ramirez published his latest study in Science, it caused a media frenzy. Why? Because the paper was on implanting false memories in the brains of mice.

Why you should listen

Steve is a graduate student at MIT’s Brain and Cognitive Sciences department pursuing a Ph.D. in neuroscience. His work focuses on finding where single memories are located throughout the brain, genetically tricking the brain cells that house these memories to respond to brief pulses of light, and then using these same flickers of light to reactivate, erase and implant memories. The goals of his research are twofold: to figure out how the brain gives rise to the seemingly ephemeral process of memory, and to predict what happens when specific brain pieces breakdown to impair cognition. His work has been published in Science and covered by New Scientist, Discover, Scientific American, and Gizmodo.

Ramirez aims to be a professor who runs a lab that plucks questions from the tree of science fiction to ground them in experimental reality. He believes that a team-oriented approach to science makes research and teaching far more exciting. When he’s not tinkering with memories in the lab, Ramirez also enjoys running and cheering on every sports team in the city of Boston.

More profile about the speaker
Steve Ramirez | Speaker | TED.com
Xu Liu - Neuroscientist
In his groundbreaking work, Xu Liu investigated how to activate and deactivate specific memories in mice.

Why you should listen

During his PhD, Xu Liu studied the mechanisms of learning and memory, using fruit flies as a model system. By changing the expression of certain genes in the fly brain, he generated smart flies that can learn many times faster than their peers. Using live imaging, he also detected learning-induced changes in the brain cells and observed memory formation inside the brain with light.

After graduation, he moved to MIT and joined Dr. Susumu Tonegawa's lab as a postdoctoral associate. He continued his pursuit of memory with light there. Instead of just watching memory formation, he developed a system in mice where one can not only identify and label cells in the brain for a particular memory, but also turn these cells on and off with light to activate this memory at will. This work was published in Science and has been covered by the media worldwide. Liu passed away in February 2015.

More profile about the speaker
Xu Liu | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee