ABOUT THE SPEAKERS
Steve Ramirez - Neuroscientist
When Steve Ramirez published his latest study in Science, it caused a media frenzy. Why? Because the paper was on implanting false memories in the brains of mice.

Why you should listen

Steve is a graduate student at MIT’s Brain and Cognitive Sciences department pursuing a Ph.D. in neuroscience. His work focuses on finding where single memories are located throughout the brain, genetically tricking the brain cells that house these memories to respond to brief pulses of light, and then using these same flickers of light to reactivate, erase and implant memories. The goals of his research are twofold: to figure out how the brain gives rise to the seemingly ephemeral process of memory, and to predict what happens when specific brain pieces breakdown to impair cognition. His work has been published in Science and covered by New Scientist, Discover, Scientific American, and Gizmodo.

Ramirez aims to be a professor who runs a lab that plucks questions from the tree of science fiction to ground them in experimental reality. He believes that a team-oriented approach to science makes research and teaching far more exciting. When he’s not tinkering with memories in the lab, Ramirez also enjoys running and cheering on every sports team in the city of Boston.

More profile about the speaker
Steve Ramirez | Speaker | TED.com
Xu Liu - Neuroscientist
In his groundbreaking work, Xu Liu investigated how to activate and deactivate specific memories in mice.

Why you should listen

During his PhD, Xu Liu studied the mechanisms of learning and memory, using fruit flies as a model system. By changing the expression of certain genes in the fly brain, he generated smart flies that can learn many times faster than their peers. Using live imaging, he also detected learning-induced changes in the brain cells and observed memory formation inside the brain with light.

After graduation, he moved to MIT and joined Dr. Susumu Tonegawa's lab as a postdoctoral associate. He continued his pursuit of memory with light there. Instead of just watching memory formation, he developed a system in mice where one can not only identify and label cells in the brain for a particular memory, but also turn these cells on and off with light to activate this memory at will. This work was published in Science and has been covered by the media worldwide. Liu passed away in February 2015.

More profile about the speaker
Xu Liu | Speaker | TED.com
TEDxBoston

Steve Ramirez and Xu Liu: A mouse. A laser beam. A manipulated memory.

עכבר, קרן לייזר, מניפולציה על הזיכרון.

Filmed:
1,127,889 views

האם אנו יכולים לערוך את התוכן של הזכרונות שלנו? זוהי שאלה בגוון של מדע בדיוני שסטיב רמירז ושו ליו שואלים במעבדה שלהם ב-MIT. למעשה, השניים שולחים קרן לייזר לתוך מוחו של עכבר חי כדי להפעיל את הזיכרון שלו ולעשות עליו מניפולציה. בשיחה מפתיעה ומהנה זו, הם חולקים לא רק כיצד, -- אלא חשוב מזה -- מדוע הם עושים זאת. (צולם ב- TEDxBoston.)
- Neuroscientist
When Steve Ramirez published his latest study in Science, it caused a media frenzy. Why? Because the paper was on implanting false memories in the brains of mice. Full bio - Neuroscientist
In his groundbreaking work, Xu Liu investigated how to activate and deactivate specific memories in mice. Full bio

Double-click the English transcript below to play the video.

00:12
Steveסטיב Ramirezרמירז: My first yearשָׁנָה of gradגראד schoolבית ספר,
0
371
1556
סטיב רמירז: בשנה הראשונה שלי ללימודי התואר השני,
00:13
I foundמצאתי myselfעצמי in my bedroomחדר שינה
1
1927
2004
מצאתי את עצמי בחדר השינה שלי
00:15
eatingאֲכִילָה lots of Benבן & Jerry'sשל ג'רי
2
3931
2300
זולל הרבה "בן אנד ג'רי'
00:18
watchingצופה some trashyחֲסַר עֵרֶך TVטֵלֶוִיזִיָה
3
6231
1684
צופה קצת בתוכניות זבל בטלויזיה
00:19
and maybe, maybe listeningהַקשָׁבָה to Taylorטיילור Swiftמָהִיר.
4
7915
3227
ואולי, אולי מקשיב לטיילור סוויפט.
00:23
I had just goneנעלם throughדרך a breakupלהפרד.
5
11142
1741
עברתי תהליך של פרידה.
00:24
(Laughterצחוק)
6
12883
1447
(צחוק)
00:26
So for the longestהארוך ביותר time, all I would do
7
14330
2196
אז במשך זמן רב, כל מה שהייתי עושה
00:28
is recallלִזכּוֹר the memoryזיכרון of this personאדם over and over again,
8
16526
3816
הוא להיזכר באדם הזה שוב ושוב,
00:32
wishingמייחל that I could get ridלְשַׁחְרֵר of that gut-wrenchingמעוותת,
9
20342
2493
מקווה שאוכל להיפטר מהיפוך הקרביים המטריד
00:34
visceralהקרביים "blahבלה" feelingמַרגִישׁ.
10
22835
2533
ותחושת ה-בלה.
00:37
Now, as it turnsפונה out, I'm a neuroscientistמדענית מוח,
11
25368
2283
עכשיו, כפי שמסתבר, אני נוירולוג,
00:39
so I knewידע that the memoryזיכרון of that personאדם
12
27651
2402
אז ידעתי שהזיכרון מהאדם הזה
00:42
and the awfulנורא, emotionalרִגשִׁי undertonesנימות that colorצֶבַע in that memoryזיכרון,
13
30053
3140
והנימה הרגשית שצובעת את הזיכרון הזה,
00:45
are largelyבמידה רבה mediatedבתיווך by separateנפרד brainמוֹחַ systemsמערכות.
14
33193
2634
במידה רבה מתווכים על ידי מערכות מוח נפרדות.
00:47
And so I thought, what if we could go into the brainמוֹחַ
15
35827
2365
אז חשבתי, מה אם היינו יכולים לחדור למוח
00:50
and editלַעֲרוֹך out that nauseatingמבחיל feelingמַרגִישׁ
16
38192
2090
ולערוך את התחושה המבחילה
00:52
but while keepingשְׁמִירָה the memoryזיכרון of that personאדם intactשָׁלֵם?
17
40282
2970
אבל בעוד שאנו שומרים על הזיכרון מאותו אדם בשלמותו?
00:55
Then I realizedהבין, maybe that's a little bitbit loftyנַעֲלֶה for now.
18
43252
2411
ואז הבנתי, אולי זה קצת יומרני מדי לעכשיו.
00:57
So what if we could startהַתחָלָה off by going into the brainמוֹחַ
19
45663
2793
אז מה אם יכולנו להתחיל להיכנס לתוך המוח
01:00
and just findingמִמצָא a singleיחיד memoryזיכרון to beginהתחל with?
20
48456
2633
ורק למצוא זיכרון יחיד להתחיל אתו?
01:03
Could we jump-startקפיצת פתיחה that memoryזיכרון back to life,
21
51089
2514
האם נוכל להתניע את הזיכרון הזה חזרה לחיים.
01:05
maybe even playלְשַׂחֵק with the contentsתוכן of that memoryזיכרון?
22
53603
3868
אולי אפילו לשחק עם התכנים של הזיכרון הזה?
01:09
All that said, there is one personאדם in the entireשלם worldעוֹלָם right now
23
57471
2229
עם כל מה שנאמר, יש אדם אחד בכל העולם כרגע
01:11
that I really hopeלְקַווֹת is not watchingצופה this talk.
24
59700
2055
שאני באמת מקווה שאינו צופה בשיחה הזאת.
01:13
(Laughterצחוק)
25
61755
3941
(צחוק)
01:17
So there is a catchלתפוס. There is a catchלתפוס.
26
65696
3289
אז יש פה מילכוד. יש פה מילכוד.
01:20
These ideasרעיונות probablyכנראה remindלְהַזכִּיר you of "Totalסה"כ Recallלִזכּוֹר,"
27
68985
2788
רעיונות אלה כנראה מזכירים לכם את "זיכרון גורלי".
01:23
"Eternalנִצחִי Sunshineאוֹר שֶׁמֶשׁ of the Spotlessלְלֹא רְבָב Mindאכפת,"
28
71773
1974
"שמש נצחית בראש צלול"
01:25
or of "Inceptionהַתחָלָה."
29
73747
1303
או "התחלה".
01:27
But the movieסרט starsכוכבים that we work with
30
75050
1576
אבל כוכבי הסרטים שאנחנו עובדים אתם
01:28
are the celebritiesסלבריטאים of the labמַעבָּדָה.
31
76626
1943
הם הידוענים של המעבדה.
01:30
Xuשו Liuליו: Testמִבְחָן miceעכברים.
32
78569
1900
שו ליו: עכברי ניסוי.
01:32
(Laughterצחוק)
33
80469
1128
(צחוק)
01:33
As neuroscientistsמדעני מוח, we work in the labמַעבָּדָה with miceעכברים
34
81597
3154
כמדעני מוח, אנחנו עובדים במעבדה עם עכברים
01:36
tryingמנסה to understandמבין how memoryזיכרון worksעובד.
35
84751
3410
כשאנו מנסים להבין איך הזיכרון עובד .
01:40
And todayהיום, we hopeלְקַווֹת to convinceלְשַׁכְנֵעַ you that now
36
88161
2569
והיום, אנו מקווים לשכנע אותכם שעכשיו
01:42
we are actuallyלמעשה ableיכול to activateלְהַפְעִיל a memoryזיכרון in the brainמוֹחַ
37
90730
3216
אנחנו באמת מסוגלים להפעיל זיכרון במוח
01:45
at the speedמְהִירוּת of lightאוֹר.
38
93946
2170
במהירות האור.
01:48
To do this, there's only two simpleפָּשׁוּט stepsצעדים to followלעקוב אחר.
39
96116
3106
כדי לעשות זאת, יש צורך לעקוב רק אחרי שני צעדים פשוטים .
01:51
First, you find and labelתווית a memoryזיכרון in the brainמוֹחַ,
40
99222
3510
ראשית, מוצאים ומתייגים זיכרון במוח,
01:54
and then you activateלְהַפְעִיל it with a switchהחלף.
41
102732
3630
לאחר מכן באפשרותכם להפעיל אותו עם מתג.
01:58
As simpleפָּשׁוּט as that.
42
106362
1445
כל כך פשוט.
01:59
(Laughterצחוק)
43
107807
1822
(צחוק)
02:01
SRSR: Are you convincedמְשׁוּכנָע?
44
109629
1845
ס.ר.: אתה בטוח?
02:03
So, turnsפונה out findingמִמצָא a memoryזיכרון in the brainמוֹחַ isn't all that easyקַל.
45
111474
3721
אז, מסתבר שמציאת זיכרון במוח אינה כל כך קלה.
02:07
XLXL: Indeedאכן. This is way more difficultקָשֶׁה than, let's say,
46
115195
2803
ש.ל: אכן. זה הרבה יותר קשה מאשר, נניח.
02:09
findingמִמצָא a needleמַחַט in a haystackעֲרֵמַת שַׁחַת,
47
117998
2404
למצוא מחט בערימת שחת,
02:12
because at leastהכי פחות, you know, the needleמַחַט is still something
48
120402
2589
כי לפחות, אתם יודעים, המחט היא עדיין משהו
02:14
you can physicallyפיזית put your fingersאצבעות on.
49
122991
2500
שניתן פיזית לשים עליה את אצבעותיך.
02:17
But memoryזיכרון is not.
50
125491
1977
אבל לא על זיכרון.
02:19
And alsoגַם, there's way more cellsתאים in your brainמוֹחַ
51
127468
3038
כמו כן, יש הרבה יותר תאים במוח שלכם
02:22
than the numberמספר of strawsקש in a typicalאופייני haystackעֲרֵמַת שַׁחַת.
52
130506
5066
מאשר מספר אניצי הקש בערימת שחת טיפוסית.
02:27
So yeah, this taskמְשִׁימָה does seemנראה to be dauntingמרתיעה.
53
135572
2879
אז כן, משימה זו נראית מרתיעה.
02:30
But luckilyלְמַרְבֶּה הַמַזָל, we got help from the brainמוֹחַ itselfעצמה.
54
138451
3679
אבל למרבה המזל, יש לנו עזרה מהמוח עצמו.
02:34
It turnedפנה out that all we need to do is basicallyבעיקרון
55
142130
2455
התברר שכל מה שאנחנו צריכים לעשות הוא בעצם
02:36
to let the brainמוֹחַ formטופס a memoryזיכרון,
56
144585
1993
לתת למוח ליצור זיכרון,
02:38
and then the brainמוֹחַ will tell us whichאיזה cellsתאים are involvedמְעוּרָב
57
146578
3830
ואז המוח יספר לנו אילו תאים מעורבים
02:42
in that particularמיוחד memoryזיכרון.
58
150408
1766
בזיכרון המסוים הזה.
02:44
SRSR: So what was going on in my brainמוֹחַ
59
152174
2357
ס.ר: אז מה קורה במוח שלי
02:46
while I was recallingנזכר the memoryזיכרון of an exלְשֶׁעָבַר?
60
154531
2094
בזמן שהעליתי בזכרוני את זכרה של אקסית?
02:48
If you were to just completelyלַחֲלוּטִין ignoreלהתעלם humanבן אנוש ethicsאֶתִיקָה for a secondשְׁנִיָה
61
156625
2402
אם תוכלו לגמרי להתעלם מהאתיקה האנושית לרגע
02:51
and sliceפרוסה up my brainמוֹחַ right now,
62
159027
1668
ולפרוס לפרוסות את המוח שלי עכשיו.
02:52
you would see that there was an amazingמדהים numberמספר
63
160695
2018
הייתם רואים שהיה מספר מדהים
02:54
of brainמוֹחַ regionsאזורים that were activeפָּעִיל while recallingנזכר that memoryזיכרון.
64
162713
3178
של אזורים במוח שהיו פעילים בעת ההיזכרות בזיכרון הזה.
02:57
Now one brainמוֹחַ regionאזור that would be robustlyבחוזקה activeפָּעִיל
65
165891
2912
עכשיו אזור אחד במוח שיהיה פעיל באופן נמרץ
03:00
in particularמיוחד is calledשקוראים לו the hippocampusהיפוקמפוס,
66
168803
2007
במיוחד נקרא ההיפוקמפוס,
03:02
whichאיזה for decadesעשרות שנים has been implicatedמסובך in processingמעבד
67
170810
2455
אשר במשך עשרות שנים היה מעורב בעיבוד
03:05
the kindsמיני of memoriesזיכרונות that we holdלְהַחזִיק nearליד and dearיָקָר,
68
173265
2416
הסוגים של הזיכרונות שאנחנו מחזיקים ומוקירים קרוב,
03:07
whichאיזה alsoגַם makesעושה it an idealאִידֵאָלִי targetיַעַד to go into
69
175681
2574
מה שהופך אותו גם למטרה אידיאלית להיכנס
03:10
and to try and find and maybe reactivateהפעל מחדש a memoryזיכרון.
70
178255
2785
ולנסות למצוא ואולי להפעיל מחדש זיכרון.
03:13
XLXL: When you zoomזום in into the hippocampusהיפוקמפוס,
71
181040
2394
ק.ל: כאשר מתמקדים מקרוב בהיפוקמפוס,
03:15
of courseקוּרס you will see lots of cellsתאים,
72
183434
2348
כמובן שתוכלו לראות הרבה תאים,
03:17
but we are ableיכול to find whichאיזה cellsתאים are involvedמְעוּרָב
73
185782
3031
אך אנו יכולים למצוא אילו תאים מעורבים
03:20
in a particularמיוחד memoryזיכרון,
74
188813
1476
בזיכרון מסוים,
03:22
because wheneverבְּכָל פַּעַם a cellתָא is activeפָּעִיל,
75
190289
2618
כי בכל פעם שתא פעיל,
03:24
like when it's formingיוצר a memoryזיכרון,
76
192907
1464
.כמו בעת יצירת זיכרון,
03:26
it will alsoגַם leaveלעזוב a footprintעָקֵב that will laterיותר מאוחר allowלהתיר us to know
77
194371
3757
הוא גם ישאיר טביעת רגל שתאפשר לנו לדעת מאוחר יותר
03:30
these cellsתאים are recentlyלאחרונה activeפָּעִיל.
78
198128
2702
שתאים אלה פעילים לאחרונה.
03:32
SRSR: So the sameאותו way that buildingבִּניָן lightsאורות at night
79
200830
2160
ס.ר.: אז באותה הדרך שאורות בנין בלילה
03:34
let you know that somebody'sשל מישהו probablyכנראה workingעובד there at any givenנָתוּן momentרֶגַע,
80
202990
2948
מיידעים אותך שמישהו כנראה עובד שם בכל רגע נתון,
03:37
in a very realאמיתי senseלָחוּשׁ, there are biologicalבִּיוֹלוֹגִי sensorsחיישנים
81
205938
3288
במובן מאוד אמיתי, ישנם חיישנים ביולוגיים
03:41
withinבְּתוֹך a cellתָא that are turnedפנה on
82
209226
1954
בתוך תא שנדלקים
03:43
only when that cellתָא was just workingעובד.
83
211180
2135
רק כאשר התא הזה עבד זה עתה.
03:45
They're sortסוג of biologicalבִּיוֹלוֹגִי windowsחלונות that lightאוֹר up
84
213315
1876
הם מעין חלונות ביולוגיים שנדלקים
03:47
to let us know that that cellתָא was just activeפָּעִיל.
85
215191
1978
כדי שנדע שהתא הזה היה פעיל זה עתה.
03:49
XLXL: So we clippedמקוטע partחֵלֶק of this sensorחיישן,
86
217169
2829
ק.ל: אז קיצצנו חלק מחיישן זה,
03:51
and attachedמְצוֹרָף that to a switchהחלף to controlלִשְׁלוֹט the cellsתאים,
87
219998
3147
והצמדנו זאת למתג כדי לפקח על התאים,
03:55
and we packedארוז this switchהחלף into an engineeredמהונדסים virusוִירוּס
88
223145
3900
והכנסנו מתג זה לתוך וירוס מהונדס
03:59
and injectedמוזרק that into the brainמוֹחַ of the miceעכברים.
89
227045
2588
והזרקנו זאת לתוך המוח של העכברים.
04:01
So wheneverבְּכָל פַּעַם a memoryזיכרון is beingלהיות formedנוצר,
90
229633
2634
כך שבכל פעם שנוצר זיכרון,
04:04
any activeפָּעִיל cellsתאים for that memoryזיכרון
91
232267
2348
כל התאים הפעילים בזיכרון זה
04:06
will alsoגַם have this switchהחלף installedמוּתקָן.
92
234615
2742
גם כן יותקן בהם מתג זה.
04:09
SRSR: So here is what the hippocampusהיפוקמפוס looksנראה like
93
237357
1625
ס.ר.: אז הנה איך שההיפוקמפוס נראה
04:10
after formingיוצר a fearפַּחַד memoryזיכרון, for exampleדוגמא.
94
238982
2840
לאחר יצירת זיכרון פחד, לדוגמה.
04:13
The seaיָם of blueכָּחוֹל that you see here
95
241822
2140
הים כחול שאתם רואים כאן
04:15
are denselyבצפיפות packedארוז brainמוֹחַ cellsתאים,
96
243962
1952
אלה תאי מוח ארוזים בצפיפות,
04:17
but the greenירוק brainמוֹחַ cellsתאים,
97
245914
1545
אבל תאי המוח הירוקים,
04:19
the greenירוק brainמוֹחַ cellsתאים are the onesיחידות that are holdingהַחזָקָה on
98
247459
2096
תאי המוח הירוקים הם אלה שנאחזים
04:21
to a specificספֵּצִיפִי fearפַּחַד memoryזיכרון.
99
249555
1843
בזכרונות פחד ספציפי.
04:23
So you are looking at the crystallizationהִתגַבְּשׁוּת
100
251398
1979
אז אתם מסתכלים על ההתגבשות
04:25
of the fleetingחוֹלֵף formationהיווצרות of fearפַּחַד.
101
253377
2387
של היווצרות חולפת של פחד.
04:27
You're actuallyלמעשה looking at the cross-sectionצומת of a memoryזיכרון right now.
102
255764
3497
אתם בעצם מסתכלים על חתך הרוחב של זיכרון ממש עכשיו.
04:31
XLXL: Now, for the switchהחלף we have been talkingשִׂיחָה about,
103
259261
2408
ק.ל: עכשיו, עבור המתג שאנחנו מדברים עליו,
04:33
ideallyבאופן אידיאלי, the switchהחלף has to actפעולה really fastמָהִיר.
104
261669
2970
באופן אידיאלי, על המתג לפעול מהר מאוד.
04:36
It shouldn'tלא צריך take minutesדקות or hoursשעות to work.
105
264639
2579
זה לא אמור לקחת דקות או שעות של עבודה.
04:39
It should actפעולה at the speedמְהִירוּת of the brainמוֹחַ, in millisecondsמיליונים.
106
267218
4264
זה צריך לפעול במהירות של המוח, באלפיות שניה.
04:43
SRSR: So what do you think, Xuשו?
107
271482
1430
ס.ר: אז מה אתה חושב, שו?
04:44
Could we use, let's say, pharmacologicalפרמקולוגית drugsסמים
108
272912
2602
האם נוכל, למשל להשתמש בסמים תרופתיים
04:47
to activateלְהַפְעִיל or inactivateלנטרל brainמוֹחַ cellsתאים?
109
275514
1838
כדי להפעיל או להשבית תאי מוח?
04:49
XLXL: Nahלא. Drugsסמים are prettyיפה messyמבולגן. They spreadהתפשטות everywhereבכל מקום.
110
277352
4063
ש.ל.: לא. סמים זה בלגן. הם מתפשטים לכל מקום.
04:53
And alsoגַם it takes them foreverלָנֶצַח to actפעולה on cellsתאים.
111
281415
3008
וזה גם לוקח להם המון זמן לפעול על תאים.
04:56
So it will not allowלהתיר us to controlלִשְׁלוֹט a memoryזיכרון in realאמיתי time.
112
284423
3649
אז זה לא יאפשר לנו לשלוט בזיכרון בזמן אמת.
05:00
So Steveסטיב, how about let's zapzap the brainמוֹחַ with electricityחַשְׁמַל?
113
288072
4294
אז, סטיב, מה דעתך על כך שנתקוף את המוח עם חשמל?
05:04
SRSR: So electricityחַשְׁמַל is prettyיפה fastמָהִיר,
114
292366
2305
ס.ר: אז חשמל הוא די מהיר.
05:06
but we probablyכנראה wouldn'tלא be ableיכול to targetיַעַד it
115
294671
1739
אבל כנראה לא היינו מסוגלים לכוון זאת
05:08
to just the specificספֵּצִיפִי cellsתאים that holdלְהַחזִיק ontoעַל גַבֵּי a memoryזיכרון,
116
296410
2354
רק לתאים ספציפים שאוחזים בזיכרון.
05:10
and we'dלהתחתן probablyכנראה fryלטגן the brainמוֹחַ.
117
298764
1878
וכנראה שנטגן את המוח.
05:12
XLXL: Oh. That's trueנָכוֹן. So it looksנראה like, hmmהממ,
118
300642
3195
ש.ל.: הו. . זה נכון . אז זה נראה כמו, אממ,
05:15
indeedאכן we need to find a better way
119
303837
2611
אכן אנחנו צריכים למצוא דרך טובה יותר
05:18
to impactפְּגִיעָה the brainמוֹחַ at the speedמְהִירוּת of lightאוֹר.
120
306448
3295
להשפיע על המוח במהירות האור.
05:21
SRSR: So it just so happensקורה that lightאוֹר travelsנסיעות at the speedמְהִירוּת of lightאוֹר.
121
309743
5086
ס.ר.: אז מסתבר שאור נע במהירות האור.
05:26
So maybe we could activateלְהַפְעִיל or inactiveלֹא פָּעִיל memoriesזיכרונות
122
314829
3483
אז אולי היינו יכולים להפעיל או להשבית זיכרונות
05:30
by just usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני lightאוֹר --
123
318312
1497
רק על ידי שמוש באור --
05:31
XLXL: That's prettyיפה fastמָהִיר.
124
319809
1355
ש.ל.: זה די מהר.
05:33
SRSR: -- and because normallyבדרך כלל brainמוֹחַ cellsתאים
125
321164
1885
ס.ר.: -- ומשום שבדרך כלל תאי מוח
05:35
don't respondלְהָגִיב to pulsesפולסים of lightאוֹר,
126
323049
1588
לא מגיבים לפולסים של אור,
05:36
so those that would respondלְהָגִיב to pulsesפולסים of lightאוֹר
127
324637
1958
אז אלה שמגיבים לפולסים של אור
05:38
are those that containלְהַכִיל a light-sensitiveרגיש לאור switchהחלף.
128
326595
2464
הם אלה שמכילים מתג רגיש לאור.
05:41
Now to do that, first we need to trickטריק brainמוֹחַ cellsתאים
129
329059
1946
עכשיו, לעשות את זה, קודם אנחנו צריכים להוליך שולל את תאי המוח
05:43
to respondלְהָגִיב to laserלייזר beamsקורות.
130
331005
1462
כדי להגיב לקרני לייזר.
05:44
XLXL: Yepכֵּן. You heardשמע it right.
131
332467
1070
ש.ל.: כן. שמעת את זה נכון.
05:45
We are tryingמנסה to shootלירות lasersלייזרים into the brainמוֹחַ.
132
333537
2132
אנחנו מנסים לשלוח לייזרים לתוך המוח.
05:47
(Laughterצחוק)
133
335669
1745
(צחוק)
05:49
SRSR: And the techniqueטֶכנִיקָה that letsמאפשר us do that is optogeneticsאופטוגנטיקה.
134
337414
3324
ס.ר.: והטכניקה שמאפשרת לנו לעשות את זה היא אופטוגנטיקה.
05:52
Optogeneticsאופטוגנטיקה gaveנתן us this lightאוֹר switchהחלף that we can use
135
340738
3282
אופטוגנטיקה נתנה לנו את מתג האור שאנחנו יכולים להשתמש בו
05:56
to turnלפנות brainמוֹחַ cellsתאים on or off,
136
344020
1508
כדי להפעיל או להשבית את תאי המוח.
05:57
and the nameשֵׁם of that switchהחלף is channelrhodopsinהערוץ,
137
345528
2517
ושמו של המתג הזה הוא ציאנל-רודוספין (תעלות רודוספין),
06:00
seenלראות here as these greenירוק dotsנקודות attachedמְצוֹרָף to this brainמוֹחַ cellתָא.
138
348045
2537
שנראה כאן כאן כמו נקודות ירוקות אלה שצמודות לתא מוח זה.
06:02
You can think of channelrhodopsinהערוץ as a sortסוג of light-sensitiveרגיש לאור switchהחלף
139
350582
3299
אתה יכול לחשוב על ציאנל-רודוספין כסוג של מתג רגיש לאור
06:05
that can be artificiallyבאופן מלאכותי installedמוּתקָן in brainמוֹחַ cellsתאים
140
353881
2627
שיכול להיות מותקן באופן מלאכותי בתאי מוח
06:08
so that now we can use that switchהחלף
141
356508
1914
כך שעכשיו אנו יכולים להשתמש במתג הזה
06:10
to activateלְהַפְעִיל or inactivateלנטרל the brainמוֹחַ cellתָא simplyבפשטות by clickingלחיצה it,
142
358422
3013
כדי להפעיל או להשבית את תא המוח פשוט על ידי הקשה עליו,
06:13
and in this caseמקרה we clickנְקִישָׁה it on with pulsesפולסים of lightאוֹר.
143
361435
2468
ובמקרה זה אנחנו מקישים עליו בעזרת פולסים של אור.
06:15
XLXL: So we attachלְצַרֵף this light-sensitiveרגיש לאור switchהחלף of channelrhodopsinהערוץ
144
363903
3786
ש.ל.: אז אנו מצמידים מתג רגיש לאור זה מצ'אנל-רודופסין
06:19
to the sensorחיישן we'veיש לנו been talkingשִׂיחָה about
145
367689
2208
לחיישן שעליו דיברנו
06:21
and injectלְהַזרִיק this into the brainמוֹחַ.
146
369897
2455
ומזריקים את זה לתוך המוח.
06:24
So wheneverבְּכָל פַּעַם a memoryזיכרון is beingלהיות formedנוצר,
147
372352
3211
כך שכל פעם שנוצר זיכרון,
06:27
any activeפָּעִיל cellתָא for that particularמיוחד memoryזיכרון
148
375563
2227
בכל תא שפעיל עבור הזיכרון המסוים הזה
06:29
will alsoגַם have this light-sensitiveרגיש לאור switchהחלף installedמוּתקָן in it
149
377790
3484
יהיה מותקן גם מתג רגיש לאור זה
06:33
so that we can controlלִשְׁלוֹט these cellsתאים
150
381274
2401
כך שאנחנו יכולים לשלוט על תאים אלה
06:35
by the flippingמרפרף of a laserלייזר just like this one you see.
151
383675
4264
על-ידי היפוך של לייזר בדיוק כמו זה שאתם רואים.
06:39
SRSR: So let's put all of this to the testמִבְחָן now.
152
387939
2864
ס.ר.: אז בואו ונבחן את כל זה עכשיו.
06:42
What we can do is we can take our miceעכברים
153
390803
2135
מה שאפשר לעשות זה שאנו יכולים לקחת את העכברים שלנו
06:44
and then we can put them in a boxקופסא that looksנראה exactlyבְּדִיוּק like this boxקופסא here,
154
392938
2928
ואז נוכל לשים אותם בתוך תיבה שנראית בדיוק כמו זו כאן.
06:47
and then we can give them a very mildמָתוּן footכף רגל shockהֶלֶם
155
395866
2340
ואז אנו יכולים לתת להם הלם קל מאוד ברגל
06:50
so that they formטופס a fearפַּחַד memoryזיכרון of this boxקופסא.
156
398206
2035
כך שהם יוצרים זיכרון פחד של תיבה זו.
06:52
They learnלִלמוֹד that something badרַע happenedקרה here.
157
400241
1979
הם לומדים שמשהו רע קרה כאן.
06:54
Now with our systemמערכת, the cellsתאים that are activeפָּעִיל
158
402220
2342
עכשיו עם המערכת שלנו, התאים שפעילים
06:56
in the hippocampusהיפוקמפוס in the makingהֲכָנָה of this memoryזיכרון,
159
404562
2931
בהיפוקמפוס בהתהוות של הזיכרון,
06:59
only those cellsתאים will now containלְהַכִיל channelrhodopsinהערוץ.
160
407493
2883
רק תאים אלה יכילו עכשיו ציאנלרודופסין.
07:02
XLXL: When you are as smallקָטָן as a mouseעכבר,
161
410376
3017
ש.ל.: כאשר אתה קטן כמו עכבר,
07:05
it feelsמרגיש as if the wholeכֹּל worldעוֹלָם is tryingמנסה to get you.
162
413393
3595
זה מרגיש כאילו כל העולם מנסה לתפוס אותך.
07:08
So your bestהטוב ביותר responseתְגוּבָה of defenseהֲגָנָה
163
416988
1748
אז תגובת ההגנה הטובה ביותר שלך
07:10
is tryingמנסה to be undetectedלא מזוהה.
164
418736
2482
זה לנסות לא להחשף.
07:13
Wheneverבְּכָל פַּעַם a mouseעכבר is in fearפַּחַד,
165
421218
2033
בכל פעם שעכבר שרוי בפחד
07:15
it will showלְהַצִיג this very typicalאופייני behaviorהִתְנַהֲגוּת
166
423251
1526
הוא יראה התנהגות אופיינית מאוד זו
07:16
by stayingלהישאר at one cornerפינה of the boxקופסא,
167
424777
1769
על ידי שהייה באחת הפינות של התיבה,
07:18
tryingמנסה to not moveמהלך \ לזוז \ לעבור any partחֵלֶק of its bodyגוּף,
168
426546
3118
כשהוא מנסה לא להזיז שום חלק מגופו,
07:21
and this postureיְצִיבָה is calledשקוראים לו freezingקְפִיאָה.
169
429664
3295
ותנוחה זו נקראת קְפִיאָה.
07:24
So if a mouseעכבר remembersזוכר that something badרַע happenedקרה in this boxקופסא,
170
432959
4294
אז אם עכבר זוכר שמשהו רע קרה בתיבה זו.
07:29
and when we put them back into the sameאותו boxקופסא,
171
437253
2623
וכאשר אנחנו מחזירים אותם לאותה תיבה,
07:31
it will basicallyבעיקרון showלְהַצִיג freezingקְפִיאָה
172
439876
1804
הוא למעשה יציג קְפִיאָה
07:33
because it doesn't want to be detectedזוהה
173
441680
2285
כי הוא לא רוצה לחשוף עצמו
07:35
by any potentialפוטנציאל threatsאיומים in this boxקופסא.
174
443965
2695
לאיומים פוטנציאליים כלשהם בתיבה זו.
07:38
SRSR: So you can think of freezingקְפִיאָה as,
175
446660
1355
ס.ר.: אז אתם יכולים לחשוב על קפיאה,
07:40
you're walkingהליכה down the streetרְחוֹב mindingאכפתיות your ownשֶׁלוֹ businessעֵסֶק,
176
448015
2215
כעל משהו בדומה להליכה במורד הרחוב כשאתה שקוע בענייניך,
07:42
and then out of nowhereלְשׁוּם מָקוֹם you almostכִּמעַט runלָרוּץ into
177
450230
1725
ואז משום מקום אתה כמעט נתקל
07:43
an ex-girlfriendחברתו לשעבר or ex-boyfriendהחבר לשעבר,
178
451955
2192
באקסית, או באקס שלך,
07:46
and now those terrifyingמפחיד two secondsשניות
179
454147
2134
ועכשיו שתי שניות מפחידות אלו
07:48
where you startהַתחָלָה thinkingחושב, "What do I do? Do I say hiהיי?
180
456281
1876
הן מתי שאתה מתחיל לחשוב, "מה אני עושה? האם לומר היי?
07:50
Do I shakeלְנַעֵר theirשֶׁלָהֶם handיד? Do I turnלפנות around and runלָרוּץ away?
181
458157
1368
האם אני לוחץ את היד שלהם? האם אני מסתובב ובורח?
07:51
Do I sitלָשֶׁבֶת here and pretendלהעמיד פנים like I don't existקיימים?"
182
459525
2029
האם אני יושב כאן ומעמיד פנים שאינני קיים?"
07:53
Those kindsמיני of fleetingחוֹלֵף thoughtsמחשבות that physicallyפיזית incapacitateלִשְׁלוֹל יְכוֹלֶת you,
183
461554
3184
סוג זה של מחשבות חולפות שמנטרלות אותך פיזית,
07:56
that temporarilyזְמַנִית give you that deer-in-headlightsצבי ב-האורות look.
184
464738
2746
שמשוות לך באופן זמני את המבט של צבי שמאירים עליו בפנסים קדמיים.
07:59
XLXL: Howeverלמרות זאת, if you put the mouseעכבר in a completelyלַחֲלוּטִין differentשונה
185
467484
3291
ש.ל.: עם זאת, אם אתה מכניס את העכבר לתיבה חדשה
08:02
newחָדָשׁ boxקופסא, like the nextהַבָּא one,
186
470775
3161
שונה לחלוטין, כמו הבאה,
08:05
it will not be afraidחוֹשֵׁשׁ of this boxקופסא
187
473936
2147
הוא לא יפחד מתיבה זו
08:08
because there's no reasonסיבה that it will be afraidחוֹשֵׁשׁ of this newחָדָשׁ environmentסביבה.
188
476083
4729
בגלל שאין שום סיבה שיפחד מסביבה חדשה זו.
08:12
But what if we put the mouseעכבר in this newחָדָשׁ boxקופסא
189
480812
3180
אבל מה אם נשים את העכבר בתיבה חדשה זו
08:15
but at the sameאותו time, we activateלְהַפְעִיל the fearפַּחַד memoryזיכרון
190
483992
3611
אבל באותו הזמן, אנו מפעילים את זיכרון הפחד
08:19
usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני lasersלייזרים just like we did before?
191
487603
2679
באמצעות לייזרים בדיוק כמו שעשינו בעבר?
08:22
Are we going to bringלְהָבִיא back the fearפַּחַד memoryזיכרון
192
490282
2854
אנחנו הולכים להחזיר את זיכרון הפחד
08:25
for the first boxקופסא into this completelyלַחֲלוּטִין newחָדָשׁ environmentסביבה?
193
493136
3997
של התיבה הראשונה לתוך סביבה חדשה לחלוטין זו?
08:29
SRSR: All right, and here'sהנה the million-dollarמיליון דולר experimentלְנַסוֹת.
194
497133
2735
ס.ר.: בסדר, וכאן הוא ניסוי מיליון הדולר.
08:31
Now to bringלְהָבִיא back to life the memoryזיכרון of that day,
195
499868
2913
עכשיו כדי להחזיר לחיים את הזיכרון של היום ההוא,
08:34
I rememberלִזכּוֹר that the Redאָדוֹם Soxסוקס had just wonזכית,
196
502781
2183
אני זוכר כי ה"רד סוקס" זה עתה ניצחו,
08:36
it was a greenירוק springאביב day,
197
504964
1909
זה היה יום אביבי ירוק,
08:38
perfectמושלם for going up and down the riverנהר
198
506873
1817
מושלם לטיול במעלה ובמורד הנהר
08:40
and then maybe going to the Northצָפוֹן Endסוֹף
199
508690
2334
ואז אולי ללכת לקצה הצפוני
08:43
to get some cannoliscannolis, #justsayingרק אומר.
200
511024
2160
כדי לקבל קצת קנולי, (לא ברור)
08:45
Now Xuשו and I, on the other handיד,
201
513184
3102
עכשיו שו ואני, לעומת זה,
08:48
were in a completelyלַחֲלוּטִין windowlessללא חלונות blackשָׁחוֹר roomחֶדֶר
202
516286
2829
היינו בתוך חדר אפל וחסר חלונות
08:51
not makingהֲכָנָה any ocularשֶׁל הָעֵינַיִם movementתְנוּעָה that even remotelyמרחוק resemblesדומה an eyeעַיִן blinkלְמַצְמֵץ
203
519115
3661
לא עושים שום תנועת עין שאפילו קצת דומה למצמוץ
08:54
because our eyesעיניים were fixedתוקן ontoעַל גַבֵּי a computerמַחשֵׁב screenמָסָך.
204
522776
2466
כי העיניים שלנו היה נעוצות על מסך המחשב.
08:57
We were looking at this mouseעכבר here tryingמנסה to activateלְהַפְעִיל a memoryזיכרון
205
525242
2556
הסתכלנו על העכבר הזה כאן מנסה להפעיל זיכרון
08:59
for the first time usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני our techniqueטֶכנִיקָה.
206
527798
1883
בפעם הראשונה באמצעות הטכניקה שלנו.
09:01
XLXL: And this is what we saw.
207
529681
2688
ש.ל.: וזה מה שראינו.
09:04
When we first put the mouseעכבר into this boxקופסא,
208
532369
2202
כאשר אנחנו שמנו לראשונה את העכבר לתוך תיבה זו,
09:06
it's exploringחקר, sniffingהֲרָחָה around, walkingהליכה around,
209
534571
3113
הוא חקר, ריחרח, הסתובב סביב,
09:09
mindingאכפתיות its ownשֶׁלוֹ businessעֵסֶק,
210
537684
1689
כשהוא עסוק בענייניו.
09:11
because actuallyלמעשה by natureטֶבַע,
211
539373
1701
כי למעשה בטבעם,
09:13
miceעכברים are prettyיפה curiousסקרן animalsבעלי חיים.
212
541074
1979
עכברים הם בעלי חיים די סקרנים.
09:15
They want to know, what's going on in this newחָדָשׁ boxקופסא?
213
543053
2622
הם רוצים לדעת, מה קורה בתיבת חדשה זו?
09:17
It's interestingמעניין.
214
545675
1531
זה מעניין.
09:19
But the momentרֶגַע we turnedפנה on the laserלייזר, like you see now,
215
547206
3451
אבל ברגע שהפעלנו את הלייזר, כפי שאתם רואים.
09:22
all of a suddenפִּתְאוֹמִי the mouseעכבר enteredנכנס this freezingקְפִיאָה modeמצב.
216
550657
3032
פתאום העכבר נכנס למצב זה של קפיאה.
09:25
It stayedנשאר here and triedניסה not to moveמהלך \ לזוז \ לעבור any partחֵלֶק of its bodyגוּף.
217
553689
4431
הוא שהה כאן, וניסה לא להזיז שום חלק מגופו.
09:30
Clearlyבְּבִירוּר it's freezingקְפִיאָה.
218
558120
1628
ברור שהוא קפוא.
09:31
So indeedאכן, it looksנראה like we are ableיכול to bringלְהָבִיא back
219
559748
2583
אז אכן, זה נראה כאילו אנחנו יכולים להחזיר
09:34
the fearפַּחַד memoryזיכרון for the first boxקופסא
220
562331
2064
את זיכרון הפחד מהתיבה הראשונה
09:36
in this completelyלַחֲלוּטִין newחָדָשׁ environmentסביבה.
221
564395
3367
לסביבה חדשה לגמרי זו.
09:39
While watchingצופה this, Steveסטיב and I
222
567762
2112
תוך כדי צפייה בזה, סטיב ואני
09:41
are as shockedמְזוּעזָע as the mouseעכבר itselfעצמה.
223
569874
2133
שרויים בהלם בדיוק כמו העכבר עצמו.
09:44
(Laughterצחוק)
224
572007
1262
(צחוק)
09:45
So after the experimentלְנַסוֹת, the two of us just left the roomחֶדֶר
225
573269
3307
אז לאחר הניסוי, שנינו פשוט עזבנו את החדר
09:48
withoutלְלֹא sayingפִּתגָם anything.
226
576576
1753
מבלי לומר דבר.
09:50
After a kindסוג of long, awkwardמוזר periodפרק זמן of time,
227
578329
3396
לאחר פרק זמן ארוך, ומביך
09:53
Steveסטיב brokeחסר פרוטה the silenceשתיקה.
228
581725
2212
סטיב שבר את השתיקה.
09:55
SRSR: "Did that just work?"
229
583937
2341
ס.ר.: "האם זה פשוט עבד?"
09:58
XLXL: "Yes," I said. "Indeedאכן it workedעבד!"
230
586278
2974
ש.ל.: "כן", אמרתי. "אכן זה עבד!"
10:01
We're really excitedנִרגָשׁ about this.
231
589252
2117
אנחנו ממש נרגשים על כך.
10:03
And then we publishedיצא לאור our findingsממצאים
232
591369
2624
ואז פירסמנו את הממצאים שלנו
10:05
in the journalכתב עת Natureטֶבַע.
233
593993
1696
בכתב העת "נייצ'ר".
10:07
Ever sinceמאז the publicationפרסום of our work,
234
595689
2471
מאז הפרסום של העבודה שלנו,
10:10
we'veיש לנו been receivingקבלה numerousרַבִּים commentsהערות
235
598160
2415
אנחנו מקבלים הערות רבות
10:12
from all over the Internetאינטרנט.
236
600575
2125
מכל רחבי האינטרנט.
10:14
Maybe we can take a look at some of those.
237
602700
3750
אולי נוכל להעיף מבט על כמה מאלה.
10:18
["OMGGGGGOMGGGGG FINALLYסוף כל סוף... so much more to come, virtualוירטואלי realityמְצִיאוּת, neuralעֲצַבִּי manipulationמָנִיפּוּלָצִיָה, visualחָזוּתִי dreamחולם emulationאמולציה... neuralעֲצַבִּי codingסִמוּל, 'writing'כְּתִיבָה and re-writingשִׁכתוּב of memories'זיכרונות, mentalנַפשִׁי illnessesמחלות. Ahhhאההה the futureעתיד is awesomeמדהים"]
238
606450
2457
["OMG לבסוף. הרבה יותר עומד להגיע, מציאות מדומה, מניפולציות עצביות, הדמיית חלום חזותי. קידוד עצבי , 'כתיבה וכתיבה מחדש של זכרונות', מחלות נפש. אההה העתיד הוא מדהים"]
10:20
SRSR: So the first thing that you'llאתה noticeהודעה is that people
239
608907
2000
ס.ר.: אז הדבר הראשון שתבחינו בו זה שלאנשים
10:22
have really strongחָזָק opinionsדעות about this kindסוג of work.
240
610907
2903
יש דעות ממש חזקות על סוג זה של עבודה.
10:25
Now I happenלִקְרוֹת to completelyלַחֲלוּטִין agreeלְהַסכִּים with the optimismאוֹפּטִימִיוּת
241
613810
2554
עכשיו אני נוטה להסכים לחלוטין עם האופטימיות
10:28
of this first quoteציטוט,
242
616364
816
של ציטוט ראשון זה,
10:29
because on a scaleסוּלָם of zeroאֶפֶס to Morganמורגן Freeman'sשל פרימן voiceקוֹל,
243
617180
2808
מכיוון שבקנה מידה של אפס לקולו של מורגן פרימן,
10:31
it happensקורה to be one of the mostרוב evocativeמעורר accoladesשבחים
244
619988
2123
זה אחד מרגעי התהילה המרגשים
10:34
that I've heardשמע come our way.
245
622111
1550
ששמעתי בדרכנו.
10:35
(Laughterצחוק)
246
623661
2196
(צחוק)
10:37
But as you'llאתה see, it's not the only opinionדעה that's out there.
247
625857
1951
אבל כפי שתראו, זו לא הדעה היחידה שיש שם.
10:39
["This scaresמפחיד the hellגֵיהִנוֹם out of me... What if they could do that easilyבְּקַלוּת in humansבני אנוש in a coupleזוּג of yearsשנים?! OH MY GOD WE'RE DOOMEDDOOMED"]
248
627808
1564
[". זה מפחיד אותי עד מוות.. ? מה אם הם יוכלו לעשות זאת בקלות אצל בני אדם בעוד כמה שנים?! או אלוהים אנחנו אבודים"]
10:41
XLXL: Indeedאכן, if we take a look at the secondשְׁנִיָה one,
249
629372
1918
ש.ל.: אכן, אם אנחנו נסתכל על השנייה,
10:43
I think we can all agreeלְהַסכִּים that it's, mehmeh,
250
631290
2107
אני חושב שכולנו נסכים שזה , אה,
10:45
probablyכנראה not as positiveחִיוּבִי.
251
633397
2375
כנראה לא ממש חיובי.
10:47
But this alsoגַם remindsמזכיר us that,
252
635772
2185
אבל זה גם מזכיר לנו,
10:49
althoughלמרות ש we are still workingעובד with miceעכברים,
253
637957
2186
שלמרות שאנחנו עדיין עובדים עם עכברים,
10:52
it's probablyכנראה a good ideaרַעְיוֹן to startהַתחָלָה thinkingחושב and discussingדנים
254
640143
3517
זה כנראה רעיון טוב להתחיל לחשוב ולדון
10:55
about the possibleאפשרי ethicalאֶתִי ramificationsהשלכות
255
643660
2991
על ההשלכות האתיות האפשריות
10:58
of memoryזיכרון controlלִשְׁלוֹט.
256
646651
1948
של השליטה בזיכרון.
11:00
SRSR: Now, in the spiritרוּחַ of the thirdשְׁלִישִׁי quoteציטוט,
257
648599
2200
ס.ר.: עכשיו, וברוח הציטוט השלישי,
11:02
we want to tell you about a recentלאחרונה projectפּרוֹיֶקט that we'veיש לנו been
258
650799
1974
אנחנו רוצים לספר לכם על הפרויקט האחרון שאנחנו עובדים
11:04
workingעובד on in labמַעבָּדָה that we'veיש לנו calledשקוראים לו Projectפּרוֹיֶקט Inceptionהַתחָלָה.
259
652773
2428
עליו במעבדה שקראנו לו פרוייקט תְּחוּלָה.
11:07
["They should make a movieסרט about this. Where they plantצמח ideasרעיונות into peoplesעמים mindsמוחות, so they can controlלִשְׁלוֹט them for theirשֶׁלָהֶם ownשֶׁלוֹ personalאישי gainלְהַשִׂיג. We'llטוֹב call it: Inceptionהַתחָלָה."]
260
655201
3243
["הם היו צריכים לעשות על זה סרט . איך הם שותלים רעיונות למיינד של האנשים, כך שיוכלו לשלוט בהם לצורך רווח אישי משלהם. אנחנו קוראים לזה: תחולה. "]
11:10
So we reasonedמְנוּמָק that now that we can reactivateהפעל מחדש a memoryזיכרון,
261
658444
3734
אז הנחנו שעכשיו אנחנו יכולים להפעיל מחדש זיכרון,
11:14
what if we do so but then beginהתחל to tinkerלְנַסוֹת לְתַקֵן with that memoryזיכרון?
262
662178
2952
מה אם נעשה זאת אבל אז להתחיל להתעסק עם הזיכרון הזה?
11:17
Could we possiblyיִתָכֵן even turnלפנות it into a falseשֶׁקֶר memoryזיכרון?
263
665130
3033
האם נוכל אפילו להפוך אותו לזיכרון שקרי?
11:20
XLXL: So all memoryזיכרון is sophisticatedמתוחכם and dynamicדִינָמִי,
264
668163
4099
ש.ל.: אז כל זיכרון הוא מתוחכם ודינמי,
11:24
but if just for simplicityפַּשְׁטוּת, let's imagineלדמיין memoryזיכרון
265
672262
2979
אבל אם רק למען הפשטות, בואו ונדמיין זיכרון
11:27
as a movieסרט clipלְקַצֵץ.
266
675241
1402
כמו סרטון.
11:28
So farרָחוֹק what we'veיש לנו told you is basicallyבעיקרון we can controlלִשְׁלוֹט
267
676643
2670
עד כה מה שסיפרנו לכם הוא בעצם שאנחנו יכולים לשלוט
11:31
this "playלְשַׂחֵק" buttonלַחְצָן of the clipלְקַצֵץ
268
679313
1931
בלחצן "התחל" של הסרטון
11:33
so that we can playלְשַׂחֵק this videoוִידֵאוֹ clipלְקַצֵץ any time, anywhereבְּכָל מָקוֹם.
269
681244
4585
כך שנוכל להציג סרטון וידאו זה בכל זמן, בכל מקום.
11:37
But is there a possibilityאפשרות that we can actuallyלמעשה get
270
685829
2531
אבל האם יש סיכוי שנוכל למעשה
11:40
insideבְּתוֹך the brainמוֹחַ and editלַעֲרוֹך this movieסרט clipלְקַצֵץ
271
688360
2860
להיכנס למוח ולערוך את הסרטון הזה
11:43
so that we can make it differentשונה from the originalמְקוֹרִי?
272
691220
2896
כך שנוכל לעשות אותו שונה מהמקור?
11:46
Yes we can.
273
694116
2178
כן, אנחנו יכולים.
11:48
Turnedהסתובב out that all we need to do is basicallyבעיקרון
274
696294
2130
התברר כי כל מה שאנחנו צריכים לעשות הוא בעצם
11:50
reactivateהפעל מחדש a memoryזיכרון usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני lasersלייזרים just like we did before,
275
698424
4275
להפעיל מחדש זיכרון באמצעות לייזרים בדיוק כמו שעשינו קודם,
11:54
but at the sameאותו time, if we presentמתנה newחָדָשׁ informationמֵידָע
276
702699
3439
אבל באותו זמן, אם אנו מציגים מידע חדש
11:58
and allowלהתיר this newחָדָשׁ informationמֵידָע to incorporateבע"מ into this oldישן memoryזיכרון,
277
706138
3974
ומאפשרים למידע החדש הזה להשתלב לתוך זיכרון ישן זה,
12:02
this will changeשינוי the memoryזיכרון.
278
710112
2438
פעולה זו תשנה את הזיכרון.
12:04
It's sortסוג of like makingהֲכָנָה a remixרמיקס tapeסרט הדבקה.
279
712550
3663
זה בערך כמו ליצור קלטת רמיקס.
12:08
SRSR: So how do we do this?
280
716213
2858
ס.ר.: אז איך אנו עושים זאת?
12:11
Ratherבמקום זאת than findingמִמצָא a fearפַּחַד memoryזיכרון in the brainמוֹחַ,
281
719071
1957
במקום למצוא זיכרון פחד במוח,
12:13
we can startהַתחָלָה by takingלְקִיחָה our animalsבעלי חיים,
282
721028
1716
אנחנו יכולים להתחיל על ידי כך שניקח את החיות שלנו,
12:14
and let's say we put them in a blueכָּחוֹל boxקופסא like this blueכָּחוֹל boxקופסא here
283
722744
2933
ובואו ונגיד שאנחנו שמים אותם בתיבה כחולה כמו התיבה הכחולה כאן
12:17
and we find the brainמוֹחַ cellsתאים that representלְיַצֵג that blueכָּחוֹל boxקופסא
284
725677
2494
ואנחנו מוצאים את תאי המוח המייצגים את התיבה הכחולה ההיא
12:20
and we trickטריק them to respondלְהָגִיב to pulsesפולסים of lightאוֹר
285
728171
2073
ואנחנו עובדים עליהם כדי שיגיבו על פולסים של אור
12:22
exactlyבְּדִיוּק like we had said before.
286
730244
2121
בדיוק כמו שאמרנו קודם.
12:24
Now the nextהַבָּא day, we can take our animalsבעלי חיים and placeמקום them
287
732365
2124
כעת, למחרת, אנחנו יכולים לקחת את החיות שלנו ולהכניס אותם
12:26
in a redאָדוֹם boxקופסא that they'veהם כבר never experiencedמְנוּסֶה before.
288
734489
2699
לתיבה אדומה. שהם מעולם לא חוו בעבר.
12:29
We can shootלירות lightאוֹר into the brainמוֹחַ to reactivateהפעל מחדש
289
737188
2026
אנחנו יכולים לשלוח אור לתוך המוח כדי להפעיל מחדש
12:31
the memoryזיכרון of the blueכָּחוֹל boxקופסא.
290
739214
2109
את הזיכרון של התיבה הכחולה.
12:33
So what would happenלִקְרוֹת here if, while the animalבעל חיים
291
741323
1744
אז מה יקרה כאן אם, בעוד החיה
12:35
is recallingנזכר the memoryזיכרון of the blueכָּחוֹל boxקופסא,
292
743067
1894
נזכרת בזיכרון של התיבה הכחולה,
12:36
we gaveנתן it a coupleזוּג of mildמָתוּן footכף רגל shocksזעזועים?
293
744961
2643
נתנו לה כמה מכות קלות ברגל?
12:39
So here we're tryingמנסה to artificiallyבאופן מלאכותי make an associationאִרגוּן
294
747604
2693
אז כאן אנחנו מנסים ליצור באופן מלאכותי שיוך
12:42
betweenבֵּין the memoryזיכרון of the blueכָּחוֹל boxקופסא
295
750297
1915
בין הזיכרון של התיבה הכחולה
12:44
and the footכף רגל shocksזעזועים themselvesעצמם.
296
752212
1503
למכות ברגל עצמן.
12:45
We're just tryingמנסה to connectלְחַבֵּר the two.
297
753715
1779
אנחנו רק מנסים לחבר את השניים.
12:47
So to testמִבְחָן if we had doneבוצע so,
298
755494
1543
אז כדי לבדוק אם עשינו זאת,
12:49
we can take our animalsבעלי חיים onceפַּעַם again
299
757037
1328
אנחנו יכולים לקחת את החיות שלנו שוב
12:50
and placeמקום them back in the blueכָּחוֹל boxקופסא.
300
758365
1946
ולהכניס אותן לתיבה הכחולה.
12:52
Again, we had just reactivatedמופעל מחדש the memoryזיכרון of the blueכָּחוֹל boxקופסא
301
760311
2738
שוב, אנחנו פשוט הפעלנו מחדש את הזיכרון של התיבה הכחולה
12:55
while the animalבעל חיים got a coupleזוּג of mildמָתוּן footכף רגל shocksזעזועים,
302
763049
2167
בזמן שהחיה קיבלה כמה מכות קלות ברגל,
12:57
and now the animalבעל חיים suddenlyפִּתְאוֹם freezesקופא.
303
765216
2370
ועכשיו החיה פתאום קופאת.
12:59
It's as thoughאם כי it's recallingנזכר beingלהיות mildlyבמתינות shockedמְזוּעזָע in this environmentסביבה
304
767586
3202
זה כאילו שהיא נזכרה שקיבלה הלם מתון בסביבה זו.
13:02
even thoughאם כי that never actuallyלמעשה happenedקרה.
305
770788
3002
אפילו למרות שזה לא קרה מעולם.
13:05
So it formedנוצר a falseשֶׁקֶר memoryזיכרון,
306
773790
1862
אז היא יצרה זיכרון כוזב,
13:07
because it's falselyשקר fearingפחד an environmentסביבה
307
775652
2011
משום שהיא באופן כוזב חוששת מסביבה
13:09
where, technicallyבאופן טכני speakingמדבר,
308
777663
1254
שבה מבחינה טכנית,
13:10
nothing badרַע actuallyלמעשה happenedקרה to it.
309
778917
2349
שום דבר רע באמת לא קרה לה.
13:13
XLXL: So, so farרָחוֹק we are only talkingשִׂיחָה about
310
781266
2453
ש.ל.: אז, עד כה אנחנו רק מדברים על
13:15
this light-controlledאור מבוקר "on" switchהחלף.
311
783719
2366
מתג "הפעל" זה שנשלט על ידי אור
13:18
In factעוּבדָה, we alsoגַם have a light-controlledאור מבוקר "off" switchהחלף,
312
786085
3288
למעשה, יש לנו גם מתג "כבה" שנשלט על ידי אור,
13:21
and it's very easyקַל to imagineלדמיין that
313
789373
2080
וומאוד קל לדמיין שעל ידי
13:23
by installingהתקנה this light-controlledאור מבוקר "off" switchהחלף,
314
791453
2478
התקנת מתג "כבה" שמשלט על ידי אור,
13:25
we can alsoגַם turnלפנות off a memoryזיכרון, any time, anywhereבְּכָל מָקוֹם.
315
793931
5588
אנחנו יכולים גם לבטל זיכרון, בכל זמן, בכל מקום.
13:31
So everything we'veיש לנו been talkingשִׂיחָה about todayהיום
316
799519
2214
אז כל מה שאנו מדברים עליו היום
13:33
is basedמבוסס on this philosophicallyמבחינה פילוסופית chargedטעון principleעִקָרוֹן of neuroscienceמדעי המוח
317
801733
4677
מבוסס על עיקרון פילוסופי טעון של מדע המוח
13:38
that the mindאכפת, with its seeminglyלִכאוֹרָה mysteriousמסתורי propertiesנכסים,
318
806410
4118
זה המיינד, עם תכונותיו המסתוריות לכאורה,
13:42
is actuallyלמעשה madeעָשׂוּי of physicalגוּפָנִי stuffדברים that we can tinkerלְנַסוֹת לְתַקֵן with.
319
810528
3645
שבעצם עשוי מחומר פיזי שאנחנו יכולים להתעסק אתו.
13:46
SRSR: And for me personallyאישית,
320
814173
1475
ס.ר.: ולגבי באופן אישי,
13:47
I see a worldעוֹלָם where we can reactivateהפעל מחדש
321
815648
1581
אני רואה עולם שבו אנחנו יכולים להפעיל מחדש
13:49
any kindסוג of memoryזיכרון that we'dלהתחתן like.
322
817229
2116
כל סוג של זיכרון שנרצה.
13:51
I alsoגַם see a worldעוֹלָם where we can eraseלִמְחוֹק unwantedלא רצוי memoriesזיכרונות.
323
819345
3298
אני גם רואה עולם שבו אנו יכולים למחוק זיכרונות לא רצויים.
13:54
Now, I even see a worldעוֹלָם where editingעֲרִיכָה memoriesזיכרונות
324
822643
1936
עכשיו, אני אפילו רואה עולם שבו עריכת זכרונות
13:56
is something of a realityמְצִיאוּת,
325
824579
1539
הינה משהו של מציאות,
13:58
because we're livingחַי in a time where it's possibleאפשרי
326
826118
1705
כי אנחנו חיים בתקופה שבה זה אפשרי
13:59
to pluckלִקְטוֹף questionsשאלות from the treeעֵץ of scienceמַדָע fictionספרות בדיונית
327
827823
2225
לקטוף שאלות מן העץ של מדע בדיוני
14:02
and to groundקרקע, אדמה them in experimentalנִסיוֹנִי realityמְצִיאוּת.
328
830048
2420
ולקרקע אותן במציאות ניסיונית.
14:04
XLXL: Nowadaysכַּיוֹם, people in the labמַעבָּדָה
329
832468
1883
ש.ל.: בימינו, אנשים במעבדה
14:06
and people in other groupsקבוצות all over the worldעוֹלָם
330
834351
2386
ואנשים בקבוצות אחרות בכל רחבי העולם
14:08
are usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני similarדוֹמֶה methodsשיטות to activateלְהַפְעִיל or editלַעֲרוֹך memoriesזיכרונות,
331
836737
3817
משתמשים בשיטות דומות כדי להפעיל או לערוך זכרונות,
14:12
whetherהאם that's oldישן or newחָדָשׁ, positiveחִיוּבִי or negativeשלילי,
332
840554
3841
בין אם הם ישנים או חדשים, חיוביים או שליליים.
14:16
all sortsמיני of memoriesזיכרונות so that we can understandמבין
333
844395
2672
כל מיני זיכרונות. כך שנוכל להבין
14:19
how memoryזיכרון worksעובד.
334
847067
1864
איך עובד הזיכרון.
14:20
SRSR: For exampleדוגמא, one groupקְבוּצָה in our labמַעבָּדָה
335
848931
1784
ס.ר.: לדוגמה, קבוצה אחת במעבדה שלנו
14:22
was ableיכול to find the brainמוֹחַ cellsתאים that make up a fearפַּחַד memoryזיכרון
336
850715
2638
הצליחה למצוא את תאי המוח המרכיבים את זיכרון הפחד
14:25
and convertedהמרה them into a pleasurableמְהַנֶה memoryזיכרון, just like that.
337
853353
2775
והמירה אותם לזיכרון מענג, פשוט ככה.
14:28
That's exactlyבְּדִיוּק what I mean about editingעֲרִיכָה these kindsמיני of processesתהליכים.
338
856128
3062
זה בדיוק מה שאני מתכוון לגבי עריכת סוגים אלו של תהליכים.
14:31
Now one dudeאחי in labמַעבָּדָה was even ableיכול to reactivateהפעל מחדש
339
859190
1812
עכשיו בחור אחד במעבדה היה מסוגל אפילו להפעיל מחדש
14:33
memoriesזיכרונות of femaleנְקֵבָה miceעכברים in maleזָכָר miceעכברים,
340
861002
2501
זיכרונות של עכברים ממין נקבה בעכברים זכרים,
14:35
whichאיזה rumorשְׁמוּעָה has it is a pleasurableמְהַנֶה experienceניסיון.
341
863503
2995
שהשמועה אומרת שהיא חוויה מענגת.
14:38
XLXL: Indeedאכן, we are livingחַי in a very excitingמְרַגֵשׁ momentרֶגַע
342
866498
4117
ש.ל.: אכן, אנו חיים ברגע מרגש מאוד
14:42
where scienceמַדָע doesn't have any arbitraryשרירותי speedמְהִירוּת limitsגבולות
343
870615
3805
שבו למדע אין כל הגבלת מהירות שרירותית
14:46
but is only boundכָּרוּך by our ownשֶׁלוֹ imaginationדִמיוֹן.
344
874420
3187
אלא הוא נמדד רק על ידי הדמיון שלנו.
14:49
SRSR: And finallyסוף כל סוף, what do we make of all this?
345
877607
2147
ס.ר.: ולבסוף, מה אנו עושים עם כל זה?
14:51
How do we pushלִדחוֹף this technologyטֶכנוֹלוֹגִיָה forwardקָדִימָה?
346
879754
1971
איך אנו דוחפים קדימה טכנולוגיה זו?
14:53
These are the questionsשאלות that should not remainלְהִשָׁאֵר
347
881725
1837
אלו הן השאלות שלא צריכות להישאר
14:55
just insideבְּתוֹך the labמַעבָּדָה,
348
883562
1675
רק בתוך המעבדה
14:57
and so one goalמטרה of today'sשל היום talk was to bringלְהָבִיא everybodyכולם
349
885237
2572
וכך מטרה אחת של השיחה היום היתה לגרום לכולם
14:59
up to speedמְהִירוּת with the kindסוג of stuffדברים that's possibleאפשרי
350
887809
2319
להתעדכן בסוג הדברים האפשריים
15:02
in modernמוֹדֶרנִי neuroscienceמדעי המוח,
351
890128
1384
במדע המוח המודרני.
15:03
but now, just as importantlyחשוב,
352
891512
1510
אבל עכשיו, לא פחות חשוב,
15:05
to activelyבאופן פעיל engageלְהַעֲסִיק everybodyכולם in this conversationשִׂיחָה.
353
893022
3332
לשתף באופן פעיל את כולם בשיחה זו.
15:08
So let's think togetherיַחַד as a teamקְבוּצָה about what this all meansאומר
354
896354
2329
אז בואו נחשוב יחד כצוות על המשמעות של כל זה
15:10
and where we can and should go from here,
355
898683
2474
ולאן אנחנו יכולים וצריכים ללכת מכאן,
15:13
because Xuשו and I think we all have
356
901157
2098
כי שו ואני חושבים שהרבה
15:15
some really bigגָדוֹל decisionsהחלטות aheadקָדִימָה of us.
357
903255
2536
החלטות חשובות מאוד עומדות לפנינו.
15:17
Thank you.
XLXL: Thank you.
358
905791
1125
תודה.
ש.ל.: תודה.
15:18
(Applauseתְשׁוּאוֹת)
359
906916
1634
(מחיאות כפיים)
Translated by zeeva Livshitz
Reviewed by Ido Dekkers

▲Back to top

ABOUT THE SPEAKERS
Steve Ramirez - Neuroscientist
When Steve Ramirez published his latest study in Science, it caused a media frenzy. Why? Because the paper was on implanting false memories in the brains of mice.

Why you should listen

Steve is a graduate student at MIT’s Brain and Cognitive Sciences department pursuing a Ph.D. in neuroscience. His work focuses on finding where single memories are located throughout the brain, genetically tricking the brain cells that house these memories to respond to brief pulses of light, and then using these same flickers of light to reactivate, erase and implant memories. The goals of his research are twofold: to figure out how the brain gives rise to the seemingly ephemeral process of memory, and to predict what happens when specific brain pieces breakdown to impair cognition. His work has been published in Science and covered by New Scientist, Discover, Scientific American, and Gizmodo.

Ramirez aims to be a professor who runs a lab that plucks questions from the tree of science fiction to ground them in experimental reality. He believes that a team-oriented approach to science makes research and teaching far more exciting. When he’s not tinkering with memories in the lab, Ramirez also enjoys running and cheering on every sports team in the city of Boston.

More profile about the speaker
Steve Ramirez | Speaker | TED.com
Xu Liu - Neuroscientist
In his groundbreaking work, Xu Liu investigated how to activate and deactivate specific memories in mice.

Why you should listen

During his PhD, Xu Liu studied the mechanisms of learning and memory, using fruit flies as a model system. By changing the expression of certain genes in the fly brain, he generated smart flies that can learn many times faster than their peers. Using live imaging, he also detected learning-induced changes in the brain cells and observed memory formation inside the brain with light.

After graduation, he moved to MIT and joined Dr. Susumu Tonegawa's lab as a postdoctoral associate. He continued his pursuit of memory with light there. Instead of just watching memory formation, he developed a system in mice where one can not only identify and label cells in the brain for a particular memory, but also turn these cells on and off with light to activate this memory at will. This work was published in Science and has been covered by the media worldwide. Liu passed away in February 2015.

More profile about the speaker
Xu Liu | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee