ABOUT THE SPEAKERS
Steve Ramirez - Neuroscientist
When Steve Ramirez published his latest study in Science, it caused a media frenzy. Why? Because the paper was on implanting false memories in the brains of mice.

Why you should listen

Steve is a graduate student at MIT’s Brain and Cognitive Sciences department pursuing a Ph.D. in neuroscience. His work focuses on finding where single memories are located throughout the brain, genetically tricking the brain cells that house these memories to respond to brief pulses of light, and then using these same flickers of light to reactivate, erase and implant memories. The goals of his research are twofold: to figure out how the brain gives rise to the seemingly ephemeral process of memory, and to predict what happens when specific brain pieces breakdown to impair cognition. His work has been published in Science and covered by New Scientist, Discover, Scientific American, and Gizmodo.

Ramirez aims to be a professor who runs a lab that plucks questions from the tree of science fiction to ground them in experimental reality. He believes that a team-oriented approach to science makes research and teaching far more exciting. When he’s not tinkering with memories in the lab, Ramirez also enjoys running and cheering on every sports team in the city of Boston.

More profile about the speaker
Steve Ramirez | Speaker | TED.com
Xu Liu - Neuroscientist
In his groundbreaking work, Xu Liu investigated how to activate and deactivate specific memories in mice.

Why you should listen

During his PhD, Xu Liu studied the mechanisms of learning and memory, using fruit flies as a model system. By changing the expression of certain genes in the fly brain, he generated smart flies that can learn many times faster than their peers. Using live imaging, he also detected learning-induced changes in the brain cells and observed memory formation inside the brain with light.

After graduation, he moved to MIT and joined Dr. Susumu Tonegawa's lab as a postdoctoral associate. He continued his pursuit of memory with light there. Instead of just watching memory formation, he developed a system in mice where one can not only identify and label cells in the brain for a particular memory, but also turn these cells on and off with light to activate this memory at will. This work was published in Science and has been covered by the media worldwide. Liu passed away in February 2015.

More profile about the speaker
Xu Liu | Speaker | TED.com
TEDxBoston

Steve Ramirez and Xu Liu: A mouse. A laser beam. A manipulated memory.

Στιβ Ραμίρεζ και Σου Λου: Ένα ποντίκι. Μια ακτίνα λέιζερ. Μια χειραγωγημένη ανάμνηση

Filmed:
1,127,889 views

Μπορούμε να επεξεργαστούμε το περιεχόμενο των αναμνήσεών μας; Πρόκειται για ένα ερώτημα που παραπέμπει σε επιστημονική φαντασία, και το οποίο θέτουν στο εργαστήριό τους στο ΜΙΤ, οι Στιβ Ραμίρεζ και Σου Λου. Ουσιαστικά, οι δύο επιστήμονες ρίχνουν μια ακτίνα λέιζερ στον εγκέφαλο ενός ζωντανού ποντικιού για να ενεργοποιήσουν και να χειραγωγήσουν τη μνήμη του. Σε αυτή την απρόσμενα διασκεδαστική ομιλία, μοιράζονται όχι μόνο το πώς, αλλά -- κυρίως -- το γιατί κάνουν κάτι τέτοιο. (Βιντεοσκοπημένο στο TEDxBoston.)
- Neuroscientist
When Steve Ramirez published his latest study in Science, it caused a media frenzy. Why? Because the paper was on implanting false memories in the brains of mice. Full bio - Neuroscientist
In his groundbreaking work, Xu Liu investigated how to activate and deactivate specific memories in mice. Full bio

Double-click the English transcript below to play the video.

00:12
SteveSteve RamirezRamirez: My first yearέτος of gradGrad schoolσχολείο,
0
371
1556
Στιβ Ραμιρεζ: Στο πρώτο έτος
του μεταπτυχιακού μου,
00:13
I foundβρέθηκαν myselfεγώ ο ίδιος in my bedroomυπνοδωμάτιο
1
1927
2004
βρέθηκα στο δωμάτιό μου
00:15
eatingτρώει lots of BenBen & Jerry'sJerry's
2
3931
2300
να τρώω πολύ παγωτό
00:18
watchingβλέποντας some trashyάχρηστος TVΤΗΛΕΌΡΑΣΗ
3
6231
1684
βλέποντας σκουπίδια στην τηλεόραση
00:19
and maybe, maybe listeningακούγοντας to TaylorTaylor SwiftSWIFT.
4
7915
3227
και ίσως, ακούγοντας Τέιλορ Σουίφτ.
00:23
I had just goneχαμένος throughδιά μέσου a breakupδιάλυση.
5
11142
1741
Είχα μόλις χωρίσει.
00:24
(LaughterΤο γέλιο)
6
12883
1447
(Γέλια)
00:26
So for the longestμακρύτερα time, all I would do
7
14330
2196
Έτσι για μεγάλο διάστημα,
το μόνο που έκανα
00:28
is recallανάκληση the memoryμνήμη of this personπρόσωπο over and over again,
8
16526
3816
ήταν να φέρνω στη μνήμη μου
αυτό το άτομο ξανά και ξανά,
00:32
wishingπου επιθυμούν that I could get ridαπαλλάσσω of that gut-wrenchingέντερο-στρέψει,
9
20342
2493
ελπίζοντας ότι θα μπορούσα
να ξεφορτωθώ αυτό το οδυνηρό,
00:34
visceralσπλαγχνική "blahΜπλα" feelingσυναισθημα.
10
22835
2533
ενστικτώδες, ενοχλητικό συναίσθημα.
00:37
Now, as it turnsστροφές out, I'm a neuroscientistΝευρολόγος,
11
25368
2283
Τελικά, όπως αποδείχθηκε,
είμαι νευροεπιστήμονας,
00:39
so I knewήξερε that the memoryμνήμη of that personπρόσωπο
12
27651
2402
έτσι ήξερα ότι η ανάμνηση
εκείνου του ατόμου
00:42
and the awfulαπαίσιος, emotionalΣυναισθηματική undertonesχαμηλούς τόνους φωνής that colorχρώμα in that memoryμνήμη,
13
30053
3140
και οι απαίσιοι, συναισθηματικοί συνειρμοί
που χρωματίζουν αυτή την ανάμνηση,
00:45
are largelyσε μεγάλο βαθμό mediatedμε τη μεσολάβηση by separateξεχωριστός brainεγκέφαλος systemsσυστήματα.
14
33193
2634
διευθετούνται σε μεγάλο ποσοστό
από ξεχωριστά συστήματα του εγκεφάλου.
00:47
And so I thought, what if we could go into the brainεγκέφαλος
15
35827
2365
Αναρωτήθηκα τι θα γινόταν αν μπορούσαμε
να εισχωρήσουμε στον εγκέφαλο
00:50
and editεπεξεργασία out that nauseatingαηδιαστική feelingσυναισθημα
16
38192
2090
και να αφαιρέσουμε
αυτό το εμετικό συναίσθημα
00:52
but while keepingτήρηση the memoryμνήμη of that personπρόσωπο intactάθικτο?
17
40282
2970
διατηρώντας όμως,
τη μνήμη του ατόμου άθικτη.
00:55
Then I realizedσυνειδητοποίησα, maybe that's a little bitκομμάτι loftyευγενή for now.
18
43252
2411
Τότε συνειδητοποίησα ότι αυτό ίσως
να είναι μεγαλεπήβολο για την ώρα.
00:57
So what if we could startαρχή off by going into the brainεγκέφαλος
19
45663
2793
Τι θα γινόταν αν εισχωρήσουμε
στον εγκέφαλο σε πρώτη φάση
01:00
and just findingεύρεση a singleμονόκλινο memoryμνήμη to beginαρχίζουν with?
20
48456
2633
και απλά να βρούμε μία μόνο ανάμνηση
για να ξεκινήσουμε;
01:03
Could we jump-startάλμα-έναρξη that memoryμνήμη back to life,
21
51089
2514
Θα μπορούσαμε να ξαναζωντανέψουμε
αυτή την ανάμνηση,
01:05
maybe even playπαίζω with the contentsπεριεχόμενα of that memoryμνήμη?
22
53603
3868
ίσως μάλιστα και να παίξουμε
με το περιεχόμενό της;
01:09
All that said, there is one personπρόσωπο in the entireολόκληρος worldκόσμος right now
23
57471
2229
Μετά τα όσα είπα, υπάρχει
ένα άτομο σε όλο τον κόσμο
01:11
that I really hopeελπίδα is not watchingβλέποντας this talk.
24
59700
2055
που ελπίζω να μην παρακολουθεί
αυτή την ομιλία.
01:13
(LaughterΤο γέλιο)
25
61755
3941
(Γέλια)
01:17
So there is a catchσύλληψη. There is a catchσύλληψη.
26
65696
3289
Σίγουρα κάποιο λάκκο θα έχει η φάβα.
01:20
These ideasιδέες probablyπιθανώς remindυπενθυμίζω you of "TotalΣύνολο RecallΑνάκληση,"
27
68985
2788
Αυτές οι ιδέες πιθανόν να θυμίζουν ταινίες
όπως «Ολική Επαναφορά»,
01:23
"EternalΑιώνια SunshineΗλιοφάνεια of the SpotlessΠεντακάθαρα MindΤο μυαλό,"
28
71773
1974
η «Αιώνια Λιακάδα ενός Καθαρού Μυαλού»,
01:25
or of "InceptionΈναρξη."
29
73747
1303
ή το «Ινσέψιον».
01:27
But the movieταινία starsαστέρια that we work with
30
75050
1576
Όμως οι πρωταγωνιστές
με τους οποίους δουλεύουμε εμείς
01:28
are the celebritiesδιασημότητες of the labεργαστήριο.
31
76626
1943
είναι οι διασημότητες του εργαστηρίου.
01:30
XuXu LiuLiu: TestΔοκιμή miceποντίκια.
32
78569
1900
Σου Λου: Ποντίκια εργαστηρίου.
01:32
(LaughterΤο γέλιο)
33
80469
1128
(Γέλια)
01:33
As neuroscientistsνευροεπιστήμονες, we work in the labεργαστήριο with miceποντίκια
34
81597
3154
Ως νευροεπιστήμονες, στο εργαστήριο
δουλεύουμε με ποντίκια
01:36
tryingπροσπαθεί to understandκαταλαβαίνουν how memoryμνήμη worksεργοστάσιο.
35
84751
3410
προσπαθώντας να καταλάβουμε
πώς λειτουργεί η μνήμη.
01:40
And todayσήμερα, we hopeελπίδα to convinceπείθω you that now
36
88161
2569
Σήμερα, ελπίζουμε να σας πείσουμε
ότι τώρα είμαστε σε θέση
01:42
we are actuallyπράγματι ableικανός to activateΕνεργοποίηση a memoryμνήμη in the brainεγκέφαλος
37
90730
3216
να ενεργοποιούμε
μια ανάμνηση στον εγκέφαλο
01:45
at the speedΤαχύτητα of lightφως.
38
93946
2170
με την ταχύτητα του φωτός.
01:48
To do this, there's only two simpleαπλός stepsβήματα to followακολουθηστε.
39
96116
3106
Για να γίνει αυτό, ακολουθούμε
μόνο δύο απλά βήματα.
01:51
First, you find and labelεπιγραφή a memoryμνήμη in the brainεγκέφαλος,
40
99222
3510
Πρώτα, βρίσκουμε και ονομάζουμε
μια ανάμνηση στον εγκέφαλο,
01:54
and then you activateΕνεργοποίηση it with a switchδιακόπτης.
41
102732
3630
και έπειτα την ενεργοποιούμε
με έναν διακόπτη.
01:58
As simpleαπλός as that.
42
106362
1445
Τόσο απλά.
01:59
(LaughterΤο γέλιο)
43
107807
1822
(Γέλια)
02:01
SRSR: Are you convincedπεπεισμένοι?
44
109629
1845
ΣΡ: Σας πείσαμε;
02:03
So, turnsστροφές out findingεύρεση a memoryμνήμη in the brainεγκέφαλος isn't all that easyεύκολος.
45
111474
3721
Απ' ό,τι φαίνεται, δεν είναι τόσο εύκολο
να βρεις μια ανάμνηση στον εγκέφαλο.
02:07
XLXL: IndeedΠράγματι. This is way more difficultδύσκολος than, let's say,
46
115195
2803
ΣΛ: Πράγματι. Είναι πολύ πιο δύσκολο
από το να βρεις ας πούμε,
02:09
findingεύρεση a needleβελόνα in a haystackάχυρα,
47
117998
2404
βελόνα στ' άχυρα,
02:12
because at leastελάχιστα, you know, the needleβελόνα is still something
48
120402
2589
επειδή ξέρεις ότι η βελόνα είναι κάτι
02:14
you can physicallyφυσικώς put your fingersδάχτυλα on.
49
122991
2500
που μπορείς να πιάσεις στα χέρια σου.
02:17
But memoryμνήμη is not.
50
125491
1977
Ενώ η ανάμνηση όχι.
02:19
And alsoεπίσης, there's way more cellsκυττάρων in your brainεγκέφαλος
51
127468
3038
Κι έπειτα, υπάρχουν πολλά περισσότερα
κύτταρα στον εγκέφαλό σου
02:22
than the numberαριθμός of strawsΚαλαμάκια in a typicalτυπικός haystackάχυρα.
52
130506
5066
από τα άχυρα σε έναν συνηθισμένο αχυρώνα.
02:27
So yeah, this taskέργο does seemφαίνομαι to be dauntingαποθαρρυντικό.
53
135572
2879
Οπότε, ναι, το έργο αυτό
μοιάζει αποθαρρυντικό.
02:30
But luckilyευτυχώς, we got help from the brainεγκέφαλος itselfεαυτό.
54
138451
3679
Ευτυχώς όμως,
μας βοήθησε ο ίδιος ο εγκέφαλος.
02:34
It turnedγύρισε out that all we need to do is basicallyβασικα
55
142130
2455
Αποδείχθηκε ότι το μόνο
που χρειαζόταν να κάνουμε ήταν
02:36
to let the brainεγκέφαλος formμορφή a memoryμνήμη,
56
144585
1993
να αφήσουμε τον εγκέφαλο
να σχηματίσει μια ανάμνηση,
02:38
and then the brainεγκέφαλος will tell us whichοι οποίες cellsκυττάρων are involvedεμπλεγμένος
57
146578
3830
και μετά να μας πει
ποια κύτταρα εμπλέκονται
02:42
in that particularιδιαιτερος memoryμνήμη.
58
150408
1766
σε αυτή τη συγκεκριμένη ανάμνηση.
02:44
SRSR: So what was going on in my brainεγκέφαλος
59
152174
2357
ΣΡ: Τι συνέβαινε λοιπόν στον εγκέφαλό μου
02:46
while I was recallingυπενθυμίζοντας the memoryμνήμη of an exπρώην?
60
154531
2094
ενώ ανακαλούσα την ανάμνηση μιας πρώην;
02:48
If you were to just completelyεντελώς ignoreαγνοώ humanο άνθρωπος ethicsδεοντολογία for a secondδεύτερος
61
156625
2402
Αν παραβλέπατε εντελώς την ανθρώπινη ηθική
για ένα δευτερόλεπτο
02:51
and sliceφέτα up my brainεγκέφαλος right now,
62
159027
1668
και τεμαχίζατε τον εγκέφαλό μου
αυτή την στιγμή,
02:52
you would see that there was an amazingφοβερο numberαριθμός
63
160695
2018
θα βλέπατε ότι υπάρχει
ένας απίστευτος αριθμός
02:54
of brainεγκέφαλος regionsπεριοχές that were activeενεργός while recallingυπενθυμίζοντας that memoryμνήμη.
64
162713
3178
από εγκεφαλικές περιοχές που είναι ενεργές
ενώ εγώ ανακαλώ την ανάμνηση.
02:57
Now one brainεγκέφαλος regionπεριοχή that would be robustlyδυναμικά activeενεργός
65
165891
2912
Συγκεκριμένα, μία περιοχή του εγκεφάλου
03:00
in particularιδιαιτερος is calledπου ονομάζεται the hippocampusιππόκαμπος,
66
168803
2007
με ιδιαίτερα έντονη δραστηριότητα
που ονομάζεται ιππόκαμπος,
03:02
whichοι οποίες for decadesδεκαετίες has been implicatedενοχοποιούνται in processingεπεξεργασία
67
170810
2455
και για δεκαετίες εμπλεκόταν
στην επεξεργασία
03:05
the kindsείδη of memoriesαναμνήσεις that we holdΚρατήστε nearκοντά and dearαγαπητός,
68
173265
2416
των αναμνήσεων που θεωρούμε
ως πιο αγαπημένες,
03:07
whichοι οποίες alsoεπίσης makesκάνει it an idealιδανικό targetστόχος to go into
69
175681
2574
τον καθιστά ιδανικό στόχο
για να εισχωρήσουμε
03:10
and to try and find and maybe reactivateΕπανενεργοποίηση a memoryμνήμη.
70
178255
2785
και να προσπαθήσουμε να βρούμε και ίσως
να επανενεργοποιήσοτμε μια ανάμνηση.
03:13
XLXL: When you zoomανίπταμαι διαγωνίως in into the hippocampusιππόκαμπος,
71
181040
2394
ΣΛ: Όταν κάνετε ζουμ στον ιππόκαμπο,
03:15
of courseσειρά μαθημάτων you will see lots of cellsκυττάρων,
72
183434
2348
θα δείτε φυσικά πολλά κύτταρα,
03:17
but we are ableικανός to find whichοι οποίες cellsκυττάρων are involvedεμπλεγμένος
73
185782
3031
όμως εμείς μπορούμε να βρούμε
ποια κύτταρα εμπλέκονται
03:20
in a particularιδιαιτερος memoryμνήμη,
74
188813
1476
σε μια συγκεκριμένη ανάμνηση,
03:22
because wheneverΟποτεδήποτε a cellκύτταρο is activeενεργός,
75
190289
2618
καθώς, κάθε φορά
που ένα κύτταρο είναι ενεργό,
03:24
like when it's formingσχηματίζοντας a memoryμνήμη,
76
192907
1464
όπως όταν σχηματίζει μια ανάμνηση,
03:26
it will alsoεπίσης leaveάδεια a footprintίχνος that will laterαργότερα allowεπιτρέπω us to know
77
194371
3757
θα αφήσει ένα αποτύπωμα
που θα μας επιτρέψει να δούμε
03:30
these cellsκυττάρων are recentlyπρόσφατα activeενεργός.
78
198128
2702
ότι αυτά τα κύτταρα
ενεργοποιήθηκαν πρόσφατα.
03:32
SRSR: So the sameίδιο way that buildingΚτίριο lightsφώτα at night
79
200830
2160
Σ.Ρ: Όταν βλέπουμε τα αναμμένα φώτα
ενός κτιρίου τη νύχτα
03:34
let you know that somebody'sκάποιου probablyπιθανώς workingεργαζόμενος there at any givenδεδομένος momentστιγμή,
80
202990
2948
ξέρουμε ότι κάποιος μάλλον εργάζεται εκεί.
03:37
in a very realπραγματικός senseέννοια, there are biologicalβιολογικός sensorsΑισθητήρες
81
205938
3288
Με τον ίδιο τρόπο,
υπάρχουν βιολογικοί αισθητήρες
03:41
withinστα πλαίσια a cellκύτταρο that are turnedγύρισε on
82
209226
1954
εντός του κυττάρου που ανάβουν
03:43
only when that cellκύτταρο was just workingεργαζόμενος.
83
211180
2135
μόνο όταν το κύτταρο
είχε μόλις δουλέψει.
03:45
They're sortείδος of biologicalβιολογικός windowsπαράθυρα that lightφως up
84
213315
1876
Είναι σαν βιολογικά παράθυρα που φωτίζουν
03:47
to let us know that that cellκύτταρο was just activeενεργός.
85
215191
1978
για να μας αποκαλύψουν
ότι το κύτταρο ήταν μόλις ενεργό.
03:49
XLXL: So we clippedκούρεμα partμέρος of this sensorαισθητήρα,
86
217169
2829
ΣΛ: Αποσπάσαμε λοιπόν
μέρος αυτού του αισθητήρα,
03:51
and attachedσυνημμένο that to a switchδιακόπτης to controlέλεγχος the cellsκυττάρων,
87
219998
3147
και το συνάψαμε σε ένα διακόπτη
για να ελέγχουμε τα κύτταρα.
03:55
and we packedσυσκευασμένα this switchδιακόπτης into an engineeredμηχανικής virusιός
88
223145
3900
Μετά, ενσωματώσαμε αυτόν τον διακόπτη
σε έναν κατασκευασμένο ιό
03:59
and injectedεγχύθηκε that into the brainεγκέφαλος of the miceποντίκια.
89
227045
2588
και το χορηγήσαμε
στον εγκέφαλο των ποντικιών.
04:01
So wheneverΟποτεδήποτε a memoryμνήμη is beingνα εισαι formedσχηματίστηκε,
90
229633
2634
Κάθε φορά που θα σχηματιζόταν μια ανάμνηση,
04:04
any activeενεργός cellsκυττάρων for that memoryμνήμη
91
232267
2348
όλα τα ενεργά κύτταρα
για την ανάμνηση αυτή
04:06
will alsoεπίσης have this switchδιακόπτης installedεγκατασταθεί.
92
234615
2742
θα είχαν επίσης αυτόν
τον διακόπτη εγκατεστημένο.
04:09
SRSR: So here is what the hippocampusιππόκαμπος looksφαίνεται like
93
237357
1625
ΣΡ: Ορίστε λοιπόν
πώς είναι ο ιππόκαμπος
04:10
after formingσχηματίζοντας a fearφόβος memoryμνήμη, for exampleπαράδειγμα.
94
238982
2840
αφού σχηματίσει για παράδειγμα,
μια ανάμνηση φόβου.
04:13
The seaθάλασσα of blueμπλε that you see here
95
241822
2140
Η μπλε θάλασσα που βλέπετε εδώ
04:15
are denselyπυκνά packedσυσκευασμένα brainεγκέφαλος cellsκυττάρων,
96
243962
1952
είναι συμπυκνωμένα εγκεφαλικά κύτταρα,
04:17
but the greenπράσινος brainεγκέφαλος cellsκυττάρων,
97
245914
1545
ενώ τα πράσινα εγκεφαλικά κύτταρα,
04:19
the greenπράσινος brainεγκέφαλος cellsκυττάρων are the onesαυτές that are holdingκράτημα on
98
247459
2096
είναι εκείνα που συγκρατούν
04:21
to a specificειδικός fearφόβος memoryμνήμη.
99
249555
1843
μια συγκεκριμένη ανάμνηση φόβου.
04:23
So you are looking at the crystallizationαποκρυστάλλωση
100
251398
1979
Βλέπετε λοιπόν την αποκρυστάλλωση
04:25
of the fleetingφευγαλέα formationσχηματισμός of fearφόβος.
101
253377
2387
της παροδικής δημιουργίας του φόβου.
04:27
You're actuallyπράγματι looking at the cross-sectionδιατομή of a memoryμνήμη right now.
102
255764
3497
Αυτή τη στιγμή, βλέπετε
την εγκάρσια τομή μιας ανάμνησης.
04:31
XLXL: Now, for the switchδιακόπτης we have been talkingομιλία about,
103
259261
2408
ΣΛ: Τώρα, όσον αφορά
τον διακόπτη που λέγαμε,
04:33
ideallyιδανικά, the switchδιακόπτης has to actενεργω really fastγρήγορα.
104
261669
2970
ιδανικά, πρέπει να ενεργήσει πολύ γρήγορα.
04:36
It shouldn'tδεν θα έπρεπε take minutesλεπτά or hoursώρες to work.
105
264639
2579
Δεν θα έπρεπε να χρειάζεται
λεπτά ή ώρες για να δουλέψει.
04:39
It should actενεργω at the speedΤαχύτητα of the brainεγκέφαλος, in millisecondsχιλιοστά του δευτερολέπτου.
106
267218
4264
Θα πρέπει να δράσει με την ταχύτητα του
εγκεφάλου, σε χιλιοστά του δευτερολέπτου.
04:43
SRSR: So what do you think, XuXu?
107
271482
1430
ΣΠ: Οπότε τι λες, Σου;
04:44
Could we use, let's say, pharmacologicalφαρμακολογικός drugsφάρμακα
108
272912
2602
Θα μπορούσαμε να χρησιμοποιήσουμε
φαρμακευτικές ουσίες
04:47
to activateΕνεργοποίηση or inactivateαδρανοποιούν brainεγκέφαλος cellsκυττάρων?
109
275514
1838
για να ενεργοποιήσουμε ή να
απενεργοποιήσουμε εγκεφαλικά κύτταρα;
04:49
XLXL: NahHa.. DrugsΦάρμακα are prettyαρκετά messyακατάστατος. They spreadδιάδοση everywhereπαντού.
110
277352
4063
ΣΛ: Μπα. Τα φάρμακα είναι δύσκολο
να τα διαχειριστείς. Πάνε παντού.
04:53
And alsoεπίσης it takes them foreverγια πάντα to actενεργω on cellsκυττάρων.
111
281415
3008
Επιπλέον καθυστερεί απίστευτα
η δράση τους στα κύτταρα.
04:56
So it will not allowεπιτρέπω us to controlέλεγχος a memoryμνήμη in realπραγματικός time.
112
284423
3649
Έτσι δε θα μας επιτρέψουν να ελέγξουμε
μια ανάμνηση σε πραγματικό χρόνο.
05:00
So SteveSteve, how about let's zapZAP the brainεγκέφαλος with electricityηλεκτρική ενέργεια?
113
288072
4294
Στιβ, τι θα έλεγες να χτυπήσουμε
τον εγκέφαλο με ηλεκτρικό ρεύμα;
05:04
SRSR: So electricityηλεκτρική ενέργεια is prettyαρκετά fastγρήγορα,
114
292366
2305
ΣΡ: Ο ηλεκτρισμός είναι αρκετά γρήγορος,
05:06
but we probablyπιθανώς wouldn'tδεν θα ήταν be ableικανός to targetστόχος it
115
294671
1739
όμως μάλλον δεν θα μπορούσαμε
να τον διοχετεύσουμε στοχευμένα
05:08
to just the specificειδικός cellsκυττάρων that holdΚρατήστε ontoεπάνω σε a memoryμνήμη,
116
296410
2354
στα συγκεκριμένα μόνο κύτταρα
που συγκρατούν μια ανάμνηση,
05:10
and we'dνυμφεύω probablyπιθανώς fryμαρίδα the brainεγκέφαλος.
117
298764
1878
και πιθανόν θα ψήναμε τον εγκέφαλο.
05:12
XLXL: Oh. That's trueαληθής. So it looksφαίνεται like, hmmΧμμ,
118
300642
3195
ΣΛ: Ωχ, αυτό είναι αλήθεια.
Άρα λοιπόν φαίνεται πως
05:15
indeedπράγματι we need to find a better way
119
303837
2611
όντως χρειάζεται να βρούμε
έναν καλύτερο τρόπο
05:18
to impactεπίπτωση the brainεγκέφαλος at the speedΤαχύτητα of lightφως.
120
306448
3295
να επιδράσουμε στον εγκέφαλο
με την ταχύτητα του φωτός.
05:21
SRSR: So it just so happensσυμβαίνει that lightφως travelsταξίδια at the speedΤαχύτητα of lightφως.
121
309743
5086
ΣΡ:Το φως όμως, ταξιδεύει
με την ταχύτητα του φωτός.
05:26
So maybe we could activateΕνεργοποίηση or inactiveανενεργό memoriesαναμνήσεις
122
314829
3483
Ίσως να μπορούσαμε να ενεργοποιήσουμε
ή να απενεργοποιήσουμε αναμνήσεις
05:30
by just usingχρησιμοποιώντας lightφως --
123
318312
1497
χρησιμοποιώντας απλά το φως--
05:31
XLXL: That's prettyαρκετά fastγρήγορα.
124
319809
1355
ΣΛ: Που είναι αρκετά γρήγορο.
05:33
SRSR: -- and because normallyκανονικά brainεγκέφαλος cellsκυττάρων
125
321164
1885
ΣΡ: -- και επειδή δεν ανταποκρίνονται όλα
05:35
don't respondαπαντώ to pulsesόσπρια of lightφως,
126
323049
1588
τα εγκεφαλικά κύτταρα στο παλμικό φώς,
05:36
so those that would respondαπαντώ to pulsesόσπρια of lightφως
127
324637
1958
όσα ανταποκρίνονταν στο παλμικό φως
05:38
are those that containπεριέχω a light-sensitiveελαφρύ-ευαίσθητα switchδιακόπτης.
128
326595
2464
θα περιείχαν έναν φωτοευαίσθητο διακόπτη.
05:41
Now to do that, first we need to trickτέχνασμα brainεγκέφαλος cellsκυττάρων
129
329059
1946
Για να γίνει αυτό, πρώτα χρειάζεται
να ξεγελάσουμε τα εγκεφαλικά κύτταρα
05:43
to respondαπαντώ to laserλέιζερ beamsδοκάρια.
130
331005
1462
ώστε να ανταποκρίνονται σε ακτίνες λέιζερ.
05:44
XLXL: YepΝαι. You heardακούσει it right.
131
332467
1070
ΣΛ: Κι όμως, καλά ακούσατε.
05:45
We are tryingπροσπαθεί to shootβλαστός lasersλέιζερ into the brainεγκέφαλος.
132
333537
2132
Προσπαθούμε να χτυπήσουμε
με λέιζερ τον εγκέφαλο.
05:47
(LaughterΤο γέλιο)
133
335669
1745
(Γέλια)
05:49
SRSR: And the techniqueτεχνική that letsεπιτρέπει us do that is optogeneticsoptogenetics.
134
337414
3324
Σ.Ρ: Και η τεχνική που μας επιτρέπει
κάτι τέτοιο είναι η οπτογενετική.
05:52
OptogeneticsOptogenetics gaveέδωσε us this lightφως switchδιακόπτης that we can use
135
340738
3282
Η οπτογενετική μας έδωσε
αυτόν τον διακόπτη φωτός
05:56
to turnστροφή brainεγκέφαλος cellsκυττάρων on or off,
136
344020
1508
για να ανάβουμε ή να σβήνουμε
εγκεφαλικά κύτταρα.
05:57
and the nameόνομα of that switchδιακόπτης is channelrhodopsinchannelrhodopsin,
137
345528
2517
Το όνομα αυτού του διακόπτη
είναι καναλοροδοψίνη,
06:00
seenείδα here as these greenπράσινος dotsκουκκίδες attachedσυνημμένο to this brainεγκέφαλος cellκύτταρο.
138
348045
2537
τη βλέπουμε εδώ ως πράσινες κουκκίδες
συνδεδεμένες με το εγκεφαλικό κύτταρο.
06:02
You can think of channelrhodopsinchannelrhodopsin as a sortείδος of light-sensitiveελαφρύ-ευαίσθητα switchδιακόπτης
139
350582
3299
Μπορείτε να φανταστείτε την καναλοροδοψίνη
ως ένα είδος φωτοευαίσθητου διακόπτη
06:05
that can be artificiallyτεχνητά installedεγκατασταθεί in brainεγκέφαλος cellsκυττάρων
140
353881
2627
που μπορεί να τοποθετηθεί
τεχνητά στα εγκεφαλικά κύτταρα
06:08
so that now we can use that switchδιακόπτης
141
356508
1914
ώστε να μπορούμε με αυτόν τον διακόπτη
06:10
to activateΕνεργοποίηση or inactivateαδρανοποιούν the brainεγκέφαλος cellκύτταρο simplyαπλά by clickingκάνοντας κλικ it,
142
358422
3013
να ενεργοποιούμε ή να απενεργοποιούμε
το εγκεφαλικό κύτταρο, απλά πατώντας τον.
06:13
and in this caseπερίπτωση we clickΚάντε κλικ it on with pulsesόσπρια of lightφως.
143
361435
2468
Στην περίπτωση αυτή
τον ανοίγουμε με παλμικό φως.
06:15
XLXL: So we attachσυνδέω this light-sensitiveελαφρύ-ευαίσθητα switchδιακόπτης of channelrhodopsinchannelrhodopsin
144
363903
3786
ΣΛ: Έτσι λοιπόν συνδέουμε αυτόν τον
φωτοευαίσθητο διακόπτη καναλοροδοψίνης
06:19
to the sensorαισθητήρα we'veέχουμε been talkingομιλία about
145
367689
2208
με τον αισθητήρα που λέγαμε
06:21
and injectκάνω ένεση this into the brainεγκέφαλος.
146
369897
2455
και τους εγχέουμε μέσα στον εγκέφαλο.
06:24
So wheneverΟποτεδήποτε a memoryμνήμη is beingνα εισαι formedσχηματίστηκε,
147
372352
3211
Έτσι κάθε φορά που σχηματίζεται
μια ανάμνηση,
06:27
any activeενεργός cellκύτταρο for that particularιδιαιτερος memoryμνήμη
148
375563
2227
οποιοδήποτε ενεργό κύτταρο
για τη συγκεκριμένη ανάμνηση
06:29
will alsoεπίσης have this light-sensitiveελαφρύ-ευαίσθητα switchδιακόπτης installedεγκατασταθεί in it
149
377790
3484
θα έχει επίσης τον φωτοευαίσθητο
διακόπτη εγκατεστημένο μέσα του
06:33
so that we can controlέλεγχος these cellsκυττάρων
150
381274
2401
ώστε να μπορούμε να ελέγξουμε
αυτά τα κύτταρα
06:35
by the flippingρίχνεις of a laserλέιζερ just like this one you see.
151
383675
4264
αναβοσβήνοντας τα με ένα λέιζερ
ακριβώς σαν αυτό που βλέπετε.
06:39
SRSR: So let's put all of this to the testδοκιμή now.
152
387939
2864
ΣΡ: Ας εφαρμόσουμε λοιπόν
όλα τα παραπάνω στο πείραμα.
06:42
What we can do is we can take our miceποντίκια
153
390803
2135
Παίρνουμε τα ποντίκια μας
και να τα βάζουμε
06:44
and then we can put them in a boxκουτί that looksφαίνεται exactlyακριβώς like this boxκουτί here,
154
392938
2928
μέσα σε ένα κουτί,
ακριβώς σαν αυτό εδώ,
06:47
and then we can give them a very mildήπιος footπόδι shockσοκ
155
395866
2340
και μετά να τα υποβάλλουμε
σε ήπιο ηλεκτροσόκ στα πόδια
06:50
so that they formμορφή a fearφόβος memoryμνήμη of this boxκουτί.
156
398206
2035
ώστε να σχηματίσουν μια
ανάμνηση φόβου για το κουτί.
06:52
They learnμαθαίνω that something badκακό happenedσυνέβη here.
157
400241
1979
Μαθαίνουν πως κάτι κακό συνέβη εκεί.
06:54
Now with our systemΣύστημα, the cellsκυττάρων that are activeενεργός
158
402220
2342
Τώρα, τα κύτταρα που είναι ενεργά
06:56
in the hippocampusιππόκαμπος in the makingκατασκευή of this memoryμνήμη,
159
404562
2931
στον ιππόκαμπο κατά τον σχηματισμό
αυτής της ανάμνησης,
06:59
only those cellsκυττάρων will now containπεριέχω channelrhodopsinchannelrhodopsin.
160
407493
2883
μόνο αυτά τα κύτταρα,
θα περιέχουν καναλοροδοψίνη.
07:02
XLXL: When you are as smallμικρό as a mouseποντίκι,
161
410376
3017
ΣΛ: Όταν είσαι μικρός σαν ποντίκι,
07:05
it feelsαισθάνεται as if the wholeολόκληρος worldκόσμος is tryingπροσπαθεί to get you.
162
413393
3595
έχεις την αίσθηση ότι όλος ο κόσμος
προσπαθεί να σε πιάσει.
07:08
So your bestκαλύτερος responseαπάντηση of defenseάμυνα
163
416988
1748
Έτσι η καλύτερη αμυντική στάση
07:10
is tryingπροσπαθεί to be undetectedαπαρατήρητα.
164
418736
2482
είναι να προσπαθήσεις
να περάσεις απαρατήρητος.
07:13
WheneverΚάθε φορά που a mouseποντίκι is in fearφόβος,
165
421218
2033
Κάθε φορά που ένα ποντίκι φοβάται,
07:15
it will showπροβολή this very typicalτυπικός behaviorη ΣΥΜΠΕΡΙΦΟΡΑ
166
423251
1526
θα εμφανίσει
μια πολύ χαρακτηριστική συμπεριφορά:
07:16
by stayingδιαμονή at one cornerγωνία of the boxκουτί,
167
424777
1769
Θα μείνει στη μια γωνία του κουτιού,
07:18
tryingπροσπαθεί to not moveκίνηση any partμέρος of its bodyσώμα,
168
426546
3118
προσπαθώντας να μην κουνήσει
κανένα μέλος του σώματός του.
07:21
and this postureσταση του ΣΩΜΑΤΟΣ is calledπου ονομάζεται freezingκατάψυξη.
169
429664
3295
Η στάση αυτή ονομάζεται πάγωμα.
07:24
So if a mouseποντίκι remembersθυμάται that something badκακό happenedσυνέβη in this boxκουτί,
170
432959
4294
Έτσι αν ένα ποντίκι θυμάται ότι κάτι κακό
συνέβη σε αυτό το κουτί,
07:29
and when we put them back into the sameίδιο boxκουτί,
171
437253
2623
όταν το ξαναβάλουμε στο ίδιο κουτί,
07:31
it will basicallyβασικα showπροβολή freezingκατάψυξη
172
439876
1804
βασικά θα παγώσει
07:33
because it doesn't want to be detectedΕντοπίστηκε
173
441680
2285
επειδή θέλει να περάσει απαρατήρητο
07:35
by any potentialδυνητικός threatsαπειλές in this boxκουτί.
174
443965
2695
από οποιαδήποτε πιθανή απειλή
σε αυτό το κουτί.
07:38
SRSR: So you can think of freezingκατάψυξη as,
175
446660
1355
ΣΡ: Μπορείτε να φανταστείτε
το πάγωμα σαν την περίπτωση
07:40
you're walkingτο περπάτημα down the streetδρόμος mindingφύλαξη των παιδιών your ownτα δικά businessεπιχείρηση,
176
448015
2215
που περπατάτε στο δρόμο,
07:42
and then out of nowhereπουθενά you almostσχεδόν runτρέξιμο into
177
450230
1725
και από το πουθενά συναντάτε
07:43
an ex-girlfriendπρώην-φίλη or ex-boyfriendπρώην-φίλος,
178
451955
2192
μια πρώην ή έναν πρώην,
07:46
and now those terrifyingφοβερός two secondsδευτερολέπτων
179
454147
2134
και εκείνα τα τρομακτικά δύο δευτερόλεπτα
07:48
where you startαρχή thinkingσκέψη, "What do I do? Do I say hiγεια?
180
456281
1876
σκέφτεστε, «Τι κάνω τώρα; Χαιρετάω;
07:50
Do I shakeσέικ theirδικα τους handχέρι? Do I turnστροφή around and runτρέξιμο away?
181
458157
1368
Κάνω χειραψία; Φεύγω τρέχοντας;
07:51
Do I sitκαθίζω here and pretendπροσποιούμαι like I don't existυπάρχει?"
182
459525
2029
Κάνω ότι δεν υπάρχω;»
07:53
Those kindsείδη of fleetingφευγαλέα thoughtsσκέψεις that physicallyφυσικώς incapacitateεξουδετέρωση you,
183
461554
3184
Αυτού του είδους οι σκέψεις που
σας καθιστούν σωματικά ανίκανο,
07:56
that temporarilyπροσωρινά give you that deer-in-headlightsελάφια-σε-προβολείς look.
184
464738
2746
και σας δίνουν το ύφος του ελαφιού
που κοκαλώνει μπροστά σε προβολείς.
07:59
XLXL: HoweverΩστόσο, if you put the mouseποντίκι in a completelyεντελώς differentδιαφορετικός
185
467484
3291
ΣΛ: Ωστόσο, αν βάλουμε το ποντίκι
σε ένα εντελώς διαφορετικό
08:02
newνέος boxκουτί, like the nextεπόμενος one,
186
470775
3161
καινούριο κουτί, όπως το επόμενο,
08:05
it will not be afraidφοβισμένος of this boxκουτί
187
473936
2147
δε θα φοβηθεί επειδή δεν υπάρχει
08:08
because there's no reasonλόγος that it will be afraidφοβισμένος of this newνέος environmentπεριβάλλον.
188
476083
4729
λόγος να φοβηθεί
αυτό το καινούριο περιβάλλον.
08:12
But what if we put the mouseποντίκι in this newνέος boxκουτί
189
480812
3180
Όμως τι θα συνέβαινε αν βάζαμε
το ποντίκι στο καινούριο κουτί
08:15
but at the sameίδιο time, we activateΕνεργοποίηση the fearφόβος memoryμνήμη
190
483992
3611
αλλά ταυτόχρονα ενεργοποιήσουμε
την ανάμνηση φόβου
08:19
usingχρησιμοποιώντας lasersλέιζερ just like we did before?
191
487603
2679
χρησιμοποιώντας λέιζερ όπως κάναμε πριν;
08:22
Are we going to bringνα φερεις back the fearφόβος memoryμνήμη
192
490282
2854
Θα επαναφέρουμε την ανάμνηση φόβου
08:25
for the first boxκουτί into this completelyεντελώς newνέος environmentπεριβάλλον?
193
493136
3997
για το πρώτο κουτί σε αυτό
το εντελώς καινούριο περιβάλλον;
08:29
SRSR: All right, and here'sεδώ είναι the million-dollarεκατομμύρια δολάρια experimentπείραμα.
194
497133
2735
ΣΡ: Ορίστε και το πείραμα του
ενός εκατομμυρίου δολλαρίων.
08:31
Now to bringνα φερεις back to life the memoryμνήμη of that day,
195
499868
2913
Ας ζωντανέψουμε την ανάμνηση
εκείνης της μέρας.
08:34
I rememberθυμάμαι that the RedΚόκκινο SoxSox had just wonΚέρδισε,
196
502781
2183
Θυμάμαι ότι οι Ρέντ Σοξ
είχαν μόλις κερδίσει,
08:36
it was a greenπράσινος springάνοιξη day,
197
504964
1909
ήταν μια πράσινη ανοιξιάτικη μέρα,
08:38
perfectτέλειος for going up and down the riverποτάμι
198
506873
1817
ιδανική για να κάνεις βόλτα στο ποτάμι
08:40
and then maybe going to the NorthΒόρεια EndΤέλος
199
508690
2334
κι έπειτα να πας ίσως στο Νόρθ Έντ
08:43
to get some cannolisλήψη cannolis, #justsayingjustsaying.
200
511024
2160
για να φας μπουρεκάκια.
08:45
Now XuXu and I, on the other handχέρι,
201
513184
3102
Ο Σου κι εγώ, από την άλλη,
08:48
were in a completelyεντελώς windowlessμη παραθυρικό blackμαύρος roomδωμάτιο
202
516286
2829
ήμασταν σε ένα σκότεινο δωμάτιο
χωρίς ούτε ένα παράθυρο
08:51
not makingκατασκευή any ocularοφθαλμική movementκίνηση that even remotelyεξ αποστάσεως resemblesμοιάζει an eyeμάτι blinkαναβοσβήνω
203
519115
3661
δίχως να ανοιγοκλείνουμε
καν τα μάτια μας
08:54
because our eyesμάτια were fixedσταθερός ontoεπάνω σε a computerυπολογιστή screenοθόνη.
204
522776
2466
καθώς ήταν προσηλωμένα
στην οθόνη του υπολογιστή.
08:57
We were looking at this mouseποντίκι here tryingπροσπαθεί to activateΕνεργοποίηση a memoryμνήμη
205
525242
2556
Κοιτάζαμε αυτό εδώ το ποντίκι προσπαθώντας
να ενεργοποιήσουμε μια ανάμνηση
08:59
for the first time usingχρησιμοποιώντας our techniqueτεχνική.
206
527798
1883
χρησιμοποιώντας για πρώτη φορά
την τεχνική μας.
09:01
XLXL: And this is what we saw.
207
529681
2688
ΣΛ: Και ορίστε τι είδαμε.
09:04
When we first put the mouseποντίκι into this boxκουτί,
208
532369
2202
Όταν πρωτοβάλουμε το ποντίκι
σε αυτό το κουτί,
09:06
it's exploringεξερευνώντας, sniffingεισπνοή around, walkingτο περπάτημα around,
209
534571
3113
αυτό εξερευνά, οσφραίνεται
τον γύρω χώρο, τριγυρίζει,
09:09
mindingφύλαξη των παιδιών its ownτα δικά businessεπιχείρηση,
210
537684
1689
κοιτώντας τη δουλειά του,
09:11
because actuallyπράγματι by natureφύση,
211
539373
1701
επειδή από τη φύση τους,
09:13
miceποντίκια are prettyαρκετά curiousπερίεργος animalsτων ζώων.
212
541074
1979
τα ποντίκια είναι αρκετά περίεργα ζώα.
09:15
They want to know, what's going on in this newνέος boxκουτί?
213
543053
2622
Θέλουν να ξέρουν, τι συμβαίνει
σε αυτό το καινούριο κουτί;
09:17
It's interestingενδιαφέρων.
214
545675
1531
Είναι ενδιαφέρον.
09:19
But the momentστιγμή we turnedγύρισε on the laserλέιζερ, like you see now,
215
547206
3451
Αλλά μόλις ανοίξαμε το λέιζερ,
όπως βλέπετε τώρα,
09:22
all of a suddenαιφνίδιος the mouseποντίκι enteredεισήχθη this freezingκατάψυξη modeτρόπος.
216
550657
3032
ξαφνικά το ποντίκι πάγωσε.
09:25
It stayedέμεινε here and triedδοκιμασμένος not to moveκίνηση any partμέρος of its bodyσώμα.
217
553689
4431
Έμεινε εδώ και προσπάθησε να μην κινεί
κάνενα μέλος του σώματός του.
09:30
ClearlyΣαφώς it's freezingκατάψυξη.
218
558120
1628
Κοκάλωσε.
09:31
So indeedπράγματι, it looksφαίνεται like we are ableικανός to bringνα φερεις back
219
559748
2583
Φαίνεται λοιπόν, πως είμαστε
σε θέση να επαναφέρουμε
09:34
the fearφόβος memoryμνήμη for the first boxκουτί
220
562331
2064
την ανάμνηση φόβου για το πρώτο κουτί
09:36
in this completelyεντελώς newνέος environmentπεριβάλλον.
221
564395
3367
σε αυτό το εντελώς καινούριο περιβάλλον.
09:39
While watchingβλέποντας this, SteveSteve and I
222
567762
2112
Ενώ το βλέπαμε, ο Στίβ κι εγώ
09:41
are as shockedσοκαρισμένος as the mouseποντίκι itselfεαυτό.
223
569874
2133
ήμασταν το ίδιο σοκαρισμένοι με το ποντίκι.
09:44
(LaughterΤο γέλιο)
224
572007
1262
(Γέλια)
09:45
So after the experimentπείραμα, the two of us just left the roomδωμάτιο
225
573269
3307
Έτσι μετά το πείραμα,
βγήκαμε από το δωμάτιο
09:48
withoutχωρίς sayingρητό anything.
226
576576
1753
χωρίς να πούμε τίποτα.
09:50
After a kindείδος of long, awkwardαμήχανη periodπερίοδος of time,
227
578329
3396
Μετά από ένα μάλλον μεγάλο,
χρονικό διάστημα,
09:53
SteveSteve brokeέσπασε the silenceσιωπή.
228
581725
2212
ο Στιβ έσπασε τη σιωπή.
09:55
SRSR: "Did that just work?"
229
583937
2341
ΣΡ: Δούλεψε η είναι ιδέα μου;
09:58
XLXL: "Yes," I said. "IndeedΠράγματι it workedεργάστηκε!"
230
586278
2974
ΣΛ: Ναι, είπα. Πράγματι δούλεψε!
10:01
We're really excitedερεθισμένος about this.
231
589252
2117
Ήμασταν πραγματικά
ενθουσιασμένοι με αυτό.
10:03
And then we publishedδημοσίευσε our findingsευρήματα
232
591369
2624
Έπειτα δημοσιεύσαμε τα ευρήματά μας
10:05
in the journalεφημερίδα NatureΦύση.
233
593993
1696
στο περιοδικό Nature.
10:07
Ever sinceΑπό the publicationδημοσίευση of our work,
234
595689
2471
Από τη δημοσίευση
της δουλειάς μας και μετά,
10:10
we'veέχουμε been receivingλήψη numerousπολυάριθμος commentsσχόλια
235
598160
2415
έχουμε λάβει άπειρα σχόλια
10:12
from all over the InternetΣτο διαδίκτυο.
236
600575
2125
από όλο το διαδίκτυο.
10:14
Maybe we can take a look at some of those.
237
602700
3750
Ας ρίξουμε μια ματιά σε κάποια από αυτά.
10:18
["OMGGGGGOMGGGGG FINALLYΤΈΛΟΣ... so much more to come, virtualεικονικός realityπραγματικότητα, neuralνευρικός manipulationχειρισμός, visualοπτικός dreamόνειρο emulationάμιλλα... neuralνευρικός codingκωδικοποίηση, 'writing«Γράφοντας and re-writingεπανεγγραφή of memories'μνήμες, mentalδιανοητικός illnessesασθένειες. AhhhAhhh the futureμελλοντικός is awesomeφοβερός"]
238
606450
2457
[«ΘΕΕ ΜΟΥ ΕΠΙΤΕΛΟΥΣ...τι άλλο να περιμένουμε, εικονική πραγματικότητα, νευρωνικός χειρισμός, οπτική εξομοίωση ονείρων... νευρωνικοί κώδικες, 'εγγραφή και επανεγγραφή αναμνήσεων', ψυχασθένειες. Ω, το μέλλον είναι φανταστικό»]
10:20
SRSR: So the first thing that you'llθα το κάνετε noticeειδοποίηση is that people
239
608907
2000
ΣΡ: Έτσι το πρώτο πράγμα που
θα παρατηρήσετε είναι ότι οι άνθρωποι
10:22
have really strongισχυρός opinionsγνώμες about this kindείδος of work.
240
610907
2903
έχουν πολύ δυνατές απόψεις
για αυτού του είδους τη δουλειά.
10:25
Now I happenσυμβεί to completelyεντελώς agreeσυμφωνώ with the optimismαισιοδοξία
241
613810
2554
Τυχαίνει να συμφωνώ απόλυτα
με την αισιοδοξία
10:28
of this first quoteπαραθέτω, αναφορά,
242
616364
816
του πρώτου αποσπάσματος,
10:29
because on a scaleκλίμακα of zeroμηδέν to MorganMorgan Freeman'sΦρίμαν voiceφωνή,
243
617180
2808
επειδή σε μια κλίμακα από το μηδέν
μέχρι τη φωνή του Μόργκαν Φρίμαν,
10:31
it happensσυμβαίνει to be one of the mostπλέον evocativeυποβλητική accoladesεπευφημίες
244
619988
2123
τυχαίνει να είναι
από τους πιο υποβλητικούς επαίνους
10:34
that I've heardακούσει come our way.
245
622111
1550
που έχουν φτάσει στα αυτιά μας.
10:35
(LaughterΤο γέλιο)
246
623661
2196
(Γέλια)
10:37
But as you'llθα το κάνετε see, it's not the only opinionγνώμη that's out there.
247
625857
1951
Αλλά όπως θα δείτε, δεν είναι
η μοναδική άποψη που κυκλοφορεί.
10:39
["This scaresφοβίζει the hellκόλαση out of me... What if they could do that easilyεύκολα in humansτου ανθρώπου in a coupleζευγάρι of yearsχρόνια?! OH MY GOD WE'RE DOOMEDΚΑΤΑΔΙΚΑΣΜΈΝΗ"]
248
627808
1564
[«Με κατατρομάζει... Τι θα γινόταν αν μπορούσαν να το κάνουν εύκολα σε ανθρώπους σε μερικά χρόνια;! Ω ΘΕΕ ΜΟΥ ΕΙΜΑΣΤΕ ΚΑΤΑΔΙΚΑΣΜΕΝΟΙ»]
10:41
XLXL: IndeedΠράγματι, if we take a look at the secondδεύτερος one,
249
629372
1918
ΣΛ: Πράγματι, αν κοιτάξουμε το δεύτερο,
10:43
I think we can all agreeσυμφωνώ that it's, mehmeh,
250
631290
2107
νομίζω ότι μπορούμε όλοι
να συμφωνήσουμε ότι,
10:45
probablyπιθανώς not as positiveθετικός.
251
633397
2375
δεν είναι και τόσο θετικό.
10:47
But this alsoεπίσης remindsυπενθυμίζει us that,
252
635772
2185
Όμως αυτό επίσης μας θυμίζει ότι,
10:49
althoughαν και we are still workingεργαζόμενος with miceποντίκια,
253
637957
2186
παρ'όλο που ακόμα δουλεύουμε με ποντίκια,
10:52
it's probablyπιθανώς a good ideaιδέα to startαρχή thinkingσκέψη and discussingσυζητώντας
254
640143
3517
είναι μάλλον καλή ιδέα να αρχίσουμε
να σκεφτόμαστε και να συζητάμε
10:55
about the possibleδυνατόν ethicalηθικά ramificationsδιακλαδώσεις
255
643660
2991
τις πιθανές ηθικές επιπτώσεις
10:58
of memoryμνήμη controlέλεγχος.
256
646651
1948
του ελέγχου μνήμης.
11:00
SRSR: Now, in the spiritπνεύμα of the thirdτρίτος quoteπαραθέτω, αναφορά,
257
648599
2200
ΣΡ: Τώρα, στο πνεύμα
του τρίτου αποσπάσματος,
11:02
we want to tell you about a recentπρόσφατος projectέργο that we'veέχουμε been
258
650799
1974
θέλουμε να σας μιλήσουμε
για μια πρόσφατη εργασία που
11:04
workingεργαζόμενος on in labεργαστήριο that we'veέχουμε calledπου ονομάζεται ProjectΤο έργο InceptionΈναρξη.
259
652773
2428
δουλεύουμε στο εργαστήριο και
που ονομάσαμε «Σχέδιο Ινσέψιον».
11:07
["They should make a movieταινία about this. Where they plantφυτό ideasιδέες into peoplesλαών mindsμυαλά, so they can controlέλεγχος them for theirδικα τους ownτα δικά personalπροσωπικός gainκέρδος. We'llΕμείς θα call it: InceptionΈναρξη."]
260
655201
3243
[«Θα'πρεπε να κάνουν ταινία γι' αυτό. Θα εμφυτεύουν ιδέες στο μυαλό των ανθρώπων, για να τους ελέγχουν για προσωπικό τους όφελος. Θα την ονομάσουμε: Inception.»]
11:10
So we reasonedαιτιολογημένη that now that we can reactivateΕπανενεργοποίηση a memoryμνήμη,
261
658444
3734
Έτσι καταλήξαμε να μπορούμε
να επανενεργοποιήσουμε μια ανάμνηση.
11:14
what if we do so but then beginαρχίζουν to tinkerγανωματής with that memoryμνήμη?
262
662178
2952
Tι θα γινόταν αν μετά αρχίζαμε
να παίζουμε με αυτή την ανάμνηση;
11:17
Could we possiblyπιθανώς even turnστροφή it into a falseψευδής memoryμνήμη?
263
665130
3033
Θα μπορούσαμε ίσως να την μετατρέψουμε
σε ψεύτικη ανάμνηση;
11:20
XLXL: So all memoryμνήμη is sophisticatedεκλεπτυσμένο and dynamicδυναμικός,
264
668163
4099
ΣΛ: Η μνήμη στο σύνολό της
είναι πολύπλοκη και δυναμική,
11:24
but if just for simplicityαπλότητα, let's imagineφαντάζομαι memoryμνήμη
265
672262
2979
αλλά για λόγους απλότητας,
ας φανταστουμε τη μνήμη
11:27
as a movieταινία clipσυνδετήρας.
266
675241
1402
σαν ένα βίντεο κλιπ.
11:28
So farμακριά what we'veέχουμε told you is basicallyβασικα we can controlέλεγχος
267
676643
2670
Μέχρι τώρα σας είπαμε
ότι μπορούμε να ελέγξουμε
11:31
this "playπαίζω" buttonκουμπί of the clipσυνδετήρας
268
679313
1931
το κουμπί «παίξε» του βίντεο κλιπ.
11:33
so that we can playπαίζω this videoβίντεο clipσυνδετήρας any time, anywhereοπουδήποτε.
269
681244
4585
Μπορούμε να το παίξουμε
ανά πάσα στιγμή, οπουδήποτε.
11:37
But is there a possibilityδυνατότητα that we can actuallyπράγματι get
270
685829
2531
Μπορούμε,όμως, πραγματικά να μπούμε
11:40
insideμέσα the brainεγκέφαλος and editεπεξεργασία this movieταινία clipσυνδετήρας
271
688360
2860
στον εγκεφάλο, να επεξεργαστούμε
αυτό το βίντεο κλιπ
11:43
so that we can make it differentδιαφορετικός from the originalπρωτότυπο?
272
691220
2896
και να το κάνουμε διαφορετικό
από το αυθεντικό;
11:46
Yes we can.
273
694116
2178
Ναι, μπορούμε.
11:48
TurnedΓύρισε out that all we need to do is basicallyβασικα
274
696294
2130
Αποδείχθηκε ότι το μόνο
που χρειαζεται να κάνουμε
11:50
reactivateΕπανενεργοποίηση a memoryμνήμη usingχρησιμοποιώντας lasersλέιζερ just like we did before,
275
698424
4275
είναι να επανενεργοποιήσουμε μία ανάμνηση
με λέιζερ ακριβώς όπως κάναμε πριν,
11:54
but at the sameίδιο time, if we presentπαρόν newνέος informationπληροφορίες
276
702699
3439
αλλά ταυτόχρονα, να παρουσιάσουμε
11:58
and allowεπιτρέπω this newνέος informationπληροφορίες to incorporateενσωματώνουν into this oldπαλαιός memoryμνήμη,
277
706138
3974
νέες πληροφορίες, επιτρέποντας σε αυτές
να ενσωματωθούν στην παλιά ανάμνηση.
12:02
this will changeαλλαγή the memoryμνήμη.
278
710112
2438
Αυτό θα αλλάξει την ανάμνηση.
12:04
It's sortείδος of like makingκατασκευή a remixremix tapeκολλητική ταινία.
279
712550
3663
Είναι σαν να φτιάχνουμε
μια κασέτα με διασκευές.
12:08
SRSR: So how do we do this?
280
716213
2858
ΣΡ: Πώς λοιπόν κάνουμε κάτι τέτοιο;
12:11
RatherΜάλλον than findingεύρεση a fearφόβος memoryμνήμη in the brainεγκέφαλος,
281
719071
1957
Αντί να βρούμε μια ανάμνηση φόβου
στον εγκέφαλο,
12:13
we can startαρχή by takingλήψη our animalsτων ζώων,
282
721028
1716
μπορούμε να ξεκινήσουμε
παίρνοντας τα ζώα μας
12:14
and let's say we put them in a blueμπλε boxκουτί like this blueμπλε boxκουτί here
283
722744
2933
και βάζοντάς τα, σε ένα μπλε κουτί
όπως αυτό εδώ.
12:17
and we find the brainεγκέφαλος cellsκυττάρων that representεκπροσωπώ that blueμπλε boxκουτί
284
725677
2494
Βρίσκουμε τα εγκεφαλικά κύτταρα
που αντιπροσωπεύουν αυτό το μπλε κουτί
12:20
and we trickτέχνασμα them to respondαπαντώ to pulsesόσπρια of lightφως
285
728171
2073
και τα ξεγελάμε κάνοντάς τα
να ανταποκριθούν σε παλμικό φως
12:22
exactlyακριβώς like we had said before.
286
730244
2121
ακριβώς όπως είχαμε πει προηγουμένως.
12:24
Now the nextεπόμενος day, we can take our animalsτων ζώων and placeθέση them
287
732365
2124
Την επόμενη μέρα τώρα,
μπορούμε να βάλουμε τα ζώα μας
12:26
in a redτο κόκκινο boxκουτί that they'veέχουν never experiencedέμπειρος before.
288
734489
2699
μέσα σε ένα κόκκινο κουτί
που δεν έχουν ξαναδεί.
12:29
We can shootβλαστός lightφως into the brainεγκέφαλος to reactivateΕπανενεργοποίηση
289
737188
2026
Μπορούμε να ρίξουμε φως στον εγκέφαλο
για να επανενεργοποιήσουμε
12:31
the memoryμνήμη of the blueμπλε boxκουτί.
290
739214
2109
την ανάμνηση του μπλε κουτιού.
12:33
So what would happenσυμβεί here if, while the animalζώο
291
741323
1744
Τι θα συνέβαινε εδώ αν, ενώ το ζώο
12:35
is recallingυπενθυμίζοντας the memoryμνήμη of the blueμπλε boxκουτί,
292
743067
1894
ανακαλεί την ανάμνηση του μπλε κουτιού,
12:36
we gaveέδωσε it a coupleζευγάρι of mildήπιος footπόδι shocksσοκ?
293
744961
2643
του κάναμε μερικά
ήπια ηλεκτροσόκ στα πόδια;
12:39
So here we're tryingπροσπαθεί to artificiallyτεχνητά make an associationσχέση
294
747604
2693
Εδώ, προσπαθούμε να κάνουμε μια συσχέτιση
12:42
betweenμεταξύ the memoryμνήμη of the blueμπλε boxκουτί
295
750297
1915
ανάμεσα στην ανάμνηση του μπλε κουτιού
12:44
and the footπόδι shocksσοκ themselvesτους εαυτούς τους.
296
752212
1503
και των ηλεκτροσόκ στα πόδια.
12:45
We're just tryingπροσπαθεί to connectσυνδέω the two.
297
753715
1779
Απλά προσπαθούμε
να συνδέσουμε αυτά τα δύο.
12:47
So to testδοκιμή if we had doneΈγινε so,
298
755494
1543
Έτσι για να ελέγξουμε αν τα καταφέραμε,
12:49
we can take our animalsτων ζώων onceμια φορά again
299
757037
1328
μπορούμε να πάμε
τα ζώα μας για άλλη μια φορά
12:50
and placeθέση them back in the blueμπλε boxκουτί.
300
758365
1946
πίσω στο μπλε κουτί.
12:52
Again, we had just reactivatedεπανενεργοποιηθεί the memoryμνήμη of the blueμπλε boxκουτί
301
760311
2738
Και πάλι, επανενεργοποιήσαμε
την ανάμνηση του μπλε κουτιού
12:55
while the animalζώο got a coupleζευγάρι of mildήπιος footπόδι shocksσοκ,
302
763049
2167
ενώ το ζώο λάμβανε μερικά ήπια ηλεκτροσόκ
12:57
and now the animalζώο suddenlyξαφνικά freezes"παγώνει".
303
765216
2370
στα πόδια, ξαφνικά πάγωσε.
12:59
It's as thoughαν και it's recallingυπενθυμίζοντας beingνα εισαι mildlyήπια shockedσοκαρισμένος in this environmentπεριβάλλον
304
767586
3202
Είναι σαν να ανακαλεί το ήπιο
ηλεκτροσόκ που υπέστη σε αυτό
13:02
even thoughαν και that never actuallyπράγματι happenedσυνέβη.
305
770788
3002
το κουτί αν και αυτό
ποτέ δεν συνέβη πραγματικά.
13:05
So it formedσχηματίστηκε a falseψευδής memoryμνήμη,
306
773790
1862
Έτσι σχημάτισε μια ψεύτικη ανάμνηση,
13:07
because it's falselyψευδώς fearingΦοβούμενοι an environmentπεριβάλλον
307
775652
2011
καθώς φοβάται εσφαλμένα ένα περιβάλλον
13:09
where, technicallyτεχνικά speakingΟμιλία,
308
777663
1254
όπου, τυπικά,
13:10
nothing badκακό actuallyπράγματι happenedσυνέβη to it.
309
778917
2349
δεν του συνέβη τίποτα κακό.
13:13
XLXL: So, so farμακριά we are only talkingομιλία about
310
781266
2453
ΣΛ: Μέχρι τώρα μιλήσαμε μόνο
13:15
this light-controlledφως-ελεγχόμενο "on" switchδιακόπτης.
311
783719
2366
γι' αυτόν τον διακόπτη
που ανοίγει με το φως.
13:18
In factγεγονός, we alsoεπίσης have a light-controlledφως-ελεγχόμενο "off" switchδιακόπτης,
312
786085
3288
Έχουμε όμως και έναν διακόπτη
που κλείνει με το φως.
13:21
and it's very easyεύκολος to imagineφαντάζομαι that
313
789373
2080
Είναι πολύ εύκολο να φανταστείτε ότι
13:23
by installingεγκατάσταση this light-controlledφως-ελεγχόμενο "off" switchδιακόπτης,
314
791453
2478
με τον διακόπτη που κλείνει με το φως,
13:25
we can alsoεπίσης turnστροφή off a memoryμνήμη, any time, anywhereοπουδήποτε.
315
793931
5588
μπορούμε να απενεργοποιήσουμε
μια ανάμνηση, οποτεδήποτε, οπουδήποτε.
13:31
So everything we'veέχουμε been talkingομιλία about todayσήμερα
316
799519
2214
Άρα όλα όσα αναφέραμε
σήμερα βασίζονται σε αυτήν
13:33
is basedμε βάση on this philosophicallyφιλοσοφικώς chargedφορτισμένα principleαρχή of neuroscienceνευροεπιστήμη
317
801733
4677
τη φιλοσοφικά φορτισμένη αρχή
της νευροεπιστήμης
13:38
that the mindμυαλό, with its seeminglyφαινομενικώς mysteriousμυστηριώδης propertiesιδιότητες,
318
806410
4118
ότι το μυαλό, με τις φαινομενικά
μυστηριώδεις ιδιότητές του,
13:42
is actuallyπράγματι madeέκανε of physicalφυσικός stuffυλικό that we can tinkerγανωματής with.
319
810528
3645
στην πραγματικότητα είναι φτιαγμένο από υλικά
με τα οποία μπορούμε να παίξουμε.
13:46
SRSR: And for me personallyπροσωπικά,
320
814173
1475
ΣΡ: Και εγώ προσωπικά,
13:47
I see a worldκόσμος where we can reactivateΕπανενεργοποίηση
321
815648
1581
βλέπω έναν κόσμο όπου θα μπορούμε
13:49
any kindείδος of memoryμνήμη that we'dνυμφεύω like.
322
817229
2116
να επανενεργοποιούμε όποια ανάμνηση θέλουμε.
13:51
I alsoεπίσης see a worldκόσμος where we can eraseεξάλειψη unwantedανεπιθύμητες memoriesαναμνήσεις.
323
819345
3298
Βλέπω έναν κόσμο όπου θα μπορούμε
να σβήνουμε ανεπιθύμητες αναμνήσεις.
13:54
Now, I even see a worldκόσμος where editingεπεξεργασία memoriesαναμνήσεις
324
822643
1936
Βλέπω ακόμα και έναν κόσμο
όπου η επεξεργασία αναμνήσεων
13:56
is something of a realityπραγματικότητα,
325
824579
1539
είναι πραγματικότητα,
13:58
because we're livingζωή in a time where it's possibleδυνατόν
326
826118
1705
επειδή ζούμε σε μια εποχή όπου είναι εφικτό
13:59
to pluckσυκωταριά questionsερωτήσεις from the treeδέντρο of scienceεπιστήμη fictionμυθιστόρημα
327
827823
2225
να μαζέψουμε ερωτήσεις από το δέντρο
της επιστημονικής φαντασίας
14:02
and to groundέδαφος them in experimentalπειραματικός realityπραγματικότητα.
328
830048
2420
και να τις θεμελιώσουμε στην
πειραματική πραγματικότητα.
14:04
XLXL: NowadaysΣτις μέρες μας, people in the labεργαστήριο
329
832468
1883
ΣΛ: Στις μέρες μας, άνθρωποι στο εργαστήριο
14:06
and people in other groupsομάδες all over the worldκόσμος
330
834351
2386
και άνθρωποι σε άλλες ομάδες
σε ολόκληρο τον κόσμο
14:08
are usingχρησιμοποιώντας similarπαρόμοιος methodsμεθόδων to activateΕνεργοποίηση or editεπεξεργασία memoriesαναμνήσεις,
331
836737
3817
χρησιμοποιούν παρόμοιες μεθόδους για να
ενεργοποιήσουν ή να επεξεργαστούν αναμνήσεις,
14:12
whetherκατά πόσο that's oldπαλαιός or newνέος, positiveθετικός or negativeαρνητικός,
332
840554
3841
είτε είναι παλιές, καινούριες,
θετικές ή αρνητικές,
14:16
all sortsείδος of memoriesαναμνήσεις so that we can understandκαταλαβαίνουν
333
844395
2672
όλων των ειδών τις αναμνήσεις
ώστε να μπορέσουμε να καταλάβουμε
14:19
how memoryμνήμη worksεργοστάσιο.
334
847067
1864
πώς λειτουργεί η μνήμη.
14:20
SRSR: For exampleπαράδειγμα, one groupομάδα in our labεργαστήριο
335
848931
1784
ΣΡ: Για παράδειγμα,
μια ομάδα στο εργαστήριο μας
14:22
was ableικανός to find the brainεγκέφαλος cellsκυττάρων that make up a fearφόβος memoryμνήμη
336
850715
2638
μπόρεσε να βρει τα εγκεφαλικά κύτταρα
που απαρτίζουν μία ανάμνηση φόβου
14:25
and convertedμετατρέπονται them into a pleasurableευχάριστο memoryμνήμη, just like that.
337
853353
2775
και τα μετέτρεψε
σε μια απολαυστική ανάμνηση.
14:28
That's exactlyακριβώς what I mean about editingεπεξεργασία these kindsείδη of processesδιαδικασίες.
338
856128
3062
Αυτό ακριβώς εννοώ με την
επεξεργασία αυτών των διαδικασιών.
14:31
Now one dudeφίλε in labεργαστήριο was even ableικανός to reactivateΕπανενεργοποίηση
339
859190
1812
Ένας τύπος μάλιστα στο εργαστήριο
μπόρεσε να επανενεργοποιήσει
14:33
memoriesαναμνήσεις of femaleθηλυκός miceποντίκια in maleαρσενικός miceποντίκια,
340
861002
2501
αναμνήσεις θηλυκών ποντικιών
σε αρσενικά ποντίκια,
14:35
whichοι οποίες rumorφήμη has it is a pleasurableευχάριστο experienceεμπειρία.
341
863503
2995
που, όπως λένε, είναι απολαυστική εμπειρία.
14:38
XLXL: IndeedΠράγματι, we are livingζωή in a very excitingσυναρπαστικός momentστιγμή
342
866498
4117
ΣΛ: Πράγματι, ζούμε
μια πολύ συναρπαστική στιγμή
14:42
where scienceεπιστήμη doesn't have any arbitraryαυθαίρετος speedΤαχύτητα limitsόρια
343
870615
3805
όπου η επιστήμη
δεν έχει αυθαίρετα όρια ταχύτητας
14:46
but is only boundόριο by our ownτα δικά imaginationφαντασία.
344
874420
3187
αλλά περιορίζεται μόνο
από την ίδια μας τη φαντασία.
14:49
SRSR: And finallyτελικά, what do we make of all this?
345
877607
2147
ΣΡ: Και τελικά,
πού καταλήγουμε με όλα αυτά;
14:51
How do we pushΣπρώξτε this technologyτεχνολογία forwardπρος τα εμπρός?
346
879754
1971
Πώς προωθούμε αυτήν την τεχνολογία;
14:53
These are the questionsερωτήσεις that should not remainπαραμένει
347
881725
1837
Αυτά είναι ερωτήματα που
δεν πρέπει να παραμένουν
14:55
just insideμέσα the labεργαστήριο,
348
883562
1675
μόνο μέσα στο εργαστήριο,
14:57
and so one goalστόχος of today'sσημερινή talk was to bringνα φερεις everybodyόλοι
349
885237
2572
και έτσι ένας στόχος της ομιλίας ήταν
14:59
up to speedΤαχύτητα with the kindείδος of stuffυλικό that's possibleδυνατόν
350
887809
2319
να σας ενημερώσουμε όλους
για πράγματα που είναι εφικτά
15:02
in modernμοντέρνο neuroscienceνευροεπιστήμη,
351
890128
1384
στη σύγχρονη νευροεπιστήμη.
15:03
but now, just as importantlyείναι σημαντικό,
352
891512
1510
Εξίσου σημαντικό όμως,είναι,
15:05
to activelyδραστήρια engageαρραβωνιάζω everybodyόλοι in this conversationσυνομιλία.
353
893022
3332
να σας εντάξουμε ενεργά
σε αυτή την συζήτηση.
15:08
So let's think togetherμαζί as a teamομάδα about what this all meansπου σημαίνει
354
896354
2329
Ας σκεφτούμε μαζί σαν ομάδα
τι σημαίνει όλο αυτό,
15:10
and where we can and should go from here,
355
898683
2474
πού μπορούμε και πού πρέπει
να πάμε από εδώ και στο εξής
15:13
because XuXu and I think we all have
356
901157
2098
επειδή ο Σου κι εγώ πιστεύουμε
ότι όλοι έχουμε να πάρουμε
15:15
some really bigμεγάλο decisionsαποφάσεων aheadεμπρός of us.
357
903255
2536
πραγματικά μεγάλες αποφάσεις στο μέλλον.
15:17
Thank you.
XLXL: Thank you.
358
905791
1125
Σας ευχαριστώ.
ΣΛ: Σας ευχαριστώ.
15:18
(ApplauseΧειροκροτήματα)
359
906916
1634
(Χειροκρότημα)
Translated by Maria Katsi
Reviewed by Maria Plevri

▲Back to top

ABOUT THE SPEAKERS
Steve Ramirez - Neuroscientist
When Steve Ramirez published his latest study in Science, it caused a media frenzy. Why? Because the paper was on implanting false memories in the brains of mice.

Why you should listen

Steve is a graduate student at MIT’s Brain and Cognitive Sciences department pursuing a Ph.D. in neuroscience. His work focuses on finding where single memories are located throughout the brain, genetically tricking the brain cells that house these memories to respond to brief pulses of light, and then using these same flickers of light to reactivate, erase and implant memories. The goals of his research are twofold: to figure out how the brain gives rise to the seemingly ephemeral process of memory, and to predict what happens when specific brain pieces breakdown to impair cognition. His work has been published in Science and covered by New Scientist, Discover, Scientific American, and Gizmodo.

Ramirez aims to be a professor who runs a lab that plucks questions from the tree of science fiction to ground them in experimental reality. He believes that a team-oriented approach to science makes research and teaching far more exciting. When he’s not tinkering with memories in the lab, Ramirez also enjoys running and cheering on every sports team in the city of Boston.

More profile about the speaker
Steve Ramirez | Speaker | TED.com
Xu Liu - Neuroscientist
In his groundbreaking work, Xu Liu investigated how to activate and deactivate specific memories in mice.

Why you should listen

During his PhD, Xu Liu studied the mechanisms of learning and memory, using fruit flies as a model system. By changing the expression of certain genes in the fly brain, he generated smart flies that can learn many times faster than their peers. Using live imaging, he also detected learning-induced changes in the brain cells and observed memory formation inside the brain with light.

After graduation, he moved to MIT and joined Dr. Susumu Tonegawa's lab as a postdoctoral associate. He continued his pursuit of memory with light there. Instead of just watching memory formation, he developed a system in mice where one can not only identify and label cells in the brain for a particular memory, but also turn these cells on and off with light to activate this memory at will. This work was published in Science and has been covered by the media worldwide. Liu passed away in February 2015.

More profile about the speaker
Xu Liu | Speaker | TED.com