ABOUT THE SPEAKERS
Steve Ramirez - Neuroscientist
When Steve Ramirez published his latest study in Science, it caused a media frenzy. Why? Because the paper was on implanting false memories in the brains of mice.

Why you should listen

Steve is a graduate student at MIT’s Brain and Cognitive Sciences department pursuing a Ph.D. in neuroscience. His work focuses on finding where single memories are located throughout the brain, genetically tricking the brain cells that house these memories to respond to brief pulses of light, and then using these same flickers of light to reactivate, erase and implant memories. The goals of his research are twofold: to figure out how the brain gives rise to the seemingly ephemeral process of memory, and to predict what happens when specific brain pieces breakdown to impair cognition. His work has been published in Science and covered by New Scientist, Discover, Scientific American, and Gizmodo.

Ramirez aims to be a professor who runs a lab that plucks questions from the tree of science fiction to ground them in experimental reality. He believes that a team-oriented approach to science makes research and teaching far more exciting. When he’s not tinkering with memories in the lab, Ramirez also enjoys running and cheering on every sports team in the city of Boston.

More profile about the speaker
Steve Ramirez | Speaker | TED.com
Xu Liu - Neuroscientist
In his groundbreaking work, Xu Liu investigated how to activate and deactivate specific memories in mice.

Why you should listen

During his PhD, Xu Liu studied the mechanisms of learning and memory, using fruit flies as a model system. By changing the expression of certain genes in the fly brain, he generated smart flies that can learn many times faster than their peers. Using live imaging, he also detected learning-induced changes in the brain cells and observed memory formation inside the brain with light.

After graduation, he moved to MIT and joined Dr. Susumu Tonegawa's lab as a postdoctoral associate. He continued his pursuit of memory with light there. Instead of just watching memory formation, he developed a system in mice where one can not only identify and label cells in the brain for a particular memory, but also turn these cells on and off with light to activate this memory at will. This work was published in Science and has been covered by the media worldwide. Liu passed away in February 2015.

More profile about the speaker
Xu Liu | Speaker | TED.com
TEDxBoston

Steve Ramirez and Xu Liu: A mouse. A laser beam. A manipulated memory.

Steve Ramirez & Xu Liu: Eine Maus. Ein Laserstrahl. Eine manipulierte Erinnerung.

Filmed:
1,127,889 views

Können wir den Inhalt unseres Gedächtnisses überarbeiten? Was nach Science Fiction klingt, haben Steve Ramirez und Xu Liu in ihrem Labor der MIT erforscht. Die beiden schossen Laserstrahlen ins Gehirn einer lebenden Maus und konnten dadurch ihre Erinnerungen aktivieren und manipulieren. In diesem überraschend unterhaltsamen Vortrag erklären sie nicht nur wie, sondern auch weshalb sie dies tun. (Aufgezeichnet am TEDxBoston)
- Neuroscientist
When Steve Ramirez published his latest study in Science, it caused a media frenzy. Why? Because the paper was on implanting false memories in the brains of mice. Full bio - Neuroscientist
In his groundbreaking work, Xu Liu investigated how to activate and deactivate specific memories in mice. Full bio

Double-click the English transcript below to play the video.

00:12
SteveSteve RamirezRamirez: My first yearJahr of gradGrad schoolSchule,
0
371
1556
Steve Ramirez: Im ersten Jahr an der Uni
00:13
I foundgefunden myselfmich selber in my bedroomSchlafzimmer
1
1927
2004
saß ich in meinem Zimmer,
00:15
eatingEssen lots of BenBen & Jerry'sJerrys
2
3931
2300
aß eimerweise "Ben & Jerry's"-Eis,
00:18
watchingAufpassen some trashytrashig TVTV
3
6231
1684
schaute irgendwelchen Schund im TV
00:19
and maybe, maybe listeningHören to TaylorTaylor SwiftSWIFT.
4
7915
3227
und nur vielleicht hörte ich dabei Taylor Swift.
00:23
I had just goneWeg throughdurch a breakupTrennung.
5
11142
1741
Ich hatte gerade eine Trennung hinter mir.
00:24
(LaughterLachen)
6
12883
1447
(Gelächter)
00:26
So for the longestam längsten time, all I would do
7
14330
2196
Lange Zeit rief ich mir immer wieder
00:28
is recallerinnern the memoryErinnerung of this personPerson over and over again,
8
16526
3816
Erinnerungen an diese Person
ins Gedächtnis
00:32
wishingwollen that I could get ridloswerden of that gut-wrenchingstechende,
9
20342
2493
und wünschte, ich könnte
dieses herzzerreißende
00:34
visceralviszerale "blahbla" feelingGefühl.
10
22835
2533
graue Gefühl in meinem Inneren loswerden.
00:37
Now, as it turnswendet sich out, I'm a neuroscientistNeurowissenschaftler,
11
25368
2283
Nun bin ich ja zufällig
Neurowissenschaftler
00:39
so I knewwusste that the memoryErinnerung of that personPerson
12
27651
2402
und so wusste ich, dass
die Erinnerung an jene Person
00:42
and the awfulfurchtbar, emotionalemotional undertonesUntertönen that colorFarbe in that memoryErinnerung,
13
30053
3140
und der furchtbare emotionale
Unterton dieser Erinnerung
00:45
are largelyweitgehend mediatedvermittelte by separategetrennte brainGehirn systemsSysteme.
14
33193
2634
von unterschiedlichen Systemen
im Gehirn gesteuert werden.
00:47
And so I thought, what if we could go into the brainGehirn
15
35827
2365
So überlegte ich: Wie wäre es,
wenn man ins Gehirn eindringen
00:50
and editbearbeiten out that nauseatingekelerregend feelingGefühl
16
38192
2090
und dieses widerliche Gefühl herauslöschen,
00:52
but while keepinghalten the memoryErinnerung of that personPerson intactintakt?
17
40282
2970
aber die Erinnerung
an die Person intakt lassen könnte?
00:55
Then I realizedrealisiert, maybe that's a little bitBit loftyerhabenen for now.
18
43252
2411
Ich merkte aber, dass das für den Moment
etwas viel verlangt ist.
00:57
So what if we could startAnfang off by going into the brainGehirn
19
45663
2793
Aber vielleicht könnte man ja
ins Gehirn eindringen
01:00
and just findingErgebnis a singleSingle memoryErinnerung to beginStart with?
20
48456
2633
und mit einer einzigen Erinnerung anfangen?
01:03
Could we jump-startJump-Start that memoryErinnerung back to life,
21
51089
2514
Könnte man diese Erinnerung
wieder zurückholen
01:05
maybe even playspielen with the contentsInhalt of that memoryErinnerung?
22
53603
3868
und vielleicht sogar mit ihrem Inhalt spielen?
01:09
All that said, there is one personPerson in the entireganz worldWelt right now
23
57471
2229
Bei all dem hoffe ich,
dass eine ganz bestimmte Person
01:11
that I really hopeHoffnung is not watchingAufpassen this talk.
24
59700
2055
diesen Vortrag nicht hört.
01:13
(LaughterLachen)
25
61755
3941
(Gelächter)
01:17
So there is a catchFang. There is a catchFang.
26
65696
3289
Es gibt nämlich einen Haken.
Es gibt einen Haken.
01:20
These ideasIdeen probablywahrscheinlich reminderinnern you of "TotalInsgesamt RecallRückruf,"
27
68985
2788
Diese Ideen erinnern zwar
an Filme wie "Total Recall",
01:23
"EternalEwige SunshineSonnenschein of the SpotlessMakellos MindGeist,"
28
71773
1974
"Eternal Sunshine of the Spotless Mind",
01:25
or of "InceptionGründung."
29
73747
1303
oder "Inception".
01:27
But the movieFilm starsSterne that we work with
30
75050
1576
Aber die Stars, mit denen wir arbeiten,
01:28
are the celebritiesProminente of the labLabor.
31
76626
1943
sind die Berühmtheiten aus dem Labor.
01:30
XuXu LiuLiu: TestTest miceMäuse.
32
78569
1900
Xu Liu: Labormäuse.
01:32
(LaughterLachen)
33
80469
1128
(Gelächter)
01:33
As neuroscientistsNeurowissenschaftler, we work in the labLabor with miceMäuse
34
81597
3154
Als Neurowissenschaftler
arbeiten wir im Labor mit Mäusen
01:36
tryingversuchen to understandverstehen how memoryErinnerung worksWerke.
35
84751
3410
und versuchen zu verstehen,
wie das Gedächtnis funktioniert.
01:40
And todayheute, we hopeHoffnung to convinceüberzeugen you that now
36
88161
2569
Heute möchten wir Sie davon überzeugen,
01:42
we are actuallytatsächlich ablefähig to activateAktivieren a memoryErinnerung in the brainGehirn
37
90730
3216
dass es wirklich möglich ist,
eine Erinnerung im Gehirn
01:45
at the speedGeschwindigkeit of lightLicht.
38
93946
2170
zu aktivieren –
in Lichtgeschwindigkeit.
01:48
To do this, there's only two simpleeinfach stepsSchritte to followFolgen.
39
96116
3106
Es gibt dabei zwei einfache Schritte.
01:51
First, you find and labelEtikette a memoryErinnerung in the brainGehirn,
40
99222
3510
Zuerst sucht man eine Erinnerung
im Gehirn und markiert sie.
01:54
and then you activateAktivieren it with a switchSchalter.
41
102732
3630
Danach aktiviert man sie mit einem Schalter.
01:58
As simpleeinfach as that.
42
106362
1445
So einfach ist das.
01:59
(LaughterLachen)
43
107807
1822
(Gelächter)
02:01
SRSR: Are you convincedüberzeugt?
44
109629
1845
SR: Glauben Sie uns nicht?
02:03
So, turnswendet sich out findingErgebnis a memoryErinnerung in the brainGehirn isn't all that easyeinfach.
45
111474
3721
Ehrlich gesagt, es ist nicht ganz so einfach,
eine Erinnerung im Gehirn zu finden.
02:07
XLXL: IndeedIn der Tat. This is way more difficultschwer than, let's say,
46
115195
2803
XL: Richtig. Es ist sogar viel schwieriger,
02:09
findingErgebnis a needleNadel in a haystackHeuhaufen,
47
117998
2404
als beispielsweise
eine Nadel im Heuhaufen zu finden,
02:12
because at leastam wenigsten, you know, the needleNadel is still something
48
120402
2589
denn bekanntlich ist eine Nadel wenigstens etwas,
02:14
you can physicallyphysisch put your fingersFinger on.
49
122991
2500
das man real anfassen kann.
02:17
But memoryErinnerung is not.
50
125491
1977
Die Erinnerung hingegen
kann man nicht anfassen.
02:19
And alsoebenfalls, there's way more cellsZellen in your brainGehirn
51
127468
3038
Außerdem gibt es viel
mehr Zellen in einem Gehirn
02:22
than the numberNummer of strawsStrohhalme in a typicaltypisch haystackHeuhaufen.
52
130506
5066
als Strohhalme in einem
typischen Heuhaufen.
02:27
So yeah, this taskAufgabe does seemscheinen to be dauntingentmutigend.
53
135572
2879
Die Aufgabe ist also ein wenig einschüchternd.
02:30
But luckilyGlücklicherweise, we got help from the brainGehirn itselfselbst.
54
138451
3679
Zum Glück hilft uns aber
das Gehirn selbst dabei.
02:34
It turnedgedreht out that all we need to do is basicallyGrundsätzlich gilt
55
142130
2455
Es zeigte sich, dass wir das Gehirn
nur dazu bringen müssen,
02:36
to let the brainGehirn formbilden a memoryErinnerung,
56
144585
1993
eine Erinnerung zu erschaffen.
02:38
and then the brainGehirn will tell us whichwelche cellsZellen are involvedbeteiligt
57
146578
3830
Danach zeigt es uns selber, welche Zellen
02:42
in that particularinsbesondere memoryErinnerung.
58
150408
1766
an genau dieser Erinnerung beteiligt sind.
02:44
SRSR: So what was going on in my brainGehirn
59
152174
2357
SR: Was passierte also in meinem Gehirn,
02:46
while I was recallingerinnernd the memoryErinnerung of an exEx?
60
154531
2094
während ich mich an meine Ex erinnerte?
02:48
If you were to just completelyvollständig ignoreignorieren humanMensch ethicsEthik for a secondzweite
61
156625
2402
Wenn man die menschliche Moral
mal kurz ignorieren
02:51
and sliceSlice up my brainGehirn right now,
62
159027
1668
und mein Gehirn in Scheiben schneiden würde,
02:52
you would see that there was an amazingtolle numberNummer
63
160695
2018
könnte man sehen, dass eine unglaubliche Zahl
02:54
of brainGehirn regionsRegionen that were activeaktiv while recallingerinnernd that memoryErinnerung.
64
162713
3178
von Hirnregionen aktiv war,
während ich diese Erinnerung abrief.
02:57
Now one brainGehirn regionRegion that would be robustlyrobust activeaktiv
65
165891
2912
Eine Hirnregion wäre dabei besonders aktiv:
03:00
in particularinsbesondere is callednamens the hippocampusHippocampus,
66
168803
2007
Der Hippocampus, von dem man
seit Jahrzehnten annahm,
03:02
whichwelche for decadesJahrzehnte has been implicatedverwickelt in processingwird bearbeitet
67
170810
2455
dass er die Erinnerungen an das,
was uns lieb und teuer ist,
03:05
the kindsArten of memoriesErinnerungen that we holdhalt nearin der Nähe von and dearsehr geehrter,
68
173265
2416
verarbeitet. und dadurch
03:07
whichwelche alsoebenfalls makesmacht it an idealIdeal targetZiel to go into
69
175681
2574
ist er ein idealer Ort, um nach
einer Erinnerung zu suchen,
03:10
and to try and find and maybe reactivatereaktivieren a memoryErinnerung.
70
178255
2785
die vielleicht reaktiviert werden könnte.
03:13
XLXL: When you zoomZoomen in into the hippocampusHippocampus,
71
181040
2394
XL: Wenn man in den Hippocampus hineinschaut,
03:15
of courseKurs you will see lots of cellsZellen,
72
183434
2348
sieht man natürlich eine Menge Zellen,
03:17
but we are ablefähig to find whichwelche cellsZellen are involvedbeteiligt
73
185782
3031
doch wir können auch sehen, welche Zellen
03:20
in a particularinsbesondere memoryErinnerung,
74
188813
1476
an einer bestimmten Erinnerung beteiligt sind.
03:22
because wheneverwann immer a cellZelle is activeaktiv,
75
190289
2618
Wenn eine Zelle nämlich aktiv ist,
03:24
like when it's formingBildung a memoryErinnerung,
76
192907
1464
etwa, wenn sie eine Erinnerung erzeugt,
03:26
it will alsoebenfalls leaveverlassen a footprintFußabdruck that will laterspäter allowzulassen us to know
77
194371
3757
hinterlässt sie einen Abdruck,
der uns später zeigt,
03:30
these cellsZellen are recentlyvor kurzem activeaktiv.
78
198128
2702
dass sie kürzlich aktiv war.
03:32
SRSR: So the samegleich way that buildingGebäude lightsBeleuchtung at night
79
200830
2160
SR: Es ist wie ein Gebäude,
dessen Lichter in der Nacht zeigen,
03:34
let you know that somebody'sjemandes probablywahrscheinlich workingArbeiten there at any givengegeben momentMoment,
80
202990
2948
dass dort zu einem bestimmten Zeitpunkt wahrscheinlich jemand arbeitet.
03:37
in a very realecht senseSinn, there are biologicalbiologisch sensorsSensoren
81
205938
3288
Genauso gibt es biologische Sensoren
in einer Zelle,
03:41
withininnerhalb a cellZelle that are turnedgedreht on
82
209226
1954
die nur dann eingeschaltet sind,
03:43
only when that cellZelle was just workingArbeiten.
83
211180
2135
wenn diese Zelle gerade gearbeitet hat.
03:45
They're sortSortieren of biologicalbiologisch windowsFenster that lightLicht up
84
213315
1876
Diese biologischen
"erleuchteten Fenster" zeigen also,
03:47
to let us know that that cellZelle was just activeaktiv.
85
215191
1978
dass eine Zelle soeben aktiv war.
03:49
XLXL: So we clippedabgeschnitten partTeil of this sensorSensor,
86
217169
2829
XL: Wir trennten nun einen Teil dieses Sensors ab
03:51
and attachedangebracht that to a switchSchalter to controlsteuern the cellsZellen,
87
219998
3147
und befestigten ihn an einem Schalter,
der die Zellen kontrolliert
03:55
and we packedverpackt this switchSchalter into an engineeredentwickelt virusVirus
88
223145
3900
und packten den Schalter dann
in einen modifizierten Virus
03:59
and injectedinjiziert that into the brainGehirn of the miceMäuse.
89
227045
2588
und spritzten diesen ins Gehirn der Mäuse.
04:01
So wheneverwann immer a memoryErinnerung is beingSein formedgebildet,
90
229633
2634
Wenn nun eine Erinnerung gebildet wird,
04:04
any activeaktiv cellsZellen for that memoryErinnerung
91
232267
2348
werden alle aktiven Zellen dieser Erinnerung
04:06
will alsoebenfalls have this switchSchalter installedEingerichtet.
92
234615
2742
auch mit diesem Schalter ausgestattet sein.
04:09
SRSR: So here is what the hippocampusHippocampus lookssieht aus like
93
237357
1625
SR: So sieht der Hippocampus
also beispielsweise aus,
04:10
after formingBildung a fearAngst memoryErinnerung, for exampleBeispiel.
94
238982
2840
nachdem sich eine Erinnerung
an Angst gebildet hat.
04:13
The seaMeer of blueblau that you see here
95
241822
2140
Dieses blaue Meer hier
04:15
are denselydicht packedverpackt brainGehirn cellsZellen,
96
243962
1952
sind dichtgepackte Hirnzellen,
04:17
but the greenGrün brainGehirn cellsZellen,
97
245914
1545
aber die grünen Hirnzellen,
04:19
the greenGrün brainGehirn cellsZellen are the onesEinsen that are holdingHalten on
98
247459
2096
die grünen Zellen sind jene,
die eine spezielle Erinnerung
04:21
to a specificspezifisch fearAngst memoryErinnerung.
99
249555
1843
an Angst in sich tragen.
04:23
So you are looking at the crystallizationKristallisation
100
251398
1979
Wir sehen also hier,
wie die flüchtige Struktur der Angst
04:25
of the fleetingflüchtig formationBildung of fearAngst.
101
253377
2387
kristallisiert wurde.
04:27
You're actuallytatsächlich looking at the cross-sectionQuerschnitt of a memoryErinnerung right now.
102
255764
3497
Dieses Bild ist nämlich
der Querschnitt einer Erinnerung.
04:31
XLXL: Now, for the switchSchalter we have been talkingim Gespräch about,
103
259261
2408
XL: Nun zum Schalter, den wir erwähnt haben:
04:33
ideallyim Idealfall, the switchSchalter has to actHandlung really fastschnell.
104
261669
2970
Dieser Schalter sollte sehr schnell reagieren
04:36
It shouldn'tsollte nicht take minutesProtokoll or hoursStd. to work.
105
264639
2579
und nicht Minuten oder
gar Stunden dafür brauchen.
04:39
It should actHandlung at the speedGeschwindigkeit of the brainGehirn, in millisecondsMillisekunden.
106
267218
4264
Er sollte so schnell sein wie das Gehirn
und in Millisekunden funktionieren.
04:43
SRSR: So what do you think, XuXu?
107
271482
1430
SR: Was meinst du, Xu?
04:44
Could we use, let's say, pharmacologicalpharmakologisch drugsDrogen
108
272912
2602
Könnten wir zum Beispiel
ein Medikament verwenden,
04:47
to activateAktivieren or inactivateinaktivieren brainGehirn cellsZellen?
109
275514
1838
das die Hirnzellen aktiviert oder deaktiviert?
04:49
XLXL: NahNein. DrugsMedikamente are prettyziemlich messyunordentlich. They spreadVerbreitung everywhereüberall.
110
277352
4063
XL: Nee. Medikamente sind zu chaotisch.
Sie verteilen sich überall.
04:53
And alsoebenfalls it takes them foreverfür immer to actHandlung on cellsZellen.
111
281415
3008
Außerdem dauert es ewig,
bis die Zellen darauf reagieren.
04:56
So it will not allowzulassen us to controlsteuern a memoryErinnerung in realecht time.
112
284423
3649
Damit könnten wir die Erinnerungen
nicht in Echtzeit kontrollieren.
05:00
So SteveSteve, how about let's zapZap the brainGehirn with electricityElektrizität?
113
288072
4294
Was meinst du, Steve, vielleicht würde es
mit Stromschlägen funktionieren?
05:04
SRSR: So electricityElektrizität is prettyziemlich fastschnell,
114
292366
2305
SR: Strom wäre vielleicht schnell genug,
05:06
but we probablywahrscheinlich wouldn'twürde nicht be ablefähig to targetZiel it
115
294671
1739
aber es wäre schwierig, damit
genau die Zellen zu treffen,
05:08
to just the specificspezifisch cellsZellen that holdhalt ontoauf zu a memoryErinnerung,
116
296410
2354
die eine Erinnerung festhalten
05:10
and we'dheiraten probablywahrscheinlich frybraten the brainGehirn.
117
298764
1878
und wahrscheinlich würde
das Gehirn dabei verbrutzeln.
05:12
XLXL: Oh. That's truewahr. So it lookssieht aus like, hmmHmm,
118
300642
3195
XL: Oh, das stimmt wohl.
Hmm, dann müssen wir eben
05:15
indeedtatsächlich we need to find a better way
119
303837
2611
eine bessere Methode finden,
05:18
to impactEinfluss the brainGehirn at the speedGeschwindigkeit of lightLicht.
120
306448
3295
die mit Lichtgeschwindigkeit
auf die Hirnzellen wirkt.
05:21
SRSR: So it just so happensdas passiert that lightLicht travelsReisen at the speedGeschwindigkeit of lightLicht.
121
309743
5086
SR: Zufälligerweise breitet sich ja Licht
mit Lichtgeschwindigkeit aus.
05:26
So maybe we could activateAktivieren or inactiveinaktiv memoriesErinnerungen
122
314829
3483
Vielleicht könnte man also Licht verwenden,
05:30
by just usingmit lightLicht --
123
318312
1497
um Erinnerungen zu aktivieren oder deaktivieren.
05:31
XLXL: That's prettyziemlich fastschnell.
124
319809
1355
XL: Das wäre ziemlich schnell.
05:33
SRSR: -- and because normallynormalerweise brainGehirn cellsZellen
125
321164
1885
SR: – und da Hirnzellen normalerweise
05:35
don't respondreagieren to pulsesImpulse of lightLicht,
126
323049
1588
nicht auf Lichtpulse reagieren,
05:36
so those that would respondreagieren to pulsesImpulse of lightLicht
127
324637
1958
würden nur jene auf diese Pulse reagieren,
05:38
are those that containenthalten a light-sensitivelichtempfindlich switchSchalter.
128
326595
2464
die einen lichtempfindlichen Schalter besitzen.
05:41
Now to do that, first we need to trickTrick brainGehirn cellsZellen
129
329059
1946
Als erstes müssen wir
also Hirnzellen dazu bringen,
05:43
to respondreagieren to laserLaser- beamsBalken.
130
331005
1462
dass sie auf Laserstrahlen reagieren.
05:44
XLXL: YepYep. You heardgehört it right.
131
332467
1070
XL: Jawohl, so ist es.
05:45
We are tryingversuchen to shootschießen lasersLasern into the brainGehirn.
132
333537
2132
Wir wollen Laserstrahlen ins Gehirn schießen.
05:47
(LaughterLachen)
133
335669
1745
(Gelächter)
05:49
SRSR: And the techniqueTechnik that letsLasst uns us do that is optogeneticsOptogenetik.
134
337414
3324
SR: Die Technologie, die wir dabei verwenden,
heißt Optogenetik.
05:52
OptogeneticsOptogenetik gavegab us this lightLicht switchSchalter that we can use
135
340738
3282
Mit Optogenetik wird dieser Schalter hergestellt,
05:56
to turnWende brainGehirn cellsZellen on or off,
136
344020
1508
mit dem die Hirnzellen
an- oder abgeschaltet werden.
05:57
and the nameName of that switchSchalter is channelrhodopsinChannelrhodopsin,
137
345528
2517
Dieser Schalter heißt Channelrhodopsin
06:00
seengesehen here as these greenGrün dotsPunkte attachedangebracht to this brainGehirn cellZelle.
138
348045
2537
und ist hier sichtbar
als grüne Punkte an dieser Hirnzelle.
06:02
You can think of channelrhodopsinChannelrhodopsin as a sortSortieren of light-sensitivelichtempfindlich switchSchalter
139
350582
3299
Man kann sich das Channelrhodopsin als
eine Art lichtempfindlichen Schalter vorstellen,
06:05
that can be artificiallykünstlich installedEingerichtet in brainGehirn cellsZellen
140
353881
2627
der künstlich in Hirnzellen eingebaut wird,
06:08
so that now we can use that switchSchalter
141
356508
1914
so dass die Hirnzellen nun
an- und abgeschaltet werden können,
06:10
to activateAktivieren or inactivateinaktivieren the brainGehirn cellZelle simplyeinfach by clickingKlicken it,
142
358422
3013
indem man diesen Schalter betätigt
06:13
and in this caseFall we clickklicken it on with pulsesImpulse of lightLicht.
143
361435
2468
und in unserem Fall wird der Schalter mit Lichtpulsen gesteuert.
06:15
XLXL: So we attachanfügen this light-sensitivelichtempfindlich switchSchalter of channelrhodopsinChannelrhodopsin
144
363903
3786
XL: Wir befestigen also diesen lichtempfindlichen Channelrhodopsin-Schalter
06:19
to the sensorSensor we'vewir haben been talkingim Gespräch about
145
367689
2208
am Sensor, der vorher erwähnt wurde,
06:21
and injectinjizieren this into the brainGehirn.
146
369897
2455
und spritzen das Ganze ins Gehirn.
06:24
So wheneverwann immer a memoryErinnerung is beingSein formedgebildet,
147
372352
3211
Wenn jetzt eine neue Erinnerung entsteht,
06:27
any activeaktiv cellZelle for that particularinsbesondere memoryErinnerung
148
375563
2227
wird jede aktive Zelle dieser Erinnerung
06:29
will alsoebenfalls have this light-sensitivelichtempfindlich switchSchalter installedEingerichtet in it
149
377790
3484
einen solchen lichtempfindlichen Schalter besitzen,
06:33
so that we can controlsteuern these cellsZellen
150
381274
2401
und wir können diese Zellen
06:35
by the flippingspiegeln of a laserLaser- just like this one you see.
151
383675
4264
mit einem solchen Laserstrahl kontrollieren.
06:39
SRSR: So let's put all of this to the testTest now.
152
387939
2864
SR: Probieren wir das doch gleich mal aus.
06:42
What we can do is we can take our miceMäuse
153
390803
2135
Wir nehmen also unsere Mäuse
06:44
and then we can put them in a boxBox that lookssieht aus exactlygenau like this boxBox here,
154
392938
2928
und setzen sie in eine Kiste wie diese hier
06:47
and then we can give them a very mildmild footFuß shockSchock
155
395866
2340
und versetzen ihnen einen ganz
leichten Stromschlag am Fuß.
06:50
so that they formbilden a fearAngst memoryErinnerung of this boxBox.
156
398206
2035
Diese Kiste löst dadurch
eine Erinnerung an Angst aus.
06:52
They learnlernen that something badschlecht happenedpassiert here.
157
400241
1979
Die Mäuse lernen, dass hier
etwas Schlimmes passiert ist.
06:54
Now with our systemSystem, the cellsZellen that are activeaktiv
158
402220
2342
Durch unser System werden die Zellen,
die im Hippocampus
06:56
in the hippocampusHippocampus in the makingHerstellung of this memoryErinnerung,
159
404562
2931
an der Entstehung
dieser Erinnerung beteiligt sind,
06:59
only those cellsZellen will now containenthalten channelrhodopsinChannelrhodopsin.
160
407493
2883
genau diese Zellen werden nun
das Channelrhodopsin enthalten.
07:02
XLXL: When you are as smallklein as a mouseMaus,
161
410376
3017
XL Wenn man so klein ist wie eine Maus,
07:05
it feelsfühlt sich as if the wholeganze worldWelt is tryingversuchen to get you.
162
413393
3595
fühlt man sich von der ganzen Welt bedroht
07:08
So your bestBeste responseAntwort of defenseVerteidigung
163
416988
1748
und die beste Verteidigungsstrategie ist,
07:10
is tryingversuchen to be undetectedunentdeckt.
164
418736
2482
möglichst nicht entdeckt zu werden.
07:13
WheneverImmer dann, wenn a mouseMaus is in fearAngst,
165
421218
2033
Wenn eine Maus also Angst hat,
07:15
it will showShow this very typicaltypisch behaviorVerhalten
166
423251
1526
zeigt sie dieses typische Verhalten:
07:16
by stayingbleiben at one cornerEcke of the boxBox,
167
424777
1769
Sie bleibt in einer Ecke der Kiste
07:18
tryingversuchen to not moveBewegung any partTeil of its bodyKörper,
168
426546
3118
und versucht, keinen Körperteil zu bewegen.
07:21
and this postureHaltung is callednamens freezingEinfrieren.
169
429664
3295
Diese Haltung nennt man Erstarrung.
07:24
So if a mouseMaus rememberserinnert sich that something badschlecht happenedpassiert in this boxBox,
170
432959
4294
Wenn sich die Maus nun erinnert, dass
in dieser Kiste etwas Schlimmes passiert ist,
07:29
and when we put them back into the samegleich boxBox,
171
437253
2623
und wir sie wieder in die gleiche Kiste setzen,
07:31
it will basicallyGrundsätzlich gilt showShow freezingEinfrieren
172
439876
1804
wird sie mit Erstarrung reagieren,
07:33
because it doesn't want to be detectederkannt
173
441680
2285
weil sie von den bedrohlichen Dingen in der Kiste
07:35
by any potentialPotenzial threatsBedrohungen in this boxBox.
174
443965
2695
nicht entdeckt werden will.
07:38
SRSR: So you can think of freezingEinfrieren as,
175
446660
1355
SR: Die Erstarrung kann man sich
also etwa so vorstellen,
07:40
you're walkingGehen down the streetStraße mindingMinding your ownbesitzen businessGeschäft,
176
448015
2215
wie wenn man nichtsahnend
eine Straße entlang geht
07:42
and then out of nowherenirgends you almostfast runLauf into
177
450230
1725
und plötzlich, aus dem Nichts heraus,
07:43
an ex-girlfriendEx-Freundin or ex-boyfriendEx-Freund,
178
451955
2192
auf den Ex-Freund oder die Ex-Freundin trifft.
07:46
and now those terrifyingschrecklich two secondsSekunden
179
454147
2134
Zwei furchtbare Sekunden lang
wird man überlegen:
07:48
where you startAnfang thinkingDenken, "What do I do? Do I say hiHallo?
180
456281
1876
"Was soll ich bloß tun? Hallo sagen?
07:50
Do I shakeShake theirihr handHand? Do I turnWende around and runLauf away?
181
458157
1368
Die Hand schütteln?
Mich umdrehen und wegrennen?
07:51
Do I sitsitzen here and pretendso tun als ob like I don't existexistieren?"
182
459525
2029
Oder soll ich mich totstellen?"
07:53
Those kindsArten of fleetingflüchtig thoughtsGedanken that physicallyphysisch incapacitateaußer Gefecht zu setzen you,
183
461554
3184
Durch diese flüchtigen Gedanken wird man
einen Moment wie gelähmt sein
07:56
that temporarilyvorübergehend give you that deer-in-headlightsHirsche im Scheinwerfer look.
184
464738
2746
und wie ein Kaninchen vor der Schlange stehen.
07:59
XLXL: HoweverJedoch, if you put the mouseMaus in a completelyvollständig differentanders
185
467484
3291
XL: Wird die Maus nun aber in
eine total andere Kiste gesetzt,
08:02
newneu boxBox, like the nextNächster one,
186
470775
3161
wie diese hier,
08:05
it will not be afraidAngst of this boxBox
187
473936
2147
wird sie keine Angst haben,
08:08
because there's no reasonGrund that it will be afraidAngst of this newneu environmentUmwelt.
188
476083
4729
da sie keinen Grund hat, sich vor
dieser neuen Umgebung zu fürchten.
08:12
But what if we put the mouseMaus in this newneu boxBox
189
480812
3180
Doch was geschieht, wenn wir die Maus
in die neue Kiste setzen
08:15
but at the samegleich time, we activateAktivieren the fearAngst memoryErinnerung
190
483992
3611
und gleichzeitig mit dem Laserstrahl
08:19
usingmit lasersLasern just like we did before?
191
487603
2679
ihre Erinnerung an Angst aktivieren?
08:22
Are we going to bringbringen back the fearAngst memoryErinnerung
192
490282
2854
Können wir die Angst-Erinnerung
von der ersten Kiste
08:25
for the first boxBox into this completelyvollständig newneu environmentUmwelt?
193
493136
3997
in dieser neuen Umgebung wieder hervorrufen?
08:29
SRSR: All right, and here'shier ist the million-dollarMillionen Dollar experimentExperiment.
194
497133
2735
SR: Hier ist das Millionen-Dollar-Experiment.
08:31
Now to bringbringen back to life the memoryErinnerung of that day,
195
499868
2913
Ich erinnere mich genau an den Tag:
08:34
I remembermerken that the RedRot SoxSox had just wongewonnen,
196
502781
2183
ich weiß noch, dass die Red Sox
gerade gewonnen hatten;
08:36
it was a greenGrün springFrühling day,
197
504964
1909
es war ein grüner Frühlingstag,
08:38
perfectperfekt for going up and down the riverFluss
198
506873
1817
perfekt für einen Spaziergang am Fluss,
08:40
and then maybe going to the NorthNorden EndEnde
199
508690
2334
und vielleicht einen Abstecher
ins italienische Viertel,
08:43
to get some cannolisCannoli, #justsayingjustsaying.
200
511024
2160
um ein paar Cannoli zu holen, ich sag's nur.
08:45
Now XuXu and I, on the other handHand,
201
513184
3102
Xu und ich saßen jedoch
08:48
were in a completelyvollständig windowlessfensterlose blackschwarz roomZimmer
202
516286
2829
in einem fensterlosen, dunklen Raum
08:51
not makingHerstellung any ocularokuläre movementBewegung that even remotelyaus der Ferne resemblesähnelt an eyeAuge blinkblinken
203
519115
3661
und bewegten nicht einmal unsere Augenlider,
08:54
because our eyesAugen were fixedFest ontoauf zu a computerComputer screenBildschirm.
204
522776
2466
weil wir einen Computerbildschirm anstarrten.
08:57
We were looking at this mouseMaus here tryingversuchen to activateAktivieren a memoryErinnerung
205
525242
2556
Wir schauten diese Maus an und
versuchten zum ersten Mal,
08:59
for the first time usingmit our techniqueTechnik.
206
527798
1883
mithilfe unserer Technologie
eine Erinnerung zu aktivieren.
09:01
XLXL: And this is what we saw.
207
529681
2688
XL: Und das sahen wir:
09:04
When we first put the mouseMaus into this boxBox,
208
532369
2202
Als wir die Maus in die Kiste setzten,
09:06
it's exploringErkundung, sniffingschnüffeln around, walkingGehen around,
209
534571
3113
begann sie diese zu erforschen;
sie schnüffelte herum,
09:09
mindingMinding its ownbesitzen businessGeschäft,
210
537684
1689
ging herum, dachte nichts Böses,
09:11
because actuallytatsächlich by natureNatur,
211
539373
1701
denn Mäuse sind von Natur aus
09:13
miceMäuse are prettyziemlich curiousneugierig animalsTiere.
212
541074
1979
ziemlich neugierige Tiere.
09:15
They want to know, what's going on in this newneu boxBox?
213
543053
2622
Sie wollen wissen, was
in der neuen Kiste so los ist.
09:17
It's interestinginteressant.
214
545675
1531
Es ist interessant.
09:19
But the momentMoment we turnedgedreht on the laserLaser-, like you see now,
215
547206
3451
Aber in dem Moment, als wir
den Laser anschalteten – jetzt –
09:22
all of a suddenplötzlich the mouseMaus enteredtrat ein this freezingEinfrieren modeModus.
216
550657
3032
erstarrte die Maus plötzlich.
09:25
It stayedblieb here and triedversucht not to moveBewegung any partTeil of its bodyKörper.
217
553689
4431
Sie blieb stehen und versuchte,
sich nicht zu bewegen.
09:30
ClearlyKlar it's freezingEinfrieren.
218
558120
1628
Man sieht die Erstarrung.
09:31
So indeedtatsächlich, it lookssieht aus like we are ablefähig to bringbringen back
219
559748
2583
Allem Anschein nach konnten wir also wirklich
09:34
the fearAngst memoryErinnerung for the first boxBox
220
562331
2064
die Erinnerung an die Angst von der ersten Kiste
09:36
in this completelyvollständig newneu environmentUmwelt.
221
564395
3367
in der neuen Umgebung wieder aktivieren.
09:39
While watchingAufpassen this, SteveSteve and I
222
567762
2112
Während wir dem zusahen, waren Steve und ich
09:41
are as shockedschockiert as the mouseMaus itselfselbst.
223
569874
2133
ebenso schockiert wie die Maus.
09:44
(LaughterLachen)
224
572007
1262
(Gelächter)
09:45
So after the experimentExperiment, the two of us just left the roomZimmer
225
573269
3307
Nach dem Experiment gingen wir also
09:48
withoutohne sayingSprichwort anything.
226
576576
1753
ohne zu sprechen aus dem Raum.
09:50
After a kindArt of long, awkwardumständlich periodPeriode of time,
227
578329
3396
Nach einer ziemlich langen, unangenehmen Stille
09:53
SteveSteve brokepleite the silenceSchweigen.
228
581725
2212
fand Steve seine Sprache wieder.
09:55
SRSR: "Did that just work?"
229
583937
2341
SR: "Hat das eben funktioniert?"
09:58
XLXL: "Yes," I said. "IndeedIn der Tat it workedhat funktioniert!"
230
586278
2974
XL: "Ja", sagte ich.
"Es hat tatsächlich funktioniert!"
10:01
We're really excitedaufgeregt about this.
231
589252
2117
Wir waren ganz aus dem Häuschen.
10:03
And then we publishedveröffentlicht our findingsErgebnisse
232
591369
2624
Dann veröffentlichten wir unsere Erkenntnisse
10:05
in the journalTagebuch NatureNatur.
233
593993
1696
im Journal "Nature".
10:07
Ever sinceschon seit the publicationVeröffentlichung of our work,
234
595689
2471
Seit der Veröffentlichung unserer Studie
10:10
we'vewir haben been receivingEmpfang numerouszahlreiche commentsBemerkungen
235
598160
2415
erhielten wir unzählige Kommentare
10:12
from all over the InternetInternet.
236
600575
2125
im Internet.
10:14
Maybe we can take a look at some of those.
237
602700
3750
Wir wollen einige davon anschauen.
[OMGGG ENDLICH ... da kommt noch so viel auf uns zu, virtuelle Realität, neurale Manipulation, visuelle Traumnachbildung ... neuronale Kodierung, Schreiben und Neu-Schreiben von Erinnerungen, psychische Krankheiten. Ahhh, die Zukunft ist fantastisch ]
10:18
["OMGGGGGOMGGGGG FINALLYSCHLIEßLICH... so much more to come, virtualvirtuell realityWirklichkeit, neuralneuronale manipulationManipulation, visualvisuell dreamTraum emulationEmulation... neuralneuronale codingCodierung, 'writing"schreiben and re-writingre-writing of memories'Memories, mentalgeistig illnessesKrankheiten. AhhhAhhh the futureZukunft is awesomegenial"]
238
606450
2457
10:20
SRSR: So the first thing that you'lldu wirst noticebeachten is that people
239
608907
2000
SR: Es ist auffällig, dass
die Leute sehr klare Meinungen
10:22
have really strongstark opinionsMeinungen about this kindArt of work.
240
610907
2903
über diese Art Forschung haben.
10:25
Now I happengeschehen to completelyvollständig agreezustimmen with the optimismOptimismus
241
613810
2554
Nun teile ich den Optimismus
dieses ersten Zitats total,
10:28
of this first quoteZitat,
242
616364
816
10:29
because on a scaleRahmen of zeroNull to MorganMorgan Freeman'sFreeman voiceStimme,
243
617180
2808
denn auf einer Skala
von eins bis überirdisch
10:31
it happensdas passiert to be one of the mostdie meisten evocativestimmungsvolle accoladesAuszeichnungen
244
619988
2123
ist es eine der wohlklingendsten Lobreden,
10:34
that I've heardgehört come our way.
245
622111
1550
die uns je begegnet ist.
10:35
(LaughterLachen)
246
623661
2196
(Gelächter)
Es gab aber auch andere Meinungen.
10:37
But as you'lldu wirst see, it's not the only opinionMeinung that's out there.
247
625857
1951
[Ziemlich erschreckend ... Was ist, wenn das in ein paar Jahren auch bei Menschen ganz leicht geht? OMG, DIE MENSCHHEIT IST VERLOREN]
10:39
["This scaresverängstigt the hellHölle out of me... What if they could do that easilyleicht in humansMenschen in a couplePaar of yearsJahre?! OH MY GOD WE'RE DOOMEDZUM SCHEITERN VERURTEILT"]
248
627808
1564
10:41
XLXL: IndeedIn der Tat, if we take a look at the secondzweite one,
249
629372
1918
10:43
I think we can all agreezustimmen that it's, mehmeh,
250
631290
2107
XL: Wir sind uns wohl alle einig,
dass das zweite Zitat
10:45
probablywahrscheinlich not as positivepositiv.
251
633397
2375
dass es irgendwie nicht so positiv ist.
10:47
But this alsoebenfalls remindserinnert us that,
252
635772
2185
Es erinnert uns aber auch daran,
10:49
althoughobwohl we are still workingArbeiten with miceMäuse,
253
637957
2186
dass wir zwar jetzt noch mit Mäusen arbeiten,
10:52
it's probablywahrscheinlich a good ideaIdee to startAnfang thinkingDenken and discussingdiskutieren
254
640143
3517
dass wir uns jetzt schon
Gedanken machen sollten
10:55
about the possiblemöglich ethicalethisch ramificationsVerzweigungen
255
643660
2991
über die möglichen ethischen Auswirkungen
10:58
of memoryErinnerung controlsteuern.
256
646651
1948
der Gedächtniskontrolle.
11:00
SRSR: Now, in the spiritGeist of the thirddritte quoteZitat,
257
648599
2200
SR: Im Geiste des dritten Zitats
11:02
we want to tell you about a recentkürzlich projectProjekt that we'vewir haben been
258
650799
1974
möchten wir nun von einem
anderen Projekt erzählen,
11:04
workingArbeiten on in labLabor that we'vewir haben callednamens ProjectProjekt InceptionGründung.
259
652773
2428
an dem wir kürzlich im Labor arbeitete:
Das Projekt "Inception", also "Beginn".
11:07
["They should make a movieFilm about this. Where they plantPflanze ideasIdeen into peoplesVölker mindsKöpfe, so they can controlsteuern them for theirihr ownbesitzen personalpersönlich gaingewinnen. We'llWir werden call it: InceptionGründung."]
260
655201
3243
["Darüber sollte es einen Film geben. Wo sie den Leuten Ideen ins Gehirn einpflanzen und sie für ihre eigenen Zwecke kontrollieren können. Der Titel wird Inception."]
11:10
So we reasonedbegründete that now that we can reactivatereaktivieren a memoryErinnerung,
261
658444
3734
Wir überlegten, dass wir ja nun
eine Erinnerung reaktivieren können –
11:14
what if we do so but then beginStart to tinkerbasteln with that memoryErinnerung?
262
662178
2952
wie wäre es nun, an dieser Erinnerung
ein wenig herumzubasteln?
11:17
Could we possiblymöglicherweise even turnWende it into a falsefalsch memoryErinnerung?
263
665130
3033
Könnten wir vielleicht sogar
eine falsche Erinnerung daraus machen?
11:20
XLXL: So all memoryErinnerung is sophisticatedanspruchsvoll and dynamicdynamisch,
264
668163
4099
XL: Natürlich sind Erinnerungen
differenziert und dynamisch,
11:24
but if just for simplicityEinfachheit, let's imaginevorstellen memoryErinnerung
265
672262
2979
aber der Einfachheit halber
stellen wir uns eine Erinnerung
11:27
as a movieFilm clipKlammer.
266
675241
1402
wie einen Filmclip vor.
11:28
So farweit what we'vewir haben told you is basicallyGrundsätzlich gilt we can controlsteuern
267
676643
2670
Bisher haben wir einfach erklärt,
dass wir auf "Play" drücken
11:31
this "playspielen" buttonTaste of the clipKlammer
268
679313
1931
und damit den Film abspielen können –
11:33
so that we can playspielen this videoVideo clipKlammer any time, anywhereirgendwo.
269
681244
4585
egal wann, egal wo.
11:37
But is there a possibilityMöglichkeit that we can actuallytatsächlich get
270
685829
2531
Aber besteht auch die Möglichkeit,
dass wir ins Gehirn eindringen
11:40
insideinnen the brainGehirn and editbearbeiten this movieFilm clipKlammer
271
688360
2860
und den Film bearbeiten können,
11:43
so that we can make it differentanders from the originalOriginal?
272
691220
2896
so dass er anders wird als das Original?
11:46
Yes we can.
273
694116
2178
Ja, das können wir.
11:48
TurnedWandte sich out that all we need to do is basicallyGrundsätzlich gilt
274
696294
2130
Eigentlich müssen wir nichts anderes tun
11:50
reactivatereaktivieren a memoryErinnerung usingmit lasersLasern just like we did before,
275
698424
4275
als wie vorher eine Erinnerung
mit Laser zu aktivieren,
11:54
but at the samegleich time, if we presentGeschenk newneu informationInformation
276
702699
3439
doch wenn wir gleichzeitig
neue Informationen haben,
11:58
and allowzulassen this newneu informationInformation to incorporateintegrieren into this oldalt memoryErinnerung,
277
706138
3974
die wir in die Erinnerung einbauen,
12:02
this will changeVeränderung the memoryErinnerung.
278
710112
2438
wird die Erinnerung verändert.
12:04
It's sortSortieren of like makingHerstellung a remixRemix tapeBand.
279
712550
3663
Es ist etwa wie ein Remix unseres Films.
12:08
SRSR: So how do we do this?
280
716213
2858
SR: Und wie können wir das machen?
12:11
RatherVielmehr than findingErgebnis a fearAngst memoryErinnerung in the brainGehirn,
281
719071
1957
Wir suchen im Gehirn nicht
nach einer Erinnerung an Angst,
12:13
we can startAnfang by takingunter our animalsTiere,
282
721028
1716
sondern nehmen die Tiere
12:14
and let's say we put them in a blueblau boxBox like this blueblau boxBox here
283
722744
2933
und setzen sie zum Beispiel in
eine blaue Kiste wie diese hier
12:17
and we find the brainGehirn cellsZellen that representvertreten that blueblau boxBox
284
725677
2494
und nun suchen wir die Gehirnzellen,
welche die blaue Kiste darstellen.
12:20
and we trickTrick them to respondreagieren to pulsesImpulse of lightLicht
285
728171
2073
Nun bringen wir sie dazu,
auf die Lichtpulse zu reagieren,
12:22
exactlygenau like we had said before.
286
730244
2121
so wie wir das vorher erklärt haben.
12:24
Now the nextNächster day, we can take our animalsTiere and placeOrt them
287
732365
2124
Am nächsten Tag nehmen wir die Tiere
12:26
in a redrot boxBox that they'veSie haben never experiencederfahren before.
288
734489
2699
und setzen sie in eine rote Kiste,
die sie noch nicht kennen.
12:29
We can shootschießen lightLicht into the brainGehirn to reactivatereaktivieren
289
737188
2026
Wir können nun Licht
in ihre Gehirne schießen und dadurch
12:31
the memoryErinnerung of the blueblau boxBox.
290
739214
2109
die Erinnerung an die blaue Kiste reaktivieren.
12:33
So what would happengeschehen here if, while the animalTier
291
741323
1744
Was passiert aber nun, wenn wir dem Tier,
12:35
is recallingerinnernd the memoryErinnerung of the blueblau boxBox,
292
743067
1894
während es sich an die blaue Kiste erinnert,
12:36
we gavegab it a couplePaar of mildmild footFuß shocksSchocks?
293
744961
2643
an den Füßen ein paar
leichte Stromschläge verpassen?
12:39
So here we're tryingversuchen to artificiallykünstlich make an associationVerband
294
747604
2693
Wir versuchen also,
künstlich eine Verbindung
12:42
betweenzwischen the memoryErinnerung of the blueblau boxBox
295
750297
1915
zwischen der Erinnerung an die blaue Kiste
12:44
and the footFuß shocksSchocks themselvessich.
296
752212
1503
und die Stromschläge herzustellen.
12:45
We're just tryingversuchen to connectverbinden the two.
297
753715
1779
Beides soll verknüpft werden.
12:47
So to testTest if we had doneerledigt so,
298
755494
1543
Um zu testen, ob wir das konnten,
12:49
we can take our animalsTiere onceEinmal again
299
757037
1328
nehmen wir die Mäuse jetzt wieder
12:50
and placeOrt them back in the blueblau boxBox.
300
758365
1946
und setzen sie zurück in die blaue Kiste.
12:52
Again, we had just reactivatedreaktiviert the memoryErinnerung of the blueblau boxBox
301
760311
2738
Wir haben also gerade die Erinnerung
an die blaue Kiste reaktiviert
12:55
while the animalTier got a couplePaar of mildmild footFuß shocksSchocks,
302
763049
2167
und der Maus gleichzeitig einige
leichte Stromschläge verpasst,
12:57
and now the animalTier suddenlyplötzlich freezesfriert ein.
303
765216
2370
und nun erstarrt sie plötzlich.
12:59
It's as thoughobwohl it's recallingerinnernd beingSein mildlyleicht shockedschockiert in this environmentUmwelt
304
767586
3202
Das Tier scheint sich zu erinnern, dass es
in dieser Umgebung Stromschläge bekam,
13:02
even thoughobwohl that never actuallytatsächlich happenedpassiert.
305
770788
3002
obwohl das so gar nie passiert ist.
13:05
So it formedgebildet a falsefalsch memoryErinnerung,
306
773790
1862
Es hat also eine falsche Erinnerung,
13:07
because it's falselyfälschlicherweise fearingaus Angst vor an environmentUmwelt
307
775652
2011
weil es sich fälschlicherweise
vor der Umgebung fürchtet,
13:09
where, technicallytechnisch speakingApropos,
308
777663
1254
wo es im Grunde genommen
13:10
nothing badschlecht actuallytatsächlich happenedpassiert to it.
309
778917
2349
nie etwas Schlimmes erlebt hat.
13:13
XLXL: So, so farweit we are only talkingim Gespräch about
310
781266
2453
XL: Bisher haben wir aber erst gesehen,
13:15
this light-controlledlichtgesteuerte "on" switchSchalter.
311
783719
2366
wie dieser lichtgesteuerten Schalter
auf "an" gestellt wird.
13:18
In factTatsache, we alsoebenfalls have a light-controlledlichtgesteuerte "off" switchSchalter,
312
786085
3288
Wir haben jedoch auch
einen lichtgesteuerten "Aus"-Schalter,
13:21
and it's very easyeinfach to imaginevorstellen that
313
789373
2080
und wir können uns vorstellen,
13:23
by installingInstallation this light-controlledlichtgesteuerte "off" switchSchalter,
314
791453
2478
dass dieser "Aus"-Schalter es möglich macht,
13:25
we can alsoebenfalls turnWende off a memoryErinnerung, any time, anywhereirgendwo.
315
793931
5588
eine Erinnerung abzuschalten –
egal wann, egal wo.
13:31
So everything we'vewir haben been talkingim Gespräch about todayheute
316
799519
2214
Alles, was wir heute erzählt haben,
13:33
is basedbasierend on this philosophicallyphilosophisch chargedberechnet principlePrinzip of neuroscienceNeurowissenschaften
317
801733
4677
basiert auf dem philosophischen
Prinzip der Neurowissenschaft,
13:38
that the mindVerstand, with its seeminglyscheinbar mysteriousgeheimnisvoll propertiesEigenschaften,
318
806410
4118
dass der Verstand mit
seinen geheimnisvollen Eigenschaften
13:42
is actuallytatsächlich madegemacht of physicalphysisch stuffSachen that we can tinkerbasteln with.
319
810528
3645
eigentlich aus Materie besteht,
an der wir herumbasteln können.
13:46
SRSR: And for me personallypersönlich,
320
814173
1475
SR: Für mich heißt das,
13:47
I see a worldWelt where we can reactivatereaktivieren
321
815648
1581
dass ich eine Welt sehe, in der wir
13:49
any kindArt of memoryErinnerung that we'dheiraten like.
322
817229
2116
Erinnerungen wiederherstellen können,
wie wir wollen.
13:51
I alsoebenfalls see a worldWelt where we can eraselöschen unwantedunerwünschte memoriesErinnerungen.
323
819345
3298
Ich sehe auch eine Welt vor mir, in der wir unerwünschte Erinnerungen auslöschen können.
13:54
Now, I even see a worldWelt where editingBearbeitung memoriesErinnerungen
324
822643
1936
Ich sehe sogar eine Welt,
wo das Überarbeiten von Erinnerungen
13:56
is something of a realityWirklichkeit,
325
824579
1539
eine Realität ist,
13:58
because we're livingLeben in a time where it's possiblemöglich
326
826118
1705
weil wir in einer Zeit leben, in der es möglich ist,
13:59
to pluckzupfen questionsFragen from the treeBaum of scienceWissenschaft fictionFiktion
327
827823
2225
Fragen aus der Science Fiction zu pflücken
14:02
and to groundBoden them in experimentalExperimental- realityWirklichkeit.
328
830048
2420
und sie in der experimentellen
Realität auszuprobieren.
14:04
XLXL: NowadaysHeute, people in the labLabor
329
832468
1883
XL: Heutzutage versuchen Leute im Labor
14:06
and people in other groupsGruppen all over the worldWelt
330
834351
2386
und in anderen Gruppen auf der ganzen Welt
14:08
are usingmit similarähnlich methodsMethoden to activateAktivieren or editbearbeiten memoriesErinnerungen,
331
836737
3817
mit ähnlichen Methoden, Erinnerungen
zu aktivieren oder zu bearbeiten.
14:12
whetherob that's oldalt or newneu, positivepositiv or negativeNegativ,
332
840554
3841
Alte und neue, positive und negative,
14:16
all sortssortiert of memoriesErinnerungen so that we can understandverstehen
333
844395
2672
alle Arten von Erinnerungen,
14:19
how memoryErinnerung worksWerke.
334
847067
1864
damit wir verstehen,
wie die Erinnerung funktioniert.
14:20
SRSR: For exampleBeispiel, one groupGruppe in our labLabor
335
848931
1784
SR: Eine unserer Laborgruppen
hat zum Beispiel
14:22
was ablefähig to find the brainGehirn cellsZellen that make up a fearAngst memoryErinnerung
336
850715
2638
herausgefunden, welche Hirnzellen
eine Angst-Erinnerung ausmachen
14:25
and convertedkonvertiert them into a pleasurableangenehme memoryErinnerung, just like that.
337
853353
2775
und wandelte sie in angenehme
Erinnerungen um – einfach so.
14:28
That's exactlygenau what I mean about editingBearbeitung these kindsArten of processesProzesse.
338
856128
3062
Genau das meinte ich mit "überarbeiten".
14:31
Now one dudeGeck in labLabor was even ablefähig to reactivatereaktivieren
339
859190
1812
Ein Typ im Labor schaffte
es sogar, Erinnerungen von
14:33
memoriesErinnerungen of femaleweiblich miceMäuse in malemännlich miceMäuse,
340
861002
2501
weibliche Mäusen
in männlichen Mäusen zu reaktivieren.
14:35
whichwelche rumorGerücht has it is a pleasurableangenehme experienceErfahrung.
341
863503
2995
Das soll ja eine eine angenehme Erfahrung sein.
14:38
XLXL: IndeedIn der Tat, we are livingLeben in a very excitingaufregend momentMoment
342
866498
4117
XL: Wir leben wirklich in einer aufregenden Zeit,
14:42
where scienceWissenschaft doesn't have any arbitrarywillkürlich speedGeschwindigkeit limitsGrenzen
343
870615
3805
in der die Wissenschaft keine
vorgegebene Höchstgeschwindigkeit kennt,
14:46
but is only boundgebunden by our ownbesitzen imaginationPhantasie.
344
874420
3187
sondern nur von der
eigenen Vorstellungskraft begrenzt wird.
14:49
SRSR: And finallyendlich, what do we make of all this?
345
877607
2147
SR: Zum Schluss bleibt die Frage:
Was machen wir aus all dem?
14:51
How do we pushdrücken this technologyTechnologie forwardVorwärts-?
346
879754
1971
Wie fördern wir diese Technologie?
14:53
These are the questionsFragen that should not remainbleiben übrig
347
881725
1837
Diese Fragen sollen nicht einfach
14:55
just insideinnen the labLabor,
348
883562
1675
im Labor beantwortet werden,
14:57
and so one goalTor of today'sheutige talk was to bringbringen everybodyjeder
349
885237
2572
und deshalb war ein Ziel
dieses Vortrags, Ihnen allen
14:59
up to speedGeschwindigkeit with the kindArt of stuffSachen that's possiblemöglich
350
887809
2319
aufzuzeigen, was mit
der modernen Neurowissenschaft
15:02
in modernmodern neuroscienceNeurowissenschaften,
351
890128
1384
alles möglich ist,
15:03
but now, just as importantlywichtig,
352
891512
1510
doch genau so wichtig ist es nun,
15:05
to activelyaktiv engageengagieren everybodyjeder in this conversationKonversation.
353
893022
3332
dass sich alle an dieser Diskussion beteiligen.
15:08
So let's think togetherzusammen as a teamMannschaft about what this all meansmeint
354
896354
2329
So sollten wir nun gemeinsam überlegen,
welche Bedeutung das alles hat
15:10
and where we can and should go from here,
355
898683
2474
und was wir damit erreichen können und wollen,
15:13
because XuXu and I think we all have
356
901157
2098
denn Xu und ich glauben, dass da ein
paar wirklich große Entscheidungen
15:15
some really biggroß decisionsEntscheidungen aheadvoraus of us.
357
903255
2536
vor uns allen liegen.
15:17
Thank you.
XLXL: Thank you.
358
905791
1125
Vielen Dank.
Xu: Vielen Dank.
15:18
(ApplauseApplaus)
359
906916
1634
(Applaus)
Translated by Salome Wigger
Reviewed by Judith Matz

▲Back to top

ABOUT THE SPEAKERS
Steve Ramirez - Neuroscientist
When Steve Ramirez published his latest study in Science, it caused a media frenzy. Why? Because the paper was on implanting false memories in the brains of mice.

Why you should listen

Steve is a graduate student at MIT’s Brain and Cognitive Sciences department pursuing a Ph.D. in neuroscience. His work focuses on finding where single memories are located throughout the brain, genetically tricking the brain cells that house these memories to respond to brief pulses of light, and then using these same flickers of light to reactivate, erase and implant memories. The goals of his research are twofold: to figure out how the brain gives rise to the seemingly ephemeral process of memory, and to predict what happens when specific brain pieces breakdown to impair cognition. His work has been published in Science and covered by New Scientist, Discover, Scientific American, and Gizmodo.

Ramirez aims to be a professor who runs a lab that plucks questions from the tree of science fiction to ground them in experimental reality. He believes that a team-oriented approach to science makes research and teaching far more exciting. When he’s not tinkering with memories in the lab, Ramirez also enjoys running and cheering on every sports team in the city of Boston.

More profile about the speaker
Steve Ramirez | Speaker | TED.com
Xu Liu - Neuroscientist
In his groundbreaking work, Xu Liu investigated how to activate and deactivate specific memories in mice.

Why you should listen

During his PhD, Xu Liu studied the mechanisms of learning and memory, using fruit flies as a model system. By changing the expression of certain genes in the fly brain, he generated smart flies that can learn many times faster than their peers. Using live imaging, he also detected learning-induced changes in the brain cells and observed memory formation inside the brain with light.

After graduation, he moved to MIT and joined Dr. Susumu Tonegawa's lab as a postdoctoral associate. He continued his pursuit of memory with light there. Instead of just watching memory formation, he developed a system in mice where one can not only identify and label cells in the brain for a particular memory, but also turn these cells on and off with light to activate this memory at will. This work was published in Science and has been covered by the media worldwide. Liu passed away in February 2015.

More profile about the speaker
Xu Liu | Speaker | TED.com