ABOUT THE SPEAKERS
Steve Ramirez - Neuroscientist
When Steve Ramirez published his latest study in Science, it caused a media frenzy. Why? Because the paper was on implanting false memories in the brains of mice.

Why you should listen

Steve is a graduate student at MIT’s Brain and Cognitive Sciences department pursuing a Ph.D. in neuroscience. His work focuses on finding where single memories are located throughout the brain, genetically tricking the brain cells that house these memories to respond to brief pulses of light, and then using these same flickers of light to reactivate, erase and implant memories. The goals of his research are twofold: to figure out how the brain gives rise to the seemingly ephemeral process of memory, and to predict what happens when specific brain pieces breakdown to impair cognition. His work has been published in Science and covered by New Scientist, Discover, Scientific American, and Gizmodo.

Ramirez aims to be a professor who runs a lab that plucks questions from the tree of science fiction to ground them in experimental reality. He believes that a team-oriented approach to science makes research and teaching far more exciting. When he’s not tinkering with memories in the lab, Ramirez also enjoys running and cheering on every sports team in the city of Boston.

More profile about the speaker
Steve Ramirez | Speaker | TED.com
Xu Liu - Neuroscientist
In his groundbreaking work, Xu Liu investigated how to activate and deactivate specific memories in mice.

Why you should listen

During his PhD, Xu Liu studied the mechanisms of learning and memory, using fruit flies as a model system. By changing the expression of certain genes in the fly brain, he generated smart flies that can learn many times faster than their peers. Using live imaging, he also detected learning-induced changes in the brain cells and observed memory formation inside the brain with light.

After graduation, he moved to MIT and joined Dr. Susumu Tonegawa's lab as a postdoctoral associate. He continued his pursuit of memory with light there. Instead of just watching memory formation, he developed a system in mice where one can not only identify and label cells in the brain for a particular memory, but also turn these cells on and off with light to activate this memory at will. This work was published in Science and has been covered by the media worldwide. Liu passed away in February 2015.

More profile about the speaker
Xu Liu | Speaker | TED.com
TEDxBoston

Steve Ramirez and Xu Liu: A mouse. A laser beam. A manipulated memory.

Steve Ramirez and Xu Liu: Un cobai. Un fascicul laser. O memorie manipulată.

Filmed:
1,127,889 views

Putem modifica conținutul amintirilor noastre? Este o întrebare SF pe care Steve Ramirez și Xu Liu o adresează din laboratoarele MIT. În mare, cei doi folosesc o undă laser asupra creierului unui șoarece viu pentru a activa și manipula memoria acestuia. În această prezentare neașteptat de amuzantă ei împărtășesc nu numai cum, ci și de ce fac asta. (Filmat la TEDxBoston).
- Neuroscientist
When Steve Ramirez published his latest study in Science, it caused a media frenzy. Why? Because the paper was on implanting false memories in the brains of mice. Full bio - Neuroscientist
In his groundbreaking work, Xu Liu investigated how to activate and deactivate specific memories in mice. Full bio

Double-click the English transcript below to play the video.

00:12
SteveSteve RamirezRamirez: My first yearan of gradgrad schoolşcoală,
0
371
1556
Steve Ramirez: În primul an de masterat,
00:13
I foundgăsite myselfeu insumi in my bedroomdormitor
1
1927
2004
mă aflam în căminul meu
00:15
eatingmâncare lots of BenBen & Jerry'sJerry pe
2
3931
2300
mâncând înghețată Ben & Jerry,
00:18
watchingvizionarea some trashyprost TVTV
3
6231
1684
uitându-mă la TV la tot felul de prostii,
00:19
and maybe, maybe listeningascultare to TaylorTaylor SwiftSwift.
4
7915
3227
și poate ascultând și Taylor Swift.
00:23
I had just goneplecat throughprin a breakupdespartire.
5
11142
1741
Tocmai trecusem printr-o despărțire.
00:24
(LaughterRâs)
6
12883
1447
(Râsete)
00:26
So for the longestcea mai lungă time, all I would do
7
14330
2196
Mult timp, tot ce am făcut a fost
00:28
is recallrechemare the memorymemorie of this personpersoană over and over again,
8
16526
3816
să îmi amintesc constant de acea persoană,
00:32
wishingcare doresc that I could get ridscăpa of that gut-wrenchingGut-chinuitoare,
9
20342
2493
dorind să scap de acel sentiment care mă tortura,
00:34
visceralviscerale "blahbla" feelingsentiment.
10
22835
2533
acel visceral "bla".
00:37
Now, as it turnstransformă out, I'm a neuroscientistneurolog,
11
25368
2283
Ei bine, sunt specialist în neuroștiință,
00:39
so I knewștiut that the memorymemorie of that personpersoană
12
27651
2402
deci știam că amintirea acelei persoane
00:42
and the awfulîngrozitor, emotionalemoţional undertonesnuanţe that colorculoare in that memorymemorie,
13
30053
3140
și ecourile emoționale îngrozitoare care dădeau culoare acelor amintiri
00:45
are largelyîn mare măsură mediatedmediat by separatesepara braincreier systemssisteme.
14
33193
2634
sunt gestionate de către sisteme cerebrale diferite.
00:47
And so I thought, what if we could go into the braincreier
15
35827
2365
Mă gândeam, ce ar fi dacă am putea intra în creier
00:50
and editEditați | × out that nauseatingscabros feelingsentiment
16
38192
2090
și șterge acea stare de rău,
00:52
but while keepingpăstrare the memorymemorie of that personpersoană intactintact?
17
40282
2970
păstrând intactă amintirea acelei persoane ?
00:55
Then I realizedrealizat, maybe that's a little bitpic loftynobile for now.
18
43252
2411
Apoi am realizat că e prea măreț pentru moment.
00:57
So what if we could startstart off by going into the braincreier
19
45663
2793
Ce ar fi dacă am începe prin a intra în creier
01:00
and just findingdescoperire a singlesingur memorymemorie to beginÎNCEPE with?
20
48456
2633
și a gasi o singură amintire ?
01:03
Could we jump-startsari-Start that memorymemorie back to life,
21
51089
2514
Am putea reaprinde acea amintire,
01:05
maybe even playa juca with the contentsconținut of that memorymemorie?
22
53603
3868
poate chiar să ne jucam cu conținutul ei ?
01:09
All that said, there is one personpersoană in the entireîntreg worldlume right now
23
57471
2229
Astea fiind zise, există o singură persoană pe lume
01:11
that I really hopesperanţă is not watchingvizionarea this talk.
24
59700
2055
care sper să nu se uite la această înregistrare.
01:13
(LaughterRâs)
25
61755
3941
(Râsete)
01:17
So there is a catchcaptură. There is a catchcaptură.
26
65696
3289
Există deci o șmecherie. Există o șmecherie.
01:20
These ideasidei probablyprobabil remindreaminti you of "TotalTotal RecallRechemare,"
27
68985
2788
Aceste idei probabil vă amintesc de filmele
„Total Recall",
01:23
"EternalVeşnică SunshineSoare of the SpotlessFără pată MindMintea,"
28
71773
1974
„Eternal Sunshine of the Spotless Mind",
01:25
or of "InceptionLa începuturile."
29
73747
1303
sau de „Inception".
01:27
But the moviefilm starsstele that we work with
30
75050
1576
Dar starurile cu care lucrăm noi
01:28
are the celebritiesCelebritati of the lablaborator.
31
76626
1943
sunt celebrități de laborator.
01:30
XuXu LiuLiu: TestTest micesoareci.
32
78569
1900
Xu Liu: Șoarecii de laborator.
01:32
(LaughterRâs)
33
80469
1128
(Râsete)
01:33
As neuroscientistsNeurologii, we work in the lablaborator with micesoareci
34
81597
3154
Ca neurologi, lucrăm în laborator cu șoareci,
01:36
tryingîncercat to understanda intelege how memorymemorie workslucrări.
35
84751
3410
încercand să înțelegem cum funcționează memoria.
01:40
And todayastăzi, we hopesperanţă to convinceconvinge you that now
36
88161
2569
Iar astăzi, sperăm să vă convingem că acum
01:42
we are actuallyde fapt ablecapabil to activateactiva a memorymemorie in the braincreier
37
90730
3216
avem posibilitatea să activăm o amintire din creier
01:45
at the speedviteză of lightușoară.
38
93946
2170
cu viteza luminii.
01:48
To do this, there's only two simplesimplu stepspași to followurma.
39
96116
3106
Pentru asta, există doar doi pași simpli ce trebuie urmați.
01:51
First, you find and labeleticheta a memorymemorie in the braincreier,
40
99222
3510
Întâi, identificați și etichetați o amintire din creier,
01:54
and then you activateactiva it with a switchintrerupator.
41
102732
3630
după care o activați cu un întrerupător.
01:58
As simplesimplu as that.
42
106362
1445
Simplu.
01:59
(LaughterRâs)
43
107807
1822
(Râsete)
02:01
SRSR: Are you convincedconvins?
44
109629
1845
SR: V-am convins ?
02:03
So, turnstransformă out findingdescoperire a memorymemorie in the braincreier isn't all that easyuşor.
45
111474
3721
Însă, nu e ușor să gasești o amintire în creier.
02:07
XLXL: IndeedÎntr-adevăr. This is way more difficultdificil than, let's say,
46
115195
2803
XL: Într-adevar. E mult mai dificil decât, să zicem,
02:09
findingdescoperire a needleac in a haystackcarul cu fân,
47
117998
2404
găsirea unui ac într-o capiță de fân,
02:12
because at leastcel mai puţin, you know, the needleac is still something
48
120402
2589
pentru că, acul e macăr ceva tangibil,
02:14
you can physicallyfizic put your fingersdegete on.
49
122991
2500
pe care poți efectiv pune mâna.
02:17
But memorymemorie is not.
50
125491
1977
Dar memoria nu este.
02:19
And alsode asemenea, there's way more cellscelulele in your braincreier
51
127468
3038
De asemenea, există considerabil mai multe celule în creierul nostru
02:22
than the numbernumăr of strawslamele in a typicaltipic haystackcarul cu fân.
52
130506
5066
decât există paie într-o căpiță obișnuită.
02:27
So yeah, this tasksarcină does seempărea to be dauntingdescurajantă.
53
135572
2879
Da, acest scop pare într-adevăr mai complicat.
02:30
But luckilydin fericire, we got help from the braincreier itselfîn sine.
54
138451
3679
Din fericire, am primit ajutor chiar din partea creierului.
02:34
It turnedîntoarse out that all we need to do is basicallype scurt
55
142130
2455
Tot ce trebuie să facem este
02:36
to let the braincreier formformă a memorymemorie,
56
144585
1993
să permitem creierului să formeze o amintire,
02:38
and then the braincreier will tell us whichcare cellscelulele are involvedimplicat
57
146578
3830
după care creierul ne va spune care celule sunt implicate
02:42
in that particularspecial memorymemorie.
58
150408
1766
în acea amintire.
02:44
SRSR: So what was going on in my braincreier
59
152174
2357
SR: Ce se intampla, deci, în creierul meu
02:46
while I was recallingreamintind the memorymemorie of an exex?
60
154531
2094
când îmi aminteam de fosta mea prietenă?
02:48
If you were to just completelycomplet ignoreignora humanuman ethicsetica for a secondal doilea
61
156625
2402
Dacă ați ingnora complet etica umană pentru o secundă
02:51
and slicefelie up my braincreier right now,
62
159027
1668
și mi-ați diseca creierul,
02:52
you would see that there was an amazinguimitor numbernumăr
63
160695
2018
ați vedea că există un numar impresionant de
02:54
of braincreier regionsregiuni that were activeactiv while recallingreamintind that memorymemorie.
64
162713
3178
zone în creier active în aducerea la viață a acelei amintiri.
02:57
Now one braincreier regionregiune that would be robustlyrobust activeactiv
65
165891
2912
O regiune a creierului foarte activă
03:00
in particularspecial is calleddenumit the hippocampuscal de mare,
66
168803
2007
este hipocampusul,
03:02
whichcare for decadesdecenii has been implicatedimplicate in processingprelucrare
67
170810
2455
care zeci de ani a fost implicat în procesarea amintirilor
03:05
the kindstipuri of memoriesamintiri that we holddeține nearaproape and deardragă,
68
173265
2416
pe care le considerăm dragi și personale,
03:07
whichcare alsode asemenea makesmărci it an idealideal targetţintă to go into
69
175681
2574
făcându-l ținta ideală pentru investigații
03:10
and to try and find and maybe reactivatereactivaţi a memorymemorie.
70
178255
2785
pentru a găsi și reactiva o amintire.
03:13
XLXL: When you zoomzoom in into the hippocampuscal de mare,
71
181040
2394
XL: Când priviți la hipocampus
03:15
of coursecurs you will see lots of cellscelulele,
72
183434
2348
se văd bineînțeles o mulțime de celule,
03:17
but we are ablecapabil to find whichcare cellscelulele are involvedimplicat
73
185782
3031
dar am reușit să găsim celulele implicate
03:20
in a particularspecial memorymemorie,
74
188813
1476
într-o anumită amintire,
03:22
because wheneveroricând a cellcelulă is activeactiv,
75
190289
2618
deoarece atunci când o celulă este activă,
03:24
like when it's formingformare a memorymemorie,
76
192907
1464
ca atunci când formează o amintire,
03:26
it will alsode asemenea leavepărăsi a footprinturmă that will latermai tarziu allowpermite us to know
77
194371
3757
va lăsa o amprentă care ne va permite mai tarziu
03:30
these cellscelulele are recentlyrecent activeactiv.
78
198128
2702
să discernem că aceste celule au fost active recent.
03:32
SRSR: So the samela fel way that buildingclădire lightslumini at night
79
200830
2160
SR: La fel cum luminile într-o clădire noaptea
03:34
let you know that somebody'se cineva probablyprobabil workinglucru there at any givendat momentmoment,
80
202990
2948
indică faptul că cineva muncește acolo,
03:37
in a very realreal sensesens, there are biologicalbiologic sensorssenzori
81
205938
3288
într-un sens foarte concret, există senzori biologici
03:41
withinîn a cellcelulă that are turnedîntoarse on
82
209226
1954
în interiorul unei celule care sunt vizibili
03:43
only when that cellcelulă was just workinglucru.
83
211180
2135
numai atunci când celula tocmai a fost activă.
03:45
They're sortfel of biologicalbiologic windowsferestre that lightușoară up
84
213315
1876
Sunt un fel de ferestre biologice care se aprind
03:47
to let us know that that cellcelulă was just activeactiv.
85
215191
1978
pentru a ne semnala că celula tocmai a fost activă.
03:49
XLXL: So we clippeddecupaje partparte of this sensorsenzor,
86
217169
2829
XL: Așa că am decupat parte a acestui senzor
03:51
and attachedatașat that to a switchintrerupator to controlControl the cellscelulele,
87
219998
3147
și l-am atașat unui întrerupător pentru a controla celula,
03:55
and we packedbătătorit this switchintrerupator into an engineeredinginerie virusvirus
88
223145
3900
după care am împachetat acest întrerupator într-un virus artificial
03:59
and injectedinjectat that into the braincreier of the micesoareci.
89
227045
2588
și l-am injectat în creierul unui șoarece.
04:01
So wheneveroricând a memorymemorie is beingfiind formedformat,
90
229633
2634
Oricând se formează o amintire,
04:04
any activeactiv cellscelulele for that memorymemorie
91
232267
2348
oricare din celulele active pentru acea amintire
04:06
will alsode asemenea have this switchintrerupator installedinstalat.
92
234615
2742
vor avea acest întrerupător instalat.
04:09
SRSR: So here is what the hippocampuscal de mare looksarată like
93
237357
1625
SR: Iată deci cum arată hipocampusul
04:10
after formingformare a fearfrică memorymemorie, for exampleexemplu.
94
238982
2840
dupa formarea unei amintiri de frică.
04:13
The seamare of bluealbastru that you see here
95
241822
2140
Marea de albastru pe care o vedeți aici
04:15
are denselydens packedbătătorit braincreier cellscelulele,
96
243962
1952
sunt celule de creier într-o concentrație mare,
04:17
but the greenverde braincreier cellscelulele,
97
245914
1545
dar celulele verzi
04:19
the greenverde braincreier cellscelulele are the onescele that are holdingdeținere on
98
247459
2096
sunt cele care mențin
04:21
to a specificspecific fearfrică memorymemorie.
99
249555
1843
vie amintirea unei frici anume.
04:23
So you are looking at the crystallizationcristalizare
100
251398
1979
Vă uitați, deci, la cristalizarea
04:25
of the fleetingtrecătoare formationformare of fearfrică.
101
253377
2387
unei formațiuni pasagere a fricii.
04:27
You're actuallyde fapt looking at the cross-sectionsecţiune transversală of a memorymemorie right now.
102
255764
3497
De fapt, priviți acum imaginea în secțiune a unei amintiri.
04:31
XLXL: Now, for the switchintrerupator we have been talkingvorbind about,
103
259261
2408
XL: Cât despre întrerupatorul de care am vorbit,
04:33
ideallyideal, the switchintrerupator has to actact really fastrapid.
104
261669
2970
ideal, ar trebui sa reacționeze foarte repede.
04:36
It shouldn'tnu ar trebui take minutesminute or hoursore to work.
105
264639
2579
N-ar trebui să ia minute sau ore ca să funcționeze.
04:39
It should actact at the speedviteză of the braincreier, in millisecondsmilisecunde.
106
267218
4264
Ar trebui să acționeze la viteza creierului, în milisecunde.
04:43
SRSR: So what do you think, XuXu?
107
271482
1430
SR: Deci ce crezi, Xu?
04:44
Could we use, let's say, pharmacologicalfarmacologic drugsdroguri
108
272912
2602
Am putea folosi, să zicem, substanțe farmaceutice
04:47
to activateactiva or inactivateinactiva braincreier cellscelulele?
109
275514
1838
pentru a activa celulele creierului?
04:49
XLXL: Nahnu. DrugsMedicamente are prettyfrumos messymurdar. They spreadrăspândire everywherepretutindeni.
110
277352
4063
XL: Nu. Substanțele sunt imprecise.
Se împrăștie peste tot.
04:53
And alsode asemenea it takes them foreverpentru totdeauna to actact on cellscelulele.
111
281415
3008
Și le ia și o groază de timp să acționeze asupra celulelor.
04:56
So it will not allowpermite us to controlControl a memorymemorie in realreal time.
112
284423
3649
Nu ne permit să controlăm o amintire în timp real.
05:00
So SteveSteve, how about let's zapzap the braincreier with electricityelectricitate?
113
288072
4294
Atunci, Steve, să stimulăm creierul cu electricitate?
05:04
SRSR: So electricityelectricitate is prettyfrumos fastrapid,
114
292366
2305
SR: Electricitarea e destul de rapidă,
05:06
but we probablyprobabil wouldn'tnu ar fi be ablecapabil to targetţintă it
115
294671
1739
dar nu am putea ținti
05:08
to just the specificspecific cellscelulele that holddeține ontope a memorymemorie,
116
296410
2354
celulele implicate într-o anumită amintire,
05:10
and we'dne-am probablyprobabil fryprăji the braincreier.
117
298764
1878
și probabil că am și prăji creierul.
05:12
XLXL: Oh. That's trueAdevărat. So it looksarată like, hmmHmm,
118
300642
3195
XL: Ai dreptate. Se pare că,
05:15
indeedintr-adevar we need to find a better way
119
303837
2611
trebuie într-adevăr să găsim o cale mai bună
05:18
to impactefect the braincreier at the speedviteză of lightușoară.
120
306448
3295
de a interveni în creier cu viteza luminii.
05:21
SRSR: So it just so happensse întâmplă that lightușoară travelscălătorii at the speedviteză of lightușoară.
121
309743
5086
SR: Întâmplător, lumina e percepută...
cu viteza luminii.
05:26
So maybe we could activateactiva or inactiveinactiv memoriesamintiri
122
314829
3483
Am putea atunci să activăm și să dezactivăm amintiri
05:30
by just usingutilizând lightușoară --
123
318312
1497
folosind doar lumina --
05:31
XLXL: That's prettyfrumos fastrapid.
124
319809
1355
XL: Asta-i foarte rapid.
05:33
SRSR: -- and because normallyîn mod normal braincreier cellscelulele
125
321164
1885
SR: -- și pentru că în mod normal celulele creierului
05:35
don't respondrăspunde to pulsesimpulsuri of lightușoară,
126
323049
1588
nu răspund la impulsuri luminoase --
05:36
so those that would respondrăspunde to pulsesimpulsuri of lightușoară
127
324637
1958
cele care ar răspunde pulsurilor de lumină
05:38
are those that containconține a light-sensitivesensibile la lumina switchintrerupator.
128
326595
2464
ar fi cele care conțin întrerupătorul sensibil la lumină.
05:41
Now to do that, first we need to tricktruc braincreier cellscelulele
129
329059
1946
Pentru asta, întâi trebuie sa păcălim celulele creierului
05:43
to respondrăspunde to lasercu laser beamsgrinzi.
130
331005
1462
să raspundă la raze laser.
05:44
XLXL: YepDa. You heardauzit it right.
131
332467
1070
XL: Da. Ați auzit bine.
05:45
We are tryingîncercat to shoottrage laserslasere into the braincreier.
132
333537
2132
Încercăm să tragem cu raze laser în creier.
05:47
(LaughterRâs)
133
335669
1745
(Râsete)
05:49
SRSR: And the techniquetehnică that letspermite us do that is optogeneticsoptogenetics.
134
337414
3324
SR: Tehnica ce ne permite să facem asta este optogenetica.
05:52
OptogeneticsOptogenetics gavea dat us this lightușoară switchintrerupator that we can use
135
340738
3282
Optogenetica ne dă întrerupatorul de lumină pe care il putem folosi
05:56
to turnviraj braincreier cellscelulele on or off,
136
344020
1508
pentru a porni sau opri celulele creierului,
05:57
and the nameNume of that switchintrerupator is channelrhodopsinchannelrhodopsin,
137
345528
2517
iar numele acelui întrerupator e "channeirhodopsin",
06:00
seenvăzut here as these greenverde dotspuncte attachedatașat to this braincreier cellcelulă.
138
348045
2537
reprezentat aici ca buline verzi atașate la celula nervoasă.
06:02
You can think of channelrhodopsinchannelrhodopsin as a sortfel of light-sensitivesensibile la lumina switchintrerupator
139
350582
3299
Gândiți-vă la channeirhodopsina ca la un
întrerupător sensibil la lumină
06:05
that can be artificiallyartificial installedinstalat in braincreier cellscelulele
140
353881
2627
instalat artificial într-o celulă a creierului
06:08
so that now we can use that switchintrerupator
141
356508
1914
încât să-l putem folosi
06:10
to activateactiva or inactivateinactiva the braincreier cellcelulă simplypur şi simplu by clickingclic it,
142
358422
3013
pentru a activa sau dezactiva o celula printr-un simplu clic,
06:13
and in this casecaz we clickclic it on with pulsesimpulsuri of lightușoară.
143
361435
2468
iar în acest caz le activăm cu impulsuri luminoase.
06:15
XLXL: So we attachatașa this light-sensitivesensibile la lumina switchintrerupator of channelrhodopsinchannelrhodopsin
144
363903
3786
XL: Atașăm acest întrerupător din channeirhodopsina sensibilă la lumină
06:19
to the sensorsenzor we'vene-am been talkingvorbind about
145
367689
2208
la senzorul despre care vorbeam
06:21
and injectinjecta this into the braincreier.
146
369897
2455
și îl injectăm în creier.
06:24
So wheneveroricând a memorymemorie is beingfiind formedformat,
147
372352
3211
Astfel încât oricând o amintire e formată,
06:27
any activeactiv cellcelulă for that particularspecial memorymemorie
148
375563
2227
oricare celulă activă a acelei amintiri specifice
06:29
will alsode asemenea have this light-sensitivesensibile la lumina switchintrerupator installedinstalat in it
149
377790
3484
va avea acest întrerupător sensibil la lumină instalat
06:33
so that we can controlControl these cellscelulele
150
381274
2401
astfel că putem controla celulele
06:35
by the flippingflipping of a lasercu laser just like this one you see.
151
383675
4264
prin simpla activare a unui laser ca cel pe care îl vedeți.
06:39
SRSR: So let's put all of this to the testTest now.
152
387939
2864
SR: Haideți să testăm toate astea.
06:42
What we can do is we can take our micesoareci
153
390803
2135
Ce putem face este să luam șoarecele
06:44
and then we can put them in a boxcutie that looksarată exactlyexact like this boxcutie here,
154
392938
2928
și să-l punem într-o cutie exact ca aceasta,
06:47
and then we can give them a very mildblând footpicior shockşoc
155
395866
2340
după care îi generăm un șoc ușor la picior
06:50
so that they formformă a fearfrică memorymemorie of this boxcutie.
156
398206
2035
pentru a forma o amintire a acestei cutii.
06:52
They learnînvăța that something badrău happeneds-a întâmplat here.
157
400241
1979
Șoarecele învață că ceva neplacut se întamplă aici.
06:54
Now with our systemsistem, the cellscelulele that are activeactiv
158
402220
2342
Cu sistemul nostru, celulele care sunt active
06:56
in the hippocampuscal de mare in the makingluare of this memorymemorie,
159
404562
2931
în hipocampus în crearea acestei amintiri,
06:59
only those cellscelulele will now containconține channelrhodopsinchannelrhodopsin.
160
407493
2883
numai acele celule conțin channeirhodopsina.
07:02
XLXL: When you are as smallmic as a mousemouse,
161
410376
3017
XL: Când ești mic ca un șoarece,
07:05
it feelsse simte as if the wholeîntreg worldlume is tryingîncercat to get you.
162
413393
3595
te simți ca și cum întreaga lume ar încerca să te prindă.
07:08
So your bestCel mai bun responseraspuns of defenseapărare
163
416988
1748
Așa că cea mai bună apărare este
07:10
is tryingîncercat to be undetectednedetectate.
164
418736
2482
să nu fii detectat.
07:13
WheneverOri de câte ori a mousemouse is in fearfrică,
165
421218
2033
De fiecare dată când un șoarece e într-o stare de frică,
07:15
it will showspectacol this very typicaltipic behaviorcomportament
166
423251
1526
va etala un comportament tipic
07:16
by stayingședere at one cornercolţ of the boxcutie,
167
424777
1769
de a sta într-un colț al cutiei,
07:18
tryingîncercat to not movemișcare any partparte of its bodycorp,
168
426546
3118
încercând să nu-și miște nicio parte a corpului,
07:21
and this posturepostură is calleddenumit freezingcongelare.
169
429664
3295
postura se numește „înghețare".
07:24
So if a mousemouse remembersîşi aminteşte that something badrău happeneds-a întâmplat in this boxcutie,
170
432959
4294
Dacă șoarecele își amintește că ceva neplăcut s-a
întâmplat în cutie,
07:29
and when we put them back into the samela fel boxcutie,
171
437253
2623
când îl punem înapoi în acea cutie,
07:31
it will basicallype scurt showspectacol freezingcongelare
172
439876
1804
va „îngheța" din nou
07:33
because it doesn't want to be detecteddetectat
173
441680
2285
pentru că nu dorește să fie detectat
07:35
by any potentialpotenţial threatsameninţări in this boxcutie.
174
443965
2695
de către potențialele amenințări din cutie.
07:38
SRSR: So you can think of freezingcongelare as,
175
446660
1355
SR: Vă puteți gândi la înghețare ca atunci când
07:40
you're walkingmers down the streetstradă mindingminding your ownpropriu businessAfaceri,
176
448015
2215
mergeți pe stradă văzându-vă de ale voaste,
07:42
and then out of nowherenicăieri you almostaproape runalerga into
177
450230
1725
după care din senin dați peste
07:43
an ex-girlfriendex-prietena or ex-boyfriendex-iubit,
178
451955
2192
o fostă prietenă sau un fost prieten,
07:46
and now those terrifyingînfricoșător two secondssecunde
179
454147
2134
și acele 2 secunde îngrozitoare
07:48
where you startstart thinkinggândire, "What do I do? Do I say hiBună?
180
456281
1876
în care vă gândiți „acum ce fac, ce zic?"
07:50
Do I shakescutura theiral lor handmână? Do I turnviraj around and runalerga away?
181
458157
1368
dau mâna sau mă întorc și fug ?
07:51
Do I sitsta here and pretendpretinde like I don't existexista?"
182
459525
2029
Sau rămân pe loc și mă fac că nu exist?
07:53
Those kindstipuri of fleetingtrecătoare thoughtsgânduri that physicallyfizic incapacitateimobilizării you,
183
461554
3184
Acest gen de gânduri care ne imobilizeaza fizic,
07:56
that temporarilytemporar give you that deer-in-headlightscerb în faruri look.
184
464738
2746
care ne dau pentru o secundă acea privire de „animal în lumina farurilor".
07:59
XLXL: HoweverCu toate acestea, if you put the mousemouse in a completelycomplet differentdiferit
185
467484
3291
XL: Însă, dacă punem șoarecele într-o cutie diferită,
08:02
newnou boxcutie, like the nextUrmător → one,
186
470775
3161
nouă, ca urmatoarea,
08:05
it will not be afraidsperiat of this boxcutie
187
473936
2147
nu-i va fi frică de această cutie
08:08
because there's no reasonmotiv that it will be afraidsperiat of this newnou environmentmediu inconjurator.
188
476083
4729
pentru că nu există motive să-i fie frică de acest nou mediu.
08:12
But what if we put the mousemouse in this newnou boxcutie
189
480812
3180
Dar dacă punem șoarecele în această nouă cutie
08:15
but at the samela fel time, we activateactiva the fearfrică memorymemorie
190
483992
3611
iar în același timp activăm amintirea fricii
08:19
usingutilizând laserslasere just like we did before?
191
487603
2679
folosind laserul exact cum am făcut anterior?
08:22
Are we going to bringaduce back the fearfrică memorymemorie
192
490282
2854
Vom reactiva amintirea fricii
08:25
for the first boxcutie into this completelycomplet newnou environmentmediu inconjurator?
193
493136
3997
din prima cutie dar în acest mediu nou?
08:29
SRSR: All right, and here'saici e the million-dollarmilioane de dolari experimentexperiment.
194
497133
2735
SR: Ei bine, iată experimentul de un milion de dolari.
08:31
Now to bringaduce back to life the memorymemorie of that day,
195
499868
2913
Pentru a aduce la viață amintirea acelei zilei,
08:34
I remembertine minte that the RedRed SoxSox had just woncastigat,
196
502781
2183
îmi amintesc că Red Sox tocmai câștigaseră,
08:36
it was a greenverde springarc day,
197
504964
1909
era o zi însorită de primavară,
08:38
perfectperfect for going up and down the riverrâu
198
506873
1817
perfectă pentru a vâsli pe râu
08:40
and then maybe going to the NorthNord EndSfârşitul
199
508690
2334
și poate chiar pentru a merge în North End
08:43
to get some cannoliscannolis, #justsayingjustsaying.
200
511024
2160
să mâncăm niște cannoli, zic și eu.
08:45
Now XuXu and I, on the other handmână,
201
513184
3102
Pe de altă parte, Xu și cu mine
08:48
were in a completelycomplet windowlessfără ferestre blacknegru roomcameră
202
516286
2829
eram într-o încăpere neagră, fără nicio fereastră,
08:51
not makingluare any ocularoculare movementcirculaţie that even remotelyla distanţă resemblesseamana an eyeochi blinkclipi din ochi
203
519115
3661
nemișcați, nici măcăr nu clipeam,
08:54
because our eyesochi were fixedfix ontope a computercomputer screenecran.
204
522776
2466
pentru că ochii ne erau țintuiți pe monitorul calculatorului.
08:57
We were looking at this mousemouse here tryingîncercat to activateactiva a memorymemorie
205
525242
2556
Ne uitam la acest șoarece, încercând să activăm o amintire,
08:59
for the first time usingutilizând our techniquetehnică.
206
527798
1883
folosind prima data metoda noastră.
09:01
XLXL: And this is what we saw.
207
529681
2688
XL: Iar asta este ceea ce am văzut.
09:04
When we first put the mousemouse into this boxcutie,
208
532369
2202
Când am pus șoarecele prima dată în această cutie,
09:06
it's exploringexplorarea, sniffingsniffing around, walkingmers around,
209
534571
3113
explora, mirosea prin jur, mergea de colo colo,
09:09
mindingminding its ownpropriu businessAfaceri,
210
537684
1689
văzându-și de treabă,
09:11
because actuallyde fapt by naturenatură,
211
539373
1701
deoarece prin natura lor,
09:13
micesoareci are prettyfrumos curiouscurios animalsanimale.
212
541074
1979
șoarecii sunt animale curioase.
09:15
They want to know, what's going on in this newnou boxcutie?
213
543053
2622
Vor să știe care e treaba cu această nouă cutie.
09:17
It's interestinginteresant.
214
545675
1531
Este interesant.
09:19
But the momentmoment we turnedîntoarse on the lasercu laser, like you see now,
215
547206
3451
Dar în momentul în care am pornit laserul, după cum vedeți aici,
09:22
all of a suddenbrusc the mousemouse entereda intrat this freezingcongelare modemod.
216
550657
3032
imediat șoarecele a intrat în acel comportament de înghețare.
09:25
It stayedau stat here and triedîncercat not to movemișcare any partparte of its bodycorp.
217
553689
4431
A ramas pe loc încercând să nu mai miște nicio parte a corpului.
09:30
ClearlyÎn mod clar it's freezingcongelare.
218
558120
1628
Evident a înghețat.
09:31
So indeedintr-adevar, it looksarată like we are ablecapabil to bringaduce back
219
559748
2583
Arată într-adevăr ca și cum am fi reușit să reînviem
09:34
the fearfrică memorymemorie for the first boxcutie
220
562331
2064
amintirea fricii din prima cutie
09:36
in this completelycomplet newnou environmentmediu inconjurator.
221
564395
3367
în acest mediu complet nou.
09:39
While watchingvizionarea this, SteveSteve and I
222
567762
2112
În timp ce ne uitam la asta, Steve și cu mine
09:41
are as shockedșocat as the mousemouse itselfîn sine.
223
569874
2133
eram la fel de șocați ca și șoarecele însuși.
09:44
(LaughterRâs)
224
572007
1262
(Râsete)
09:45
So after the experimentexperiment, the two of us just left the roomcameră
225
573269
3307
După experiment, amândoi am părăsit camera
09:48
withoutfără sayingzicală anything.
226
576576
1753
fără să zicem nimic.
09:50
After a kinddrăguț of long, awkwardincomode periodperioadă of time,
227
578329
3396
După o vreme,
09:53
SteveSteve brokerupt the silencetăcere.
228
581725
2212
Steve a fost cel care a întrerupt tăcerea.
09:55
SRSR: "Did that just work?"
229
583937
2341
SR: „Mi se pare mie sau a funcționat?"
09:58
XLXL: "Yes," I said. "IndeedÎntr-adevăr it workeda lucrat!"
230
586278
2974
XL: „Da," am zis. „Într-adevăr a mers!"
10:01
We're really excitedexcitat about this.
231
589252
2117
Am fost foarte entuziasmați de această reușită.
10:03
And then we publishedpublicat our findingsconstatările
232
591369
2624
Ne-am publicat descoperirile
10:05
in the journaljurnal NatureNatura.
233
593993
1696
în jurnalul Nature.
10:07
Ever sincede cand the publicationpublicare of our work,
234
595689
2471
De la publicarea lucrării,
10:10
we'vene-am been receivingprimire numerousnumeroși commentscomentarii
235
598160
2415
am primit numeroase comentarii
10:12
from all over the InternetInternet.
236
600575
2125
din tot internetul.
10:14
Maybe we can take a look at some of those.
237
602700
3750
Poate ne putem uita la câteva.
10:18
["OMGGGGGOMGGGGG FINALLYÎN CELE DIN URMĂ... so much more to come, virtualvirtual realityrealitate, neuralneural manipulationmanipulare, visualvizual dreamvis emulationemulație... neuralneural codingde codificare, 'writing' scriere and re-writingre-scris of memories'amintiri', mentalmental illnessesboli. AhhhAhhh the futureviitor is awesomeminunat"]
238
606450
2457
[OMG, ÎN SFÂRȘIT... vor urma multe, realitate virtuală, manipulare neuronală, simularea virtuală a viselor... codificare neuronală, scrierea și rescrierea memoriei, boli mentale. Aah, viitorul e nemaipomenit]
10:20
SRSR: So the first thing that you'llveți noticeînștiințare is that people
239
608907
2000
SR: Primul lucru pe care îl observați este că oamenii
10:22
have really strongputernic opinionsopinii about this kinddrăguț of work.
240
610907
2903
au opinii foarte puternice despre acest gen de cercetare.
10:25
Now I happenîntâmpla to completelycomplet agreede acord with the optimismoptimism
241
613810
2554
Se întamplă să fiu foarte de acord cu optimismul
10:28
of this first quotecitat,
242
616364
816
exprimat de acest citat,
10:29
because on a scalescară of zerozero to MorganMorgan Freeman'sFreeman voicevoce,
243
617180
2808
pentru că între zero și vocea lui Morgan Freeman,
10:31
it happensse întâmplă to be one of the mostcel mai evocativeevocator accoladesdistincţii
244
619988
2123
e unul dintre cele mai evocatoare comentarii
10:34
that I've heardauzit come our way.
245
622111
1550
care ne-au parvenit.
10:35
(LaughterRâs)
246
623661
2196
(Râsete)
10:37
But as you'llveți see, it's not the only opinionopinie that's out there.
247
625857
1951
După cum vedeți, nu e singura opinie care există.
10:39
["This scaressperie the helliad out of me... What if they could do that easilyuşor in humansoameni in a couplecuplu of yearsani?! OH MY GOD WE'RE DOOMEDSORTIT"]
248
627808
1564
[Asta mă sperie de moarte... Dacă vor putea face asta oamenilor în câțiva ani? OMG, SUNTEM PIERDUȚI]
10:41
XLXL: IndeedÎntr-adevăr, if we take a look at the secondal doilea one,
249
629372
1918
XL: Într-adevăr, dacă ne uităm la a doua,
10:43
I think we can all agreede acord that it's, mehmeh,
250
631290
2107
suntem toți de acord că
10:45
probablyprobabil not as positivepozitiv.
251
633397
2375
nu e la fel de pozitivă.
10:47
But this alsode asemenea remindsreamintește us that,
252
635772
2185
Dar ne și amintește că,
10:49
althoughcu toate ca we are still workinglucru with micesoareci,
253
637957
2186
deși încă lucrăm cu șoareci,
10:52
it's probablyprobabil a good ideaidee to startstart thinkinggândire and discussingdiscutarea
254
640143
3517
e poate o idee bună să începem să reflectăm
10:55
about the possibleposibil ethicaletic ramificationsramificații
255
643660
2991
la posibilele ramificații etice
10:58
of memorymemorie controlControl.
256
646651
1948
ale controlului memoriei.
11:00
SRSR: Now, in the spiritspirit of the thirdal treilea quotecitat,
257
648599
2200
SR: Acum, în spiritul celui de-al treilea citat,
11:02
we want to tell you about a recentRecent projectproiect that we'vene-am been
258
650799
1974
dorim să vă povestim despre un proiect recent la care
11:04
workinglucru on in lablaborator that we'vene-am calleddenumit ProjectProiect InceptionLa începuturile.
259
652773
2428
am lucrat în laborator - Proiectul Inception.
11:07
["They should make a moviefilm about this. Where they plantplantă ideasidei into peoplespopoare mindsminți, so they can controlControl them for theiral lor ownpropriu personalpersonal gaincâştig. We'llVom call it: InceptionLa începuturile."]
260
655201
3243
[Ar trebui să facă un film în care să implanteze idei în mintea oamenilor pentru a-i controla în interese personale. Îl vom numi „Inception"]
11:10
So we reasonedmotivat that now that we can reactivatereactivaţi a memorymemorie,
261
658444
3734
Așa că ne-am gândit, dacă tot putem reactiva o amintire,
11:14
what if we do so but then beginÎNCEPE to tinkercositori with that memorymemorie?
262
662178
2952
ce ar fi să încercăm să o și modificăm ?
11:17
Could we possiblyeventual even turnviraj it into a falsefals memorymemorie?
263
665130
3033
Am putea chiar s-o transformăm într-o amintire falsă?
11:20
XLXL: So all memorymemorie is sophisticatedsofisticat and dynamicdinamic,
264
668163
4099
XL: Întreaga memorie e sofisticată și dinamică,
11:24
but if just for simplicitysimplitate, let's imagineimagina memorymemorie
265
672262
2979
dar pentru a simplifica, să ne imaginăm memoria
11:27
as a moviefilm clipclamă.
266
675241
1402
ca un film.
11:28
So fardeparte what we'vene-am told you is basicallype scurt we can controlControl
267
676643
2670
Până acum v-am spus că putem controla
11:31
this "playa juca" buttonbuton of the clipclamă
268
679313
1931
butonul „rulează" pentru film
11:33
so that we can playa juca this videovideo clipclamă any time, anywhereoriunde.
269
681244
4585
ca să-l vizionăm oriunde, oricând.
11:37
But is there a possibilityposibilitate that we can actuallyde fapt get
270
685829
2531
Dar e oare posibil să intrăm
11:40
insideinterior the braincreier and editEditați | × this moviefilm clipclamă
271
688360
2860
în creier și să edităm acest film
11:43
so that we can make it differentdiferit from the originaloriginal?
272
691220
2896
pentru a-l face diferit de original?
11:46
Yes we can.
273
694116
2178
Da, putem.
11:48
TurnedTransformat out that all we need to do is basicallype scurt
274
696294
2130
Tot ce avem de de facut e să reactivăm
11:50
reactivatereactivaţi a memorymemorie usingutilizând laserslasere just like we did before,
275
698424
4275
memoria folosind laserele, exact cum am facut anterior,
11:54
but at the samela fel time, if we presentprezent newnou informationinformație
276
702699
3439
dar în același timp, dacă prezentăm informații noi
11:58
and allowpermite this newnou informationinformație to incorporatesă includă into this oldvechi memorymemorie,
277
706138
3974
și lăsăm această informație să se contopească cu amintirile vechi,
12:02
this will changeSchimbare the memorymemorie.
278
710112
2438
asta va schimba memoria.
12:04
It's sortfel of like makingluare a remixremix tapebandă.
279
712550
3663
E ca un fel de bandă remixată.
12:08
SRSR: So how do we do this?
280
716213
2858
SR: Deci cum facem asta?
12:11
RatherMai degrabă than findingdescoperire a fearfrică memorymemorie in the braincreier,
281
719071
1957
Decât să găsim o amintire legată de frică,
12:13
we can startstart by takingluare our animalsanimale,
282
721028
1716
luăm animalele și le punem într-o cutie albastră,
12:14
and let's say we put them in a bluealbastru boxcutie like this bluealbastru boxcutie here
283
722744
2933
să zicem ca cea de aici,
12:17
and we find the braincreier cellscelulele that representreprezinta that bluealbastru boxcutie
284
725677
2494
și identificam celulele care reprezintă cutia albastră
12:20
and we tricktruc them to respondrăspunde to pulsesimpulsuri of lightușoară
285
728171
2073
și le păcălim să răspundă la pulsuri de lumină
12:22
exactlyexact like we had said before.
286
730244
2121
exact cum am zis mai devreme.
12:24
Now the nextUrmător → day, we can take our animalsanimale and placeloc them
287
732365
2124
A doua zi putem lua animalele și le plasăm
12:26
in a redroșu boxcutie that they'vele-au never experiencedcu experienta before.
288
734489
2699
într-o cutie roșie în care nu au mai fost.
12:29
We can shoottrage lightușoară into the braincreier to reactivatereactivaţi
289
737188
2026
Emitem lumina în creier pentru a reactiva
12:31
the memorymemorie of the bluealbastru boxcutie.
290
739214
2109
memoria cutiei albastre.
12:33
So what would happenîntâmpla here if, while the animalanimal
291
741323
1744
Ce s-ar întampla aici dacă, în timp ce animalul
12:35
is recallingreamintind the memorymemorie of the bluealbastru boxcutie,
292
743067
1894
își aminteste de cutia albastră,
12:36
we gavea dat it a couplecuplu of mildblând footpicior shocksşocuri?
293
744961
2643
i-am administra cateva șocuri ușoare la picior?
12:39
So here we're tryingîncercat to artificiallyartificial make an associationasociere
294
747604
2693
Aici creăm artificial o asociere
12:42
betweenîntre the memorymemorie of the bluealbastru boxcutie
295
750297
1915
între amintirea cutiei albastre
12:44
and the footpicior shocksşocuri themselvesînșiși.
296
752212
1503
și șocurile la picioare în sine.
12:45
We're just tryingîncercat to connectconectați the two.
297
753715
1779
Noi doar încercăm să le conectăm pe cele două.
12:47
So to testTest if we had doneTerminat so,
298
755494
1543
Pentru a testa dacă am reușit,
12:49
we can take our animalsanimale onceo singura data again
299
757037
1328
luăm animalele din nou
12:50
and placeloc them back in the bluealbastru boxcutie.
300
758365
1946
și le plasăm înapoi în cutia albastră.
12:52
Again, we had just reactivatedreactivat the memorymemorie of the bluealbastru boxcutie
301
760311
2738
Din nou, am reactivat amintirea cutiei albastre
12:55
while the animalanimal got a couplecuplu of mildblând footpicior shocksşocuri,
302
763049
2167
în timp ce animalul a primit șocuri ușoare la picioare,
12:57
and now the animalanimal suddenlybrusc freezesîngheaţă.
303
765216
2370
iar animalul deodată îngheață.
12:59
It's as thoughdeşi it's recallingreamintind beingfiind mildlyblând shockedșocat in this environmentmediu inconjurator
304
767586
3202
E ca și cum și-ar aminti că a fost ușor șocat în acest mediu
13:02
even thoughdeşi that never actuallyde fapt happeneds-a întâmplat.
305
770788
3002
deși asta nu s-a întâmplat cu adevarat.
13:05
So it formedformat a falsefals memorymemorie,
306
773790
1862
Deci și-a format o amintire falsă,
13:07
because it's falselyfals fearingTemându-se de an environmentmediu inconjurator
307
775652
2011
temându-se în mod eronat de un mediu
13:09
where, technicallytehnic speakingvorbitor,
308
777663
1254
unde, tehnic vorbind,
13:10
nothing badrău actuallyde fapt happeneds-a întâmplat to it.
309
778917
2349
nimic rău nu i s-a întâmplat.
13:13
XLXL: So, so fardeparte we are only talkingvorbind about
310
781266
2453
XL: Pentru moment vorbim numai despre
13:15
this light-controlledcontrolate de lumina "on" switchintrerupator.
311
783719
2366
acest declanșator controlat de lumină.
13:18
In factfapt, we alsode asemenea have a light-controlledcontrolate de lumina "off" switchintrerupator,
312
786085
3288
De fapt, avem și un întrerupator controlat de lumină,
13:21
and it's very easyuşor to imagineimagina that
313
789373
2080
și e foarte ușor să ne imaginăm că
13:23
by installinginstalarea this light-controlledcontrolate de lumina "off" switchintrerupator,
314
791453
2478
instalând acest întrerupător controlat de lumină
13:25
we can alsode asemenea turnviraj off a memorymemorie, any time, anywhereoriunde.
315
793931
5588
putem de asemenea suprima o amintire, oriunde, oricând.
13:31
So everything we'vene-am been talkingvorbind about todayastăzi
316
799519
2214
Tot ceea ce am expus astăzi
13:33
is basedbazat on this philosophicallyfilozofic chargedîncărcat principleprincipiu of neuroscienceneurostiintele
317
801733
4677
e bazat pe principiul încărcat filozofic al neurologiei
13:38
that the mindminte, with its seeminglyaparent mysteriousmisterios propertiesproprietăţi,
318
806410
4118
că mintea, cu proprietățile sale misterioase,
13:42
is actuallyde fapt madefăcut of physicalfizic stuffchestie that we can tinkercositori with.
319
810528
3645
e de fapt făcută din lucruri solide ce pot fi manipulate.
13:46
SRSR: And for me personallypersonal,
320
814173
1475
SR: Iar pentru mine personal,
13:47
I see a worldlume where we can reactivatereactivaţi
321
815648
1581
văd o lume unde putem reactiva
13:49
any kinddrăguț of memorymemorie that we'dne-am like.
322
817229
2116
orice fel de amintire dorim.
13:51
I alsode asemenea see a worldlume where we can eraseşterge unwantednedorite memoriesamintiri.
323
819345
3298
Văd de asemeni o lume în care putem șterge amintirile pe care nu ni le dorim.
13:54
Now, I even see a worldlume where editingeditare memoriesamintiri
324
822643
1936
Văd chiar și o lume în care modificarea amintirilor
13:56
is something of a realityrealitate,
325
824579
1539
e parte din realitate,
13:58
because we're livingviaţă in a time where it's possibleposibil
326
826118
1705
pentru că trăim în vremuri în care e posibil
13:59
to plucksmulge questionsîntrebări from the treecopac of scienceştiinţă fictionfictiune
327
827823
2225
să extragem întrebări din SF
14:02
and to groundsol them in experimentalexperimental realityrealitate.
328
830048
2420
și să le fundamentăm în realitatea experimentului.
14:04
XLXL: NowadaysÎn zilele noastre, people in the lablaborator
329
832468
1883
XL: Astăzi, oamenii din laboratoare și
14:06
and people in other groupsGrupuri all over the worldlume
330
834351
2386
oamenii din alte grupuri din jurul lumii
14:08
are usingutilizând similarasemănător methodsmetode to activateactiva or editEditați | × memoriesamintiri,
331
836737
3817
folosesc metode similare pentru a activa sau edita amintiri,
14:12
whetherdacă that's oldvechi or newnou, positivepozitiv or negativenegativ,
332
840554
3841
pozitive sau negative, vechi sau noi,
14:16
all sortsfelul of memoriesamintiri so that we can understanda intelege
333
844395
2672
tot felul de amintiri pentru ca noi să putem înțelege
14:19
how memorymemorie workslucrări.
334
847067
1864
cum funcționează memoria.
14:20
SRSR: For exampleexemplu, one groupgrup in our lablaborator
335
848931
1784
SR: De exemplu, un grup din laboratorul nostru
14:22
was ablecapabil to find the braincreier cellscelulele that make up a fearfrică memorymemorie
336
850715
2638
a reușit să identifice celulele din creier care formează o amintire de frică
14:25
and convertedconvertit them into a pleasurableplacute memorymemorie, just like that.
337
853353
2775
și au reușit să le transforme într-o amintire de plăcere, pur și simplu.
14:28
That's exactlyexact what I mean about editingeditare these kindstipuri of processesprocese.
338
856128
3062
Exact la asta mă refer când spun modificarea proceselor.
14:31
Now one dudeDude in lablaborator was even ablecapabil to reactivatereactivaţi
339
859190
1812
Un tip din laborator a reușit chiar să reactiveze
14:33
memoriesamintiri of femaleFemeie micesoareci in malemasculin micesoareci,
340
861002
2501
amintiria femelei într-un șoarece mascul,
14:35
whichcare rumorzvon has it is a pleasurableplacute experienceexperienţă.
341
863503
2995
și se zice că ar produce niște experiențe plăcute.
14:38
XLXL: IndeedÎntr-adevăr, we are livingviaţă in a very excitingemoționant momentmoment
342
866498
4117
XL: Într-adevar, trăim în vremuri extraordinare
14:42
where scienceştiinţă doesn't have any arbitraryarbitrar speedviteză limitslimite
343
870615
3805
în care știința nu are limite arbitrare de viteză
14:46
but is only boundlegat by our ownpropriu imaginationimaginație.
344
874420
3187
ci e marginită doar de propria imaginație.
14:49
SRSR: And finallyin sfarsit, what do we make of all this?
345
877607
2147
SR: În final, ce înțelegem din toate astea?
14:51
How do we pushApăsaţi this technologytehnologie forwardredirecţiona?
346
879754
1971
Cum ducem această tehnologie mai departe?
14:53
These are the questionsîntrebări that should not remainrămâne
347
881725
1837
Astea sunt întrebări care nu ar trebui să rămână
14:55
just insideinterior the lablaborator,
348
883562
1675
închise în laborator.
14:57
and so one goalpoartă of today'sastăzi talk was to bringaduce everybodytoata lumea
349
885237
2572
Unul din scopurile prezentării de azi e să aducem pe toți
14:59
up to speedviteză with the kinddrăguț of stuffchestie that's possibleposibil
350
887809
2319
la zi asupra lucrurilor care sunt posibile
15:02
in modernmodern neuroscienceneurostiintele,
351
890128
1384
în neurologia modernă,
15:03
but now, just as importantlyimportant,
352
891512
1510
dar, la fel de important,
15:05
to activelyactiv engageangaja everybodytoata lumea in this conversationconversaţie.
353
893022
3332
să implicam activ pe toată lumea în această conversație.
15:08
So let's think togetherîmpreună as a teamechipă about what this all meansmijloace
354
896354
2329
Să gândim toți, ca o echipă, ce înseamnă toate astea,
15:10
and where we can and should go from here,
355
898683
2474
unde putem și unde ar trebui să ne îndreptăm
15:13
because XuXu and I think we all have
356
901157
2098
pentru că Xu și cu mine credem că toți avem
15:15
some really bigmare decisionsdeciziile aheadînainte of us.
357
903255
2536
niște decizii foarte importante de luat.
15:17
Thank you.
XLXL: Thank you.
358
905791
1125
Vă mulțumim.
15:18
(ApplauseAplauze)
359
906916
1634
XL: Mulțumim.
Translated by Alex Fotescu
Reviewed by Ariana Bleau Lugo

▲Back to top

ABOUT THE SPEAKERS
Steve Ramirez - Neuroscientist
When Steve Ramirez published his latest study in Science, it caused a media frenzy. Why? Because the paper was on implanting false memories in the brains of mice.

Why you should listen

Steve is a graduate student at MIT’s Brain and Cognitive Sciences department pursuing a Ph.D. in neuroscience. His work focuses on finding where single memories are located throughout the brain, genetically tricking the brain cells that house these memories to respond to brief pulses of light, and then using these same flickers of light to reactivate, erase and implant memories. The goals of his research are twofold: to figure out how the brain gives rise to the seemingly ephemeral process of memory, and to predict what happens when specific brain pieces breakdown to impair cognition. His work has been published in Science and covered by New Scientist, Discover, Scientific American, and Gizmodo.

Ramirez aims to be a professor who runs a lab that plucks questions from the tree of science fiction to ground them in experimental reality. He believes that a team-oriented approach to science makes research and teaching far more exciting. When he’s not tinkering with memories in the lab, Ramirez also enjoys running and cheering on every sports team in the city of Boston.

More profile about the speaker
Steve Ramirez | Speaker | TED.com
Xu Liu - Neuroscientist
In his groundbreaking work, Xu Liu investigated how to activate and deactivate specific memories in mice.

Why you should listen

During his PhD, Xu Liu studied the mechanisms of learning and memory, using fruit flies as a model system. By changing the expression of certain genes in the fly brain, he generated smart flies that can learn many times faster than their peers. Using live imaging, he also detected learning-induced changes in the brain cells and observed memory formation inside the brain with light.

After graduation, he moved to MIT and joined Dr. Susumu Tonegawa's lab as a postdoctoral associate. He continued his pursuit of memory with light there. Instead of just watching memory formation, he developed a system in mice where one can not only identify and label cells in the brain for a particular memory, but also turn these cells on and off with light to activate this memory at will. This work was published in Science and has been covered by the media worldwide. Liu passed away in February 2015.

More profile about the speaker
Xu Liu | Speaker | TED.com