ABOUT THE SPEAKERS
Steve Ramirez - Neuroscientist
When Steve Ramirez published his latest study in Science, it caused a media frenzy. Why? Because the paper was on implanting false memories in the brains of mice.

Why you should listen

Steve is a graduate student at MIT’s Brain and Cognitive Sciences department pursuing a Ph.D. in neuroscience. His work focuses on finding where single memories are located throughout the brain, genetically tricking the brain cells that house these memories to respond to brief pulses of light, and then using these same flickers of light to reactivate, erase and implant memories. The goals of his research are twofold: to figure out how the brain gives rise to the seemingly ephemeral process of memory, and to predict what happens when specific brain pieces breakdown to impair cognition. His work has been published in Science and covered by New Scientist, Discover, Scientific American, and Gizmodo.

Ramirez aims to be a professor who runs a lab that plucks questions from the tree of science fiction to ground them in experimental reality. He believes that a team-oriented approach to science makes research and teaching far more exciting. When he’s not tinkering with memories in the lab, Ramirez also enjoys running and cheering on every sports team in the city of Boston.

More profile about the speaker
Steve Ramirez | Speaker | TED.com
Xu Liu - Neuroscientist
In his groundbreaking work, Xu Liu investigated how to activate and deactivate specific memories in mice.

Why you should listen

During his PhD, Xu Liu studied the mechanisms of learning and memory, using fruit flies as a model system. By changing the expression of certain genes in the fly brain, he generated smart flies that can learn many times faster than their peers. Using live imaging, he also detected learning-induced changes in the brain cells and observed memory formation inside the brain with light.

After graduation, he moved to MIT and joined Dr. Susumu Tonegawa's lab as a postdoctoral associate. He continued his pursuit of memory with light there. Instead of just watching memory formation, he developed a system in mice where one can not only identify and label cells in the brain for a particular memory, but also turn these cells on and off with light to activate this memory at will. This work was published in Science and has been covered by the media worldwide. Liu passed away in February 2015.

More profile about the speaker
Xu Liu | Speaker | TED.com
TEDxBoston

Steve Ramirez and Xu Liu: A mouse. A laser beam. A manipulated memory.

Steve Ramirez et Xu Liu: Une souris. Un rayon laser. Un souvenir manipulé.

Filmed:
1,127,889 views

Pouvons-nous modifier le contenu de nos souvenirs ? C'est une question de science-fiction à laquelle s'intéressent Steve Ramirez et Xu Liu dans leur laboratoire au MIT. En résumé, ils envoient un rayon laser dans le cerveau d'une souris vivante, afin d'activer et de manipuler sa mémoire. Dans cette conférence plus amusante que prévue, ils expliquent non seulement comment ils le font, mais également, plus important, pourquoi. (Filmé à TEDxBoston)
- Neuroscientist
When Steve Ramirez published his latest study in Science, it caused a media frenzy. Why? Because the paper was on implanting false memories in the brains of mice. Full bio - Neuroscientist
In his groundbreaking work, Xu Liu investigated how to activate and deactivate specific memories in mice. Full bio

Double-click the English transcript below to play the video.

00:12
SteveSteve RamirezRamirez: My first yearan of gradGrad schoolécole,
0
371
1556
Steve Ramirez : lors de ma première année d'université,
00:13
I founda trouvé myselfmoi même in my bedroomchambre
1
1927
2004
je me suis retrouvé
dans ma chambre,
00:15
eatingen mangeant lots of BenBen & Jerry'sDe Jerry
2
3931
2300
à manger beaucoup de glaces Ben & Jerry's,
00:18
watchingen train de regarder some trashyTrash TVTV
3
6231
1684
à regarder des émissions nulles à la télé,
00:19
and maybe, maybe listeningécoute to TaylorTaylor SwiftSWIFT.
4
7915
3227
et peut-être, peut-être,
à écouter Taylor Swift.
00:23
I had just gonedisparu throughpar a breakuprupture.
5
11142
1741
Je venais de subir une rupture.
00:24
(LaughterRires)
6
12883
1447
(Rires)
00:26
So for the longestle plus long time, all I would do
7
14330
2196
Pendant très longtemps,
tout ce que j'ai fait,
00:28
is recallrappel the memoryMémoire of this personla personne over and over again,
8
16526
3816
c'est de ressasser les souvenirs de cette personne,
encore et encore,
00:32
wishingqui souhaitent that I could get riddébarrasser of that gut-wrenchingdéchirante,
9
20342
2493
tout en souhaitant me débarrasser
de ce sentiment de "bof"
00:34
visceralviscérale "blahblabla" feelingsentiment.
10
22835
2533
viscéral et dévastateur.
00:37
Now, as it turnsse tourne out, I'm a neuroscientistchercheur en neurosciences,
11
25368
2283
Aujourd'hui, il s'avère
que je suis un neuroscientifique,
00:39
so I knewa connu that the memoryMémoire of that personla personne
12
27651
2402
je sais donc
que les souvenirs de cette personne,
00:42
and the awfulterrible, emotionalémotif undertonesnuances that colorCouleur in that memoryMémoire,
13
30053
3140
et les horribles nuances émotionnelles
qui colorent ces souvenirs,
00:45
are largelyen grande partie mediatedmédiée par by separateséparé braincerveau systemssystèmes.
14
33193
2634
sont principalement régulées
par des systèmes neuronaux différents.
00:47
And so I thought, what if we could go into the braincerveau
15
35827
2365
J'ai donc pensé :
et si nous pouvions aller dans le cerveau,
00:50
and editmodifier out that nauseatingnauséeuses feelingsentiment
16
38192
2090
et éliminer ces écœurantes sensations,
00:52
but while keepingen gardant the memoryMémoire of that personla personne intactintact?
17
40282
2970
tout en gardant intact
le souvenir de cette personne ?
00:55
Then I realizedréalisé, maybe that's a little bitbit loftyLofty for now.
18
43252
2411
Puis je me suis rendu compte que c'était peut-être
un peu ambitieux pour le moment.
00:57
So what if we could startdébut off by going into the braincerveau
19
45663
2793
Mais si on pouvait commencer
par aller dans le cerveau,
01:00
and just findingdécouverte a singleunique memoryMémoire to begincommencer with?
20
48456
2633
et juste trouver un seul souvenir,
pour débuter ?
01:03
Could we jump-startaide au démarrage that memoryMémoire back to life,
21
51089
2514
Pourrions-nous ranimer ce souvenir,
01:05
maybe even playjouer with the contentsContenu of that memoryMémoire?
22
53603
3868
peut-être même jouer avec son contenu ?
01:09
All that said, there is one personla personne in the entiretout worldmonde right now
23
57471
2229
Ceci dit, il y une personne au monde,
en ce moment,
01:11
that I really hopeespérer is not watchingen train de regarder this talk.
24
59700
2055
qui ne regarde pas cette conférence,
j'espère.
01:13
(LaughterRires)
25
61755
3941
(Rires)
01:17
So there is a catchcapture. There is a catchcapture.
26
65696
3289
Bon, il y a un hic,
il y a un hic.
01:20
These ideasidées probablyProbablement remindrappeler you of "TotalTotal RecallRappel,"
27
68985
2788
Ces idées vous rappellent probablement
le film « Total Recall »,
01:23
"EternalÉternelle SunshineSunshine of the SpotlessSans tache MindEsprit,"
28
71773
1974
ou « Eternal Sunshine of the Spotless Mind »,
01:25
or of "InceptionCréation."
29
73747
1303
ou « Inception ».
01:27
But the moviefilm starsétoiles that we work with
30
75050
1576
Mais les vedettes avec qui on travaille
01:28
are the celebritiescélébrités of the lablaboratoire.
31
76626
1943
sont les célébrités du labo.
01:30
XuXu LiuLiu: TestTest micedes souris.
32
78569
1900
Xu Liu : Les souris cobayes.
01:32
(LaughterRires)
33
80469
1128
(Rires)
01:33
As neuroscientistsneuroscientifiques, we work in the lablaboratoire with micedes souris
34
81597
3154
En tant que neuroscientifiques,
on travaille au labo avec des souris,
01:36
tryingen essayant to understandcomprendre how memoryMémoire workstravaux.
35
84751
3410
pour essayer de comprendre
comment la mémoire fonctionne.
01:40
And todayaujourd'hui, we hopeespérer to convinceconvaincre you that now
36
88161
2569
Aujourd’hui, on espère vous convaincre que,
maintenant,
01:42
we are actuallyréellement ablecapable to activateactiver a memoryMémoire in the braincerveau
37
90730
3216
on est réellement capables
d'activer des souvenirs dans le cerveau
01:45
at the speedla vitesse of lightlumière.
38
93946
2170
à la vitesse de la lumière.
01:48
To do this, there's only two simplesimple stepspas to followsuivre.
39
96116
3106
Pour ce faire,
il n'y a que deux simples étapes à suivre.
01:51
First, you find and labelétiquette a memoryMémoire in the braincerveau,
40
99222
3510
D'abord, on trouve et on étiquette
un souvenir dans le cerveau,
01:54
and then you activateactiver it with a switchcommutateur.
41
102732
3630
et puis on l'active avec un interrupteur.
01:58
As simplesimple as that.
42
106362
1445
C'est aussi simple que ça.
01:59
(LaughterRires)
43
107807
1822
(Rires)
02:01
SRSR: Are you convincedconvaincu?
44
109629
1845
SR : Vous êtes convaincus ?
02:03
So, turnsse tourne out findingdécouverte a memoryMémoire in the braincerveau isn't all that easyfacile.
45
111474
3721
Bon, il s'avère que trouver un souvenir
dans le cerveau n'est pas si facile.
02:07
XLXL: IndeedEn effet. This is way more difficultdifficile than, let's say,
46
115195
2803
XL : En effet.
C'est drôlement plus difficile que, par exemple,
02:09
findingdécouverte a needleaiguille in a haystackbotte de foin,
47
117998
2404
trouver une aiguille dans une botte de foin,
02:12
because at leastmoins, you know, the needleaiguille is still something
48
120402
2589
parce que vous voyez,
l'aiguille est au moins quelque chose
02:14
you can physicallyphysiquement put your fingersdes doigts on.
49
122991
2500
que vous pouvez saisir physiquement.
02:17
But memoryMémoire is not.
50
125491
1977
Mais la mémoire, non.
02:19
And alsoaussi, there's way more cellscellules in your braincerveau
51
127468
3038
Et aussi, il y a beaucoup plus de cellules
dans votre cerveau
02:22
than the numbernombre of strawspailles in a typicaltypique haystackbotte de foin.
52
130506
5066
que de brins de paille
dans une botte de foin ordinaire.
02:27
So yeah, this tasktâche does seemsembler to be dauntingintimidant.
53
135572
2879
Alors oui,
cette tâche a l'air intimidante.
02:30
But luckilyHeureusement, we got help from the braincerveau itselfse.
54
138451
3679
Mais, heureusement,
nous avons obtenu l'aide du cerveau lui-même.
02:34
It turnedtourné out that all we need to do is basicallyen gros
55
142130
2455
Il s'est avéré
que tout ce que nous devons faire,
02:36
to let the braincerveau formforme a memoryMémoire,
56
144585
1993
c'est de laisser le cerveau
former un souvenir,
02:38
and then the braincerveau will tell us whichlequel cellscellules are involvedimpliqué
57
146578
3830
puis le cerveau nous dira
lesquelles de ses cellules sont impliquées
02:42
in that particularparticulier memoryMémoire.
58
150408
1766
dans ce souvenir particulier.
02:44
SRSR: So what was going on in my braincerveau
59
152174
2357
SR : Donc, qu'est-ce qui se passait
dans mon cerveau
02:46
while I was recallingrappel the memoryMémoire of an exex?
60
154531
2094
lorsque je me rappelais de mon ex ?
02:48
If you were to just completelycomplètement ignoreignorer humanHumain ethicsdéontologie for a secondseconde
61
156625
2402
Si on pouvait faire complètement abstraction
de la morale humaine pendant un instant,
02:51
and slicetranche up my braincerveau right now,
62
159027
1668
et découper mon cerveau en tranches
sur le champ,
02:52
you would see that there was an amazingincroyable numbernombre
63
160695
2018
on verrait qu'il y avait un très grand nombre
02:54
of braincerveau regionsles régions that were activeactif while recallingrappel that memoryMémoire.
64
162713
3178
de régions de mon cerveau qui étaient actives
lorsque je me rappelais de ce souvenir.
02:57
Now one braincerveau regionRégion that would be robustlyrobuste activeactif
65
165891
2912
Un région de mon cerveau
qui serait particulièrement active
03:00
in particularparticulier is calledappelé the hippocampushippocampe,
66
168803
2007
est appelée l'hippocampe.
03:02
whichlequel for decadesdécennies has been implicatedmis en cause in processingEn traitement
67
170810
2455
Depuis des décennies,
03:05
the kindssortes of memoriessouvenirs that we holdtenir nearprès and dearcher,
68
173265
2416
il traite les types de souvenirs
qui me tiennent à cœur,
03:07
whichlequel alsoaussi makesfait du it an idealidéal targetcible to go into
69
175681
2574
ce qui en fait aussi la cible idéale
à explorer,
03:10
and to try and find and maybe reactivateréactiver a memoryMémoire.
70
178255
2785
pour essayer de trouver
et, peut-être, réactiver un souvenir.
03:13
XLXL: When you zoomZoom in into the hippocampushippocampe,
71
181040
2394
XL : Lorsqu'on zoome
dans l'hippocampe,
03:15
of coursecours you will see lots of cellscellules,
72
183434
2348
on voit beaucoup de cellules, bien sûr,
03:17
but we are ablecapable to find whichlequel cellscellules are involvedimpliqué
73
185782
3031
mais nous savons trouver
lesquelles sont impliquées
03:20
in a particularparticulier memoryMémoire,
74
188813
1476
dans un souvenir particulier,
03:22
because whenevern'importe quand a cellcellule is activeactif,
75
190289
2618
parce que chaque fois
qu'une cellule est active,
03:24
like when it's formingformant a memoryMémoire,
76
192907
1464
comme lorsqu'un souvenir se forme,
03:26
it will alsoaussi leavelaisser a footprintempreinte that will laterplus tard allowpermettre us to know
77
194371
3757
elle laisse également une trace
qui nous permettra plus tard de savoir
03:30
these cellscellules are recentlyrécemment activeactif.
78
198128
2702
qu'elle a été active récemment.
03:32
SRSR: So the sameMême way that buildingbâtiment lightslumières at night
79
200830
2160
SR : De la même façon
que les lumières des immeubles, la nuit,
03:34
let you know that somebody'squelqu'un est probablyProbablement workingtravail there at any givendonné momentmoment,
80
202990
2948
nous permettent de savoir que quelqu'un
est probablement en train d'y travailler,
03:37
in a very realréal sensesens, there are biologicalbiologique sensorscapteurs
81
205938
3288
il y a réellement
des capteurs biologiques
03:41
withindans a cellcellule that are turnedtourné on
82
209226
1954
au sein des cellules
qui ne s'allument
03:43
only when that cellcellule was just workingtravail.
83
211180
2135
que quand cette cellule
vient juste de travailler.
03:45
They're sortTrier of biologicalbiologique windowsles fenêtres that lightlumière up
84
213315
1876
Ce sont des sortes de fenêtres biologiques
qui s'illuminent
03:47
to let us know that that cellcellule was just activeactif.
85
215191
1978
pour nous faire savoir
que cette cellule vient d'être active.
03:49
XLXL: So we clippedclipsé partpartie of this sensorcapteur,
86
217169
2829
XL : Nous avons donc découpé
une partie de ce capteur,
03:51
and attachedattaché that to a switchcommutateur to controlcontrôle the cellscellules,
87
219998
3147
nous l'avons attachée à un interrupteur
pour contrôler les cellules,
03:55
and we packedemballé this switchcommutateur into an engineeredmachiné virusvirus
88
223145
3900
et nous avons introduit cet interrupteur
dans un virus génétiquement modifié
03:59
and injectedinjecté that into the braincerveau of the micedes souris.
89
227045
2588
que nous avons injecté
dans le cerveau des souris.
04:01
So whenevern'importe quand a memoryMémoire is beingétant formedformé,
90
229633
2634
Ainsi, chaque fois que se forme un souvenir,
04:04
any activeactif cellscellules for that memoryMémoire
91
232267
2348
les cellules activées par ce souvenir
04:06
will alsoaussi have this switchcommutateur installedinstallée.
92
234615
2742
se verront installer l'interrupteur.
04:09
SRSR: So here is what the hippocampushippocampe looksregards like
93
237357
1625
SR : Voici ce à quoi ressemble l'hippocampe
04:10
after formingformant a fearpeur memoryMémoire, for exampleExemple.
94
238982
2840
après avoir formé un souvenir de peur,
par exemple.
04:13
The seamer of bluebleu that you see here
95
241822
2140
L'océan de bleu que vous voyez ici
04:15
are denselydensément packedemballé braincerveau cellscellules,
96
243962
1952
sont des cellules cérébrales très compactées,
04:17
but the greenvert braincerveau cellscellules,
97
245914
1545
mais les cellules vertes
04:19
the greenvert braincerveau cellscellules are the onesceux that are holdingen portant on
98
247459
2096
sont celles qui retiennent
04:21
to a specificspécifique fearpeur memoryMémoire.
99
249555
1843
un souvenir spécifique de peur.
04:23
So you are looking at the crystallizationcristallisation
100
251398
1979
Ce que vous regardez,
c'est la cristallisation
04:25
of the fleetingfugace formationformation of fearpeur.
101
253377
2387
de la formation fugace de la peur.
04:27
You're actuallyréellement looking at the cross-sectioncoupe transversale of a memoryMémoire right now.
102
255764
3497
Vous voyez là, réellement,
une tranche de souvenir.
04:31
XLXL: Now, for the switchcommutateur we have been talkingparlant about,
103
259261
2408
XL : En ce qui concerne
l'interrupteur dont nous avons parlé,
04:33
ideallyidéalement, the switchcommutateur has to actacte really fastvite.
104
261669
2970
idéalement, il doit agir très vite.
04:36
It shouldn'tne devrait pas take minutesminutes or hoursheures to work.
105
264639
2579
Il ne faut pas que cela prenne
des minutes ou des heures pour faire effet.
04:39
It should actacte at the speedla vitesse of the braincerveau, in millisecondsmillisecondes.
106
267218
4264
Il faut qu'il agisse à la vitesse du cerveau,
en quelques millisecondes.
04:43
SRSR: So what do you think, XuXu?
107
271482
1430
SR : Donc qu'est-ce que t'en penses, Xu ?
04:44
Could we use, let's say, pharmacologicalpharmacologique drugsdrogues
108
272912
2602
Est-ce qu'on peut utiliser, disons,
des médicaments
04:47
to activateactiver or inactivateinactiver braincerveau cellscellules?
109
275514
1838
pour activer ou désactiver
les cellules du cerveau ?
04:49
XLXL: Nahaucune. DrugsMédicaments are prettyjoli messydésordonné. They spreadpropager everywherepartout.
110
277352
4063
XL : Nan. Les médicaments sont trop peu précis.
Ils se répandent partout.
04:53
And alsoaussi it takes them foreverpour toujours to actacte on cellscellules.
111
281415
3008
Et en plus, ça leur prend un temps infini
pour agir sur les cellules.
04:56
So it will not allowpermettre us to controlcontrôle a memoryMémoire in realréal time.
112
284423
3649
Ça ne nous permettrait pas
de contrôler la mémoire en temps réel.
05:00
So SteveSteve, how about let's zapzap the braincerveau with electricityélectricité?
113
288072
4294
Alors Steve, qu'est-ce que tu dirais
de flasher le cerveau avec de l'électricité ?
05:04
SRSR: So electricityélectricité is prettyjoli fastvite,
114
292366
2305
SR : L'électricité est assez rapide,
05:06
but we probablyProbablement wouldn'tne serait pas be ablecapable to targetcible it
115
294671
1739
mais on ne serait
probablement pas en mesure
05:08
to just the specificspécifique cellscellules that holdtenir ontosur a memoryMémoire,
116
296410
2354
de cibler uniquement
les cellules spécifiques d'un souvenir,
05:10
and we'dmer probablyProbablement fryfrire the braincerveau.
117
298764
1878
et on grillerait probablement le cerveau.
05:12
XLXL: Oh. That's truevrai. So it looksregards like, hmmHmm,
118
300642
3195
XL : Oh. C'est vrai.
On dirait que, hmm,
05:15
indeedeffectivement we need to find a better way
119
303837
2611
en effet, nous devons trouver
une meilleure façon
05:18
to impactimpact the braincerveau at the speedla vitesse of lightlumière.
120
306448
3295
d'agir sur le cerveau
à la vitesse de la lumière.
05:21
SRSR: So it just so happensarrive that lightlumière travelsvoyages at the speedla vitesse of lightlumière.
121
309743
5086
SR : Il se trouve justement que la lumière
se déplace à la vitesse de la lumière.
05:26
So maybe we could activateactiver or inactiveinactifs memoriessouvenirs
122
314829
3483
Alors peut-être que nous pourrions
activer ou désactiver des souvenirs
05:30
by just usingen utilisant lightlumière --
123
318312
1497
juste en utilisant de la lumière...
05:31
XLXL: That's prettyjoli fastvite.
124
319809
1355
XL : C'est assez rapide.
05:33
SRSR: -- and because normallynormalement braincerveau cellscellules
125
321164
1885
SR : ... parce que les cellules normales
du cerveau
05:35
don't respondrépondre to pulsesimpulsions of lightlumière,
126
323049
1588
ne répondent pas
aux impulsions de la lumière,
05:36
so those that would respondrépondre to pulsesimpulsions of lightlumière
127
324637
1958
celles qui y répondraient
05:38
are those that containcontenir a light-sensitivesensible à la lumière switchcommutateur.
128
326595
2464
seraient celles qui contiendraient
un interrupteur sensible à la lumière.
05:41
Now to do that, first we need to tricktour braincerveau cellscellules
129
329059
1946
Pour faire ça, on doit d'abord inciter
les cellules du cerveau
05:43
to respondrépondre to laserlaser beamspoutres.
130
331005
1462
à répondre aux rayons laser.
05:44
XLXL: YepYep. You heardentendu it right.
131
332467
1070
XL : Ouais. Vous avez bien entendu.
05:45
We are tryingen essayant to shoottirer laserslasers into the braincerveau.
132
333537
2132
On essaye de tirer des rayons lasers
dans le cerveau.
05:47
(LaughterRires)
133
335669
1745
(Rires)
05:49
SRSR: And the techniquetechnique that letspermet us do that is optogeneticsoptogenetics.
134
337414
3324
SR : Et la technique qui nous permet de faire ça,
c'est l'optogénétique.
05:52
OptogeneticsOptogenetics gavea donné us this lightlumière switchcommutateur that we can use
135
340738
3282
L'optogénétique nous a fourni
cet interrupteur de lumière
05:56
to turntour braincerveau cellscellules on or off,
136
344020
1508
qu'on peut utiliser pour allumer ou éteindre
les cellules cérébrales.
05:57
and the nameprénom of that switchcommutateur is channelrhodopsinchannelrhodopsin,
137
345528
2517
Le nom de cet interrupteur
est la channelrhodopsine,
06:00
seenvu here as these greenvert dotspoints attachedattaché to this braincerveau cellcellule.
138
348045
2537
qu'on voit ici sous la forme de points verts
attachés à la cellule cérébrale.
06:02
You can think of channelrhodopsinchannelrhodopsin as a sortTrier of light-sensitivesensible à la lumière switchcommutateur
139
350582
3299
On peut considérer la channelrhodopsine
comme une sorte d'interrupteur à lumière
06:05
that can be artificiallyartificiellement installedinstallée in braincerveau cellscellules
140
353881
2627
qui peut être installée artificiellement
dans les cellules du cerveau,
06:08
so that now we can use that switchcommutateur
141
356508
1914
ce qui fait que nous pouvons maintenant
utiliser cet interrupteur
06:10
to activateactiver or inactivateinactiver the braincerveau cellcellule simplysimplement by clickingen cliquant it,
142
358422
3013
pour activer ou désactiver la cellule
simplement en cliquant dessus,
06:13
and in this caseCas we clickCliquez it on with pulsesimpulsions of lightlumière.
143
361435
2468
dans notre cas,
en utilisant des impulsions de lumière.
06:15
XLXL: So we attachattacher this light-sensitivesensible à la lumière switchcommutateur of channelrhodopsinchannelrhodopsin
144
363903
3786
XL : On attache cet interrupteur
à channelrhodopsine sensible à la lumière
06:19
to the sensorcapteur we'venous avons been talkingparlant about
145
367689
2208
au capteur dont nous avons parlé,
06:21
and injectinjecter this into the braincerveau.
146
369897
2455
et on l'injecte dans le cerveau.
06:24
So whenevern'importe quand a memoryMémoire is beingétant formedformé,
147
372352
3211
Et ainsi, dès que se forme un souvenir
06:27
any activeactif cellcellule for that particularparticulier memoryMémoire
148
375563
2227
toute cellule activée pour ce souvenir particulier
06:29
will alsoaussi have this light-sensitivesensible à la lumière switchcommutateur installedinstallée in it
149
377790
3484
se verra installer cet interrupteur
sensible à la lumière.
06:33
so that we can controlcontrôle these cellscellules
150
381274
2401
On peut ainsi contrôler ces cellules
06:35
by the flippingretournement of a laserlaser just like this one you see.
151
383675
4264
par le déclenchement d'un laser
identique à celui que vous voyez là.
06:39
SRSR: So let's put all of this to the testtester now.
152
387939
2864
SR : On va tester tout ça maintenant.
06:42
What we can do is we can take our micedes souris
153
390803
2135
Ce qu'on peut faire,
c'est prendre nos souris,
06:44
and then we can put them in a boxboîte that looksregards exactlyexactement like this boxboîte here,
154
392938
2928
puis les mettre dans une boîte
qui ressemble exactement à celle-ci,
06:47
and then we can give them a very milddoux footpied shockchoc
155
395866
2340
et puis leur donner un tout petit
choc électrique aux pattes
06:50
so that they formforme a fearpeur memoryMémoire of this boxboîte.
156
398206
2035
afin qu'elles forment un souvenir de peur
de cette boîte.
06:52
They learnapprendre that something badmal happenedarrivé here.
157
400241
1979
Elles apprennent que quelque chose de mauvais
leur est arrivé ici.
06:54
Now with our systemsystème, the cellscellules that are activeactif
158
402220
2342
Avec notre système,
seules les cellules qui sont actives
06:56
in the hippocampushippocampe in the makingfabrication of this memoryMémoire,
159
404562
2931
dans l'hippocampe
pour la fabrication de ce souvenir
06:59
only those cellscellules will now containcontenir channelrhodopsinchannelrhodopsin.
160
407493
2883
contiendront maintenant la channelrhodopsine.
07:02
XLXL: When you are as smallpetit as a mouseSouris,
161
410376
3017
XL : Quand vous êtes aussi petit qu'une souris,
07:05
it feelsse sent as if the wholeentier worldmonde is tryingen essayant to get you.
162
413393
3595
c'est comme si le monde entier
essayait de vous avoir.
07:08
So your bestmeilleur responseréponse of defensela défense
163
416988
1748
Votre meilleure réaction de défense
07:10
is tryingen essayant to be undetectednon détecté.
164
418736
2482
est donc d'essayer de vous cacher.
07:13
WheneverChaque fois que a mouseSouris is in fearpeur,
165
421218
2033
Chaque fois qu'une souris a peur,
07:15
it will showmontrer this very typicaltypique behaviorcomportement
166
423251
1526
elle va adopter ce comportement
très typique,
07:16
by stayingrester at one cornercoin of the boxboîte,
167
424777
1769
en restant dans un coin de la boîte,
07:18
tryingen essayant to not movebouge toi any partpartie of its bodycorps,
168
426546
3118
essayant de ne bouger
aucune partie de son corps.
07:21
and this postureposture is calledappelé freezingpoint de congélation.
169
429664
3295
Cette réaction est appelée « faire le mort ».
07:24
So if a mouseSouris remembersse souvient that something badmal happenedarrivé in this boxboîte,
170
432959
4294
Si une souris se souvient que quelque chose
de mauvais lui est arrivé dans une boîte,
07:29
and when we put them back into the sameMême boxboîte,
171
437253
2623
et si on la remet dans la même boîte,
07:31
it will basicallyen gros showmontrer freezingpoint de congélation
172
439876
1804
elle fera le mort
07:33
because it doesn't want to be detecteddétecté
173
441680
2285
parce qu'elle ne veut pas être détectée
07:35
by any potentialpotentiel threatsmenaces in this boxboîte.
174
443965
2695
par un danger potentiel
dans la boîte.
07:38
SRSR: So you can think of freezingpoint de congélation as,
175
446660
1355
SR : On peut voir cette réaction
de faire le mort
07:40
you're walkingen marchant down the streetrue mindinggarde your ownposséder businessEntreprise,
176
448015
2215
comme lorsque vous marchez dans la rue,
bien tranquille,
07:42
and then out of nowherenulle part you almostpresque runcourir into
177
450230
1725
et que tout à coup
vous tombez quasiment nez à nez
07:43
an ex-girlfriendex-petite amie or ex-boyfriendex-petit ami,
178
451955
2192
avec votre ex,
07:46
and now those terrifyingterrifiant two secondssecondes
179
454147
2134
et que pendant deux terrifiantes secondes
07:48
where you startdébut thinkingen pensant, "What do I do? Do I say hisalut?
180
456281
1876
vous vous mettez à penser :
«Qu'est-ce que je fais ? Je dis bonjour ?
07:50
Do I shakesecouer theirleur handmain? Do I turntour around and runcourir away?
181
458157
1368
Je lui serre la main ?
Je fais demi-tour et je m'enfuis ?
07:51
Do I sitasseoir here and pretendfaire semblant like I don't existexister?"
182
459525
2029
Je m'assied ici
et je fais comme si je n'existais pas ?  »
07:53
Those kindssortes of fleetingfugace thoughtspensées that physicallyphysiquement incapacitateneutraliser les you,
183
461554
3184
Ce genre de pensées fugaces
qui vous paralysent
07:56
that temporarilytemporairement give you that deer-in-headlightscerf-dans-phares look.
184
464738
2746
et qui vous donnent l'air, un instant,
d'un lièvre pris dans la lueur des phares.
07:59
XLXL: HoweverCependant, if you put the mouseSouris in a completelycomplètement differentdifférent
185
467484
3291
XL : Bref, si on met la souris
dans une nouvelle boîte très différente,
08:02
newNouveau boxboîte, like the nextprochain one,
186
470775
3161
comme la suivante,
08:05
it will not be afraidpeur of this boxboîte
187
473936
2147
elle n'aura pas peur,
08:08
because there's no reasonraison that it will be afraidpeur of this newNouveau environmentenvironnement.
188
476083
4729
parce qu'elle n'a aucune raison d'avoir peur
de ce nouvel environnement.
08:12
But what if we put the mouseSouris in this newNouveau boxboîte
189
480812
3180
Mais que se passe-t-il si nous mettons la souris
dans cette nouvelle boîte,
08:15
but at the sameMême time, we activateactiver the fearpeur memoryMémoire
190
483992
3611
et qu'en même temps,
nous activons la mémoire de la peur
08:19
usingen utilisant laserslasers just like we did before?
191
487603
2679
avec des lasers, comme auparavant ?
08:22
Are we going to bringapporter back the fearpeur memoryMémoire
192
490282
2854
Est-ce qu'on va raviver le souvenir de la peur
08:25
for the first boxboîte into this completelycomplètement newNouveau environmentenvironnement?
193
493136
3997
de la première boîte
dans cet environnement complètement nouveau ?
08:29
SRSR: All right, and here'svoici the million-dollarmillion de dollars experimentexpérience.
194
497133
2735
SR : Ok, c'est la question à un million.
08:31
Now to bringapporter back to life the memoryMémoire of that day,
195
499868
2913
Pour faire revivre le souvenir de ce jour,
08:34
I rememberrappelles toi that the RedRouge SoxSox had just wona gagné,
196
502781
2183
je me rappelle que les Red Sox
venaient de gagner,
08:36
it was a greenvert springprintemps day,
197
504964
1909
c'était une belle journée de printemps,
08:38
perfectparfait for going up and down the riverrivière
198
506873
1817
idéale pour une promenade
le long de la rivière,
08:40
and then maybe going to the NorthNord EndFin
199
508690
2334
et puis peut-être
pour aller dans le quartier nord,
08:43
to get some cannoliscannolis, #justsayingjustsaying.
200
511024
2160
et acheter des cannolis,
enfin je dis ça...
08:45
Now XuXu and I, on the other handmain,
201
513184
3102
Au lieu de ça, Xu et moi,
08:48
were in a completelycomplètement windowlesssans fenêtre blacknoir roomchambre
202
516286
2829
nous trouvions dans une salle obscure,
sans aucune fenêtre,
08:51
not makingfabrication any ocularoculaire movementmouvement that even remotelyà distance resemblesressemble an eyeœil blinkcligner
203
519115
3661
sans oser cligner une seule fois des yeux
08:54
because our eyesles yeux were fixedfixé ontosur a computerordinateur screenécran.
204
522776
2466
parce que nos regards étaient fixés
sur un écran d'ordinateur.
08:57
We were looking at this mouseSouris here tryingen essayant to activateactiver a memoryMémoire
205
525242
2556
On regardait cette souris,
et on essayait d'activer un souvenir
08:59
for the first time usingen utilisant our techniquetechnique.
206
527798
1883
à l'aide de notre technique,
pour la première fois.
09:01
XLXL: And this is what we saw.
207
529681
2688
XL : Et voici ce que nous avons vu.
09:04
When we first put the mouseSouris into this boxboîte,
208
532369
2202
Quand on a mis la souris dans la boîte,
09:06
it's exploringexplorant, sniffingreniflant around, walkingen marchant around,
209
534571
3113
au début, elle a exploré, reniflé,
elle s'est promenée,
09:09
mindinggarde its ownposséder businessEntreprise,
210
537684
1689
fait ses petites affaires,
09:11
because actuallyréellement by naturela nature,
211
539373
1701
parce qu'en fait,
09:13
micedes souris are prettyjoli curiouscurieuse animalsanimaux.
212
541074
1979
les souris sont naturellement
des animaux assez curieux.
09:15
They want to know, what's going on in this newNouveau boxboîte?
213
543053
2622
Elles veulent savoir ce qu'il y a
dans cette nouvelle boîte.
09:17
It's interestingintéressant.
214
545675
1531
Ça les intéresse.
09:19
But the momentmoment we turnedtourné on the laserlaser, like you see now,
215
547206
3451
Mais au moment où on a allumé le laser,
comme vous le voyez maintenant,
09:22
all of a suddensoudain the mouseSouris enteredentré this freezingpoint de congélation modemode.
216
550657
3032
tout d'un coup,
la souris a fait le mort.
09:25
It stayedséjourné here and trieda essayé not to movebouge toi any partpartie of its bodycorps.
217
553689
4431
Elle est restée immobile
et a essayé de ne pas bouger.
09:30
ClearlyClairement it's freezingpoint de congélation.
218
558120
1628
Elle fait clairement le mort.
09:31
So indeedeffectivement, it looksregards like we are ablecapable to bringapporter back
219
559748
2583
Il semble donc bien
que nous sommes en mesure de rappeler
09:34
the fearpeur memoryMémoire for the first boxboîte
220
562331
2064
le souvenir de la peur de la première boite
09:36
in this completelycomplètement newNouveau environmentenvironnement.
221
564395
3367
dans cet environnement
complètement nouveau.
09:39
While watchingen train de regarder this, SteveSteve and I
222
567762
2112
En voyant ça, Steve et moi,
09:41
are as shockedchoqué as the mouseSouris itselfse.
223
569874
2133
on était aussi choqués
que la souris elle-même.
09:44
(LaughterRires)
224
572007
1262
(Rires)
09:45
So after the experimentexpérience, the two of us just left the roomchambre
225
573269
3307
Après l'expérience,
on est sortis de la salle
09:48
withoutsans pour autant sayingen disant anything.
226
576576
1753
sans un mot.
09:50
After a kindgentil of long, awkwardmaladroite periodpériode of time,
227
578329
3396
Après un long moment de gêne,
09:53
SteveSteve brokecassé the silencesilence.
228
581725
2212
Steve a brisé le silence.
09:55
SRSR: "Did that just work?"
229
583937
2341
SR : «Est-ce que ça a marché ? »
09:58
XLXL: "Yes," I said. "IndeedEn effet it workedtravaillé!"
230
586278
2974
XL : « Oui, » j'ai dit. « Ça a bien marché ! »
10:01
We're really excitedexcité about this.
231
589252
2117
Nous étions vraiment enthousiasmés.
10:03
And then we publishedpublié our findingsrésultats
232
591369
2624
Et puis,
nous avons publié nos découvertes
10:05
in the journaljournal NatureNature.
233
593993
1696
dans la revue Nature.
10:07
Ever sincedepuis the publicationpublication of our work,
234
595689
2471
Depuis la publication de nos travaux,
10:10
we'venous avons been receivingrecevoir numerousnombreux commentscommentaires
235
598160
2415
nous avons reçu de nombreux commentaires
10:12
from all over the InternetInternet.
236
600575
2125
de partout sur Internet.
10:14
Maybe we can take a look at some of those.
237
602700
3750
Peut-être pouvons-nous y jeter un œil ?
10:18
["OMGGGGGOMGGGGG FINALLYENFIN... so much more to come, virtualvirtuel realityréalité, neuralneural manipulationmanipulation, visualvisuel dreamrêver emulationémulation... neuralneural codingcodage, 'writing' écriture and re-writingré-écriture of memories'des souvenirs, mentalmental illnessesles maladies. AhhhAhhh the futureavenir is awesomeimpressionnant"]
238
606450
2457
[« Oh mon Dieu enfin... tellement plus à venir, la réalité virtuelle, les manipulations neurales, émulation visuelle des rêves... l'encodage des neurones, l'écriture et la réécriture des souvenirs, une cure pour les maladies mentales. Ahhh, l'avenir est génial »]
10:20
SRSR: So the first thing that you'lltu vas noticeremarquer is that people
239
608907
2000
SR : La première chose que vous remarquerez,
c'est que les gens
10:22
have really strongfort opinionsdes avis about this kindgentil of work.
240
610907
2903
ont des opinions très marquées
sur ce genre de recherches.
10:25
Now I happense produire to completelycomplètement agreese mettre d'accord with the optimismoptimisme
241
613810
2554
Je suis entièrement d'accord avec l'optimisme
10:28
of this first quotecitation,
242
616364
816
de cette première citation,
10:29
because on a scaleéchelle of zerozéro to MorganMorgan Freeman'sDe Freeman voicevoix,
243
617180
2808
parce que sur une échelle de zéro
à la voix de Morgan Freeman,
10:31
it happensarrive to be one of the mostles plus evocativeévocateur accoladesaccolades
244
619988
2123
c'est l'un des hommages les plus inspirés
10:34
that I've heardentendu come our way.
245
622111
1550
que j'ai entendus à notre encontre.
10:35
(LaughterRires)
246
623661
2196
(Rires)
10:37
But as you'lltu vas see, it's not the only opinionopinion that's out there.
247
625857
1951
Mais comme vous le verrez,
ce n'est pas la seule opinion que l'on trouve.
10:39
["This scareseffraie the hellenfer out of me... What if they could do that easilyfacilement in humanshumains in a couplecouple of yearsannées?! OH MY GOD WE'RE DOOMEDDOOMED"]
248
627808
1564
[« Ça me terrifie... Et si on pouvait facilement faire ça chez l'homme dans quelques années ?! OH MON DIEU, NOUS SOMMES CONDAMNÉS »]
10:41
XLXL: IndeedEn effet, if we take a look at the secondseconde one,
249
629372
1918
XL : En effet, si on regarde le deuxième,
10:43
I think we can all agreese mettre d'accord that it's, mehmeh,
250
631290
2107
je pense qu'on est tous d'accord pour dire que,
eh bien,
10:45
probablyProbablement not as positivepositif.
251
633397
2375
il est probablement moins positif.
10:47
But this alsoaussi remindsrappelle us that,
252
635772
2185
Mais ça nous rappelle tout de même que,
10:49
althoughbien que we are still workingtravail with micedes souris,
253
637957
2186
même si on travaille pour l'instant
sur des souris,
10:52
it's probablyProbablement a good ideaidée to startdébut thinkingen pensant and discussingdiscuter
254
640143
3517
ce serait probablement une bonne idée
de commencer à réfléchir et à discuter
10:55
about the possiblepossible ethicaléthique ramificationsramifications
255
643660
2991
des conséquences éthiques potentielles
10:58
of memoryMémoire controlcontrôle.
256
646651
1948
du contrôle de la mémoire.
11:00
SRSR: Now, in the spiritesprit of the thirdtroisième quotecitation,
257
648599
2200
SR : Maintenant, une troisième citation,
11:02
we want to tell you about a recentrécent projectprojet that we'venous avons been
258
650799
1974
qui nous permettra de parler d'un projet récent
sur lequel on a travaillé au labo,
11:04
workingtravail on in lablaboratoire that we'venous avons calledappelé ProjectProjet InceptionCréation.
259
652773
2428
et que nous avons appelé le Projet Inception.
11:07
["They should make a moviefilm about this. Where they plantplante ideasidées into peoplespeuples mindsesprits, so they can controlcontrôle them for theirleur ownposséder personalpersonnel gainGain. We'llNous allons call it: InceptionCréation."]
260
655201
3243
[« Ils devraient faire un film à ce sujet. Dans lequel ils implanteraient des idées dans l'esprit des gens, pour pouvoir les contrôler pour leur gain personnel. On l'appellerait : Inception. »]
11:10
So we reasonedraisonnée that now that we can reactivateréactiver a memoryMémoire,
261
658444
3734
On s'est dit que maintenant qu'on pouvait
réactiver un souvenir,
11:14
what if we do so but then begincommencer to tinkerbricoler with that memoryMémoire?
262
662178
2952
si on commençait
à le bricoler ?
11:17
Could we possiblypeut-être even turntour it into a falsefaux memoryMémoire?
263
665130
3033
Peut-être qu'on pourrait même
le transformer en un faux souvenir ?
11:20
XLXL: So all memoryMémoire is sophisticatedsophistiqué and dynamicdynamique,
264
668163
4099
XL : Tout souvenir est sophistiqué et dynamique,
11:24
but if just for simplicitysimplicité, let's imagineimaginer memoryMémoire
265
672262
2979
mais par souci de simplicité,
nous allons envisager le souvenir
11:27
as a moviefilm clipagrafe.
266
675241
1402
comme un clip vidéo.
11:28
So farloin what we'venous avons told you is basicallyen gros we can controlcontrôle
267
676643
2670
On vous a jusque là expliqué
qu'on pouvait en gros contrôler
11:31
this "playjouer" buttonbouton of the clipagrafe
268
679313
1931
le bouton « play » du clip vidéo,
11:33
so that we can playjouer this videovidéo clipagrafe any time, anywherenulle part.
269
681244
4585
pour pouvoir jouer ce clip vidéo
n'importe quand, n'importe où.
11:37
But is there a possibilitypossibilité that we can actuallyréellement get
270
685829
2531
Mais serait-il possible d'aller réellement
11:40
insideà l'intérieur the braincerveau and editmodifier this moviefilm clipagrafe
271
688360
2860
à l'intérieur du cerveau,
et de modifier ce clip vidéo
11:43
so that we can make it differentdifférent from the originaloriginal?
272
691220
2896
pour le rendre différent de l'original ?
11:46
Yes we can.
273
694116
2178
Oui, nous le pouvons.
11:48
TurnedTourné out that all we need to do is basicallyen gros
274
696294
2130
Tout ce qu'on a à faire,
c'est en gros
11:50
reactivateréactiver a memoryMémoire usingen utilisant laserslasers just like we did before,
275
698424
4275
de réactiver un souvenir à l'aide de lasers,
comme nous l'avons fait auparavant,
11:54
but at the sameMême time, if we presentprésent newNouveau informationinformation
276
702699
3439
mais en même temps,
si on présente de nouvelles informations,
11:58
and allowpermettre this newNouveau informationinformation to incorporateincorporer into this oldvieux memoryMémoire,
277
706138
3974
et qu'on permet à ces nouvelles informations
de s'incorporer dans ce vieux souvenir,
12:02
this will changechangement the memoryMémoire.
278
710112
2438
ça va le modifier.
12:04
It's sortTrier of like makingfabrication a remixremix taperuban.
279
712550
3663
C'est un peu comme faire un remix.
12:08
SRSR: So how do we do this?
280
716213
2858
SR : Alors, comment fait-on ?
12:11
RatherPlutôt than findingdécouverte a fearpeur memoryMémoire in the braincerveau,
281
719071
1957
Au lieu de trouver un souvenir de peur
dans le cerveau,
12:13
we can startdébut by takingprise our animalsanimaux,
282
721028
1716
nous peut commencer
par prendre nos animaux,
12:14
and let's say we put them in a bluebleu boxboîte like this bluebleu boxboîte here
283
722744
2933
et les mettre, disons, dans une boîte bleue,
comme celle-ci,
12:17
and we find the braincerveau cellscellules that representreprésenter that bluebleu boxboîte
284
725677
2494
on trouve les cellules du cerveau
qui représentent cette boîte bleue,
12:20
and we tricktour them to respondrépondre to pulsesimpulsions of lightlumière
285
728171
2073
et on les incite à réagir
à des impulsions de lumière,
12:22
exactlyexactement like we had said before.
286
730244
2121
exactement comme on l'a dit.
12:24
Now the nextprochain day, we can take our animalsanimaux and placeendroit them
287
732365
2124
Le jour suivant, on peut prendre nos animaux
et les mettre
12:26
in a redrouge boxboîte that they'veils ont never experiencedexpérimenté before.
288
734489
2699
dans une boîte rouge
qu'ils n'ont jamais connue auparavant.
12:29
We can shoottirer lightlumière into the braincerveau to reactivateréactiver
289
737188
2026
On peut envoyer de la lumière
dans le cerveau
12:31
the memoryMémoire of the bluebleu boxboîte.
290
739214
2109
pour réactiver la mémoire
de la boîte bleue.
12:33
So what would happense produire here if, while the animalanimal
291
741323
1744
Qu'est-ce qui se passerait si,
pendant que l'animal se rappelle
12:35
is recallingrappel the memoryMémoire of the bluebleu boxboîte,
292
743067
1894
du souvenir de la boîte bleue,
12:36
we gavea donné it a couplecouple of milddoux footpied shockschocs?
293
744961
2643
on lui donnait un ou deux petits chocs électriques
aux pattes ?
12:39
So here we're tryingen essayant to artificiallyartificiellement make an associationassociation
294
747604
2693
Là, on essaye de créer artificiellement
une association
12:42
betweenentre the memoryMémoire of the bluebleu boxboîte
295
750297
1915
entre la mémoire de la boîte bleue
12:44
and the footpied shockschocs themselvesse.
296
752212
1503
et les chocs électriques aux pattes.
12:45
We're just tryingen essayant to connectrelier the two.
297
753715
1779
On essaye juste de relier les deux.
12:47
So to testtester if we had doneterminé so,
298
755494
1543
Afin de tester si on a réussi,
12:49
we can take our animalsanimaux onceune fois que again
299
757037
1328
on peut prendre nos animaux de nouveau,
12:50
and placeendroit them back in the bluebleu boxboîte.
300
758365
1946
et les remettre dans la boîte bleue.
12:52
Again, we had just reactivatedréactivé the memoryMémoire of the bluebleu boxboîte
301
760311
2738
Encore une fois, on a juste réactivé la mémoire
de la boîte bleue
12:55
while the animalanimal got a couplecouple of milddoux footpied shockschocs,
302
763049
2167
pendant que l'animal recevait
quelques chocs électriques aux pattes,
12:57
and now the animalanimal suddenlysoudainement freezesgèle.
303
765216
2370
et maintenant,
l'animal fait soudain le mort.
12:59
It's as thoughbien que it's recallingrappel beingétant mildlydoucement shockedchoqué in this environmentenvironnement
304
767586
3202
C'est comme s'il se rappelait avoir été
légèrement choqué dans cet environnement,
13:02
even thoughbien que that never actuallyréellement happenedarrivé.
305
770788
3002
même si cela ne s'est en fait
jamais produit.
13:05
So it formedformé a falsefaux memoryMémoire,
306
773790
1862
Il a donc formé un faux souvenir
13:07
because it's falselyfaussement fearingCraignant an environmentenvironnement
307
775652
2011
parce qu'il craint de façon erronée
un environnement
13:09
where, technicallytechniquement speakingParlant,
308
777663
1254
où, d'un point de vue technique,
13:10
nothing badmal actuallyréellement happenedarrivé to it.
309
778917
2349
rien de mauvais
ne lui est réellement arrivé.
13:13
XLXL: So, so farloin we are only talkingparlant about
310
781266
2453
XL : Jusqu'ici, on n'a parlé
13:15
this light-controlledlumière contrôlée "on" switchcommutateur.
311
783719
2366
que d'un interrupteur
que la lumière allume.
13:18
In factfait, we alsoaussi have a light-controlledlumière contrôlée "off" switchcommutateur,
312
786085
3288
En fait, on en a aussi un
que la lumière éteint,
13:21
and it's very easyfacile to imagineimaginer that
313
789373
2080
et il est très facile d'imaginer
13:23
by installinginstallation this light-controlledlumière contrôlée "off" switchcommutateur,
314
791453
2478
qu'en installant cet interrupteur
que la lumière éteint,
13:25
we can alsoaussi turntour off a memoryMémoire, any time, anywherenulle part.
315
793931
5588
on puisse également effacer un souvenir,
n'importe quand, n'importe où.
13:31
So everything we'venous avons been talkingparlant about todayaujourd'hui
316
799519
2214
Tout ce dont on a parlé aujourd'hui
13:33
is basedbasé on this philosophicallyphilosophiquement chargedaccusé principleprincipe of neuroscienceneuroscience
317
801733
4677
repose sur ce principe très philosophique
des neurosciences
13:38
that the mindesprit, with its seeminglyapparemment mysteriousmystérieux propertiesPropriétés,
318
806410
4118
qui dit que l'esprit,
avec ses propriétés apparemment mystérieuses,
13:42
is actuallyréellement madefabriqué of physicalphysique stuffdes trucs that we can tinkerbricoler with.
319
810528
3645
est en fait constitué d'objets physiques
que nous pouvons manipuler.
13:46
SRSR: And for me personallypersonnellement,
320
814173
1475
SR : Quant à moi, personnellement,
13:47
I see a worldmonde where we can reactivateréactiver
321
815648
1581
je vois un monde
où on peut réactiver
13:49
any kindgentil of memoryMémoire that we'dmer like.
322
817229
2116
tous les souvenirs
que nous voulons.
13:51
I alsoaussi see a worldmonde where we can eraseeffacer unwantedles indésirables memoriessouvenirs.
323
819345
3298
Je vois aussi un monde où on peut effacer
des souvenirs indésirables.
13:54
Now, I even see a worldmonde where editingédition memoriessouvenirs
324
822643
1936
Je vois même un monde
où modifier les souvenirs
13:56
is something of a realityréalité,
325
824579
1539
est devenu une réalité,
13:58
because we're livingvivant in a time where it's possiblepossible
326
826118
1705
parce que nous vivons à une époque
où il est possible
13:59
to pluckPluck questionsdes questions from the treearbre of sciencescience fictionfiction
327
827823
2225
de cueillir des questions
sur l'arbre de la science fiction,
14:02
and to groundsol them in experimentalexpérimental realityréalité.
328
830048
2420
et de les ancrer
dans la réalité expérimentale.
14:04
XLXL: NowadaysDe nos jours, people in the lablaboratoire
329
832468
1883
XL : En ce moment même, dans les labos,
14:06
and people in other groupsgroupes all over the worldmonde
330
834351
2386
et dans d'autres groupes
partout dans le monde,
14:08
are usingen utilisant similarsimilaire methodsméthodes to activateactiver or editmodifier memoriessouvenirs,
331
836737
3817
des gens utilisent des méthodes similaires
pour activer ou modifier les souvenirs,
14:12
whetherqu'il s'agisse that's oldvieux or newNouveau, positivepositif or negativenégatif,
332
840554
3841
qu'ils soient anciens ou nouveaux,
positifs ou négatifs,
14:16
all sortssortes of memoriessouvenirs so that we can understandcomprendre
333
844395
2672
toutes sortes de souvenirs,
pour pouvoir comprendre
14:19
how memoryMémoire workstravaux.
334
847067
1864
comment fonctionne la mémoire.
14:20
SRSR: For exampleExemple, one groupgroupe in our lablaboratoire
335
848931
1784
SR : Par exemple,
un groupe dans notre labo
14:22
was ablecapable to find the braincerveau cellscellules that make up a fearpeur memoryMémoire
336
850715
2638
a réussi à trouver les cellules cérébrales
qui composaient un souvenir de peur,
14:25
and convertedconverti them into a pleasurableagréable memoryMémoire, just like that.
337
853353
2775
et les a convertis en un souvenir agréable,
juste comme ça.
14:28
That's exactlyexactement what I mean about editingédition these kindssortes of processesprocessus.
338
856128
3062
C'est exactement ce que je veux dire
lorsque je parle de modifier ces processus.
14:31
Now one dudeDude in lablaboratoire was even ablecapable to reactivateréactiver
339
859190
1812
Un mec au labo,
a même réussi à réactiver
14:33
memoriessouvenirs of femalefemelle micedes souris in malemâle micedes souris,
340
861002
2501
des souvenirs de souris femelles
chez les souris mâles,
14:35
whichlequel rumorrumeur has it is a pleasurableagréable experienceexpérience.
341
863503
2995
ce qui est une expérience agréable,
selon la rumeur.
14:38
XLXL: IndeedEn effet, we are livingvivant in a very excitingpassionnant momentmoment
342
866498
4117
XL : En effet, nous vivons une période
très excitante,
14:42
where sciencescience doesn't have any arbitraryarbitraire speedla vitesse limitslimites
343
870615
3805
où la vitesse de la science
n'a aucune limite arbitraire,
14:46
but is only boundlié by our ownposséder imaginationimagination.
344
874420
3187
mais n'est liée
qu'à notre propre imagination.
14:49
SRSR: And finallyenfin, what do we make of all this?
345
877607
2147
SR : Pour conclure,
que faut-il penser de tout cela ?
14:51
How do we pushpousser this technologyLa technologie forwardvers l'avant?
346
879754
1971
Comment faire avancer
cette technologie ?
14:53
These are the questionsdes questions that should not remainrester
347
881725
1837
Ce sont des questions
qui ne doivent pas rester
14:55
just insideà l'intérieur the lablaboratoire,
348
883562
1675
confinées au labo,
14:57
and so one goalobjectif of today'saujourd'hui talk was to bringapporter everybodyTout le monde
349
885237
2572
et l'un des objectifs de cette conférence
était donc de mettre tout le monde au courant
14:59
up to speedla vitesse with the kindgentil of stuffdes trucs that's possiblepossible
350
887809
2319
du genre de choses qu'il est possible de faire
15:02
in modernmoderne neuroscienceneuroscience,
351
890128
1384
dans les neurosciences modernes,
15:03
but now, just as importantlyimportant,
352
891512
1510
mais il est tout aussi important
15:05
to activelyactivement engageengager everybodyTout le monde in this conversationconversation.
353
893022
3332
de faire participer activement
tout le monde à ce débat.
15:08
So let's think togetherensemble as a teaméquipe about what this all meansveux dire
354
896354
2329
Alors réfléchissons ensemble, comme une équipe,
à ce que tout cela signifie,
15:10
and where we can and should go from here,
355
898683
2474
à ce que nous pouvons
et devons faire,
15:13
because XuXu and I think we all have
356
901157
2098
parce que Xu et moi pensons
que nous avons tous
15:15
some really biggros decisionsles décisions aheaddevant of us.
357
903255
2536
de grandes décisions
qui nous attendent.
15:17
Thank you.
XLXL: Thank you.
358
905791
1125
Merci.
XL : Merci.
15:18
(ApplauseApplaudissements)
359
906916
1634
(Applaudissements)
Translated by Sandrine Marie
Reviewed by Shadia Ramsahye

▲Back to top

ABOUT THE SPEAKERS
Steve Ramirez - Neuroscientist
When Steve Ramirez published his latest study in Science, it caused a media frenzy. Why? Because the paper was on implanting false memories in the brains of mice.

Why you should listen

Steve is a graduate student at MIT’s Brain and Cognitive Sciences department pursuing a Ph.D. in neuroscience. His work focuses on finding where single memories are located throughout the brain, genetically tricking the brain cells that house these memories to respond to brief pulses of light, and then using these same flickers of light to reactivate, erase and implant memories. The goals of his research are twofold: to figure out how the brain gives rise to the seemingly ephemeral process of memory, and to predict what happens when specific brain pieces breakdown to impair cognition. His work has been published in Science and covered by New Scientist, Discover, Scientific American, and Gizmodo.

Ramirez aims to be a professor who runs a lab that plucks questions from the tree of science fiction to ground them in experimental reality. He believes that a team-oriented approach to science makes research and teaching far more exciting. When he’s not tinkering with memories in the lab, Ramirez also enjoys running and cheering on every sports team in the city of Boston.

More profile about the speaker
Steve Ramirez | Speaker | TED.com
Xu Liu - Neuroscientist
In his groundbreaking work, Xu Liu investigated how to activate and deactivate specific memories in mice.

Why you should listen

During his PhD, Xu Liu studied the mechanisms of learning and memory, using fruit flies as a model system. By changing the expression of certain genes in the fly brain, he generated smart flies that can learn many times faster than their peers. Using live imaging, he also detected learning-induced changes in the brain cells and observed memory formation inside the brain with light.

After graduation, he moved to MIT and joined Dr. Susumu Tonegawa's lab as a postdoctoral associate. He continued his pursuit of memory with light there. Instead of just watching memory formation, he developed a system in mice where one can not only identify and label cells in the brain for a particular memory, but also turn these cells on and off with light to activate this memory at will. This work was published in Science and has been covered by the media worldwide. Liu passed away in February 2015.

More profile about the speaker
Xu Liu | Speaker | TED.com