ABOUT THE SPEAKER
Ed Boyden - Neuroengineer
Ed Boyden is a professor of biological engineering and brain and cognitive sciences at the MIT Media Lab and the MIT McGovern Institute.

Why you should listen

Ed Boyden leads the Synthetic Neurobiology Group, which develops tools for analyzing and repairing complex biological systems such as the brain. His group applies these tools in a systematic way in order to reveal ground truth scientific understandings of biological systems, which in turn reveal radical new approaches for curing diseases and repairing disabilities. These technologies include expansion microscopy, which enables complex biological systems to be imaged with nanoscale precision, and optogenetic tools, which enable the activation and silencing of neural activity with light (TED Talk: A light switch for neurons). Boyden also co-directs the MIT Center for Neurobiological Engineering, which aims to develop new tools to accelerate neuroscience progress.

Amongst other recognitions, Boyden has received the Breakthrough Prize in Life Sciences (2016), the BBVA Foundation Frontiers of Knowledge Award (2015), the Carnegie Prize in Mind and Brain Sciences (2015), the Jacob Heskel Gabbay Award (2013), the Grete Lundbeck Brain Prize (2013) and the NIH Director's Pioneer Award (2013). He was also named to the World Economic Forum Young Scientist list (2013) and the Technology Review World's "Top 35 Innovators under Age 35" list (2006). His group has hosted hundreds of visitors to learn how to use new biotechnologies and spun out several companies to bring inventions out of his lab and into the world. Boyden received his Ph.D. in neurosciences from Stanford University as a Hertz Fellow, where he discovered that the molecular mechanisms used to store a memory are determined by the content to be learned. Before that, he received three degrees in electrical engineering, computer science and physics from MIT. He has contributed to over 300 peer-reviewed papers, current or pending patents and articles, and he has given over 300 invited talks on his group's work.

More profile about the speaker
Ed Boyden | Speaker | TED.com
TED2011

Ed Boyden: A light switch for neurons

Ed Boyden : Un interrupteur pour allumer les neurones.

Filmed:
1,098,379 views

Ed Boyden montre comment, en insérant des gènes de protéines photosensibles dans des cellules du cerveau, il peut activer ou désactiver de manière sélective des neurones avec des implants en fibre optique. Avec ce niveau de contrôle sans précédent, il a réussi à guérir des souris souffrant de symptômes post traumatiques et de certaines formes de cécité. En perspective, les prothèses neuronales. L'animateur de session Juan Enriquez dirige ensuite la de questions / réponses.
- Neuroengineer
Ed Boyden is a professor of biological engineering and brain and cognitive sciences at the MIT Media Lab and the MIT McGovern Institute. Full bio

Double-click the English transcript below to play the video.

00:15
Think about your day for a secondseconde.
0
0
2000
Réfléchissez un instant à votre journée.
00:17
You wokeréveillé up, feltse sentait freshFrais airair on your facevisage as you walkedmarcha out the doorporte,
1
2000
3000
Vous vous êtes réveillé, vous avez senti l'air frais sur votre visage quand vous êtes sorti,
00:20
encounteredrencontré newNouveau colleaguescollègues and had great discussionsdiscussions,
2
5000
2000
vous avez croisé de nouveaux collègues, vous avez eu de grandes discussions,
00:22
and feltse sentait in aweAWE when you founda trouvé something newNouveau.
3
7000
2000
et vous vous êtes enthousiasmé quand vous avez découvert quelque chose de nouveau.
00:24
But I betpari there's something you didn't think about todayaujourd'hui --
4
9000
2000
Mais je parie qu'il y a une chose à laquelle vous n'avez pas pensé aujourd'hui --
00:26
something so closeFermer to home
5
11000
2000
une chose tellement proche de vous
00:28
that you probablyProbablement don't think about it very oftensouvent at all.
6
13000
2000
que vous n'y pensez probablement quasiment jamais.
00:30
And that's that all the sensationssensations, feelingssentiments,
7
15000
2000
Je parle du fait que toutes ces sensations, ces impressions,
00:32
decisionsles décisions and actionsactes
8
17000
2000
ces décisions et ces actions
00:34
are mediatedmédiée par by the computerordinateur in your headtête
9
19000
2000
sont arbitrées par l'ordinateur qui se trouve dans votre tête
00:36
calledappelé the braincerveau.
10
21000
2000
qu'on appelle le cerveau.
00:38
Now the braincerveau maymai not look like much from the outsideà l'extérieur --
11
23000
2000
Évidemment vu de l'extérieur le cerveau ne ressemble pas à grand chose --
00:40
a couplecouple poundslivres sterling of pinkish-graygris-rosé fleshchair,
12
25000
2000
un kilo de chair rose grisâtre,
00:42
amorphousamorphe --
13
27000
2000
informe --
00:44
but the last hundredcent yearsannées of neuroscienceneuroscience
14
29000
2000
mais le dernier siècle en neuroscience
00:46
have allowedpermis us to zoomZoom in on the braincerveau,
15
31000
2000
nous a permis de faire un zoom sur le cerveau
00:48
and to see the intricacycomplexité of what liesmentir withindans.
16
33000
2000
et de découvrir la complexité de ce qu'il abrite.
00:50
And they'veils ont told us that this braincerveau
17
35000
2000
Il nous a appris que ce cerveau
00:52
is an incrediblyincroyablement complicatedcompliqué circuitcircuit
18
37000
2000
est un circuit incroyablement compliqué
00:54
madefabriqué out of hundredsdes centaines of billionsdes milliards of cellscellules calledappelé neuronsneurones.
19
39000
4000
fait de centaines de milliards de cellules appelées neurones.
00:58
Now unlikecontrairement à a human-designedconçu par l’homme computerordinateur,
20
43000
3000
Maintenant, à la différence d'un ordinateur conçu par l'homme,
01:01
where there's a fairlyéquitablement smallpetit numbernombre of differentdifférent partsles pièces --
21
46000
2000
qui a un nombre relativement limité de composants --
01:03
we know how they work, because we humanshumains designedconçu them --
22
48000
3000
dont nous connaissons le fonctionnement, puisque nous les avons conçus --
01:06
the braincerveau is madefabriqué out of thousandsmilliers of differentdifférent kindssortes of cellscellules,
23
51000
3000
le cerveau est fait de milliers de sortes de cellules différentes,
01:09
maybe tensdizaines of thousandsmilliers.
24
54000
2000
peut-être des dizaines de milliers.
01:11
They come in differentdifférent shapesformes; they're madefabriqué out of differentdifférent moleculesmolécules.
25
56000
2000
Elles sont de formes différentes, elles sont faites de différentes molécules,
01:13
And they projectprojet and connectrelier to differentdifférent braincerveau regionsles régions,
26
58000
3000
elles se projettent et se connectent à des différentes régions du cerveau.
01:16
and they alsoaussi changechangement differentdifférent waysfaçons in differentdifférent diseasemaladie statesÉtats.
27
61000
3000
Elles changent aussi différemment selon différents états de maladies.
01:19
Let's make it concretebéton.
28
64000
2000
Parlons concrètement.
01:21
There's a classclasse of cellscellules,
29
66000
2000
Il y a une catégorie de cellules,
01:23
a fairlyéquitablement smallpetit cellcellule, an inhibitoryinhibitrice cellcellule, that quietsapaise its neighborsvoisins.
30
68000
3000
une cellule relativement petite, inhibitrice, qui endort ces voisines.
01:26
It's one of the cellscellules that seemssemble to be atrophiedatrophiés in disorderstroubles like schizophreniaschizophrénie.
31
71000
4000
C'est une des cellules qui semble être atrophiée dans des états comme la schizophrénie.
01:30
It's calledappelé the basketpanier cellcellule.
32
75000
2000
On l'appelle cellule à corbeille.
01:32
And this cellcellule is one of the thousandsmilliers of kindssortes of cellcellule
33
77000
2000
Cette cellule est une parmi les milliers
01:34
that we are learningapprentissage about.
34
79000
2000
que nous découvrons progressivement.
01:36
NewNouveau onesceux are beingétant discovereddécouvert everydaytous les jours.
35
81000
2000
On en découvre de nouvelles tous les jours.
01:38
As just a secondseconde exampleExemple:
36
83000
2000
Pour donner un autre exemple:
01:40
these pyramidalpyramidale cellscellules, largegrand cellscellules,
37
85000
2000
ces grandes cellules, pyramidales,
01:42
they can spanenvergure a significantimportant fractionfraction of the braincerveau.
38
87000
2000
peuvent s'étendre sur une portion significative du cerveau.
01:44
They're excitatoryexcitateurs.
39
89000
2000
Elles sont stimulantes.
01:46
And these are some of the cellscellules
40
91000
2000
Ce sont certaines des cellules
01:48
that mightpourrait be overactivehyperactive in disorderstroubles suchtel as epilepsyépilepsie.
41
93000
3000
qui peuvent être hyperactives dans des troubles comme l'épilepsie.
01:51
EveryChaque one of these cellscellules
42
96000
2000
Chacune de ces cellules
01:53
is an incredibleincroyable electricalélectrique devicedispositif.
43
98000
3000
est un incroyable appareil électrique.
01:56
They receiverecevoir inputcontribution from thousandsmilliers of upstreamen amont partnersles partenaires
44
101000
2000
Elles sont alimentées par des milliers de partenaires en amont
01:58
and computecalculer theirleur ownposséder electricalélectrique outputssorties,
45
103000
3000
et elles gèrent leur propre production électrique,
02:01
whichlequel then, if they passpasser a certaincertain thresholdseuil,
46
106000
2000
qui, si elle dépasse un certain seuil,
02:03
will go to thousandsmilliers of downstreamen aval partnersles partenaires.
47
108000
2000
se répartit alors entre les milliers de cellules en aval.
02:05
And this processprocessus, whichlequel takes just a millisecondmilliseconde or so,
48
110000
3000
Ce processus qui prend environ une milliseconde,
02:08
happensarrive thousandsmilliers of timesfois a minuteminute
49
113000
2000
se produit des milliers de fois par minute
02:10
in everychaque one of your 100 billionmilliard cellscellules,
50
115000
2000
dans chacune de vos 100 milliards de cellules,
02:12
as long as you livevivre
51
117000
2000
tant que vous vivez,
02:14
and think and feel.
52
119000
3000
pensez et ressentez.
02:17
So how are we going to figurefigure out what this circuitcircuit does?
53
122000
3000
Allons-nous donc découvrir ce que fait ce circuit?
02:20
IdeallyIdéalement, we could go throughpar the circuitcircuit
54
125000
2000
Dans un monde parfait, nous pourrions parcourir ce circuit,
02:22
and turntour these differentdifférent kindssortes of cellcellule on and off
55
127000
3000
allumer et éteindre différentes sortes de cellules
02:25
and see whetherqu'il s'agisse we could figurefigure out
56
130000
2000
et voir si nous pouvons trouver
02:27
whichlequel onesceux contributecontribuer to certaincertain functionsles fonctions
57
132000
2000
lesquelles participent à telles fonctions
02:29
and whichlequel onesceux go wrongfaux in certaincertain pathologiespathologies.
58
134000
2000
et lesquelles faillissent dans certaines pathologies.
02:31
If we could activateactiver cellscellules, we could see what powerspouvoirs they can unleashLibérez,
59
136000
3000
Si nous pouvions activer des cellules, nous pourrions voir quels sont leurs pouvoirs,
02:34
what they can initiateinitier and sustainsoutenir.
60
139000
2000
ce qu'elles peuvent déclencher et supporter.
02:36
If we could turntour them off,
61
141000
2000
Si nous pouvions les éteindre,
02:38
then we could try and figurefigure out what they're necessarynécessaire for.
62
143000
2000
alors nous pourrions essayer de comprendre ce à quoi elles sont nécessaires.
02:40
And that's a storyrécit I'm going to tell you about todayaujourd'hui.
63
145000
3000
C'est l'histoire que je vais vous raconter aujourd'hui.
02:43
And honestlyfranchement, where we'venous avons gonedisparu throughpar over the last 11 yearsannées,
64
148000
3000
Et honnêtement, nous avons passé les 11 dernières années
02:46
throughpar an attempttentative to find waysfaçons
65
151000
2000
à essayer de trouver un moyen
02:48
of turningtournant circuitsles circuits and cellscellules and partsles pièces and pathwaysvoies of the braincerveau
66
153000
2000
d'allumer et éteindre des circuits, des cellules, des parties
02:50
on and off,
67
155000
2000
et des chemins du cerveau,
02:52
bothtous les deux to understandcomprendre the sciencescience
68
157000
2000
à la fois pour comprendre la science
02:54
and alsoaussi to confrontaffronter some of the issuesproblèmes
69
159000
3000
mais aussi pour aborder quelques-uns des problèmes
02:57
that facevisage us all as humanshumains.
70
162000
3000
auxquels nous sommes confrontés en tant qu'humains.
03:00
Now before I tell you about the technologyLa technologie,
71
165000
3000
Maintenant, avant que je ne vous parle de la technologie,
03:03
the badmal newsnouvelles is that a significantimportant fractionfraction of us in this roomchambre,
72
168000
3000
la mauvaise nouvelle est qu'une grande partie de nous dans cette salle,
03:06
if we livevivre long enoughassez,
73
171000
2000
si nous vivons assez longtemps,
03:08
will encounterrencontre, perhapspeut être, a braincerveau disorderdésordre.
74
173000
2000
aurons, peut-être, des troubles cérébraux.
03:10
AlreadyDéjà, a billionmilliard people
75
175000
2000
Déjà, un milliard de personnes
03:12
have had some kindgentil of braincerveau disorderdésordre
76
177000
2000
ont une forme ou une autre de troubles cérébraux
03:14
that incapacitateshandicape them,
77
179000
2000
qui les handicape.
03:16
and the numbersNombres don't do it justiceJustice thoughbien que.
78
181000
2000
Les chiffres ne leur font même pas justice.
03:18
These disorderstroubles -- schizophreniaschizophrénie, Alzheimer'sAlzheimer,
79
183000
2000
Ces troubles - la schizophrénie, la maladie d'Alzheimer,
03:20
depressiondépression, addictionAddiction --
80
185000
2000
la dépression, la toxicomanie --
03:22
they not only stealvoler our time to livevivre, they changechangement who we are.
81
187000
3000
non seulement volent notre temps de vie, elles changent qui nous sommes,
03:25
They take our identityidentité and changechangement our emotionsémotions
82
190000
2000
elles nous prennent notre identité, changent nos émotions
03:27
and changechangement who we are as people.
83
192000
3000
et changent qui nous sommes.
03:30
Now in the 20thth centurysiècle,
84
195000
3000
Cependant, au 20e siècle,
03:33
there was some hopeespérer that was generatedgénéré
85
198000
3000
on a eu un peu d'espoir
03:36
throughpar the developmentdéveloppement of pharmaceuticalsproduits pharmaceutiques for treatingtraitant braincerveau disorderstroubles,
86
201000
3000
grâce au développement de médicaments pour le traitement des troubles cérébraux.
03:39
and while manybeaucoup drugsdrogues have been developeddéveloppé
87
204000
3000
Bien que l'on ait développé de nombreux médicaments
03:42
that can alleviatesoulager symptomssymptômes of braincerveau disorderstroubles,
88
207000
2000
qui peuvent soulager les symptômes des troubles du cerveau,
03:44
practicallypratiquement noneaucun of them can be consideredpris en considération to be curedguéri.
89
209000
3000
on ne peut en pratique en guérir aucun.
03:47
And partpartie of that's because we're bathingde baignade the braincerveau in the chemicalchimique.
90
212000
3000
C'est en partie dû au fait que le cerveau baigne dans un bain chimique.
03:50
This elaborateélaborer circuitcircuit
91
215000
2000
Ce circuit complexe
03:52
madefabriqué out of thousandsmilliers of differentdifférent kindssortes of cellcellule
92
217000
2000
fait de milliers de différents types de cellules
03:54
is beingétant bathedbaignée in a substancesubstance.
93
219000
2000
baigne dans une substance.
03:56
That's alsoaussi why, perhapspeut être, mostles plus of the drugsdrogues, and not all, on the marketmarché
94
221000
2000
C'est aussi pourquoi, peut-être la plupart des médicaments, et non pas tous, sur le marché
03:58
can presentprésent some kindgentil of serioussérieux sidecôté effecteffet too.
95
223000
3000
peuvent aussi présenter des effets secondaires graves.
04:01
Now some people have gottenobtenu some solaceSolace
96
226000
3000
Certaines personnes ont obtenu un peu de réconfort
04:04
from electricalélectrique stimulatorsstimulateurs that are implantedimplanté in the braincerveau.
97
229000
3000
à partir de stimulateurs électriques qu'on implante dans le cerveau.
04:07
And for Parkinson'sMaladie de Parkinson diseasemaladie,
98
232000
2000
Pour la maladie de Parkinson,
04:09
CochlearCochléaire implantsles implants,
99
234000
2000
les implants cochléaires
04:11
these have indeedeffectivement been ablecapable
100
236000
2000
ont en effet été en mesure
04:13
to bringapporter some kindgentil of remedymesure corrective
101
238000
2000
d'apporter une sorte de remède
04:15
to people with certaincertain kindssortes of disorderdésordre.
102
240000
2000
aux personnes atteintes de certains types de troubles.
04:17
But electricityélectricité alsoaussi will go in all directionsdirections --
103
242000
2000
Mais l'électricité ira aussi dans toutes les directions --
04:19
the pathchemin of leastmoins resistancela résistance,
104
244000
2000
le chemin de moindre résistance,
04:21
whichlequel is where that phrasephrase, in partpartie, comesvient from.
105
246000
2000
c'est de là que vient cette expression, en partie.
04:23
And it alsoaussi will affectaffecter normalnormal circuitsles circuits as well as the abnormalanormales onesceux that you want to fixréparer.
106
248000
3000
Elle aura un effet sur les circuits normaux en même temps que sur ceux que vous souhaitez réparer.
04:26
So again, we're sentenvoyé back to the ideaidée
107
251000
2000
A nouveau, nous sommes renvoyés à l'idée
04:28
of ultra-preciseultra-précis controlcontrôle.
108
253000
2000
d'un contrôle ultra-précis.
04:30
Could we dial-inaccès à distance informationinformation preciselyprécisément where we want it to go?
109
255000
3000
Peut-on envoyer une information exactement là où nous voulons?
04:34
So when I startedcommencé in neuroscienceneuroscience 11 yearsannées agodepuis,
110
259000
4000
Quand j'ai commencé en neurosciences il y a 11 ans,
04:38
I had trainedqualifié as an electricalélectrique engineeringénieur and a physicistphysicien,
111
263000
3000
j'ai eu une formation d'ingénieur électricien et de physicien,
04:41
and the first thing I thought about was,
112
266000
2000
la première chose que j'en ai pensé était:
04:43
if these neuronsneurones are electricalélectrique devicesdispositifs,
113
268000
2000
si ces neurones sont des appareils électriques,
04:45
all we need to do is to find some way
114
270000
2000
tout ce que nous devons faire est de trouver un moyen
04:47
of drivingau volant those electricalélectrique changeschangements at a distancedistance.
115
272000
2000
de générer ces changements électriques à distance.
04:49
If we could turntour on the electricityélectricité in one cellcellule,
116
274000
2000
Si l'on pouvait allumer l'électricité dans une cellule,
04:51
but not its neighborsvoisins,
117
276000
2000
mais pas dans ses voisines,
04:53
that would give us the tooloutil we need to activateactiver and shutfermer down these differentdifférent cellscellules,
118
278000
3000
cela nous donnerait l'outil dont nous avons besoin pour activer et fermer ces différentes cellules,
04:56
figurefigure out what they do and how they contributecontribuer
119
281000
2000
comprendre ce qu'elles font et comment elles contribuent
04:58
to the networksréseaux in whichlequel they're embeddedintégré.
120
283000
2000
aux réseaux dans lesquels elles sont embarquées.
05:00
And alsoaussi it would allowpermettre us to have the ultra-preciseultra-précis controlcontrôle we need
121
285000
2000
Cela nous permettrait aussi d'avoir le contrôle ultra-précis nécessaire
05:02
in ordercommande to fixréparer the circuitcircuit computationscalculs
122
287000
3000
pour corriger les calculs du circuit
05:05
that have gonedisparu awrymal tourné.
123
290000
2000
qui ont mal tourné.
05:07
Now how are we going to do that?
124
292000
2000
Comment allons-nous faire?
05:09
Well there are manybeaucoup moleculesmolécules that existexister in naturela nature,
125
294000
2000
Il y a de nombreuses molécules dans la nature,
05:11
whichlequel are ablecapable to convertconvertir lightlumière into electricityélectricité.
126
296000
3000
qui sont capables de convertir la lumière en électricité.
05:14
You can think of them as little proteinsprotéines
127
299000
2000
Vous pouvez les considérer comme de petites protéines
05:16
that are like solarsolaire cellscellules.
128
301000
2000
semblables à des panneaux solaires.
05:18
If we can installinstaller these moleculesmolécules in neuronsneurones somehowen quelque sorte,
129
303000
3000
Si nous pouvions installer ces molécules dans les neurones,
05:21
then these neuronsneurones would becomedevenir electricallyélectriquement drivableen état de rouler with lightlumière.
130
306000
3000
on pourrait ainsi contrôler ces neurones par la lumière.
05:24
And theirleur neighborsvoisins, whichlequel don't have the moleculemolécule, would not.
131
309000
3000
Mais pas leurs voisines, qui n'ont pas la molécule.
05:27
There's one other magicla magie tricktour you need to make this all happense produire,
132
312000
2000
Il y a un tour de magie dont vous avez besoin pour que cela arrive,
05:29
and that's the abilitycapacité to get lightlumière into the braincerveau.
133
314000
3000
c'est la capacité à apporter la lumière dans le cerveau.
05:32
And to do that -- the braincerveau doesn't feel paindouleur -- you can put --
134
317000
3000
Pour ce faire -- le cerveau ne ressent pas la douleur -- vous pouvez mettre --
05:35
takingprise advantageavantage of all the efforteffort
135
320000
2000
grâce aux progrès
05:37
that's gonedisparu into the InternetInternet and communicationscommunications and so on --
136
322000
2000
réalisés pour Internet, les communications etc. -
05:39
opticaloptique fibersfibres connectedconnecté to laserslasers
137
324000
2000
des fibres optiques reliées à des lasers
05:41
that you can use to activateactiver, in animalanimal modelsdes modèles for exampleExemple,
138
326000
2000
que vous pouvez utiliser pour activer, dans des modèles animaux, par exemple,
05:43
in pre-clinicalprécliniques studiesétudes,
139
328000
2000
dans les études pré-cliniques,
05:45
these neuronsneurones and to see what they do.
140
330000
2000
ces neurones et voir ce qu'ils font.
05:47
So how do we do this?
141
332000
2000
Comment faisons-nous cela?
05:49
Around 2004,
142
334000
2000
Vers 2004,
05:51
in collaborationcollaboration with GerhardGerhard NagelNagel and KarlKarl DeisserothDeisseroth,
143
336000
2000
en collaboration avec Gerhard Nagel et Karl Deisseroth,
05:53
this visionvision camevenu to fruitionréalisation.
144
338000
2000
cette vision s'est concrétisée.
05:55
There's a certaincertain algaalgue that swimsnages in the wildsauvage,
145
340000
3000
Il y a une algue qui nage dans la nature,
05:58
and it needsBesoins to navigatenaviguer towardsvers lightlumière
146
343000
2000
elle a besoin de naviguer vers la lumière
06:00
in ordercommande to photosynthesizeeffectuer la photosynthèse optimallyde manière optimale.
147
345000
2000
pour obtenir une photosynthèse optimale.
06:02
And it sensessens lightlumière with a little eye-spotoeil-spot,
148
347000
2000
Elle perçoit la lumière avec une sorte d’œil,
06:04
whichlequel workstravaux not unlikecontrairement à how our eyeœil workstravaux.
149
349000
3000
qui fonctionne un peu comme notre œil.
06:07
In its membranemembrane, or its boundaryfrontière,
150
352000
2000
Sa membrane, ou son enveloppe,
06:09
it containscontient little proteinsprotéines
151
354000
3000
contient des petites protéines
06:12
that indeedeffectivement can convertconvertir lightlumière into electricityélectricité.
152
357000
3000
qui, en effet, peuvent convertir la lumière en électricité.
06:15
So these moleculesmolécules are calledappelé channelrhodopsinschannelrhodopsins.
153
360000
3000
Ces molécules sont appelées rhodopsines sensorielles.
06:18
And eachchaque of these proteinsprotéines actsactes just like that solarsolaire cellcellule that I told you about.
154
363000
3000
Chacune de ces protéines agit comme le panneau solaire dont je vous ai parlé.
06:21
When bluebleu lightlumière hitsles coups it, it openss'ouvre up a little holetrou
155
366000
3000
Lorsque la lumière bleue la frappe, elle ouvre un petit trou
06:24
and allowspermet chargedaccusé particlesdes particules to enterentrer the eye-spotoeil-spot,
156
369000
2000
et permet aux particules chargées d'entrer dans l'œil.
06:26
and that allowspermet this eye-spotoeil-spot to have an electricalélectrique signalsignal
157
371000
2000
Cela permet à cet œil d'avoir un signal électrique
06:28
just like a solarsolaire cellcellule chargingcharger up a batterybatterie.
158
373000
3000
tout comme un panneau solaire qui charge une batterie.
06:31
So what we need to do is to take these moleculesmolécules
159
376000
2000
Nous devons donc prendre ces molécules
06:33
and somehowen quelque sorte installinstaller them in neuronsneurones.
160
378000
2000
et les installer dans les neurones.
06:35
And because it's a proteinprotéine,
161
380000
2000
Comme c'est une protéine,
06:37
it's encodedcodé for in the DNAADN of this organismorganisme.
162
382000
3000
elle est codée dans l'ADN de cet organisme.
06:40
So all we'venous avons got to do is take that DNAADN,
163
385000
2000
Nous avons juste à prendre l'ADN,
06:42
put it into a genegène therapythérapie vectorVector, like a virusvirus,
164
387000
3000
le mettre dans un vecteur de thérapie génique, comme un virus,
06:45
and put it into neuronsneurones.
165
390000
3000
et le mettre dans les neurones.
06:48
So it turnedtourné out that this was a very productiveproductif time in genegène therapythérapie,
166
393000
3000
Il s'est avéré que c'était une période très productive en thérapie génique,
06:51
and lots of virusesles virus were comingvenir alongle long de.
167
396000
2000
et on trouvait beaucoup de virus.
06:53
So this turnedtourné out to be very simplesimple to do.
168
398000
2000
Cela s'est donc avéré très simple à faire.
06:55
And earlyde bonne heure in the morningMatin one day in the summerété of 2004,
169
400000
3000
Et un matin de l'été 2004,
06:58
we gavea donné it a try, and it workedtravaillé on the first try.
170
403000
2000
nous avons essayé, et cela a fonctionné du premier coup.
07:00
You take this DNAADN and you put it into a neuronneurone.
171
405000
3000
Vous prenez cet ADN et vous le mettez dans un neurone.
07:03
The neuronneurone usesles usages its naturalNaturel protein-makingfabrication de protéines machinerymachinerie
172
408000
3000
Le neurone utilise ses protéines naturelles
07:06
to fabricatefabriquer these little light-sensitivesensible à la lumière proteinsprotéines
173
411000
2000
pour fabriquer ces petites protéines sensibles à la lumière
07:08
and installinstaller them all over the cellcellule,
174
413000
2000
et les installer sur la cellule,
07:10
like puttingen mettant solarsolaire panelspanneaux on a rooftoit,
175
415000
2000
comme on met des panneaux solaires sur un toit.
07:12
and the nextprochain thing you know,
176
417000
2000
Et ensuite,
07:14
you have a neuronneurone whichlequel can be activatedactivé with lightlumière.
177
419000
2000
vous avez un neurone qui peut être activé par la lumière.
07:16
So this is very powerfulpuissant.
178
421000
2000
Donc, c'est très puissant.
07:18
One of the tricksdes trucs you have to do
179
423000
2000
Un des trucs que vous devez faire
07:20
is to figurefigure out how to deliverlivrer these genesgènes to the cellscellules that you want
180
425000
2000
est de savoir comment amener ces gènes dans les cellules que vous voulez
07:22
and not all the other neighborsvoisins.
181
427000
2000
et pas dans toutes les cellules voisines.
07:24
And you can do that; you can tweakTweak the virusesles virus
182
429000
2000
Vous pouvez faire cela, vous pouvez ajuster les virus
07:26
so they hitfrappé just some cellscellules and not othersautres.
183
431000
2000
pour qu'ils frappent juste quelques cellules et pas d'autres.
07:28
And there's other geneticgénétique tricksdes trucs you can playjouer
184
433000
2000
On peut utiliser d'autres astuces génétiques
07:30
in ordercommande to get light-activatedactivés par la lumière cellscellules.
185
435000
3000
afin d'obtenir des cellules activées par la lumière.
07:33
This fieldchamp has now come to be knownconnu as optogeneticsoptogenetics.
186
438000
4000
Ce domaine s'appelle désormais l'optogénétique.
07:37
And just as one exampleExemple of the kindgentil of thing you can do,
187
442000
2000
A titre d'exemple de ce qui est faisable,
07:39
you can take a complexcomplexe networkréseau,
188
444000
2000
vous pouvez prendre un réseau complexe,
07:41
use one of these virusesles virus to deliverlivrer the genegène
189
446000
2000
utiliser un de ces virus pour amener le gène
07:43
just to one kindgentil of cellcellule in this densedense networkréseau.
190
448000
3000
à un seul type de cellule dans ce réseau dense.
07:46
And then when you shineéclat lightlumière on the entiretout networkréseau,
191
451000
2000
Quand ensuite vous dirigez la lumière sur l'ensemble du réseau,
07:48
just that cellcellule typetype will be activatedactivé.
192
453000
2000
seul ce type de cellule sera activé.
07:50
So for exampleExemple, letspermet sortTrier of considerconsidérer that basketpanier cellcellule I told you about earlierplus tôt --
193
455000
3000
Par exemple, considérons cette cellule à panier, dont je vous ai parlé plus tôt -
07:53
the one that's atrophiedatrophiés in schizophreniaschizophrénie
194
458000
2000
celle qui est atrophiée dans la schizophrénie
07:55
and the one that is inhibitoryinhibitrice.
195
460000
2000
et qui est inhibitrice.
07:57
If we can deliverlivrer that genegène to these cellscellules --
196
462000
2000
Si nous pouvons amener ce gène dans ces cellules --
07:59
and they're not going to be alteredaltéré by the expressionexpression of the genegène, of coursecours --
197
464000
3000
et si elles ne sont pas modifiées par l'expression du gène, bien sûr --
08:02
and then flashflash bluebleu lightlumière over the entiretout braincerveau networkréseau,
198
467000
3000
puis envoyer un flash de lumière bleue sur la totalité du réseau du cerveau,
08:05
just these cellscellules are going to be drivenentraîné.
199
470000
2000
seules ces cellules vont être entraînées.
08:07
And when the lightlumière turnsse tourne off, these cellscellules go back to normalnormal,
200
472000
2000
Quand la lumière s'éteint, ces cellules vont revenir à la normale,
08:09
so they don't seemsembler to be averseaversion againstcontre that.
201
474000
3000
ça ne semble pas leur poser de problème.
08:12
Not only can you use this to studyétude what these cellscellules do,
202
477000
2000
Non seulement vous pouvez vous servir de ça pour étudier ce que ces cellules font,
08:14
what theirleur powerPuissance is in computingl'informatique in the braincerveau,
203
479000
2000
le pouvoir qu'elles ont dans les calculs dans le cerveau,
08:16
but you can alsoaussi use this to try to figurefigure out --
204
481000
2000
mais vous pouvez également vous en servir pour essayer de comprendre --
08:18
well maybe we could jazzle jazz up the activityactivité of these cellscellules,
205
483000
2000
ainsi nous pourrions dynamiser l'activité de ces cellules,
08:20
if indeedeffectivement they're atrophiedatrophiés.
206
485000
2000
si vraiment elles sont atrophiées.
08:22
Now I want to tell you a couplecouple of shortcourt storieshistoires
207
487000
2000
Je veux maintenant vous raconter quelques histoires courtes
08:24
about how we're usingen utilisant this,
208
489000
2000
sur la façon dont nous utilisons cela,
08:26
bothtous les deux at the scientificscientifique, clinicalclinique and pre-clinicalprécliniques levelsles niveaux.
209
491000
3000
tant sur le plan scientifique que sur les plans clinique et pré-clinique.
08:29
One of the questionsdes questions we'venous avons confrontedconfronté
210
494000
2000
Une des questions qui s'est posée à nous
08:31
is, what are the signalssignaux in the braincerveau that mediatemédiation the sensationsensation of rewardrécompense?
211
496000
3000
est: quels sont les signaux dans le cerveau qui interviennent dans la sensation de récompense?
08:34
Because if you could find those,
212
499000
2000
Si on pouvait les trouver,
08:36
those would be some of the signalssignaux that could driveconduire learningapprentissage.
213
501000
2000
ce serait les signaux qui pourraient conduire l'apprentissage.
08:38
The braincerveau will do more of whateverpeu importe got that rewardrécompense.
214
503000
2000
Le cerveau créera plus de ce qui a obtenu cette récompense.
08:40
And alsoaussi these are signalssignaux that go awrymal tourné in disorderstroubles suchtel as addictionAddiction.
215
505000
3000
Ce sont les signaux qui posent problème dans des cas comme la toxicomanie.
08:43
So if we could figurefigure out what cellscellules they are,
216
508000
2000
Si nous pouvions trouver quelles sont ces cellules,
08:45
we could maybe find newNouveau targetscibles
217
510000
2000
nous pourrions peut-être trouver de nouvelles cibles
08:47
for whichlequel drugsdrogues could be designedconçu or screenedprojeté againstcontre,
218
512000
2000
pour lesquelles les médicaments pourraient être conçus ou ciblés,
08:49
or maybe placesdes endroits where electrodesélectrodes could be put in
219
514000
2000
ou des endroits où on pourrait mettre des électrodes
08:51
for people who have very severesévère disabilitypersonnes handicapées.
220
516000
3000
pour les personnes qui ont des handicaps très sévères.
08:54
So to do that, we camevenu up with a very simplesimple paradigmparadigme
221
519000
2000
Pour ce faire, nous avons trouvé un paradigme très simple
08:56
in collaborationcollaboration with the FiorellaFiorella groupgroupe,
222
521000
2000
en collaboration avec le groupe Fiorella,
08:58
where one sidecôté of this little boxboîte,
223
523000
2000
d'un côté de cette petite boîte,
09:00
if the animalanimal goesva there, the animalanimal getsobtient a pulseimpulsion of lightlumière
224
525000
2000
si l'animal y va, il reçoit une impulsion de lumière
09:02
in ordercommande to make differentdifférent cellscellules in the braincerveau sensitivesensible to lightlumière.
225
527000
2000
afin de rendre les différentes cellules du cerveau sensibles à la lumière.
09:04
So if these cellscellules can mediatemédiation rewardrécompense,
226
529000
2000
Si ces cellules peuvent arbitrer la récompense,
09:06
the animalanimal should go there more and more.
227
531000
2000
l'animal devrait y aller de plus en plus.
09:08
And so that's what happensarrive.
228
533000
2000
Et c'est ce qui arrive.
09:10
This animal'sanimal going to go to the right-handmain droite sidecôté and pokepoke his nosenez there,
229
535000
2000
Cet animal va aller à droite et y mettre son nez,
09:12
and he getsobtient a flashflash of bluebleu lightlumière everychaque time he does that.
230
537000
2000
il reçoit un flash de lumière bleue à chaque fois qu'il le fait.
09:14
And he'llenfer do that hundredsdes centaines and hundredsdes centaines of timesfois.
231
539000
2000
Il va le faire des centaines et des centaines de fois.
09:16
These are the dopaminedopamine neuronsneurones,
232
541000
2000
Ce sont les neurones dopaminergiques,
09:18
whichlequel some of you maymai have heardentendu about, in some of the pleasureplaisir centerscentres in the braincerveau.
233
543000
2000
dont certains d'entre vous ont entendu parler dans certains centres du plaisir du cerveau.
09:20
Now we'venous avons shownmontré that a briefbref activationactivation of these
234
545000
2000
Nous avons montré qu'il suffit de les activer brièvement
09:22
is enoughassez, indeedeffectivement, to driveconduire learningapprentissage.
235
547000
2000
pour conduire l'apprentissage.
09:24
Now we can generalizegénéraliser the ideaidée.
236
549000
2000
Nous pouvons généraliser cette idée.
09:26
InsteadAu lieu de cela of one pointpoint in the braincerveau,
237
551000
2000
Au lieu d'un seul point dans le cerveau,
09:28
we can deviseconcevoir devicesdispositifs that spanenvergure the braincerveau,
238
553000
2000
nous pouvons concevoir des dispositifs qui couvrent le cerveau,
09:30
that can deliverlivrer lightlumière into three-dimensionaltridimensionnel patternsmodèles --
239
555000
2000
qui peuvent fournir de la lumière de manière tri-dimensionnelle --
09:32
arraystableaux of opticaloptique fibersfibres,
240
557000
2000
des matrices de fibres optiques,
09:34
eachchaque coupledcouplé to its ownposséder independentindépendant miniatureminiature lightlumière sourcela source.
241
559000
2000
couplée chacune à sa propre source miniature de lumière.
09:36
And then we can try to do things in vivovivo
242
561000
2000
Nous pouvons essayer de faire des choses in vivo
09:38
that have only been doneterminé to-dateà ce jour in a dishplat --
243
563000
3000
qui ont seulement été faites à ce jour en labo --
09:41
like high-throughputhaut-débit screeningdépistage throughouttout au long de the entiretout braincerveau
244
566000
2000
comme le criblage à haut débit dans tout le cerveau
09:43
for the signalssignaux that can causecause certaincertain things to happense produire.
245
568000
2000
pour les signaux qui peuvent produire certaines choses.
09:45
Or that could be good clinicalclinique targetscibles
246
570000
2000
Ou ils pourraient être de bonnes cibles cliniques
09:47
for treatingtraitant braincerveau disorderstroubles.
247
572000
2000
pour le traitement des troubles du cerveau.
09:49
And one storyrécit I want to tell you about
248
574000
2000
Une histoire que je veux vous raconter
09:51
is how can we find targetscibles for treatingtraitant post-traumaticpost-traumatique stressstress disorderdésordre --
249
576000
3000
est comment trouver des cibles pour le traitement des troubles de stress post-traumatique --
09:54
a formforme of uncontrollednon contrôlé anxietyanxiété and fearpeur.
250
579000
3000
une forme d'anxiété et de peur incontrôlée.
09:57
And one of the things that we did
251
582000
2000
Une des choses que nous avons faites
09:59
was to adoptadopter a very classicalclassique modelmaquette of fearpeur.
252
584000
3000
a été d'adopter un modèle très classique de la peur.
10:02
This goesva back to the PavlovianPavlovien daysjournées.
253
587000
3000
Cela remonte à l'époque pavlovienne.
10:05
It's calledappelé PavlovianPavlovien fearpeur conditioningconditionnement --
254
590000
2000
On appelle ça le conditionnement pavlovien de peur --
10:07
where a toneTon endsprend fin with a briefbref shockchoc.
255
592000
2000
où une tonalité se termine par un choc bref.
10:09
The shockchoc isn't painfuldouloureux, but it's a little annoyingennuyeux.
256
594000
2000
Le choc n'est pas douloureux, mais c'est un peu dérangeant.
10:11
And over time -- in this caseCas, a mouseSouris,
257
596000
2000
Au fil du temps -- dans ce cas, une souris,
10:13
whichlequel is a good animalanimal modelmaquette, commonlycommunément used in suchtel experimentsexpériences --
258
598000
2000
qui est un bon modèle animal, couramment utilisé dans de telles expériences --
10:15
the animalanimal learnsapprend to fearpeur the toneTon.
259
600000
2000
l'animal apprend à craindre la tonalité.
10:17
The animalanimal will reactréagir by freezingpoint de congélation,
260
602000
2000
L'animal va réagir en se figeant,
10:19
sortTrier of like a deercerf in the headlightsphares.
261
604000
2000
un peu comme un cerf dans la lumière des phares.
10:21
Now the questionquestion is, what targetscibles in the braincerveau can we find
262
606000
3000
Maintenant la question est: quelles cibles dans le cerveau pouvons-nous trouver
10:24
that allowpermettre us to overcomesurmonter this fearpeur?
263
609000
2000
qui nous permettent de surmonter cette peur?
10:26
So what we do is we playjouer that toneTon again
264
611000
2000
Nous jouons donc cette tonalité à nouveau
10:28
after it's been associatedassocié with fearpeur.
265
613000
2000
après qu'elle a été associée à la peur.
10:30
But we activateactiver targetscibles in the braincerveau, differentdifférent onesceux,
266
615000
2000
Mais nous activons des cibles différentes dans le cerveau,
10:32
usingen utilisant that opticaloptique fiberfibre arraytableau I told you about in the previousprécédent slidefaire glisser,
267
617000
3000
en utilisant cette matrice de fibres optiques dont je vous ai parlé dans la diapositive précédente,
10:35
in ordercommande to try and figurefigure out whichlequel targetscibles
268
620000
2000
afin d'essayer de comprendre quelles cibles
10:37
can causecause the braincerveau to overcomesurmonter that memoryMémoire of fearpeur.
269
622000
3000
peuvent faire que le cerveau surmonte ce souvenir de peur.
10:40
And so this briefbref videovidéo
270
625000
2000
Cette brève vidéo
10:42
showsmontre you one of these targetscibles that we're workingtravail on now.
271
627000
2000
vous montre l'une des cibles sur laquelle nous travaillons actuellement.
10:44
This is an arearégion in the prefrontalpréfrontal cortexcortex,
272
629000
2000
C'est une zone du cortex préfrontal,
10:46
a regionRégion where we can use cognitioncognition to try to overcomesurmonter aversiveaversif emotionalémotif statesÉtats.
273
631000
3000
une région où nous pouvons utiliser la cognition pour tenter de surmonter des états émotionnels aversifs.
10:49
And the animal'sanimal going to hearentendre a toneTon -- and a flashflash of lightlumière occurredeu lieu there.
274
634000
2000
L'animal va entendre une tonalité -- et il y a eu un flash de lumière.
10:51
There's no audiol'audio on this, but you can see the animal'sanimal freezingpoint de congélation.
275
636000
2000
Il n'y a pas d'audio, mais vous pouvez voir l'animal se figer.
10:53
This toneTon used to mean badmal newsnouvelles.
276
638000
2000
D'habitude cette tonalité était une mauvaise nouvelle.
10:55
And there's a little clockl'horloge in the lowerinférieur left-handmain gauche cornercoin,
277
640000
2000
Il y a une petite horloge en bas à gauche,
10:57
so you can see the animalanimal is about two minutesminutes into this.
278
642000
3000
vous pouvez ainsi voir l'animal au bout de deux minutes.
11:00
And now this nextprochain clipagrafe
279
645000
2000
La vidéo suivante
11:02
is just eighthuit minutesminutes laterplus tard.
280
647000
2000
se situe huit minutes plus tard.
11:04
And the sameMême toneTon is going to playjouer, and the lightlumière is going to flashflash again.
281
649000
3000
On va jouer la même tonalité, et la lumière va clignoter à nouveau.
11:07
Okay, there it goesva. Right now.
282
652000
3000
Bon, voilà. Maintenant.
11:10
And now you can see, just 10 minutesminutes into the experimentexpérience,
283
655000
3000
Vous pouvez voir, 10 minutes après le début de l'expérience,
11:13
that we'venous avons equippedéquipé the braincerveau by photoactivatingphotoactivating this arearégion
284
658000
3000
que nous avons équipé le cerveau en photoactivant cette zone
11:16
to overcomesurmonter the expressionexpression
285
661000
2000
pour surmonter l'expression
11:18
of this fearpeur memoryMémoire.
286
663000
2000
de cette mémoire de peur.
11:20
Now over the last couplecouple of yearsannées, we'venous avons gonedisparu back to the treearbre of life
287
665000
3000
Au cours des dernières années, nous sommes revenus à l'arbre de vie,
11:23
because we wanted to find waysfaçons to turntour circuitsles circuits in the braincerveau off.
288
668000
3000
parce que nous voulions trouver des façons d'éteindre des circuits dans le cerveau.
11:26
If we could do that, this could be extremelyextrêmement powerfulpuissant.
289
671000
3000
Si nous pouvions le faire, cela pourrait être extrêmement puissant.
11:29
If you can deleteeffacer cellscellules just for a fewpeu millisecondsmillisecondes or secondssecondes,
290
674000
3000
Si vous pouvez supprimer des cellules pendant quelques millisecondes ou secondes,
11:32
you can figurefigure out what necessarynécessaire rolerôle they playjouer
291
677000
2000
vous pouvez comprendre quel rôle elles jouent
11:34
in the circuitsles circuits in whichlequel they're embeddedintégré.
292
679000
2000
dans les circuits dans lesquels elles sont embarquées.
11:36
And we'venous avons now surveyedinterrogés organismsorganismes from all over the treearbre of life --
293
681000
2000
Nous avons donc désormais examiné des organismes dans tout l'arbre de vie --
11:38
everychaque kingdomRoyaume of life exceptsauf for animalsanimaux, we see slightlylégèrement differentlydifféremment.
294
683000
3000
tous les domaines de la vie, sauf les animaux, que nous voyons un peu différemment.
11:41
And we founda trouvé all sortssortes of moleculesmolécules, they're calledappelé halorhodopsinshalorhodopsins or archaerhodopsinsarchaerhodopsins,
295
686000
3000
Nous avons trouvé toutes sortes de molécules, on les appelle halorhodopsines ou archaerhodopsines,
11:44
that respondrépondre to greenvert and yellowjaune lightlumière.
296
689000
2000
qui répondent à la lumière verte et jaune.
11:46
And they do the oppositecontraire thing of the moleculemolécule I told you about before
297
691000
2000
Elles font le contraire de la molécule dont je vous ai déjà parlé
11:48
with the bluebleu lightlumière activatorActivator channelrhodopsinchannelrhodopsin.
298
693000
3000
avec la rhodopsine sensorielle activatrice de lumière bleue.
11:52
Let's give an exampleExemple of where we think this is going to go.
299
697000
3000
Donnons un exemple où nous pensons que cela va aller.
11:55
ConsiderEnvisager de, for exampleExemple, a conditioncondition like epilepsyépilepsie,
300
700000
3000
Considérons par exemple une maladie, comme l'épilepsie,
11:58
where the braincerveau is overactivehyperactive.
301
703000
2000
où le cerveau est hyperactif.
12:00
Now if drugsdrogues failéchouer in epilepticépileptique treatmenttraitement,
302
705000
2000
Si les médicaments échouent à la traiter,
12:02
one of the strategiesstratégies is to removeretirer partpartie of the braincerveau.
303
707000
2000
l'une des stratégies consiste à enlever une partie du cerveau.
12:04
But that's obviouslyévidemment irreversibleirréversibles, and there could be sidecôté effectseffets.
304
709000
2000
Mais c'est évidemment irréversible, et il pourrait y avoir des effets secondaires.
12:06
What if we could just turntour off that braincerveau for a briefbref amountmontant of time,
305
711000
3000
Si nous pouvions simplement éteindre ce cerveau pendant un bref moment,
12:09
untiljusqu'à the seizuresaisie diesmeurt away,
306
714000
3000
jusqu'à ce que la crise s'arrête,
12:12
and causecause the braincerveau to be restoredrestaurée to its initialinitiale stateEtat --
307
717000
3000
et faire que le cerveau revienne à son état initial --
12:15
sortTrier of like a dynamicaldynamique systemsystème that's beingétant coaxedcajolé down into a stablestable stateEtat.
308
720000
3000
un peu comme un système dynamique qu'on apaise pour qu'il revienne à un état stable.
12:18
So this animationanimation just triesessais to explainExplique this conceptconcept
309
723000
3000
Cette animation essaie simplement d'expliquer ce concept
12:21
where we madefabriqué these cellscellules sensitivesensible to beingétant turnedtourné off with lightlumière,
310
726000
2000
où nous avons rendu ces cellules sensibles pour qu'elles s'éteignent avec la lumière,
12:23
and we beamfaisceau lightlumière in,
311
728000
2000
nous envoyons un faisceau de lumière,
12:25
and just for the time it takes to shutfermer down a seizuresaisie,
312
730000
2000
seulement pendant la durée nécessaire à arrêter une crise,
12:27
we're hopingen espérant to be ablecapable to turntour it off.
313
732000
2000
nous espérons être en mesure de l'empêcher.
12:29
And so we don't have dataLes données to showmontrer you on this frontde face,
314
734000
2000
Nous n'avons pas de données à montrer,
12:31
but we're very excitedexcité about this.
315
736000
2000
mais nous sommes très enthousiastes.
12:33
Now I want to closeFermer on one storyrécit,
316
738000
2000
Je veux terminer sur une histoire,
12:35
whichlequel we think is anotherun autre possibilitypossibilité --
317
740000
2000
dont nous pensons que c'est une autre possibilité --
12:37
whichlequel is that maybe these moleculesmolécules, if you can do ultra-preciseultra-précis controlcontrôle,
318
742000
2000
ces molécules, si vous pouvez avoir un contrôle ultra-précis,
12:39
can be used in the braincerveau itselfse
319
744000
2000
peuvent être utilisées dans le cerveau lui-même
12:41
to make a newNouveau kindgentil of prostheticprothétique, an opticaloptique prostheticprothétique.
320
746000
3000
pour faire un nouveau type de prothèse, une prothèse optique.
12:44
I alreadydéjà told you that electricalélectrique stimulatorsstimulateurs are not uncommonrare.
321
749000
3000
Je vous ai déjà dit que les stimulateurs électriques ne sont pas rares.
12:47
Seventy-fiveSoixante-cinq thousandmille people have Parkinson'sMaladie de Parkinson deep-brainprofond-cerveau stimulatorsstimulateurs implantedimplanté.
322
752000
3000
75000 personnes ont des stimulateurs Parkinson profondément implantés dans le cerveau.
12:50
Maybe 100,000 people have CochlearCochléaire implantsles implants,
323
755000
2000
Peut-être 100000 personnes ont des implants cochléaires,
12:52
whichlequel allowpermettre them to hearentendre.
324
757000
2000
qui leur permettent d'entendre.
12:54
There's anotherun autre thing, whichlequel is you've got to get these genesgènes into cellscellules.
325
759000
3000
Autre chose : vous devez introduire ces gènes dans les cellules.
12:57
And newNouveau hopeespérer in genegène therapythérapie has been developeddéveloppé
326
762000
3000
Un nouvel espoir en thérapie génique a été développé
13:00
because virusesles virus like the adeno-associatedadéno-associés virusvirus,
327
765000
2000
parce que les virus comme le virus adéno-associé,
13:02
whichlequel probablyProbablement mostles plus of us around this roomchambre have,
328
767000
2000
que probablement la plupart d'entre nous dans cette salle ont,
13:04
and it doesn't have any symptomssymptômes,
329
769000
2000
sans présenter de symptôme,
13:06
whichlequel have been used in hundredsdes centaines of patientsles patients
330
771000
2000
qui ont été utilisés sur des centaines de patients
13:08
to deliverlivrer genesgènes into the braincerveau or the bodycorps.
331
773000
2000
pour amener des gènes dans le cerveau ou le corps.
13:10
And so farloin, there have not been serioussérieux adverseeffets indésirables eventsévénements
332
775000
2000
Jusqu'ici, il n'y a pas eu des événements indésirables graves
13:12
associatedassocié with the virusvirus.
333
777000
2000
associés au virus.
13:14
There's one last elephantl'éléphant in the roomchambre, the proteinsprotéines themselvesse,
334
779000
3000
Il y a encore un point noir, les protéines elles-mêmes,
13:17
whichlequel come from algaealgues and bacteriades bactéries and fungichampignons,
335
782000
2000
qui viennent d'algues, de bactéries et de champignons,
13:19
and all over the treearbre of life.
336
784000
2000
et de partout dans l'arbre de vie.
13:21
MostPlupart of us don't have fungichampignons or algaealgues in our brainscerveaux,
337
786000
2000
La plupart d'entre nous n'ont pas de champignons ou d'algues dans nos cerveaux,
13:23
so what is our braincerveau going to do if we put that in?
338
788000
2000
que fera notre cerveau si on en introduit?
13:25
Are the cellscellules going to toleratetolérer it? Will the immuneimmunitaire systemsystème reactréagir?
339
790000
2000
Les cellules vont-elles le tolérer? Est-ce que le système immunitaire va réagir?
13:27
In its earlyde bonne heure daysjournées -- these have not been doneterminé on humanshumains yetencore --
340
792000
2000
On en est au début -- on a pas encore essayé sur des humains --
13:29
but we're workingtravail on a varietyvariété of studiesétudes
341
794000
2000
mais nous travaillons sur une série d'études
13:31
to try and examineexaminer this,
342
796000
2000
pour examiner cela.
13:33
and so farloin we haven'tn'a pas seenvu overtmanifeste reactionsréactions of any severitygravité
343
798000
3000
Jusqu'ici, nous n'avons pas vu de réactions manifestes d'une quelconque gravité
13:36
to these moleculesmolécules
344
801000
2000
à ces molécules
13:38
or to the illuminationillumination of the braincerveau with lightlumière.
345
803000
3000
ou à l'illumination du cerveau avec de la lumière.
13:41
So it's earlyde bonne heure daysjournées, to be upfrontdès le départ, but we're excitedexcité about it.
346
806000
3000
Donc, il est encore tôt, pour être franc, mais ça nous excite.
13:44
I wanted to closeFermer with one storyrécit,
347
809000
2000
Je voulais terminer avec une histoire,
13:46
whichlequel we think could potentiallypotentiellement
348
811000
2000
dont nous pensons qu'elle pourrait potentiellement
13:48
be a clinicalclinique applicationapplication.
349
813000
2000
être une application clinique.
13:50
Now there are manybeaucoup formsformes of blindnesscécité
350
815000
2000
Il y a de nombreuses formes de cécité
13:52
where the photoreceptorsphotorécepteurs,
351
817000
2000
dans lesquelles les photorécepteurs,
13:54
our lightlumière sensorscapteurs that are in the back of our eyeœil, are gonedisparu.
352
819000
3000
nos capteurs de lumière qui sont derrière nos yeux, sont morts.
13:57
And the retinarétine, of coursecours, is a complexcomplexe structurestructure.
353
822000
2000
La rétine, bien sûr, est une structure complexe.
13:59
Now let's zoomZoom in on it here, so we can see it in more detaildétail.
354
824000
2000
Maintenant, nous allons zoomer ici, donc nous pouvons la voir plus en détail.
14:01
The photoreceptorphotorécepteur cellscellules are shownmontré here at the topHaut,
355
826000
3000
Les cellules photoréceptrices sont présentées ici en haut,
14:04
and then the signalssignaux that are detecteddétecté by the photoreceptorsphotorécepteurs
356
829000
2000
les signaux qui sont détectés par les photorécepteurs
14:06
are transformedtransformé by variousdivers computationscalculs
357
831000
2000
sont transformés par divers calculs,
14:08
untiljusqu'à finallyenfin that layercouche of cellscellules at the bottombas, the ganglionganglion cellscellules,
358
833000
3000
jusqu'à ce que finalement la couche de cellules à la base, les cellules ganglionnaires,
14:11
relayRelais the informationinformation to the braincerveau,
359
836000
2000
transmettent les informations au cerveau,
14:13
where we see that as perceptionla perception.
360
838000
2000
où nous voyons ça en tant que perception.
14:15
In manybeaucoup formsformes of blindnesscécité, like retinitisrétinite pigmentosapigmentaire,
361
840000
3000
Dans de nombreuses formes de cécité, comme la rétinite pigmentaire,
14:18
or macularmaculaire degenerationdégénérescence,
362
843000
2000
ou la dégénérescence maculaire,
14:20
the photoreceptorphotorécepteur cellscellules have atrophiedatrophiés or been destroyeddétruit.
363
845000
3000
les photorécepteurs sont atrophiés ou détruits.
14:23
Now how could you repairréparation this?
364
848000
2000
Donc, comment réparer cela?
14:25
It's not even clearclair that a drugdrogue could causecause this to be restoredrestaurée,
365
850000
3000
On n'est même pas sûr qu'un médicament puisse le faire,
14:28
because there's nothing for the drugdrogue to bindlier to.
366
853000
2000
car le médicament ne peut se lier à rien.
14:30
On the other handmain, lightlumière can still get into the eyeœil.
367
855000
2000
D'autre part, la lumière peut encore pénétrer dans l'œil.
14:32
The eyeœil is still transparenttransparent and you can get lightlumière in.
368
857000
3000
L'œil est toujours transparent et vous pouvez faire pénétrer la lumière.
14:35
So what if we could just take these channelrhodopsinschannelrhodopsins and other moleculesmolécules
369
860000
3000
Et si nous pouvions simplement prendre ces rhodopsines sensorielles, et d'autres molécules,
14:38
and installinstaller them on some of these other sparede rechange cellscellules
370
863000
2000
et les installer sur certaines de ces autres cellules restantes
14:40
and convertconvertir them into little camerasappareils photo.
371
865000
2000
pour les transformer en petites caméras.
14:42
And because there's so manybeaucoup of these cellscellules in the eyeœil,
372
867000
2000
Il y a tellement de ces cellules dans l’œil,
14:44
potentiallypotentiellement, they could be very high-resolutionhaute résolution camerasappareils photo.
373
869000
3000
potentiellement, elles pourraient agir comme des caméras à très haute résolution.
14:47
So this is some work that we're doing.
374
872000
2000
Voici nos travaux en cours.
14:49
It's beingétant led by one of our collaboratorscollaborateurs,
375
874000
2000
Un de nos collaborateurs les conduit,
14:51
AlanAlan HorsagerHorsager at USCUSC,
376
876000
2000
Alan Horsager à l'USC,
14:53
and beingétant soughtrecherché to be commercializedcommercialisé by a start-upmise en service companycompagnie EosEOS NeuroscienceNeuroscience,
377
878000
3000
et on cherche à être commercialisé par la start-up Eos neurosciences,
14:56
whichlequel is fundedfinancé by the NIHNIH.
378
881000
2000
financée par le NIH.
14:58
And what you see here is a mouseSouris tryingen essayant to solverésoudre a mazeLabyrinthe.
379
883000
2000
Vous voyez ici une souris qui essayer de résoudre un labyrinthe.
15:00
It's a six-armsix bras mazeLabyrinthe. And there's a bitbit of watereau in the mazeLabyrinthe
380
885000
2000
C'est un labyrinthe à six chemins. Il y a un peu d'eau dans le labyrinthe
15:02
to motivatemotiver the mouseSouris to movebouge toi, or he'llenfer just sitasseoir there.
381
887000
2000
pour motiver la souris à se déplacer, sinon elle va rester là sans bouger.
15:04
And the goalobjectif, of coursecours, of this mazeLabyrinthe
382
889000
2000
Le but, bien sûr, de ce labyrinthe
15:06
is to get out of the watereau and go to a little platformPlate-forme
383
891000
2000
est de sortir de l'eau et d'aller à une petite plate-forme
15:08
that's underen dessous de the litallumé topHaut portPort.
384
893000
2000
qui est sous le port éclairé.
15:10
Now micedes souris are smartintelligent, so this mouseSouris solvesrésout the mazeLabyrinthe eventuallyfinalement,
385
895000
3000
Les souris sont intelligentes, donc cette souris résout le labyrinthe finalement,
15:13
but he does a brute-forceforce brute searchchercher.
386
898000
2000
mais elle fait une recherche par force brute.
15:15
He's swimmingla natation down everychaque avenuerue untiljusqu'à he finallyenfin getsobtient to the platformPlate-forme.
387
900000
3000
Elle nage dans tous les sens jusqu'à ce qu'elle arrive finalement à la plate-forme.
15:18
So he's not usingen utilisant visionvision to do it.
388
903000
2000
Elle n'utilise pas la vision pour le faire.
15:20
These differentdifférent micedes souris are differentdifférent mutationsmutations
389
905000
2000
Ces différentes souris sont différentes mutations
15:22
that recapitulaterécapituler differentdifférent kindssortes of blindnesscécité that affectaffecter humanshumains.
390
907000
3000
qui représentent les différents types de cécité qui affectent les humains.
15:25
And so we're beingétant carefulprudent in tryingen essayant to look at these differentdifférent modelsdes modèles
391
910000
3000
Nous regardons soigneusement ces différents modèles,
15:28
so we come up with a generalizedgénéralisées approachapproche.
392
913000
2000
pour arriver ainsi à une approche généralisée.
15:30
So how are we going to solverésoudre this?
393
915000
2000
Comment allons-nous résoudre ce problème?
15:32
We're going to do exactlyexactement what we outlinedexposé in the previousprécédent slidefaire glisser.
394
917000
2000
Nous allons faire exactement ce que nous avons décrit précédemment.
15:34
We're going to take these bluebleu lightlumière photosensorsphotodétecteurs
395
919000
2000
Nous allons prendre ces photodétecteurs à lumière bleue
15:36
and installinstaller them on a layercouche of cellscellules
396
921000
2000
et les installer sur une couche de cellules
15:38
in the middlemilieu of the retinarétine in the back of the eyeœil
397
923000
3000
au milieu de la rétine à l'arrière de l'œil
15:41
and convertconvertir them into a cameracaméra --
398
926000
2000
et les convertir en caméra.
15:43
just like installinginstallation solarsolaire cellscellules all over those neuronsneurones
399
928000
2000
Comme si on installait des cellules solaires sur tous ces neurones
15:45
to make them lightlumière sensitivesensible.
400
930000
2000
afin de les rendre sensibles à la lumière.
15:47
LightLumière is convertedconverti to electricityélectricité on them.
401
932000
2000
La lumière est convertie en électricité sur eux.
15:49
So this mouseSouris was blindaveugle a couplecouple weekssemaines before this experimentexpérience
402
934000
3000
Cette souris était aveugle quelques semaines avant cette expérience
15:52
and receivedreçu one dosedose of this photosensitivephotosensible moleculemolécule in a virusvirus.
403
937000
3000
et a reçu une dose de cette molécule photosensible dans un virus.
15:55
And now you can see, the animalanimal can indeedeffectivement avoidéviter wallsdes murs
404
940000
2000
Maintenant vous pouvez le voir, l'animal peut en effet éviter les murs,
15:57
and go to this little platformPlate-forme
405
942000
2000
aller à cette petite plate-forme
15:59
and make cognitivecognitif use of its eyesles yeux again.
406
944000
3000
et faire usage de ses yeux cognitifs à nouveau.
16:02
And to pointpoint out the powerPuissance of this:
407
947000
2000
Pour souligner la puissance de ce système:
16:04
these animalsanimaux are ablecapable to get to that platformPlate-forme
408
949000
2000
ces animaux sont capables d'arriver à cette plate-forme
16:06
just as fastvite as animalsanimaux that have seenvu theirleur entiretout livesvies.
409
951000
2000
aussi vite que les animaux qui ont vu toute leur vie.
16:08
So this pre-clinicalprécliniques studyétude, I think,
410
953000
2000
Ainsi cette étude pré-clinique, je pense,
16:10
bodesaugure hopeespérer for the kindssortes of things
411
955000
2000
est porteuse d''espoir pour le genre de choses
16:12
we're hopingen espérant to do in the futureavenir.
412
957000
2000
que nous espérons faire à l'avenir.
16:14
To closeFermer, I want to pointpoint out that we're alsoaussi exploringexplorant
413
959000
3000
Pour terminer, je tiens à souligner que nous explorons également
16:17
newNouveau businessEntreprise modelsdes modèles for this newNouveau fieldchamp of neurotechnologyNeurotechnology.
414
962000
2000
de nouveaux modèles économiques pour ce nouveau domaine de la neurotechnologie.
16:19
We're developingdéveloppement these toolsoutils,
415
964000
2000
Nous développons ces outils,
16:21
but we sharepartager them freelylibrement with hundredsdes centaines of groupsgroupes all over the worldmonde,
416
966000
2000
mais nous les partageons librement avec des centaines de groupes partout dans le monde,
16:23
so people can studyétude and try to treattraiter differentdifférent disorderstroubles.
417
968000
2000
ainsi les gens peuvent étudier et essayer de traiter différents troubles.
16:25
And our hopeespérer is that, by figuringfigurer out braincerveau circuitsles circuits
418
970000
3000
Notre espoir est que, en tentant de trouver les circuits du cerveau
16:28
at a levelniveau of abstractionabstraction that letspermet us repairréparation them and engineeringénieur them,
419
973000
3000
à un niveau d'abstraction qui nous permet de les réparer et les modifier,
16:31
we can take some of these intractableinsolubles disorderstroubles that I told you about earlierplus tôt,
420
976000
3000
nous pouvons prendre certains de ces troubles intraitables dont je vous ai parlé plus tôt,
16:34
practicallypratiquement noneaucun of whichlequel are curedguéri,
421
979000
2000
dont quasiment aucun n'est guéri,
16:36
and in the 21stst centurysiècle make them historyhistoire.
422
981000
2000
et au 21e siècle en faire un problème du passé.
16:38
Thank you.
423
983000
2000
Merci.
16:40
(ApplauseApplaudissements)
424
985000
13000
(Applaudissements)
16:53
JuanJuan EnriquezEnriquez: So some of the stuffdes trucs is a little densedense.
425
998000
3000
Juan Enriquez: Quelques sujets ont été plutôt denses.
16:56
(LaughterRires)
426
1001000
2000
(Rires)
16:58
But the implicationsimplications
427
1003000
2000
Mais ce qu'implique le fait
17:00
of beingétant ablecapable to controlcontrôle seizurescrises d'épilepsie or epilepsyépilepsie
428
1005000
3000
d'être en mesure de contrôler les crises d'épilepsie
17:03
with lightlumière insteadau lieu of drugsdrogues,
429
1008000
2000
avec de la lumière plutôt que des médicaments,
17:05
and beingétant ablecapable to targetcible those specificallyPlus précisément
430
1010000
3000
et d'être capable de les cibler spécifiquement
17:08
is a first stepétape.
431
1013000
2000
est une première étape.
17:10
The secondseconde thing that I think I heardentendu you say
432
1015000
2000
La deuxième chose que je pense vous avoir entendu dire
17:12
is you can now controlcontrôle the braincerveau in two colorscouleurs,
433
1017000
3000
est que vous pouvez désormais contrôler le cerveau en deux couleurs.
17:15
like an on/off switchcommutateur.
434
1020000
2000
Comme un interrupteur on / off.
17:17
EdEd BoydenBoyden: That's right.
435
1022000
2000
Ed Boyden: C'est exact.
17:19
JEJE: WhichQui makesfait du everychaque impulseimpulsion going throughpar the braincerveau a binarybinaire codecode.
436
1024000
3000
JE: Ce qui transforme chaque impulsion qui passe par le cerveau en un code binaire.
17:22
EBEB: Right, yeah.
437
1027000
2000
EB: Oui, oui.
17:24
So with bluebleu lightlumière, we can driveconduire informationinformation, and it's in the formforme of a one.
438
1029000
3000
Avec une lumière bleue, nous pouvons conduire l'information, sous la forme d'un 1.
17:27
And by turningtournant things off, it's more or lessMoins a zerozéro.
439
1032000
2000
En éteignant le tout, c'est plus ou moins un zéro.
17:29
So our hopeespérer is to eventuallyfinalement buildconstruire braincerveau coprocessorscoprocesseurs
440
1034000
2000
Notre espoir est de finir par construire des coprocesseurs du cerveau
17:31
that work with the braincerveau
441
1036000
2000
qui travaillent avec le cerveau,
17:33
so we can augmentaugmenter functionsles fonctions in people with disabilitiesdéficience.
442
1038000
3000
afin que nous puissions augmenter les fonctions des personnes handicapées.
17:36
JEJE: And in theorythéorie, that meansveux dire that,
443
1041000
2000
JE: Et en théorie, cela signifie que,
17:38
as a mouseSouris feelsse sent, smellsodeurs,
444
1043000
2000
comme une souris sent, ressent,
17:40
hearsentend, touchestouche,
445
1045000
2000
entend, touche,
17:42
you can modelmaquette it out as a stringchaîne of onesceux and zeroszéros.
446
1047000
3000
vous pouvez en faire un modèle comme une chaîne de 1 et de 0.
17:45
EBEB: Sure, yeah. We're hopingen espérant to use this as a way of testingessai
447
1050000
2000
EB: Bien sûr, oui. Nous espérons pouvoir utiliser ça pour tester
17:47
what neuralneural codescodes can driveconduire certaincertain behaviorscomportements
448
1052000
2000
quels codes neuronaux peuvent déterminer certains comportements,
17:49
and certaincertain thoughtspensées and certaincertain feelingssentiments,
449
1054000
2000
certaines pensées et certaines impressions,
17:51
and use that to understandcomprendre more about the braincerveau.
450
1056000
3000
et les utiliser pour mieux comprendre le cerveau.
17:54
JEJE: Does that mean that some day you could downloadTélécharger memoriessouvenirs
451
1059000
3000
JE: Est-ce que cela signifie qu'un jour vous pourrez enregistrer des souvenirs
17:57
and maybe uploadtélécharger them?
452
1062000
2000
et peut-être les implanter?
17:59
EBEB: Well that's something we're startingdépart to work on very harddifficile.
453
1064000
2000
EB: Eh bien, nous commençons à travailler très dur là-dessus.
18:01
We're now workingtravail on some work
454
1066000
2000
Nous travaillons maintenant sur certains travaux
18:03
where we're tryingen essayant to tiletuile the braincerveau with recordingenregistrement elementséléments too.
455
1068000
2000
où nous essayons de paver le cerveau avec des éléments d'enregistrement aussi.
18:05
So we can recordrecord informationinformation and then driveconduire informationinformation back in --
456
1070000
3000
Ainsi, nous pouvons enregistrer des informations, puis les renvoyer dans le cerveau --
18:08
sortTrier of computingl'informatique what the braincerveau needsBesoins
457
1073000
2000
en quelque sorte calculer ce dont le cerveau a besoin
18:10
in ordercommande to augmentaugmenter its informationinformation processingEn traitement.
458
1075000
2000
afin d'augmenter son traitement de l'information.
18:12
JEJE: Well, that mightpourrait changechangement a couplecouple things. Thank you. (EBEB: Thank you.)
459
1077000
3000
JE: Eh bien, cela pourrait changer pas mal de choses. Merci. (EB: Merci.)
18:15
(ApplauseApplaudissements)
460
1080000
3000
(Applaudissements)
Translated by Elisabeth Buffard
Reviewed by eric vautier

▲Back to top

ABOUT THE SPEAKER
Ed Boyden - Neuroengineer
Ed Boyden is a professor of biological engineering and brain and cognitive sciences at the MIT Media Lab and the MIT McGovern Institute.

Why you should listen

Ed Boyden leads the Synthetic Neurobiology Group, which develops tools for analyzing and repairing complex biological systems such as the brain. His group applies these tools in a systematic way in order to reveal ground truth scientific understandings of biological systems, which in turn reveal radical new approaches for curing diseases and repairing disabilities. These technologies include expansion microscopy, which enables complex biological systems to be imaged with nanoscale precision, and optogenetic tools, which enable the activation and silencing of neural activity with light (TED Talk: A light switch for neurons). Boyden also co-directs the MIT Center for Neurobiological Engineering, which aims to develop new tools to accelerate neuroscience progress.

Amongst other recognitions, Boyden has received the Breakthrough Prize in Life Sciences (2016), the BBVA Foundation Frontiers of Knowledge Award (2015), the Carnegie Prize in Mind and Brain Sciences (2015), the Jacob Heskel Gabbay Award (2013), the Grete Lundbeck Brain Prize (2013) and the NIH Director's Pioneer Award (2013). He was also named to the World Economic Forum Young Scientist list (2013) and the Technology Review World's "Top 35 Innovators under Age 35" list (2006). His group has hosted hundreds of visitors to learn how to use new biotechnologies and spun out several companies to bring inventions out of his lab and into the world. Boyden received his Ph.D. in neurosciences from Stanford University as a Hertz Fellow, where he discovered that the molecular mechanisms used to store a memory are determined by the content to be learned. Before that, he received three degrees in electrical engineering, computer science and physics from MIT. He has contributed to over 300 peer-reviewed papers, current or pending patents and articles, and he has given over 300 invited talks on his group's work.

More profile about the speaker
Ed Boyden | Speaker | TED.com