ABOUT THE SPEAKER
Gero Miesenboeck - Optogeneticist
Using light and a little genetic engineering -- optogenetics -- Gero Miesenboeck has developed a way to control how living nerve cells work, and advanced understanding of how the brain controls behavior.

Why you should listen

Gero Miesenboeck is pioneering the field of optogenetics: genetically modifying nerve cells to respond to light. By flashing light at a modified neuron in a living nervous system, Miesenboeck and his collaborators can mimic a brain impulse -- and then study what happens next. Optogenetics will allow ever more precise experiments on living brains, allowing us to gather better evidence on how electrical impulses on tissue translate into actual behavior and thoughts.

In one experiment, done at Yale, he and his team engineered fruit flies to be light-sensitive in the neural area responsible for escape response. Then the flies were beheaded; fruit flies can live for a day without their heads, but they don't move. When the modified cells were flashed with light, though, the headless flies flew. Miesenboeck had successfully simulated an order from a brain that wasn't even there anymore.

Miesenboeck's current research at Oxford's growing department of neurobiology focuses on the nerve cell networks that underpin what animals perceive, remember and do. In one recent experiment, he used optogenetics to implant an unpleasant memory in a fruit fly, causing it to "remember" to avoid a certain odor as it traveled around. He and his team were able, in fact, to find the fly's specific 12-neuron brain circuit that govern memory formation.

More profile about the speaker
Gero Miesenboeck | Speaker | TED.com
TEDGlobal 2010

Gero Miesenboeck: Re-engineering the brain

ג'ירו מייסנבואק מעצב מחדש את המוח

Filmed:
717,411 views

במאמץ למפות את המוח, מדענים רבים נטלו על עצמם משימה קשה להדהים של לנסות ולהקליט את הפעילות של כל ניורון בנפרד. אבל ג'ירו מייסנבואק עובד הפוך. הוא גורם לגירוי של ניורונים מסויימים כדי לגלות מה הם בדיוק עושים, באמצעות סדרה של ניסויים מהממים אשר מעצבים מחדש את הדרך בה זבובי פירות קולטים אור.
- Optogeneticist
Using light and a little genetic engineering -- optogenetics -- Gero Miesenboeck has developed a way to control how living nerve cells work, and advanced understanding of how the brain controls behavior. Full bio

Double-click the English transcript below to play the video.

00:15
I have a doppelgangerדופלגנר.
0
0
3000
יש לי כפיל.
00:18
(Laughterצחוק)
1
3000
3000
(צחוק)
00:21
Drד"ר. Geroגירו is a brilliantמַברִיק
2
6000
3000
ד"ר ג'ירו הוא מדען מבריק
00:24
but slightlyמְעַט madמְטוּרָף scientistמַדְעָן
3
9000
2000
אבל קצת מטורף,
00:26
in the "Dragonballכדור דרקון Z: Androidדְמוּי אָדָם Sagaסָגָה."
4
11000
3000
בדרקון בול Z "סאגה אנדראודית".
00:29
If you look very carefullyבקפידה,
5
14000
2000
אם מסתכלים בתשומת לב,
00:31
you see that his skullגולגולת has been replacedהוחלף
6
16000
3000
רואים שהגולגולת שלו הוחלפה
00:34
with a transparentשָׁקוּף Plexiglasפרספקס domeכיפה
7
19000
2000
בכיפה שקופה מזכוכית פלסטית
00:36
so that the workingsעבודה of his brainמוֹחַ can be observedנצפים
8
21000
3000
כך שניתן לראות את המוח שלו עובד
00:39
and alsoגַם controlledמְבוּקָר with lightאוֹר.
9
24000
3000
וגם לשלוט עליו בעזרת אור.
00:42
That's exactlyבְּדִיוּק what I do --
10
27000
2000
זה בדיוק מה שאני עושה --
00:44
opticalאוֹפּטִי mindאכפת controlלִשְׁלוֹט.
11
29000
2000
שליטה על מחשבות באמצעות אור.
00:46
(Laughterצחוק)
12
31000
2000
(צחוק)
00:48
But in contrastבניגוד to my evilרוע twinתְאוֹם
13
33000
2000
אבל בניגוד לתאומי המרושע,
00:50
who lustsתאווה after worldעוֹלָם dominationשְׁלִיטָה,
14
35000
3000
אשר שואף לשלוט על העולם,
00:53
my motivesמניעים are not sinisterמְרוּשָׁע.
15
38000
3000
המניעים שלי אינם מרושעים.
00:56
I controlלִשְׁלוֹט the brainמוֹחַ
16
41000
2000
אני שולט על המוח
00:58
in orderלהזמין to understandמבין how it worksעובד.
17
43000
2000
כדי להבין כיצד הוא פועל.
01:00
Now wait a minuteדַקָה, you mayמאי say,
18
45000
2000
אבל עכשיו תגידו, רק רגע,
01:02
how can you go straightיָשָׁר to controllingשליטה the brainמוֹחַ
19
47000
3000
כיצד אתה ישר מדבר על שליטה במוח
01:05
withoutלְלֹא understandingהֲבָנָה it first?
20
50000
2000
מבלי קודם כל להבין אותו?
01:07
Isn't that puttingלשים the cartעֲגָלָה before the horseסוּס?
21
52000
3000
האין זה לרתום את העגלה לפני הסוסים?
01:11
Manyרב neuroscientistsמדעני מוח agreeלְהַסכִּים with this viewנוף
22
56000
3000
הרבה חוקרי מערכות עצביות מסכימים עם השקפה זו
01:14
and think that understandingהֲבָנָה will come
23
59000
3000
וסבורים שהבנה תגיע
01:17
from more detailedמְפוֹרָט observationתַצְפִּית and analysisאָנָלִיזָה.
24
62000
3000
מהתבוננות וניתוח יותר פרטניים.
01:20
They say, "If we could recordתקליט the activityפעילות of our neuronsנוירונים,
25
65000
4000
הם טוענים, "אם היינו יכולים להקליט את הפעילות של הניורונים שלנו,
01:24
we would understandמבין the brainמוֹחַ."
26
69000
3000
היינו מבינים את המוח."
01:27
But think for a momentרֶגַע what that meansאומר.
27
72000
3000
אבל תחשבו רגע מה זה אומר.
01:30
Even if we could measureלִמְדוֹד
28
75000
2000
גם אם היינו יכולים למדוד
01:32
what everyכֹּל cellתָא is doing at all timesפִּי,
29
77000
2000
מה כל תא עושה בכל רגע,
01:34
we would still have to make senseלָחוּשׁ
30
79000
2000
עדיין היינו צריכים לעשות סדר
01:36
of the recordedמוּקלָט activityפעילות patternsדפוסי,
31
81000
2000
בתבניות של הפעילויות המוקלטות,
01:38
and that's so difficultקָשֶׁה,
32
83000
2000
וזה כל-כך קשה,
01:40
chancesהסיכויים are we'llטוֹב understandמבין these patternsדפוסי
33
85000
2000
שהסיכויים שנבין את התבניות הללו
01:42
just as little as the brainsמוֹחַ that produceליצר them.
34
87000
3000
הוא נמוך כמו שהמוח שמייצר אותן יבין.
01:45
Take a look at what brainמוֹחַ activityפעילות mightאולי look like.
35
90000
3000
תסתכלו איך פעילות של מוח עשויה להיראות.
01:48
In this simulationסימולציה, eachכל אחד blackשָׁחוֹר dotנְקוּדָה
36
93000
2000
בהדמיה זו, כל נקודה שחורה
01:50
is one nerveעָצָב cellתָא.
37
95000
2000
היא תא-עצב אחד.
01:52
The dotנְקוּדָה is visibleנִרְאֶה
38
97000
2000
הנקודה מתגלה לעין
01:54
wheneverבְּכָל פַּעַם a cellתָא firesשריפות an electricalחַשׁמַלִי impulseדַחַף.
39
99000
2000
בכל פעם שתא משגר אות חשמלי.
01:56
There's 10,000 neuronsנוירונים here.
40
101000
2000
ישנם כאן 10,000 תאי-עצב.
01:58
So you're looking at roughlyבְּעֵרֶך one percentאָחוּז
41
103000
2000
כך שאתם רואים בקירוב
02:00
of the brainמוֹחַ of a cockroachמקק.
42
105000
3000
אחוז אחד ממוחו של ג'וק.
02:04
Your brainsמוֹחַ are about 100 millionמִילִיוֹן timesפִּי
43
109000
3000
המוחות שלנו 100 מיליון פעם
02:07
more complicatedמסובך.
44
112000
2000
יותר מורכבים.
02:09
Somewhereאי שם, in a patternתַבְנִית like this,
45
114000
2000
היכן שהוא, תבנית כזו,
02:11
is you,
46
116000
2000
היא אתם --
02:13
your perceptionsתפיסות,
47
118000
2000
ההשקפות שלכם,
02:15
your emotionsרגשות, your memoriesזיכרונות,
48
120000
3000
הרגשות שלכם, הזכרונות שלכם,
02:18
your plansתוכניות for the futureעתיד.
49
123000
2000
התוכניות שלכם לעתיד.
02:20
But we don't know where,
50
125000
2000
אבל איננו יודעים היכן,
02:22
sinceמאז we don't know how to readלקרוא the patternתַבְנִית.
51
127000
3000
מכיוון שאנו לא יודעים כיצד לקרוא את התבנית.
02:25
We don't understandמבין the codeקוד used by the brainמוֹחַ.
52
130000
3000
איננו מבינים את הקוד שהמוח משתמש בו.
02:28
To make progressהתקדמות,
53
133000
2000
כדי להתקדם,
02:30
we need to breakלשבור the codeקוד.
54
135000
2000
עלינו לפצח את הקוד.
02:32
But how?
55
137000
2000
אבל כיצד?
02:35
An experiencedמְנוּסֶה code-breakerמפצח קודים will tell you
56
140000
2000
מפתח קודים מנוסה יאמר לכם
02:37
that in orderלהזמין to figureדמות out what the symbolsסמלים in a codeקוד mean,
57
142000
3000
שכדי לגלות מה פירוש הסימנים בקוד,
02:40
it's essentialחִיוּנִי to be ableיכול to playלְשַׂחֵק with them,
58
145000
3000
נחוץ שתהיה לנו היכולת לשחק איתם,
02:43
to rearrangeלסדר מחדש them at will.
59
148000
2000
לארגן אותם מחדש כרצוננו.
02:45
So in this situationמַצָב too,
60
150000
2000
אז גם במצב שלפנינו,
02:47
to decodeלְפַעֲנֵחַ the informationמֵידָע
61
152000
2000
כדי לפענח את המידע
02:49
containedהכיל in patternsדפוסי like this,
62
154000
2000
הכלול בתבנית כמו זו,
02:51
watchingצופה aloneלבד won'tרָגִיל do.
63
156000
2000
צפיה לבדה לא תספיק;
02:53
We need to rearrangeלסדר מחדש the patternתַבְנִית.
64
158000
2000
אנו זקוקים לארגון מחודש של התבנית.
02:55
In other wordsמילים,
65
160000
2000
במילים אחרות,
02:57
insteadבמקום זאת of recordingהקלטה the activityפעילות of neuronsנוירונים,
66
162000
2000
במקום הקלטת פעילות של הניורונים,
02:59
we need to controlלִשְׁלוֹט it.
67
164000
2000
עלינו לשלוט עליה.
03:01
It's not essentialחִיוּנִי that we can controlלִשְׁלוֹט
68
166000
2000
אין זה נחוץ שנוכל לשלוט
03:03
the activityפעילות of all neuronsנוירונים in the brainמוֹחַ, just some.
69
168000
3000
על הפעילות של כל הניורונים במוח, אלא רק של חלקם.
03:06
The more targetedממוקד our interventionsהתערבויות, the better.
70
171000
2000
ככל שההתערבות שלנו יותר ממוקדת, כך יותר טוב.
03:08
And I'll showלְהַצִיג you in a momentרֶגַע
71
173000
2000
ואראה לכם בעוד רגע
03:10
how we can achieveלְהַשִׂיג the necessaryנחוץ precisionדיוק.
72
175000
3000
כיצד נוכל להשיג את הדיוק הנחוץ.
03:13
And sinceמאז I'm realisticמְצִיאוּתִי, ratherבמקום than grandioseמְפוֹאָר,
73
178000
3000
ומאחר ואני מציאותי ולא חי באשליות,
03:16
I don't claimתְבִיעָה that the abilityיְכוֹלֶת to controlלִשְׁלוֹט the functionפוּנקצִיָה of the nervousעַצבָּנִי systemמערכת
74
181000
3000
איני טוען שהיכולת לשלוט בפעולת מערכת העצבים
03:19
will at onceפַּעַם unravelלְפַעֲנֵחַ all its mysteriesתעלומות.
75
184000
3000
תפתור את כל המסתורין שלה.
03:22
But we'llטוֹב certainlyבְּהֶחלֵט learnלִלמוֹד a lot.
76
187000
3000
אבל לבטח נלמד המון.
03:27
Now, I'm by no meansאומר
77
192000
2000
עכשיו, בשום אופן
03:29
the first personאדם to realizeלִהַבִין
78
194000
2000
אני לא האדם הראשון שמגלה
03:31
how powerfulחָזָק a toolכְּלִי interventionהתערבות is.
79
196000
3000
עד כמה חזקה היא התערבות פיזית.
03:34
The historyהִיסטוֹרִיָה of attemptsניסיונות
80
199000
2000
ההיסטוריה של הניסיונות
03:36
to tinkerלְנַסוֹת לְתַקֵן with the functionפוּנקצִיָה of the nervousעַצבָּנִי systemמערכת
81
201000
2000
להתעסק עם פעולת המערכת העצבית
03:38
is long and illustriousמְהוּלָל.
82
203000
2000
הוא ארוך וידוע.
03:40
It datesתאריכים back at leastהכי פחות 200 yearsשנים,
83
205000
3000
היא הולכת אחורה לפחות 200 שנה,
03:43
to Galvani'sשל גלווני famousמפורסם experimentsניסויים
84
208000
2000
לניסויים המפורסמים של גלוואני
03:45
in the lateמאוחר 18thה centuryמֵאָה and beyondמעבר.
85
210000
3000
לקראת סוף המאה ה-18 ואילך.
03:49
Galvaniגלווני showedparagraphs that a frog'sשל צפרדע legsרגליים twitchedהתעוותה
86
214000
3000
גלוואני הראה שרגלי צפרדע קופצות
03:52
when he connectedמְחוּבָּר the lumbarמוֹתָנִי nerveעָצָב
87
217000
2000
כאשר הוא חיבר את העצב המותני
03:54
to a sourceמָקוֹר of electricalחַשׁמַלִי currentנוֹכְחִי.
88
219000
3000
למקור של זרם חשמלי.
03:57
This experimentלְנַסוֹת revealedגילה the first, and perhapsאוּלַי mostרוב fundamentalבסיסי,
89
222000
3000
ניסוי זה גילה את הסוד הכמוס הראשון ואולי הכי בסיסי
04:00
nuggetגוּשׁ זָהָב גָלמִי of the neuralעֲצַבִּי codeקוד:
90
225000
2000
של הצופן העצבי:
04:02
that informationמֵידָע is writtenכתוב in the formטופס
91
227000
2000
שמידע נכתב בצורה
04:04
of electricalחַשׁמַלִי impulsesדחפים.
92
229000
3000
של אותות חשמליים.
04:08
Galvani'sשל גלווני approachגִישָׁה
93
233000
2000
גישתו של גלוואני לחקירת
04:10
of probingגִשׁוּשׁ the nervousעַצבָּנִי systemמערכת with electrodesאלקטרודות
94
235000
2000
המערכת העצבית באמצעות אלקטרודות
04:12
has remainedנשאר state-of-the-artמדינת האומנות untilעד todayהיום,
95
237000
3000
נשארה שימושית עד היום,
04:15
despiteלמרות a numberמספר of drawbacksחסרונות.
96
240000
3000
למרות כמה חסרונות.
04:18
Stickingדִבּוּק wiresחוטים into the brainמוֹחַ is obviouslyמובן מאליו ratherבמקום crudeגס.
97
243000
3000
ברור שתקיעת חוטים במוח זה אכזרי.
04:21
It's hardקָשֶׁה to do in animalsבעלי חיים that runלָרוּץ around,
98
246000
2000
זה קשה לביצוע עם חיות שמתרוצצות,
04:23
and there is a physicalגוּפָנִי limitלְהַגבִּיל
99
248000
2000
ויש מגבלה פיזית
04:25
to the numberמספר of wiresחוטים
100
250000
2000
למספר החוטים
04:27
that can be insertedמוּכנָס simultaneouslyבּוֹ זְמַנִית.
101
252000
3000
שניתן להחדיר בו-זמנית.
04:30
So around the turnלפנות of the last centuryמֵאָה,
102
255000
2000
כך שבסביבות סיום המאה הקודמת,
04:32
I startedהתחיל to think,
103
257000
2000
התחלתי לחשוב,
04:34
"Wouldn'tלא it be wonderfulנִפלָא if one could take this logicהִגָיוֹן
104
259000
3000
שזה יכול היה להיות נהדר אם ניתן היה להפוך
04:37
and turnלפנות it upsideהפוך down?"
105
262000
2000
על פניו את ההיגיון הזה.
04:39
So insteadבמקום זאת of insertingמוסיף a wireחוּט
106
264000
2000
כך שבמקום להחדיר חוט
04:41
into one spotלְזַהוֹת of the brainמוֹחַ,
107
266000
3000
אל תוך נקודה יחידה במוח,
04:44
re-engineerמהנדס מחדש the brainמוֹחַ itselfעצמה
108
269000
2000
צריך לארגן מחדש את המוח עצמו
04:46
so that some of its neuralעֲצַבִּי elementsאלמנטים
109
271000
3000
כך שכמה מהאלמנטים העצביים שלו
04:49
becomeהפכו responsiveתגובה to diffuselyבדיפוזיה broadcastמִשׁדָר signalsאותות
110
274000
3000
יגיבו לשידורי אותות מפוזרים,
04:52
suchכגון as a flashהֶבזֵק of lightאוֹר.
111
277000
3000
כגון הבזקי אור.
04:55
Suchכגון an approachגִישָׁה would literallyפשוטו כמשמעו, in a flashהֶבזֵק of lightאוֹר,
112
280000
3000
גישה כזו, באמצעות הבזק של אור פשוטו כמשמעו,
04:58
overcomeלְהִתְגַבֵּר manyרב of the obstaclesמכשולים to discoveryתַגלִית.
113
283000
3000
תתגבר על רבים מהמכשולים העומדים בדרך לתגליות.
05:01
First, it's clearlyבְּבִירוּר a non-invasiveלא פולשני,
114
286000
3000
קודם כל, באופן ברור זוהי תקשורת
05:04
wirelessאַלחוּט formטופס of communicationתִקשׁוֹרֶת.
115
289000
3000
אלחוטית לא פולשנית.
05:07
And secondשְׁנִיָה, just as in a radioרָדִיוֹ broadcastמִשׁדָר,
116
292000
2000
ושנית, פשוט כמו שידור רדיו,
05:09
you can communicateלתקשר with manyרב receiversמקלטים at onceפַּעַם.
117
294000
3000
ניתן לתקשר עם הרבה קולטים בו-זמנית.
05:12
You don't need to know where these receiversמקלטים are,
118
297000
3000
אין צורך לדעת היכן נמצאים קולטים הללו.
05:15
and it doesn't matterחוֹמֶר if these receiversמקלטים moveמהלך \ לזוז \ לעבור --
119
300000
2000
ואין זה משנה אם קולטים הללו נעים --
05:17
just think of the stereoסטריאו in your carאוטו.
120
302000
3000
תחשבו על הרדיו באוטו שלכם.
05:20
It getsמקבל even better,
121
305000
3000
וזה עוד משתפר,
05:23
for it turnsפונה out that we can fabricateלְפַבְּרֵק the receiversמקלטים
122
308000
3000
מאחר ומתברר שאנו מסוגלים לייצר את הקולטים
05:26
out of materialsחומרים that are encodedמוּצפָּן in DNAדנ"א.
123
311000
3000
מחומרים שמקודדים בתוך DNA.
05:29
So eachכל אחד nerveעָצָב cellתָא
124
314000
2000
כך כל תא עצבי
05:31
with the right geneticגֵנֵטִי makeupלהשלים
125
316000
2000
עם המבנה הגנטי הנכון
05:33
will spontaneouslyבאופן ספונטני produceליצר a receiverמַקְלֵט
126
318000
3000
ייצור באופן ספונטני מקלט
05:36
that allowsמאפשרים us to controlלִשְׁלוֹט its functionפוּנקצִיָה.
127
321000
3000
המאפשר לנו לשלוט על פעולתו.
05:39
I hopeלְקַווֹת you'llאתה appreciateמעריך
128
324000
2000
אני מקוה שאתם מעריכים
05:41
the beautifulיפה simplicityפַּשְׁטוּת
129
326000
2000
את היופי שבפשטות
05:43
of this conceptמוּשָׂג.
130
328000
2000
השיטה הזו.
05:45
There's no high-techהיי טק gizmosגיזמוס here,
131
330000
2000
אין כאן גימיקי היי-טק,
05:47
just biologyביולוגיה revealedגילה throughדרך biologyביולוגיה.
132
332000
3000
אלא רק ביולוגיה הנגלית דרך ביולוגיה.
05:51
Now let's take a look at these miraculousפִּלאִי receiversמקלטים up closeלִסְגוֹר.
133
336000
3000
כעת הבה נתבונן במקלטים המופלאים הללו מקרוב.
05:54
As we zoomזום in on one of these purpleסָגוֹל neuronsנוירונים,
134
339000
3000
ככל שאנו מתקרבים ומתמקדים באחד מהניורונים הסגולים הללו,
05:57
we see that its outerחִיצוֹנִי membraneקְרוּם
135
342000
2000
אנו מבחינים שהקרום החיצוני שלו
05:59
is studdedמשובץ with microscopicמִיקרוֹסקוֹפִּי poresנקבוביות.
136
344000
2000
משובץ בחרירים מיקרוסקופיים.
06:01
Poresנקבוביות like these conductהתנהגות electricalחַשׁמַלִי currentנוֹכְחִי
137
346000
2000
חרירים כאלה מוליכים זרם חשמלי
06:03
and are responsibleאחראי
138
348000
2000
והם אחראים
06:05
for all the communicationתִקשׁוֹרֶת in the nervousעַצבָּנִי systemמערכת.
139
350000
2000
לכל התקשורת במערכת העצבית.
06:07
But these poresנקבוביות here are specialמיוחד.
140
352000
2000
אבל חרירים אלה הם מיוחדים.
06:09
They are coupledמְצוּמָד to lightאוֹר receptorsקולטנים
141
354000
2000
הם צמודים לקולטני אור
06:11
similarדוֹמֶה to the onesיחידות in your eyesעיניים.
142
356000
3000
הדומים לאלה שבעינינו.
06:14
Wheneverבְּכָל פַּעַם a flashהֶבזֵק of lightאוֹר hitsלהיטים the receptorקוֹלֵט,
143
359000
2000
בכל פעם שהבזק אור פוגע בקולטן,
06:16
the poreנַקבּוּבִית opensנפתח, an electricalחַשׁמַלִי currentנוֹכְחִי is switchedעבר on,
144
361000
3000
החריר נפתח ומופיע זרם חשמלי,
06:19
and the neuronעֲצָבוֹן firesשריפות electricalחַשׁמַלִי impulsesדחפים.
145
364000
3000
והניורונים יורים אותות חשמליים.
06:22
Because the light-activatedמופעל באור poreנַקבּוּבִית is encodedמוּצפָּן in DNAדנ"א,
146
367000
3000
מכיוון שהחריר שמופעל על-ידי האור מקודד ב-DNA,
06:25
we can achieveלְהַשִׂיג incredibleמדהים precisionדיוק.
147
370000
3000
אנו מסוגלים להגיע לדיוק מדהים.
06:28
This is because,
148
373000
2000
זה בגלל שאף על-פי
06:30
althoughלמרות ש eachכל אחד cellתָא in our bodiesגופים
149
375000
2000
שכל תא בגופנו
06:32
containsמכיל the sameאותו setמַעֲרֶכֶת of genesגנים,
150
377000
2000
מכיל את אותו מערך של גנים,
06:34
differentשונה mixesמתערבב of genesגנים get turnedפנה on and off
151
379000
2000
קבוצות שונות של גנים נדלקות ונכבות
06:36
in differentשונה cellsתאים.
152
381000
2000
בתאים שונים.
06:38
You can exploitלְנַצֵל this to make sure
153
383000
2000
ניתן לנצל זאת כדי להבטיח
06:40
that only some neuronsנוירונים
154
385000
2000
שרק כמה ניורונים
06:42
containלְהַכִיל our light-activatedמופעל באור poreנַקבּוּבִית and othersאחרים don't.
155
387000
3000
מכילים את החריר מופעל האור בעוד שאחרים לא.
06:45
So in this cartoonקָרִיקָטוּרָה, the bluishכְּחַלחַל whiteלבן cellתָא
156
390000
2000
באנימציה זו, התא בצבע תכלת
06:47
in the upper-leftהשמאלי העליון cornerפינה
157
392000
2000
בפינה השמאלית העליונה
06:49
does not respondלְהָגִיב to lightאוֹר
158
394000
2000
לא מגיב לאור
06:51
because it lacksחסר the light-activatedמופעל באור poreנַקבּוּבִית.
159
396000
3000
מכיוון שהוא חסר את החריר מופעל האור.
06:54
The approachגִישָׁה worksעובד so well
160
399000
2000
גישה זו היא כה יעילה
06:56
that we can writeלִכתוֹב purelyאַך וְרַק artificialמְלָאכוּתִי messagesהודעות
161
401000
2000
שאנו יכולים לכתוב הודעות מלאכותיות לגמרי
06:58
directlyבאופן ישיר to the brainמוֹחַ.
162
403000
2000
ישירות אל המוח.
07:00
In this exampleדוגמא, eachכל אחד electricalחַשׁמַלִי impulseדַחַף,
163
405000
2000
בדוגמא זו, כל אות חשמלי,
07:02
eachכל אחד deflectionהֲטָיָה on the traceזֵכֶר,
164
407000
3000
כל סטיה מהמסלול,
07:05
is causedגרם ל by a briefקָצָר pulseדוֹפֶק of lightאוֹר.
165
410000
3000
נגרמים על-ידי פולס קטן של אור.
07:08
And the approachגִישָׁה, of courseקוּרס, alsoגַם worksעובד
166
413000
2000
והגישה גם עובדת
07:10
in movingמעבר דירה, behavingמתנהג animalsבעלי חיים.
167
415000
3000
עם התנועה וההתנהגות של חיות.
07:13
This is the first ever suchכגון experimentלְנַסוֹת,
168
418000
2000
זהו ניסוי ראשון מסוגו,
07:15
sortסוג of the opticalאוֹפּטִי equivalentהמקבילה of Galvani'sשל גלווני.
169
420000
3000
מין תאום אופטי של הניסוי של גלוואני.
07:18
It was doneבוצע sixשֵׁשׁ or sevenשֶׁבַע yearsשנים agoלִפנֵי
170
423000
2000
הוא בוצע לפני שש או שבע שנים
07:20
by my then graduateבוגר studentתלמיד, Susanaסוזנה Limaלימה.
171
425000
3000
על-ידי תלמידה לתואר שני דאז, סוזאנה לימה.
07:23
Susanaסוזנה had engineeredמהונדסים the fruitפרי flyלטוס, זבוב on the left
172
428000
3000
סוזאנה שינתה את זבוב הפירות משמאל
07:26
so that just two out of the 200,000 cellsתאים in its brainמוֹחַ
173
431000
4000
כך שרק שניים מ-200,000 תאי המוח שלו
07:30
expressedהביע the light-activatedמופעל באור poreנַקבּוּבִית.
174
435000
3000
הכילו את החריר מופעל האור.
07:33
You're familiarמוּכָּר with these cellsתאים
175
438000
2000
אתם מכירים את התאים הללו
07:35
because they are the onesיחידות that frustrateלְסַכֵּל you
176
440000
2000
מפני שהם אלה שמתסכלים אותנו
07:37
when you try to swatלְהַצְלִיף the flyלטוס, זבוב.
177
442000
2000
כאשר אנו מנסים להצליף בזבוב.
07:39
They trainedמְאוּמָן the escapeבריחה reflexרֶפלֶקס that makesעושה the flyלטוס, זבוב jumpקְפִיצָה into the airאוויר
178
444000
3000
הם אילפו את רפלקס הבריחה אשר גורם לזבוב להתעופף
07:42
and flyלטוס, זבוב away wheneverבְּכָל פַּעַם you moveמהלך \ לזוז \ לעבור your handיד in positionעמדה.
179
447000
3000
בכל פעם שאתם מזיזים את הידיים כדי להצליף בו.
07:46
And you can see here that the flashהֶבזֵק of lightאוֹר has exactlyבְּדִיוּק the sameאותו effectהשפעה.
180
451000
3000
וכאן ניתן לראות איך להבזק של אור השפעה זהה.
07:49
The animalבעל חיים jumpsקופץ, it spreadsממרחים its wingsכנפיים, it vibratesרוטט them,
181
454000
3000
הזבוב קופץ, הוא פורש את כנפיו, מנפנף אותם,
07:52
but it can't actuallyלמעשה take off
182
457000
2000
אבל לא יכול להתעופף,
07:54
because the flyלטוס, זבוב is sandwichedדחוקה betweenבֵּין two glassזכוכית platesצלחות.
183
459000
3000
כי הוא כלוא בין שתי לוחיות זכוכית.
07:58
Now to make sure that this was no reactionתְגוּבָה of the flyלטוס, זבוב
184
463000
2000
כדי לוודא שזו לא תגובה של הזבוב
08:00
to a flashהֶבזֵק it could see,
185
465000
3000
להבזק שהוא רואה,
08:03
Susanaסוזנה did a simpleפָּשׁוּט
186
468000
2000
סוזאנה עשתה ניסוי
08:05
but brutallyבאכזריות effectiveיָעִיל experimentלְנַסוֹת.
187
470000
2000
פשוט אבל אכזרי ביעילותו.
08:07
She cutגזירה the headsראשים off of her fliesזבובים.
188
472000
3000
היא חתכה את ראשיהם של הזבובים.
08:11
These headlessחֲסַר רֹאשׁ bodiesגופים can liveלחיות for about a day,
189
476000
3000
גופות חסרות הראש הללו יכולות להישאר בחיים ליממה,
08:14
but they don't do much.
190
479000
2000
אבל הן לא עושות הרבה.
08:16
They just standלַעֲמוֹד around
191
481000
3000
הן רק עומדות
08:19
and groomחָתָן excessivelyיתר על המידה.
192
484000
3000
ומטפחות את עצמן.
08:22
So it seemsנראה that the only traitתְכוּנָה that survivesשורד decapitationעֲרִיפַת רֹאשׁ is vanityהֶבֶל.
193
487000
3000
נראה כאילו שהתכונה היחידה שנשארת לאחר עריפת ראש היא גנדרנות.
08:25
(Laughterצחוק)
194
490000
3000
(צחוק)
08:30
Anywayבכל מקרה, as you'llאתה see in a momentרֶגַע,
195
495000
2000
בכל אופן, כפי שתראו מיד,
08:32
Susanaסוזנה was ableיכול to turnלפנות on the flightטִיסָה motorמָנוֹעַ
196
497000
3000
סוזאנה היתה מסוגלת להדליק את הדחף לעוף
08:35
of what's the equivalentהמקבילה of the spinalשֶׁל עַמוּד הַשִׁדרָה cordחוּט of these fliesזבובים
197
500000
3000
במה שנחשב אצל הזבובים כעמוד השידרה
08:38
and get some of the headlessחֲסַר רֹאשׁ bodiesגופים
198
503000
2000
ולגרום לחלק מהזבובים חסרי הראש
08:40
to actuallyלמעשה take off and flyלטוס, זבוב away.
199
505000
3000
להתעופף ממש רחוק.
08:47
They didn't get very farרָחוֹק, obviouslyמובן מאליו.
200
512000
2000
ברור שהם לא התרחקו הרבה.
08:50
Sinceמאז we tookלקח these first stepsצעדים,
201
515000
2000
מאז הצעד הראשון הזה שלנו,
08:52
the fieldשדה of optogeneticsאופטוגנטיקה has explodedהתפוצצה.
202
517000
3000
התחום של אופטו-גנטיקה פרץ ועלה.
08:55
And there are now hundredsמאות of labsמעבדות
203
520000
2000
כיום יש מאות מעבדות
08:57
usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני these approachesגישות.
204
522000
2000
העושות שימוש בגישות אלו.
08:59
And we'veיש לנו come a long way
205
524000
2000
ועשינו דרך ארוכה
09:01
sinceמאז Galvani'sשל גלווני and Susana'sשל סוזנה first successesהצלחות
206
526000
3000
מאז ההצלחות הראשונות של גלוואני וסוזאנה
09:04
in makingהֲכָנָה animalsבעלי חיים twitchפִּרפּוּר or jumpקְפִיצָה.
207
529000
2000
בלגרום לחיות לנוע או לקפוץ.
09:06
We can now actuallyלמעשה interfereלְהַפְרִיעַ with theirשֶׁלָהֶם psychologyפְּסִיכוֹלוֹגִיָה
208
531000
3000
היום אנחנו למעשה יכולים להתערב בפסיכולוגיה שלהם
09:09
in ratherבמקום profoundעָמוֹק waysדרכים,
209
534000
2000
באופן די משמעותי
09:11
as I'll showלְהַצִיג you in my last exampleדוגמא,
210
536000
2000
כפי שאראה בדוגמא האחרונה שלי,
09:13
whichאיזה is directedמְכוּוָן at a familiarמוּכָּר questionשְׁאֵלָה.
211
538000
3000
המכוונת לשאלה מוכרת.
09:16
Life is a stringחוּט of choicesבחירות
212
541000
3000
החיים הם שרשרת של בחירות
09:19
creatingיוצר a constantקָבוּעַ pressureלַחַץ to decideלְהַחלִיט what to do nextהַבָּא.
213
544000
3000
היוצרות לחץ מתמיד להחליט מה לעשות כעת.
09:23
We copeלהתמודד with this pressureלַחַץ by havingשיש brainsמוֹחַ,
214
548000
3000
אנו מתמודדים עם לחץ זה בכך שיש לנו מוח,
09:26
and withinבְּתוֹך our brainsמוֹחַ, decision-makingקבלת החלטות centersלמרכז
215
551000
3000
ובתוך המוח יש מרכז קבלת החלטות
09:29
that I've calledשקוראים לו here the "Actorשַׂחְקָן."
216
554000
3000
שאותו כיניתי כאן ה"מבצע".
09:33
The Actorשַׂחְקָן implementsמיישמים a policyמְדִינִיוּת that takes into accountחֶשְׁבּוֹן
217
558000
3000
ה"מבצע" מיישם מדיניות אשר לוקחת בחשבון
09:36
the stateמדינה of the environmentסביבה
218
561000
2000
את מצב הסביבה
09:38
and the contextהֶקשֵׁר in whichאיזה we operateלְהַפְעִיל.
219
563000
3000
ואת ההקשר בו אנו פועלים.
09:41
Our actionsפעולות changeשינוי the environmentסביבה, or contextהֶקשֵׁר,
220
566000
3000
פעולותינו משנות את הסביבה, או ההקשר,
09:44
and these changesשינויים are then fedהאכיל back into the decisionהַחְלָטָה loopלוּלָאָה.
221
569000
3000
ושינויים אלה מוזנים בחזרה אל תוך לולאת ההחלטות.
09:48
Now to put some neurobiologicalנוירוביולוגי meatבָּשָׂר
222
573000
3000
כדי להכניס קצת תוכן נוירוביולוגי
09:51
on this abstractתַקצִיר modelדֶגֶם,
223
576000
2000
בתוך מודל מופשט זה,
09:53
we constructedבנוי a simpleפָּשׁוּט one-dimensionalחד-ממדי worldעוֹלָם
224
578000
2000
בנינו עולם חד-מימדי פשוט
09:55
for our favoriteהכי אהוב subjectנושא, fruitפרי fliesזבובים.
225
580000
3000
למען הנושא החביב עלינו, זבובי פירות.
09:58
Eachכל אחד chamberתָא in these two verticalאֲנָכִי stacksערימות
226
583000
2000
כל תא בתוך שתי המחיצות האנכיות האלו
10:00
containsמכיל one flyלטוס, זבוב.
227
585000
2000
מכיל זבוב אחד.
10:02
The left and the right halvesחֲצָאִים of the chamberתָא
228
587000
3000
החצאים הימניים והשמאליים של התא
10:05
are filledמְמוּלָא with two differentשונה odorsריחות,
229
590000
2000
מלאים בשני ריחות שונים,
10:07
and a securityבִּטָחוֹן cameraמַצלֵמָה watchesשעונים
230
592000
2000
ומצלמת אבטחה עוקבת
10:09
as the fliesזבובים paceלִפְסוֹעַ up and down betweenבֵּין them.
231
594000
3000
בזמן שהזבובים עוברים ביניהם.
10:12
Here'sהנה some suchכגון CCTVטלוויזיה במעגל סגור footageמִדָה.
232
597000
2000
הנה כאן קטע מצילום במעגל סגור.
10:14
Wheneverבְּכָל פַּעַם a flyלטוס, זבוב reachesמגיע the midpointאמצע of the chamberתָא
233
599000
3000
בכל פעם שזבוב מגיע לנקודת אמצע של התא,
10:17
where the two odorרֵיחַ streamsזרמים meetלִפְגוֹשׁ,
234
602000
2000
היכן ששני זרמי הריחות נפגשים,
10:19
it has to make a decisionהַחְלָטָה.
235
604000
2000
עליו לקבל החלטה.
10:21
It has to decideלְהַחלִיט whetherהאם to turnלפנות around
236
606000
2000
עליו להחליט אם לפנות בחזרה
10:23
and stayשָׁהוּת in the sameאותו odorרֵיחַ,
237
608000
2000
ולהישאר באותו ריח,
10:25
or whetherהאם to crossלַחֲצוֹת the midlineקו אמצע
238
610000
2000
או אם לחצות את קו האמצע
10:27
and try something newחָדָשׁ.
239
612000
2000
ולנסות משהו חדש.
10:29
These decisionsהחלטות are clearlyבְּבִירוּר a reflectionהִשׁתַקְפוּת
240
614000
3000
החלטות אלו הן ביטוי מובהק
10:32
of the Actor'sשל השחקן policyמְדִינִיוּת.
241
617000
3000
למדיניות של ה"מבצע".
10:36
Now for an intelligentאִינְטֶלִיגֶנְטִי beingלהיות like our flyלטוס, זבוב,
242
621000
3000
בשביל יצור תבוני כמו הזבוב שלנו,
10:39
this policyמְדִינִיוּת is not writtenכתוב in stoneאֶבֶן
243
624000
3000
מדיניות זו אינה חקוקה בסלע,
10:42
but ratherבמקום changesשינויים as the animalבעל חיים learnsלומד from experienceניסיון.
244
627000
3000
אלא היא משתנה כשהיצור לומד מהניסיון.
10:45
We can incorporateבע"מ suchכגון an elementאֵלֵמֶנט
245
630000
2000
אנו יכולים לשלב אלמנט כזה
10:47
of adaptiveהסתגלות intelligenceאינטליגנציה into our modelדֶגֶם
246
632000
3000
של אינטליגנציית הסתגלות בתוך המודל שלנו
10:50
by assumingבהנחה that the fly'sלטוס brainמוֹחַ
247
635000
2000
בהנחה שמוח הזבוב
10:52
containsמכיל not only an Actorשַׂחְקָן,
248
637000
2000
מכיל לא רק "מבצע",
10:54
but a differentשונה groupקְבוּצָה of cellsתאים,
249
639000
2000
אלא גם קבוצה אחרת של תאים,
10:56
a "Criticמְבַקֵר," that providesמספק a runningרץ commentaryפַּרשָׁנוּת
250
641000
3000
קבוצת בקרה, המספקת פרשנות חיה
10:59
on the Actor'sשל השחקן choicesבחירות.
251
644000
2000
על הבחירות שה"מבצע" עושה.
11:01
You can think of this naggingנִדנוּד innerפְּנִימִי voiceקוֹל
252
646000
3000
ניתן לחשוב על זה כקול נודניק פנימי,
11:04
as sortסוג of the brain'sמוֹחַ equivalentהמקבילה
253
649000
2000
כהקבלה מוחית
11:06
of the Catholicקָתוֹלִי Churchכְּנֵסִיָה,
254
651000
2000
לכנסיה הקתולית,
11:08
if you're an Austrianאוֹסטְרִי like me,
255
653000
3000
אם אתה אוסטרי כמוני,
11:11
or the super-egoסופר אגו, if you're Freudianפרוידיאנית,
256
656000
3000
או לאני העליון, אם אתה פרוידיאני,
11:14
or your motherאִמָא, if you're Jewishיהודי.
257
659000
2000
או לאמא שלך, אם אתה יהודי.
11:16
(Laughterצחוק)
258
661000
4000
(צחוק)
11:20
Now obviouslyמובן מאליו,
259
665000
2000
עכשיו, ברור
11:22
the Criticמְבַקֵר is a keyמַפְתֵחַ ingredientמַרכִּיב
260
667000
3000
שהמבקר הפנימי הוא מרכיב קריטי
11:25
in what makesעושה us intelligentאִינְטֶלִיגֶנְטִי.
261
670000
2000
בהפיכתנו לאינטליגנטיים.
11:27
So we setמַעֲרֶכֶת out to identifyלזהות
262
672000
2000
לכן התחלנו לנסות ולזהות
11:29
the cellsתאים in the fly'sלטוס brainמוֹחַ
263
674000
2000
את התאים במוח של הזבוב
11:31
that playedשיחק the roleתַפְקִיד of the Criticמְבַקֵר.
264
676000
2000
אשר מבצעים את תפקיד המבקר.
11:33
And the logicהִגָיוֹן of our experimentלְנַסוֹת was simpleפָּשׁוּט.
265
678000
3000
וההיגיון של ניסויינו היה פשוט.
11:36
We thought if we could use our opticalאוֹפּטִי remoteמְרוּחָק controlלִשְׁלוֹט
266
681000
3000
חשבנו שאם יכולנו להשתמש בשלט הרחוק האופטי שלנו
11:39
to activateלְהַפְעִיל the cellsתאים of the Criticמְבַקֵר,
267
684000
3000
כדי לעורר את התאים המבקרים,
11:42
we should be ableיכול, artificiallyבאופן מלאכותי, to nagלְנַדְנֵד the Actorשַׂחְקָן
268
687000
3000
אז גם נוכל לנדנד ל"מבצע" באופן מלאכותי
11:45
into changingמִשְׁתַנֶה its policyמְדִינִיוּת.
269
690000
2000
וכך לגרום לו לשנות את מדיניותו.
11:47
In other wordsמילים,
270
692000
2000
במילים אחרות,
11:49
the flyלטוס, זבוב should learnלִלמוֹד from mistakesטעויות
271
694000
2000
הזבוב אמור ללמוד משגיאות
11:51
that it thought it had madeעָשׂוּי
272
696000
2000
שנדמה לו שהוא עשה,
11:53
but, in realityמְצִיאוּת, it had not madeעָשׂוּי.
273
698000
3000
אבל למעשה הוא לא עשה אותן.
11:56
So we bredbred fliesזבובים
274
701000
2000
אז גידלנו זבובים
11:58
whoseשל מי brainsמוֹחַ were more or lessפָּחוּת randomlyבאופן אקראי pepperedפלפל
275
703000
3000
שמוחותיהם היו זרועים אקראית פחות או יותר
12:01
with cellsתאים that were lightאוֹר addressableניתן לכתובת.
276
706000
2000
בתאים שמגיבים לאור.
12:03
And then we tookלקח these fliesזבובים
277
708000
2000
לקחנו זבובים אלה
12:05
and allowedמוּתָר them to make choicesבחירות.
278
710000
2000
ואפשרנו להם לבחור.
12:07
And wheneverבְּכָל פַּעַם they madeעָשׂוּי one of the two choicesבחירות,
279
712000
2000
ובכל פעם שהם עשו אחת משתי הבחירות,
12:09
choseבחר one odorרֵיחַ,
280
714000
2000
בחרו ריח מסויים,
12:11
in this caseמקרה the blueכָּחוֹל one over the orangeתפוז one,
281
716000
2000
במקרה הזה כחול על-פני הכתום,
12:13
we switchedעבר on the lightsאורות.
282
718000
2000
הדלקנו את האור.
12:15
If the Criticמְבַקֵר was amongבין the opticallyאופטית activatedמוּפעָל cellsתאים,
283
720000
3000
אם המבקר היה בין תאים המופעלים אופטית,
12:18
the resultתוֹצָאָה of this interventionהתערבות
284
723000
2000
התוצאה של התערבות זו
12:20
should be a changeשינוי in policyמְדִינִיוּת.
285
725000
3000
צריכה להיות שינוי במדיניות.
12:23
The flyלטוס, זבוב should learnלִלמוֹד to avoidלְהִמָנַע
286
728000
2000
הזבוב צריך ללמוד להימנע
12:25
the opticallyאופטית reinforcedמחוזקים odorרֵיחַ.
287
730000
2000
מהריח המלווה באור.
12:27
Here'sהנה what happenedקרה in two instancesמקרים:
288
732000
3000
הנה מה שקרה בשני מקרים.
12:30
We're comparingהשוואת two strainsזנים of fliesזבובים,
289
735000
3000
אנו משווים בין שני זנים של זבובים,
12:33
eachכל אחד of them havingשיש
290
738000
2000
אצל כל אחד מהם קיימים במוח
12:35
about 100 light-addressableקל להדפסה cellsתאים in theirשֶׁלָהֶם brainsמוֹחַ,
291
740000
2000
כ-100 תאים המגיבים לאור,
12:37
shownמוצג here in greenירוק on the left and on the right.
292
742000
3000
הנראים כאן בצבע ירוק משמאל ומימין.
12:40
What's commonמשותף amongבין these groupsקבוצות of cellsתאים
293
745000
3000
המשותף לשתי קבוצות התאים האלו
12:43
is that they all produceליצר the neurotransmitterנוירוטרנסמיטר dopamineדופמין.
294
748000
3000
שהם מייצרים דופאמין שהוא מעביר עצבי.
12:46
But the identitiesזהויות of the individualאִישִׁי
295
751000
2000
אבל הזהויות של הניורונים
12:48
dopamine-producingייצור דופמין neuronsנוירונים
296
753000
2000
המייצרים דופאמין
12:50
are clearlyבְּבִירוּר largelyבמידה רבה differentשונה on the left and on the right.
297
755000
3000
הן באופן ברור מאוד שונות בצד השמאלי לעומת הימני.
12:53
Opticallyאופטית activatingהפעלה
298
758000
2000
גירוי אופטי
12:55
these hundredמֵאָה or so cellsתאים
299
760000
2000
של מאות התאים הללו
12:57
into two strainsזנים of fliesזבובים
300
762000
2000
בתוך שני זני הזבובים,
12:59
has dramaticallyבאופן דרמטי differentשונה consequencesהשלכות.
301
764000
2000
נותן תוצאות שונות באופן דרמטי.
13:01
If you look first at the behaviorהִתְנַהֲגוּת
302
766000
2000
אם מסתכלים תחילה על ההתנהגות
13:03
of the flyלטוס, זבוב on the right,
303
768000
2000
של הזבוב מימין,
13:05
you can see that wheneverבְּכָל פַּעַם it reachesמגיע the midpointאמצע of the chamberתָא
304
770000
3000
ניתן לראות שבכל פעם שהוא מגיע לנקודת האמצע בתא,
13:08
where the two odorsריחות meetלִפְגוֹשׁ,
305
773000
2000
היכן ששני הריחות מצטלבים,
13:10
it marchesצעדות straightיָשָׁר throughדרך, as it did before.
306
775000
3000
הוא ממשיך ישר כפי שעשה קודם.
13:13
Its behaviorהִתְנַהֲגוּת is completelyלַחֲלוּטִין unchangedללא שינוי.
307
778000
2000
התנהגותו נשארת לגמרי ללא שינוי.
13:15
But the behaviorהִתְנַהֲגוּת of the flyלטוס, זבוב on the left is very differentשונה.
308
780000
3000
אבל ההתנהגות של הזבוב משמאל היא מאוד שונה.
13:18
Wheneverבְּכָל פַּעַם it comesבא up to the midpointאמצע,
309
783000
3000
בכל פעם שהוא מגיע לנקודת האמצע,
13:21
it pausesהפסקות,
310
786000
2000
הוא עוצר,
13:23
it carefullyבקפידה scansסורק the odorרֵיחַ interfaceמִמְשָׁק
311
788000
2000
הוא בוחן בזהירות את הממשק בין שני הריחות,
13:25
as if it was sniffingהֲרָחָה out its environmentסביבה,
312
790000
2000
כאילו הוא מרחרח את סביבתו,
13:27
and then it turnsפונה around.
313
792000
2000
ואז הוא מסתובב בחזרה.
13:29
This meansאומר that the policyמְדִינִיוּת that the Actorשַׂחְקָן implementsמיישמים
314
794000
3000
זה אומר שהמדיניות שה"מבצע" מיישם,
13:32
now includesכולל an instructionהוראה to avoidלְהִמָנַע the odorרֵיחַ
315
797000
2000
כוללת בתוכה הוראה להימנע מהריח
13:34
that's in the right halfחֲצִי of the chamberתָא.
316
799000
3000
שבחצי הימני של התא.
13:37
This meansאומר that the Criticמְבַקֵר
317
802000
2000
משמעות הדבר היא שה"מבקר"
13:39
mustצריך have spokenנֱאֶמַר in that animalבעל חיים,
318
804000
2000
אמר את דברו באותו זבוב,
13:41
and that the Criticמְבַקֵר mustצריך be containedהכיל
319
806000
2000
וה"מבקר" היה חייב להיות כלול
13:43
amongבין the dopamine-producingייצור דופמין neuronsנוירונים on the left,
320
808000
3000
בתוך הניורונים יוצרי הדופאמין משמאל,
13:46
but not amongבין the dopamineדופמין producingייצור neuronsנוירונים on the right.
321
811000
3000
אבל לא בתוך הניורונים יוצרי הדופאמין מימין.
13:49
Throughדרך manyרב suchכגון experimentsניסויים,
322
814000
3000
באמצעות המון ניסויים כאלה,
13:52
we were ableיכול to narrowלְצַמְצֵם down
323
817000
2000
הצלחנו לצמצם את הזהויות
13:54
the identityזהות of the Criticמְבַקֵר
324
819000
2000
האפשריות של ה"מבקר"
13:56
to just 12 cellsתאים.
325
821000
2000
אך ורק ל-12 תאים.
13:58
These 12 cellsתאים, as shownמוצג here in greenירוק,
326
823000
3000
12 התאים הללו, הנראים כאן בירוק,
14:01
sendלִשְׁלוֹחַ the outputתְפוּקָה to a brainמוֹחַ structureמִבְנֶה
327
826000
2000
שולחים את האות למבנה במוח
14:03
calledשקוראים לו the "mushroomפטרייה bodyגוּף,"
328
828000
2000
המכונה מבנה פטריה,
14:05
whichאיזה is shownמוצג here in grayאפור.
329
830000
2000
הנראה כאן באפור.
14:07
We know from our formalרִשְׁמִי modelדֶגֶם
330
832000
2000
אנו יודעים מתוך המודל הרשמי שלנו
14:09
that the brainמוֹחַ structureמִבְנֶה
331
834000
2000
שמבנה המוח הנמצא
14:11
at the receivingקבלה endסוֹף of the Critic'sביקורת commentaryפַּרשָׁנוּת is the Actorשַׂחְקָן.
332
836000
3000
בקצה הקולט את הערות ה"מבקר" הוא ה"מבצע".
14:14
So this anatomyאֲנָטוֹמִיָה suggestsמציע
333
839000
2000
כך שניתוח זה רומז
14:16
that the mushroomפטרייה bodiesגופים have something to do
334
841000
3000
שמבני הפטריה קשורים איכשהו
14:19
with actionפעולה choiceבְּחִירָה.
335
844000
2000
לבחירת הפעולה.
14:21
Basedמבוסס on everything we know about the mushroomפטרייה bodiesגופים,
336
846000
2000
בהתבסס על כל מה שאנו יודעים על מבני הפטריה,
14:23
this makesעושה perfectמושלם senseלָחוּשׁ.
337
848000
2000
זה נראה מאוד הגיוני.
14:25
In factעוּבדָה, it makesעושה so much senseלָחוּשׁ
338
850000
2000
בעצם, זה כל-כך הגיוני,
14:27
that we can constructלִבנוֹת an electronicאֶלֶקטרוֹנִי toyצַעֲצוּעַ circuitמעגל חשמלי
339
852000
3000
שאנו יכולים לבנות מעגל צעצוע חשמלי
14:30
that simulatesסימולציה the behaviorהִתְנַהֲגוּת of the flyלטוס, זבוב.
340
855000
3000
אשר מדמה התנהגות של הזבוב.
14:33
In this electronicאֶלֶקטרוֹנִי toyצַעֲצוּעַ circuitמעגל חשמלי,
341
858000
3000
במעגל חשמלי זה,
14:36
the mushroomפטרייה bodyגוּף neuronsנוירונים are symbolizedמְסוּמָל
342
861000
2000
הניורונים במבנה הפטריה מיוצגים
14:38
by the verticalאֲנָכִי bankבַּנק of blueכָּחוֹל LEDsנוריות
343
863000
3000
על-ידי נוריות ה-LED הכחולות בשורה האנכית
14:41
in the centerמֶרְכָּז of the boardלוּחַ.
344
866000
3000
במרכז הלוח.
14:44
These LED'sLED של are wiredקווית to sensorsחיישנים
345
869000
2000
נוריות אלו מחוברות לחיישנים
14:46
that detectלזהות the presenceנוכחות of odorousרֵיחָנִי moleculesמולקולות in the airאוויר.
346
871000
3000
המאתרים נוכחות של מולקולות ריח באויר.
14:50
Eachכל אחד odorרֵיחַ activatesמופעל a differentשונה combinationקוֹמבִּינַצִיָה of sensorsחיישנים,
347
875000
3000
כל ריח מפעיל צירוף שונה של חיישנים,
14:53
whichאיזה in turnלפנות activatesמופעל
348
878000
2000
אשר בתורו מפעיל
14:55
a differentשונה odorרֵיחַ detectorגַלַאִי in the mushroomפטרייה bodyגוּף.
349
880000
3000
גלאי ריח אחר במבנה הפטריה.
14:58
So the pilotטַיָס in the cockpitתא הטייס of the flyלטוס, זבוב,
350
883000
2000
כך שהטייס בקוקפיט של הזבוב,
15:00
the Actorשַׂחְקָן,
351
885000
2000
ה"מבצע",
15:02
can tell whichאיזה odorרֵיחַ is presentמתנה
352
887000
2000
יכול לדעת איזה ריח קיים
15:04
simplyבפשטות by looking at whichאיזה of the blueכָּחוֹל LEDsנוריות lightsאורות up.
353
889000
4000
רק על-ידי הסתכלות ובדיקה איזו נורית כחולה נדלקת.
15:09
What the Actorשַׂחְקָן does with this informationמֵידָע
354
894000
2000
מה שה"מבצע" עושה עם מידע זה
15:11
dependsתלוי on its policyמְדִינִיוּת,
355
896000
2000
תלוי במדיניות שלו,
15:13
whichאיזה is storedמְאוּחסָן in the strengthsחוזק of the connectionחיבור,
356
898000
2000
השמורה בעוצמתם של הקשרים
15:15
betweenבֵּין the odorרֵיחַ detectorsגלאים
357
900000
2000
בין גלאי הריח
15:17
and the motorsמנועים
358
902000
2000
למנועים אשר מפעילים
15:19
that powerכּוֹחַ the fly'sלטוס evasiveמִתחַמֵק actionsפעולות.
359
904000
2000
את פעולת ההימנעות של הזבוב.
15:22
If the connectionחיבור is weakחלש, the motorsמנועים will stayשָׁהוּת off
360
907000
2000
אם הקשר חלש, המנוע יישאר דומם
15:24
and the flyלטוס, זבוב will continueלְהַמשִׁיך straightיָשָׁר on its courseקוּרס.
361
909000
3000
והזבוב ימשיך ישר במסלולו.
15:27
If the connectionחיבור is strongחָזָק, the motorsמנועים will turnלפנות on
362
912000
3000
אם הקשר חזק, המנוע יידלק
15:30
and the flyלטוס, זבוב will initiateלִיזוֹם a turnלפנות.
363
915000
3000
והזבוב יתחיל לפנות.
15:33
Now considerלשקול a situationמַצָב
364
918000
2000
כעת תחשבו על מצב
15:35
in whichאיזה the motorsמנועים stayשָׁהוּת off,
365
920000
2000
בו המנוע נשאר דומם,
15:37
the flyלטוס, זבוב continuesממשיכה on its pathנָתִיב
366
922000
3000
הזבוב ממשיך במסלולו
15:40
and it suffersסובל some painfulכּוֹאֵב consequenceתוֹצָאָה
367
925000
2000
והוא סובל מתוצאה כואבת
15:42
suchכגון as gettingמקבל zappedzapped.
368
927000
2000
כגון להיות מותקף.
15:44
In a situationמַצָב like this,
369
929000
2000
במצב כזה,
15:46
we would expectלְצַפּוֹת the Criticמְבַקֵר to speakלְדַבֵּר up
370
931000
2000
היינו מצפים שה"מבקר" ישמיע את קולו
15:48
and to tell the Actorשַׂחְקָן
371
933000
2000
ויגיד ל"מבצע"
15:50
to changeשינוי its policyמְדִינִיוּת.
372
935000
2000
לשנות את מדיניותו.
15:52
We have createdשנוצר suchכגון a situationמַצָב, artificiallyבאופן מלאכותי,
373
937000
3000
יצרנו מצב זה באופן מלאכותי
15:55
by turningחֲרִיטָה on the criticמְבַקֵר with a flashהֶבזֵק of lightאוֹר.
374
940000
3000
על-ידי הפעלת ה"מבקר" באמצעות הבזק אור.
15:58
That causedגרם ל a strengtheningהִתחַזְקוּת of the connectionsקשרים
375
943000
3000
זה גרם לחיזוק הקשרים
16:01
betweenבֵּין the currentlyכַּיוֹם activeפָּעִיל odorרֵיחַ detectorגַלַאִי
376
946000
3000
בין גלאי-הריח הנוכחי הפעיל
16:04
and the motorsמנועים.
377
949000
2000
לבין המנועים.
16:06
So the nextהַבָּא time
378
951000
2000
כך שבפעם הבאה
16:08
the flyלטוס, זבוב findsמוצא itselfעצמה facingמוּל the sameאותו odorרֵיחַ again,
379
953000
3000
כאשר הזבוב ימצא את עצמו עם אותו ריח שוב,
16:11
the connectionחיבור is strongחָזָק enoughמספיק to turnלפנות on the motorsמנועים
380
956000
3000
הקשר הוא מספיק חזק כדי שיפעיל את המנועים
16:14
and to triggerהדק an evasiveמִתחַמֵק maneuverלְתַמְרֵן.
381
959000
3000
ויעורר את תמרון ההתחמקות.
16:19
I don't know about you,
382
964000
3000
איני יודע מה איתכם,
16:22
but I find it exhilaratingמלהיב to see
383
967000
3000
אבל אני מוצא זאת כמרומם נפש לראות
16:25
how vagueמְעוּרפָּל psychologicalפְּסִיכוֹלוֹגִי notionsמושגים
384
970000
3000
כיצד רעיונות פסיכולוגיים מעורפלים
16:28
evaporateלְהִתְאַדוֹת and give riseלעלות
385
973000
2000
מתאדים ונעלמים ובמקומם צומחת
16:30
to a physicalגוּפָנִי, mechanisticמכניסטי understandingהֲבָנָה of the mindאכפת,
386
975000
3000
הבנה פיזית ומכניסטית של המחשבות,
16:33
even if it's the mindאכפת of the flyלטוס, זבוב.
387
978000
3000
אף על-פי שאלו מחשבות של זבוב.
16:36
This is one pieceלְחַבֵּר of good newsחֲדָשׁוֹת.
388
981000
3000
זוהי בשורה אחת מעודדת.
16:39
The other pieceלְחַבֵּר of good newsחֲדָשׁוֹת,
389
984000
2000
הבשורה השניה המעודדת,
16:41
for a scientistמַדְעָן at leastהכי פחות,
390
986000
2000
בשביל המדענים לפחות,
16:43
is that much remainsשְׂרִידִים to be discoveredגילה.
391
988000
3000
היא שעדיין נשאר הרבה מה לגלות.
16:46
In the experimentsניסויים I told you about,
392
991000
2000
בניסויים שסיפרתי לכם עליהם,
16:48
we have liftedהרים the identityזהות of the Criticמְבַקֵר,
393
993000
3000
העלנו את זהות ה"מבקר",
16:51
but we still have no ideaרַעְיוֹן
394
996000
2000
אבל עדיין אין לנו מושג
16:53
how the Criticמְבַקֵר does its jobעבודה.
395
998000
2000
כיצד ה"מבקר" מבצע את עבודתו.
16:55
Come to think of it, knowingיוֹדֵעַ when you're wrongלא בסדר
396
1000000
2000
בעצם, לדעת מתי אנחנו טועים,
16:57
withoutלְלֹא a teacherמוֹרֶה, or your motherאִמָא, tellingאומר you,
397
1002000
3000
ללא מורה או אמא שיגידו לנו,
17:00
is a very hardקָשֶׁה problemבְּעָיָה.
398
1005000
2000
היא בעיה קשה מאוד.
17:02
There are some ideasרעיונות in computerמַחשֵׁב scienceמַדָע
399
1007000
2000
ישנם כמה רעיונות במדעי מחשב
17:04
and in artificialמְלָאכוּתִי intelligenceאינטליגנציה
400
1009000
2000
ובאינטליגנציה מלאכותית
17:06
as to how this mightאולי be doneבוצע,
401
1011000
2000
בקשר לכיצד זה עשוי להתרחש,
17:08
but we still haven'tלא solvedנפתרה
402
1013000
2000
אבל עדיין לא פתרנו
17:10
a singleיחיד exampleדוגמא
403
1015000
2000
אפילו דוגמא אחת
17:12
of how intelligentאִינְטֶלִיגֶנְטִי behaviorהִתְנַהֲגוּת
404
1017000
3000
של כיצד התנהגות תבונית
17:15
springsמעיינות from the physicalגוּפָנִי interactionsאינטראקציות
405
1020000
2000
צצה מאינטראקציות פיזיות
17:17
in livingחַי matterחוֹמֶר.
406
1022000
2000
בחומר חי.
17:19
I think we'llטוֹב get there in the not too distantרָחוֹק futureעתיד.
407
1024000
3000
אני סבור שנגיע גם לזה בעתיד הלא רחוק מדי.
17:22
Thank you.
408
1027000
2000
תודה לכם.
17:24
(Applauseתְשׁוּאוֹת)
409
1029000
4000
(מחיאות כפיים)
Translated by Yubal Masalker
Reviewed by Sigal Tifferet

▲Back to top

ABOUT THE SPEAKER
Gero Miesenboeck - Optogeneticist
Using light and a little genetic engineering -- optogenetics -- Gero Miesenboeck has developed a way to control how living nerve cells work, and advanced understanding of how the brain controls behavior.

Why you should listen

Gero Miesenboeck is pioneering the field of optogenetics: genetically modifying nerve cells to respond to light. By flashing light at a modified neuron in a living nervous system, Miesenboeck and his collaborators can mimic a brain impulse -- and then study what happens next. Optogenetics will allow ever more precise experiments on living brains, allowing us to gather better evidence on how electrical impulses on tissue translate into actual behavior and thoughts.

In one experiment, done at Yale, he and his team engineered fruit flies to be light-sensitive in the neural area responsible for escape response. Then the flies were beheaded; fruit flies can live for a day without their heads, but they don't move. When the modified cells were flashed with light, though, the headless flies flew. Miesenboeck had successfully simulated an order from a brain that wasn't even there anymore.

Miesenboeck's current research at Oxford's growing department of neurobiology focuses on the nerve cell networks that underpin what animals perceive, remember and do. In one recent experiment, he used optogenetics to implant an unpleasant memory in a fruit fly, causing it to "remember" to avoid a certain odor as it traveled around. He and his team were able, in fact, to find the fly's specific 12-neuron brain circuit that govern memory formation.

More profile about the speaker
Gero Miesenboeck | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee