ABOUT THE SPEAKER
Daniel Wolpert - Movement expert
A neuroscientist and engineer, Daniel Wolpert studies how the brain controls the body.

Why you should listen

Consider your hand. You use it to lift things, to balance yourself, to give and take, to sense the world. It has a range of interacting degrees of freedom, and it interacts with many different objects under a variety of environmental conditions. And for most of us, it all just works. At his lab in the Engineering department at Cambridge, Daniel Wolpert and his team are studying why, looking to understand the computations underlying the brain's sensorimotor control of the body.

As he says, "I believe that to understand movement is to understand the whole brain. And therefore it’s important to remember when you are studying memory, cognition, sensory processing, they’re there for a reason, and that reason is action.”  Movement is the only way we have of interacting with the world, whether foraging for food or attracting a waiter's attention. Indeed, all communication, including speech, sign language, gestures and writing, is mediated via the motor system. Taking this viewpoint, and using computational and robotic techniques as well as virtual reality systems, Wolpert and his team research the purpose of the human brain and the way it determines future actions.

 

 

More profile about the speaker
Daniel Wolpert | Speaker | TED.com
TEDGlobal 2011

Daniel Wolpert: The real reason for brains

דניאל וולפרט: הסיבה האמיתית לקיומם של מוחות

Filmed:
1,994,993 views

דניאל וולפרט החוקר מערכות עצבים, מתחיל בהנחת יסוד מפתיעה: המוח התפתח לא כדי לחשוב או לחוש, אלא כדי לשלוט בתנועה. בהרצאה מבדרת ועשירה בנתונים, הוא מעניק לנו מבט חטוף על האופן בו המוח מייצר את החן והזריזות של התנועה האנושית.
- Movement expert
A neuroscientist and engineer, Daniel Wolpert studies how the brain controls the body. Full bio

Double-click the English transcript below to play the video.

00:15
I'm a neuroscientistמדענית מוח.
0
0
2000
אני חוקר מערכות עצבים.
00:17
And in neuroscienceמדעי המוח,
1
2000
2000
במדעי עצב,
00:19
we have to dealעִסקָה with manyרב difficultקָשֶׁה questionsשאלות about the brainמוֹחַ.
2
4000
3000
עלינו להתמודד עם הרבה שאלות קשות בנוגע למוח.
00:22
But I want to startהַתחָלָה with the easiestהקלה ביותר questionשְׁאֵלָה
3
7000
2000
אבל ברצוני להתחיל עם השאלה הכי קלה
00:24
and the questionשְׁאֵלָה you really should have all askedשאל yourselvesעַצמְכֶם at some pointנְקוּדָה in your life,
4
9000
3000
והשאלה שכולנו היינו צריכים לשאול את עצמנו מתי שהוא,
00:27
because it's a fundamentalבסיסי questionשְׁאֵלָה
5
12000
2000
כי זו שאלת יסוד
00:29
if we want to understandמבין brainמוֹחַ functionפוּנקצִיָה.
6
14000
2000
אם ברצוננו להבין את פעולת המוח.
00:31
And that is, why do we and other animalsבעלי חיים
7
16000
2000
השאלה היא, מדוע לנו ולחיות
00:33
have brainsמוֹחַ?
8
18000
2000
יש מוחות?
00:35
Not all speciesמִין on our planetכוכב לכת have brainsמוֹחַ,
9
20000
3000
לא לכל המינים יש מוחות,
00:38
so if we want to know what the brainמוֹחַ is for,
10
23000
2000
ולכן אם ברצוננו לדעת למה צריך מוח,
00:40
let's think about why we evolvedהתפתח one.
11
25000
2000
יש לחשוב על הסיבה להתפתחותו.
00:42
Now you mayמאי reasonסיבה that we have one
12
27000
2000
אפשר לומר שהוא קיים
00:44
to perceiveלִתְפּוֹס the worldעוֹלָם or to think,
13
29000
2000
כדי לתפוס את העולם או כדי לחשוב,
00:46
and that's completelyלַחֲלוּטִין wrongלא בסדר.
14
31000
2000
וזה לגמרי לא נכון.
00:48
If you think about this questionשְׁאֵלָה for any lengthאורך of time,
15
33000
3000
אם חושבים על שאלה זו מספיק זמן,
00:51
it's blindinglyמסנוור obviousברור why we have a brainמוֹחַ.
16
36000
2000
זה ברור מאליו מדוע יש לנו מוח.
00:53
We have a brainמוֹחַ for one reasonסיבה and one reasonסיבה only,
17
38000
3000
יש לנו מוח בגלל סיבה אחת ויחידה,
00:56
and that's to produceליצר adaptableסָגִיל and complexמורכב movementsתנועות.
18
41000
3000
והיא ליצור תנועות סגילות ומורכבות.
00:59
There is no other reasonסיבה to have a brainמוֹחַ.
19
44000
2000
אין סיבה אחרת לקיום המוח.
01:01
Think about it.
20
46000
2000
תחשבו על זה.
01:03
Movementתְנוּעָה is the only way you have
21
48000
2000
תנועה היא הדרך היחידה
01:05
of affectingמשפיע the worldעוֹלָם around you.
22
50000
2000
להשפיע על העולם סביבנו.
01:07
Now that's not quiteדַי trueנָכוֹן. There's one other way, and that's throughדרך sweatingמְיוֹזָע.
23
52000
3000
זה לא לגמרי נכון. יש דרך נוספת והיא באמצעות הזעה.
01:10
But apartמלבד from that,
24
55000
2000
אבל מלבד זאת,
01:12
everything elseאַחֵר goesהולך throughדרך contractionsהתכווצויות of musclesשרירים.
25
57000
2000
כל דבר אחר מתבצע באמצעות תנועות שרירים.
01:14
So think about communicationתִקשׁוֹרֶת --
26
59000
2000
תחשבו על תקשורת --
01:16
speechנְאוּם, gesturesמחוות, writingכְּתִיבָה, signסִימָן languageשפה --
27
61000
3000
דיבור, שפת-גוף, כתיבה, שפת סימנים --
01:19
they're all mediatedבתיווך throughדרך contractionsהתכווצויות of your musclesשרירים.
28
64000
3000
הכל מתבצע באמצעות תנועות של שרירים.
01:22
So it's really importantחָשׁוּב to rememberלִזכּוֹר
29
67000
2000
לכן זה חשוב מאוד לזכור
01:24
that sensoryחוּשִׁי, memoryזיכרון and cognitiveקוגניטיבית processesתהליכים are all importantחָשׁוּב,
30
69000
4000
שלמרות שתהליכים תחושתיים ותפיסתיים הם חשובים,
01:28
but they're only importantחָשׁוּב
31
73000
2000
הם חשובים רק בשביל
01:30
to eitherאוֹ driveנהיגה or suppressלדכא futureעתיד movementsתנועות.
32
75000
2000
ליצור או להפסיק תנועות עתידיות.
01:32
There can be no evolutionaryאֵבוֹלוּצִיוֹנִי advantageיתרון
33
77000
2000
אין שום יתרון אבולוציוני
01:34
to layingשוכב down memoriesזיכרונות of childhoodיַלדוּת
34
79000
2000
בזיכרונות ילדות
01:36
or perceivingלתפוס the colorצֶבַע of a roseורד
35
81000
2000
או בקליטת צבע של פרח
01:38
if it doesn't affectלהשפיע the way you're going to moveמהלך \ לזוז \ לעבור laterיותר מאוחר in life.
36
83000
3000
אם אין להן השפעה על הדרך בה אנו עומדים לנוע בעתיד.
01:41
Now for those who don't believe this argumentטַעֲנָה,
37
86000
2000
עבור אלה שאינם מאמינים לטיעון זה,
01:43
we have treesעצים and grassדֶשֶׁא on our planetכוכב לכת withoutלְלֹא the brainמוֹחַ,
38
88000
2000
עצים ודשא אין להם מוח,
01:45
but the clinchingשקטף evidenceעֵדוּת is this animalבעל חיים here --
39
90000
2000
אבל ההוכחה החותכת היא היצור הזה --
01:47
the humbleצנוע seaיָם squirtלְהַשְׁפּרִיץ.
40
92000
2000
רכיכת-ים.
01:49
Rudimentaryרִאשׁוֹנִי animalבעל חיים, has a nervousעַצבָּנִי systemמערכת,
41
94000
3000
יצור לא מפותח שיש לה מערכת עצבית
01:52
swimsשוחה around in the oceanאוקיינוס in its juvenileצָעִיר life.
42
97000
2000
והיא שוחה באוקיינוס בצעירותה.
01:54
And at some pointנְקוּדָה of its life,
43
99000
2000
בשלב כלשהו בחייה,
01:56
it implantsשתלים on a rockסלע.
44
101000
2000
היא נדבקת לסלע. והדבר הראשון
01:58
And the first thing it does in implantingהַשׁרָשָׁה on that rockסלע, whichאיזה it never leavesמשאיר,
45
103000
3000
שהיא עושה עם הידבקותה לסלע שהיא לעולם לא עוזבת,
02:01
is to digestלְעַכֵּל its ownשֶׁלוֹ brainמוֹחַ and nervousעַצבָּנִי systemמערכת
46
106000
3000
זה לעכל את המוח ואת המערכת העצבית של עצמה
02:04
for foodמזון.
47
109000
2000
בתור מזון.
02:06
So onceפַּעַם you don't need to moveמהלך \ לזוז \ לעבור,
48
111000
2000
כך, ברגע שלא זקוקים לתנועה,
02:08
you don't need the luxuryמוּתָרוּת of that brainמוֹחַ.
49
113000
3000
אין צורך בלוקסוס של המוח.
02:11
And this animalבעל חיים is oftenלעתים קרובות takenנלקח
50
116000
2000
ויצור זה משמש לעיתים
02:13
as an analogyאֲנָלוֹגִיָה to what happensקורה at universitiesאוניברסיטאות
51
118000
2000
כאנלוגיה למה שמתרחש באוניברסיטאות
02:15
when professorsפרופסורים get tenureקְבִיעוּת,
52
120000
2000
כאשר פרופסורים מקבלים קביעות,
02:17
but that's a differentשונה subjectנושא.
53
122000
2000
אבל זה נושא אחר.
02:19
(Applauseתְשׁוּאוֹת)
54
124000
2000
(מחיאות כפיים)
02:21
So I am a movementתְנוּעָה chauvinistשוביניסט.
55
126000
3000
אם כך, אני קנאי לתנועה. אני מאמין שתנועה
02:24
I believe movementתְנוּעָה is the mostרוב importantחָשׁוּב functionפוּנקצִיָה of the brainמוֹחַ --
56
129000
2000
היא התיפקוד החשוב ביותר של המוח --
02:26
don't let anyoneכֹּל אֶחָד tell you that it's not trueנָכוֹן.
57
131000
2000
ואל תניחו לאף אחד לומר לכם שאין זה נכון.
02:28
Now if movementתְנוּעָה is so importantחָשׁוּב,
58
133000
2000
אבל אם תנועה היא כה חשובה,
02:30
how well are we doing
59
135000
2000
עד כמה אנו מבינים כהלכה
02:32
understandingהֲבָנָה how the brainמוֹחַ controlsשולטת movementתְנוּעָה?
60
137000
2000
כיצד המוח שולט בתנועה?
02:34
And the answerתשובה is we're doing extremelyמְאוֹד poorlyגרוע; it's a very hardקָשֶׁה problemבְּעָיָה.
61
139000
2000
התשובה היא שבמידה מאוד דלה; זו בעיה מאוד קשה.
02:36
But we can look at how well we're doing
62
141000
2000
אבל אפשר גם להתרשם מביצועינו הטובים
02:38
by thinkingחושב about how well we're doing buildingבִּניָן machinesמכונה
63
143000
2000
אם חושבים על איכות המכונות שאנו בונים
02:40
whichאיזה can do what humansבני אנוש can do.
64
145000
2000
אשר מבצעות מה שבני-אדם עושים.
02:42
Think about the gameמִשְׂחָק of chessשַׁחְמָט.
65
147000
2000
תחשבו על משחק השחמט.
02:44
How well are we doing determiningקביעת what pieceלְחַבֵּר to moveמהלך \ לזוז \ לעבור where?
66
149000
3000
עד כמה טוב ונכון אנו מחליטים להזיז את הכלים ולהיכן?
02:47
If you pitבּוֹר Garryגארי Kasparovקספארוב here, when he's not in jailכלא,
67
152000
3000
אם נציב את גארי קספארוב, כאשר אינו בכלא,
02:50
againstמול IBM'sיבמ Deepעָמוֹק Blueכָּחוֹל,
68
155000
2000
כנגד מחשב IBM "כחול עמוק",
02:52
well the answerתשובה is IBM'sיבמ Deepעָמוֹק Blueכָּחוֹל will occasionallyלִפְעָמִים winלנצח.
69
157000
3000
התשובה תהיה שהמחשב ינצח לעיתים.
02:55
And I think if IBM'sיבמ Deepעָמוֹק Blueכָּחוֹל playedשיחק anyoneכֹּל אֶחָד in this roomחֶדֶר, it would winלנצח everyכֹּל time.
70
160000
3000
ואם המחשב ישחק נגד כל מישהו באולם זה, המחשב ינצח תמיד.
02:58
That problemבְּעָיָה is solvedנפתרה.
71
163000
2000
כאן התשובה ברורה.
03:00
What about the problemבְּעָיָה
72
165000
2000
מה לגבי הבעיה של
03:02
of pickingקטיף up a chessשַׁחְמָט pieceלְחַבֵּר,
73
167000
2000
הרמת כלי-שחמט,
03:04
dexterouslyבזריזות manipulatingמניפולציה it and puttingלשים it back down on the boardלוּחַ?
74
169000
3000
לשלוט בו במיומנות ולהניחו בחזרה על הלוח?
03:07
If you put a fiveחָמֵשׁ year-oldגיל child'sילדים dexterityמְיוּמָנוּת againstמול the bestהטוב ביותר robotsרובוטים of todayהיום,
75
172000
3000
אם שמים את מיומנותו של ילד בן 5 כנגד הרובוטים הכי משוכללים של היום,
03:10
the answerתשובה is simpleפָּשׁוּט:
76
175000
2000
התשובה ברורה:
03:12
the childיֶלֶד winsמנצח easilyבְּקַלוּת.
77
177000
2000
הילד ינצח בקלות.
03:14
There's no competitionתַחֲרוּת at all.
78
179000
2000
אין בכלל על מה לדבר.
03:16
Now why is that topחלק עליון problemבְּעָיָה so easyקַל
79
181000
2000
אז מדוע הבעיה הראשונה כה קלה
03:18
and the bottomתַחתִית problemבְּעָיָה so hardקָשֶׁה?
80
183000
2000
והשניה כה קשה?
03:20
One reasonסיבה is a very smartלִכאוֹב fiveחָמֵשׁ year-oldגיל
81
185000
2000
סיבה אחת היא שבן 5 שהוא מאוד פיקח
03:22
could tell you the algorithmאַלגוֹרִיתְם for that topחלק עליון problemבְּעָיָה --
82
187000
2000
יכול למצוא את האלגוריתם לבעיה הראשונה --
03:24
look at all possibleאפשרי movesמהלכים to the endסוֹף of the gameמִשְׂחָק
83
189000
2000
יסתכל על כל המהלכים האפשריים במשחק
03:26
and chooseבחר the one that makesעושה you winלנצח.
84
191000
2000
ויבחר את זה היכול לנצח.
03:28
So it's a very simpleפָּשׁוּט algorithmאַלגוֹרִיתְם.
85
193000
2000
לכן זה אלגוריתם מאוד פשוט.
03:30
Now of courseקוּרס there are other movesמהלכים,
86
195000
2000
ברור שיש מהלכים אחרים,
03:32
but with vastעָצוּם computersמחשבים we approximateלְהִתְקַרֵב
87
197000
2000
אבל עם מחשבים אנו עושים קירובים
03:34
and come closeלִסְגוֹר to the optimalאוֹפְּטִימָלִי solutionפִּתָרוֹן.
88
199000
2000
וכך מתקרבים לפיתרון המיטבי.
03:36
When it comesבא to beingלהיות dexterousזָרִיז,
89
201000
2000
אבל כאשר זה מגיע למיומנות בתנועה,
03:38
it's not even clearברור what the algorithmאַלגוֹרִיתְם is you have to solveלִפְתוֹר to be dexterousזָרִיז.
90
203000
2000
כלל לא ברור איזה אלגוריתם עלינו לפתור כדי להיות מיומנים.
03:40
And we'llטוֹב see you have to bothשניהם perceiveלִתְפּוֹס and actפעולה on the worldעוֹלָם,
91
205000
2000
אנו נראה שצריך גם לתפוס את הסביבה וגם לפעול עליה,
03:42
whichאיזה has a lot of problemsבעיות.
92
207000
2000
שזה יוצר המון בעיות.
03:44
But let me showלְהַצִיג you cutting-edgeשיא הטכנולוגיה roboticsרובוטיקה.
93
209000
2000
אראה לכם עכשיו רובוטיקה מתקדמת.
03:46
Now a lot of roboticsרובוטיקה is very impressiveמרשימים,
94
211000
2000
בהרבה מקרים רובוטיקה זה דבר מרשים ביותר,
03:48
but manipulationמָנִיפּוּלָצִיָה roboticsרובוטיקה is really just in the darkאפל agesהגילאים.
95
213000
3000
אבל רובוטיקה תפעולית היא עדיין פרימיטיבית.
03:51
So this is the endסוֹף of a PhPh.D. projectפּרוֹיֶקט
96
216000
2000
זהו התוצר הסופי של עבודת דוקטורט
03:53
from one of the bestהטוב ביותר roboticsרובוטיקה institutesמכונים.
97
218000
2000
באחד ממכוני הרובוטיקה המתקדמים ביותר.
03:55
And the studentתלמיד has trainedמְאוּמָן this robotרוֹבּוֹט
98
220000
2000
הסטודנט לימד את הרובוט
03:57
to pourלִשְׁפּוֹך this waterמַיִם into a glassזכוכית.
99
222000
2000
לשפוך מים לתוך כוס.
03:59
It's a hardקָשֶׁה problemבְּעָיָה because the waterמַיִם sloshesעבדים about, but it can do it.
100
224000
3000
זו בעיה קשה כי המים משכשכים, אבל הוא מצליח.
04:02
But it doesn't do it with anything like the agilityזְרִיזוּת of a humanבן אנוש.
101
227000
3000
אבל הוא אינו עושה זאת באותה מיומנות של אדם.
04:05
Now if you want this robotרוֹבּוֹט to do a differentשונה taskמְשִׁימָה,
102
230000
3000
כעת אם רוצים שרובוט זה יבצע משימה אחרת,
04:08
that's anotherאַחֵר three-yearשלוש שנים PhPh.D. programתָכְנִית.
103
233000
3000
זו עבודת דוקטורט אחרת של 3 שנים.
04:11
There is no generalizationהַכלָלָה at all
104
236000
2000
אין משהו משותף
04:13
from one taskמְשִׁימָה to anotherאַחֵר in roboticsרובוטיקה.
105
238000
2000
בין שתי משימות ברובוטיקה.
04:15
Now we can compareלְהַשְׁווֹת this
106
240000
2000
כעת נשווה זאת
04:17
to cutting-edgeשיא הטכנולוגיה humanבן אנוש performanceביצועים.
107
242000
2000
לביצועי אנוש בדרגה הכי גבוהה.
04:19
So what I'm going to showלְהַצִיג you is Emilyאמילי Foxשׁוּעָל
108
244000
2000
אתם תראו את אמילי פוקס
04:21
winningלנצח the worldעוֹלָם recordתקליט for cupגָבִיעַ stackingהַעֲרָמָה.
109
246000
3000
שקבעה שיא עולם בסידור כוסות.
04:24
Now the Americansאמריקאים in the audienceקהל will know all about cupגָבִיעַ stackingהַעֲרָמָה.
110
249000
2000
האמריקאים בין הצופים פה יודעים הכל על סידור כוסות.
04:26
It's a highגָבוֹהַ schoolבית ספר sportספּוֹרט
111
251000
2000
זהו ספורט של תיכונים
04:28
where you have 12 cupsכוסות you have to stackלַעֲרוֹם and unstackללא הפרעה
112
253000
2000
שבו צריך לסדר ולהפריד 12 כוסות
04:30
againstמול the clockשָׁעוֹן in a prescribedשנקבעו orderלהזמין.
113
255000
2000
כנגד זמן בסדר מסויים.
04:32
And this is her gettingמקבל the worldעוֹלָם recordתקליט in realאמיתי time.
114
257000
3000
כאן זו היא בזמן קביעת השיא העולמי.
04:39
(Laughterצחוק)
115
264000
8000
(צחוק)
04:47
(Applauseתְשׁוּאוֹת)
116
272000
5000
(מחיאות כפיים)
04:52
And she's prettyיפה happyשַׂמֵחַ.
117
277000
2000
היא שמחה למדי.
04:54
We have no ideaרַעְיוֹן what is going on insideבְּתוֹך her brainמוֹחַ when she does that,
118
279000
2000
אין לנו מושג על המתחולל במוחה כאשר היא עשתה זאת,
04:56
and that's what we'dלהתחתן like to know.
119
281000
2000
וזה מה שהיינו רוצים לדעת.
04:58
So in my groupקְבוּצָה, what we try to do
120
283000
2000
לכן בצוות שלי, מה שאנו מנסים לעשות
05:00
is reverseלַהֲפוֹך engineerמהנדס how humansבני אנוש controlלִשְׁלוֹט movementתְנוּעָה.
121
285000
3000
זה לנתח הנדסית כיצד אנשים שולטים בתנועה.
05:03
And it soundsקולות like an easyקַל problemבְּעָיָה.
122
288000
2000
זה נשמע כמו בעיה פשוטה.
05:05
You sendלִשְׁלוֹחַ a commandפקודה down, it causesגורם ל musclesשרירים to contractחוֹזֶה.
123
290000
2000
פקודה נשלחת, היא גורמת לשרירים להתכווץ.
05:07
Your armזְרוֹעַ or bodyגוּף movesמהלכים,
124
292000
2000
הגוף או הזרוע נעים,
05:09
and you get sensoryחוּשִׁי feedbackמָשׁוֹב from visionחָזוֹן, from skinעור, from musclesשרירים and so on.
125
294000
3000
מקבלים משוב חושי מהעיניים, עור, שרירים וכו'.
05:12
The troubleצרות is
126
297000
2000
הבעיה היא שאותות הללו
05:14
these signalsאותות are not the beautifulיפה signalsאותות you want them to be.
127
299000
2000
אינם אותות אידאליים כפי שהיינו רוצים.
05:16
So one thing that makesעושה controllingשליטה movementתְנוּעָה difficultקָשֶׁה
128
301000
2000
אחד הדברים שהופכים את השליטה
05:18
is, for exampleדוגמא, sensoryחוּשִׁי feedbackמָשׁוֹב is extremelyמְאוֹד noisyרוֹעֵשׁ.
129
303000
3000
על תנועה לקשה הוא הרעש הנלווה למשוב.
05:21
Now by noiseרַעַשׁ, I do not mean soundנשמע.
130
306000
3000
ברעש, איני מתכוון לצלילים.
05:24
We use it in the engineeringהַנדָסָה and neuroscienceמדעי המוח senseלָחוּשׁ
131
309000
2000
בהנדסה ומדעי העצב המשמעות היא
05:26
meaningמַשְׁמָעוּת a randomאַקרַאִי noiseרַעַשׁ corruptingמשחית a signalאוֹת.
132
311000
2000
רעש אקראי אשר הורס את האות.
05:28
So the oldישן daysימים before digitalדִיגִיטָלי radioרָדִיוֹ when you were tuningכִּונוּן in your radioרָדִיוֹ
133
313000
3000
זה כמו פעם, לפני הרדיו הדיגיטלי כאשר היינו מכוונים לתחנה
05:31
and you heardשמע "crrcckkkcrrcckkk" on the stationתַחֲנָה you wanted to hearלִשְׁמוֹעַ,
134
316000
2000
ושמענו רעשים צורמים בתחנה שרצינו להאזין לה,
05:33
that was the noiseרַעַשׁ.
135
318000
2000
על רעש כזה מדובר.
05:35
But more generallyבדרך כלל, this noiseרַעַשׁ is something that corruptsמושחת the signalאוֹת.
136
320000
3000
באופן יותר כללי, רעש כזה הורס את האות.
05:38
So for exampleדוגמא, if you put your handיד underתַחַת a tableשולחן
137
323000
2000
לדוגמא, אם שמים את היד מתחת לשולחן
05:40
and try to localizeלְמַקֵם it with your other handיד,
138
325000
2000
ומנסים לאתר אותה בעזרת היד השניה,
05:42
you can be off by severalכַּמָה centimetersסנטימטרים
139
327000
2000
אפשר לפספס בכמה סנטימטרים
05:44
dueעקב to the noiseרַעַשׁ in sensoryחוּשִׁי feedbackמָשׁוֹב.
140
329000
2000
בגלל הרעש במשוב מן החושים.
05:46
Similarlyבאופן דומה, when you put motorמָנוֹעַ outputתְפוּקָה on movementתְנוּעָה outputתְפוּקָה,
141
331000
2000
באופן דומה, כאשר מערבבים את אותות המנוע עם אותות של תנועה,
05:48
it's extremelyמְאוֹד noisyרוֹעֵשׁ.
142
333000
2000
זה מאוד רועש.
05:50
Forgetלשכוח about tryingמנסה to hitמכה the bull'sשור eyeעַיִן in dartsדַארטס,
143
335000
2000
שלא לדבר על קליעה למטרה באמצעות זריקת חיצים,
05:52
just aimמַטָרָה for the sameאותו spotלְזַהוֹת over and over again.
144
337000
2000
פשוט לכוון לאותה נקודה שוב ושוב.
05:54
You have a hugeעָצוּם spreadהתפשטות dueעקב to movementתְנוּעָה variabilityהִשׁתַנוּת.
145
339000
3000
יש לנו פיזור רחב מאוד בגלל השתנות התנועה.
05:57
And more than that, the outsideבחוץ worldעוֹלָם, or taskמְשִׁימָה,
146
342000
2000
ואפילו עוד יותר, העולם סביבנו, או המשימה,
05:59
is bothשניהם ambiguousדו - משמעי and variableמִשְׁתַנֶה.
147
344000
2000
הם מעורפלים ומשתנים.
06:01
The teapotקוּמקוּם could be fullמלא, it could be emptyריק.
148
346000
2000
קומקום התה יכול להיות מלא או ריק.
06:03
It changesשינויים over time.
149
348000
2000
הוא נתון לשינויים לאורך זמן.
06:05
So we work in a wholeכֹּל sensoryחוּשִׁי movementתְנוּעָה taskמְשִׁימָה soupמרק of noiseרַעַשׁ.
150
350000
4000
כך שאנו פועלים במרק של רעשים הנובעים מעבודת החושים.
06:09
Now this noiseרַעַשׁ is so great
151
354000
2000
רעש זה הוא כה מהותי
06:11
that societyחֶברָה placesמקומות a hugeעָצוּם premiumפּרֶמיָה
152
356000
2000
שהחברה מעניקה תגמול ענק
06:13
on those of us who can reduceלְהַפחִית the consequencesהשלכות of noiseרַעַשׁ.
153
358000
3000
למי מאיתנו המסוגל לצמצם את השפעות הרעש.
06:16
So if you're luckyבַּר מַזָל enoughמספיק to be ableיכול to knockנְקִישָׁה a smallקָטָן whiteלבן ballכַּדוּר
154
361000
3000
כך שאם התמזל למישהו המזל והוא מסוגל להכות בכדור לבן קטן
06:19
into a holeחור severalכַּמָה hundredמֵאָה yardsמטרים away usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני a long metalמַתֶכֶת stickמקל,
155
364000
3000
לתוך גומחה במרחק כמה מאות מטרים בעזרת מקל מתכת ארוך,
06:22
our societyחֶברָה will be willingמוּכָן to rewardפרס you
156
367000
2000
החברה שלנו תרצה לגמול לו
06:24
with hundredsמאות of millionsמיליונים of dollarsדולר.
157
369000
3000
במאות מיליוני דולרים.
06:27
Now what I want to convinceלְשַׁכְנֵעַ you of
158
372000
2000
כעת מה שברצוני לשכנע אתכם בו
06:29
is the brainמוֹחַ alsoגַם goesהולך throughדרך a lot of effortמַאֲמָץ
159
374000
2000
הוא שהמוח עושה הרבה מאמצים
06:31
to reduceלְהַפחִית the negativeשלילי consequencesהשלכות
160
376000
2000
כדי לצמצם את ההשלכות השליליות
06:33
of this sortסוג of noiseרַעַשׁ and variabilityהִשׁתַנוּת.
161
378000
2000
של רעשים ושינויים כאלה.
06:35
And to do that, I'm going to tell you about a frameworkמִסגֶרֶת
162
380000
2000
כדי לעשות זאת, אספר לכם על מערכת
06:37
whichאיזה is very popularפופולרי in statisticsסטָטִיסטִיקָה and machineמְכוֹנָה learningלְמִידָה of the last 50 yearsשנים
163
382000
3000
שהיא מאוד נפוצה בסטטיסטיקה ובלימודי מכונה ב-50 השנים האחרונות
06:40
calledשקוראים לו Bayesianבייסיאן decisionהַחְלָטָה theoryתֵאוֹרִיָה.
164
385000
2000
והנקראת תיאוריה בייסיאנית להחלטות.
06:42
And it's more recentlyלאחרונה a unifyingמאחד way
165
387000
3000
זו דרך כוללנית לחשיבה
06:45
to think about how the brainמוֹחַ dealsעסקאות with uncertaintyחוסר ודאות.
166
390000
3000
על כיצד המוח מתמודד עם חוסר וודאות.
06:48
And the fundamentalבסיסי ideaרַעְיוֹן is you want to make inferencesהסברים and then take actionsפעולות.
167
393000
3000
הרעיון המרכזי הוא שאדם רוצה להסיק מסקנות ולנקוט בפעולות.
06:51
So let's think about the inferenceהסקה.
168
396000
2000
אז בואו נחשוב על הסקת מסקנות.
06:53
You want to generateלִיצוֹר beliefsאמונות about the worldעוֹלָם.
169
398000
2000
אנו רוצים לייצר אמונות לגבי העולם.
06:55
So what are beliefsאמונות?
170
400000
2000
אז מהן אמונות?
06:57
Beliefsאמונות could be: where are my armsנשק in spaceמֶרחָב?
171
402000
2000
אמונות יכולות להיות: היכן נמצאות זרועותיי בחלל?
06:59
Am I looking at a catחתול or a foxשׁוּעָל?
172
404000
2000
האם אני מביט בחתול או בשועל?
07:01
But we're going to representלְיַצֵג beliefsאמונות with probabilitiesהסתברויות.
173
406000
3000
אבל אנו נציג אמונות בצורת הסתברויות.
07:04
So we're going to representלְיַצֵג a beliefאמונה
174
409000
2000
נציג אמונה
07:06
with a numberמספר betweenבֵּין zeroאֶפֶס and one --
175
411000
2000
באמצעות מספר בין 0 ל-1 --
07:08
zeroאֶפֶס meaningמַשְׁמָעוּת I don't believe it at all, one meansאומר I'm absolutelyבהחלט certainמסוים.
176
413000
3000
0 משמעותו שאיני מאמין כלל ו-1 משמעותו שאני בטוח לגמרי.
07:11
And numbersמספרים in betweenבֵּין give you the grayאפור levelsרמות of uncertaintyחוסר ודאות.
177
416000
3000
ומספרים ביניהם נותנים דרגות שונות של חוסר וודאות.
07:14
And the keyמַפְתֵחַ ideaרַעְיוֹן to Bayesianבייסיאן inferenceהסקה
178
419000
2000
הרעיון המרכזי של הסקה בייסיאנית
07:16
is you have two sourcesמקורות of informationמֵידָע
179
421000
2000
הוא שיש שני מקורות מידע
07:18
from whichאיזה to make your inferenceהסקה.
180
423000
2000
שמהם מסיקים את המסקנה.
07:20
You have dataנתונים,
181
425000
2000
יש נתונים,
07:22
and dataנתונים in neuroscienceמדעי המוח is sensoryחוּשִׁי inputקֶלֶט.
182
427000
2000
ונתונים במדעי-עצב זה קלט של חושים.
07:24
So I have sensoryחוּשִׁי inputקֶלֶט, whichאיזה I can take in to make beliefsאמונות.
183
429000
3000
יש לנו קלט חושים שאני יכול לנצל כדי ליצור אמונות.
07:27
But there's anotherאַחֵר sourceמָקוֹר of informationמֵידָע, and that's effectivelyביעילות priorקוֹדֵם knowledgeיֶדַע.
184
432000
3000
אבל יש מקור נוסף של מידע והוא הידע המוקדם שיש לנו.
07:30
You accumulateלִצְבּוֹר knowledgeיֶדַע throughoutבְּמֶשֶך your life in memoriesזיכרונות.
185
435000
3000
אנו צוברים ידע לאורך חיינו בצורת זיכרונות.
07:33
And the pointנְקוּדָה about Bayesianבייסיאן decisionהַחְלָטָה theoryתֵאוֹרִיָה
186
438000
2000
והעיקר בתיאוריה בייסיאנית להחלטות הוא
07:35
is it givesנותן you the mathematicsמָתֵימָטִיקָה
187
440000
2000
שהיא נותנת לנו את המתמטיקה
07:37
of the optimalאוֹפְּטִימָלִי way to combineלְשַׁלֵב
188
442000
2000
של הדרך המיטבית לשילוב בין
07:39
your priorקוֹדֵם knowledgeיֶדַע with your sensoryחוּשִׁי evidenceעֵדוּת
189
444000
2000
הידע המוקדם והנתונים החושיים
07:41
to generateלִיצוֹר newחָדָשׁ beliefsאמונות.
190
446000
2000
כדי לייצר אמונות חדשות.
07:43
And I've put the formulaנוּסחָה up there.
191
448000
2000
רשמתי את הנוסחה כאן.
07:45
I'm not going to explainלהסביר what that formulaנוּסחָה is, but it's very beautifulיפה.
192
450000
2000
לא אסביר את הנוסחה, אבל היא מאוד יפה.
07:47
And it has realאמיתי beautyיוֹפִי and realאמיתי explanatoryמַסבִּיר powerכּוֹחַ.
193
452000
3000
יש בה יופי אמיתי ויכולת אמיתית להבהיר דברים.
07:50
And what it really saysאומר, and what you want to estimateלְהַעֲרִיך,
194
455000
2000
היא אומרת שמה שאנו רוצים לאמוד,
07:52
is the probabilityהִסתַבְּרוּת of differentשונה beliefsאמונות
195
457000
2000
היא ההסתברות של האמונות השונות
07:54
givenנָתוּן your sensoryחוּשִׁי inputקֶלֶט.
196
459000
2000
בקלט חושים נתון.
07:56
So let me give you an intuitiveאינטואיטיבי exampleדוגמא.
197
461000
2000
אתן לכם דוגמא אינטואיטיבית.
07:58
Imagineלדמיין you're learningלְמִידָה to playלְשַׂחֵק tennisטֶנִיס
198
463000
3000
תחשבו שאתם לומדים לשחק טניס
08:01
and you want to decideלְהַחלִיט where the ballכַּדוּר is going to bounceלהקפיץ
199
466000
2000
ועליכם להחליט היכן הכדור עומד ליפול
08:03
as it comesבא over the netנֶטוֹ towardsלִקרַאת you.
200
468000
2000
כאשר הוא עובר את הרשת בדרכו אליכם.
08:05
There are two sourcesמקורות of informationמֵידָע
201
470000
2000
יש שני מקורות מידע,
08:07
Bayes'Bayes ' ruleכְּלָל tellsאומר you.
202
472000
2000
כך אומר הכלל הבייסיאני.
08:09
There's sensoryחוּשִׁי evidenceעֵדוּת -- you can use visualחָזוּתִי informationמֵידָע auditoryשְׁמִיעָתִי informationמֵידָע,
203
474000
3000
יש נתונים מהחושים -- ניתן להשתמש במידע חזותי או שמיעתי,
08:12
and that mightאולי tell you it's going to landארץ in that redאָדוֹם spotלְזַהוֹת.
204
477000
3000
וזה יכול לומר לך להתרכז בנקודה האדומה ההיא.
08:15
But you know that your sensesחושים are not perfectמושלם,
205
480000
3000
אבל אתה יודע שחושיך אינם מושלמים, ולכן קיימת אי-וודאות
08:18
and thereforeלכן there's some variabilityהִשׁתַנוּת of where it's going to landארץ
206
483000
2000
מסויימת לגבי היכן הכדור יפול
08:20
shownמוצג by that cloudענן of redאָדוֹם,
207
485000
2000
והיא מתוארת באמצעות הכתם האדום,
08:22
representingהמייצג numbersמספרים betweenבֵּין 0.5 and maybe 0.1.
208
487000
3000
המייצג מספרים בין 0.5 ל-0.1 בערך.
08:26
That informationמֵידָע is availableזמין in the currentנוֹכְחִי shotבְּעִיטָה,
209
491000
2000
מידע זה זמין בחבטה הנוכחית,
08:28
but there's anotherאַחֵר sourceמָקוֹר of informationמֵידָע
210
493000
2000
אבל ישנו מקור מידע נוסף
08:30
not availableזמין on the currentנוֹכְחִי shotבְּעִיטָה,
211
495000
2000
שאינו זמין בחבטה הנוכחית,
08:32
but only availableזמין by repeatedחוזר על עצמו experienceניסיון in the gameמִשְׂחָק of tennisטֶנִיס,
212
497000
3000
אלא הוא זמין רק באמצעות ניסיונות חוזרים במשחק הטניס,
08:35
and that's that the ballכַּדוּר doesn't bounceלהקפיץ
213
500000
2000
והוא שהכדור אינו נופל בהסתברות שווה
08:37
with equalשווה probabilityהִסתַבְּרוּת over the courtבית משפט duringבְּמַהֲלָך the matchהתאמה.
214
502000
2000
בכל המגרש בזמן המשחק.
08:39
If you're playingמשחק againstמול a very good opponentיָרִיב,
215
504000
2000
אם אתה משחק נגד שחקן ברמה גבוהה,
08:41
they mayמאי distributeלְהָפִיץ it in that greenירוק areaאֵזוֹר,
216
506000
2000
הם יכולים ליפול באזור הירוק ההוא,
08:43
whichאיזה is the priorקוֹדֵם distributionהפצה,
217
508000
2000
שזה פיזור תאורטי הקיים מראש,
08:45
makingהֲכָנָה it hardקָשֶׁה for you to returnלַחֲזוֹר.
218
510000
2000
המקשה עליך להחזיר.
08:47
Now bothשניהם these sourcesמקורות of informationמֵידָע carryלשאת importantחָשׁוּב informationמֵידָע.
219
512000
2000
שני מקורות המידע נושאים עימם מידע חשוב.
08:49
And what Bayes'Bayes ' ruleכְּלָל saysאומר
220
514000
2000
מה שחוק בייסיאני אומר הוא שעליי
08:51
is that I should multiplyלְהַכפִּיל the numbersמספרים on the redאָדוֹם by the numbersמספרים on the greenירוק
221
516000
3000
להכפיל את המספרים שבאדום במספרים שבירוק
08:54
to get the numbersמספרים of the yellowצהוב, whichאיזה have the ellipsesאליפסות,
222
519000
3000
כדי לקבל את המספרים בצהוב, שיש שם את האליפסות,
08:57
and that's my beliefאמונה.
223
522000
2000
וזו האמונה שלי.
08:59
So it's the optimalאוֹפְּטִימָלִי way of combiningשילוב informationמֵידָע.
224
524000
3000
זוהי הדרך המיטבית לשילוב בין מקורות מידע.
09:02
Now I wouldn'tלא tell you all this if it wasn'tלא היה that a fewמְעַטִים yearsשנים agoלִפנֵי,
225
527000
2000
לא הייתי מספר את כל זה אם לפני כמה שנים
09:04
we showedparagraphs this is exactlyבְּדִיוּק what people do
226
529000
2000
לא היינו מוכיחים שזה בדיוק מה שאנשים עושים
09:06
when they learnלִלמוֹד newחָדָשׁ movementתְנוּעָה skillsמיומנויות.
227
531000
2000
כאשר הם לומדים מיומנויות תנועה חדשות.
09:08
And what it meansאומר
228
533000
2000
ומה שזה אומר הוא שאנחנו באמת
09:10
is we really are Bayesianבייסיאן inferenceהסקה machinesמכונה.
229
535000
2000
מכונות בייסיאניות להסקת מסקנות.
09:12
As we go around, we learnלִלמוֹד about statisticsסטָטִיסטִיקָה of the worldעוֹלָם and layלְהַנִיחַ that down,
230
537000
4000
בעודנו מתנהלים בעולם, אנו לומדים עליו סטטיסטיקות וזוכרים אותן,
09:16
but we alsoגַם learnלִלמוֹד
231
541000
2000
אבל אנו גם לומדים עד כמה
09:18
about how noisyרוֹעֵשׁ our ownשֶׁלוֹ sensoryחוּשִׁי apparatusמַנגָנוֹן is,
232
543000
2000
סואנת היא המערכת החושית שלנו,
09:20
and then combineלְשַׁלֵב those
233
545000
2000
ואז משלבים ביניהן
09:22
in a realאמיתי Bayesianבייסיאן way.
234
547000
2000
ממש בדרך בייסיאנית.
09:24
Now a keyמַפְתֵחַ partחֵלֶק to the Bayesianבייסיאן is this partחֵלֶק of the formulaנוּסחָה.
235
549000
3000
המפתח עבור הבייסיאנית זהו החלק הזה בנוסחה.
09:27
And what this partחֵלֶק really saysאומר
236
552000
2000
ומה שחלק זה אומר הוא
09:29
is I have to predictלַחֲזוֹת the probabilityהִסתַבְּרוּת
237
554000
2000
שעליי לחזות את ההסתברות
09:31
of differentשונה sensoryחוּשִׁי feedbacksמשוב
238
556000
2000
של משובים חושיים שונים
09:33
givenנָתוּן my beliefsאמונות.
239
558000
2000
בהתאם לאמונות שלי.
09:35
So that really meansאומר I have to make predictionsתחזיות of the futureעתיד.
240
560000
3000
זה אומר שעליי ממש לחזות את העתיד.
09:38
And I want to convinceלְשַׁכְנֵעַ you the brainמוֹחַ does make predictionsתחזיות
241
563000
2000
וברצוני לשכנע אתכם שהמוח שלנו אכן עושה תחזיות
09:40
of the sensoryחוּשִׁי feedbackמָשׁוֹב it's going to get.
242
565000
2000
על המשוב החושי שהוא עומד לקבל.
09:42
And moreoverיתר על כך, it profoundlyעמוק changesשינויים your perceptionsתפיסות
243
567000
2000
בנוסף, הוא משנה מהותית את התפיסות שלנו
09:44
by what you do.
244
569000
2000
לפי מה שאנו עושים בפועל.
09:46
And to do that, I'll tell you
245
571000
2000
כדי לעשות זאת, אספר לכם
09:48
about how the brainמוֹחַ dealsעסקאות with sensoryחוּשִׁי inputקֶלֶט.
246
573000
2000
כיצד המוח מתמודד עם קלט חושי.
09:50
So you sendלִשְׁלוֹחַ a commandפקודה out,
247
575000
3000
אנו שולחים פקודה החוצה,
09:53
you get sensoryחוּשִׁי feedbackמָשׁוֹב back,
248
578000
2000
מקבלים בחזרה קלט חושי,
09:55
and that transformationטרנספורמציה is governedנשלט
249
580000
2000
ותהליך זה נשלט
09:57
by the physicsפיזיקה of your bodyגוּף and your sensoryחוּשִׁי apparatusמַנגָנוֹן.
250
582000
3000
על-ידי הפיזיולוגיה של גופנו והמערכת החושית.
10:00
But you can imagineלדמיין looking insideבְּתוֹך the brainמוֹחַ.
251
585000
2000
אבל נדמיין שניתן להתבונן לתוך המוח.
10:02
And here'sהנה insideבְּתוֹך the brainמוֹחַ.
252
587000
2000
זה פנים המוח.
10:04
You mightאולי have a little predictorמְנַבֵּא, a neuralעֲצַבִּי simulatorמַדמֶה,
253
589000
2000
יכול להיות שיש אצלנו חזאי קטן, סימולטור עצבי,
10:06
of the physicsפיזיקה of your bodyגוּף and your sensesחושים.
254
591000
2000
לפיזיולוגיה של גופנו וחושינו.
10:08
So as you sendלִשְׁלוֹחַ a movementתְנוּעָה commandפקודה down,
255
593000
2000
כאשר שולחים פקודת תנועה לגוף,
10:10
you tapבֶּרֶז a copyעותק of that off
256
595000
2000
לוקחים העתק שלה
10:12
and runלָרוּץ it into your neuralעֲצַבִּי simulatorמַדמֶה
257
597000
2000
ומריצים אותה בסימולטור העצבי שלנו
10:14
to anticipateלְצַפּוֹת the sensoryחוּשִׁי consequencesהשלכות of your actionsפעולות.
258
599000
4000
כדי להקדים ולחזות את התוצאות החושיות של פעולתנו.
10:18
So as I shakeלְנַעֵר this ketchupקטשופ bottleבקבוק,
259
603000
2000
כך שכאשר אני מנער בקבוק קטשופ,
10:20
I get some trueנָכוֹן sensoryחוּשִׁי feedbackמָשׁוֹב as the functionפוּנקצִיָה of time in the bottomתַחתִית rowשׁוּרָה.
260
605000
3000
אני מקבל משוב חושי אמיתי כפונקציה של זמן בציר האופקי.
10:23
And if I've got a good predictorמְנַבֵּא, it predictsצופה the sameאותו thing.
261
608000
3000
אם יש אצלי חזאי טוב, הוא חוזה את אותו הדבר.
10:26
Well why would I botherלְהטרִיד doing that?
262
611000
2000
מדוע שאטרח לעשות את כל זה?
10:28
I'm going to get the sameאותו feedbackמָשׁוֹב anywayבכל מקרה.
263
613000
2000
בכל מקרה אני הולך לקבל אותו משוב.
10:30
Well there's good reasonsסיבות.
264
615000
2000
יש לזה סיבות טובות.
10:32
Imagineלדמיין, as I shakeלְנַעֵר the ketchupקטשופ bottleבקבוק,
265
617000
2000
נדמיין שבעודי מנער את בקבוק הקטשופ,
10:34
someoneמִישֶׁהוּ very kindlyאָדִיב comesבא up to me and tapsברזים it on the back for me.
266
619000
3000
מישהו בא וטופח עליו מאחור כדי לעזור לי.
10:37
Now I get an extraתוֹסֶפֶת sourceמָקוֹר of sensoryחוּשִׁי informationמֵידָע
267
622000
2000
כעת יש לי מקור נוסף של מידע חושי
10:39
dueעקב to that externalחיצוני actפעולה.
268
624000
2000
בגלל הפעולה החיצונית הזו.
10:41
So I get two sourcesמקורות.
269
626000
2000
לכן יש לי שני מקורות.
10:43
I get you tappingהַקָשָׁה on it, and I get me shakingרְעִידָה it,
270
628000
3000
אני מקבל מהטפיחה ואני מקבל מהניעור,
10:46
but from my senses'חושים' pointנְקוּדָה of viewנוף,
271
631000
2000
אבל מבחינת החושים שלי,
10:48
that is combinedמְשׁוּלָב togetherיַחַד into one sourceמָקוֹר of informationמֵידָע.
272
633000
3000
זה משתלב ביחד למקור מידע אחד.
10:51
Now there's good reasonסיבה to believe
273
636000
2000
יש סיבה טובה להאמין שהיינו רוצים
10:53
that you would want to be ableיכול to distinguishלְהַבחִין externalחיצוני eventsאירועים from internalפְּנִימִי eventsאירועים.
274
638000
3000
להיות מסוגלים להבחין בין אירועים חיצוניים לאירועים פנימיים.
10:56
Because externalחיצוני eventsאירועים are actuallyלמעשה much more behaviorallyהתנהגותי relevantרלוונטי
275
641000
3000
כי אירועים חיצוניים נוגעים הרבה יותר להתנהגות
10:59
than feelingמַרגִישׁ everything that's going on insideבְּתוֹך my bodyגוּף.
276
644000
3000
לעומת התחושה של כל מה שקורה בגוף שלנו.
11:02
So one way to reconstructלְשַׁחְזֵר that
277
647000
2000
לכן דרך חדשה לסדר את זה
11:04
is to compareלְהַשְׁווֹת the predictionנְבוּאָה --
278
649000
2000
היא להשוות את התחזית --
11:06
whichאיזה is only basedמבוסס on your movementתְנוּעָה commandsפקודות --
279
651000
2000
המתבססת רק על פקודות התנועה שלנו --
11:08
with the realityמְצִיאוּת.
280
653000
2000
עם המציאות.
11:10
Any discrepancyאִי הַתְאָמָה should hopefullyבתקווה be externalחיצוני.
281
655000
3000
רצוי שכל אי-התאמה תהיה חיצונית.
11:13
So as I go around the worldעוֹלָם,
282
658000
2000
כך שבעודי מתהלך בעולם,
11:15
I'm makingהֲכָנָה predictionsתחזיות of what I should get, subtractingמְחַסֵר them off.
283
660000
3000
אני עושה תחזיות של מה שאני אמור להיתקל בו ומחסיר אותן.
11:18
Everything left over is externalחיצוני to me.
284
663000
2000
כל מה שנותר הוא חיצוני עבורי.
11:20
What evidenceעֵדוּת is there for this?
285
665000
2000
איזה ראיות יש לנו על זה?
11:22
Well there's one very clearברור exampleדוגמא
286
667000
2000
יש דוגמא אחת מאוד ברורה
11:24
where a sensationתְחוּשָׁה generatedשנוצר by myselfעצמי feelsמרגיש very differentשונה
287
669000
2000
בה תחושה שאני בעצמי יוצר, גורמת הרגשה מאוד שונה
11:26
then if generatedשנוצר by anotherאַחֵר personאדם.
288
671000
2000
מאשר אותה תחושה הנוצרת על-ידי אדם אחר.
11:28
And so we decidedהחליט the mostרוב obviousברור placeמקום to startהַתחָלָה
289
673000
2000
לכן החלטנו שהדבר המובן מאליו להתחיל בו
11:30
was with ticklingדִגדוּג.
290
675000
2000
הוא דיגדוג.
11:32
It's been knownידוע for a long time, you can't tickleלְדַגדֵג yourselfעַצמְךָ
291
677000
2000
ידוע כבר זמן רב שלא ניתן לדגדג את עצמך
11:34
as well as other people can.
292
679000
2000
באותה מידה שבה אחרים יכולים.
11:36
But it hasn'tלא really been shownמוצג, it's because you have a neuralעֲצַבִּי simulatorמַדמֶה,
293
681000
3000
אבל זה אף פעם לא ממש הודגם כי יש אצלנו סימולטור טבעי,
11:39
simulatingסימולציה your ownשֶׁלוֹ bodyגוּף
294
684000
2000
המדמה את הגוף שלנו עצמנו
11:41
and subtractingמְחַסֵר off that senseלָחוּשׁ.
295
686000
2000
והמחסיר את החוש הזה.
11:43
So we can bringלְהָבִיא the experimentsניסויים of the 21stרחוב centuryמֵאָה
296
688000
3000
כעת אנו מביאים את הניסויים למאה ה-21
11:46
by applyingיישום roboticרובוטית technologiesטכנולוגיות to this problemבְּעָיָה.
297
691000
3000
באמצעות יישום טכנולוגיות רובוטיות לבעיה זו.
11:49
And in effectהשפעה, what we have is some sortסוג of stickמקל in one handיד attachedמְצוֹרָף to a robotרוֹבּוֹט,
298
694000
3000
למעשה, יש לנו מין מקל ביד אחת המחוברת לרובוט,
11:52
and they're going to moveמהלך \ לזוז \ לעבור that back and forwardקָדִימָה.
299
697000
2000
והם הולכים להזיז אותה קדימה ואחורה.
11:54
And then we're going to trackמַסלוּל that with a computerמַחשֵׁב
300
699000
2000
אנו הולכים לעקוב אחרי זה בעזרת מחשב
11:56
and use it to controlלִשְׁלוֹט anotherאַחֵר robotרוֹבּוֹט,
301
701000
2000
ולהשתמש בו כדי לשלוט על רובוט אחר,
11:58
whichאיזה is going to tickleלְדַגדֵג theirשֶׁלָהֶם palmכַּף הַיָד with anotherאַחֵר stickמקל.
302
703000
2000
אשר עומד לדגדג את כף-ידם עם מקל אחר.
12:00
And then we're going to askלִשְׁאוֹל them to rateציון a bunchצְרוֹר of things
303
705000
2000
אנו נבקשם לדרג מספר דברים
12:02
includingלְרַבּוֹת ticklishnessדגדוג.
304
707000
2000
כולל הרגישות לדיגדוג.
12:04
I'll showלְהַצִיג you just one partחֵלֶק of our studyלימוד.
305
709000
2000
אציג לכם רק חלק אחד של המחקר.
12:06
And here I've takenנלקח away the robotsרובוטים,
306
711000
2000
כאן הרחקנו את הרובוטים,
12:08
but basicallyבעיקרון people moveמהלך \ לזוז \ לעבור with theirשֶׁלָהֶם right armזְרוֹעַ sinusoidallyסינוסי back and forwardקָדִימָה.
307
713000
3000
אבל עדיין אנשים מזיזים את זרועם קדימה ואחורה
12:11
And we replayשידור חוזר that to the other handיד with a time delayלְעַכֵּב.
308
716000
3000
ואנו משחזרים את התנועה על גבי היד השניה באיחור של זמן.
12:14
Eitherאוֹ no time delayלְעַכֵּב,
309
719000
2000
או ללא איחור זמן,
12:16
in whichאיזה caseמקרה lightאוֹר would just tickleלְדַגדֵג your palmכַּף הַיָד,
310
721000
2000
שבמקרה כזה כאילו האור מדגדג את כף-היד,
12:18
or with a time delayלְעַכֵּב of two-tenthsשתי עשיריות of three-tenthsשלוש עשיריות of a secondשְׁנִיָה.
311
723000
4000
או באיחור זמן של שתיים או שלוש עשיריות שניה.
12:22
So the importantחָשׁוּב pointנְקוּדָה here
312
727000
2000
הנקודה החשובה כאן היא
12:24
is the right handיד always does the sameאותו things -- sinusoidalסינוסי movementתְנוּעָה.
313
729000
3000
שיד ימין עושה תמיד אותו הדבר -- תנועה גלית.
12:27
The left handיד always is the sameאותו and putsמעמיד sinusoidalסינוסי tickleלְדַגדֵג.
314
732000
3000
יד שמאל היא באותו מצב ורושמת את הדיגדוג הגלי.
12:30
All we're playingמשחק with is a tempoטֶמפּוֹ causalityסִבָּתִיוּת.
315
735000
2000
כל מה שאנו משנים זה התיזמון.
12:32
And as we go from naughtאֶפֶס to 0.1 secondשְׁנִיָה,
316
737000
2000
כאשר עוברים מאפס ל-0.1 שניה,
12:34
it becomesהופך more ticklishמתקתק.
317
739000
2000
הרגישות לדיגדוג עולה.
12:36
As you go from 0.1 to 0.2,
318
741000
2000
כאשר עוברים מ-0.1 ל-0.2,
12:38
it becomesהופך more ticklishמתקתק at the endסוֹף.
319
743000
2000
הרגישות עולה עוד.
12:40
And by 0.2 of a secondשְׁנִיָה,
320
745000
2000
ב-0.2 שניות,
12:42
it's equivalentlyמקביל ticklishמתקתק
321
747000
2000
זה מדגדג באותה מידה
12:44
to the robotרוֹבּוֹט that just tickledדגדגה you withoutלְלֹא you doing anything.
322
749000
2000
כמו הרובוט שדיגדג מבלי שהמשתתף עשה משהו.
12:46
So whateverמה שתגיד is responsibleאחראי for this cancellationביטול
323
751000
2000
לא משנה מה אחראי לביטול זה,
12:48
is extremelyמְאוֹד tightlyבחוזקה coupledמְצוּמָד with tempoטֶמפּוֹ causalityסִבָּתִיוּת.
324
753000
3000
זה קשור באופן הדוק לתיזמון.
12:51
And basedמבוסס on this illustrationאִיוּר, we really convincedמְשׁוּכנָע ourselvesבְּעָצמֵנוּ in the fieldשדה
325
756000
3000
בהתבסס על המחשה זו, הגענו למסקנה
12:54
that the brain'sמוֹחַ makingהֲכָנָה preciseמְדוּיָק predictionsתחזיות
326
759000
2000
שהמוח עושה חיזויים מדוייקים
12:56
and subtractingמְחַסֵר them off from the sensationsתחושות.
327
761000
3000
ומחסיר אותם מהתחושות.
12:59
Now I have to admitלְהוֹדוֹת, these are the worstהכי גרוע studiesלימודים my labמַעבָּדָה has ever runלָרוּץ.
328
764000
3000
אבל עליי להודות שאלה המחקרים הכי גרועים שבוצעו במעבדה שלי.
13:02
Because the tickleלְדַגדֵג sensationתְחוּשָׁה on the palmכַּף הַיָד comesבא and goesהולך,
329
767000
2000
כי בגלל שתחושת הדיגדוג על כף-היד באה והולכת,
13:04
you need largeגָדוֹל numbersמספרים of subjectsנושאים
330
769000
2000
יש צורך במספר גדול של משתתפים
13:06
with these starsכוכבים makingהֲכָנָה them significantמשמעותי.
331
771000
2000
כדי שזה יהיה משמעותי.
13:08
So we were looking for a much more objectiveמַטָרָה way
332
773000
2000
לכן אנו מחפשים דרך הרבה יותר אובייקטיבית
13:10
to assessלְהַעֲרִיך this phenomenaתופעות.
333
775000
2000
כדי לאמוד את התופעה.
13:12
And in the interveningמתערבת yearsשנים I had two daughtersבנות.
334
777000
2000
בינתיים נולדו לי שתי בנות.
13:14
And one thing you noticeהודעה about childrenיְלָדִים in backseatsבמושב האחורי of carsמכוניות on long journeysמסעות,
335
779000
3000
ואחד הדברים שמבחינים בהם בנוגע לילדים במושבים אחוריים של מכונית
13:17
they get into fightsקרבות --
336
782000
2000
הוא שהם מתחילים לריב --
13:19
whichאיזה startedהתחיל with one of them doing something to the other, the other retaliatingתגובה.
337
784000
3000
זה מתחיל עם אחד שעושה משהו לאחר וזה מגיב.
13:22
It quicklyבִּמְהִירוּת escalatesהסלים.
338
787000
2000
וזה מסלים במהירות.
13:24
And childrenיְלָדִים tendנוטה to get into fightsקרבות whichאיזה escalateלְהַסלִים in termsמונחים of forceכּוֹחַ.
339
789000
3000
ילדים נוטים להתחיל מריבות המסלימות במונחים של כוח.
13:27
Now when I screamedצרחתי at my childrenיְלָדִים to stop,
340
792000
2000
כאשר צרחתי על ילדותיי להפסיק,
13:29
sometimesלִפְעָמִים they would bothשניהם say to me
341
794000
2000
לפעמים שתיהן היו אומרות לי
13:31
the other personאדם hitמכה them harderקשה יותר.
342
796000
3000
שהשניה הרביצה יותר חזק.
13:34
Now I happenלִקְרוֹת to know my childrenיְלָדִים don't lieשקר,
343
799000
2000
אני יודע שילדותיי לא משקרות,
13:36
so I thought, as a neuroscientistמדענית מוח,
344
801000
2000
לכן חשבתי, בתור חוקר מערכות עצב,
13:38
it was importantחָשׁוּב how I could explainלהסביר
345
803000
2000
שזה חשוב יהיה להסביר
13:40
how they were tellingאומר inconsistentלא עקבי truthsאמיתות.
346
805000
2000
כיצד הן סיפרו אמיתות לא קוהרנטיות.
13:42
And we hypothesizeלשער basedמבוסס on the ticklingדִגדוּג studyלימוד
347
807000
2000
הנחנו בהתבסס על מחקר הדיגדוג
13:44
that when one childיֶלֶד hitsלהיטים anotherאַחֵר,
348
809000
2000
שכאשר ילד אחד מכה את השני,
13:46
they generateלִיצוֹר the movementתְנוּעָה commandפקודה.
349
811000
2000
הוא מייצר פקודת תנועה.
13:48
They predictלַחֲזוֹת the sensoryחוּשִׁי consequencesהשלכות and subtractלְחַסֵר it off.
350
813000
3000
הוא חוזה את התוצאות החושיות ומחסיר אותן.
13:51
So they actuallyלמעשה think they'veהם כבר hitמכה the personאדם lessפָּחוּת hardקָשֶׁה than they have --
351
816000
2000
לכן הוא למעשה חושב שהוא היכה פחות חזק מאשר בפועל --
13:53
ratherבמקום like the ticklingדִגדוּג.
352
818000
2000
בערך כמו הדיגדוג.
13:55
Whereasואילו the passiveפַּסִיבִי recipientמקבל
353
820000
2000
בעוד שהסופג הפסיבי
13:57
doesn't make the predictionנְבוּאָה, feelsמרגיש the fullמלא blowלנשוף.
354
822000
2000
אינו עושה חיזוי ולכן מרגיש את מלוא העוצמה.
13:59
So if they retaliateלִנְקוֹם with the sameאותו forceכּוֹחַ,
355
824000
2000
אם הוא מחזיר באותה עוצמה,
14:01
the first personאדם will think it's been escalatedהסלים.
356
826000
2000
הראשון יחשוב שהמצב הסלים.
14:03
So we decidedהחליט to testמִבְחָן this in the labמַעבָּדָה.
357
828000
2000
לכן החלטנו לבדוק זאת במעבדה.
14:05
(Laughterצחוק)
358
830000
3000
(צחוק)
14:08
Now we don't work with childrenיְלָדִים, we don't work with hittingלהכות,
359
833000
2000
אנו לא עובדים עם ילדים ולא עם מכות,
14:10
but the conceptמוּשָׂג is identicalזֵהֶה.
360
835000
2000
אבל הרעיון נשאר.
14:12
We bringלְהָבִיא in two adultsמבוגרים. We tell them they're going to playלְשַׂחֵק a gameמִשְׂחָק.
361
837000
3000
מביאים שני בוגרים. מספרים להם שהם הולכים לשחק משחק.
14:15
And so here'sהנה playerשחקן one and playerשחקן two sittingיְשִׁיבָה oppositeמול to eachכל אחד other.
362
840000
2000
הנה שני השחקנים היושבים זה מול זה.
14:17
And the gameמִשְׂחָק is very simpleפָּשׁוּט.
363
842000
2000
המשחק מאוד פשוט.
14:19
We startedהתחיל with a motorמָנוֹעַ
364
844000
2000
התחלנו עם מנוע
14:21
with a little leverמָנוֹף, a little forceכּוֹחַ transfuserממסר.
365
846000
2000
שיש לו ידית המעבירה כוח.
14:23
And we use this motorמָנוֹעַ to applyלהגיש מועמדות forceכּוֹחַ down to playerשחקן one'sיחידות fingersאצבעות
366
848000
2000
משתמשים במנוע להפעיל כוח כלפי מטה על אצבע
14:25
for threeשְׁלוֹשָׁה secondsשניות and then it stopsמפסיק.
367
850000
3000
של שחקן 1 במשך 3 שניות ואז להפסיק.
14:28
And that player'sשל השחקן been told, rememberלִזכּוֹר the experienceניסיון of that forceכּוֹחַ
368
853000
3000
מבקשים מאותו שחקן שיזכור את תחושת הכוח
14:31
and use your other fingerאֶצבַּע
369
856000
2000
ושישתמש באצבעו האחרת
14:33
to applyלהגיש מועמדות the sameאותו forceכּוֹחַ
370
858000
2000
להפעיל את אותו הכוח
14:35
down to the other subject'sהנושא של fingerאֶצבַּע throughדרך a forceכּוֹחַ transfuserממסר -- and they do that.
371
860000
3000
על אצבע השחקן האחר באמצעות הידית, וכך הם עשו.
14:38
And playerשחקן two'sשניים been told, rememberלִזכּוֹר the experienceניסיון of that forceכּוֹחַ.
372
863000
3000
לשחקן 2 אומרים שיזכור את תחושת הכוח.
14:41
Use your other handיד to applyלהגיש מועמדות the forceכּוֹחַ back down.
373
866000
3000
שישתמש בידו השניה להפעיל כוח בחזרה.
14:44
And so they take it in turnsפונה
374
869000
2000
וכך זה קורה במחזוריות
14:46
to applyלהגיש מועמדות the forceכּוֹחַ they'veהם כבר just experiencedמְנוּסֶה back and forwardקָדִימָה.
375
871000
2000
בה הם מפעילים כוח שהם חוו זה עתה.
14:48
But criticallyבאופן ביקורתי,
376
873000
2000
אבל יש דבר אחד חשוב,
14:50
they're briefedתודרך about the rulesכללים of the gameמִשְׂחָק in separateנפרד roomsחדרים.
377
875000
3000
הם מתודרכים בנפרד זה מזה על חוקי המשחק.
14:53
So they don't know the rulesכללים the other person'sשל אדם playingמשחק by.
378
878000
2000
לכן הם אינם מכירים את החוקים לפיהם האחר משחק.
14:55
And what we'veיש לנו measuredנמדד
379
880000
2000
ומה שמדדנו
14:57
is the forceכּוֹחַ as a functionפוּנקצִיָה of termsמונחים.
380
882000
2000
זה את הכוח כפונקציה של מחזורים.
14:59
And if we look at what we startהַתחָלָה with,
381
884000
2000
אם מסתכלים עם מה התחלנו,
15:01
a quarterרובע of a Newtonניוטון there, a numberמספר of turnsפונה,
382
886000
2000
רבע ניוטון שם, מס' מחזורים,
15:03
perfectמושלם would be that redאָדוֹם lineקַו.
383
888000
2000
הדבר המושלם זה הקו האדום שם.
15:05
And what we see in all pairsזוגות of subjectsנושאים is this --
384
890000
3000
ומה שרואים בכל הזוגות שהשתתפו זה --
15:08
a 70 percentאָחוּז escalationהַסלָמָה in forceכּוֹחַ
385
893000
2000
עליה של 70 אחוז בכוח
15:10
on eachכל אחד go.
386
895000
2000
בכל מחזור.
15:12
So it really suggestsמציע, when you're doing this --
387
897000
2000
זה מרמז שכאשר עושים את זה --
15:14
basedמבוסס on this studyלימוד and othersאחרים we'veיש לנו doneבוצע --
388
899000
2000
לפי מחקר זה ומחקרים אחרים שעשינו --
15:16
that the brainמוֹחַ is cancelingמבטל the sensoryחוּשִׁי consequencesהשלכות
389
901000
2000
המוח מבטל את התחושות החושיות
15:18
and underestimatingלזלזל the forceכּוֹחַ it's producingייצור.
390
903000
2000
וממעיט בערך של הכוח שהוא מייצר.
15:20
So it re-showsמראה מחדש the brainמוֹחַ makesעושה predictionsתחזיות
391
905000
2000
זה מוכיח מחדש שהמוח עושה תחזיות
15:22
and fundamentallyבִּיסוֹדוֹ changesשינויים the preceptsמצוות.
392
907000
3000
ומיסודו משנה את הפקודות.
15:25
So we'veיש לנו madeעָשׂוּי inferencesהסברים, we'veיש לנו doneבוצע predictionsתחזיות,
393
910000
3000
אם כך, הסקנו מסקנות, עשינו תחזיות,
15:28
now we have to generateלִיצוֹר actionsפעולות.
394
913000
2000
כעת עלינו לייצר פעולות.
15:30
And what Bayes'Bayes ' ruleכְּלָל saysאומר is, givenנָתוּן my beliefsאמונות,
395
915000
2000
ומה שחוק בייסיאני אומר הוא שבאמונותיי הנתונות,
15:32
the actionפעולה should in some senseלָחוּשׁ be optimalאוֹפְּטִימָלִי.
396
917000
2000
הפעולה במובן מסויים צריכה להיות המיטבית.
15:34
But we'veיש לנו got a problemבְּעָיָה.
397
919000
2000
אבל יש כאן בעיה.
15:36
Tasksמשימות are symbolicסִמלִי -- I want to drinkלִשְׁתוֹת, I want to danceלִרְקוֹד --
398
921000
3000
משימות הן סימבוליות -- אני רוצה לשתות, רוצה לרקוד --
15:39
but the movementתְנוּעָה systemמערכת has to contractחוֹזֶה 600 musclesשרירים
399
924000
2000
אבל מערכת התנועה צריכה לכווץ 600 שרירים
15:41
in a particularמיוחד sequenceסדר פעולות.
400
926000
2000
בסדר מאוד מסויים.
15:43
And there's a bigגָדוֹל gapפער
401
928000
2000
וזה הפער הגדול
15:45
betweenבֵּין the taskמְשִׁימָה and the movementתְנוּעָה systemמערכת.
402
930000
2000
בין המשימה ומערכת התנועה.
15:47
So it could be bridgedגישור in infinitelyללא הרף manyרב differentשונה waysדרכים.
403
932000
2000
ניתן לגשר על זה בהמון דרכים שונות.
15:49
So think about just a pointנְקוּדָה to pointנְקוּדָה movementתְנוּעָה.
404
934000
2000
תחשבו רק על תנועה מנקודה אחת לשניה.
15:51
I could chooseבחר these two pathsנתיבים
405
936000
2000
ניתן לבחור בשני מסלולים הללו
15:53
out of an infiniteאֵינְסוֹף numberמספר of pathsנתיבים.
406
938000
2000
מתוך מספר אין-סופי של מסלולים.
15:55
Havingלאחר chosenנִבחָר a particularמיוחד pathנָתִיב,
407
940000
2000
בהיבחר מסלול מסויים,
15:57
I can holdלְהַחזִיק my handיד on that pathנָתִיב
408
942000
2000
אפשר להחזיק את היד מעל אותו מסלול
15:59
as infinitelyללא הרף manyרב differentשונה jointמשותף configurationsתצורות.
409
944000
2000
באופנים שונים כמספר מצבי המפרק השונים.
16:01
And I can holdלְהַחזִיק my armזְרוֹעַ in a particularמיוחד jointמשותף configurationתְצוּרָה
410
946000
2000
וניתן להחזיק את היד בתנוחת מפרק מסויימת,
16:03
eitherאוֹ very stiffנוּקשֶׁה or very relaxedרָגוּעַ.
411
948000
2000
או במצב קשיח או במצב נרפה.
16:05
So I have a hugeעָצוּם amountכמות of choiceבְּחִירָה to make.
412
950000
3000
כך שיש מספר עצום של בחירות לעשות.
16:08
Now it turnsפונה out, we are extremelyמְאוֹד stereotypicalסטריאוטיפי.
413
953000
3000
כעת מתברר שאנו מאוד צפויים.
16:11
We all moveמהלך \ לזוז \ לעבור the sameאותו way prettyיפה much.
414
956000
3000
כולנו נעים בקירוב באותו אופן.
16:14
And so it turnsפונה out we're so stereotypicalסטריאוטיפי,
415
959000
2000
מסתבר שאנו כה צפויים
16:16
our brainsמוֹחַ have got dedicatedמוּקדָשׁ neuralעֲצַבִּי circuitryמעגלים
416
961000
2000
שבמוחנו קיים מעגל עצבי ייעודי
16:18
to decodeלְפַעֲנֵחַ this stereotypingסטריאוטיפים.
417
963000
2000
כדי לפענח את צופן ההתנהגות הצפויה הזו.
16:20
So if I take some dotsנקודות
418
965000
2000
כך שאם לוקחים כמה נקודות
16:22
and setמַעֲרֶכֶת them in motionתְנוּעָה with biologicalבִּיוֹלוֹגִי motionתְנוּעָה,
419
967000
3000
ומניעים אותן בתנועה ביולוגית,
16:25
your brain'sמוֹחַ circuitryמעגלים would understandמבין instantlyבאופן מיידי what's going on.
420
970000
3000
המעגל במוחנו יתפוס מייד מה קורה כאן.
16:28
Now this is a bunchצְרוֹר of dotsנקודות movingמעבר דירה.
421
973000
2000
זו קבוצת נקודות נעה.
16:30
You will know what this personאדם is doing,
422
975000
3000
ישר יודעים מה הדמות הזו עושה,
16:33
whetherהאם happyשַׂמֵחַ, sadעָצוּב, oldישן, youngצָעִיר -- a hugeעָצוּם amountכמות of informationמֵידָע.
423
978000
3000
אם שמחה, עצובה, קשישה, צעירה -- כמות מידע אדירה.
16:36
If these dotsנקודות were carsמכוניות going on a racingמרוץ circuitמעגל חשמלי,
424
981000
2000
אם נקודות הללו היו מכוניות במסלול מרוצים,
16:38
you would have absolutelyבהחלט no ideaרַעְיוֹן what's going on.
425
983000
3000
לא היה לכם מושג מה קורה כאן.
16:41
So why is it
426
986000
2000
אז מדוע
16:43
that we moveמהלך \ לזוז \ לעבור the particularמיוחד waysדרכים we do?
427
988000
2000
אנו נעים במסלולים מסויימים?
16:45
Well let's think about what really happensקורה.
428
990000
2000
הבה נחשוב מה באמת מתרחש כאן.
16:47
Maybe we don't all quiteדַי moveמהלך \ לזוז \ לעבור the sameאותו way.
429
992000
3000
אולי אנו לא לגמרי נעים באותו מסלול.
16:50
Maybe there's variationוָרִיאַצִיָה in the populationאוּכְלוֹסִיָה.
430
995000
2000
אולי יש שוני באוכלוסיה.
16:52
And maybe those who moveמהלך \ לזוז \ לעבור better than othersאחרים
431
997000
2000
ואולי כאלה הנעים יותר טוב מאחרים
16:54
have got more chanceהִזדַמְנוּת of gettingמקבל theirשֶׁלָהֶם childrenיְלָדִים into the nextהַבָּא generationדוֹר.
432
999000
2000
הם בעלי סיכויים יותר טובים להוליד צאצאים.
16:56
So in evolutionaryאֵבוֹלוּצִיוֹנִי scalesמאזניים, movementsתנועות get better.
433
1001000
3000
לכן בקנה-מידה אבולוציוני, התנועות משתפרות.
16:59
And perhapsאוּלַי in life, movementsתנועות get better throughדרך learningלְמִידָה.
434
1004000
3000
ואולי בחיים, התנועות משתפרות דרך למידה.
17:02
So what is it about a movementתְנוּעָה whichאיזה is good or badרַע?
435
1007000
2000
אז מה טוב ומה רע בתנועה?
17:04
Imagineלדמיין I want to interceptלעכב this ballכַּדוּר.
436
1009000
2000
תחשבו שברצוני לתפוס כדור זה.
17:06
Here are two possibleאפשרי pathsנתיבים to that ballכַּדוּר.
437
1011000
3000
הנה שני מסלולים אפשריים אל אותו כדור.
17:09
Well if I chooseבחר the left-handיד שמאל pathנָתִיב,
438
1014000
2000
אם אני בוחר את המסלול השמאלי,
17:11
I can work out the forcesכוחות requiredנדרש
439
1016000
2000
אוכל לחשב את הכוחות הדרושים
17:13
in one of my musclesשרירים as a functionפוּנקצִיָה of time.
440
1018000
2000
באחד משריריי כפונקציה של זמן.
17:15
But there's noiseרַעַשׁ addedהוסיף to this.
441
1020000
2000
אבל נוסף לזה רעש.
17:17
So what I actuallyלמעשה get, basedמבוסס on this lovelyיָפֶה, smoothחלק, desiredהרצוי forceכּוֹחַ,
442
1022000
3000
לכן מה שאקבל, בהתבסס על הכוח החמוד, החלק והרצוי,
17:20
is a very noisyרוֹעֵשׁ versionגִרְסָה.
443
1025000
2000
זו גירסה מאוד רועשת.
17:22
So if I pickלִבחוֹר the sameאותו commandפקודה throughדרך manyרב timesפִּי,
444
1027000
3000
לכן אם אבחר באותה פקודה הרבה פעמים,
17:25
I will get a differentשונה noisyרוֹעֵשׁ versionגִרְסָה eachכל אחד time, because noiseרַעַשׁ changesשינויים eachכל אחד time.
445
1030000
3000
אקבל כל פעם גירסה רועשת אחרת, כי הרעש משתנה בכל פעם.
17:28
So what I can showלְהַצִיג you here
446
1033000
2000
לכן מה שאוכל להראות לכם כאן
17:30
is how the variabilityהִשׁתַנוּת of the movementתְנוּעָה will evolveלְהִתְפַּתֵחַ
447
1035000
2000
זה כיצד תתפתח ההשתנות של התנועה
17:32
if I chooseבחר that way.
448
1037000
2000
אם אני בוחר בדרך ההיא.
17:34
If I chooseבחר a differentשונה way of movingמעבר דירה -- on the right for exampleדוגמא --
449
1039000
3000
אם אבחר בדרך אחרת של תנועה -- הימנית לדוגמא --
17:37
then I'll have a differentשונה commandפקודה, differentשונה noiseרַעַשׁ,
450
1042000
2000
תהיה לי פקודה אחרת, רעש אחר.
17:39
playingמשחק throughדרך a noisyרוֹעֵשׁ systemמערכת, very complicatedמסובך.
451
1044000
3000
מאוד מסובך לתפקד במערכת רועשת.
17:42
All we can be sure of is the variabilityהִשׁתַנוּת will be differentשונה.
452
1047000
3000
ניתן רק להיות בטוח שההשתנות תהיה שונה.
17:45
If I moveמהלך \ לזוז \ לעבור in this particularמיוחד way,
453
1050000
2000
אם אנוע במסלול מסויים זה,
17:47
I endסוֹף up with a smallerקטן יותר variabilityהִשׁתַנוּת acrossלְרוֹחָב manyרב movementsתנועות.
454
1052000
3000
אסיים בהשתנות יותר נמוכה לאחר תנועות רבות.
17:50
So if I have to chooseבחר betweenבֵּין those two,
455
1055000
2000
לכן אם עליי לבחור בין שתי אלו,
17:52
I would chooseבחר the right one because it's lessפָּחוּת variableמִשְׁתַנֶה.
456
1057000
2000
אבחר את הימנית כי היא פחות משתנה.
17:54
And the fundamentalבסיסי ideaרַעְיוֹן
457
1059000
2000
הרעיון הבסיסי הוא
17:56
is you want to planלְתַכְנֵן your movementsתנועות
458
1061000
2000
שרוצים לתכנן את התנועות כך
17:58
so as to minimizeלְצַמְצֵם the negativeשלילי consequenceתוֹצָאָה of the noiseרַעַשׁ.
459
1063000
3000
שההשפעה השלילית של הרעש תהיה מינימלית.
18:01
And one intuitionאינטואיציה to get
460
1066000
2000
תובנה אחת שמתקבלת היא
18:03
is actuallyלמעשה the amountכמות of noiseרַעַשׁ or variabilityהִשׁתַנוּת I showלְהַצִיג here
461
1068000
2000
שכמות הרעש או ההשתנות שאני מראה כאן
18:05
getsמקבל biggerגדול יותר as the forceכּוֹחַ getsמקבל biggerגדול יותר.
462
1070000
2000
עולה ככל שהכוח מתגבר.
18:07
So you want to avoidלְהִמָנַע bigגָדוֹל forcesכוחות as one principleעִקָרוֹן.
463
1072000
3000
לכן כדאי להימנע מכוחות גדולים בתור עיקרון ראשון.
18:10
So we'veיש לנו shownמוצג that usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני this,
464
1075000
2000
הראנו שבאמצעות זה,
18:12
we can explainלהסביר a hugeעָצוּם amountכמות of dataנתונים --
465
1077000
2000
ניתן להסביר כמות אדירה של נתונים --
18:14
that exactlyבְּדִיוּק people are going about theirשֶׁלָהֶם livesחיים planningתִכנוּן movementsתנועות
466
1079000
3000
שאנשים מתנהלים בחייהם ומתכננים תנועות
18:17
so as to minimizeלְצַמְצֵם negativeשלילי consequencesהשלכות of noiseרַעַשׁ.
467
1082000
3000
כך שההשפעות השליליות של רעש יהיו מינימליות.
18:20
So I hopeלְקַווֹת I've convincedמְשׁוּכנָע you the brainמוֹחַ is there
468
1085000
2000
אני מקוה ששיכנעתי אתכם שהמוח קיים
18:22
and evolvedהתפתח to controlלִשְׁלוֹט movementתְנוּעָה.
469
1087000
2000
והתפתח כדי לשלוט בתנועה.
18:24
And it's an intellectualאִינטֶלֶקְטוּאַלִי challengeאתגר to understandמבין how we do that.
470
1089000
3000
וזה אתגר מחשבתי להבין כיצד אנו משיגים זאת.
18:27
But it's alsoגַם relevantרלוונטי
471
1092000
2000
אבל זה גם נוגע
18:29
for diseaseמַחֲלָה and rehabilitationשיקום.
472
1094000
2000
למחלות ושיקום.
18:31
There are manyרב diseasesמחלות whichאיזה effectהשפעה movementתְנוּעָה.
473
1096000
3000
ישנן הרבה מחלות המשפיעות על תנועה.
18:34
And hopefullyבתקווה if we understandמבין how we controlלִשְׁלוֹט movementתְנוּעָה,
474
1099000
2000
כולי תקוה שאם נבין כיצד שולטים בתנועה,
18:36
we can applyלהגיש מועמדות that to roboticרובוטית technologyטֶכנוֹלוֹגִיָה.
475
1101000
2000
נוכל ליישם זאת על טכנולוגיה רובוטית.
18:38
And finallyסוף כל סוף, I want to remindלְהַזכִּיר you,
476
1103000
2000
לבסוף, ברצוני להזכירכם, שכאשר אתם
18:40
when you see animalsבעלי חיים do what look like very simpleפָּשׁוּט tasksמשימות,
477
1105000
2000
רואים חיות העושות מה שנראה כמשימה פשוטה,
18:42
the actualמַמָשִׁי complexityמוּרכָּבוּת of what is going on insideבְּתוֹך theirשֶׁלָהֶם brainמוֹחַ
478
1107000
2000
המורכבות בפועל של מה שמתרחש במוחן
18:44
is really quiteדַי dramaticדְרָמָטִי.
479
1109000
2000
היא באמת מדהימה.
18:46
Thank you very much.
480
1111000
2000
תודה רבה לכם.
18:48
(Applauseתְשׁוּאוֹת)
481
1113000
8000
(מחיאות כפיים)
18:56
Chrisכריס Andersonאנדרסון: Quickמָהִיר questionשְׁאֵלָה for you, Danדן.
482
1121000
2000
כריס אנדרסון: שאלה קצרה דן.
18:58
So you're a movementתְנוּעָה -- (DWד"ו: Chauvinistשוביניסט.) -- chauvinistשוביניסט.
483
1123000
4000
ובכן אתה קנאי לתנועה -- (ד.ו.: קנאי) .
19:02
Does that mean that you think that the other things we think our brainsמוֹחַ are about --
484
1127000
3000
האם זה אומר שלפי דעתך הדברים האחרים שאנו סבורים שהמוח קיים עבורם --
19:05
the dreamingחולם, the yearningגַעגוּעִים, the fallingנופל in love and all these things --
485
1130000
3000
החלומות, הגעגוע, ההתאהבות ודברים כאלה --
19:08
are a kindסוג of sideצַד showלְהַצִיג, an accidentתְאוּנָה?
486
1133000
3000
הם מין מופע צדדי, מקריות?
19:11
DWד"ו: No, no, actuallyלמעשה I think they're all importantחָשׁוּב
487
1136000
2000
ד.ו.: לא, לא, למעשה אני סבור שהם כולם חשובים
19:13
to driveנהיגה the right movementתְנוּעָה behaviorהִתְנַהֲגוּת to get reproductionשִׁעתוּק in the endסוֹף.
488
1138000
3000
כדי לכוון להתנהגות תנועתית נכונה למען הרבייה בסוף.
19:16
So I think people who studyלימוד sensationתְחוּשָׁה or memoryזיכרון
489
1141000
3000
לכן אני חושב שאנשים החוקרים תחושות או זיכרון
19:19
withoutלְלֹא realizingמימוש why you're layingשוכב down memoriesזיכרונות of childhoodיַלדוּת.
490
1144000
2000
מבלי לגלות מדוע אנו שוכחים זיכרונות ילדות.
19:21
The factעוּבדָה that we forgetלשכוח mostרוב of our childhoodיַלדוּת, for exampleדוגמא,
491
1146000
3000
העובדה שאנו שוכחים את רוב ילדותינו, לדוגמא,
19:24
is probablyכנראה fine, because it doesn't effectהשפעה our movementsתנועות laterיותר מאוחר in life.
492
1149000
3000
זה כנראה בסדר גמור, כי זה לא משפיע על תנועותינו בשלב יותר מאוחר בחיים.
19:27
You only need to storeחֲנוּת things whichאיזה are really going to effectהשפעה movementתְנוּעָה.
493
1152000
3000
אנו רק זקוקים לאיחסון של מה שבאמת הולך להשפיע על תנועה.
19:30
CACA: So you think that people thinkingחושב about the brainמוֹחַ, and consciousnessתוֹדָעָה generallyבדרך כלל,
494
1155000
3000
כ.א.: אז אתה סבור שאנשים החושבים על המוח ותודעה,
19:33
could get realאמיתי insightתוֹבָנָה
495
1158000
2000
יכולים להגיע לתובנות ממשיות
19:35
by sayingפִּתגָם, where does movementתְנוּעָה playלְשַׂחֵק in this gameמִשְׂחָק?
496
1160000
2000
אם יחשבו איך התנועה ממלאת כאן תפקיד?
19:37
DWד"ו: So people have foundמצאתי out for exampleדוגמא
497
1162000
2000
ד.ו.: כך אנשים גילו לדוגמא שחקר הראיה
19:39
that studyingלומד visionחָזוֹן in the absenceהֶעְדֵר of realizingמימוש why you have visionחָזוֹן
498
1164000
2000
ללא הבנת הסיבה לקיום הראיה
19:41
is a mistakeטעות.
499
1166000
2000
הוא שגיאה.
19:43
You have to studyלימוד visionחָזוֹן with the realizationהִתמַמְשׁוּת
500
1168000
2000
צריך לחקור ראיה בהקשר של
19:45
of how the movementתְנוּעָה systemמערכת is going to use visionחָזוֹן.
501
1170000
2000
כיצד מערכת התנועה משתמשת בראיה.
19:47
And it usesשימו it very differentlyבאופן שונה onceפַּעַם you think about it that way.
502
1172000
2000
והיא משתמשת בה באופן מאוד שונה כאשר חושבים עליה בהקשר זה.
19:49
CACA: Well that was quiteדַי fascinatingמַקסִים. Thank you very much indeedאכן.
503
1174000
3000
כ.א.: זה מרתק. תודה רבה לך.
19:52
(Applauseתְשׁוּאוֹת)
504
1177000
2000
(מחיאות כפיים)
Translated by Yubal Masalker
Reviewed by Ido Dekkers

▲Back to top

ABOUT THE SPEAKER
Daniel Wolpert - Movement expert
A neuroscientist and engineer, Daniel Wolpert studies how the brain controls the body.

Why you should listen

Consider your hand. You use it to lift things, to balance yourself, to give and take, to sense the world. It has a range of interacting degrees of freedom, and it interacts with many different objects under a variety of environmental conditions. And for most of us, it all just works. At his lab in the Engineering department at Cambridge, Daniel Wolpert and his team are studying why, looking to understand the computations underlying the brain's sensorimotor control of the body.

As he says, "I believe that to understand movement is to understand the whole brain. And therefore it’s important to remember when you are studying memory, cognition, sensory processing, they’re there for a reason, and that reason is action.”  Movement is the only way we have of interacting with the world, whether foraging for food or attracting a waiter's attention. Indeed, all communication, including speech, sign language, gestures and writing, is mediated via the motor system. Taking this viewpoint, and using computational and robotic techniques as well as virtual reality systems, Wolpert and his team research the purpose of the human brain and the way it determines future actions.

 

 

More profile about the speaker
Daniel Wolpert | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee