ABOUT THE SPEAKER
Daniel Wolpert - Movement expert
A neuroscientist and engineer, Daniel Wolpert studies how the brain controls the body.

Why you should listen

Consider your hand. You use it to lift things, to balance yourself, to give and take, to sense the world. It has a range of interacting degrees of freedom, and it interacts with many different objects under a variety of environmental conditions. And for most of us, it all just works. At his lab in the Engineering department at Cambridge, Daniel Wolpert and his team are studying why, looking to understand the computations underlying the brain's sensorimotor control of the body.

As he says, "I believe that to understand movement is to understand the whole brain. And therefore it’s important to remember when you are studying memory, cognition, sensory processing, they’re there for a reason, and that reason is action.”  Movement is the only way we have of interacting with the world, whether foraging for food or attracting a waiter's attention. Indeed, all communication, including speech, sign language, gestures and writing, is mediated via the motor system. Taking this viewpoint, and using computational and robotic techniques as well as virtual reality systems, Wolpert and his team research the purpose of the human brain and the way it determines future actions.

 

 

More profile about the speaker
Daniel Wolpert | Speaker | TED.com
TEDGlobal 2011

Daniel Wolpert: The real reason for brains

دیوید ولپرت: دلیل اصلی وجود مغز

Filmed:
1,994,993 views

دانیل ولپرت، متخصص مغز و اعصاب، با فرضیه شگفتی آوری شروع میکند: مغز نه بخاطر فکر کردن یا حس کردن، بلکه برای کنترل کردن تحرک تکامل پیدا کرده است. او در این بحث سرگرم کننده و پر از اطلاعات، به ما نگاه و دید اجمالی ای میدهد، راجع به اینکه چگونه مغز ما ظرافت و مهارت تحرک انسانی رو بوجود می آورد.
- Movement expert
A neuroscientist and engineer, Daniel Wolpert studies how the brain controls the body. Full bio

Double-click the English transcript below to play the video.

00:15
I'm a neuroscientistعصب شناس.
0
0
2000
من متخصص مغز و اعصاب هستم.
00:17
And in neuroscienceعلوم اعصاب,
1
2000
2000
و در حوزه علم مغز و اعصاب،
00:19
we have to dealمعامله with manyبسیاری difficultدشوار questionsسوالات about the brainمغز.
2
4000
3000
ما باید با تعداد زیادی سوال سخت درباره مغز سر و کار داشته باشیم.
00:22
But I want to startشروع کن with the easiestآسان ترین questionسوال
3
7000
2000
ولی میخوام با ساده ترین اونها شروع کنم
00:24
and the questionسوال you really should have all askedپرسید: yourselvesخودت at some pointنقطه in your life,
4
9000
3000
و سوالی که همه شما باید یه موقعی در زندگی تون از خودتون پرسیده باشید،
00:27
because it's a fundamentalاساسی questionسوال
5
12000
2000
چون اگر بخوایم کارکرد مغز رو بفهمیم، این یه سوال اساسیه.
00:29
if we want to understandفهمیدن brainمغز functionعملکرد.
6
14000
2000
چون اگر بخوایم کارکرد مغز رو بفهمیم، این یه سوال اساسیه.
00:31
And that is, why do we and other animalsحیوانات
7
16000
2000
و اون سوال اینه که، چرا ما و دیگر حیوانات دارای مغز هستیم؟
00:33
have brainsمغز?
8
18000
2000
و اون سوال اینه که، چرا ما و دیگر حیوانات دارای مغز هستیم؟
00:35
Not all speciesگونه ها on our planetسیاره have brainsمغز,
9
20000
3000
همه موجودات روی زمین دارای مغز نیستند،
00:38
so if we want to know what the brainمغز is for,
10
23000
2000
بنابراین اگر بخواهیم بدونیم که مغز به چه دردی میخوره،
00:40
let's think about why we evolvedتکامل یافته است one.
11
25000
2000
بیاین درباره این فکر کنیم که چرا اون رو از طریق تکامل ساختیم.
00:42
Now you mayممکن است reasonدلیل that we have one
12
27000
2000
حالا شما ممکنه استدلالتون این باشه که ما برای درک جهان یا برای فکر کردن دارای مغز هستیم،
00:44
to perceiveدرک the worldجهان or to think,
13
29000
2000
حالا شما ممکنه استدلالتون این باشه که ما برای درک جهان یا برای فکر کردن دارای مغز هستیم،
00:46
and that's completelyبه صورت کامل wrongاشتباه.
14
31000
2000
و این استدلال کاملا غلطه.
00:48
If you think about this questionسوال for any lengthطول of time,
15
33000
3000
هرچقدر که شما به این سوال فکر کنید،
00:51
it's blindinglyواضح است obviousآشکار why we have a brainمغز.
16
36000
2000
بصورت خیره کننده ای مشخصه که چرا ما دارای مغز هستیم.
00:53
We have a brainمغز for one reasonدلیل and one reasonدلیل only,
17
38000
3000
ما مغز داریم بخاطر یک دلیل و فقط یک دلیل،
00:56
and that's to produceتولید کردن adaptableسازگار and complexپیچیده movementsحرکات.
18
41000
3000
و اون بخاطر تولید کردن حرکت های وفق پذیر و پیچیده اس.
00:59
There is no other reasonدلیل to have a brainمغز.
19
44000
2000
هیچ دلیل دیگه ای برای داشتن مغز وجود نداره.
01:01
Think about it.
20
46000
2000
بهش فکر کنید.
01:03
Movementجنبش is the only way you have
21
48000
2000
تحرک تنها راه برای اثر گذاشتن بر دنیای اطرافه.
01:05
of affectingموثر بر the worldجهان around you.
22
50000
2000
تحرک تنها راه برای اثر گذاشتن بر دنیای اطرافه.
01:07
Now that's not quiteکاملا trueدرست است. There's one other way, and that's throughاز طریق sweatingتعریق.
23
52000
3000
حالا اون هم کاملا درست نیست. یه راه دیگه هم هست، و اونم از طریق عرق کردنه.
01:10
But apartجدا از هم from that,
24
55000
2000
ولی از اون گذشته،
01:12
everything elseچیز دیگری goesمی رود throughاز طریق contractionsانقباضات of musclesعضلات.
25
57000
2000
همه چیز دیگه از طریق منقبض شدن مفاصل انجام میشه.
01:14
So think about communicationارتباطات --
26
59000
2000
خب، ارتباط برقرار کردن رو در نظر بگیرید --
01:16
speechسخنرانی - گفتار, gesturesحرکات, writingنوشتن, signامضا کردن languageزبان --
27
61000
3000
گویایی، اشارات، نوشتن، زبان ایما اشاره --
01:19
they're all mediatedواسطه throughاز طریق contractionsانقباضات of your musclesعضلات.
28
64000
3000
همه اونها با مداخله انقباض مفاصل شما انجام میشن.
01:22
So it's really importantمهم to rememberیاد آوردن
29
67000
2000
این خیلی مهمه که یادمون باشه
01:24
that sensoryحسی, memoryحافظه and cognitiveشناختی processesفرآیندهای are all importantمهم,
30
69000
4000
که فرآیندهای حسی، حافظه و فرایند های شناختی مغز، همه شون مهم اند،
01:28
but they're only importantمهم
31
73000
2000
ولی اونها فقط در پیش بری یا جلوگیری از حرکت های بعدی مهم هستند.
01:30
to eitherیا driveراندن or suppressسرکوب کردن futureآینده movementsحرکات.
32
75000
2000
ولی اونها فقط در پیش بری یا جلوگیری از حرکت های بعدی مهم هستند.
01:32
There can be no evolutionaryتکامل یافته advantageمزیت
33
77000
2000
ساختن خاطرات بچه گی و درک رنگ یک گل رز، هیچ فایده تکاملی ای برای ما نداره
01:34
to layingتخمگذار down memoriesخاطرات of childhoodدوران کودکی
34
79000
2000
ساختن خاطرات بچه گی و درک رنگ یک گل رز، هیچ فایده تکاملی ای برای ما نداره
01:36
or perceivingدرک the colorرنگ of a roseگل سرخ
35
81000
2000
ساختن خاطرات بچه گی و درک رنگ یک گل رز، هیچ فایده تکاملی ای برای ما نداره
01:38
if it doesn't affectتاثیر می گذارد the way you're going to moveحرکت laterبعد in life.
36
83000
3000
اگر نخواهد روی حرکت های بعدی ما در زندگی اثر بزاره.
01:41
Now for those who don't believe this argumentبحث و جدل,
37
86000
2000
حالا برای اونایی که به این استدلال اعتقادی ندارن،
01:43
we have treesدرختان and grassچمن on our planetسیاره withoutبدون the brainمغز,
38
88000
2000
ما درختان و سبزه ها رو روی کره زمین داریم که بدون مغز هستند،
01:45
but the clinchingکلینچینگ evidenceشواهد is this animalحیوانات here --
39
90000
2000
ولی این حیوان اینجا مدرک محکمیه --
01:47
the humbleفروتنانه seaدریا squirtسرنگ.
40
92000
2000
آب پران کوچک دریایی.
01:49
Rudimentaryابتدایی animalحیوانات, has a nervousعصبی systemسیستم,
41
94000
3000
گونه اولیه اون، یه سیستم عصبی داره،
01:52
swimsشنا می کند around in the oceanاقیانوس in its juvenileنوجوان life.
42
97000
2000
در فرم اولیه زندگیش، در اقیانوس شنا میکنه.
01:54
And at some pointنقطه of its life,
43
99000
2000
و در نقطه ای از زندگیش، روی یک سنگ جا میگیره.
01:56
it implantsایمپلنت on a rockسنگ.
44
101000
2000
و در نقطه ای از زندگیش، روی یک سنگ جا میگیره.
01:58
And the first thing it does in implantingایمپلنت on that rockسنگ, whichکه it never leavesبرگها,
45
103000
3000
و اولین کاری که بعد از جا گیریش روی اون سنگ میکنه، سنگی که هیچوقت ترکش نمیکنه،
02:01
is to digestهضم its ownخودت brainمغز and nervousعصبی systemسیستم
46
106000
3000
اینه که مغز و سیستم عصبی خودش رو به عنوان غذا میخوره.
02:04
for foodغذا.
47
109000
2000
اینه که مغز و سیستم عصبی خودش رو به عنوان غذا میخوره.
02:06
So onceیک بار you don't need to moveحرکت,
48
111000
2000
پس همینکه دیگه لازم نیست حرکتی انجام بشه،
02:08
you don't need the luxuryلوکس of that brainمغز.
49
113000
3000
اون مغز لوکس دیگه لازم نمیشه.
02:11
And this animalحیوانات is oftenغالبا takenگرفته شده
50
116000
2000
و این حیوان معمولا بعنوان قیاس با اتفاقی که در دانشگاه ها میافته
02:13
as an analogyتقلید to what happensاتفاق می افتد at universitiesدانشگاه ها
51
118000
2000
وقتی که اساتید کرسی ای رو در اون دانشگاه میگیرن، گرفته میشه،
02:15
when professorsاساتید get tenureمنصوب شدن,
52
120000
2000
وقتی که اساتید کرسی ای رو در اون دانشگاه میگیرن، گرفته میشه،
02:17
but that's a differentناهمسان subjectموضوع.
53
122000
2000
ولی اون یه موضوع دیگه ایه.
02:19
(Applauseتشویق و تمجید)
54
124000
2000
(تشویق حاضرین)
02:21
So I am a movementجنبش chauvinistشوونیست.
55
126000
3000
بنابراین من طرفدار پر وپا قرص تحرک هستم.
02:24
I believe movementجنبش is the mostاکثر importantمهم functionعملکرد of the brainمغز --
56
129000
2000
من معتقدم تحرک مهم ترین کارکرد مغزه،
02:26
don't let anyoneهر کسی tell you that it's not trueدرست است.
57
131000
2000
و به کسی اجازه ندید که بهتون بگه این اشتباهه.
02:28
Now if movementجنبش is so importantمهم,
58
133000
2000
حالا اگه تحرک خیلی مهمه،
02:30
how well are we doing
59
135000
2000
ما چقدر خوب تونستیم کنترل حرکات توسط مغز رو بفهمیم؟
02:32
understandingدرك كردن how the brainمغز controlsکنترل ها movementجنبش?
60
137000
2000
ما چقدر خوب تونستیم کنترل حرکات توسط مغز رو بفهمیم؟
02:34
And the answerپاسخ is we're doing extremelyفوق العاده poorlyضعیف; it's a very hardسخت problemمسئله.
61
139000
2000
و جواب این سوال اینه که ما خیلی داریم ضعیف عمل می کنیم، این یه مشکل خیلی دشواریه.
02:36
But we can look at how well we're doing
62
141000
2000
ولی برای اینکه بفهمیم چقدر داریم کارمون رو خوب انجام میدیم
02:38
by thinkingفكر كردن about how well we're doing buildingساختمان machinesماشین آلات
63
143000
2000
مینونیم به این فکر کنیم که به چه خوبی ما ماشینهایی را میسازیم که میتونن آنچه که آدمها میکنن را انجام دهند.
02:40
whichکه can do what humansانسان can do.
64
145000
2000
مینونیم به این فکر کنیم که به چه خوبی ما ماشینهایی را میسازیم که میتونن آنچه که آدمها میکنن را انجام دهند.
02:42
Think about the gameبازی of chessشطرنج.
65
147000
2000
درباره بازی شطرنج فکر کنیم.
02:44
How well are we doing determiningتعیین کردن what pieceقطعه to moveحرکت where?
66
149000
3000
اینکه چه مهره ای رو میخوایم به کجا حرکت بدیم رو چقدر خوب انجام میدیم؟
02:47
If you pitگودال Garryگری Kasparovکاسپاروف here, when he's not in jailزندان,
67
152000
3000
اگر گری کاسپاروف رو، وقتی که در زندان نبود،
02:50
againstدر برابر IBM'sآی بی ام Deepعمیق Blueآبی,
68
155000
2000
در مقابل کامپیوتر 'آبی تیره ی' آی.بی.ام قرار بدیم،
02:52
well the answerپاسخ is IBM'sآی بی ام Deepعمیق Blueآبی will occasionallyگاه و بیگاه winپیروزی.
69
157000
3000
جواب اینه که 'آبی تیره ی' آی.بی.ام بعضی وقتا میبره.
02:55
And I think if IBM'sآی بی ام Deepعمیق Blueآبی playedبازی کرد anyoneهر کسی in this roomاتاق, it would winپیروزی everyهرکدام time.
70
160000
3000
و فکر کنم اگر 'آبی تیره ی' آی.بی.ام با هرکسی در این سالن بازی کنه، هر دفعه میبره.
02:58
That problemمسئله is solvedحل شد.
71
163000
2000
مشکل حل شد.
03:00
What about the problemمسئله
72
165000
2000
مشکل برداشتن مهره های شطرنج چی میشه؟
03:02
of pickingچیدن up a chessشطرنج pieceقطعه,
73
167000
2000
مشکل برداشتن مهره های شطرنج چی میشه؟
03:04
dexterouslyبا عجله manipulatingدستکاری it and puttingقرار دادن it back down on the boardهیئت مدیره?
74
169000
3000
بصورت ماهرانه برداشتن شون و دوباره روی صفحه شطرنج قراردادن شون؟
03:07
If you put a fiveپنج year-oldساله child'sفرزند dexterityمهارت againstدر برابر the bestبهترین robotsروبات ها of todayامروز,
75
172000
3000
اگر شما یه بچه 5ساله رو در مقابل بهترین روبات حال حاضر قرار بدین،
03:10
the answerپاسخ is simpleساده:
76
175000
2000
جواب آسونه:
03:12
the childکودک winsبرنده می شود easilyبه آسانی.
77
177000
2000
بچه هه به راحتی میبره.
03:14
There's no competitionرقابت at all.
78
179000
2000
اصلا رقابتی وجود نداره.
03:16
Now why is that topبالا problemمسئله so easyآسان
79
181000
2000
حالا چرا اون مشکل بالایی آنقدر آسونه
03:18
and the bottomپایین problemمسئله so hardسخت?
80
183000
2000
و مشکل پایینی آنقدر سخته؟
03:20
One reasonدلیل is a very smartهوشمندانه fiveپنج year-oldساله
81
185000
2000
یه دلیلش اینه که یه بچه 5ساله باهوش
03:22
could tell you the algorithmالگوریتم for that topبالا problemمسئله --
82
187000
2000
میتونه با در نظرگرفتن همه حرکت های امکانپذیر تا آخر بازی، الگوریتم مشکل بالاییه رو بهتون بگه
03:24
look at all possibleامکان پذیر است movesحرکت می کند to the endپایان of the gameبازی
83
189000
2000
میتونه با در نظرگرفتن همه حرکت های امکانپذیر تا آخر بازی، الگوریتم مشکل بالاییه رو بهتون بگه
03:26
and chooseانتخاب کنید the one that makesباعث می شود you winپیروزی.
84
191000
2000
و اونی رو که باعث برنده شدن میشه رو انتخاب کنه.
03:28
So it's a very simpleساده algorithmالگوریتم.
85
193000
2000
بنابراین یه الگوریتم خیلی ساده اس.
03:30
Now of courseدوره there are other movesحرکت می کند,
86
195000
2000
حالا البته که حرکت های بعدی ای هم هست،
03:32
but with vastعظیم computersکامپیوترها we approximateتقریبی
87
197000
2000
ولی با کامپیوترهای بزرگ ما تقریب میزنیم و به راه حل بهینه نزدیک میشیم.
03:34
and come closeبستن to the optimalبهینه solutionراه حل.
88
199000
2000
ولی با کامپیوترهای بزرگ ما تقریب میزنیم و به راه حل بهینه نزدیک میشیم.
03:36
When it comesمی آید to beingبودن dexterousزرق و برق دار,
89
201000
2000
ولی وقتی نوبت به ماهرانه بودن میرسه،
03:38
it's not even clearروشن است what the algorithmالگوریتم is you have to solveحل to be dexterousزرق و برق دار.
90
203000
2000
حتی معلوم نیست که چه الگوریتمی باید حل بشه که بشه ماهرانه حرکت داد.
03:40
And we'llخوب see you have to bothهر دو perceiveدرک and actعمل کن on the worldجهان,
91
205000
2000
و خواهیم دید که باید هم دنیای اطراف رو درک کرد و هم عکس العمل انجام داد،
03:42
whichکه has a lot of problemsمشکلات.
92
207000
2000
که خیلی مشکلات در خودش داره.
03:44
But let me showنشان بده you cutting-edgeلبه برش roboticsروباتیک.
93
209000
2000
ولی اجازه بدین بهتون روبات های پیشرفته رو نشون بدم.
03:46
Now a lot of roboticsروباتیک is very impressiveچشمگیر,
94
211000
2000
امروزه رباتهای زیادی بسیار چشمگیر و جذاب هستند
03:48
but manipulationدستکاری roboticsروباتیک is really just in the darkتاریک است agesسنین.
95
213000
3000
ولی روبات هایی که با دست کارها رو انجام میدن واقعا هنوز هنوز در اوایل راه هستند.
03:51
So this is the endپایان of a PhPh.D. projectپروژه
96
216000
2000
خب این نتیجه یه پروژه فوق دکترا از یکی از بهترین انیسیتو های روبوتیکه.
03:53
from one of the bestبهترین roboticsروباتیک institutesموسسات.
97
218000
2000
خب این نتیجه یه پروژه فوق دکترا از یکی از بهترین انیسیتو های روبوتیکه.
03:55
And the studentدانشجو has trainedآموزش دیده this robotربات
98
220000
2000
و این دانشجو به این روبات یاد داده که این آب رو داخل این گیلاس( لیوان) بریزه.
03:57
to pourریختن this waterاب into a glassشیشه.
99
222000
2000
و این دانشجو به این روبات یاد داده که این آب رو داخل این گیلاس بریزه.
03:59
It's a hardسخت problemمسئله because the waterاب sloshesاسلش ها about, but it can do it.
100
224000
3000
این یه مشکل سختیه چون آب جریان پیش بینی شده ای نداره، ولی اون میتونه انجامش بده.
04:02
But it doesn't do it with anything like the agilityچابکی of a humanانسان.
101
227000
3000
ولی اصلا به فرزی و تندی یه آدمیزاد انجامش نمیده.
04:05
Now if you want this robotربات to do a differentناهمسان taskوظیفه,
102
230000
3000
حال اگر بخواین این روبات یه کار دیگه انجام بده،
04:08
that's anotherیکی دیگر three-yearسه سال PhPh.D. programبرنامه.
103
233000
3000
یه برنامه تحقیق فوق دکترای سه ساله دیگریست.
04:11
There is no generalizationتعمیم دادن at all
104
236000
2000
در روباتیک کلا نمیشه بین کارها و و فعالیت ها کارهای مشترکی بوجود آورد و کاری رو به کار دیگه ای تعمیم داد.
04:13
from one taskوظیفه to anotherیکی دیگر in roboticsروباتیک.
105
238000
2000
در روباتیک کلا نمیشه بین کارها و و فعالیت ها کارهای مشترکی بوجود آورد و کاری رو به کار دیگه ای تعمیم داد.
04:15
Now we can compareمقايسه كردن this
106
240000
2000
حالا ما میتونیم این رو با کارایی پیشرفته انسانی مقایسه کنیم.
04:17
to cutting-edgeلبه برش humanانسان performanceکارایی.
107
242000
2000
حالا ما میتونیم این رو با کارایی پیشرفته انسانی مقایسه کنیم.
04:19
So what I'm going to showنشان بده you is Emilyامیلی Foxفاکس
108
244000
2000
چیزی که میخوام نشونتون بدم امیلی فاکس
04:21
winningبرنده شدن the worldجهان recordرکورد for cupفنجان stackingپشتهسازی.
109
246000
3000
که داره رکورد جهانی چیدن لیوان روی هم رو بدست میاره.
04:24
Now the Americansآمریکایی ها in the audienceحضار will know all about cupفنجان stackingپشتهسازی.
110
249000
2000
حالا آمریکایی هایی که اینجا در بین حاضرین هستن راجع به اینکار همه چیز رو میدونن.
04:26
It's a highبالا schoolمدرسه sportورزش
111
251000
2000
یه ورزش توی دبیرستانه
04:28
where you have 12 cupsفنجان you have to stackپشته and unstackدست کشیدن
112
253000
2000
که باید 12 لیوان به ترتیب مشخصی و در کمترین زمان روی هم چیده بشه و بعدش جمع بشه.
04:30
againstدر برابر the clockساعت in a prescribedتجویز شده orderسفارش.
113
255000
2000
که باید 12 لیوان به ترتیب مشخصی و در کمترین زمان روی هم چیده بشه و بعدش جمع بشه.
04:32
And this is her gettingگرفتن the worldجهان recordرکورد in realواقعی time.
114
257000
3000
و ایشون داره رکورد جهانی رو بی درنگ به دست میاره.
04:39
(Laughterخنده)
115
264000
8000
(خنده حاضرین)
04:47
(Applauseتشویق و تمجید)
116
272000
5000
(تشویق حاضرین)
04:52
And she's prettyبسیار happyخوشحال.
117
277000
2000
و خیلی هم خوشحاله.
04:54
We have no ideaاندیشه what is going on insideداخل her brainمغز when she does that,
118
279000
2000
ما اصلا نمیدونیم وقتی این خانم داره این کارو انجام میده، چی توی مغزش داره اتفاق میافته،
04:56
and that's what we'dما می خواهیم like to know.
119
281000
2000
و این چیزیه که دوست داریم بدونیم.
04:58
So in my groupگروه, what we try to do
120
283000
2000
بنابراین کاری که گروه من داره سعی میکنه که انجام بده
05:00
is reverseمعکوس engineerمهندس how humansانسان controlکنترل movementجنبش.
121
285000
3000
اینه که نحوه کنترل حرکت انسانها رو مهندسی معکوس کنه.
05:03
And it soundsبرای تلفن های موبایل like an easyآسان problemمسئله.
122
288000
2000
و به نظر میرسه که این یه مساله ساده اس.
05:05
You sendارسال a commandفرمان down, it causesعلل musclesعضلات to contractقرارداد.
123
290000
2000
یه دستور به پایین فرستاده میشه، و اون باعث میشه مفصل ها منقبض بشن.
05:07
Your armبازو or bodyبدن movesحرکت می کند,
124
292000
2000
دست یا بدن حرکت میکنه،
05:09
and you get sensoryحسی feedbackبازخورد from visionچشم انداز, from skinپوست, from musclesعضلات and so on.
125
294000
3000
و از بینایی، پوست، مفاصل و غیره فیدبک (بازخورد) حسی گرفته میشه.
05:12
The troubleمشکل is
126
297000
2000
مشکل اینه که
05:14
these signalsسیگنال ها are not the beautifulخوشگل signalsسیگنال ها you want them to be.
127
299000
2000
این سیگنال ها اون سیگنال های زیبایی نیستند که شما میخواید باشن.
05:16
So one thing that makesباعث می شود controllingکنترل movementجنبش difficultدشوار
128
301000
2000
بنابراین یه چیزی که کنترل حرکت رو سخت میکنه
05:18
is, for exampleمثال, sensoryحسی feedbackبازخورد is extremelyفوق العاده noisyپر سر و صدا.
129
303000
3000
اینه که، برای مثال، فیدبک (بازخورد) حسی بشدت همراه با نویزه.
05:21
Now by noiseسر و صدا, I do not mean soundصدا.
130
306000
3000
حالا منظورم از نویز، صدا و صوت نیست.
05:24
We use it in the engineeringمهندسی and neuroscienceعلوم اعصاب senseاحساس
131
309000
2000
ما در مهندسی و علم مغز و اعصاب از این عبارت استفاده میکنیم
05:26
meaningبه معنی a randomتصادفی noiseسر و صدا corruptingفساد a signalسیگنال.
132
311000
2000
به معنی یک نویز تصادفی که سیگنال رو خراب میکنه.
05:28
So the oldقدیمی daysروزها before digitalدیجیتال radioرادیو when you were tuningتنظیم in your radioرادیو
133
313000
3000
مثل دوران قدیم قبل از اومدن رادیوی دیجیتالی، که وقتی در حال تنظیم ایستگاه رادیو
05:31
and you heardشنیدم "crrcckkkcrrcckkk" on the stationایستگاه you wanted to hearشنیدن,
134
316000
2000
صدای "خر خر" رو، روی ایستگاه رادیویی ای که میخواستید بگیرید،
05:33
that was the noiseسر و صدا.
135
318000
2000
اون نویز بود.
05:35
But more generallyبطور کلی, this noiseسر و صدا is something that corruptsفساد می کند the signalسیگنال.
136
320000
3000
ولی بصورت کلی تر، این نویز چیزیه که سیگنال رو خراب میکنه.
05:38
So for exampleمثال, if you put your handدست underزیر a tableجدول
137
323000
2000
بنابراین برای مثال، اگر شما دستتون رو زیر میز قرار بدین
05:40
and try to localizeمحلی سازی کنید it with your other handدست,
138
325000
2000
و سعی کنین که اون رو با دست دیگرتون مکان یابی کنید،
05:42
you can be off by severalچند centimetersسانتیمتر
139
327000
2000
ممکنه بخاطر نویز در فیدبک حسی، تا چند سانتیمتر اشتباه کنید.
05:44
dueناشی از to the noiseسر و صدا in sensoryحسی feedbackبازخورد.
140
329000
2000
ممکنه بخاطر نویز در فیدبک حسی، تا چند سانتیمتر اشتباه کنید.
05:46
Similarlyبه طور مشابه, when you put motorموتور outputخروجی on movementجنبش outputخروجی,
141
331000
2000
بصورت مشابه، وقتی خروجی موتوری روی خروجی حرکتی قرار میگیره،
05:48
it's extremelyفوق العاده noisyپر سر و صدا.
142
333000
2000
بشدت نویز داره.
05:50
Forgetفراموش کردن about tryingتلاش کن to hitاصابت the bull'sگاو نر eyeچشم in dartsدارت,
143
335000
2000
در بازی با دارت سعی کردن برای اینکه بزنید وسط خال رو فراموش کنید،
05:52
just aimهدف for the sameیکسان spotنقطه over and over again.
144
337000
2000
فقط پشت سر هم یک نقطه یکسان رو نشانه بگیرید.
05:54
You have a hugeبزرگ spreadانتشار دادن dueناشی از to movementجنبش variabilityتنوع.
145
339000
3000
شما با توجه به تغییرات حرکتی یک تغییرات زیادی دارید.
05:57
And more than that, the outsideخارج از worldجهان, or taskوظیفه,
146
342000
2000
و از این گذشته، دنیا یا فعالیت های دنیای خارج،
05:59
is bothهر دو ambiguousمبهم and variableمتغیر.
147
344000
2000
هم مبهم وهم متغیره.
06:01
The teapotقوری could be fullپر شده, it could be emptyخالی.
148
346000
2000
قوری چای هم میتونه پر باشه، هم میتونه خالی باشه.
06:03
It changesتغییرات over time.
149
348000
2000
در طول زمان تغییر میکنه.
06:05
So we work in a wholeکل sensoryحسی movementجنبش taskوظیفه soupسوپ of noiseسر و صدا.
150
350000
4000
بنابراین ما در یک بلبشوی پر از نویز فعالیت های حرکتی مراکز حساس عمل میکنیم.
06:09
Now this noiseسر و صدا is so great
151
354000
2000
حالا این نویز آنقدر مهمه که جامعه پاداش خیلی بزرگی
06:11
that societyجامعه placesمکان ها a hugeبزرگ premiumحق بیمه
152
356000
2000
حالا این نویز آنقدر مهمه که جامعه پاداش خیلی بزرگی
06:13
on those of us who can reduceكاهش دادن the consequencesعواقب of noiseسر و صدا.
153
358000
3000
به اونهایی میده که میتونن عواقب نویز رو کم کنن.
06:16
So if you're luckyخوش شانس enoughکافی to be ableتوانایی to knockدر زدن a smallکوچک whiteسفید ballتوپ
154
361000
3000
بنابراین اگر شما به اندازه کافی خوش شانس باشید که بتونین یه توپ سفید کوچیک رو
06:19
into a holeسوراخ severalچند hundredصد yardsمتری away usingاستفاده كردن a long metalفلز stickچوب,
155
364000
3000
بوسیله یه عصای بلند آهنی داخل یه سوراخ که صدها یارد اونطرف تره بندازید،
06:22
our societyجامعه will be willingمایلم to rewardجایزه you
156
367000
2000
جامعه ما حاضره که به شما صدها میلیون دلار پاداش بده.
06:24
with hundredsصدها of millionsمیلیون ها نفر of dollarsدلار.
157
369000
3000
جامعه ما حاضره که به شما صدها میلیون دلار پاداش بده.
06:27
Now what I want to convinceمتقاعد کردن you of
158
372000
2000
حالا چیزی که میخوام شما رو درباره اش متقاعد کنم
06:29
is the brainمغز alsoهمچنین goesمی رود throughاز طریق a lot of effortتلاش
159
374000
2000
اینه که مغز همچنین تلاش خیلی زیادی میکنه
06:31
to reduceكاهش دادن the negativeمنفی consequencesعواقب
160
376000
2000
که عواقب منفی اینجور نویز و بی ثباتی ها رو کم کنه.
06:33
of this sortمرتب سازی of noiseسر و صدا and variabilityتنوع.
161
378000
2000
که عواقب منفی اینجور نویز و بی ثباتی ها رو کم کنه.
06:35
And to do that, I'm going to tell you about a frameworkچارچوب
162
380000
2000
و برای اینکه شما رو متقاعد کنم، میخوام درباره چهارچوبی باهاتون صحبت کنم
06:37
whichکه is very popularمحبوب in statisticsآمار and machineدستگاه learningیادگیری of the last 50 yearsسالها
163
382000
3000
که برای یادگرفتن آمار و فراگیری ماشین در 50 سال گذشته خیلی محبوب بوده
06:40
calledبه نام Bayesianبیزی decisionتصمیم گیری theoryتئوری.
164
385000
2000
بهش میگن تئوری 'بیژی ان'.
06:42
And it's more recentlyبه تازگی a unifyingمتحد کردن way
165
387000
3000
و این تئوری تازگیها یه راه متحده
06:45
to think about how the brainمغز dealsمعاملات with uncertaintyعدم قطعیت.
166
390000
3000
برای فکر کردن به اینکه مغز چطوری با تردید و بلاتکلیفی کنار میاد.
06:48
And the fundamentalاساسی ideaاندیشه is you want to make inferencesنتیجه گیری and then take actionsاقدامات.
167
393000
3000
و ایده اساسی اینه که، قراره استنتاجی صورت بگیره و بعد از اون اقدام به کاری بشه.
06:51
So let's think about the inferenceاستنتاج.
168
396000
2000
خب، بیایید راجع به استنتاج فکر کنیم.
06:53
You want to generateتولید کنید beliefsاعتقادات about the worldجهان.
169
398000
2000
شما میخواهید راجع به جهان، باور و عقیده بسازید.
06:55
So what are beliefsاعتقادات?
170
400000
2000
خب، باورها چه چیزی هستند؟
06:57
Beliefsباورها could be: where are my armsبازوها in spaceفضا?
171
402000
2000
باورها ممکنه این باشن که: بازوهای من در کجای فضا قرار دارند؟
06:59
Am I looking at a catگربه or a foxروباه?
172
404000
2000
یا اینکه آیا من دارم به یه گربه نگاه میکنم یا یه روباه؟
07:01
But we're going to representنمایندگی beliefsاعتقادات with probabilitiesاحتمالات.
173
406000
3000
ولی ما عقایدمون رو با توجه به احتمالات نشون میدیم.
07:04
So we're going to representنمایندگی a beliefاعتقاد
174
409000
2000
بنابراین ما یک عقیده رو با یک عدد بین صفر و یک نشون میدیم --
07:06
with a numberعدد betweenبین zeroصفر and one --
175
411000
2000
بنابراین ما یک عقیده رو با یک عدد بین صفر و یک نشون میدیم --
07:08
zeroصفر meaningبه معنی I don't believe it at all, one meansبه معنای I'm absolutelyکاملا certainمسلم - قطعی.
176
413000
3000
صفر یعنی من اصلا بهش اعتقاد ندارم، یک یعنی من کاملا مطمئنم.
07:11
And numbersشماره in betweenبین give you the grayخاکستری levelsسطوح of uncertaintyعدم قطعیت.
177
416000
3000
و اعداد بین صفر و یک سطوح خاکستری شک هستند.
07:14
And the keyکلیدی ideaاندیشه to Bayesianبیزی inferenceاستنتاج
178
419000
2000
و ایده اساسی در استنتاج 'بیژی ان' ای
07:16
is you have two sourcesمنابع of informationاطلاعات
179
421000
2000
اینه که شما دو منبع اصلاعات دارید که ازشون استنتاجتون رو میکنید.
07:18
from whichکه to make your inferenceاستنتاج.
180
423000
2000
اینه که شما دو منبع اصلاعات دارید که ازشون استنتاجتون رو میکنید.
07:20
You have dataداده ها,
181
425000
2000
شما اطلاعات دارید،
07:22
and dataداده ها in neuroscienceعلوم اعصاب is sensoryحسی inputورودی.
182
427000
2000
و در علم مغز و اعصاب اصلاعات، ورودی های حسی است.
07:24
So I have sensoryحسی inputورودی, whichکه I can take in to make beliefsاعتقادات.
183
429000
3000
پس من ورودی های حسی دارم، که میتونم اون ها رو به باور تبدیل کنم.
07:27
But there's anotherیکی دیگر sourceمنبع of informationاطلاعات, and that's effectivelyبه طور موثر priorقبل از knowledgeدانش.
184
432000
3000
ولی یه منبع دیگه اطلاعات هم وجود داره، و اون آگاهی قبلی یه.
07:30
You accumulateانباشتن knowledgeدانش throughoutدر سراسر your life in memoriesخاطرات.
185
435000
3000
آگاهی در طول زندگی در حافظه انباشته میشه.
07:33
And the pointنقطه about Bayesianبیزی decisionتصمیم گیری theoryتئوری
186
438000
2000
و نکته تئوری تصمیم گیری 'بیژی ان' اینه که به شما فرمول ریاضی
07:35
is it givesمی دهد you the mathematicsریاضیات
187
440000
2000
و نکته تئوری تصمیم گیری 'بیژی ان' اینه که به شما فرمول ریاضی
07:37
of the optimalبهینه way to combineترکیب کردن
188
442000
2000
روش بهینه ترکیب کردن آگاهی قبلی با مشاهدات حسی
07:39
your priorقبل از knowledgeدانش with your sensoryحسی evidenceشواهد
189
444000
2000
روش بهینه ترکیب کردن آگاهی قبلی با مشاهدات حسی
07:41
to generateتولید کنید newجدید beliefsاعتقادات.
190
446000
2000
برای تولید باورهای جدید رو میده.
07:43
And I've put the formulaفرمول up there.
191
448000
2000
و من اون فرمول رو اون بالا براتون گذاشتم.
07:45
I'm not going to explainتوضیح what that formulaفرمول is, but it's very beautifulخوشگل.
192
450000
2000
من نمیخوام براتون توضیح بدم که اون فرمول چیه، ولی خیلی زیباست.
07:47
And it has realواقعی beautyزیبایی and realواقعی explanatoryتوضیحی powerقدرت.
193
452000
3000
و زیبایی و قدرت روشنگری واقعی ای داره.
07:50
And what it really saysمی گوید, and what you want to estimateتخمین زدن,
194
455000
2000
و چیزی که میگه، و چیزی که میخواید تخمین بزنید،
07:52
is the probabilityاحتمال of differentناهمسان beliefsاعتقادات
195
457000
2000
احتمال باورهای متفاوتیه که با توجه به اطلاعات ورودی سنسورهای حسی شما بدست میاد.
07:54
givenداده شده your sensoryحسی inputورودی.
196
459000
2000
احتمال باورهای متفاوتیه که با توجه به اطلاعات ورودی سنسورهای حسی شما بدست میاد.
07:56
So let me give you an intuitiveبصری exampleمثال.
197
461000
2000
خب اجازه بدید یه مثال ملموس براتون بزنم.
07:58
Imagineتصور کن you're learningیادگیری to playبازی tennisتنیس
198
463000
3000
فرض کنید که دارید تنیس یاد میگیرید
08:01
and you want to decideتصميم گرفتن where the ballتوپ is going to bounceگزاف گویی
199
466000
2000
و درحالیکه توپ از روی تور رد میشه و داره به طرفتون میاد، میخواید تصمیم بگیرید که توپ کجا به زمین میخوره.
08:03
as it comesمی آید over the netخالص towardsبه سمت you.
200
468000
2000
و درحالیکه توپ از روی تور رد میشه و داره به طرفتون میاد، میخواید تصمیم بگیرید که توپ کجا به زمین میخوره.
08:05
There are two sourcesمنابع of informationاطلاعات
201
470000
2000
قانون بایز(ریاضیدان انگلیسی) میگه دوتا منبع اصلاعات وجود داره.
08:07
Bayes'بایس ruleقانون tellsمی گوید you.
202
472000
2000
قانون بایز(ریاضیدان انگلیسی) میگه دوتا منبع اصلاعات وجود داره.
08:09
There's sensoryحسی evidenceشواهد -- you can use visualبصری informationاطلاعات auditoryشنوایی informationاطلاعات,
203
474000
3000
مشاهدات حسی وجود داره -- شما میتونید از اطلاعات دیداری و شنوایی استفاده کنید،
08:12
and that mightممکن tell you it's going to landزمین in that redقرمز spotنقطه.
204
477000
3000
و اون ممکنه به شما بگه که اون قسمت قرمز رو اجازه بدید.
08:15
But you know that your sensesاحساسات are not perfectکامل,
205
480000
3000
ولی شما میدونید که حس های شما بی نقص نیستند،
08:18
and thereforeاز این رو there's some variabilityتنوع of where it's going to landزمین
206
483000
2000
و بنابراین یه مقدار تغییرات در جایی که قراره به زمین بخوره هست
08:20
shownنشان داده شده by that cloudابر of redقرمز,
207
485000
2000
که بصورت ابر قرمزی نشون داده شده،
08:22
representingنمایندگی numbersشماره betweenبین 0.5 and maybe 0.1.
208
487000
3000
که نمایان کننده اعداد بین 0.5 یا شاید 0.1 هستند.
08:26
That informationاطلاعات is availableدر دسترس است in the currentجاری shotشات,
209
491000
2000
این اطلاعات در عکس حاضر موجود هستند،
08:28
but there's anotherیکی دیگر sourceمنبع of informationاطلاعات
210
493000
2000
ولی یه منبع اطلاعات دیگه ای هم وجود داره
08:30
not availableدر دسترس است on the currentجاری shotشات,
211
495000
2000
که در عکس حاضر موجود نیست،
08:32
but only availableدر دسترس است by repeatedمکررا experienceتجربه in the gameبازی of tennisتنیس,
212
497000
3000
ولی فقط در تجربه تکرار بازی تنیس وجود داره،
08:35
and that's that the ballتوپ doesn't bounceگزاف گویی
213
500000
2000
و اینه که توپ با احتمال یکسانی در زمین در طول مسابقه به زمین نمیخوره.
08:37
with equalبرابر probabilityاحتمال over the courtدادگاه duringدر حین the matchهمخوانی داشتن.
214
502000
2000
و اینه که توپ با احتمال یکسانی در زمین در طول مسابقه به زمین نمیخوره.
08:39
If you're playingبازی کردن againstدر برابر a very good opponentحریف,
215
504000
2000
اگر شما دارین در مقابل یه حریف خیلی خوب بازی میکنید،
08:41
they mayممکن است distributeتوزیع کردن it in that greenسبز areaمنطقه,
216
506000
2000
اونها ممکنه توپ رو در بخش سبز پخش کنن،
08:43
whichکه is the priorقبل از distributionتوزیع,
217
508000
2000
که توزیع مقدمه،
08:45
makingساخت it hardسخت for you to returnبرگشت.
218
510000
2000
که کار برگردوندن توپ رو براتون سخت میکنه.
08:47
Now bothهر دو these sourcesمنابع of informationاطلاعات carryحمل importantمهم informationاطلاعات.
219
512000
2000
حالا این دوتا منبع اطلاعات، اطلاعات مهمی رو با خودشون به همراه دارن.
08:49
And what Bayes'بایس ruleقانون saysمی گوید
220
514000
2000
و چیزی که قانون بایس میگه
08:51
is that I should multiplyتکثیر کردن the numbersشماره on the redقرمز by the numbersشماره on the greenسبز
221
516000
3000
اینکه که من باید ارقام روی قسمت های قرمز رو در ارقام روی قسمت های سبز ضرب کنم
08:54
to get the numbersشماره of the yellowرنگ زرد, whichکه have the ellipsesبیضوی,
222
519000
3000
که ارقام قسمت های زرد رو به دست بیارم، که بیضی ها رو در خودشون دارن،
08:57
and that's my beliefاعتقاد.
223
522000
2000
و اون باوره منه.
08:59
So it's the optimalبهینه way of combiningترکیب کردن informationاطلاعات.
224
524000
3000
بنابراین این روش بهینه ترکیب کردن اطلاعاته.
09:02
Now I wouldn'tنمی خواهم tell you all this if it wasn'tنبود that a fewتعداد کمی yearsسالها agoپیش,
225
527000
2000
حالا اگر اتفاق چند سال پیش نمی افتاد من اینا رو الان به شما نمیگفتم،
09:04
we showedنشان داد this is exactlyدقیقا what people do
226
529000
2000
ما ثابت کردیم این دقیقا کاریه که آدما وقتی یه حرکت جدید یاد میگیرن، انجام میدن.
09:06
when they learnیاد گرفتن newجدید movementجنبش skillsمهارت ها.
227
531000
2000
ما ثابت کردیم این دقیقا کاریه که آدما وقتی یه حرکت جدید یاد میگیرن، انجام میدن.
09:08
And what it meansبه معنای
228
533000
2000
و معنی این اینه که ما واقعا ماشین های استنتاج 'بیژی ان' ای هستیم.
09:10
is we really are Bayesianبیزی inferenceاستنتاج machinesماشین آلات.
229
535000
2000
و معنی این اینه که ما واقعا ماشین های استنتاج 'بیژی ان' ای هستیم.
09:12
As we go around, we learnیاد گرفتن about statisticsآمار of the worldجهان and layغیر روحانی that down,
230
537000
4000
ما درطول زندگیمون درباره آمار دنیای اطرافمون چیز یاد میگیریم و اونها رو ذخیره میکنیم،
09:16
but we alsoهمچنین learnیاد گرفتن
231
541000
2000
ولی همچنین یاد میگیریم که دستگاه حسی مون چقدر خطا داره،
09:18
about how noisyپر سر و صدا our ownخودت sensoryحسی apparatusدستگاه is,
232
543000
2000
ولی همچنین یاد میگیریم که دستگاه حسی مون چقدر خطا داره،
09:20
and then combineترکیب کردن those
233
545000
2000
و بعد اون ها رو به روش 'بیژی ان' با همدیگه ترکیب میکنیم.
09:22
in a realواقعی Bayesianبیزی way.
234
547000
2000
و بعد اون ها رو به روش 'بیژی ان' با همدیگه ترکیب میکنیم.
09:24
Now a keyکلیدی partبخشی to the Bayesianبیزی is this partبخشی of the formulaفرمول.
235
549000
3000
حالا یه قسمت مهم از تئوری 'بیژی ان' این قسمت از فرموله.
09:27
And what this partبخشی really saysمی گوید
236
552000
2000
و منظور مهم این قسمت اینه که من باید احتمال وجود داشتن فیدبک های حسی متفاوت را
09:29
is I have to predictپیش بینی the probabilityاحتمال
237
554000
2000
و منظور مهم این قسمت اینه که من باید احتمال وجود داشتن فیدبک های حسی متفاوت را
09:31
of differentناهمسان sensoryحسی feedbacksبازخورد
238
556000
2000
و منظور مهم این قسمت اینه که من باید احتمال وجود داشتن فیدبک های حسی متفاوت را
09:33
givenداده شده my beliefsاعتقادات.
239
558000
2000
با درنظر گرفتن باورهام پیش بینی کنم.
09:35
So that really meansبه معنای I have to make predictionsپیش بینی ها of the futureآینده.
240
560000
3000
بنابراین معنی واقعیش اینه که من باید درباره آینده پیش بینی کنم.
09:38
And I want to convinceمتقاعد کردن you the brainمغز does make predictionsپیش بینی ها
241
563000
2000
و من میخوام شما رو متقاعد کنم که مغز درباره فیدبک های حسی ای که قراره دریافت کنه، پیش بینی میکنه.
09:40
of the sensoryحسی feedbackبازخورد it's going to get.
242
565000
2000
و من میخوام شما رو متقاعد کنم که مغز درباره فیدبک های حسی ای که قراره دریافت کنه، پیش بینی میکنه.
09:42
And moreoverعلاوه بر این, it profoundlyعمیقا changesتغییرات your perceptionsادراکات
243
567000
2000
و علاوه براین، درک شما رو بصورت خیلی عمیقی با توجه به کاری که میکنید تغییر میده.
09:44
by what you do.
244
569000
2000
و علاوه براین، درک شما رو بصورت خیلی عمیقی با توجه به کاری که میکنید تغییر میده.
09:46
And to do that, I'll tell you
245
571000
2000
و برای اینکار، به شما خواهم گفت که مغز چطوری با ورودی های حسی برخورد میکنه.
09:48
about how the brainمغز dealsمعاملات with sensoryحسی inputورودی.
246
573000
2000
و برای اینکار، به شما خواهم گفت که مغز چطوری با ورودی های حسی برخورد میکنه.
09:50
So you sendارسال a commandفرمان out,
247
575000
3000
خب، یه دستور فرستاده میشه،
09:53
you get sensoryحسی feedbackبازخورد back,
248
578000
2000
و فیدبک حسی اش برمیگرده،
09:55
and that transformationدگرگونی is governedاداره می شود
249
580000
2000
و این تبدیل توسط فیزیک و سیستم حسی بدن، کنترل میشه.
09:57
by the physicsفیزیک of your bodyبدن and your sensoryحسی apparatusدستگاه.
250
582000
3000
و این تبدیل توسط فیزیک و سیستم حسی بدن، کنترل میشه.
10:00
But you can imagineتصور کن looking insideداخل the brainمغز.
251
585000
2000
ولی میشه با نگاه کردن به داخل مغز تصور کرد.
10:02
And here'sاینجاست insideداخل the brainمغز.
252
587000
2000
و این داخل مغزه.
10:04
You mightممکن have a little predictorپیشگو, a neuralعصبی simulatorشبیه ساز,
253
589000
2000
ممکنه یه پیش بینی کننده کوچک از فیزیک اندام و حواس اونجا باشه، یه شبیه ساز نٍرونی.
10:06
of the physicsفیزیک of your bodyبدن and your sensesاحساسات.
254
591000
2000
ممکنه یه پیش بینی کننده کوچک از فیزیک اندام و حواس اونجا باشه، یه شبیه ساز نٍرونی.
10:08
So as you sendارسال a movementجنبش commandفرمان down,
255
593000
2000
وقتی که یک فرمان فرستاده میشه
10:10
you tapشیر a copyکپی کنید of that off
256
595000
2000
یه کپی از اون فرمان به اون قسمت شبیه ساز نٍرونی میره
10:12
and runاجرا کن it into your neuralعصبی simulatorشبیه ساز
257
597000
2000
یه کپی از اون فرمان به اون قسمت شبیه ساز نٍرونی میره
10:14
to anticipateپیش بینی کنید the sensoryحسی consequencesعواقب of your actionsاقدامات.
258
599000
4000
برای پیش بینی کردن عواقب حسی اون عمل انجام شده.
10:18
So as I shakeلرزش this ketchupسس گوجه bottleبطری,
259
603000
2000
بنابراین در حین اینکه من دارم این ظرف سس رو تکون میدم،
10:20
I get some trueدرست است sensoryحسی feedbackبازخورد as the functionعملکرد of time in the bottomپایین rowردیف.
260
605000
3000
من بعنوان تابعی از زمان در سطر پایینی، فیدبک درستی از سیستم حسگرهام میگیرم.
10:23
And if I've got a good predictorپیشگو, it predictsپیش بینی می کند the sameیکسان thing.
261
608000
3000
و اگر من یه پیش بینی کننده خوبی داشته باشم، اون هم همین رو پیش بینی خواهد کرد.
10:26
Well why would I botherزحمت doing that?
262
611000
2000
خب حالا چرا باید به خودم زحمت بدم که اون کار رو بکنم؟
10:28
I'm going to get the sameیکسان feedbackبازخورد anywayبه هر حال.
263
613000
2000
من که بهرحال فیدبک یکسانی میگیرم.
10:30
Well there's good reasonsدلایل.
264
615000
2000
خب دلایل خوبی وجود داره.
10:32
Imagineتصور کن, as I shakeلرزش the ketchupسس گوجه bottleبطری,
265
617000
2000
تصور کنید، در حین اینکه دارم ظرف سس رو تکون میدم،
10:34
someoneکسی very kindlyمحبت آمیز comesمی آید up to me and tapsشیپور خاموشی it on the back for me.
266
619000
3000
یه نفر میاد و خیلی دوستانه میزنه پشت من.
10:37
Now I get an extraاضافی sourceمنبع of sensoryحسی informationاطلاعات
267
622000
2000
حالا من بخاطر اون عمل خارجی، اطلاعات حسی بیشتری دریافت میکنم.
10:39
dueناشی از to that externalخارجی actعمل کن.
268
624000
2000
حالا من بخاطر اون عمل خارجی، اطلاعات حسی بیشتری دریافت میکنم.
10:41
So I get two sourcesمنابع.
269
626000
2000
بنابراین من دو منبع اطلاعات دارم.
10:43
I get you tappingضربه زدن on it, and I get me shakingتکان دادن it,
270
628000
3000
شما که ضربه ای روش زدید، و من که تکونش دادم،
10:46
but from my senses'حواس " pointنقطه of viewچشم انداز,
271
631000
2000
ولی از نقطه نظر حواس من،
10:48
that is combinedترکیب شده togetherبا یکدیگر into one sourceمنبع of informationاطلاعات.
272
633000
3000
اونها با همدیگه ترکیب شدن ویک منبع اطلاعات واحد رو ساختن.
10:51
Now there's good reasonدلیل to believe
273
636000
2000
حالا یه دلیل خوب وجود داره که باور کنیم
10:53
that you would want to be ableتوانایی to distinguishتمیز دادن externalخارجی eventsمناسبت ها from internalداخلی eventsمناسبت ها.
274
638000
3000
که میخواهیم توانایی تمیز دادن بین وقایع داخلی و خارجی رو داشته باشیم.
10:56
Because externalخارجی eventsمناسبت ها are actuallyدر واقع much more behaviorallyرفتاری relevantمربوط
275
641000
3000
چون وقایع خارجی در واقع بیشتر مربوط به رفتار هستند تا احساس که داره داخل بدن من اتفاق میافته.
10:59
than feelingاحساس everything that's going on insideداخل my bodyبدن.
276
644000
3000
چون وقایع خارجی در واقع بیشتر مربوط به رفتار هستند تا احساس که داره داخل بدن من اتفاق میافته.
11:02
So one way to reconstructبازسازی that
277
647000
2000
بنابراین یه راه برای دوباره ساختن اون اینه که پیش بینی هایی --
11:04
is to compareمقايسه كردن the predictionپیش بینی --
278
649000
2000
بنابراین یه راه برای دوباره ساختن اون اینه که پیش بینی هایی --
11:06
whichکه is only basedمستقر on your movementجنبش commandsدستورات --
279
651000
2000
که فقط بر اساس فرمان های حرکتی هستند --
11:08
with the realityواقعیت.
280
653000
2000
با واقعیت مقایسه بشن.
11:10
Any discrepancyاختلاف should hopefullyخوشبختانه be externalخارجی.
281
655000
3000
و امیدوار باشیم که اختلاف اونها خارجی باشه.
11:13
So as I go around the worldجهان,
282
658000
2000
خب، در حالیکه روی زمین حرکت میکنم،
11:15
I'm makingساخت predictionsپیش بینی ها of what I should get, subtractingکم کردن them off.
283
660000
3000
دارم درباره چیزایی که برام پیش میاد پیش بینی میکنم، و اونها رو از همدیگه کم میکنم.
11:18
Everything left over is externalخارجی to me.
284
663000
2000
باقیمانده این تفریق برای من واقعه ای خارجیه.
11:20
What evidenceشواهد is there for this?
285
665000
2000
چه شواهدی برای این وجود داره؟
11:22
Well there's one very clearروشن است exampleمثال
286
667000
2000
خب، یه مثال خیلی شفاف وجود داره
11:24
where a sensationاحساسات generatedتولید شده است by myselfخودم feelsاحساس می کند very differentناهمسان
287
669000
2000
یعنی حسی که توسط خودم تولید شده از اونی که بوسیله یه نفر دیگه تولید شده خیلی حس متفاوتی برای من داره.
11:26
then if generatedتولید شده است by anotherیکی دیگر personفرد.
288
671000
2000
یعنی حسی که توسط خودم تولید شده از اونی که بوسیله یه نفر دیگه تولید شده خیلی حس متفاوتی برای من داره.
11:28
And so we decidedقرار بر این شد the mostاکثر obviousآشکار placeمحل to startشروع کن
289
673000
2000
و بنابراین ما از واضح ترین چیزی که به نظر میرسید شروع کردیم
11:30
was with ticklingتکان دادن.
290
675000
2000
با قلقلک دادن.
11:32
It's been knownشناخته شده for a long time, you can't tickleغلغلک دادن yourselfخودت
291
677000
2000
خیلی وقته که همه میدونن کسی نمیتونه خودش رو به خوبی طوری که دیگران قلقلک میدن، قلقلک بده.
11:34
as well as other people can.
292
679000
2000
خیلی وقته که همه میدونن کسی نمیتونه خودش رو به خوبی طوری که دیگران قلقلک میدن، قلقلک بده.
11:36
But it hasn'tنه really been shownنشان داده شده, it's because you have a neuralعصبی simulatorشبیه ساز,
293
681000
3000
ولی نشون داده نشده بود، بخاطر اینه که یه شبیه ساز نٍرونی هست که بدن خود فرد رو شبیه سازی میکنه
11:39
simulatingشبیه سازی your ownخودت bodyبدن
294
684000
2000
ولی نشون داده نشده بود، بخاطر اینه که یه شبیه ساز نٍرونی هست که بدن خود فرد رو شبیه سازی میکنه
11:41
and subtractingکم کردن off that senseاحساس.
295
686000
2000
و اون حس رو ازش کم میکنه.
11:43
So we can bringآوردن the experimentsآزمایشات of the 21stخیابان centuryقرن
296
688000
3000
خب، ما میتونیم از تجربه های قرن 21ام با استفاده کردن از تکنولوژی روباتیک برای حل این مساله استفاده کنیم.
11:46
by applyingاعمال roboticروباتیک technologiesفن آوری ها to this problemمسئله.
297
691000
3000
خب، ما میتونیم از تجربه های قرن 21ام با استفاده کردن از تکنولوژی روباتیک برای حل این مساله استفاده کنیم.
11:49
And in effectاثر, what we have is some sortمرتب سازی of stickچوب in one handدست attachedمتصل شده to a robotربات,
298
694000
3000
و در اثر این، چیزی که ما بدست آوردیم یه جورایی یه چوب کوچک در یک دست بود که به یه روبات متصل بود،
11:52
and they're going to moveحرکت that back and forwardرو به جلو.
299
697000
2000
و روبات ها میخواستند که اون چوب ها رو به عقب و جلو حرکت بدن.
11:54
And then we're going to trackمسیر that with a computerکامپیوتر
300
699000
2000
و بعد ما اون حرکات رو با یک کامپیوتر پیگیری می کنیم
11:56
and use it to controlکنترل anotherیکی دیگر robotربات,
301
701000
2000
و ازش برای کنترل کردن یه روبات دیگه استفاده میکنیم،
11:58
whichکه is going to tickleغلغلک دادن theirخودشان palmنخل with anotherیکی دیگر stickچوب.
302
703000
2000
که کف دستشون رو با یه چوب دیگه قلقلک میده.
12:00
And then we're going to askپرسیدن them to rateنرخ a bunchدسته ای of things
303
705000
2000
بعدش ما ازشون میخوایم که یه سری چیزها، از جمله حس قلقلک رو برای ما درجه بندی کنن.
12:02
includingشامل ticklishnessگیجی.
304
707000
2000
بعدش ما ازشون میخوایم که یه سری چیزها، از جمله حس قلقلک رو برای ما درجه بندی کنن.
12:04
I'll showنشان بده you just one partبخشی of our studyمطالعه.
305
709000
2000
من فقط یه قسمت از تحقیقمون رو به شما نشون خواهم داد.
12:06
And here I've takenگرفته شده away the robotsروبات ها,
306
711000
2000
و اینجا من روبات ها رو کنار بردم،
12:08
but basicallyاساسا people moveحرکت with theirخودشان right armبازو sinusoidallyسینوسی back and forwardرو به جلو.
307
713000
3000
ولی اساسا افراد با دست راستشون به جلو و عقب حرکت سینوسی شکل میدن.
12:11
And we replayبازپخش that to the other handدست with a time delayتاخیر انداختن.
308
716000
3000
و ما اون حرکت رو با کمی تاخیر به دست دیگه شون منتقل میکنیم.
12:14
Eitherهر دو no time delayتاخیر انداختن,
309
719000
2000
یا بدون تاخیر،
12:16
in whichکه caseمورد lightسبک would just tickleغلغلک دادن your palmنخل,
310
721000
2000
در هر صورت کف دستشون قلقلک داده میشه،
12:18
or with a time delayتاخیر انداختن of two-tenthsدو دهم of three-tenthsسه دهم of a secondدومین.
311
723000
4000
یا با تاخیر زمانی دو-دهم یا سه-دهم ثانیه ای.
12:22
So the importantمهم pointنقطه here
312
727000
2000
بنابراین نکته مهم اینجا
12:24
is the right handدست always does the sameیکسان things -- sinusoidalسینوسی movementجنبش.
313
729000
3000
اینه که دست راست همیشه یه کار انجام میده - حرکت سینوسی.
12:27
The left handدست always is the sameیکسان and putsقرار می دهد sinusoidalسینوسی tickleغلغلک دادن.
314
732000
3000
دست چپ همیشه یکسانه و حرکت قلقلک سینوسی رو دریافت میکنه.
12:30
All we're playingبازی کردن with is a tempoسرعت causalityعلیت.
315
735000
2000
و چیزی که ما تغییر میدیم، گام رابطه علت و معلولیه.
12:32
And as we go from naughtهیچی to 0.1 secondدومین,
316
737000
2000
و همینطور که ما از بدون تاخیر به سمت 0.1 ثانیه میریم،
12:34
it becomesتبدیل می شود more ticklishعجله کن.
317
739000
2000
اون خیلی قلقلک آمیزتر میشه.
12:36
As you go from 0.1 to 0.2,
318
741000
2000
و وقتی از 0.1 به 0.2 میریم،
12:38
it becomesتبدیل می شود more ticklishعجله کن at the endپایان.
319
743000
2000
در نهایت قلقلک آمیزتر میشه.
12:40
And by 0.2 of a secondدومین,
320
745000
2000
و در 0.2 ثانیه، قلقلک آمیزیش معادل اینه که روبات شما رو قلقلک بده، بدون اینکه شما کاری کنید.
12:42
it's equivalentlyهم ارز ticklishعجله کن
321
747000
2000
و در 0.2 ثانیه، قلقلک آمیزیش معادل اینه که روبات شما رو قلقلک بده، بدون اینکه شما کاری کنید.
12:44
to the robotربات that just tickledغلط کردم you withoutبدون you doing anything.
322
749000
2000
و در 0.2 ثانیه، قلقلک آمیزیش معادل اینه که روبات شما رو قلقلک بده، بدون اینکه شما کاری کنید.
12:46
So whateverهر چه is responsibleمسئول for this cancellationلغو
323
751000
2000
حالا هرچیزی که مسئول اینه، چیزیه که بشدت به علیت گام تاخیر مربوطه.
12:48
is extremelyفوق العاده tightlyمحکم coupledهمراه با with tempoسرعت causalityعلیت.
324
753000
3000
حالا هرچیزی که مسئول اینه، چیزیه که بشدت به علیت گام تاخیر مربوطه.
12:51
And basedمستقر on this illustrationتصویر, we really convincedمتقاعد ourselvesخودمان in the fieldرشته
325
756000
3000
و بر اساس این تصویر، ما در این زمینه واقعا قانع شدیم
12:54
that the brain'sمغز makingساخت preciseدقیق predictionsپیش بینی ها
326
759000
2000
که مغز پیش بینی های دقیقی میکنه
12:56
and subtractingکم کردن them off from the sensationsاحساسات.
327
761000
3000
و اونها رو از دریافت های حسی تفریق میکنه.
12:59
Now I have to admitاقرار کردن, these are the worstبدترین studiesمطالعات my labآزمایشگاه has ever runاجرا کن.
328
764000
3000
حالا من باید اعتراف کنم، اینها بدترین مطالعاتی بودند که آزمایشگاه من توی عمر خودش انجام داده.
13:02
Because the tickleغلغلک دادن sensationاحساسات on the palmنخل comesمی آید and goesمی رود,
329
767000
2000
چون قلقلک روی کف دست میاد و میره،
13:04
you need largeبزرگ numbersشماره of subjectsفاعل، موضوع
330
769000
2000
احتیاج به تعداد زیادی شخص هست که این ستاره ها اونها رو با اهمیت کنه.
13:06
with these starsستاره ها makingساخت them significantقابل توجه.
331
771000
2000
احتیاج به تعداد زیادی شخص هست که این ستاره ها اونها رو با اهمیت کنه.
13:08
So we were looking for a much more objectiveهدف، واقعگرایانه way
332
773000
2000
بنابراین ما برای بررسی این پدیده، دنبال یه راه خیلی علمی تر بودیم.
13:10
to assessارزیابی کنید this phenomenaپدیده ها.
333
775000
2000
بنابراین ما برای بررسی این پدیده، دنبال یه راه خیلی علمی تر بودیم.
13:12
And in the interveningمداخله yearsسالها I had two daughtersدختران.
334
777000
2000
و در خلال این سالها من دوتا دختربچه داشتم.
13:14
And one thing you noticeاطلاع about childrenفرزندان in backseatsتعطیلات of carsماشین ها on long journeysسفرها,
335
779000
3000
و یه چیزی که درباره بچه ها در صندلی های پشتی ماشین، در سفرهای طولانی متوجه میشیم،
13:17
they get into fightsمبارزه می کند --
336
782000
2000
اینه که اونها با هم دعوا میکنن --
13:19
whichکه startedآغاز شده with one of them doing something to the other, the other retaliatingانتقامجویی.
337
784000
3000
که با یکیشون که یه کاری با اون یکی کرده شروع میشه، اون یکی تلافی میکنه.
13:22
It quicklyبه سرعت escalatesافزایش می یابد.
338
787000
2000
به زودی دعوا بالا میگیره.
13:24
And childrenفرزندان tendگرایش داشتن to get into fightsمبارزه می کند whichکه escalateتشدید می شود in termsاصطلاحات of forceزور.
339
789000
3000
و بچه ها درگیر دعواهایی میشن که از نظر شدت گرفتن، به بالا گرفتن گرایش داره.
13:27
Now when I screamedفریاد زد at my childrenفرزندان to stop,
340
792000
2000
حالا وقتی من سرشون داد زدم که تمومش کنن،
13:29
sometimesگاه گاهی they would bothهر دو say to me
341
794000
2000
بعضی وقتا جفتشون بهم میگن، اون یکی محکم تر زده.
13:31
the other personفرد hitاصابت them harderسخت تر.
342
796000
3000
بعضی وقتا جفتشون بهم میگن، اون یکی محکم تر زده.
13:34
Now I happenبه وقوع پیوستن to know my childrenفرزندان don't lieدروغ,
343
799000
2000
حالا من میدونم که بچه هام دروغگو نیستن،
13:36
so I thought, as a neuroscientistعصب شناس,
344
801000
2000
بنابراین فکر کردم، به عنوان یه متخصص مغز و اعصاب،
13:38
it was importantمهم how I could explainتوضیح
345
803000
2000
مهم بود که چطوری بتونم توضیح بدم
13:40
how they were tellingگفتن inconsistentناسازگار truthsحقایق.
346
805000
2000
اونها چطوری دارن واقعیتی رو میگن که باهم ناسازگاره.
13:42
And we hypothesizeفرضیه basedمستقر on the ticklingتکان دادن studyمطالعه
347
807000
2000
و ما براساس مطالعه ای که روی قلقلک داشتیم فرض کردیم
13:44
that when one childکودک hitsبازدید anotherیکی دیگر,
348
809000
2000
که وقتی یکی از بچه ها اون یکی رو میزنه،
13:46
they generateتولید کنید the movementجنبش commandفرمان.
349
811000
2000
اونها فرمان حرکتی رو تولید میکنن.
13:48
They predictپیش بینی the sensoryحسی consequencesعواقب and subtractتفریق کردن it off.
350
813000
3000
اونها عواقب حسی رو پیش بینی میکنن و اون رو ازش تفریق میکنن.
13:51
So they actuallyدر واقع think they'veآنها دارند hitاصابت the personفرد lessکمتر hardسخت than they have --
351
816000
2000
بنابراین اونها درواقع فکر میکنن که طرف مقابل رو آروم تر زدن --
13:53
ratherنسبتا like the ticklingتکان دادن.
352
818000
2000
بیشتر شبیه قلقلک دادن.
13:55
Whereasدر حالیکه the passiveمنفعل recipientدریافت کننده
353
820000
2000
درحالیکه اونکه مورد اصابت ضربه قرار گرفته
13:57
doesn't make the predictionپیش بینی, feelsاحساس می کند the fullپر شده blowفوت کردن، دمیدن.
354
822000
2000
اون پیش بینی رو نمیکنه، و کل ضربه رو حس میکنه.
13:59
So if they retaliateتلاطم with the sameیکسان forceزور,
355
824000
2000
بنابراین اگر به همون قدرت تلافی کنه،
14:01
the first personفرد will think it's been escalatedافزایش یافت.
356
826000
2000
شخص اول فکر خواهد کرد که ضربه، محکم تر شده.
14:03
So we decidedقرار بر این شد to testتست this in the labآزمایشگاه.
357
828000
2000
بنابراین ما تصمیم گرفتیم این رو در آزمایشگاه امتحان کنیم.
14:05
(Laughterخنده)
358
830000
3000
(خنده حاضرین)
14:08
Now we don't work with childrenفرزندان, we don't work with hittingضربه زدن,
359
833000
2000
حالا ما با بچه ها و ضربه زدن کاری نداریم.
14:10
but the conceptمفهوم is identicalیکسان.
360
835000
2000
ولی مفهوم قضیه کاملا یکسانه.
14:12
We bringآوردن in two adultsبزرگسالان. We tell them they're going to playبازی a gameبازی.
361
837000
3000
ما دو نفر آدم بالغ رو به داخل میاریم. بهشون میگیم اونها قراره یه بازی کنن.
14:15
And so here'sاینجاست playerبازیکن one and playerبازیکن two sittingنشسته oppositeمخالف to eachهر یک other.
362
840000
2000
خب این بازیکن شماره یک و شماره دو هستند که مقابل همدیگه نشسته اند.
14:17
And the gameبازی is very simpleساده.
363
842000
2000
و بازی خیلی آسونه.
14:19
We startedآغاز شده with a motorموتور
364
844000
2000
ما به یک موتور شروع کردیم
14:21
with a little leverاهرم, a little forceزور transfuserانتقال دهنده.
365
846000
2000
با یک اهرم کوچک، یه منتقل کننده نیرو.
14:23
And we use this motorموتور to applyدرخواست forceزور down to playerبازیکن one'sیک نفر fingersانگشتان
366
848000
2000
و از این موتور برای وارد کردن فشار روی انگشتان یکی از افراد استفاده میکنیم
14:25
for threeسه secondsثانیه and then it stopsمتوقف می شود.
367
850000
3000
برای سه ثانیه و بعدش متوقف میشه.
14:28
And that player'sپخش کننده been told, rememberیاد آوردن the experienceتجربه of that forceزور
368
853000
3000
و به اون فرد میگیم، که تجربه اون نیروی وارد شده رو به خاطر بسپاره و از انگشت دیگه اش استفاده کنه
14:31
and use your other fingerانگشت
369
856000
2000
و به اون فرد میگیم، که تجربه اون نیروی وارد شده رو به خاطر بسپاره و از انگشت دیگه اش استفاده کنه
14:33
to applyدرخواست the sameیکسان forceزور
370
858000
2000
برای وارد کردن نیرویی دقیقا یکسان
14:35
down to the other subject'sفاعل، موضوع fingerانگشت throughاز طریق a forceزور transfuserانتقال دهنده -- and they do that.
371
860000
3000
به انگشتان شخص دیگری از طریق منتقل کننده نیرو -- و اونها اینکار رو میکنن.
14:38
And playerبازیکن two'sدو نفر been told, rememberیاد آوردن the experienceتجربه of that forceزور.
372
863000
3000
و به شخص دوم گفته شده، تجربه نیروی وارد شده رو به خاطر بسپاره.
14:41
Use your other handدست to applyدرخواست the forceزور back down.
373
866000
3000
از انگشت دیگه ات برای وارد کردن همون مقدار نیرو استفاده کن.
14:44
And so they take it in turnsچرخش
374
869000
2000
و بنابراین اونها نوبتی
14:46
to applyدرخواست the forceزور they'veآنها دارند just experiencedبا تجربه back and forwardرو به جلو.
375
871000
2000
نیرویی که دفعه قبل به انگشتشون وارد شده رو به نفر بعدی اعمال میکنن.
14:48
But criticallyانتقادی,
376
873000
2000
ولی این نکته مهمه که،
14:50
they're briefedخلاصه about the rulesقوانین of the gameبازی in separateجداگانه roomsاتاق ها.
377
875000
3000
اونها در اتاق های جداگونه ای در جریان قوانین بازی قرار گرفتند.
14:53
So they don't know the rulesقوانین the other person'sفردی playingبازی کردن by.
378
878000
2000
بنابراین اونها قوانینی که نفر مقابلشون داره باهاش بازی میکنه رو نمیدونن.
14:55
And what we'veما هستیم measuredاندازه گیری شده
379
880000
2000
و چیزی رو که ما اندازه گرفتیم
14:57
is the forceزور as a functionعملکرد of termsاصطلاحات.
380
882000
2000
نیرو به عنوان تابعی از شرایطه.
14:59
And if we look at what we startشروع کن with,
381
884000
2000
و اگر به چیزی که باهاش شروع کردیم نگاهی بندازیم،
15:01
a quarterربع of a Newtonنیوتن there, a numberعدد of turnsچرخش,
382
886000
2000
یک چهارم نیوتن، چند دور تکرار بازی،
15:03
perfectکامل would be that redقرمز lineخط.
383
888000
2000
اون خط قرمز میتونست عالی باشه.
15:05
And what we see in all pairsجفت of subjectsفاعل، موضوع is this --
384
890000
3000
و چیزی که ما در همه گروه های دو نفره میبینیم اینه --
15:08
a 70 percentدرصد escalationتشدید شدن in forceزور
385
893000
2000
بالارفتن 70 درصدی نیرو در هر بار.
15:10
on eachهر یک go.
386
895000
2000
بالارفتن 70 درصدی نیرو در هر بار.
15:12
So it really suggestsحاکی از, when you're doing this --
387
897000
2000
پس این واقعا اشاره میکنه، وقتی اینکار داره انجام میشه --
15:14
basedمستقر on this studyمطالعه and othersدیگران we'veما هستیم doneانجام شده --
388
899000
2000
بر اساس این تحقیق و دیگر تحقیق هایی که ما انجام داده ایم --
15:16
that the brainمغز is cancelingلغو the sensoryحسی consequencesعواقب
389
901000
2000
که مغز عواقب حسی رو فسخ میکنه
15:18
and underestimatingکم توجهی the forceزور it's producingتولید.
390
903000
2000
و نیرویی رو که داره تولید میکنه رو کمتر تخمین میزنه.
15:20
So it re-showsدوباره نشان می دهد the brainمغز makesباعث می شود predictionsپیش بینی ها
391
905000
2000
بنابراین این دوباره به ما نشون میده که مغز پیش بینی هایی میکنه
15:22
and fundamentallyاساسا changesتغییرات the preceptsمقررات.
392
907000
3000
و فرمان ها رو بصورت اساسی تغییر میده.
15:25
So we'veما هستیم madeساخته شده inferencesنتیجه گیری, we'veما هستیم doneانجام شده predictionsپیش بینی ها,
393
910000
3000
بنابراین ما استنتاج کردیم، ما پیش بینی کردیم،
15:28
now we have to generateتولید کنید actionsاقدامات.
394
913000
2000
حالا ما باید حرکتی کنیم.
15:30
And what Bayes'بایس ruleقانون saysمی گوید is, givenداده شده my beliefsاعتقادات,
395
915000
2000
و چیزی که قانون 'بیژی ان' با توجه به باور من میگه،
15:32
the actionعمل should in some senseاحساس be optimalبهینه.
396
917000
2000
اینه که این عمل و حرکت باید از جهاتی بهینه باشه.
15:34
But we'veما هستیم got a problemمسئله.
397
919000
2000
ولی ما یه مشکل داریم.
15:36
Tasksوظایف are symbolicنمادین -- I want to drinkنوشیدن, I want to danceرقص --
398
921000
3000
کارها و حرکت ها نمادین هستند -- من میخوام بنوشم، من میخوام برقصم --
15:39
but the movementجنبش systemسیستم has to contractقرارداد 600 musclesعضلات
399
924000
2000
ولی سیستم حرکتی باید 600 مفصل رو به ترتیب مشخصی منقبض کنه.
15:41
in a particularخاص sequenceتوالی.
400
926000
2000
ولی سیستم حرکتی باید 600 مفصل رو به ترتیب مشخصی منقبض کنه.
15:43
And there's a bigبزرگ gapشکاف
401
928000
2000
و یه شکاف بزرگی بین حرکت و سیستم حرکتی وجود داره.
15:45
betweenبین the taskوظیفه and the movementجنبش systemسیستم.
402
930000
2000
و یه شکاف بزرگی بین حرکت و سیستم حرکتی وجود داره.
15:47
So it could be bridgedپل مونتاژ شده in infinitelyبی نهایت manyبسیاری differentناهمسان waysراه ها.
403
932000
2000
پس این شکاف میتونه از طریق بی نهایت مسیر متفاوت پر بشه.
15:49
So think about just a pointنقطه to pointنقطه movementجنبش.
404
934000
2000
فقط یک حرکت از نقطه ای به نقطه دیگه رو در نظر بگیرید.
15:51
I could chooseانتخاب کنید these two pathsراه ها
405
936000
2000
من میتونستم این دو مسیر رو از میان بینهایت مسیر دیگه انتخاب کنم.
15:53
out of an infiniteبي نهايت numberعدد of pathsراه ها.
406
938000
2000
من میتونستم این دو مسیر رو از میان بینهایت مسیر دیگه انتخاب کنم.
15:55
Havingداشتن chosenانتخاب شده a particularخاص pathمسیر,
407
940000
2000
وقتی اون مسیر مخصوص رو انتخاب کردم
15:57
I can holdنگه دارید my handدست on that pathمسیر
408
942000
2000
میتونم وضعیت قرار گرفتن مفصل های دستم رو در طول اون مسیر، بی نهایت مختلف انتخاب کنم.
15:59
as infinitelyبی نهایت manyبسیاری differentناهمسان jointمفصل configurationsپیکربندی.
409
944000
2000
میتونم وضعیت قرار گرفتن مفصل های دستم رو در طول اون مسیر، بی نهایت مختلف انتخاب کنم.
16:01
And I can holdنگه دارید my armبازو in a particularخاص jointمفصل configurationپیکربندی
410
946000
2000
و میتونم مفاصل بازوم رو بصورت بخصوصی بگیرم
16:03
eitherیا very stiffسفت or very relaxedآرامش.
411
948000
2000
یا سفت و شق و رق یا خیلی سست و راحت.
16:05
So I have a hugeبزرگ amountمیزان of choiceانتخابی to make.
412
950000
3000
بنابراین من انتخاب های بسیار زیادی دارم.
16:08
Now it turnsچرخش out, we are extremelyفوق العاده stereotypicalکلیشه ای.
413
953000
3000
حالا معلوم شده، ما بشدت کلیشه ای هستیم.
16:11
We all moveحرکت the sameیکسان way prettyبسیار much.
414
956000
3000
ما همه مون تقریبا بصورت یکسان حرکت میکنیم.
16:14
And so it turnsچرخش out we're so stereotypicalکلیشه ای,
415
959000
2000
بنابراین معلوم شده که ما خیلی کلیشه ای هستیم،
16:16
our brainsمغز have got dedicatedاختصاصی neuralعصبی circuitryمدار مدار
416
961000
2000
مغزهای ما برای رمزگشایی این کلیشه، مدار نٍرونی مخصوصی دارن.
16:18
to decodeرمزگشایی کنید this stereotypingکلیشه کردن.
417
963000
2000
مغزهای ما برای رمزگشایی این کلیشه، مدار نٍرونی مخصوصی دارن.
16:20
So if I take some dotsنقطه ها
418
965000
2000
بنابراین اگر من چند نقطه رو بصورت حرکت بیولوژیکی (مثل حرکت انسان) به حرکت دربیارم.
16:22
and setتنظیم them in motionحرکت with biologicalبیولوژیکی motionحرکت,
419
967000
3000
بنابراین اگر من چند نقطه رو بصورت حرکت بیولوژیکی (مثل حرکت انسان) به حرکت دربیارم.
16:25
your brain'sمغز circuitryمدار مدار would understandفهمیدن instantlyفورا what's going on.
420
970000
3000
مدار مغز به سرعت میفهمه جریان چیه.
16:28
Now this is a bunchدسته ای of dotsنقطه ها movingدر حال حرکت.
421
973000
2000
حالا این یه سری نقطه متحرکه.
16:30
You will know what this personفرد is doing,
422
975000
3000
شما خواهید فهمید که این فرد داره چیکار میکنه،
16:33
whetherچه happyخوشحال, sadغمگین, oldقدیمی, youngجوان -- a hugeبزرگ amountمیزان of informationاطلاعات.
423
978000
3000
خوشحاله، ناراحته، پیره، جوونه -- مقدار زیادی اطلاعات.
16:36
If these dotsنقطه ها were carsماشین ها going on a racingمسابقه circuitمدار,
424
981000
2000
اگر این نقطه ها ماشین هایی بودند که در مسیر مسابقه در حال حرکت بودند،
16:38
you would have absolutelyکاملا no ideaاندیشه what's going on.
425
983000
3000
شما مطمئنا اصلا نمیدونستید جریان از قراره.
16:41
So why is it
426
986000
2000
خب چرا اینطوریه
16:43
that we moveحرکت the particularخاص waysراه ها we do?
427
988000
2000
که ما بصورت مخصوصی حرکت میکنیم؟
16:45
Well let's think about what really happensاتفاق می افتد.
428
990000
2000
خب بیاید راجع به اتفاقی که میافته فکر کنیم.
16:47
Maybe we don't all quiteکاملا moveحرکت the sameیکسان way.
429
992000
3000
شاید ما همه مون بصورت یکسان حرکت نمیکنیم.
16:50
Maybe there's variationتغییر in the populationجمعیت.
430
995000
2000
شاید یه سری تفاوت ها در جمیع افراد وجود داره.
16:52
And maybe those who moveحرکت better than othersدیگران
431
997000
2000
و شاید اونهایی که از دیگران بهتر حرکت میکنن
16:54
have got more chanceشانس of gettingگرفتن theirخودشان childrenفرزندان into the nextبعد generationنسل.
432
999000
2000
شانس بیشتری برای بچه دار شدن و ادامه نسل دارن.
16:56
So in evolutionaryتکامل یافته scalesمقیاس ها, movementsحرکات get better.
433
1001000
3000
پس در مقیاس تکامل، حرکت ها بهتر و بهتر میشن.
16:59
And perhapsشاید in life, movementsحرکات get better throughاز طریق learningیادگیری.
434
1004000
3000
و شاید در زندگی، حرکت ها از راه یادگیری بهتر میشن.
17:02
So what is it about a movementجنبش whichکه is good or badبد?
435
1007000
2000
حالا راجع به حرکت چه چیزی خوبه یا بده؟
17:04
Imagineتصور کن I want to interceptرهگیری this ballتوپ.
436
1009000
2000
فرض کنید من میخوام جلوی این توپ رو بگیرم.
17:06
Here are two possibleامکان پذیر است pathsراه ها to that ballتوپ.
437
1011000
3000
این دو مسیر ممکن برای این توپه.
17:09
Well if I chooseانتخاب کنید the left-handدست چپ pathمسیر,
438
1014000
2000
خب اگر من مسیر سمت چپ رو انتخاب کنم،
17:11
I can work out the forcesنیروها requiredضروری
439
1016000
2000
من میتونم نیروهای موردنیاز رو در یکی از مفصل هام به ازای تابعی از زمان تولید کنم.
17:13
in one of my musclesعضلات as a functionعملکرد of time.
440
1018000
2000
من میتونم نیروهای موردنیاز رو در یکی از مفصل هام به ازای تابعی از زمان تولید کنم.
17:15
But there's noiseسر و صدا addedاضافه to this.
441
1020000
2000
ولی نویز هم به این اضافه شده.
17:17
So what I actuallyدر واقع get, basedمستقر on this lovelyدوست داشتني, smoothصاف, desiredدلخواه forceزور,
442
1022000
3000
بر پایه نیروی مورد نظر، روان و خواستنی ، چیزی که واقعا بدست میاید یه نسخه پر از نویزه.
17:20
is a very noisyپر سر و صدا versionنسخه.
443
1025000
2000
بر پایه نیروی مورد نظر، روان و خواستنی ، چیزی که واقعا بدست میاید یه نسخه پر از نویزه.
17:22
So if I pickانتخاب کنید the sameیکسان commandفرمان throughاز طریق manyبسیاری timesبار,
444
1027000
3000
بنابراین اگر من یک فرمان یکسان رو در طول زمانهای زیادی انتخاب کنم،
17:25
I will get a differentناهمسان noisyپر سر و صدا versionنسخه eachهر یک time, because noiseسر و صدا changesتغییرات eachهر یک time.
445
1030000
3000
من هر دفعه یه نسخه نویز دار بدست میارم، چون نویز هر دفعه تغییر میکنه.
17:28
So what I can showنشان بده you here
446
1033000
2000
بنابراین اون چیزی که اینجا میتونم بهتون نشون بدم
17:30
is how the variabilityتنوع of the movementجنبش will evolveتکامل یابد
447
1035000
2000
اینه که اگر اون راه رو انتخاب میکردم تغییرات حرکتی چطوری تکامل پیدا میکرد.
17:32
if I chooseانتخاب کنید that way.
448
1037000
2000
اینه که اگر اون راه رو انتخاب میکردم تغییرات حرکتی چطوری تکامل پیدا میکرد.
17:34
If I chooseانتخاب کنید a differentناهمسان way of movingدر حال حرکت -- on the right for exampleمثال --
449
1039000
3000
اگر من یه راه دیگه رو برای حرکت کردن انتخاب کنم -- مثلا اون راستیه رو --
17:37
then I'll have a differentناهمسان commandفرمان, differentناهمسان noiseسر و صدا,
450
1042000
2000
پس من یه فرمان متفاوت خواهم داشت، و نویز متفاوت،
17:39
playingبازی کردن throughاز طریق a noisyپر سر و صدا systemسیستم, very complicatedبغرنج.
451
1044000
3000
با یه سیستمی که نویز داره کار کردن خیلی سخته.
17:42
All we can be sure of is the variabilityتنوع will be differentناهمسان.
452
1047000
3000
چیزی که همه مون میتونیم درباره اش مطمئن باشیم اینه که تغییرات متفاوت خواهد بود.
17:45
If I moveحرکت in this particularخاص way,
453
1050000
2000
اگر من در این راه مشخص حرکت کنم،
17:47
I endپایان up with a smallerکوچکتر variabilityتنوع acrossدر سراسر manyبسیاری movementsحرکات.
454
1052000
3000
من به تنوع کمتری درطول حرکات زیادی خواهم رسید
17:50
So if I have to chooseانتخاب کنید betweenبین those two,
455
1055000
2000
بنابراین اگر من مجبور باشم بین اون دو یکی رو انتخاب کنم،
17:52
I would chooseانتخاب کنید the right one because it's lessکمتر variableمتغیر.
456
1057000
2000
من سمت راستی رو انتخاب میکنم چون تغییراتش کمتره.
17:54
And the fundamentalاساسی ideaاندیشه
457
1059000
2000
و ایده اساسی اینه که شما حرکاتتان را برنامه ریزی کنید بطوری که نتیجه منفی نویز را به حداقل برسانید.
17:56
is you want to planطرح your movementsحرکات
458
1061000
2000
و ایده اساسی اینه که شما حرکاتتان را برنامه ریزی کنید بطوری که نتیجه منفی نویز را به حداقل برسانید.
17:58
so as to minimizeبه حداقل رساندن the negativeمنفی consequenceنتیجه of the noiseسر و صدا.
459
1063000
3000
عواقب منفی نویز رو بشه کاهش داد.
18:01
And one intuitionبینش to get
460
1066000
2000
یک شهود برای بدست آوردن میزان واقعی نویز یا تغییر پذیری که اینجا نشون دادم اینه که هر چقدر نیرو بیشتر باشه اون هم بیشتره.
18:03
is actuallyدر واقع the amountمیزان of noiseسر و صدا or variabilityتنوع I showنشان بده here
461
1068000
2000
یک شهود برای بدست آوردن میزان واقعی نویز یا تغییر پذیری که اینجا نشون دادم اینه که هر چقدر نیرو بیشتر باشه اون هم بیشتره.
18:05
getsمی شود biggerبزرگتر as the forceزور getsمی شود biggerبزرگتر.
462
1070000
2000
یک شهود برای بدست آوردن میزان واقعی نویز یا تغییر پذیری که اینجا نشون دادم اینه که هر چقدر نیرو بیشتر باشه اون هم بیشتره.
18:07
So you want to avoidاجتناب کردن bigبزرگ forcesنیروها as one principleاصل.
463
1072000
3000
بنابراین به عنوان یک قانون ، باید از نیروهای بزرگ خودداری کرد.
18:10
So we'veما هستیم shownنشان داده شده that usingاستفاده كردن this,
464
1075000
2000
بنابراین با استفاده از این ما نشون دادیم،
18:12
we can explainتوضیح a hugeبزرگ amountمیزان of dataداده ها --
465
1077000
2000
ما میتونیم مقدار بسیار بزرگی از اطلاعات رو تفسیر کنیم --
18:14
that exactlyدقیقا people are going about theirخودشان livesزندگی می کند planningبرنامه ریزی movementsحرکات
466
1079000
3000
که واقعا آدم ها حرکاتشون در زندگی رو طوری طراحی میکنن که عواقب منفی نویز رو در اونها کاهش بدن.
18:17
so as to minimizeبه حداقل رساندن negativeمنفی consequencesعواقب of noiseسر و صدا.
467
1082000
3000
که واقعا آدم ها حرکاتشون در زندگی رو طوری طراحی میکنن که عواقب منفی نویز رو در اونها کاهش بدن.
18:20
So I hopeامید I've convincedمتقاعد you the brainمغز is there
468
1085000
2000
بنابراین امیدوارم من شما رو قانع کرده باشم که مغز اونجاست
18:22
and evolvedتکامل یافته است to controlکنترل movementجنبش.
469
1087000
2000
و برای کنترل کردن حرکات تکامل پیدا کرده.
18:24
And it's an intellectualفکری challengeچالش to understandفهمیدن how we do that.
470
1089000
3000
و فهمیدن اینکه ما چطوری اون رو انجام میدیم، یه چالش فکریه.
18:27
But it's alsoهمچنین relevantمربوط
471
1092000
2000
ولی این موضوع همچنین به بیماری ها و توانبخشی دوباره مربوطه.
18:29
for diseaseمرض and rehabilitationتوانبخشی.
472
1094000
2000
ولی این موضوع همچنین به بیماری ها و توانبخشی دوباره مربوطه.
18:31
There are manyبسیاری diseasesبیماری ها whichکه effectاثر movementجنبش.
473
1096000
3000
بیماری های زیادی وجود دارند که حرکت رو تحت تاثیر قرار میدن.
18:34
And hopefullyخوشبختانه if we understandفهمیدن how we controlکنترل movementجنبش,
474
1099000
2000
و خوشبختانه اگر ما بفهمیم که چطور حرکت کردن رو کنترل میکنیم،
18:36
we can applyدرخواست that to roboticروباتیک technologyتکنولوژی.
475
1101000
2000
میتونیم اون رو در تکنولوژی روبات ها به کار بگیریم.
18:38
And finallyسرانجام, I want to remindیادآوری کن you,
476
1103000
2000
و در آخر، میخوام به شما یادآوری کنم،
18:40
when you see animalsحیوانات do what look like very simpleساده tasksوظایف,
477
1105000
2000
وقتی شما کارهایی که حیوانات انجام میدن و به نظر کارهای راحتی میاد رو میبینید،
18:42
the actualواقعی complexityپیچیدگی of what is going on insideداخل theirخودشان brainمغز
478
1107000
2000
پیچیدگی واقعی اتفاقی که داره داخل مغزشون میافته
18:44
is really quiteکاملا dramaticنمایشی.
479
1109000
2000
کاملا و واقعا اثرگذاره.
18:46
Thank you very much.
480
1111000
2000
از شما خیلی متشکرم.
18:48
(Applauseتشویق و تمجید)
481
1113000
8000
(تشویق حاضرین)
18:56
Chrisکریس Andersonاندرسون: Quickسریع questionسوال for you, Danدن.
482
1121000
2000
کریس اندرسون: یه سوال سریع دارم، دن.
18:58
So you're a movementجنبش -- (DWDW: Chauvinistشووینیست.) -- chauvinistشوونیست.
483
1123000
4000
خب تو یه طرفدار پر و پا قرص تحرک هستی.
19:02
Does that mean that you think that the other things we think our brainsمغز are about --
484
1127000
3000
این به این معنیه که تو فکر میکنی کارهای دیگری که ما فکر میکنیم مغزمون انجام میده --
19:05
the dreamingرویا پردازی, the yearningاشتیاق, the fallingافتادن in love and all these things --
485
1130000
3000
رویا پردازی، تمایل، عاشق شدن و همه این چیزا --
19:08
are a kindنوع of sideسمت showنشان بده, an accidentتصادف?
486
1133000
3000
یه جورایی کارهای جنبی هستن، یه اتفاق هستند؟
19:11
DWDW: No, no, actuallyدر واقع I think they're all importantمهم
487
1136000
2000
د.و: نه، نه، در واقع من فکر میکنم اونها همشون
19:13
to driveراندن the right movementجنبش behaviorرفتار to get reproductionتولید مثل in the endپایان.
488
1138000
3000
برای به حرکت درآوردن رفتار حرکتی درست، در نهایت برای بدست آوردن بازتولید مهم هستند.
19:16
So I think people who studyمطالعه sensationاحساسات or memoryحافظه
489
1141000
3000
خُب من معتقدم اونهایی که درباره احساسات یا حافظه مطالعه میکنن
19:19
withoutبدون realizingتحقق why you're layingتخمگذار down memoriesخاطرات of childhoodدوران کودکی.
490
1144000
2000
بدون اینکه درک کنن چرا خاطراتی از کودکی ساخته میشه.
19:21
The factواقعیت that we forgetفراموش کردن mostاکثر of our childhoodدوران کودکی, for exampleمثال,
491
1146000
3000
واقعیت اینه که ما برای مثال بیشتر کودکی مون رو فراموش میکنیم،
19:24
is probablyشاید fine, because it doesn't effectاثر our movementsحرکات laterبعد in life.
492
1149000
3000
این مشکلی نداره، چون این قضیه، حرکت کردن ما رو در زندگی تحت تاثیر قرار نمیده.
19:27
You only need to storeفروشگاه things whichکه are really going to effectاثر movementجنبش.
493
1152000
3000
چیزهایی که واقعا حرکات رو تحت تاثیر قرار میدن لازمه که به حافظه سپرده بشن.
19:30
CACA: So you think that people thinkingفكر كردن about the brainمغز, and consciousnessآگاهی generallyبطور کلی,
494
1155000
3000
ک.ا: پس تو فکر میکنی که کسانی که راجع به مغز، با بطور کلی هوش و حواس، تحقیق و فکر میکنن،
19:33
could get realواقعی insightبینش، بصیرت، درون بینی
495
1158000
2000
میتونن با پرسیدن این سوال که، حرکت کردن توی این قضیه کجا نقش بازی میکنه، به فهم درست و واقعی برسند؟
19:35
by sayingگفت:, where does movementجنبش playبازی in this gameبازی?
496
1160000
2000
میتونن با پرسیدن این سوال که، حرکت کردن توی این قضیه کجا نقش بازی میکنه، به فهم درست و واقعی برسند؟
19:37
DWDW: So people have foundپیدا شد out for exampleمثال
497
1162000
2000
د.و: خب کسانی برای مثال متوجه شدن
19:39
that studyingدر حال مطالعه visionچشم انداز in the absenceغیبت of realizingتحقق why you have visionچشم انداز
498
1164000
2000
که مطالعه و بررسی بینایی بدون درک اینکه چرا اصلا ما بینایی داریم، اشتباهه.
19:41
is a mistakeاشتباه.
499
1166000
2000
که مطالعه و بررسی بینایی بدون درک اینکه چرا اصلا ما بینایی داریم، اشتباهه.
19:43
You have to studyمطالعه visionچشم انداز with the realizationتحقق
500
1168000
2000
باید بینایی با درک به اینکه چطوری سیستم حرکتی میخواد از بینایی استفاده کنه مطالعه بشه.
19:45
of how the movementجنبش systemسیستم is going to use visionچشم انداز.
501
1170000
2000
باید بینایی با درک به اینکه چطوری سیستم حرکتی میخواد از بینایی استفاده کنه مطالعه بشه.
19:47
And it usesاستفاده می کند it very differentlyمتفاوت است onceیک بار you think about it that way.
502
1172000
2000
و بعد از اینکه اینطوری راجع بهش فکر بشه، استفاده خیلی متفاوتی ازش میشه کرد.
19:49
CACA: Well that was quiteکاملا fascinatingشگفت انگیز. Thank you very much indeedدر واقع.
503
1174000
3000
ک.ا: خب این واقعا جذاب بود. واقعا ازت تشکر میکنم.
19:52
(Applauseتشویق و تمجید)
504
1177000
2000
(تشویق حاضرین)
Translated by Bidel Akbari
Reviewed by soheila Jafari

▲Back to top

ABOUT THE SPEAKER
Daniel Wolpert - Movement expert
A neuroscientist and engineer, Daniel Wolpert studies how the brain controls the body.

Why you should listen

Consider your hand. You use it to lift things, to balance yourself, to give and take, to sense the world. It has a range of interacting degrees of freedom, and it interacts with many different objects under a variety of environmental conditions. And for most of us, it all just works. At his lab in the Engineering department at Cambridge, Daniel Wolpert and his team are studying why, looking to understand the computations underlying the brain's sensorimotor control of the body.

As he says, "I believe that to understand movement is to understand the whole brain. And therefore it’s important to remember when you are studying memory, cognition, sensory processing, they’re there for a reason, and that reason is action.”  Movement is the only way we have of interacting with the world, whether foraging for food or attracting a waiter's attention. Indeed, all communication, including speech, sign language, gestures and writing, is mediated via the motor system. Taking this viewpoint, and using computational and robotic techniques as well as virtual reality systems, Wolpert and his team research the purpose of the human brain and the way it determines future actions.

 

 

More profile about the speaker
Daniel Wolpert | Speaker | TED.com