ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com
TED2003

Jeff Hawkins: How brain science will change computing

جف هاوکینز درخصوص اینکه علوم مغز چگونه رایانش را دگرگون خواهد ساخت.

Filmed:
1,674,773 views

خالق ترئو (Treo) جف هاوکینز ما را ترغیب می‌کند تا نگاهی تازه به مغز بیاندازیم -- تا آنرا نه به عنوان یک پردازشگر سریع، بلکه به عنوان سامانۀ حافظه ببینیم که تجربیات را ذخیره و بازپخش می‌نماید تا به ما کمک کند آنچه را که بعد رخ خواهد داد را، هوشمندانه، پیش‌بینی کنیم.
- Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools. Full bio

Double-click the English transcript below to play the video.

00:25
I do two things: I designطرح mobileسیار computersکامپیوترها and I studyمطالعه brainsمغز.
0
0
3000
من دو کار انجام می‌دهم. رایانه‌های همراه طراحی می‌کنم و مغز را مطالعه می‌کنم.
00:29
And today'sامروزه talk is about brainsمغز and,
1
4000
2000
و صحبت امروز درباره مغز است و،
00:31
yayبله, somewhereجایی I have a brainمغز fanپنکه out there.
2
6000
2000
چه خوب، یک جائی آنجاها یک طرفدار مغز دارم.
00:33
(Laughterخنده)
3
8000
2000
(خنده حضار)
00:35
I'm going to, if I can have my first slideاسلاید up here,
4
10000
2000
من می‌خواهم، البته اگر تصویر اولم را این بالا داشته باشم،
00:37
and you'llشما خواهید بود see the titleعنوان of my talk and my two affiliationsوابستگی.
5
12000
4000
و شما عنوان صحبت من و دو پيوند من را ببينید.
00:41
So what I'm going to talk about is why we don't have a good brainمغز theoryتئوری,
6
16000
4000
خوب، چیزی که من می‌خواهم درباره آن صحبت کنم، این است که چرا ما یک نظریه خوب راجع به مغز نداریم،
00:45
why it is importantمهم that we should developتوسعه one and what we can do about it.
7
20000
3000
چرا مهم است که ما یک نظریه خوب ايجاد كنيم، و در این مورد چه می‌توانیم بکنیم.
00:48
And I'll try to do all that in 20 minutesدقایق. I have two affiliationsوابستگی.
8
23000
3000
و من سعی می‌کنم كه همه اینها را در بیست دقیقه انجام بدهم. من دو پيوند دارم.
00:51
Mostاکثر of you know me from my Palmنخل and HandspringHandspring daysروزها,
9
26000
3000
بسیاری از شما مرا از روزهای پالم (Palm) و هنداسپرینگ (Hand Spring) می‌شناسید،
00:54
but I alsoهمچنین runاجرا کن a nonprofitغیر انتفاعی scientificعلمی researchپژوهش instituteموسسه
10
29000
3000
اما علاوه بر آن، من یک مرکز تحقیق علمی غیرانتفاعی را هم اداره می‌کنم
00:57
calledبه نام the Redwoodردوود Neuroscienceعلوم اعصاب Instituteمؤسسه in Menloمنلو Parkپارک,
11
32000
2000
که موئسسه علوم‌اعصاب ردوود (Redwood Neuroscience Institute) در ملنو پارک (Melno Park) است،
00:59
and we studyمطالعه theoreticalنظری neuroscienceعلوم اعصاب,
12
34000
2000
و ما آنجا نظریه علوم‌اعصاب را مطالعه می‌کنیم،
01:01
and we studyمطالعه how the neocortexneocortex worksآثار.
13
36000
2000
و نحوه عمل نئوکورتکس (neocortex) را مطالعه می‌کنیم.
01:03
I'm going to talk all about that.
14
38000
2000
من می‌خواهم درباره اينها صحبت ‌کنم.
01:05
I have one slideاسلاید on my other life, the computerکامپیوتر life, and that's the slideاسلاید here.
15
40000
3000
یک تصویر درباره زندگی دیگرم، زندگی رایانه‌ایم دارم، و آن اين تصویر است.
01:08
These are some of the productsمحصولات I've workedکار کرد on over the last 20 yearsسالها,
16
43000
3000
اینها برخی از محصولاتی هستند که من در طی ۲۰ سال گذشته روی آنها کار کرده‌ام،
01:11
startingراه افتادن back from the very originalاصلی laptopلپ تاپ to some of the first tabletقرص computersکامپیوترها
17
46000
4000
شروعش برمی‌گردد به رایانه‌های همراه خيلی اوليه و برخی از نخستين رايانه‌های صفحه‌تخت (tablet computers)
01:15
and so on, and endingپایان دادن up mostاکثر recentlyبه تازگی with the TreoTreo,
18
50000
2000
و مانند آنها، و پایانش همین اواخر به ترئو (Treo) می‌رسد،
01:17
and we're continuingادامه دادن to do this.
19
52000
2000
و ما داریم اینکار را ادامه می‌دهیم.
01:19
And I've doneانجام شده this because I really believe that mobileسیار computingمحاسبه
20
54000
2000
و من این کار را کرده‌ام چون واقعا اعتقاد دارم که رایانش همراه (mobile computing)
01:21
is the futureآینده of personalشخصی computingمحاسبه, and I'm tryingتلاش کن to make the worldجهان
21
56000
3000
آیندۀ رایانه شخصی است، و من سعی می‌کنم که دنیا را
01:24
a little bitبیت better by workingکار کردن on these things.
22
59000
3000
با کار کردن روی این چیزها، کمی بهتر كنم.
01:27
But this was, I have to admitاقرار کردن, all an accidentتصادف.
23
62000
2000
اما، باید اعتراف کنم، که اين در کل یک اتفاق بود.
01:29
I really didn't want to do any of these productsمحصولات
24
64000
2000
من واقعا نمی‌خواستم هیچ كدام از اینها را بسازم.
01:31
and very earlyزود in my careerحرفه I decidedقرار بر این شد
25
66000
2000
و در همان آغاز کارم تصمیم گرفته بودم
01:33
I was not going to be in the computerکامپیوتر industryصنعت.
26
68000
3000
که در صنایع رایانه كار نكنم.
01:36
And before I tell you about that, I just have to tell you
27
71000
2000
و قبل از اینکه به آن موضوع بپردازیم، بایست این را هم درباره
01:38
this one little pictureعکس of graffitiنقاشی های دیواری there I pickedبرداشت off the webوب the other day.
28
73000
2000
این عکس طرح‌نوشت (graffiti) کوچکی که آنجاست بگويم كه چند روز پیش از روی اينترنت گرفتم.
01:40
I was looking for a pictureعکس of graffitiنقاشی های دیواری, little textمتن inputورودی languageزبان,
29
75000
3000
بدنبال عکس یک طرح‌نوشت می‌گشتم، کمی زبان نوشتاری،
01:43
and I foundپیدا شد the websiteسایت اینترنتی dedicatedاختصاصی to teachersمعلمان who want to make these,
30
78000
3000
و وب‌سایتی را یافتم که تقدیم به معلمانی شده بود که می‌خواهند اینها را بسازند،
01:46
you know, the scriptاسکریپت writingنوشتن things acrossدر سراسر the topبالا of theirخودشان blackboardتخته سیاه,
31
81000
3000
می‌دانید، همان چیزهای نوشتاری که در بالای تخته سیاه‌شان قرار دارد،
01:49
and they had addedاضافه graffitiنقاشی های دیواری to it, and I'm sorry about that.
32
84000
3000
و آنها به آن نوشته طرح‌نوشت هم اضافه کردند، و من از این بابت متاسفم.
01:52
(Laughterخنده)
33
87000
2000
(خنده حضار)
01:54
So what happenedاتفاق افتاد was, when I was youngجوان and got out of engineeringمهندسی schoolمدرسه
34
89000
5000
خوب، ماجرا از اين قرار بود که، در زمان جوانی، هنگامی که دانشکده مهندسی
01:59
at Cornellکورنل in '79, I decidedقرار بر این شد -- I wentرفتی to work for Intelاینتل and
35
94000
4000
دانشگاه کورنل (Cornell) را در سال ۱۹۷۹ تمام کردم، تصمیم گرفتم -- رفتم که برای اینتل (Intel) کار کنم و
02:03
I was in the computerکامپیوتر industryصنعت -- and threeسه monthsماه ها into that,
36
98000
3000
من در صنعت رایانه بودم -- و سه ماه گذشته بود،
02:06
I fellسقوط in love with something elseچیز دیگری, and I said, "I madeساخته شده the wrongاشتباه careerحرفه choiceانتخابی here,"
37
101000
4000
اما عاشق چیز دیگری شدم، و به خودم گفتم: "من در اینجا شغل غلطی را انتخاب کردم،"
02:10
and I fellسقوط in love with brainsمغز.
38
105000
3000
و عاشق مغز‌ شدم.
02:13
This is not a realواقعی brainمغز. This is a pictureعکس of one, a lineخط drawingنقاشی.
39
108000
3000
این یک مغز واقعی نیست. عکس یکی از آنهاست، رسم خطوط آن.
02:16
But I don't rememberیاد آوردن exactlyدقیقا how it happenedاتفاق افتاد,
40
111000
3000
و دقیقا هم یادم نمی‌آید که چگونه این اتفاق افتاد،
02:19
but I have one recollectionیادآوری, whichکه was prettyبسیار strongقوی in my mindذهن.
41
114000
3000
اما یک چیز را دقیق به خاطر دارم، که خیلی هم در ذهنم قدرتمند بود.
02:22
In Septemberسپتامبر 1979, Scientificعلمی Americanآمریکایی cameآمد out
42
117000
3000
در سپتامبر ۱۹۷۹، مجله ساینتیفیک آمریکن (Scientific American)
02:25
with a singleتنها topicموضوع issueموضوع about the brainمغز. And it was quiteکاملا good.
43
120000
3000
با یک ویژه‌نامه اختصاصی درباره مغز منتشر شد. و خیلی خوب بود.
02:28
It was one of the bestبهترین issuesمسائل ever. And they talkedصحبت کرد about the neuronنورون
44
123000
3000
یکی از بهترین شماره‌هایش بود که تا بحال چاپ شده است. و آنها در آن مقاله راجع به نورون (سلول عصبی)
02:31
and developmentتوسعه and diseaseمرض and visionچشم انداز and all the things
45
126000
2000
و تکامل و بیماری‌ها و بینایی و همه آن چیزهائی که
02:33
you mightممکن want to know about brainsمغز. It was really quiteکاملا impressiveچشمگیر.
46
128000
3000
ممکن است شما بخواهید در مورد مغز بدانید صحبت کردند. واقعا جذاب بود.
02:36
And one mightممکن have the impressionاحساس؛ عقیده؛ گمان that we really knewمی دانست a lot about brainsمغز.
47
131000
3000
ممکن بود گمان می‌بردید که ما واقعا چیزهای زیادی درباره مغز می‌دانستیم.
02:39
But the last articleمقاله in that issueموضوع was writtenنوشته شده است by Francisفرانسیس Crickکریکت of DNADNA fameشهرت.
48
134000
4000
اما آخرین مقاله آن شماره توسط فرانسیس کریک (Francis Crick)، که با دی-ان-ای (DNA) معروف شد، نوشته شده بود.
02:43
Todayامروز is, I think, the 50thth anniversaryسالگرد of the discoveryکشف of DNADNA.
49
138000
3000
امروز، گمان می‌کنم، پنجاهمین سالگرد کشف DNA است.
02:46
And he wroteنوشت a storyداستان basicallyاساسا sayingگفت:,
50
141000
2000
و او مقاله‌ای نوشت که اساسا می‌گفت،
02:48
well, this is all well and good, but you know what,
51
143000
3000
خوب، همه اینها خوب و عالی است، اما می‌دانید[؟]،
02:51
we don't know diddleyدیوونه squatچرت زدن about brainsمغز
52
146000
2000
ما پشیزی هم راجع به مغز نمی‌دانیم
02:53
and no one has a clueسرنخ how these things work,
53
148000
2000
و هیچ‌کسی هم سرنخی در این مورد که اینها چگونه کار می‌کنند ندارد،
02:55
so don't believe what anyoneهر کسی tellsمی گوید you.
54
150000
2000
پس گفته‌های هیچ‌کس را باور نکنيد.
02:57
This is a quoteنقل قول from that articleمقاله. He said, "What is conspicuouslyظاهرا lackingفاقد,"
55
152000
3000
اين يك نقل قول مستقیم از آن مقاله است، او می‌گوید: "آن چه که فقدانش واضحا مشخص است،"
03:00
he's a very properمناسب Britishانگلیس gentlemanنجیب زاده so, "What is conspicuouslyظاهرا lackingفاقد
56
155000
4000
او مرد بریتانیایی بسیار باوقاری بود پس، "آنچه که فقدانش واضحا مشخص است
03:04
is a broadوسیع frameworkچارچوب of ideasایده ها in whichکه to interpretتفسیر these differentناهمسان approachesرویکردها."
57
159000
3000
چهارچوب گسترده‌ای از ایده‌ها است كه در آن بتوان این رويكرد‌های گوناگون را تفسیر کرد."
03:07
I thought the wordکلمه frameworkچارچوب was great.
58
162000
2000
من فکر کردم که کلمه "چهارچوب" عالی است.
03:09
He didn't say we didn't even have a theoryتئوری. He saysمی گوید,
59
164000
2000
او نمی‌گويد که ما حتی نظریه‌ای نداریم. او می‌گوید،
03:11
we don't even know how to beginشروع to think about it --
60
166000
2000
ما حتی نمی‌دانیم که چطور شروع به فكر كردن درباره آن بكنيم --
03:13
we don't even have a frameworkچارچوب.
61
168000
2000
ما حتی چهارچوبی نداریم.
03:15
We are in the pre-paradigmپیش پارادایم daysروزها, if you want to use Thomasتوماس Kuhnکوهن.
62
170000
3000
ما در دوره پيش از نظریه هستیم اگر می‌خواهید توماس کوهن (Thomas Kuhn) را نقل کنید.
03:18
And so I fellسقوط in love with this, and said look,
63
173000
3000
و من عاشق آن شدم، و گفتم ببین،
03:21
we have all this knowledgeدانش about brainsمغز. How hardسخت can it be?
64
176000
3000
ما همه این دانش راجع به مغز را داریم. چقدر این [موضوع] می‌تواند سخت باشد؟
03:24
And this is something we can work on my lifetimeطول عمر. I feltنمد I could make a differenceتفاوت,
65
179000
3000
و این چیزی است که می‌توانم در طول زندگیم بر رویش کار کنم. من احساس کردم که می‌توانم تأثیری بگذارم.
03:27
and so I triedتلاش کرد to get out of the computerکامپیوتر businessکسب و کار, into the brainمغز businessکسب و کار.
66
182000
4000
و تلاش کردم که از کسب و کار رایانه خارج بشوم، بروم به کسب و کار مغز.
03:31
First, I wentرفتی to MITMIT, the AIAI labآزمایشگاه was there,
67
186000
2000
در آغاز، به دانشگاه ام-آی‌-تی (MIT) رفتم، آزمایشگاه هوش مصنوعی آنجا بود،
03:33
and I said, well, I want to buildساختن intelligentباهوش - هوشمند machinesماشین آلات, too,
68
188000
2000
و گفتم، خوب، من هم می‌خواهم ماشین‌های هوشمند بسازم،
03:35
but the way I want to do it is to studyمطالعه how brainsمغز work first.
69
190000
3000
اما راهی که می‌خواهم این کار را بکنم، این است که اول کارکرد مغز را مطالعه کنم.
03:38
And they said, oh, you don't need to do that.
70
193000
3000
و آنها گفتند، اوه، لازم نیست اين کار را بکنی.
03:41
We're just going to programبرنامه computersکامپیوترها; that's all we need to do.
71
196000
2000
ما فقط رایانه‌ها را برنامه‌ریزی می‌کنیم؛ این تنها کاری است که باید بکنبم.
03:43
And I said, no, you really oughtباید to studyمطالعه brainsمغز. They said, oh, you know,
72
198000
3000
و من گفتم، نه، در واقع شما بايد مغز‌ها را مطالعه کنید. آنها گفتند، اوه، می‌دانی،
03:46
you're wrongاشتباه. And I said, no, you're wrongاشتباه, and I didn't get in.
73
201000
2000
تو اشتباه می‌کنی. و من گفتم، نه، شما اشتباه می‌کنید، و من را نپذیرفتند.
03:48
(Laughterخنده)
74
203000
1000
(خنده حضار)
03:50
But I was a little disappointedناامید -- prettyبسیار youngجوان -- but I wentرفتی back again
75
205000
2000
ولی كمی دلگیر شدم -- خيلی جوان بودم -- اما دوباره
03:52
a fewتعداد کمی yearsسالها laterبعد and this time was in Californiaکالیفرنیا, and I wentرفتی to Berkeleyبرکلی.
76
207000
3000
چند سال بعد برگشتم و اینبار در کالیفرنیا، به دانشگاه برکلی (Berkeley) رفتم.
03:55
And I said, I'll go in from the biologicalبیولوژیکی sideسمت.
77
210000
4000
و با خودم گفتم اين‌بار از سمت زیست‌شناسی وارد می‌شوم.
03:59
So I got in -- in the PhPh.D. programبرنامه in biophysicsبیوفیزیک, and I was, all right,
78
214000
3000
و پذیرش گرفتم -- پذیرش دکترای PhD در رشته زیست-فیزیک، همه چیزم خوب بود،
04:02
I'm studyingدر حال مطالعه brainsمغز now, and I said, well, I want to studyمطالعه theoryتئوری.
79
217000
3000
حالا من مغزها را مطالعه می‌کردم، و گفتم که می‌خواهم نظريه بخوانم.
04:05
And they said, oh no, you can't studyمطالعه theoryتئوری about brainsمغز.
80
220000
2000
آنها جواب دادند، اوه نه، تو نمی‌توانی نظریه در مورد مغز را مطالعه کنی.
04:07
That's not something you do. You can't get fundedبودجه for that.
81
222000
2000
این کاری نیست که به تو مربوط بشود. برای این موضوع پولی به تو نمی‌دهند.
04:09
And as a graduateفارغ التحصیل studentدانشجو, you can't do that. So I said, oh my goshخدایا.
82
224000
4000
و به عنوان دانشجوی دكتری، نمی‌توانی آن كار را بكنی. خوب، گفتم، اوه خدای من.
04:13
I was very depressedافسرده. I said, but I can make a differenceتفاوت in this fieldرشته.
83
228000
2000
خيلی افسرده شدم. با خودم گفتم اما من می‌توانم دراین زمینه تاثیرگذار باشم.
04:15
So what I did is I wentرفتی back in the computerکامپیوتر industryصنعت
84
230000
3000
پس کاری که کردم این بود که به صنعت رایانه برگشتم.
04:18
and said, well, I'll have to work here for a while, do something.
85
233000
2000
و کفتم، خوب، باید مدتی کار کنم، مشغول باشم.
04:20
That's when I designedطراحی شده all those computerکامپیوتر productsمحصولات.
86
235000
3000
و آن موقع بود که همه آن محصولات رایانه‌ای را طراحی کردم.
04:23
(Laughterخنده)
87
238000
1000
(خنده حضار)
04:24
And I said, I want to do this for fourچهار yearsسالها, make some moneyپول,
88
239000
3000
و گفتم این کار را برای چهار سال انجام می‌دهم، یک کم پول در می‌آورم،
04:27
like I was havingداشتن a familyخانواده, and I would matureبالغ a bitبیت,
89
242000
4000
مثل این که صاحب خانواده شدم، کمی هم بالغ‌تر می‌شوم،
04:31
and maybe the businessکسب و کار of neuroscienceعلوم اعصاب would matureبالغ a bitبیت.
90
246000
3000
و شاید هم حرفه علوم‌اعصاب کمی بالغ‌تر بشود.
04:34
Well, it tookگرفت longerطولانی تر than fourچهار yearsسالها. It's been about 16 yearsسالها.
91
249000
3000
خوب، این کار بیشتر از چهار سال طول کشید. تقریبا ۱۶ سال گذشته است.
04:37
But I'm doing it now, and I'm going to tell you about it.
92
252000
2000
ولی الان دارم این کار را انجام می‌دهم، و برای شما درباره آن می‌گویم.
04:39
So why should we have a good brainمغز theoryتئوری?
93
254000
3000
خوب چرا باید یک نظریه خوبی راجع به مغز داشته باشیم؟
04:42
Well, there's lots of reasonsدلایل people do scienceعلوم پایه.
94
257000
3000
خوب، دلایل زیادی وجود دارد که آدم‌ها به علم می‌پردازند.
04:45
One is -- the mostاکثر basicپایه ای one is -- people like to know things.
95
260000
3000
یکی از دلايل-- يعنی پایه‌ای‌ترینش -- اين است که آدم‌ها دوست دارند از چيزها سر در بياورند.
04:48
We're curiousکنجکاو, and we just go out and get knowledgeدانش, you know?
96
263000
2000
ما کنجکاو هستیم، و می‌رویم بيرون و اطلاعات كسب می‌كنيم، می‌دانید؟
04:50
Why do we studyمطالعه antsمورچه ها? Well, it's interestingجالب هست.
97
265000
2000
چرا ما مورچه‌ها را مطالعه می‌کنیم؟ خوب، چون جالب است.
04:52
Maybe we'llخوب learnیاد گرفتن something really usefulمفید است about it, but it's interestingجالب هست and fascinatingشگفت انگیز.
98
267000
3000
شاید چیز واقعا مفیدی از آن ياد بگيريم، اما علت اينكه دنبالش می‌رويم این است كه موضوع جالب و جذابی است.
04:55
But sometimesگاه گاهی, a scienceعلوم پایه has some other attributesویژگی های
99
270000
2000
اما گاهی اوقات، یک دانش ویژگی‌های دیگری هم دارد
04:57
whichکه makesباعث می شود it really, really interestingجالب هست.
100
272000
2000
که آن را خيلی، خيلی جالب می‌کند.
04:59
Sometimesگاهی a scienceعلوم پایه will tell something about ourselvesخودمان,
101
274000
3000
گاهی اوقات یک علم درباره خودمان چیزی می‌گوید،
05:02
it'llآن خواهد شد tell us who we are.
102
277000
1000
به ما می‌گوید که چه کسی هستیم.
05:03
Rarelyبه ندرت, you know: evolutionسیر تکاملی did this and Copernicusکوپرنیکس did this,
103
278000
3000
به ندرت، می‌دانید، تکامل این کار را کرده و کوپرنیکوس (Copernicus) این کار را کرده،
05:06
where we have a newجدید understandingدرك كردن of who we are.
104
281000
2000
که در آن ما درک جدیدی از آنچه هستیم داريم.
05:08
And after all, we are our brainsمغز. My brainمغز is talkingصحبت کردن to your brainمغز.
105
283000
4000
و از همه اینها که بگذریم، ما همان مغزمان هستیم. مغز من با مغز شما سخن می‌گوید.
05:12
Our bodiesبدن are hangingحلق آویز alongدر امتداد for the rideسوار شدن, but my brainمغز is talkingصحبت کردن to your brainمغز.
106
287000
3000
بدن ما ملزومات اضافه است، اما مغز من است که با مغز شما سخن می‌گوید.
05:15
And if we want to understandفهمیدن who we are and how we feel and perceiveدرک,
107
290000
3000
و اگر بخواهیم که دریابیم که چه کسی هستیم و چگونه حس و درک می‌کنیم،
05:18
we really understandفهمیدن what brainsمغز are.
108
293000
2000
در واقع درمی‌یابیم که مغز چیست.
05:20
Anotherیکی دیگر thing is sometimesگاه گاهی scienceعلوم پایه
109
295000
2000
چیز دیگر این است که گاهی اوقات علم
05:22
leadsمنجر می شود to really bigبزرگ societalاجتماعی benefitsمنافع and technologiesفن آوری ها,
110
297000
2000
موجب منافع اجتماعی عظيم و فن‌آوری‌ها،
05:24
or businessesکسب و کار, or whateverهر چه, that come out of it. And this is one, too,
111
299000
2000
یا حرفه‌هائی، یا هر چیز دیگری که از آنها بر بیاید می‌شود. و این نیز، [یکی از آن موارد است]،
05:26
because when we understandفهمیدن how brainsمغز work, we're going to be ableتوانایی
112
301000
3000
چون هنگامی که درک کنیم که کارکرد مغز چگونه است، ما قادر خواهیم بود
05:29
to buildساختن intelligentباهوش - هوشمند machinesماشین آلات, and I think that's actuallyدر واقع a good thing on the wholeکل,
113
304000
3000
ماشین‌های هوشمند بسازیم، و من فکر می‌کنم که در واقع کلا چیز خوبی خواهد بود،
05:32
and it's going to have tremendousفوق العاده benefitsمنافع to societyجامعه,
114
307000
2000
و این منافع بسیار عظیمی برای جامعه خواهد داشت،
05:34
just like a fundamentalاساسی technologyتکنولوژی.
115
309000
2000
مانند یک فن‌آوری‌ بنیادین.
05:36
So why don't we have a good theoryتئوری of brainsمغز?
116
311000
2000
بنابراین چرا ما نظریه خوبی راجع به مغز نداریم؟
05:38
And people have been workingکار کردن on it for 100 yearsسالها.
117
313000
3000
در حالی كه انسان‌ها ۱۰۰ سال است که روی این موضوع کار کرده‌اند؟
05:41
Well, let's first take a look at what normalطبیعی scienceعلوم پایه looksبه نظر می رسد like.
118
316000
2000
خوب، در ابتدا بیائید نگاهی بیندازیم به اینکه دانش بهنجار چگونه است.
05:43
This is normalطبیعی scienceعلوم پایه.
119
318000
2000
دانش بهنجار اینگونه است.
05:45
Normalطبیعی scienceعلوم پایه is a niceخوب balanceتعادل betweenبین theoryتئوری and experimentalistsتجربی.
120
320000
4000
دانش بهنجار، تعادل خوبی است میان نظریه و آزمایشگران.
05:49
And so the theoristنظریه پرداز guys say, well, I think this is what's going on,
121
324000
2000
و لذا نظریه‌پرداز می‌گوید، خوب، من فکر می‌کنم این چیزی است که دارد اتفاق می‌افتد،
05:51
and the experimentalistآزمایشی saysمی گوید, no, you're wrongاشتباه.
122
326000
2000
و از آن سوی آزمایشگر می‌گوید، نه، شما اشتباه می‌کنید.
05:53
And it goesمی رود back and forthچهارم, you know?
123
328000
2000
و این تبادل ادامه پیدا می‌کند، می‌دانید؟
05:55
This worksآثار in physicsفیزیک. This worksآثار in geologyزمين شناسي. But if this is normalطبیعی scienceعلوم پایه,
124
330000
2000
در فیزیک این به کار می‌آید. در زمین‌شناسی به کار می‌آید، پس اگر این دانش بهنجار است،
05:57
what does neuroscienceعلوم اعصاب look like? This is what neuroscienceعلوم اعصاب looksبه نظر می رسد like.
125
332000
3000
علوم‌اعصاب چگونه است؟ علوم‌اعصاب این‌گونه است.
06:00
We have this mountainکوه of dataداده ها, whichکه is anatomyآناتومی, physiologyفیزیولوژی and behaviorرفتار.
126
335000
5000
ما این کوه داده‌ها را داریم، شامل کالبد‌شناسی (آناتومی)، تن‌کرد‌شناسی (فیزیولوژی) و رفتار.
06:05
You can't imagineتصور کن how much detailجزئیات we know about brainsمغز.
127
340000
3000
نمی‌توانید تصور کنید که تا چه اندازه جزئیات راجع به مغز می‌دانیم.
06:08
There were 28,000 people who wentرفتی to the neuroscienceعلوم اعصاب conferenceکنفرانس this yearسال,
128
343000
4000
۲۸ هزار نفر در هم‌آیش امسال علوم‌اعصاب شرکت کردند.
06:12
and everyهرکدام one of them is doing researchپژوهش in brainsمغز.
129
347000
2000
و تک‌تک آنها روی مغز‌ها تحقيق می‌کنند.
06:14
A lot of dataداده ها. But there's no theoryتئوری. There's a little, wimpyشگفت انگیز boxجعبه on topبالا there.
130
349000
4000
مقدار زیادی داده. ولی هیچ‌گونه نظریه‌ای نیست. آن جعبه کوچک، فسقلی، در آن بالا هست.
06:18
And theoryتئوری has not playedبازی کرد a roleنقش in any sortمرتب سازی of grandبزرگ way in the neurosciencesعلوم اعصاب.
131
353000
5000
و نظریه هیچ‌گونه نقش عمده‌ای در علوم‌اعصاب بازی نکرده است.
06:23
And it's a realواقعی shameشرم آور. Now why has this come about?
132
358000
3000
و این واقعا موجب شرمندگی است. حالا چرا این‌گونه پیش رفته است؟
06:26
If you askپرسیدن neuroscientistsدانشمندان علوم اعصاب, why is this the stateحالت of affairامور,
133
361000
2000
اگر از دانشمندان علوم‌اعصاب بپرسید، چرا وضعیت اینگونه است؟
06:28
they'llآنها خواهند شد first of all admitاقرار کردن it. But if you askپرسیدن them, they'llآنها خواهند شد say,
134
363000
3000
اول آنها به اين اعتراف می‌کنند. ولی اگر از آنها بپرسید، می‌گویند،
06:31
well, there's variousمختلف reasonsدلایل we don't have a good brainمغز theoryتئوری.
135
366000
3000
خوب، علل متنوعی وجود دارد که نظریه مغزی خوبی نداریم.
06:34
Some people say, well, we don't still have enoughکافی dataداده ها,
136
369000
2000
بعضی‌ها می‌گویند، خوب، هنوز به اندازه کافی داده نداریم،
06:36
we need to get more informationاطلاعات, there's all these things we don't know.
137
371000
3000
اطلاعات بیشتر لازم داریم، این همه چیز وجود دارد که هنوز نمی‌دانیم.
06:39
Well, I just told you there's so much dataداده ها comingآینده out your earsگوش ها.
138
374000
3000
خوب، من الان به شما گفتم که آن قدر داده وجود دارد که دارد از گوش‌هایمان بیرون می‌ریزد.
06:42
We have so much informationاطلاعات, we don't even know how to beginشروع to organizeسازمان دادن it.
139
377000
3000
ما آن‌قدر اطلاعات داریم كه نمی‌دانیم چگونه شروع کنیم به منظم کردنشان.
06:45
What good is more going to do?
140
380000
2000
[اطلاعات] بیشتر چه کمکی می‌تواند بکند؟
06:47
Maybe we'llخوب be luckyخوش شانس and discoverكشف كردن some magicشعبده بازي thing, but I don't think so.
141
382000
3000
شاید خوش اقبال باشیم و یک چیز جادوئی کشف کنیم،‌ ولی من گمان نمی‌کنم.
06:50
This is actuallyدر واقع a symptomعلامت of the factواقعیت that we just don't have a theoryتئوری.
142
385000
3000
این در واقع فقط نشانه این واقعیت است که ما نظریه نداریم.
06:53
We don't need more dataداده ها -- we need a good theoryتئوری about it.
143
388000
3000
ما به داده‌های بیشتر نیاز نداریم -- ما به يك نظریه خوب نیازمندیم.
06:56
Anotherیکی دیگر one is sometimesگاه گاهی people say, well, brainsمغز are so complexپیچیده,
144
391000
3000
بعضی‌های دیگر می‌گویند، خوب، مغز خیلی پیچیده است،
06:59
it'llآن خواهد شد take anotherیکی دیگر 50 yearsسالها.
145
394000
2000
این موضوع ۵۰ سال دیگر طول می‌کشد.
07:01
I even think Chrisکریس said something like this yesterdayدیروز.
146
396000
2000
حتی فکر می‌کنم که کریس (Chris) هم دیروز يک چنين حرفی زد.
07:03
I'm not sure what you said, Chrisکریس, but something like,
147
398000
2000
کریس، مطمئن نیستم که دقیقا چه گفتی، اما چیزی شبیه این بود،
07:05
well, it's one of the mostاکثر complicatedبغرنج things in the universeجهان. That's not trueدرست است.
148
400000
3000
که خوب، این یکی از پیچیده‌ترین موضوعات جهان است. این درست نیست.
07:08
You're more complicatedبغرنج than your brainمغز. You've got a brainمغز.
149
403000
2000
شما از مغزتان پیچیده‌تر هستید. شما صاحب مغز هستید.
07:10
And it's alsoهمچنین, althoughبا اينكه the brainمغز looksبه نظر می رسد very complicatedبغرنج,
150
405000
2000
و نيز، هرچند مغز بسیار پیچیده به نظر می‌رسد،
07:12
things look complicatedبغرنج untilتا زمان you understandفهمیدن them.
151
407000
3000
اما هرچيزی تا وقتی که آن را نفهمیم پیچیده به نظر می‌آید.
07:15
That's always been the caseمورد. And so all we can say, well,
152
410000
3000
و همیشه هم همینطور بوده. بنابراين، تنها چيزی كه می‌توانیم بگوئیم، اين است كه خوب،
07:18
my neocortexneocortex, whichکه is the partبخشی of the brainمغز I'm interestedعلاقه مند in, has 30 billionبیلیون cellsسلول ها.
153
413000
4000
نئوکورتکس من، که بخش مورد علاقه من در مغز است، ۳۰ میلیارد سلول دارد.
07:22
But, you know what? It's very, very regularمنظم.
154
417000
2000
اما میدانید چیست؟ این خيلی، خيلی عادی است.
07:24
In factواقعیت, it looksبه نظر می رسد like it's the sameیکسان thing repeatedمکررا over and over and over again.
155
419000
3000
در واقع، مثل این است که همان چیز بارها و بارها و بار‌ها تکرار شده.
07:27
It's not as complexپیچیده as it looksبه نظر می رسد. That's not the issueموضوع.
156
422000
3000
به اندازه‌ای که به نظر می‌رسه پیچیده نیست. مساله این نیست.
07:30
Some people say, brainsمغز can't understandفهمیدن brainsمغز.
157
425000
2000
بعضی‌ها می‌گویند، مغز نمی‌تواند مغز را بفهمد.
07:32
Very Zen-likeمانند زین. Whooچه کسی. (Laughterخنده)
158
427000
3000
این دیگر خیلی ذن مانند و عرفانی است. هوه. می‌دانید--
07:35
You know,
159
430000
1000
(خنده حضار)
07:36
it soundsبرای تلفن های موبایل good, but why? I mean, what's the pointنقطه?
160
431000
3000
می‌تواند جالب باشد. اما چرا؟ منظورم این است، نکته‌تان چیست؟
07:39
It's just a bunchدسته ای of cellsسلول ها. You understandفهمیدن your liverکبد.
161
434000
3000
فقط یک مشت سلول است. شما کبد خود را درک می‌کنید.
07:42
It's got a lot of cellsسلول ها in it too, right?
162
437000
2000
آن هم تعداد زیادی سلول دارد، درسته؟
07:44
So, you know, I don't think there's anything to that.
163
439000
2000
بنابراین، می‌دانید، من فکر نمیکنم چیزی در این باشد.
07:46
And finallyسرانجام, some people say, well, you know,
164
441000
2000
و سرانجام، بعضی‌ها می‌گویند، خوب، می‌دانید،
07:48
I don't feel like a bunchدسته ای of cellsسلول ها, you know. I'm consciousآگاهانه.
165
443000
4000
من احساس نمی‌کنم که تنها یک مشت سلول باشم، می‌دانید. من آگاه هستم.
07:52
I've got this experienceتجربه, I'm in the worldجهان, you know.
166
447000
2000
من این تجربه را دارم، می‌دانید، من در این جهان هستم.
07:54
I can't be just a bunchدسته ای of cellsسلول ها. Well, you know,
167
449000
2000
من نمی‌توانم تنها یک مشت سلول باشم. ولی، میدانید،
07:56
people used to believe there was a life forceزور to be livingزندگي كردن,
168
451000
3000
مردم این باور را داشتند که يك نیروی حیاتی برای زنده ماندن لازم است.
07:59
and we now know that's really not trueدرست است at all.
169
454000
2000
و حالا ما می‌دانیم که این فکر واقعا به هیچ عنوان درست نيست.
08:01
And there's really no evidenceشواهد that saysمی گوید -- well, other than people
170
456000
3000
و هیچ شاهدی هم وجود ندارد که این را تائيد كند -- خوب، البته غیر از [گفته‌های] افرادی
08:04
just have disbeliefکفر that cellsسلول ها can do what they do.
171
459000
2000
که باور نمی‌كنند که سلول‌ها می‌توانند کار‌هائی را بکنند كه می‌کنند.
08:06
And so, if some people have fallenافتاده into the pitگودال of metaphysicalمتافیزیکی dualismدوگانگی,
172
461000
3000
و خوب، اگر بعضی از آدم‌ها داخل این چالش دوگانگی متافیزیکی افتاده‌اند،
08:09
some really smartهوشمندانه people, too, but we can rejectرد کنید all that.
173
464000
3000
حتی بعضی از آدم‌های خیلی باهوش، با اين حال ما می‌توانیم همه آن را رد کنیم.
08:12
(Laughterخنده)
174
467000
2000
(خنده حضار)
08:14
No, I'm going to tell you there's something elseچیز دیگری,
175
469000
3000
خیر، من به شما می‌گویم که چیز دیگری وجود دارد،
08:17
and it's really fundamentalاساسی, and this is what it is:
176
472000
2000
که واقعا بنیادی است، و آن این است که:
08:19
there's anotherیکی دیگر reasonدلیل why we don't have a good brainمغز theoryتئوری,
177
474000
2000
دلیل دیگری هم برای اینکه چرا یک نظریه خوب مغزی نداریم هست،
08:21
and it's because we have an intuitiveبصری, strongly-heldبه شدت برگزار شد,
178
476000
3000
و آن دليل اين است که ما یک فرض حسی، سرسختی داریم،
08:24
but incorrectغلط assumptionفرض that has preventedجلوگیری کرد us from seeingدیدن the answerپاسخ.
179
479000
5000
که غلط است و مانع از آن شده است كه پاسخ را ببينيم.
08:29
There's something we believe that just, it's obviousآشکار, but it's wrongاشتباه.
180
484000
3000
چیزی وجود دارد که ما به آن اعتقاد داریم که فقط بديهی است، ولی غلط است.
08:32
Now, there's a historyتاریخ of this in scienceعلوم پایه and before I tell you what it is,
181
487000
4000
حالا، یک تاریخچه‌ای از این [مسائل] در علم وجود دارد و قبل از این که به شما بگویم که آن چیست،
08:36
I'm going to tell you a bitبیت about the historyتاریخ of it in scienceعلوم پایه.
182
491000
2000
کمی به شما در مورد تاريخچه این [مسئله] در علم می‌گویم.
08:38
You look at some other scientificعلمی revolutionsانقلاب,
183
493000
2000
شما نگاهی به بعضی از انقلاب‌های علمی دیگر بیندازید،
08:40
and this caseمورد, I'm talkingصحبت کردن about the solarخورشیدی systemسیستم, that's Copernicusکوپرنیکس,
184
495000
2000
در این مورد، من درباره منظومه شمسی صحبت می‌کنم، از کوپرنیکوس،
08:42
Darwin'sداروین evolutionسیر تکاملی, and tectonicتکتونیکی platesصفحات, that's Wegenerوگنر.
185
497000
3000
از تکامل داروینی، و صفحات زمین‌شناسی، که از وگنر(Wegener) است.
08:45
They all have a lot in commonمشترک with brainمغز scienceعلوم پایه.
186
500000
3000
همه آنها با علوم مغز مشترکات زیادی دارند.
08:48
First of all, they had a lot of unexplainedناشناخته است dataداده ها. A lot of it.
187
503000
3000
اولا، همه آنها داده‌های تعریف نشده زیادی داشتند. خیلی زیاد.
08:51
But it got more manageableقابل کنترل است onceیک بار they had a theoryتئوری.
188
506000
3000
اما همه آنها از وقتی كه نظريه‌دار شدند قابل اداره کردن شد.
08:54
The bestبهترین mindsذهنها were stumpedسقوط کرد -- really, really smartهوشمندانه people.
189
509000
3000
بهترین ذهن‌ها گیج شده بودند -- آدم‌های خیلی، خیلی باهوش.
08:57
We're not smarterهوشمندانه now than they were then.
190
512000
2000
و ما الان از آنها که در آن زمان بودند باهوش‌تر نیستیم.
08:59
It just turnsچرخش out it's really hardسخت to think of things,
191
514000
2000
قثط این گونه است که اندیشیدن به مسائل واقعا دشوار است،
09:01
but onceیک بار you've thought of them, it's kindنوع of easyآسان to understandفهمیدن it.
192
516000
2000
اما وقتی به آنها اندیشیدید، درک آن آسان می‌شود.
09:03
My daughtersدختران understoodفهمید these threeسه theoriesنظریه ها
193
518000
2000
دختران من این سه نظریه را
09:05
in theirخودشان basicپایه ای frameworkچارچوب by the time they were in kindergartenمهد کودک.
194
520000
3000
در چهارچوب ساده آن در دورانی که در کودکستان بودند می‌فهمیدند.
09:08
And now it's not that hardسخت, you know, here'sاینجاست the appleسیب, here'sاینجاست the orangeنارنجی,
195
523000
3000
و حالا آن‌ قدر هم سخت نیست، می‌دانید، این یک سیب است، این یک پرتقال است،
09:11
you know, the Earthزمین goesمی رود around, that kindنوع of stuffچیز.
196
526000
3000
می‌دانید، زمین می‌چرخد، این جور چیزها.
09:14
Finallyسرانجام, anotherیکی دیگر thing is the answerپاسخ was there all alongدر امتداد,
197
529000
2000
در نهایت، پاسخ چیز دیگری است که تمام مدت آنجا بوده،
09:16
but we kindنوع of ignoredنادیده گرفته شد it because of this obviousآشکار thing, and that's the thing.
198
531000
3000
ولی ما به آن بی‌اعتنا بودیم به خاطر همين چیز بديهی، و نکته اصلی همين است.
09:19
It was an intuitiveبصری, strong-heldقوی برگزار می شود beliefاعتقاد that was wrongاشتباه.
199
534000
3000
یک باور حسی، منسجمی بوده که نادرست بوده.
09:22
In the caseمورد of the solarخورشیدی systemسیستم, the ideaاندیشه that the Earthزمین is spinningحال چرخش
200
537000
3000
در مورد منظومه شمسی، این نظر که زمین در حال چرخیدن می‌باشد
09:25
and the surfaceسطح of the Earthزمین is going like a thousandهزار milesمایل an hourساعت,
201
540000
3000
و اینکه سطح زمین با سرعتی در حدود هزار مایل در ساعت در حرکت می‌باشد،
09:28
and the Earthزمین is going throughاز طریق the solarخورشیدی systemسیستم about a millionمیلیون milesمایل an hourساعت.
202
543000
3000
و اینکه زمین با سرعتی حدود یک میلیون مایل در ساعت در منظومه شمسی حرکت می‌کند.
09:31
This is lunacyگناه. We all know the Earthزمین isn't movingدر حال حرکت.
203
546000
2000
این دیوانگی است. همه ما می‌دانیم که زمین حرکت نمی‌کند.
09:33
Do you feel like you're movingدر حال حرکت a thousandهزار milesمایل an hourساعت?
204
548000
2000
آیا شما سرعت چند هزار مایل در ساعت را حس می‌کنید؟
09:35
Of courseدوره not. You know, and someoneکسی who said,
205
550000
2000
معلوم است که نه. می‌دانید، و اگر کسی می‌گفت،
09:37
well, it was spinningحال چرخش around in spaceفضا and it's so hugeبزرگ,
206
552000
2000
خوب، زمین در فضا به‌ دور خود می‌چرخد و [زمین] بسیار عظیم است،
09:39
they would lockقفل کردن you up, and that's what they did back then.
207
554000
2000
او را می‌انداختند زندان، و این کار را آن قدیم‌ها می‌کردند.
09:41
(Laughterخنده)
208
556000
1000
(خنده حضار)
09:42
So it was intuitiveبصری and obviousآشکار. Now what about evolutionسیر تکاملی?
209
557000
3000
خوب حسی و بديهی بود. حالا تکامل چطور؟
09:45
Evolution'sتکامل the sameیکسان thing. We taughtتدریس کرد our kidsبچه ها, well, the Bibleکتاب مقدس saysمی گوید,
210
560000
3000
تکامل هم همین‌طور است. ما به بچه‌هایمان یاد می‌دادیم، که، خوب، انجیل می‌گوید،
09:48
you know, God createdایجاد شده all these speciesگونه ها, catsگربه ها are catsگربه ها, dogsسگ ها are dogsسگ ها,
211
563000
2000
می‌دانید، خدا همه گونه‌ها را آفریده، گربه‌ها گربه‌اند، سگ‌ها سگ هستند،
09:50
people are people, plantsگیاهان are plantsگیاهان, they don't changeتغییر دادن.
212
565000
3000
انسان‌ها انسانند، گیاهان گیاه‌اند، آنها عوض نمی‌شوند.
09:53
Noahنوح put them on the Arkآرک in that orderسفارش, blahبله, blahبله, blahبله. And, you know,
213
568000
4000
نوح آنها را به آن ترتیب سوار کشتی‌ کرد، و، و، و. و می‌دانید،
09:57
the factواقعیت is, if you believe in evolutionسیر تکاملی, we all have a commonمشترک ancestorاجداد,
214
572000
4000
اگر به تکامل اعتقاد دارید، حقیقت این است که، ما جد مشترکی داریم،
10:01
and we all have a commonمشترک ancestryاجداد with the plantگیاه in the lobbyلابی.
215
576000
3000
و همه ما با گیاهی که در راهرو هم هست جد مشترکی داریم.
10:04
This is what evolutionسیر تکاملی tellsمی گوید us. And, it's trueدرست است. It's kindنوع of unbelievableباور نکردنی.
216
579000
3000
این چیزی است که تکامل به ما می‌گوید. و درست است. یک جوری هم غیرقابل باور است.
10:07
And the sameیکسان thing about tectonicتکتونیکی platesصفحات, you know?
217
582000
3000
و همین چیز در مورد صفحات زمين، می‌دانید؟
10:10
All the mountainsکوه ها and the continentsقاره ها are kindنوع of floatingشناور around
218
585000
2000
تمام کوه‌ها و قاره‌ها یک جوری
10:12
on topبالا of the Earthزمین, you know? It's like, it doesn't make any senseاحساس.
219
587000
4000
روی زمین شناورند، می‌دانید؟ مثل این است که منطقی نیست.
10:16
So what is the intuitiveبصری, but incorrectغلط assumptionفرض,
220
591000
4000
حالا آن پیش‌فرض منطقی،‌ ولی نادرستی که،
10:20
that's keptنگه داشته شد us from understandingدرك كردن brainsمغز?
221
595000
2000
جلوی درک ما از مغز را گرفته است چیست؟
10:22
Now I'm going to tell it to you, and it's going to seemبه نظر می رسد obviousآشکار that that is correctدرست,
222
597000
2000
حالا به شما می‌گویم، و به نظر بدیهی خواهد آمد که آن درست است،
10:24
and that's the pointنقطه, right? Then I'm going to have to make an argumentبحث و جدل
223
599000
2000
و نکته همین جا است، درست؟ بعدش باید بحثی را پیش بکشم
10:26
why you're incorrectغلط about the other assumptionفرض.
224
601000
2000
که چرا آن یکی ‌فرضيه نادرست است.
10:28
The intuitiveبصری but obviousآشکار thing is that somehowبه نحوی intelligenceهوش
225
603000
3000
نکنه منطقی ولی واضح این است که هوش به نحوی
10:31
is definedتعریف شده است by behaviorرفتار,
226
606000
2000
به وسیله رفتار تعریف می‌شود،
10:33
that we are intelligentباهوش - هوشمند because of the way that we do things
227
608000
2000
که ما به خاطر نحوه انجام کارهایمان،
10:35
and the way we behaveرفتار كردن intelligentlyهوشمندانه, and I'm going to tell you that's wrongاشتباه.
228
610000
3000
و نحوه رفتار هوشمندانه‌مان باهوش هستیم، و من به شما می‌گویم که این نادرست است.
10:38
What it is is intelligenceهوش is definedتعریف شده است by predictionپیش بینی.
229
613000
2000
آن چیزی که هست این است که هوش است با پیش‌بینی تعریف می‌شود.
10:40
And I'm going to work you throughاز طریق this in a fewتعداد کمی slidesاسلایدها here,
230
615000
3000
و من با شما روی این موضوع در این چند تصویر کار می‌کنم،
10:43
give you an exampleمثال of what this meansبه معنای. Here'sاینجاست a systemسیستم.
231
618000
4000
و نمونه‌هائی به شما می‌دهم که این به چه معناست. در اینجا یک سامانه (سیستم) داریم.
10:47
Engineersمهندسین like to look at systemsسیستم های like this. Scientistsدانشمندان like to look at systemsسیستم های like this.
232
622000
3000
مهندس‌ها دوست دارند که به سامانه‌ها این‌گونه نگاه کنند. دانشمندان دوست دارند که به سامانه‌ها این‌گونه نگاه کنند.
10:50
They say, well, we have a thing in a boxجعبه, and we have its inputsورودی ها and its outputsخروجی ها.
233
625000
3000
آنها می‌گویند، خوب، ما یک چیز درون جعبه داریم، و درون‌رو و برون‌داد آن را هم داریم.
10:53
The AIAI people said, well, the thing in the boxجعبه is a programmableقابل برنامه ریزی computerکامپیوتر
234
628000
3000
آدم‌های [رشته] هوش‌مصنوعی می‌گفتند، خوب، آن چیز درون جعبه یک رایانه قابل برنامه‌ریزی است.
10:56
because that's equivalentمعادل to a brainمغز, and we'llخوب feedخوراک it some inputsورودی ها
235
631000
2000
چون معادل یک مغز است، و ما به آن مقداری درون‌داد می‌دهیم
10:58
and we'llخوب get it to do something, have some behaviorرفتار.
236
633000
2000
و آن را وادار می‌کنیم کاری انجام بدهد، رفتاری داشته باشد.
11:00
And Alanآلن Turingتورینگ definedتعریف شده است the Turingتورینگ testتست, whichکه is essentiallyاساسا sayingگفت:,
237
635000
3000
و آلن تورینگ (Alan Turing) آزمایش تورینگ را تعریف کرد، که در اساس می‌گوید:
11:03
we'llخوب know if something'sبعضی چیزها intelligentباهوش - هوشمند if it behavesرفتار می کند identicalیکسان to a humanانسان.
238
638000
3000
ما چیزی را هوشمند می‌دانیم كه مثل یک انسان رفتار کند.
11:06
A behavioralرفتاری metricمتریک of what intelligenceهوش is,
239
641000
3000
یک معيارِ رفتاریِ از اینکه هوش چیست،
11:09
and this has stuckگیر in our mindsذهنها for a long periodدوره زمانی of time.
240
644000
3000
و مدت زیادی است كه این در ذهن ما گیر کرده است.
11:12
Realityواقعیت thoughگرچه, I call it realواقعی intelligenceهوش.
241
647000
2000
در حقیقت اما، چیزیه که من به آن هوش واقعی می‌گویم.
11:14
Realواقعی intelligenceهوش is builtساخته شده on something elseچیز دیگری.
242
649000
2000
هوش واقعی بر مبنای چیز دیگری ساخته شده است.
11:16
We experienceتجربه the worldجهان throughاز طریق a sequenceتوالی of patternsالگوها, and we storeفروشگاه them,
243
651000
4000
ما دنیا را از طریق یک سلسله الگو‌هائی تجربه می‌کنیم، و آنها را ذخیره می‌کنیم،
11:20
and we recallبه خاطر آوردن them. And when we recallبه خاطر آوردن them, we matchهمخوانی داشتن them up
244
655000
3000
و آنها را بازیابی می‌کنیم. و وقتی آنها را بازیابی می‌کنیم، آنها را
11:23
againstدر برابر realityواقعیت, and we're makingساخت predictionsپیش بینی ها all the time.
245
658000
4000
با واقعیت تطبیق می‌دهیم، و دائما در حال پیش‌بینی هستیم.
11:27
It's an eternalابدی metricمتریک. There's an eternalابدی metricمتریک about us sortمرتب سازی of sayingگفت:,
246
662000
3000
این یک معيار دائمی است. یک معيار دائمی در مورد ما که به نحوی می‌گوید،
11:30
do we understandفهمیدن the worldجهان? Am I makingساخت predictionsپیش بینی ها? And so on.
247
665000
3000
آیا ما دنیا را می‌فهمیم؟ آیا من پیش‌بینی‌ می‌کنم؟ و غیره.
11:33
You're all beingبودن intelligentباهوش - هوشمند right now, but you're not doing anything.
248
668000
2000
شما همگی الان هوشمند هستید،‌ ولی در حال انجام كاری نيستيد.
11:35
Maybe you're scratchingخارش yourselfخودت, or pickingچیدن your noseبینی,
249
670000
2000
شاید دارید خودتان را می‌خارید، یا دماغ‌تان را تمیز می‌کنید،
11:37
I don't know, but you're not doing anything right now,
250
672000
2000
من نمی‌دانم، ولی کاری الان انجام نمی‌دهید،
11:39
but you're beingبودن intelligentباهوش - هوشمند; you're understandingدرك كردن what I'm sayingگفت:.
251
674000
3000
ولی شما هوشمند هستيد، شما می‌فهمید من چه می‌گویم.
11:42
Because you're intelligentباهوش - هوشمند and you speakصحبت Englishانگلیسی,
252
677000
2000
چون‌ که شما هوشمند هستید و انگلیسی صحبت می‌کنید،
11:44
you know what wordکلمه is at the endپایان of this -- (Silenceسکوت)
253
679000
1000
شما می‌دانید چه کلمه‌ای در پایان این -- (سکوت)
11:45
sentenceجمله.
254
680000
2000
«جمله» است.
11:47
The wordکلمه cameآمد into you, and you're makingساخت these predictionsپیش بینی ها all the time.
255
682000
3000
این کلمه به ذهن شما آمد، و شما دائما این پیش‌بینی‌ها را انجام می‌دهید.
11:50
And then, what I'm sayingگفت: is,
256
685000
2000
و پس آنچه که من می‌گویم این است که،
11:52
is that the eternalابدی predictionپیش بینی is the outputخروجی in the neocortexneocortex.
257
687000
2000
این پیش‌بینی دائمی محصول و برون‌‌داد نئوکورتکس است.
11:54
And that somehowبه نحوی, predictionپیش بینی leadsمنجر می شود to intelligentباهوش - هوشمند behaviorرفتار.
258
689000
3000
و به نحوی، پیش‌بینی منجر به رفتار هوشمندانه می‌شود.
11:57
And here'sاینجاست how that happensاتفاق می افتد. Let's startشروع کن with a non-intelligentغیر هوشمند brainمغز.
259
692000
3000
و این‌گونه اتفاق می‌افتد. بیائید با یک مغز غیرهوشمند شروع کنیم.
12:00
Well I'll argueجر و بحث a non-intelligentغیر هوشمند brainمغز, we got holdنگه دارید of an oldقدیمی brainمغز,
260
695000
4000
خوب من در باره یک مغز غیرهوشمند بحث می‌کنم، ما یک مغز قدیمی را پیدا کردیم،
12:04
and we're going to say it's like a non-mammalغیر پستاندار, like a reptileخزنده,
261
699000
3000
و ما می‌گوئیم که شبیه مغز یک غیر پستاندار است، مثلا یک خزنده،
12:07
so I'll say, an alligatorتمساح; we have an alligatorتمساح.
262
702000
2000
پس من می‌گویم، یک تمساح، ما یک تمساح داریم.
12:09
And the alligatorتمساح has some very sophisticatedپیچیده sensesاحساسات.
263
704000
3000
و این تمساح يكسری حس‌های بسیار پیچیده‌ای دارد.
12:12
It's got good eyesچشم ها and earsگوش ها and touchدست زدن به sensesاحساسات and so on,
264
707000
3000
چشمان خوب، گوش‌ها، حس لامسه دارد، و غیره
12:15
a mouthدهان and a noseبینی. It has very complexپیچیده behaviorرفتار.
265
710000
4000
يك دهان و يك دماغ. رفتار بسیار پیچیده‌ای دارد.
12:19
It can runاجرا کن and hideپنهان شدن. It has fearsترس and emotionsاحساسات. It can eatخوردن you, you know.
266
714000
4000
می‌تواند فرار کند و پنهان شود. ترس و عاطفه دارد. می‌تواند شما را بخورد، می‌دانید.
12:23
It can attackحمله. It can do all kindsانواع of stuffچیز.
267
718000
4000
می‌تواند حمله کند. کلی کار می‌تواند بکند.
12:27
But we don't considerدر نظر گرفتن the alligatorتمساح very intelligentباهوش - هوشمند, not like in a humanانسان sortمرتب سازی of way.
268
722000
5000
اما ما تمساح را خيلی هوشمند نمی‌دانیم، نه به گونه انسانی.
12:32
But it has all this complexپیچیده behaviorرفتار alreadyقبلا.
269
727000
2000
اما تمساح همه این رفتارهای پیچیده را دارد.
12:34
Now, in evolutionسیر تکاملی, what happenedاتفاق افتاد?
270
729000
2000
حال، در تکامل، چه اتفاقی افتاده است؟
12:36
First thing that happenedاتفاق افتاد in evolutionسیر تکاملی with mammalsپستانداران,
271
731000
3000
اولین چیزی که در تکامل پستانداران اتفاق افتاد اين بود كه،
12:39
we startedآغاز شده to developتوسعه a thing calledبه نام the neocortexneocortex.
272
734000
2000
ما شروع كردیم به توسعه چیزی به نام نئوکورتکس.
12:41
And I'm going to representنمایندگی the neocortexneocortex here,
273
736000
2000
و من اینجا این لایه نئوکورتکس را نمایش می‌دهم،
12:43
by this boxجعبه that's stickingچسبیده on topبالا of the oldقدیمی brainمغز.
274
738000
2000
به وسیله این جعبه که در بالای مغز قدیمی چسپیده است.
12:45
NeocortexNeocortex meansبه معنای newجدید layerلایه. It is a newجدید layerلایه on topبالا of your brainمغز.
275
740000
3000
نئوکورتکس به معنی لایه نوین است. آن لایه‌ نوینی است که در بالای مغز شما قرار گرفته است.
12:48
If you don't know it, it's the wrinklyچروک thing on the topبالا of your headسر that,
276
743000
3000
اگر آن را نمی‌شناسید، آن چیز چروکیده‌ای است که بر روی سر شما قرار گرفته،
12:51
it's got wrinklyچروک because it got shovedزد in there and doesn't fitمناسب.
277
746000
3000
چروکیده شده چون داخل آنجا چپانده شده و جا نمی‌شود.
12:54
(Laughterخنده)
278
749000
1000
(خنده حضار)
12:55
No, really, that's what it is. It's about the sizeاندازه of a tableجدول napkinدستمال سفره.
279
750000
2000
نه، واقعا، این چیزی است که هست. تقریبا به اندازه یک دستمال رومیزی است.
12:57
And it doesn't fitمناسب, so it getsمی شود all wrinklyچروک. Now look at how I've drawnکشیده شده this here.
280
752000
3000
و جا نمی‌شود. برای همین همه‌اش چروکیده شده. حالا نگاه کنید چگونه من این را اینجا کشیده‌ام.
13:00
The oldقدیمی brainمغز is still there. You still have that alligatorتمساح brainمغز.
281
755000
4000
مغز قدیمی هنوز همان‌جا است. هنوز شما آن مغز تمساحی‌تان را دارید.
13:04
You do. It's your emotionalعاطفی brainمغز.
282
759000
2000
داریدش. مغز عاطفی شما است.
13:06
It's all those things, and all those gutروده reactionsواکنش ها you have.
283
761000
3000
تمام آن چیز‌ها است، تمام آن واکنش‌های اولیه‌ای که دارید.
13:09
And on topبالا of it, we have this memoryحافظه systemسیستم calledبه نام the neocortexneocortex.
284
764000
3000
و بر فراز آن، ما این سامانه حافظه‌ به نام نئوکورتکس را هم در اختیار داریم.
13:12
And the memoryحافظه systemسیستم is sittingنشسته over the sensoryحسی partبخشی of the brainمغز.
285
767000
4000
و سامانه حافظه بر فراز قسمت حسی مغز نشسته است.
13:16
And so as the sensoryحسی inputورودی comesمی آید in and feedsتغذیه می کند from the oldقدیمی brainمغز,
286
771000
3000
و لذا همانطور كه درون‌رو‌های حسی وارد می‌شوند و از مغز قدیمی تغذيه می‌شوند،
13:19
it alsoهمچنین goesمی رود up into the neocortexneocortex. And the neocortexneocortex is just memorizingحفظ کردن.
287
774000
4000
و همچنين می‌روند بالا به نئوکورتکس. و نئوکورتکس فقط در حال به خاطر سپردن است.
13:23
It's sittingنشسته there sayingگفت:, ahآه, I'm going to memorizeحفظ کردن all the things that are going on:
288
778000
4000
آنجا نشسته و می‌گوید، آها، من همه چیزهائی که اتفاق می‌افتند را به خاطر می‌سپارم.
13:27
where I've been, people I've seenمشاهده گردید, things I've heardشنیدم, and so on.
289
782000
2000
جاهائی که بودم، مردمی که دیدم، چیزهائی که شنیدم، و غیره.
13:29
And in the futureآینده, when it seesمی بیند something similarمشابه to that again,
290
784000
4000
و در آینده، وقتی چیزی مشابه آن را دوباره ببیند،
13:33
so in a similarمشابه environmentمحیط, or the exactدقیق sameیکسان environmentمحیط,
291
788000
3000
در محیط مشابه، یا در محیط دقیقا یکسان،
13:36
it'llآن خواهد شد playبازی it back. It'llاین خواهد شد startشروع کن playingبازی کردن it back.
292
791000
2000
آن را بازپخش می‌کند. شروع به بازپخش آن می‌کند.
13:38
Oh, I've been here before. And when you've been here before,
293
793000
2000
آها، من قبلا هم اینجا بوده‌ام. و وقتی بار قبل اینجا بودی،
13:40
this happenedاتفاق افتاد nextبعد. It allowsاجازه می دهد you to predictپیش بینی the futureآینده.
294
795000
3000
بعدش این اتفاق افتاد. این به شما اجازه می‌دهد درباره آینده پیش‌بینی کنید.
13:43
It allowsاجازه می دهد you to, literallyعینا it feedsتغذیه می کند back the signalsسیگنال ها into your brainمغز;
295
798000
4000
به شما اجازه می‌دهد که، واقعا علائم را به مغز باز‌خوران می‌كند؛
13:47
they'llآنها خواهند شد let you see what's going to happenبه وقوع پیوستن nextبعد,
296
802000
2000
و اینها به شما اجازه می‌دهند که بدانيد بعدش چه اتفاقی می‌افتد.
13:49
will let you hearشنیدن the wordکلمه "sentenceجمله" before I said it.
297
804000
3000
اجازه می‌دهد که کلمه «جمله» را قبل از آنکه من آن را بگویم بشنوید.
13:52
And it's this feedingتغذیه back into the oldقدیمی brainمغز
298
807000
3000
و این بازخوران‌ به مغز قدیم
13:55
that'llکه میگه allowاجازه دادن you to make very more intelligentباهوش - هوشمند decisionsتصمیمات.
299
810000
3000
به شما امکان می‌دهد تا تصمیمات بسیار هوشمندانه‌تری بگیرید.
13:58
This is the mostاکثر importantمهم slideاسلاید of my talk, so I'll dwellساکن on it a little bitبیت.
300
813000
3000
این مهم‌ترین تصویر صحبت من است، پس کمی روی آن تاکید می‌کنم.
14:01
And so, all the time you say, oh, I can predictپیش بینی the things.
301
816000
4000
و لذا، شما همواره می‌گوئید که، آها، من می‌توانم چیز‌ها را پیش‌بینی کنم.
14:05
And if you're a ratموش and you go throughاز طریق a mazeمارپیچ, and then you learnیاد گرفتن the mazeمارپیچ,
302
820000
3000
و اگر شما موش باشید و از یک معمای پر پیچ و خم رد بشوید، و بعد آن معما را ياد می‌گيريد،
14:08
the nextبعد time you're in a mazeمارپیچ, you have the sameیکسان behaviorرفتار,
303
823000
2000
بار بعدی که در یک معما باشید، رفتار مشابهی خواهید داشت،
14:10
but all of a suddenناگهانی, you're smarterهوشمندانه
304
825000
2000
ولی ناگهان،‌ شما با‌هوش‌تر هستید
14:12
because you say, oh, I recognizeتشخیص this mazeمارپیچ, I know whichکه way to go,
305
827000
3000
چون شما می‌گوئید، آها، این معما را می‌شناسم، می‌دانم از کدام طرف بروم،
14:15
I've been here before, I can envisionتجسم the futureآینده. And that's what it's doing.
306
830000
3000
قبلا هم اینجا بوده‌ام، من می‌توانم آینده را ببینم. و این چیزی است که [مغز] انجام می‌دهد.
14:18
In humansانسان -- by the way, this is trueدرست است for all mammalsپستانداران;
307
833000
3000
در انسان‌ها -- در ضمن، این موضوع در مورد همه پستانداران صادق است؛
14:21
it's trueدرست است for other mammalsپستانداران -- and in humansانسان, it got a lot worseبدتر.
308
836000
2000
برای بقیه پستانداران هم درست است -- و در انسان‌ها، بسیار شدیدتر است.
14:23
In humansانسان, we actuallyدر واقع developedتوسعه یافته the frontجلوی partبخشی of the neocortexneocortex
309
838000
3000
در انسان‌ها، در واقع بخش پیشینی نئوکورتکس گسترش يافته است
14:26
calledبه نام the anteriorقدامی partبخشی of the neocortexneocortex. And natureطبیعت did a little trickترفند.
310
841000
4000
که آن را بخش قدامی نئوکورتکس می‌نامند. و طبیعت نیز کلک کوچکی زد.
14:30
It copiedکپی شده the posteriorخلفی partبخشی, the back partبخشی, whichکه is sensoryحسی,
311
845000
2000
بخش خلفی را، بخش عقب، که بخش حسی است را، یکسان‌سازی کرد
14:32
and put it in the frontجلوی partبخشی.
312
847000
2000
و آن را در بخش جلویی قرار داد.
14:34
And humansانسان uniquelyمنحصر به فرد have the sameیکسان mechanismمکانیسم on the frontجلوی,
313
849000
2000
و انسان‌ها منحصرا همان کارکرد را در بخش جلویی مغزشان هم دارند،
14:36
but we use it for motorموتور controlکنترل.
314
851000
2000
اما ما از آن برای تنظیم حرکت استفاده می‌کنیم.
14:38
So we are now ableتوانایی to make very sophisticatedپیچیده motorموتور planningبرنامه ریزی, things like that.
315
853000
3000
پس ما حالا قادر هستیم تا طرح حرکات بسیار پیچیده را ایجاد کنیم، و چیز‌هائی از این قبیل.
14:41
I don't have time to get into all this, but if you want to understandفهمیدن how a brainمغز worksآثار,
316
856000
3000
فعلا زمان آن را ندارم تا به همه این بپردازم، اما اگر می‌خواهید بفهميد که مغز چگونه کار می‌کند،
14:44
you have to understandفهمیدن how the first partبخشی of the mammalianپستاندار neocortexneocortex worksآثار,
317
859000
3000
ابتدا باید دریابید که نخستین بخش نئوکورتکس پستاندارن چگونه کار می‌کند،
14:47
how it is we storeفروشگاه patternsالگوها and make predictionsپیش بینی ها.
318
862000
2000
و چگونه ما الگوها را ذخیره می‌کنیم و پیش‌بینی می‌کنیم.
14:49
So let me give you a fewتعداد کمی examplesمثال ها of predictionsپیش بینی ها.
319
864000
3000
پس بگذارید چند نمونه از پیش‌بینی‌ها را به شما ارائه بدهم.
14:52
I alreadyقبلا said the wordکلمه "sentenceجمله." In musicموسیقی,
320
867000
2000
قبلا کلمه «جمله» را گفتم. در موسیقی،
14:54
if you've heardشنیدم a songترانه before, if you heardشنیدم Jillجیل singآواز خواندن those songsآهنگ ها before,
321
869000
3000
اگر قبلا آهنگی را شنیده باشید، اگر شنیده باشید که جیل (Jill) قبلا آن آوازها را خوانده باشد،
14:57
when she singsآواز می خواند them, the nextبعد noteتوجه داشته باشید popsبالا میآید into your headسر alreadyقبلا --
322
872000
3000
وقتی او آن آوازها می‌خواند، نت بعدی بلافاصله به ذهنتان می‌آید --
15:00
you anticipateپیش بینی کنید it as you're going. If it was an albumآلبوم of musicموسیقی,
323
875000
2000
شما همان‌طور که می‌شنوید پیش‌بینی می‌کنید. اگر یک آلبوم موسيقی بود،
15:02
the endپایان of one albumآلبوم, the nextبعد songترانه popsبالا میآید into your headسر.
324
877000
3000
در پایان آلبوم اول، آهنگ بعدی به ذهنتان می‌آید.
15:05
And these things happenبه وقوع پیوستن all the time. You're makingساخت these predictionsپیش بینی ها.
325
880000
2000
و این چیزها همیشه اتفاق می‌افتد. شما این حدس‌ها را می‌زنید.
15:07
I have this thing calledبه نام the alteredتغییر کرد doorدرب thought experimentآزمایشی.
326
882000
3000
من این چیز را دارم که اسم آن آزمایش تفکر تغییر درب است.
15:10
And the alteredتغییر کرد doorدرب thought experimentآزمایشی saysمی گوید, you have a doorدرب at home,
327
885000
3000
و آزمایش آزمایش تفکر تغییر درب می‌گوید، شما یک درب در خانه دارید،
15:13
and when you're here, I'm changingتغییر دادن it, I've got a guy
328
888000
3000
وقتی که اینجا هستید، تغییرش می‌دهم، یک آدمی را داریم،
15:16
back at your houseخانه right now, movingدر حال حرکت the doorدرب around,
329
891000
2000
که الان در خانه شماست، و مشغول جا‌به‌جا کردن درب است،
15:18
and they're going to take your doorknobدستگیره and moveحرکت it over two inchesاینچ.
330
893000
2000
و آنها دسته درب را بر‌ می‌دارند و دو اینچ آن را جا‌به‌جا می‌کنند.
15:20
And when you go home tonightامشب, you're going to put your handدست out there,
331
895000
2000
و وقتی که شما امشب به خانه می‌روید، شما دستتان را در می‌آورید،
15:22
and you're going to reachنائل شدن for the doorknobدستگیره and you're going to noticeاطلاع
332
897000
2000
و به سوی دسته درب دراز می‌کنید و متوجه می‌شوید
15:24
it's in the wrongاشتباه spotنقطه, and you'llشما خواهید بود go, whoaچه کسی, something happenedاتفاق افتاد.
333
899000
3000
که جای آن غلط است، و می‌گوئید، وای، اتفاقی افتاده است.
15:27
It mayممکن است take a secondدومین to figureشکل out what it was, but something happenedاتفاق افتاد.
334
902000
2000
ممکن است ثانیه‌ای طول بکشد تا متوجه بشويد که چه اتفاقی افتاده، اما اتفاقی افتاده است.
15:29
Now I could changeتغییر دادن your doorknobدستگیره in other waysراه ها.
335
904000
2000
حال من می‌توانم حلقه درب را به طریق دیگری تغییر بدهم.
15:31
I can make it largerبزرگتر or smallerکوچکتر, I can changeتغییر دادن its brassبرنج to silverنقره,
336
906000
2000
می‌توانستم بزرگتر یا کوچکترش کنم. می‌توانم جنسش را از مفرق به نقره تغییر بدهم،
15:33
I could make it a leverاهرم. I can changeتغییر دادن your doorدرب, put colorsرنگ ها on;
337
908000
2000
می‌توانستم آن را به یک دسته تغییر بدهم. می‌‌توانم درب خانه‌تان را تغییر بدهم، رنگش کنم،
15:35
I can put windowsپنجره ها in. I can changeتغییر دادن a thousandهزار things about your doorدرب,
338
910000
3000
روی آن پنجره بگذارم. می‌توانم هزاران تغییر روی درب ایجاد کنم،
15:38
and in the two secondsثانیه you take to openباز کن your doorدرب,
339
913000
2000
و در همان دو ثانیه‌ای که طول می‌کشد تا درب را باز کنید،
15:40
you're going to noticeاطلاع that something has changedتغییر کرد.
340
915000
3000
شما پی خواهید برد که اینجا چیزی تغییر کرده است.
15:43
Now, the engineeringمهندسی approachرویکرد to this, the AIAI approachرویکرد to this,
341
918000
2000
حال، رویکرد مهندسی به این، رویکرد هوش مصنوعی به این،
15:45
is to buildساختن a doorدرب databaseبانک اطلاعاتی. It has all the doorدرب attributesویژگی های.
342
920000
3000
ساخت پایگاه ‌داده درب است. تمام ویژگی‌های درب را داراست.
15:48
And as you go up to the doorدرب, you know, let's checkبررسی them off one at time.
343
923000
3000
و هنگامی که به درب می‌رسید، می‌دانید، تمام ویژگی‌ها را تک‌تک بررسی می‌کند.
15:51
Doorدر، درب, doorدرب, doorدرب, you know, colorرنگ, you know what I'm sayingگفت:.
344
926000
2000
درب، درب، درب، می‌دانید، رنگ، می‌دانید که چه می‌گویم.
15:53
We don't do that. Your brainمغز doesn't do that.
345
928000
2000
ما آن کار را نمی‌کنیم. مغز شما آن کار را نمی‌کند.
15:55
What your brainمغز is doing is makingساخت constantثابت predictionsپیش بینی ها all the time
346
930000
2000
آنچه مغز شما انجام می‌دهد این است که همواره به طور دائم مشغول پیش‌بینی کردن
15:57
about what is going to happenبه وقوع پیوستن in your environmentمحیط.
347
932000
2000
در مورد این است که در محیط اطراف شما چه اتفاقاتی خواهد افتاد.
15:59
As I put my handدست on this tableجدول, I expectانتظار to feel it stop.
348
934000
3000
در حالی که دستم را روی این میز می‌گذارم، انتظار دارم حس کنم که آن متوقف شده.
16:02
When I walkراه رفتن, everyهرکدام stepگام, if I missedاز دست رفته it by an eighthهشتم of an inchاینچ,
349
937000
3000
هنگام راه رفتن، در هر گام، اگر یک هشتم اینچ اشتباه شود،
16:05
I'll know something has changedتغییر کرد.
350
940000
2000
می‌فهمم چیزی تغییر کرده.
16:07
You're constantlyبه طور مداوم makingساخت predictionsپیش بینی ها about your environmentمحیط.
351
942000
2000
شما همواره در حال پیش‌بینی کردن محیط هستید.
16:09
I'll talk about visionچشم انداز here brieflyبه طور خلاصه. This is a pictureعکس of a womanزن.
352
944000
3000
به طور مختصر راجع به بینائی صحبت می‌کنم. این تصویر یک زن است.
16:12
And when you look at people, your eyesچشم ها are caughtگرفتار
353
947000
2000
هنگامی که به انسان‌ها نگاه می‌کنید، چشمان‌تان خیره می‌شوند
16:14
over at two to threeسه timesبار a secondدومین.
354
949000
1000
برای دو یا سه بار در ثانیه.
16:15
You're not awareمطلع of this, but your eyesچشم ها are always movingدر حال حرکت.
355
950000
2000
شما به این آگاه نیستید، اما چشمانتان همواره در حال حرکت هستند.
16:17
And so when you look at someone'sکسی هست faceصورت,
356
952000
2000
و پس وقتی به چهره کسی نگاه می‌کنید،
16:19
you'dمی خواهی typicallyمعمولا go from eyeچشم to eyeچشم to eyeچشم to noseبینی to mouthدهان.
357
954000
2000
شما بطور معمول از چشم به چشم به چشم به دماغ به دهان می‌روید.
16:21
Now, when your eyeچشم movesحرکت می کند from eyeچشم to eyeچشم,
358
956000
2000
حالا، هنگامی که چشمتان از چشم به چشم حرکت می‌کند،
16:23
if there was something elseچیز دیگری there like, a noseبینی,
359
958000
2000
اگر چیز دیگری آنجا باشد مثلا، یک دماغ،
16:25
you'dمی خواهی see a noseبینی where an eyeچشم is supposedقرار است to be,
360
960000
2000
و شما در جائی که قرار است چشم باشد دماغ را ببینید،
16:27
and you'dمی خواهی go, oh shitگریه, you know --
361
962000
3000
و شما می‌گوئید، ای وای، می‌دانید--
16:30
(Laughterخنده)
362
965000
1000
(خنده حضار)
16:31
There's something wrongاشتباه about this personفرد.
363
966000
2000
این آدم یک چیزش اشتباه است.
16:33
And that's because you're makingساخت a predictionپیش بینی.
364
968000
2000
و این به آن دلیل است که شما دارید یک پیش‌بینی می‌کنید.
16:35
It's not like you just look over there and say, what am I seeingدیدن now?
365
970000
2000
مثلا این جور نیست که شما نگاه کنید و بگوئید، من الان چه دارم می‌بینم؟
16:37
A noseبینی, that's okay. No, you have an expectationانتظار of what you're going to see.
366
972000
3000
یک بینی، که درست است. نه، شما انتظاری از آنچه که خواهید دید دارید.
16:40
(Laughterخنده)
367
975000
1000
(خنده حضار)
16:41
Everyهرکدام singleتنها momentلحظه. And finallyسرانجام, let's think about how we testتست intelligenceهوش.
368
976000
4000
در هر لحظه. و در پایان، به این بی‌اندیشیم که چطور ما هوشمندی را می‌سنجيم.
16:45
We testتست it by predictionپیش بینی. What is the nextبعد wordکلمه in this, you know?
369
980000
3000
ما با پیش‌بینی آن را می‌سنجیم. لغت بعدی در این‌جا چیست، می‌دانید؟
16:48
This is to this as this is to this. What is the nextبعد numberعدد in this sentenceجمله?
370
983000
3000
این به این مانند آن به آن. عدد بعدی این جمله چیست؟
16:51
Here'sاینجاست threeسه visionsدیدگاه ها of an objectشی.
371
986000
2000
این سه نما از یک شی است.
16:53
What's the fourthچهارم one? That's how we testتست it. It's all about predictionپیش بینی.
372
988000
4000
نمای چهارم آن چیست؟ این است نحوه سنجش ما. همه‌اش راجع به پیش‌بینی است.
16:57
So what is the recipeدستور العمل for brainمغز theoryتئوری?
373
992000
3000
پس راه‌کار برای نظریه مغز چیست؟
17:00
First of all, we have to have the right frameworkچارچوب.
374
995000
3000
اول از همه، ما باید چهارچوب درستی داشته باشیم.
17:03
And the frameworkچارچوب is a memoryحافظه frameworkچارچوب,
375
998000
2000
و این چهارچوب یک چهارچوب حافظه است،
17:05
not a computationمحاسبات or behaviorرفتار frameworkچارچوب. It's a memoryحافظه frameworkچارچوب.
376
1000000
2000
نه یک چهارچوب محاسباتی یا رفتاری. این یک چهار چوب حافظه است.
17:07
How do you storeفروشگاه and recallبه خاطر آوردن these sequencesدنباله ها or patternsالگوها? It's spatio-temporalفضایی زماني patternsالگوها.
377
1002000
4000
چطور شما این مراحل یا الگوها را ذخیره و یا فراخوانی می‌کنید؟ اینها الگوهای فضائی-زمانی هستند.
17:11
Then, if in that frameworkچارچوب, you take a bunchدسته ای of theoreticiansنظریه پردازان.
378
1006000
3000
سپس، اگر در آن چهارچوب، یک تعدادی نظریه‌پرداز را بگیرید.
17:14
Now biologistsزیست شناسان generallyبطور کلی are not good theoreticiansنظریه پردازان.
379
1009000
2000
حالا زیست‌شناسان کلا نظریه‌پردازان خوبی نیستند.
17:16
It's not always trueدرست است, but in generalعمومی, there's not a good historyتاریخ of theoryتئوری in biologyزیست شناسی.
380
1011000
4000
این همیشه درست نیست، ولی کلا، تاریخچه خوبی از نطریه در زیست‌شناسی موجود نیست.
17:20
So I foundپیدا شد the bestبهترین people to work with are physicistsفیزیکدانان,
381
1015000
3000
پس من به این نتیجه رسیده‌ام که بهترین آدم‌های برای این کار فیزیک‌دان‌ها هستند،
17:23
engineersمهندسین and mathematiciansریاضیدانان, who tendگرایش داشتن to think algorithmicallyالگوریتمی.
382
1018000
3000
مهندس‌ها و ریاضی‌دان‌ها، که گرایش به تفکر الگوریتمی دارند.
17:26
Then they have to learnیاد گرفتن the anatomyآناتومی, and they'veآنها دارند got to learnیاد گرفتن the physiologyفیزیولوژی.
383
1021000
3000
آنها باید کالبد‌شناسی یاد بگیرند، و آنها باید تن‌کرد‌شناسی یاد بگیرند.
17:29
You have to make these theoriesنظریه ها very realisticواقع بین in anatomicalآناتومیک termsاصطلاحات.
384
1024000
4000
این نظریه‌ها باید خیلی واقع‌گرایانه از دیدگاه کالبدشناسی تولید شوند.
17:33
Anyoneهر کسی who getsمی شود up and tellsمی گوید you theirخودشان theoryتئوری about how the brainمغز worksآثار
385
1028000
4000
هر کسی که بلند شود و به شما نظریه خودش را در مورد نحوه کارکرد مغز بگوید
17:37
and doesn't tell you exactlyدقیقا how it's workingکار کردن in the brainمغز
386
1032000
2000
و به شما نگوید که آن دقیقا چگونه در مغز کار می‌کند
17:39
and how the wiringسیم کشی worksآثار in the brainمغز, it is not a theoryتئوری.
387
1034000
2000
و چگونه مدار آن در مغز کار می‌کند، آن یک نظریه نیست.
17:41
And that's what we're doing at the Redwoodردوود Neuroscienceعلوم اعصاب Instituteمؤسسه.
388
1036000
3000
و این کاری است که ما در موئسسه علوم‌اعصاب ردوود به آن مشغول هستیم.
17:44
I would love to have more time to tell you we're makingساخت fantasticخارق العاده progressپیش رفتن in this thing,
389
1039000
4000
من دوست داشتم که وقت بیشتری می‌داشتم که به شما بگویم که ما پیش‌رفت خارق‌العاده‌ای در این زمینه داشته‌ایم،
17:48
and I expectانتظار to be back up on this stageمرحله,
390
1043000
2000
و من انتظار دارم که مجددا به روی این صحنه بيایم،
17:50
maybe this will be some other time in the not too distantدور futureآینده and tell you about it.
391
1045000
2000
شاید این در وقت دیگری در آینده نه چندان دور باشد که به شما در مورد آن بگویم.
17:52
I'm really, really excitedبرانگیخته. This is not going to take 50 yearsسالها at all.
392
1047000
3000
من خیلی، خیلی هیجان زده‌‌ام. این اصلا قرار نیست ۵۰ سال طول بکشد.
17:55
So what will brainمغز theoryتئوری look like?
393
1050000
2000
پس نطریه مغزی چه شکلی خواهد داشت؟
17:57
First of all, it's going to be a theoryتئوری about memoryحافظه.
394
1052000
2000
اولا، یک نظریه در مورد حافظه خواهد بود.
17:59
Not like computerکامپیوتر memoryحافظه. It's not at all like computerکامپیوتر memoryحافظه.
395
1054000
3000
نه مانند حافظه رایانه. اصلا مانند حافظه رایانه نیست.
18:02
It's very, very differentناهمسان. And it's a memoryحافظه of these very
396
1057000
2000
خیلی، خیلی متفاوت است. و حافطه‌ای است از این
18:04
high-dimensionalابعاد بزرگ patternsالگوها, like the things that come from your eyesچشم ها.
397
1059000
3000
الگو‌های چند بُعدی، مانند چیز‌هائی که از چشم‌تان می‌آید.
18:07
It's alsoهمچنین memoryحافظه of sequencesدنباله ها.
398
1062000
2000
همچنین این یک حافظه متوالی است.
18:09
You cannotنمی توان learnیاد گرفتن or recallبه خاطر آوردن anything outsideخارج از of a sequenceتوالی.
399
1064000
2000
شما هیچ چیزی را خارج از توالی نمی‌توانید یاد بگیرید.
18:11
A songترانه mustباید be heardشنیدم in sequenceتوالی over time,
400
1066000
3000
یک آهنگ باید در یک توالی در طول زمان شنیده شود،
18:14
and you mustباید playبازی it back in sequenceتوالی over time.
401
1069000
3000
و شما باید آن را در یک توالی در طول زمان باز‌پخش کنید.
18:17
And these sequencesدنباله ها are auto-associativelyخودکار وابسته recalledفراخوانده شد, so if I see something,
402
1072000
3000
و این توالی‌ها به صوت مرتبط و خودکار باز‌یابی می‌شوند، بنابراین اگر من چیزی را ببینم،
18:20
I hearشنیدن something, it remindsیادآوری می کند me of it, and then it playsنمایشنامه back automaticallyبطور خودکار.
403
1075000
3000
چیزی را بشنوم، من را به یاد همان چیز می‌اندازد، و بعد به صورت خودکار بازپخش می‌شود.
18:23
It's an automaticاتوماتیک playbackپخش. And predictionپیش بینی of futureآینده inputsورودی ها is the desiredدلخواه outputخروجی.
404
1078000
4000
این یک بازپخش خودکار است. و پیش‌بینی درون‌‌روهای آینده، برون‌داد مطلوب است.
18:27
And as I said, the theoryتئوری mustباید be biologicallyبیولوژیکی accurateدقیق,
405
1082000
3000
و همان‌طور که گفتم، نظریه باید از لحاظ زیست‌شناختی درست باشد،
18:30
it mustباید be testableقابل آزمون است, and you mustباید be ableتوانایی to buildساختن it.
406
1085000
2000
و باید قابل آزمایش باشد، و شما باید توانائی ساخت آن را داشته باشید.
18:32
If you don't buildساختن it, you don't understandفهمیدن it. So, one more slideاسلاید here.
407
1087000
4000
اگر آن را نسازید، آن را درک نمی‌کنید. خوب، یک تصویر دیگر داريم.
18:36
What is this going to resultنتيجه in? Are we going to really buildساختن intelligentباهوش - هوشمند machinesماشین آلات?
408
1091000
4000
این به چه نتیجه‌ای میرسد؟ آیا ما واقعا ماشین‌های هوشمند خواهیم ساخت؟
18:40
Absolutelyکاملا. And it's going to be differentناهمسان than people think.
409
1095000
4000
قطعا. و این با چیزی که مردم به آن فکر می‌کنند متفاوت خواهد بود.
18:44
No doubtشک that it's going to happenبه وقوع پیوستن, in my mindذهن.
410
1099000
3000
در نظر من، بدون شک این اتفاق خواهد افتاد.
18:47
First of all, it's going to be builtساخته شده up, we're going to buildساختن the stuffچیز out of siliconسیلیکون.
411
1102000
4000
اولا، این ساخته خواهد شد، ما این چیز‌ها را از سیلیکون خواهیم ساخت.
18:51
The sameیکسان techniquesتکنیک we use for buildingساختمان siliconسیلیکون computerکامپیوتر memoriesخاطرات,
412
1106000
3000
همون فنونی که ما برای ساختن حافظه‌های سیلیکونی رایانه به کار می‌بریم،
18:54
we can use for here.
413
1109000
1000
در این‌جا می‌توانیم از آنها استفاده کنیم.
18:55
But they're very differentناهمسان typesانواع of memoriesخاطرات.
414
1110000
2000
ولی این نوع متفاوتی از حافظه است.
18:57
And we're going to attachپیوستن these memoriesخاطرات to sensorsسنسورها,
415
1112000
2000
و ما این حافظه‌ها را به گیرنده‌های حسی وصل می‌کنیم،
18:59
and the sensorsسنسورها will experienceتجربه real-liveزندگی واقعی, real-worldدنیای واقعی dataداده ها,
416
1114000
3000
و این گیرنده‌های حسی داده زنده-حقیقی، و دنیای-حقیقی را تجربه خواهند کرد،
19:02
and these things are going to learnیاد گرفتن about theirخودشان environmentمحیط.
417
1117000
2000
و این چیز‌ها را در مورد محیط‌شان یاد خواهند گرفت.
19:04
Now it's very unlikelyبعید است the first things you're going to see are like robotsروبات ها.
418
1119000
3000
حالا احتمالش خیلی کم خواهد بود که چیز‌های اولیه‌ای که می‌بینید مانند آدم مصنوعی (روبوت) باشند.
19:07
Not that robotsروبات ها aren'tنه usefulمفید است and people can buildساختن robotsروبات ها.
419
1122000
3000
نه اينكه آدم مصنوعی‌ها مفید نیستند و انسان‌ها می‌توانند آدم مصنوعی‌ بسازند.
19:10
But the roboticsروباتیک partبخشی is the hardestسخت ترین partبخشی. That's the oldقدیمی brainمغز. That's really hardسخت.
420
1125000
4000
ولی قسمت علم آدم مصنوعی (روبوتیکس) سخت‌ترین قسمت این است. این مغز قدیمی است. آن واقعا سخت است.
19:14
The newجدید brainمغز is actuallyدر واقع kindنوع of easierآسان تر than the oldقدیمی brainمغز.
421
1129000
2000
در واقع مغز جدید تا حدی راحت‌تر از مغز قدیم است.
19:16
So the first thing we're going to do are the things that don't requireنیاز a lot of roboticsروباتیک.
422
1131000
3000
پس اولین کاری که ما خواهیم کرد چیز‌هائی خواهد بود که نیاز زیادی به علم آدم مصنوعی نخواهد داشت.
19:19
So you're not going to see C-C-3POPO.
423
1134000
2000
پس شما [آدم مصنوعی] سی-۳-پی-او را نخواهید دید.
19:21
You're going to more see things like, you know, intelligentباهوش - هوشمند carsماشین ها
424
1136000
2000
شما بیشتر چیز‌هائی مانند، می‌دانید، خودرو هوشمند را خواهید دید
19:23
that really understandفهمیدن what trafficترافیک is and what drivingرانندگی is
425
1138000
3000
که واقعا مفهوم ترافیک را درک می‌کنند و این‌که رانندگی چیست
19:26
and have learnedیاد گرفتم that certainمسلم - قطعی typesانواع of carsماشین ها with the blinkersچشمک زدن on for halfنیم a minuteدقیقه
426
1141000
3000
و آموخته‌اند که بعضی از خودروها که چراغ‌ راهنمای‌شان برای نیم دقیقه روشن مانده
19:29
probablyشاید aren'tنه going to turnدور زدن, things like that.
427
1144000
2000
احتمالا نخواهند پیچید، و چیزهائی از این قبیل.
19:31
(Laughterخنده)
428
1146000
1000
(خنده حضار)
19:32
We can alsoهمچنین do intelligentباهوش - هوشمند securityامنیت systemsسیستم های.
429
1147000
2000
ما همچنین می‌توانیم سامانه‌های امنیتی هوشمند بسازیم.
19:34
Anywhereهر جا where we're basicallyاساسا usingاستفاده كردن our brainمغز, but not doing a lot of mechanicsمکانیک.
430
1149000
4000
هر جائی که اساسا ما از مغزمان استفاده می‌کنیم، ولی خیلی کار حرکتی نمی‌کنیم.
19:38
Those are the things that are going to happenبه وقوع پیوستن first.
431
1153000
2000
اینها چیز‌هائی است که اول اتفاق خواهد افتاد.
19:40
But ultimatelyدر نهایت, the world'sجهان the limitحد here.
432
1155000
2000
ولی در نهایت، در اینجا دنیا محدوده ما است.
19:42
I don't know how this is going to turnدور زدن out.
433
1157000
2000
من نمی‌دانم این به چه نحوی در خواهد آمد.
19:44
I know a lot of people who inventedاختراع شده است the microprocessorریزپردازنده
434
1159000
2000
من یک تعداد زیادی از افرادی را که ریزپردازش‌گر (microprocessor) را ساختند را می‌شناسم.
19:46
and if you talk to them, they knewمی دانست what they were doing was really significantقابل توجه,
435
1161000
5000
و اگر با آنها گفت‌وگو کنید، آنها می‌دانستند کاری که دارند می‌کنند خیلی موثر است،
19:51
but they didn't really know what was going to happenبه وقوع پیوستن.
436
1166000
3000
ولی واقعا نمی‌دانستند که چه اتفاقی خواهد افتاد.
19:54
They couldn'tنمی توانستم anticipateپیش بینی کنید cellسلول phonesتلفن ها and the Internetاینترنت and all this kindنوع of stuffچیز.
437
1169000
5000
آنها نمی‌توانستند پیش‌بینی تلفن همراه و اینترنت و تمام این‌گونه چیز‌ها را بکنند.
19:59
They just knewمی دانست like, hey, they were going to buildساختن calculatorsماشین حساب
438
1174000
2000
آنها فقط مثلا می‌دانستند که، آهای، ما ماشین‌حساب
20:01
and trafficترافیک lightسبک controllersکنترل کننده ها. But it's going to be bigبزرگ.
439
1176000
2000
و تنظیم‌گر چراغ راهنمائی می‌سازیم. ولی این عظيم خواهد بود.
20:03
In the sameیکسان way, this is like brainمغز scienceعلوم پایه and these memoriesخاطرات
440
1178000
3000
به همون نحو، این مانند علوم مغزی است و این حافظه‌ها
20:06
are going to be a very fundamentalاساسی technologyتکنولوژی, and it's going to leadسرب
441
1181000
3000
یک فن‌آوری بنیادین خواهند بود، و منجر به
20:09
to very unbelievableباور نکردنی changesتغییرات in the nextبعد 100 yearsسالها.
442
1184000
3000
تغییرات خیلی غیر‌قابل باوری در ۱۰۰ سال آینده خواهند شد.
20:12
And I'm mostاکثر excitedبرانگیخته about how we're going to use them in scienceعلوم پایه.
443
1187000
4000
و من بیشترین هیجان را از بابت این دارم که از آنها چگونه در علم استفاده خواهیم کرد.
20:16
So I think that's all my time, I'm over it, and I'm going to endپایان my talk
444
1191000
3000
خوب، فکر می‌کنم زمان من تمام شده است، من آن را تمام كردم، و صحبتم را
20:19
right there.
445
1194000
1000
در همین‌جا به پایان می‌رسانم.
Translated by Babak Mohit
Reviewed by Maral Salehi

▲Back to top

ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com