ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com
TED2003

Jeff Hawkins: How brain science will change computing

جيف هوكينز: كيف سيغير علم الدماغ الحوسبة

Filmed:
1,674,773 views

مخترع "التريو" جيف هوكينز يحثنا على إلقاء نظرة جديدة على الدماغ -- بحيث أن لا ننظر إليه كمعالج سريع ، بل كنظام ذاكرة يقوم بتخزين و استرجاع خبرات تساعدنا على التنبؤ بذكاء بما سيحدث لاحقا.
- Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools. Full bio

Double-click the English transcript below to play the video.

00:25
I do two things: I designالتصميم mobileالتليفون المحمول computersأجهزة الكمبيوتر and I studyدراسة brainsعقل.
0
0
3000
أقوم بعملين .أصمم أجهزة الكمبيوتر المحمولة وأدرس الأدمغة.
00:29
And today'sاليوم talk is about brainsعقل and,
1
4000
2000
و محاضرة اليوم ستكون عن الأدمغة و،
00:31
yayياي, somewhereمكان ما I have a brainدماغ fanمعجب out there.
2
6000
2000
نعم, في مكان ما هناك لدي معجب بالدماغ.
00:33
(Laughterضحك)
3
8000
2000
(ضحك)
00:35
I'm going to, if I can have my first slideالانزلاق up here,
4
10000
2000
إذا كان بالإمكان إظهار الشريحة الأولى هنا،
00:37
and you'llعليك see the titleعنوان of my talk and my two affiliationsالانتماءات.
5
12000
4000
وسترون عنوان حديثي واثنين من انتماءاتي.
00:41
So what I'm going to talk about is why we don't have a good brainدماغ theoryنظرية,
6
16000
4000
ما أنا بصدد الحديث عنه هو السبب في أنه لا يوجد لدينا نظرية جيدة للدماغ،
00:45
why it is importantمهم that we should developطور one and what we can do about it.
7
20000
3000
لماذا هو من المهم علينا أن نوجد واحدة؟ و ماذا يمكننا أن نفعل حيالها؟
00:48
And I'll try to do all that in 20 minutesالدقائق. I have two affiliationsالانتماءات.
8
23000
3000
وسأحاول أن أقوم بكل ذلك في 20 دقيقة. لدي انتماءين.
00:51
Mostعظم of you know me from my Palmكف and HandspringHANDSPRING daysأيام,
9
26000
3000
معظمكم يعرفني من أيام اخترعاتي "البالم" و "الهاندسبرنغ"
00:54
but I alsoأيضا runيركض a nonprofitغير ربحية scientificعلمي researchابحاث instituteمعهد
10
29000
3000
ولكنني أيضا أدير معهد بحوث علمية غير ربحي
00:57
calledمسمي the Redwoodالخشب الأحمر Neuroscienceعلم الأعصاب Instituteمعهد in Menloمينلو Parkمنتزه,
11
32000
2000
يدعى معهد ريد وود لعلم الأعصاب في مينلو بارك،
00:59
and we studyدراسة theoreticalنظري neuroscienceعلم الأعصاب,
12
34000
2000
و ندرس علم الأعصاب النظري ،
01:01
and we studyدراسة how the neocortexالقشرة المخية الحديثة worksأعمال.
13
36000
2000
و ندرس كيف تعمل قشرة الدماغ الحديثة.
01:03
I'm going to talk all about that.
14
38000
2000
سأتحدث عن كل ذلك.
01:05
I have one slideالانزلاق on my other life, the computerالحاسوب life, and that's the slideالانزلاق here.
15
40000
3000
لدي شريحة واحدة عن حياتي الأخرى، حياة الكمبيوتر، وهي هذه الشريحة.
01:08
These are some of the productsمنتجات I've workedعمل on over the last 20 yearsسنوات,
16
43000
3000
هذه بعض المنتجات التي عملت عليها على مدى السنوات العشرين الماضية ،
01:11
startingابتداء back from the very originalأصلي laptopحاسوب محمول to some of the first tabletلوح computersأجهزة الكمبيوتر
17
46000
4000
بدءا من الكمبيوتر المحمول الأصلي إلى أجهزة الكمبيوتر اللوحية الأولى
01:15
and so on, and endingإنهاء up mostعظم recentlyمؤخرا with the Treoتريو,
18
50000
2000
وهلم جرا، و انتهاء ب"التريو" في الآونة الأخيرة،
01:17
and we're continuingاستمرار to do this.
19
52000
2000
و نواصل القيام بذلك.
01:19
And I've doneفعله this because I really believe that mobileالتليفون المحمول computingالحوسبة
20
54000
2000
ولقد فعلت ذلك لأنني أؤمن حقا أن الحوسبة المتنقلة
01:21
is the futureمستقبل of personalالشخصية computingالحوسبة, and I'm tryingمحاولة to make the worldالعالمية
21
56000
3000
هي مستقبل الحوسبة الشخصية، وأنا أحاول جعل العالم
01:24
a little bitقليلا better by workingعامل on these things.
22
59000
3000
أفضل قليلا من خلال العمل على هذه الامور.
01:27
But this was, I have to admitيعترف, all an accidentحادث.
23
62000
2000
ولكن كل هذا ، ويجب أن أعترف، أنه كان صدفة.
01:29
I really didn't want to do any of these productsمنتجات
24
64000
2000
أنا لم أرد أن أصنع أي من هذه المنتجات
01:31
and very earlyمبكرا in my careerمهنة I decidedقرر
25
66000
2000
ومبكرا جدا في حياتي قررت
01:33
I was not going to be in the computerالحاسوب industryصناعة.
26
68000
3000
أنني لن أكون في مجال الكمبيوتر.
01:36
And before I tell you about that, I just have to tell you
27
71000
2000
وقبل أن أكلمكم عن ذلك ، أود فقط أن أقول لكم
01:38
this one little pictureصورة of graffitiالكتابة على الجدران there I pickedالتقطت off the webشبكة the other day.
28
73000
2000
تلك الصورة الجرافيتية الصغيرة التي أخذتها من الانترنت.
01:40
I was looking for a pictureصورة of graffitiالكتابة على الجدران, little textنص inputإدخال languageلغة,
29
75000
3000
كنت أبحث عن صورة جرافيتية, لتقليل النصوص,
01:43
and I foundوجدت the websiteموقع الكتروني dedicatedمخصصة to teachersمعلمون who want to make these,
30
78000
3000
ووجدت موقع الكتروني مخصص للمعلمين الذين يريدون صنعها
01:46
you know, the scriptالنصي writingجاري الكتابة things acrossعبر the topأعلى of theirهم blackboardبلاك بورد,
31
81000
3000
تعرفون، المخطوطات التي توضع أعلى السبورة،
01:49
and they had addedوأضاف graffitiالكتابة على الجدران to it, and I'm sorry about that.
32
84000
3000
و أضافوا إليها جرافيتي, و أنا آسف لذلك.
01:52
(Laughterضحك)
33
87000
2000
(ضحك)
01:54
So what happenedحدث was, when I was youngشاب and got out of engineeringهندسة schoolمدرسة
34
89000
5000
فالذي حدث هو أنني عندما كنت شابا و متخرج للتو من كلية الهندسة ،
01:59
at Cornellكورنيل in '79, I decidedقرر -- I wentذهب to work for Intelشركة انتل and
35
94000
4000
من جامعة "كورنيل" عام 79' قررت أن أعمل لشركة "انتل"
02:03
I was in the computerالحاسوب industryصناعة -- and threeثلاثة monthsالشهور into that,
36
98000
3000
كنت أعمل في مجال الكمبيوتر، وبعد ثلاثة أشهر
02:06
I fellسقط in love with something elseآخر, and I said, "I madeمصنوع the wrongخطأ careerمهنة choiceخيار here,"
37
101000
4000
أحببت شيئا آخر ، وقلت: "لقد أخطأت في اختياري المهني هنا".
02:10
and I fellسقط in love with brainsعقل.
38
105000
3000
ووقعت في حب الأدمغة.
02:13
This is not a realحقيقة brainدماغ. This is a pictureصورة of one, a lineخط drawingرسم.
39
108000
3000
هذا ليس دماغا حقيقيا. هذه صورة لدماغ، وهو رسم تخطيطي.
02:16
But I don't rememberتذكر exactlyبالضبط how it happenedحدث,
40
111000
3000
لكنني لا أتذكر بالضبط كيف حدث ذلك،
02:19
but I have one recollectionتذكر, whichالتي was prettyجميلة strongقوي in my mindعقل.
41
114000
3000
ولكن لدي ذكرى واحدة، قوية جدا في ذهني.
02:22
In Septemberسبتمبر 1979, Scientificعلمي Americanأمريكي cameأتى out
42
117000
3000
في أيلول/ سبتمبر 1979، صدر للمجلة "العلمية الأمريكية"
02:25
with a singleغير مرتبطة topicموضوع issueالقضية about the brainدماغ. And it was quiteالى حد كبير good.
43
120000
3000
عدد يحمل موضوعا واحدا حول الدماغ. و كان جيدا جدا.
02:28
It was one of the bestالأفضل issuesمسائل ever. And they talkedتحدث about the neuronالخلايا العصبية
44
123000
3000
لقد كانت من أفضل الأعداد التي أُصدرت. وتحدثوا عن الخلية العصبية
02:31
and developmentتطوير and diseaseمرض and visionرؤية and all the things
45
126000
2000
و التطور و المرض و الرؤية و كل الأشياء
02:33
you mightربما want to know about brainsعقل. It was really quiteالى حد كبير impressiveمحرج.
46
128000
3000
التي قد ترغب بمعرفتها عن الأدمغة. كان رائعا للغاية.
02:36
And one mightربما have the impressionالانطباع that we really knewعرف a lot about brainsعقل.
47
131000
3000
ويمكن للمرء أن يكون لديه الانطباع بأننا حقا نعرف الكثير عن الأدمغة.
02:39
But the last articleمقالة - سلعة in that issueالقضية was writtenمكتوب by Francisفرانسيس Crickكريك of DNAالحمض النووي fameشهرة.
48
134000
4000
ولكن المقال الأخير في ذلك العدد كتبه "فرانسيس كريك" المشهور باكتشاف الحمض النووي.
02:43
Todayاليوم is, I think, the 50thعشر anniversaryذكرى سنوية of the discoveryاكتشاف of DNAالحمض النووي.
49
138000
3000
أعتقد أن اليوم هو الذكرى الخمسون لاكتشاف الحمض النووي.
02:46
And he wroteكتب a storyقصة basicallyفي الأساس sayingقول,
50
141000
2000
و كتب، بما معناه،
02:48
well, this is all well and good, but you know what,
51
143000
3000
أنه: حسنا، هذا كله شيء جيد، ولكن أتعرفون،
02:51
we don't know diddleydiddley squatربض about brainsعقل
52
146000
2000
نحن فعلا لا نعرف شيئا عن الأدمغة
02:53
and no one has a clueدليل how these things work,
53
148000
2000
و لا أحد لديه فكرة كيف تعمل هذه الأشياء،
02:55
so don't believe what anyoneأي واحد tellsيروي you.
54
150000
2000
لذلك لا تصدق ما يقوله أحد لك.
02:57
This is a quoteاقتبس from that articleمقالة - سلعة. He said, "What is conspicuouslyواضح lackingتفتقر إلى,"
55
152000
3000
هذا اقتباس من تلك المقالة: "الذي نفتقر إليه بوضوح،"
03:00
he's a very properلائق Britishبريطاني gentlemanانسان محترم so, "What is conspicuouslyواضح lackingتفتقر إلى
56
155000
4000
إنه رجل بريطاني أصيل للغاية ، "الذي نفتقر إليه بوضوح
03:04
is a broadواسع frameworkالإطار of ideasأفكار in whichالتي to interpretتفسر these differentمختلف approachesاقتراب."
57
159000
3000
هو إطار واضح من الأفكار التي يمكنها تفسير هذه المناهج المختلفة ."
03:07
I thought the wordكلمة frameworkالإطار was great.
58
162000
2000
اعتقدت أن كلمة "إطار" كانت ممتازة
03:09
He didn't say we didn't even have a theoryنظرية. He saysيقول,
59
164000
2000
هو لم يقل بأنه لم يكن عندنا حتى نظرية. هو يقول
03:11
we don't even know how to beginابدأ to think about it --
60
166000
2000
لا نعرف حتى كيف نبدأ بالتفكير فيها --
03:13
we don't even have a frameworkالإطار.
61
168000
2000
ليس لدينا حتى إطار.
03:15
We are in the pre-paradigmقبل النموذج daysأيام, if you want to use Thomasتوماس Kuhnكوهن.
62
170000
3000
نحن في مرحلة ما قبل "النموذج الفكري/البرادايمي" إذا كنت تريد استخدام اصطلاح توماس كوهن .
03:18
And so I fellسقط in love with this, and said look,
63
173000
3000
و أعجبت بالفكرة و قلت
03:21
we have all this knowledgeالمعرفه about brainsعقل. How hardالصعب can it be?
64
176000
3000
إن لدينا كل هذا العلم عن الأدمغة. لأي حد سيكون هذا صعبا؟
03:24
And this is something we can work on my lifetimeأوقات الحياة. I feltشعور I could make a differenceفرق,
65
179000
3000
وهذا شيء يمكن أن أعمل عليه أثناء حياتي. شعرت بأنني أستطيع أن أعمل فارقا فيه،
03:27
and so I triedحاول to get out of the computerالحاسوب businessاعمال, into the brainدماغ businessاعمال.
66
182000
4000
ولذا حاولت الخروج من مجال الكمبيوتر، ونحو مجال الدماغ.
03:31
First, I wentذهب to MITMIT, the AIAI labمختبر was there,
67
186000
2000
أولا، ذهبت إلى معهد التكتنولوجيا "إم آي تي"، حيث مختبر الذكاء الاصطناعي،
03:33
and I said, well, I want to buildبناء intelligentذكي machinesآلات, too,
68
188000
2000
وقلت: حسنا، أنا أريد بناء آلات ذكية أيضاً,
03:35
but the way I want to do it is to studyدراسة how brainsعقل work first.
69
190000
3000
لكن الطريقة التي أريد القيام بذلك هو عن طريق دراسة كيفية عمل الدماغ أولا.
03:38
And they said, oh, you don't need to do that.
70
193000
3000
قالوا: لست بحاجة إلى فعل ذلك.
03:41
We're just going to programبرنامج computersأجهزة الكمبيوتر; that's all we need to do.
71
196000
2000
كل ما سنفعله هو أننا سنبرمج كمبيوترات، هذا كل ما يتعين علينا القيام به.
03:43
And I said, no, you really oughtيجب to studyدراسة brainsعقل. They said, oh, you know,
72
198000
3000
قلت، لا، حقاً عليكم في البداية أن تدرسوا الأدمغة. قالوا، أتعرف،
03:46
you're wrongخطأ. And I said, no, you're wrongخطأ, and I didn't get in.
73
201000
2000
أنت مخطئ. و أنا قلت، لا، أنتم مخطؤون. و لم يقبلوني.
03:48
(Laughterضحك)
74
203000
1000
(ضحك)
03:50
But I was a little disappointedخائب الامل -- prettyجميلة youngشاب -- but I wentذهب back again
75
205000
2000
كنت محبطاً قليلاً -- شاب لطيف, ولكن عدت ثانيةً
03:52
a fewقليل yearsسنوات laterفي وقت لاحق and this time was in Californiaكاليفورنيا, and I wentذهب to Berkeleyبيركلي.
76
207000
3000
بعد سنوات قليلة و هذه المرة في كاليفورنيا, ذهبت إلى بيركلي.
03:55
And I said, I'll go in from the biologicalبيولوجي sideجانب.
77
210000
4000
و قلت سأدخل من الجانب البيولوجي.
03:59
So I got in -- in the Phفتاه.D. programبرنامج in biophysicsفيزياء حيوية, and I was, all right,
78
214000
3000
لذا دخلت في برنامج الدكتوراه في الفيزياء الحيوية. وقلت في نفسي.
04:02
I'm studyingدراسة عربي brainsعقل now, and I said, well, I want to studyدراسة theoryنظرية.
79
217000
3000
أنا أدرس الأدمغة الآن, و قلت: حسناً, أريد أن أدرس الجانب النظري.
04:05
And they said, oh no, you can't studyدراسة theoryنظرية about brainsعقل.
80
220000
2000
و قالوا: لا, لا يمكنك دراسة الجانب النظري عن الأدمغة.
04:07
That's not something you do. You can't get fundedالممولة for that.
81
222000
2000
هذا ليس شيئاً تقوم به. لن تحصل على التمويل لذلك.
04:09
And as a graduateتخرج studentطالب علم, you can't do that. So I said, oh my goshيا الهي.
82
224000
4000
و كطالب دراسات عليا, لا يمكنك أن تقوم بذلك. لذا قلت, يا إلهي.
04:13
I was very depressedمكتئب. I said, but I can make a differenceفرق in this fieldحقل.
83
228000
2000
كنت محبطاً جداً. و قلت:لكنني أستطيع أن أعمل فارقاً في هذا المجال،
04:15
So what I did is I wentذهب back in the computerالحاسوب industryصناعة
84
230000
3000
لذلك ما فعلته هو أنني عدت إلى مجال الكمبيوتر
04:18
and said, well, I'll have to work here for a while, do something.
85
233000
2000
و قلت: حسناً, أنا مجبر على العمل هنا لفترة, إعمل شيئاً.
04:20
That's when I designedتصميم all those computerالحاسوب productsمنتجات.
86
235000
3000
و هذا عندما صممت كل هذه المنتجات الحاسوبية.
04:23
(Laughterضحك)
87
238000
1000
(ضحك)
04:24
And I said, I want to do this for fourأربعة yearsسنوات, make some moneyمال,
88
239000
3000
و قلت, أريد أن أقوم بهذا لمدة أربع سنوات, أجمع بعض المال,
04:27
like I was havingوجود a familyأسرة, and I would matureناضج a bitقليلا,
89
242000
4000
و كنت في ذلك الوقت أكوّن عائلة, و أنضج قليلاً,
04:31
and maybe the businessاعمال of neuroscienceعلم الأعصاب would matureناضج a bitقليلا.
90
246000
3000
و ربما ينضج علم الأعصاب قليلاً.
04:34
Well, it tookأخذ longerطويل than fourأربعة yearsسنوات. It's been about 16 yearsسنوات.
91
249000
3000
أخذت أكثر من أربع سنوات. أخذت 16 سنة تقريباً.
04:37
But I'm doing it now, and I'm going to tell you about it.
92
252000
2000
لكنني أقوم بذلك الآن, و سأحدثكم عن ذلك.
04:39
So why should we have a good brainدماغ theoryنظرية?
93
254000
3000
لماذا يجب أن يكون عندنا نظرية جيدة عن الدماغ؟
04:42
Well, there's lots of reasonsأسباب people do scienceعلم.
94
257000
3000
حسناً, هناك أسباب عديدة تجعل الناس يشتغلون بالعلم.
04:45
One is -- the mostعظم basicالأساسية one is -- people like to know things.
95
260000
3000
واحد منها -- وهو الأساسي -- أن الناس يحبون أن يتعرفوا على الأشياء.
04:48
We're curiousفضولي, and we just go out and get knowledgeالمعرفه, you know?
96
263000
2000
نحن فضوليون, و نحن ببساطة نخرج و نجمع المعرفة, تعرفون؟
04:50
Why do we studyدراسة antsالنمل? Well, it's interestingمثير للإعجاب.
97
265000
2000
لماذا ندرس النمل؟ حسناً, إنها ممتعة.
04:52
Maybe we'llحسنا learnتعلم something really usefulمفيد about it, but it's interestingمثير للإعجاب and fascinatingساحر.
98
267000
3000
ربما سنتعلم شيئاً مفيدة عنها, لكنها ممتعة و ساحرة.
04:55
But sometimesبعض الأحيان, a scienceعلم has some other attributesسمات
99
270000
2000
ولكن أحياناً, للعلم سمات أخرى
04:57
whichالتي makesيصنع it really, really interestingمثير للإعجاب.
100
272000
2000
ما يجعله بالفعل حقاً ممتع.
04:59
Sometimesبعض الأحيان a scienceعلم will tell something about ourselvesأنفسنا,
101
274000
3000
أحياناً علم ما سيخبرنا بشيء عن أنفسنا.
05:02
it'llأنه سوف tell us who we are.
102
277000
1000
سيخبرنا من نحن.
05:03
Rarelyنادرا, you know: evolutionتطور did this and Copernicusكوبرنيكوس did this,
103
278000
3000
حيث نادراً ما يقول التطور فعل هذا و كوبرنيكوس فعل ذاك,
05:06
where we have a newالجديد understandingفهم of who we are.
104
281000
2000
حيث لدينا فهم جديد لـ "من نحن".
05:08
And after all, we are our brainsعقل. My brainدماغ is talkingالحديث to your brainدماغ.
105
283000
4000
و في النهاية, نحن أدمغتنا. دماغي يُخاطب دماغك.
05:12
Our bodiesجثث are hangingمعلق alongعلى طول for the rideاركب, but my brainدماغ is talkingالحديث to your brainدماغ.
106
287000
3000
أجسادنا معلقة للركوب, لكن دماغي يخاطب دماغك.
05:15
And if we want to understandتفهم who we are and how we feel and perceiveتصور شعور,
107
290000
3000
و إذا كنّا نريد أن نفهم من نحن و كيف نشعر و ندرك,
05:18
we really understandتفهم what brainsعقل are.
108
293000
2000
فعلينا أن نفهم ماهي الأدمغة.
05:20
Anotherآخر thing is sometimesبعض الأحيان scienceعلم
109
295000
2000
شيء آخر هو أنه أحياناً العلم
05:22
leadsيؤدي to really bigكبير societalالمجتمعية benefitsفوائد and technologiesالتقنيات,
110
297000
2000
يقود إلى منافع مجتمعية و تكنولوجية كبيرة,
05:24
or businessesالأعمال, or whateverايا كان, that come out of it. And this is one, too,
111
299000
2000
أو أعمال تجارية, أو أي شيء يمكن أن ينتج منه, و هذا علمٌ أيضاً.
05:26
because when we understandتفهم how brainsعقل work, we're going to be ableقادر
112
301000
3000
لأنه عندما نفهم كيف تعمل الأدمغة, يصبح بإمكاننا
05:29
to buildبناء intelligentذكي machinesآلات, and I think that's actuallyفعلا a good thing on the wholeكامل,
113
304000
3000
أن نبني أجهزة ذكية, و أظن أن هذا شيء جيد بالمجمل,
05:32
and it's going to have tremendousهائل benefitsفوائد to societyالمجتمع,
114
307000
2000
و سيضمن منافع عظيمة للمجتمع
05:34
just like a fundamentalأساسي technologyتقنية.
115
309000
2000
تماماً كتكنولوجيا أساسية.
05:36
So why don't we have a good theoryنظرية of brainsعقل?
116
311000
2000
لماذا ليس لدينا نظرية جيدة للأدمغة؟
05:38
And people have been workingعامل on it for 100 yearsسنوات.
117
313000
3000
و الناس تعمل عليها منذ 100 عام.
05:41
Well, let's first take a look at what normalعادي scienceعلم looksتبدو like.
118
316000
2000
حسناً, في البداية دعونا نرى كيف يبدو العلم العادي.
05:43
This is normalعادي scienceعلم.
119
318000
2000
هذا هو العلم العادي.
05:45
Normalعادي scienceعلم is a niceلطيف balanceتوازن betweenما بين theoryنظرية and experimentalistsالتجريبيون.
120
320000
4000
العلم العادي هو توازن بين النظرية و التجريبيين.
05:49
And so the theoristالمنظر guys say, well, I think this is what's going on,
121
324000
2000
واضعو النظرية يقولون: حسناً, أنا أظن أن ما يحدث هو كذا و كذا...
05:51
and the experimentalistالتجريبي saysيقول, no, you're wrongخطأ.
122
326000
2000
و التجريبي يقول: لا, أنت مخطئ.
05:53
And it goesيذهب back and forthعليها, you know?
123
328000
2000
و تستمر على هذا المنوال, أتعلمون؟
05:55
This worksأعمال in physicsعلوم فيزيائية. This worksأعمال in geologyجيولوجيا. But if this is normalعادي scienceعلم,
124
330000
2000
هذا يصلح في الفيزياء. يصلح في الجيولوجيا. لكن إذا كان هذا هو العلم العادي,
05:57
what does neuroscienceعلم الأعصاب look like? This is what neuroscienceعلم الأعصاب looksتبدو like.
125
332000
3000
كيف يبدو علم الأعصاب؟ هكذا يبدو علم الأعصاب.
06:00
We have this mountainجبل of dataالبيانات, whichالتي is anatomyتشريح, physiologyعلم وظائف الأعضاء and behaviorسلوك.
126
335000
5000
لدينا هذا الجبل من المعلومات التي هي علم التشريح, علم وظائف الأعضاء , و السلوك.
06:05
You can't imagineتخيل how much detailالتفاصيل we know about brainsعقل.
127
340000
3000
لا يمكنكم تخيل كم التفاصيل التي نعرفها عن الأدمغة.
06:08
There were 28,000 people who wentذهب to the neuroscienceعلم الأعصاب conferenceمؤتمر this yearعام,
128
343000
4000
كان هناك 28,000 شخص في مؤتمر علم الأعصاب هذا العام.
06:12
and everyكل one of them is doing researchابحاث in brainsعقل.
129
347000
2000
و كل واحد منهم يقوم بأبحاث عن الأدمغة.
06:14
A lot of dataالبيانات. But there's no theoryنظرية. There's a little, wimpyجبان boxصندوق on topأعلى there.
130
349000
4000
معلومات كثيرة. ولكن لا يوجد نظريات. يوجد صندوق صغير خائف في الأعلى هناك
06:18
And theoryنظرية has not playedلعب a roleوظيفة in any sortفرز of grandكبير way in the neurosciencesعلوم الأعصاب.
131
353000
5000
و الجانب النظري لم يلعب أي دور في العلوم العصبية.
06:23
And it's a realحقيقة shameعار. Now why has this come about?
132
358000
3000
و هذا عار حقيقي. لماذا هذا الحال؟
06:26
If you askيطلب neuroscientistsعلماء الأعصاب, why is this the stateحالة of affairقضية,
133
361000
2000
إذا سألتم علماء الأعصاب لماذا هذا هو الحال؟
06:28
they'llأنها سوف first of all admitيعترف it. But if you askيطلب them, they'llأنها سوف say,
134
363000
3000
في البداية سيعترفون بذلك. ولكن إن سألتهم, سيقولون.
06:31
well, there's variousمختلف reasonsأسباب we don't have a good brainدماغ theoryنظرية.
135
366000
3000
حسناً, هناك أسباب عديدة لعدم توفر نظرية جيدة للدماغ.
06:34
Some people say, well, we don't still have enoughكافية dataالبيانات,
136
369000
2000
البعض يقولون: حسناً, ليس لدينا المعلومات الكافية,
06:36
we need to get more informationمعلومات, there's all these things we don't know.
137
371000
3000
يتعين علينا أن نجمع معلومات أكثر, لدينا كل هذا الأشياء التي لا نعلمها.
06:39
Well, I just told you there's so much dataالبيانات comingآت out your earsآذان.
138
374000
3000
حسناً, قلت لكم للتو هناك الكثير جداً من المعلومات الطافحة.
06:42
We have so much informationمعلومات, we don't even know how to beginابدأ to organizeتنظم it.
139
377000
3000
لدينا الكثير من المعلومات, نحن لا نعرف كيف نبدأ بترتيبها.
06:45
What good is more going to do?
140
380000
2000
ماذا سنفعل أفضل من ذلك؟
06:47
Maybe we'llحسنا be luckyسعيد الحظ and discoverاكتشف some magicسحر thing, but I don't think so.
141
382000
3000
ربما سنكون محظوظين و نكتشف شيء سحري, لكنني لا توقع ذلك.
06:50
This is actuallyفعلا a symptomعلامة مرض of the factحقيقة that we just don't have a theoryنظرية.
142
385000
3000
في الحقيقة هذا علامة على الحقيقة التي تقول بأنه ليس لدينا نظرية.
06:53
We don't need more dataالبيانات -- we need a good theoryنظرية about it.
143
388000
3000
لا نحتاج إلى معلومات جديدة -- نحن نحتاج إلى نظرية جيدة عنها.
06:56
Anotherآخر one is sometimesبعض الأحيان people say, well, brainsعقل are so complexمركب,
144
391000
3000
شيء آخر يقوله الناس :- إن الأدمغة شديدة التعقيد.
06:59
it'llأنه سوف take anotherآخر 50 yearsسنوات.
145
394000
2000
ستأخذ 50 سنة أخرى.
07:01
I even think Chrisكريس said something like this yesterdayفي الامس.
146
396000
2000
و أظن أن كريس قال شيئاً كهذا الأمس.
07:03
I'm not sure what you said, Chrisكريس, but something like,
147
398000
2000
لست متأكداً مما قلته يا كريس, لكن شيءٌ ما كـ:
07:05
well, it's one of the mostعظم complicatedمعقد things in the universeكون. That's not trueصحيح.
148
400000
3000
حسناً: أنه واحد من أكثر الأشياء المعقدة في الكون. هذا غير صحيح.
07:08
You're more complicatedمعقد than your brainدماغ. You've got a brainدماغ.
149
403000
2000
أنت أكثر تعقيداً من دماغك. لديك دماغ.
07:10
And it's alsoأيضا, althoughبرغم من the brainدماغ looksتبدو very complicatedمعقد,
150
405000
2000
و بالرغم من أنه يبدو معقداً جداً,
07:12
things look complicatedمعقد untilحتى you understandتفهم them.
151
407000
3000
الأشياء تبدو معقدة حتى تفهمها.
07:15
That's always been the caseقضية. And so all we can say, well,
152
410000
3000
هذا هو الحال دائماً. و كل ما يمكننا قوله:
07:18
my neocortexالقشرة المخية الحديثة, whichالتي is the partجزء of the brainدماغ I'm interestedيستفد in, has 30 billionمليار cellsخلايا.
153
413000
4000
قشرة دماغي الحديثة, وهي الجزء الذي أهتم به من الدماغ, فيها 30 مليار خلية.
07:22
But, you know what? It's very, very regularمنتظم.
154
417000
2000
لكن أتعلمون؟ إنها عادية جداً جداً.
07:24
In factحقيقة, it looksتبدو like it's the sameنفسه thing repeatedمتكرر over and over and over again.
155
419000
3000
في الحقيقة, إنها تبدو كشيء مكرر مرة بعد مرة.
07:27
It's not as complexمركب as it looksتبدو. That's not the issueالقضية.
156
422000
3000
إنها ليست معقدةً كما تبدو. هذه ليست القضية.
07:30
Some people say, brainsعقل can't understandتفهم brainsعقل.
157
425000
2000
بعض الناس يقولون: الأدمغة لا تستطيع أن تفهم الأدمغة.
07:32
Very Zen-likeزن مثل. Whooهوو. (Laughterضحك)
158
427000
3000
بطريقة التأملية تشبه زن .
07:35
You know,
159
430000
1000
(ضحك)
07:36
it soundsاصوات good, but why? I mean, what's the pointنقطة?
160
431000
3000
يبدو جيداً, ولكن لماذا؟ أعني ما هي الغاية؟
07:39
It's just a bunchباقة of cellsخلايا. You understandتفهم your liverكبد.
161
434000
3000
إنها فقط تجمع خلايا. أنتم تفهمون الكبد.
07:42
It's got a lot of cellsخلايا in it too, right?
162
437000
2000
و فيه الكثير من الخلايا أيضاً, أليس هذا صحيحاً؟
07:44
So, you know, I don't think there's anything to that.
163
439000
2000
إذاً, تعرفون, لا أظن أن هناك فرق.
07:46
And finallyأخيرا, some people say, well, you know,
164
441000
2000
و في النهاية البعض يقولون: حسناً,
07:48
I don't feel like a bunchباقة of cellsخلايا, you know. I'm consciousواع.
165
443000
4000
لا أشعر أنني تجمع لخلايا, أنا واعي .
07:52
I've got this experienceتجربة, I'm in the worldالعالمية, you know.
166
447000
2000
أمتلك هذه الخبرة, أنا في العالم, كما تعلم.
07:54
I can't be just a bunchباقة of cellsخلايا. Well, you know,
167
449000
2000
لا يمكن أن أكون فقط تجمع لخلايا. حسناً, أنت تعلم
07:56
people used to believe there was a life forceفرض to be livingالمعيشة,
168
451000
3000
الناس كانت تعتقد أنه كان هناك قوة حياة للعيش.
07:59
and we now know that's really not trueصحيح at all.
169
454000
2000
نحن الآن نعلم بأن هذا غير صحيح مطلقاً.
08:01
And there's really no evidenceدليل that saysيقول -- well, other than people
170
456000
3000
و ليس هناك دليل يقول, غير الناس
08:04
just have disbeliefجحود that cellsخلايا can do what they do.
171
459000
2000
الذين فقط لايؤمنون بأن الخلايا تستطيع أن تقوم بما تفعله.
08:06
And so, if some people have fallenساقط into the pitحفرة of metaphysicalغيبي dualismثنائية,
172
461000
3000
لذا, حتى لو سقط البعض في حفرة غيبيات الروح و الجسد,
08:09
some really smartذكي people, too, but we can rejectرفض all that.
173
464000
3000
-بعض الأشخاص الأذكياء أيضاً- , ولكننا نستطيع أن نرفض كل ذلك.
08:12
(Laughterضحك)
174
467000
2000
(ضحك)
08:14
No, I'm going to tell you there's something elseآخر,
175
469000
3000
سأخبركم بشيء آخر,
08:17
and it's really fundamentalأساسي, and this is what it is:
176
472000
2000
و هو حقاً أساسي, و هذا هو:
08:19
there's anotherآخر reasonالسبب why we don't have a good brainدماغ theoryنظرية,
177
474000
2000
هناك سبب آخر لعدم إمتلاكنا نظرية جيدة للدماغ,
08:21
and it's because we have an intuitiveحدسي, strongly-heldبقوة محتفظ,
178
476000
3000
وهو أنه لدينا إفتراض بديهي و مسيطر
08:24
but incorrectغير صحيح assumptionافتراض that has preventedمنعت us from seeingرؤية the answerإجابة.
179
479000
5000
ولكنه غير صحيح, و قد منعنا من رؤية الإجابة.
08:29
There's something we believe that just, it's obviousواضح, but it's wrongخطأ.
180
484000
3000
هناك شيء نؤمن به, إنه واضح, لكنه خطأ.
08:32
Now, there's a historyالتاريخ of this in scienceعلم and before I tell you what it is,
181
487000
4000
هناك تاريخ لهذا في العلم و قبل أن أخبركم ما هو.
08:36
I'm going to tell you a bitقليلا about the historyالتاريخ of it in scienceعلم.
182
491000
2000
سأحدثكم قليلاً عن تاريخه في العلم
08:38
You look at some other scientificعلمي revolutionsالثورات,
183
493000
2000
أنظروا إلى ثورات علمية أخرى,
08:40
and this caseقضية, I'm talkingالحديث about the solarشمسي systemالنظام, that's Copernicusكوبرنيكوس,
184
495000
2000
و في هذه الحالة. أتحدث عن النظام الشمسي, هذا كوبرنيكوس,
08:42
Darwin'sداروين evolutionتطور, and tectonicبنائي platesلوحات, that's Wegenerفيجنر.
185
497000
3000
التطور لداروين, و الصفائح التكتونية, هذا فاجنر.
08:45
They all have a lot in commonمشترك with brainدماغ scienceعلم.
186
500000
3000
كلهم لديهم مشترك مع علم الدماغ.
08:48
First of all, they had a lot of unexplainedغير المبررة dataالبيانات. A lot of it.
187
503000
3000
أولاً, لديهم الكثير من البيانات غير المفهومة. الكثير منها.
08:51
But it got more manageableالتحكم onceذات مرة they had a theoryنظرية.
188
506000
3000
لكنها أصبحت قابلة للتحكم أكثر عندما إمتلكوا نظرية.
08:54
The bestالأفضل mindsالعقول were stumpedالحيرة -- really, really smartذكي people.
189
509000
3000
أفضل العقول كانت متعكزة, حقاً إنهم أشخاص أذكياء.
08:57
We're not smarterأكثر ذكاء now than they were then.
190
512000
2000
نحن الآن لسنا أذكى منهم.
08:59
It just turnsيتحول out it's really hardالصعب to think of things,
191
514000
2000
فقط الأمور أكثر إتضاحاً, من الصعب التفكير في الأشياء,
09:01
but onceذات مرة you've thought of them, it's kindطيب القلب of easyسهل to understandتفهم it.
192
516000
2000
ولكن بمجرد أن تفكروا بها, من السهل أن تفهموها.
09:03
My daughtersبنات understoodفهم these threeثلاثة theoriesنظريات
193
518000
2000
بناتي فهمت هذه النظريات الثلاث
09:05
in theirهم basicالأساسية frameworkالإطار by the time they were in kindergartenروضة أطفال.
194
520000
3000
في إطارهن الأساسي عندما كانوا في روضة الأطفال.
09:08
And now it's not that hardالصعب, you know, here'sمن هنا the appleتفاحة, here'sمن هنا the orangeالبرتقالي,
195
523000
3000
و الآن هي ليست بهذه الصعوبة, ها هي التفاحة, ها هي البرتقالة,
09:11
you know, the Earthأرض goesيذهب around, that kindطيب القلب of stuffأمور.
196
526000
3000
تعرفون, الأرض تدور, و بهذا الشكل.
09:14
Finallyأخيرا, anotherآخر thing is the answerإجابة was there all alongعلى طول,
197
529000
2000
في النهاية, شيء آخر هي الإجابة و كانت دائماً موجودة.
09:16
but we kindطيب القلب of ignoredتجاهل it because of this obviousواضح thing, and that's the thing.
198
531000
3000
لكننا تجاهلناها بسبب هذا الشيء الواضح, و ذاك هو الشيء.
09:19
It was an intuitiveحدسي, strong-heldقوي يسيطر beliefإيمان that was wrongخطأ.
199
534000
3000
كان إيماناً بديهياً و مسيطراً و كان خاطئاً.
09:22
In the caseقضية of the solarشمسي systemالنظام, the ideaفكرة that the Earthأرض is spinningالدوران
200
537000
3000
في حالة النظام الشمسي, فكرة أن الأرض تسير بشكل إهليلجي
09:25
and the surfaceسطح - المظهر الخارجي of the Earthأرض is going like a thousandألف milesاميال an hourساعة,
201
540000
3000
و سطح الأرض يدور بسرعة ألف ميل في الساعة,
09:28
and the Earthأرض is going throughعبر the solarشمسي systemالنظام about a millionمليون milesاميال an hourساعة.
202
543000
3000
و الأرض تسير في النظام الشمسي بسرعة مليون ميل في الساعة تقريباً.
09:31
This is lunacyجنون. We all know the Earthأرض isn't movingمتحرك.
203
546000
2000
هذا جنون. كلنا نعلم أن الأرض لا تتحرك.
09:33
Do you feel like you're movingمتحرك a thousandألف milesاميال an hourساعة?
204
548000
2000
هل تشعرون بأنكم تسيرون بسرعة ألف ميل في الساعة؟
09:35
Of courseدورة not. You know, and someoneشخصا ما who said,
205
550000
2000
طبعاً لا, تعرفون إن قال شخص ما:
09:37
well, it was spinningالدوران around in spaceالفراغ and it's so hugeضخم,
206
552000
2000
حسناً, إنها تدور في الفضاء و هي ضخمة الحجم,
09:39
they would lockقفل you up, and that's what they did back then.
207
554000
2000
سوف يحبسونه, و هذا ما فعلوه في السابق.
09:41
(Laughterضحك)
208
556000
1000
(ضحك)
09:42
So it was intuitiveحدسي and obviousواضح. Now what about evolutionتطور?
209
557000
3000
إذاً كان هذا بديهي و واضح. والآن ماذا عن نظرية التطور؟
09:45
Evolution'sفي تطور the sameنفسه thing. We taughtيعلم our kidsأطفال, well, the Bibleالكتاب المقدس saysيقول,
210
560000
3000
التطور نفس الشيء. نحن نعلم أبناءنا أن الكتاب المقدس يقول:
09:48
you know, God createdخلقت all these speciesمحيط, catsالقطط are catsالقطط, dogsالكلاب are dogsالكلاب,
211
563000
2000
الإله خلق كل هذه الأنواع, القطط هي القطط, الكلاب هي الكلاب,
09:50
people are people, plantsالنباتات are plantsالنباتات, they don't changeيتغيرون.
212
565000
3000
الناس هم الناس, النباتات هي النباتات, لا يتغيرون.
09:53
Noahنوح put them on the Arkتابوت in that orderطلب, blahبلاه, blahبلاه, blahبلاه. And, you know,
213
568000
4000
نوح وضعهم في السفينة إلخ إلخ..
09:57
the factحقيقة is, if you believe in evolutionتطور, we all have a commonمشترك ancestorسلف,
214
572000
4000
و إذا آمنتم بالتطور, سيكون لنا جميعاً جد مشترك,
10:01
and we all have a commonمشترك ancestryأصل with the plantنبات in the lobbyردهة.
215
576000
3000
و سيكون لنا أصل مشترك مع النبات في الرواق.
10:04
This is what evolutionتطور tellsيروي us. And, it's trueصحيح. It's kindطيب القلب of unbelievableلا يصدق.
216
579000
3000
هذا ما تخبرنا به نظرية التطور. و هذا صحيح, إنه حقاً لا يُصدق.
10:07
And the sameنفسه thing about tectonicبنائي platesلوحات, you know?
217
582000
3000
و نفس الشيء في نظرية الصفائح التكتونية,
10:10
All the mountainsالجبال and the continentsالقارات are kindطيب القلب of floatingيطفو على السطح around
218
585000
2000
كل الجبال و القارات تطفو على
10:12
on topأعلى of the Earthأرض, you know? It's like, it doesn't make any senseإحساس.
219
587000
4000
سطح الأرض, و كأنه غير معقول.
10:16
So what is the intuitiveحدسي, but incorrectغير صحيح assumptionافتراض,
220
591000
4000
إذاً ما هو الإفتراض البديهي, لكن غير الصحيح
10:20
that's keptأبقى us from understandingفهم brainsعقل?
221
595000
2000
الذي منعنا من فهم الأدمغة؟
10:22
Now I'm going to tell it to you, and it's going to seemبدا obviousواضح that that is correctصيح,
222
597000
2000
الآن سأخبركم, و سيبدو بوضوح أنه صحيح,
10:24
and that's the pointنقطة, right? Then I'm going to have to make an argumentجدال
223
599000
2000
و هذا هو الهدف, صحيح؟ ثم سأقوم بمناقشة
10:26
why you're incorrectغير صحيح about the other assumptionافتراض.
224
601000
2000
لماذا أنتم خطأ في الإفتراض الآخر.
10:28
The intuitiveحدسي but obviousواضح thing is that somehowبطريقة ما intelligenceالمخابرات
225
603000
3000
الشيء البديهي و الواضح الذي هو لدرجةٍ ما ، الذكاء
10:31
is definedتعريف by behaviorسلوك,
226
606000
2000
يُعرف بالسلوك
10:33
that we are intelligentذكي because of the way that we do things
227
608000
2000
وهو أننا أذكياء بسبب الطريقة التي نفعل بها الأشياء
10:35
and the way we behaveتصرف intelligentlyبذكاء, and I'm going to tell you that's wrongخطأ.
228
610000
3000
و أسلوب التصرف بذكاء, و سأقول لكم أن هذا خطأ.
10:38
What it is is intelligenceالمخابرات is definedتعريف by predictionتنبؤ.
229
613000
2000
ما يُعرف بالذكاء هو في الحقيقة التنبؤ.
10:40
And I'm going to work you throughعبر this in a fewقليل slidesالشرائح here,
230
615000
3000
سأفصل لكم هذا في الشرائح القليلة هنا
10:43
give you an exampleمثال of what this meansيعني. Here'sمن هنا a systemالنظام.
231
618000
4000
و أعطيكم مثالاً عن ما يعنيه هذا. هذا نظام.
10:47
Engineersالمهندسين like to look at systemsأنظمة like this. Scientistsالعلماء like to look at systemsأنظمة like this.
232
622000
3000
المهندسون يحبون أن ينظروا إلى أنظمة كهذه. العلماء يحبون أن ينظروا إلى أنظمة كهذه.
10:50
They say, well, we have a thing in a boxصندوق, and we have its inputsالمدخلات and its outputsالمخرجات.
233
625000
3000
يقولون: لدينا شيء في صندوق, و لدينا مدخلاته و مخرجاته.
10:53
The AIAI people said, well, the thing in the boxصندوق is a programmableبرمجة computerالحاسوب
234
628000
3000
متخصصو الذكاء الإصطناعي قالوا: الشيء الذي في الصندوق هو كمبيوتر قابل للبرمجة
10:56
because that's equivalentما يعادل to a brainدماغ, and we'llحسنا feedتغذية it some inputsالمدخلات
235
631000
2000
لأن هذا مكافئ للدماغ, و سنعطيه بعض المدخلات
10:58
and we'llحسنا get it to do something, have some behaviorسلوك.
236
633000
2000
و سنجعله يفعل شيئاً, أن يقوم بسلوك ما.
11:00
And Alanآلان Turingتورينج definedتعريف the Turingتورينج testاختبار, whichالتي is essentiallyبشكل أساسي sayingقول,
237
635000
3000
و آلان تورينغ وضع "إختبار تورينغ" الذي يقول:
11:03
we'llحسنا know if something'sشيئا ما intelligentذكي if it behavesيسلك identicalمطابق to a humanبشري.
238
638000
3000
سنعرف إن شيء ما ذكي إذا كان يتصرف كالبشر
11:06
A behavioralالسلوكية metricقياس of what intelligenceالمخابرات is,
239
641000
3000
و هو معيار سلوكي لمعرفة الذكاء
11:09
and this has stuckعالق in our mindsالعقول for a long periodفترة of time.
240
644000
3000
و قد علق في أذهاننا لفترة طويلة.
11:12
Realityواقع thoughاعتقد, I call it realحقيقة intelligenceالمخابرات.
241
647000
2000
لكن ما يوجد في الواقع أسميه الذكاء الحقيقي
11:14
Realحقيقة intelligenceالمخابرات is builtمبني on something elseآخر.
242
649000
2000
الذكاء الحقيقي مبني على شيء آخر.
11:16
We experienceتجربة the worldالعالمية throughعبر a sequenceتسلسل of patternsأنماط - رسم, and we storeمتجر them,
243
651000
4000
نحن نختبر المحيط من خلال مجموعة من الأنماط, ثم نخزنها,
11:20
and we recallاعد الاتصال them. And when we recallاعد الاتصال them, we matchمباراة them up
244
655000
3000
و نسترجعها. و عندما نسترجعها نقارن بينها و بين الواقع
11:23
againstضد realityواقع, and we're makingصناعة predictionsتوقعات all the time.
245
658000
4000
نحن نقوم بالتنبؤ طول الوقت.
11:27
It's an eternalأبدي metricقياس. There's an eternalأبدي metricقياس about us sortفرز of sayingقول,
246
662000
3000
هذا معيار أبدي. هناك معيار أبدي عنّا كأن نقول:
11:30
do we understandتفهم the worldالعالمية? Am I makingصناعة predictionsتوقعات? And so on.
247
665000
3000
هل نحن نفهم العالم؟ هل نقوم بتنبؤات؟ و غيرها.
11:33
You're all beingيجرى intelligentذكي right now, but you're not doing anything.
248
668000
2000
أنتم أذكياء الآن, لكنكم لا تفعلون شيئاً.
11:35
Maybe you're scratchingالخدش yourselfنفسك, or pickingاختيار your noseأنف,
249
670000
2000
ربما أنت تحك جلدك أو تلتقط أنفك.
11:37
I don't know, but you're not doing anything right now,
250
672000
2000
لا أعلم, أنتم تفعلون أي شيء الآن
11:39
but you're beingيجرى intelligentذكي; you're understandingفهم what I'm sayingقول.
251
674000
3000
و لكنكم أذكياء, أنتم تفهمون ما أقوله.
11:42
Because you're intelligentذكي and you speakتحدث Englishالإنجليزية,
252
677000
2000
و بما أنكم أذكياء و تتحدثون الإنجليزية,
11:44
you know what wordكلمة is at the endالنهاية of this -- (Silenceالصمت)
253
679000
1000
تعرفون ما هي الكلمة التي في نهاية هذه .. (صمت)
11:45
sentenceجملة او حكم على.
254
680000
2000
الجملة.
11:47
The wordكلمة cameأتى into you, and you're makingصناعة these predictionsتوقعات all the time.
255
682000
3000
الكلمة خطرت ببالكم, و أنتم تقومون بهذه التنبؤات طول الوقت.
11:50
And then, what I'm sayingقول is,
256
685000
2000
ما أقوله,هو
11:52
is that the eternalأبدي predictionتنبؤ is the outputانتاج in the neocortexالقشرة المخية الحديثة.
257
687000
2000
أن التنبؤ الأبدي هو من المخرجات في قشرة الدماغ الحديثة
11:54
And that somehowبطريقة ما, predictionتنبؤ leadsيؤدي to intelligentذكي behaviorسلوك.
258
689000
3000
و هذا التنبؤ يقود إلى سلوك ذكي.
11:57
And here'sمن هنا how that happensيحدث. Let's startبداية with a non-intelligentغير ذكي brainدماغ.
259
692000
3000
لنرى كيف يحدث هذا. لنبدأ بدماغ غير ذكي.
12:00
Well I'll argueتجادل a non-intelligentغير ذكي brainدماغ, we got holdمعلق of an oldقديم brainدماغ,
260
695000
4000
سنناقش دماغ غير ذكي, لدينا دماغ قديم "لم يتطور"،
12:04
and we're going to say it's like a non-mammalغير الثدييات, like a reptileزواحف,
261
699000
3000
و لنقل أنه من غير الثديات مثل الزواحف
12:07
so I'll say, an alligatorتمساح إستوائي; we have an alligatorتمساح إستوائي.
262
702000
2000
مثلاً لنقل تمساح, لدينا تمساح
12:09
And the alligatorتمساح إستوائي has some very sophisticatedمتطور sensesحواس.
263
704000
3000
و للتمساح حواس معقدة جداً.
12:12
It's got good eyesعيون and earsآذان and touchلمس. اتصال. صلة sensesحواس and so on,
264
707000
3000
لديه حواس نظر و سمع و لمس جيدة
12:15
a mouthفم and a noseأنف. It has very complexمركب behaviorسلوك.
265
710000
4000
لديها فم و أنف. لديها سلوك معقد جداً.
12:19
It can runيركض and hideإخفاء. It has fearsالمخاوف and emotionsالعواطف. It can eatتأكل you, you know.
266
714000
4000
تستطيع الجري و الإختباء. لديها مخاوف و مشاعر. تستطيع أكلكم.
12:23
It can attackهجوم. It can do all kindsأنواع of stuffأمور.
267
718000
4000
تستطيع الهجوم. تستطيع أن تقوم بكل الأشياء.
12:27
But we don't considerيعتبر the alligatorتمساح إستوائي very intelligentذكي, not like in a humanبشري sortفرز of way.
268
722000
5000
لكننا لا نعتبر التمساح ذكي جداً، ليس كـالإنسان.
12:32
But it has all this complexمركب behaviorسلوك alreadyسابقا.
269
727000
2000
ولكن لديه كل هذه التصرفات المعقدة.
12:34
Now, in evolutionتطور, what happenedحدث?
270
729000
2000
والآن, في التطور, ماذا حدث؟
12:36
First thing that happenedحدث in evolutionتطور with mammalsالثدييات,
271
731000
3000
أول شيء حدث في تطور الثديات,
12:39
we startedبدأت to developطور a thing calledمسمي the neocortexالقشرة المخية الحديثة.
272
734000
2000
بدأنا أولاً بتطوير شيء اسمه القشرة الدماغية الحديثة
12:41
And I'm going to representتركيز the neocortexالقشرة المخية الحديثة here,
273
736000
2000
و سأستعرض القشرة الدماغية الحديثة هنا,
12:43
by this boxصندوق that's stickingالالتصاق on topأعلى of the oldقديم brainدماغ.
274
738000
2000
من خلال هذا الصندوق الملتصق في أعلى الدماغ القديم.
12:45
Neocortexالقشرة المخية الحديثة meansيعني newالجديد layerطبقة. It is a newالجديد layerطبقة on topأعلى of your brainدماغ.
275
740000
3000
القشرة الدماغية الحديثة "نيوكورتكس" تعني الطبقة الجديدة. إنها طبقة جديدة في أعلى أدمغتكم.
12:48
If you don't know it, it's the wrinklyمتجعد thing on the topأعلى of your headرئيس that,
276
743000
3000
إنه الشيء المتجعد في أعلى الرأس
12:51
it's got wrinklyمتجعد because it got shovedبطحه in there and doesn't fitلائق بدنيا.
277
746000
3000
أصبح متجعداً لأنه دُفع به إلى الداخل و لم يتسع.
12:54
(Laughterضحك)
278
749000
1000
(ضحك)
12:55
No, really, that's what it is. It's about the sizeبحجم of a tableالطاولة napkinمنديل.
279
750000
2000
لا, حقيقةً إنه كذلك. إنها مثل مسألة مقاس منديل المائدة.
12:57
And it doesn't fitلائق بدنيا, so it getsيحصل على all wrinklyمتجعد. Now look at how I've drawnمسحوب this here.
280
752000
3000
لم يتسع لذلك أصبح متجعداً. أنظروا كيف رسمت هذا هنا.
13:00
The oldقديم brainدماغ is still there. You still have that alligatorتمساح إستوائي brainدماغ.
281
755000
4000
الدماغ القديم مازال موجوداً. لازلتم تملكون دماغ ذاك التمساح.
13:04
You do. It's your emotionalعاطفي brainدماغ.
282
759000
2000
إنه دماغكم العاطفي.
13:06
It's all those things, and all those gutالقناة الهضمية reactionsتفاعل you have.
283
761000
3000
كل هذه الأشياء و كل ردود الأفعال المعوية التي لديكم.
13:09
And on topأعلى of it, we have this memoryذاكرة systemالنظام calledمسمي the neocortexالقشرة المخية الحديثة.
284
764000
3000
و على رأسها, لدينا نظام الذاكرة الذي اسمه القشرة الدماغية الحديثة.
13:12
And the memoryذاكرة systemالنظام is sittingجلسة over the sensoryحسي partجزء of the brainدماغ.
285
767000
4000
و نظام الذاكرة يعلو جزء الحواس في الدماغ.
13:16
And so as the sensoryحسي inputإدخال comesيأتي in and feedsيغذي from the oldقديم brainدماغ,
286
771000
3000
فعندما تدخل مدخلات الحواس و تدخل إلى الدماغ القديم,
13:19
it alsoأيضا goesيذهب up into the neocortexالقشرة المخية الحديثة. And the neocortexالقشرة المخية الحديثة is just memorizingالحفظ عن ظهر قلب.
287
774000
4000
هي أيضاً تصعد إلى قشرة الدماغ الحديثة. و قشرة الدماغ الحديثة فقط تخزن.
13:23
It's sittingجلسة there sayingقول, ahآه, I'm going to memorizeحفظ all the things that are going on:
288
778000
4000
إنها تجلس هنا و تقول: سوف أخزن كل ما يحدث,
13:27
where I've been, people I've seenرأيت, things I've heardسمعت, and so on.
289
782000
2000
أين كنت, الأشخاص الذين رأيتهم, الأشياء التي سمعتها, و غير ذلك.
13:29
And in the futureمستقبل, when it seesيرى something similarمماثل to that again,
290
784000
4000
و في المستقبل, عندما ترى شيئاً مشابهاً لذلك مرة أخرى,
13:33
so in a similarمماثل environmentبيئة, or the exactدقيق sameنفسه environmentبيئة,
291
788000
3000
في بيئة مشابه, أو نفس البيئة تماماً,
13:36
it'llأنه سوف playلعب it back. It'llأنه سوف startبداية playingتلعب it back.
292
791000
2000
ستستعرضه مرة أخرى. ستبدأ باستعراضه مرة أخرى.
13:38
Oh, I've been here before. And when you've been here before,
293
793000
2000
أوه لقد كنت هنا في السابق. و عندما تكون هنا من قبل,
13:40
this happenedحدث nextالتالى. It allowsيسمح you to predictتنبؤ the futureمستقبل.
294
795000
3000
هذا ما يحدث لاحقاً. إنها تسمح لك بتنبؤ المستقبل.
13:43
It allowsيسمح you to, literallyحرفيا it feedsيغذي back the signalsإشارات into your brainدماغ;
295
798000
4000
إنها تعيد الإشارات إلى الدماغ كتغذية إرتجاعية
13:47
they'llأنها سوف let you see what's going to happenيحدث nextالتالى,
296
802000
2000
و التي تمكنكم من رؤية ما سيحدث بعد ذلك,
13:49
will let you hearسمع the wordكلمة "sentenceجملة او حكم على" before I said it.
297
804000
3000
و تمكنكم من سماع الكلمة "جملة" قبل أن أقولها.
13:52
And it's this feedingتغذية back into the oldقديم brainدماغ
298
807000
3000
و هذه التغذية الراجعة إلى الدماغ القديم
13:55
that'llالتي سوف allowالسماح you to make very more intelligentذكي decisionsقرارات.
299
810000
3000
هي التي تسمح لكم باتخاذ قرارات أذكى بكثير.
13:58
This is the mostعظم importantمهم slideالانزلاق of my talk, so I'll dwellكمن on it a little bitقليلا.
300
813000
3000
هذه هي أهم شريحة في حديثي, لذلك سوف أسهب بها قليلاً.
14:01
And so, all the time you say, oh, I can predictتنبؤ the things.
301
816000
4000
لذلك, كل مرة تقولون: أنا أستطيع أن أتوقع الأشياء.
14:05
And if you're a ratفأر and you go throughعبر a mazeمتاهة, and then you learnتعلم the mazeمتاهة,
302
820000
3000
لو كنتم فأرة و دخلتم في متاهة, ثم تعلمتم هذه المتاهه,
14:08
the nextالتالى time you're in a mazeمتاهة, you have the sameنفسه behaviorسلوك,
303
823000
2000
في المرة القادمة, إذا كنتم في متاهة, ستتصرفون بنفس السلوك,
14:10
but all of a suddenمفاجئ, you're smarterأكثر ذكاء
304
825000
2000
ولكن و بشكل مفاجئ ستصبحون أذكى.
14:12
because you say, oh, I recognizeتعرف this mazeمتاهة, I know whichالتي way to go,
305
827000
3000
لأنكم ستقولون: نعم, أنا أتذكر هذه المتاهة, أنا أعلم في أي طريق سأسير,
14:15
I've been here before, I can envisionتصور the futureمستقبل. And that's what it's doing.
306
830000
3000
كنت هنا في السابق, أستطيع أن أتصور المستقبل. و هذا ما تفعله.
14:18
In humansالبشر -- by the way, this is trueصحيح for all mammalsالثدييات;
307
833000
3000
بالمناسبة. هذا صحيح لكل الثديات,
14:21
it's trueصحيح for other mammalsالثدييات -- and in humansالبشر, it got a lot worseأسوأ.
308
836000
2000
هذا صحيح لكل الثديات الأخرى, أما عند البشر فيسوء الوضع.
14:23
In humansالبشر, we actuallyفعلا developedالمتقدمة the frontأمامي partجزء of the neocortexالقشرة المخية الحديثة
309
838000
3000
عند البشر, نحن طورنا! الجزء الأمامي من قشرة الدماغ الحديثة
14:26
calledمسمي the anteriorأمامي partجزء of the neocortexالقشرة المخية الحديثة. And natureطبيعة did a little trickخدعة.
310
841000
4000
و يسمى بالجزء الأمامي من قشرة الدماغ الحديثة. و الطبيعة قامت بخدعة صغيرة
14:30
It copiedنسخ the posteriorلاحق partجزء, the back partجزء, whichالتي is sensoryحسي,
311
845000
2000
نسخت الجزء الخلفي الذي هو الحسي
14:32
and put it in the frontأمامي partجزء.
312
847000
2000
و وضعته في الجزء الأمامي
14:34
And humansالبشر uniquelyفريد have the sameنفسه mechanismآلية on the frontأمامي,
313
849000
2000
و وحدهم البشر لديهم التقنيات ذاتها في الأمام,
14:36
but we use it for motorمحرك controlمراقبة.
314
851000
2000
لكننا نستخدمه للتحكم في الحركة
14:38
So we are now ableقادر to make very sophisticatedمتطور motorمحرك planningتخطيط, things like that.
315
853000
3000
لذلك فنحن قادرون أن نقوم بتخطيط المعقد جداً للحركة, و أشياء من هذا القبيل.
14:41
I don't have time to get into all this, but if you want to understandتفهم how a brainدماغ worksأعمال,
316
856000
3000
ليس لدي الوقت للدخول في كل هذا, ولكن إن أردتم أن تفهموا كيف يعمل الدماغ,
14:44
you have to understandتفهم how the first partجزء of the mammalianالثدييات neocortexالقشرة المخية الحديثة worksأعمال,
317
859000
3000
فعليكم أن تفهموا كيف يعمل الجزء الأول من قشرة الدماغ الحديثة في الثديات,
14:47
how it is we storeمتجر patternsأنماط - رسم and make predictionsتوقعات.
318
862000
2000
كيف نخزن الأنماط و كيف نقوم بتنبؤات.
14:49
So let me give you a fewقليل examplesأمثلة of predictionsتوقعات.
319
864000
3000
سأعطيكم بعض الأمثلة على تنبؤات.
14:52
I alreadyسابقا said the wordكلمة "sentenceجملة او حكم على." In musicموسيقى,
320
867000
2000
قلت في السابق الكلمة "جملة". في الموسيقى,
14:54
if you've heardسمعت a songأغنية before, if you heardسمعت Jillجيل singيغنى those songsالأغاني before,
321
869000
3000
إذا إستمعتم سابقاً إلى أغنية, لو استمعت في السابق إلى "جِل" و هي تغني هذه الأغنيات,
14:57
when she singsيغني them, the nextالتالى noteملحوظة popsالملوثات العضوية الثابتة into your headرئيس alreadyسابقا --
322
872000
3000
عندما تغنيها, فإن النوتة اللاحقة ستكون قد قفزت في ذهنك--
15:00
you anticipateتوقع it as you're going. If it was an albumالألبوم of musicموسيقى,
323
875000
2000
و تتوقعها دائماً. لو إستمعتم إلى ألبوم موسيقي,
15:02
the endالنهاية of one albumالألبوم, the nextالتالى songأغنية popsالملوثات العضوية الثابتة into your headرئيس.
324
877000
3000
عند نهاية مقطع من الألبوم, تقفز الأغنية اللاحقة في ذهنك.
15:05
And these things happenيحدث all the time. You're makingصناعة these predictionsتوقعات.
325
880000
2000
و هذه الأشياء تحدث طيلة الوقت. دائماً تقومون بهذه التنبؤات.
15:07
I have this thing calledمسمي the alteredتغيير doorباب thought experimentتجربة.
326
882000
3000
عندي هذا الشيء المسمى باختبار تفكير الباب المُغيَر.
15:10
And the alteredتغيير doorباب thought experimentتجربة saysيقول, you have a doorباب at home,
327
885000
3000
و اختبار تفكير الباب المُغيَر ينص على أن لديك باب في بيت
15:13
and when you're here, I'm changingمتغير it, I've got a guy
328
888000
3000
و عندما تكون هنا أغيره, لدي شخص
15:16
back at your houseمنزل right now, movingمتحرك the doorباب around,
329
891000
2000
في بيتك الآن,
15:18
and they're going to take your doorknobمقابض الابواب and moveنقل it over two inchesبوصة.
330
893000
2000
و سيقوم بتغير مكان مقبض الباب مسافة بوصتين تقريباً.
15:20
And when you go home tonightهذه الليلة, you're going to put your handيد out there,
331
895000
2000
و عندما تعود إلى البيت ليلاً, ستضع يدك هناك,
15:22
and you're going to reachتصل for the doorknobمقابض الابواب and you're going to noticeتنويه
332
897000
2000
و ستتناول مقبض الباب و ستلاحظ أنها
15:24
it's in the wrongخطأ spotبقعة, and you'llعليك go, whoaقف, something happenedحدث.
333
899000
3000
في المكان الخطأ, و ستفكر بأن شيئاً ما حدث.
15:27
It mayقد take a secondثانيا to figureالشكل out what it was, but something happenedحدث.
334
902000
2000
قد يأخذ منك معرفة ماحدث مدة ثانية فقط , و لكن هناك شيء ما حدث.
15:29
Now I could changeيتغيرون your doorknobمقابض الابواب in other waysطرق.
335
904000
2000
الآن أستطيع أن أغير مقبض بابك بطرق أخرى.
15:31
I can make it largerأكبر or smallerالأصغر, I can changeيتغيرون its brassنحاس to silverفضة,
336
906000
2000
يمكن أن أجعلها أكبر أو أصغر, يمكن أن أغير نحاسياتها إلى اللون الفضي,
15:33
I could make it a leverرافعة. I can changeيتغيرون your doorباب, put colorsالألوان on;
337
908000
2000
يمكن أن أغير بابك, مثلاً يمكن أن ألونه,
15:35
I can put windowsشبابيك in. I can changeيتغيرون a thousandألف things about your doorباب,
338
910000
3000
يمكن أن أضع فيه نوافذ. يمكن أن أغير ألف شيء في بابك
15:38
and in the two secondsثواني you take to openفتح your doorباب,
339
913000
2000
و في الثانيتين اللتين تأخذهما لفتح بابك,
15:40
you're going to noticeتنويه that something has changedتغير.
340
915000
3000
ستلاحظ أن شيئاً ما قد تغير.
15:43
Now, the engineeringهندسة approachمقاربة to this, the AIAI approachمقاربة to this,
341
918000
2000
الآن المنهج الهندسي لهذا, المنهج في الذكاء الإصطناعي لهذا
15:45
is to buildبناء a doorباب databaseقاعدة البيانات. It has all the doorباب attributesسمات.
342
920000
3000
هو أن تبني قاعدة بيانات للباب تحوي كل سمات الباب.
15:48
And as you go up to the doorباب, you know, let's checkالتحقق من them off one at time.
343
923000
3000
و عندما تصعد إلى الباب, تتفحص السمات واحدة واحدة.
15:51
Doorباب, doorباب, doorباب, you know, colorاللون, you know what I'm sayingقول.
344
926000
2000
باب, باب, باب, لون, تعلمون ما أقول.
15:53
We don't do that. Your brainدماغ doesn't do that.
345
928000
2000
نحن لا نقوم بذلك. دماغكم لا يقوم بذلك.
15:55
What your brainدماغ is doing is makingصناعة constantثابت predictionsتوقعات all the time
346
930000
2000
ما يفعله دماغكم هو أن يقوم بتنبؤات مستمرة و دائمة
15:57
about what is going to happenيحدث in your environmentبيئة.
347
932000
2000
عن ما سيحدث في محيطك.
15:59
As I put my handيد on this tableالطاولة, I expectتوقع to feel it stop.
348
934000
3000
و أنا أضع يدي على هذه الطاولة, أتوقع أن أشعر بأنها تتوقف.
16:02
When I walkسير, everyكل stepخطوة, if I missedافتقد it by an eighthثامن of an inchبوصة,
349
937000
3000
عندما أسير, كل خطوة, إذا فوتُ منها ثُمن البوصة,
16:05
I'll know something has changedتغير.
350
940000
2000
سأعرف أن شيئاً ما تغير.
16:07
You're constantlyباستمرار makingصناعة predictionsتوقعات about your environmentبيئة.
351
942000
2000
أنتم تصدرون تنبؤات عن محيطكم بصورة مستمرة.
16:09
I'll talk about visionرؤية here brieflyموجز. This is a pictureصورة of a womanالنساء.
352
944000
3000
سأتحدث باختصار عن الرؤية. هذه صورة امرأة.
16:12
And when you look at people, your eyesعيون are caughtالقبض
353
947000
2000
و عندما تنظر إلى الناس, فإن عيناك يتم النظر إليهما
16:14
over at two to threeثلاثة timesمرات a secondثانيا.
354
949000
1000
مرتين إلى ثلاثة مرات في الثانية.
16:15
You're not awareوصف of this, but your eyesعيون are always movingمتحرك.
355
950000
2000
أنتم لا تلاحظون هذا, لكن عيونكم دائماً تتحرك.
16:17
And so when you look at someone'sشخص ما faceوجه,
356
952000
2000
لذا عندما تنظرون إلى وجه أحدٍ ما.
16:19
you'dكنت typicallyعادة go from eyeعين to eyeعين to eyeعين to noseأنف to mouthفم.
357
954000
2000
أنتم عادةً تذهبون من العين إلى العين إلى الأنف إلى الفم.
16:21
Now, when your eyeعين movesالتحركات from eyeعين to eyeعين,
358
956000
2000
و عندما تنتقلون من عين إلى عين,
16:23
if there was something elseآخر there like, a noseأنف,
359
958000
2000
إذا كان هناك شيء آخر مثل أنف,
16:25
you'dكنت see a noseأنف where an eyeعين is supposedمفترض to be,
360
960000
2000
سترى أنف حيث يُفترض أن تكون عين,
16:27
and you'dكنت go, oh shitالقرف, you know --
361
962000
3000
ستتفاجؤون...
16:30
(Laughterضحك)
362
965000
1000
(ضحك)
16:31
There's something wrongخطأ about this personشخص.
363
966000
2000
ستقولون هناك شيء خطأ في هذا الشخص.
16:33
And that's because you're makingصناعة a predictionتنبؤ.
364
968000
2000
و هذا لأنكم تضعون توقعاً.
16:35
It's not like you just look over there and say, what am I seeingرؤية now?
365
970000
2000
المسألة ليست في أن تنظر هناك ثم تسأل نفسك: ماذا أرى الآن؟
16:37
A noseأنف, that's okay. No, you have an expectationتوقع of what you're going to see.
366
972000
3000
أنف حسناً. كلا, أنت لديك توقع لما ستراه.
16:40
(Laughterضحك)
367
975000
1000
(ضحك)
16:41
Everyكل singleغير مرتبطة momentلحظة. And finallyأخيرا, let's think about how we testاختبار intelligenceالمخابرات.
368
976000
4000
في كل لحظة. و أخيراً دعونا نفكر في كيفية قياس الذكاء.
16:45
We testاختبار it by predictionتنبؤ. What is the nextالتالى wordكلمة in this, you know?
369
980000
3000
نحن نقيسه بالتوقع. ما هي الكلمة اللاحقة في هذه..., أنتم تعرفون؟
16:48
This is to this as this is to this. What is the nextالتالى numberرقم in this sentenceجملة او حكم على?
370
983000
3000
هذا بالنسبة لهذا كما هذا بالنسبة لهذا. ما هو الرقم اللاحق لهذه الجملة؟
16:51
Here'sمن هنا threeثلاثة visionsرؤى of an objectموضوع.
371
986000
2000
هذه ثلاثة رؤى لشيء ما
16:53
What's the fourthرابع one? That's how we testاختبار it. It's all about predictionتنبؤ.
372
988000
4000
ما هي الرؤية الرابعة؟ هكذا نقيسه. كله عن التوقع.
16:57
So what is the recipeوصفة for brainدماغ theoryنظرية?
373
992000
3000
إذاً ما هي طريقة عمل نظرية الدماغ؟
17:00
First of all, we have to have the right frameworkالإطار.
374
995000
3000
أولاً علينا أن نملك الإطار الصحيح.
17:03
And the frameworkالإطار is a memoryذاكرة frameworkالإطار,
375
998000
2000
و الإطار هو إطار يقوم على الذاكرة,
17:05
not a computationحساب or behaviorسلوك frameworkالإطار. It's a memoryذاكرة frameworkالإطار.
376
1000000
2000
ليس إطاراً يقوم على الحساب أو السلوك. إنه إطار يقوم على الذاكرة.
17:07
How do you storeمتجر and recallاعد الاتصال these sequencesمتواليات or patternsأنماط - رسم? It's spatio-temporalالمكانية والزمانية patternsأنماط - رسم.
377
1002000
4000
كيف تخزن و تسترجع هذه التسلسلات أو الأنماط. إنها أنماط مكانية زمانية.
17:11
Then, if in that frameworkالإطار, you take a bunchباقة of theoreticiansالمنظرين.
378
1006000
3000
ثم لو أخذنا مجموعة من المنظرين ضمن هذا الإطار.
17:14
Now biologistsعلماء الأحياء generallyعموما are not good theoreticiansالمنظرين.
379
1009000
2000
الآن علماء الأحياء بشكل عام ليسوا منظرين جيدين.
17:16
It's not always trueصحيح, but in generalجنرال لواء, there's not a good historyالتاريخ of theoryنظرية in biologyمادة الاحياء.
380
1011000
4000
هذا ليس دائماً, لكن بشكل عام, ليس هناك تاريخ جيد للجانب النظري في علم الأحياء.
17:20
So I foundوجدت the bestالأفضل people to work with are physicistsعلماء الفيزياء,
381
1015000
3000
لذا فقد وجدت بأن أفضل الأشخاص للعمل معهم هم علماء الفيزياء,
17:23
engineersالمهندسين and mathematiciansعلماء الرياضيات, who tendتميل to think algorithmicallyحسابيا.
382
1018000
3000
والمهندسون و علماء الرياضيات, الذين يتجهون نحو التفكير بطريقة حسابية.
17:26
Then they have to learnتعلم the anatomyتشريح, and they'veكان عليهم got to learnتعلم the physiologyعلم وظائف الأعضاء.
383
1021000
3000
ثم عليهم تعلم علم التشريح و عليهم تعلم علم وظائف الأعضاء.
17:29
You have to make these theoriesنظريات very realisticواقعي in anatomicalتشريحي termsشروط.
384
1024000
4000
عليكم جعل هذه النظريات واقعية بمصطلحات تشريحية.
17:33
Anyoneأي واحد who getsيحصل على up and tellsيروي you theirهم theoryنظرية about how the brainدماغ worksأعمال
385
1028000
4000
أي شخص يقوم و يقول لكم نظريته عن كيفية عمل الدماغ
17:37
and doesn't tell you exactlyبالضبط how it's workingعامل in the brainدماغ
386
1032000
2000
و لا يقول لكم بالتحديد كيف تعمل في الدماغ
17:39
and how the wiringشبكة أسلاك worksأعمال in the brainدماغ, it is not a theoryنظرية.
387
1034000
2000
و كيف يعمل الربط في الدماغ, هذه ليست نظرية.
17:41
And that's what we're doing at the Redwoodالخشب الأحمر Neuroscienceعلم الأعصاب Instituteمعهد.
388
1036000
3000
و هذا ما نقوم به في معهد ريد وود لعلم الأعصاب.
17:44
I would love to have more time to tell you we're makingصناعة fantasticرائع progressتقدم in this thing,
389
1039000
4000
أتمنى لو أن لدي وقتاً أكثر لأخبركم بأننا نحرز تقدم مذهل في هذا الشيء.
17:48
and I expectتوقع to be back up on this stageالمسرح,
390
1043000
2000
و أتوقع أن أعود مرة أخرى إلى هذه منصة,
17:50
maybe this will be some other time in the not too distantبعيد futureمستقبل and tell you about it.
391
1045000
2000
ربما في وقت قادم في المستقبل القريب و أخبركم عنه.
17:52
I'm really, really excitedفرح. This is not going to take 50 yearsسنوات at all.
392
1047000
3000
أنا حقيقة متحمس. هذا لن يأخذ 50 عاماً أبداً.
17:55
So what will brainدماغ theoryنظرية look like?
393
1050000
2000
إذاً كيف ستبدو نظرية الدماغ؟
17:57
First of all, it's going to be a theoryنظرية about memoryذاكرة.
394
1052000
2000
أولاً, هي ستكون نظرية عن الذاكرة.
17:59
Not like computerالحاسوب memoryذاكرة. It's not at all like computerالحاسوب memoryذاكرة.
395
1054000
3000
ليست كذاكرة الكمبيوتر. ليست أبداً كذاكرة الكمبيوتر.
18:02
It's very, very differentمختلف. And it's a memoryذاكرة of these very
396
1057000
2000
إنها مختلفة جداً, هي ذاكرة لهذه الأنماط
18:04
high-dimensionalعالية الأبعاد patternsأنماط - رسم, like the things that come from your eyesعيون.
397
1059000
3000
الكثيرة الأبعاد, مثل الأشياء التي تدخل من أعينكم.
18:07
It's alsoأيضا memoryذاكرة of sequencesمتواليات.
398
1062000
2000
أنها أيضاً ذاكرة تسلسلات.
18:09
You cannotلا تستطيع learnتعلم or recallاعد الاتصال anything outsideفي الخارج of a sequenceتسلسل.
399
1064000
2000
لا يمكنكم تعلم أو استرجاع أي شيء خارج تسلسل.
18:11
A songأغنية mustيجب be heardسمعت in sequenceتسلسل over time,
400
1066000
3000
لابد من الإستماع إلى أغنية بتسلسل عبر الزمن,
18:14
and you mustيجب playلعب it back in sequenceتسلسل over time.
401
1069000
3000
و عليك إستعراضها بتسلسل عبر الزمن.
18:17
And these sequencesمتواليات are auto-associativelyلصناعة السيارات في بترابط recalledوأشارت, so if I see something,
402
1072000
3000
و هذه التسلسلات تُسترجَع بترابط ذاتياً, لذلك إذا رأيت شيئاً,
18:20
I hearسمع something, it remindsتذكر me of it, and then it playsيلعب back automaticallyتلقائيا.
403
1075000
3000
فإنني أسمع شيئاً, و تذكرني به, ثم يُستعرَض تلقائياً.
18:23
It's an automaticتلقائي playbackتشغيل. And predictionتنبؤ of futureمستقبل inputsالمدخلات is the desiredمرغوب outputانتاج.
404
1078000
4000
إنه استعراض تلقائي. و توقع المدخلات المستقبلية هو المُخرَج المطلوب.
18:27
And as I said, the theoryنظرية mustيجب be biologicallyبيولوجيا accurateدقيق,
405
1082000
3000
و كما قلت, النظرية يجب أن تكون دقيقة بيولوجياً,
18:30
it mustيجب be testableقابلة للاختبار, and you mustيجب be ableقادر to buildبناء it.
406
1085000
2000
يجب أن تكون قابلة للاختبار و يجب أن تكون قابلة للبناء.
18:32
If you don't buildبناء it, you don't understandتفهم it. So, one more slideالانزلاق here.
407
1087000
4000
إذا لم تستطيع أن تبنيها, فأنت لا تفهمها. إذاً بقي لدينا شريحة واحدة
18:36
What is this going to resultنتيجة in? Are we going to really buildبناء intelligentذكي machinesآلات?
408
1091000
4000
ماذا سينتج عن هذا؟ هل حقاً سنبني أجهزة ذكية؟
18:40
Absolutelyإطلاقا. And it's going to be differentمختلف than people think.
409
1095000
4000
بالتأكيد, و تكون مختلفة عن ما يظنه الناس.
18:44
No doubtشك that it's going to happenيحدث, in my mindعقل.
410
1099000
3000
لا ريب في أن هذا سيحدث, في رأيي
18:47
First of all, it's going to be builtمبني up, we're going to buildبناء the stuffأمور out of siliconالسيليكون.
411
1102000
4000
أولاً, ستُنشأ, سنبني الأشياء من السيلكون.
18:51
The sameنفسه techniquesتقنيات we use for buildingبناء siliconالسيليكون computerالحاسوب memoriesذكريات,
412
1106000
3000
بنفس الطرق التي نستخدمها لبناء ذاكرة الكمبيوتر السيليكونية
18:54
we can use for here.
413
1109000
1000
سنستخدمها هنا.
18:55
But they're very differentمختلف typesأنواع of memoriesذكريات.
414
1110000
2000
لكنها ذاكرة من نوع آخر مختلف جداً.
18:57
And we're going to attachيربط these memoriesذكريات to sensorsأجهزة الاستشعار,
415
1112000
2000
و سنقوم بربط هذه الذاكرة بأجهزة استشعار,
18:59
and the sensorsأجهزة الاستشعار will experienceتجربة real-liveالحياة الواقعيه, real-worldعالم حقيقي dataالبيانات,
416
1114000
3000
و أجهزة الاستشعار ستختبر بيانات واقعية حية ,
19:02
and these things are going to learnتعلم about theirهم environmentبيئة.
417
1117000
2000
و هذه الأشياء ستقوم باكتشاف محيطها.
19:04
Now it's very unlikelyمن غير المرجح the first things you're going to see are like robotsالروبوتات.
418
1119000
3000
الآن من المستبعد أن تكون الأشياء الأولى تشبه الروبوتات.
19:07
Not that robotsالروبوتات aren'tلا usefulمفيد and people can buildبناء robotsالروبوتات.
419
1122000
3000
ليس لأن الروبوتات غير مفيدة و أن الناس يستطيعون بناء الروبوتات.
19:10
But the roboticsالروبوتات partجزء is the hardestأصعب partجزء. That's the oldقديم brainدماغ. That's really hardالصعب.
420
1125000
4000
و لكن لأن الروبوتات هي الجزء الأصعب. إنها تمثل الدماغ القديم. وذلك صعب للغاية.
19:14
The newالجديد brainدماغ is actuallyفعلا kindطيب القلب of easierأسهل than the oldقديم brainدماغ.
421
1129000
2000
الدماغ الحديث أسهل من الدماغ القديم.
19:16
So the first thing we're going to do are the things that don't requireتطلب a lot of roboticsالروبوتات.
422
1131000
3000
لذلك فإن الأشياء الأولى التي سنقوم بها هي الأشياء التي لا تتطلب الكثير من أعمال الروبوتات.
19:19
So you're not going to see C-C-3POPO.
423
1134000
2000
لذلك فإنكم سترون C-3PO.
19:21
You're going to more see things like, you know, intelligentذكي carsالسيارات
424
1136000
2000
سترون أشياء مثل السيارات الذكية
19:23
that really understandتفهم what trafficحركة المرور is and what drivingالقيادة is
425
1138000
3000
التي تفهم ما هي حركة السير و ما هي القيادة
19:26
and have learnedتعلم that certainالمؤكد typesأنواع of carsالسيارات with the blinkersضوء وامض on for halfنصف a minuteاللحظة
426
1141000
3000
و تعلمت بأن أنواع محددة من السيارات التي عليها أضواء وامضة تعمل لمدة نصف دقيقة
19:29
probablyالمحتمل aren'tلا going to turnمنعطف أو دور, things like that.
427
1144000
2000
غالباً لن تلتف, أشياء مثل هذه.
19:31
(Laughterضحك)
428
1146000
1000
(ضحك)
19:32
We can alsoأيضا do intelligentذكي securityالأمان systemsأنظمة.
429
1147000
2000
نستطيع أن نقوم بعمل أنظمة أمنية ذكية.
19:34
Anywhereفي أى مكان where we're basicallyفي الأساس usingاستخدام our brainدماغ, but not doing a lot of mechanicsعلم الميكانيكا.
430
1149000
4000
في أي مكان حيث نستخدم فيه دماغنا دون القيام بالكثير من الحركة.
19:38
Those are the things that are going to happenيحدث first.
431
1153000
2000
تلك هي الأشياء التي سنقوم بها أولاً.
19:40
But ultimatelyفي النهاية, the world'sالعالم the limitحد here.
432
1155000
2000
ولكن في النهاية, العالم هو المحدد هنا.
19:42
I don't know how this is going to turnمنعطف أو دور out.
433
1157000
2000
لا أدري كيف سيصبح هذا الأمر.
19:44
I know a lot of people who inventedاخترع the microprocessorالمعالج
434
1159000
2000
أعرف الكثير من الأشخاص الذين اخترعوا المعالج الدقيق
19:46
and if you talk to them, they knewعرف what they were doing was really significantكبير,
435
1161000
5000
و لو تحدثتم إليهم, هم علموا بأن ما يفعلونه هو شيء مهم,
19:51
but they didn't really know what was going to happenيحدث.
436
1166000
3000
لكنهم لا يعرفون ماذا سيحدث بالتحديد.
19:54
They couldn'tلم أستطع anticipateتوقع cellخلية - زنزانة phonesالهواتف and the Internetالإنترنت and all this kindطيب القلب of stuffأمور.
437
1169000
5000
ليس بامكانهم توقع الهواتف الخلوية و الإنترنت و كل هذه الأشياء.
19:59
They just knewعرف like, hey, they were going to buildبناء calculatorsالآلات الحاسبة
438
1174000
2000
هم فقط عرفوا أمور مثل أنهم سيبنون آلات حاسبة
20:01
and trafficحركة المرور lightضوء controllersالتحكم. But it's going to be bigكبير.
439
1176000
2000
و وحدات تحكم إشارات المرور الضوئية و لكنها ستكون كبيرة.
20:03
In the sameنفسه way, this is like brainدماغ scienceعلم and these memoriesذكريات
440
1178000
3000
بنفس الطريقة, هذا مثل علم الدماغ و هذه الذاكرة
20:06
are going to be a very fundamentalأساسي technologyتقنية, and it's going to leadقيادة
441
1181000
3000
ستكون تقنية أساسية, و ستقود إلى
20:09
to very unbelievableلا يصدق changesالتغييرات in the nextالتالى 100 yearsسنوات.
442
1184000
3000
تغيرات غير معقولة في 100 سنة القادمة.
20:12
And I'm mostعظم excitedفرح about how we're going to use them in scienceعلم.
443
1187000
4000
و أنا متحمس جداً لكيفية استخدامها في العلوم.
20:16
So I think that's all my time, I'm over it, and I'm going to endالنهاية my talk
444
1191000
3000
أظن أن هذا نهاية وقتي, و تعديته, و سأنهي حديثي
20:19
right there.
445
1194000
1000
هنا.
Translated by Ahmad Mustafa
Reviewed by Anwar Dafa-Alla

▲Back to top

ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com