ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com
TED2003

Marvin Minsky: Health and the human mind

مارفن منسكي: الصحة و العقل البشري

Filmed:
606,909 views

استمع بانتباه -- لحديث مارفن منسكي الرئيسي، الانتقائي، السحري المرتجل عن الصحة، الإكتظاظ السكاني، والعقل البشري المليء بحدة الذهن: الذكاء، الحكمة وقليل من المراوغة، هل هو يمزح؟ النصيحة.
- AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching. Full bio

Double-click the English transcript below to play the video.

00:18
If you askيطلب people about what partجزء of psychologyعلم النفس do they think is hardالصعب,
0
0
6000
إذا وجهت سؤالا للناس عن أي جزء يعتقدون بأنه عسير في علم النفس،
00:24
and you say, "Well, what about thinkingتفكير and emotionsالعواطف?"
1
6000
3000
وتستفسر، حسنا، ماذا عن التفكير والعواطف،
00:27
Mostعظم people will say, "Emotionsالعواطف are terriblyرهيب hardالصعب.
2
9000
3000
سيقول معظمهم، بأن " العواطف في غاية الصعوبة.
00:30
They're incrediblyلا يصدق complexمركب. They can't -- I have no ideaفكرة of how they work.
3
12000
6000
إنها معقدة للغاية ، ولا يمكنهم -- ليست لدي أية فكرة عن كيف تعمل.
00:36
But thinkingتفكير is really very straightforwardبسيط:
4
18000
2000
ولكن في الواقع التفكير بسيط جدًا:
00:38
it's just sortفرز of some kindطيب القلب of logicalمنطقي reasoningمنطق, or something.
5
20000
4000
إنه مجرد نوع من الاستنتاج المنطقي أو شيء من هذا القبيل.
00:42
But that's not the hardالصعب partجزء."
6
24000
3000
ولكنه ليس بالجزء العسير."
00:45
So here'sمن هنا a listقائمة of problemsمشاكل that come up.
7
27000
2000
ولذا هنا توجد قائمة من المشاكل التي ستواجهنا.
00:47
One niceلطيف problemمشكلة is, what do we do about healthالصحة?
8
29000
3000
إحدى هذه المشكلات اللطيفة : ماذا علينا فعله فيما يتعلق بالصحة؟
00:50
The other day, I was readingقراءة something, and the personشخص said
9
32000
4000
اليوم الثاني بينما أنا أقرأ أمرا، والشخص قال
00:54
probablyالمحتمل the largestأكبر singleغير مرتبطة causeسبب of diseaseمرض is handshakingالمصافحة in the Westغرب.
10
36000
6000
ربما أن السبب الرئيسي لنقل المرض هو المصافحة بالأيدي في الغرب.
01:00
And there was a little studyدراسة about people who don't handshakeمصافحة,
11
42000
4000
وكانت هناك دراسة بسيطة عن الأشخاص الذين لا يصافحون غيرهم،
01:04
and comparingمقارنة them with onesمنها who do handshakeمصافحة.
12
46000
3000
و مقارنتهم بأولئك الذين يصافحون بالأيدي،
01:07
And I haven'tلم the foggiestمشوش ideaفكرة of where you find the onesمنها that don't handshakeمصافحة,
13
49000
5000
وليست لدي أدنى فكرة عن مكان لا يوجد فيه أولئك الذين لا يتصافحون بالأيدي،
01:12
because they mustيجب be hidingإخفاء.
14
54000
3000
لأنهم يجب أن يكونوا مختبئين.
01:15
And the people who avoidتجنب that
15
57000
4000
والأشخاص الذين يتفادون المصافحة
01:19
have 30 percentنسبه مئويه lessأقل infectiousمعد diseaseمرض or something.
16
61000
4000
يقل لديهم إنتقال العدوى بنسبة 30 بالمئة أو شيء من هذا القبيل.
01:23
Or maybe it was 31 and a quarterربع percentنسبه مئويه.
17
65000
3000
أو ربما كانت 31.25 بالمئة.
01:26
So if you really want to solveحل the problemمشكلة of epidemicsالأوبئة and so forthعليها,
18
68000
4000
لذا إذا أردتم حقًا حل مشكلة الأوبئة وما يشابهها،
01:30
let's startبداية with that. And sinceمنذ I got that ideaفكرة,
19
72000
4000
فلنبدأ بتجنب المصافحة. ومنذ أن توصلت لتلك الفكرة،
01:34
I've had to shakeهزة hundredsالمئات of handsأيادي.
20
76000
4000
فإنه يستلزمني مصافحة مئات الأيدي.
01:38
And I think the only way to avoidتجنب it
21
80000
5000
وأعتقد بأن الوسيلة الوحيدة لتجنبها
01:43
is to have some horribleرهيب visibleمرئي diseaseمرض,
22
85000
2000
هي أن يكون لدي مرض خطير مرئي،
01:45
and then you don't have to explainشرح.
23
87000
3000
ومن ثم لا يجب عليكم شرح ذلك.
01:48
Educationالتعليم: how do we improveتحسن educationالتعليم?
24
90000
4000
التعليم : كيف يمكننا تطوير التعليم؟
01:52
Well, the singleغير مرتبطة bestالأفضل way is to get them to understandتفهم
25
94000
4000
حسنا، أفضل وسيلة لذلك هي حملهم لفهم
01:56
that what they're beingيجرى told is a wholeكامل lot of nonsenseكلام فارغ.
26
98000
3000
بأن ما تم اخبارهم به ما هو إلا هراء.
01:59
And then, of courseدورة, you have to do something
27
101000
2000
ومن ثم، بالطبع، يجب عليكم فعل شيء
02:01
about how to moderateمعتدل that, so that anybodyاي شخص can -- so they'llأنها سوف listen to you.
28
103000
5000
عن كيفية تعديل ذلك، وبالتالي يمكن أن يستمع إليكم أي شخص.
02:06
Pollutionالتلوث, energyطاقة shortageنقص, environmentalبيئي diversityتنوع, povertyفقر.
29
108000
4000
التلوث، نقص الطاقة، التنوع البيئي، الفقر --
02:10
How do we make stableمستقر societiesمجتمعات? Longevityطول العمر.
30
112000
4000
كيف يمكننا بناء مجتمعات مستقرة؟ طول العمر.
02:14
Okay, there'reكنت هناك lots of problemsمشاكل to worryقلق about.
31
116000
3000
حسنا، هناك العديد من المشاكل التي تدعو للقلق.
02:17
Anywayعلى أي حال, the questionسؤال I think people should talk about --
32
119000
2000
على أي حال، أعتقد بأن السؤال الذي يجب أن يتحدث عنه الناس --
02:19
and it's absolutelyإطلاقا tabooمحرم -- is, how manyكثير people should there be?
33
121000
5000
وأنه محظور تماما -- هو، كم ينبغي أن يكون تعداد البشر؟
02:24
And I think it should be about 100 millionمليون or maybe 500 millionمليون.
34
126000
7000
وأعتقد بأنه يجب أن يكونوا حوالي 100 مليون أو ربما 500 مليون.
02:31
And then noticeتنويه that a great manyكثير of these problemsمشاكل disappearاختفى.
35
133000
5000
ومن ثم لاحظ إختفاء العديد من هذه المشاكل الكبيرة.
02:36
If you had 100 millionمليون people
36
138000
2000
إذا كان لديكم 100 مليون نسمة
02:38
properlyبصورة صحيحة spreadانتشار out, then if there's some garbageقمامة,
37
140000
6000
منتشرين بصورة صحيحة، ثم، إذا كان هناك بعض القمامة،
02:44
you throwيرمي it away, preferablyويفضل where you can't see it, and it will rotتعفن.
38
146000
7000
وقمت برميها بعيدا، حيث تفضل مكانا لايمكنك رؤيتها فيه، وأنها ستعفن.
02:51
Or you throwيرمي it into the oceanمحيط and some fishسمك will benefitفائدة from it.
39
153000
5000
أو رميتها في المحيط وبعض الأسماك سوف تنتفع منها.
02:56
The problemمشكلة is, how manyكثير people should there be?
40
158000
2000
المشكلة هي، كم ينبغي أن يكون تعداد البشر؟
02:58
And it's a sortفرز of choiceخيار we have to make.
41
160000
3000
وأنه من الخيار الذي يجب أن نقوم به.
03:01
Mostعظم people are about 60 inchesبوصة highمتوسط or more,
42
163000
3000
يبلغ طول معظم السكان حوالي 60 بوصة أو أكثر،
03:04
and there's these cubeمكعب lawsقوانين. So if you make them this bigكبير,
43
166000
4000
وهناك هذا المكعب المفقود. لهذا إذا قمنا بوضعهم بهذا الكبر --
03:08
by usingاستخدام nanotechnologyتكنولوجيا النانو, I supposeافترض --
44
170000
3000
باستخدام التقنية الدقيقة، أفترض --
03:11
(Laughterضحك)
45
173000
1000
(ضحك)
03:12
-- then you could have a thousandألف timesمرات as manyكثير.
46
174000
2000
-- بالتالي يمكن أن تحصل على ما يصل إلى ألف ضعف.
03:14
That would solveحل the problemمشكلة, but I don't see anybodyاي شخص
47
176000
2000
إن ذلك ربما يعالج المشكلة، لكنني لا أرى أي شخص
03:16
doing any researchابحاث on makingصناعة people smallerالأصغر.
48
178000
3000
يقوم بعمل أي بحث حول تصغير مقياس الناس.
03:19
Now, it's niceلطيف to reduceخفض the populationتعداد السكان, but a lot of people want to have childrenالأطفال.
49
181000
5000
الآن أنه من الصعب خفض تعداد السكان، بل يريد الكثيرون إنجاب الأطفال.
03:24
And there's one solutionحل that's probablyالمحتمل only a fewقليل yearsسنوات off.
50
186000
3000
وهناك حل واحد وهو ربما العطلة لبضع سنوات فقط.
03:27
You know you have 46 chromosomesالكروموسومات. If you're luckyسعيد الحظ, you've got 23
51
189000
5000
أتعلم بانه لديك 46 كروموزوما. إذا كنت محظوظا، يكون لديك 23
03:32
from eachكل parentالأبوين. Sometimesبعض الأحيان you get an extraإضافي one or dropقطرة one out,
52
194000
6000
من كل واحد من أبويك: أحيانا تحصل على زيادة أو نقصان في الكروموزوم،
03:38
but -- so you can skipتخطى the grandparentجد and great-grandparentعظيم-جد stageالمسرح
53
200000
4000
لكن -- بالتالي يمكن أن تتخطى مرحلة الجد أو جد الأب
03:42
and go right to the great-great-grandparentعظيم، عظيم، جد. And you have 46 people
54
204000
5000
وتذهب إلى الجد الأكبر. ولديك 46 شخصا
03:47
and you give them a scannerالماسح الضوئي, or whateverايا كان you need,
55
209000
3000
وتقوم بإعطائهم شاشة، أو أيا كان مما تحتاجه،
03:50
and they look at theirهم chromosomesالكروموسومات and eachكل of them saysيقول
56
212000
4000
ويقومون بمشاهدة الكروموزمات خاصتهم وكل واحد منهم يقول
03:54
whichالتي one he likesالإعجابات bestالأفضل, or she -- no reasonالسبب to have just two sexesالجنسين
57
216000
5000
أي واحدة منها يحبها أكثر -- ليس هناك سببا لإمتلاك فقط جنسين
03:59
any more, even. So eachكل childطفل has 46 parentsالآباء,
58
221000
5000
لأكثر بالتساوي. لذا لدى كل طفل 46 كروموزما،
04:04
and I supposeافترض you could let eachكل groupمجموعة of 46 parentsالآباء have 15 childrenالأطفال.
59
226000
6000
وأفترض بأنك يجب أن تسمح لكل مجموعة من 46 من الوالدين أن يكون لديها 15 طفلا --
04:10
Wouldn'tلن that be enoughكافية? And then the childrenالأطفال
60
232000
2000
ربما لا يكون ذلك كافيا؟ وبالتالي الأطفال
04:12
would get plentyوفرة of supportالدعم, and nurturingرعاية, and mentoringالتوجيه,
61
234000
4000
ربما يحصلون على الكثير من الدعم التنشئة والتوجيه
04:16
and the worldالعالمية populationتعداد السكان would declineانخفاض very rapidlyبسرعة
62
238000
2000
وسكان العالم ربما يتراجعون بسرعة فائقة
04:18
and everybodyالجميع would be totallyتماما happyالسعيدة.
63
240000
3000
وسيكون الجميع سعداء جداً.
04:21
Timesharingوقت المشاركة is a little furtherبالإضافة إلى ذلك off in the futureمستقبل.
64
243000
3000
مشاركة الجميع في وقت واحد هي قليلة إلى حد بعيد في المستقبل.
04:24
And there's this great novelرواية that Arthurآرثر Clarkeكلارك wroteكتب twiceمرتين,
65
246000
3000
وهناك الرواية الرائعة التي كتبها آرثر كلارك مرتين،
04:27
calledمسمي "Againstضد the Fallخريف of Night" and "The Cityمدينة and the Starsنجوم."
66
249000
4000
تعرف ب "مواجهة سقوط الليل" و"المدينة والنجوم".
04:31
They're bothكلا wonderfulرائع and largelyإلى حد كبير the sameنفسه,
67
253000
3000
كليهما رائعة ومتشابهة إلى حد كبير،
04:34
exceptإلا that computersأجهزة الكمبيوتر happenedحدث in betweenما بين.
68
256000
2000
عدا الذي حدث فيما بين أجهزة الكمبيوتر.
04:36
And Arthurآرثر was looking at this oldقديم bookكتاب, and he said, "Well, that was wrongخطأ.
69
258000
5000
وكان آرثر ينظر إلى هذا الكتاب القديم، وقال، حسنا، إن ذلك كان خطأ.
04:41
The futureمستقبل mustيجب have some computersأجهزة الكمبيوتر."
70
263000
2000
المستقبل يجب أن يكون لديه أجهزة كمبيوتر.
04:43
So in the secondثانيا versionالإصدار of it, there are 100 billionمليار
71
265000
5000
لذا في الطبعة الثانية من الرواية، هناك 100 بليون،
04:48
or 1,000 billionمليار people on Earthأرض, but they're all storedمخزن on hardالصعب disksأقراص or floppiesمرنة,
72
270000
8000
أو 1,000 بليون نسمة على الأرض، لكن تم تخزينهم جميعا في أقراص صلبة أو مرنه،
04:56
or whateverايا كان they have in the futureمستقبل.
73
278000
2000
أو أيا كان لديهم في المستقبل.
04:58
And you let a fewقليل millionمليون of them out at a time.
74
280000
4000
وأنت تسمح لبعض الملايين منهم بالخروج في وقت واحد.
05:02
A personشخص comesيأتي out, they liveحي for a thousandألف yearsسنوات
75
284000
4000
يخرج شخصا واحدا، وهم يعيشون لآلآف السنين
05:06
doing whateverايا كان they do, and then, when it's time to go back
76
288000
6000
يفعلون ما يفعلون، ومن ثم، حينما يأتي وقت عودتهم
05:12
for a billionمليار yearsسنوات -- or a millionمليون, I forgetننسى, the numbersأعداد don't matterشيء --
77
294000
4000
لبلايين السنين -- أو مليون، نسيتُ، الأرقام ليست مهمة --
05:16
but there really aren'tلا very manyكثير people on Earthأرض at a time.
78
298000
4000
لكن في الواقع ليس هناك العديد من السكان على الأرض في وقت واحد.
05:20
And you get to think about yourselfنفسك and your memoriesذكريات,
79
302000
2000
وأنت تفكر في نفسك وذكرياتك،
05:22
and before you go back into suspensionايقاف عن العمل, you editتصحيح your memoriesذكريات
80
304000
5000
وقبل عودتك إلى التوقف تضيف ذكرياتك
05:27
and you changeيتغيرون your personalityالشخصية and so forthعليها.
81
309000
3000
وتغير شخصيتك وهكذا دوليك.
05:30
The plotقطعة of the bookكتاب is that there's not enoughكافية diversityتنوع,
82
312000
6000
سير الأحداث في الكتاب هو عدم وجود تنوع بصورة كافية،
05:36
so that the people who designedتصميم the cityمدينة
83
318000
3000
لهذا فإن الناس الذين قاموا بتصميم المدينة
05:39
make sure that everyكل now and then an entirelyتماما newالجديد personشخص is createdخلقت.
84
321000
4000
أكدوا أنه بين الحين والآخر يخلق شخصا جديدا.
05:43
And in the novelرواية, a particularبصفة خاصة one namedاسمه Alvinألفين is createdخلقت. And he saysيقول,
85
325000
6000
وفي الرواية، خلق شخصا بعينه اسمه ألفين (Alvin). وهو يقول،
05:49
maybe this isn't the bestالأفضل way, and wrecksحطام the wholeكامل systemالنظام.
86
331000
4000
ربما أنها ليست الطريقة الأفضل، ويحطم النظام بأكمله.
05:53
I don't think the solutionsمحاليل that I proposedالمقترح
87
335000
2000
لا أعتقد بأن الحلول التي إقترحتها
05:55
are good enoughكافية or smartذكي enoughكافية.
88
337000
3000
جيدة أو ذكية بصورة كافية
05:58
I think the bigكبير problemمشكلة is that we're not smartذكي enoughكافية
89
340000
4000
أعتقد بأن المشكلة الكبيرة هي أننا ليسوا أذكياء بصورة كافية
06:02
to understandتفهم whichالتي of the problemsمشاكل we're facingمواجهة are good enoughكافية.
90
344000
4000
لفهم أي المشاكل التي نواجهها جيدة بصورة كافية.
06:06
Thereforeوبالتالي, we have to buildبناء superممتاز intelligentذكي machinesآلات like HALHAL.
91
348000
4000
وبالتالي، يجب علينا إنشاء آليات فائقة الذكاء مثل هال(HAL)
06:10
As you rememberتذكر, at some pointنقطة in the bookكتاب for "2001,"
92
352000
5000
كما تتذكرون، في بعض النقاط التي وردت في الكتاب لعام 2001م،
06:15
HALHAL realizesيدرك that the universeكون is too bigكبير, and grandكبير, and profoundعميق
93
357000
5000
يُدرك هال(HAL) بأن الكون كبير جدا وضخم وعميق
06:20
for those really stupidغبي astronautsرواد الفضاء. If you contrastتناقض HAL'sفي HAL behaviorسلوك
94
362000
4000
بالنسبة لرواد الفضاء الأغبياء حقاً. إذا قارنت سلوك هال(HAL)
06:24
with the trivialityتفاهة of the people on the spaceshipسفينة فضائية,
95
366000
4000
بسذاجة الناس على السفينة الفضائية،
06:28
you can see what's writtenمكتوب betweenما بين the linesخطوط.
96
370000
3000
يمكنك أن ترى ما كتب بين السطور.
06:31
Well, what are we going to do about that? We could get smarterأكثر ذكاء.
97
373000
3000
حسنا، ماذا سنفعل حول ذلك؟ ربما نكون أكثر ذكاءً
06:34
I think that we're prettyجميلة smartذكي, as comparedمقارنة to chimpanzeesالشمبانزي,
98
376000
5000
أعتقد بأننا أذكياء جداً، بالمقارنة مع الشمبانزي،
06:39
but we're not smartذكي enoughكافية to dealصفقة with the colossalضخم problemsمشاكل that we faceوجه,
99
381000
6000
لكننا ليست لدينا ذكاء كاف للتعامل مع المشاكل الهائلة التي تواجهنا،
06:45
eitherإما in abstractنبذة مختصرة mathematicsالرياضيات
100
387000
2000
إما في الرياضيات النظرية
06:47
or in figuringكشف out economiesالاقتصادات, or balancingموازنة the worldالعالمية around.
101
389000
5000
أو في معرفة توجهات الاقتصادات أو التوازن حول العالم.
06:52
So one thing we can do is liveحي longerطويل.
102
394000
3000
لذا يمكننا عمل شيء واحد وهو أن نعيش لفترة أطول.
06:55
And nobodyلا أحد knowsيعرف how hardالصعب that is,
103
397000
2000
ولا أحد يعرف كم صعبا هذا الأمر،
06:57
but we'llحسنا probablyالمحتمل find out in a fewقليل yearsسنوات.
104
399000
3000
لكننا من المحتمل سنكتشفه في سنوات قليلة.
07:00
You see, there's two forksالشوك in the roadطريق. We know that people liveحي
105
402000
3000
أ ترى، هناك فرعان في الشارع. نعلم بأن الناس تعيش
07:03
twiceمرتين as long as chimpanzeesالشمبانزي almostتقريبيا,
106
405000
4000
حياة أطول بضعفين من الشمبانزي، تقريبا،
07:07
and nobodyلا أحد livesالأرواح more than 120 yearsسنوات,
107
409000
4000
و لا أحد يعيش أكثر من 120 عاما.
07:11
for reasonsأسباب that aren'tلا very well understoodفهم.
108
413000
3000
لأسباب لم يتم فهمها جيدا.
07:14
But lots of people now liveحي to 90 or 100,
109
416000
3000
لكن العديد من الناس الآن يعيشون نحو 90 أو 100 عاما،
07:17
unlessما لم they shakeهزة handsأيادي too much or something like that.
110
419000
4000
إلا إذا قاموا بمصافحة العديد من الأيدي أو شيء من هذا القبيل.
07:21
And so maybe if we livedيسكن 200 yearsسنوات, we could accumulateجمع enoughكافية skillsمهارات
111
423000
5000
وهكذا ربما إذا عشنا 200 عاما، يمكننا جمع مهارات كافية متراكمة
07:26
and knowledgeالمعرفه to solveحل some problemsمشاكل.
112
428000
5000
ومعرفة لمعالجة بعض المشاكل.
07:31
So that's one way of going about it.
113
433000
2000
وبالتالي يعتبر هذا إحدى الطرق للمضي حوله.
07:33
And as I said, we don't know how hardالصعب that is. It mightربما be --
114
435000
3000
وكما ذكرت، لا نعرف كم صعبا هذا الأمر. ربما يكون --
07:36
after all, mostعظم other mammalsالثدييات liveحي halfنصف as long as the chimpanzeeشيمبانزي قرد,
115
438000
6000
بعد كل ذلك، غالبية الثديات تعيش نصف العمر الذي تعيشه حيوانات الشمبانزي،
07:42
so we're sortفرز of threeثلاثة and a halfنصف or fourأربعة timesمرات, have fourأربعة timesمرات
116
444000
3000
لذا نحن نوعا من ثلاثة ونصف أو أربعة أضعاف -- لدينا أربعة أضعاف
07:45
the longevityطول العمر of mostعظم mammalsالثدييات. And in the caseقضية of the primatesقرود,
117
447000
6000
طول العمر من بين غالبية الثديات. وفي حالة الحيوانات الرئيسية،
07:51
we have almostتقريبيا the sameنفسه genesالجينات. We only differاختلف from chimpanzeesالشمبانزي,
118
453000
4000
لدينا تقريبا نفس الجينات. ونختلف فقط من الشمبانزي
07:55
in the presentحاضر stateحالة of knowledgeالمعرفه, whichالتي is absoluteمطلق hogwashهراء,
119
457000
6000
في الحالة الراهنة للمعرفة -- التي هي هراء مطلق --
08:01
maybe by just a fewقليل hundredمائة genesالجينات.
120
463000
2000
ربما بحوالي مئات قليلة من الجينات.
08:03
What I think is that the geneجينة countersعدادات don't know what they're doing yetبعد.
121
465000
3000
ما أعتقده هو أن عدادات الجينات لا تعرف ماذا تفعل الآن.
08:06
And whateverايا كان you do, don't readاقرأ anything about geneticsعلم الوراثة
122
468000
3000
وأيا ما تفعله، لا يدل أي شيء عن علم الوراثة
08:09
that's publishedنشرت withinفي غضون your lifetimeأوقات الحياة, or something.
123
471000
3000
الذي نشر خلال حياتك، أو شيء من هذا القبيل.
08:12
(Laughterضحك)
124
474000
3000
(ضحك)
08:15
The stuffأمور has a very shortقصيرة half-lifeنصف الحياة, sameنفسه with brainدماغ scienceعلم.
125
477000
4000
الأشياء لديها نصف حياة قصيرة جدا، ونفس الشيء مع علوم الدماغ.
08:19
And so it mightربما be that if we just fixحل fourأربعة or fiveخمسة genesالجينات,
126
481000
6000
و لهذا ربما تكون كذلك إذا قمنا بمعالجة أربع أو خمس جينات،
08:25
we can liveحي 200 yearsسنوات.
127
487000
2000
يمكننا أن نعيش 200 عاما.
08:27
Or it mightربما be that it's just 30 or 40,
128
489000
3000
أو ربما تكون مجرد 30 أو 40،
08:30
and I doubtشك that it's severalالعديد من hundredمائة.
129
492000
2000
وأشك بأنها عدة مئات.
08:32
So this is something that people will be discussingمناقشة
130
494000
4000
وبالتالي هذا هو الشيء الذي سيناقشه الناس.
08:36
and lots of ethicistsالأخلاقيين -- you know, an ethicistخبراء في علم الأخلاقيات is somebodyشخص ما
131
498000
3000
والكثير من علماء الأخلاق -- أتعرف، أن عالم الأخلاق هو الشخص
08:39
who seesيرى something wrongخطأ with whateverايا كان you have in mindعقل.
132
501000
3000
الذي يرى شيئا خاطئا مع كل ما لديك من اعتبارات.
08:42
(Laughterضحك)
133
504000
3000
(ضحك)
08:45
And it's very hardالصعب to find an ethicistخبراء في علم الأخلاقيات who considersوتعتبر any changeيتغيرون
134
507000
4000
وأنه في غاية الصعوبة أن تجد عالم الأخلاق الذي يضع اعتبارا لأي تغيير
08:49
worthيستحق makingصناعة, because he saysيقول, what about the consequencesالآثار?
135
511000
4000
ذا قيمة، لأنه يقول، ماذا عن النتائج؟
08:53
And, of courseدورة, we're not responsibleمسؤول for the consequencesالآثار
136
515000
3000
وبالطبع، نحن لسنا مسئولين عن نتائج
08:56
of what we're doing now, are we? Like all this complaintشكوى about clonesاستنساخ.
137
518000
6000
ما نفعله الآن، أليس كذلك؟ مثل كل هذه الشكاوى عن الإستنساخ.
09:02
And yetبعد two randomعشوائي people will mateزميل and have this childطفل,
138
524000
3000
ومن بعد سيتزاوج شخصان بصورة عشوائية للحصول على هذا الطفل،
09:05
and bothكلا of them have some prettyجميلة rottenفاسد genesالجينات,
139
527000
4000
ولدى كليهما بعض الجينات الفاسدة،
09:09
and the childطفل is likelyالمحتمل أن to come out to be averageمعدل.
140
531000
4000
ومن المحتمل أن يخرج الطفل ليصبح متوسطا.
09:13
Whichالتي, by chimpanzeeشيمبانزي قرد standardsالمعايير, is very good indeedفي الواقع.
141
535000
6000
ووفقا لمعايير الشمبانزي، هو جيد حقا.
09:19
If we do have longevityطول العمر, then we'llحسنا have to faceوجه the populationتعداد السكان growthنمو
142
541000
3000
إذا كان لدينا عمرا طويلا، بالتالي يجب علينا أن نواجه مشكلة النمو السكاني
09:22
problemمشكلة anywayعلى أي حال. Because if people liveحي 200 or 1,000 yearsسنوات,
143
544000
4000
بأية وسيلة كانت. لأنه إذا عاش الناس 200 أو 1,000 سنة،
09:26
then we can't let them have a childطفل more than about onceذات مرة everyكل 200 or 1,000 yearsسنوات.
144
548000
6000
لا يمكننا أن نسمح لهم بإنجاب أكثر من طفل واحد كل 200 أو 1,000 سنة.
09:32
And so there won'tمتعود be any workforceالقوى العاملة.
145
554000
3000
وبالتالي سوف لن تكون هناك أي قوى عاملة.
09:35
And one of the things Laurieلوري Garrettغاريت pointedيشير الى out, and othersالآخرين have,
146
557000
4000
وأحد الأمور التي أشار إليها لوري غاريت، وآخرون،
09:39
is that a societyالمجتمع that doesn't have people
147
561000
5000
هي أن المجتمع الذي ليس لديه أفراد
09:44
of workingعامل ageعمر is in realحقيقة troubleمشكلة. And things are going to get worseأسوأ,
148
566000
3000
في سن العمل فإنه في مشكلة حقيقية. وأن الأمور ستزداد سوءاً،
09:47
because there's nobodyلا أحد to educateتعليم the childrenالأطفال or to feedتغذية the oldقديم.
149
569000
6000
لانه لا يوجد أحد ليعلم الأطفال أو يقوم باطعام كبار سن.
09:53
And when I'm talkingالحديث about a long lifetimeأوقات الحياة, of courseدورة,
150
575000
2000
وعندما أتحدث عن طول العمر، بالطبع،
09:55
I don't want somebodyشخص ما who'sمنظمة الصحة العالمية 200 yearsسنوات oldقديم to be like our imageصورة
151
577000
6000
لا أريد شخصا يبلغ من العمر 200 سنة ليصبح مثل صورتنا
10:01
of what a 200-year-old-سنه is -- whichالتي is deadميت, actuallyفعلا.
152
583000
4000
ومما يعنيه عمر 200 سنة -- الذي مات فعليا.
10:05
You know, there's about 400 differentمختلف partsأجزاء of the brainدماغ
153
587000
2000
أتعلم، أن هناك حوالي 400 جزءا مختلفا من الدماغ/العقل
10:07
whichالتي seemبدا to have differentمختلف functionsالمهام.
154
589000
2000
حيث يبدو بأن لديها وظائف مختلفة.
10:09
Nobodyلا أحد knowsيعرف how mostعظم of them work in detailالتفاصيل,
155
591000
3000
لا أحد يعرف كم منها يعمل بالتفصيل،
10:12
but we do know that there'reكنت هناك lots of differentمختلف things in there.
156
594000
4000
لكن نعلم بأن هناك فيها العديد من الأشياء المختلفة.
10:16
And they don't always work togetherسويا. I like Freud'sفرويد theoryنظرية
157
598000
2000
وأنها لا تعمل معا بصورة دائمةً. أحب نظرية فرويد
10:18
that mostعظم of them are cancellingإلغاء eachكل other out.
158
600000
4000
التي تقوم غالبيتها بإلغاء بعضها البعض.
10:22
And so if you think of yourselfنفسك as a sortفرز of cityمدينة
159
604000
4000
ولذا إذا كنت تعتقد بنفسك كنوع من المدينة
10:26
with a hundredمائة resourcesموارد, then, when you're afraidخائف, for exampleمثال,
160
608000
6000
بمئات الموارد، ثم، مع أنك خائف، مثلا،
10:32
you mayقد discardتجاهل your long-rangeطويل الأمد goalsأهداف, but you mayقد think deeplyبشدة
161
614000
4000
ربما تقوم برمي أهدافك طويلة المدى، لكن ربما تفكر بعمق
10:36
and focusالتركيز on exactlyبالضبط how to achieveالتوصل that particularبصفة خاصة goalهدف.
162
618000
4000
وتركز بالضبط على كيف يمكنك إنجاز ذلك الهدف المحدد.
10:40
You throwيرمي everything elseآخر away. You becomeيصبح a monomaniacهوس أحادي --
163
622000
3000
ترمي أي شيء آخر بعيدا. وتصبح مضطربا وغير قادر على التفاعل مع البيئة والطبيعة (المس الآحادي)--
10:43
all you careرعاية about is not steppingيخطو out on that platformبرنامج.
164
625000
4000
وينصب كل إهتمامك في عدم الخروج من النظام الأساسي.
10:47
And when you're hungryجوعان, foodطعام becomesيصبح more attractiveملفت للانتباه, and so forthعليها.
165
629000
4000
وعندما تشعر بالجوع، يصبح الغذاء أكثر جاذبية، وهكذا دوليك.
10:51
So I see emotionsالعواطف as highlyجدا evolvedتطورت subsetsفرعية of your capabilityالإمكانية.
166
633000
6000
لهذا أرى أن العواطف مجموعات فرعية متطورة جدا من مقدراتك الخاصة.
10:57
Emotionالمشاعر is not something addedوأضاف to thought. An emotionalعاطفي stateحالة
167
639000
4000
العواطف ليست شيئا يضاف إلى الفكر. والحالة العاطفية
11:01
is what you get when you removeإزالة 100 or 200
168
643000
4000
هي ما تحصل عليه عندما تتخلص من 100 أو 200
11:05
of your normallyبشكل طبيعي availableمتاح resourcesموارد.
169
647000
3000
من مواردك المتاحة بشكل طبيعي.
11:08
So thinkingتفكير of emotionsالعواطف as the oppositeمقابل of -- as something
170
650000
3000
لذا التفكير في العواطف كنقيض لشئ
11:11
lessأقل than thinkingتفكير is immenselyجدا productiveإنتاجي. And I hopeأمل,
171
653000
4000
أقل من التفكير هو إنتاجية هائلة. وأنا آمل
11:15
in the nextالتالى fewقليل yearsسنوات, to showتبين that this will leadقيادة to smartذكي machinesآلات.
172
657000
4000
في السنوات القليلة المقبلة، لإظهار أن هذا سيقود إلى آلآت ذكية.
11:19
And I guessخمن I better skipتخطى all the restراحة of this, whichالتي are some detailsتفاصيل
173
661000
3000
وأعتقد بأنه من الأفضل تخطي جميع ما تبقى من هذا، الذي هو بعض التفاصيل
11:22
on how we mightربما make those smartذكي machinesآلات and --
174
664000
5000
عن كيف يمكننا صنع هذه الآلآت الذكية --
11:27
(Laughterضحك)
175
669000
5000
(ضحك)
11:32
-- and the mainالأساسية ideaفكرة is in factحقيقة that the coreالنواة of a really smartذكي machineآلة
176
674000
5000
-- والفكرة الرئيسية هي في واقع الأمر أن جوهر الآلة الذكية
11:37
is one that recognizesيعترف that a certainالمؤكد kindطيب القلب of problemمشكلة is facingمواجهة you.
177
679000
5000
هو أن يعترف أحدا بأنك تواجه نوعا معينا من مشكلة ما.
11:42
This is a problemمشكلة of suchهذه and suchهذه a typeاكتب,
178
684000
3000
هذه هي مشكلة من نوع كذا وكذا،
11:45
and thereforeوبالتالي there's a certainالمؤكد way or waysطرق of thinkingتفكير
179
687000
5000
وبالتالي هناك طريقة معينة أو طرق للتفكير
11:50
that are good for that problemمشكلة.
180
692000
2000
بأنها جيدة لتلك المشكلة.
11:52
So I think the futureمستقبل, mainالأساسية problemمشكلة of psychologyعلم النفس is to classifyصنف
181
694000
4000
لذا أعنقد بأن المشكلة الرئيسية في مستقبل علم النفس هي تصنيف
11:56
typesأنواع of predicamentsمآزق, typesأنواع of situationsمواقف, typesأنواع of obstaclesالعقبات
182
698000
4000
أنواع المآزق، أنواع الحالات، أنواع العقبات
12:00
and alsoأيضا to classifyصنف availableمتاح and possibleممكن waysطرق to think and pairزوج them up.
183
702000
6000
وأيضا تصنيف الطرق المتاحة والممكنة للتفكير وإقترانهما معا.
12:06
So you see, it's almostتقريبيا like a Pavlovianبافلوف --
184
708000
3000
لذلك ترى، بأنها تقريبا مثل نظرية بافلوف--
12:09
we lostضائع the first hundredمائة yearsسنوات of psychologyعلم النفس
185
711000
2000
لقد أضعنا المئة سنة الأولى من علم النفس
12:11
by really trivialتافه theoriesنظريات, where you say,
186
713000
3000
عبر نظريات عديمة الجدوى حقا حيث يقال،
12:14
how do people learnتعلم how to reactتتفاعل to a situationموقف? What I'm sayingقول is,
187
716000
6000
كيف يتعلم الناس كيفية رد الفعل للحالة؟ وما أقوله هو،
12:20
after we go throughعبر a lot of levelsمستويات, includingبما فيها designingتصميم
188
722000
5000
بعد أن نذهب عبر مستويات عديدة، بما في ذلك تصميم
12:25
a hugeضخم, messyفوضوي systemالنظام with thousandsالآلاف of portsالموانئ,
189
727000
3000
نظام فوضوي ضخم بآلآف من الأجزاء،
12:28
we'llحسنا endالنهاية up again with the centralوسط problemمشكلة of psychologyعلم النفس.
190
730000
4000
سننتهي مرة أخرى بالمشكلة المركزية لعلم النفس.
12:32
Sayingقول, not what are the situationsمواقف,
191
734000
3000
بالقول، ليس ما هي الحالات،
12:35
but what are the kindsأنواع of problemsمشاكل
192
737000
2000
لكن ما هي أنواع المشاكل
12:37
and what are the kindsأنواع of strategiesاستراتيجيات, how do you learnتعلم them,
193
739000
3000
وما هي أنواع الاستراتيجيات، كيف تتعلمها،
12:40
how do you connectالاتصال them up, how does a really creativeخلاق personشخص
194
742000
3000
كيف يمكنك ربطها ببعضها، كيف لشخص مبدع حقا
12:43
inventاخترع a newالجديد way of thinkingتفكير out of the availableمتاح resourcesموارد and so forthعليها.
195
745000
5000
أن يخترع طريقة تفكير جديدة خارج الموارد المتاحة وهكذا دوليك.
12:48
So, I think in the nextالتالى 20 yearsسنوات,
196
750000
2000
لذا أعتقد في ال 20 عاما القادمة،
12:50
if we can get ridتخلص من of all of the traditionalتقليدي approachesاقتراب to artificialمصطنع intelligenceالمخابرات,
197
752000
5000
أذا تمكنا من التخلص من جميع المناهج التقليدية إلى الذكاء الاصطناعي،
12:55
like neuralعصبي netsشبكات and geneticوراثي algorithmsخوارزميات
198
757000
2000
مثل الشبكات العصبية والخوارزميات الجينية
12:57
and rule-basedحكم القائم systemsأنظمة, and just turnمنعطف أو دور our sightsمشاهد a little bitقليلا higherأعلى to say,
199
759000
6000
والأنظمة القائمة على القواعد ، وحولنا نظرنا أعلى قليلا لنقول،
13:03
can we make a systemالنظام that can use all those things
200
765000
2000
أيمكننا وضع نظام يمكن أن يستخدم جميع هذه الاشياء
13:05
for the right kindطيب القلب of problemمشكلة? Some problemsمشاكل are good for neuralعصبي netsشبكات;
201
767000
4000
للنوع الصحيح من المشكلة؟ بعض المشاكل تعتبر جيدة للشبكات العصبية:
13:09
we know that othersالآخرين, neuralعصبي netsشبكات are hopelessميئوس منه on them.
202
771000
3000
نعرف أن الآخرين، الشبكات العصبية لا أمل فيها.
13:12
Geneticوراثي algorithmsخوارزميات are great for certainالمؤكد things;
203
774000
3000
الخوارزميات الجينية نبيلة لأشياء معينة:
13:15
I suspectمشتبه فيه I know what they're badسيئة at, and I won'tمتعود tell you.
204
777000
4000
وأظن بأنني أعرف بأنها سيئة في ماذا ولن أخبركم.
13:19
(Laughterضحك)
205
781000
1000
(ضحك)
13:20
Thank you.
206
782000
2000
شكرا.
13:22
(Applauseتصفيق)
207
784000
6000
(تصفيق)
Translated by TARIG AWAD AHMED
Reviewed by Anwar Dafa-Alla

▲Back to top

ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com