ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com
TED2003

Marvin Minsky: Health and the human mind

מרווין מינסקי על בריאות ועל המוח האנושי

Filmed:
606,909 views

האזינו היטב-- הרצאתו הפתלתלה, המחשמלת והמקסימה ברישולה אודות בריאות, התפוצצות האוכלוסין והמוח האנושי גדושה דקויות: שנינות, חוכמה וקורטוב עצה ערמומית, בבחינת "האם הוא מתלוצץ"?
- AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching. Full bio

Double-click the English transcript below to play the video.

00:18
If you askלִשְׁאוֹל people about what partחֵלֶק of psychologyפְּסִיכוֹלוֹגִיָה do they think is hardקָשֶׁה,
0
0
6000
אם תשאלו אנשים מה לדעתם החלק הקשה בפסיכולוגיה,
00:24
and you say, "Well, what about thinkingחושב and emotionsרגשות?"
1
6000
3000
מה הם חושבים על חשיבה ורגשות,
00:27
Mostרוב people will say, "Emotionsרגשות are terriblyנוֹרָא hardקָשֶׁה.
2
9000
3000
מרביתם יאמרו, "הרגשות נורא מסובכים.
00:30
They're incrediblyבצורה מדהימה complexמורכב. They can't -- I have no ideaרַעְיוֹן of how they work.
3
12000
6000
הם מורכבים מאוד, אין לי מושג איך הם פועלים.
00:36
But thinkingחושב is really very straightforwardפָּשׁוּט:
4
18000
2000
אבל החשיבה פשוטה מאד:
00:38
it's just sortסוג of some kindסוג of logicalהגיוני reasoningהַנמָקָה, or something.
5
20000
4000
היא פשוט מין שיקול הגיוני או משהו כזה.
00:42
But that's not the hardקָשֶׁה partחֵלֶק."
6
24000
3000
אבל הם אינם החלק הקשה."
00:45
So here'sהנה a listרשימה of problemsבעיות that come up.
7
27000
2000
אז הרי כמה בעיות שצצות ועולות.
00:47
One niceנֶחְמָד problemבְּעָיָה is, what do we do about healthבְּרִיאוּת?
8
29000
3000
בעיה חביבה אחת היא: מה לעשות בקשר לבריאות?
00:50
The other day, I was readingקריאה something, and the personאדם said
9
32000
4000
יום אחד קראתי משהו, והכותב טען
00:54
probablyכנראה the largestהגדול singleיחיד causeגורם of diseaseמַחֲלָה is handshakingלחיצת יד in the Westמַעֲרָב.
10
36000
6000
שהגורם העיקרי למחלות היא לחיצת היד המערבית.
01:00
And there was a little studyלימוד about people who don't handshakeלחיצת ידיים,
11
42000
4000
והוצג מחקר קטן שמשווה בין אנשים שלא לוחצים ידיים,
01:04
and comparingהשוואת them with onesיחידות who do handshakeלחיצת ידיים.
12
46000
3000
ובין אלה שכן,
01:07
And I haven'tלא the foggiestערפילי ideaרַעְיוֹן of where you find the onesיחידות that don't handshakeלחיצת ידיים,
13
49000
5000
ואין לי מושג איפה יש אנשים שלא לוחצים ידיים,
01:12
because they mustצריך be hidingהַסתָרָה.
14
54000
3000
הם ודאי מתחבאים.
01:15
And the people who avoidלְהִמָנַע that
15
57000
4000
ואצל מי שנמנעים מלחיצת היד
01:19
have 30 percentאָחוּז lessפָּחוּת infectiousמִדַבֵּק diseaseמַחֲלָה or something.
16
61000
4000
יש 30% פחות מחלות מידבקות, או משהו כזה.
01:23
Or maybe it was 31 and a quarterרובע percentאָחוּז.
17
65000
3000
או אולי זה היה 31 ורבע אחוז.
01:26
So if you really want to solveלִפְתוֹר the problemבְּעָיָה of epidemicsמגיפות and so forthהָלְאָה,
18
68000
4000
אז אם באמת רוצים לפתור את בעיית המגפות וכן הלאה,
01:30
let's startהַתחָלָה with that. And sinceמאז I got that ideaרַעְיוֹן,
19
72000
4000
בואו נתחיל מזה. ומאז שהרעיון הזה עלה בי,
01:34
I've had to shakeלְנַעֵר hundredsמאות of handsידיים.
20
76000
4000
נאלצתי ללחוץ מאות ידיים.
01:38
And I think the only way to avoidלְהִמָנַע it
21
80000
5000
ואני חושב שהדרך היחידה להימנע מכך
01:43
is to have some horribleמַחרִיד visibleנִרְאֶה diseaseמַחֲלָה,
22
85000
2000
היא לחלות באיזו מחלה מחרידה ובולטת לעין,
01:45
and then you don't have to explainלהסביר.
23
87000
3000
ואז אתה פטור מהסברים.
01:48
Educationחינוך: how do we improveלְשַׁפֵּר educationהַשׂכָּלָה?
24
90000
4000
חינוך: איך משפרים את החינוך?
01:52
Well, the singleיחיד bestהטוב ביותר way is to get them to understandמבין
25
94000
4000
הדרך הכי טובה היא לגרום להם להבין
01:56
that what they're beingלהיות told is a wholeכֹּל lot of nonsenseשְׁטוּיוֹת.
26
98000
3000
שמספרים להם המון שטויות.
01:59
And then, of courseקוּרס, you have to do something
27
101000
2000
וכמובן שצריך לעשות משהו
02:01
about how to moderateלְמַתֵן that, so that anybodyמִישֶׁהוּ can -- so they'llהם יהיו listen to you.
28
103000
5000
כדי למתן את זה ושיקשיבו דווקא לך.
02:06
Pollutionזיהום, energyאֵנֶרְגִיָה shortageמחסור, environmentalסְבִיבָתִי diversityגיוון, povertyעוני.
29
108000
4000
זיהום אוויר, מחסור באנרגיה, מגוון סביבתי, עוני--
02:10
How do we make stableיַצִיב societiesחברות? Longevityאֲרִיכוּת יָמִים.
30
112000
4000
איך יוצרים חברות יציבות, אריכות ימים.
02:14
Okay, there'reהם lots of problemsבעיות to worryדאגה about.
31
116000
3000
כן, יש הרבה בעיות מעוררות דאגה.
02:17
Anywayבכל מקרה, the questionשְׁאֵלָה I think people should talk about --
32
119000
2000
בכל מקרה, השאלה שלדעתי אנשים צריכים לדון בה--
02:19
and it's absolutelyבהחלט tabooטאבו -- is, how manyרב people should there be?
33
121000
5000
שהיא טאבו מוחלט-- כמה בני אדם צריכים להיות?
02:24
And I think it should be about 100 millionמִילִיוֹן or maybe 500 millionמִילִיוֹן.
34
126000
7000
ולדעתי צריכים להיות 100 או אולי 500 מיליון.
02:31
And then noticeהודעה that a great manyרב of these problemsבעיות disappearלְהֵעָלֵם.
35
133000
5000
ואז תשימו לב שהמון מהבעיות האלה נעלמות.
02:36
If you had 100 millionמִילִיוֹן people
36
138000
2000
אילו היו 100 מיליון איש
02:38
properlyכמו שצריך spreadהתפשטות out, then if there's some garbageאַשׁפָּה,
37
140000
6000
מפוזרים היטב, אז אם יש קצת זבל,
02:44
you throwלזרוק it away, preferablyמוּטָב where you can't see it, and it will rotרָקָב.
38
146000
7000
זורקים אותו, עדיף היכן שאי אפשר לראותו, והוא יירקב.
02:51
Or you throwלזרוק it into the oceanאוקיינוס and some fishדג will benefitתועלת from it.
39
153000
5000
או זורקים אותו לים וכמה דגים ייהנו ממנו.
02:56
The problemבְּעָיָה is, how manyרב people should there be?
40
158000
2000
הבעיה היא, כמה אנשים צריכים להיות?
02:58
And it's a sortסוג of choiceבְּחִירָה we have to make.
41
160000
3000
וזו מעין בחירה שעלינו לבחור.
03:01
Mostרוב people are about 60 inchesאינץ highגָבוֹהַ or more,
42
163000
3000
רוב האנשים גובהם מטר וחצי ומעלה,
03:04
and there's these cubeקוּבִּיָה lawsחוקי. So if you make them this bigגָדוֹל,
43
166000
4000
והם מבזבזים מרחב. אז אם נעשה אותם בגודל כזה--
03:08
by usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני nanotechnologyננוטכנולוגיה, I supposeלְהַנִיחַ --
44
170000
3000
אולי בעזרת ננו-טכנולוגיה--
03:11
(Laughterצחוק)
45
173000
1000
[צחוק]
03:12
-- then you could have a thousandאלף timesפִּי as manyרב.
46
174000
2000
--אז יכולים להיות פי אלף.
03:14
That would solveלִפְתוֹר the problemבְּעָיָה, but I don't see anybodyמִישֶׁהוּ
47
176000
2000
זה יפתור את הבעיה, אבל אני לא רואה שמישהו
03:16
doing any researchמחקר on makingהֲכָנָה people smallerקטן יותר.
48
178000
3000
חוקר בכיוון של הקטנת בני אדם.
03:19
Now, it's niceנֶחְמָד to reduceלְהַפחִית the populationאוּכְלוֹסִיָה, but a lot of people want to have childrenיְלָדִים.
49
181000
5000
יהיה נחמד לצמצם את האוכלוסיה, אבל הרבה רוצים ילדים.
03:24
And there's one solutionפִּתָרוֹן that's probablyכנראה only a fewמְעַטִים yearsשנים off.
50
186000
3000
ואחד הפתרונות נמצא בטווח כמה שנים מאיתנו.
03:27
You know you have 46 chromosomesכרומוזומים. If you're luckyבַּר מַזָל, you've got 23
51
189000
5000
ידוע שיש 46 כרומוזומים. אם יש לך מזל, יש לך 23
03:32
from eachכל אחד parentהוֹרֶה. Sometimesלִפְעָמִים you get an extraתוֹסֶפֶת one or dropיְרִידָה one out,
52
194000
6000
מכל הורה; לפעמים יש אחד מיותר או חסר,
03:38
but -- so you can skipלדלג the grandparentסָבָּא אוֹ סָבתָא and great-grandparentסבא נהדר stageשלב
53
200000
4000
אבל-- אז אפשר לדלג על שלב הסבים והסבים-רבים
03:42
and go right to the great-great-grandparentסבא של סבא רבא. And you have 46 people
54
204000
5000
וללכת ישר לסבים-רבים-רבים. אתה לוקח 46 איש
03:47
and you give them a scannerסוֹרֵק, or whateverמה שתגיד you need,
55
209000
3000
ונותן להם סורק או משהו כזה,
03:50
and they look at theirשֶׁלָהֶם chromosomesכרומוזומים and eachכל אחד of them saysאומר
56
212000
4000
והם בודקים את הכרומוזומים שלהם וכל אחד אומר
03:54
whichאיזה one he likesאוהב bestהטוב ביותר, or she -- no reasonסיבה to have just two sexesמין
57
216000
5000
איזה הוא מעדיף, או היא-- אין סיבה שיהיו רק 2 מינים
03:59
any more, even. So eachכל אחד childיֶלֶד has 46 parentsהורים,
58
221000
5000
מעתה והלאה. אז לכל ילד יש 46 הורים,
04:04
and I supposeלְהַנִיחַ you could let eachכל אחד groupקְבוּצָה of 46 parentsהורים have 15 childrenיְלָדִים.
59
226000
6000
ולדעתי אפשר שכל קבוצה של 46 הורים תלד 15 ילדים--
04:10
Wouldn'tלא that be enoughמספיק? And then the childrenיְלָדִים
60
232000
2000
זה לא יספיק? ואז הילדים
04:12
would get plentyשפע of supportתמיכה, and nurturingמטפח, and mentoringחונכות,
61
234000
4000
יזכו לשפע תמיכה וטיפוח והדרכה
04:16
and the worldעוֹלָם populationאוּכְלוֹסִיָה would declineיְרִידָה very rapidlyמַהֵר
62
238000
2000
ואוכלוסיית העולם תפחת מהר מאד
04:18
and everybodyכולם would be totallyלְגַמרֵי happyשַׂמֵחַ.
63
240000
3000
וכולם יהיו לגמרי מאושרים.
04:21
Timesharingחלוקת זמן is a little furtherנוסף off in the futureעתיד.
64
243000
3000
חלוקת-זמן ממתינה לנו בעתיד הרחוק יותר.
04:24
And there's this great novelרוֹמָן that Arthurארתור Clarkeקלארק wroteכתבתי twiceפעמיים,
65
246000
3000
ויש סיפור גדול שארתור קלארק כתב פעמיים,
04:27
calledשקוראים לו "Againstמול the Fallנפילה of Night" and "The Cityעִיר and the Starsכוכבים."
66
249000
4000
בשמות "נגד רדת הלילה" ו"העיר והכוכבים".
04:31
They're bothשניהם wonderfulנִפלָא and largelyבמידה רבה the sameאותו,
67
253000
3000
שניהם נהדרים ובמידה רבה דומים,
04:34
exceptמלבד that computersמחשבים happenedקרה in betweenבֵּין.
68
256000
2000
אבל בין ספר לספר נוצרו המחשבים.
04:36
And Arthurארתור was looking at this oldישן bookסֵפֶר, and he said, "Well, that was wrongלא בסדר.
69
258000
5000
וארתור הביט בספר הישן שלו ואמר, זה לא נכון.
04:41
The futureעתיד mustצריך have some computersמחשבים."
70
263000
2000
בעתיד צריכים להיות מחשבים.
04:43
So in the secondשְׁנִיָה versionגִרְסָה of it, there are 100 billionמיליארד
71
265000
5000
אז בגירסה השניה יש בעולם 100 מיליארד איש,
04:48
or 1,000 billionמיליארד people on Earthכדור הארץ, but they're all storedמְאוּחסָן on hardקָשֶׁה disksדיסקים or floppiesתקליטונים,
72
270000
8000
או אלף מיליארד, וכולם מאוחסנים בדיסקים או דיסקטים,
04:56
or whateverמה שתגיד they have in the futureעתיד.
73
278000
2000
או מה שלא יהיה להם בעתיד.
04:58
And you let a fewמְעַטִים millionמִילִיוֹן of them out at a time.
74
280000
4000
ומוציאים רק כמה מיליונים בכל פעם.
05:02
A personאדם comesבא out, they liveלחיות for a thousandאלף yearsשנים
75
284000
4000
אדם יוצא, חי אלף שנים,
05:06
doing whateverמה שתגיד they do, and then, when it's time to go back
76
288000
6000
עושה מה שהוא עושה, וכשמגיע הזמן לחזור
05:12
for a billionמיליארד yearsשנים -- or a millionמִילִיוֹן, I forgetלשכוח, the numbersמספרים don't matterחוֹמֶר --
77
294000
4000
למיליארד או מיליון שנה-- שכחתי. המספרים לא משנים--
05:16
but there really aren'tלא very manyרב people on Earthכדור הארץ at a time.
78
298000
4000
אבל אין הרבה בני אדם בעולם בכל זמן נתון.
05:20
And you get to think about yourselfעַצמְךָ and your memoriesזיכרונות,
79
302000
2000
ויש לך זמן לחשוב על עצמך ועל זכרונותיך,
05:22
and before you go back into suspensionהַשׁעָיָה, you editלַעֲרוֹך your memoriesזיכרונות
80
304000
5000
ולפני שובך לחיות מושהית אתה עורך את זכרונותיך
05:27
and you changeשינוי your personalityאִישִׁיוּת and so forthהָלְאָה.
81
309000
3000
ומשנה את אישיותך וכדומה.
05:30
The plotעלילה of the bookסֵפֶר is that there's not enoughמספיק diversityגיוון,
82
312000
6000
לפי העלילה של הספר אין מגוון רחב,
05:36
so that the people who designedמְעוּצָב the cityעִיר
83
318000
3000
ולכן האנשים שעיצבו את העיר
05:39
make sure that everyכֹּל now and then an entirelyלַחֲלוּטִין newחָדָשׁ personאדם is createdשנוצר.
84
321000
4000
מוודאים שמידי פעם נברא אדם חדש לגמרי.
05:43
And in the novelרוֹמָן, a particularמיוחד one namedבשם Alvinאלווין is createdשנוצר. And he saysאומר,
85
325000
6000
ובסיפור נברא אדם בשם אלווין, והוא אומר,
05:49
maybe this isn't the bestהטוב ביותר way, and wrecksתאונות the wholeכֹּל systemמערכת.
86
331000
4000
אולי זאת לא השיטה הכי טובה, והורס את כל המערכת.
05:53
I don't think the solutionsפתרונות that I proposedמוּצָע
87
335000
2000
אני לא חושב שהפתרונות שאני מציע
05:55
are good enoughמספיק or smartלִכאוֹב enoughמספיק.
88
337000
3000
טובים או חכמים מספיק.
05:58
I think the bigגָדוֹל problemבְּעָיָה is that we're not smartלִכאוֹב enoughמספיק
89
340000
4000
לדעתי הבעיה הגדולה היא שאנו לא חכמים מספיק
06:02
to understandמבין whichאיזה of the problemsבעיות we're facingמוּל are good enoughמספיק.
90
344000
4000
כדי להבין מה מהבעיות שמולנו הן טובות מספיק.
06:06
Thereforeלָכֵן, we have to buildלִבנוֹת superסוּפֶּר intelligentאִינְטֶלִיגֶנְטִי machinesמכונה like HALHAL.
91
348000
4000
לכן אנו נאלצים לבנות מכונות סופר-נבונות כמו "האל".
06:10
As you rememberלִזכּוֹר, at some pointנְקוּדָה in the bookסֵפֶר for "2001,"
92
352000
5000
כזכור לכם, בשלב מסוים בספר "2001",
06:15
HALHAL realizesמממש that the universeעוֹלָם is too bigגָדוֹל, and grandגָדוֹל, and profoundעָמוֹק
93
357000
5000
"האל" מבין שהיקום גדול וכביר ועמוק מדי
06:20
for those really stupidמְטוּפָּשׁ astronautsאסטרונאוטים. If you contrastבניגוד HAL'sשל האל behaviorהִתְנַהֲגוּת
94
362000
4000
בשביל האסטרונאוטים הטפשים האלה. אם משווים את
06:24
with the trivialityטריוויה of the people on the spaceshipחללית,
95
366000
4000
התנהגותו של "האל" לשטחיות של אנשי החללית,
06:28
you can see what's writtenכתוב betweenבֵּין the linesקווים.
96
370000
3000
רואים מה נכתב בין השורות.
06:31
Well, what are we going to do about that? We could get smarterחכם יותר.
97
373000
3000
אז מה נעשה בקשר לכך? נוכל להחכים.
06:34
I think that we're prettyיפה smartלִכאוֹב, as comparedבהשוואה to chimpanzeesשימפנזות,
98
376000
5000
לדעתי אני די חכמים, בהשוואה לשימפנזים,
06:39
but we're not smartלִכאוֹב enoughמספיק to dealעִסקָה with the colossalעֲנָקִי problemsבעיות that we faceפָּנִים,
99
381000
6000
אך לא חכמים מספיק להתמודד עם הבעיות העצומות שלנו,
06:45
eitherאוֹ in abstractתַקצִיר mathematicsמָתֵימָטִיקָה
100
387000
2000
בין אם במתמטיקה מופשטת
06:47
or in figuringלהבין out economiesכלכלות, or balancingמְאַזֵן the worldעוֹלָם around.
101
389000
5000
או בכלכלה או בהשגת איזון בעולם שסביבנו.
06:52
So one thing we can do is liveלחיות longerארוך יותר.
102
394000
3000
אז אחד הדברים שאפשר לעשות הוא לחיות יותר.
06:55
And nobodyאף אחד knowsיודע how hardקָשֶׁה that is,
103
397000
2000
ואיש איננו יודע כמה זה קשה,
06:57
but we'llטוֹב probablyכנראה find out in a fewמְעַטִים yearsשנים.
104
399000
3000
אבל ודאי נגלה זאת בתוך כמה שנים.
07:00
You see, there's two forksמזלגות in the roadכְּבִישׁ. We know that people liveלחיות
105
402000
3000
יש הרי פרשת דרכים. אנו יודעים שבני אדם חיים
07:03
twiceפעמיים as long as chimpanzeesשימפנזות almostכִּמעַט,
106
405000
4000
פי שניים משימפנזים, כמעט,
07:07
and nobodyאף אחד livesחיים more than 120 yearsשנים,
107
409000
4000
ואיש איננו חי יותר מ-120 שנה,
07:11
for reasonsסיבות that aren'tלא very well understoodהבין.
108
413000
3000
מסיבות לא לגמרי מובנות.
07:14
But lots of people now liveלחיות to 90 or 100,
109
416000
3000
אבל רבים חיים עד גיל 90 או מאה,
07:17
unlessאֶלָא אִם they shakeלְנַעֵר handsידיים too much or something like that.
110
419000
4000
אלא אם הם לוחצים יותר מדי ידיים או משהו כזה.
07:21
And so maybe if we livedחי 200 yearsשנים, we could accumulateלִצְבּוֹר enoughמספיק skillsמיומנויות
111
423000
5000
אז אולי אם נחיה עד גיל 200, נצבור מספיק כישורים
07:26
and knowledgeיֶדַע to solveלִפְתוֹר some problemsבעיות.
112
428000
5000
וידע כדי לפתור כמה בעיות.
07:31
So that's one way of going about it.
113
433000
2000
אז זו דרך אחת לטפל בכך.
07:33
And as I said, we don't know how hardקָשֶׁה that is. It mightאולי be --
114
435000
3000
וכפי שאמרתי, איננו יודעים כמה זה קשה. זה עשוי להיות--
07:36
after all, mostרוב other mammalsיונקים liveלחיות halfחֲצִי as long as the chimpanzeeשִׁימפַּנזָה,
115
438000
6000
הרי רוב היונקים האחרים חיים חצי מחיי השימפנזים,
07:42
so we're sortסוג of threeשְׁלוֹשָׁה and a halfחֲצִי or fourארבעה timesפִּי, have fourארבעה timesפִּי
116
444000
3000
כך שאנחנו חיים פי 3.5 או 4-- פי 4
07:45
the longevityאֲרִיכוּת יָמִים of mostרוב mammalsיונקים. And in the caseמקרה of the primatesפרימטים,
117
447000
6000
יותר ממרבית היונקים, וכשמדובר בפרימטים,
07:51
we have almostכִּמעַט the sameאותו genesגנים. We only differלִהיוֹת שׁוֹנֶה from chimpanzeesשימפנזות,
118
453000
4000
יש לנו כמעט אותם הגנים. אנו שונים מהשימפנזים
07:55
in the presentמתנה stateמדינה of knowledgeיֶדַע, whichאיזה is absoluteמוּחלָט hogwashשטויות,
119
457000
6000
לפי הידע שבידנו-- שהוא זבל טהור--
08:01
maybe by just a fewמְעַטִים hundredמֵאָה genesגנים.
120
463000
2000
אולי רק בכמה מאות גנים.
08:03
What I think is that the geneגֵן countersמונים don't know what they're doing yetעדיין.
121
465000
3000
לדעתי סופרי הגנים עוד לא יודעים מהחיים שלהם.
08:06
And whateverמה שתגיד you do, don't readלקרוא anything about geneticsגנטיקה
122
468000
3000
ובכל מקרה, אל תקראו על גנטיקה שום דבר
08:09
that's publishedיצא לאור withinבְּתוֹך your lifetimeלכל החיים, or something.
123
471000
3000
שפורסם בימי חייכם, או משהו כזה.
08:12
(Laughterצחוק)
124
474000
3000
[צחוק]
08:15
The stuffדברים has a very shortקצר half-lifeחצי חיים, sameאותו with brainמוֹחַ scienceמַדָע.
125
477000
4000
התוקף של הדברים האלה פג מהר, כמו במדעי המוח.
08:19
And so it mightאולי be that if we just fixלתקן fourארבעה or fiveחָמֵשׁ genesגנים,
126
481000
6000
אז ייתכן שאם נתקן רק 4-5 גנים,
08:25
we can liveלחיות 200 yearsשנים.
127
487000
2000
נוכל לחיות 200 שנה.
08:27
Or it mightאולי be that it's just 30 or 40,
128
489000
3000
או אולי רק 30-40.
08:30
and I doubtספק that it's severalכַּמָה hundredמֵאָה.
129
492000
2000
ואני בספק אם מדובר בכמה מאות.
08:32
So this is something that people will be discussingדנים
130
494000
4000
על זה אנשים ידברו
08:36
and lots of ethicistsאתיקה -- you know, an ethicistאתיקה is somebodyמִישֶׁהוּ
131
498000
3000
והמון אנשי מוסר-- איש מוסר הוא הרי מישהו
08:39
who seesרואה something wrongלא בסדר with whateverמה שתגיד you have in mindאכפת.
132
501000
3000
שמוצא מה לא בסדר ברעיון שלך.
08:42
(Laughterצחוק)
133
504000
3000
[צחוק]
08:45
And it's very hardקָשֶׁה to find an ethicistאתיקה who considersרואה any changeשינוי
134
507000
4000
וקשה למצוא אנשי מוסר שחושבים שיש שינוי
08:49
worthשִׁוּוּי makingהֲכָנָה, because he saysאומר, what about the consequencesהשלכות?
135
511000
4000
שראוי לעשותו, כי הם אומרים, מה עם ההשלכות?
08:53
And, of courseקוּרס, we're not responsibleאחראי for the consequencesהשלכות
136
515000
3000
ואנחנו הרי לא אחראיים להשלכות של מעשינו כעת
08:56
of what we're doing now, are we? Like all this complaintתְלוּנָה about clonesשיבוטים.
137
518000
6000
נכון? למשל כל הקיטורים בנושא השיבוט.
09:02
And yetעדיין two randomאַקרַאִי people will mateבן זוג and have this childיֶלֶד,
138
524000
3000
ובכל זאת 2 אנשים מקריים יכולים להזדווג וללדת ילד,
09:05
and bothשניהם of them have some prettyיפה rottenרָקוּב genesגנים,
139
527000
4000
ולשניהם יש כמה גנים די מחורבנים,
09:09
and the childיֶלֶד is likelyסָבִיר to come out to be averageמְמוּצָע.
140
531000
4000
וסביר שהילד ייצא ממוצע.
09:13
Whichאיזה, by chimpanzeeשִׁימפַּנזָה standardsתקנים, is very good indeedאכן.
141
535000
6000
שלפי הסטנדרטים של שימפנזים, זה בכלל לא רע.
09:19
If we do have longevityאֲרִיכוּת יָמִים, then we'llטוֹב have to faceפָּנִים the populationאוּכְלוֹסִיָה growthצְמִיחָה
142
541000
3000
אם אכן נשיג אריכות ימים, נצטרך לטפל בבעיית גידול האוכלוסיה
09:22
problemבְּעָיָה anywayבכל מקרה. Because if people liveלחיות 200 or 1,000 yearsשנים,
143
544000
4000
בכל מקרה. כי אם אנשים יחיו 200 או 1,000 שנה,
09:26
then we can't let them have a childיֶלֶד more than about onceפַּעַם everyכֹּל 200 or 1,000 yearsשנים.
144
548000
6000
אי אפשר שהם יילדו יותר מילד אחד כל 200 או אלף שנה.
09:32
And so there won'tרָגִיל be any workforceכוח עבודה.
145
554000
3000
כך שלא יהיה שום כוח עבודה.
09:35
And one of the things Laurieלורי Garrettגארט pointedמְחוּדָד out, and othersאחרים have,
146
557000
4000
אחד הדברים שציינו לורי גארט ואחרים,
09:39
is that a societyחֶברָה that doesn't have people
147
561000
5000
היא שחברה שאין בה בני אדם
09:44
of workingעובד ageגיל is in realאמיתי troubleצרות. And things are going to get worseרע יותר,
148
566000
3000
בגיל העבודה היא בצרה אמיתית. והמצב עתיד להחמיר,
09:47
because there's nobodyאף אחד to educateלְחַנֵך the childrenיְלָדִים or to feedהזנה the oldישן.
149
569000
6000
כי אין מי שיחנך את הילדים או יאכיל את הזקנים.
09:53
And when I'm talkingשִׂיחָה about a long lifetimeלכל החיים, of courseקוּרס,
150
575000
2000
וכשאני מדבר על חיים ארוכים, כמובן,
09:55
I don't want somebodyמִישֶׁהוּ who'sמי זה 200 yearsשנים oldישן to be like our imageתמונה
151
577000
6000
אינני מעוניין שאדם בן 200 ייראה כמו הדימוי שיש לנו
10:01
of what a 200-year-old-גיל is -- whichאיזה is deadמֵת, actuallyלמעשה.
152
583000
4000
על אדם בן 200-- שזה בעצם מת.
10:05
You know, there's about 400 differentשונה partsחלקים of the brainמוֹחַ
153
587000
2000
יש כ-400 חלקים במוח
10:07
whichאיזה seemנראה to have differentשונה functionsפונקציות.
154
589000
2000
שכנראה הם בעלי תפקודים שונים.
10:09
Nobodyאף אחד knowsיודע how mostרוב of them work in detailפרט,
155
591000
3000
איש אינו יודע איך בדיוק מרביתם פועלים,
10:12
but we do know that there'reהם lots of differentשונה things in there.
156
594000
4000
אך ידוע לנו שיש שם הרבה דברים.
10:16
And they don't always work togetherיַחַד. I like Freud'sשל פרויד theoryתֵאוֹרִיָה
157
598000
2000
ולא תמיד הם עובדים ביחד. אני אוהב את התיאוריה
10:18
that mostרוב of them are cancellingמבטל eachכל אחד other out.
158
600000
4000
של פרויד, שרובם מבטלים זה את זה.
10:22
And so if you think of yourselfעַצמְךָ as a sortסוג of cityעִיר
159
604000
4000
אז אם תחשבו על עצמכם כעל מעין עיר
10:26
with a hundredמֵאָה resourcesאֶמְצָעִי, then, when you're afraidחוֹשֵׁשׁ, for exampleדוגמא,
160
608000
6000
עם מאה משאבים, וכשאתם פוחדים, לדוגמה,
10:32
you mayמאי discardלהשליך your long-rangeטווח ארוך goalsמטרות, but you mayמאי think deeplyבאופן מעמיק
161
614000
4000
אולי תבטלו את המטרות לטווח הארוך, אבל תחשבו היטב
10:36
and focusמוֹקֵד on exactlyבְּדִיוּק how to achieveלְהַשִׂיג that particularמיוחד goalמטרה.
162
618000
4000
ובריכוז איך בדיוק להשיג את המטרה המסוימת.
10:40
You throwלזרוק everything elseאַחֵר away. You becomeהפכו a monomaniacמונומאניאק --
163
622000
3000
ותיפטרו מכל היתר. תיהפכו למשוגעים לדבר אחד--
10:43
all you careלְטַפֵּל about is not steppingדְרִיכָה out on that platformפּלַטפוֹרמָה.
164
625000
4000
כל מה שיעניין אתכם יהיה לא לחרוג מכך.
10:47
And when you're hungryרָעֵב, foodמזון becomesהופך more attractiveמוֹשֵׁך, and so forthהָלְאָה.
165
629000
4000
וכשתהיו רעבים, האוכל יהיה יותר אטרקטיבי, וכן הלאה.
10:51
So I see emotionsרגשות as highlyמְאוֹד evolvedהתפתח subsetsמשנה of your capabilityיכולת.
166
633000
6000
בעיני הרגשות הם מערכי משנה מפותחים מאד של היכולות.
10:57
Emotionרֶגֶשׁ is not something addedהוסיף to thought. An emotionalרִגשִׁי stateמדינה
167
639000
4000
רגשות אינם נספח של המחשבה. מצב רגשי
11:01
is what you get when you removeלְהַסִיר 100 or 200
168
643000
4000
זה משהו שמתקבל כשמסלקים 100 או 200
11:05
of your normallyבדרך כלל availableזמין resourcesאֶמְצָעִי.
169
647000
3000
מהמשאבים הזמינים בדרך כלל.
11:08
So thinkingחושב of emotionsרגשות as the oppositeמול of -- as something
170
650000
3000
אז החשיבה על רגשות כעל ההיפך...כעל משהו
11:11
lessפָּחוּת than thinkingחושב is immenselyהַרבֵּה מְאוֹד productiveפּרוּדוּקטִיבִי. And I hopeלְקַווֹת,
171
653000
4000
נחות מחשיבה היא מועילה ביותר. ואני מקווה
11:15
in the nextהַבָּא fewמְעַטִים yearsשנים, to showלְהַצִיג that this will leadעוֹפֶרֶת to smartלִכאוֹב machinesמכונה.
172
657000
4000
להראות שבשנים הקרובות זה יוביל למכונות חכמות.
11:19
And I guessלְנַחֵשׁ I better skipלדלג all the restמנוחה of this, whichאיזה are some detailsפרטים
173
661000
3000
ונראה לי שאדלג על היתר. אלה רק פרטים
11:22
on how we mightאולי make those smartלִכאוֹב machinesמכונה and --
174
664000
5000
איך ניצור את המכונות החכמות האלה ו--
11:27
(Laughterצחוק)
175
669000
5000
[צחוק]
11:32
-- and the mainרָאשִׁי ideaרַעְיוֹן is in factעוּבדָה that the coreהליבה of a really smartלִכאוֹב machineמְכוֹנָה
176
674000
5000
והרעיון המרכזי הוא בעצם שליבתה של מכונה חכמה באמת
11:37
is one that recognizesמזהה that a certainמסוים kindסוג of problemבְּעָיָה is facingמוּל you.
177
679000
5000
היא כזו שמכירה בבעייה נוכחית מסוימת.
11:42
This is a problemבְּעָיָה of suchכגון and suchכגון a typeסוּג,
178
684000
3000
זאת בעיה מסוג כזה-וכזה,
11:45
and thereforeלכן there's a certainמסוים way or waysדרכים of thinkingחושב
179
687000
5000
ולכן יש דרך או דרכי חשיבה מסוימות
11:50
that are good for that problemבְּעָיָה.
180
692000
2000
שיפות לבעיה הזו.
11:52
So I think the futureעתיד, mainרָאשִׁי problemבְּעָיָה of psychologyפְּסִיכוֹלוֹגִיָה is to classifyלסווג
181
694000
4000
אז נראה לי שבעתיד הבעיה העיקרית של הפסיכולוגיה תהיה
11:56
typesסוגים of predicamentsמצבים, typesסוגים of situationsמצבים, typesסוגים of obstaclesמכשולים
182
698000
4000
לסווג סוגי מצבים לא נעימים, סוגי נסיבות, סוגי מכשולים
12:00
and alsoגַם to classifyלסווג availableזמין and possibleאפשרי waysדרכים to think and pairזוג them up.
183
702000
6000
וכן לסווג דרכים זמינות ואפשריות לחשוב ולפתור אותם.
12:06
So you see, it's almostכִּמעַט like a Pavlovianפבלוביאן --
184
708000
3000
כמו שאתם רואים, זה כמעט פבלובי--
12:09
we lostאבד the first hundredמֵאָה yearsשנים of psychologyפְּסִיכוֹלוֹגִיָה
185
711000
2000
הפסדנו את מאה שנות הפסיכולוגיה הראשונות
12:11
by really trivialקַטנוּנִי theoriesתיאוריות, where you say,
186
713000
3000
בגלל תיאוריות ממש פשטניות שאומרות,
12:14
how do people learnלִלמוֹד how to reactלְהָגִיב to a situationמַצָב? What I'm sayingפִּתגָם is,
187
716000
6000
כיצד אנשים לומדים להגיב למצבים. מה שאני אומר הוא
12:20
after we go throughדרך a lot of levelsרמות, includingלְרַבּוֹת designingתִכנוּן
188
722000
5000
שאחרי שנעברו רמות רבות, כולל תכנון
12:25
a hugeעָצוּם, messyמבולגן systemמערכת with thousandsאלפים of portsיציאות,
189
727000
3000
של מערכת ענקית ומבולגנת עם אלפי חלקים,
12:28
we'llטוֹב endסוֹף up again with the centralמֶרכָּזִי problemבְּעָיָה of psychologyפְּסִיכוֹלוֹגִיָה.
190
730000
4000
נגיע לסוף ונמצא את הבעיה המרכזית של הפסיכולוגיה.
12:32
Sayingפִּתגָם, not what are the situationsמצבים,
191
734000
3000
כלומר, לא מהם המצבים,
12:35
but what are the kindsמיני of problemsבעיות
192
737000
2000
אלא מהם סוגי הבעיות
12:37
and what are the kindsמיני of strategiesאסטרטגיות, how do you learnלִלמוֹד them,
193
739000
3000
ומהם סוגי האיסטרטגיות, איך ללמוד אותן,
12:40
how do you connectלְחַבֵּר them up, how does a really creativeיְצִירָתִי personאדם
194
742000
3000
איך לקשר ביניהן, איך אדם יצירתי באמת
12:43
inventלִהַמצִיא a newחָדָשׁ way of thinkingחושב out of the availableזמין resourcesאֶמְצָעִי and so forthהָלְאָה.
195
745000
5000
ממציא דרך חשיבה חדשה לפי המשאבים הזמינים וכו'.
12:48
So, I think in the nextהַבָּא 20 yearsשנים,
196
750000
2000
אז נראה לי שב-20 שנה הבאות,
12:50
if we can get ridלְשַׁחְרֵר of all of the traditionalמָסוֹרתִי approachesגישות to artificialמְלָאכוּתִי intelligenceאינטליגנציה,
197
752000
5000
אם ניפטר מכל הגישות המסורתיות לתבונה מלאכותית,
12:55
like neuralעֲצַבִּי netsרשתות and geneticגֵנֵטִי algorithmsאלגוריתמים
198
757000
2000
כמו רשתות עצביות ואלגוריתמים גנטיים
12:57
and rule-basedמבוסס על כלל systemsמערכות, and just turnלפנות our sightsמראות a little bitbit higherגבוה יותר to say,
199
759000
6000
ומערכות מבוססות כללים, ורק נרים מעט את מבטנו ונשאל,
13:03
can we make a systemמערכת that can use all those things
200
765000
2000
האם נוכל ליצור מערכת שיכולה להשתמש בכל אלה
13:05
for the right kindסוג of problemבְּעָיָה? Some problemsבעיות are good for neuralעֲצַבִּי netsרשתות;
201
767000
4000
עבור סוג הבעיה הנכון? יש בעיות שהולמות רשתות עצביות.
13:09
we know that othersאחרים, neuralעֲצַבִּי netsרשתות are hopelessאָבוּד on them.
202
771000
3000
והרי יש אחרות שרשתות עצביות לא מזיזות להן.
13:12
Geneticגֵנֵטִי algorithmsאלגוריתמים are great for certainמסוים things;
203
774000
3000
אלגוריתמים גנטיים הם מעולים לדברים מסוימים,
13:15
I suspectחָשׁוּד I know what they're badרַע at, and I won'tרָגִיל tell you.
204
777000
4000
אני חושד שאני יודע למה הם לא טובים, ולא אגלה לכם.
13:19
(Laughterצחוק)
205
781000
1000
[צחוק]
13:20
Thank you.
206
782000
2000
תודה רבה.
13:22
(Applauseתְשׁוּאוֹת)
207
784000
6000
[מחיאות כפיים]
Translated by Shlomo Adam
Reviewed by Ido Dekkers

▲Back to top

ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com