ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com
TED2003

Jeff Hawkins: How brain science will change computing

ג'ף הוקינס: כיצד מדעי המח ישנו את עולם המיחשוב

Filmed:
1,674,773 views

יוצר ה-TREO ג'ף הוקינס, מפציר בנו להתבונן מחדש על המח - לראות בו לא כמעבד מהיר, אלא כמערכת זיכרון ששומרת אינפורמציה ומציגה אותה מחדש וכך עוזרת לנו לנבא, בצורה אינטליגנטית, מה יקרה ברגע הבא.
- Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools. Full bio

Double-click the English transcript below to play the video.

00:25
I do two things: I designלְעַצֵב mobileנייד computersמחשבים and I studyלימוד brainsמוֹחַ.
0
0
3000
אני עושה שני דברים. אני מתכנן מחשבים ניידים וחוקר את המח.
00:29
And today'sשל היום talk is about brainsמוֹחַ and,
1
4000
2000
ההרצאה היום היא על המח ו...
00:31
yayיש, somewhereאי שם I have a brainמוֹחַ fanאוהד out there.
2
6000
2000
יש לנו מעריצי מח כאן!
00:33
(Laughterצחוק)
3
8000
2000
(צחוק)
00:35
I'm going to, if I can have my first slideשקופית up here,
4
10000
2000
אם אפשר להציג את השקופית הראשונה
00:37
and you'llאתה see the titleכותרת of my talk and my two affiliationsהשתייכות.
5
12000
4000
ותראו את נושא ההרצאה ואת שתי ההשתיכויות שלי
00:41
So what I'm going to talk about is why we don't have a good brainמוֹחַ theoryתֵאוֹרִיָה,
6
16000
4000
מה שאני הולך לדבר עליו הוא מדוע אין לנו תיאורית מח טובה,
00:45
why it is importantחָשׁוּב that we should developלְפַתֵחַ one and what we can do about it.
7
20000
3000
מדוע חשוב שנפתח אחת כזו ומה אנחנו יכולים לעשות בעניין.
00:48
And I'll try to do all that in 20 minutesדקות. I have two affiliationsהשתייכות.
8
23000
3000
ואנסה לעשות את כל זה בעשרים דקות. יש לי שתי השתיכויות.
00:51
Mostרוב of you know me from my Palmכַּף הַיָד and Handspringידיים daysימים,
9
26000
3000
רובכם מכירים אותי מימיי בפאלם והנדספרינג
00:54
but I alsoגַם runלָרוּץ a nonprofitללא מטרות רווח scientificמַדָעִי researchמחקר instituteמכון
10
29000
3000
אבל אני גם מפעיל מכון מדעי ללא מטרות רווח
00:57
calledשקוראים לו the Redwoodרדווד Neuroscienceמדעי המוח Instituteמכון in Menloמנלו Parkפָּארק,
11
32000
2000
מוסד רד-ווד למדעי המח בפארק מלנו,
00:59
and we studyלימוד theoreticalתֵאוֹרֵטִי neuroscienceמדעי המוח,
12
34000
2000
ואנו חוקרים תיאוריות במדעי המח
01:01
and we studyלימוד how the neocortexניוקורטקס worksעובד.
13
36000
2000
ואיך קליפת המח עובדת.
01:03
I'm going to talk all about that.
14
38000
2000
ועל זה אדבר.
01:05
I have one slideשקופית on my other life, the computerמַחשֵׁב life, and that's the slideשקופית here.
15
40000
3000
יש לי שקופית אחת על החיים האחרים שלי, חיי המחשבים,
01:08
These are some of the productsמוצרים I've workedעבד on over the last 20 yearsשנים,
16
43000
3000
אלה כמה מהמוצרים שעבדתי עליהם בעשרים שנים האחרונות,
01:11
startingהחל back from the very originalמְקוֹרִי laptopמחשב נייד to some of the first tabletלוּחַ computersמחשבים
17
46000
4000
החל מהלפטופ הראשוני ועד מחשבי כף היד הראשוניים
01:15
and so on, and endingסִיוּם up mostרוב recentlyלאחרונה with the Treoטראו,
18
50000
2000
וכך הלאה, עד ה-Treo לאחרונה,
01:17
and we're continuingהמשך to do this.
19
52000
2000
ואנו ממשיכים עם זה.
01:19
And I've doneבוצע this because I really believe that mobileנייד computingמחשוב
20
54000
2000
ועשיתי את זה כי אני באמת מאמין שמחשבים ניידים
01:21
is the futureעתיד of personalאישי computingמחשוב, and I'm tryingמנסה to make the worldעוֹלָם
21
56000
3000
הם העתיד של המחשוב האישי, ואני מנסה לעשות את העולם
01:24
a little bitbit better by workingעובד on these things.
22
59000
3000
מעט יותר טוב על ידי עבודה בתחום הזה.
01:27
But this was, I have to admitלְהוֹדוֹת, all an accidentתְאוּנָה.
23
62000
2000
אבל אני חייב להודות, שכל זה קרה בטעות.
01:29
I really didn't want to do any of these productsמוצרים
24
64000
2000
האמת שלא רציתי לעשות את כל המוצרים האלו
01:31
and very earlyמוקדם in my careerקריירה I decidedהחליט
25
66000
2000
ומוקדם מאוד בקריירה שלי החלטתי
01:33
I was not going to be in the computerמַחשֵׁב industryתַעֲשִׂיָה.
26
68000
3000
שאני לא הולך להיות בעסקיי המחשבים.
01:36
And before I tell you about that, I just have to tell you
27
71000
2000
ולפני שאספר לכם על כך, אספר
01:38
this one little pictureתְמוּנָה of graffitiגרפיטי there I pickedהרים off the webאינטרנט the other day.
28
73000
2000
על איור שלקחתי מהרשת לפני זמן מה.
01:40
I was looking for a pictureתְמוּנָה of graffitiגרפיטי, little textטֶקסט inputקֶלֶט languageשפה,
29
75000
3000
ניסיתי לחפש תמונה של גרפיטי, מעיין טקסט מעניין של שפה
01:43
and I foundמצאתי the websiteאתר אינטרנט dedicatedמוּקדָשׁ to teachersמורים who want to make these,
30
78000
3000
ומצאתי אתר לכתיבת טקסטים המיועד למורים
01:46
you know, the scriptתַסרִיט writingכְּתִיבָה things acrossלְרוֹחָב the topחלק עליון of theirשֶׁלָהֶם blackboardלוח,
31
81000
3000
שרוצים להציג משפט קבוע בראש הלוח
01:49
and they had addedהוסיף graffitiגרפיטי to it, and I'm sorry about that.
32
84000
3000
וליד הם הוסיפו גרפיטי, ואני מצטער על כך.
01:52
(Laughterצחוק)
33
87000
2000
(צחוק)
01:54
So what happenedקרה was, when I was youngצָעִיר and got out of engineeringהַנדָסָה schoolבית ספר
34
89000
5000
אז הייתי צעיר ויצאתי מבית הספר להנדסה
01:59
at Cornellקורנל in '79, I decidedהחליט -- I wentהלך to work for Intelאינטל and
35
94000
4000
בקורנל בשנת 79 והגעתי לעבוד באינטל.
02:03
I was in the computerמַחשֵׁב industryתַעֲשִׂיָה -- and threeשְׁלוֹשָׁה monthsחודשים into that,
36
98000
3000
הייתי בעסקי המחשבים, ותוך שלושה חודשים
02:06
I fellנפל in love with something elseאַחֵר, and I said, "I madeעָשׂוּי the wrongלא בסדר careerקריירה choiceבְּחִירָה here,"
37
101000
4000
התאהבתי במשהו אחר, ואמרתי לעצמי "עשיתי החלטה מוטעת",
02:10
and I fellנפל in love with brainsמוֹחַ.
38
105000
3000
והתאהבתי במח.
02:13
This is not a realאמיתי brainמוֹחַ. This is a pictureתְמוּנָה of one, a lineקַו drawingצִיוּר.
39
108000
3000
זה לא מח אמיתי. זה ציור של מח.
02:16
But I don't rememberלִזכּוֹר exactlyבְּדִיוּק how it happenedקרה,
40
111000
3000
אני לא זוכר בדיוק איך זה קרה,
02:19
but I have one recollectionזְכִירָה, whichאיזה was prettyיפה strongחָזָק in my mindאכפת.
41
114000
3000
אבל יש לי זיכרון אחד די חזק
02:22
In Septemberסֶפּטֶמבֶּר 1979, Scientificמַדָעִי Americanאֲמֶרִיקָאִי cameבא out
42
117000
3000
בספטמבר 1979, העלון סיינטיפיק אמריקן הוציא לאור
02:25
with a singleיחיד topicנוֹשֵׂא issueנושא about the brainמוֹחַ. And it was quiteדַי good.
43
120000
3000
מהדורה אך ורק על מח. זה היה ממש טוב.
02:28
It was one of the bestהטוב ביותר issuesנושאים ever. And they talkedדיבר about the neuronעֲצָבוֹן
44
123000
3000
אחת המהדורות הטובות אי פעם. והם דיברו על הנוירונים
02:31
and developmentהתפתחות and diseaseמַחֲלָה and visionחָזוֹן and all the things
45
126000
2000
על התפתחות על מחלות ראיה וכל הדברים
02:33
you mightאולי want to know about brainsמוֹחַ. It was really quiteדַי impressiveמרשימים.
46
128000
3000
שאתה רוצה לדעת על המח. זה היה די מרשים.
02:36
And one mightאולי have the impressionרוֹשֶׁם that we really knewידע a lot about brainsמוֹחַ.
47
131000
3000
וזה יצר רושם שאנו יודעים די הרבה על המח.
02:39
But the last articleמאמר in that issueנושא was writtenכתוב by Francisפרנסיס Crickקריק of DNAדנ"א fameפִּרסוּם.
48
134000
4000
אך את המאמר האחרון במהדורה כתב פרנסיס קריק
02:43
Todayהיום is, I think, the 50thה anniversaryיוֹם הַשָׁנָה of the discoveryתַגלִית of DNAדנ"א.
49
138000
3000
היום, אני חושב, חגיגות החמישים לתגלית הדנ"א.
02:46
And he wroteכתבתי a storyכַּתָבָה basicallyבעיקרון sayingפִּתגָם,
50
141000
2000
והוא כתב משהו מעין זה,
02:48
well, this is all well and good, but you know what,
51
143000
3000
זה הכל יפה וטוב, אבל אתם יודעים מה,
02:51
we don't know diddleyדידלי squatשָׁפוּף about brainsמוֹחַ
52
146000
2000
אנחנו לא יודעים דבר וחצי דבר על המח
02:53
and no one has a clueרֶמֶז how these things work,
53
148000
2000
ולאף אחד אין מושג איך הדבר הזה עובד,
02:55
so don't believe what anyoneכֹּל אֶחָד tellsאומר you.
54
150000
2000
אז אל תאמינו למה שאומרים לכם.
02:57
This is a quoteציטוט from that articleמאמר. He said, "What is conspicuouslyבולט lackingנָטוּל,"
55
152000
3000
הנה ציטוט מהמאמר ההוא. הוא כותב, "מה שחסר באופן מובהק,"
03:00
he's a very properתָקִין Britishבריטי gentlemanג'ֶנטֶלמֶן so, "What is conspicuouslyבולט lackingנָטוּל
56
155000
4000
הוא אדון בריטי מאוד תיקני, "מה שחסר באופן מובהק,
03:04
is a broadרָחָב frameworkמִסגֶרֶת of ideasרעיונות in whichאיזה to interpretלפרש these differentשונה approachesגישות."
57
159000
3000
זו תבנית רחבה של רעיונות שבעזרתה ניתן יהיה לפרש את הגישות השונות".
03:07
I thought the wordמִלָה frameworkמִסגֶרֶת was great.
58
162000
2000
חשבתי שהמילה "תבנית" נהדרת.
03:09
He didn't say we didn't even have a theoryתֵאוֹרִיָה. He saysאומר,
59
164000
2000
הוא לא אמר אין לנו אפילו תאוריה. הוא אמר,
03:11
we don't even know how to beginהתחל to think about it --
60
166000
2000
אנו לא יודעים איך בכלל להתחיל לחשוב על זה -
03:13
we don't even have a frameworkמִסגֶרֶת.
61
168000
2000
אין לנו תבנית.
03:15
We are in the pre-paradigmטרום-פרדיגמה daysימים, if you want to use Thomasתומאס Kuhnקון.
62
170000
3000
אנחנו בעידן של הלפני-תבנית, אם להשתמש במילותיו של תומס קון.
03:18
And so I fellנפל in love with this, and said look,
63
173000
3000
אז התאהבתי בזה ואמרתי,
03:21
we have all this knowledgeיֶדַע about brainsמוֹחַ. How hardקָשֶׁה can it be?
64
176000
3000
יש לנו את כל הידע הזה על המח, כמה קשה זה כבר יכול להיות?
03:24
And this is something we can work on my lifetimeלכל החיים. I feltהרגיש I could make a differenceהֶבדֵל,
65
179000
3000
וזה משהו שאני יכול לעבוד עליו עוד בחיי ולתרום בו,
03:27
and so I triedניסה to get out of the computerמַחשֵׁב businessעֵסֶק, into the brainמוֹחַ businessעֵסֶק.
66
182000
4000
אז ניסיתי לצאת מעסקי המחשבים, ולהכנס לעסקי המח.
03:31
First, I wentהלך to MITMIT, the AIAI labמַעבָּדָה was there,
67
186000
2000
בהתחלה, ניגשתי לאמ. איי. טי., למעבדת האנטיליגנציה המלאכותית,
03:33
and I said, well, I want to buildלִבנוֹת intelligentאִינְטֶלִיגֶנְטִי machinesמכונה, too,
68
188000
2000
ואמרתי להם, גם אני רוצה לבנות מכונות חכמות,
03:35
but the way I want to do it is to studyלימוד how brainsמוֹחַ work first.
69
190000
3000
אבל הדרך שאני רוצה לעשות זאת, היא ללמוד איך המח עובד קודם.
03:38
And they said, oh, you don't need to do that.
70
193000
3000
והם אמרו, אתה לא צריך לעשות את זה.
03:41
We're just going to programתָכְנִית computersמחשבים; that's all we need to do.
71
196000
2000
אנו רק מתכנתים מחשבים, זה כל מה שאנחנו צריכים לעשות.
03:43
And I said, no, you really oughtצריך to studyלימוד brainsמוֹחַ. They said, oh, you know,
72
198000
3000
ואמרתי להם, לא, אתם ממש צריכים ללמוד על המח. הם אמרו לא,
03:46
you're wrongלא בסדר. And I said, no, you're wrongלא בסדר, and I didn't get in.
73
201000
2000
אתה טועה. ואמרתי, לא, אתם טועים, ולא התקבלתי.
03:48
(Laughterצחוק)
74
203000
1000
(צחוק)
03:50
But I was a little disappointedמְאוּכזָב -- prettyיפה youngצָעִיר -- but I wentהלך back again
75
205000
2000
אז הייתי קצת מאוכזב - די צעיר, חזרתי שוב
03:52
a fewמְעַטִים yearsשנים laterיותר מאוחר and this time was in Californiaקליפורניה, and I wentהלך to Berkeleyברקלי.
76
207000
3000
לאחר כמה שנים והפעם זה היה לקליפורניה, לברקלי.
03:55
And I said, I'll go in from the biologicalבִּיוֹלוֹגִי sideצַד.
77
210000
4000
אז אמרתי, אגש מהצד הביולוגי.
03:59
So I got in -- in the PhPh.D. programתָכְנִית in biophysicsבִּיוֹפִיסִיקָה, and I was, all right,
78
214000
3000
ונכנסתי לתוכנית דוקטורט בביופיסיקה, ואמרתי לעצמי, מצוין,
04:02
I'm studyingלומד brainsמוֹחַ now, and I said, well, I want to studyלימוד theoryתֵאוֹרִיָה.
79
217000
3000
אני לומד על המח עכשיו, ואני רוצה ללמוד תיאוריה.
04:05
And they said, oh no, you can't studyלימוד theoryתֵאוֹרִיָה about brainsמוֹחַ.
80
220000
2000
והם אמרו, אוי לא, אתה לא יכול ללמוד תאוריה של המח.
04:07
That's not something you do. You can't get fundedממומן for that.
81
222000
2000
זה לא משהו שאתה יכול לעשות. אתה לא יכול לקבל תקציב לזה.
04:09
And as a graduateבוגר studentתלמיד, you can't do that. So I said, oh my goshגוש.
82
224000
4000
וכתלמיד אתה לא יכול לעשות את זה. אז אמרתי אוי ואבוי.
04:13
I was very depressedמְדוּכָּא. I said, but I can make a differenceהֶבדֵל in this fieldשדה.
83
228000
2000
הייתי מאוד מצוברח. הרי אני יכול לתרום לתחום הזה.
04:15
So what I did is I wentהלך back in the computerמַחשֵׁב industryתַעֲשִׂיָה
84
230000
3000
אז חזרתי לעסקי המחשבים
04:18
and said, well, I'll have to work here for a while, do something.
85
233000
2000
ואמרתי, נו טוב, אעבוד פה לזמן מה, אעשה משהו.
04:20
That's when I designedמְעוּצָב all those computerמַחשֵׁב productsמוצרים.
86
235000
3000
זו התקופה שתכננתי את כל המוצרים ההם.
04:23
(Laughterצחוק)
87
238000
1000
(צחוק)
04:24
And I said, I want to do this for fourארבעה yearsשנים, make some moneyכֶּסֶף,
88
239000
3000
אני רוצה לעשות את זה כארבע שנים, להרוויח קצת כסף,
04:27
like I was havingשיש a familyמִשׁפָּחָה, and I would matureבּוֹגֵר a bitbit,
89
242000
4000
להקים משפחה, ולהתבגר קצת,
04:31
and maybe the businessעֵסֶק of neuroscienceמדעי המוח would matureבּוֹגֵר a bitbit.
90
246000
3000
ואולי תחום מדעי המח יתבגר קצת.
04:34
Well, it tookלקח longerארוך יותר than fourארבעה yearsשנים. It's been about 16 yearsשנים.
91
249000
3000
אז זה לקח יותר מארבע שנים. זה לקח שש עשרה שנים.
04:37
But I'm doing it now, and I'm going to tell you about it.
92
252000
2000
אבל אני עושה את זה עכשיו, ואספר לכם על זה.
04:39
So why should we have a good brainמוֹחַ theoryתֵאוֹרִיָה?
93
254000
3000
אז למה אנחנו צריכים תיאוריה טובה על המח?
04:42
Well, there's lots of reasonsסיבות people do scienceמַדָע.
94
257000
3000
יש הרבה סיבות שבגללן אנשים עוסקים במדע.
04:45
One is -- the mostרוב basicבסיסי one is -- people like to know things.
95
260000
3000
אחת - הסיבה הבסיסית ביותר - אנשים רוצים לדעת.
04:48
We're curiousסקרן, and we just go out and get knowledgeיֶדַע, you know?
96
263000
2000
אנו סקרנים ויוצאים לאסוף מידע.
04:50
Why do we studyלימוד antsנמלים? Well, it's interestingמעניין.
97
265000
2000
למה אנו חוקרים נמלים? כי הן מעניינות.
04:52
Maybe we'llטוֹב learnלִלמוֹד something really usefulמוֹעִיל about it, but it's interestingמעניין and fascinatingמַקסִים.
98
267000
3000
אולי נלמד משהו ממש מועיל עליהן, אבל זה מעניין ומסקרן.
04:55
But sometimesלִפְעָמִים, a scienceמַדָע has some other attributesתכונות
99
270000
2000
אבל לפעמים, למדע יש משהו אחר
04:57
whichאיזה makesעושה it really, really interestingמעניין.
100
272000
2000
שהופך אותו למאוד מאוד מעניין.
04:59
Sometimesלִפְעָמִים a scienceמַדָע will tell something about ourselvesבְּעָצמֵנוּ,
101
274000
3000
לפעמים המדע יאמר לנו משהו על עצמנו,
05:02
it'llזה יהיה tell us who we are.
102
277000
1000
הוא יאמר לנו מי אנחנו.
05:03
Rarelyלעתים רחוקות, you know: evolutionאבולוציה did this and Copernicusקופרניקוס did this,
103
278000
3000
לעיתים נדירות, האבולוציה עשתה את זה, קופרניקוס עשה את זה,
05:06
where we have a newחָדָשׁ understandingהֲבָנָה of who we are.
104
281000
2000
המקום שבו יש לנו הבנה חדשה על מהותנו.
05:08
And after all, we are our brainsמוֹחַ. My brainמוֹחַ is talkingשִׂיחָה to your brainמוֹחַ.
105
283000
4000
ואחרי הכל, אנחנו זה המוחות שלנו. המח שלי מדבר למח שלכם.
05:12
Our bodiesגופים are hangingתְלִיָה alongלְאוֹרֶך for the rideנסיעה, but my brainמוֹחַ is talkingשִׂיחָה to your brainמוֹחַ.
106
287000
3000
גופנו מנצל את ההזדמנות להצטרף, אבל המח שלי מדבר למח שלכם.
05:15
And if we want to understandמבין who we are and how we feel and perceiveלִתְפּוֹס,
107
290000
3000
ואם אנחנו רוצים להבין מי אנחנו ומה אנו מרגישים וחווים,
05:18
we really understandמבין what brainsמוֹחַ are.
108
293000
2000
אנו חייבים להבין מהו המח.
05:20
Anotherאַחֵר thing is sometimesלִפְעָמִים scienceמַדָע
109
295000
2000
דבר נוסף הוא לפעמים המדע
05:22
leadsמוביל to really bigגָדוֹל societalחברתי benefitsיתרונות and technologiesטכנולוגיות,
110
297000
2000
מוביל לתועלות חברתיות וטכנולוגיות גדולות,
05:24
or businessesעסקים, or whateverמה שתגיד, that come out of it. And this is one, too,
111
299000
2000
או עסקים או לא משנה מה. וגם זה חשוב,
05:26
because when we understandמבין how brainsמוֹחַ work, we're going to be ableיכול
112
301000
3000
כי אם נבין איך המח עובד, נוכל
05:29
to buildלִבנוֹת intelligentאִינְטֶלִיגֶנְטִי machinesמכונה, and I think that's actuallyלמעשה a good thing on the wholeכֹּל,
113
304000
3000
לבנות מכונות חכמות, ואני חושב שבאופן רחב זה דבר טוב,
05:32
and it's going to have tremendousעָצוּם benefitsיתרונות to societyחֶברָה,
114
307000
2000
ותהיה לזה תועלת מדהימה לחברה
05:34
just like a fundamentalבסיסי technologyטֶכנוֹלוֹגִיָה.
115
309000
2000
בדיוק כמו טכנולוגיה ראשונית.
05:36
So why don't we have a good theoryתֵאוֹרִיָה of brainsמוֹחַ?
116
311000
2000
אז למה איך לנו תאוריה טובה על המח?
05:38
And people have been workingעובד on it for 100 yearsשנים.
117
313000
3000
ואנשים עבדו על כך מאה שנה.
05:41
Well, let's first take a look at what normalנוֹרמָלִי scienceמַדָע looksנראה like.
118
316000
2000
בואו נסתכל קודם איך נראה מדע נורמלי .
05:43
This is normalנוֹרמָלִי scienceמַדָע.
119
318000
2000
זה מדע נורמלי.
05:45
Normalנוֹרמָלִי scienceמַדָע is a niceנֶחְמָד balanceאיזון betweenבֵּין theoryתֵאוֹרִיָה and experimentalistsניסויים.
120
320000
4000
מדע נורמלי הוא שווי משקל בין תאוריה למחקר.
05:49
And so the theoristתֵאוֹרֵטִיקָן guys say, well, I think this is what's going on,
121
324000
2000
התאורתיקן אומר אני חושב שזה מה שקורה,
05:51
and the experimentalistניסיוני saysאומר, no, you're wrongלא בסדר.
122
326000
2000
והחוקר אומר, לא, אתה טועה.
05:53
And it goesהולך back and forthהָלְאָה, you know?
123
328000
2000
והולכים לכאן ולשם,
05:55
This worksעובד in physicsפיזיקה. This worksעובד in geologyגֵאוֹלוֹגִיָה. But if this is normalנוֹרמָלִי scienceמַדָע,
124
330000
2000
ככה זה עובד בפיסיקה. ככה זה עובד בגיאולוגיה. אבל אם זה מדע הנורמלי,
05:57
what does neuroscienceמדעי המוח look like? This is what neuroscienceמדעי המוח looksנראה like.
125
332000
3000
איך נראים מדעי המח?
06:00
We have this mountainהַר of dataנתונים, whichאיזה is anatomyאֲנָטוֹמִיָה, physiologyפִיסִיוֹלוֹגִיָה and behaviorהִתְנַהֲגוּת.
126
335000
5000
יש לנו הר של מידע, על אנטומיה, פיזיולוגיה והתנהגות.
06:05
You can't imagineלדמיין how much detailפרט we know about brainsמוֹחַ.
127
340000
3000
אתם לא יכולים לתאר כמה מידע מפורט יש לנו על המח.
06:08
There were 28,000 people who wentהלך to the neuroscienceמדעי המוח conferenceוְעִידָה this yearשָׁנָה,
128
343000
4000
28,000 אנשים הגיעו לכנס מדעי המח השנה,
06:12
and everyכֹּל one of them is doing researchמחקר in brainsמוֹחַ.
129
347000
2000
וכל אחד מהם חוקר את המח.
06:14
A lot of dataנתונים. But there's no theoryתֵאוֹרִיָה. There's a little, wimpyזאבי boxקופסא on topחלק עליון there.
130
349000
4000
המון נתונים. אבל אין תאוריה. הקופסא הקטנטנה הזאת למעלה.
06:18
And theoryתֵאוֹרִיָה has not playedשיחק a roleתַפְקִיד in any sortסוג of grandגָדוֹל way in the neurosciencesמדעי המוח.
131
353000
5000
והתאוריה אף פעם לא שיחקה תפקיד מכריע במדעי המח.
06:23
And it's a realאמיתי shameבושה. Now why has this come about?
132
358000
3000
וזה ממש חבל. למה זה קרה?
06:26
If you askלִשְׁאוֹל neuroscientistsמדעני מוח, why is this the stateמדינה of affairפָּרָשָׁה,
133
361000
2000
אם אתם שואלים חוקרי מח למה?
06:28
they'llהם יהיו first of all admitלְהוֹדוֹת it. But if you askלִשְׁאוֹל them, they'llהם יהיו say,
134
363000
3000
הם קודם כל יודו בכך. אבל אם תשאל אותם, הם יאמרו
06:31
well, there's variousשׁוֹנִים reasonsסיבות we don't have a good brainמוֹחַ theoryתֵאוֹרִיָה.
135
366000
3000
ובכן, יש כמה סיבות לכך,
06:34
Some people say, well, we don't still have enoughמספיק dataנתונים,
136
369000
2000
חלק יאמרו, אין לנו מספיק נתונים,
06:36
we need to get more informationמֵידָע, there's all these things we don't know.
137
371000
3000
אנחנו צריכים לאסוף יותר מידע, יש עדין הרבה דברים שאיננו יודעים.
06:39
Well, I just told you there's so much dataנתונים comingמגיע out your earsאוזניים.
138
374000
3000
ובכן, הרגע אמרתי לך שכמות הנתונים נשפכת מהאזניים.
06:42
We have so much informationמֵידָע, we don't even know how to beginהתחל to organizeלְאַרגֵן it.
139
377000
3000
יש לנו כל כך הרבה מידע שאנחנו לא יודעים איך להתחיל לארגן אותו.
06:45
What good is more going to do?
140
380000
2000
איזו טובה תצא לנו מעוד?
06:47
Maybe we'llטוֹב be luckyבַּר מַזָל and discoverלְגַלוֹת some magicקֶסֶם thing, but I don't think so.
141
382000
3000
אולי יהיה לנו מזל ונמצא דבר קסם, אבל אני לא חושב כך
06:50
This is actuallyלמעשה a symptomסימפטום of the factעוּבדָה that we just don't have a theoryתֵאוֹרִיָה.
142
385000
3000
זה למעשה תסמין להעדר תאוריה.
06:53
We don't need more dataנתונים -- we need a good theoryתֵאוֹרִיָה about it.
143
388000
3000
אנחנו לא צריכים עוד נתונים - אנחנו צריכים תאוריה טובה בשבילם.
06:56
Anotherאַחֵר one is sometimesלִפְעָמִים people say, well, brainsמוֹחַ are so complexמורכב,
144
391000
3000
לפעמים אנשים אומרים, המח כה מורכב,
06:59
it'llזה יהיה take anotherאַחֵר 50 yearsשנים.
145
394000
2000
זה יקח עוד חמישים שנה.
07:01
I even think Chrisכריס said something like this yesterdayאתמול.
146
396000
2000
אני חושב שכריס אמר משהו כזה אתמול.
07:03
I'm not sure what you said, Chrisכריס, but something like,
147
398000
2000
אני לא בטוח מה אמרת, אבל משהו כזה,
07:05
well, it's one of the mostרוב complicatedמסובך things in the universeעוֹלָם. That's not trueנָכוֹן.
148
400000
3000
זה אחד הדברים המסובכים ביותר ביקום. זה לא נכון.
07:08
You're more complicatedמסובך than your brainמוֹחַ. You've got a brainמוֹחַ.
149
403000
2000
אתה יותר מסובך מהמח שלך. יש לך מח.
07:10
And it's alsoגַם, althoughלמרות ש the brainמוֹחַ looksנראה very complicatedמסובך,
150
405000
2000
וגם, למרות שהמח נראה מאוד מסובך,
07:12
things look complicatedמסובך untilעד you understandמבין them.
151
407000
3000
דברים נראים מסובכים עד שמבינים אותם.
07:15
That's always been the caseמקרה. And so all we can say, well,
152
410000
3000
תמיד זה היה ככה. אז מה שיכולים לומר,
07:18
my neocortexניוקורטקס, whichאיזה is the partחֵלֶק of the brainמוֹחַ I'm interestedמעוניין in, has 30 billionמיליארד cellsתאים.
153
413000
4000
שבקליפת המח, היא החלק שאני מתעניין בו, יש 30 מיליארד תאים.
07:22
But, you know what? It's very, very regularרגיל.
154
417000
2000
אבל אתם יודעים מה? זה מאוד מאוד סדיר.
07:24
In factעוּבדָה, it looksנראה like it's the sameאותו thing repeatedחוזר על עצמו over and over and over again.
155
419000
3000
למעשה, נראה שאותו הדבר בדיוק חוזר על עצמו כל הזמן .
07:27
It's not as complexמורכב as it looksנראה. That's not the issueנושא.
156
422000
3000
זה לא עד כדי כך מסובך כמו שזה נראה. לא זה העניין.
07:30
Some people say, brainsמוֹחַ can't understandמבין brainsמוֹחַ.
157
425000
2000
אנשים מסוימים אומרים, מוחות לא יכולים להבין מוחות.
07:32
Very Zen-likeכמו זן. Whooללא שם: וו. (Laughterצחוק)
158
427000
3000
מאוד "זֵני".
07:35
You know,
159
430000
1000
(צחוק)
07:36
it soundsקולות good, but why? I mean, what's the pointנְקוּדָה?
160
431000
3000
זה נשמע טוב, אבל למה? מה הנקודה?
07:39
It's just a bunchצְרוֹר of cellsתאים. You understandמבין your liverכָּבֵד.
161
434000
3000
הם רק כמה תאים. אתה יכול להבין את הכבד שלך.
07:42
It's got a lot of cellsתאים in it too, right?
162
437000
2000
גם בו יש המון תאים, נכון?
07:44
So, you know, I don't think there's anything to that.
163
439000
2000
אני לא חושב שיש בזה משהו.
07:46
And finallyסוף כל סוף, some people say, well, you know,
164
441000
2000
ולסיום, אנשים מסוימים אומרים, אתה יודע,
07:48
I don't feel like a bunchצְרוֹר of cellsתאים, you know. I'm consciousמוּדָע.
165
443000
4000
אני לא מרגיש רק כמו תאים. אני מודע.
07:52
I've got this experienceניסיון, I'm in the worldעוֹלָם, you know.
166
447000
2000
יש לי חוויות, אני בעולם.
07:54
I can't be just a bunchצְרוֹר of cellsתאים. Well, you know,
167
449000
2000
לא יכול להיות שאני רק ערימה של תאים. ובכן,
07:56
people used to believe there was a life forceכּוֹחַ to be livingחַי,
168
451000
3000
פעם אנשים האמינו שיש איזשהו כח חיים,
07:59
and we now know that's really not trueנָכוֹן at all.
169
454000
2000
וכיום אנו יודעים שזה לא ממש נכון.
08:01
And there's really no evidenceעֵדוּת that saysאומר -- well, other than people
170
456000
3000
ואין הוכחה, למעט אנשים
08:04
just have disbeliefחוֹסֶר אֵמוּן that cellsתאים can do what they do.
171
459000
2000
שאינם מאמינים שתאים יכולים לעשות מה שהם עושים.
08:06
And so, if some people have fallenנָפוּל into the pitבּוֹר of metaphysicalמֵטָפִיסִי dualismשְׁנִיוּת,
172
461000
3000
כך הרבה אנשים נפלו לבור הדואליזם המטאפיזי
08:09
some really smartלִכאוֹב people, too, but we can rejectלִדחוֹת all that.
173
464000
3000
גם כמה אנשים ממש חכמים, אבל אנו יכולים לדחות זאת על הסף.
08:12
(Laughterצחוק)
174
467000
2000
(צחוק)
08:14
No, I'm going to tell you there's something elseאַחֵר,
175
469000
3000
אני הולך לומר לכם שיש משהו אחר,
08:17
and it's really fundamentalבסיסי, and this is what it is:
176
472000
2000
בסיסי מאוד,
08:19
there's anotherאַחֵר reasonסיבה why we don't have a good brainמוֹחַ theoryתֵאוֹרִיָה,
177
474000
2000
שיש סיבה אחרת לכך שאין לנו תיאורית מח טובה,
08:21
and it's because we have an intuitiveאינטואיטיבי, strongly-heldבתוקף,
178
476000
3000
והיא בגלל שאנו מחזיקים באינטואיציה חזקה,
08:24
but incorrectלֹא נָכוֹן assumptionהנחה that has preventedמנע us from seeingרְאִיָה the answerתשובה.
179
479000
5000
ובהנחה לא נכונה שמונעת מאתנו לראות את התשובה.
08:29
There's something we believe that just, it's obviousברור, but it's wrongלא בסדר.
180
484000
3000
ישנו דבר שאנו מאמינים בו, מובן מאליו בשבילנו, אך הוא שגוי.
08:32
Now, there's a historyהִיסטוֹרִיָה of this in scienceמַדָע and before I tell you what it is,
181
487000
4000
יש לכך היסטוריה במדע, ולפני שאומר לכם מהו,
08:36
I'm going to tell you a bitbit about the historyהִיסטוֹרִיָה of it in scienceמַדָע.
182
491000
2000
אספר לכם מעט על ההסטוריה.
08:38
You look at some other scientificמַדָעִי revolutionsמהפכות,
183
493000
2000
הביטו על כמה מהפכות מדעיות אחרות,
08:40
and this caseמקרה, I'm talkingשִׂיחָה about the solarסוֹלָרִי systemמערכת, that's Copernicusקופרניקוס,
184
495000
2000
אני מדבר על מערכת השמש, זה קופרניקוס,
08:42
Darwin'sשל דארווין evolutionאבולוציה, and tectonicטקטוני platesצלחות, that's Wegenerוגנר.
185
497000
3000
האבולוציה של דרווין, והלוחות הטקטונים של וגנר.
08:45
They all have a lot in commonמשותף with brainמוֹחַ scienceמַדָע.
186
500000
3000
יש להם המון מהמשותף למדעי המח.
08:48
First of all, they had a lot of unexplainedבלתי מוסברת dataנתונים. A lot of it.
187
503000
3000
קודם כל היו להם המון נתונים לא מוסברים. המון.
08:51
But it got more manageableניתן לניהול onceפַּעַם they had a theoryתֵאוֹרִיָה.
188
506000
3000
אבל זה היה הרבה יותר ברור ברגע שהיתה להם תאוריה.
08:54
The bestהטוב ביותר mindsמוחות were stumpedמבוהל -- really, really smartלִכאוֹב people.
189
509000
3000
האנשים החכמים ביותר היו מבולבלים, אנשים מאוד מאוד חכמים.
08:57
We're not smarterחכם יותר now than they were then.
190
512000
2000
אנו לא חכמים יותר עכשיו ממה שהם היו אז
08:59
It just turnsפונה out it's really hardקָשֶׁה to think of things,
191
514000
2000
רק הסתבר שזה מאוד קשה לחשוב על דברים,
09:01
but onceפַּעַם you've thought of them, it's kindסוג of easyקַל to understandמבין it.
192
516000
2000
אבל ברגע שחשבת עליהם, זה די פשוט להבין אותם.
09:03
My daughtersבנות understoodהבין these threeשְׁלוֹשָׁה theoriesתיאוריות
193
518000
2000
הבנות שלי הבינו את שלושת התיאוריות
09:05
in theirשֶׁלָהֶם basicבסיסי frameworkמִסגֶרֶת by the time they were in kindergartenגן ילדים.
194
520000
3000
בצורתם הבסיסית, כבר בגן הילדים.
09:08
And now it's not that hardקָשֶׁה, you know, here'sהנה the appleתפוח עץ, here'sהנה the orangeתפוז,
195
523000
3000
וזה לא כזה קשה, הנה התפוח, הנה התפוז,
09:11
you know, the Earthכדור הארץ goesהולך around, that kindסוג of stuffדברים.
196
526000
3000
כדור הארץ מקיף, משהו בסגנון הזה.
09:14
Finallyסוף כל סוף, anotherאַחֵר thing is the answerתשובה was there all alongלְאוֹרֶך,
197
529000
2000
לבסוף, התשובה היתה שם לאורך כל הדרך,
09:16
but we kindסוג of ignoredהתעלם it because of this obviousברור thing, and that's the thing.
198
531000
3000
אבל די התעלמנו ממנה, בגלל הדבר המובן מאליו.
09:19
It was an intuitiveאינטואיטיבי, strong-heldהחזקה beliefאמונה that was wrongלא בסדר.
199
534000
3000
זו היתה אמונה אינטואיטיבית חזקה אך שגויה.
09:22
In the caseמקרה of the solarסוֹלָרִי systemמערכת, the ideaרַעְיוֹן that the Earthכדור הארץ is spinningספינינג
200
537000
3000
במקרה של מערכת השמש, הרעיון שכדור הארץ סב
09:25
and the surfaceמשטח of the Earthכדור הארץ is going like a thousandאלף milesstomach an hourשָׁעָה,
201
540000
3000
ושכדור הארץ נע במהירות של אלפי קילומטרים לשעה,
09:28
and the Earthכדור הארץ is going throughדרך the solarסוֹלָרִי systemמערכת about a millionמִילִיוֹן milesstomach an hourשָׁעָה.
202
543000
3000
וסביב מערכת השמש במהירות של מיליוני קילומטרים לשעה.
09:31
This is lunacyסַהֲרוּרִיוּת. We all know the Earthכדור הארץ isn't movingמעבר דירה.
203
546000
2000
זה טירוף. כולנו יודעים שהקרקע אינה זזה.
09:33
Do you feel like you're movingמעבר דירה a thousandאלף milesstomach an hourשָׁעָה?
204
548000
2000
אתם מרגישים שאתם זזים במהירות של אלפי קילומטרים לשעה?
09:35
Of courseקוּרס not. You know, and someoneמִישֶׁהוּ who said,
205
550000
2000
ברור שלא. ומי שהיה אומר,
09:37
well, it was spinningספינינג around in spaceמֶרחָב and it's so hugeעָצוּם,
206
552000
2000
הוא חג בחלל והוא כל כך ענק,
09:39
they would lockלנעול you up, and that's what they did back then.
207
554000
2000
הם היו כולאים אותו וזה מה שהם היו עושים.
09:41
(Laughterצחוק)
208
556000
1000
(צחוק)
09:42
So it was intuitiveאינטואיטיבי and obviousברור. Now what about evolutionאבולוציה?
209
557000
3000
זו היתה הנחה ברורה מאליה. ומה לגבי האבולוציה?
09:45
Evolution'sהאבולוציה the sameאותו thing. We taughtלימד our kidsילדים, well, the Bibleכִּתבֵי הַקוֹדֶשׁ saysאומר,
210
560000
3000
באותה מידה. לימדנו את ילדנו, שהתנ"ך מספר
09:48
you know, God createdשנוצר all these speciesמִין, catsחתולים are catsחתולים, dogsכלבים are dogsכלבים,
211
563000
2000
שאלוהים יצר את כל היצורים, חתולים הם חתולים, כלבים הם כלבים,
09:50
people are people, plantsצמחים are plantsצמחים, they don't changeשינוי.
212
565000
3000
בני אדם הם בני אדם, צמחים הם צמחים, הם לא משתנים.
09:53
Noahנח put them on the Arkארון in that orderלהזמין, blahבלה, blahבלה, blahבלה. And, you know,
213
568000
4000
נוח שם אותם בתיבה לפי הסדר, בלה בלה בלה.
09:57
the factעוּבדָה is, if you believe in evolutionאבולוציה, we all have a commonמשותף ancestorאָב קַדמוֹן,
214
572000
4000
ולמעשה, אם אתם מאמינים באבולוציה, אז לכולנו יש אב קדמון,
10:01
and we all have a commonמשותף ancestryשׁוֹשֶׁלֶת with the plantצמח in the lobbyלובי.
215
576000
3000
משותף עם העציץ בלובי.
10:04
This is what evolutionאבולוציה tellsאומר us. And, it's trueנָכוֹן. It's kindסוג of unbelievableבלתי יאומן.
216
579000
3000
זה מה שהאבולוציה מספרת לנו. וזה נכון. אבל ממש לא יאומן.
10:07
And the sameאותו thing about tectonicטקטוני platesצלחות, you know?
217
582000
3000
ואותו הדבר עם הלוחות הטקטונים,
10:10
All the mountainsהרים and the continentsיבשות are kindסוג of floatingצָף around
218
585000
2000
כל ההרים והיבשות מרחפות להם
10:12
on topחלק עליון of the Earthכדור הארץ, you know? It's like, it doesn't make any senseלָחוּשׁ.
219
587000
4000
על פני כדור הארץ, ממש לא הגיוני.
10:16
So what is the intuitiveאינטואיטיבי, but incorrectלֹא נָכוֹן assumptionהנחה,
220
591000
4000
אז מהי ההנחה האינטואיטיבית המוטעית,
10:20
that's keptשמר us from understandingהֲבָנָה brainsמוֹחַ?
221
595000
2000
שמנעה מאיתנו להבין את המח?
10:22
Now I'm going to tell it to you, and it's going to seemנראה obviousברור that that is correctנכון,
222
597000
2000
אני הולך לומר לכם אותה, והיא תישמע מובנת מאליה,
10:24
and that's the pointנְקוּדָה, right? Then I'm going to have to make an argumentטַעֲנָה
223
599000
2000
וזו הנקודה, נכון? אחר כך אצטרך לטעון טענה
10:26
why you're incorrectלֹא נָכוֹן about the other assumptionהנחה.
224
601000
2000
מדוע אתם שוגים לגבי אותה הנחה.
10:28
The intuitiveאינטואיטיבי but obviousברור thing is that somehowאיכשהו intelligenceאינטליגנציה
225
603000
3000
ההנחה האינטואיטיבית המובנת מאליה היא שהאינטליגנציה,
10:31
is definedמוּגדָר by behaviorהִתְנַהֲגוּת,
226
606000
2000
מוגדרת על ידי התנהגות,
10:33
that we are intelligentאִינְטֶלִיגֶנְטִי because of the way that we do things
227
608000
2000
שאנו אינטליגנטים בזכות הדרך שבה אנו עושים דברים
10:35
and the way we behaveלְהִתְנַהֵג intelligentlyאינטליג, and I'm going to tell you that's wrongלא בסדר.
228
610000
3000
הדרך שבה אנו מתנהגים בצורה אינטליגנטית, ואני אומר לכם שזו טעות.
10:38
What it is is intelligenceאינטליגנציה is definedמוּגדָר by predictionנְבוּאָה.
229
613000
2000
שאינטליגנציה היא ניבוי.
10:40
And I'm going to work you throughדרך this in a fewמְעַטִים slidesשקופיות here,
230
615000
3000
ואסביר זאת בשקופיות הבאות,
10:43
give you an exampleדוגמא of what this meansאומר. Here'sהנה a systemמערכת.
231
618000
4000
אתן לכם דוגמא למה אני מתכוון. הנה מערכת.
10:47
Engineersמהנדסים like to look at systemsמערכות like this. Scientistsמדענים like to look at systemsמערכות like this.
232
622000
3000
מהנדסים ומדענים אוהבים להביט על מערכות כאלה.
10:50
They say, well, we have a thing in a boxקופסא, and we have its inputsתשומות and its outputsתפוקות.
233
625000
3000
הם אומרים, ישנו משהו בקופסא, ולקופסא יש קלט ופלט.
10:53
The AIAI people said, well, the thing in the boxקופסא is a programmableניתן לתכנות computerמַחשֵׁב
234
628000
3000
אנשי האינטליגנציה המלאכותית אומרים, הדבר שבקופסא הוא מחשב
10:56
because that's equivalentהמקבילה to a brainמוֹחַ, and we'llטוֹב feedהזנה it some inputsתשומות
235
631000
2000
שהוא המקביל למח, נטען אותו בקלט כלשהו
10:58
and we'llטוֹב get it to do something, have some behaviorהִתְנַהֲגוּת.
236
633000
2000
ונגרום לו לעשות משהו, להתנהג בצורה מסויימת.
11:00
And Alanאלן Turingטיורינג definedמוּגדָר the Turingטיורינג testמִבְחָן, whichאיזה is essentiallyלמעשה sayingפִּתגָם,
237
635000
3000
ואלן טורינג הגדיר את מבחן טורינג, שעקרונית אומר
11:03
we'llטוֹב know if something'sכמה דברים intelligentאִינְטֶלִיגֶנְטִי if it behavesמתנהג identicalזֵהֶה to a humanבן אנוש.
238
638000
3000
נדע אם משהו אינטליגנטי אם יתנהג זהה לאדם.
11:06
A behavioralהתנהגותי metricמֶטרִי of what intelligenceאינטליגנציה is,
239
641000
3000
התנהגות השקולה לאינטליגנציה.
11:09
and this has stuckתָקוּעַ in our mindsמוחות for a long periodפרק זמן of time.
240
644000
3000
וזה נתקע לנו בתודעה לאורך המון זמן.
11:12
Realityמְצִיאוּת thoughאם כי, I call it realאמיתי intelligenceאינטליגנציה.
241
647000
2000
אולם במציאות, אני קורה לזה אינטליגנציה אמיתית.
11:14
Realאמיתי intelligenceאינטליגנציה is builtבנוי on something elseאַחֵר.
242
649000
2000
אינטליגנציה אמיתית בנויה על משהו אחר.
11:16
We experienceניסיון the worldעוֹלָם throughדרך a sequenceסדר פעולות of patternsדפוסי, and we storeחֲנוּת them,
243
651000
4000
אנו חווים את העולם באמצעות רצף דפוסים, שומרים אותם,
11:20
and we recallלִזכּוֹר them. And when we recallלִזכּוֹר them, we matchהתאמה them up
244
655000
3000
נזכרים בהם ומעמתים אותם
11:23
againstמול realityמְצִיאוּת, and we're makingהֲכָנָה predictionsתחזיות all the time.
245
658000
4000
עם המציאות, ומנבאים כל הזמן.
11:27
It's an eternalנִצחִי metricמֶטרִי. There's an eternalנִצחִי metricמֶטרִי about us sortסוג of sayingפִּתגָם,
246
662000
3000
זו מערכת אין סופית.
11:30
do we understandמבין the worldעוֹלָם? Am I makingהֲכָנָה predictionsתחזיות? And so on.
247
665000
3000
האם אני מבין את העולם? אני מנבא? וכולי.
11:33
You're all beingלהיות intelligentאִינְטֶלִיגֶנְטִי right now, but you're not doing anything.
248
668000
2000
כולכם אינטליגנטיים ברגע זה, אך אתם לא עושים שום דבר.
11:35
Maybe you're scratchingמגרד yourselfעַצמְךָ, or pickingקטיף your noseאף,
249
670000
2000
אולי מגרדים איפשהו או מחטטים באף,
11:37
I don't know, but you're not doing anything right now,
250
672000
2000
אבל אתם לא עושים שום דבר ברגע זה,
11:39
but you're beingלהיות intelligentאִינְטֶלִיגֶנְטִי; you're understandingהֲבָנָה what I'm sayingפִּתגָם.
251
674000
3000
אך עדיין אינטליגנטים, אתם מבינים את מילותיי.
11:42
Because you're intelligentאִינְטֶלִיגֶנְטִי and you speakלְדַבֵּר Englishאנגלית,
252
677000
2000
בזכות זה שאתם אינטליגנטים ומדברים אנגלית,
11:44
you know what wordמִלָה is at the endסוֹף of this -- (Silenceשתיקה)
253
679000
1000
אתם יודעים איזו מילה תבוא בסוף...
11:45
sentenceמשפט.
254
680000
2000
המשפט.
11:47
The wordמִלָה cameבא into you, and you're makingהֲכָנָה these predictionsתחזיות all the time.
255
682000
3000
המילה קפצה לכם, ואתם עושים ניבויים כאלה כל הזמן.
11:50
And then, what I'm sayingפִּתגָם is,
256
685000
2000
ומה שאני אומר
11:52
is that the eternalנִצחִי predictionנְבוּאָה is the outputתְפוּקָה in the neocortexניוקורטקס.
257
687000
2000
שהניבוי הוא הפלט של קליפת המח.
11:54
And that somehowאיכשהו, predictionנְבוּאָה leadsמוביל to intelligentאִינְטֶלִיגֶנְטִי behaviorהִתְנַהֲגוּת.
258
689000
3000
ושבצורה כלשהי, הניבויים מובילים להתנהגות אינטליגנטית.
11:57
And here'sהנה how that happensקורה. Let's startהַתחָלָה with a non-intelligentלא אינטליגנטי brainמוֹחַ.
259
692000
3000
וכך זה קורה. בואו נתחיל עם מח לא אינטליגנטי.
12:00
Well I'll argueלִטעוֹן a non-intelligentלא אינטליגנטי brainמוֹחַ, we got holdלְהַחזִיק of an oldישן brainמוֹחַ,
260
695000
4000
המח הישן,
12:04
and we're going to say it's like a non-mammalללא יונקים, like a reptileזוֹחֵל,
261
699000
3000
נניח של לא יונק, זוחל למשל ,
12:07
so I'll say, an alligatorתַנִין; we have an alligatorתַנִין.
262
702000
2000
כמו תנין.
12:09
And the alligatorתַנִין has some very sophisticatedמתוחכם sensesחושים.
263
704000
3000
ולתנין יש חושים מאוד מתוחכמים.
12:12
It's got good eyesעיניים and earsאוזניים and touchלגעת sensesחושים and so on,
264
707000
3000
יש לו עיניים ואוזניים טובות, וחוש מישוש,
12:15
a mouthפֶּה and a noseאף. It has very complexמורכב behaviorהִתְנַהֲגוּת.
265
710000
4000
פה ואף. יש לו התנהגות מאוד מורכבת.
12:19
It can runלָרוּץ and hideלהתחבא. It has fearsפחדים and emotionsרגשות. It can eatלאכול you, you know.
266
714000
4000
הוא יכול לרוץ ולהתחבא. יש לו פחדים ורגשות. הוא יכול לטרוף אותך.
12:23
It can attackלִתְקוֹף. It can do all kindsמיני of stuffדברים.
267
718000
4000
ולתקוף. כל מיני דברים.
12:27
But we don't considerלשקול the alligatorתַנִין very intelligentאִינְטֶלִיגֶנְטִי, not like in a humanבן אנוש sortסוג of way.
268
722000
5000
אך אנו לא מחשיבים את התנין ליצור מאוד אינטליגנטי, לא במובן האנושי של המילה.
12:32
But it has all this complexמורכב behaviorהִתְנַהֲגוּת alreadyכְּבָר.
269
727000
2000
למרות שיש לו את ההתנהגות המורכבת הזו.
12:34
Now, in evolutionאבולוציה, what happenedקרה?
270
729000
2000
מה קרה במהלך האבולוציה?
12:36
First thing that happenedקרה in evolutionאבולוציה with mammalsיונקים,
271
731000
3000
הדבר הראשון שקרה באבולוציה של היונקים,
12:39
we startedהתחיל to developלְפַתֵחַ a thing calledשקוראים לו the neocortexניוקורטקס.
272
734000
2000
שפיתחנו את החלק שנקרא קליפת המח.
12:41
And I'm going to representלְיַצֵג the neocortexניוקורטקס here,
273
736000
2000
ואני מיצג את קליפת המח כאן,
12:43
by this boxקופסא that's stickingדִבּוּק on topחלק עליון of the oldישן brainמוֹחַ.
274
738000
2000
בעזרת התיבה הזו שיושבת מעל המח הישן.
12:45
Neocortexניוקורטקס meansאומר newחָדָשׁ layerשִׁכבָה. It is a newחָדָשׁ layerשִׁכבָה on topחלק עליון of your brainמוֹחַ.
275
740000
3000
קליפת המח משמעותה שכבה חדשה. בראש המח.
12:48
If you don't know it, it's the wrinklyמקומט thing on the topחלק עליון of your headרֹאשׁ that,
276
743000
3000
אם לא ידעתם, היא הדבר המקומט בראש המח,
12:51
it's got wrinklyמקומט because it got shovedדחף in there and doesn't fitלְהַתְאִים.
277
746000
3000
שיש לו קמטים כי הוא נדחס לשם למרות חוסר המקום.
12:54
(Laughterצחוק)
278
749000
1000
(צחוק)
12:55
No, really, that's what it is. It's about the sizeגודל of a tableשולחן napkinמַפִּית.
279
750000
2000
ברצינות, זה בערך בגודל של מפית.
12:57
And it doesn't fitלְהַתְאִים, so it getsמקבל all wrinklyמקומט. Now look at how I've drawnשָׁלוּף this here.
280
752000
3000
וזה לא מתאים, אז זה נהיה מקומט.
13:00
The oldישן brainמוֹחַ is still there. You still have that alligatorתַנִין brainמוֹחַ.
281
755000
4000
המח הישן עדין כאן. עדין יש לנו מח כמו לתנין.
13:04
You do. It's your emotionalרִגשִׁי brainמוֹחַ.
282
759000
2000
בהחלט יש לנו. זה המח הרגשי שלכם.
13:06
It's all those things, and all those gutמְעִי reactionsהתגובות you have.
283
761000
3000
כל הדברים כמו תחושות הבטן.
13:09
And on topחלק עליון of it, we have this memoryזיכרון systemמערכת calledשקוראים לו the neocortexניוקורטקס.
284
764000
3000
ומעליו ישנה מערכת זכרון הנקראת קליפת המח.
13:12
And the memoryזיכרון systemמערכת is sittingיְשִׁיבָה over the sensoryחוּשִׁי partחֵלֶק of the brainמוֹחַ.
285
767000
4000
ומערכת הזכרון הזו יושבת בחלק החישתי של המח.
13:16
And so as the sensoryחוּשִׁי inputקֶלֶט comesבא in and feedsהזנות from the oldישן brainמוֹחַ,
286
771000
3000
וכשקלט חישתי מגיע למח הישן,
13:19
it alsoגַם goesהולך up into the neocortexניוקורטקס. And the neocortexניוקורטקס is just memorizingשִׁנוּן.
287
774000
4000
הוא בנוסף עולה לקליפת המח החדשה. והיא משננת.
13:23
It's sittingיְשִׁיבָה there sayingפִּתגָם, ahאה, I'm going to memorizeלְשַׁנֵן all the things that are going on:
288
778000
4000
היא יושבת שם "ואומרת" אני אשנן את כל הדברים שקורים,
13:27
where I've been, people I've seenלראות, things I've heardשמע, and so on.
289
782000
2000
איפה הייתי, אנשים שראיתי, דברים ששמעתי וכולי.
13:29
And in the futureעתיד, when it seesרואה something similarדוֹמֶה to that again,
290
784000
4000
ובעתיד, כשהיא רואה משהו דומה,
13:33
so in a similarדוֹמֶה environmentסביבה, or the exactמְדוּיָק sameאותו environmentסביבה,
291
788000
3000
בסביבה דומה או אפילו זהה,
13:36
it'llזה יהיה playלְשַׂחֵק it back. It'llזה יהיה startהַתחָלָה playingמשחק it back.
292
791000
2000
היא תפעיל את זה מחדש.
13:38
Oh, I've been here before. And when you've been here before,
293
793000
2000
הו, הייתי פה בעבר. וכשהייתי פה,
13:40
this happenedקרה nextהַבָּא. It allowsמאפשרים you to predictלַחֲזוֹת the futureעתיד.
294
795000
3000
זה מה שקרה הלאה. זה מאפשר לכם לחזות את העתיד.
13:43
It allowsמאפשרים you to, literallyפשוטו כמשמעו it feedsהזנות back the signalsאותות into your brainמוֹחַ;
295
798000
4000
זה מאפשר לכם פשוטו כמשמעו להזין את האותות למוחכם,
13:47
they'llהם יהיו let you see what's going to happenלִקְרוֹת nextהַבָּא,
296
802000
2000
שיאפשרו לכם לצפות מה יקרה ברגע הבא,
13:49
will let you hearלִשְׁמוֹעַ the wordמִלָה "sentenceמשפט" before I said it.
297
804000
3000
יאפשר לכם לשמוע את המילה "משפט" לפני שאמרתי אותה.
13:52
And it's this feedingהַאֲכָלָה back into the oldישן brainמוֹחַ
298
807000
3000
זו ההזנה-החוזרת למח הישן
13:55
that'llזה יהיה allowלהתיר you to make very more intelligentאִינְטֶלִיגֶנְטִי decisionsהחלטות.
299
810000
3000
המאפשרת לקבל החלטות אינטליגנטיות.
13:58
This is the mostרוב importantחָשׁוּב slideשקופית of my talk, so I'll dwellלגור on it a little bitbit.
300
813000
3000
זו השקופית החשובה ביותר בהרצאה אז אשאר איתה לזמן מה.
14:01
And so, all the time you say, oh, I can predictלַחֲזוֹת the things.
301
816000
4000
אז כל הזמן אתה אומר, הו, אני יכול לחזות מה יקרה.
14:05
And if you're a ratעכברוש and you go throughדרך a mazeמבוך, and then you learnלִלמוֹד the mazeמבוך,
302
820000
3000
אם אתה עכבר שמסתובב במבוך, ולומד אותו,
14:08
the nextהַבָּא time you're in a mazeמבוך, you have the sameאותו behaviorהִתְנַהֲגוּת,
303
823000
2000
פעם הבאה שאתה במבוך, ההתנהגות שלך זהה,
14:10
but all of a suddenפִּתְאוֹמִי, you're smarterחכם יותר
304
825000
2000
אבל לפתע, אתה חכם יותר
14:12
because you say, oh, I recognizeלזהות this mazeמבוך, I know whichאיזה way to go,
305
827000
3000
כי אתה אומר, אני מכיר את המבוך הזה, אני יודע לאן ללכת,
14:15
I've been here before, I can envisionלַחֲזוֹת the futureעתיד. And that's what it's doing.
306
830000
3000
הייתי פה בעבר, אני יכול לצפות את העתיד. וזה מה שהוא עושה.
14:18
In humansבני אנוש -- by the way, this is trueנָכוֹן for all mammalsיונקים;
307
833000
3000
זה נכון לגבי כל היונקים,
14:21
it's trueנָכוֹן for other mammalsיונקים -- and in humansבני אנוש, it got a lot worseרע יותר.
308
836000
2000
אבל אצל בני אדם, זה נהיה גרוע יותר.
14:23
In humansבני אנוש, we actuallyלמעשה developedמפותח the frontחֲזִית partחֵלֶק of the neocortexניוקורטקס
309
838000
3000
אצל בני אדם, פיתחנו את החלק הקדמי של קליפת המח
14:26
calledשקוראים לו the anteriorקִדמִי partחֵלֶק of the neocortexניוקורטקס. And natureטֶבַע did a little trickטריק.
310
841000
4000
שנקרא הקליפה הקדמית. והטבע עשה תעלול.
14:30
It copiedמוּעֲתָק the posteriorאֲחוֹרִי partחֵלֶק, the back partחֵלֶק, whichאיזה is sensoryחוּשִׁי,
311
845000
2000
הוא העתיק את החלק האחורי החישתי,
14:32
and put it in the frontחֲזִית partחֵלֶק.
312
847000
2000
ושם אותו מקדימה.
14:34
And humansבני אנוש uniquelyבאופן ייחודי have the sameאותו mechanismמַנגָנוֹן on the frontחֲזִית,
313
849000
2000
אצל בני אדם באופן יחודי יש את אותו מנגנון מקדימה,
14:36
but we use it for motorמָנוֹעַ controlלִשְׁלוֹט.
314
851000
2000
אבל אנו משתמשים בו לתנועה.
14:38
So we are now ableיכול to make very sophisticatedמתוחכם motorמָנוֹעַ planningתִכנוּן, things like that.
315
853000
3000
אנו יכולים עכשיו לעשות תנועות מתוחכמות מאוד.
14:41
I don't have time to get into all this, but if you want to understandמבין how a brainמוֹחַ worksעובד,
316
856000
3000
אין לי זמן להכנס להכל, אבל אם אתם רוצים להבין אין המח עובד,
14:44
you have to understandמבין how the first partחֵלֶק of the mammalianיונקים neocortexניוקורטקס worksעובד,
317
859000
3000
אתם חייבים להבין איך החלק הראשון של קליפת המח אצל יונקים עובד,
14:47
how it is we storeחֲנוּת patternsדפוסי and make predictionsתחזיות.
318
862000
2000
איך אנו מצליחים לאגור דפוסים ולנבא.
14:49
So let me give you a fewמְעַטִים examplesדוגמאות of predictionsתחזיות.
319
864000
3000
בואו נראה כמה דוגמאות של ניבוי.
14:52
I alreadyכְּבָר said the wordמִלָה "sentenceמשפט." In musicמוּסִיקָה,
320
867000
2000
כבר נתתי את הדוגמא של המילה "משפט". במוסיקה,
14:54
if you've heardשמע a songשִׁיר before, if you heardשמע Jillג'יל singלָשִׁיר those songsשירים before,
321
869000
3000
אם שמעתם שיר בעבר, אם שמעתם את ג'יל שרה את השירים הללו בעבר,
14:57
when she singsשר them, the nextהַבָּא noteהערה popsאבא into your headרֹאשׁ alreadyכְּבָר --
322
872000
3000
כשהיא שרה אותם, התו הבא קופץ לכם לראש מיד-
15:00
you anticipateלְצַפּוֹת it as you're going. If it was an albumאַלבּוֹם of musicמוּסִיקָה,
323
875000
2000
אתם מצפים לשמוע אותו. אם זה היה אלבום שירים,
15:02
the endסוֹף of one albumאַלבּוֹם, the nextהַבָּא songשִׁיר popsאבא into your headרֹאשׁ.
324
877000
3000
בסוף כל שיר, השיר הבא קופץ לכם לראש.
15:05
And these things happenלִקְרוֹת all the time. You're makingהֲכָנָה these predictionsתחזיות.
325
880000
2000
הדברים האלו קורים כל הזמן. כך אתם מנבאים.
15:07
I have this thing calledשקוראים לו the alteredהשתנה doorדלת thought experimentלְנַסוֹת.
326
882000
3000
יש ניסוי שאני קורא לו ניסוי "הדלת המשתנה".
15:10
And the alteredהשתנה doorדלת thought experimentלְנַסוֹת saysאומר, you have a doorדלת at home,
327
885000
3000
והניסוי אומר, יש לכם בבית דלת,
15:13
and when you're here, I'm changingמִשְׁתַנֶה it, I've got a guy
328
888000
3000
ובזמן שאתם נמצאים כאן, אני משנה אותה, יש לי מישהו
15:16
back at your houseבַּיִת right now, movingמעבר דירה the doorדלת around,
329
891000
2000
בבית שלכם ברגע זה, שמתעסק בדלת,
15:18
and they're going to take your doorknobידית של דלת and moveמהלך \ לזוז \ לעבור it over two inchesאינץ.
330
893000
2000
והוא עומד להזיז את ידית הדלת כמה סנטימטרים.
15:20
And when you go home tonightהיום בלילה, you're going to put your handיד out there,
331
895000
2000
כשתגיעו הביתה היום בערב, תושיטו את היד
15:22
and you're going to reachלְהַגִיעַ for the doorknobידית של דלת and you're going to noticeהודעה
332
897000
2000
לכוון ידית הדלת ותבחינו
15:24
it's in the wrongלא בסדר spotלְזַהוֹת, and you'llאתה go, whoawho, something happenedקרה.
333
899000
3000
שהיא במקום הלא נכון, ותאמרו, וואו, משהו קרה.
15:27
It mayמאי take a secondשְׁנִיָה to figureדמות out what it was, but something happenedקרה.
334
902000
2000
זה יכול לקחת כמה רגעים להבין מה בדיוק קרה, אבל משהו קרה.
15:29
Now I could changeשינוי your doorknobידית של דלת in other waysדרכים.
335
904000
2000
אני יכול לשנות את הדלת שלכם בדרכים אחרות.
15:31
I can make it largerיותר גדול or smallerקטן יותר, I can changeשינוי its brassפליז to silverכסף,
336
906000
2000
אני יכול לעשות אותה גדולה או קטנה יותר, לשנות אותה מנחושת לכסף,
15:33
I could make it a leverמָנוֹף. I can changeשינוי your doorדלת, put colorsצבעים on;
337
908000
2000
להוסיף לה מנוף. לצבוע אותה,
15:35
I can put windowsחלונות in. I can changeשינוי a thousandאלף things about your doorדלת,
338
910000
3000
לשים חלונות. אני יכול לשנות אלפי דברים בדלת,
15:38
and in the two secondsשניות you take to openלִפְתוֹחַ your doorדלת,
339
913000
2000
ובשתי שניות שלוקח לכם לפתוח אותה,
15:40
you're going to noticeהודעה that something has changedהשתנה.
340
915000
3000
אתם תשימו לב שמשהו השתנה.
15:43
Now, the engineeringהַנדָסָה approachגִישָׁה to this, the AIAI approachגִישָׁה to this,
341
918000
2000
גישת האינטליגנציה מלאכותית לכך,
15:45
is to buildלִבנוֹת a doorדלת databaseמאגר מידע. It has all the doorדלת attributesתכונות.
342
920000
3000
היא לבנות מסד נתונים של דלתות שיש בו את כל תכונות הדלת.
15:48
And as you go up to the doorדלת, you know, let's checkלבדוק them off one at time.
343
923000
3000
וברגע שאתם הולכים לדלת, אתם בודקים את כל התכונות אחת אחרי השניה.
15:51
Doorדלת, doorדלת, doorדלת, you know, colorצֶבַע, you know what I'm sayingפִּתגָם.
344
926000
2000
דלת, דלת, דלת...צבע.
15:53
We don't do that. Your brainמוֹחַ doesn't do that.
345
928000
2000
אנו לא עושים את זאת כך. המח שלכם לא עושה זאת כך.
15:55
What your brainמוֹחַ is doing is makingהֲכָנָה constantקָבוּעַ predictionsתחזיות all the time
346
930000
2000
מה שהוא עושה זה לנבא ללא הרף ובאופן עקבי
15:57
about what is going to happenלִקְרוֹת in your environmentסביבה.
347
932000
2000
מה יקרה בסביבתכם.
15:59
As I put my handיד on this tableשולחן, I expectלְצַפּוֹת to feel it stop.
348
934000
3000
כשאני שם את ידי על השולחן, אני מצפה שהיא תעצר.
16:02
When I walkלָלֶכֶת, everyכֹּל stepשלב, if I missedהחטיא it by an eighthשמונה of an inchאִינְטשׁ,
349
937000
3000
כשאני הולך, בכל צעד, אם אפספס אותו בכמה מילימטרים,
16:05
I'll know something has changedהשתנה.
350
940000
2000
אדע שמשהו השתנה.
16:07
You're constantlyתָמִיד makingהֲכָנָה predictionsתחזיות about your environmentסביבה.
351
942000
2000
אתם מנבאים ללא הרף לגבי סביבתכם.
16:09
I'll talk about visionחָזוֹן here brieflyבקצרה. This is a pictureתְמוּנָה of a womanאִשָׁה.
352
944000
3000
אדבר בקצרה על הראיה. זוהי תמונה של אשה.
16:12
And when you look at people, your eyesעיניים are caughtנתפס
353
947000
2000
וכשאתם מסתכלים על אנשים, העיניים שלכם
16:14
over at two to threeשְׁלוֹשָׁה timesפִּי a secondשְׁנִיָה.
354
949000
1000
מדלגות פעמיים עד שלוש בשניה.
16:15
You're not awareמוּדָע of this, but your eyesעיניים are always movingמעבר דירה.
355
950000
2000
אתם לא מודעים לכך, אבל העיניים שלכם זזות ללא הרף.
16:17
And so when you look at someone'sשל מישהו faceפָּנִים,
356
952000
2000
כשאתם מסתכלים על פנים של מישהו,
16:19
you'dהיית רוצה typicallyבדרך כלל go from eyeעַיִן to eyeעַיִן to eyeעַיִן to noseאף to mouthפֶּה.
357
954000
2000
אתם בדרך כלל עוברים מעין לעין לאף ולפה.
16:21
Now, when your eyeעַיִן movesמהלכים from eyeעַיִן to eyeעַיִן,
358
956000
2000
כשאתם עוברים מעין לעין,
16:23
if there was something elseאַחֵר there like, a noseאף,
359
958000
2000
אם היה משהו אחר במקום העין, למשל אף,
16:25
you'dהיית רוצה see a noseאף where an eyeעַיִן is supposedאמור to be,
360
960000
2000
הייתם רואים אף במקום שעין צריכה להיות,
16:27
and you'dהיית רוצה go, oh shitלְחַרְבֵּן, you know --
361
962000
3000
הייתם אומרים, אופס...
16:30
(Laughterצחוק)
362
965000
1000
(צחוק)
16:31
There's something wrongלא בסדר about this personאדם.
363
966000
2000
יש משהו לא בסדר באדם הזה.
16:33
And that's because you're makingהֲכָנָה a predictionנְבוּאָה.
364
968000
2000
וזה בגלל שאתם מנבאים.
16:35
It's not like you just look over there and say, what am I seeingרְאִיָה now?
365
970000
2000
זה לא שאתם מסתכלים לשם ואומרים, מה אני רואה עכשיו?
16:37
A noseאף, that's okay. No, you have an expectationתוֹחֶלֶת of what you're going to see.
366
972000
3000
אף, זה בסדר. לא, יש לכם צפיה לגבי מה שאתם אמורים לראות.
16:40
(Laughterצחוק)
367
975000
1000
(צחוק)
16:41
Everyכֹּל singleיחיד momentרֶגַע. And finallyסוף כל סוף, let's think about how we testמִבְחָן intelligenceאינטליגנציה.
368
976000
4000
ולסיום, איך אנו בוחנים אינטליגנציה.
16:45
We testמִבְחָן it by predictionנְבוּאָה. What is the nextהַבָּא wordמִלָה in this, you know?
369
980000
3000
אנחנו בוחנים את זה על ידי ניבוי. מהי המילה הבאה?
16:48
This is to this as this is to this. What is the nextהַבָּא numberמספר in this sentenceמשפט?
370
983000
3000
הדבר הזה ביחס לזה הוא כמו הדבר הזה ביחס למה? מה המילה הבאה במשפט?
16:51
Here'sהנה threeשְׁלוֹשָׁה visionsחזיונות of an objectלְהִתְנַגֵד.
371
986000
2000
הנה שלושה צדדים של דבר.
16:53
What's the fourthרביעי one? That's how we testמִבְחָן it. It's all about predictionנְבוּאָה.
372
988000
4000
מהו הרביעי? כך בוחנים את זה. הכל עניין של ניבוי.
16:57
So what is the recipeמַתכּוֹן for brainמוֹחַ theoryתֵאוֹרִיָה?
373
992000
3000
אז מהו המתכון לתיאורית מח?
17:00
First of all, we have to have the right frameworkמִסגֶרֶת.
374
995000
3000
קודם כל, חייבת להיות לנו תבנית נכונה.
17:03
And the frameworkמִסגֶרֶת is a memoryזיכרון frameworkמִסגֶרֶת,
375
998000
2000
תבנית של זיכרון,
17:05
not a computationחישוב or behaviorהִתְנַהֲגוּת frameworkמִסגֶרֶת. It's a memoryזיכרון frameworkמִסגֶרֶת.
376
1000000
2000
לא תבנית ממוחשבת או התנהגותית. תבנית זיכרון.
17:07
How do you storeחֲנוּת and recallלִזכּוֹר these sequencesרצפים or patternsדפוסי? It's spatio-temporalספטיו-טמפורלי patternsדפוסי.
377
1002000
4000
איך אנו שומרים וזוכרים את הרצפים והדפוסים? דפוסים הן בזמן והן במרחב.
17:11
Then, if in that frameworkמִסגֶרֶת, you take a bunchצְרוֹר of theoreticiansתיאורטיקנים.
378
1006000
3000
לאחר מכן לוקחים כמה תאורטיקנים.
17:14
Now biologistsביולוגים generallyבדרך כלל are not good theoreticiansתיאורטיקנים.
379
1009000
2000
ביולוגים בדרך כלל לא תאורטיקנים טובים.
17:16
It's not always trueנָכוֹן, but in generalכללי, there's not a good historyהִיסטוֹרִיָה of theoryתֵאוֹרִיָה in biologyביולוגיה.
380
1011000
4000
זה לא תמיד נכון, אך באופן כללי, אין ניסיון עשיר של תאוריות בביולוגיה.
17:20
So I foundמצאתי the bestהטוב ביותר people to work with are physicistsפיסיקאים,
381
1015000
3000
אז מצאתי לנכון שהאנשים הטובים ביותר לעבוד איתם הם פיסיקאים,
17:23
engineersמהנדסים and mathematiciansמתמטיקאים, who tendנוטה to think algorithmicallyאלגוריתמית.
382
1018000
3000
מהנדסים ומתמטיקאים, שבאופן טבעי חושבים בצורה אלגוריתמית.
17:26
Then they have to learnלִלמוֹד the anatomyאֲנָטוֹמִיָה, and they'veהם כבר got to learnלִלמוֹד the physiologyפִיסִיוֹלוֹגִיָה.
383
1021000
3000
והם חייבים ללמוד אנטומיה, והם חייבים ללמוד פיזיולוגיה.
17:29
You have to make these theoriesתיאוריות very realisticמְצִיאוּתִי in anatomicalאֲנָטוֹמִי termsמונחים.
384
1024000
4000
צריך לבנות את התיאוריות הללו בצורה מאוד מציאותית מבחינה אנטומית.
17:33
Anyoneכֹּל אֶחָד who getsמקבל up and tellsאומר you theirשֶׁלָהֶם theoryתֵאוֹרִיָה about how the brainמוֹחַ worksעובד
385
1028000
4000
אם מישהו יקום ויספר לכם על תאוריה
17:37
and doesn't tell you exactlyבְּדִיוּק how it's workingעובד in the brainמוֹחַ
386
1032000
2000
ולא יספר לכם איך בדיוק זה עובד במח
17:39
and how the wiringתִיוּל worksעובד in the brainמוֹחַ, it is not a theoryתֵאוֹרִיָה.
387
1034000
2000
ואיך החיווט עובד במח, זו לא באמת תאוריה.
17:41
And that's what we're doing at the Redwoodרדווד Neuroscienceמדעי המוח Instituteמכון.
388
1036000
3000
וזה מה שאנו עושים במכון רד-ווד.
17:44
I would love to have more time to tell you we're makingהֲכָנָה fantasticפַנטַסטִי progressהתקדמות in this thing,
389
1039000
4000
הייתי שמח אילו היה לי יותר זמן לספר לכם אנו עושים התקדמות נהדרת בנושא,
17:48
and I expectלְצַפּוֹת to be back up on this stageשלב,
390
1043000
2000
ואני מצפה לשוב לבמה זו,
17:50
maybe this will be some other time in the not too distantרָחוֹק futureעתיד and tell you about it.
391
1045000
2000
אולי בעתיד הלא רחוק ולספר לכם על זה.
17:52
I'm really, really excitedנִרגָשׁ. This is not going to take 50 yearsשנים at all.
392
1047000
3000
אני מאוד מאוד נלהב. זה ממש לא יקח חמישים שנה.
17:55
So what will brainמוֹחַ theoryתֵאוֹרִיָה look like?
393
1050000
2000
אז איך תיאורית המח תיראה?
17:57
First of all, it's going to be a theoryתֵאוֹרִיָה about memoryזיכרון.
394
1052000
2000
קודם כל, זו תהיה תאוריה על זיכרון.
17:59
Not like computerמַחשֵׁב memoryזיכרון. It's not at all like computerמַחשֵׁב memoryזיכרון.
395
1054000
3000
לא כמו של מחשב. זה אפילו לא דומה לזיכרון של מחשב.
18:02
It's very, very differentשונה. And it's a memoryזיכרון of these very
396
1057000
2000
זה מאוד, מאוד שונה. וזהו זיכרון של אותם
18:04
high-dimensionalגבוהה מימדי patternsדפוסי, like the things that come from your eyesעיניים.
397
1059000
3000
דפוסים רב-מימדיים, אותם הדברים הבאים מהעינים.
18:07
It's alsoגַם memoryזיכרון of sequencesרצפים.
398
1062000
2000
בנוסף, גם זיכרון של רצפים.
18:09
You cannotלא יכול learnלִלמוֹד or recallלִזכּוֹר anything outsideבחוץ of a sequenceסדר פעולות.
399
1064000
2000
אתם לא יכולים ללמוד או לזכור שום דבר מחוץ לרצף כלשהו.
18:11
A songשִׁיר mustצריך be heardשמע in sequenceסדר פעולות over time,
400
1066000
3000
שיר חייב להיות מושמע ברצף לאורך זמן,
18:14
and you mustצריך playלְשַׂחֵק it back in sequenceסדר פעולות over time.
401
1069000
3000
ואתם חייבים להשמיע אותו לעצמכם ברצף לאורך זמן.
18:17
And these sequencesרצפים are auto-associativelyאוטומטית אסוציאטיבית recalledנזכר, so if I see something,
402
1072000
3000
אנו נזכרים ברצפים האלה בצורה עצמית ואסוציאטיבית, אז אם אני רואה
18:20
I hearלִשְׁמוֹעַ something, it remindsמזכיר me of it, and then it playsמחזות back automaticallyבאופן אוטומטי.
403
1075000
3000
או שומע משהו, אני נזכר, ומושמע בצורה אוטומטית.
18:23
It's an automaticאוֹטוֹמָטִי playbackהשמעה. And predictionנְבוּאָה of futureעתיד inputsתשומות is the desiredהרצוי outputתְפוּקָה.
404
1078000
4000
זו השמעה חוזרת אוטומטית. וניבוי של קלט עתידי הוא הפלט הרצוי.
18:27
And as I said, the theoryתֵאוֹרִיָה mustצריך be biologicallyביולוגית accurateמְדוּיָק,
405
1082000
3000
כמו שאמרתי, התאוריה חייבת להיות מדויקת מבחינה ביולוגית,
18:30
it mustצריך be testableניתן לטעימה, and you mustצריך be ableיכול to buildלִבנוֹת it.
406
1085000
2000
היא חייבת להיות ברת בדיקה, ואתה חייב להיות מסוגל לבנות אותה.
18:32
If you don't buildלִבנוֹת it, you don't understandמבין it. So, one more slideשקופית here.
407
1087000
4000
אם אתה לא בונה אותה, אתה לא מבין אותה.
18:36
What is this going to resultתוֹצָאָה in? Are we going to really buildלִבנוֹת intelligentאִינְטֶלִיגֶנְטִי machinesמכונה?
408
1091000
4000
מה זה הולך ליצור? האם אנחנו באמת הולכים לבנות מכונות אינטליגנטיות?
18:40
Absolutelyבהחלט. And it's going to be differentשונה than people think.
409
1095000
4000
ללא ספק. זה יהיה שונה ממה שאנשים חושבים.
18:44
No doubtספק that it's going to happenלִקְרוֹת, in my mindאכפת.
410
1099000
3000
אין לי ספק שזה הולך לקרות.
18:47
First of all, it's going to be builtבנוי up, we're going to buildלִבנוֹת the stuffדברים out of siliconסִילִיקוֹן.
411
1102000
4000
קודם כל, זה הולך להבנות מסיליקון.
18:51
The sameאותו techniquesטכניקות we use for buildingבִּניָן siliconסִילִיקוֹן computerמַחשֵׁב memoriesזיכרונות,
412
1106000
3000
אותה טכניקה שבה השתמשנו לבנות זכרון למחשב,
18:54
we can use for here.
413
1109000
1000
תשמש אותנו כאן.
18:55
But they're very differentשונה typesסוגים of memoriesזיכרונות.
414
1110000
2000
אבל סוג הזכרון הוא מאוד מאוד שונה.
18:57
And we're going to attachלְצַרֵף these memoriesזיכרונות to sensorsחיישנים,
415
1112000
2000
נצמיד את מערכת הזכרון הזו לחיישנים,
18:59
and the sensorsחיישנים will experienceניסיון real-liveאמיתי לחיות, real-worldעולם אמיתי dataנתונים,
416
1114000
3000
והחיישנים יקלטו נתונים מהעולם האמיתי,
19:02
and these things are going to learnלִלמוֹד about theirשֶׁלָהֶם environmentסביבה.
417
1117000
2000
והדברים הללו ילמדו על הסביבה שלהם.
19:04
Now it's very unlikelyלא סביר the first things you're going to see are like robotsרובוטים.
418
1119000
3000
מאוד לא סביר שהדבר הראשון שנראה יהיו רובוטים.
19:07
Not that robotsרובוטים aren'tלא usefulמוֹעִיל and people can buildלִבנוֹת robotsרובוטים.
419
1122000
3000
לא בגלל שרובוטים הם חסרי תועלת ובהחלט ניתן לבנות אותם.
19:10
But the roboticsרובוטיקה partחֵלֶק is the hardestהכי קשה partחֵלֶק. That's the oldישן brainמוֹחַ. That's really hardקָשֶׁה.
420
1125000
4000
אלא שהחלק הרובוטי הוא החלק הקשה. זהו המח הישן. זה ממש קשה.
19:14
The newחָדָשׁ brainמוֹחַ is actuallyלמעשה kindסוג of easierקל יותר than the oldישן brainמוֹחַ.
421
1129000
2000
המח החדש הוא די קל ביחס למח הישן.
19:16
So the first thing we're going to do are the things that don't requireלִדרוֹשׁ a lot of roboticsרובוטיקה.
422
1131000
3000
אז הדברים הראשונים שאנו עומדים לעשות אינם זקוקוים ליותר מידי רובוטיקה.
19:19
So you're not going to see C-C-3POPO.
423
1134000
2000
אתם לא הולכים לראות C-3PO.
19:21
You're going to more see things like, you know, intelligentאִינְטֶלִיגֶנְטִי carsמכוניות
424
1136000
2000
תראו דברים יותר כמו מכוניות אינטליגנטיות
19:23
that really understandמבין what trafficתְנוּעָה is and what drivingנְהִיגָה is
425
1138000
3000
שמבינות תחבורה ונהיגה
19:26
and have learnedמְלוּמָד that certainמסוים typesסוגים of carsמכוניות with the blinkersמצמוצים on for halfחֲצִי a minuteדַקָה
426
1141000
3000
ולמדו שמכוניות מסויימות עם אורות שמהבהבים במשך חצי דקה
19:29
probablyכנראה aren'tלא going to turnלפנות, things like that.
427
1144000
2000
כנראה לא עומדות לפנות, דברים מעין אלה.
19:31
(Laughterצחוק)
428
1146000
1000
(צחוק)
19:32
We can alsoגַם do intelligentאִינְטֶלִיגֶנְטִי securityבִּטָחוֹן systemsמערכות.
429
1147000
2000
ניתן לעשות אמצעי אבטחה חכמים.
19:34
Anywhereבְּכָל מָקוֹם where we're basicallyבעיקרון usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני our brainמוֹחַ, but not doing a lot of mechanicsמֵכָנִיקָה.
430
1149000
4000
כל המקומות שבהם אנו משתמשים הרבה בשכלנו ללא הרבה מכניקה.
19:38
Those are the things that are going to happenלִקְרוֹת first.
431
1153000
2000
אלו הדברים שיקרו קודם.
19:40
But ultimatelyבסופו של דבר, the world'sשל העולם the limitלְהַגבִּיל here.
432
1155000
2000
בסופו של דבר, השמיים הם הגבול.
19:42
I don't know how this is going to turnלפנות out.
433
1157000
2000
אינני יודע איך זה יתפתח.
19:44
I know a lot of people who inventedבדוי the microprocessorמיקרו
434
1159000
2000
אני מכיר אנשים רבים שהמציאו את המיקרו-מעבדים
19:46
and if you talk to them, they knewידע what they were doing was really significantמשמעותי,
435
1161000
5000
אם הייתם שואלים אותם, הם ידעו שמה שהם עושים הוא מאוד חשוב,
19:51
but they didn't really know what was going to happenלִקְרוֹת.
436
1166000
3000
אך הם לא ידעו מה יקרה בעתיד.
19:54
They couldn'tלא יכול anticipateלְצַפּוֹת cellתָא phonesטלפונים and the Internetאינטרנט and all this kindסוג of stuffדברים.
437
1169000
5000
הם לא צפו את הטלפונים הסלולרים, את האינטרנט וכל הדברים הללו.
19:59
They just knewידע like, hey, they were going to buildלִבנוֹת calculatorsמחשבונים
438
1174000
2000
הם רק ידעו שהם עומדים לבנות מחשבונים
20:01
and trafficתְנוּעָה lightאוֹר controllersבקרי. But it's going to be bigגָדוֹל.
439
1176000
2000
ובקרת רמזורים. זה הולך להיות גדול.
20:03
In the sameאותו way, this is like brainמוֹחַ scienceמַדָע and these memoriesזיכרונות
440
1178000
3000
מדעי המח ומערכות הזכרון הללו,
20:06
are going to be a very fundamentalבסיסי technologyטֶכנוֹלוֹגִיָה, and it's going to leadעוֹפֶרֶת
441
1181000
3000
יהיו טכנולוגיה מאוד בסיסית, שתוביל
20:09
to very unbelievableבלתי יאומן changesשינויים in the nextהַבָּא 100 yearsשנים.
442
1184000
3000
לשינויים מרחיקי לכת במאה שנים הקרובות.
20:12
And I'm mostרוב excitedנִרגָשׁ about how we're going to use them in scienceמַדָע.
443
1187000
4000
ואני הכי נלהב לגלות כיצד נשתמש בהם במדע.
20:16
So I think that's all my time, I'm over it, and I'm going to endסוֹף my talk
444
1191000
3000
אני חושב שזמני תם, ובזאת אסיים
20:19
right there.
445
1194000
1000
את ההרצאה.
Translated by Oran Tzuman
Reviewed by Uri Yaffe

▲Back to top

ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee