ABOUT THE SPEAKER
Henry Markram - Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time.

Why you should listen

In the microscopic, yet-uncharted circuitry of the cortex, Henry Markram is perhaps the most ambitious -- and our most promising -- frontiersman. Backed by the extraordinary power of the IBM Blue Gene supercomputing architecture, which can perform hundreds of trillions of calculations per second, he's using complex models to precisely simulate the neocortical column (and its tens of millions of neural connections) in 3D.

Though the aim of Blue Brain research is mainly biomedical, it has been edging up on some deep, contentious philosophical questions about the mind -- "Can a robot think?" and "Can consciousness be reduced to mechanical components?" -- the consequence of which Markram is well aware: Asked by Seed Magazine what a simulation of a full brain might do, he answered, "Everything. I mean everything" -- with a grin.

Now, with a successful proof-of-concept for simulation in hand (the project's first phase was completed in 2007), Markram is looking toward a future where brains might be modeled even down to the molecular and genetic level. Computing power marching rightward and up along the graph of Moore's Law, Markram is sure to be at the forefront as answers to the mysteries of cognition emerge.

More profile about the speaker
Henry Markram | Speaker | TED.com
TEDGlobal 2009

Henry Markram: A brain in a supercomputer

הנרי מרקראם בונה מוח במחשב על

Filmed:
1,469,354 views

הנרי מרקראם אומר שמסתרי התודעה יכולים להיפתר - בקרוב. מחלות נפש, זיכרון, תפיסה: בנויים מנוירונים ומסרים חשמליים, והוא מתכנן לגלות אותם באמצעות מחשב על שמדמה את כל המוח האנושי כ100,000,000,000,000 סינפסות.
- Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time. Full bio

Double-click the English transcript below to play the video.

00:18
Our missionמשימה is to buildלִבנוֹת
0
0
3000
המשימה שלנו היא לבנות
00:21
a detailedמְפוֹרָט, realisticמְצִיאוּתִי
1
3000
2000
בצורה מפורטת וראליסטית,
00:23
computerמַחשֵׁב modelדֶגֶם of the humanבן אנוש brainמוֹחַ.
2
5000
2000
מודל ממוחשב של המוח האנושי.
00:25
And we'veיש לנו doneבוצע, in the pastעבר fourארבעה yearsשנים,
3
7000
3000
ואנו בנינו, ב4 שנים האחרונות,
00:28
a proofהוכחה of conceptמוּשָׂג
4
10000
2000
הוכחת יכולות,
00:30
on a smallקָטָן partחֵלֶק of the rodentמכרסם brainמוֹחַ,
5
12000
3000
בחלק קטן של מוח מכרסם,
00:33
and with this proofהוכחה of conceptמוּשָׂג we are now scalingדֵרוּג the projectפּרוֹיֶקט up
6
15000
3000
ועם הוכחת היכולות הזאת אנו כעת מגדילים את הפרויקט
00:36
to reachלְהַגִיעַ the humanבן אנוש brainמוֹחַ.
7
18000
3000
כדי להגיע למוח האנושי.
00:39
Why are we doing this?
8
21000
2000
למה אנו עושים זאת?
00:41
There are threeשְׁלוֹשָׁה importantחָשׁוּב reasonsסיבות.
9
23000
2000
יש שלוש סיבות חשובות.
00:43
The first is, it's essentialחִיוּנִי for us to understandמבין the humanבן אנוש brainמוֹחַ
10
25000
4000
הראשונה, זה הכרחי עבורנו להבין את המוח האנושי
00:47
if we do want to get alongלְאוֹרֶך in societyחֶברָה,
11
29000
2000
אם אנחנו רוצים להתקדם מבחינה חברתית,
00:49
and I think that it is a keyמַפְתֵחַ stepשלב in evolutionאבולוציה.
12
31000
4000
ואני חושב שזה צעד הכרחי באבולוציה.
00:53
The secondשְׁנִיָה reasonסיבה is,
13
35000
2000
הסיבה השניה היא,
00:55
we cannotלא יכול keep doing animalבעל חיים experimentationניסוי foreverלָנֶצַח,
14
37000
6000
אנחנו לא יכולים להמשיך ולבצע ניסויים בחיות לעולם,
01:01
and we have to embodyלְגַלֵם all our dataנתונים and all our knowledgeיֶדַע
15
43000
4000
ואנחנו צריכים לצרף את כל הנתונים והידע שלנו,
01:05
into a workingעובד modelדֶגֶם.
16
47000
3000
למודל שעובד.
01:08
It's like a Noah'sשל נוח Arkארון. It's like an archiveארכיון.
17
50000
4000
זה כמו התיבה של נוח, זה כמו בסיס נתונים.
01:12
And the thirdשְׁלִישִׁי reasonסיבה is that there are two billionמיליארד people on the planetכוכב לכת
18
54000
3000
והסיבה השלישית שיש כ-2 מיליארד אנשים על כדור הארץ
01:15
that are affectedמושפעים by mentalנַפשִׁי disorderהפרעה,
19
57000
4000
המושפעים מהפרעה מנטלית,
01:19
and the drugsסמים that are used todayהיום
20
61000
2000
והתרופות שבהם אנו משתמשים היום
01:21
are largelyבמידה רבה empiricalאֶמפִּירִי.
21
63000
2000
הם באופן כללי אמפיריים.
01:23
I think that we can come up with very concreteבטון solutionsפתרונות on
22
65000
3000
אני חושב שאנחנו יכולים להגיע לפיתרון מבוסס
01:26
how to treatטיפול disordersהפרעות.
23
68000
3000
כיצד לטפל בהפרעות.
01:29
Now, even at this stageשלב,
24
71000
3000
עכשיו, אפילו בשלב הזה,
01:32
we can use the brainמוֹחַ modelדֶגֶם
25
74000
2000
אנחנו יכולים להשתמש במודל המוח
01:34
to exploreלַחקוֹר some fundamentalבסיסי questionsשאלות
26
76000
3000
כדי לחשוף שאלות יסוד
01:37
about how the brainמוֹחַ worksעובד.
27
79000
2000
על כיצד המוח מתפקד.
01:39
And here, at TEDTED, for the first time,
28
81000
2000
וכאן בTED, בפעם הראשונה,
01:41
I'd like to shareלַחֲלוֹק with you how we're addressingפְּנִיָה
29
83000
2000
אני רוצה לחלוק איתכם, כיצד אנו מתייחסים
01:43
one theoryתֵאוֹרִיָה -- there are manyרב theoriesתיאוריות --
30
85000
3000
לתיאוריה אחת - יש הרבה תיאוריות -
01:46
one theoryתֵאוֹרִיָה of how the brainמוֹחַ worksעובד.
31
88000
4000
תיאוריה אחת שמתייחסת לאיך המוח עובד.
01:50
So, this theoryתֵאוֹרִיָה is that the brainמוֹחַ
32
92000
4000
אז התיאוריה הזאת אומרת שהמוח
01:54
createsיוצר, buildsבונה, a versionגִרְסָה of the universeעוֹלָם,
33
96000
6000
מייצר, ובונה גירסה של היקום.
02:00
and projectsפרויקטים this versionגִרְסָה of the universeעוֹלָם,
34
102000
3000
ומקרין את הגרסה הזאת של היקום,
02:03
like a bubbleבּוּעָה, all around us.
35
105000
4000
כמו בועה, שמקיפה אותנו סביב.
02:07
Now, this is of courseקוּרס a topicנוֹשֵׂא of philosophicalפילוסופית debateעימות for centuriesמאות שנים.
36
109000
4000
זה כמובן נושא שפילוסופים מתווכחים עליו מאות שנים.
02:11
But, for the first time, we can actuallyלמעשה addressכתובת this,
37
113000
3000
אבל, בפעם הראשונה אנחנו יכולים להתייחס ממש לנושא,
02:14
with brainמוֹחַ simulationסימולציה,
38
116000
2000
באמצעות סימולציית המוח,
02:16
and askלִשְׁאוֹל very systematicשִׁיטָתִי and rigorousקַפְּדָנִי questionsשאלות,
39
118000
4000
ולשאול שאלות בצורה מאד שיטתית ומדויקת,
02:20
whetherהאם this theoryתֵאוֹרִיָה could possiblyיִתָכֵן be trueנָכוֹן.
40
122000
4000
האם התאוריה הזו יכולה להיות נכונה.
02:24
The reasonסיבה why the moonירח is hugeעָצוּם on the horizonהאופק
41
126000
3000
הסיבה למה הירח נראה ענק בזריחה
02:27
is simplyבפשטות because our perceptualתְפִיסָתִי bubbleבּוּעָה
42
129000
3000
היא פשוט בגלל שבועת המודעות מסביבנו
02:30
does not stretchלִמְתוֹחַ out 380,000 kilometersק"מ.
43
132000
4000
לא נמתחת ל 380,000 ק"מ.
02:34
It runsרץ out of spaceמֶרחָב.
44
136000
2000
נגמר לה המרחב.
02:36
And so what we do is we compareלְהַשְׁווֹת the buildingsבניינים
45
138000
4000
כך שמה שאנו עושים זה להשוות את הבניינים
02:40
withinבְּתוֹך our perceptualתְפִיסָתִי bubbleבּוּעָה,
46
142000
2000
בבועה הנוכחית שלנו,
02:42
and we make a decisionהַחְלָטָה.
47
144000
2000
ואנו מקבלים החלטה.
02:44
We make a decisionהַחְלָטָה it's that bigגָדוֹל,
48
146000
2000
אנחנו מחליטים שזה בגודל כזה,
02:46
even thoughאם כי it's not that bigגָדוֹל.
49
148000
2000
אפילו שזה לא כל כך גדול,
02:48
And what that illustratesממחישה
50
150000
2000
ומה שזה מדגים
02:50
is that decisionsהחלטות are the keyמַפְתֵחַ things
51
152000
2000
שההחלטות, הם הענין העיקרי - המפתח
02:52
that supportתמיכה our perceptualתְפִיסָתִי bubbleבּוּעָה. It keepsשומר it aliveבחיים.
52
154000
5000
שתומכות בבועה התפיסתית שלנו, זה שומר על קיומה.
02:57
Withoutלְלֹא decisionsהחלטות you cannotלא יכול see, you cannotלא יכול think,
53
159000
2000
ללא החלטות לא ניתן לראות, לא ניתן לחשוב,
02:59
you cannotלא יכול feel.
54
161000
2000
לא ניתן להרגיש.
03:01
And you mayמאי think that anestheticsהרדמה work
55
163000
2000
אתם אולי חושבים שהרדמה עובדת בצורה כזאת
03:03
by sendingשְׁלִיחָה you into some deepעָמוֹק sleepלִישׁוֹן,
56
165000
3000
באמצעות הכנסה שלנו לשינה עמוקה,
03:06
or by blockingחוסם your receptorsקולטנים so that you don't feel painכְּאֵב,
57
168000
3000
או באמצעות חסימה של הקולטים כך שלא נרגיש כאב,
03:09
but in factעוּבדָה mostרוב anestheticsהרדמה don't work that way.
58
171000
3000
אבל במציאות רוב סמי ההרדמה לא עובדים בדרך הזאת.
03:12
What they do is they introduceהצג a noiseרַעַשׁ
59
174000
3000
מה שהם עושים זה יצירת "רעש"
03:15
into the brainמוֹחַ so that the neuronsנוירונים cannotלא יכול understandמבין eachכל אחד other.
60
177000
3000
לתוך המוח כך שהנוירונים לא מבינים אחד את השני.
03:18
They are confusedמְבוּלבָּל,
61
180000
2000
הם מבולבלים,
03:20
and you cannotלא יכול make a decisionהַחְלָטָה.
62
182000
3000
ולא ניתן לבצע החלטות.
03:23
So, while you're tryingמנסה to make up your mindאכפת
63
185000
3000
כך שכאשר אתה מנסה להחליט,
03:26
what the doctorדוֹקטוֹר, the surgeonמְנַתֵחַ, is doing
64
188000
2000
מה שהרופא, המנתח עושה
03:28
while he's hackingפריצה away at your bodyגוּף, he's long goneנעלם.
65
190000
2000
בזמן שהוא מחטט בתוך הגוף שלך, הוא סיים מזמן.
03:30
He's at home havingשיש teaתה.
66
192000
2000
הוא בבית שותה תה.
03:32
(Laughterצחוק)
67
194000
2000
(צחוק)
03:34
So, when you walkלָלֶכֶת up to a doorדלת and you openלִפְתוֹחַ it,
68
196000
3000
כך, שכאשר אתה צועד לכיוון הדלת ופותח אותה,
03:37
what you compulsivelyכפייתית have to do to perceiveלִתְפּוֹס
69
199000
3000
מה שאתה צריך לעשות בצורה בלתי מודעת כדי לזהות
03:40
is to make decisionsהחלטות,
70
202000
2000
זה לבצע החלטות,
03:42
thousandsאלפים of decisionsהחלטות about the sizeגודל of the roomחֶדֶר,
71
204000
3000
אלפי החלטות לגבי גודלו של החדר,
03:45
the wallsקירות, the heightגוֹבַה, the objectsחפצים in this roomחֶדֶר.
72
207000
3000
הקיר, הגובה, החפצים בחדר.
03:48
99 percentאָחוּז of what you see
73
210000
3000
99 אחוז ממה שאנו רואים
03:51
is not what comesבא in throughדרך the eyesעיניים.
74
213000
4000
זה לא מה שמגיע מהעיניים.
03:55
It is what you inferלְהַסִיק about that roomחֶדֶר.
75
217000
4000
זה מה שאתה מעריך לגבי החדר.
03:59
So I can say, with some certaintyוַדָאוּת,
76
221000
4000
כך שאני יכול להגיד במידה מסוימת של ביטחון,
04:03
"I think, thereforeלכן I am."
77
225000
3000
"אני חושב לכן אני קיים."
04:06
But I cannotלא יכול say, "You think, thereforeלכן you are,"
78
228000
4000
אבל אני לא יכול להגיד "אתה חושב לכן אתה קיים,"
04:10
because "you" are withinבְּתוֹך my perceptualתְפִיסָתִי bubbleבּוּעָה.
79
232000
5000
בגלל שאתה נמצא בתוך הבועה התפיסתית שלי.
04:15
Now, we can speculateלְסַפְסֵר and philosophizeלְהִתְפַּלְסֵף this,
80
237000
3000
כעת, אנחנו יכולים לנתח ולהתפלסף בנושא,
04:18
but we don't actuallyלמעשה have to for the nextהַבָּא hundredמֵאָה yearsשנים.
81
240000
3000
אבל אנחנו לא ממש חייבים במאה השנים הבאות.
04:21
We can askלִשְׁאוֹל a very concreteבטון questionשְׁאֵלָה.
82
243000
2000
אנחנו יכולים לשאול שאלות בסיסיות ביותר.
04:23
"Can the brainמוֹחַ buildלִבנוֹת suchכגון a perceptionתפיסה?"
83
245000
4000
"האם המוח יכול לבנות נקודת מבט כזאת?"
04:27
Is it capableבעל יכולת of doing it?
84
249000
2000
האם הוא יכול לבצע זאת?
04:29
Does it have the substanceחומר to do it?
85
251000
2000
האם יש לו את הכלים לבצע זאת?
04:31
And that's what I'm going to describeלְתַאֵר to you todayהיום.
86
253000
3000
וזה מה שאני מתכוון לתאר לכם היום.
04:34
So, it tookלקח the universeעוֹלָם 11 billionמיליארד yearsשנים to buildלִבנוֹת the brainמוֹחַ.
87
256000
4000
אז זה לקח ליקום כ-11 מיליארד שנה לבנות את המוח.
04:38
It had to improveלְשַׁפֵּר it a little bitbit.
88
260000
2000
הוא היה צריך לשפר אותו קצת.
04:40
It had to addלְהוֹסִיף to the frontalחֲזִיתִי partחֵלֶק, so that you would have instinctsאינסטינקטים,
89
262000
3000
היה צריך להוסיף את החלק הקדמי, כך שיהיו אינסטינקטים,
04:43
because they had to copeלהתמודד on landארץ.
90
265000
3000
בגלל שהוא היה צריך להתמודד ביבשה.
04:46
But the realאמיתי bigגָדוֹל stepשלב was the neocortexניוקורטקס.
91
268000
4000
אבל הצעד הגדול היה פיתוח הניאוקורטקס.
04:50
It's a newחָדָשׁ brainמוֹחַ. You neededנָחוּץ it.
92
272000
2000
זה מוח חדש, אתם הייתם צריכים אותו.
04:52
The mammalsיונקים neededנָחוּץ it
93
274000
2000
היונקים היו צריכים אותו
04:54
because they had to copeלהתמודד with parenthoodהוֹרוּת,
94
276000
4000
בגלל שהם נאלצו להתמודד עם הורות,
04:58
socialחֶברָתִי interactionsאינטראקציות,
95
280000
2000
תקשורת חברתית,
05:00
complexמורכב cognitiveקוגניטיבית functionsפונקציות.
96
282000
3000
פעולות חשיבה מסובכות.
05:03
So, you can think of the neocortexניוקורטקס
97
285000
2000
כך, שאפשר לחשוב על הניאוקורטקס.
05:05
actuallyלמעשה as the ultimateסופי solutionפִּתָרוֹן todayהיום,
98
287000
5000
בעצם כעל הפיתרון המשולם היום,
05:10
of the universeעוֹלָם as we know it.
99
292000
3000
של היקום כפי שאנו מכירים אותו.
05:13
It's the pinnacleשִׂיא, it's the finalסופי productמוצר
100
295000
2000
זה התוצר המושלם, התוצרת הסופית
05:15
that the universeעוֹלָם has producedמיוצר.
101
297000
4000
שהיקום יצר.
05:19
It was so successfulמוּצלָח in evolutionאבולוציה
102
301000
2000
הוא היה כל כך מוצלח בהתפתחותו האבולוציונית
05:21
that from mouseעכבר to man it expandedמוּרחָב
103
303000
2000
כך שבמעבר מעכבר לאדם הוא התרחב
05:23
about a thousandfoldפִּי אֶלֶף in termsמונחים of the numbersמספרים of neuronsנוירונים,
104
305000
3000
פי אלף בייחס לכמות הנוירונים,
05:26
to produceליצר this almostכִּמעַט frighteningמפחיד
105
308000
3000
כדי לייצור אבר, מבנה
05:29
organאֵיבָר, structureמִבְנֶה.
106
311000
3000
כמעט מפחיד.
05:32
And it has not stoppedעצר its evolutionaryאֵבוֹלוּצִיוֹנִי pathנָתִיב.
107
314000
3000
והמסלול האבולוציוני שלו עדין לא הסתיים.
05:35
In factעוּבדָה, the neocortexניוקורטקס in the humanבן אנוש brainמוֹחַ
108
317000
2000
בעצם הניאוקורטקס במוח האדם
05:37
is evolvingמתפתח at an enormousעֲנָקִי speedמְהִירוּת.
109
319000
3000
מתפתח במהירות עצומה.
05:40
If you zoomזום into the surfaceמשטח of the neocortexניוקורטקס,
110
322000
2000
אם מתבוננים בצורה מעמיקה בפני הניאוקורטקס,
05:42
you discoverלְגַלוֹת that it's madeעָשׂוּי up of little modulesמודולים,
111
324000
3000
מגלים שהוא מיוצר מחלקים קטנים,
05:45
G5 processorsמעבדים, like in a computerמַחשֵׁב.
112
327000
2000
מעבדי G5, כמו במעבד של מחשב.
05:47
But there are about a millionמִילִיוֹן of them.
113
329000
3000
אבל יש מיליון כאלה.
05:50
They were so successfulמוּצלָח in evolutionאבולוציה
114
332000
2000
הם היו כל כך מוצלחים באבולוציה
05:52
that what we did was to duplicateלְשַׁכְפֵּל them
115
334000
2000
שמה שעשינו זה לשכפל אותם
05:54
over and over and addלְהוֹסִיף more and more of them to the brainמוֹחַ
116
336000
2000
ולהוסיף עוד ועוד מהם למוח
05:56
untilעד we ranרץ out of spaceמֶרחָב in the skullגולגולת.
117
338000
3000
עד שלא נשאר מקום בגולגולת.
05:59
And the brainמוֹחַ startedהתחיל to foldלְקַפֵּל in on itselfעצמה,
118
341000
2000
והמוח החל לקפל את עצמו,
06:01
and that's why the neocortexניוקורטקס is so highlyמְאוֹד convolutedמְפוּתָל.
119
343000
3000
ולכן הניאוקורטקס כל כך מסובך.
06:04
We're just packingאֲרִיזָה in columnsעמודות,
120
346000
2000
אנחנו פשוט אורזים בעמודות,
06:06
so that we'dלהתחתן have more neocorticalניאו-קורטיקאי columnsעמודות
121
348000
3000
כך שיש לנו יותר עמודות בניאוקורטקס
06:09
to performלְבַצֵעַ more complexמורכב functionsפונקציות.
122
351000
3000
כדי לבצע פעולות מסובכות יותר.
06:12
So you can think of the neocortexניוקורטקס actuallyלמעשה as
123
354000
2000
כך שבעצם ניתן לחשוב על הניאוקורטקס כמו
06:14
a massiveמַסִיבִי grandגָדוֹל pianoפְּסַנְתֵר,
124
356000
2000
על פסנתר כנף מסיבי,
06:16
a million-keyמיליון מפתח grandגָדוֹל pianoפְּסַנְתֵר.
125
358000
3000
פסנתר שבו מיליוני קלידים.
06:19
Eachכל אחד of these neocorticalניאו-קורטיקאי columnsעמודות
126
361000
2000
כל אחד מהעמודות בניאוקורטקס
06:21
would produceליצר a noteהערה.
127
363000
2000
ייצר צליל.
06:23
You stimulateלְעוֹרֵר it; it producesייצור a symphonyסִימפוֹנִיָה.
128
365000
3000
מגרים אותו; הוא מייצר סימפוניה.
06:26
But it's not just a symphonyסִימפוֹנִיָה of perceptionתפיסה.
129
368000
3000
אבל זה לא רק סימפוניה תפיסתית.
06:29
It's a symphonyסִימפוֹנִיָה of your universeעוֹלָם, your realityמְצִיאוּת.
130
371000
3000
זה סימופניה של היקום, המציאות שלך.
06:32
Now, of courseקוּרס it takes yearsשנים to learnלִלמוֹד how
131
374000
3000
כמובן שזה לוקח שנים ללמוד כיצד
06:35
to masterלִשְׁלוֹט a grandגָדוֹל pianoפְּסַנְתֵר with a millionמִילִיוֹן keysמפתחות.
132
377000
3000
לשלוט בפסנתר בעל מיליון קלידים.
06:38
That's why you have to sendלִשְׁלוֹחַ your kidsילדים to good schoolsבתי ספר,
133
380000
2000
לכן צריך לשלוח את הילדים לבתי ספר טובים,
06:40
hopefullyבתקווה eventuallyבסופו של דבר to Oxfordאוקספורד.
134
382000
2000
בתקווה בסוף לאוקספורד.
06:42
But it's not only educationהַשׂכָּלָה.
135
384000
3000
אבל זה לא רק חינוך.
06:45
It's alsoגַם geneticsגנטיקה.
136
387000
2000
זה גם גנטיקה.
06:47
You mayמאי be bornנוֹלָד luckyבַּר מַזָל,
137
389000
2000
יתכן שנולדת בר מזל,
06:49
where you know how to masterלִשְׁלוֹט your neocorticalניאו-קורטיקאי columnטור,
138
391000
4000
או שאתה שולט כיצד להפעיל את העמודות במוח,
06:53
and you can playלְשַׂחֵק a fantasticפַנטַסטִי symphonyסִימפוֹנִיָה.
139
395000
2000
ואתה יכול לנגן סימפוניה נפלאה.
06:55
In factעוּבדָה, there is a newחָדָשׁ theoryתֵאוֹרִיָה of autismאוֹטִיזְם
140
397000
3000
בעצם, יש תיאוריה חדשה לגבי אוטיזם
06:58
calledשקוראים לו the "intenseאִינטֶנסִיבִי worldעוֹלָם" theoryתֵאוֹרִיָה,
141
400000
2000
שנקראת תאורית "העולם הלחוץ",
07:00
whichאיזה suggestsמציע that the neocorticalניאו-קורטיקאי columnsעמודות are super-columnsסופר עמודות.
142
402000
4000
שבה הרעיון הוא שהעמודות שבמוח החדש הם עמודות-על.
07:04
They are highlyמְאוֹד reactiveתְגוּבָתִי, and they are super-plasticסופר פלסטיק,
143
406000
4000
הם מאד פעילים והם מאד פלסטיים,
07:08
and so the autistsאוטיסטים are probablyכנראה capableבעל יכולת of
144
410000
3000
כך שאוטיסט כנראה מסוגל
07:11
buildingבִּניָן and learningלְמִידָה a symphonyסִימפוֹנִיָה
145
413000
2000
לבנות ולייצר סימפוניה
07:13
whichאיזה is unthinkableלא יעלה על הדעת for us.
146
415000
2000
שהיא בלתי ניתנת להבנה בשבילנו.
07:15
But you can alsoגַם understandמבין
147
417000
2000
אבל ניתן גם להבין
07:17
that if you have a diseaseמַחֲלָה
148
419000
2000
שאם יש לך מחלה
07:19
withinבְּתוֹך one of these columnsעמודות,
149
421000
2000
באחת העמודות,
07:21
the noteהערה is going to be off.
150
423000
2000
הצליל הולך להיות שגוי.
07:23
The perceptionתפיסה, the symphonyסִימפוֹנִיָה that you createלִיצוֹר
151
425000
2000
המודעות, הסימפוניה שתיוצר
07:25
is going to be corruptedפגום,
152
427000
2000
תהיה משובשת,
07:27
and you will have symptomsהסימפטומים of diseaseמַחֲלָה.
153
429000
3000
ויהיו לכם סימפטומים של מחלה.
07:30
So, the Holyקָדוֹשׁ Grailגביע for neuroscienceמדעי המוח
154
432000
4000
כך שהגביע הקדוש במדעי המוח
07:34
is really to understandמבין the designלְעַצֵב of the neocoriticalניאו-פוליטית columnטור --
155
436000
4000
הינו ההבנה של עיצוב העמודות במוח -
07:38
and it's not just for neuroscienceמדעי המוח;
156
440000
2000
וזה לא רק למדעי המוח;
07:40
it's perhapsאוּלַי to understandמבין perceptionתפיסה, to understandמבין realityמְצִיאוּת,
157
442000
3000
זה אולי להבנת המודעות ולהבנת המציאות,
07:43
and perhapsאוּלַי to even alsoגַם understandמבין physicalגוּפָנִי realityמְצִיאוּת.
158
445000
4000
ואולי אפילו להבין את העולם הפיסי הגשמי.
07:47
So, what we did was, for the pastעבר 15 yearsשנים,
159
449000
3000
אז מה שעשינו במשך 15 השנים האחרונות,
07:50
was to dissectלְנַתֵחַ out the neocortexניוקורטקס, systematicallyבאופן שיטתי.
160
452000
4000
זה לפרק את את הנאוקורטקס באופן שיטתי.
07:54
It's a bitbit like going and catalogingקיטלוג a pieceלְחַבֵּר of the rainforestיערות גשם.
161
456000
4000
זה קצת כמו לקטלג חלק מיערות הגשם.
07:58
How manyרב treesעצים does it have?
162
460000
2000
כמה עצים קיימים?
08:00
What shapesצורות are the treesעצים?
163
462000
2000
באיזו צורה העצים?
08:02
How manyרב of eachכל אחד typeסוּג of treeעֵץ do you have? Where are they positionedמיקומו?
164
464000
3000
כמה עצים מכל סוג קיימים? איפה הם ממוקמים?
08:05
But it's a bitbit more than catalogingקיטלוג because you actuallyלמעשה have to
165
467000
2000
אבל זה קצת יותר מלקטלג בגלל שאתה צריך ממש
08:07
describeלְתַאֵר and discoverלְגַלוֹת all the rulesכללים of communicationתִקשׁוֹרֶת,
166
469000
4000
לתאר ולגלות את כל חוקי התקשורת,
08:11
the rulesכללים of connectivityקישוריות,
167
473000
2000
חוקי החיבוריות,
08:13
because the neuronsנוירונים don't just like to connectלְחַבֵּר with any neuronעֲצָבוֹן.
168
475000
3000
בגלל שהנוירונים לא סתם רוצים להתחבר לכל נוירון אחר.
08:16
They chooseבחר very carefullyבקפידה who they connectלְחַבֵּר with.
169
478000
3000
הם בוחרים בזהירות למי הם יתחברו.
08:19
It's alsoגַם more than catalogingקיטלוג
170
481000
3000
זה גם יותר מקטלוג
08:22
because you actuallyלמעשה have to buildלִבנוֹת three-dimensionalתלת ממד
171
484000
2000
בגלל שצריך לבנות
08:24
digitalדִיגִיטָלי modelsמודלים of them.
172
486000
2000
מודל תלת מימדי דיגיטלי שלהם.
08:26
And we did that for tensעשרות of thousandsאלפים of neuronsנוירונים,
173
488000
2000
ואנחנו עשינו זאת לעשרות אלפי נוירונים,
08:28
builtבנוי digitalדִיגִיטָלי modelsמודלים of all the differentשונה typesסוגים
174
490000
3000
בנינו מודל דיגיטלי לסוגים שונים
08:31
of neuronsנוירונים we cameבא acrossלְרוֹחָב.
175
493000
2000
של נוירונים, אותם מצאנו.
08:33
And onceפַּעַם you have that, you can actuallyלמעשה
176
495000
2000
וכאשר יש לך את המודל הזה אתה יכול בעצם
08:35
beginהתחל to buildלִבנוֹת the neocorticalניאו-קורטיקאי columnטור.
177
497000
4000
להתחיל ולבנות עמודות של הניאוקורטקס.
08:39
And here we're coilingהִתפַּתְלוּת them up.
178
501000
3000
וכאן אנחנו כורכים אותם.
08:42
But as you do this, what you see
179
504000
3000
אבל כאשר אנחנו עושים זאת, מה שאנו רואים
08:45
is that the branchesענפים intersectלְהִצְטָלֵב
180
507000
2000
שהשלוחות מצטלבות אחד בשני
08:47
actuallyלמעשה in millionsמיליונים of locationsמיקומים,
181
509000
3000
בעצם במליוני מקומות.
08:50
and at eachכל אחד of these intersectionsצמתים
182
512000
3000
ובכל אחת מההצטלבויות האלה
08:53
they can formטופס a synapseסינפסה.
183
515000
2000
הם יכולים לייצר סינפסה.
08:55
And a synapseסינפסה is a chemicalכִּימִי locationמקום
184
517000
2000
סינפסה זה המקום שבו כימיקלים נמצאים
08:57
where they communicateלתקשר with eachכל אחד other.
185
519000
3000
היכן שהם מתקשרים אחד עם השני.
09:00
And these synapsesסינפסות togetherיַחַד
186
522000
2000
והסינפסות האלה ביחד
09:02
formטופס the networkרֶשֶׁת
187
524000
2000
מייצרות רשת
09:04
or the circuitמעגל חשמלי of the brainמוֹחַ.
188
526000
3000
או החיווט של המוח.
09:07
Now, the circuitמעגל חשמלי, you could alsoגַם think of as
189
529000
4000
אז הרשת, ניתן לחשוב עליה כמו
09:11
the fabricבד of the brainמוֹחַ.
190
533000
2000
המארג של המוח.
09:13
And when you think of the fabricבד of the brainמוֹחַ,
191
535000
3000
וכאשר אתה חושב על המארג של המוח,
09:16
the structureמִבְנֶה, how is it builtבנוי? What is the patternתַבְנִית of the carpetשָׁטִיחַ?
192
538000
4000
המבנה, איך זה בנוי? מה התבנית של השטיח?
09:20
You realizeלִהַבִין that this posesתנוחות
193
542000
2000
אתה מבין שזה מציג
09:22
a fundamentalבסיסי challengeאתגר to any theoryתֵאוֹרִיָה of the brainמוֹחַ,
194
544000
4000
אתגר משמעותי לכל תיאוריה של המוח,
09:26
and especiallyבמיוחד to a theoryתֵאוֹרִיָה that saysאומר
195
548000
2000
ובמיוחד לתיאוריה שאומרת
09:28
that there is some realityמְצִיאוּת that emergesמתגלה
196
550000
2000
שיש מציאות שמגיחה
09:30
out of this carpetשָׁטִיחַ, out of this particularמיוחד carpetשָׁטִיחַ
197
552000
3000
מתוך השטיח הזה, השטיח הספציפי הזה
09:33
with a particularמיוחד patternתַבְנִית.
198
555000
2000
עם תבניות ספציפיות.
09:35
The reasonסיבה is because the mostרוב importantחָשׁוּב designלְעַצֵב secretסוֹד of the brainמוֹחַ
199
557000
3000
הסיבה היא שהסוד התכנוני החשוב ביותר של המוח
09:38
is diversityגיוון.
200
560000
2000
זו שונות.
09:40
Everyכֹּל neuronעֲצָבוֹן is differentשונה.
201
562000
2000
כל נוירון שונה.
09:42
It's the sameאותו in the forestיַעַר. Everyכֹּל pineאורן treeעֵץ is differentשונה.
202
564000
2000
זה כמו ביער. כל עץ אורן שונה.
09:44
You mayמאי have manyרב differentשונה typesסוגים of treesעצים,
203
566000
2000
יתכן שיהיו סוגים שונים של עצים,
09:46
but everyכֹּל pineאורן treeעֵץ is differentשונה. And in the brainמוֹחַ it's the sameאותו.
204
568000
3000
אבל כל עץ אורן שונה, ובמוח זה אותו דבר.
09:49
So there is no neuronעֲצָבוֹן in my brainמוֹחַ that is the sameאותו as anotherאַחֵר,
205
571000
3000
כך שאין נוירון במוח שלי שדומה לאחר,
09:52
and there is no neuronעֲצָבוֹן in my brainמוֹחַ that is the sameאותו as in yoursשלך.
206
574000
3000
ואין לי נוירון במוח שלי שזהה לנוירון אצלך.
09:55
And your neuronsנוירונים are not going to be orientedמונחה עצמים and positionedמיקומו
207
577000
3000
והנוירונים שלך לא הולכים להיות מוצבים וממוקמים
09:58
in exactlyבְּדִיוּק the sameאותו way.
208
580000
2000
באותה צורה בדיוק.
10:00
And you mayמאי have more or lessפָּחוּת neuronsנוירונים.
209
582000
2000
ויכול להיות לך יותר או פחות נוירונים.
10:02
So it's very unlikelyלא סביר
210
584000
2000
כך שזה מאד לא סביר
10:04
that you got the sameאותו fabricבד, the sameאותו circuitryמעגלים.
211
586000
4000
שיהיה לך את אותו מארג אותו חיווט.
10:08
So, how could we possiblyיִתָכֵן createלִיצוֹר a realityמְצִיאוּת
212
590000
2000
אז כיצד אנחנו יכולים ליצור מציאות
10:10
that we can even understandמבין eachכל אחד other?
213
592000
3000
שבה אנחנו יכולים להבין אחד את השני?
10:13
Well, we don't have to speculateלְסַפְסֵר.
214
595000
2000
אנחנו לא צריכים לשער.
10:15
We can look at all 10 millionמִילִיוֹן synapsesסינפסות now.
215
597000
3000
אנחנו יכולים להסתכל על כל 10 מליון הסינפסות.
10:18
We can look at the fabricבד. And we can changeשינוי neuronsנוירונים.
216
600000
3000
אנחנו יכולים להסתכל על המארג, ואנחנו יכולים לשנות נוירונים.
10:21
We can use differentשונה neuronsנוירונים with differentשונה variationsוריאציות.
217
603000
2000
אנחנו יכולים להשתמש בנוירונים אחרים ובשילובים שונים.
10:23
We can positionעמדה them in differentשונה placesמקומות,
218
605000
2000
אנחנו יכולים למקם אותם במקומות שונים,
10:25
orientמִזְרָח them in differentשונה placesמקומות.
219
607000
2000
ולהציב אותם במקומות אחרים.
10:27
We can use lessפָּחוּת or more of them.
220
609000
2000
אנחנו יכולים להשתמש ביותר או פחות מהם.
10:29
And when we do that
221
611000
2000
וכאשר אנחנו עושים זאת
10:31
what we discoveredגילה is that the circuitryמעגלים does changeשינוי.
222
613000
3000
מה שגילינו שהחיווט משתנה.
10:34
But the patternתַבְנִית of how the circuitryמעגלים is designedמְעוּצָב does not.
223
616000
7000
אבל התבנית שבה החיווט תוכנן לא משתנה.
10:41
So, the fabricבד of the brainמוֹחַ,
224
623000
2000
כך שהמארג של המוח,
10:43
even thoughאם כי your brainמוֹחַ mayמאי be smallerקטן יותר, biggerגדול יותר,
225
625000
2000
אפילו שהמוח שלך יכול להיות גדול יותר או קטן יותר,
10:45
it mayמאי have differentשונה typesסוגים of neuronsנוירונים,
226
627000
3000
יכול להכיל סוגים שונים של נוירונים,
10:48
differentשונה morphologiesמורפולוגיות of neuronsנוירונים,
227
630000
2000
ומבנה שונה של הנוירונים,
10:50
we actuallyלמעשה do shareלַחֲלוֹק
228
632000
3000
אנחנו בעצם כן חולקים
10:53
the sameאותו fabricבד.
229
635000
2000
את אותו מארג.
10:55
And we think this is species-specificמינים ספציפיים,
230
637000
2000
ואנחנו חושבים שזה ספציפי לזן ביולוגי,
10:57
whichאיזה meansאומר that that could explainלהסביר
231
639000
2000
שהמשמעות היא, שזה יכול להסביר
10:59
why we can't communicateלתקשר acrossלְרוֹחָב speciesמִין.
232
641000
2000
למה אנחנו לא יכולים לתקשר בין זנים שונים.
11:01
So, let's switchהחלף it on. But to do it, what you have to do
233
643000
3000
אז בו נדליק אותו. אבל כדי לבצע זאת צריך
11:04
is you have to make this come aliveבחיים.
234
646000
2000
לגרום לו להתעורר לחיים.
11:06
We make it come aliveבחיים
235
648000
2000
אנחנו גורמים לו להתעורר לחיים
11:08
with equationsמשוואות, a lot of mathematicsמָתֵימָטִיקָה.
236
650000
2000
באמצעות נוסחאות, הרבה מתמטיקה.
11:10
And, in factעוּבדָה, the equationsמשוואות that make neuronsנוירונים into electricalחַשׁמַלִי generatorsגנרטורים
237
652000
4000
ובעצם הנוסחה שגורמת לנוירונים להפוך לייצרני אנרגיה
11:14
were discoveredגילה by two Cambridgeקיימברידג ' Nobelנובל Laureatesזוכי הפרס.
238
656000
3000
התגלתה ע"י שני זוכי פרס נובל מקמבריג'.
11:17
So, we have the mathematicsמָתֵימָטִיקָה to make neuronsנוירונים come aliveבחיים.
239
659000
3000
אז יש לנו את הידע המתמטי שהופך את הנוירונים לחיים.
11:20
We alsoגַם have the mathematicsמָתֵימָטִיקָה to describeלְתַאֵר
240
662000
2000
יש לנו גם את הידע המתמטי לתאר
11:22
how neuronsנוירונים collectלאסוף informationמֵידָע,
241
664000
3000
איך נוירונים אוספים אינפורמציה,
11:25
and how they createלִיצוֹר a little lightningבָּרָק boltבְּרִיחַ
242
667000
3000
ואיך הם יוצרים ברק קטן
11:28
to communicateלתקשר with eachכל אחד other.
243
670000
2000
כדי לתקשר אחד עם השני.
11:30
And when they get to the synapseסינפסה,
244
672000
2000
וכאשר הם מגיעים לסינפסה,
11:32
what they do is they effectivelyביעילות,
245
674000
2000
מה שהם עושים באופן מעשי,
11:34
literallyפשוטו כמשמעו, shockהֶלֶם the synapseסינפסה.
246
676000
3000
זה לחשמל את הסינפסה.
11:37
It's like electricalחַשׁמַלִי shockהֶלֶם
247
679000
2000
זה כמו מכת חשמל
11:39
that releasesמשחרר the chemicalsכימיקלים from these synapsesסינפסות.
248
681000
3000
שמשחררת כימיקלים מהסינפסה.
11:42
And we'veיש לנו got the mathematicsמָתֵימָטִיקָה to describeלְתַאֵר this processתהליך.
249
684000
3000
ויש לנו את התהליך המתמטי המאפיין את התהליך.
11:45
So we can describeלְתַאֵר the communicationתִקשׁוֹרֶת betweenבֵּין the neuronsנוירונים.
250
687000
4000
כך שאנו יכולים לתאר את התקשורת בין הנוירונים.
11:49
There literallyפשוטו כמשמעו are only a handfulקוֹמֶץ
251
691000
3000
קיימים למעשה רק קומץ
11:52
of equationsמשוואות that you need to simulateלְחַקוֹת
252
694000
2000
של נוסחאות שצריך כדי לדמות
11:54
the activityפעילות of the neocortexניוקורטקס.
253
696000
2000
את הפעילות של הניאוקורטקס.
11:56
But what you do need is a very bigגָדוֹל computerמַחשֵׁב.
254
698000
3000
אבל מה שאתה צריך זה מחשב גדול מאד.
11:59
And in factעוּבדָה you need one laptopמחשב נייד
255
701000
2000
ובעצם אתה צריך מחשב נייד אחד
12:01
to do all the calculationsחישובים just for one neuronעֲצָבוֹן.
256
703000
3000
רק כדי לבצע חישוב של נוירון אחד.
12:04
So you need 10,000 laptopsמחשבים ניידים.
257
706000
2000
אז אתה צריך 10,000 מחשבים ניידים.
12:06
So where do you go? You go to IBMיבמ,
258
708000
2000
אז לאן אתה הולך? אתה הולך ל-IBM,
12:08
and you get a supercomputerמחשב, because they know how to take
259
710000
2000
ואתה מקבל "מחשב על" מכיוון שהם יודעים איך לקחת
12:10
10,000 laptopsמחשבים ניידים and put it into the sizeגודל of a refrigeratorמְקָרֵר.
260
712000
4000
10,000 מחשבים ניידים ולשים אותם ביחד בגודל של מקרר.
12:14
So now we have this Blueכָּחוֹל Geneגֵן supercomputerמחשב.
261
716000
3000
אז כעת יש לנו את מחשב העל "הגן הכחול".
12:17
We can loadלִטעוֹן up all the neuronsנוירונים,
262
719000
2000
אנחנו יכולים לעלות לתוכו את כל הנוירונים,
12:19
eachכל אחד one on to its processorמעבד,
263
721000
2000
כל אחד למעבד עצמאי משלו,
12:21
and fireאֵשׁ it up, and see what happensקורה.
264
723000
4000
להדליק אותו ולראות מה קורה.
12:25
Take the magicקֶסֶם carpetשָׁטִיחַ for a rideנסיעה.
265
727000
3000
לקחת את השטיח המעופף לטיסה.
12:28
Here we activateלְהַפְעִיל it. And this givesנותן the first glimpseהֲצָצָה
266
730000
3000
כאן אנחנו מפעילים אותו, וזה ההצצה הראשונה
12:31
of what is happeningמתרחש in your brainמוֹחַ
267
733000
2000
על מה שקורה במוח שלך
12:33
when there is a stimulationגְרִיָה.
268
735000
2000
כאשר יש גירוי.
12:35
It's the first viewנוף.
269
737000
2000
זה המבט הראשון.
12:37
Now, when you look at that the first time, you think,
270
739000
2000
כעת, כאשר אתה מסתכל בפעם הראשונה, אתה חושב,
12:39
"My god. How is realityמְצִיאוּת comingמגיע out of that?"
271
741000
5000
"אלוהים איך המציאות יוצאת מדבר כזה?"
12:44
But, in factעוּבדָה, you can startהַתחָלָה,
272
746000
3000
אבל, העובדה היא שאתה יכול להתחיל,
12:47
even thoughאם כי we haven'tלא trainedמְאוּמָן this neocorticalניאו-קורטיקאי columnטור
273
749000
4000
אפילו שאנחנו לא אימנו את העמודה של המוח
12:51
to createלִיצוֹר a specificספֵּצִיפִי realityמְצִיאוּת.
274
753000
2000
לייצור מציאות ספציפית.
12:53
But we can askלִשְׁאוֹל, "Where is the roseורד?"
275
755000
4000
אבל אנחנו יכולים לשאול "איפה השושנה?"
12:57
We can askלִשְׁאוֹל, "Where is it insideבְּתוֹך,
276
759000
2000
אנחנו יכולים לשאול "איפה זה בפנים,
12:59
if we stimulateלְעוֹרֵר it with a pictureתְמוּנָה?"
277
761000
3000
אם אנחנו מגרים אותו עם תמונה?"
13:02
Where is it insideבְּתוֹך the neocortexניוקורטקס?
278
764000
2000
איפה זה בפנים בתוך הניאוקורטקס?
13:04
Ultimatelyבסופו של דבר it's got to be there if we stimulatedמוּמרָץ it with it.
279
766000
4000
באופן ודאי זה צריך להיות שם אם אנחנו מגרים אותו עם זה.
13:08
So, the way that we can look at that
280
770000
2000
אז, הדרך שאנו יכולים להסתכל על זה
13:10
is to ignoreלהתעלם the neuronsנוירונים, ignoreלהתעלם the synapsesסינפסות,
281
772000
3000
זה להתעלם מהנוירונים ולהתעלם מהסינפסות,
13:13
and look just at the rawגלם electricalחַשׁמַלִי activityפעילות.
282
775000
2000
ולהסתכל רק על הפעילות החשמלית הגסה.
13:15
Because that is what it's creatingיוצר.
283
777000
2000
מכיוון שזה מה שנוצר.
13:17
It's creatingיוצר electricalחַשׁמַלִי patternsדפוסי.
284
779000
2000
זה יוצר תבנית של דפוסים חשמליים.
13:19
So when we did this,
285
781000
2000
אז כאשר עשינו זאת,
13:21
we indeedאכן, for the first time,
286
783000
2000
אנחנו באמת, בפעם הראשונה,
13:23
saw these ghost-likeכמו רוח רפאים structuresמבנים:
287
785000
3000
ראינו את המבנים דמויי רוחות הרפאים:
13:26
electricalחַשׁמַלִי objectsחפצים appearingמופיע
288
788000
3000
אוביקטים חשמליים מופיעים
13:29
withinבְּתוֹך the neocorticalניאו-קורטיקאי columnטור.
289
791000
3000
בתוך עמודת המוח.
13:32
And it's these electricalחַשׁמַלִי objectsחפצים
290
794000
3000
ואלו האובייקטים החשמליים
13:35
that are holdingהַחזָקָה all the informationמֵידָע about
291
797000
3000
שמחזיקים את כל האינפורמציה על
13:38
whateverמה שתגיד stimulatedמוּמרָץ it.
292
800000
3000
מה שמגרה אותו.
13:41
And then when we zoomedהתקרב into this,
293
803000
2000
ואז כאשר העמקנו פנימה לתוכו,
13:43
it's like a veritableמַמָשִׁי universeעוֹלָם.
294
805000
4000
זה כמו עולם מציאותי.
13:47
So the nextהַבָּא stepשלב
295
809000
2000
אז הצעד הבא
13:49
is just to take these brainמוֹחַ coordinatesקואורדינטות
296
811000
4000
הוא רק לקחת את הקואורדינטות במוח
13:53
and to projectפּרוֹיֶקט them into perceptualתְפִיסָתִי spaceמֶרחָב.
297
815000
4000
ולהקרין אותם על המרחב התפיסתי.
13:57
And if you do that,
298
819000
2000
ואם אתה עושה את זה,
13:59
you will be ableיכול to stepשלב insideבְּתוֹך
299
821000
2000
אתה תהיה מסוגל לצעוד פנימה
14:01
the realityמְצִיאוּת that is createdשנוצר
300
823000
2000
למציאות שנוצרה
14:03
by this machineמְכוֹנָה,
301
825000
2000
באמצעות המכשיר הזה,
14:05
by this pieceלְחַבֵּר of the brainמוֹחַ.
302
827000
3000
באמצעות החלק הזה של המוח.
14:08
So, in summaryסיכום,
303
830000
2000
כך שלסיכום,
14:10
I think that the universeעוֹלָם mayמאי have --
304
832000
2000
אני חושב שהיקום ייתכן -
14:12
it's possibleאפשרי --
305
834000
2000
זה אפשרי -
14:14
evolvedהתפתח a brainמוֹחַ to see itselfעצמה,
306
836000
3000
שייצר מוח כדי לראות את עצמו,
14:17
whichאיזה mayמאי be a first stepשלב in becomingהִתהַוּוּת awareמוּדָע of itselfעצמה.
307
839000
5000
שאולי זו הפעם הצעד הראשון להיות מודע לעצמו.
14:22
There is a lot more to do to testמִבְחָן these theoriesתיאוריות,
308
844000
2000
יש עוד הרבה מה לעשות לבדוק את התיאוריות האלה,
14:24
and to testמִבְחָן any other theoriesתיאוריות.
309
846000
3000
ולבדוק תיאוריות אחרות.
14:27
But I hopeלְקַווֹת that you are at leastהכי פחות partlyחֶלקִית convincedמְשׁוּכנָע
310
849000
3000
אבל אני מקווה שאתם לפחות משוכנעים חלקית
14:30
that it is not impossibleבלתי אפשרי to buildלִבנוֹת a brainמוֹחַ.
311
852000
3000
שזה לא בלתי אפשרי לבנות מוח.
14:33
We can do it withinבְּתוֹך 10 yearsשנים,
312
855000
2000
אנחנו יכולים לעשות את זה בתוך 10 שנים,
14:35
and if we do succeedלהצליח,
313
857000
2000
ואם אנחנו נצליח,
14:37
we will sendלִשְׁלוֹחַ to TEDTED, in 10 yearsשנים,
314
859000
2000
אנחנו נשלח לTED בעוד 10 שנים,
14:39
a hologramהולוגרמה to talk to you. Thank you.
315
861000
3000
הלוגרמה שתדבר אליכם, תודה רבה.
14:42
(Applauseתְשׁוּאוֹת)
316
864000
6000
(מחיאות כפיים)
Translated by Gad Amit
Reviewed by Ido Dekkers

▲Back to top

ABOUT THE SPEAKER
Henry Markram - Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time.

Why you should listen

In the microscopic, yet-uncharted circuitry of the cortex, Henry Markram is perhaps the most ambitious -- and our most promising -- frontiersman. Backed by the extraordinary power of the IBM Blue Gene supercomputing architecture, which can perform hundreds of trillions of calculations per second, he's using complex models to precisely simulate the neocortical column (and its tens of millions of neural connections) in 3D.

Though the aim of Blue Brain research is mainly biomedical, it has been edging up on some deep, contentious philosophical questions about the mind -- "Can a robot think?" and "Can consciousness be reduced to mechanical components?" -- the consequence of which Markram is well aware: Asked by Seed Magazine what a simulation of a full brain might do, he answered, "Everything. I mean everything" -- with a grin.

Now, with a successful proof-of-concept for simulation in hand (the project's first phase was completed in 2007), Markram is looking toward a future where brains might be modeled even down to the molecular and genetic level. Computing power marching rightward and up along the graph of Moore's Law, Markram is sure to be at the forefront as answers to the mysteries of cognition emerge.

More profile about the speaker
Henry Markram | Speaker | TED.com