ABOUT THE SPEAKER
Dan Dennett - Philosopher, cognitive scientist
Dan Dennett thinks that human consciousness and free will are the result of physical processes.

Why you should listen

One of our most important living philosophers, Dan Dennett is best known for his provocative and controversial arguments that human consciousness and free will are the result of physical processes in the brain. He argues that the brain's computational circuitry fools us into thinking we know more than we do, and that what we call consciousness — isn't. His 2003 book "Freedom Evolves" explores how our brains evolved to give us -- and only us -- the kind of freedom that matters, while 2006's "Breaking the Spell" examines belief through the lens of biology.

This mind-shifting perspective on the mind itself has distinguished Dennett's career as a philosopher and cognitive scientist. And while the philosophy community has never quite known what to make of Dennett (he defies easy categorization, and refuses to affiliate himself with accepted schools of thought), his computational approach to understanding the brain has made him, as Edge's John Brockman writes, “the philosopher of choice of the AI community.”

“It's tempting to say that Dennett has never met a robot he didn't like, and that what he likes most about them is that they are philosophical experiments,” Harry Blume wrote in the Atlantic Monthly in 1998. “To the question of whether machines can attain high-order intelligence, Dennett makes this provocative answer: ‘The best reason for believing that robots might some day become conscious is that we human beings are conscious, and we are a sort of robot ourselves.'"

In recent years, Dennett has become outspoken in his atheism, and his 2006 book Breaking the Spell calls for religion to be studied through the scientific lens of evolutionary biology. Dennett regards religion as a natural -- rather than supernatural -- phenomenon, and urges schools to break the taboo against empirical examination of religion. He argues that religion's influence over human behavior is precisely what makes gaining a rational understanding of it so necessary: “If we don't understand religion, we're going to miss our chance to improve the world in the 21st century.”

Dennett's landmark books include The Mind's I, co-edited with Douglas Hofstaedter, Consciousness Explained, and Darwin's Dangerous Idea. Read an excerpt from his 2013 book, Intuition Pumps, in the Guardian >>

More profile about the speaker
Dan Dennett | Speaker | TED.com
TED2009

Dan Dennett: Cute, sexy, sweet, funny

דן דנט: חמוד, סקסי, מתוק, מצחיק

Filmed:
3,553,924 views

מדוע התינוקות חמודים? מדוע העוגה מתוקה? הפילוסוף דן דנט מביא תשובות בלתי-צפויות, בחשפו את שיקול הדעת האבולוציוני, המנוגד להגיון, בכל הנוגע לדברים חמודים, מתוקים וסקסיים (וגם תיאוריה חדשה של מתיו הרלי, המסבירה מדוע הבדיחות מצחיקות).
- Philosopher, cognitive scientist
Dan Dennett thinks that human consciousness and free will are the result of physical processes. Full bio

Double-click the English transcript below to play the video.

00:12
I’m going around the worldעוֹלָם givingמַתָן talksשיחות about Darwinדרווין,
0
0
3000
אני מסתובב בעולם
ומרצה על דרווין,
ובד"כ, מה שאני מדבר עליו
00:15
and usuallyבְּדֶרֶך כְּלַל what I’m talkingשִׂיחָה about
1
3000
2000
הוא היפוך-ההגיון המשונה של דרווין.
00:17
is Darwinדרווין’s strangeמוּזָר inversionהִתְהַפְּכוּת of reasoningהַנמָקָה.
2
5000
3000
00:20
Now that titleכותרת, that phraseמִשׁפָּט, comesבא from a criticמְבַקֵר, an earlyמוקדם criticמְבַקֵר,
3
8000
5000
כותרת זו, ביטוי זה,
הם מאת מבקר,
מבקר מוקדם אחד,
00:25
and this is a passageמַעֲבָר that I just love, and would like to readלקרוא for you.
4
13000
4000
וזהו קטע שאני ממש אוהב,
ומעוניין להקריא לכם.
00:29
"In the theoryתֵאוֹרִיָה with whichאיזה we have to dealעִסקָה, Absoluteמוּחלָט Ignoranceבּוּרוּת is the artificerאומן;
5
17000
5000
"בתיאוריה עימה עלינו להתמודד,
הכלי שלנו הוא בורות מוחלטת;
00:34
so that we mayמאי enunciateלְבַטֵא as the fundamentalבסיסי principleעִקָרוֹן of the wholeכֹּל systemמערכת,
6
22000
5000
"כך שאם לבטא את
עקרון היסוד של כל המערכת,
00:39
that, in orderלהזמין to make a perfectמושלם and beautifulיפה machineמְכוֹנָה,
7
27000
3000
"הרי שכדי ליצור
מכונה מושלמת ויפהפיה,
00:42
it is not requisiteנָחוּץ to know how to make it.
8
30000
3000
"אין צורך לדעת איך ליצור אותה.
00:45
This propositionהצעה will be foundמצאתי on carefulזָהִיר examinationבְּדִיקָה to expressאֶקְסְפּרֶס,
9
33000
4000
"בבחינה מדוקדקת יימצא
כי הנחה זו מביעה באופן תמציתי
00:49
in condensedמְעוּבֶּה formטופס, the essentialחִיוּנִי purportכַּוָנָה of the Theoryתֵאוֹרִיָה,
10
37000
4000
"את מטרתה המהותית של התיאוריה,
00:53
and to expressאֶקְסְפּרֶס in a fewמְעַטִים wordsמילים all Mrאדון. Darwinדרווין’s meaningמַשְׁמָעוּת;
11
41000
4000
"וכי היא מביעה במספר מלים
את כל כוונתו של מר דרווין,
00:57
who, by a strangeמוּזָר inversionהִתְהַפְּכוּת of reasoningהַנמָקָה,
12
45000
4000
"שבהיפוך משונה של ההיגיון,
01:01
seemsנראה to think Absoluteמוּחלָט Ignoranceבּוּרוּת fullyלְגַמרֵי qualifiedמוסמך
13
49000
3000
"סבור כנראה
שהבורות המוחלטת מתאימה לחלוטין
01:04
to take the placeמקום of Absoluteמוּחלָט Wisdomחוכמה in the achievementsהישגים of creativeיְצִירָתִי skillמְיוּמָנוּת."
14
52000
6000
"לתפוס את מקום החוכמה המוחלטת
בבחינת הישגי המיומנות היצירתית."
[צחוק]
01:10
Exactlyבְּדִיוּק. Exactlyבְּדִיוּק. And it is a strangeמוּזָר inversionהִתְהַפְּכוּת.
15
58000
7000
בדיוק כך. [צחוק]
בדיוק כך.
וזהו אכן היפוך משונה.
01:17
A creationistבריאתן pamphletקוּנטרֵס has this wonderfulנִפלָא pageעמוד in it:
16
65000
4000
בחוברת בּריאַתָנית אחת
נכלל העמוד הנפלא הזה:
01:21
"Testמִבְחָן Two:
17
69000
2000
"בחינה מס' 2:
"האם ידוע לך על איזה מבנה
שלא היה לו בונה? כן/לא."
01:23
Do you know of any buildingבִּניָן that didnלא’t have a builderבּוֹנֶה? Yes/No.
18
71000
4000
[צחוק]
01:27
Do you know of any paintingצִיוּר that didnלא’t have a painterצייר? Yes/No.
19
75000
3000
"האם ידוע לך על איזה ציור
שלא היה לו צייר? כן/לא.
01:30
Do you know of any carאוטו that didnלא’t have a makerיַצרָן? Yes/No.
20
78000
4000
"האם ידוע לך על איזה מכונית
שלא היה לה יצרן? כן/לא.
"אם ענית 'כן' על איזו שאלה לעיל,
פרט והרחב." א-הא!
01:34
If you answeredענה 'Yes''כן' for any of the aboveמֵעַל, give detailsפרטים."
21
82000
5000
01:39
A-haא-חה! I mean, it really is a strangeמוּזָר inversionהִתְהַפְּכוּת of reasoningהַנמָקָה.
22
87000
6000
[צחוק]
זהו אכן
היפוך משונה של ההיגיון.
01:45
You would have thought it standsעומד to reasonסיבה
23
93000
4000
אולי הגיוני לחשוב
שתכנון מחייב מתכנן תבוני.
01:49
that designלְעַצֵב requiresדורש an intelligentאִינְטֶלִיגֶנְטִי designerמְעַצֵב.
24
97000
4000
01:53
But Darwinדרווין showsמופעים that it’s just falseשֶׁקֶר.
25
101000
2000
אבל דרווין הוכיח שזה פשוט שיקרי.
01:55
Todayהיום, thoughאם כי, I’m going to talk about Darwinדרווין’s other strangeמוּזָר inversionהִתְהַפְּכוּת,
26
103000
5000
אך היום אדבר על
היפוך משונה אחר של דרווין,
02:00
whichאיזה is equallyבאופן שווה puzzlingתמוהה at first, but in some waysדרכים just as importantחָשׁוּב.
27
108000
6000
שגם הוא בתחילה מתמיה
בה-במידה,
אך במובנים מסוימים
חשוב לא פחות.
הגיוני שאנו אוהבים עוגות שוקולד,
כי הן מתוקות.
02:06
It standsעומד to reasonסיבה that we love chocolateשׁוֹקוֹלַד cakeעוגה because it is sweetמתוק.
28
114000
7000
02:13
Guys go for girlsבנות like this because they are sexyסֶקסִי.
29
121000
6000
בנים מתחילים עם בנות כאלה,
כי הן סקסיות.
02:19
We adoreלְהַעֲרִיץ babiesתינוקות because they’reמִחָדָשׁ so cuteחָמוּד.
30
127000
4000
אנו מתים על תינוקות,
כי הם כה חמודים.
02:23
And, of courseקוּרס, we are amusedמשועשע by jokesבדיחות because they are funnyמצחיק.
31
131000
9000
וכמובן, בדיחות משעשעות אותנו,
כי הן מצחיקות. [צחוק]
02:32
This is all backwardsאֲחוֹרָה. It is. And Darwinדרווין showsמופעים us why.
32
140000
7000
כל זה הפוך. באמת.
ודרווין מראה לנו מדוע.
02:39
Let’s startהַתחָלָה with sweetמתוק. Our sweetמתוק toothשן is basicallyבעיקרון an evolvedהתפתח sugarסוכר detectorגַלַאִי,
33
147000
8000
נתחיל עם המתוק. משיכתנו למתוק
היא בעצם גלאי-סוכר שפיתחנו,
02:47
because sugarסוכר is highגָבוֹהַ energyאֵנֶרְגִיָה, and it’s just been wiredקווית up to the prefererמעדיף,
34
155000
4000
כי הסוכר עתיר-אנרגיה,
וזה מחווט כך אצל האדם המעדיף,
02:51
to put it very crudelyבגסות, and that’s why we like sugarסוכר.
35
159000
5000
אם לנסח זאת בצורה גסה,
ולכן אנו אוהבים סוכר.
02:56
Honeyדבש is sweetמתוק because we like it, not "we like it because honeyדבש is sweetמתוק."
36
164000
7000
הדבש מתוק כי אנו אוהבים אותו,
ולא "אנו אוהבים אותו
כי הדבש מתוק."
03:03
There’s nothing intrinsicallyבאופן מהותי sweetמתוק about honeyדבש.
37
171000
5000
מבחינה מהותית
אין שום דבר מתוק בדבש.
אם תבחנו מולקולות גלוקוזה
עד שעיניכם תכהינה,
03:08
If you lookedהביט at glucoseגלוקוז moleculesמולקולות tillעד you were blindסומא,
38
176000
4000
לא תגלו מדוע טעמן מתוק.
03:12
you wouldnResp’t see why they tastedטעים sweetמתוק.
39
180000
3000
03:15
You have to look in our brainsמוֹחַ to understandמבין why they’reמִחָדָשׁ sweetמתוק.
40
183000
6000
צריך לבחון את מוחנו
כדי להבין מדוע הן מתוקות.
03:21
So if you think first there was sweetnessמְתִיקוּת,
41
189000
2000
אז אם חשבתם
שקודם היתה המתיקות,
03:23
and then we evolvedהתפתח to like sweetnessמְתִיקוּת,
42
191000
2000
ואחר התפתחנו לאהוב מתיקות,
03:25
you’veיש got it backwardsאֲחוֹרָה; that’s just wrongלא בסדר. It’s the other way roundעָגוֹל.
43
193000
4000
הרי שבלבלתם את הסדר;
זה לא נכון.
הסדר הוא הפוך.
03:29
Sweetnessמְתִיקוּת was bornנוֹלָד with the wiringתִיוּל whichאיזה evolvedהתפתח.
44
197000
4000
המתיקות נולדה יחד עם החיווט, שהתפתח.
03:33
And there’s nothing intrinsicallyבאופן מהותי sexyסֶקסִי about these youngצָעִיר ladiesנשים.
45
201000
4000
ומהותית, אין כל דבר סקסי
באותן גברות צעירות.
03:37
And it’s a good thing that there isnJ States’t, because if there were,
46
205000
5000
וטוב שכך,
כי אילו היה כזה,
לאמא-טבע היתה בעיה:
03:42
then Motherאִמָא Natureטֶבַע would have a problemבְּעָיָה:
47
210000
4000
איך לגרום לשימפנזים להזדווג?
03:46
How on earthכדור הארץ do you get chimpsשימפנזים to mateבן זוג?
48
214000
5000
[צחוק]
03:53
Now you mightאולי think, ahאה, there’s a solutionפִּתָרוֹן: hallucinationsהזיות.
49
221000
8000
אולי תחשבו: אה!
יש פתרון. פנטזיות!
[צחוק]
04:01
That would be one way of doing it, but there’s a quickerמהר יותר way.
50
229000
4000
זו אפשרות,
אך יש דרך מהירה יותר:
04:05
Just wireחוּט the chimpsשימפנזים up to love that look,
51
233000
3000
פשוט לחווט את השימפנזים
לאהוב את המראה המסוים הזה,
04:08
and apparentlyככל הנראה they do.
52
236000
3000
[צחוק]
ומסתבר שהם אכן אוהבים אותו.
04:11
That’s all there is to it.
53
239000
4000
זה כל הסוד.
04:16
Over sixשֵׁשׁ millionמִילִיוֹן yearsשנים, we and the chimpsשימפנזים evolvedהתפתח our differentשונה waysדרכים.
54
244000
4000
במשך מעל 6 מליון שנה,
אנו והשימפנזים התפתחנו בכיוונים שונים.
04:20
We becameהפכתי bald-bodiedקירח, oddlyבְּאֹפֶן מוּזַר enoughמספיק;
55
248000
3000
גופינו נעשו חלקים משיער,
כמה מוזר;
04:23
for one reasonסיבה or anotherאַחֵר, they didnלא’t.
56
251000
4000
ומשום מה, גופיהם לא.
04:27
If we hadnhadn’t, then probablyכנראה this would be the heightגוֹבַה of sexinessמִינִיוּת.
57
255000
12000
אילולא נעשינו כאלה,
זה היה ודאי שיא הסקסיות.
[צחוק]
04:39
Our sweetמתוק toothשן is an evolvedהתפתח and instinctualאינסטינקטואלי preferenceהַעֲדָפָה for high-energyאנרגיה גבוהה foodמזון.
58
267000
5000
משיכתנו למתוק
היא העדפה יצרית מפותחת
למזון עתיר-אנרגיה.
04:44
It wasnלא’t designedמְעוּצָב for chocolateשׁוֹקוֹלַד cakeעוגה.
59
272000
3000
היא לא עוצבה להעדיף עוגות שוקולד.
04:47
Chocolateשוקולד cakeעוגה is a supernormalסופר-נורמלי stimulusגירוי.
60
275000
3000
עוגת שוקולד היא גירוי-על.
04:50
The termטווח is owedחייב to Nikoניקו Tinbergenטינברגן,
61
278000
2000
אני חב מונח זה לניקו טינברגן,
04:52
who did his famousמפורסם experimentsניסויים with gullsשחפים,
62
280000
2000
שערך את הניסוי המפורסם שלו
עם שחפים,
04:54
where he foundמצאתי that that orangeתפוז spotלְזַהוֹת on the gullשַׁחַף’s beakמַקוֹר --
63
282000
4000
שבו מצא שהנקודה הכתומה
על מקורו של השחף -
04:58
if he madeעָשׂוּי a biggerגדול יותר, orangerאורנג'ר spotלְזַהוֹת
64
286000
2000
שכאשר הוא הגדיל והדגיש אותה,
05:00
the gullשַׁחַף chicksאפרוחים would peckפֵּק at it even harderקשה יותר.
65
288000
2000
גוזלי השחף ניקרו אותה חזק יותר.
05:02
It was a hyperstimulusהיפרסטמולוס for them, and they lovedאהוב it.
66
290000
3000
זה היה גירוי-על עבורם,
והם אהבו זאת.
05:05
What we see with, say, chocolateשׁוֹקוֹלַד cakeעוגה
67
293000
4000
כשמדובר בעוגות שוקולד, למשל,
אנו רואים
שזהו גירוי-על
שמשתעשע עם החיווט שלנו.
05:09
is it’s a supernormalסופר-נורמלי stimulusגירוי to tweakלִצבּוֹט our designלְעַצֵב wiringתִיוּל.
68
297000
5000
05:14
And there are lots of supernormalסופר-נורמלי stimuliגירויים; chocolateשׁוֹקוֹלַד cakeעוגה is one.
69
302000
3000
ויש המון גירויי-על;
עוגת שוקולד היא אחד מהם.
05:17
There's lots of supernormalסופר-נורמלי stimuliגירויים for sexinessמִינִיוּת.
70
305000
3000
יש המון גירויי-על לסקסיות.
05:20
And there's even supernormalסופר-נורמלי stimuliגירויים for cutenessנֶחְמָדוּת. Here’s a prettyיפה good exampleדוגמא.
71
308000
6000
ויש אפילו גירויי-על לנחמדות.
הנה דוגמה טובה.
05:26
It’s importantחָשׁוּב that we love babiesתינוקות, and that we not be put off by, say, messyמבולגן diapersחִתוּלִים.
72
314000
5000
חשוב שנאהב תינוקות
ולא ניגעל מחיתולים מלוכלכים, למשל.
05:31
So babiesתינוקות have to attractלִמְשׁוֹך our affectionאַהֲבָה and our nurturingמטפח, and they do.
73
319000
6000
על התינוקות למשוך
את אהבתנו וטיפולנו,
וזה אכן כך.
05:37
And, by the way, a recentלאחרונה studyלימוד showsמופעים that mothersאמהות
74
325000
4000
ודרך אגב, מחקר עדכני מראה
שאמהות מעדיפות את ריח
החיתול המלוכלך של תינוקן.
05:41
preferלְהַעֲדִיף the smellרֵיחַ of the dirtyמְלוּכלָך diapersחִתוּלִים of theirשֶׁלָהֶם ownשֶׁלוֹ babyתִינוֹק.
75
329000
3000
05:44
So natureטֶבַע worksעובד on manyרב levelsרמות here.
76
332000
3000
אז הטבע פועל כאן בהרבה מישורים.
05:47
But now, if babiesתינוקות didnלא’t look the way they do -- if babiesתינוקות lookedהביט like this,
77
335000
5000
אבל אילו התינוקות לא נראו
כפי שהם נראים, אילו נראו כך,
05:52
that’s what we would find adorableמקסים, that’s what we would find --
78
340000
4000
זה מה שהיה נראה לנו מקסים;
זה היה... היינו חושבים: "אלוהים,
אני כל-כך רוצה לחבק את זה."
05:56
we would think, oh my goodnessטוּב לֵב, do I ever want to hugלְחַבֵּק that.
79
344000
6000
זהו ההיפוך המשונה.
06:02
This is the strangeמוּזָר inversionהִתְהַפְּכוּת.
80
350000
2000
ולבסוף, מה עם מה שמצחיק?
06:04
Well now, finallyסוף כל סוף what about funnyמצחיק. My answerתשובה is, it’s the sameאותו storyכַּתָבָה, the sameאותו storyכַּתָבָה.
81
352000
7000
תשובתי היא: זה אותו הסיפור.
06:11
This is the hardקָשֶׁה one, the one that isnJ States’t obviousברור. That’s why I leaveלעזוב it to the endסוֹף.
82
359000
4000
זה החלק הקשה והלא-ברור,
לכן אני משאיר את זה לסוף
ולא אוכל לומר על זה הרבה.
06:15
And I wonזכית’t be ableיכול to say too much about it.
83
363000
2000
06:17
But you have to think evolutionarilyאבולוציה, you have to think, what hardקָשֶׁה jobעבודה that has to be doneבוצע --
84
365000
6000
אך עליכם לחשוב בגישה אבולוציונית:
מה העבודה הקשה שצריך לעשות --
06:23
it’s dirtyמְלוּכלָך work, somebodyמִישֶׁהוּ’s got to do it --
85
371000
3000
"עבודה מלוכלכת שמישהו צריך לעשותה"--
שהיא כה חשובה, שהיא מצדיקה
06:26
is so importantחָשׁוּב to give us suchכגון a powerfulחָזָק, inbuiltמובנה rewardפרס for it when we succeedלהצליח.
86
374000
8000
גמול מוכלל ורב-עוצמה כזה,
כשאנו מצליחים בה?
אני חושב שמצאנו את התשובה,
אני וכמה מעמיתי.
06:34
Now, I think we'veיש לנו foundמצאתי the answerתשובה -- I and a fewמְעַטִים of my colleaguesעמיתים.
87
382000
4000
06:38
It’s a neuralעֲצַבִּי systemמערכת that’s wiredקווית up to rewardפרס the brainמוֹחַ
88
386000
4000
זוהי מערכת עיצבית המחווטת
כדי לתגמל את המוח
06:42
for doing a grubbyמְלוּכלָך clericalמִשׂרָדִי jobעבודה.
89
390000
5000
על העבודה הפקידותית המלוכלכת שלו.
06:48
Our bumperפָּגוֹשׁ stickerמַדבֵּקָה for this viewנוף is
90
396000
4000
מדבקת-הפגוש שלנו,
שמבטאת השקפה זו, אומרת:
שזאת "חדוות הדיבוג".
06:52
that this is the joyשִׂמְחָה of debuggingאיתור שגיאות.
91
400000
3000
06:55
Now I’m not going to have time to spellלַחַשׁ it all out,
92
403000
2000
אין לי זמן לפרט הכל,
06:57
but I’llll just say that only some kindsמיני of debuggingאיתור שגיאות get the rewardפרס.
93
405000
5000
אך רק אומר שרק סוגי דיבוג מסוימים
זוכים לגמול זה.
ושאנו משתמשים בהומור
כבמעין חיישן עיצבי-מדעי
07:02
And what we’reמִחָדָשׁ doing is we’reמִחָדָשׁ usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני humorהוּמוֹר as a sortסוג of neuroscientificמדעי המוח probeבְּדִיקָה
94
410000
8000
ע"י הפעלת ההומור וכיבויו,
ע"י סיבוב כפתור הבדיחה -
07:10
by switchingמיתוג humorהוּמוֹר on and off, by turningחֲרִיטָה the knobכַּפתוֹר on a jokeבדיחה --
95
418000
4000
"עכשיו זה לא מצחיק...
עכשיו זה מצחיק יותר...
07:14
now it’s not funnyמצחיק ... oh, now it’s funnierמצחיק יותר ...
96
422000
2000
07:16
now we’llll turnלפנות a little bitbit more ... now it’s not funnyמצחיק --
97
424000
2000
"נגביר כעת מעט יותר...
עכשיו זה לא מצחיק..."
07:18
in this way, we can actuallyלמעשה learnלִלמוֹד something
98
426000
3000
בדרך זו אנו ממש יכולים ללמוד משהו
על הארכיטקטורה של המוח,
07:21
about the architectureארכיטקטורה of the brainמוֹחַ,
99
429000
2000
07:23
the functionalפוּנקצִיוֹנָלִי architectureארכיטקטורה of the brainמוֹחַ.
100
431000
2000
המבנה התפקודי של המוח.
07:25
Matthewמתיו Hurleyהארלי is the first authorמְחַבֵּר of this. We call it the Hurleyהארלי Modelדֶגֶם.
101
433000
5000
מתיו הרלי הוא הראשון
שכתב על זה.
אנו מכנים זאת "המודל של הרלי".
07:30
He’s a computerמַחשֵׁב scientistמַדְעָן, Reginaldרג'ינלד Adamsאדמס a psychologistפְּסִיכוֹלוֹג, and there I am,
102
438000
4000
הוא מדען מחשבים,
רג'ינלד אדמס הוא פסיכולוג, וזה אני,
07:34
and we’reמִחָדָשׁ puttingלשים this togetherיַחַד into a bookסֵפֶר.
103
442000
2000
ואנו כותבים את כל זה בספר.
07:36
Thank you very much.
104
444000
3000
תודה רבה לכם.
[מחיאות כפיים]
Translated by Shlomo Adam
Reviewed by Arnon Cahen

▲Back to top

ABOUT THE SPEAKER
Dan Dennett - Philosopher, cognitive scientist
Dan Dennett thinks that human consciousness and free will are the result of physical processes.

Why you should listen

One of our most important living philosophers, Dan Dennett is best known for his provocative and controversial arguments that human consciousness and free will are the result of physical processes in the brain. He argues that the brain's computational circuitry fools us into thinking we know more than we do, and that what we call consciousness — isn't. His 2003 book "Freedom Evolves" explores how our brains evolved to give us -- and only us -- the kind of freedom that matters, while 2006's "Breaking the Spell" examines belief through the lens of biology.

This mind-shifting perspective on the mind itself has distinguished Dennett's career as a philosopher and cognitive scientist. And while the philosophy community has never quite known what to make of Dennett (he defies easy categorization, and refuses to affiliate himself with accepted schools of thought), his computational approach to understanding the brain has made him, as Edge's John Brockman writes, “the philosopher of choice of the AI community.”

“It's tempting to say that Dennett has never met a robot he didn't like, and that what he likes most about them is that they are philosophical experiments,” Harry Blume wrote in the Atlantic Monthly in 1998. “To the question of whether machines can attain high-order intelligence, Dennett makes this provocative answer: ‘The best reason for believing that robots might some day become conscious is that we human beings are conscious, and we are a sort of robot ourselves.'"

In recent years, Dennett has become outspoken in his atheism, and his 2006 book Breaking the Spell calls for religion to be studied through the scientific lens of evolutionary biology. Dennett regards religion as a natural -- rather than supernatural -- phenomenon, and urges schools to break the taboo against empirical examination of religion. He argues that religion's influence over human behavior is precisely what makes gaining a rational understanding of it so necessary: “If we don't understand religion, we're going to miss our chance to improve the world in the 21st century.”

Dennett's landmark books include The Mind's I, co-edited with Douglas Hofstaedter, Consciousness Explained, and Darwin's Dangerous Idea. Read an excerpt from his 2013 book, Intuition Pumps, in the Guardian >>

More profile about the speaker
Dan Dennett | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee