ABOUT THE SPEAKER
Michael Shermer - Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market.

Why you should listen

As founder and publisher of Skeptic Magazine, Michael Shermer has exposed fallacies behind intelligent design, 9/11 conspiracies, the low-carb craze, alien sightings and other popular beliefs and paranoias. But it's not about debunking for debunking's sake. Shermer defends the notion that we can understand our world better only by matching good theory with good science.

Shermer's work offers cognitive context for our often misguided beliefs: In the absence of sound science, incomplete information can powerfully combine with the power of suggestion (helping us hear Satanic lyrics when "Stairway to Heaven" plays backwards, for example). In fact, a common thread that runs through beliefs of all sorts, he says, is our tendency to convince ourselves: We overvalue the shreds of evidence that support our preferred outcome, and ignore the facts we aren't looking for.

He writes a monthly column for Scientific American, and is an adjunct at Claremont Graduate University and Chapman University. His latest book is The Believing Brain: From Ghosts and Gods to Politics and Conspiracies—How We Construct Beliefs and Reinforce Them as Truths. He is also the author of The Mind of the Market, on evolutionary economics, Why Darwin Matters: Evolution and the Case Against Intelligent Design, and The Science of Good and Evil. And his next book is titled The Moral Arc of Science.

More profile about the speaker
Michael Shermer | Speaker | TED.com
TED2010

Michael Shermer: The pattern behind self-deception

مایکل شرمر: الگوی در پس خود-فریبی

Filmed:
2,854,890 views

مایکل شرمر می گوید تمایل انسان به باور چیزهای عجیب - اعم از ربوده شدن توسط موجودات فضایی تا عصاهای راهنما -- به دو مهارت ابتدایی و غریزی بقا در مغز انسان باز می گردد. او چیستی این مهارت ها و چگونگی دردسر آفرین بودن آنها را شرح می دهد.
- Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market. Full bio

Double-click the English transcript below to play the video.

00:16
So sinceاز آنجا که I was here last in '06,
0
1000
3000
از آخرین باری که در 2006 اینجا بودم،
00:19
we discoveredکشف شده that globalجهانی است climateآب و هوا changeتغییر دادن
1
4000
2000
متوجه شدیم که تغییرات جهانی آب و هوا
00:21
is turningچرخش out to be a prettyبسیار seriousجدی issueموضوع,
2
6000
2000
دارد تبدیل به یک مسئله بسیار جدی می شود.
00:23
so we coveredپوشش داده شده that fairlyمنصفانه extensivelyگسترده
3
8000
2000
بنا براین آن را به طور گسترده
00:25
in Skepticاسکپتیک magazineمجله.
4
10000
2000
در مجله Skeptic پوشش دادیم.
00:27
We investigateتحقیق کردن all kindsانواع
5
12000
2000
ما همه جور مناقشه
00:29
of scientificعلمی and quasi-scientificشبه علمی controversiesاختلاف نظر,
6
14000
3000
علمی و شبه-علمی را برسی می کنیم.
00:32
but it turnsچرخش out we don't have to worryنگرانی about any of this
7
17000
2000
هرچند معلوم شد که نیازی نیست نگران هیچیک از اینها باشیم
00:34
because the world'sجهان going to endپایان in 2012.
8
19000
2000
زیرا دنیا در سال ۲۰۱۲ پایان خواهد یافت.
00:36
Anotherیکی دیگر updateبه روز رسانی:
9
21000
2000
خبر دیگر اینکه:
00:38
You will recallبه خاطر آوردن I introducedمعرفی کرد you guys
10
23000
2000
به یاد می آورید که من دستگاه
00:40
to the Quadroکوادرو Trackerردیاب.
11
25000
2000
Quadro Tracker را به شما معرفی کردم.
00:42
It's like a waterاب dowsingdowsing deviceدستگاه.
12
27000
2000
شبیه یک دستگاه یابنده منابع آب هست.
00:44
It's just a hollowتوخالی pieceقطعه of plasticپلاستیک with an antennaآنتن that swivelsمفصل گردنده around.
13
29000
3000
تنها یک تکه تو خالی پلاستیک است به همراه یک آنتن که می تواند بچرخد
00:47
And you walkراه رفتن around, and it pointsنکته ها to things.
14
32000
2000
و حین قدم زدن شما به اشیاء مختلف اشاره می کند.
00:49
Like if you're looking for marijuanaماری جوانا in students'دانش آموزان' lockersقفسه ها,
15
34000
3000
مثل وقتی که به دنبال ماریجوانا در گنجه دانش آموزان هستید.
00:52
it'llآن خواهد شد pointنقطه right to somebodyکسی.
16
37000
2000
درست به یک نفر اشاره خواهد کرد.
00:54
Oh, sorry. (Laughterخنده)
17
39000
2000
اوه، ببخشید. (خنده)
00:56
This particularخاص one that was givenداده شده to me
18
41000
2000
این یکی که به من داده شده
00:58
findsپیدا می کند golfگلف ballsتوپ ها,
19
43000
2000
توپ گلف پیدا می کند،
01:00
especiallyبه خصوص if you're at a golfگلف courseدوره
20
45000
2000
مخصوصا اگر در زمین گلف هستید
01:02
and you checkبررسی underزیر enoughکافی bushesبوته.
21
47000
3000
و زیر بوته ها را به اندازه کافی گشته اید.
01:05
Well, underزیر the categoryدسته بندی of "What's the harmصدمه of sillyاحمقانه stuffچیز like this?"
22
50000
3000
خب، در رابطه با اینکه "آسیب چیزهای مسخره ای همچون این چیست؟"
01:08
this deviceدستگاه, the ADEADE 651,
23
53000
3000
این وسیله، ADE 651،
01:11
was soldفروخته شد to the Iraqiعراقی governmentدولت
24
56000
3000
به دولت عراق فروخته شد
01:14
for 40,000 dollarsدلار apieceیک تکه.
25
59000
2000
به مبلغ هریک 40,000 دلار.
01:16
It's just like this one, completelyبه صورت کامل worthlessبی ارزش,
26
61000
2000
دقیقا همانند این یکی است، کاملا بی ارزش،
01:18
in whichکه it allegedlyادعا شده workedکار کرد by "electrostaticالکترواستاتیک
27
63000
2000
که به اصطلاح با
01:20
magneticمغناطیسی ionیون attractionجاذبه,"
28
65000
3000
«جذب یون مغناطیسی الکترواستتیکی» کار می کند،
01:24
whichکه translatesترجمه شده است to
29
69000
2000
و به بیان بهتر
01:26
"pseudoscientificشبه علمی baloneyبالنی" -- would be the niceخوب wordکلمه --
30
71000
3000
«چرندیات شبه علمی» -- نام خوبی است --
01:29
in whichکه you stringرشته togetherبا یکدیگر a bunchدسته ای of wordsکلمات that soundصدا good,
31
74000
2000
که در آن مشتی واژه که صورت خوشی دارند کنار هم ردیف می شوند،
01:31
but it does absolutelyکاملا nothing.
32
76000
2000
ولی هیچگونه کارکردی ندارد.
01:33
In this caseمورد, at trespassتجاوز pointsنکته ها,
33
78000
3000
در این مورد، در نقاط گذر،
01:36
allowingاجازه می دهد people to go throughاز طریق
34
81000
2000
با روا دانستن گذر افراد
01:38
because your little trackerردیاب deviceدستگاه said they were okay,
35
83000
3000
طبق گفته دستگاه گیرنده کوچک شما که آنها موردی ندارند،
01:41
actuallyدر واقع costهزینه livesزندگی می کند.
36
86000
3000
در حقیقت سبب تلف شدن جان افراد می شود.
01:44
So there is a dangerخطر to pseudoscienceشبه علم,
37
89000
2000
پس در شبه علم خطری هست،
01:46
in believingباور کردن in this sortمرتب سازی of thing.
38
91000
3000
در باور به این گونه چیزها.
01:49
So what I want to talk about todayامروز is beliefاعتقاد.
39
94000
3000
پس آنچه امروز می خواهم در باره اش صحبت کنم باور است.
01:52
I want to believe,
40
97000
2000
می خواهم باور کنم،
01:54
and you do too.
41
99000
2000
و شما نیز همینطور.
01:56
And in factواقعیت, I think my thesisپایان نامه here is that
42
101000
2000
و در واقع، گمان می کنم رساله من در اینجا این است که
01:58
beliefاعتقاد is the naturalطبیعی است stateحالت of things.
43
103000
2000
باور وضعیت طبیعی چیز هاست.
02:00
It is the defaultبه طور پیش فرض optionگزینه. We just believe.
44
105000
2000
گزینه پیش فرض است. ما باور می کنیم.
02:02
We believe all sortsانواع of things.
45
107000
2000
ما همه جور چیزخا را باور می کنیم.
02:04
Beliefاعتقاد is naturalطبیعی است;
46
109000
2000
باور طبیعیست
02:06
disbeliefکفر, skepticismشک و تردید, scienceعلوم پایه, is not naturalطبیعی است.
47
111000
2000
ناباوری، شک، علم، طبیعی نیستند.
02:08
It's more difficultدشوار.
48
113000
2000
دشوار تر اند.
02:10
It's uncomfortableناراحت to not believe things.
49
115000
2000
باور نداشتن به چیزها راحت نیست.
02:12
So like Foxفاکس Mulderمالدر on "X-FilesX فایل های,"
50
117000
3000
پس همچون Fox Mulder در سریال "X-Files"،
02:15
who wants to believe in UFOsUFOs? Well, we all do,
51
120000
3000
چه کسی می خواهد UFOها را باور کند؟ خب، همه مان.
02:18
and the reasonدلیل for that is because
52
123000
2000
و دلیل آن این است که
02:20
we have a beliefاعتقاد engineموتور in our brainsمغز.
53
125000
3000
در مغزمان یک موتور باور داریم.
02:23
Essentiallyاساسا, we are pattern-seekingالگوی جستجو primatesاولیها.
54
128000
3000
در اصل، ما پستانداران الگو- یاب هستیم.
02:26
We connectاتصال the dotsنقطه ها: A is connectedمتصل to B; B is connectedمتصل to C.
55
131000
3000
ما نقاط را متصل می کنیم: A به B وصل است؛ B به C.
02:29
And sometimesگاه گاهی A really is connectedمتصل to B,
56
134000
3000
و گاهی A واقعا به B وصل است.
02:32
and that's calledبه نام associationاتحادیه learningیادگیری.
57
137000
2000
و به آن یادگیری تداعی گرایانه گویند.
02:34
We find patternsالگوها, we make those connectionsارتباطات,
58
139000
3000
ما الگو می یابیم، ارتباطات را می سازیم،
02:37
whetherچه it's Pavlov'sپاولوف dogسگ here
59
142000
2000
چه اینکه سگ Pavlov باشد
02:39
associatingهمکاری the soundصدا of the bellزنگ with the foodغذا,
60
144000
3000
که صدای زنگوله را به غذا ربط می دهد،
02:42
and then he salivatesبزاق to the soundصدا of the bellزنگ,
61
147000
2000
و سپس با صدای زنگوله بزاقش ترشح می کند،
02:44
or whetherچه it's a Skinnerianاسکنرین ratموش,
62
149000
2000
و چه موش Skinnerی باشد،
02:46
in whichکه he's havingداشتن an associationاتحادیه
63
151000
2000
که یک رابطه
02:48
betweenبین his behaviorرفتار and a rewardجایزه for it,
64
153000
2000
میان رفتار و پاداش آن برقرار کرده،
02:50
and thereforeاز این رو he repeatsتکرار می شود the behaviorرفتار.
65
155000
2000
و به همین دلیل رفتار را تکرار می کند.
02:52
In factواقعیت, what Skinnerاسکینر discoveredکشف شده
66
157000
2000
در واقع، آنچه Skinner کشف کرد
02:54
is that, if you put a pigeonکبوتر in a boxجعبه like this,
67
159000
3000
این بود که اگر یک کبوتر را در جعبه ای مثل این بگذارید،
02:57
and he has to pressمطبوعات one of these two keysکلیدها,
68
162000
2000
و او باید یکی از این دو کلید را بفشارد،
02:59
and he triesتلاش می کند to figureشکل out what the patternالگو is,
69
164000
2000
و تلاش کند که الگو را دریابد؛
03:01
and you give him a little rewardجایزه in the hopperقیف boxجعبه there --
70
166000
2000
و شما به او پاداش کوچکی در محفظه خوراک دهید.
03:03
if you just randomlyبه طور تصادفی assignاختصاص دادن rewardsپاداش ها
71
168000
3000
اگر تنها به تصادف پاداش دهید
03:06
suchچنین that there is no patternالگو,
72
171000
2000
طوری که هیچ الگویی نباشد؛
03:08
they will figureشکل out any kindنوع of patternالگو.
73
173000
2000
آنها همه نوع الگو خواهند یافت.
03:10
And whateverهر چه they were doing just before they got the rewardجایزه,
74
175000
2000
و هر کاری که آخرین بار پیش از دریافت پاداش می کردند،
03:12
they repeatتکرار that particularخاص patternالگو.
75
177000
2000
آن الگو خاص را تکرار می کنند.
03:14
Sometimesگاهی it was even spinningحال چرخش around twiceدو برابر counterclockwiseضد ساعت,
76
179000
3000
گاهی حتی دو بار خلاف جهت عقربه ساعت دور خود می چرخند،
03:17
onceیک بار clockwiseساعت عقب and peckپک the keyکلیدی twiceدو برابر.
77
182000
3000
و یک بار در جهت عقربه ساعت و دوبار به دکمه نوک زدن.
03:20
And that's calledبه نام superstitionخرافات,
78
185000
2000
و آن خرافه نام دارد.
03:22
and that, I'm afraidترسیدن,
79
187000
2000
و بیم آن دارم،
03:24
we will always have with us.
80
189000
2000
که همواره با خودمان آن را داشته باشیم.
03:26
I call this processروند "patternicityالگو بودن" --
81
191000
2000
من این فرآیند را «الگوگرایی» می نامم،
03:28
that is, the tendencyگرایش to find meaningfulمعنی دار patternsالگوها
82
193000
2000
یعنی تمایل به یافتن الگوهای معنادار
03:30
in bothهر دو meaningfulمعنی دار and meaninglessبی معنی noiseسر و صدا.
83
195000
3000
برای هر دو نویز معنادار و هم بی معنا آست.
03:33
When we do this processروند, we make two typesانواع of errorsاشتباهات.
84
198000
3000
طی این فرآیند، ما دو خطا مرتکب می شویم.
03:36
A Typeتایپ کنید I errorخطا, or falseنادرست positiveمثبت,
85
201000
2000
یک خطای نوع اول، یا مثبت نادرست،
03:38
is believingباور کردن a patternالگو is realواقعی
86
203000
2000
باور به وجود داشتن یک الگو است
03:40
when it's not.
87
205000
2000
وقتی که وجود ندارد.
03:42
Our secondدومین typeتایپ کنید of errorخطا is a falseنادرست negativeمنفی.
88
207000
2000
خطای نوع دوم ما منفی نادرست است.
03:44
A Typeتایپ کنید IIدوم errorخطا is not believingباور کردن
89
209000
2000
خطای نوع دوم، باور نکردن
03:46
a patternالگو is realواقعی when it is.
90
211000
3000
وجود یک الگو است وقتی که وجود دارد.
03:49
So let's do a thought experimentآزمایشی.
91
214000
2000
بیایید یک آزمایش ذهنی انجام دهیم.
03:51
You are a hominidهومینید threeسه millionمیلیون yearsسالها agoپیش
92
216000
2000
شما یک انسان اولیه در سه میلیون سال پیش هستید
03:53
walkingپیاده روی on the plainsدشت ها of Africaآفریقا.
93
218000
3000
در دشتهای آفریقا قدم می زنید.
03:56
Your nameنام is Lucyلوسی, okay?
94
221000
2000
نام شما لوسی است، خوبه؟
03:58
And you hearشنیدن a rustleخسته کننده in the grassچمن.
95
223000
2000
و خش خشی در علفزار می شنوید.
04:00
Is it a dangerousخطرناک است predatorشکارچی,
96
225000
2000
آیا آن یک درنده خطرناک است،
04:02
or is it just the windباد?
97
227000
2000
یا فقط باد است؟
04:04
Your nextبعد decisionتصمیم گیری could be the mostاکثر importantمهم one of your life.
98
229000
3000
تصمیم بعدی شما می تواند مهمترین تصمیم زندگی تان باشد.
04:07
Well, if you think that the rustleخسته کننده in the grassچمن is a dangerousخطرناک است predatorشکارچی
99
232000
3000
خب، اگر فکر می کنید که خش خش در علفزار یک درنده خطرناک است
04:10
and it turnsچرخش out it's just the windباد,
100
235000
2000
و معلوم شود که تنها باد بوده،
04:12
you've madeساخته شده an errorخطا in cognitionشناختن,
101
237000
2000
شما یک خطا در ادراک داشته اید،
04:14
madeساخته شده a Typeتایپ کنید I errorخطا, falseنادرست positiveمثبت.
102
239000
2000
یک خطای نوع اول، مثبت نادرست.
04:16
But no harmصدمه. You just moveحرکت away.
103
241000
2000
اما بدون آسیب. تنها در می روید.
04:18
You're more cautiousمحتاط. You're more vigilantهوشیار.
104
243000
2000
محتاط تر هستید. هشیار تر هستید.
04:20
On the other handدست, if you believe that the rustleخسته کننده in the grassچمن is just the windباد,
105
245000
2000
از طرف دیگر، اگر باور داشته باشید که خش خش در علفزار تنها صدای باد بوده،
04:22
and it turnsچرخش out it's a dangerousخطرناک است predatorشکارچی,
106
247000
3000
و معلوم شود یک درنده خطرناک است،
04:25
you're lunchناهار.
107
250000
2000
یک لقمه چرب می شوید.
04:27
You've just wonبرنده شد a Darwinداروین awardجایزه.
108
252000
2000
برنده یک جایزه داروین شده اید.
04:29
You've been takenگرفته شده out of the geneژن poolاستخر.
109
254000
2000
شما از مخزن ژن ها بیرون انداخته شده اید.
04:31
Now the problemمسئله here is that
110
256000
2000
حال مسأله اینجاست که
04:33
patternicitiesالگوها will occurبه وقوع پیوستن wheneverهر زمان که the costهزینه
111
258000
2000
الگویابی زمانی اتفاق می افتد که هزینه
04:35
of makingساخت a Typeتایپ کنید I errorخطا
112
260000
2000
ارتکاب یک خطای نوع اول
04:37
is lessکمتر than the costهزینه of makingساخت a Typeتایپ کنید IIدوم errorخطا.
113
262000
2000
کمتر از هزینه ارتکاب خطای نوع دوم باشد.
04:39
This is the only equationمعادله in the talk by the way.
114
264000
2000
راستی این تنها معادله این سخنرانی است.
04:41
We have a patternالگو detectionتشخیص problemمسئله
115
266000
2000
ما یک مشکل در تشخیص الگو داریم
04:43
that is assessingارزیابی the differenceتفاوت betweenبین a Typeتایپ کنید I and a Typeتایپ کنید IIدوم errorخطا
116
268000
3000
که ارزیابی تفاوت میان خطای نوع اول و نوع دوم
04:46
is highlyبه شدت problematicمشکل ساز,
117
271000
2000
بسیار مساله ساز است،
04:48
especiallyبه خصوص in split-secondتقسیم دوم, life-and-deathزندگی و مرگ situationsموقعیت ها.
118
273000
3000
مخصوصا در کسری از ثانیه و وضعیت مرگ و زندگی.
04:51
So the defaultبه طور پیش فرض positionموقعیت
119
276000
2000
پس موضع پیش فرض
04:53
is just: Believe all patternsالگوها are realواقعی --
120
278000
2000
تنها «باور به حقیقی بودن تمام الگوها» است.
04:55
All rustlesمزرعه in the grassچمن are dangerousخطرناک است predatorsشکارچیان
121
280000
3000
«همه خش خش ها در علفزار درندگان خطرناکند
04:58
and not just the windباد.
122
283000
2000
و نه فقط صدای باد».
05:00
And so I think that we evolvedتکامل یافته است ...
123
285000
2000
و بدینگونه گمان کنم تکامل یافته ایم ...
05:02
there was a naturalطبیعی است selectionانتخاب for the propensityگرایش for our beliefاعتقاد enginesموتورها,
124
287000
3000
یک انتخاب طبیعی برای گرایش موتور باور ما،
05:05
our pattern-seekingالگوی جستجو brainمغز processesفرآیندهای,
125
290000
2000
فرآیند های الگو-یابی در مغز ما وجود دارد،
05:07
to always find meaningfulمعنی دار patternsالگوها
126
292000
2000
تا اینکه همواره الگوهای معنادار بیابد
05:09
and infuseتزریق them with these sortمرتب سازی of
127
294000
2000
و آنها را برانگیزد با چنین
05:11
predatoryغارتگر or intentionalعمدی agenciesآژانس ها that I'll come back to.
128
296000
3000
عامل های عامد و درنده ای که دوباره بهشان باز خواهم گشت.
05:14
So for exampleمثال, what do you see here?
129
299000
2000
خب برای نمونه، اینجا چه می بینید؟
05:16
It's a horseاسب headسر, that's right.
130
301000
2000
سر یک اسب است، درست است.
05:18
It looksبه نظر می رسد like a horseاسب. It mustباید be a horseاسب.
131
303000
2000
شبیه یک اسب است. می بایست یک اسب باشد.
05:20
That's a patternالگو.
132
305000
2000
این یک الگوست.
05:22
And is it really a horseاسب?
133
307000
2000
و آیا واقعا این یک اسب است؟
05:24
Or is it more like a frogقورباغه?
134
309000
3000
یا بیشتر شبیه یک قورباغه است؟
05:27
See, our patternالگو detectionتشخیص deviceدستگاه,
135
312000
2000
ببینید، اسباب الگویابی ما،
05:29
whichکه appearsظاهر می شود to be locatedواقع شده in the anteriorقدامی cingulateچسبیده cortexقشر --
136
314000
3000
که به نظر در قشر قدامی مغر جا دارد --
05:32
it's our little detectionتشخیص deviceدستگاه there --
137
317000
3000
وسیله کوچک تشخص ما در آنجا --
05:35
can be easilyبه آسانی fooledفریب خورده, and this is the problemمسئله.
138
320000
2000
می تواند به راحتی گمراه بشه و مشکل همین جاست.
05:37
For exampleمثال, what do you see here?
139
322000
2000
برای نمونه، اینجا چه می بینید؟
05:39
Yes, of courseدوره, it's a cowگاو.
140
324000
3000
بله البته این یک گاوه
05:42
Onceیک بار I primeنخستین the brainمغز -- it's calledبه نام cognitiveشناختی primingپر کردن --
141
327000
3000
وقتی من مغز رو آماده می کنم -- آمادگی دادن ادراکی نام دارد --
05:45
onceیک بار I primeنخستین the brainمغز to see it,
142
330000
2000
وقتی مغز را آماده دیدن آن می کنم،
05:47
it popsبالا میآید back out again even withoutبدون the patternالگو that I've imposedتحمیل شده on it.
143
332000
3000
دوباره ظاهر می شود حتی بدون الگویی که روی آن قرار دادم.
05:50
And what do you see here?
144
335000
2000
و اینجا چی می بینید؟
05:52
Some people see a DalmatianDalmatian dogسگ.
145
337000
2000
برخی یک سگ خالخالی می بینند.
05:54
Yes, there it is. And there's the primeنخستین.
146
339000
2000
بله، اینجاست. و این هم آماده کردن ذهن.
05:56
So when I go back withoutبدون the primeنخستین,
147
341000
2000
پس وقتی بر میگردم به حالت بدون آماده سازی،
05:58
your brainمغز alreadyقبلا has the modelمدل
148
343000
2000
مغز شما از پیش مدل را دارد
06:00
so you can see it again.
149
345000
2000
پس می توانید دوباره ببینیدش
06:02
What do you see here?
150
347000
3000
اینجا چه می بینید؟
06:05
Planetسیاره Saturnزحل. Yes, that's good.
151
350000
2000
سیاره زحل. بله، خوب است.
06:07
How about here?
152
352000
3000
اینجا چطور؟
06:10
Just shoutفریاد out anything you see.
153
355000
3000
هر چه دیدید رو بلند بگین.
06:14
That's a good audienceحضار, Chrisکریس.
154
359000
2000
کریس، اینها حضار خوبی اند.
06:16
Because there's nothing in this. Well, allegedlyادعا شده there's nothing.
155
361000
3000
زیرا هیچ چیز در این نیست. البته، ظاهرا چیزی نیست.
06:19
This is an experimentآزمایشی doneانجام شده by Jenniferجنیفر Whitsonویتسون
156
364000
3000
این یک آزمایش است که توسط Jennifer Whitson انجام شده
06:22
at U.T. Austinآستین
157
367000
2000
در دانشگاه تکزاس در آستین
06:24
on corporateشرکت های بزرگ environmentsمحیط ها
158
369000
2000
در محیط های کاری
06:26
and whetherچه feelingsاحساسات of uncertaintyعدم قطعیت and out of controlکنترل
159
371000
3000
و اینکه آیا احساس تردید و بدون کنترل بودن
06:29
makesباعث می شود people see illusoryخیالی patternsالگوها.
160
374000
2000
سبب دیدن الگوهای وهمی در افراد می شود.
06:31
That is, almostتقریبا everybodyهمه seesمی بیند the planetسیاره Saturnزحل.
161
376000
3000
یعنی، تقریبا همه سیاره زحل را می بینند.
06:34
People that are put in a conditionوضعیت of feelingاحساس out of controlکنترل
162
379000
3000
افرادی که در شرایط خارج از کنترل قرار داده می شوند
06:37
are more likelyاحتمال دارد to see something in this,
163
382000
2000
به احتمال بیشتری چیزی در این می بینند،
06:39
whichکه is allegedlyادعا شده patternlessالگوی الگوی.
164
384000
3000
که ظاهرا بدون الگوست.
06:42
In other wordsکلمات, the propensityگرایش to find these patternsالگوها
165
387000
3000
به بیان دیگر، گرایش یافتن این الگوها
06:45
goesمی رود up when there's a lackعدم of controlکنترل.
166
390000
3000
زمانی که عدم کنترل وجود دارد بالا می رود.
06:48
For exampleمثال, baseballبیسبال playersبازیکنان are notoriouslyبدبختانه superstitiousخرافات
167
393000
3000
برای نمون، بازیکنان بیس بال آشکارا خرافی اند
06:51
when they're battingپنبه ای,
168
396000
2000
وقتی توپزن هستند،
06:53
but not so much when they're fieldingفیلدینگ.
169
398000
2000
اما نه خیلی وقتی که در زمین می دوند.
06:55
Because fieldersفیلترینگ are successfulموفق شدن
170
400000
2000
چون دونده ها
06:57
90 to 95 percentدرصد of the time.
171
402000
2000
در 90 تا 95 درصد مواقع موفق اند.
06:59
The bestبهترین battersکتک زدن failشکست sevenهفت out of 10 timesبار.
172
404000
3000
بهترین توپزن ها 7 بار از 10 بار نا موفق اند.
07:02
So theirخودشان superstitionsخرافات, theirخودشان patternicitiesالگوها,
173
407000
2000
بنابر این خرافات و الگویابی آنها،
07:04
are all associatedهمراه with feelingsاحساسات of lackعدم of controlکنترل
174
409000
3000
همه به احساس عدم کنترل مربوط می شود
07:07
and so forthچهارم.
175
412000
2000
و به همین ترتیب.
07:10
What do you see in this particularخاص one here, in this fieldرشته?
176
415000
3000
در این مورد خاص چه می بینید، در این منطقه؟
07:13
Anybodyهر شخصی see an objectشی there?
177
418000
2000
کسی در آن چیزی دیده؟
07:15
There actuallyدر واقع is something here,
178
420000
2000
اینجا در واقع چیزی وجود دارد،
07:17
but it's degradedتخریب شده.
179
422000
2000
اما مخدوش است.
07:19
While you're thinkingفكر كردن about that,
180
424000
2000
حین اینکه به آن می اندیشید،
07:21
this was an experimentآزمایشی doneانجام شده by Susanسوزان Blackmoreبلک مور,
181
426000
2000
این یک آزمون است که توسط Susan Blackmore انجام شد،
07:23
a psychologistروانشناس in Englandانگلستان,
182
428000
2000
یک روانشناس در انگلستان،
07:25
who showedنشان داد subjectsفاعل، موضوع this degradedتخریب شده imageتصویر
183
430000
2000
که به اشخاص این تصویر مخدوش را نشان داد
07:27
and then ranفرار کرد a correlationهمبستگی betweenبین
184
432000
2000
و وابستگی میان
07:29
theirخودشان scoresنمرات on an ESPESP testتست:
185
434000
2000
امتیاز آنها در یک آزمون ESP را محاسبه کرد،
07:31
How much did they believe in the paranormalماوراء الطبیعه,
186
436000
2000
که چقدر باور دارند به فراهنجار،
07:33
supernaturalفوقالعاده, angelsفرشتگان and so forthچهارم.
187
438000
3000
ماورا الطبیعه، فرشتگان و از این قبیل.
07:36
And those who scoredبه ثمر رساند highبالا on the ESPESP scaleمقیاس,
188
441000
3000
و آنهایی که در مقیاس ESP امتیاز بالا گرفتند،
07:39
tendedتمایل داشت to not only see
189
444000
2000
گرایش داشتند به اینکه نه تنها
07:41
more patternsالگوها in the degradedتخریب شده imagesتصاویر
190
446000
2000
الگوهای بیشتری در تصاویر مخدوش ببینند،
07:43
but incorrectغلط patternsالگوها.
191
448000
2000
بلکه الگوهای نادرست ببینند.
07:45
Here is what you showنشان بده subjectsفاعل، موضوع.
192
450000
2000
این چیزی است که شما سوژه ها نشان می دهید.
07:47
The fishماهی is degradedتخریب شده 20 percentدرصد, 50 percentدرصد
193
452000
3000
ماهی 20 درصد، 50 درصد
07:50
and then the one I showedنشان داد you,
194
455000
2000
و آن که من نشان تان دادم،
07:52
70 percentدرصد.
195
457000
2000
70 درصد مخدوش شده.
07:54
A similarمشابه experimentآزمایشی was doneانجام شده by anotherیکی دیگر [Swissسوئیس] psychologistروانشناس
196
459000
2000
آزمایش مشابهی توسط روانشناس [سوئیسی] دیگری انجام شده
07:56
namedتحت عنوان Peterپیتر BruggerBrugger,
197
461000
2000
به نام Peter Brugger،
07:58
who foundپیدا شد significantlyبه طور قابل ملاحظه more meaningfulمعنی دار patternsالگوها
198
463000
3000
که متوجه شد الگوهای معنادار بسیار بیشتری
08:01
were perceivedدرک شده on the right hemisphereنیمکره,
199
466000
2000
در نیمکره راست مغز،
08:03
viaاز طريق the left visualبصری fieldرشته, than the left hemisphereنیمکره.
200
468000
3000
توسط منطقه چپ بصری، نسبت به نیمکره چپ مغز درک می شدند.
08:06
So if you presentحاضر subjectsفاعل، موضوع the imagesتصاویر suchچنین
201
471000
2000
پس اگر به سوژه ها تصاویری نشان دهید
08:08
that it's going to endپایان up on the right hemisphereنیمکره insteadبجای of the left,
202
473000
3000
که نهایتا به نیمکره راست منتهی می شوند به جای چپ،
08:11
then they're more likelyاحتمال دارد to see patternsالگوها
203
476000
2000
آنها به احتمال بیشتری الگو خواهند دید
08:13
than if you put it on the left hemisphereنیمکره.
204
478000
2000
نسبت به اینکه به نیمکره چپ برسد.
08:15
Our right hemisphereنیمکره appearsظاهر می شود to be
205
480000
2000
نیمکره راست ما به نظر
08:17
where a lot of this patternicityالگو بودن occursاتفاق می افتد.
206
482000
2000
جایی است که بیشتر در آن الگوگرایی ها صورت می گیرد.
08:19
So what we're tryingتلاش کن to do is boreبذر into the brainمغز
207
484000
2000
بنابراین ما سعی می کنیم در مغز دقیق شویم تا
08:21
to see where all this happensاتفاق می افتد.
208
486000
2000
ببینیم همه این ها کجا رخ می دهند.
08:23
BruggerBrugger and his colleagueهمکار, Christineکریستین Mohrمور,
209
488000
3000
Brugger و همکارش، Christine Mohr،
08:26
gaveداد subjectsفاعل، موضوع L-DOPAL-DOPA.
210
491000
2000
به سوژه ها L-DOPA دادند.
08:28
L-DOPA'sL-DOPA a drugدارو, as you know, givenداده شده for treatingدرمان Parkinson'sپارکینسون diseaseمرض,
211
493000
3000
L-DOPA یک داروست، همانطور که می دانید، برای درمان پارکینسون تجویز می شود،
08:31
whichکه is relatedمربوط to a decreaseنزول کردن in dopamineدوپامین.
212
496000
3000
که مربوط به کاهش دوپامین می شود.
08:34
L-DOPAL-DOPA increasesافزایش dopamineدوپامین.
213
499000
2000
L-DOPA دوپامین را افزایش می دهد.
08:36
An increaseافزایش دادن of dopamineدوپامین causedباعث
214
501000
2000
و افزایش دوپامین سبب شد
08:38
subjectsفاعل، موضوع to see more patternsالگوها
215
503000
2000
سوژه ها الگوهای بیشتری ببینند
08:40
than those that did not receiveدريافت كردن the dopamineدوپامین.
216
505000
2000
نسبت به کسانی که دوپامین دریافت نکرده بودند.
08:42
So dopamineدوپامین appearsظاهر می شود to be the drugدارو
217
507000
2000
پس دوپامین ظاهرا دارویی است که
08:44
associatedهمراه with patternicityالگو بودن.
218
509000
2000
به الگوگرایی مربوط است.
08:46
In factواقعیت, neurolepticنورولپتیک drugsمواد مخدر
219
511000
2000
در حقیقت، داروهای اعصاب
08:48
that are used to eliminateاز بین بردن psychoticروانپریشی behaviorرفتار,
220
513000
2000
که برای برطرف کردن رفتار های عصبی بکار می روند،
08:50
things like paranoiaپارانویا, delusionsتوهمات
221
515000
2000
چیزهایی مانند سوظن، توهم
08:52
and hallucinationsتوهمات,
222
517000
2000
و دیدن اشباح خیالی،
08:54
these are patternicitiesالگوها.
223
519000
2000
اینها همه الگویابی اند.
08:56
They're incorrectغلط patternsالگوها. They're falseنادرست positivesمثبت. They're Typeتایپ کنید I errorsاشتباهات.
224
521000
3000
اینها الگوهای نادرست اند. اینها مثبت نادرست اند، خطای نوع اول.
08:59
And if you give them drugsمواد مخدر
225
524000
2000
و اگر به آنها داروهایی دهید
09:01
that are dopamineدوپامین antagonistsآنتاگونیست ها,
226
526000
2000
که پاد دوپامین اند،
09:03
they go away.
227
528000
2000
الگویابی ها از بین می روند.
09:05
That is, you decreaseنزول کردن the amountمیزان of dopamineدوپامین,
228
530000
2000
یعنی، میزان دوپامین را کاهش می دهید،
09:07
and theirخودشان tendencyگرایش to see
229
532000
2000
و گرایش آنها به دیدن
09:09
patternsالگوها like that decreasesکاهش می دهد.
230
534000
2000
چنان الگوهایی کاهش می یابد.
09:11
On the other handدست, amphetaminesآمفتامین like cocaineکوکائین
231
536000
3000
از طرف دیگر، آمفتامین هایی همچون کوکائین،
09:14
are dopamineدوپامین agonistsآگونیست ها.
232
539000
2000
تحریک کننده دوپامین اند.
09:16
They increaseافزایش دادن the amountمیزان of dopamineدوپامین.
233
541000
2000
به میزان دوپامین می افزایند.
09:18
So you're more likelyاحتمال دارد to feel in a euphoricبی نظیر stateحالت,
234
543000
3000
در نتیجه به احتمال زیاد حس سرخوشی،
09:21
creativityخلاقیت, find more patternsالگوها.
235
546000
2000
خلاقیت، و یافتن الگوهای بیشتر می کنید.
09:23
In factواقعیت, I saw Robinرابین Williamsویلیامز recentlyبه تازگی
236
548000
2000
در حقیقت، من اخیرا Robin Williams را دیدم که
09:25
talk about how he thought he was much funnierجالب تر
237
550000
2000
می گفت که چگونه خیال می کرده خیلی بامزه تر است
09:27
when he was doing cocaineکوکائین, when he had that issueموضوع, than now.
238
552000
3000
وقتی کوکائین مصرف می کرده، وقتی اون مشکل را نسبت به الان داشت.
09:30
So perhapsشاید more dopamineدوپامین
239
555000
2000
پس احتمالا دوپامین بیشتر
09:32
is relatedمربوط to more creativityخلاقیت.
240
557000
2000
به خلاقیت بیشتر ربط دارد.
09:34
Dopamineدوپامین, I think, changesتغییرات
241
559000
2000
دوپامین، به نظرم، تغییر دهنده
09:36
our signal-to-noiseسیگنال به نویز ratioنسبت.
242
561000
2000
نسبت سیگنال-به-نویز ما است.
09:38
That is, how accurateدقیق we are
243
563000
2000
یعنی چقدر دقیق هستیم
09:40
in findingیافته patternsالگوها.
244
565000
2000
در یافتن الگوها.
09:42
If it's too lowکم, you're more likelyاحتمال دارد to make too manyبسیاری Typeتایپ کنید IIدوم errorsاشتباهات.
245
567000
3000
اگر پایین باشد، به احتمال بیشتری خطای نوع دو انجام می دهید.
09:45
You missاز دست دادن the realواقعی patternsالگوها. You don't want to be too skepticalشکاکانه.
246
570000
2000
الگوهای واقعی را از دست می دهید. خوب نیست خیلی شکاک باشید.
09:47
If you're too skepticalشکاکانه, you'llشما خواهید بود missاز دست دادن the really interestingجالب هست good ideasایده ها.
247
572000
3000
اگر خیلی شکاک باشید، ایده های واقعا جالب را از دست خواهید داد.
09:51
Just right, you're creativeخلاقانه, and yetهنوز you don't fallسقوط for too much baloneyبالنی.
248
576000
3000
درست به اندازه، خلاق اید، و در ضمن، خیلی هم گول چرندیات را نمی خورید.
09:54
Too highبالا and maybe you see patternsالگوها everywhereدر همه جا.
249
579000
3000
به میزان زیاد نیز سبب می شود همه جا الگو ببینید.
09:57
Everyهرکدام time somebodyکسی looksبه نظر می رسد at you, you think people are staringخیره شدن at you.
250
582000
3000
هر گاه یکی به شما می نگرد، گمان می کنید مردم به شما خیره شده اند.
10:00
You think people are talkingصحبت کردن about you.
251
585000
2000
گمان می کنید مردم درباره شما حرف می زنند.
10:02
And if you go too farدور on that, that's just simplyبه سادگی
252
587000
2000
و اگر خیلی زیاد ادامه دهید، خیلی ساده
10:04
labeledبرچسب گذاری شده as madnessجنون.
253
589000
2000
دیوانه شمرده می شوید.
10:06
It's a distinctionفرق - تمیز - تشخیص perhapsشاید we mightممکن make
254
591000
2000
این تمایزی است که احتمالا قائل خواهیم شد
10:08
betweenبین two Nobelنوبل laureatesبرندگان جایزه, Richardریچارد Feynmanفاینمن
255
593000
2000
میان دو برنده نوبل، Richard Feynman
10:10
and Johnجان Nashنوش.
256
595000
2000
و John Nash.
10:12
One seesمی بیند maybe just the right numberعدد
257
597000
2000
یکی شاید به اندازه
10:14
of patternsالگوها to winپیروزی a Nobelنوبل Prizeجایزه.
258
599000
2000
الگو می بینید تا جایزه نوبل ببرد.
10:16
The other one alsoهمچنین, but maybe too manyبسیاری patternsالگوها.
259
601000
2000
دیگری، شاید خیلی بیش از حد.
10:18
And we then call that schizophreniaجنون جوانی.
260
603000
3000
و ما آن را اسکیزوفرنی می نامیم.
10:21
So the signal-to-noiseسیگنال به نویز ratioنسبت then presentsهدیه us with a pattern-detectionشناسایی الگوی problemمسئله.
261
606000
3000
پس نسبت سیگنال-به-نویز ما را با مسئله تشخیص-الگو مواجه می کند.
10:24
And of courseدوره you all know exactlyدقیقا
262
609000
2000
و البته همه شما به درستی می دانید
10:26
what this is, right?
263
611000
2000
که این چه مشکلیست، درسته.
10:28
And what patternالگو do you see here?
264
613000
2000
و چه الگویی را در اینجا می بینید؟
10:30
Again, I'm puttingقرار دادن your anteriorقدامی cingulateچسبیده cortexقشر to the testتست here,
265
615000
3000
دوباره، من اینجا دارم قشر قدامی مغز شما را به آزمایش می گذارم،
10:33
causingباعث می شود you conflictingمتناقض patternالگو detectionsتشخیص.
266
618000
3000
که سبب تشخیص الگو های متعارض می شود.
10:36
You know, of courseدوره, this is Viaاز طريق Unoانو shoesکفش.
267
621000
2000
می دانید، البته، این کفش Via Uno است.
10:38
These are sandalsصندل.
268
623000
3000
این ها سندل هستند.
10:41
Prettyبسیار sexyسکسی feetپا, I mustباید say.
269
626000
3000
باید بگویم چه پاهای سکسی ای.
10:44
Maybe a little Photoshoppedفتوشاپ.
270
629000
2000
شاید کمی فوتوشاپ شده.
10:46
And of courseدوره, the ambiguousمبهم figuresارقام
271
631000
2000
و البته، اشکال دو پهلو
10:48
that seemبه نظر می رسد to flip-flopفلیپ فلاپ back and forthچهارم.
272
633000
2000
که به نظر مدام جای هم را می گیرند.
10:50
It turnsچرخش out what you're thinkingفكر كردن about a lot
273
635000
2000
معلوم می شود چیزی که زیاد به آن فکر می کنید
10:52
influencesتأثیرات what you
274
637000
2000
تاثیر می گذار بر آنچه
10:54
tendگرایش داشتن to see.
275
639000
2000
گرایش به دیدنش دارید.
10:56
And you see the lampچراغ here, I know.
276
641000
2000
و شما اینجا یک چراغ می بینید، می دانم.
10:58
Because the lightsچراغ ها on here.
277
643000
3000
چون چراغها روشن اند.
11:01
Of courseدوره, thanksبا تشکر to the environmentalistطرفدار محیط زیست movementجنبش
278
646000
2000
البته، با سپاس از جنبش دوستداران محیط زیست
11:03
we're all sensitiveحساس to the plightبدبختی of marineدریایی mammalsپستانداران.
279
648000
3000
همه ما به مصائب پستانداران دریایی حساسیم.
11:06
So what you see in this particularخاص ambiguousمبهم figureشکل
280
651000
3000
پس آنچه در این تصویر مبهم خاص می بینید
11:09
is, of courseدوره, the dolphinsدلفین ها, right?
281
654000
2000
البته، دلفین ها اند، درسته.
11:11
You see a dolphinدلفین here,
282
656000
2000
شما اینجا دلفین می بینید.
11:13
and there's a dolphinدلفین,
283
658000
2000
و اینجا یک دلفین است.
11:15
and there's a dolphinدلفین.
284
660000
2000
و یک اینجا یک دلفین است.
11:17
That's a dolphinدلفین tailدم there, guys.
285
662000
3000
آن دم دلفین است، بچه ها.
11:20
(Laughterخنده)
286
665000
3000
(خنده)
11:25
If we can give you conflictingمتناقض dataداده ها, again,
287
670000
3000
اگر بتونیم به شما داده های متناقض دهیم، دوباره،
11:28
your ACCACC is going to be going into hyperdriveهارد دیسک.
288
673000
3000
قشر قدامی مغز شما به پرواز در می آید.
11:31
If you look down here, it's fine. If you look up here, then you get conflictingمتناقض dataداده ها.
289
676000
3000
اگر به این پایین نگاه کنید، قابل قبول است. اگر این بالا را نگاه کنید، داده ها متناقض می گیرید.
11:34
And then we have to flipتلنگر the imageتصویر
290
679000
2000
و سپس باید تصویر را سر و ته کنیم
11:36
for you to see that it's a setتنظیم up.
291
681000
2000
تا پی ببرید که این یک صحنه سازی است.
11:40
The impossibleغیرممکن است crateجعبه illusionتوهم.
292
685000
2000
توهم جعبه ناممکن.
11:42
It's easyآسان to foolاحمق the brainمغز in 2D.
293
687000
2000
گول زدن مغز در دو-بعد ساده است.
11:44
So you say, "Awآه, come on Shermerشرمر, anybodyهر شخصی can do that
294
689000
2000
پس می گویید، «اه، Shermer دست بردار، هر کسی بلد است این کار را
11:46
in a Psychروان 101 textمتن with an illusionتوهم like that."
295
691000
2000
با چنین خطای دیدی در یک کتاب درسی ابتدایی روانشناسی انجام دهد.»
11:48
Well here'sاینجاست the lateدیر است, great Jerryجری Andrus'اندروس
296
693000
2000
خب این هم مرحوم Jerry Andrus بزرگ با
11:50
"impossibleغیرممکن است crateجعبه" illusionتوهم in 3D,
297
695000
3000
خطای در سه بعدی «جعبه ناممکن»،
11:53
in whichکه Jerryجری is standingایستاده insideداخل
298
698000
2000
که Jerry ایستاده درون
11:55
the impossibleغیرممکن است crateجعبه.
299
700000
2000
جعبه ناممکن.
11:57
And he was kindنوع enoughکافی to postپست this
300
702000
2000
و او به اندازه کافی مهربان بوده که این را فرستاده
11:59
and give us the revealآشکار ساختن.
301
704000
2000
و به ما راه حل را نشان دهد.
12:01
Of courseدوره, cameraدوربین angleزاویه is everything. The photographerعکاس is over there,
302
706000
3000
البته، زاویه دوربین همه چیز است. عکاس آنجاست
12:04
and this boardهیئت مدیره appearsظاهر می شود to overlapهمپوشانی with this one, and this one with that one, and so on.
303
709000
3000
و این تخته به نظر با این یکی همپوشانی دارد، و این یکی با آن یکی، و الی آخر.
12:07
But even when I take it away,
304
712000
2000
اما وقتی می برمش،
12:09
the illusionتوهم is so powerfulقدرتمند because of how are brainsمغز are wiredسیمی
305
714000
2000
خطای دید اینچنین قدرتمند است چون مغز ما شکل گرفته تا
12:11
to find those certainمسلم - قطعی kindsانواع of patternsالگوها.
306
716000
3000
آن گونه الگوهای خاص را بیابد.
12:14
This is a fairlyمنصفانه newجدید one
307
719000
2000
این تقریبا جدید است
12:16
that throwsپرتاب می کند us off because of the conflictingمتناقض patternsالگوها
308
721000
2000
که ما را گول می زند به خاطر الگوهای متناقض
12:18
of comparingمقایسه کنید this angleزاویه with that angleزاویه.
309
723000
3000
مقایسه این زاویه با آن زاویه.
12:21
In factواقعیت, it's the exactدقیق sameیکسان pictureعکس sideسمت by sideسمت.
310
726000
3000
در حقیقت، هر دو عکس عینا یکسان کنار هم اند.
12:24
So what you're doing is comparingمقایسه کنید that angleزاویه
311
729000
2000
بنا بر این آنچه شما دارید انجام می دهید مقایسه آن زاویه است
12:26
insteadبجای of with this one, but with that one.
312
731000
2000
به جای با این یکی، با آن یکی.
12:28
And so your brainمغز is fooledفریب خورده.
313
733000
2000
و بدین سان مغز شما گمراه می شود.
12:30
Yetهنوز again, your patternالگو detectionتشخیص devicesدستگاه ها are fooledفریب خورده.
314
735000
2000
و باز هم، اسباب تشخیص الگوی شما گول خوردند.
12:32
Facesچهره ها are easyآسان to see
315
737000
2000
چهره ها را می توان آسان دید
12:34
because we have an additionalاضافی evolvedتکامل یافته است
316
739000
2000
زیرا ما یک نرم افزار تکامل یافته
12:36
facialچهره recognitionبه رسمیت شناختن softwareنرم افزار
317
741000
2000
اضافی تشخیص چهره
12:38
in our temporalموقتی lobesلوب ها.
318
743000
3000
در لوب گیجگاهی مغزمان داریم.
12:41
Here'sاینجاست some facesچهره ها on the sideسمت of a rockسنگ.
319
746000
3000
اینجا چند صورت است بر یک تخته سنگ.
12:44
I'm actuallyدر واقع not even sure if this is -- this mightممکن be Photoshoppedفتوشاپ.
320
749000
3000
من در واقع به این اطمینان ندارم -- شاید فتوشاپ شده باشد.
12:47
But anywayبه هر حال, the pointنقطه is still madeساخته شده.
321
752000
2000
ولی به هر حال، منظور رسانده شد.
12:49
Now whichکه one of these looksبه نظر می رسد oddفرد to you?
322
754000
2000
حال کدامیک از این دو به نظرتان عجیب می آید؟
12:51
In a quickسریع reactionواکنش, whichکه one looksبه نظر می رسد oddفرد?
323
756000
2000
در یک واکنش سریع، کدام عجیب به نظر می رسد؟
12:53
The one on the left. Okay. So I'll rotateچرخش it
324
758000
2000
آنی که در چپ است. باشد. پس می چرخانم شان
12:55
so it'llآن خواهد شد be the one on the right.
325
760000
2000
پس در سمت راست خواهد افتاد.
12:57
And you are correctدرست.
326
762000
2000
و درست گفتید.
12:59
A fairlyمنصفانه famousمشهور illusionتوهم -- it was first doneانجام شده with Margaretمارگارت Thatcherتاچر.
327
764000
3000
یک خطای دید تقریبا معروف -- نخستین بار با Margaret Thatcher انجام شد.
13:02
Now, they tradeتجارت up the politiciansسیاستمداران everyهرکدام time.
328
767000
2000
اکنون، هر بار سیاست مدار ها را اینطور می کنند.
13:04
Well, why is this happeningاتفاق می افتد?
329
769000
2000
خب، چرا این رخ می دهد؟
13:06
Well, we know exactlyدقیقا where it happensاتفاق می افتد,
330
771000
2000
خب، ما می دانیم دقیقا کجا رخ می دهد،
13:08
in the temporalموقتی lobeلوب, right acrossدر سراسر, sortمرتب سازی of aboveدر بالا your earگوش there,
331
773000
3000
در لوب گیجگاهی مغز درست در امتداد بالای گوشتان آنجا.
13:11
in a little structureساختار calledبه نام the fusiformfusiform gyrusگریش.
332
776000
3000
در ساختاری کوچک بنام چینخوردگی دوکی.
13:14
And there's two typesانواع of cellsسلول ها that do this,
333
779000
2000
و دو نوع سلول است که این کار را می کنند،
13:16
that recordرکورد facialچهره featuresامکانات eitherیا globallyدر سطح جهانی,
334
781000
3000
که ویژگی های چهره را یا به صورت کلی،
13:19
or specificallyبه طور مشخص these largeبزرگ, rapid-firingسریع شلیک cellsسلول ها,
335
784000
2000
یا جزئی ثبت می کنند. این سلول های بزرگ، سریع شلیک کننده،
13:21
first look at the generalعمومی faceصورت.
336
786000
2000
نخست به کلیات چهره نگاه می کنند.
13:23
So you recognizeتشخیص Obamaاوباما immediatelyبلافاصله.
337
788000
2000
در نتیجه شما Obama را بلادرنگ می شناسید.
13:25
And then you noticeاطلاع something quiteکاملا
338
790000
2000
و سپس متوجه می شوید چیزی
13:27
a little bitبیت oddفرد about the eyesچشم ها and the mouthدهان.
339
792000
2000
کمابیش غیر عادی در مورد چشمها و دهان است.
13:29
Especiallyبخصوص when they're upsideبالا رفتن down,
340
794000
2000
مخصوصا وقتی سر و ته هستند،
13:31
you're engagingجذاب that generalعمومی facialچهره recognitionبه رسمیت شناختن softwareنرم افزار there.
341
796000
3000
آن نرم افزار تشخیص کلی چهره را دارید آنجا بکار می بندید.
13:34
Now I said back in our little thought experimentآزمایشی,
342
799000
3000
حال گفتم بر گردیم به آزمایش ذهنی کوچک خود،
13:37
you're a hominidهومینید walkingپیاده روی on the plainsدشت ها of Africaآفریقا.
343
802000
2000
شما یک انسان اولیه هستید که در دشتهای آفریقا قدم می زنید.
13:39
Is it just the windباد or a dangerousخطرناک است predatorشکارچی?
344
804000
3000
آیا تنها باد است یا یک درنده خطرناک؟
13:42
What's the differenceتفاوت betweenبین those?
345
807000
2000
تفاوت آن دو چیست؟
13:44
Well, the windباد is inanimateبی جان;
346
809000
2000
خب، باد بی جان است؛
13:46
the dangerousخطرناک است predatorشکارچی is an intentionalعمدی agentعامل.
347
811000
2000
درنده خطرناک یک عامل عامد است.
13:48
And I call this processروند agenticityمشروعیت.
348
813000
2000
و من این فرآیند را عامل گرایی می نامم.
13:50
That is the tendencyگرایش to infuseتزریق patternsالگوها
349
815000
2000
یعنی گرایش به حس کردن الگوهای
13:52
with meaningبه معنی, intentionقصد and agencyآژانس,
350
817000
2000
با معنی، هدفمند و با منظور،
13:54
oftenغالبا invisibleنامرئی beingsموجودات from the topبالا down.
351
819000
3000
و گه گاه موجودات ناپیدا از بالای سر.
13:57
This is an ideaاندیشه that we got
352
822000
2000
یک ایده ای است که پیدا کرده ایم
13:59
from a fellowهمکار TEDsterTEDster here, Danدن Dennettدنت,
353
824000
2000
از یک TEDباز در اینجا، Dan Dennet،
14:01
who talkedصحبت کرد about takingگرفتن the intentionalعمدی stanceحالت.
354
826000
2000
که در مورد گرفتن موضع عامد سخن گفته.
14:03
So it's a typeتایپ کنید of that expandedمنبسط to explainتوضیح, I think, a lot of differentناهمسان things:
355
828000
3000
پس این گونه ای گسترش یافته از آن است، به نظرم، برای توضیح بسیاری چیزها محتلف،
14:06
soulsروحیه, spiritsارواح, ghostsارواح, godsخدایان, demonsشیاطین, angelsفرشتگان,
356
831000
3000
ارواح، اشباح، خدایان، اهریمنان، فرشتگان،
14:09
aliensبیگانگان, intelligentباهوش - هوشمند designersطراحان,
357
834000
2000
موجودات فضایی، خالقان هوشمند،
14:11
governmentدولت conspiracistsتوطئه گران
358
836000
2000
طرفداران تئوری توطئه حکومتی
14:13
and all mannerشیوه of invisibleنامرئی agentsعاملان
359
838000
2000
و همه گونه عامل ناپیدای
14:15
with powerقدرت and intentionقصد, are believedمعتقد
360
840000
2000
توانمند و هدفمند، به نظر
14:17
to hauntپیروز باشید our worldجهان and controlکنترل our livesزندگی می کند.
361
842000
2000
به دنیای ما وارد شده و زندگیمان را کنترل می کنند.
14:19
I think it's the basisپایه of animismانیمیشنی
362
844000
2000
گمان می کنم این پایه ی جان پنداری است
14:21
and polytheismچندگانه and monotheismتوحید.
363
846000
3000
و چند خدایی و تک خدایی.
14:24
It's the beliefاعتقاد that aliensبیگانگان are somehowبه نحوی
364
849000
2000
باوری است که در آن موجودات فضایی کمابیش
14:26
more advancedپیشرفته than us, more moralاخلاقی than us,
365
851000
2000
از ما پیشرفته ترند، از ما با اخلاق ترند،
14:28
and the narrativesروایت ها always are
366
853000
2000
و روایت ها همواره اینگونه است که
14:30
that they're comingآینده here to saveصرفه جویی us and rescueنجات us from on highبالا.
367
855000
3000
دارند از آن بالاها می آیند تا ما را نجات دهند.
14:33
The intelligentباهوش - هوشمند designer'sطراح always portrayedبه تصویر کشیده
368
858000
2000
خالق هوشمند همواره اینطور تصویر شده
14:35
as this superفوق العاده intelligentباهوش - هوشمند, moralاخلاقی beingبودن
369
860000
3000
که ابر هوشمند و با اخلاق است
14:38
that comesمی آید down to designطرح life.
370
863000
2000
که می آید این پایین تا زندگی را طراحی کند.
14:40
Even the ideaاندیشه that governmentدولت can rescueنجات us --
371
865000
2000
حتی ایده ی اینکه دولت می تواند نجاتمان دهد.
14:42
that's no longerطولانی تر the waveموج of the futureآینده,
372
867000
2000
آن دیگر موج آینده نیست.
14:44
but that is, I think, a typeتایپ کنید of agenticityمشروعیت:
373
869000
2000
ولی، به نظرم، نوعی عامل گرایی است،
14:46
projectingطرح ریزی somebodyکسی up there,
374
871000
2000
تصور کردن یکی در آن بالا،
14:48
bigبزرگ and powerfulقدرتمند, will come rescueنجات us.
375
873000
2000
بزرگ و توانمند که می آید نجاتمان دهد.
14:50
And this is alsoهمچنین, I think, the basisپایه of conspiracyتوطئه theoriesنظریه ها.
376
875000
2000
و این همچنین، به نظرم، پایه ی تئوری های توطئه است.
14:52
There's somebodyکسی hidingقایم شدن behindپشت there pullingکشیدن the stringsرشته های,
377
877000
3000
کسی آن پشت پنهان شده و صحنه گردان است،
14:55
whetherچه it's the Illuminatiروشنایی
378
880000
2000
چه دسته روشن-ضمیران باشد
14:57
or the Bilderbergersبیلدربرگرها.
379
882000
2000
و چه گروه بیلدربرگ.
14:59
But this is a patternالگو detectionتشخیص problemمسئله, isn't it?
380
884000
2000
ولی این یک مشکل تشخیص الگو است، مگر نه.
15:01
Some patternsالگوها are realواقعی and some are not.
381
886000
2000
برخی الگو ها حقیقی اند و برخی نه.
15:03
Was JFKJFK assassinatedترور شد by a conspiracyتوطئه or by a loneتنها assassinقاتل?
382
888000
3000
آیا جان اف کندی با توطئه ترور شد یا توسط تروریستی مستقل؟
15:06
Well, if you go there -- there's people there on any givenداده شده day --
383
891000
3000
خب، اگر بروید آنجا -- هر روزی بروید یک عده آنجا هستند --
15:09
like when I wentرفتی there, here -- showingنشان دادن me where the differentناهمسان shootersتیراندازان were.
384
894000
3000
همانند وقتی که من رفتم، اینجا -- دارند نشانم می دهند تیراندازان مختلف کجا بودند.
15:12
My favoriteمورد علاقه one was he was in the manholeآشیانه.
385
897000
3000
آنی که در چاه بود مورد علاقه من است.
15:15
And he poppedظاهر شد out at the last secondدومین, tookگرفت that shotشات.
386
900000
3000
و در آخرین ثانیه پرید بیرون، و آن تیر را شلیک کرد.
15:18
But of courseدوره, Lincolnلینکلن was assassinatedترور شد by a conspiracyتوطئه.
387
903000
2000
ولی البته، آبراهام لینکن طی توطئه ترور شد.
15:20
So we can't just uniformlyیکنواخت dismissرد
388
905000
2000
پس نمی توان تمام
15:22
all patternsالگوها like that.
389
907000
2000
اینچنین الگوهایی را مردود شمرد.
15:24
Because, let's faceصورت it, some patternsالگوها are realواقعی.
390
909000
2000
زیرا، بگذارید قبول کنیم، برخی الگوها حقیقی اند.
15:26
Some conspiraciesتوطئه ها really are trueدرست است.
391
911000
2000
برخی توطئه ها واقعیت دارند.
15:30
Explainsتوضیح می دهد a lot, maybe.
392
915000
2000
خیلی گویا است، انگار.
15:32
And 9/11 has a conspiracyتوطئه theoryتئوری. It is a conspiracyتوطئه.
393
917000
3000
و 11 سپتامبر یک تئوری توطئه دارد. یک توطئه است.
15:35
We did a wholeکل issueموضوع on it.
394
920000
2000
ما یک شماره نشریه را به آن اختصاص دادیم.
15:37
Nineteenنوزده membersاعضا of Alآل QuedaQueda plottingنقشه برداری to flyپرواز planesهواپیما into buildingsساختمان ها
395
922000
2000
ریختن طرح 19 عضو القاعده برای هدایت هواپیماها به ساختمان ها
15:39
constitutesتشکیل می شود a conspiracyتوطئه.
396
924000
2000
نشان از یک توطئه است.
15:41
But that's not what the "9/11 truthersراستگویان" think.
397
926000
2000
اما این چیزی نیست که "حقیقت یابان 9/11" فکر می کنند.
15:43
They think it was an insideداخل jobکار by the Bushبوته administrationمدیریت.
398
928000
3000
آنها فکر می کنند یک برنامه داخلی در دولت بوش بوده.
15:46
Well, that's a wholeکل other lectureسخنرانی.
399
931000
2000
خب، آن یک سخنرانی دیگر است.
15:48
You know how we know that 9/11
400
933000
2000
ولی می دانید چرا فکر می کنیم 9/11
15:50
was not orchestratedهماهنگ شده by the Bushبوته administrationمدیریت?
401
935000
2000
توسط دولت بوش انجام نشد؟
15:52
Because it workedکار کرد.
402
937000
2000
زیرا کار کرد.
15:54
(Laughterخنده)
403
939000
3000
(خنده)
15:57
(Applauseتشویق و تمجید)
404
942000
3000
(کف زدن)
16:00
So we are natural-bornزایمان طبیعی dualistsدوگانه.
405
945000
2000
پس ما دوگانه گرایان زاده طبیعت ایم.
16:02
Our agenticityمشروعیت processروند comesمی آید from
406
947000
2000
فرآیند عامل گرایی مان سرچشمه از
16:04
the factواقعیت that we can enjoyلذت بردن moviesفیلم ها like these.
407
949000
2000
این حقیقت می گیرد که از فیلمهایی چنین خوشمان می آید.
16:06
Because we can imagineتصور کن, in essenceذات,
408
951000
2000
زیرا می توانیم تصور کنیم، در اصل،
16:08
continuingادامه دادن on.
409
953000
2000
ادامه را.
16:10
We know that if you stimulateتحریک the temporalموقتی lobeلوب,
410
955000
2000
می دانیم اگر لوب گیجگاهی را تحریک کنید،
16:12
you can produceتولید کردن a feelingاحساس of out-of-bodyخارج از بدن experiencesتجربیات,
411
957000
2000
می توانید تجربه حس خارج-از-بدن را بیافرینید،
16:14
near-deathنزدیک مرگ experiencesتجربیات,
412
959000
2000
احساس های نزدیک-به-مرگ،
16:16
whichکه you can do by just touchingلمس کردن an electrodeالکترود to the temporalموقتی lobeلوب there.
413
961000
3000
که می توان با تنها لمس چند الکترود به لوب گیجگاهی انجام داد.
16:19
Or you can do it throughاز طریق lossاز دست دادن of consciousnessآگاهی,
414
964000
2000
یا می توانید با از هوش رفتن انجام دهید،
16:21
by acceleratingتسریع in a centrifugeسانتریفیوژ.
415
966000
2000
با شتاب گرفتن در یک دستگاه گریز از مرکز.
16:23
You get a hypoxiaهیپوکسی, or a lowerپایین تر oxygenاکسیژن.
416
968000
3000
نبود یا کمبود اکسیژن پیدا میکند.
16:26
And the brainمغز then sensesاحساسات
417
971000
2000
و مغز سپس حس می کند
16:28
that there's an out-of-bodyخارج از بدن experienceتجربه.
418
973000
2000
تجربه ی خارج-از-بدن پیدا کرده است.
16:30
You can use -- whichکه I did, wentرفتی out and did --
419
975000
2000
می توانید -- که من انجام دادم، رفتم و انجام دادم --
16:32
Michaelمایکل Persinger'sPersinger's God Helmetکلاه ایمنی,
420
977000
2000
"کلاه خدا"ی مایکل پرسینجر را بکار برید،
16:34
that bombardsبمبارداران your temporalموقتی lobesلوب ها with electromagneticالکترومغناطیسی wavesامواج.
421
979000
2000
که لوب گیجگاهی شما را با امواج الکترومغناطیس بمباران می کند.
16:36
And you get a senseاحساس of out-of-bodyخارج از بدن experienceتجربه.
422
981000
3000
و شما تجربه خارج-از-بدن را حس می کنید.
16:39
So I'm going to endپایان here with a shortکوتاه videoویدئو clipکلیپ
423
984000
2000
پس می خواهم با یک کلیپ ویدئویی کوتاه خاتمه دهم
16:41
that sortمرتب سازی of bringsبه ارمغان می آورد all this togetherبا یکدیگر.
424
986000
2000
که کمابیش شامل همه اینها می شود.
16:43
It's just a minuteدقیقه and a halfنیم.
425
988000
2000
فقط یک و نیم دقیقه است.
16:45
It tiesروابط togetherبا یکدیگر all this into the powerقدرت of expectationانتظار and the powerقدرت of beliefاعتقاد.
426
990000
3000
جمع بندی همه اینهاست در قدرت انتظار داشتن و قدرت باور.
16:48
Go aheadدر پیش and rollرول it.
427
993000
2000
بروید ببینید.
16:50
Narratorراوی: This is the venueمحل they choseانتخاب کرد for theirخودشان fakeجعلی auditionsآزمایشی
428
995000
3000
این مکانی است که برای وانمود کردن آزمون هنرپیشگی برگزیدند
16:53
for an advertآگهی for lipلب balmمومیایی کردن.
429
998000
2000
برای آگهی بازرگانی یک مرطوب کننده لب.
16:55
Womanزن: We're hopingامید we can use partبخشی of this
430
1000000
2000
امیدواریم بتوانیم بخشی از این را
16:57
in a nationalملی commercialتجاری, right?
431
1002000
2000
در یک آگهی ملی استفاده کنیم، درست.
16:59
And this is testتست on some lipلب balmsمومیایی کردن
432
1004000
2000
و این آزمون برای برخی مرطوب کننده های لب
17:01
that we have over here.
433
1006000
2000
که اینجا داریم.
17:03
And these are our modelsمدل ها who are going to help us,
434
1008000
2000
و اینها مدل های ما اند که به ما کمک خواهند کرد،
17:05
Rogerراجر and Mattمات.
435
1010000
2000
راجر و مت.
17:07
And we have our ownخودت lipلب balmمومیایی کردن,
436
1012000
2000
و ما مرطوب کننده لب خودمان را داریم،
17:09
and we have a leadingمنتهی شدن brandنام تجاری.
437
1014000
2000
و یک مارک پیشرو داریم.
17:11
Would you have any problemمسئله
438
1016000
2000
آیا مشکلی دارید
17:13
kissingبوس کردن our modelsمدل ها to testتست it?
439
1018000
2000
با بوسیدن مدل هایمان برای آزمودنش؟
17:15
Girlدختر: No.
440
1020000
2000
نه.
17:17
Womanزن: You wouldn'tنمی خواهم? (Girlدختر: No.) Womanزن: You'dمی خواهی think that was fine.
441
1022000
2000
ندارید؟ (دختر: نه.) خانم: فکر می کنید خوب است؟
17:19
Girlدختر: That would be fine. (Womanزن: Okay.)
442
1024000
2000
خوب است. (خانم: بسیار خوب.)
17:21
So this is a blindنابینا testتست.
443
1026000
3000
خب این یک آزمون چشم بسته است.
17:24
I'm going to askپرسیدن you to go aheadدر پیش
444
1029000
2000
می خواهم از شما تقاضا کنم که
17:26
and put a blindfoldچشم بسته on.
445
1031000
2000
یک چشم بند بزنید.
17:29
Kayکای, now can you see anything? (Girlدختر: No.)
446
1034000
3000
کی، آیا اکنون چیزی میبینی؟ ( نه.)
17:32
Pullکشیدن it so you can't even see down. (Girlدختر: Okay.)
447
1037000
2000
آن را طوری بکشید که حتی پایین را هم نتوانید ببینید. ( بسیار خوب.)
17:34
Womanزن: It's completelyبه صورت کامل blindنابینا now, right?
448
1039000
2000
اکنون کاملا چشم بسته است، درسته؟
17:36
Girlدختر: Yes. (Womanزن: Okay.)
449
1041000
2000
بله. ( بسیار خب.)
17:38
Now, what I'm going to be looking for in this testتست
450
1043000
3000
حال، چیزی که در این آزمون دنبالش هستم
17:41
is how it protectsمحافظت می کند your lipsلب ها,
451
1046000
3000
این است که چطور از لب های شما محافظت می کند،
17:44
the textureبافت, right,
452
1049000
2000
بافتش، درست،
17:46
and maybe if you can discernتشخیص دهید any flavorعطر و طعم or not.
453
1051000
3000
و اینکه آیا میتوانید هیچ طعمی تشخیص دهید.
17:49
Girlدختر: Okay. (Womanزن: Have you ever doneانجام شده a kissingبوس کردن testتست before?)
454
1054000
3000
بسیارخوب. ( آیا پیش از این بوسیده اید؟)
17:52
Girlدختر: No.
455
1057000
2000
نه.
17:54
Womanزن: Take a stepگام here.
456
1059000
2000
یک گام بردارید اینجا.
17:56
Okay, now I'm going to askپرسیدن you to puckerپیکر up.
457
1061000
2000
بسیار خب، اکنون ازتان میخواهم لبتان را غنچه کنید.
17:58
Puckerپیکر up bigبزرگ and leanلاغر in just a little bitبیت, okay?
458
1063000
3000
بسیار غنچه کرده و کمی خم شوید، بسیار خب.
18:06
(Musicموسیقی)
459
1071000
4000
(موسیقی)
18:10
(Laughterخنده)
460
1075000
5000
(خنده)
18:19
(Laughterخنده)
461
1084000
3000
(خنده)
18:30
Womanزن: Okay.
462
1095000
2000
بسیار خب.
18:32
And, Jenniferجنیفر, how did that feel?
463
1097000
2000
و، جنیفر، چطور بود؟
18:34
Jenniferجنیفر: Good.
464
1099000
2000
خوب.
18:36
(Laughterخنده)
465
1101000
7000
(خنده)
18:43
Girlدختر: Oh my God!
466
1108000
2000
آه، خدای من.
18:45
(Laughterخنده)
467
1110000
4000
(خنده)
18:50
Michaelمایکل Shermerشرمر: Thank you very much. Thank you. Thanksبا تشکر.
468
1115000
3000
بسیار سپاسگزارم. خیلی ممنون.
Translated by Amir -
Reviewed by soheila Jafari

▲Back to top

ABOUT THE SPEAKER
Michael Shermer - Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market.

Why you should listen

As founder and publisher of Skeptic Magazine, Michael Shermer has exposed fallacies behind intelligent design, 9/11 conspiracies, the low-carb craze, alien sightings and other popular beliefs and paranoias. But it's not about debunking for debunking's sake. Shermer defends the notion that we can understand our world better only by matching good theory with good science.

Shermer's work offers cognitive context for our often misguided beliefs: In the absence of sound science, incomplete information can powerfully combine with the power of suggestion (helping us hear Satanic lyrics when "Stairway to Heaven" plays backwards, for example). In fact, a common thread that runs through beliefs of all sorts, he says, is our tendency to convince ourselves: We overvalue the shreds of evidence that support our preferred outcome, and ignore the facts we aren't looking for.

He writes a monthly column for Scientific American, and is an adjunct at Claremont Graduate University and Chapman University. His latest book is The Believing Brain: From Ghosts and Gods to Politics and Conspiracies—How We Construct Beliefs and Reinforce Them as Truths. He is also the author of The Mind of the Market, on evolutionary economics, Why Darwin Matters: Evolution and the Case Against Intelligent Design, and The Science of Good and Evil. And his next book is titled The Moral Arc of Science.

More profile about the speaker
Michael Shermer | Speaker | TED.com