ABOUT THE SPEAKER
Michael Shermer - Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market.

Why you should listen

As founder and publisher of Skeptic Magazine, Michael Shermer has exposed fallacies behind intelligent design, 9/11 conspiracies, the low-carb craze, alien sightings and other popular beliefs and paranoias. But it's not about debunking for debunking's sake. Shermer defends the notion that we can understand our world better only by matching good theory with good science.

Shermer's work offers cognitive context for our often misguided beliefs: In the absence of sound science, incomplete information can powerfully combine with the power of suggestion (helping us hear Satanic lyrics when "Stairway to Heaven" plays backwards, for example). In fact, a common thread that runs through beliefs of all sorts, he says, is our tendency to convince ourselves: We overvalue the shreds of evidence that support our preferred outcome, and ignore the facts we aren't looking for.

He writes a monthly column for Scientific American, and is an adjunct at Claremont Graduate University and Chapman University. His latest book is The Believing Brain: From Ghosts and Gods to Politics and Conspiracies—How We Construct Beliefs and Reinforce Them as Truths. He is also the author of The Mind of the Market, on evolutionary economics, Why Darwin Matters: Evolution and the Case Against Intelligent Design, and The Science of Good and Evil. And his next book is titled The Moral Arc of Science.

More profile about the speaker
Michael Shermer | Speaker | TED.com
TED2010

Michael Shermer: The pattern behind self-deception

მაიკლ შერმერი: თავის მოტყუების სტრუქტურა

Filmed:
2,854,890 views

მაიკლ შერმერი გვეუბნება, რომ ადამიანთა ტენდენცია დაჯერონ უცნაურობები, დადის ტვინის ორ ყველაზე საბაზისო, თანდაყოლილ თვითგადარჩენის უნარზე. ის ხსნის ამ უნარებს და გვეუბნება, თუ როგორ გვაზარალებს ისინი.
- Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market. Full bio

Double-click the English transcript below to play the video.

00:16
So since I was here last in '06,
0
1000
3000
მას შემდეგ რაც ბოლოს აქ ვიყავი 06-ში,
ჩვენ აღმოვაჩინეთ,
რომ გლობალური კლიმატის ცვლილება
00:19
we discovered that global climate change
1
4000
2000
00:21
is turning out to be a pretty serious issue,
2
6000
2000
საკმაოდ სერიოზულ პრობლემას წარმოადგენს.
00:23
so we covered that fairly extensively
3
8000
2000
ჩვენ ეს საკმაოდ ფართედ მიმოვიხილეთ
00:25
in Skeptic magazine.
4
10000
2000
ჟურნალ "სკეპტიკოსში".
00:27
We investigate all kinds
5
12000
2000
ჩვენ ვიკვლევთ ყველა სახის
00:29
of scientific and quasi-scientific controversies,
6
14000
3000
მეცნიერულ და კვაზიმეცნიერულ დავებს,
00:32
but it turns out we don't have to worry about any of this
7
17000
2000
მაგრამ როგორც აღმოჩნდა,
სადარდებელი არაფერია,
00:34
because the world's going to end in 2012.
8
19000
2000
რადგან 2012-ში სამყაროს დასასრულია.
00:36
Another update:
9
21000
2000
კიდევ ერთი სიახლე:
00:38
You will recall I introduced you guys
10
23000
2000
გახსოვთ, რომ გაგაცანით
00:40
to the Quadro Tracker.
11
25000
2000
"Quadro Tracker"
00:42
It's like a water dowsing device.
12
27000
2000
ეს წყლის საძიებო მოწყობილობასავით არის.
00:44
It's just a hollow piece of plastic with an antenna that swivels around.
13
29000
3000
ეს პლასტმასის ნაჭერზე მიმაგრებული ანტენაა,
რომელიც ტრიალებს.
00:47
And you walk around, and it points to things.
14
32000
2000
თქვენ დადიხართ და ის
რაღაც ნივთებისკენ მიანიშნებს
00:49
Like if you're looking for marijuana in students' lockers,
15
34000
3000
მაგალითად, მარიხუანის მოსაძებნად
სტუდენტების კარადებში.
00:52
it'll point right to somebody.
16
37000
2000
ის ვიღაცაზე მიანიშნებს.
00:54
Oh, sorry. (Laughter)
17
39000
2000
უკაცრავად... (სიცილი)
00:56
This particular one that was given to me
18
41000
2000
ეს მოწყობილობა, რომელიც მომცეს
00:58
finds golf balls,
19
43000
2000
გოლფის ბურთებს ეძებს.
01:00
especially if you're at a golf course
20
45000
2000
განსაკუთრებით თუ გოლფის მინდორზე ხართ
01:02
and you check under enough bushes.
21
47000
3000
და საკმარისად ბევრ ბუჩქს თუ შეამოწმებთ.
01:05
Well, under the category of "What's the harm of silly stuff like this?"
22
50000
3000
თემაზე:
"რას შეიძლება ვნებდეს ასეთი სისულელეები?"
01:08
this device, the ADE 651,
23
53000
3000
ეს მოწყობილობა, ADE 651,
01:11
was sold to the Iraqi government
24
56000
3000
ერაყის მთავრობამ იყიდა
01:14
for 40,000 dollars apiece.
25
59000
2000
თითო 40 000 დოლარად.
01:16
It's just like this one, completely worthless,
26
61000
2000
ზუსტად ასეთია, სრულიად უსარგებლო,
01:18
in which it allegedly worked by "electrostatic
27
63000
2000
იმ საქმისთვის რისთვისაც უნდა ემუშავა
01:20
magnetic ion attraction,"
28
65000
3000
"იონების ელექტროსტატიკური
მაგნიტური მიზიდულობა"
01:24
which translates to
29
69000
2000
რაც თარგმანში ნიშნავს:
01:26
"pseudoscientific baloney" -- would be the nice word --
30
71000
3000
"ფსევდომეცნიერული ბოდვა"...
ეს იქნებოდა შესაფერისი შესატყვისი..
01:29
in which you string together a bunch of words that sound good,
31
74000
2000
როცა ბევრ კარგ სიტყვას ერთად ყრი,
01:31
but it does absolutely nothing.
32
76000
2000
მაგრამ სინამდვილეში ის არაფერს აკეთებს.
01:33
In this case, at trespass points,
33
78000
3000
ამ შემთხვევაში, სასაზღვრო პუნქტებზე
01:36
allowing people to go through
34
81000
2000
ხალხს ატარებდნენ,
01:38
because your little tracker device said they were okay,
35
83000
3000
რადგან ამ დანადგარმა თქვა,
რომ ყველაფერი წესრიგშია.
01:41
actually cost lives.
36
86000
3000
რაც ვიღაცეების სიცოცხლის ფასად დაჯდა.
01:44
So there is a danger to pseudoscience,
37
89000
2000
ამიტომ არსებობს საფრთხეები
ფსევდომეცნიერებაში,
01:46
in believing in this sort of thing.
38
91000
3000
და მსგავსი რამეების დაჯერებაში.
01:49
So what I want to talk about today is belief.
39
94000
3000
მაშ, დღეს მინდა ვილაპარაკო რწმენაზე.
01:52
I want to believe,
40
97000
2000
მე მინდა დავიჯერო,
01:54
and you do too.
41
99000
2000
და თქვენც გინდათ.
01:56
And in fact, I think my thesis here is that
42
101000
2000
პრინციპში, ჩემი თეზისი იქნებოდა ის,
01:58
belief is the natural state of things.
43
103000
2000
რომ რწმენა ბუნებრივი მდგომარეობაა.
02:00
It is the default option. We just believe.
44
105000
2000
გაჩუმებითი არჩევანი. ჩვენ უბრალოდ გვჯერა.
02:02
We believe all sorts of things.
45
107000
2000
ჩვენ გვჯერა ბევრი სხვადასხვა რამის.
02:04
Belief is natural;
46
109000
2000
რწმენა ბუნებრივია;
02:06
disbelief, skepticism, science, is not natural.
47
111000
2000
ურწმუნობა, სკეპტიციზმი, მეცნიერება
- არაბუნებრივი.
02:08
It's more difficult.
48
113000
2000
ის უფრო ძნელია.
02:10
It's uncomfortable to not believe things.
49
115000
2000
არაკომფორტულია არ გჯეროდეს რაღაცეების.
02:12
So like Fox Mulder on "X-Files,"
50
117000
3000
როგორც ფოქს მალდერი
"საიდუმლო მასალებიდან",
02:15
who wants to believe in UFOs? Well, we all do,
51
120000
3000
რომელსაც უნდა, რომ სჯეროდეს ამო-ების,
ასევე ვართ ჩვენც.
02:18
and the reason for that is because
52
123000
2000
ეს იმიტომ,
02:20
we have a belief engine in our brains.
53
125000
3000
რომ ჩვენ რწმენის
მექანიზმი გვაქვს ტვინებში.
02:23
Essentially, we are pattern-seeking primates.
54
128000
3000
ჩვენ სტრუქტურის მაძიებელი პრიმატები ვართ.
02:26
We connect the dots: A is connected to B; B is connected to C.
55
131000
3000
ჩვენ ვაკავშირებთ წერტილებს.
A დაკავშირებულია B-თან, B კი C-თან
02:29
And sometimes A really is connected to B,
56
134000
3000
ზოგჯერ A მართლაც არის დაკავშირებული
B-თან
02:32
and that's called association learning.
57
137000
2000
და ამას ასცოიაციური აზროვნება ჰქვია.
02:34
We find patterns, we make those connections,
58
139000
3000
ჩვენ ვპოულობთ სტრუქტურას,
ვაკავშირებთ მოვლენებს.
02:37
whether it's Pavlov's dog here
59
142000
2000
იქნება ეს პავლოვის ძაღლი,
02:39
associating the sound of the bell with the food,
60
144000
3000
რომელიც ზარს საჭმელს უკავშირებდა
02:42
and then he salivates to the sound of the bell,
61
147000
2000
და მის ხმაზე ნერწყვი მოსდიოდა,
02:44
or whether it's a Skinnerian rat,
62
149000
2000
თუ სკინერის ვირთხა,
02:46
in which he's having an association
63
151000
2000
რომლის ქმედებასთან,
02:48
between his behavior and a reward for it,
64
153000
2000
მისი წახალისების ასოცირება ხდება,
02:50
and therefore he repeats the behavior.
65
155000
2000
შესაბამისად ის იმეორებს ქმედებას.
02:52
In fact, what Skinner discovered
66
157000
2000
სკინერმა რაც აღმოაჩინა არის ის,
02:54
is that, if you put a pigeon in a box like this,
67
159000
3000
რომ თუ თქვენ
მტრედს მსგავს ყუთში მოათავსებთ,
02:57
and he has to press one of these two keys,
68
162000
2000
სადაც მან ამ ორი ღილაკიდან
ერთ-ერთს უნდა დააჭიროს,
02:59
and he tries to figure out what the pattern is,
69
164000
2000
ის ეცდება დაადგინოს კანონზომიერება,
03:01
and you give him a little reward in the hopper box there --
70
166000
2000
ყოველი ქმედების შემდეგ მას აჯილდოვებთ.
03:03
if you just randomly assign rewards
71
168000
3000
თუ თქვენ შემთხვევითად მისცემთ ჯილდოს,
03:06
such that there is no pattern,
72
171000
2000
ყველანაირი კანონზომიერების გარეშე,
03:08
they will figure out any kind of pattern.
73
173000
2000
ისინი მაინც ეცდებიან
დაადგინონ რაიმე სტრუქტურა
03:10
And whatever they were doing just before they got the reward,
74
175000
2000
და რასაც ჯილდოს მიცემის წინ აკეთებდნენ,
03:12
they repeat that particular pattern.
75
177000
2000
იმავეს გაიმეორებენ.
03:14
Sometimes it was even spinning around twice counterclockwise,
76
179000
3000
ზოგჯერ ეს საათის ისრის საწინააღმდეგოდ
ორჯერ ბრუნვაც იყო,
03:17
once clockwise and peck the key twice.
77
182000
3000
ერთხელ საათის მიმართულებით
და ღილაკზე ორჯერ ჩანისკარტება.
03:20
And that's called superstition,
78
185000
2000
ამას ცრურწმენა ჰქვია.
03:22
and that, I'm afraid,
79
187000
2000
ვშიშობ,
03:24
we will always have with us.
80
189000
2000
რომ ეს ჩვენში მუდმივად იქნება.
03:26
I call this process "patternicity" --
81
191000
2000
მე ამას "სტრუქტურომანიას" ვუწოდებ.
03:28
that is, the tendency to find meaningful patterns
82
193000
2000
რაც არის აზრიანი სტრუქტურების
ძიების ტენდენცია,
03:30
in both meaningful and meaningless noise.
83
195000
3000
როგორც აზრიან, ისე უაზრო ხმაურში.
03:33
When we do this process, we make two types of errors.
84
198000
3000
როცა ჩვენ ამას ვაკეთებთ,
ორი ტიპის შეცდომას ვუშვებთ.
03:36
A Type I error, or false positive,
85
201000
2000
პირველი ტიპის - მცდარი პოზიტივი,
03:38
is believing a pattern is real
86
203000
2000
არის იმის დაჯერება,
რომ სტრუქტურა ნამდვილია,
03:40
when it's not.
87
205000
2000
მაშინ როცა ასე არ არის.
03:42
Our second type of error is a false negative.
88
207000
2000
მეორე ტიპის შეცდომა - მცდარი ნეგატივი.
03:44
A Type II error is not believing
89
209000
2000
არის შეცდომა, როცა არ გვჯერა
03:46
a pattern is real when it is.
90
211000
3000
რომ სტრუქტრა ნამდვილია,
მაშინ როცა ის ნამდვილია.
03:49
So let's do a thought experiment.
91
214000
2000
მოდით ჩავატაროთ გონებრივი ექპერიმენტი.
03:51
You are a hominid three million years ago
92
216000
2000
თქვენ ხართ
მილიონი წლის წინანდელი ჰომინიდი,
03:53
walking on the plains of Africa.
93
218000
3000
რომელიც აფრიკის ღია სივრცეში დაბოდიალებს.
03:56
Your name is Lucy, okay?
94
221000
2000
თქვენ ლუსი გქვიათ
03:58
And you hear a rustle in the grass.
95
223000
2000
და ბალახის შრიალი გესმით.
04:00
Is it a dangerous predator,
96
225000
2000
არის ეს სახიფათო მტაცებელი,
04:02
or is it just the wind?
97
227000
2000
თუ უბრალოდ ქარია?
04:04
Your next decision could be the most important one of your life.
98
229000
3000
თქვენი შემდგომი გადაწყვეტილება, შეიძლება
ყველაზე მნიშვნელოვანი იყოს ცხოვრებაში.
04:07
Well, if you think that the rustle in the grass is a dangerous predator
99
232000
3000
თუ თქვენ გადაწყვეტთ, რომ ეს მტაცებელია
04:10
and it turns out it's just the wind,
100
235000
2000
და ქარი აღმოჩნდება,
04:12
you've made an error in cognition,
101
237000
2000
თქვენ ამოცნობაში შეცდომა დაუშვით.
04:14
made a Type I error, false positive.
102
239000
2000
პირველი ტიპის შეცდომა, მცდარი პოზიტივი,
04:16
But no harm. You just move away.
103
241000
2000
თუმცა უვნებელი შეცდომაა
და უბრალოდ გაერიდებით.
04:18
You're more cautious. You're more vigilant.
104
243000
2000
ეს ნიშნავს,
რომ უფრო ფრთხილად და ფხიზლად ხართ.
04:20
On the other hand, if you believe that the rustle in the grass is just the wind,
105
245000
2000
მეორეს მხრივ, თუ თქვენ გადაწყვეტთ,
რომ ეს მხოლოდ ქარია
04:22
and it turns out it's a dangerous predator,
106
247000
3000
და სინამდვილეში
სახიფათო მტაცებელი აღმოჩნდება,
04:25
you're lunch.
107
250000
2000
თქვენ ლანჩი გახდებით.
04:27
You've just won a Darwin award.
108
252000
2000
თქვენ ამით დარვინის პრიზს მოიგებთ.
04:29
You've been taken out of the gene pool.
109
254000
2000
გენოფონდიდან ამოღებული იქნებით.
04:31
Now the problem here is that
110
256000
2000
პრობლემა იმაშია,
04:33
patternicities will occur whenever the cost
111
258000
2000
რომ სტრუქტურომანია მაშინ ჩნდება,
04:35
of making a Type I error
112
260000
2000
როცა პირველი ტიპის შეცდომის ფასი
04:37
is less than the cost of making a Type II error.
113
262000
2000
უფრო ნაკლებია, ვიდრე მეორე ტიპის.
04:39
This is the only equation in the talk by the way.
114
264000
2000
სხვათაშორის,
ეს ერთადერთი ფორმულაა გამოსვლაში.
04:41
We have a pattern detection problem
115
266000
2000
ჩვენ სტრუქტურის დადგენის პრობლემა გვაქვს.
04:43
that is assessing the difference between a Type I and a Type II error
116
268000
3000
ანუ პირველი და მეორე ტიპის
შეცდომას შორის,
04:46
is highly problematic,
117
271000
2000
განსხვავების შეფასებაშია პრობლემა.
04:48
especially in split-second, life-and-death situations.
118
273000
3000
განსაკუთრებით მყისიერად,
სიკვდილ-სიცოცხლის სიტუაციაში.
04:51
So the default position
119
276000
2000
ამიტომ გაჩუმებითი პოზიციაა:
04:53
is just: Believe all patterns are real --
120
278000
2000
დავიჯეროთ, რომ ყველა სტრუქტურა ნამდვილია.
04:55
All rustles in the grass are dangerous predators
121
280000
3000
ბალახის ყველა შრიალი სახიფათო მტაცებელია
04:58
and not just the wind.
122
283000
2000
და არა უბრალოდ ქარი.
05:00
And so I think that we evolved ...
123
285000
2000
ჩვენ ასეთი ევოლუცია განვიცადეთ...
05:02
there was a natural selection for the propensity for our belief engines,
124
287000
3000
ბუნებრივი გადარჩევა,
05:05
our pattern-seeking brain processes,
125
290000
2000
სტრუქტურის მაძებარი
ტვინის სასარგებლოდ მოხდა,
05:07
to always find meaningful patterns
126
292000
2000
რომელიც ყოველთვის აზრიან სტრუქტურას ეძებს
05:09
and infuse them with these sort of
127
294000
2000
და აკუთვნებს მას
05:11
predatory or intentional agencies that I'll come back to.
128
296000
3000
ვიღაცის მტაცებლურ განზრახვას,
რასაც მოგვიანებით დავუბრუნდები.
05:14
So for example, what do you see here?
129
299000
2000
მაგალითად, რას ხედავთ აქ?
05:16
It's a horse head, that's right.
130
301000
2000
მართალია, ცხენის თავი.
05:18
It looks like a horse. It must be a horse.
131
303000
2000
ცხენივით გამოიყურება. ცხენი უნდა იყოს.
05:20
That's a pattern.
132
305000
2000
ასეთი სტრუქტურაა,
05:22
And is it really a horse?
133
307000
2000
მაგრამ ნამდვილად ცხენია თუ არა?
05:24
Or is it more like a frog?
134
309000
3000
ან იქნებ უფრო ბაყაყივითაა?
05:27
See, our pattern detection device,
135
312000
2000
ხედავთ,
სტრუქტურის დამდგენი ჩვენი მოწყობილობა,
05:29
which appears to be located in the anterior cingulate cortex --
136
314000
3000
რომელიც სარტყლისებრი ქერქის
წინა ნაწილში მდებარეობს...
05:32
it's our little detection device there --
137
317000
3000
ეს ჩვენი პატარა მოწყობილობა,
05:35
can be easily fooled, and this is the problem.
138
320000
2000
მარტივად გასაბითურებელია,
სწორედ ესაა პრობლემა.
05:37
For example, what do you see here?
139
322000
2000
მაგალითად, რას ხედავთ აქ?
05:39
Yes, of course, it's a cow.
140
324000
3000
დიახ, რა თქმა უნდა. ეს ძროხაა.
05:42
Once I prime the brain -- it's called cognitive priming --
141
327000
3000
მას შემდეგ რაც ტვინი განვაწყე,
რასაც კოგნიტიური პრაიმინგი ჰქვია..
05:45
once I prime the brain to see it,
142
330000
2000
როცა თქვენს ტვინს განვაწყობ,
სწორედ იმას დაინახავს.
05:47
it pops back out again even without the pattern that I've imposed on it.
143
332000
3000
ის კვლავ გიხტებათ სტრუქტურის
თავს მოხვევის გარეშეც.
რას ხედავთ აქ?
05:50
And what do you see here?
144
335000
2000
05:52
Some people see a Dalmatian dog.
145
337000
2000
ზოგი დალმატინელს ხედავს.
05:54
Yes, there it is. And there's the prime.
146
339000
2000
დიახ, აი ის და აი პრაიმი.
05:56
So when I go back without the prime,
147
341000
2000
მას შემდეგ,
რაც უკვე პრაიმის გარეშე გაჩვენებთ,
05:58
your brain already has the model
148
343000
2000
თქვენს ტვინს უკვე აქვს მოდელი,
06:00
so you can see it again.
149
345000
2000
ამიტომ მაინც ხედავთ.
06:02
What do you see here?
150
347000
3000
აქ რას ხედავთ?
06:05
Planet Saturn. Yes, that's good.
151
350000
2000
სატურნს. ძალიან კარგი.
06:07
How about here?
152
352000
3000
აქ?
06:10
Just shout out anything you see.
153
355000
3000
უბრალოდ წამოიყვირეთ
რასაც დაინახავთ
06:14
That's a good audience, Chris.
154
359000
2000
მშვენიერი აუდიტორიაა, კრის.
06:16
Because there's nothing in this. Well, allegedly there's nothing.
155
361000
3000
აქ ხომ არაფერია.
როგორც ამბობენ - არაფერია.
06:19
This is an experiment done by Jennifer Whitson
156
364000
3000
ეს ჯენიფერ უიტსონის ექსპერიმენტია
06:22
at U.T. Austin
157
367000
2000
რომელიც მან ოსტინში,
ტეხასის უნივერსიტეტში,
06:24
on corporate environments
158
369000
2000
კორმპორატიულ წრეში ჩაატარა.
06:26
and whether feelings of uncertainty and out of control
159
371000
3000
იმის დასადგენად, აიძულებს თუ არა
გაურკვევლობა და უკონტროლობა
06:29
makes people see illusory patterns.
160
374000
2000
ადამიანებს
დაინახონ წარმოსახვითი სტრუქტურები
06:31
That is, almost everybody sees the planet Saturn.
161
376000
3000
აქ თითქმის ყველა სატურნს ხედავს.
06:34
People that are put in a condition of feeling out of control
162
379000
3000
ადამიანებმა,
რომლებიც უკონტროლო მდგომარეობაში არიან,
06:37
are more likely to see something in this,
163
382000
2000
უფრო დიდი შანსა დაინახონ ამაში რაღაც,
06:39
which is allegedly patternless.
164
384000
3000
რაშიც არანაირი სტრუქტურა არ არსებობს.
06:42
In other words, the propensity to find these patterns
165
387000
3000
ანუ სტრუქტურის მონახვისკენ სწრაფვა,
06:45
goes up when there's a lack of control.
166
390000
3000
უკონტროლობის პირობებში იზრდება.
06:48
For example, baseball players are notoriously superstitious
167
393000
3000
მაგალითად, ბეისბოლის მოთამაშეები
განსაკუთრებით ცრუმორწმუნეები არიან
06:51
when they're batting,
168
396000
2000
დარტყმის(ბეთინგის) დროს,
06:53
but not so much when they're fielding.
169
398000
2000
მაგრამ ნაკლებად როცა მინდორში თამაშობენ,
06:55
Because fielders are successful
170
400000
2000
რადგან მინდვრის მოთამაშეების(ფილდერების)
06:57
90 to 95 percent of the time.
171
402000
2000
90-95% წარმატებას აღწევს.
06:59
The best batters fail seven out of 10 times.
172
404000
3000
საუკეთესო ბეთერების 10-დან 7 დარტყმა
წარუმატებელია.
07:02
So their superstitions, their patternicities,
173
407000
2000
მათი ცრურწმენა,
მათი სტრუქტურის მაძიებლობა,
07:04
are all associated with feelings of lack of control
174
409000
3000
დაკავშირებულია უკონტროლობის შეგრძნებებთან
07:07
and so forth.
175
412000
2000
და ა.შ.
07:10
What do you see in this particular one here, in this field?
176
415000
3000
რას ხედავთ ამ კონკრეტულ სურათზე?
07:13
Anybody see an object there?
177
418000
2000
ვინმე ხედავს ობიექტს?
07:15
There actually is something here,
178
420000
2000
სინამდვილეში აქ მართლაც რაღაცაა,
07:17
but it's degraded.
179
422000
2000
ოღონდ ხარისხ დაქვეითებული.
07:19
While you're thinking about that,
180
424000
2000
სანამ ამაზე ფიქრობთ,
07:21
this was an experiment done by Susan Blackmore,
181
426000
2000
ეს ექსპერიმენტი ფსიქოლოგმა ინგლისიდან,
07:23
a psychologist in England,
182
428000
2000
სიუზან ბლექმორმა ჩაატარა.
07:25
who showed subjects this degraded image
183
430000
2000
მან მონაწილეებს
ეს ხარისხ დაქვეითებული სურათი აჩვენა
07:27
and then ran a correlation between
184
432000
2000
და შემდეგ დააკვირდა კორელაციას
07:29
their scores on an ESP test:
185
434000
2000
მათ ექსტრასენსორული აღქმების
ტესტებთან (ეატ):
07:31
How much did they believe in the paranormal,
186
436000
2000
რამდენად სჯერათ მათ პარანორმალურობების,
07:33
supernatural, angels and so forth.
187
438000
3000
ცრურწმენების, ანგელოზების და ა.შ.
07:36
And those who scored high on the ESP scale,
188
441000
3000
და მათ ვისაც ე.ა.ტ. ტესტზე
მაღალი მაჩვენებელი ჰქონდა
07:39
tended to not only see
189
444000
2000
არა მხოლოდ უფრო მეტ სტრუქტურას ხედავდნენ
07:41
more patterns in the degraded images
190
446000
2000
ხარისხ დაქვეითებულ სურათებში,
07:43
but incorrect patterns.
191
448000
2000
არამედ არასწორ სტრუქტურებსაც.
07:45
Here is what you show subjects.
192
450000
2000
აი რას აჩვენებდნენ
ექსპერიმენტის მონაწილეებს.
07:47
The fish is degraded 20 percent, 50 percent
193
452000
3000
თევზის სურათის ხარისხი 20%-ით,
50%-ით დაქვეითებულია
07:50
and then the one I showed you,
194
455000
2000
და შემდეგ რაც მე გაჩვენეთ,
07:52
70 percent.
195
457000
2000
70%-ით.
07:54
A similar experiment was done by another [Swiss] psychologist
196
459000
2000
მსგავსი ექსპერიმენტი შვედმა ფსიქოლოგმა
07:56
named Peter Brugger,
197
461000
2000
პიტერ ბრაგერმაც ჩაატარა.
07:58
who found significantly more meaningful patterns
198
463000
3000
მან აღმოაჩინა, რომ მნიშვნელოვნად
უფრო აზრიანი სტრუქტურა
08:01
were perceived on the right hemisphere,
199
466000
2000
აღიქმება მარჯვენა ნახევარსფეროს მიერ,
08:03
via the left visual field, than the left hemisphere.
200
468000
3000
მარცხენა ხედვის ველიდან,
ვიდრე მარცხენა ნახევარსფეროს მიერ.
08:06
So if you present subjects the images such
201
471000
2000
ამიტომ როცა მონაწილეებს
მსგავს სურათებს ისე აჩვენებთ,
08:08
that it's going to end up on the right hemisphere instead of the left,
202
473000
3000
რომ მარჯვენა ნახევარსფერომ აღიქვას,
მაშინ სტრუქტურის აღმოჩენის
უფრო დიდი შანსია,
08:11
then they're more likely to see patterns
203
476000
2000
08:13
than if you put it on the left hemisphere.
204
478000
2000
ვიდრე მაშინ როცა მარცხენა აღიქვამს.
08:15
Our right hemisphere appears to be
205
480000
2000
როგორც ჩანს
სტრუქტურის ძიების უმეტესი პროცესი,
08:17
where a lot of this patternicity occurs.
206
482000
2000
ჩვენი ტვინის
მარჯვენა ნახევარსფეროში ხდება.
08:19
So what we're trying to do is bore into the brain
207
484000
2000
მაშ, ჩვენ ტვინში ჩაძრომას ვცდილობთ,
08:21
to see where all this happens.
208
486000
2000
რომ დავადგინოთ სად ხდება ეს ყველაფერი.
08:23
Brugger and his colleague, Christine Mohr,
209
488000
3000
ბრაგერმა და მისმა კოლეგა - კრისტინა მორმა,
08:26
gave subjects L-DOPA.
210
491000
2000
ექსპერიმენტის მოაწილეებს ლ-დოპა მისცეს.
08:28
L-DOPA's a drug, as you know, given for treating Parkinson's disease,
211
493000
3000
ამ პრეპარატს როგორც იცით,
პარკინსონიან პაციენტებს აძლევენ.
08:31
which is related to a decrease in dopamine.
212
496000
3000
ეს დაავადება დოფამინის
დაწევასთან არის დაკავშირებული
08:34
L-DOPA increases dopamine.
213
499000
2000
და ლ-დოპა კი ზრდის მას.
08:36
An increase of dopamine caused
214
501000
2000
დოფამინის ზრდამ მონაწილეებში
08:38
subjects to see more patterns
215
503000
2000
მეტი სტრუქტურის დანახვა გამოიწვია,
08:40
than those that did not receive the dopamine.
216
505000
2000
მათთან შედარებით ვისაც ის არ მიუღია.
08:42
So dopamine appears to be the drug
217
507000
2000
ასე რომ, როგორც გამოჩნდა,
08:44
associated with patternicity.
218
509000
2000
დოფამინი უკავშირდება სტრუქტურომანიას.
08:46
In fact, neuroleptic drugs
219
511000
2000
პრინციპში ნეიროლეპტური პრეპარატები,
08:48
that are used to eliminate psychotic behavior,
220
513000
2000
რომლებიც ფსიქოტურ ქმედებას ამცირებს,
08:50
things like paranoia, delusions
221
515000
2000
როგორებიცაა პარანოია, დელუზიები
08:52
and hallucinations,
222
517000
2000
და ჰალუცინაციები,
08:54
these are patternicities.
223
519000
2000
ეს სტრუქტურომანიებია.
08:56
They're incorrect patterns. They're false positives. They're Type I errors.
224
521000
3000
ის მცდარი სტრუქტურებია. მცდარი პოზიტივები.
პირველი ტიპის შეცდომები
08:59
And if you give them drugs
225
524000
2000
და თუ მათ ისეთ პრეპარატს მივცემთ,
09:01
that are dopamine antagonists,
226
526000
2000
რომელიც დოფამინის ანტაგონისტია,
09:03
they go away.
227
528000
2000
ეს სტრუქტურები გაქრება.
09:05
That is, you decrease the amount of dopamine,
228
530000
2000
თქვენ ამცირებთ დოფამინის რაოდენობას
09:07
and their tendency to see
229
532000
2000
და მათი მიდრეკილება
09:09
patterns like that decreases.
230
534000
2000
დაინახონ სტრუქტურები მცირდება.
09:11
On the other hand, amphetamines like cocaine
231
536000
3000
მეორეს მხრივ,
კოკაინის მსგავსი ამფეტამინები
09:14
are dopamine agonists.
232
539000
2000
არიან დოფამინის აგონისტები.
09:16
They increase the amount of dopamine.
233
541000
2000
ისინი ზრდიან დოფამინის რაოდენობას.
09:18
So you're more likely to feel in a euphoric state,
234
543000
3000
ამიტომ, ამ დროს
თქვენ უფრო ეიფორიული იქნებით,
09:21
creativity, find more patterns.
235
546000
2000
შემოქმედებითი და მეტ სტრუქტურას იპოვით.
09:23
In fact, I saw Robin Williams recently
236
548000
2000
ცოტა ხნის წინ ვნახე რობინ უილიამსი
09:25
talk about how he thought he was much funnier
237
550000
2000
ამბობდა თუ როგორ ეგონა მას
09:27
when he was doing cocaine, when he had that issue, than now.
238
552000
3000
თავი უფრო სასაცილო, როცა კოკაინზე იყო.
09:30
So perhaps more dopamine
239
555000
2000
ამიტომ, ალბათ უფრო მეტი დოფამინი,
09:32
is related to more creativity.
240
557000
2000
მეტ შემოქმედებითობას უკავშირდება.
09:34
Dopamine, I think, changes
241
559000
2000
ჩემი აზრით, დოფამინი ცვლის
09:36
our signal-to-noise ratio.
242
561000
2000
სიგნალისა და ხმაურის შეფარდებას.
09:38
That is, how accurate we are
243
563000
2000
ანუ, რამდენად ზუსტები ვართ ჩვენ
09:40
in finding patterns.
244
565000
2000
სტრუქტურების ძებნაში.
თუ ეს შეფარდება ზედმეტად დაბალია,
თქვენ ბევრ მეორე ტიპის შეცდომას დაუშვებთ
09:42
If it's too low, you're more likely to make too many Type II errors.
245
567000
3000
ნამდვილ სტრუქტურებს გამოტოვებთ.
ზედმეტი სკეპტიციზმი არ ვარგა.
09:45
You miss the real patterns. You don't want to be too skeptical.
246
570000
2000
09:47
If you're too skeptical, you'll miss the really interesting good ideas.
247
572000
3000
თუ ზედმეტად სკეპტიკური ხართ,
საინტერესო აზრს გაატარებთ.
ზომიერის შემთხვევაში. კრეატიული ხართ,
მაგრამ მთლად არ ბითურდებით.
09:51
Just right, you're creative, and yet you don't fall for too much baloney.
248
576000
3000
ზედმეტად მაღალი ფარდობისას,
ალბათ ყველგან რაღაც სტრუქტურას დაინახავთ.
09:54
Too high and maybe you see patterns everywhere.
249
579000
3000
09:57
Every time somebody looks at you, you think people are staring at you.
250
582000
3000
ყოველთვის როცა ვიღაც შემოგხედავთ,
იფიქრებთ რომ გაშტერდებიან.
10:00
You think people are talking about you.
251
585000
2000
გეგონებათ, რომ ხალხი თქვენზე ლაპარაკობს.
10:02
And if you go too far on that, that's just simply
252
587000
2000
თუ ამ მიმართულებით საკმარისად შორს წავალთ,
10:04
labeled as madness.
253
589000
2000
ეს უკვე სიგიჟეა.
10:06
It's a distinction perhaps we might make
254
591000
2000
ალბათ ეს განასხვავებთ
10:08
between two Nobel laureates, Richard Feynman
255
593000
2000
ორ ნობელის ლაურეატს, რიჩარდ ფეინმანს
10:10
and John Nash.
256
595000
2000
და ჯონ ნეშს.
10:12
One sees maybe just the right number
257
597000
2000
ერთი ხედავს
ნობელის პრემიის მოგებისთვის
10:14
of patterns to win a Nobel Prize.
258
599000
2000
საკმარის სტრუქტურების რაოდენობას.
10:16
The other one also, but maybe too many patterns.
259
601000
2000
მეორეც, მაგრამ ზედმეტად ბევრს
10:18
And we then call that schizophrenia.
260
603000
3000
და ამას შიზოფრენია ჰქვია.
10:21
So the signal-to-noise ratio then presents us with a pattern-detection problem.
261
606000
3000
ასე რომ სიგნალის ხმაურთან ფარდობა
სტრუქტურის აღმოჩენას საზღვრავს
10:24
And of course you all know exactly
262
609000
2000
და რა თქმა უნდა თქვენ ყველამ
ზუსტად იცით
10:26
what this is, right?
263
611000
2000
ეს რა არის, არა?
10:28
And what pattern do you see here?
264
613000
2000
რა სტრუქტურას ხედავთ აქ?
10:30
Again, I'm putting your anterior cingulate cortex to the test here,
265
615000
3000
თქვენს სარტყლისებრი ქერქის წინა ნაწილს
კვლავ გამოცდას ვუწყობ,
10:33
causing you conflicting pattern detections.
266
618000
3000
ურთიერთგამომრიცხავი სტრუქტურების
დანახვის იძულებით.
10:36
You know, of course, this is Via Uno shoes.
267
621000
2000
რა თქმა უნდა, ეს ვია უნოს ფეხსაცმელებია
10:38
These are sandals.
268
623000
3000
ეს სანდლებია.
10:41
Pretty sexy feet, I must say.
269
626000
3000
საკმაოდ სექსუალური ტერფებია,
უნდა ითქვას.
10:44
Maybe a little Photoshopped.
270
629000
2000
შეიძლება ცოტა დაფოტოშოპებულიც.
10:46
And of course, the ambiguous figures
271
631000
2000
და რა თქმა უნდა ორაზროვანი ფიგები,
10:48
that seem to flip-flop back and forth.
272
633000
2000
რომლებიც თითქოს ერთმანეთში გადადის.
10:50
It turns out what you're thinking about a lot
273
635000
2000
როგორც აღმოჩნდა, რაზეც უფრო მეტს ფიქრობთ,
10:52
influences what you
274
637000
2000
ეს ზემოქმედებს იმაზე,
10:54
tend to see.
275
639000
2000
თუ რას უფრო დაინახავთ.
10:56
And you see the lamp here, I know.
276
641000
2000
და ვიცი, თქვენ აქ ლამპას ხედავთ,
10:58
Because the lights on here.
277
643000
3000
რადგან აქ შუქი ანთია.
რა თქმა უნდა,
გარემოს დაცვითი მოძრაობის წყალობით,
11:01
Of course, thanks to the environmentalist movement
278
646000
2000
11:03
we're all sensitive to the plight of marine mammals.
279
648000
3000
ჩვენ მტკივნეულად ვრეაგირებთ
ზღვის ძუძუმწოვრების მდგომარეობაზე.
11:06
So what you see in this particular ambiguous figure
280
651000
3000
ამიტომაც ხედავთ ამ ორაზროვან სურათზე
11:09
is, of course, the dolphins, right?
281
654000
2000
დელფინებს რასაკვირველია, არა?
11:11
You see a dolphin here,
282
656000
2000
ეს ხომ დელფინია.
11:13
and there's a dolphin,
283
658000
2000
აქაც დელფინი
11:15
and there's a dolphin.
284
660000
2000
და ესეც დელფინია;
11:17
That's a dolphin tail there, guys.
285
662000
3000
ეს კი დელფინის კუდია.
11:20
(Laughter)
286
665000
3000
(სიცილი)
11:25
If we can give you conflicting data, again,
287
670000
3000
როცა ჩვენ გაწვდით
ურთიერთგამომრიცხავ მონაცემს,
11:28
your ACC is going to be going into hyperdrive.
288
673000
3000
თქვენი სარტყლისებრი ქერქის
წინა ნაწილი გაჭედავს.
11:31
If you look down here, it's fine. If you look up here, then you get conflicting data.
289
676000
3000
თუ აქ შეხედავთ ყველაფერი ნორმაშია,
თუ ზემოთ შეხედავთ კონფლიქტია.
11:34
And then we have to flip the image
290
679000
2000
და შემდეგ გამოსახულება უნდა შევატრიალოთ,
11:36
for you to see that it's a set up.
291
681000
2000
იმისთვის,
რომ დადგმული სცენა აღმოაჩინოთ.
11:40
The impossible crate illusion.
292
685000
2000
დაუჯერებელი ყუთის ილუზია.
11:42
It's easy to fool the brain in 2D.
293
687000
2000
მარტივია ტვინის მოტყუება 2 განზომილებაში.
11:44
So you say, "Aw, come on Shermer, anybody can do that
294
689000
2000
თქვენ იტყვით "ოჰ, შერმერ,
11:46
in a Psych 101 text with an illusion like that."
295
691000
2000
ეს ფოკუსები ნებისმიერს შეუძლია"
11:48
Well here's the late, great Jerry Andrus'
296
693000
2000
აი, შესანიშნავი ჯერი ანდრუსის
11:50
"impossible crate" illusion in 3D,
297
695000
3000
"დაუჯერებელი ყუთი" სამ განზომილებაში,
11:53
in which Jerry is standing inside
298
698000
2000
სადაც ჯერი
11:55
the impossible crate.
299
700000
2000
დაუჯერებელი ყუთის შიგნით დგას.
11:57
And he was kind enough to post this
300
702000
2000
მის სასახელოდ უნდა ითქვას,
11:59
and give us the reveal.
301
704000
2000
რომ მან ამ ილუზიის ამოხსნაც გამოაქვეყნა.
12:01
Of course, camera angle is everything. The photographer is over there,
302
706000
3000
რა თქმა უნდა, ყველაფერი
კამერის კუთხეზეა დამოკიდებული.
ფოტოგრაფი იქ არის და ეს ნაწილი თითქოს
იმას ფარავს, ეს კი ამას და ა.შ.
12:04
and this board appears to overlap with this one, and this one with that one, and so on.
303
709000
3000
12:07
But even when I take it away,
304
712000
2000
მაგრამ მაშინაც კი როცა ეს ყველაფერი ვიცით,
12:09
the illusion is so powerful because of how are brains are wired
305
714000
2000
ტვინის წყობიდან გამომდინარე,
რომელიც მომართულია
12:11
to find those certain kinds of patterns.
306
716000
3000
აღმოაჩინოს ასეთი სტრუქტურები
ილუზია მაინც ძლიერია.
12:14
This is a fairly new one
307
719000
2000
ეს შედარებით ახალია,
12:16
that throws us off because of the conflicting patterns
308
721000
2000
რომელსაც შეცდომაში შევყავართ,
12:18
of comparing this angle with that angle.
309
723000
3000
კონფლიქტური სტრუქტურის გამო,
როცა ვადარებთ ამ კუთხეს იმ კუთხეს.
12:21
In fact, it's the exact same picture side by side.
310
726000
3000
სინამდვილეში,
ეს იდენტური სურათებია გვერდიგვერდ.
12:24
So what you're doing is comparing that angle
311
729000
2000
ამ დროს, ამ კუთხეს,
იმის მაგივრად
12:26
instead of with this one, but with that one.
312
731000
2000
ადარებთ ამას
12:28
And so your brain is fooled.
313
733000
2000
და თქვენი ტვინი ტყუვდება.
ისევ და ისევ თქვენი სტრუქტურის აღმომჩენი
მოწყობილობა ტყუვდება.
12:30
Yet again, your pattern detection devices are fooled.
314
735000
2000
12:32
Faces are easy to see
315
737000
2000
სახეები ადვილი დასანახია,
12:34
because we have an additional evolved
316
739000
2000
რადგან ჩვენ დამატებით
სახეების ამომცნობი
12:36
facial recognition software
317
741000
2000
მექანიზმი გვაქვს განვითარებული
12:38
in our temporal lobes.
318
743000
3000
ჩვენი საფეთქლის წილში.
12:41
Here's some faces on the side of a rock.
319
746000
3000
აი რაღაც სახეები კლდეზე.
12:44
I'm actually not even sure if this is -- this might be Photoshopped.
320
749000
3000
არც კი ვარ დარწმუნებული...
შეიძლება დაფოტოშოპებულია,
12:47
But anyway, the point is still made.
321
752000
2000
მაგრამ ნებისმიერ შემთხვევაში
ეს აზრს არ ცვლის.
12:49
Now which one of these looks odd to you?
322
754000
2000
ამათგან რომელი გამოიყურება უცნაურად?
12:51
In a quick reaction, which one looks odd?
323
756000
2000
ერთი შეხედვით რომელია უცნაური?
12:53
The one on the left. Okay. So I'll rotate it
324
758000
2000
მარცხენა? კარგი. ამოვატრიალებ.
12:55
so it'll be the one on the right.
325
760000
2000
ანუ ის გახდება მარჯვენა
12:57
And you are correct.
326
762000
2000
და თქვენ მართალი ხართ.
12:59
A fairly famous illusion -- it was first done with Margaret Thatcher.
327
764000
3000
საკმაოდ ცნობილი ილუზია..
პირველად მარგარეტ ტეტჩერზე გააკეთეს.
13:02
Now, they trade up the politicians every time.
328
767000
2000
ახლა სულ პოლიტიკოსებზე აკეთებენ.
13:04
Well, why is this happening?
329
769000
2000
რატომ ხდება ასე?
13:06
Well, we know exactly where it happens,
330
771000
2000
ზუსტად ვიცით სადაც ხდება,
13:08
in the temporal lobe, right across, sort of above your ear there,
331
773000
3000
საფეთქლის წილში, თქვენი ყურის ცოტა ზემოთ,
13:11
in a little structure called the fusiform gyrus.
332
776000
3000
პატარა სტრუქტურა,
რომელსაც თითისტარისებრი ნაოჭი ჰქვია.
13:14
And there's two types of cells that do this,
333
779000
2000
ამას ორი ტიპის უჯრედი აკეთებს,
13:16
that record facial features either globally,
334
781000
3000
ერთი ზოგად ნაკვთებს იმახსოვრებს,
13:19
or specifically these large, rapid-firing cells,
335
784000
2000
მეორე, კონკრეტულ დეტალებს.
ეს დიდი,
13:21
first look at the general face.
336
786000
2000
სწრაფქმედი უჯრედები,
ჯერ ზოგადად სახეს უყურებენ,
13:23
So you recognize Obama immediately.
337
788000
2000
ამიტომ მყისიერად ცნობთ ობამას
13:25
And then you notice something quite
338
790000
2000
და შემდეგ ამჩნევთ რაღაც უცნაურს
13:27
a little bit odd about the eyes and the mouth.
339
792000
2000
მის თვალებზე და პირზე.
13:29
Especially when they're upside down,
340
794000
2000
განსაკუთრებით როცა ისინი ამოტრიალებულია,
13:31
you're engaging that general facial recognition software there.
341
796000
3000
თქვენ სახის ამომცნობ
ზოგად მექანიზმს იყენებთ.
13:34
Now I said back in our little thought experiment,
342
799000
3000
ახლა დავუბრუნდეთ ჩვენს პატარა
გონებრივ ექსპერიმენტს.
თქვენ ხართ ჰომინიდი,
რომელიც აფრიკის სივრცეებში დაბოდიალებს
13:37
you're a hominid walking on the plains of Africa.
343
802000
2000
13:39
Is it just the wind or a dangerous predator?
344
804000
3000
ეს მხოლოდ ქარია, თუ სახიფათო მტაცებელი?
13:42
What's the difference between those?
345
807000
2000
რა განსხვავებაა მათ შორის?
13:44
Well, the wind is inanimate;
346
809000
2000
ქარი უსულოა;
13:46
the dangerous predator is an intentional agent.
347
811000
2000
სახიფათო მტაცებელი -
განზრახვის მქონე აგენტი.
13:48
And I call this process agenticity.
348
813000
2000
მე ამ პროცესს აგენტომანიას ვეძახი.
13:50
That is the tendency to infuse patterns
349
815000
2000
ეს არის აზრიანი, განზრახვის მქონე აგენტის
13:52
with meaning, intention and agency,
350
817000
2000
სტრუქტურის ჩანერგვის ტენდენცია,
13:54
often invisible beings from the top down.
351
819000
3000
ხშირად უხილავი, ზეარსებების სახით.
13:57
This is an idea that we got
352
822000
2000
ეს აზრი კიდევ ერთი ტედსტერისგან,
13:59
from a fellow TEDster here, Dan Dennett,
353
824000
2000
დენ დენეტისგან მოვისმინეთ,
14:01
who talked about taking the intentional stance.
354
826000
2000
რომელიც განზრახვის პოზიციაზე საუბრობდა.
14:03
So it's a type of that expanded to explain, I think, a lot of different things:
355
828000
3000
ვფიქრობ, ამ აზრის გაგრძელებაა,
ბევრი სხვა მოვლენა:
14:06
souls, spirits, ghosts, gods, demons, angels,
356
831000
3000
სულები, ღმერთები, დემონები, ანგელოზები,
14:09
aliens, intelligent designers,
357
834000
2000
უცხო პლანეტელები, გონიერი შემოქმედები,
14:11
government conspiracists
358
836000
2000
სამთავრობო შეთქმულებები
14:13
and all manner of invisible agents
359
838000
2000
და ყველა სახის უხილავი აგენტი,
14:15
with power and intention, are believed
360
840000
2000
რომელსაც გააჩნია ძალა და განზრახვა,
რომ არ მოასვენოს მსოფლიო
და აკონტროლოს ჩვენი ცხოვრება.
14:17
to haunt our world and control our lives.
361
842000
2000
14:19
I think it's the basis of animism
362
844000
2000
ვფქრობ ეს არის ანიმიზმის,
14:21
and polytheism and monotheism.
363
846000
3000
პოლითეიზმის და მონოთეიზმის საფუძველი.
14:24
It's the belief that aliens are somehow
364
849000
2000
რწმენა იმისა რომ უცხოპლანეტელები
14:26
more advanced than us, more moral than us,
365
851000
2000
ჩვენზე უფრო განვითარებულები
14:28
and the narratives always are
366
853000
2000
და მორალურები არიან და საუბარი იმაზე,
14:30
that they're coming here to save us and rescue us from on high.
367
855000
3000
რომ ისინი
ჩვენს გადასარჩენად ჩამოვლენ ზეციდან.
14:33
The intelligent designer's always portrayed
368
858000
2000
გონიერი შემოქმედი ყოველთვის წარმოჩენილია,
14:35
as this super intelligent, moral being
369
860000
3000
როგორც ზეინტერექტუალური, მორალური არსება,
14:38
that comes down to design life.
370
863000
2000
რომელმაც შექმნა სიცოცხლე.
14:40
Even the idea that government can rescue us --
371
865000
2000
ის აზრიც კი,
რომ მთავრობას შეუძლია გადაგვარჩინოს...
14:42
that's no longer the wave of the future,
372
867000
2000
ეს მომავლის ამბავი აღარ არის...
14:44
but that is, I think, a type of agenticity:
373
869000
2000
ესეც აგენტომანიის ტიპია:
14:46
projecting somebody up there,
374
871000
2000
ვიღაც დიდის და ძლევამოსილის წარმოსახვა,
14:48
big and powerful, will come rescue us.
375
873000
2000
რომელმაც უნდა გვიხსნას.
14:50
And this is also, I think, the basis of conspiracy theories.
376
875000
2000
ვფიქრობ, ეს არის
შეთქმულების თეორიების ფუძეც.
14:52
There's somebody hiding behind there pulling the strings,
377
877000
3000
ყველაფრის უკან ვიღაც იმალება
ვინც პროცესებს მართავს,
14:55
whether it's the Illuminati
378
880000
2000
იქნებიან ეს ილუმინატები,
14:57
or the Bilderbergers.
379
882000
2000
თუ ბილდერბერგის ჯგუფი.
14:59
But this is a pattern detection problem, isn't it?
380
884000
2000
ეს სტრუქტურის აღმჩენის პრობლემაა, არა?
15:01
Some patterns are real and some are not.
381
886000
2000
ზოგი სტრუქტურა ნამდვილია, ზოგი კი არა.
15:03
Was JFK assassinated by a conspiracy or by a lone assassin?
382
888000
3000
კენედი შეთქმულებმა მოკლეს,
თუ მარტოხელა მკვლელმა?
15:06
Well, if you go there -- there's people there on any given day --
383
891000
3000
აქ თუ მიხვალთ,
ნებისმიერ დროს იქნება ვიღაც...
15:09
like when I went there, here -- showing me where the different shooters were.
384
894000
3000
როცა მე მივედი.. აქ მაჩვენებენ
სხვადასხვა მსროლელი სად იყო.
15:12
My favorite one was he was in the manhole.
385
897000
3000
ჩემი ფავორიტი ლუქი იყო,
15:15
And he popped out at the last second, took that shot.
386
900000
3000
რომლიდანაც ბოლო წამს ამოხტა და ისროლა.
სამაგიეროდ, რა თქმა უნდა,
ლინკოლნი შეთქმულებმა მოკლეს.
15:18
But of course, Lincoln was assassinated by a conspiracy.
387
903000
2000
15:20
So we can't just uniformly dismiss
388
905000
2000
ამიტომ სრულიად ვერ გამოვრიცხავთ
15:22
all patterns like that.
389
907000
2000
ყველა მსგავს სტრუქტურას,
15:24
Because, let's face it, some patterns are real.
390
909000
2000
რადგან უნდა ვაღიაროთ, ზოგი
სტრუქტურა ნამდვილია.
15:26
Some conspiracies really are true.
391
911000
2000
ზოგი შეთქმულება მართლაც არსებობს.
15:30
Explains a lot, maybe.
392
915000
2000
ალბათ მრავლისმეტყველია.
15:32
And 9/11 has a conspiracy theory. It is a conspiracy.
393
917000
3000
9/11-იც შეთქმულების თეორიაა.
ეს შეთქმულებაა.
ჩვენ მთელი გამოცემა მივუძღვენით ამას.
15:35
We did a whole issue on it.
394
920000
2000
ალ-ქაედას 19 წევრი,
რომელმაც თვითმფრინავების
15:37
Nineteen members of Al Queda plotting to fly planes into buildings
395
922000
2000
შენობებზე შეჯახება დაგეგმეს,
შეთქმულებას ნიშნავს,
15:39
constitutes a conspiracy.
396
924000
2000
15:41
But that's not what the "9/11 truthers" think.
397
926000
2000
მაგრამ ეს არ არის,
რასაც ე.წ. "9/11 სიმართლისტები" ფიქრობენ.
15:43
They think it was an inside job by the Bush administration.
398
928000
3000
ისინი ფიქრობენ, რომ ეს შიდა,
ბუშის ადმინისტრაციის შეთქმულება იყო.
15:46
Well, that's a whole other lecture.
399
931000
2000
ეს სულ სხვა საუბრის თემაა.
15:48
You know how we know that 9/11
400
933000
2000
იცით საიდან ვიცით, რომ 9/11
15:50
was not orchestrated by the Bush administration?
401
935000
2000
არ იყო ბუშის ადმინისტრაციის გაკეთებული?
15:52
Because it worked.
402
937000
2000
რადგან მან იმუშავა.
15:54
(Laughter)
403
939000
3000
(სიცილი)
15:57
(Applause)
404
942000
3000
(აპლოდისმენტები)
16:00
So we are natural-born dualists.
405
945000
2000
ასე რომ, ჩვენ ბუნებრივი დუალისტები ვართ.
16:02
Our agenticity process comes from
406
947000
2000
ჩვენს აგენტომანიას ისიც აჩვენებს,
16:04
the fact that we can enjoy movies like these.
407
949000
2000
რომ მსგავსი ფილმებით,
შეგვიძლია გავერთოთ.
16:06
Because we can imagine, in essence,
408
951000
2000
ჩვენ შეგვიძლია არსებითად
16:08
continuing on.
409
953000
2000
განვარგძოთ წარმოდგენები.
ვიცით რომ საფეთქლის წილის სტიმულიტრებით
16:10
We know that if you stimulate the temporal lobe,
410
955000
2000
სხეულის გარეთ ყოფნის შეგრძნებების
გამოწვევაა შესაძლებელი,
16:12
you can produce a feeling of out-of-body experiences,
411
957000
2000
16:14
near-death experiences,
412
959000
2000
სიკვდილს მიახლოებული შეგრძნებების.
16:16
which you can do by just touching an electrode to the temporal lobe there.
413
961000
3000
რასაც ელექტროდის
საფეთქლის წილთან შეხებით მიაღწევთ,
16:19
Or you can do it through loss of consciousness,
414
964000
2000
ან ეს გონების დაკარგვით შეიძლება,
16:21
by accelerating in a centrifuge.
415
966000
2000
ცენტრიფუგაში აჩქარებით.
16:23
You get a hypoxia, or a lower oxygen.
416
968000
3000
ჰიპოქსიით, ან ჟანგბადის დაბალი დოზით.
16:26
And the brain then senses
417
971000
2000
ამ დროს ტვინი
16:28
that there's an out-of-body experience.
418
973000
2000
სხეულის გარეთ ყოფნას გრძნობს.
16:30
You can use -- which I did, went out and did --
419
975000
2000
მე გავაკეთე და თქვენც შეგიძლიათ.
16:32
Michael Persinger's God Helmet,
420
977000
2000
გამოიყენოთ მაიკლ პერსინგერის
ღვთიური მუზარადი,
16:34
that bombards your temporal lobes with electromagnetic waves.
421
979000
2000
რომელიც საფეთქლის წილს
ელექტრომაგნიტური ტალეღებით ბომბავს
16:36
And you get a sense of out-of-body experience.
422
981000
3000
და თქვენ
სხეულის გარეთ ყოფნას გრძნობთ.
16:39
So I'm going to end here with a short video clip
423
984000
2000
მოკლე ვიდეოკლიპით დავასრულებ,
16:41
that sort of brings all this together.
424
986000
2000
რომელიც ყველაფერს შეაჯამებს.
16:43
It's just a minute and a half.
425
988000
2000
ის მხოლოდ წუთნახევრიანია.
16:45
It ties together all this into the power of expectation and the power of belief.
426
990000
3000
ის ყველაფერს მოლოდინსა და რწმენას
შირის კავშირში კრავს.
16:48
Go ahead and roll it.
427
993000
2000
მიდით, გაუშვით.
16:50
Narrator: This is the venue they chose for their fake auditions
428
995000
3000
მთხრობელი: ეს არის ადგილი,
რომელიც მათ ტუჩის მალამოს რეკლამირების
16:53
for an advert for lip balm.
429
998000
2000
ყალბი კასტინგისთვის შეარჩიეს.
16:55
Woman: We're hoping we can use part of this
430
1000000
2000
ქალი: ამის ქვეყნის მასშტაბით
16:57
in a national commercial, right?
431
1002000
2000
რეკლამირებაში გამოყენებას ვაპირებთ.
16:59
And this is test on some lip balms
432
1004000
2000
ეს არის სატესტო ტუჩის მალამოს,
17:01
that we have over here.
433
1006000
2000
რომელიც აქ გვაქვს.
17:03
And these are our models who are going to help us,
434
1008000
2000
ეს მოდელები არიან, რომლებიც დაგვეხმარებიან
17:05
Roger and Matt.
435
1010000
2000
როჯერი და მეტი
17:07
And we have our own lip balm,
436
1012000
2000
ჩვენ საკუთარი ტუჩის მალამო გვაქვს
17:09
and we have a leading brand.
437
1014000
2000
და გვაქვს მოწინავე ბრენდის.
17:11
Would you have any problem
438
1016000
2000
პრობლემა ხომ არ გექნებათ
17:13
kissing our models to test it?
439
1018000
2000
ჩვენს მოდელებს რომ აკოცოთ გასასინჯად?
17:15
Girl: No.
440
1020000
2000
გოგო: არა
ქალი: არ გექნებათ?
გოგო: არა. ქალი: ფიქრობთ რომ ნომრალურია.
17:17
Woman: You wouldn't? (Girl: No.) Woman: You'd think that was fine.
441
1022000
2000
17:19
Girl: That would be fine. (Woman: Okay.)
442
1024000
2000
გოგო: ნორმალრია.
ქალი: კარგი.
17:21
So this is a blind test.
443
1026000
3000
მაშ ეს ბრმა ტესტია.
17:24
I'm going to ask you to go ahead
444
1029000
2000
ამიტომ თვალის ახვევას გთხოვდით.
17:26
and put a blindfold on.
445
1031000
2000
ამიტომ თვალის ახვევას გთხოვდით.
17:29
Kay, now can you see anything? (Girl: No.)
446
1034000
3000
კარგი, ხედავთ რამეს?
გოგო: არა.
ჩამოწიეთ ქვემოდანაც რომ არ დაინხოთ.
გოგო: კარგი.
17:32
Pull it so you can't even see down. (Girl: Okay.)
447
1037000
2000
17:34
Woman: It's completely blind now, right?
448
1039000
2000
ქალი: ახლა არაფერს ხედავთ, არა?
17:36
Girl: Yes. (Woman: Okay.)
449
1041000
2000
გოგო: დიახ.
ქალი: კარგი.
17:38
Now, what I'm going to be looking for in this test
450
1043000
3000
ამ ტესტში ვაკვირდებით,
17:41
is how it protects your lips,
451
1046000
3000
თუ როგორ იცავს ის თქვენს ტუჩებს,
17:44
the texture, right,
452
1049000
2000
ტექსტურას,
17:46
and maybe if you can discern any flavor or not.
453
1051000
3000
და რამე არომატს თუ გაარჩევთ.
17:49
Girl: Okay. (Woman: Have you ever done a kissing test before?)
454
1054000
3000
გოგო: კარგი.
ქალი: გაგიკეთებიათ ოდესმე კოცნის ტესტი?
17:52
Girl: No.
455
1057000
2000
გოგო: არა.
17:54
Woman: Take a step here.
456
1059000
2000
ქალი: აქეთ მობრძანდით.
17:56
Okay, now I'm going to ask you to pucker up.
457
1061000
2000
ახლა ტუჩები საკოცნელად გაამზადეთ
17:58
Pucker up big and lean in just a little bit, okay?
458
1063000
3000
გაამზადეთ და ცოტა დაიხარეთ, კარგი?
18:06
(Music)
459
1071000
4000
(მუსიკა)
18:10
(Laughter)
460
1075000
5000
(სიცილი)
18:19
(Laughter)
461
1084000
3000
(სიცილი)
18:30
Woman: Okay.
462
1095000
2000
ქალი: კარგი.
18:32
And, Jennifer, how did that feel?
463
1097000
2000
ჯენიფერ, რა იგრძენით?
18:34
Jennifer: Good.
464
1099000
2000
ჯენიფერი: კარგია.
18:36
(Laughter)
465
1101000
7000
(სიცილი)
18:43
Girl: Oh my God!
466
1108000
2000
გოგო: ო, ღმერთო!
18:45
(Laughter)
467
1110000
4000
(სიცილი)
18:50
Michael Shermer: Thank you very much. Thank you. Thanks.
468
1115000
3000
მაიკლ შერმერი: დიდი მადლობა.
მადლობა. გმადლობთ
Translated by Levan Lashauri
Reviewed by Natalie Saginashvili

▲Back to top

ABOUT THE SPEAKER
Michael Shermer - Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market.

Why you should listen

As founder and publisher of Skeptic Magazine, Michael Shermer has exposed fallacies behind intelligent design, 9/11 conspiracies, the low-carb craze, alien sightings and other popular beliefs and paranoias. But it's not about debunking for debunking's sake. Shermer defends the notion that we can understand our world better only by matching good theory with good science.

Shermer's work offers cognitive context for our often misguided beliefs: In the absence of sound science, incomplete information can powerfully combine with the power of suggestion (helping us hear Satanic lyrics when "Stairway to Heaven" plays backwards, for example). In fact, a common thread that runs through beliefs of all sorts, he says, is our tendency to convince ourselves: We overvalue the shreds of evidence that support our preferred outcome, and ignore the facts we aren't looking for.

He writes a monthly column for Scientific American, and is an adjunct at Claremont Graduate University and Chapman University. His latest book is The Believing Brain: From Ghosts and Gods to Politics and Conspiracies—How We Construct Beliefs and Reinforce Them as Truths. He is also the author of The Mind of the Market, on evolutionary economics, Why Darwin Matters: Evolution and the Case Against Intelligent Design, and The Science of Good and Evil. And his next book is titled The Moral Arc of Science.

More profile about the speaker
Michael Shermer | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee