ABOUT THE SPEAKER
Michael Shermer - Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market.

Why you should listen

As founder and publisher of Skeptic Magazine, Michael Shermer has exposed fallacies behind intelligent design, 9/11 conspiracies, the low-carb craze, alien sightings and other popular beliefs and paranoias. But it's not about debunking for debunking's sake. Shermer defends the notion that we can understand our world better only by matching good theory with good science.

Shermer's work offers cognitive context for our often misguided beliefs: In the absence of sound science, incomplete information can powerfully combine with the power of suggestion (helping us hear Satanic lyrics when "Stairway to Heaven" plays backwards, for example). In fact, a common thread that runs through beliefs of all sorts, he says, is our tendency to convince ourselves: We overvalue the shreds of evidence that support our preferred outcome, and ignore the facts we aren't looking for.

He writes a monthly column for Scientific American, and is an adjunct at Claremont Graduate University and Chapman University. His latest book is The Believing Brain: From Ghosts and Gods to Politics and Conspiracies—How We Construct Beliefs and Reinforce Them as Truths. He is also the author of The Mind of the Market, on evolutionary economics, Why Darwin Matters: Evolution and the Case Against Intelligent Design, and The Science of Good and Evil. And his next book is titled The Moral Arc of Science.

More profile about the speaker
Michael Shermer | Speaker | TED.com
TED2010

Michael Shermer: The pattern behind self-deception

Michael Shermer: Wzorzec oszukiwania samego siebie

Filmed:
2,854,890 views

Michael Shermer uważa, że ludzka tendencja do wiary w dziwne rzeczy - od uprowadzeń przez kosmitów, aż po różdżkarstwo - sprowadza się w zasadzie do dwóch podstawowych, wbudowanych w nasz mózg, umiejętności przetrwania. Wyjaśnia nam czym są te umiejętności i dlaczego są one powodem wielu kłopotów.
- Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market. Full bio

Double-click the English transcript below to play the video.

00:16
So sinceod I was here last in '06,
0
1000
3000
Od czasu kiedy byłem tutaj ostatni raz w 2006 roku,
00:19
we discoveredodkryty that globalświatowy climateklimat changezmiana
1
4000
2000
odkryliśmy, że globalne ocieplenie
00:21
is turningobrócenie out to be a prettyładny seriouspoważny issuekwestia,
2
6000
2000
okazało się być naprawdę poważnym problemem.
00:23
so we coveredpokryty that fairlydość extensivelyobszernie
3
8000
2000
Poświęciliśmy temu zagadnieniu całkiem sporo miejsca
00:25
in SkepticSceptyk magazineczasopismo.
4
10000
2000
w magazynie "Skeptic".
00:27
We investigatezbadać all kindsrodzaje
5
12000
2000
Zbadaliśmy wszelkiego rodzaju
00:29
of scientificnaukowy and quasi-scientificquasi-naukowych controversieskontrowersje,
6
14000
3000
naukowe i pseudonaukowe kontrowersje.
00:32
but it turnsskręca out we don't have to worrymartwić się about any of this
7
17000
2000
Lecz okazało się, że nie ma się o co martwić,
00:34
because the world'srecyrodycyjstwo diecystwo recyrodycyjstwo diecystwo recy sektorcy going to endkoniec in 2012.
8
19000
2000
ponieważ świat i tak skończy się w 2012 roku.
00:36
AnotherInnym updateaktualizacja:
9
21000
2000
Następna aktualizacja:
00:38
You will recallodwołanie I introducedwprowadzony you guys
10
23000
2000
Przypomnicie sobie, że przedstawiłem wam
00:40
to the QuadroQuadro TrackerTracker.
11
25000
2000
"Quadro Tracker".
00:42
It's like a waterwoda dowsingDowsing deviceurządzenie.
12
27000
2000
Jest to coś w rodzaju różdżki.
00:44
It's just a hollowHollow piecekawałek of plasticPlastikowy with an antennaantena that swivelskrętliki around.
13
29000
3000
Po prostu pusty w środku kawałek plastiku z obracającą się wkoło antenką.
00:47
And you walkspacerować around, and it pointszwrotnica to things.
14
32000
2000
Chodzisz sobie wokoło i wskazujesz na różne rzeczy.
00:49
Like if you're looking for marijuanamarihuana in students'studenci lockersszafki,
15
34000
3000
Na przykład jeśli szukasz marihuany w szafkach studentów,
00:52
it'llbędzie pointpunkt right to somebodyktoś.
16
37000
2000
to coś wskaże bezpośrednio jakąś osobę.
00:54
Oh, sorry. (LaughterŚmiech)
17
39000
2000
Och, przepraszam. (Śmiechy)
00:56
This particularszczególny one that was givendany to me
18
41000
2000
To konkretne urządzenie, które zostało mi podarowane
00:58
findsznajduje golfgolf ballskulki,
19
43000
2000
znajduje piłeczki do golfa,
01:00
especiallyszczególnie if you're at a golfgolf coursekurs
20
45000
2000
zwłaszcza jeśli jesteś na polu golfowym
01:02
and you checkczek underpod enoughdość busheskrzewy.
21
47000
3000
i sprawdzisz wystarczającą liczbę krzaków.
01:05
Well, underpod the categoryKategoria of "What's the harmszkoda of sillygłupi stuffrzeczy like this?"
22
50000
3000
W kategorii "Jaką krzywdę może spowodować tak głupia rzecz jak to?",
01:08
this deviceurządzenie, the ADEADE 651,
23
53000
3000
to urządzenie, ADE 651,
01:11
was soldsprzedany to the IraqiIracki governmentrząd
24
56000
3000
zostało sprzedane władzom Iraku
01:14
for 40,000 dollarsdolarów apiecekawałek.
25
59000
2000
za 40 tyś. dolarów od sztuki.
01:16
It's just like this one, completelycałkowicie worthlessBezwartościowy,
26
61000
2000
Jest dokładnie jak to, kompletnie bezużyteczne,
01:18
in whichktóry it allegedlyrzekomo workedpracował by "electrostaticelektrostatyczne
27
63000
2000
i rzekomo działało na zasadzie
01:20
magneticmagnetyczny ionIon attractionatrakcja,"
28
65000
3000
"elektrostatycznego przyciągania jonów",
01:24
whichktóry translatesprzekłada się to
29
69000
2000
co można tłumaczyć jako
01:26
"pseudoscientificpseudonaukowe baloneybujda" -- would be the nicemiły wordsłowo --
30
71000
3000
"pseudonaukowa bzdura" - to jest odpowiednie określenie -
01:29
in whichktóry you stringstrunowy togetherRazem a bunchwiązka of wordssłowa that sounddźwięk good,
31
74000
2000
która łączy razem przypadkowe słowa tak aby dobrze brzmiały,
01:31
but it does absolutelyabsolutnie nothing.
32
76000
2000
ale jest całkowicie bezużyteczne.
01:33
In this casewalizka, at trespasswykroczenie pointszwrotnica,
33
78000
3000
W tym przypadku na punktach kontrolnych,
01:36
allowingpozwalać people to go throughprzez
34
81000
2000
przepuszczanie ludzi przez bramkę,
01:38
because your little trackerTracker deviceurządzenie said they were okay,
35
83000
3000
ponieważ ten mały wykrywacz niczego nie wykrył,
01:41
actuallytak właściwie costkoszt liveszyje.
36
86000
3000
naprawdę kosztuje czyjeś życie.
01:44
So there is a dangerniebezpieczeństwo to pseudosciencePseudonauka,
37
89000
2000
Niebezpieczeństwo pseudonauki tkwi
01:46
in believingwierząc in this sortsortować of thing.
38
91000
3000
we wierze w tego typu rzeczy.
01:49
So what I want to talk about todaydzisiaj is beliefwiara.
39
94000
3000
Tak więc, chciałbym dzisiaj porozmawiać o wierze.
01:52
I want to believe,
40
97000
2000
Chcę wierzyć
01:54
and you do too.
41
99000
2000
i ty także.
01:56
And in factfakt, I think my thesisPraca dyplomowa here is that
42
101000
2000
W rzeczywistości, teza która postawię tutaj mówi, że
01:58
beliefwiara is the naturalnaturalny statestan of things.
43
103000
2000
wiara jest naturalnym stanem rzeczy.
02:00
It is the defaultdomyślne optionopcja. We just believe.
44
105000
2000
Jest to opcja domyślna. Po prostu wierzymy.
02:02
We believe all sortssortuje of things.
45
107000
2000
Wierzymy w wiele różnych rzeczy.
02:04
BeliefWiara is naturalnaturalny;
46
109000
2000
Wiara jest naturalna.
02:06
disbeliefniedowierzanie, skepticismsceptycyzm, sciencenauka, is not naturalnaturalny.
47
111000
2000
Brak wiary, sceptycyzm, nauka - to nie jest naturalne.
02:08
It's more difficulttrudny.
48
113000
2000
Jest trudniejsze.
02:10
It's uncomfortableniewygodny to not believe things.
49
115000
2000
Niewygodnie jest nie wierzyć.
02:12
So like FoxFox MulderMulder on "X-FilesX-Files,"
50
117000
3000
Tak jak Fox Mulder w "Z archiwum X",
02:15
who wants to believe in UFOsUFO? Well, we all do,
51
120000
3000
który chce wierzyć w UFO. Wszyscy chcemy.
02:18
and the reasonpowód for that is because
52
123000
2000
A robimy to dlatego, że
02:20
we have a beliefwiara enginesilnik in our brainsmózg.
53
125000
3000
w naszym mózgach funkcjonuje mechanizm wiary.
02:23
EssentiallyZasadniczo, we are pattern-seekingposzukiwanie wzorca primatesnaczelne ssaki.
54
128000
3000
W pierwszym rzędzie, jesteśmy istotami szukającymi wzorców.
02:26
We connectpołączyć the dotskropki: A is connectedpołączony to B; B is connectedpołączony to C.
55
131000
3000
Łączymy punkty: A łączy się z B, B łączy się z C.
02:29
And sometimesczasami A really is connectedpołączony to B,
56
134000
3000
I czasami A rzeczywiście łączy się z B.
02:32
and that's callednazywa associationstowarzyszenie learninguczenie się.
57
137000
2000
I jest to nauka metodą skojarzeń.
02:34
We find patternswzorce, we make those connectionsznajomości,
58
139000
3000
Znajdujemy wzory, tworzymy powiązania,
02:37
whetherczy it's Pavlov'sPawłowa dogpies here
59
142000
2000
czy jest to pies Pawłowa,
02:39
associatingKojarzenie the sounddźwięk of the belldzwon with the foodjedzenie,
60
144000
3000
który kojarzy dźwięk dzwonka z jedzeniem
02:42
and then he salivatessalivates to the sounddźwięk of the belldzwon,
61
147000
2000
i ślini się za każdym razem gdy go usłyszy,
02:44
or whetherczy it's a SkinnerianKlatce ratszczur,
62
149000
2000
czy też jest to szczur w klatce Skinnera,
02:46
in whichktóry he's havingmający an associationstowarzyszenie
63
151000
2000
który znajduje powiązanie
02:48
betweenpomiędzy his behaviorzachowanie and a rewardnagroda for it,
64
153000
2000
pomiędzy swoim zachowaniem a nagrodą,
02:50
and thereforew związku z tym he repeatspowtarza the behaviorzachowanie.
65
155000
2000
dlatego wciąż powtarza dane zachowanie.
02:52
In factfakt, what SkinnerSkinner discoveredodkryty
66
157000
2000
W rzeczywistości, Skinner odkrył,
02:54
is that, if you put a pigeongołąb in a boxpudełko like this,
67
159000
3000
że jeśli włożysz gołębia do takiej klatki jak ta
02:57
and he has to pressnaciśnij one of these two keysklucze,
68
162000
2000
i zmusisz go do wciskania jednego z tych dwóch wpustów
02:59
and he triespróbuje to figurepostać out what the patternwzór is,
69
164000
2000
i on próbuje pojąć jaki wzór został zastosowany
03:01
and you give him a little rewardnagroda in the hopperleja boxpudełko there --
70
166000
2000
a ty dajesz mu małą nagrodę do zbiorniczka.
03:03
if you just randomlylosowo assignprzydzielać rewardsNagrody
71
168000
3000
Jeśli po prostu będziesz je losowo nagradzał
03:06
suchtaki that there is no patternwzór,
72
171000
2000
tak że nie będzie istniał żaden wzorzec,
03:08
they will figurepostać out any kinduprzejmy of patternwzór.
73
173000
2000
to i tak go wymyślą.
03:10
And whatevercokolwiek they were doing just before they got the rewardnagroda,
74
175000
2000
I cokolwiek robiły na chwilę przed uzyskaniem nagrody
03:12
they repeatpowtarzać that particularszczególny patternwzór.
75
177000
2000
powtarzają właśnie ten określony wzorzec.
03:14
SometimesCzasami it was even spinningspinning around twicedwa razy counterclockwiselewo,
76
179000
3000
Czasami obracały się nawet dwa razy w kierunku przeciwnym do obrotów wskazówek zegara,
03:17
oncepewnego razu clockwiseruchu wskazówek zegara and peckPeck the keyklawisz twicedwa razy.
77
182000
3000
raz zgodnie z ruchem wskazówek zegara, dziobiąc dwa razy wpust.
03:20
And that's callednazywa superstitionzabobon,
78
185000
2000
I to jest właśnie zabobon.
03:22
and that, I'm afraidprzestraszony,
79
187000
2000
I obawiam się,
03:24
we will always have with us.
80
189000
2000
że zawsze będzie z nami.
03:26
I call this processproces "patternicitymózgowa" --
81
191000
2000
Nazywam ten proces paternifikacją,
03:28
that is, the tendencytendencja to find meaningfulznaczący patternswzorce
82
193000
2000
tj. skłonność do zauważania wzorców,
03:30
in bothobie meaningfulznaczący and meaninglessbez znaczenia noisehałas.
83
195000
3000
tam gdzie są i tam gdzie ich nie ma.
03:33
When we do this processproces, we make two typestypy of errorsbłędy.
84
198000
3000
Wykonując ten proces, popełniamy dwa rodzaje błędów.
03:36
A TypeTypu I errorbłąd, or falsefałszywy positivepozytywny,
85
201000
2000
Błąd pierwszego rodzaju, lub alfa-błąd,
03:38
is believingwierząc a patternwzór is realreal
86
203000
2000
to wynajdywanie wzorców tam,
03:40
when it's not.
87
205000
2000
gdzie ich nie ma.
03:42
Our seconddruga typerodzaj of errorbłąd is a falsefałszywy negativenegatywny.
88
207000
2000
Natomiast błąd drugiego rodzaju, beta-błąd.
03:44
A TypeTypu IIII errorbłąd is not believingwierząc
89
209000
2000
Typ drugi występuje gdy nie wierzymy,
03:46
a patternwzór is realreal when it is.
90
211000
3000
że wzorzec zachodzi, gdy ten jest całkiem realny.
03:49
So let's do a thought experimenteksperyment.
91
214000
2000
Tak więc, zróbmy eksperyment.
03:51
You are a hominidhominidów threetrzy millionmilion yearslat agotemu
92
216000
2000
Jesteś hominidem sprzed 3 milionów lat
03:53
walkingpieszy on the plainsrówniny of AfricaAfryka.
93
218000
3000
stąpającym po równinach Afryki.
03:56
Your nameNazwa is LucyLucy, okay?
94
221000
2000
Masz na imię Lucy, zgoda?
03:58
And you hearsłyszeć a rustleszelest in the grasstrawa.
95
223000
2000
I słyszysz szelest w trawie.
04:00
Is it a dangerousniebezpieczny predatordrapieżnik,
96
225000
2000
Czy jest to niebezpieczny drapieżnik,
04:02
or is it just the windwiatr?
97
227000
2000
czy to po prostu wiatr?
04:04
Your nextNastępny decisiondecyzja could be the mostwiększość importantważny one of your life.
98
229000
3000
Twoja następna decyzja może być najważniejszą decyzją w twoim życiu.
04:07
Well, if you think that the rustleszelest in the grasstrawa is a dangerousniebezpieczny predatordrapieżnik
99
232000
3000
Jeśli myślisz, że szelest w trawie oznacza niebezpiecznego drapieżnika,
04:10
and it turnsskręca out it's just the windwiatr,
100
235000
2000
a okaże się, że jest to tylko wiatr,
04:12
you've madezrobiony an errorbłąd in cognitionpoznawanie,
101
237000
2000
będzie to jedynie błąd poznawczy,
04:14
madezrobiony a TypeTypu I errorbłąd, falsefałszywy positivepozytywny.
102
239000
2000
błąd pierwszego rodzaju, alfa-błąd.
04:16
But no harmszkoda. You just moveruszaj się away.
103
241000
2000
Ale nic się nie stało. Po prostu oddalasz się.
04:18
You're more cautiousostrożne. You're more vigilantczujność.
104
243000
2000
Jesteś bardziej uważny. Jesteś bardziej czujny.
04:20
On the other handdłoń, if you believe that the rustleszelest in the grasstrawa is just the windwiatr,
105
245000
2000
Z drugiej strony jeśli uwierzysz, że szelest w trawie jest wynikiem wiatru,
04:22
and it turnsskręca out it's a dangerousniebezpieczny predatordrapieżnik,
106
247000
3000
a okaże się jednak, że jest to niebezpieczny drapieżca,
04:25
you're lunchlunch.
107
250000
2000
stajesz się przekąską.
04:27
You've just wonwygrał a DarwinDarwin awardnagroda.
108
252000
2000
Właśnie zdobyłeś nagrodę Darwina.
04:29
You've been takenwzięty out of the genegen poolbasen.
109
254000
2000
Zostałeś wyeliminowany z puli genów.
04:31
Now the problemproblem here is that
110
256000
2000
Problem polega na tym, że
04:33
patternicitieswzorce will occurpojawić się wheneverkiedy tylko the costkoszt
111
258000
2000
wzorce pojawią się ilekroć koszt
04:35
of makingzrobienie a TypeTypu I errorbłąd
112
260000
2000
popełnienia błędu pierwszego typu
04:37
is lessmniej than the costkoszt of makingzrobienie a TypeTypu IIII errorbłąd.
113
262000
2000
jest mniejszy od kosztu popełnienia błędu drugiego typu.
04:39
This is the only equationrównanie in the talk by the way.
114
264000
2000
To jest jedyne równanie w tej prezentacji.
04:41
We have a patternwzór detectionwykrycie problemproblem
115
266000
2000
Mamy problem w wykrywaniu wzorców,
04:43
that is assessingoceny the differenceróżnica betweenpomiędzy a TypeTypu I and a TypeTypu IIII errorbłąd
116
268000
3000
szacowanie różnic pomiędzy błędem pierwszego i drugiego typu
04:46
is highlywysoko problematicproblematyczny,
117
271000
2000
jest wysoce skomplikowane,
04:48
especiallyszczególnie in split-secondułamku sekundy, life-and-deathżycie i śmierć situationssytuacje.
118
273000
3000
zwłaszcza gdy w ułamku sekundy musimy zadecydować o sprawach życia i śmierci.
04:51
So the defaultdomyślne positionpozycja
119
276000
2000
Tak więc, postawa domyślna
04:53
is just: Believe all patternswzorce are realreal --
120
278000
2000
to po prostu wiara w to, że wszelkie wzorce są prawdziwe.
04:55
All rustlesprzesadzisz in the grasstrawa are dangerousniebezpieczny predatorsdrapieżniki
121
280000
3000
Każdy szelest trawy oznacza niebezpiecznego drapieżce,
04:58
and not just the windwiatr.
122
283000
2000
a nie wiatr.
05:00
And so I think that we evolvedewoluował ...
123
285000
2000
Tak więc, sądzę, że się rozwinęliśmy...
05:02
there was a naturalnaturalny selectionwybór for the propensityskłonność for our beliefwiara enginessilniki,
124
287000
3000
To dobór naturalny stoi za naszą skłonnością do wiary,
05:05
our pattern-seekingposzukiwanie wzorca brainmózg processesprocesy,
125
290000
2000
naszymi szukającymi wzorców procesami mózgowymi,
05:07
to always find meaningfulznaczący patternswzorce
126
292000
2000
aby zawsze znaleźć sensowny wzorzec
05:09
and infuseInfuse them with these sortsortować of
127
294000
2000
i napełnić go pewnego rodzaju
05:11
predatorydrapieżne or intentionalzamierzony agenciesagencje that I'll come back to.
128
296000
3000
drapieżczymi lub celowymi działaniami do których jeszcze wrócę.
05:14
So for exampleprzykład, what do you see here?
129
299000
2000
Tak więc dla przykładu, co tutaj widzicie?
05:16
It's a horsekoń headgłowa, that's right.
130
301000
2000
To jest głowa konia.
05:18
It lookswygląda like a horsekoń. It mustmusi be a horsekoń.
131
303000
2000
Wygląda jak koń. To musi być koń.
05:20
That's a patternwzór.
132
305000
2000
To jest wzorzec.
05:22
And is it really a horsekoń?
133
307000
2000
Czy to naprawdę koń?
05:24
Or is it more like a frogżaba?
134
309000
3000
Czy może jednak żaba?
05:27
See, our patternwzór detectionwykrycie deviceurządzenie,
135
312000
2000
Widzicie, nasze urządzenie do wykrywania wzorców,
05:29
whichktóry appearspojawia się to be locatedusytuowany in the anteriorprzedniej cingulatezakrętu cortexkora --
136
314000
3000
ulokowane jest w przednim zakręcie obręczy kory mózgowej -
05:32
it's our little detectionwykrycie deviceurządzenie there --
137
317000
3000
Jest to nasz mały detektor, który
05:35
can be easilyz łatwością fooledoszukany, and this is the problemproblem.
138
320000
2000
można łatwo oszukać i to jest właśnie problem.
05:37
For exampleprzykład, what do you see here?
139
322000
2000
Co widzicie tutaj na przykład?
05:39
Yes, of coursekurs, it's a cowkrowa.
140
324000
3000
Oczywiście. To jest krowa.
05:42
OnceRaz I primegłówny the brainmózg -- it's callednazywa cognitivepoznawczy priminggruntowanie --
141
327000
3000
Kiedy przygotuję mózg - nazywa się to torowaniem -
05:45
oncepewnego razu I primegłówny the brainmózg to see it,
142
330000
2000
kiedy już przygotuję mózg aby to widzieć,
05:47
it popswyskakuje mi back out again even withoutbez the patternwzór that I've imposednałożone on it.
143
332000
3000
wyskakuje z powrotem nawet bez narzuconego wzorca.
05:50
And what do you see here?
144
335000
2000
A co widzicie tutaj?
05:52
Some people see a DalmatianDalmacji dogpies.
145
337000
2000
Niektórzy widzą dalmatyńczyka.
05:54
Yes, there it is. And there's the primegłówny.
146
339000
2000
Tak, to prawda i to jest właśnie torowanie.
05:56
So when I go back withoutbez the primegłówny,
147
341000
2000
Tak więc, kiedy wracam bez torowania,
05:58
your brainmózg alreadyjuż has the modelModel
148
343000
2000
twój mózg już posiada model,
06:00
so you can see it again.
149
345000
2000
tak, że znowu możesz go zobaczyć.
06:02
What do you see here?
150
347000
3000
Co tutaj widzicie?
06:05
PlanetPlaneta SaturnSaturn. Yes, that's good.
151
350000
2000
Planeta Saturn. Tak, dobrze.
06:07
How about here?
152
352000
3000
A tutaj?
06:10
Just shoutkrzyk out anything you see.
153
355000
3000
Po prostu krzyczcie gdy coś zobaczycie.
06:14
That's a good audiencepubliczność, ChrisChris.
154
359000
2000
Ta publiczność jest niezła, Chris.
06:16
Because there's nothing in this. Well, allegedlyrzekomo there's nothing.
155
361000
3000
Ponieważ nic tutaj nie ma. Rzekomo nic nie ma.
06:19
This is an experimenteksperyment doneGotowe by JenniferJennifer WhitsonWhitson
156
364000
3000
Jest to eksperyment wykonany przez Jennifer Whitson
06:22
at U.T. AustinAustin
157
367000
2000
z Uniwersytetu Teksańskiego w Austin
06:24
on corporatezbiorowy environmentsśrodowiska
158
369000
2000
dotyczący środowisk korporacyjnych
06:26
and whetherczy feelingsuczucia of uncertaintyniepewność and out of controlkontrola
159
371000
3000
i czy uczucia niepewności i braku kontroli
06:29
makesczyni people see illusoryzłudne patternswzorce.
160
374000
2000
powodują, że ludzie widzą iluzoryczne wzorce.
06:31
That is, almostprawie everybodywszyscy seeswidzi the planetplaneta SaturnSaturn.
161
376000
3000
Prawie wszyscy widzą planetę Saturn.
06:34
People that are put in a conditionstan of feelinguczucie out of controlkontrola
162
379000
3000
Ludzie, którzy znajdują się w warunkach odczucia braku kontroli
06:37
are more likelyprawdopodobne to see something in this,
163
382000
2000
są bardziej skłonni widzieć coś,
06:39
whichktóry is allegedlyrzekomo patternlesspozbawione.
164
384000
3000
co przypuszczalnie pozbawione jest wzorca.
06:42
In other wordssłowa, the propensityskłonność to find these patternswzorce
165
387000
3000
Innymi słowy, skłonność do znajdowania wzorców
06:45
goesidzie up when there's a lackbrak of controlkontrola.
166
390000
3000
wzrasta w sytuacji braku kontroli.
06:48
For exampleprzykład, baseballbaseball playersgracze are notoriouslynotorycznie superstitiousprzesądny
167
393000
3000
Na przykład, zabobonność wśród graczy w baseballa jest powszechnie znana,
06:51
when they're battingmrugnięcia,
168
396000
2000
zwłaszcza wśród zawodników używających kija,
06:53
but not so much when they're fieldingFielding.
169
398000
2000
lecz zdecydowanie mniejsza wśród zawodników z pola.
06:55
Because fielderszawodników na polu gry are successfuludany
170
400000
2000
Dlatego, że zawodnicy z pola odnoszą sukces
06:57
90 to 95 percentprocent of the time.
171
402000
2000
w 90 do 95 procent przypadków.
06:59
The bestNajlepiej battersfarszów failzawieść sevensiedem out of 10 timesczasy.
172
404000
3000
Najlepsi zawodnicy uderzający kijem chybiają w 7 na 10 przypadków.
07:02
So theirich superstitionsprzesądy, theirich patternicitieswzorce,
173
407000
2000
Tak więc, ich zabobonność, ich paternifikacja
07:04
are all associatedpowiązany with feelingsuczucia of lackbrak of controlkontrola
174
409000
3000
jest w całości związana z uczuciem braku kontroli
07:07
and so forthnaprzód.
175
412000
2000
i tak dalej.
07:10
What do you see in this particularszczególny one here, in this fieldpole?
176
415000
3000
Co widzicie w tym określonym przypadku, na tym polu?
07:13
AnybodyKtoś see an objectobiekt there?
177
418000
2000
Czy ktoś widzi tutaj jakiś obiekt?
07:15
There actuallytak właściwie is something here,
178
420000
2000
W rzeczywistości coś się tutaj znajduje,
07:17
but it's degradedzdegradowanych.
179
422000
2000
lecz jest mocno niewyraźne.
07:19
While you're thinkingmyślący about that,
180
424000
2000
Kiedy zastanawiacie się nad tym,
07:21
this was an experimenteksperyment doneGotowe by SusanSusan BlackmoreBlackmore,
181
426000
2000
ten eksperyment został wykonany przez Susan Blackmore,
07:23
a psychologistpsycholog in EnglandAnglia,
182
428000
2000
angielską psycholog,
07:25
who showedpokazał subjectstematy this degradedzdegradowanych imageobraz
183
430000
2000
która przedstawiła badanym to niewyraźne zdjęcie,
07:27
and then ranpobiegł a correlationkorelacja betweenpomiędzy
184
432000
2000
a później sprawdziła czy zachodzi korelacja z
07:29
theirich scoreswyniki on an ESPESP testtest:
185
434000
2000
ich wynikami testu na postrzeganie pozazmysłowe,
07:31
How much did they believe in the paranormalparanormalne,
186
436000
2000
jak bardzo wierzą w zjawiska paranormalne,
07:33
supernaturalnadprzyrodzony, angelsAnioły and so forthnaprzód.
187
438000
3000
siły nadprzyrodzone, anioły i tym podobne.
07:36
And those who scoredstrzelił highwysoki on the ESPESP scaleskala,
188
441000
3000
I ci co zdobyli najwięcej punktów w teście,
07:39
tendedraczej to not only see
189
444000
2000
mieli skłonność do dostrzegania, nie tylko
07:41
more patternswzorce in the degradedzdegradowanych imagesobrazy
190
446000
2000
większej ilości wzorców na tle tego niewyraźnego zdjęcia,
07:43
but incorrectnieprawidłowe patternswzorce.
191
448000
2000
ale również wzorców, które są nieprawdziwe.
07:45
Here is what you showpokazać subjectstematy.
192
450000
2000
Oto co pokazujesz badanym.
07:47
The fishryba is degradedzdegradowanych 20 percentprocent, 50 percentprocent
193
452000
3000
Widoczność ryby jest zdegradowana o 20 procent, 50 procent,
07:50
and then the one I showedpokazał you,
194
455000
2000
i to które pokazałem wam wcześniej,
07:52
70 percentprocent.
195
457000
2000
o 70 procent.
07:54
A similarpodobny experimenteksperyment was doneGotowe by anotherinne [SwissSzwajcarski] psychologistpsycholog
196
459000
2000
Podobny eksperyment został przeprowadzony przez szwajcarskiego psychologa,
07:56
namedo imieniu PeterPeter BruggerBrugger,
197
461000
2000
Petera Bruggera,
07:58
who founduznany significantlyznacząco more meaningfulznaczący patternswzorce
198
463000
3000
który odkrył, że zdecydowanie więcej sensownych wzorców
08:01
were perceivedpostrzegane on the right hemispherePółkula,
199
466000
2000
tworzy się w prawej półkuli mózgu
08:03
viaprzez the left visualwizualny fieldpole, than the left hemispherePółkula.
200
468000
3000
poprzez pole widzenia oka lewego, niż w lewej półkuli mózgu.
08:06
So if you presentteraźniejszość subjectstematy the imagesobrazy suchtaki
201
471000
2000
Tak więc, jeśli przedstawisz badanym zdjęcia tak,
08:08
that it's going to endkoniec up on the right hemispherePółkula insteadzamiast of the left,
202
473000
3000
że znajdą one swój finał w prawej półkuli mózgu zamiast w lewej,
08:11
then they're more likelyprawdopodobne to see patternswzorce
203
476000
2000
to będą bardziej skłonni dostrzec wzorce
08:13
than if you put it on the left hemispherePółkula.
204
478000
2000
niż gdyby zostały odebrane przez lewa półkulę.
08:15
Our right hemispherePółkula appearspojawia się to be
205
480000
2000
Nasza prawa półkula mózgowa okazuje się być
08:17
where a lot of this patternicitymózgowa occurswystępuje.
206
482000
2000
miejscem gdzie pojawia bardzo dużo wzorców.
08:19
So what we're tryingpróbować to do is boreotworu into the brainmózg
207
484000
2000
Tak więc, spróbujmy przewiercić się do mózgu
08:21
to see where all this happensdzieje się.
208
486000
2000
aby zobaczyć gdzie to wszystko się dzieje.
08:23
BruggerBrugger and his colleaguekolega, ChristineChristine MohrMohr,
209
488000
3000
Brugger i jego kolega, Christine Mohr,
08:26
gavedał subjectstematy L-DOPAL-DOPA.
210
491000
2000
podali badanym L-DOPA.
08:28
L-DOPA'sL-DOPA a drugnarkotyk, as you know, givendany for treatingleczenie Parkinson'sZ chorobą Parkinsona diseasechoroba,
211
493000
3000
L-DOPA jest lekiem podawanym pacjentom chorym na Parkinsona,
08:31
whichktóry is relatedzwiązane z to a decreasezmniejszać in dopaminedopamina.
212
496000
3000
chorobą związaną z ubytkiem dopaminy.
08:34
L-DOPAL-DOPA increaseswzrasta dopaminedopamina.
213
499000
2000
L-DOPA zwiększa stężenie dopaminy.
08:36
An increasezwiększać of dopaminedopamina causedpowodowany
214
501000
2000
Wzrost stężenia dopaminy powoduje,
08:38
subjectstematy to see more patternswzorce
215
503000
2000
że badana grupa widzi więcej wzorców,
08:40
than those that did not receiveotrzymać the dopaminedopamina.
216
505000
2000
niż grupa, która nie otrzymała dopaminy.
08:42
So dopaminedopamina appearspojawia się to be the drugnarkotyk
217
507000
2000
Tak więc, dopamina okazuje się być lekiem,
08:44
associatedpowiązany with patternicitymózgowa.
218
509000
2000
który związany jest ze skłonnością do zauważania wzorców.
08:46
In factfakt, neurolepticneuroleptycznym drugsleki
219
511000
2000
W istocie, leki przeciwpsychotyczne,
08:48
that are used to eliminatewyeliminować psychoticpsychotyczny behaviorzachowanie,
220
513000
2000
które są używane do eliminowania zachowań psychotycznych,
08:50
things like paranoiaparanoja, delusionsurojenia
221
515000
2000
takich jak paranoja, urojenia,
08:52
and hallucinationshalucynacje,
222
517000
2000
czy halucynacje,
08:54
these are patternicitieswzorce.
223
519000
2000
zwiększają skłonność do dostrzegania wzorców.
08:56
They're incorrectnieprawidłowe patternswzorce. They're falsefałszywy positivespozytywy. They're TypeTypu I errorsbłędy.
224
521000
3000
To są błędne wzorce, alfa-błędy, błędy pierwszego rodzaju.
08:59
And if you give them drugsleki
225
524000
2000
I jeśli podasz im leki,
09:01
that are dopaminedopamina antagonistsantagonistów,
226
526000
2000
które blokują produkcję dopaminy,
09:03
they go away.
227
528000
2000
one zanikają.
09:05
That is, you decreasezmniejszać the amountilość of dopaminedopamina,
228
530000
2000
Zmniejszasz stężenie dopaminy
09:07
and theirich tendencytendencja to see
229
532000
2000
i ich skłonność to widzenia
09:09
patternswzorce like that decreaseszmniejsza się.
230
534000
2000
wzorców również się zmniejsza.
09:11
On the other handdłoń, amphetaminesAmfetamina like cocainekokaina
231
536000
3000
Z drugiej strony, narkotyki takie jak kokaina,
09:14
are dopaminedopamina agonistsagonistów.
232
539000
2000
są agonistami dopaminy.
09:16
They increasezwiększać the amountilość of dopaminedopamina.
233
541000
2000
Zwiększają stężenie dopaminy.
09:18
So you're more likelyprawdopodobne to feel in a euphoriceuforii statestan,
234
543000
3000
Mamy większą skłonność do odczuwania stanu euforii,
09:21
creativitykreatywność, find more patternswzorce.
235
546000
2000
stajemy się bardziej kreatywni, znajdujemy większą ilości wzorców.
09:23
In factfakt, I saw RobinRobin WilliamsWilliams recentlyostatnio
236
548000
2000
W istocie, widziałem ostatnio Robina Williamsa,
09:25
talk about how he thought he was much funnierzabawniej
237
550000
2000
mówiącego o tym, że myślał że był bardziej zabawny,
09:27
when he was doing cocainekokaina, when he had that issuekwestia, than now.
238
552000
3000
kiedy zażywał kokainę i był uzależniony, niż teraz.
09:30
So perhapsmoże more dopaminedopamina
239
555000
2000
Możliwe, że większa ilość dopaminy
09:32
is relatedzwiązane z to more creativitykreatywność.
240
557000
2000
zwiększa naszą kreatywność.
09:34
DopamineDopaminy, I think, changeszmiany
241
559000
2000
Dopamina, jak sądzę, zmienia
09:36
our signal-to-noisesygnału do szumu ratiostosunek.
242
561000
2000
nasz współczynnik sygnału do szumu.
09:38
That is, how accuratedokładny we are
243
563000
2000
To znaczy, jak często znajdujemy
09:40
in findingodkrycie patternswzorce.
244
565000
2000
prawidłowe wzorce.
09:42
If it's too lowNiska, you're more likelyprawdopodobne to make too manywiele TypeTypu IIII errorsbłędy.
245
567000
3000
Jeśli jest zbyt niski, to mamy skłonność do robienia zbyt wielu błędów II rodzaju.
09:45
You misstęsknić the realreal patternswzorce. You don't want to be too skepticalsceptyczny.
246
570000
2000
Nie dostrzegasz prawdziwego wzorca. Nie chcemy być przesadnie sceptyczni.
09:47
If you're too skepticalsceptyczny, you'llTy będziesz misstęsknić the really interestingciekawy good ideaspomysły.
247
572000
3000
Jeśli jesteś zbyt sceptyczny, nie dostrzegasz wielu interesujących dobrych pomysłów.
09:51
Just right, you're creativetwórczy, and yetjeszcze you don't fallspadek for too much baloneybujda.
248
576000
3000
Idealnie - jesteś kreatywny, a mimo tego nie wierzysz w zbyt wiele bzdur.
09:54
Too highwysoki and maybe you see patternswzorce everywherewszędzie.
249
579000
3000
Zbyt wysoki wynik; możliwe, że widzisz wzorce wszędzie.
09:57
EveryKażdy time somebodyktoś lookswygląda at you, you think people are staringgapiowski at you.
250
582000
3000
Zawsze, kiedy ktoś na ciebie spojrzy, myślisz że ludzie się na ciebie gapią.
10:00
You think people are talkingmówić about you.
251
585000
2000
Wydaje ci się, że rozmawiają o tobie.
10:02
And if you go too fardaleko on that, that's just simplypo prostu
252
587000
2000
I jeśli zaczniesz przesadzać, to po prostu
10:04
labeledoznaczone jako as madnessszaleństwo.
253
589000
2000
otrzymasz etykietkę szaleńca.
10:06
It's a distinctionróżnica perhapsmoże we mightmoc make
254
591000
2000
Jest różnica, jeśli oczywiście można tak powiedzieć,
10:08
betweenpomiędzy two NobelLaureat Nagrody Nobla laureateslaureaci, RichardRichard FeynmanFeynman
255
593000
2000
pomiędzy dwoma laureatami Nobla, Richardem Feynmanem,
10:10
and JohnJohn NashNash.
256
595000
2000
a Joshem Nashem.
10:12
One seeswidzi maybe just the right numbernumer
257
597000
2000
Jeden z nich może widzi odpowiednią ilość
10:14
of patternswzorce to winzdobyć a NobelLaureat Nagrody Nobla PrizeNagrody.
258
599000
2000
wzorców aby wygrać nagrodę Nobla.
10:16
The other one alsorównież, but maybe too manywiele patternswzorce.
259
601000
2000
Drugi również, ale może widzi zbyt wiele wzorców.
10:18
And we then call that schizophreniaschizofrenia.
260
603000
3000
A to już jest schizofrenia.
10:21
So the signal-to-noisesygnału do szumu ratiostosunek then presentsprzedstawia us with a pattern-detectionWykrywanie problemproblem.
261
606000
3000
Tak więc, współczynnik sygnału do szumu odsłania nam problem związany z wykrywaniem wzorców.
10:24
And of coursekurs you all know exactlydokładnie
262
609000
2000
I oczywiście wszyscy dokładnie wiemy
10:26
what this is, right?
263
611000
2000
co to jest.
10:28
And what patternwzór do you see here?
264
613000
2000
Jaki wzorzec widzicie tutaj?
10:30
Again, I'm puttingwprowadzenie your anteriorprzedniej cingulatezakrętu cortexkora to the testtest here,
265
615000
3000
Znowu testuję wasz przedni zakręt obręczy kory mózgowej
10:33
causingspowodowanie you conflictingpowodujące konflikt patternwzór detectionswykrywania.
266
618000
3000
powodując problem w wykrywaniu wzorców.
10:36
You know, of coursekurs, this is ViaZa pośrednictwem UnoUno shoesbuty.
267
621000
2000
Oczywiście to są buty Via Uno.
10:38
These are sandalssandały.
268
623000
3000
Sandały.
10:41
PrettyŁadny sexyseksowny feetstopy, I mustmusi say.
269
626000
3000
Naprawdę seksowne stopy, muszę powiedzieć.
10:44
Maybe a little PhotoshoppedPhotoshopped.
270
629000
2000
Może troszeczkę wyretuszowane.
10:46
And of coursekurs, the ambiguousniejednoznaczne figuresfigury
271
631000
2000
I oczywiście, wieloznaczne figury,
10:48
that seemwydać się to flip-flopFlip-flop back and forthnaprzód.
272
633000
2000
które wyglądają jakby się przewracały w te i we wte.
10:50
It turnsskręca out what you're thinkingmyślący about a lot
273
635000
2000
Okazało się, że to o czym myślisz w dużym stopniu
10:52
influenceswpływy what you
274
637000
2000
wpływa na to co
10:54
tendzmierzać to see.
275
639000
2000
zamierzasz zobaczyć.
10:56
And you see the lamplampa here, I know.
276
641000
2000
Tutaj widać lampę, tak wiem.
10:58
Because the lightsświatła on here.
277
643000
3000
Ponieważ światło jest powyżej.
11:01
Of coursekurs, thanksdzięki to the environmentalistekolog movementruch
278
646000
2000
Oczywiście, dzięki ekologom
11:03
we're all sensitivewrażliwy to the plightsytuacja of marineMarine mammalsssaki.
279
648000
3000
wszyscy jesteśmy uczuleni na trudną sytuację morskich ssaków.
11:06
So what you see in this particularszczególny ambiguousniejednoznaczne figurepostać
280
651000
3000
Tak więc, to co widzicie w tej konkretnej, wieloznacznej figurze
11:09
is, of coursekurs, the dolphinsDelfiny, right?
281
654000
2000
to oczywiście delfiny, prawda?
11:11
You see a dolphinDelfin here,
282
656000
2000
Tutaj widać delfina.
11:13
and there's a dolphinDelfin,
283
658000
2000
I tam jest delfin.
11:15
and there's a dolphinDelfin.
284
660000
2000
I tam też jest delfin.
11:17
That's a dolphinDelfin tailogon there, guys.
285
662000
3000
A tam jest ogon delfina.
11:20
(LaughterŚmiech)
286
665000
3000
(Śmiechy)
11:25
If we can give you conflictingpowodujące konflikt datadane, again,
287
670000
3000
Jeśli podamy wam sprzeczne informacje, znowu,
11:28
your ACCACC is going to be going into hyperdriveHyperdrive.
288
673000
3000
wasza kora mózgowa zmieni się w super napęd.
11:31
If you look down here, it's fine. If you look up here, then you get conflictingpowodujące konflikt datadane.
289
676000
3000
Jeśli patrzysz na dolną cześć zdjęcia to jest OK. Jeśli na górną część, wtedy otrzymujesz sprzeczne informacje.
11:34
And then we have to fliptrzepnięcie the imageobraz
290
679000
2000
A gdy obrócisz zdjęcie
11:36
for you to see that it's a setzestaw up.
291
681000
2000
wtedy zrozumiesz, że zdjęcie jest ustawione.
11:40
The impossibleniemożliwy cratePaka illusioniluzja.
292
685000
2000
Iluzja niemożliwej skrzynki.
11:42
It's easyłatwo to fooloszukać the brainmózg in 2D.
293
687000
2000
Łatwo jest oszukać mózg w 2D.
11:44
So you say, "AwAWW, come on ShermerShermer, anybodyktoś can do that
294
689000
2000
Mówicie, "Ech, daj spokój Shermer, każdy może to zrobić
11:46
in a PsychPsych 101 texttekst with an illusioniluzja like that."
295
691000
2000
posługując się przewodnikiem do psychologii dla początkujących"
11:48
Well here'soto jest the latepóźno, great JerryJerry Andrus'Andrus
296
693000
2000
Tak więc, tutaj Jerry Andrus przedstawia wspaniałą
11:50
"impossibleniemożliwy cratePaka" illusioniluzja in 3D,
297
695000
3000
iluzję "niemożliwej skrzynki" w 3D,
11:53
in whichktóry JerryJerry is standingna stojąco insidewewnątrz
298
698000
2000
w której Jerry stoi wewnątrz
11:55
the impossibleniemożliwy cratePaka.
299
700000
2000
niemożliwej skrzynki.
11:57
And he was kinduprzejmy enoughdość to poststanowisko this
300
702000
2000
W dodatku był na tyle miły aby nam to przysłać
11:59
and give us the revealodsłonić.
301
704000
2000
i wyjawić jak to działa.
12:01
Of coursekurs, cameraaparat fotograficzny anglekąt is everything. The photographerfotograf is over there,
302
706000
3000
Oczywiście kąt ustawienia kamery jest wszystkim. Fotograf jest tutaj.
12:04
and this boardtablica appearspojawia się to overlapzakładka with this one, and this one with that one, and so on.
303
709000
3000
A ta deska wygląda jakby zachodziła na tą, a ta na tamtą i tak dalej,
12:07
But even when I take it away,
304
712000
2000
nawet jeśli oddzielimy deski od siebie,
12:09
the illusioniluzja is so powerfulpotężny because of how are brainsmózg are wiredprzewodowy
305
714000
2000
iluzja jest tak silna ze względu na sposób w jaki nasz mózg
12:11
to find those certainpewny kindsrodzaje of patternswzorce.
306
716000
3000
znajduje pewnego rodzaju wzorce.
12:14
This is a fairlydość newNowy one
307
719000
2000
To jest całkiem nowa rzecz,
12:16
that throwsrzuca us off because of the conflictingpowodujące konflikt patternswzorce
308
721000
2000
która nas odrzuca ze względu na sprzeczne wzorce
12:18
of comparingporównywanie this anglekąt with that anglekąt.
309
723000
3000
porównując jeden kąt z drugim kątem.
12:21
In factfakt, it's the exactdokładny samepodobnie pictureobrazek sidebok by sidebok.
310
726000
3000
W rzeczywistości są to te same zdjęcia.
12:24
So what you're doing is comparingporównywanie that anglekąt
311
729000
2000
Tak więc, robisz to w ten sposób, że porównujesz ten kąt
12:26
insteadzamiast of with this one, but with that one.
312
731000
2000
z tamtym zamiast z tym.
12:28
And so your brainmózg is fooledoszukany.
313
733000
2000
I twój mózg został oszukany.
12:30
YetJeszcze again, your patternwzór detectionwykrycie devicespomysłowość are fooledoszukany.
314
735000
2000
Ponownie, twoje urządzenie do wykrywania wzorców zostało oszukane.
12:32
FacesTwarze are easyłatwo to see
315
737000
2000
W łatwy sposób rozpoznajemy twarze,
12:34
because we have an additionaldodatkowe evolvedewoluował
316
739000
2000
ponieważ mamy rozwinięte dodatkowe
12:36
facialwytryski na twarz recognitionuznanie softwareoprogramowanie
317
741000
2000
oprogramowanie do rozpoznawania twarzy
12:38
in our temporalczasowy lobespłaty.
318
743000
3000
w naszych płatach skroniowych.
12:41
Here'sTutaj jest some facestwarze on the sidebok of a rockskała.
319
746000
3000
Tutaj mamy kilka twarzy na zboczu góry.
12:44
I'm actuallytak właściwie not even sure if this is -- this mightmoc be PhotoshoppedPhotoshopped.
320
749000
3000
Nawet nie jestem pewien czy... to mogło być retuszowane w Photoshopie.
12:47
But anywaytak czy inaczej, the pointpunkt is still madezrobiony.
321
752000
2000
W każdym razie, sens przekazu został zachowany.
12:49
Now whichktóry one of these lookswygląda odddziwny to you?
322
754000
2000
Który z nich wydaje się wam, że wygląda dziwacznie?
12:51
In a quickszybki reactionreakcja, whichktóry one lookswygląda odddziwny?
323
756000
2000
Szybko, który z nich wygląda dziwnie?
12:53
The one on the left. Okay. So I'll rotateobracać się it
324
758000
2000
Ten z lewej. OK. Obrócę zdjęcie,
12:55
so it'llbędzie be the one on the right.
325
760000
2000
tak że ten z lewej będzie po prawej.
12:57
And you are correctpoprawny.
326
762000
2000
I macie racje.
12:59
A fairlydość famoussławny illusioniluzja -- it was first doneGotowe with MargaretMałgorzata ThatcherThatcher.
327
764000
3000
Raczej sławna iluzja - pierwszy raz zrobiono ją z Margaret Thatcher.
13:02
Now, they tradehandel up the politicianspolitycy everykażdy time.
328
767000
2000
Obecnie robią to z każdym politykiem.
13:04
Well, why is this happeningwydarzenie?
329
769000
2000
Tak więc, dlaczego tak się dzieje?
13:06
Well, we know exactlydokładnie where it happensdzieje się,
330
771000
2000
Dokładnie wiemy gdzie się to dzieje,
13:08
in the temporalczasowy lobepłata, right acrossprzez, sortsortować of abovepowyżej your earucho there,
331
773000
3000
w płatach skroniowych, na wskroś, troszkę nad twoim uchem.
13:11
in a little structureStruktura callednazywa the fusiformwrzecionowaty gyruszakrętu.
332
776000
3000
W niewielkiej strukturze zwanej zakręt wrzecionowaty.
13:14
And there's two typestypy of cellskomórki that do this,
333
779000
2000
I istnieją dwa rodzaje komórek, które są za to odpowiedzialne,
13:16
that recordrekord facialwytryski na twarz featurescechy eitherzarówno globallyglobalnie,
334
781000
3000
jedne zapamiętują elementy twarzy w sposób ogólny
13:19
or specificallykonkretnie these largeduży, rapid-firingszybkostrzelnym cellskomórki,
335
784000
2000
inne w sposób specyficzny, błyskawicznie reagujące komórki,
13:21
first look at the generalgenerał facetwarz.
336
786000
2000
poprzez pierwsze ogólne spojrzenie na twarz.
13:23
So you recognizerozpoznać ObamaObama immediatelynatychmiast.
337
788000
2000
Tak więc, natychmiast rozpoznajecie Obamę.
13:25
And then you noticeogłoszenie something quitecałkiem
338
790000
2000
Lecz później zwracacie uwagę, że coś
13:27
a little bitkawałek odddziwny about the eyesoczy and the mouthusta.
339
792000
2000
dziwnego dzieje się z jego oczami i ustami.
13:29
EspeciallySzczególnie when they're upsidedo góry down,
340
794000
2000
Zwłaszcza gdy twarze znajdują się do góry nogami.
13:31
you're engagingujmujący that generalgenerał facialwytryski na twarz recognitionuznanie softwareoprogramowanie there.
341
796000
3000
Masz wtedy do czynienia z ogólnym systemem rozpoznawania twarzy.
13:34
Now I said back in our little thought experimenteksperyment,
342
799000
3000
Powracając do naszego małego eksperymentu myślowego,
13:37
you're a hominidhominidów walkingpieszy on the plainsrówniny of AfricaAfryka.
343
802000
2000
w którym jesteś hominidem chodzącym po równinach Afryki.
13:39
Is it just the windwiatr or a dangerousniebezpieczny predatordrapieżnik?
344
804000
3000
Czy to tylko wiatr czy niebezpieczny drapieżnik?
13:42
What's the differenceróżnica betweenpomiędzy those?
345
807000
2000
Jaka jest między nimi różnica?
13:44
Well, the windwiatr is inanimatenieożywiony;
346
809000
2000
Wiatr jest nieożywiony, bez życia;
13:46
the dangerousniebezpieczny predatordrapieżnik is an intentionalzamierzony agentagenta.
347
811000
2000
niebezpieczny drapieżnik jest czynnikiem celowym (intencjonalnym).
13:48
And I call this processproces agenticityagentyfikacją.
348
813000
2000
I nazywam ten proces agentyfikacją.
13:50
That is the tendencytendencja to infuseInfuse patternswzorce
349
815000
2000
Czyli tendencją do wypełniania wzorców
13:52
with meaningznaczenie, intentionzamiar and agencyagencja,
350
817000
2000
znaczeniami, intencjami lub celowością,
13:54
oftenczęsto invisibleniewidzialny beingsIstoty from the topTop down.
351
819000
3000
często niewidzialnymi istotami z góry do dołu.
13:57
This is an ideapomysł that we got
352
822000
2000
Jest to pewna idea, którą stworzył
13:59
from a fellowfacet TEDsterTeda here, DanDan DennettDennett,
353
824000
2000
jeden z uczestników TEDa, Dan Dennett,
14:01
who talkedrozmawialiśmy about takingnabierający the intentionalzamierzony stancepostawa.
354
826000
2000
który mówił o przyjmowaniu intencjonalnej postawy.
14:03
So it's a typerodzaj of that expandedrozszerzony to explainwyjaśniać, I think, a lot of differentróżne things:
355
828000
3000
Jest to osobnik, który ma rozbudowany sposób wyjaśniania wiele różnych rzeczy,
14:06
soulsdusze, spiritsduchy, ghostsduchy, godsbogowie, demonsdemony, angelsAnioły,
356
831000
3000
dusz, duchów, upiorów, bogów, demonów, aniołów,
14:09
alienskosmici, intelligentinteligentny designersprojektanci,
357
834000
2000
kosmitów, inteligentnych stwórców,
14:11
governmentrząd conspiracistsconspiracists
358
836000
2000
spiskowców
14:13
and all mannersposób of invisibleniewidzialny agentsagentów
359
838000
2000
i innych wszelkiego rodzaju niewidzialnych agentów
14:15
with powermoc and intentionzamiar, are believeduwierzyli
360
840000
2000
posiadających moc i intencje, i wierzących w to, że
14:17
to hauntOpętanie our worldświat and controlkontrola our liveszyje.
361
842000
2000
nawiedzają nasz świat i kontrolują nasze życia.
14:19
I think it's the basispodstawa of animismanimizm
362
844000
2000
Myślę, że jest to podstawa animizmu,
14:21
and polytheismPoliteizm and monotheismMonoteizm.
363
846000
3000
politeizmu i monoteizmu.
14:24
It's the beliefwiara that alienskosmici are somehowjakoś
364
849000
2000
Jest to wiara, że kosmici są w jakiś sposób
14:26
more advancedzaawansowane than us, more moralmorał than us,
365
851000
2000
bardziej zaawansowani od nas, bardziej moralni od nas,
14:28
and the narrativesnarracje always are
366
853000
2000
a narracja jest zawsze taka, że
14:30
that they're comingprzyjście here to savezapisać us and rescueratować us from on highwysoki.
367
855000
3000
oni przybędą z wysokości aby nas ochronić i ocalić.
14:33
The intelligentinteligentny designer'sprojektanta always portrayedmalowany
368
858000
2000
Zwolennicy inteligentnego stwórcy zawsze przedstawiają go
14:35
as this superWspaniały intelligentinteligentny, moralmorał beingistota
369
860000
3000
jako super inteligentną i moralną istotę,
14:38
that comespochodzi down to designprojekt life.
370
863000
2000
która zjawia się tutaj aby wykreować życie.
14:40
Even the ideapomysł that governmentrząd can rescueratować us --
371
865000
2000
Nawet idea, że rząd może nas ocalić.
14:42
that's no longerdłużej the wavefala of the futureprzyszłość,
372
867000
2000
Nie jest już dłużej głosem przyszłości.
14:44
but that is, I think, a typerodzaj of agenticityagentyfikacją:
373
869000
2000
Lecz jest to jak sądzę rodzaj agentyfikacji,
14:46
projectingrzutowanie somebodyktoś up there,
374
871000
2000
wyobrażanie sobie kogoś gdzieś tam w górze,
14:48
bigduży and powerfulpotężny, will come rescueratować us.
375
873000
2000
wielkiego i potężnego, który przybędzie i nas ocali.
14:50
And this is alsorównież, I think, the basispodstawa of conspiracyspisek theoriesteorie.
376
875000
2000
I jest to również jak sądzę podstawa teorii spiskowych.
14:52
There's somebodyktoś hidingUkrywanie behindza there pullingciągnięcie the stringssmyczki,
377
877000
3000
Istnieje ktoś, kto z ukrycia pociąga za wszystkie sznurki,
14:55
whetherczy it's the IlluminatiIlluminati
378
880000
2000
nieważne czy są to Iluminaci
14:57
or the BilderbergersTeż klub Bilderberga.
379
882000
2000
czy też Klub Bilderberga.
14:59
But this is a patternwzór detectionwykrycie problemproblem, isn't it?
380
884000
2000
Lecz czyż nie jest to problem w wykrywaniu wzorców?
15:01
Some patternswzorce are realreal and some are not.
381
886000
2000
Niektóre wzorce są prawdziwe, inne nie.
15:03
Was JFKJFK assassinatedzamordowany by a conspiracyspisek or by a lonesamotny assassinZabójca?
382
888000
3000
Czy zamach na JFK był wynikiem spisku czy też był to pojedynczy zamachowiec?
15:06
Well, if you go there -- there's people there on any givendany day --
383
891000
3000
Jeśli udasz się w tamto miejsce - ludzie są tam praktycznie cały czas -
15:09
like when I wentposzedł there, here -- showingseans me where the differentróżne shootersStrzelcy were.
384
894000
3000
tak jak ja tam się udałem; tutaj pokazują mi gdzie znajdowali się strzelcy.
15:12
My favoriteulubiony one was he was in the manholePokrywy włazów.
385
897000
3000
Moja ulubiona teoria to ta, która mówi że strzelec ukrywał się w studzience ściekowej.
15:15
And he poppedpękło out at the last seconddruga, tookwziął that shotstrzał.
386
900000
3000
A strzelec wyskoczył z niej w ostatniej sekundzie i oddał strzał.
15:18
But of coursekurs, LincolnLincoln was assassinatedzamordowany by a conspiracyspisek.
387
903000
2000
Lecz oczywiście, Lincoln zginął w wyniku spisku.
15:20
So we can't just uniformlyrównomiernie dismissoddalenie
388
905000
2000
Tak więc, nie możemy po prosty odrzucić
15:22
all patternswzorce like that.
389
907000
2000
wszystkich wzorców tego typu.
15:24
Because, let's facetwarz it, some patternswzorce are realreal.
390
909000
2000
Ponieważ, spójrzmy prawdzie w oczy, niektóre wzorce są prawdziwe.
15:26
Some conspiraciesSpiski really are trueprawdziwe.
391
911000
2000
Niektóre teorie spiskowe rzeczywiście istnieją naprawdę.
15:30
ExplainsWyjaśnia a lot, maybe.
392
915000
2000
Być może to wiele wyjaśnia.
15:32
And 9/11 has a conspiracyspisek theoryteoria. It is a conspiracyspisek.
393
917000
3000
Również zamach z 11 września ma swoją teorię spiskową. To jest spisek.
15:35
We did a wholecały issuekwestia on it.
394
920000
2000
Poświęciliśmy temu tematowi całe wydanie.
15:37
NineteenDziewiętnaście membersczłonków of AlAl QuedaQueda plottingdrukowania to flylatać planessamoloty into buildingsBudynki
395
922000
2000
19 członków Al-Kaidy umówiło się, że wlecą samolotami w budynki,
15:39
constitutesstanowi a conspiracyspisek.
396
924000
2000
to stanowi spisek.
15:41
But that's not what the "9/11 trutherstruthers" think.
397
926000
2000
Lecz nie to mają na myśli członkowie ruchu "Prawda 9/11".
15:43
They think it was an insidewewnątrz jobpraca by the BushBush administrationadministracja.
398
928000
3000
Oni uważają, że była to robota administracji Busha.
15:46
Well, that's a wholecały other lecturewykład.
399
931000
2000
To jest temat na zupełnie osobny wykład.
15:48
You know how we know that 9/11
400
933000
2000
Ale wiecie dlaczego wiemy, że zamach z 11 września
15:50
was not orchestratedzaaranżowana by the BushBush administrationadministracja?
401
935000
2000
nie był zorganizowany przez administrację Busha?
15:52
Because it workedpracował.
402
937000
2000
Ponieważ się udał.
15:54
(LaughterŚmiech)
403
939000
3000
(Śmiechy)
15:57
(ApplauseAplauz)
404
942000
3000
(Brawa)
16:00
So we are natural-bornurodzonym dualistsdualistami.
405
945000
2000
Tak więc, jesteśmy urodzonymi dualistami.
16:02
Our agenticityagentyfikacją processproces comespochodzi from
406
947000
2000
Nasza agentyfikacja jest następstwem
16:04
the factfakt that we can enjoycieszyć się movieskino like these.
407
949000
2000
faktu, że możemy dobrze się bawić oglądając tego typu filmy.
16:06
Because we can imaginewyobrażać sobie, in essenceistota,
408
951000
2000
Ponieważ potrafimy wyobrażać sobie, w tym wypadku,
16:08
continuingciąg dalszy on.
409
953000
2000
ciągłość.
16:10
We know that if you stimulatestymulować the temporalczasowy lobepłata,
410
955000
2000
Wiemy, że jeśli stymulujemy płat skroniowy,
16:12
you can produceprodukować a feelinguczucie of out-of-bodypoza ciałem experienceswzruszenie religijne,
411
957000
2000
możemy wywołać uczucie przebywania poza ciałem,
16:14
near-deathw pobliżu śmierci experienceswzruszenie religijne,
412
959000
2000
doświadczyć własnej śmierci,
16:16
whichktóry you can do by just touchingwzruszające an electrodeelektroda to the temporalczasowy lobepłata there.
413
961000
3000
można to zrobić dotykając elektrodami płata skroniowego w tamtym miejscu.
16:19
Or you can do it throughprzez lossutrata of consciousnessświadomość,
414
964000
2000
Lub poprzez utratę przytomności
16:21
by acceleratingprzyspieszenie in a centrifugeWirówki.
415
966000
2000
w wirówce przeciążeniowej.
16:23
You get a hypoxianiedotlenienie, or a lowerniższy oxygentlen.
416
968000
3000
Doświadczasz hipoksji lub niedotlenienia.
16:26
And the brainmózg then sensesrozsądek
417
971000
2000
A wtedy mózg kreuje
16:28
that there's an out-of-bodypoza ciałem experiencedoświadczenie.
418
973000
2000
uczucie przebywania poza ciałem.
16:30
You can use -- whichktóry I did, wentposzedł out and did --
419
975000
2000
Można spróbować - ja próbowałem -
16:32
MichaelMichael Persinger'sPresingera God HelmetKask,
420
977000
2000
"hełm boga" Michaela Presingera,
16:34
that bombardsbombarduje your temporalczasowy lobespłaty with electromagneticelektromagnetyczna wavesfale.
421
979000
2000
który bombarduje twój płat skroniowy falami elektromagnetycznymi.
16:36
And you get a sensesens of out-of-bodypoza ciałem experiencedoświadczenie.
422
981000
3000
I pojawia się uczucie przebywania poza ciałem.
16:39
So I'm going to endkoniec here with a shortkrótki videowideo clipspinacz
423
984000
2000
Tak więc, zamierzam zakończyć ten wykład krótkim filmikiem,
16:41
that sortsortować of bringsprzynosi all this togetherRazem.
424
986000
2000
który w pewien sposób łączy to wszystko razem.
16:43
It's just a minutechwila and a halfpół.
425
988000
2000
To tylko półtorej minuty.
16:45
It tieswięzi togetherRazem all this into the powermoc of expectationoczekiwanie and the powermoc of beliefwiara.
426
990000
3000
Wiąże to wszystko ze sobą w siłę nadziei i siłę wiary.
16:48
Go aheadprzed siebie and rollrolka it.
427
993000
2000
Nie ma co czekać, puśćcie film.
16:50
NarratorProgram Narrator: This is the venuemiejsce they chosewybrał for theirich fakeimitacja auditionsprzesłuchania konkursowe
428
995000
3000
Narrator: to jest miejsce, gdzie się odbywają sfingowane przesłuchania
16:53
for an advertogłoszenie for lipwargi balmbalsam do ust.
429
998000
2000
do roli w reklamie balsamu do ust.
16:55
WomanKobieta: We're hopingmieć nadzieję we can use partczęść of this
430
1000000
2000
Kobieta: Mamy nadzieje, że uda nam się wykorzystać tą część
16:57
in a nationalkrajowy commercialReklama w telewizji, right?
431
1002000
2000
w ogólnokrajowej reklamie.
16:59
And this is testtest on some lipwargi balmsBalsamy
432
1004000
2000
Jest to test kilku balsamów do ust,
17:01
that we have over here.
433
1006000
2000
które tutaj mamy.
17:03
And these are our modelsmodele who are going to help us,
434
1008000
2000
A to są modele, którzy będą nam pomagać,
17:05
RogerRoger and MattMatt.
435
1010000
2000
Roger i Matt.
17:07
And we have our ownwłasny lipwargi balmbalsam do ust,
436
1012000
2000
Mamy nasz własny balsam do ust
17:09
and we have a leadingprowadzący brandMarka.
437
1014000
2000
oraz inną wiodącą markę.
17:11
Would you have any problemproblem
438
1016000
2000
Czy miałabyś problem aby
17:13
kissingcałowanie our modelsmodele to testtest it?
439
1018000
2000
pocałować naszych modeli aby je przetestować?
17:15
GirlDziewczyna: No.
440
1020000
2000
Dziewczyna: Nie.
17:17
WomanKobieta: You wouldn'tnie? (GirlDziewczyna: No.) WomanKobieta: You'dW przypadku think that was fine.
441
1022000
2000
Kobieta: Nie miałabyś? (Dziewczyna: Nie.) Kobieta: Uważasz, że to w porządku?
17:19
GirlDziewczyna: That would be fine. (WomanKobieta: Okay.)
442
1024000
2000
Dziewczyna: Dla mnie może być. (Kobieta: OK)
17:21
So this is a blindślepy testtest.
443
1026000
3000
Tak więc, jest to ślepa próba.
17:24
I'm going to askzapytać you to go aheadprzed siebie
444
1029000
2000
Zamierzam cię poprosić
17:26
and put a blindfoldopaskę on.
445
1031000
2000
abyś założyła opaskę na oczy.
17:29
KayKay, now can you see anything? (GirlDziewczyna: No.)
446
1034000
3000
Kay, czy coś teraz widzisz? (Dziewczyna: Nie.)
17:32
PullPociągnąć it so you can't even see down. (GirlDziewczyna: Okay.)
447
1037000
2000
Ściągnij trochę abyś nie widziała nawet patrząc w dół. (Dziewczyna: OK.)
17:34
WomanKobieta: It's completelycałkowicie blindślepy now, right?
448
1039000
2000
Kobiety: Czy teraz już zupełnie nic nie widzisz?
17:36
GirlDziewczyna: Yes. (WomanKobieta: Okay.)
449
1041000
2000
Dziewczyna: Nie. (Kobieta: OK)
17:38
Now, what I'm going to be looking for in this testtest
450
1043000
3000
A teraz w czasie tego testu zamierzam obserwować
17:41
is how it protectschroni your lipsusta,
451
1046000
3000
jak balsam chroni twoje usta,
17:44
the texturetekstura, right,
452
1049000
2000
strukturę
17:46
and maybe if you can discerndostrzec any flavorsmak or not.
453
1051000
3000
i jeśli możesz spróbuj wyczuć jakiś smak lub jego brak.
17:49
GirlDziewczyna: Okay. (WomanKobieta: Have you ever doneGotowe a kissingcałowanie testtest before?)
454
1054000
3000
Dziewczyna: OK. (Kobieta: Czy brałaś już kiedyś udział w takim teście?)
17:52
GirlDziewczyna: No.
455
1057000
2000
Dziewczyna: Nie.
17:54
WomanKobieta: Take a stepkrok here.
456
1059000
2000
Kobieta: Podejdź tutaj.
17:56
Okay, now I'm going to askzapytać you to puckermarszczenie up.
457
1061000
2000
OK, a teraz chciałabym abyś wydęła usta
17:58
PuckerMarszczenie up bigduży and leanpochylać się in just a little bitkawałek, okay?
458
1063000
3000
Mocno wydmij usta i pochyl się troszeczkę, OK.
18:06
(MusicMuzyka)
459
1071000
4000
(Muzyka)
18:10
(LaughterŚmiech)
460
1075000
5000
(Śmiechy)
18:19
(LaughterŚmiech)
461
1084000
3000
(Śmiechy)
18:30
WomanKobieta: Okay.
462
1095000
2000
OK
18:32
And, JenniferJennifer, how did that feel?
463
1097000
2000
A teraz Jennifer, jak wrażenia?
18:34
JenniferJennifer: Good.
464
1099000
2000
Jennifer: Pozytywne.
18:36
(LaughterŚmiech)
465
1101000
7000
(Śmiechy)
18:43
GirlDziewczyna: Oh my God!
466
1108000
2000
Dziewczyna: Och mój Boże.
18:45
(LaughterŚmiech)
467
1110000
4000
(Śmiechy)
18:50
MichaelMichael ShermerShermer: Thank you very much. Thank you. ThanksDzięki.
468
1115000
3000
Michael Shermer: Dziękuję bardzo. Dziękuję. Dzięki.
Translated by Pawel Banas
Reviewed by Anna Chadzynska

▲Back to top

ABOUT THE SPEAKER
Michael Shermer - Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market.

Why you should listen

As founder and publisher of Skeptic Magazine, Michael Shermer has exposed fallacies behind intelligent design, 9/11 conspiracies, the low-carb craze, alien sightings and other popular beliefs and paranoias. But it's not about debunking for debunking's sake. Shermer defends the notion that we can understand our world better only by matching good theory with good science.

Shermer's work offers cognitive context for our often misguided beliefs: In the absence of sound science, incomplete information can powerfully combine with the power of suggestion (helping us hear Satanic lyrics when "Stairway to Heaven" plays backwards, for example). In fact, a common thread that runs through beliefs of all sorts, he says, is our tendency to convince ourselves: We overvalue the shreds of evidence that support our preferred outcome, and ignore the facts we aren't looking for.

He writes a monthly column for Scientific American, and is an adjunct at Claremont Graduate University and Chapman University. His latest book is The Believing Brain: From Ghosts and Gods to Politics and Conspiracies—How We Construct Beliefs and Reinforce Them as Truths. He is also the author of The Mind of the Market, on evolutionary economics, Why Darwin Matters: Evolution and the Case Against Intelligent Design, and The Science of Good and Evil. And his next book is titled The Moral Arc of Science.

More profile about the speaker
Michael Shermer | Speaker | TED.com