ABOUT THE SPEAKER
Laurie Santos - Cognitive psychologist
Laurie Santos studies primate psychology and monkeynomics -- testing problems in human psychology on primates, who (not so surprisingly) have many of the same predictable irrationalities we do.

Why you should listen

Laurie Santos runs the Comparative Cognition Laboratory (CapLab) at Yale, where she and collaborators across departments (from psychology to primatology to neurobiology) explore the evolutionary origins of the human mind by studying lemurs, capuchin monkeys and other primates. The twist: Santos looks not only for positive humanlike traits, like tool-using and altruism, but irrational ones, like biased decisionmaking.

In elegant, carefully constructed experiments, Santos and CapLab have studied how primates understand and categorize objects in the physical world -- for instance, that monkeys understand an object is still whole even when part of it is obscured. Going deeper, their experiments also search for clues that primates possess a theory of mind -- an ability to think about what other people think.

Most recently, the lab has been looking at behaviors that were once the province mainly of novelists: jealousy, frustration, judgment of others' intentions, poor economic choices. In one experiment, Santos and her team taught monkeys to use a form of money, tradeable for food. When certain foods became cheaper, monkeys would, like humans, overbuy. As we humans search for clues to our own irrational behaviors, Santos' research suggests that the source of our genius for bad decisions might be our monkey brains.

More profile about the speaker
Laurie Santos | Speaker | TED.com
TEDGlobal 2010

Laurie Santos: A monkey economy as irrational as ours

Laurie Santos: Opice hospodaří stejně nerozumně jako my

Filmed:
1,506,660 views

Laurie Santos sledovala způsoby, jak se naši opičí příbuzní rozhodují, aby nahlédla do kořenů lidských iracionálních rozhodnutí. Z řady šikovně provedených experimentů „opičákonomie“ vyšlo najevo, že opice se často rozhodují stejně bláhově jako my.
- Cognitive psychologist
Laurie Santos studies primate psychology and monkeynomics -- testing problems in human psychology on primates, who (not so surprisingly) have many of the same predictable irrationalities we do. Full bio

Double-click the English transcript below to play the video.

00:17
I want to startStart my talk todaydnes with two observationspozorování
0
2000
2000
Dnes bych ráda začala dvěma postřehy
00:19
about the humančlověk speciesdruh.
1
4000
2000
o lidském druhu.
00:21
The first observationpozorování is something that you mightmohl think is quitedocela obviouszřejmé,
2
6000
3000
Ten první se týká něčeho, co můžete považovat za celkem samozřejmé
00:24
and that's that our speciesdruh, HomoHomo sapienssapiens,
3
9000
2000
a to že náš druh, Homo sapiens,
00:26
is actuallyvlastně really, really smartchytrý --
4
11000
2000
je vlastně velmi, velmi chytrý –
00:28
like, ridiculouslysměšně smartchytrý --
5
13000
2000
vlastně až směšně chytrý –
00:30
like you're all doing things
6
15000
2000
jakože dokáže všechny ty věci,
00:32
that no other speciesdruh on the planetplaneta does right now.
7
17000
3000
které žádný jiný druh na zemi nedokáže.
00:35
And this is, of coursechod,
8
20000
2000
A samozřejmě
00:37
not the first time you've probablypravděpodobně recognizeduznána this.
9
22000
2000
toto není poprvé, kdy si to nejspíš uvědomujete.
00:39
Of coursechod, in additionpřidání to beingbytost smartchytrý, we're alsotaké an extremelyvelmi vainmarné speciesdruh.
10
24000
3000
Ovšem, krom toho, že jsme chytří, jsme také neuvěřitelně ješitný druh.
00:42
So we like pointingpolohovací out the factskutečnost that we're smartchytrý.
11
27000
3000
Takže rádi zdůrazňujeme, že jsme chytří.
00:45
You know, so I could turnotočit se to prettydosti much any sageSage
12
30000
2000
Však se můžu obrátit na mnoho velkých mužů
00:47
from ShakespeareShakespeare to StephenStephen ColbertColbert
13
32000
2000
od Shakespeara po Stephena Colberta,
00:49
to pointbod out things like the factskutečnost that
14
34000
2000
abych vyzdvihla věci jako že
00:51
we're nobleušlechtilý in reasondůvod and infinitenekonečný in facultiesfakult
15
36000
2000
jsme ušlechtilí v myšlení a nekoneční v nadání
00:53
and just kinddruh of awesome-erSuper-er than anything elsejiný on the planetplaneta
16
38000
2000
a vůbec tak trochu úžasnější než kdokoli jiný na zemi
00:55
when it comespřijde to all things cerebralcerebrální.
17
40000
3000
co se intelektuálna týče.
00:58
But of coursechod, there's a seconddruhý observationpozorování about the humančlověk speciesdruh
18
43000
2000
Na druhé straně tu je ale druhý poznatek o lidském druhu,
01:00
that I want to focussoustředit se on a little bitbit more,
19
45000
2000
na který se chci zaměřit trochu víc,
01:02
and that's the factskutečnost that
20
47000
2000
a tím je fakt, že
01:04
even thoughačkoli we're actuallyvlastně really smartchytrý, sometimesněkdy uniquelyjedinečně smartchytrý,
21
49000
3000
ačkoli jsme opravdu velmi chytří, někdy výjimečně chytří,
01:07
we can alsotaké be incrediblyneuvěřitelně, incrediblyneuvěřitelně dumbněmý
22
52000
3000
umíme také být neuvěřitelně, neuvěřitelně pitomí,
01:10
when it comespřijde to some aspectsaspekty of our decisionrozhodnutí makingtvorba.
23
55000
3000
když přijde řeč na některé stránky našeho rozhodování.
01:13
Now I'm seeingvidění lots of smirksulizuje out there.
24
58000
2000
Koukám, že se tu docela culíte,
01:15
Don't worrytrápit se, I'm not going to call anyonekdokoliv in particularkonkrétní out
25
60000
2000
ale nebojte, nehodlám tu na nikom předvádět
01:17
on any aspectsaspekty of your ownvlastní mistakeschyby.
26
62000
2000
žádný z příkladů vašich vlastních chyb.
01:19
But of coursechod, just in the last two yearsroky
27
64000
2000
Ovšem za poslední dva roky
01:21
we see these unprecedentedbezprecedentní examplespříklady of humančlověk ineptitudeneobratnost.
28
66000
3000
můžeme pozorovat mnoho nových příkladů lidské pošetilosti.
01:24
And we'vejsme watchedsledoval as the toolsnástroje we uniquelyjedinečně make
29
69000
3000
Byli jsme svědky toho, jak se nástroje, které jsme sami vytvořili
01:27
to pullSEM the resourceszdroje out of our environmentživotní prostředí
30
72000
2000
k čerpání přírodních zdrojů,
01:29
kinddruh of just blowfoukat up in our facetvář.
31
74000
2000
obrátily proti nám.
01:31
We'veMáme watchedsledoval the financialfinanční marketstrzích that we uniquelyjedinečně createvytvořit --
32
76000
2000
Sledovali jsme finanční trhy, jež jsme sami vytvořili –
01:33
these marketstrzích that were supposedpředpokládané to be foolproofneomylná --
33
78000
3000
trhy považované za spolehlivé –
01:36
we'vejsme watchedsledoval them kinddruh of collapsekolaps before our eyesoči.
34
81000
2000
sledovali jsme, jak se nám hroutí před očima.
01:38
But bothoba of these two embarrassingtrapné examplespříklady, I think,
35
83000
2000
Myslím si ale, že oba tyto nepříjemné příklady
01:40
don't highlightzvýraznění what I think is mostvětšina embarrassingtrapné
36
85000
3000
nezdůrazňují to, co považuji za nejnepříjemnější
01:43
about the mistakeschyby that humanslidem make,
37
88000
2000
část našeho chybování -
01:45
whichkterý is that we'dmy jsme like to think that the mistakeschyby we make
38
90000
3000
že bychom si rádi mysleli, že chyby, které děláme,
01:48
are really just the resultvýsledek of a couplepár badšpatný applesjablka
39
93000
2000
jsou prostě způsobeny jen hloupou shodou okolností
01:50
or a couplepár really sorttřídění of FAILSELHÁNÍ Blog-worthyBlog hodné decisionsrozhodnutí.
40
95000
3000
nebo pár zkraty, kterým bychom se později zasmáli.
01:53
But it turnsotočí out, what socialsociální scientistsvědců are actuallyvlastně learningučení se
41
98000
3000
Ukazuje se však, jak sociální vědci začínají poznávat,
01:56
is that mostvětšina of us, when put in certainurčitý contextskontexty,
42
101000
3000
že většina z nás, v určitých situacích,
01:59
will actuallyvlastně make very specificcharakteristický mistakeschyby.
43
104000
3000
bude dělat velmi specifické chyby.
02:02
The errorschyby we make are actuallyvlastně predictablepředvídatelný.
44
107000
2000
Tato selhání jsou vlastně předvídatelná.
02:04
We make them again and again.
45
109000
2000
Děláme je zas a znova.
02:06
And they're actuallyvlastně immuneimunní to lots of evidencedůkaz.
46
111000
2000
Vzpírají se dokonce logice.
02:08
When we get negativenegativní feedbackzpětná vazba,
47
113000
2000
I když dostaneme negativní zpětnou vazbu,
02:10
we still, the nextdalší time we're facetvář with a certainurčitý contextkontext,
48
115000
3000
stejně, jakmile se ocitneme ve stejné situaci,
02:13
tendtendenci to make the samestejný errorschyby.
49
118000
2000
inklinujeme k opakování té samé chyby.
02:15
And so this has been a realnemovitý puzzlehádanka to me
50
120000
2000
Byl to pro mě jako pro badatelku v lidské přirozenosti
02:17
as a sorttřídění of scholarvědec of humančlověk naturePříroda.
51
122000
2000
opravdu velký oříšek.
02:19
What I'm mostvětšina curiouszvědavý about is,
52
124000
2000
Nejvíce mě zajímá,
02:21
how is a speciesdruh that's as smartchytrý as we are
53
126000
3000
jak jsou bytosti tak chytré jako my
02:24
capableschopný of suchtakový badšpatný
54
129000
2000
schopné tak špatných
02:26
and suchtakový consistentkonzistentní errorschyby all the time?
55
131000
2000
a stále se opakujících chyb?
02:28
You know, we're the smartestnejchytřejší thing out there, why can't we figurepostava this out?
56
133000
3000
Chápete, když jsme široko daleko ti nejchytřejší, proč na to nepřijdeme?
02:31
In some sensesmysl, where do our mistakeschyby really come from?
57
136000
3000
Můžeme se ptát: jak takové chyby vlastně vznikají?
02:34
And havingmít thought about this a little bitbit, I see a couplepár differentodlišný possibilitiesmožností.
58
139000
3000
A když se nad tím trochu zamyslím, napadá mě několik různých možností.
02:37
One possibilitymožnost is, in some sensesmysl, it's not really our faultporucha.
59
142000
3000
Jednou z možností je, že v jistém smyslu to není naše chyba.
02:40
Because we're a smartchytrý speciesdruh,
60
145000
2000
Protože jsme tak inteligentní druh,
02:42
we can actuallyvlastně createvytvořit all kindsdruhy of environmentsprostředí
61
147000
2000
umíme vytvořit taková prostředí,
02:44
that are supersuper, supersuper complicatedsložitý,
62
149000
2000
která jsou tak moc, strašně moc složitá,
02:46
sometimesněkdy too complicatedsložitý for us to even actuallyvlastně understandrozumět,
63
151000
3000
občas tak složitá, že je ani nedovedeme pochopit,
02:49
even thoughačkoli we'vejsme actuallyvlastně createdvytvořeno them.
64
154000
2000
přestože jsme je sami vytvořili.
02:51
We createvytvořit financialfinanční marketstrzích that are supersuper complexkomplex.
65
156000
2000
Vytvořili jsme ohromně zašmodrchané finanční trhy.
02:53
We createvytvořit mortgagehypotéka termspodmínky that we can't actuallyvlastně dealobchod with.
66
158000
3000
Vytvořili jsme podmínky hypoték, se kterými si vlastně nevíme rady.
02:56
And of coursechod, if we are put in environmentsprostředí where we can't dealobchod with it,
67
161000
3000
A tedy, když se ocitneme v prostředí, ve kterém se nevyznáme,
02:59
in some sensesmysl makesdělá sensesmysl that we actuallyvlastně
68
164000
2000
dává vlastně smysl,
03:01
mightmohl messnepořádek certainurčitý things up.
69
166000
2000
že občas v něčem uděláme opravdový chaos.
03:03
If this was the casepouzdro, we'dmy jsme have a really easysnadný solutionřešení
70
168000
2000
Jestli to byl ten případ, měli bychom snadné
03:05
to the problemproblém of humančlověk errorchyba.
71
170000
2000
řešení lidských omylů.
03:07
We'dRádi bychom actuallyvlastně just say, okay, let's figurepostava out
72
172000
2000
Prostě bychom řekli: fajn, ujasněme si,
03:09
the kindsdruhy of technologiestechnologií we can't dealobchod with,
73
174000
2000
s jakými technologiemi si nevíme rady,
03:11
the kindsdruhy of environmentsprostředí that are badšpatný --
74
176000
2000
jaké prostředí je pro nás špatné,
03:13
get ridzbavit of those, designdesign things better,
75
178000
2000
a zbavme se toho, udělejme to lepší,
03:15
and we should be the nobleušlechtilý speciesdruh
76
180000
2000
a pak můžeme být ten vznešený druh,
03:17
that we expectočekávat ourselvessebe to be.
77
182000
2000
jak od sebe čekáme.
03:19
But there's anotherdalší possibilitymožnost that I find a little bitbit more worryingznepokojující,
78
184000
3000
Jenže je tu druhá možnost, která mi připadá trochu děsivější:
03:22
whichkterý is, maybe it's not our environmentsprostředí that are messedzmatený up.
79
187000
3000
možná to není to okolo nás, co je špatně.
03:25
Maybe it's actuallyvlastně us that's designednavrženo badlyšpatně.
80
190000
3000
Možná je chyba v nás.
03:28
This is a hintnáznak that I've gottendostal
81
193000
2000
Toto tušení jsem dostala
03:30
from watchingsledování the wayszpůsoby that socialsociální scientistsvědců have learnednaučil se about humančlověk errorschyby.
82
195000
3000
při sledování toho, jak sociální vědci studovali lidské chyby.
03:33
And what we see is that people tendtendenci to keep makingtvorba errorschyby
83
198000
3000
Můžeme pozorovat, že lidé mají tendenci dělat chyby
03:36
exactlypřesně the samestejný way, over and over again.
84
201000
3000
stále stejně, pořád a pořád dokola.
03:39
It feelscítí like we mightmohl almosttéměř just be builtpostavený
85
204000
2000
Skoro to vypadá, jako bychom byli nastaveni tak,
03:41
to make errorschyby in certainurčitý wayszpůsoby.
86
206000
2000
abychom chybovali určitými způsoby.
03:43
This is a possibilitymožnost that I worrytrápit se a little bitbit more about,
87
208000
3000
Toto je ta možnost, která mě znepokojuje o trochu víc,
03:46
because, if it's us that's messedzmatený up,
88
211000
2000
protože, jestli je chyba v nás,
03:48
it's not actuallyvlastně clearPrůhledná how we go about dealingjednání with it.
89
213000
2000
není příliš jasné, jak se s tím můžeme vypořádat.
03:50
We mightmohl just have to acceptakceptovat the factskutečnost that we're errorchyba pronenáchylný
90
215000
3000
Možná bychom mohli prostě přijmout fakt, že jsme náchylní k chybám,
03:53
and try to designdesign things around it.
91
218000
2000
a zkusit tomu přizpůsobit všechno okolo.
03:55
So this is the questionotázka my studentsstudentů and I wanted to get at.
92
220000
3000
Tak toto je otázka, které jsem se svými studenty chtěla přijít na kloub.
03:58
How can we tell the differencerozdíl betweenmezi possibilitymožnost one and possibilitymožnost two?
93
223000
3000
Jak poznáme rozdíly mezi první a druhou možností?
04:01
What we need is a populationpopulace
94
226000
2000
Budeme potřebovat soubor jedinců,
04:03
that's basicallyv podstatě smartchytrý, can make lots of decisionsrozhodnutí,
95
228000
2000
kteří jsou v zásadě chytří, mohou činit spousty rozhodnutí,
04:05
but doesn't have accesspřístup to any of the systemssystémy we have,
96
230000
2000
ale nemají přístup k našim zřízením,
04:07
any of the things that mightmohl messnepořádek us up --
97
232000
2000
k ničemu, co nás může zmást –
04:09
no humančlověk technologytechnika, humančlověk culturekultura,
98
234000
2000
žádné lidské technologie, lidská kultura,
04:11
maybe even not humančlověk languageJazyk.
99
236000
2000
možná ani lidský jazyk.
04:13
And so this is why we turnedobrátil se to these guys here.
100
238000
2000
A to je důvod, proč jsme požádali o pomoc tyhle tvory.
04:15
These are one of the guys I work with. This is a brownhnědý capuchinKapucínská monkeyopice.
101
240000
3000
Tohle je jeden z tvorů, se kterými jsem pracovala. Je to hnědá malpa kapucínská.
04:18
These guys are NewNové WorldSvět primatesprimáty,
102
243000
2000
Patří mezi opice Nového světa,
04:20
whichkterý meansprostředek they brokerozbil off from the humančlověk branchvětev
103
245000
2000
což znamená, že se oddělili od lidské vývojové větve
04:22
about 35 millionmilión yearsroky agopřed.
104
247000
2000
asi před 35 miliony lety.
04:24
This meansprostředek that your great, great, great great, great, great --
105
249000
2000
To znamená, že vaše prapraprapraprapra –
04:26
with about fivePět millionmilión "greatsvelikáni" in there --
106
251000
2000
s asi pěti miliony „pra“ –
04:28
grandmotherbabička was probablypravděpodobně the samestejný great, great, great, great
107
253000
2000
babička byla nejspíš ta stejná prapraprapra
04:30
grandmotherbabička with fivePět millionmilión "greatsvelikáni" in there
108
255000
2000
babička s pěti miliony „pra“
04:32
as HollyHolly up here.
109
257000
2000
jako ta Hollyina tady na obrázku.
04:34
You know, so you can take comfortpohodlí in the factskutečnost that this guy up here is a really really distantvzdálený,
110
259000
3000
Víte, je to celkem fajn zjištění, že tato opička je velmi, velmi vzdálený –
04:37
but albeiti když evolutionaryevoluční, relativerelativní.
111
262000
2000
ale přesto evoluční – příbuzný.
04:39
The good newszprávy about HollyHolly thoughačkoli is that
112
264000
2000
Jedou z výhod Holly je, že
04:41
she doesn't actuallyvlastně have the samestejný kindsdruhy of technologiestechnologií we do.
113
266000
3000
nezná ty vymoženosti, které máme.
04:44
You know, she's a smartchytrý, very cutstřih creaturestvoření, a primateprimát as well,
114
269000
3000
Tím chci říct, je to chytrý a roztomilý tvoreček, k tomu primát,
04:47
but she lackschybí all the stuffvěci we think mightmohl be messingMesiáš us up.
115
272000
2000
ale není zatížena tím vším, co nám nejspíš dělá ty trable.
04:49
So she's the perfectperfektní testtest casepouzdro.
116
274000
2000
Takže je to skvělý modelový případ.
04:51
What if we put HollyHolly into the samestejný contextkontext as humanslidem?
117
276000
3000
Co kdybychom Holly uvedli do stejné situace jako lidi?
04:54
Does she make the samestejný mistakeschyby as us?
118
279000
2000
Bude dělat stejné chyby jako my?
04:56
Does she not learnUčit se from them? And so on.
119
281000
2000
Nepoučí se z nich? A tak dále.
04:58
And so this is the kinddruh of thing we decidedrozhodl to do.
120
283000
2000
A tak nějak jsme se rozhodli to provést.
05:00
My studentsstudentů and I got very excitedvzrušený about this a fewpár yearsroky agopřed.
121
285000
2000
Mě a mé studenty to před několika lety úplně pohltilo.
05:02
We said, all right, let's, you know, throwhod so problemsproblémy at HollyHolly,
122
287000
2000
Řekli jsme si: super, hoďme Holly do hromady úkolů
05:04
see if she messeszmatky these things up.
123
289000
2000
a koukejme, jak si s nimi poradí.
05:06
First problemproblém is just, well, where should we startStart?
124
291000
3000
První problém byl, kde bychom vlastně měli začít?
05:09
Because, you know, it's great for us, but badšpatný for humanslidem.
125
294000
2000
Protože pro nás je to skvělé, pro lidi moc ne.
05:11
We make a lot of mistakeschyby in a lot of differentodlišný contextskontexty.
126
296000
2000
Děláme spousty chyb v různých souvislostech.
05:13
You know, where are we actuallyvlastně going to startStart with this?
127
298000
2000
Takže kde bychom s tím měli začít?
05:15
And because we startedzačal this work around the time of the financialfinanční collapsekolaps,
128
300000
3000
A protože jsme se zrovna nacházeli ve finanční krizi,
05:18
around the time when foreclosuresForeclosures were hittingbít the newszprávy,
129
303000
2000
v době kdy byly noviny zahlceny propadávajícími zástavami domů,
05:20
we said, hhmmHHMM, maybe we should
130
305000
2000
řekli jsme si: hmm, možná bychom měli
05:22
actuallyvlastně startStart in the financialfinanční domaindoména.
131
307000
2000
začít s oblastí financí.
05:24
Maybe we should look at monkey'sopičí economichospodářský decisionsrozhodnutí
132
309000
3000
Možná bychom se měli podívat na to, jak se opice finančně rozhodují,
05:27
and try to see if they do the samestejný kindsdruhy of dumbněmý things that we do.
133
312000
3000
a zkusit vypozorovat, jestli dělají stejné pitomosti jako my.
05:30
Of coursechod, that's when we hitudeřil a sorttřídění seconddruhý problemproblém --
134
315000
2000
Samozřejmě, v tuto chvíli jsme narazili na další problém –
05:32
a little bitbit more methodologicalmetodické --
135
317000
2000
týkající se tak trochu metodologie –
05:34
whichkterý is that, maybe you guys don't know,
136
319000
2000
který spočíval, jak někteří z vás možná netuší,
05:36
but monkeysopice don't actuallyvlastně use moneypeníze. I know, you haven'tnemáte metse setkal them.
137
321000
3000
v tom, že opice nepoužívají peníze. Vím, nikdy jste je neviděli.
05:39
But this is why, you know, they're not in the queuefronta behindza you
138
324000
2000
Ale to je důvod, proč za vámi nestojí ve frontě
05:41
at the grocerypotraviny storeobchod or the ATMATM -- you know, they don't do this stuffvěci.
139
326000
3000
v samoobsluze nebo u bankomatu – však víte, ony to nepotřebují.
05:44
So now we facedtváří v tvář, you know, a little bitbit of a problemproblém here.
140
329000
3000
Takže jsme tu měli takový problém.
05:47
How are we actuallyvlastně going to askdotázat se monkeysopice about moneypeníze
141
332000
2000
Jak opice požádáme, aby používaly peníze,
05:49
if they don't actuallyvlastně use it?
142
334000
2000
když je vlastně neznají?
05:51
So we said, well, maybe we should just, actuallyvlastně just sucksát it up
143
336000
2000
Tak jsme si řekli, že bychom prostě mohli trochu zbrzdit
05:53
and teachučit monkeysopice how to use moneypeníze.
144
338000
2000
a naučit opice používat peníze.
05:55
So that's just what we did.
145
340000
2000
A jak jsme řekli, tak jsme udělali.
05:57
What you're looking at over here is actuallyvlastně the first unitjednotka that I know of
146
342000
3000
Právě se díváte na první jednotku nečlověčí měny,
06:00
of non-humannehumánní currencyMěna.
147
345000
2000
o které vím.
06:02
We weren'tnebyly very creativetvořivý at the time we startedzačal these studiesstudie,
148
347000
2000
Na začátku studie jsem trochu postrádali kreativitu,
06:04
so we just calledvolal it a tokentoken.
149
349000
2000
tak jsme ji nazvali jednoduše token.
06:06
But this is the unitjednotka of currencyMěna that we'vejsme taughtvyučován our monkeysopice at YaleYale
150
351000
3000
Každopádně to je jednotka měny, kterou jsme naučili naše opičky na Yaleu
06:09
to actuallyvlastně use with humanslidem,
151
354000
2000
používat při styku s lidmi,
06:11
to actuallyvlastně buyKoupit differentodlišný pieceskousky of foodjídlo.
152
356000
3000
aby si mohly koupit různé jídlo.
06:14
It doesn't look like much -- in factskutečnost, it isn't like much.
153
359000
2000
Nevypadá to jako moc peněz, vlastně to ani není moc.
06:16
Like mostvětšina of our moneypeníze, it's just a piecekus of metalkov.
154
361000
2000
Stejně jako naše peníze to je jen kousek kovu.
06:18
As those of you who'vekdo má takenpřijat currenciesměny home from your tripvýlet know,
155
363000
3000
Jestli jste si někdy dovezli nějaké cizí peníze z dovolené, zjistili jste,
06:21
oncejednou you get home, it's actuallyvlastně prettydosti uselessZbytečný.
156
366000
2000
že doma jsou docela bezcenné.
06:23
It was uselessZbytečný to the monkeysopice at first
157
368000
2000
Původně byly bezcenné i pro naše opičáky,
06:25
before they realizeduvědomil what they could do with it.
158
370000
2000
než zjistili, co se s tím dá dělat.
06:27
When we first gavedal it to them in theirjejich enclosuresskříně,
159
372000
2000
Když jsme jim je dali poprvé,
06:29
they actuallyvlastně kinddruh of pickedvybral them up, lookedpodíval se at them.
160
374000
2000
jen je zvedli a koukli na ně.
06:31
They were these kinddruh of weirdpodivný things.
161
376000
2000
Byly to prostě nějaké divné věcičky.
06:33
But very quicklyrychle, the monkeysopice realizeduvědomil
162
378000
2000
Ale velmi rychle opičky zjistily,
06:35
that they could actuallyvlastně handruka these tokenstokeny over
163
380000
2000
že tyto tokeny mohou v laboratoři vyměnit
06:37
to differentodlišný humanslidem in the lablaboratoř for some foodjídlo.
164
382000
3000
s různými lidmi za nějaké jídlo.
06:40
And so you see one of our monkeysopice, MaydayMayday, up here doing this.
165
385000
2000
Tady vidíte jednu z opic, Mayday, přímo v akci.
06:42
This is A and B are kinddruh of the pointsbodů where she's sorttřídění of a little bitbit
166
387000
3000
Na obrázcích A a B je ještě trochu
06:45
curiouszvědavý about these things -- doesn't know.
167
390000
2000
zvědavá – neví, co s tím.
06:47
There's this waitingčekání handruka from a humančlověk experimenterexperimentátor,
168
392000
2000
Tady čeká ruka lidského výzkumníka
06:49
and MaydayMayday quicklyrychle figuresčísel out, apparentlypodle všeho the humančlověk wants this.
169
394000
3000
a Mayday rychle zjišťuje, co ten člověk zjevně chce.
06:52
HandsRukama it over, and then getsdostane some foodjídlo.
170
397000
2000
Předává token a dostává jídlo.
06:54
It turnsotočí out not just MaydayMayday, all of our monkeysopice get good
171
399000
2000
Nejen Mayday, ale i další opičky se zlepšily
06:56
at tradingobchodování tokenstokeny with humančlověk salesmanprodavač.
172
401000
2000
v obchodování tokeny s lidským obchodníkem.
06:58
So here'stady je just a quickrychlý videovideo of what this looksvzhled like.
173
403000
2000
Tady je krátké video, jak to vypadalo.
07:00
Here'sTady je MaydayMayday. She's going to be tradingobchodování a tokentoken for some foodjídlo
174
405000
3000
To je Mayday. Bude směňovat token za jídlo,
07:03
and waitingčekání happilyšťastně and gettingdostat her foodjídlo.
175
408000
3000
těší se a dostává kousek jídla.
07:06
Here'sTady je FelixFelix, I think. He's our alphaalfa malemužský; he's a kinddruh of bigvelký guy.
176
411000
2000
Toto je, myslím, Felix, je to náš alfa samec, pořádný kus chlapa,
07:08
But he too waitsčeká patientlytrpělivě, getsdostane his foodjídlo and goesjde on.
177
413000
3000
ale trpělivě čeká, dostane jídlo a jde si po svých.
07:11
So the monkeysopice get really good at this.
178
416000
2000
Opičky v tom byly opravdu dobré.
07:13
They're surprisinglypřekvapivě good at this with very little trainingvýcvik.
179
418000
3000
Byly překvapivě dobré a to skoro bez cvičení.
07:16
We just allowedpovoleno them to pickvýběr this up on theirjejich ownvlastní.
180
421000
2000
Prostě jsme jim dovolili, aby se to naučily samy.
07:18
The questionotázka is: is this anything like humančlověk moneypeníze?
181
423000
2000
otázkou však je: připomíná to lidské peníze?
07:20
Is this a markettrh at all,
182
425000
2000
Je to opravdu trh, nebo se nám
07:22
or did we just do a weirdpodivný psychologist'spsychologa tricktrik
183
427000
2000
jen podařil divný psychologický trik,
07:24
by gettingdostat monkeysopice to do something,
184
429000
2000
kde jsme přiměli opice něco udělat
07:26
looking smartchytrý, but not really beingbytost smartchytrý.
185
431000
2000
a vypadat chytře, aniž by opravdu byly chytré?
07:28
And so we said, well, what would the monkeysopice spontaneouslyspontánně do
186
433000
3000
A tak jsme si řekli, dobrá, co by opice samy o sobě dělaly,
07:31
if this was really theirjejich currencyMěna, if they were really usingpoužitím it like moneypeníze?
187
436000
3000
kdyby to byla opravdová měna, kdyby používaly opravdové peníze?
07:34
Well, you mightmohl actuallyvlastně imaginepředstav si them
188
439000
2000
Dokážete si je asi představit
07:36
to do all the kindsdruhy of smartchytrý things
189
441000
2000
dělat všechny ty chytré věci
07:38
that humanslidem do when they startStart exchangingVýměna moneypeníze with eachkaždý other.
190
443000
3000
jako lidé, kdy si začnou vyměňovat peníze.
07:41
You mightmohl have them startStart payingplacení attentionPozor to pricecena,
191
446000
3000
Čekali byste, že si začnou všímat ceny,
07:44
payingplacení attentionPozor to how much they buyKoupit --
192
449000
2000
toho, kolik kupují –
07:46
sorttřídění of keepingudržování trackdráha of theirjejich monkeyopice tokentoken, as it were.
193
451000
3000
sledovat své opičí tokeny, jak fungují.
07:49
Do the monkeysopice do anything like this?
194
454000
2000
Dělají opice něco takového?
07:51
And so our monkeyopice marketplacetrhu was bornnarozený.
195
456000
3000
Takhle se zrodilo naše opičí tržiště.
07:54
The way this workspráce is that
196
459000
2000
Způsob, jakým to fungovalo, byl takový,
07:56
our monkeysopice normallynormálně livežít in a kinddruh of bigvelký zooZoo socialsociální enclosureOhrada.
197
461000
3000
že naše opice normálně žily v něčem jako ve společných ubikacích v zoo.
07:59
When they get a hankeringtoužení for some treatszachází,
198
464000
2000
Když zatoužily po nějakých dobrotách,
08:01
we actuallyvlastně allowedpovoleno them a way out
199
466000
2000
dovolili jsme jim jít ven
08:03
into a little smallermenší enclosureOhrada where they could enterzadejte the markettrh.
200
468000
2000
do menší ubikace, kde mohly vstoupit na trh.
08:05
UponPo enteringzadání the markettrh --
201
470000
2000
Jakmile na trh vstoupily,
08:07
it was actuallyvlastně a much more funzábava markettrh for the monkeysopice than mostvětšina humančlověk marketstrzích
202
472000
2000
bylo to pro ně mnohem zábavnější než většina lidských trhů,
08:09
because, as the monkeysopice enteredzadáno the doordveře of the markettrh,
203
474000
3000
protože, hned po vstupu,
08:12
a humančlověk would give them a bigvelký walletPeněženka fullplný of tokenstokeny
204
477000
2000
dostaly velký měšec plný tokenů,
08:14
so they could actuallyvlastně tradeobchod the tokenstokeny
205
479000
2000
takže mohly směňovat tokeny
08:16
with one of these two guys here --
206
481000
2000
s jedním ze dvou hochů tady –
08:18
two differentodlišný possiblemožný humančlověk salesmenprodejci
207
483000
2000
dvěma různými lidskými obchodníky,
08:20
that they could actuallyvlastně buyKoupit stuffvěci from.
208
485000
2000
od kterých mohly kupovat věci.
08:22
The salesmenprodejci were studentsstudentů from my lablaboratoř.
209
487000
2000
Obchodníci byli studenti z mé laboratoře.
08:24
They dressedoblečený differentlyjinak; they were differentodlišný people.
210
489000
2000
Oblékli se různě, byli to různí lidé.
08:26
And over time, they did basicallyv podstatě the samestejný thing
211
491000
3000
Po celou dobu všechni dělali v podstatě to samé,
08:29
so the monkeysopice could learnUčit se, you know,
212
494000
2000
takže se opičky mohly naučit,
08:31
who soldprodáno what at what pricecena -- you know, who was reliablespolehlivý, who wasn'tnebyl, and so on.
213
496000
3000
kdo prodává za jakou cenu – kdo byl spolehlivý, kdo ne a tak podobně.
08:34
And you can see that eachkaždý of the experimentersexperimentátoři
214
499000
2000
Vidíte, že každý z těchto vázkumníků
08:36
is actuallyvlastně holdingpodíl up a little, yellowžlutá foodjídlo dishjídlo.
215
501000
3000
drží malý žlutý talířek s jídlem,
08:39
and that's what the monkeyopice can for a singlesingl tokentoken.
216
504000
2000
které opičky mohou mít za jediný token.
08:41
So everything costsnáklady one tokentoken,
217
506000
2000
Všechno stojí po jednom tokenu,
08:43
but as you can see, sometimesněkdy tokenstokeny buyKoupit more than othersostatní,
218
508000
2000
ale jak uvidíte, někdy za token koupíte
08:45
sometimesněkdy more grapeshrozny than othersostatní.
219
510000
2000
více hroznů než ostatní.
08:47
So I'll showshow you a quickrychlý videovideo of what this marketplacetrhu actuallyvlastně looksvzhled like.
220
512000
3000
Ukážu vám krátké video, jak takový trh vypadá v praxi.
08:50
Here'sTady je a monkey-eye-viewMonkey pohled. MonkeysOpice are shorterkratší, so it's a little shortkrátký.
221
515000
3000
Je to z opičího pohledu, Opice jsou menší, proto je to takové oříznuté.
08:53
But here'stady je HoneyHoney.
222
518000
2000
Toto je Honey.
08:55
She's waitingčekání for the markettrh to openotevřeno a little impatientlynetrpělivě.
223
520000
2000
trochu netrpělivě čeká, až se trh otevře.
08:57
All of a suddennáhlý the markettrh opensse otevře. Here'sTady je her choicevýběr: one grapeshrozny or two grapeshrozny.
224
522000
3000
Náhle je trh otevřený. Tady je její volba: jeden hrozen nebo dva hrozny.
09:00
You can see HoneyHoney, very good markettrh economistekonom,
225
525000
2000
Vidíte Honey, tržní ekonomika jí není cizí,
09:02
goesjde with the guy who givesdává more.
226
527000
3000
jde ke chlápkovi, co jí dává víc.
09:05
She could teachučit our financialfinanční advisersporadci a fewpár things or two.
227
530000
2000
Mohla by něco málo naučit naše finanční poradce.
09:07
So not just HoneyHoney,
228
532000
2000
A nejen Honey,
09:09
mostvětšina of the monkeysopice wentšel with guys who had more.
229
534000
3000
většina opiček šla k lidem, kteří měl víc.
09:12
MostVětšina of the monkeysopice wentšel with guys who had better foodjídlo.
230
537000
2000
Většina opic šla k lidem, kteří měli lepší jídlo.
09:14
When we introducedzavedeno salesodbyt, we saw the monkeysopice paidzaplaceno attentionPozor to that.
231
539000
3000
Když jsme zavedli slevy, všimli jsme si, že to opičky registrují.
09:17
They really caredpéče about theirjejich monkeyopice tokentoken dollardolar.
232
542000
3000
Opravdu o své opičí tokeny dbaly.
09:20
The more surprisingpřekvapující thing was that when we collaboratedspolupracovali with economistsekonomů
233
545000
3000
Ještě více překvapující pak bylo, když jsme začali spolupracovat s ekonomy,
09:23
to actuallyvlastně look at the monkeys'opice datadata usingpoužitím economichospodářský toolsnástroje,
234
548000
3000
kteří tato data analyzovali svými ekonomickými nástroji,
09:26
they basicallyv podstatě matchedodpovídající, not just qualitativelykvalitativně,
235
551000
3000
že to vše v podstatě sedělo, nejen kvalitativně,
09:29
but quantitativelykvantitativně with what we saw
236
554000
2000
ale i kvantitativně, s tím co jsme viděli
09:31
humanslidem doing in a realnemovitý markettrh.
237
556000
2000
v lidském jednání na opravdovém trhu.
09:33
So much so that, if you saw the monkeys'opice numbersčísla,
238
558000
2000
A to do takové míry, že když jste viděli opičí čísla,
09:35
you couldn'tnemohl tell whetherzda they camepřišel from a monkeyopice or a humančlověk in the samestejný markettrh.
239
560000
3000
nedokázali jste říct, jestli pochází ze stejného trhu od opic nebo lidí.
09:38
And what we'dmy jsme really thought we'dmy jsme doneHotovo
240
563000
2000
Připadalo nám to,
09:40
is like we'dmy jsme actuallyvlastně introducedzavedeno something
241
565000
2000
jako bychom vymysleli něco,
09:42
that, at leastnejméně for the monkeysopice and us,
242
567000
2000
co – přinejmenším pro nás a pro opice –
09:44
workspráce like a realnemovitý financialfinanční currencyMěna.
243
569000
2000
funguje jako opravdová měna.
09:46
QuestionOtázka is: do the monkeysopice startStart messingMesiáš up in the samestejný wayszpůsoby we do?
244
571000
3000
Otázkou je: začnou opice dělat stejné chyby jako my?
09:49
Well, we alreadyjiž saw anecdotallyAnekdoticky a couplepár of signsznamení that they mightmohl.
245
574000
3000
No, pozorovali jsme několik náznaků, že by mohly.
09:52
One thing we never saw in the monkeyopice marketplacetrhu
246
577000
2000
Nikdy jsme na opičím tržišti neviděli
09:54
was any evidencedůkaz of savingúspora --
247
579000
2000
ani náznaky spoření –
09:56
you know, just like our ownvlastní speciesdruh.
248
581000
2000
stejně jako my, víte.
09:58
The monkeysopice enteredzadáno the markettrh, spentstrávil theirjejich entirecelý budgetrozpočet
249
583000
2000
Opice vstoupily na trh, utratily všechny své peníze
10:00
and then wentšel back to everyonekaždý elsejiný.
250
585000
2000
a pak šly za někým jiným.
10:02
The other thing we alsotaké spontaneouslyspontánně saw,
251
587000
2000
Další věcí, které jsme si samovolně pozorovali,
10:04
embarrassinglytrapně enoughdost,
252
589000
2000
a to dost rozpačitě,
10:06
is spontaneousspontánní evidencedůkaz of larcenyrozkrádání.
253
591000
2000
byly očividné krádeže.
10:08
The monkeysopice would rip-offrip-off the tokenstokeny at everykaždý availabledostupný opportunitypříležitost --
254
593000
3000
Opice kradly tokeny při každičké příležitosti –
10:11
from eachkaždý other, oftenčasto from us --
255
596000
2000
okrádaly sebe, často i nás –
10:13
you know, things we didn't necessarilynezbytně think we were introducingzavádění,
256
598000
2000
věci, které jsme je neučili, jsme
10:15
but things we spontaneouslyspontánně saw.
257
600000
2000
je najednou viděli dělat.
10:17
So we said, this looksvzhled badšpatný.
258
602000
2000
Říkali jsme si: tohle je zlé.
10:19
Can we actuallyvlastně see if the monkeysopice
259
604000
2000
Můžeme vlastně sledovat, jestli opice
10:21
are doing exactlypřesně the samestejný dumbněmý things as humanslidem do?
260
606000
3000
dělají stejné hlouposti jako lidé?
10:24
One possibilitymožnost is just kinddruh of let
261
609000
2000
Jednou z možností bylo
10:26
the monkeyopice financialfinanční systemSystém playhrát si out,
262
611000
2000
nechat opičí finanční systém nechat běžet,
10:28
you know, see if they startStart callingpovolání us for bailoutssanace in a fewpár yearsroky.
263
613000
2000
jako že by nás za pár let prosili o finanční injekce.
10:30
We were a little impatientnetrpělivý so we wanted
264
615000
2000
Byli jsme ale trochu netrpěliví, takže
10:32
to sorttřídění of speedRychlost things up a bitbit.
265
617000
2000
jsme věci trochu postrčili.
10:34
So we said, let's actuallyvlastně give the monkeysopice
266
619000
2000
Řekli jsme si, že opice vystavíme
10:36
the samestejný kindsdruhy of problemsproblémy
267
621000
2000
stejným problémům,
10:38
that humanslidem tendtendenci to get wrongšpatně
268
623000
2000
ve kterých lidé dělají chyby,
10:40
in certainurčitý kindsdruhy of economichospodářský challengesproblémy,
269
625000
2000
jak se vypořádají s ekonomickými výzvami
10:42
or certainurčitý kindsdruhy of economichospodářský experimentsexperimenty.
270
627000
2000
nebo jak si povedou v ekonomických experimentech.
10:44
And so, sinceod té doby the bestnejlepší way to see how people go wrongšpatně
271
629000
3000
A protože nejlepší způsob, jak sledovat lidské chybování
10:47
is to actuallyvlastně do it yourselfvy sám,
272
632000
2000
je vyzkoušet si to na vlastní kůži,
10:49
I'm going to give you guys a quickrychlý experimentexperiment
273
634000
2000
ukážu vám krátký experiment,
10:51
to sorttřídění of watch your ownvlastní financialfinanční intuitionsintuice in actionakce.
274
636000
2000
abyste si sami vyzkoušeli svou finanční intuici.
10:53
So imaginepředstav si that right now
275
638000
2000
Představte si, že jsem teď
10:55
I handedruce eachkaždý and everykaždý one of you
276
640000
2000
každému z vás dala
10:57
a thousandtisíc U.S. dollarsdolarů -- so 10 crispCrisp hundredsto dollardolar billsúčty.
277
642000
3000
tisíc dolarů – deset stodolarovek.
11:00
Take these, put it in your walletPeněženka
278
645000
2000
Vezmete si je, dáte do svých peněženek
11:02
and spendstrávit a seconddruhý thinkingmyslící about what you're going to do with it.
279
647000
2000
a strávíte chvilku přemýšlením, co s těmi penězi provedete.
11:04
Because it's yoursvaše now; you can buyKoupit whateverTo je jedno you want.
280
649000
2000
Jsou vaše, můžete si koupit cokoli chcete.
11:06
DonateDarovat it, take it, and so on.
281
651000
2000
Můžete je třeba někomu dát a tak podobně.
11:08
SoundsZvuky great, but you get one more choicevýběr to earnvydělat a little bitbit more moneypeníze.
282
653000
3000
Zní to fajn, ale teď máte ještě šanci vydělat si nějaké další peníze.
11:11
And here'stady je your choicevýběr: you can eitherbuď be riskyriskantní,
283
656000
3000
Můžete si vybrat: buď zariskujete,
11:14
in whichkterý casepouzdro I'm going to flipflip one of these monkeyopice tokenstokeny.
284
659000
2000
což znamená, že hodím tímhle opičím tokenem.
11:16
If it comespřijde up headshlavy, you're going to get a thousandtisíc dollarsdolarů more.
285
661000
2000
Když padne hlava, dostanete další tisíc dolarů.
11:18
If it comespřijde up tailsocasy, you get nothing.
286
663000
2000
Když orel, nedostanete nic.
11:20
So it's a chancešance to get more, but it's prettydosti riskyriskantní.
287
665000
3000
Takže máte šanci získat víc, ale je to riskantní.
11:23
Your other optionvolba is a bitbit safebezpečný. Your just going to get some moneypeníze for sure.
288
668000
3000
Nebo půjdete bezpečnější cestou. Dostanete ty peníze tak či tak.
11:26
I'm just going to give you 500 bucksdolarů.
289
671000
2000
Ale dám vám jen 500 dolarů.
11:28
You can sticklepit it in your walletPeněženka and use it immediatelyihned.
290
673000
3000
Můžete si je vzít a okamžitě použít.
11:31
So see what your intuitionintuice is here.
291
676000
2000
Tak sledujte, jakým směrem se vaše myšlenky vydají.
11:33
MostVětšina people actuallyvlastně go with the play-it-safePlay-it bezpečný optionvolba.
292
678000
3000
Většina lidí si zvolí bezpečnější variantu.
11:36
MostVětšina people say, why should I be riskyriskantní when I can get 1,500 dollarsdolarů for sure?
293
681000
3000
Říkají si, proč bych riskoval, když dostanu najisto 1500 dolarů?
11:39
This seemszdá se like a good betsázka. I'm going to go with that.
294
684000
2000
Zní to jako dobrá volba, sama bych se tím řídila.
11:41
You mightmohl say, ehEh, that's not really irrationaliracionální.
295
686000
2000
A vy si řeknete: jo, ale to není iracionální.
11:43
People are a little risk-averseriziko odmítavý. So what?
296
688000
2000
Lidé mají trochu averzi k riziku, tak co?
11:45
Well, the "so what?" comespřijde when startStart thinkingmyslící
297
690000
2000
Inu, to „tak co?“ přichází s přemýšlením
11:47
about the samestejný problemproblém
298
692000
2000
o stejném problému
11:49
setsoubor up just a little bitbit differentlyjinak.
299
694000
2000
s trochu jinými podmínkami.
11:51
So now imaginepředstav si that I give eachkaždý and everykaždý one of you
300
696000
2000
Představte si, že každému z vás teď dám
11:53
2,000 dollarsdolarů -- 20 crispCrisp hundredsto dollardolar billsúčty.
301
698000
3000
2000 dolarů – dvacet stodolarovek.
11:56
Now you can buyKoupit doubledvojnásobek to stuffvěci you were going to get before.
302
701000
2000
Můžete si koupit dvakrát více než předtím.
11:58
Think about how you'dže ano feel stickinglepení it in your walletPeněženka.
303
703000
2000
Přemýšlejte o tom, jak je strkáte do peněženky.
12:00
And now imaginepředstav si that I have you make anotherdalší choicevýběr
304
705000
2000
A teď si představte, že musíte učinit další volbu.
12:02
But this time, it's a little bitbit worsehorší.
305
707000
2000
Tentokrát ale trochu horší.
12:04
Now, you're going to be decidingrozhodování how you're going to loseprohrát moneypeníze,
306
709000
3000
Musíte se rozhodnout, jak přijdete o peníze,
12:07
but you're going to get the samestejný choicevýběr.
307
712000
2000
ale se stejnými možnostmi.
12:09
You can eitherbuď take a riskyriskantní lossztráta --
308
714000
2000
Můžete zvolit riskantnější ztrátu –
12:11
so I'll flipflip a coinmince. If it comespřijde up headshlavy, you're going to actuallyvlastně loseprohrát a lot.
309
716000
3000
hodím mincí. Když padne hlava, ztratíte celkem hodně.
12:14
If it comespřijde up tailsocasy, you loseprohrát nothing, you're fine, get to keep the wholeCelý thing --
310
719000
3000
Když orel, neztrácíte nic, jste v klídku, necháte si všechno –
12:17
or you could playhrát si it safebezpečný, whichkterý meansprostředek you have to reachdosáhnout back into your walletPeněženka
311
722000
3000
nebo můžete hrát na jistotu, takže vytáhnete peněženku
12:20
and give me fivePět of those $100 billsúčty, for certainurčitý.
312
725000
3000
a odpočítáte pět stodolarovek, které mi vrátíte.
12:23
And I'm seeingvidění a lot of furroweds rýhami browsobočí out there.
313
728000
3000
Vidím spoustu svraštělých čel.
12:26
So maybe you're havingmít the samestejný intuitionsintuice
314
731000
2000
Možná jste uvažovali stejně
12:28
as the subjectspředmětů that were actuallyvlastně testedtestováno in this,
315
733000
2000
jako subjekty, které jsme testovali;
12:30
whichkterý is when presentedprezentovány with these optionsmožnosti,
316
735000
2000
z nabízených možností
12:32
people don't chooseVybrat to playhrát si it safebezpečný.
317
737000
2000
se lidé nerozhodovali hrát bezpečnou variantu.
12:34
They actuallyvlastně tendtendenci to go a little riskyriskantní.
318
739000
2000
Vlastně měli tendence trochu riskovat.
12:36
The reasondůvod this is irrationaliracionální is that we'vejsme givendané people in bothoba situationssituacích
319
741000
3000
Důvod, proč je to nesmyslné, že lidé v obou případech dostali
12:39
the samestejný choicevýběr.
320
744000
2000
stejné možnosti.
12:41
It's a 50/50 shotvýstřel of a thousandtisíc or 2,000,
321
746000
3000
Šance 50/50 na tisícovku nebo na dvě,
12:44
or just 1,500 dollarsdolarů with certaintyjistota.
322
749000
2000
nebo 1500 dolarů najisto.
12:46
But people'slidí intuitionsintuice about how much riskriziko to take
323
751000
3000
Ovšem představa, jak moc riskovat,
12:49
variesse liší dependingzávisí on where they startedzačal with.
324
754000
2000
se lišila podle toho, kde začínali.
12:51
So what's going on?
325
756000
2000
Co se to tedy děje?
12:53
Well, it turnsotočí out that this seemszdá se to be the resultvýsledek
326
758000
2000
Řekněme, že je to následek
12:55
of at leastnejméně two biasespředpojatosti that we have at the psychologicalpsychologický levelúroveň.
327
760000
3000
dvou predispozic na naší psychické úrovni.
12:58
One is that we have a really hardtvrdý time thinkingmyslící in absoluteabsolutní termspodmínky.
328
763000
3000
Jednou je, že máme velké problémy v myšlení v absolutních hodnotách.
13:01
You really have to do work to figurepostava out,
329
766000
2000
Musíte se opravdu zamyslet, abyste přišli na to,
13:03
well, one option'svolby a thousandtisíc, 2,000;
330
768000
2000
že jedna možnost je vždy tisíc nebo dva,
13:05
one is 1,500.
331
770000
2000
zatímco druhá pořád 1500.
13:07
InsteadMísto toho, we find it very easysnadný to think in very relativerelativní termspodmínky
332
772000
3000
Naopak je jednoduší přemýšlet v relativních číslech,
13:10
as optionsmožnosti changezměna from one time to anotherdalší.
333
775000
3000
jak se možnosti pokaždé liší.
13:13
So we think of things as, "Oh, I'm going to get more," or "Oh, I'm going to get lessméně."
334
778000
3000
Uvažujeme o věcech jako „Ach, teď dostanu víc“ či „Ach, teď dostanu míň.“
13:16
This is all well and good, exceptaž na that
335
781000
2000
To je všechno v pořádku, krom toho,
13:18
changesZměny in differentodlišný directionsPokyny
336
783000
2000
že záměna směru
13:20
actuallyvlastně effectúčinek whetherzda or not we think
337
785000
2000
ovlivňuje, jestli tyto možnosti považujeme
13:22
optionsmožnosti are good or not.
338
787000
2000
za dobré nebo ne.
13:24
And this leadsvede to the seconddruhý biaspředpojatost,
339
789000
2000
To nás přivádí k druhé predispozici,
13:26
whichkterý economistsekonomů have calledvolal lossztráta aversionodpor.
340
791000
2000
kterou ekonomové nazývají averzí ke ztrátě.
13:28
The ideaidea is that we really hatenenávist it when things go into the redČervené.
341
793000
3000
Myšlenka spočívá v tom, že nesnášíme, když padáme do červených čísel.
13:31
We really hatenenávist it when we have to loseprohrát out on some moneypeníze.
342
796000
2000
Nesnášíme, když přicházíme o peníze.
13:33
And this meansprostředek that sometimesněkdy we'lldobře actuallyvlastně
343
798000
2000
To všechno znamená, že občas prostě
13:35
switchpřepínač our preferencesPředvolby to avoidvyhýbat se this.
344
800000
2000
změníme své preference, abychom tomu zabránili.
13:37
What you saw in that last scenarioscénář is that
345
802000
2000
V poslední ukázce jste viděli, že
13:39
subjectspředmětů get riskyriskantní
346
804000
2000
subjekty začaly riskovat,
13:41
because they want the smallmalý shotvýstřel that there won'tzvyklý be any lossztráta.
347
806000
3000
protože doufaly v tu malou kapku naděje bez ztráty.
13:44
That meansprostředek when we're in a riskriziko mindsetmyšlení --
348
809000
2000
To znamená, že jsme v riskujícím …
13:46
excuseomluva me, when we're in a lossztráta mindsetmyšlení,
349
811000
2000
pardon, ve ztrátovém rozpoložení,
13:48
we actuallyvlastně becomestát more riskyriskantní,
350
813000
2000
takže začneme riskovat,
13:50
whichkterý can actuallyvlastně be really worryingznepokojující.
351
815000
2000
což může být právě osudné.
13:52
These kindsdruhy of things playhrát si out in lots of badšpatný wayszpůsoby in humanslidem.
352
817000
3000
Toto všechno končí pro lidi špatně.
13:55
They're why stockskladem investorsinvestoři holddržet ontona losingztrácí stockszásob longerdelší --
353
820000
3000
Je to důvod, proč se investoři drží padajících akcií –
13:58
because they're evaluatingvyhodnocení them in relativerelativní termspodmínky.
354
823000
2000
dívají se na ně z pohledu relativních čísel.
14:00
They're why people in the housingbydlení markettrh refusedodmítnuto to sellprodat theirjejich houseDům --
355
825000
2000
Je to důvod, proč lidé na nemovitostním trhu odmítají prodat své domy –
14:02
because they don't want to sellprodat at a lossztráta.
356
827000
2000
nechtějí prodávat se ztrátou.
14:04
The questionotázka we were interestedzájem in
357
829000
2000
Otázka, která nás zajímala, byla,
14:06
is whetherzda the monkeysopice showshow the samestejný biasespředpojatosti.
358
831000
2000
jestli i opice prokáží podobné predispozice.
14:08
If we setsoubor up those samestejný scenariosscénáře in our little monkeyopice markettrh,
359
833000
3000
Kdybychom stejné situace vnesli na náš malý opičí trh,
14:11
would they do the samestejný thing as people?
360
836000
2000
dělaly by to stejné co lidé?
14:13
And so this is what we did, we gavedal the monkeysopice choicesvolby
361
838000
2000
A tak jsme to provedli, dali jsme opičkám na výběr
14:15
betweenmezi guys who were safebezpečný -- they did the samestejný thing everykaždý time --
362
840000
3000
mezi lidmi, kteří byli bezpeční – dělali pokaždé to samé –
14:18
or guys who were riskyriskantní --
363
843000
2000
a lidmi, kteří byli rizikoví –
14:20
they did things differentlyjinak halfpolovina the time.
364
845000
2000
v půlce případů se chovali jinak.
14:22
And then we gavedal them optionsmožnosti that were bonusesbonusy --
365
847000
2000
Dali jsme jim na výběr z několika bonusů –
14:24
like you guys did in the first scenarioscénář --
366
849000
2000
tak jako vám v první ukázce –
14:26
so they actuallyvlastně have a chancešance more,
367
851000
2000
takže měly možnost získat více,
14:28
or pieceskousky where they were experiencingzažívá lossesztráty --
368
853000
3000
nebo se ocitly v situacích, kdy zažily ztrátu –
14:31
they actuallyvlastně thought they were going to get more than they really got.
369
856000
2000
myslely, že dostanou více, než nakonec opravdu dostaly.
14:33
And so this is what this looksvzhled like.
370
858000
2000
Takhle to vypadalo.
14:35
We introducedzavedeno the monkeysopice to two newNový monkeyopice salesmenprodejci.
371
860000
2000
Představili jsme opičkám nové obchodníky.
14:37
The guy on the left and right bothoba startStart with one piecekus of grapeModřenec,
372
862000
2000
Kluk vlevo i vpravo začal s jednou bobulí vína,
14:39
so it looksvzhled prettydosti good.
373
864000
2000
vypadá to lákavě.
14:41
But they're going to give the monkeysopice bonusesbonusy.
374
866000
2000
Ale oba se chystají dát opičce nějaký přídavek.
14:43
The guy on the left is a safebezpečný bonusbonus.
375
868000
2000
Kluk vlevo znamená jistý bonus.
14:45
All the time, he addsdodává one, to give the monkeysopice two.
376
870000
3000
Pokaždé přidá jeden, takže dává dva hrozny.
14:48
The guy on the right is actuallyvlastně a riskyriskantní bonusbonus.
377
873000
2000
Kluk napravo je rizikový.
14:50
SometimesNěkdy the monkeysopice get no bonusbonus -- so this is a bonusbonus of zeronula.
378
875000
3000
Někdy nepřidá nic navíc – nulový přídavek.
14:53
SometimesNěkdy the monkeysopice get two extradalší.
379
878000
3000
Jindy opičce dá dva navíc.
14:56
For a bigvelký bonusbonus, now they get threetři.
380
881000
2000
Je to velká věc, dostane tři kousky.
14:58
But this is the samestejný choicevýběr you guys just facedtváří v tvář.
381
883000
2000
V principu to je stejný případ jako ten, který jsem zkoušela na vás.
15:00
Do the monkeysopice actuallyvlastně want to playhrát si it safebezpečný
382
885000
3000
Budou opičky hrát na jistotu
15:03
and then go with the guy who'skdo je going to do the samestejný thing on everykaždý trialpokus,
383
888000
2000
a budou obchodovat s tím, kdo se každé kolo chová stejně,
15:05
or do they want to be riskyriskantní
384
890000
2000
nebo zariskují
15:07
and try to get a riskyriskantní, but bigvelký, bonusbonus,
385
892000
2000
a zkusí získat nejistý, ale velký bonus,
15:09
but riskriziko the possibilitymožnost of gettingdostat no bonusbonus.
386
894000
2000
avšak s možností, že nezískají nic navíc.
15:11
People here playedhrál it safebezpečný.
387
896000
2000
Lidé tady hráli na jistotu.
15:13
TurnsZapne out, the monkeysopice playhrát si it safebezpečný too.
388
898000
2000
Jak vyšlo najevo, opice také.
15:15
QualitativelyKvalitativně and quantitativelykvantitativně,
389
900000
2000
Kvalitativně i kvantitativně
15:17
they chooseVybrat exactlypřesně the samestejný way as people,
390
902000
2000
se rozhodovaly úplně stejně jako lidé
15:19
when testedtestováno in the samestejný thing.
391
904000
2000
v podobné situaci.
15:21
You mightmohl say, well, maybe the monkeysopice just don't like riskriziko.
392
906000
2000
Asi si pomyslíte, no fajn, možná opice nerady riskují.
15:23
Maybe we should see how they do with lossesztráty.
393
908000
2000
Asi bychom se měli podívat, jak si poradí se ztrátami.
15:25
And so we ranběžel a seconddruhý versionverze of this.
394
910000
2000
Takže jsme provedli druhou verzi pokusu.
15:27
Now, the monkeysopice meetsetkat two guys
395
912000
2000
Opičky se seznámí se dvěma hochy,
15:29
who aren'tnejsou givingposkytující them bonusesbonusy;
396
914000
2000
kteří jim nedávají nic navíc;
15:31
they're actuallyvlastně givingposkytující them lessméně than they expectočekávat.
397
916000
2000
vlastně jim dají méně, než čekaly.
15:33
So they look like they're startingzačínající out with a bigvelký amountmnožství.
398
918000
2000
Vypadá to, že začnou s velkým množstvím.
15:35
These are threetři grapeshrozny; the monkey'sopičí really psychedv pohodě for this.
399
920000
2000
Jsou tu tři hrozny; opičky se pro ně mohly přetrhnout.
15:37
But now they learnUčit se these guys are going to give them lessméně than they expectočekávat.
400
922000
3000
Ale za chvíli zjistí, že dostanou méně než viděly.
15:40
They guy on the left is a safebezpečný lossztráta.
401
925000
2000
Hoch vlevo je jistá ztráta.
15:42
EveryKaždý singlesingl time, he's going to take one of these away
402
927000
3000
Pokaždé dá jeden kousek pryč
15:45
and give the monkeysopice just two.
403
930000
2000
a dá opičce jen dva.
15:47
the guy on the right is the riskyriskantní lossztráta.
404
932000
2000
Kluk napravo je riskantnější ztráta.
15:49
SometimesNěkdy he givesdává no lossztráta, so the monkeysopice are really psychedv pohodě,
405
934000
3000
Někdy nic nevezme, takže je opička štěstím bez sebe,
15:52
but sometimesněkdy he actuallyvlastně givesdává a bigvelký lossztráta,
406
937000
2000
jindy ale vezme docela dost,
15:54
takingpřijmout away two to give the monkeysopice only one.
407
939000
2000
odebere dva hrozny a dá jí jen jeden.
15:56
And so what do the monkeysopice do?
408
941000
2000
Jak se budou opičky chovat?
15:58
Again, samestejný choicevýběr; they can playhrát si it safebezpečný
409
943000
2000
Opět, stejné možnosti: mohou hrát na jistotu
16:00
for always gettingdostat two grapeshrozny everykaždý singlesingl time,
410
945000
3000
a pokaždé získat dvě bobule,
16:03
or they can take a riskyriskantní betsázka and chooseVybrat betweenmezi one and threetři.
411
948000
3000
nebo mohou riskovat a volit mezi jednou a třemi.
16:06
The remarkablepozoruhodný thing to us is that, when you give monkeysopice this choicevýběr,
412
951000
3000
Bylo velmi pozoruhodné, že z těchto dvou možností
16:09
they do the samestejný irrationaliracionální thing that people do.
413
954000
2000
si vybíraly tu stejnou jako lidé.
16:11
They actuallyvlastně becomestát more riskyriskantní
414
956000
2000
Začaly riskovat
16:13
dependingzávisí on how the experimentersexperimentátoři startedzačal.
415
958000
3000
podle toho, jak pokus začal.
16:16
This is crazyšílený because it suggestsnavrhuje that the monkeysopice too
416
961000
2000
Je to senzační, protože to naznačuje, že opice také
16:18
are evaluatingvyhodnocení things in relativerelativní termspodmínky
417
963000
2000
vnímají rozhodnutí spíše relativně
16:20
and actuallyvlastně treatingléčení lossesztráty differentlyjinak than they treatzacházet gainszisky.
418
965000
3000
a ztráty zvažují jinak než výnosy.
16:23
So what does all of this mean?
419
968000
2000
Co z toho všeho vyplývá?
16:25
Well, what we'vejsme shownzobrazeno is that, first of all,
420
970000
2000
Ze všeho nejdřív jsme ukázali,
16:27
we can actuallyvlastně give the monkeysopice a financialfinanční currencyMěna,
421
972000
2000
že můžeme nabídnout opicím peníze,
16:29
and they do very similarpodobný things with it.
422
974000
2000
se kterými budou dělat to co my.
16:31
They do some of the smartchytrý things we do,
423
976000
2000
Budou dělat stejně dobré věci jako my,
16:33
some of the kinddruh of not so nicepěkný things we do,
424
978000
2000
některé ne až tak dobré – stejně jako my –
16:35
like stealukrást it and so on.
425
980000
2000
jako jsou krádeže a tak podobně.
16:37
But they alsotaké do some of the irrationaliracionální things we do.
426
982000
2000
Stejně tak dělají nějaké nesmyslné věci, stejně jako my.
16:39
They systematicallysystematicky get things wrongšpatně
427
984000
2000
Dělají stále dokola nějaké chyby
16:41
and in the samestejný wayszpůsoby that we do.
428
986000
2000
úplně stejně jako my.
16:43
This is the first take-homevzít domů messagezpráva of the Talk,
429
988000
2000
Toto je první věc, kterou byste si mohli zapamatovat -
16:45
whichkterý is that if you saw the beginningzačátek of this and you thought,
430
990000
2000
jestli si vzpomenete na začátek a pomyslíte si:
16:47
oh, I'm totallynaprosto going to go home and hirepronájem a capuchinKapucínská monkeyopice financialfinanční adviserPoradce.
431
992000
2000
jo, jen co přijdu domů, najmu si malpu kapucínskou jako finančního poradce.
16:49
They're way cuterroztomilejší than the one at ... you know --
432
994000
2000
Jsou svým způsobem roztomilé, ale…
16:51
Don't do that; they're probablypravděpodobně going to be just as dumbněmý
433
996000
2000
Nedělejte to; opice jsou nejspíš stejně hloupé,
16:53
as the humančlověk one you alreadyjiž have.
434
998000
3000
jako ten chlápek, co pro vás už pracuje.
16:56
So, you know, a little badšpatný -- Sorry, sorry, sorry.
435
1001000
2000
Je to škoda – opravdu se moc omlouvám.
16:58
A little badšpatný for monkeyopice investorsinvestoři.
436
1003000
2000
Špatné zprávy pro opičí investory.
17:00
But of coursechod, you know, the reasondůvod you're laughingsmějící se is badšpatný for humanslidem too.
437
1005000
3000
Na druhou stranu… nezapomeňte, že důvod, proč se smějete, platí i pro lidi.
17:03
Because we'vejsme answeredodpověděl the questionotázka we startedzačal out with.
438
1008000
3000
Zodpověděli jsme totiž otázku, se kterou jsme dnes začali.
17:06
We wanted to know where these kindsdruhy of errorschyby camepřišel from.
439
1011000
2000
Chtěli jsme vědět, odkud naše chyby pocházejí.
17:08
And we startedzačal with the hopenaděje that maybe we can
440
1013000
2000
Začali jsme s nadějí, že snad postačí
17:10
sorttřídění of tweakštípnout our financialfinanční institutionsinstitucí,
441
1015000
2000
trochu upravit fungování finančních institucí,
17:12
tweakštípnout our technologiestechnologií to make ourselvessebe better.
442
1017000
3000
upravit technologie, abychom se dostali výš.
17:15
But what we'vejsme learnUčit se is that these biasespředpojatosti mightmohl be a deeperhlouběji partčást of us than that.
443
1020000
3000
Zjistili jsme ale, že problém je spíše v nás než v našem prostředí.
17:18
In factskutečnost, they mightmohl be duez důvodu to the very naturePříroda
444
1023000
2000
Vlastně to může být způsobeno samotnou povahou
17:20
of our evolutionaryevoluční historydějiny.
445
1025000
2000
dějin našeho vývoje.
17:22
You know, maybe it's not just humanslidem
446
1027000
2000
Nejspíš to nejsou lidé,
17:24
at the right sideboční of this chainřetěz that's dunceyduncey.
447
1029000
2000
ve kterých je ten problém.
17:26
Maybe it's sorttřídění of dunceyduncey all the way back.
448
1031000
2000
Nejspíš se to vleče až do minulosti.
17:28
And this, if we believe the capuchinKapucínská monkeyopice resultsvýsledky,
449
1033000
3000
A to, věříme-li výsledkům malp kapucínských,
17:31
meansprostředek that these dunceyduncey strategiesstrategie
450
1036000
2000
znamená, že všechny ty tendence dělat chyby
17:33
mightmohl be 35 millionmilión yearsroky oldstarý.
451
1038000
2000
mohou být 35 milionů let staré.
17:35
That's a long time for a strategystrategie
452
1040000
2000
Je to dost času na to,
17:37
to potentiallypotenciálně get changedzměněna around -- really, really oldstarý.
453
1042000
3000
aby se něco mohlo změnit – opravdu víc než dost.
17:40
What do we know about other oldstarý strategiesstrategie like this?
454
1045000
2000
Co o takových principech vlastně víme?
17:42
Well, one thing we know is that they tendtendenci to be really hardtvrdý to overcomepřekonat.
455
1047000
3000
Třeba že bývá těžké je překonat.
17:45
You know, think of our evolutionaryevoluční predilectionzáliba
456
1050000
2000
Popřemýšlejte o naší postupné zálibě
17:47
for eatingjíst sweetsladký things, fattytukové things like cheesecakeTvarohový koláč.
457
1052000
3000
ve sladkostech, tučných sladkostech jako je cheesecake.
17:50
You can't just shutzavřeno that off.
458
1055000
2000
Nemůžete se toho jen tak zbavit.
17:52
You can't just look at the dessertdezert cartvozík as say, "No, no, no. That looksvzhled disgustingnechutný to me."
459
1057000
3000
Nedokážete se jen tak kouknout na dezert a říct: „Ne, ne, ne, to je odporné.“
17:55
We're just builtpostavený differentlyjinak.
460
1060000
2000
Jsme prostě stavění jinak.
17:57
We're going to perceivevnímat it as a good thing to go after.
461
1062000
2000
Budeme to vnímat jako dobrou věc.
17:59
My guesstipni si is that the samestejný thing is going to be trueskutečný
462
1064000
2000
Podle mého názoru to platí
18:01
when humanslidem are perceivingvnímání
463
1066000
2000
i v lidském vnímání
18:03
differentodlišný financialfinanční decisionsrozhodnutí.
464
1068000
2000
různých finančních rohodnutí.
18:05
When you're watchingsledování your stockszásob plummetcentrace into the redČervené,
465
1070000
2000
Když sledujete, jak vám padají akcie do červených čísel,
18:07
when you're watchingsledování your houseDům pricecena go down,
466
1072000
2000
když vidíte padající cenu svého domu,
18:09
you're not going to be ableschopný to see that
467
1074000
2000
nejste schopni vidět to
18:11
in anything but oldstarý evolutionaryevoluční termspodmínky.
468
1076000
2000
jinak než jak jste naprogramovaní vývojem.
18:13
This meansprostředek that the biasespředpojatosti
469
1078000
2000
To znamená, že ty předsudky,
18:15
that leadVést investorsinvestoři to do badlyšpatně,
470
1080000
2000
které vedly investory ke dnu,
18:17
that leadVést to the foreclosureForeclosure crisiskrize
471
1082000
2000
které vedly k hypoteční krizi,
18:19
are going to be really hardtvrdý to overcomepřekonat.
472
1084000
2000
bude opravdu velmi těžké překonat.
18:21
So that's the badšpatný newszprávy. The questionotázka is: is there any good newszprávy?
473
1086000
2000
Tak to jsou ty špatné zprávy. Otázkou je: je na tom něco dobrého?
18:23
I'm supposedpředpokládané to be up here tellingvyprávění you the good newszprávy.
474
1088000
2000
Jsem tu vlastně proto, abych řekla i nějaké dobré zprávy.
18:25
Well, the good newszprávy, I think,
475
1090000
2000
Myslím, že mezi ně patří to,
18:27
is what I startedzačal with at the beginningzačátek of the Talk,
476
1092000
2000
že, jak jsem začala dnešní přednášku,
18:29
whichkterý is that humanslidem are not only smartchytrý;
477
1094000
2000
lidé nejsou jen chytří;
18:31
we're really inspirationallyInspirationally smartchytrý
478
1096000
2000
jsme vlastně plni podnětů
18:33
to the restodpočinek of the animalszvířata in the biologicalbiologický kingdomkrálovství.
479
1098000
3000
oproti zbytku tvorů v biologickém království.
18:36
We're so good at overcomingpřekonání our biologicalbiologický limitationsomezení --
480
1101000
3000
Naučili jsme se tak dobře překonávat naše vrozená omezení –
18:39
you know, I flewletěl over here in an airplaneletoun.
481
1104000
2000
tím myslím, přiletěla jsem sem letadlem,
18:41
I didn't have to try to flapklapka my wingskřídla.
482
1106000
2000
nemusela jsem se pokoušet mávat křídly.
18:43
I'm wearingnošení contactKontakt lensesčočky now so that I can see all of you.
483
1108000
3000
Nosím kontaktní čočky, takže vás všechny dobře vidím a
18:46
I don't have to relyspolehnout se on my ownvlastní near-sightednesszdravé oko.
484
1111000
3000
nemusím být omezena svou krátkozrakostí.
18:49
We actuallyvlastně have all of these casespřípadů
485
1114000
2000
Ve všech těchto příkladech
18:51
where we overcomepřekonat our biologicalbiologický limitationsomezení
486
1116000
3000
jsme překonali naše vrozené nedostatky
18:54
throughpřes technologytechnika and other meansprostředek, seeminglyzdánlivě prettydosti easilysnadno.
487
1119000
3000
díky technice a dalším způsobům, a to docela snadno.
18:57
But we have to recognizeuznat that we have those limitationsomezení.
488
1122000
3000
Musíme se ale uvědomovat, že opravdu nejsme všehoschopní.
19:00
And here'stady je the rubRUB.
489
1125000
2000
A to je ten háček.
19:02
It was CamusCamus who oncejednou said that, "Man is the only speciesdruh
490
1127000
2000
Camus jednou řekl, že „Člověk je jediným tvorem,
19:04
who refusesodmítá to be what he really is."
491
1129000
3000
který odmítá být tím, čím je.“
19:07
But the ironyironie is that
492
1132000
2000
Ironií osudu však
19:09
it mightmohl only be in recognizingrozpoznávání our limitationsomezení
493
1134000
2000
dokážeme naše omezení překonat jen tehdy,
19:11
that we can really actuallyvlastně overcomepřekonat them.
494
1136000
2000
když si je uvědomíme.
19:13
The hopenaděje is that you all will think about your limitationsomezení,
495
1138000
3000
Naděje spočívá právě v tom, že budeme přemýšlet o našich omezeních,
19:16
not necessarilynezbytně as unovercomablenepřekonatelných,
496
1141000
3000
nikoli nezbytně jako o nepřekonatelných,
19:19
but to recognizeuznat them, acceptakceptovat them
497
1144000
2000
ale abychom si je uvědomili, přijali je
19:21
and then use the worldsvět of designdesign to actuallyvlastně figurepostava them out.
498
1146000
3000
a pak využili všechny možnosti, abychom je překonali.
19:24
That mightmohl be the only way that we will really be ableschopný
499
1149000
3000
Může to být jediný způsob, jak můžeme být opravdu schopni
19:27
to achievedosáhnout our ownvlastní humančlověk potentialpotenciál
500
1152000
2000
dosáhnout našeho lidského potenciálu
19:29
and really be the nobleušlechtilý speciesdruh we hopenaděje to all be.
501
1154000
3000
a opravdu se stát tím vznešeným druhem, v jaký doufáme.
19:32
Thank you.
502
1157000
2000
Děkuji.
19:34
(ApplausePotlesk)
503
1159000
5000
(Potlesk)
Translated by Jan Kadlec
Reviewed by Adam Lebeda

▲Back to top

ABOUT THE SPEAKER
Laurie Santos - Cognitive psychologist
Laurie Santos studies primate psychology and monkeynomics -- testing problems in human psychology on primates, who (not so surprisingly) have many of the same predictable irrationalities we do.

Why you should listen

Laurie Santos runs the Comparative Cognition Laboratory (CapLab) at Yale, where she and collaborators across departments (from psychology to primatology to neurobiology) explore the evolutionary origins of the human mind by studying lemurs, capuchin monkeys and other primates. The twist: Santos looks not only for positive humanlike traits, like tool-using and altruism, but irrational ones, like biased decisionmaking.

In elegant, carefully constructed experiments, Santos and CapLab have studied how primates understand and categorize objects in the physical world -- for instance, that monkeys understand an object is still whole even when part of it is obscured. Going deeper, their experiments also search for clues that primates possess a theory of mind -- an ability to think about what other people think.

Most recently, the lab has been looking at behaviors that were once the province mainly of novelists: jealousy, frustration, judgment of others' intentions, poor economic choices. In one experiment, Santos and her team taught monkeys to use a form of money, tradeable for food. When certain foods became cheaper, monkeys would, like humans, overbuy. As we humans search for clues to our own irrational behaviors, Santos' research suggests that the source of our genius for bad decisions might be our monkey brains.

More profile about the speaker
Laurie Santos | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee