ABOUT THE SPEAKER
Laurie Santos - Cognitive psychologist
Laurie Santos studies primate psychology and monkeynomics -- testing problems in human psychology on primates, who (not so surprisingly) have many of the same predictable irrationalities we do.

Why you should listen

Laurie Santos runs the Comparative Cognition Laboratory (CapLab) at Yale, where she and collaborators across departments (from psychology to primatology to neurobiology) explore the evolutionary origins of the human mind by studying lemurs, capuchin monkeys and other primates. The twist: Santos looks not only for positive humanlike traits, like tool-using and altruism, but irrational ones, like biased decisionmaking.

In elegant, carefully constructed experiments, Santos and CapLab have studied how primates understand and categorize objects in the physical world -- for instance, that monkeys understand an object is still whole even when part of it is obscured. Going deeper, their experiments also search for clues that primates possess a theory of mind -- an ability to think about what other people think.

Most recently, the lab has been looking at behaviors that were once the province mainly of novelists: jealousy, frustration, judgment of others' intentions, poor economic choices. In one experiment, Santos and her team taught monkeys to use a form of money, tradeable for food. When certain foods became cheaper, monkeys would, like humans, overbuy. As we humans search for clues to our own irrational behaviors, Santos' research suggests that the source of our genius for bad decisions might be our monkey brains.

More profile about the speaker
Laurie Santos | Speaker | TED.com
TEDGlobal 2010

Laurie Santos: A monkey economy as irrational as ours

Lori Santos: ekonomija majmuna podjednako iracionalna kao naša

Filmed:
1,506,660 views

Lori Santos (Laurie Santos) traži korene ljudske iracionalnosti posmatrajući način na koji naši rođaci primati donose odluke. Inteligentna serija eksperimenata iz "majmunske ekonomije" pokazuje da i majmuni donose neke blesave odluke kao i mi.
- Cognitive psychologist
Laurie Santos studies primate psychology and monkeynomics -- testing problems in human psychology on primates, who (not so surprisingly) have many of the same predictable irrationalities we do. Full bio

Double-click the English transcript below to play the video.

00:17
I want to startпочетак my talk todayданас with two observationsзапажања
0
2000
2000
Svoj današnji govor želim da počnem dvema opaskama
00:19
about the humanљудско speciesврсте.
1
4000
2000
u vezi sa ljudskom vrstom.
00:21
The first observationпосматрање is something that you mightМожда think is quiteприлично obviousочигледан,
2
6000
3000
Za prvu možete pomisliti da je nešto sasvim očigledno,
00:24
and that's that our speciesврсте, HomoHomo sapiensсапиенс,
3
9000
2000
a to je da je naša vrsta, Homo sapiens,
00:26
is actuallyзаправо really, really smartпаметан --
4
11000
2000
stvarno veoma, veoma pametna -
00:28
like, ridiculouslyapsurdno smartпаметан --
5
13000
2000
kao, neverovatno pametna -
00:30
like you're all doing things
6
15000
2000
svi radite te stvari
00:32
that no other speciesврсте on the planetПланета does right now.
7
17000
3000
koje nijedna druga vrsta na planeti trenutno ne radi.
00:35
And this is, of courseкурс,
8
20000
2000
I ovo, naravno, nije
00:37
not the first time you've probablyвероватно recognizedпризнат this.
9
22000
2000
prvi put da ste ovo prepoznali.
00:39
Of courseкурс, in additionдодатак to beingбиће smartпаметан, we're alsoтакође an extremelyизузетно vainuzalud speciesврсте.
10
24000
3000
Naravno, pored toga što smo pametni, mi smo i veoma sujetna vrsta.
00:42
So we like pointingPostavljanje pokazivača out the factчињеница that we're smartпаметан.
11
27000
3000
Tako da volimo da ističemo činjenicu da smo pametni.
00:45
You know, so I could turnред to prettyприлично much any sageSage
12
30000
2000
Znate, mogla bih da se okrenem bilo kom mudracu,
00:47
from ShakespeareShakespeare to StephenStiven ColbertColbert
13
32000
2000
od Šekspira do Stivena Kolbera
00:49
to pointтачка out things like the factчињеница that
14
34000
2000
i pokažem naprimer činjenicu
00:51
we're nobleплеменито in reasonразлог and infiniteбесконачан in facultiesфакултети
15
36000
2000
da smo plemeniti umom, neograničeni po sposobnostima,
00:53
and just kindкинд of awesome-erSuper-er than anything elseдруго on the planetПланета
16
38000
2000
i nekako više super od bilo čega drugog na planeti,
00:55
when it comesдолази to all things cerebralcerebralna.
17
40000
3000
kada se radi o stvarima s mozgom.
00:58
But of courseкурс, there's a secondдруго observationпосматрање about the humanљудско speciesврсте
18
43000
2000
Ali naravno, tu je druga opaska o ljudskoj vrsti
01:00
that I want to focusфокусирати on a little bitмало more,
19
45000
2000
na koju želim više da se fokusiram,
01:02
and that's the factчињеница that
20
47000
2000
a to je činjenica da
01:04
even thoughипак we're actuallyзаправо really smartпаметан, sometimesпонекад uniquelyјединствено smartпаметан,
21
49000
3000
iako smo ustvari prilično pametni, ponekad jedinstveno,
01:07
we can alsoтакође be incrediblyневероватно, incrediblyневероватно dumbглуп
22
52000
3000
možemo biti i neverovatno, neverovatno glupi,
01:10
when it comesдолази to some aspectsаспекти of our decisionодлука makingстварање.
23
55000
3000
kada se radi o nekim aspektima donošenja odluka.
01:13
Now I'm seeingвиди lots of smirksosmesi, grimase out there.
24
58000
2000
Vidim dosta usiljenih osmeha.
01:15
Don't worryзабринути, I'm not going to call anyoneбило ко in particularпосебно out
25
60000
2000
Ne brinite, neću prozivati nikoga
01:17
on any aspectsаспекти of your ownвластити mistakesгрешке.
26
62000
2000
za bilo koji deo vaših ličnih grešaka.
01:19
But of courseкурс, just in the last two yearsгодине
27
64000
2000
Ali naravno, samo u poslednje dve godine
01:21
we see these unprecedentedбез преседана examplesпримери of humanљудско ineptitudenesposobnost.
28
66000
3000
vidimo nečuvene primere ljudske nesposobnosti.
01:24
And we'veми смо watchedгледао as the toolsалати we uniquelyјединствено make
29
69000
3000
I posmatramo kako nam se alati, koje smo napravili
01:27
to pullповући the resourcesресурса out of our environmentЖивотна средина
30
72000
2000
za iskorišćavanje resursa iz okoline,
01:29
kindкинд of just blowудари up in our faceлице.
31
74000
2000
obijaju o glavu.
01:31
We'veMoramo watchedгледао the financialфинансијски marketsтржишта that we uniquelyјединствено createстворити --
32
76000
2000
Posmatramo kako finansijska tržišta, koja pravimo -
01:33
these marketsтржишта that were supposedпретпостављено to be foolproofbez rizika --
33
78000
3000
ta tržišta koja bi trebalo da su otporna na gluposti -
01:36
we'veми смо watchedгледао them kindкинд of collapseколапс before our eyesочи.
34
81000
2000
posmatramo kako nam se ruše pred nosom.
01:38
But bothи једно и друго of these two embarrassingsramotno examplesпримери, I think,
35
83000
2000
Ali mislim da oba ova sramotna primera
01:40
don't highlightIsticanje what I think is mostнајвише embarrassingsramotno
36
85000
3000
ne ističu ono što mislim da je najsramotnije
01:43
about the mistakesгрешке that humansљуди make,
37
88000
2000
u vezi sa greškama koje ljudi prave,
01:45
whichкоја is that we'dми смо like to think that the mistakesгрешке we make
38
90000
3000
a to je da bismo voleli da mislimo da su te greške
01:48
are really just the resultрезултат of a coupleпар badлоше applesjabuke
39
93000
2000
samo rezultat nekoliko pokvarenih jabuka,
01:50
or a coupleпар really sortврста of FAILPROPASTI Blog-worthyBlog vredna decisionsОдлуке.
40
95000
3000
nekoliko odluka koje zaslužuju da se objave na FAIL Blogu.
01:53
But it turnsокреће се out, what socialсоцијално scientistsнаучници are actuallyзаправо learningучење
41
98000
3000
Ali društveni naučnici otkrivaju
01:56
is that mostнајвише of us, when put in certainизвестан contextskonteksta,
42
101000
3000
da će mnogi od nas, kad smo stavljeni u određeni kontekst,
01:59
will actuallyзаправо make very specificспецифични mistakesгрешке.
43
104000
3000
napraviti veoma određene greške.
02:02
The errorsгрешке we make are actuallyзаправо predictableпредвидљиво.
44
107000
2000
Greške koje činimo su predvidive.
02:04
We make them again and again.
45
109000
2000
Činimo ih iznova i iznova.
02:06
And they're actuallyзаправо immuneимуно to lots of evidenceдоказ.
46
111000
2000
A one su imune na mnogo dokaza.
02:08
When we get negativeнегативно feedbackповратна информација,
47
113000
2000
Kada dobijemo negativnu povratnu informaciju,
02:10
we still, the nextследећи time we're faceлице with a certainизвестан contextконтекст,
48
115000
3000
i dalje, i sledećeg puta kada se nađemo u takvoj situaciji
02:13
tendтенденција to make the sameисти errorsгрешке.
49
118000
2000
pravićemo iste greške.
02:15
And so this has been a realправи puzzleпуззле to me
50
120000
2000
Meni je ovo, kao nekome ko proučava ljudsku
02:17
as a sortврста of scholarstipendista of humanљудско natureприрода.
51
122000
2000
prirodu, bila prava zagonetka.
02:19
What I'm mostнајвише curiousрадознао about is,
52
124000
2000
Najviše me zanima kako
02:21
how is a speciesврсте that's as smartпаметан as we are
53
126000
3000
je jedna vrsta, tako pametna kao što smo mi,
02:24
capableспособан of suchтаква badлоше
54
129000
2000
sposobna da pravi takve
02:26
and suchтаква consistentдоследно errorsгрешке all the time?
55
131000
2000
loše i uporne greške?
02:28
You know, we're the smartestнајпаметнији thing out there, why can't we figureфигура this out?
56
133000
3000
Znate, mi smo najpametniji koji postoje, kako ne možemo ovo da ukapiramo?
02:31
In some senseсмисао, where do our mistakesгрешке really come from?
57
136000
3000
Na neki način, odakle naše greške stvarno dolaze?
02:34
And havingимати thought about this a little bitмало, I see a coupleпар differentразличит possibilitiesмогућности.
58
139000
3000
Pošto sam malo razmišljala o ovome, vidim dve mogućnosti.
02:37
One possibilityмогућност is, in some senseсмисао, it's not really our faultkrivica.
59
142000
3000
Jedna mogućnost je da, na neki način, nismo mi krivi.
02:40
Because we're a smartпаметан speciesврсте,
60
145000
2000
Pošto smo pametna vrsta,
02:42
we can actuallyзаправо createстворити all kindsврсте of environmentsокружења
61
147000
2000
možemo da napravimo svakakva okruženja
02:44
that are superСупер, superСупер complicatedкомпликован,
62
149000
2000
koja su super, super komplikovana,
02:46
sometimesпонекад too complicatedкомпликован for us to even actuallyзаправо understandРазумем,
63
151000
3000
ponekad i previše komplikovana za razumevanje,
02:49
even thoughипак we'veми смо actuallyзаправо createdстворено them.
64
154000
2000
čak iako smo ih mi stvorili.
02:51
We createстворити financialфинансијски marketsтржишта that are superСупер complexкомплекс.
65
156000
2000
Stvaramo finansijska tržišta koja su super-složena.
02:53
We createстворити mortgageхипотека termsуслови that we can't actuallyзаправо dealдоговор with.
66
158000
3000
Pravimo uslove za hipoteke s kojima baš ne možemo da izađemo na kraj.
02:56
And of courseкурс, if we are put in environmentsокружења where we can't dealдоговор with it,
67
161000
3000
I naravno, ako se nađemo u okruženjima s kojima ne možemo da izađemo na kraj,
02:59
in some senseсмисао makesчини senseсмисао that we actuallyзаправо
68
164000
2000
na neki način ima smisla da
03:01
mightМожда messнеред certainизвестан things up.
69
166000
2000
ćemo možda zeznuti neke stvari.
03:03
If this was the caseслучај, we'dми смо have a really easyлако solutionрешење
70
168000
2000
Da se radi o ovome, imali bismo veoma jednostavno rešenje
03:05
to the problemпроблем of humanљудско errorгрешка.
71
170000
2000
za problem ljudske greške.
03:07
We'dMi bismo actuallyзаправо just say, okay, let's figureфигура out
72
172000
2000
Rekli bismo, okej, hajde da vidimo
03:09
the kindsврсте of technologiesтехнологије we can't dealдоговор with,
73
174000
2000
s kakvim tehnologijama ne možemo da se izborimo,
03:11
the kindsврсте of environmentsокружења that are badлоше --
74
176000
2000
kakva okruženja su loša -
03:13
get ridрид of those, designдизајн things better,
75
178000
2000
otarasimo se njih, bolje osmislimo stvari,
03:15
and we should be the nobleплеменито speciesврсте
76
180000
2000
i bili bismo plemenita vrsta
03:17
that we expectочекујте ourselvesсами to be.
77
182000
2000
kakva i očekujemo da smo.
03:19
But there's anotherдруги possibilityмогућност that I find a little bitмало more worryingзабрињавајуће,
78
184000
3000
Ali postoji još jedna mogućnost koja me više brine,
03:22
whichкоја is, maybe it's not our environmentsокружења that are messedpetljao up.
79
187000
3000
a to je da možda nije naše okruženje komplikovano.
03:25
Maybe it's actuallyзаправо us that's designedдизајниран badlyлоше.
80
190000
3000
Možda smo mi ti koji smo loše napravljeni.
03:28
This is a hintнаговештај that I've gottenготтен
81
193000
2000
To je ideja koju sam dobila
03:30
from watchingгледа the waysначини that socialсоцијално scientistsнаучници have learnedнаучио about humanљудско errorsгрешке.
82
195000
3000
gledajući kako društvenjaci proučavaju ljudske greške.
03:33
And what we see is that people tendтенденција to keep makingстварање errorsгрешке
83
198000
3000
I vidimo da ljudi imaju tendenciju da prave greške
03:36
exactlyбаш тако the sameисти way, over and over again.
84
201000
3000
na potpuno isti način, iznova i iznova.
03:39
It feelsосећа like we mightМожда almostскоро just be builtизграђен
85
204000
2000
Kao da smo napravljeni da
03:41
to make errorsгрешке in certainизвестан waysначини.
86
206000
2000
pravimo greške na određene načine.
03:43
This is a possibilityмогућност that I worryзабринути a little bitмало more about,
87
208000
3000
O ovoj mogućnosti malo više brinem,
03:46
because, if it's us that's messedpetljao up,
88
211000
2000
jer ako smo mi zbrkani,
03:48
it's not actuallyзаправо clearјасно how we go about dealingбављење with it.
89
213000
2000
onda nije jasno kako to da rešimo.
03:50
We mightМожда just have to acceptприхватити the factчињеница that we're errorгрешка proneсклон
90
215000
3000
Možda moramo da prihvatimo činjenicu da grešimo
03:53
and try to designдизајн things around it.
91
218000
2000
i da pokušamo da se uskladimo s tim.
03:55
So this is the questionпитање my studentsстуденти and I wanted to get at.
92
220000
3000
To je pitanje na koje smo moji studenti i ja hteli da odgovorimo.
03:58
How can we tell the differenceразлика betweenизмеђу possibilityмогућност one and possibilityмогућност two?
93
223000
3000
Kako da razlikujemo prvu i drugu mogućnost?
04:01
What we need is a populationпопулација
94
226000
2000
Potrebna nam je populacija
04:03
that's basicallyу основи smartпаметан, can make lots of decisionsОдлуке,
95
228000
2000
koja je dovoljno pametna, može da donosi razne odluke,
04:05
but doesn't have accessприступ to any of the systemsсистема we have,
96
230000
2000
ali nema pristupa sistemima kojima mi imamo,
04:07
any of the things that mightМожда messнеред us up --
97
232000
2000
bilo kojim stvarima koje nas mogu pobrkati -
04:09
no humanљудско technologyтехнологија, humanљудско cultureкултура,
98
234000
2000
ljudskoj tehnologiji, kulturi,
04:11
maybe even not humanљудско languageЈезик.
99
236000
2000
možda čak ni jeziku.
04:13
And so this is why we turnedокренуо се to these guys here.
100
238000
2000
I zato smo se okrenuli ovim momcima.
04:15
These are one of the guys I work with. This is a brownбраон capuchinkapucin monkeyмајмун.
101
240000
3000
Ovo su neki od momaka s kojima radim. To je braon kapucin majmun.
04:18
These guys are NewNovi WorldSvet primatesпримати,
102
243000
2000
To su primati Novog Sveta (Amerika),
04:20
whichкоја meansзначи they brokeсломио off from the humanљудско branchогранак
103
245000
2000
što znači da su se odvojili od ljudi
04:22
about 35 millionмилиона yearsгодине agoпре.
104
247000
2000
pre oko 35 miliona godina.
04:24
This meansзначи that your great, great, great great, great, great --
105
249000
2000
To znači da je vaša pra, pra, pra, pra, pra, pra -
04:26
with about fiveпет millionмилиона "greatsvelikani" in there --
106
251000
2000
sa oko pet miliona "pra" -
04:28
grandmotherбака was probablyвероватно the sameисти great, great, great, great
107
253000
2000
baka bila verovatno ista kao i pra, pra, pra, pra
04:30
grandmotherбака with fiveпет millionмилиона "greatsvelikani" in there
108
255000
2000
baka, sa pet miliona "pra",
04:32
as HollyHolly up here.
109
257000
2000
od Holi.
04:34
You know, so you can take comfortудобност in the factчињеница that this guy up here is a really really distantдалеко,
110
259000
3000
Znate, možete se utešiti da je ovaj momak veoma, veoma dalek,
04:37
but albeitиако evolutionaryеволуционарни, relativeу односу.
111
262000
2000
iako evolutivni rođak.
04:39
The good newsвести about HollyHolly thoughипак is that
112
264000
2000
Dobra vest u vezi sa Holi je da
04:41
she doesn't actuallyзаправо have the sameисти kindsврсте of technologiesтехнологије we do.
113
266000
3000
ona nema iste vrste tehnologija koje mi imamo.
04:44
You know, she's a smartпаметан, very cutрез creatureстворење, a primateprimat as well,
114
269000
3000
Znate, ona je pametno, veoma slatko stvorenje, takođe primat,
04:47
but she lacksнедостаје all the stuffствари we think mightМожда be messingpetlja us up.
115
272000
2000
ali joj nedostaju stvari za koje mislimo da nas zbunjuju.
04:49
So she's the perfectсавршен testтест caseслучај.
116
274000
2000
Dakle ona je savršeni subjekat za test.
04:51
What if we put HollyHolly into the sameисти contextконтекст as humansљуди?
117
276000
3000
Šta ako bismo je stavili u iste situacije kao ljude?
04:54
Does she make the sameисти mistakesгрешке as us?
118
279000
2000
Da li će praviti iste greške kao mi?
04:56
Does she not learnучи from them? And so on.
119
281000
2000
Neće li učiti iz njih? I tako dalje.
04:58
And so this is the kindкинд of thing we decidedодлучио to do.
120
283000
2000
To je stvar koju smo odlučili da uradimo.
05:00
My studentsстуденти and I got very excitedузбуђени about this a fewнеколико yearsгодине agoпре.
121
285000
2000
Bili smo vrlo uzbuđeni zbog toga pre nekoliko godina.
05:02
We said, all right, let's, you know, throwбацање so problemsпроблеми at HollyHolly,
122
287000
2000
Rekli smo, hajde da damo te probleme Holi
05:04
see if she messesbrljotine these things up.
123
289000
2000
i vidimo da li će ona upropastiti stvari.
05:06
First problemпроблем is just, well, where should we startпочетак?
124
291000
3000
Prvi problem je, gde da počnemo?
05:09
Because, you know, it's great for us, but badлоше for humansљуди.
125
294000
2000
Jer, znate, dobro je za nas, loše za ljude.
05:11
We make a lot of mistakesгрешке in a lot of differentразличит contextskonteksta.
126
296000
2000
Mi pravimo mnogo grešaka u raznim situacijama.
05:13
You know, where are we actuallyзаправо going to startпочетак with this?
127
298000
2000
Znate, gde ćemo početi s ovim?
05:15
And because we startedпочела this work around the time of the financialфинансијски collapseколапс,
128
300000
3000
I pošto smo počeli u vreme finansijskog kraha,
05:18
around the time when foreclosureshipotekama were hittingударање the newsвести,
129
303000
2000
otprilike kada su stizale vesti o hipotekama,
05:20
we said, hhmmhh: mm, maybe we should
130
305000
2000
rekli smo, hmm, možda bi trebalo
05:22
actuallyзаправо startпочетак in the financialфинансијски domainдомена.
131
307000
2000
da počnemo od finansijskog polja.
05:24
Maybe we should look at monkey'smajmun economicекономски decisionsОдлуке
132
309000
3000
Da proučavamo majmunove ekonomske odluke
05:27
and try to see if they do the sameисти kindsврсте of dumbглуп things that we do.
133
312000
3000
i vidimo da li će raditi iste glupe stvari kao mi.
05:30
Of courseкурс, that's when we hitхит a sortврста secondдруго problemпроблем --
134
315000
2000
Naravno, tada smo naišli na drugi problem -
05:32
a little bitмало more methodologicalmetodološki --
135
317000
2000
više metodološke prirode -
05:34
whichкоја is that, maybe you guys don't know,
136
319000
2000
a to je, možda vi ne znate, ali
05:36
but monkeysмајмуни don't actuallyзаправо use moneyновац. I know, you haven'tније metиспуњен them.
137
321000
3000
majmuni zapravo ne koriste novac. Znam, niste ih upoznali.
05:39
But this is why, you know, they're not in the queueред behindиза you
138
324000
2000
Ali upravo zato ne stoje u redu iza vas
05:41
at the groceryгроцери storeпродавница or the ATMATM -- you know, they don't do this stuffствари.
139
326000
3000
u prodavnici ili na bankomatu - znate, oni ne rade ove stvari.
05:44
So now we facedсуочена, you know, a little bitмало of a problemпроблем here.
140
329000
3000
Tako smo se suočili sa malim problemom.
05:47
How are we actuallyзаправо going to askпитати monkeysмајмуни about moneyновац
141
332000
2000
Kako ćemo da pitamo majmune o novcu,
05:49
if they don't actuallyзаправо use it?
142
334000
2000
ako ga oni ne koriste?
05:51
So we said, well, maybe we should just, actuallyзаправо just suckсисати it up
143
336000
2000
Pa smo rekli da bismo možda mogli da
05:53
and teachнаучити monkeysмајмуни how to use moneyновац.
144
338000
2000
naučimo majmune kako da koriste novac.
05:55
So that's just what we did.
145
340000
2000
I to smo uradili.
05:57
What you're looking at over here is actuallyзаправо the first unitјединица that I know of
146
342000
3000
Ovde vidite prvi novčić za koji ja znam,
06:00
of non-humanне-људско currencyvaluta.
147
345000
2000
a koji nije ljudska valuta.
06:02
We weren'tнису very creativeкреативан at the time we startedпочела these studiesстудије,
148
347000
2000
Kad smo počinjali nismo bili mnogo kreativni
06:04
so we just calledпозвани it a tokenToken.
149
349000
2000
pa smo zvali samo token.
06:06
But this is the unitјединица of currencyvaluta that we'veми смо taughtнаучио our monkeysмајмуни at YaleYale
150
351000
3000
Ali ovo je novac koji su majmuni na Jelu
06:09
to actuallyзаправо use with humansљуди,
151
354000
2000
naučili da koriste sa ljudima,
06:11
to actuallyзаправо buyкупити differentразличит piecesкомада of foodхрана.
152
356000
3000
da kupuju različitu hranu.
06:14
It doesn't look like much -- in factчињеница, it isn't like much.
153
359000
2000
Ne izgleda naročito - i nije ništa posebno.
06:16
Like mostнајвише of our moneyновац, it's just a pieceпиеце of metalметал.
154
361000
2000
Kao i većina našeg novca, to je parče metala.
06:18
As those of you who'veко је takenузети currenciesvalutama home from your tripпутовање know,
155
363000
3000
Kao što znaju oni koji sa putovanja nose novčiće kući,
06:21
onceједном you get home, it's actuallyзаправо prettyприлично uselessбескорисно.
156
366000
2000
kada stignete kući, oni su prilično beskorisni.
06:23
It was uselessбескорисно to the monkeysмајмуни at first
157
368000
2000
U početku su bili beskorisni i majmunima,
06:25
before they realizedреализован what they could do with it.
158
370000
2000
pre nego što su shvatili šta s njima mogu.
06:27
When we first gaveдала it to them in theirњихова enclosuresOrmari,
159
372000
2000
Kada smo im ih prvi put dali, u njihovim kavezima,
06:29
they actuallyзаправо kindкинд of pickedизабран them up, lookedпогледао at them.
160
374000
2000
oni su ih uzeli, gledali.
06:31
They were these kindкинд of weirdчудан things.
161
376000
2000
To su bile čudne stvari.
06:33
But very quicklyбрзо, the monkeysмајмуни realizedреализован
162
378000
2000
Ali ubrzo su majmuni shvatili
06:35
that they could actuallyзаправо handруку these tokenssimboli over
163
380000
2000
da mogu da predaju ove tokene
06:37
to differentразличит humansљуди in the labлаб for some foodхрана.
164
382000
3000
različitim ljudima u laboratoriji i dobiju hranu.
06:40
And so you see one of our monkeysмајмуни, MaydayMayday, up here doing this.
165
385000
2000
Vidite jednog od naših majmuna, Mejdej, kako to radi.
06:42
This is A and B are kindкинд of the pointsбодова where she's sortврста of a little bitмало
166
387000
3000
Ovo su momenti kada je pomalo zaintrigirana
06:45
curiousрадознао about these things -- doesn't know.
167
390000
2000
ovim stvarima - ne zna.
06:47
There's this waitingчекајући handруку from a humanљудско experimenterекспериментатор,
168
392000
2000
Tu je eksperimentatorova ruka koja čeka
06:49
and MaydayMayday quicklyбрзо figuresфигуре out, apparentlyочигледно the humanљудско wants this.
169
394000
3000
i Mejdej brzo shvata da očigledno čovek želi ovo.
06:52
HandsRuke it over, and then getsдобива some foodхрана.
170
397000
2000
Predaje ga i dobija nešto hrane.
06:54
It turnsокреће се out not just MaydayMayday, all of our monkeysмајмуни get good
171
399000
2000
Ispostavlja se da su Mejdej i
06:56
at tradingтрговање tokenssimboli with humanљудско salesmanprodavac.
172
401000
2000
svi naši majmuni dobri u razmeni tokena sa ljudima.
06:58
So here'sево just a quickбрзо videoвидео of what this looksизглед like.
173
403000
2000
Evo kratkog snimka.
07:00
Here'sEvo MaydayMayday. She's going to be tradingтрговање a tokenToken for some foodхрана
174
405000
3000
Evo je Mejdej. Zameniće token za nešto hrane,
07:03
and waitingчекајући happilySretno and gettingдобијања her foodхрана.
175
408000
3000
veselo iščekuje i dobija hranu.
07:06
Here'sEvo FelixFelix, I think. He's our alphaалфа maleМушки; he's a kindкинд of bigвелики guy.
176
411000
2000
Evo ga Felix, mislim. On je alfa mužjak; veliki momak.
07:08
But he too waitsčeka patientlystrpljivo, getsдобива his foodхрана and goesиде on.
177
413000
3000
Ali i on strpljivo čeka, dobija hranu, odlazi.
07:11
So the monkeysмајмуни get really good at this.
178
416000
2000
Dakle majmuni su postali dobri u ovome.
07:13
They're surprisinglyизненађујуће good at this with very little trainingобука.
179
418000
3000
Iznenađujuće dobro, uz veoma malo obuke.
07:16
We just allowedдозвољен them to pickпицк this up on theirњихова ownвластити.
180
421000
2000
Dozvolili smo im da sami ovo nauče.
07:18
The questionпитање is: is this anything like humanљудско moneyновац?
181
423000
2000
Pitanje je: da li je ovo slično ljudskom novcu?
07:20
Is this a marketтржиште at all,
182
425000
2000
Da li je ovo uopšte tržište,
07:22
or did we just do a weirdчудан psychologist'spsihologa trickтрик
183
427000
2000
ili smo samo uradili čudan trik psihologa,
07:24
by gettingдобијања monkeysмајмуни to do something,
184
429000
2000
naveli majmuna da uradi nešto,
07:26
looking smartпаметан, but not really beingбиће smartпаметан.
185
431000
2000
izgleda pametno, ali zapravo nije pametan?
07:28
And so we said, well, what would the monkeysмајмуни spontaneouslyspontano do
186
433000
3000
Hteli smo da vidimo šta bi majmuni spontano uradili
07:31
if this was really theirњихова currencyvaluta, if they were really usingКористећи it like moneyновац?
187
436000
3000
da je ovo stvarno njihova valuta, da stvarno koriste ovo kao novac?
07:34
Well, you mightМожда actuallyзаправо imagineзамислити them
188
439000
2000
Pa, možete da ih zamislite
07:36
to do all the kindsврсте of smartпаметан things
189
441000
2000
da rade svakakve pametne stvari
07:38
that humansљуди do when they startпочетак exchangingrazmena moneyновац with eachсваки other.
190
443000
3000
koje i ljudi rade kad počnu međusobno da razmenjuju novac.
07:41
You mightМожда have them startпочетак payingплаћање attentionпажњу to priceЦена,
191
446000
3000
Mogu početi da obraćaju pažnju na cenu,
07:44
payingплаћање attentionпажњу to how much they buyкупити --
192
449000
2000
na to koliko kupuju -
07:46
sortврста of keepingчување trackтрацк of theirњихова monkeyмајмун tokenToken, as it were.
193
451000
3000
da vode računa o svom novcu.
07:49
Do the monkeysмајмуни do anything like this?
194
454000
2000
Da li majmuni rade nešto ovakvo?
07:51
And so our monkeyмајмун marketplaceтржиште was bornрођен.
195
456000
3000
I tako je rođeno naše majmunsko tržište.
07:54
The way this worksИзвођење радова is that
196
459000
2000
Ovo funkcioniše tako što naši
07:56
our monkeysмајмуни normallyнормално liveживи in a kindкинд of bigвелики zoozoološki vrt socialсоцијално enclosureкућиште.
197
461000
3000
majmuni uglavnom žive u velikom zoo okruženju.
07:59
When they get a hankeringNavodno se for some treatstretira,
198
464000
2000
Kada požele neku poslasticu,
08:01
we actuallyзаправо allowedдозвољен them a way out
199
466000
2000
dozvolimo im da izađu
08:03
into a little smallerмањи enclosureкућиште where they could enterунесите the marketтржиште.
200
468000
2000
u manje okruženje odakle ulaze na tržište.
08:05
UponNa enteringулазак the marketтржиште --
201
470000
2000
Kada dođu tu -
08:07
it was actuallyзаправо a much more funзабавно marketтржиште for the monkeysмајмуни than mostнајвише humanљудско marketsтржишта
202
472000
2000
to je bilo mnogo zanimljivije majmunima od mnogih ljudskih tržišta
08:09
because, as the monkeysмајмуни enteredушао the doorврата of the marketтржиште,
203
474000
3000
jer, kako majmuni uđu,
08:12
a humanљудско would give them a bigвелики walletnovčanik fullпуна of tokenssimboli
204
477000
2000
tako im jedan čovek da veliki novčanik pun tokena
08:14
so they could actuallyзаправо tradeтрговина the tokenssimboli
205
479000
2000
da bi mogli da ih menjaju
08:16
with one of these two guys here --
206
481000
2000
sa jednim od ovih momaka -
08:18
two differentразличит possibleмогуће humanљудско salesmenprodavci
207
483000
2000
tu su dva potencijalna ljudska prodavca
08:20
that they could actuallyзаправо buyкупити stuffствари from.
208
485000
2000
od kojih mogu da kupe stvari.
08:22
The salesmenprodavci were studentsстуденти from my labлаб.
209
487000
2000
Prodavci su moji studenti.
08:24
They dressedобучен differentlyдругачије; they were differentразличит people.
210
489000
2000
Obučeni su različito; to su različiti ljudi.
08:26
And over time, they did basicallyу основи the sameисти thing
211
491000
3000
I vremenom su radili istu stvar
08:29
so the monkeysмајмуни could learnучи, you know,
212
494000
2000
da bi majmuni naučili, znate,
08:31
who soldпродат what at what priceЦена -- you know, who was reliableпоуздан, who wasn'tније, and so on.
213
496000
3000
ko šta prodaje po kojoj ceni - ko je pouzdan, ko nije itd.
08:34
And you can see that eachсваки of the experimentersexperimenters
214
499000
2000
I vidite da svaki eksperimentator
08:36
is actuallyзаправо holdingдржање up a little, yellowжуто foodхрана dishјело.
215
501000
3000
drži malu žutu posudu sa hranom,
08:39
and that's what the monkeyмајмун can for a singleједно tokenToken.
216
504000
2000
i to majmuni mogu dobiti za jedan token.
08:41
So everything costsтрошкови one tokenToken,
217
506000
2000
Dakle sve košta jedan token,
08:43
but as you can see, sometimesпонекад tokenssimboli buyкупити more than othersдруги,
218
508000
2000
ali kao što vidite, ponekad tokeni kupuju više,
08:45
sometimesпонекад more grapesgrožđe than othersдруги.
219
510000
2000
nekad više grožđa nego drugi tokeni.
08:47
So I'll showсхов you a quickбрзо videoвидео of what this marketplaceтржиште actuallyзаправо looksизглед like.
220
512000
3000
Pokazaću vam kratak video kako zapravo izgleda ovo tržište.
08:50
Here'sEvo a monkey-eye-viewmajmun-vidokrug. MonkeysMajmuni are shorterкраћи, so it's a little shortкратак.
221
515000
3000
Majmunova perspektiva. Oni su niži, pa je malo manje.
08:53
But here'sево HoneyMed.
222
518000
2000
Evo je Hani.
08:55
She's waitingчекајући for the marketтржиште to openотворен a little impatientlysa nestrpljenjem.
223
520000
2000
Pomalo nestrpljivo čeka da se prodavnica otvori.
08:57
All of a suddenизненадан the marketтржиште opensотвара се. Here'sEvo her choiceизбор: one grapesgrožđe or two grapesgrožđe.
224
522000
3000
Otvara se. Evo izbora: jedan grozd ili dva.
09:00
You can see HoneyMed, very good marketтржиште economistекономиста,
225
525000
2000
Vidite Hani, veoma dobar ekonomista,
09:02
goesиде with the guy who givesдаје more.
226
527000
3000
bira onog ko daje više.
09:05
She could teachнаучити our financialфинансијски adviserssavetnici a fewнеколико things or two.
227
530000
2000
Mogla bi da nauči naše finansijske savetnike nekim stvarima.
09:07
So not just HoneyMed,
228
532000
2000
Ne samo ona,
09:09
mostнајвише of the monkeysмајмуни wentотишао with guys who had more.
229
534000
3000
većina majmuna ide kod momka koji daje više.
09:12
MostVećina of the monkeysмајмуни wentотишао with guys who had better foodхрана.
230
537000
2000
Većina njih ide kod onog ko ima bolju hranu.
09:14
When we introducedпредставио salesпродаја, we saw the monkeysмајмуни paidплаћени attentionпажњу to that.
231
539000
3000
Kad smo ubacili rasprodaju, majmuni su obratili pažnju na to.
09:17
They really caredбринула about theirњихова monkeyмајмун tokenToken dollarдолар.
232
542000
3000
Bilo im je stalo do svog token dolara.
09:20
The more surprisingизненађујуће thing was that when we collaboratedсарађивао with economistsекономисти
233
545000
3000
Iznenadilo nas je kad smo u saradnji sa ekonomistima
09:23
to actuallyзаправо look at the monkeys'majmuni' dataподаци usingКористећи economicекономски toolsалати,
234
548000
3000
pregledali podatke majmuna koristeći ekonomske pokazatelje,
09:26
they basicallyу основи matchedодговара, not just qualitativelykvalitativno,
235
551000
3000
oni su se poklapali, ne samo kvalitativno,
09:29
but quantitativelyquantitatively with what we saw
236
554000
2000
nego i kvantitativno s onim što smo videli
09:31
humansљуди doing in a realправи marketтржиште.
237
556000
2000
da ljudi rade na pravom tržištu.
09:33
So much so that, if you saw the monkeys'majmuni' numbersбројеви,
238
558000
2000
Toliko da, da ste videli cifre majmuna,
09:35
you couldn'tније могао tell whetherда ли је they cameДошао from a monkeyмајмун or a humanљудско in the sameисти marketтржиште.
239
560000
3000
ne biste znali da li su od majmuna ili ljudi sa istog tržišta.
09:38
And what we'dми смо really thought we'dми смо doneГотово
240
563000
2000
I mislili smo da smo uspeli
09:40
is like we'dми смо actuallyзаправо introducedпредставио something
241
565000
2000
da uvedemo nešto što,
09:42
that, at leastнајмање for the monkeysмајмуни and us,
242
567000
2000
bar za nas i za majmune
09:44
worksИзвођење радова like a realправи financialфинансијски currencyvaluta.
243
569000
2000
funkcioniše kao prava valuta.
09:46
QuestionPitanje is: do the monkeysмајмуни startпочетак messingpetlja up in the sameисти waysначини we do?
244
571000
3000
Pitanje: da li i majmuni počinju da greše kao i mi?
09:49
Well, we alreadyвећ saw anecdotallyanecdotally a coupleпар of signsзнаци that they mightМожда.
245
574000
3000
Pa, već smo anegdotski videli nekoliko znakova da bi mogli.
09:52
One thing we never saw in the monkeyмајмун marketplaceтржиште
246
577000
2000
Jedna stvar koju nikad nismo videli kod majmuna
09:54
was any evidenceдоказ of savingуштеда --
247
579000
2000
je dokaz o štednji -
09:56
you know, just like our ownвластити speciesврсте.
248
581000
2000
znate, kao i kod naše vrste.
09:58
The monkeysмајмуни enteredушао the marketтржиште, spentпотрошено theirњихова entireцео budgetбуџет
249
583000
2000
Majmuni uđu u prodavnicu, potroše sav budžet
10:00
and then wentотишао back to everyoneсви elseдруго.
250
585000
2000
i onda odu do ostalih.
10:02
The other thing we alsoтакође spontaneouslyspontano saw,
251
587000
2000
Druga stvar koju smo spontano videli,
10:04
embarrassinglysramotno enoughдовољно,
252
589000
2000
za postideti se,
10:06
is spontaneousспонтано evidenceдоказ of larcenykrađa.
253
591000
2000
je spontani dokaz o krađi.
10:08
The monkeysмајмуни would rip-offpljaиka the tokenssimboli at everyсваки availableдоступан opportunityприлика --
254
593000
3000
Majmuni bi pokrali tokene prvom zgodnom prilikom -
10:11
from eachсваки other, oftenчесто from us --
255
596000
2000
jedni od drugih, često od nas -
10:13
you know, things we didn't necessarilyнужно think we were introducingуводјење,
256
598000
2000
znate, videli smo da se dešavaju one
10:15
but things we spontaneouslyspontano saw.
257
600000
2000
stvari koje nismo mislili da će se desiti.
10:17
So we said, this looksизглед badлоше.
258
602000
2000
Rekli smo, ovo izgleda loše.
10:19
Can we actuallyзаправо see if the monkeysмајмуни
259
604000
2000
Da li možemo da vidimo da li majmuni
10:21
are doing exactlyбаш тако the sameисти dumbглуп things as humansљуди do?
260
606000
3000
rade iste glupe stvari kao i ljudi?
10:24
One possibilityмогућност is just kindкинд of let
261
609000
2000
Jedna mogućnost je da pustimo
10:26
the monkeyмајмун financialфинансијски systemсистем playигра out,
262
611000
2000
da se njihov finansijski sistem odvija,
10:28
you know, see if they startпочетак callingзове us for bailoutspaketi spasa in a fewнеколико yearsгодине.
263
613000
2000
znate, da vidimo da li će nas zvati za kaucije posle nekoliko godina.
10:30
We were a little impatientnestrpljiv so we wanted
264
615000
2000
Bili smo nestrpljivi pa smo želeli
10:32
to sortврста of speedбрзина things up a bitмало.
265
617000
2000
da nekako ubrzamo stvari.
10:34
So we said, let's actuallyзаправо give the monkeysмајмуни
266
619000
2000
Rekli smo, hajde da damo majmunima
10:36
the sameисти kindsврсте of problemsпроблеми
267
621000
2000
iste vrste problema
10:38
that humansљуди tendтенденција to get wrongпогрешно
268
623000
2000
u kojima ljudi greše
10:40
in certainизвестан kindsврсте of economicекономски challengesизазове,
269
625000
2000
u nekim ekonomskim izazovima,
10:42
or certainизвестан kindsврсте of economicекономски experimentsексперименте.
270
627000
2000
ili nekim ekonomskim eksperimentima.
10:44
And so, sinceОд the bestнајбоље way to see how people go wrongпогрешно
271
629000
3000
I pošto je najbolji način da vidimo kako ljudi greše
10:47
is to actuallyзаправо do it yourselfсами,
272
632000
2000
to da i sami to uradimo,
10:49
I'm going to give you guys a quickбрзо experimentексперимент
273
634000
2000
daću vam jedan eksperiment
10:51
to sortврста of watch your ownвластити financialфинансијски intuitionsинтуиције in actionпоступак.
274
636000
2000
da vidite svoju finansijsku intuiciju u akciji.
10:53
So imagineзамислити that right now
275
638000
2000
Zamislite da sada
10:55
I handedхандед eachсваки and everyсваки one of you
276
640000
2000
dam svakome od vas
10:57
a thousandхиљада U.S. dollarsдолара -- so 10 crispKrisp hundredсто dollarдолар billsрачуне.
277
642000
3000
hiljadu dolara - 10 šuškavih novčanica od 100 dolara.
11:00
Take these, put it in your walletnovčanik
278
645000
2000
Uzmite ih, stavite u novčanik
11:02
and spendпотрошити a secondдруго thinkingразмишљање about what you're going to do with it.
279
647000
2000
i za sekund razmislite šta ćete s njima.
11:04
Because it's yoursтвоје now; you can buyкупити whateverшта год you want.
280
649000
2000
Jer vaše su; možete kupiti šra god želite.
11:06
DonateDonirati it, take it, and so on.
281
651000
2000
Donirati ih, uzeti, itd.
11:08
SoundsZvuci great, but you get one more choiceизбор to earnzaradi a little bitмало more moneyновац.
282
653000
3000
Zvuči super, ali imate još jednu mogućnost da zaradite malo više para.
11:11
And here'sево your choiceизбор: you can eitherили be riskyризичан,
283
656000
3000
Evo ga izbor: možete da rizikujete,
11:14
in whichкоја caseслучај I'm going to flipфлип one of these monkeyмајмун tokenssimboli.
284
659000
2000
u tom slučaju ću baciti jedan od ovih majmunskih tokena.
11:16
If it comesдолази up headsглаве, you're going to get a thousandхиљада dollarsдолара more.
285
661000
2000
Ako bude glava, dobićete još hiljadu dolara.
11:18
If it comesдолази up tailsрепа, you get nothing.
286
663000
2000
Ako bude pismo, ne dobijate ništa.
11:20
So it's a chanceшанса to get more, but it's prettyприлично riskyризичан.
287
665000
3000
Dakle, prilika da dobijete još, ali prilično rizična.
11:23
Your other optionопција is a bitмало safeсигурно. Your just going to get some moneyновац for sure.
288
668000
3000
Druga opcija je sigurna. Sigurno ćete dobiti nešto novca.
11:26
I'm just going to give you 500 bucksдолара.
289
671000
2000
Samo ću vam dati 500 dolara.
11:28
You can stickштап it in your walletnovčanik and use it immediatelyодмах.
290
673000
3000
Možete ih strpati u novčanik i odmah iskoristiti.
11:31
So see what your intuitionинтуиција is here.
291
676000
2000
Da vidimo kako razmišljate.
11:33
MostVećina people actuallyзаправо go with the play-it-safePlay--sigurno optionопција.
292
678000
3000
Većina ljudi se odluči za bezbednu opciju.
11:36
MostVećina people say, why should I be riskyризичан when I can get 1,500 dollarsдолара for sure?
293
681000
3000
Većina kaže, zašto bih rizikovao, kada mogu sigurno da dobijem 1500 dolara?
11:39
This seemsИзгледа like a good betопклада. I'm going to go with that.
294
684000
2000
To zvuči kao dobra opcija, izabraću to.
11:41
You mightМожда say, ehEh, that's not really irrationalирационалан.
295
686000
2000
Možda mislite da to nije baš iracionalno.
11:43
People are a little risk-averserizik averziju. So what?
296
688000
2000
Ljudi se malo boje rizika. Pa šta?
11:45
Well, the "so what?" comesдолази when startпочетак thinkingразмишљање
297
690000
2000
Pa, "pa šta?" nastupa kada počnemo da mislimo
11:47
about the sameисти problemпроблем
298
692000
2000
o istom problemu
11:49
setкомплет up just a little bitмало differentlyдругачије.
299
694000
2000
postavljenom malo drugačije.
11:51
So now imagineзамислити that I give eachсваки and everyсваки one of you
300
696000
2000
Sada zamislite da svakome dam
11:53
2,000 dollarsдолара -- 20 crispKrisp hundredсто dollarдолар billsрачуне.
301
698000
3000
2000 dolara - 20 šuškavih novčanica od 100 dolara.
11:56
Now you can buyкупити doubleдвоструко to stuffствари you were going to get before.
302
701000
2000
Sada možete da kupite duplo više stvari nego pre.
11:58
Think about how you'dти би feel stickingлепљење it in your walletnovčanik.
303
703000
2000
Razmislite kako biste se osećali da ih stavite u novčanik.
12:00
And now imagineзамислити that I have you make anotherдруги choiceизбор
304
705000
2000
I sada zamislite da vam dajem još jedan izbor.
12:02
But this time, it's a little bitмало worseгоре.
305
707000
2000
Ali ovog puta, malo je gore.
12:04
Now, you're going to be decidingодлучујући how you're going to loseизгубити moneyновац,
306
709000
3000
Sada ćete odlučivati kako ćete izgubiti novac,
12:07
but you're going to get the sameисти choiceизбор.
307
712000
2000
ali dobićete isti izbor.
12:09
You can eitherили take a riskyризичан lossгубитак --
308
714000
2000
Možete ili rizično da izgubite -
12:11
so I'll flipфлип a coinкованица. If it comesдолази up headsглаве, you're going to actuallyзаправо loseизгубити a lot.
309
716000
3000
baciću novčić. Ako bude glava, izgubićete mnogo.
12:14
If it comesдолази up tailsрепа, you loseизгубити nothing, you're fine, get to keep the wholeцела thing --
310
719000
3000
Ako bude pismo, ne gubite ništa, sve je ok, sve zadržavate -
12:17
or you could playигра it safeсигурно, whichкоја meansзначи you have to reachдостигнути back into your walletnovčanik
311
722000
3000
ili idete na sigurno, što znači da iz novčanika izvadite
12:20
and give me fiveпет of those $100 billsрачуне, for certainизвестан.
312
725000
3000
i date mi pet tih novčanica od 100$, na sigurno.
12:23
And I'm seeingвиди a lot of furrowedIzbrazdano browsobrve out there.
313
728000
3000
Vidim mnogo podignutih obrva.
12:26
So maybe you're havingимати the sameисти intuitionsинтуиције
314
731000
2000
Možda vam je intuicija ista kao
12:28
as the subjectsпредмети that were actuallyзаправо testedтестирано in this,
315
733000
2000
subjektima koji su testirani u ovome,
12:30
whichкоја is when presentedпредстављен with these optionsОпције,
316
735000
2000
a to je kad su suočeni sa ovim opcijama,
12:32
people don't chooseизаберите to playигра it safeсигурно.
317
737000
2000
ljudi ne biraju da idu na sigurno.
12:34
They actuallyзаправо tendтенденција to go a little riskyризичан.
318
739000
2000
Imaju tendenciju da malo rizikuju.
12:36
The reasonразлог this is irrationalирационалан is that we'veми смо givenдато people in bothи једно и друго situationsситуације
319
741000
3000
Ovo je iracionalno zbog toga što smo ljudima u obe situacije
12:39
the sameисти choiceизбор.
320
744000
2000
dali isti izbor.
12:41
It's a 50/50 shotпуцањ of a thousandхиљада or 2,000,
321
746000
3000
Šansa za 1000 ili 2000$ je 50-50,
12:44
or just 1,500 dollarsдолара with certaintyсигурност.
322
749000
2000
ili samo sigurnih 1500$.
12:46
But people'sљуди intuitionsинтуиције about how much riskризик to take
323
751000
3000
Ali intuicija o tome koliko da se rizikuje
12:49
variesvarira dependingзависно on where they startedпочела with.
324
754000
2000
varira u zavisnosti od početne pozicije.
12:51
So what's going on?
325
756000
2000
Šta se dešava?
12:53
Well, it turnsокреће се out that this seemsИзгледа to be the resultрезултат
326
758000
2000
Pa, ispostavlja se da je to rezultat
12:55
of at leastнајмање two biasesпредрасуде that we have at the psychologicalпсихолошки levelниво.
327
760000
3000
najmanje dve pristrasnosti koje imamo na psihološkom nivou.
12:58
One is that we have a really hardтешко time thinkingразмишљање in absoluteапсолутно termsуслови.
328
763000
3000
Prvo, veoma nam je teško da razmišljamo u terminima apsolutnosti.
13:01
You really have to do work to figureфигура out,
329
766000
2000
Stvarno treba da se potrudite da razumete,
13:03
well, one option'sopcija je a thousandхиљада, 2,000;
330
768000
2000
pa, jedna opcija je hiljadu, 2000;
13:05
one is 1,500.
331
770000
2000
druga je 1500.
13:07
InsteadUmesto toga, we find it very easyлако to think in very relativeу односу termsуслови
332
772000
3000
Umesto toga, veoma nam je lako da mislimo veoma relativno,
13:10
as optionsОпције changeпромена from one time to anotherдруги.
333
775000
3000
kako se opcije menjaju vremenom.
13:13
So we think of things as, "Oh, I'm going to get more," or "Oh, I'm going to get lessмање."
334
778000
3000
Tako razmišljamo, "O, dobiću više" ili "O, dobiću manje".
13:16
This is all well and good, exceptосим that
335
781000
2000
Ovo je sve lepo ali
13:18
changesПромене in differentразличит directionsупутства
336
783000
2000
promene u različitim pravcima
13:20
actuallyзаправо effectефекат whetherда ли је or not we think
337
785000
2000
utiču na to da li mislimo da je
13:22
optionsОпције are good or not.
338
787000
2000
opcija dobra ili nije.
13:24
And this leadsводи to the secondдруго biasсклоност,
339
789000
2000
Ovo dovodi do druge sklonosti,
13:26
whichкоја economistsекономисти have calledпозвани lossгубитак aversionaverziju prema.
340
791000
2000
što ekonomisti zovu averzija prema gubitku.
13:28
The ideaидеја is that we really hateмрзим it when things go into the redцрвена.
341
793000
3000
Ideja je da mrzimo kada stvari uđu u crvenu zonu.
13:31
We really hateмрзим it when we have to loseизгубити out on some moneyновац.
342
796000
2000
Mrzimo kada treba da izgubimo nešto novca.
13:33
And this meansзначи that sometimesпонекад we'llдобро actuallyзаправо
343
798000
2000
To znači da ćemo nekad promeniti
13:35
switchпрекидач our preferencesželjene postavke to avoidизбегавајте this.
344
800000
2000
izbore da bismo to izbegli.
13:37
What you saw in that last scenarioсценарио is that
345
802000
2000
U poslednjem scenariju videli ste
13:39
subjectsпредмети get riskyризичан
346
804000
2000
da su subjekti rizikovali
13:41
because they want the smallмали shotпуцањ that there won'tнеће be any lossгубитак.
347
806000
3000
jer žele malu šansu da neće ništa izgubiti.
13:44
That meansзначи when we're in a riskризик mindsetминдсет --
348
809000
2000
To znači, kad razmišljamo o riziku -
13:46
excuseизговор me, when we're in a lossгубитак mindsetминдсет,
349
811000
2000
pardon, o gubitku,
13:48
we actuallyзаправо becomeпостати more riskyризичан,
350
813000
2000
više rizikujemo,
13:50
whichкоја can actuallyзаправо be really worryingзабрињавајуће.
351
815000
2000
što može biti stvarno zabrinjavajuće.
13:52
These kindsврсте of things playигра out in lots of badлоше waysначини in humansљуди.
352
817000
3000
Ovakve stvari se završavaju na mnoge loše načine po ljude.
13:55
They're why stockакција investorsинвеститори holdдржати ontoна losingгубе stocksАкције longerдуже --
353
820000
3000
Zbog toga brokeri dugo pamte gubitke na berzi -
13:58
because they're evaluatingprocenjivanja them in relativeу односу termsуслови.
354
823000
2000
jer ih procenjuju u relativnim odrednicama.
14:00
They're why people in the housingстановање marketтржиште refusedodbio je to sellпродати theirњихова houseкућа --
355
825000
2000
Zbog toga ljudi nisu želeli da prodaju svoje kuće -
14:02
because they don't want to sellпродати at a lossгубитак.
356
827000
2000
jer ne žele da prodaju po manjoj ceni.
14:04
The questionпитање we were interestedзаинтересован in
357
829000
2000
Zanimalo nas je da li
14:06
is whetherда ли је the monkeysмајмуни showсхов the sameисти biasesпредрасуде.
358
831000
2000
majmuni pokazuju iste sklonosti.
14:08
If we setкомплет up those sameисти scenariosсценарије in our little monkeyмајмун marketтржиште,
359
833000
3000
Ako postavimo iste scenarije u našim majmunskim tržištima,
14:11
would they do the sameисти thing as people?
360
836000
2000
da li će uraditi iste stvari kao ljudi?
14:13
And so this is what we did, we gaveдала the monkeysмајмуни choicesизбори
361
838000
2000
Dali smo majmunima izbore,
14:15
betweenизмеђу guys who were safeсигурно -- they did the sameисти thing everyсваки time --
362
840000
3000
između momaka koji su sigurni - uvek rade istu stvar -
14:18
or guys who were riskyризичан --
363
843000
2000
i momaka koji su rizični -
14:20
they did things differentlyдругачије halfпола the time.
364
845000
2000
svaki put rade nešto drugo.
14:22
And then we gaveдала them optionsОпције that were bonusesбонуси --
365
847000
2000
I onda smo im dali opcije bonusa -
14:24
like you guys did in the first scenarioсценарио --
366
849000
2000
kao vama u prvom scenariju -
14:26
so they actuallyзаправо have a chanceшанса more,
367
851000
2000
tako da imaju još jednu šansu,
14:28
or piecesкомада where they were experiencingдоживљава lossesгубици --
368
853000
3000
ili delove gde očekuju gubitke -
14:31
they actuallyзаправо thought they were going to get more than they really got.
369
856000
2000
mislili su da će dobiti više nego što su stvarno dobili.
14:33
And so this is what this looksизглед like.
370
858000
2000
To izgleda ovako.
14:35
We introducedпредставио the monkeysмајмуни to two newново monkeyмајмун salesmenprodavci.
371
860000
2000
Predstavili smo im dva nova trgovca.
14:37
The guy on the left and right bothи једно и друго startпочетак with one pieceпиеце of grapegrejp,
372
862000
2000
Obojica počinju sa dva grozda,
14:39
so it looksизглед prettyприлично good.
373
864000
2000
tako da ovo izgleda prilično dobro.
14:41
But they're going to give the monkeysмајмуни bonusesбонуси.
374
866000
2000
Ali oni će majmunima dati bonuse.
14:43
The guy on the left is a safeсигурно bonusbonus.
375
868000
2000
Momak s leve strane je siguran bonus.
14:45
All the time, he addsдодаје one, to give the monkeysмајмуни two.
376
870000
3000
Svo vreme, dodaje jedan, da majmunu da dva.
14:48
The guy on the right is actuallyзаправо a riskyризичан bonusbonus.
377
873000
2000
Momak desno je rizični bonus.
14:50
SometimesPonekad the monkeysмајмуни get no bonusbonus -- so this is a bonusbonus of zeroнула.
378
875000
3000
Ponekad majmun ne dobije bonus - to je bonus od nule.
14:53
SometimesPonekad the monkeysмајмуни get two extraекстра.
379
878000
3000
Ponekad majmun dobije dva više.
14:56
For a bigвелики bonusbonus, now they get threeтри.
380
881000
2000
Za veliki bonus, dobije tri.
14:58
But this is the sameисти choiceизбор you guys just facedсуочена.
381
883000
2000
Ali to je isti izbor koji je bio pred vama.
15:00
Do the monkeysмајмуни actuallyзаправо want to playигра it safeсигурно
382
885000
3000
Da li majmuni žele da idu na sigurno
15:03
and then go with the guy who'sко је going to do the sameисти thing on everyсваки trialсуђење,
383
888000
2000
i onda idu kod momka koji uvek radi istu stvar,
15:05
or do they want to be riskyризичан
384
890000
2000
ili žele da rizikuju
15:07
and try to get a riskyризичан, but bigвелики, bonusbonus,
385
892000
2000
i pokušaju da dobiju rizičan, veliki bonus,
15:09
but riskризик the possibilityмогућност of gettingдобијања no bonusbonus.
386
894000
2000
ali i rizikuju da ga ne dobiju.
15:11
People here playedиграо it safeсигурно.
387
896000
2000
Ljudi su ovde išli na sigurno.
15:13
TurnsPretvara out, the monkeysмајмуни playигра it safeсигурно too.
388
898000
2000
Ispostavlja se da i majmuni idu na sigurno.
15:15
QualitativelyKvalitativno and quantitativelyquantitatively,
389
900000
2000
Kvalitativno i kvantitativno,
15:17
they chooseизаберите exactlyбаш тако the sameисти way as people,
390
902000
2000
biraju isti način kao i ljudi,
15:19
when testedтестирано in the sameисти thing.
391
904000
2000
kada se testiraju u istoj stvari.
15:21
You mightМожда say, well, maybe the monkeysмајмуни just don't like riskризик.
392
906000
2000
Možete pomisliti da majmuni ne vole rizik.
15:23
Maybe we should see how they do with lossesгубици.
393
908000
2000
Možda da vidimo kakvi su sa gubitkom.
15:25
And so we ranтрчао a secondдруго versionверзија of this.
394
910000
2000
Sproveli smo drugu verziju ovoga.
15:27
Now, the monkeysмајмуни meetсусрет two guys
395
912000
2000
Sada majmuni upoznaju dva momka
15:29
who aren'tнису givingдавање them bonusesбонуси;
396
914000
2000
koji im ne daju bonuse;
15:31
they're actuallyзаправо givingдавање them lessмање than they expectочекујте.
397
916000
2000
daju im manje nego što oni očekuju.
15:33
So they look like they're startingпочевши out with a bigвелики amountизнос.
398
918000
2000
Izgleda kao da počinju sa velikom sumom.
15:35
These are threeтри grapesgrožđe; the monkey'smajmun really psychedvidovit for this.
399
920000
2000
Evo tri grozda; majmun je baš uzbuđen zbog toga.
15:37
But now they learnучи these guys are going to give them lessмање than they expectочекујте.
400
922000
3000
Ali sada saznaju da će im ovi momci dati manje od očekivanog.
15:40
They guy on the left is a safeсигурно lossгубитак.
401
925000
2000
Momak levo je siguran gubitak.
15:42
EverySvaki singleједно time, he's going to take one of these away
402
927000
3000
Svaki put će skloniti jedan
15:45
and give the monkeysмајмуни just two.
403
930000
2000
i dati majmunima samo dva.
15:47
the guy on the right is the riskyризичан lossгубитак.
404
932000
2000
Momak desno je rizični gubitak.
15:49
SometimesPonekad he givesдаје no lossгубитак, so the monkeysмајмуни are really psychedvidovit,
405
934000
3000
Ponekad nema gubitka, majmuni su veoma uzbuđeni,
15:52
but sometimesпонекад he actuallyзаправо givesдаје a bigвелики lossгубитак,
406
937000
2000
ali ponekad postoji veliki gubitak,
15:54
takingузимајући away two to give the monkeysмајмуни only one.
407
939000
2000
odnosi dva i daje majmunima samo jedan.
15:56
And so what do the monkeysмајмуни do?
408
941000
2000
I šta majmuni rade?
15:58
Again, sameисти choiceизбор; they can playигра it safeсигурно
409
943000
2000
Opet, isti izbor; mogu da idu na sigurno
16:00
for always gettingдобијања two grapesgrožđe everyсваки singleједно time,
410
945000
3000
i da uvek dobijaju dva grozda,
16:03
or they can take a riskyризичан betопклада and chooseизаберите betweenизмеђу one and threeтри.
411
948000
3000
ili da rizikuju i biraju između jednog i tri.
16:06
The remarkableизузетно thing to us is that, when you give monkeysмајмуни this choiceизбор,
412
951000
3000
Izvanredna stvar za nas je, kada date majmunima ovaj izbor,
16:09
they do the sameисти irrationalирационалан thing that people do.
413
954000
2000
oni rade istu iracionalnu stvar kao i ljudi.
16:11
They actuallyзаправо becomeпостати more riskyризичан
414
956000
2000
Više rizikuju u zavisnosti od toga
16:13
dependingзависно on how the experimentersexperimenters startedпочела.
415
958000
3000
kako je eksperiment počeo.
16:16
This is crazyлуд because it suggestsсугерише that the monkeysмајмуни too
416
961000
2000
Ovo je ludo jer nagoveštava da i majmuni
16:18
are evaluatingprocenjivanja things in relativeу односу termsуслови
417
963000
2000
procenjuju stvari relativno
16:20
and actuallyзаправо treatingлечење lossesгубици differentlyдругачије than they treatлијечити gainsдобитке.
418
965000
3000
i drugačije tretiraju gubitke od dobitaka.
16:23
So what does all of this mean?
419
968000
2000
I šta sve ovo znači?
16:25
Well, what we'veми смо shownпоказано is that, first of all,
420
970000
2000
Pa, prvo, pokazali smo da
16:27
we can actuallyзаправо give the monkeysмајмуни a financialфинансијски currencyvaluta,
421
972000
2000
možemo majmunima dati valutu
16:29
and they do very similarслично things with it.
422
974000
2000
i oni s njom čine vrlo slične stvari.
16:31
They do some of the smartпаметан things we do,
423
976000
2000
Rade neke pametne stvari kao mi,
16:33
some of the kindкинд of not so niceлеп things we do,
424
978000
2000
neke ne tako lepe stvari,
16:35
like stealукради it and so on.
425
980000
2000
kao što je krađa i slično.
16:37
But they alsoтакође do some of the irrationalирационалан things we do.
426
982000
2000
Ali takođe rade i neke iracionalne stvari kao mi.
16:39
They systematicallysistematski get things wrongпогрешно
427
984000
2000
Sistematično greše
16:41
and in the sameисти waysначини that we do.
428
986000
2000
i to na iste načine kao mi.
16:43
This is the first take-homeпонеси кући messageпорука of the Talk,
429
988000
2000
Prva poruka iz ovog govora koju želim da ponesete
16:45
whichкоја is that if you saw the beginningпочетак of this and you thought,
430
990000
2000
je ako ste videli početak ovoga i pomislili,
16:47
oh, I'm totallyтотално going to go home and hireнајам a capuchinkapucin monkeyмајмун financialфинансијски advisersavetnik.
431
992000
2000
o, definitivno idem kući i zaposliću kapucin majmuna za finansijskog savetnika.
16:49
They're way cuterslađi than the one at ... you know --
432
994000
2000
Mnogo su slađi od onih ... znate -
16:51
Don't do that; they're probablyвероватно going to be just as dumbглуп
433
996000
2000
Nemojte to da radite; biće verovatno jednako glupi
16:53
as the humanљудско one you alreadyвећ have.
434
998000
3000
kao ljudi koje već imate.
16:56
So, you know, a little badлоше -- Sorry, sorry, sorry.
435
1001000
2000
Znate, pomalo loše - izvinite, izvinite, izvinite.
16:58
A little badлоше for monkeyмајмун investorsинвеститори.
436
1003000
2000
Pomalo loše za majmune investitore.
17:00
But of courseкурс, you know, the reasonразлог you're laughingсмејати се is badлоше for humansљуди too.
437
1005000
3000
Ali naravno, razlog zašto se smejete je loš i za ljude.
17:03
Because we'veми смо answeredодговорио the questionпитање we startedпочела out with.
438
1008000
3000
Jer odgovorili smo na pitanje s kojim smo počeli.
17:06
We wanted to know where these kindsврсте of errorsгрешке cameДошао from.
439
1011000
2000
Želeli smo da znamo odakle potiču ove greške.
17:08
And we startedпочела with the hopeнадати се that maybe we can
440
1013000
2000
I počeli smo sa nadom da ćemo možda moći
17:10
sortврста of tweaktrzaj our financialфинансијски institutionsинституције,
441
1015000
2000
da podesimo naše finansijske institucije,
17:12
tweaktrzaj our technologiesтехнологије to make ourselvesсами better.
442
1017000
3000
da podesimo tehnologije, da bismo bili bolji.
17:15
But what we'veми смо learnучи is that these biasesпредрасуде mightМожда be a deeperдубље partдео of us than that.
443
1020000
3000
Ali naučili smo da su možda ove sklonosti možda dublje od toga.
17:18
In factчињеница, they mightМожда be dueдуе to the very natureприрода
444
1023000
2000
One zapravo mogu biti rezultat prirode
17:20
of our evolutionaryеволуционарни historyисторија.
445
1025000
2000
naše evolucione istorije.
17:22
You know, maybe it's not just humansљуди
446
1027000
2000
Znate, možda nisu samo ljudi
17:24
at the right sideстрана of this chainланац that's dunceyduncey.
447
1029000
2000
na ispravnoj strani ovog lanca luckasti.
17:26
Maybe it's sortврста of dunceyduncey all the way back.
448
1031000
2000
Možda je sve luckasto odavno.
17:28
And this, if we believe the capuchinkapucin monkeyмајмун resultsрезултате,
449
1033000
3000
A to, ako verujemo rezultatima kapucin majmuna,
17:31
meansзначи that these dunceyduncey strategiesстратегије
450
1036000
2000
znači da su te luckaste strategije
17:33
mightМожда be 35 millionмилиона yearsгодине oldстари.
451
1038000
2000
možda stare 35 miliona godina.
17:35
That's a long time for a strategyстратегија
452
1040000
2000
To je mnogo vremena da bi se
17:37
to potentiallyпотенцијално get changedпромењено around -- really, really oldстари.
453
1042000
3000
neka strategija promenila - veoma, veoma stara.
17:40
What do we know about other oldстари strategiesстратегије like this?
454
1045000
2000
Šta znamo o drugim starim strategijama poput ove?
17:42
Well, one thing we know is that they tendтенденција to be really hardтешко to overcomeпревладали.
455
1047000
3000
Pa, znamo da je veoma teško prevazići ih.
17:45
You know, think of our evolutionaryеволуционарни predilectionпредилецтион
456
1050000
2000
Znate, pomislite na našu evolutivnu predispoziciju
17:47
for eatingјести sweetслатко things, fattyDebeli things like cheesecakeTorta od sira.
457
1052000
3000
da jedemo slatke stvari koje goje, kao tortu od sira.
17:50
You can't just shutзатворите that off.
458
1055000
2000
Ne možete to ignorisati.
17:52
You can't just look at the dessertdesert cartцарт as say, "No, no, no. That looksизглед disgustingодвратан to me."
459
1057000
3000
Ne možete gledati kolica sa dezertima i reći, "Ne, ne, ne. To mi izgleda odvratno."
17:55
We're just builtизграђен differentlyдругачије.
460
1060000
2000
Drugačije smo napravljeni.
17:57
We're going to perceivedoživljavaju it as a good thing to go after.
461
1062000
2000
Videćemo to kao dobru stvar koju treba uzeti.
17:59
My guessпретпостављам is that the sameисти thing is going to be trueистина
462
1064000
2000
Pretpostavljam da isto važi i
18:01
when humansљуди are perceivinguočavanje
463
1066000
2000
kada ljudi opažaju
18:03
differentразличит financialфинансијски decisionsОдлуке.
464
1068000
2000
različite finansijske odluke.
18:05
When you're watchingгледа your stocksАкције plummetvisak into the redцрвена,
465
1070000
2000
Kada gledate kako vam akcije tonu u crvenu zonu,
18:07
when you're watchingгледа your houseкућа priceЦена go down,
466
1072000
2000
kada vam cena kuće pada,
18:09
you're not going to be ableу могуцности to see that
467
1074000
2000
nećete moći to da vidite
18:11
in anything but oldстари evolutionaryеволуционарни termsуслови.
468
1076000
2000
drugačije nego u starim evolutivnim terminima.
18:13
This meansзначи that the biasesпредрасуде
469
1078000
2000
To znači da će biti veoma teško
18:15
that leadолово investorsинвеститори to do badlyлоше,
470
1080000
2000
prevazići sklonosti koje navode
18:17
that leadолово to the foreclosurehipotekom crisisкриза
471
1082000
2000
investitore da rade loše
18:19
are going to be really hardтешко to overcomeпревладали.
472
1084000
2000
i koje dovode do hipotekarne krize.
18:21
So that's the badлоше newsвести. The questionпитање is: is there any good newsвести?
473
1086000
2000
To su loše vesti. Pitanje je: ima li dobrih vesti?
18:23
I'm supposedпретпостављено to be up here tellingговорећи you the good newsвести.
474
1088000
2000
Trebalo bi da vam ovde govorim dobre vesti.
18:25
Well, the good newsвести, I think,
475
1090000
2000
Pa, mislim da sam dobre
18:27
is what I startedпочела with at the beginningпочетак of the Talk,
476
1092000
2000
vesti dala na početku govora,
18:29
whichкоја is that humansљуди are not only smartпаметан;
477
1094000
2000
a to je da ljudi nisu samo pametni;
18:31
we're really inspirationallyinspirationally smartпаметан
478
1096000
2000
mi smo inspirativno pametni
18:33
to the restодмор of the animalsЖивотиње in the biologicalбиолошки kingdomКраљевство.
479
1098000
3000
ostalim životinjama iz biološkog kraljevstva.
18:36
We're so good at overcomingprevazilaženje our biologicalбиолошки limitationsограничења --
480
1101000
3000
Dobri smo u prevazilaženju svojih bioloških ograničenja -
18:39
you know, I flewполетела over here in an airplaneавион.
481
1104000
2000
znate, doletela sam ovamo avionom.
18:41
I didn't have to try to flapфлап my wingsкрила.
482
1106000
2000
Nisam morala da probam da mlatim krilima.
18:43
I'm wearingноси contactконтакт lensesсочива now so that I can see all of you.
483
1108000
3000
Nosim kontaktna sočiva da bih vas videla.
18:46
I don't have to relyослонити on my ownвластити near-sightednessnear-sightedness.
484
1111000
3000
Ne moram da se oslanjam na svoju kratkovidost.
18:49
We actuallyзаправо have all of these casesслучајева
485
1114000
2000
Ima mnogo slučajeva
18:51
where we overcomeпревладали our biologicalбиолошки limitationsограничења
486
1116000
3000
gde prevazilazimo naša biološka ograničenja
18:54
throughкроз technologyтехнологија and other meansзначи, seeminglyнаизглед prettyприлично easilyлако.
487
1119000
3000
tehnologijom i drugim sredstvima, naizgled prilično jednostavno.
18:57
But we have to recognizeпрепознати that we have those limitationsограничења.
488
1122000
3000
Ali moramo da prepoznamo da imamo ta ograničenja.
19:00
And here'sево the rubTrljaj.
489
1125000
2000
A evo prepreke.
19:02
It was CamusKami who onceједном said that, "Man is the only speciesврсте
490
1127000
2000
Kami je jednom rekao da je "Čovek jedina vrsta
19:04
who refusesodbija to be what he really is."
491
1129000
3000
koja odbija da bude ono što stvarno jeste".
19:07
But the ironyиронија is that
492
1132000
2000
Ali ironija je da
19:09
it mightМожда only be in recognizingпрепознаје our limitationsограничења
493
1134000
2000
možda samo prepoznavanjem naših ograničenja
19:11
that we can really actuallyзаправо overcomeпревладали them.
494
1136000
2000
mi možemo da ih stvarno prevaziđemo.
19:13
The hopeнадати се is that you all will think about your limitationsограничења,
495
1138000
3000
Nada je u tome da ćete svi razmisliti o svojim ograničenjima,
19:16
not necessarilyнужно as unovercomableunovercomable,
496
1141000
3000
ne kao o nepremostivim,
19:19
but to recognizeпрепознати them, acceptприхватити them
497
1144000
2000
ali prepoznati ih, prihvatiti ih,
19:21
and then use the worldсвет of designдизајн to actuallyзаправо figureфигура them out.
498
1146000
3000
i onda iskoristiti sve da ih shvatite.
19:24
That mightМожда be the only way that we will really be ableу могуцности
499
1149000
3000
To je možda jedini način
19:27
to achieveпостићи our ownвластити humanљудско potentialпотенцијал
500
1152000
2000
da dostignemo svoj ljudski potencijal
19:29
and really be the nobleплеменито speciesврсте we hopeнадати се to all be.
501
1154000
3000
i stvarno budemo plemenita vrsta kako se nadamo.
19:32
Thank you.
502
1157000
2000
Hvala vam.
19:34
(ApplauseAplauz)
503
1159000
5000
(aplauz)
Translated by Ivana Korom
Reviewed by Sandra Gojic

▲Back to top

ABOUT THE SPEAKER
Laurie Santos - Cognitive psychologist
Laurie Santos studies primate psychology and monkeynomics -- testing problems in human psychology on primates, who (not so surprisingly) have many of the same predictable irrationalities we do.

Why you should listen

Laurie Santos runs the Comparative Cognition Laboratory (CapLab) at Yale, where she and collaborators across departments (from psychology to primatology to neurobiology) explore the evolutionary origins of the human mind by studying lemurs, capuchin monkeys and other primates. The twist: Santos looks not only for positive humanlike traits, like tool-using and altruism, but irrational ones, like biased decisionmaking.

In elegant, carefully constructed experiments, Santos and CapLab have studied how primates understand and categorize objects in the physical world -- for instance, that monkeys understand an object is still whole even when part of it is obscured. Going deeper, their experiments also search for clues that primates possess a theory of mind -- an ability to think about what other people think.

Most recently, the lab has been looking at behaviors that were once the province mainly of novelists: jealousy, frustration, judgment of others' intentions, poor economic choices. In one experiment, Santos and her team taught monkeys to use a form of money, tradeable for food. When certain foods became cheaper, monkeys would, like humans, overbuy. As we humans search for clues to our own irrational behaviors, Santos' research suggests that the source of our genius for bad decisions might be our monkey brains.

More profile about the speaker
Laurie Santos | Speaker | TED.com