ABOUT THE SPEAKER
Laurie Santos - Cognitive psychologist
Laurie Santos studies primate psychology and monkeynomics -- testing problems in human psychology on primates, who (not so surprisingly) have many of the same predictable irrationalities we do.

Why you should listen

Laurie Santos runs the Comparative Cognition Laboratory (CapLab) at Yale, where she and collaborators across departments (from psychology to primatology to neurobiology) explore the evolutionary origins of the human mind by studying lemurs, capuchin monkeys and other primates. The twist: Santos looks not only for positive humanlike traits, like tool-using and altruism, but irrational ones, like biased decisionmaking.

In elegant, carefully constructed experiments, Santos and CapLab have studied how primates understand and categorize objects in the physical world -- for instance, that monkeys understand an object is still whole even when part of it is obscured. Going deeper, their experiments also search for clues that primates possess a theory of mind -- an ability to think about what other people think.

Most recently, the lab has been looking at behaviors that were once the province mainly of novelists: jealousy, frustration, judgment of others' intentions, poor economic choices. In one experiment, Santos and her team taught monkeys to use a form of money, tradeable for food. When certain foods became cheaper, monkeys would, like humans, overbuy. As we humans search for clues to our own irrational behaviors, Santos' research suggests that the source of our genius for bad decisions might be our monkey brains.

More profile about the speaker
Laurie Santos | Speaker | TED.com
TEDGlobal 2010

Laurie Santos: A monkey economy as irrational as ours

Laurie Santos: Ekonomija primata, iracionalna kao naša

Filmed:
1,506,660 views

Laurie Santos traži korijen ljudske iracionalnosti promatrajući kako naši rođaci primati donose odluke. Pametan slijed eksperimenata u "ekonomiji primata" pokazuje kako neke bedaste odluke koje donosimo, donose i majmuni.
- Cognitive psychologist
Laurie Santos studies primate psychology and monkeynomics -- testing problems in human psychology on primates, who (not so surprisingly) have many of the same predictable irrationalities we do. Full bio

Double-click the English transcript below to play the video.

00:17
I want to startpočetak my talk todaydanas with two observationszapažanja
0
2000
2000
Započet ću govor s dva opažanja
00:19
about the humanljudski speciesvrsta.
1
4000
2000
o ljudskoj rasi.
00:21
The first observationzapažanje is something that you mightmoć think is quitedosta obviousočigledan,
2
6000
3000
Prvo opažanje je nešto što ćete misliti da je očito,
00:24
and that's that our speciesvrsta, HomoHomo sapienssapiensa,
3
9000
2000
a govori o tome kako je naša vrsta Homo sapiens
00:26
is actuallyzapravo really, really smartpametan --
4
11000
2000
vrlo vrlo pametna –
00:28
like, ridiculouslysmiješno smartpametan --
5
13000
2000
smiješno pametna –
00:30
like you're all doing things
6
15000
2000
svi radite stvari
00:32
that no other speciesvrsta on the planetplaneta does right now.
7
17000
3000
koje druge vrste na ovom planetu ne rade.
00:35
And this is, of coursenaravno,
8
20000
2000
A ovo sigurno
00:37
not the first time you've probablyvjerojatno recognizedpriznat this.
9
22000
2000
niste prvi put spoznali.
00:39
Of coursenaravno, in additiondodatak to beingbiće smartpametan, we're alsotakođer an extremelykrajnje vainuzalud speciesvrsta.
10
24000
3000
Uz to što smo pametni, također smo i jako tašti.
00:42
So we like pointingpokazuje out the factčinjenica that we're smartpametan.
11
27000
3000
Volimo ukazivati na činjenicu da smo jako pametni.
00:45
You know, so I could turnskretanje to prettyprilično much any sageKadulja
12
30000
2000
Mogu pokazati bilo koju sagu od
00:47
from ShakespeareShakespeare to StephenStjepan ColbertColbert
13
32000
2000
Shakespearea do Stephena Colberta
00:49
to pointtočka out things like the factčinjenica that
14
34000
2000
i ukazati stvari poput činjenice da
00:51
we're nobleplemenite in reasonrazlog and infinitebeskonačan in facultiesfakulteti
15
36000
2000
smo plemeniti u razumu i neograničenih sposobnosti
00:53
and just kindljubazan of awesome-erOdlično-er than anything elsedrugo on the planetplaneta
16
38000
2000
i da smo fenomenalniji od svega na planetu
00:55
when it comesdolazi to all things cerebralcerebralne.
17
40000
3000
kada su u pitanju sve moždane stvari.
00:58
But of coursenaravno, there's a seconddrugi observationzapažanje about the humanljudski speciesvrsta
18
43000
2000
Naravno, postoji drugo opažanje o ljudskoj rasi
01:00
that I want to focusfokus on a little bitbit more,
19
45000
2000
na kojeg bi se više usredotočila,
01:02
and that's the factčinjenica that
20
47000
2000
i činjenica je,
01:04
even thoughiako we're actuallyzapravo really smartpametan, sometimesponekad uniquelyjedinstveno smartpametan,
21
49000
3000
iako smo zapravo jako pametni, nekada jedinstveno pametni,
01:07
we can alsotakođer be incrediblynevjerojatno, incrediblynevjerojatno dumbglup
22
52000
3000
možemo biti i nevjerojatno, nevjerojatno glupi
01:10
when it comesdolazi to some aspectsaspekti of our decisionodluka makingizrađivanje.
23
55000
3000
u nekim aspektima donošenja odluka.
01:13
Now I'm seeingvidim lots of smirkssmejuljenje out there.
24
58000
2000
Vidim mnogo zlobnih smješkanja.
01:15
Don't worrybrinuti, I'm not going to call anyonebilo tko in particularposebno out
25
60000
2000
Ne brinite, neću prozvati nikoga posebno
01:17
on any aspectsaspekti of your ownvlastiti mistakesgreške.
26
62000
2000
zbog bilo kojeg aspekta vaših vlastitih grešaka.
01:19
But of coursenaravno, just in the last two yearsgodina
27
64000
2000
Naravno, u protekle dvije godine
01:21
we see these unprecedentedbez presedana examplesprimjeri of humanljudski ineptitudenesposobnost.
28
66000
3000
vidjeli smo ove presedanske primjere ljudske nesposobnosti.
01:24
And we'veimamo watchedgledao as the toolsalat we uniquelyjedinstveno make
29
69000
3000
Gledamo kako alati koje jedinstveno koristimo kako bismo
01:27
to pullVuci the resourcesresursi out of our environmentokolina
30
72000
2000
izvukli sredstva iz našeg okoliša,
01:29
kindljubazan of just blowudarac up in our facelice.
31
74000
2000
eksplodiraju nama u lice.
01:31
We'veMoramo watchedgledao the financialfinancijska marketstržišta that we uniquelyjedinstveno createstvoriti --
32
76000
2000
Gledali smo financijska tržišta koje stvaramo –
01:33
these marketstržišta that were supposedtrebala to be foolproofbez rizika --
33
78000
3000
tržišta koja bi trebala biti sigurna –
01:36
we'veimamo watchedgledao them kindljubazan of collapsekolaps before our eyesoči.
34
81000
2000
gledali smo kako nam se ruše pred očima.
01:38
But bothoba of these two embarrassingneugodno examplesprimjeri, I think,
35
83000
2000
Za oba ova sramotna primjera, mislim,
01:40
don't highlightistaknuti what I think is mostnajviše embarrassingneugodno
36
85000
3000
ono što mislim je najsramotnije
01:43
about the mistakesgreške that humansljudi make,
37
88000
2000
o pogrešci koju ljudi čine
01:45
whichkoji is that we'dmi bismo like to think that the mistakesgreške we make
38
90000
3000
a to je da želimo misliti da su pogreške koje učinimo
01:48
are really just the resultproizlaziti of a couplepar badloše applesjabuke
39
93000
2000
samo rezultat nekoliko loših jabuka
01:50
or a couplepar really sortvrsta of FAILNE Blog-worthyBlog-dostojan decisionsodluke.
40
95000
3000
ili nekoliko loših odluka dostojnih blogova.
01:53
But it turnsokreti out, what socialsocijalni scientistsznanstvenici are actuallyzapravo learningučenje
41
98000
3000
Ispada da ono što socijalni znanstvenici uče
01:56
is that mostnajviše of us, when put in certainsiguran contextskontekstima,
42
101000
3000
je kako većina nas, kada je stavljena u određeni kontekst,
01:59
will actuallyzapravo make very specificspecifično mistakesgreške.
43
104000
3000
napravit će zapravo specifične pogreške.
02:02
The errorsgreške we make are actuallyzapravo predictablepredvidiv.
44
107000
2000
Greške koje radimo su zapravo predvidljive.
02:04
We make them again and again.
45
109000
2000
Radimo ih opet i opet.
02:06
And they're actuallyzapravo immuneimun to lots of evidencedokaz.
46
111000
2000
Imune su na mnoge dokaze.
02:08
When we get negativenegativan feedbackpovratna veza,
47
113000
2000
Kada dobijemo negativnu kritiku,
02:10
we still, the nextSljedeći time we're facelice with a certainsiguran contextkontekst,
48
115000
3000
još uvijek, idući put kad smo suočeni s određenim kontekstom,
02:13
tendskloni to make the sameisti errorsgreške.
49
118000
2000
radimo iste greške.
02:15
And so this has been a realstvaran puzzlepuzzle to me
50
120000
2000
Ovo je bila prava zagonetka za mene
02:17
as a sortvrsta of scholarznanstvenik of humanljudski naturepriroda.
51
122000
2000
kao učenjaka o ljudskoj prirodi.
02:19
What I'm mostnajviše curiousznatiželjan about is,
52
124000
2000
Najviše sam znatiželjna o tome
02:21
how is a speciesvrsta that's as smartpametan as we are
53
126000
3000
kako je vrsta koja je pametna kao mi,
02:24
capablesposoban of suchtakav badloše
54
129000
2000
sposobna za tako loše
02:26
and suchtakav consistentdosljedan errorsgreške all the time?
55
131000
2000
i tako dosljedne pogreške cijelo vrijeme?
02:28
You know, we're the smartestnajpametniji thing out there, why can't we figurelik this out?
56
133000
3000
Znate, najpametniji smo, zašto ne možemo ovo shvatiti?
02:31
In some senseosjećaj, where do our mistakesgreške really come from?
57
136000
3000
U neku ruku, odakle naše pogreške zapravo dolaze?
02:34
And havingima thought about this a little bitbit, I see a couplepar differentdrugačiji possibilitiesmogućnosti.
58
139000
3000
Razmišljajući o ovome, vidim nekoliko različitih mogućnosti.
02:37
One possibilitymogućnost is, in some senseosjećaj, it's not really our faultgreška.
59
142000
3000
Jedna mogućnost jest, u neku ruku, da nije zapravo naša krivnja.
02:40
Because we're a smartpametan speciesvrsta,
60
145000
2000
Jer smo pametna vrsta,
02:42
we can actuallyzapravo createstvoriti all kindsvrste of environmentsokruženja
61
147000
2000
možemo stvoriti svakakve okoline
02:44
that are supersuper, supersuper complicatedsložen,
62
149000
2000
koje su super, super komplicirane,
02:46
sometimesponekad too complicatedsložen for us to even actuallyzapravo understandrazumjeti,
63
151000
3000
nekada previše komplicirane za nas da bismo shvatili,
02:49
even thoughiako we'veimamo actuallyzapravo createdstvorio them.
64
154000
2000
iako smo ih stvorili.
02:51
We createstvoriti financialfinancijska marketstržišta that are supersuper complexkompleks.
65
156000
2000
Stvaramo financijska tržišta koja su jako komplicirana.
02:53
We createstvoriti mortgagehipoteka termsUvjeti that we can't actuallyzapravo dealdogovor with.
66
158000
3000
Stvaramo uvjete za kredite s kojima se zapravo ne možemo nositi.
02:56
And of coursenaravno, if we are put in environmentsokruženja where we can't dealdogovor with it,
67
161000
3000
Naravno, ako smo stavljeni u okoliš u kojem se ne možemo snaći,
02:59
in some senseosjećaj makesmarke senseosjećaj that we actuallyzapravo
68
164000
2000
u neku ruku je logično da ćemo
03:01
mightmoć messnered certainsiguran things up.
69
166000
2000
pogriješiti u nekim stvarima.
03:03
If this was the casespis, we'dmi bismo have a really easylako solutionriješenje
70
168000
2000
Ako je u tome stvar, imamo jako lagano riješenje
03:05
to the problemproblem of humanljudski errorgreška.
71
170000
2000
za problem ljudske greške.
03:07
We'dMi bi actuallyzapravo just say, okay, let's figurelik out
72
172000
2000
Rekli bismo, ok, hajdemo shvatiti
03:09
the kindsvrste of technologiestehnologije we can't dealdogovor with,
73
174000
2000
vrste tehnologija s kojima se ne znamo nositi,
03:11
the kindsvrste of environmentsokruženja that are badloše --
74
176000
2000
koji su okoliši loši –
03:13
get ridosloboditi of those, designdizajn things better,
75
178000
2000
riješimo se tih, dizajniramo stvari bolje,
03:15
and we should be the nobleplemenite speciesvrsta
76
180000
2000
i bili bismo plemenita vrsta
03:17
that we expectočekivati ourselvessebe to be.
77
182000
2000
za kakvu se smatramo.
03:19
But there's anotherjoš possibilitymogućnost that I find a little bitbit more worryingzabrinjavajući,
78
184000
3000
Ali postoji druga mogućnost koju smatram malo više zabrinjavajućom,
03:22
whichkoji is, maybe it's not our environmentsokruženja that are messedzabrljati up.
79
187000
3000
a to je da možda naši okoliši nisu zeznuti.
03:25
Maybe it's actuallyzapravo us that's designedkonstruiran badlyLoše.
80
190000
3000
Možda smo mi loše dizajnirani.
03:28
This is a hintsavjet that I've gottendobivši
81
193000
2000
Ovo je nagovještaj koji sam dobila
03:30
from watchinggledanje the waysnačine that socialsocijalni scientistsznanstvenici have learnednaučeno about humanljudski errorsgreške.
82
195000
3000
gledajući načine na koje socijalni znanstvenici uče o ljudskim pogreškama.
03:33
And what we see is that people tendskloni to keep makingizrađivanje errorsgreške
83
198000
3000
Vidimo da ljudi i dalje čine greške
03:36
exactlytočno the sameisti way, over and over again.
84
201000
3000
na jednake načine, opet i opet.
03:39
It feelsosjeća like we mightmoć almostskoro just be builtizgrađen
85
204000
2000
Čini se kao da smo možda izgrađeni
03:41
to make errorsgreške in certainsiguran waysnačine.
86
206000
2000
tako da činimo greške na određeni način.
03:43
This is a possibilitymogućnost that I worrybrinuti a little bitbit more about,
87
208000
3000
To je mogućnost oko koje se brinem malo više,
03:46
because, if it's us that's messedzabrljati up,
88
211000
2000
jer, ako smo mi zbrkani,
03:48
it's not actuallyzapravo clearčisto how we go about dealingbavljenje with it.
89
213000
2000
nije baš jasno kako ćemo se nositi s tim.
03:50
We mightmoć just have to acceptprihvatiti the factčinjenica that we're errorgreška pronesklon
90
215000
3000
Morat ćemo prihvatiti činjenicu da smo skloni pogreškama
03:53
and try to designdizajn things around it.
91
218000
2000
i pokušati dizajnirati stvari oko toga.
03:55
So this is the questionpitanje my studentsstudenti and I wanted to get at.
92
220000
3000
Ovo je pitanje koje smo moji studenti i ja htjeli riješiti.
03:58
How can we tell the differencerazlika betweenizmeđu possibilitymogućnost one and possibilitymogućnost two?
93
223000
3000
Kako možemo odrediti razliku između prve i druge mogućnosti?
04:01
What we need is a populationpopulacija
94
226000
2000
Trebamo populaciju
04:03
that's basicallyu osnovi smartpametan, can make lots of decisionsodluke,
95
228000
2000
koja je pametna, može donositi puno odluka,
04:05
but doesn't have accesspristup to any of the systemssustavi we have,
96
230000
2000
ali nema pristupa nijednom sustavu kojeg imamo,
04:07
any of the things that mightmoć messnered us up --
97
232000
2000
bilo kojoj stvari koja nas može zeznuti –
04:09
no humanljudski technologytehnologija, humanljudski cultureKultura,
98
234000
2000
nikava ljudska tehnologija, ljudska kultura,
04:11
maybe even not humanljudski languagejezik.
99
236000
2000
možda čak ni ljudski jezik.
04:13
And so this is why we turnedokrenut to these guys here.
100
238000
2000
Pa smo se okrenuli ovim tipovima ovdje.
04:15
These are one of the guys I work with. This is a brownsmeđ capuchinkapucin monkeymajmun.
101
240000
3000
Ovo je jedan tip s kojim radim. Ovo je smeđi kapucin.
04:18
These guys are NewNovi WorldSvijet primatesprimati,
102
243000
2000
Ovo su primati Novoga svijeta,
04:20
whichkoji meanssredstva they brokerazbio off from the humanljudski branchpodružnica
103
245000
2000
što znači da su prekinuli s ljudskom granom
04:22
about 35 millionmilijuna yearsgodina agoprije.
104
247000
2000
prije 35 milijuna godina.
04:24
This meanssredstva that your great, great, great great, great, great --
105
249000
2000
To znači da je vaša pra pra pra pra pra pra –
04:26
with about fivepet millionmilijuna "greatsvelikana" in there --
106
251000
2000
uz još oko pet milijuna "pra" --
04:28
grandmotherbaka was probablyvjerojatno the sameisti great, great, great, great
107
253000
2000
baka, bila vjerojatno ista pra pra pra pra
04:30
grandmotherbaka with fivepet millionmilijuna "greatsvelikana" in there
108
255000
2000
baka uz još pet milijuna "pra",
04:32
as HollyHolly up here.
109
257000
2000
kao i Hollyina.
04:34
You know, so you can take comfortudobnost in the factčinjenica that this guy up here is a really really distantudaljen,
110
259000
3000
Stoga vam može biti utješna činjenica da je ovaj tip zapravo stvarno daleki,
04:37
but albeitiako evolutionaryevolucioni, relativerođak.
111
262000
2000
iako evolucijski, rođak.
04:39
The good newsvijesti about HollyHolly thoughiako is that
112
264000
2000
Dobre vijesti o Holly su da
04:41
she doesn't actuallyzapravo have the sameisti kindsvrste of technologiestehnologije we do.
113
266000
3000
ona nema iste vrste tehnologije poput nas.
04:44
You know, she's a smartpametan, very cutrez creaturestvorenje, a primateprimat as well,
114
269000
3000
Znate, pametna je, odvojeno biće, primat također,
04:47
but she lacksnema all the stuffstvari we think mightmoć be messingzabrljati us up.
115
272000
2000
ali fale joj sve stvari za koje mislimo da bi nas mogle zeznuti.
04:49
So she's the perfectsavršen testtest casespis.
116
274000
2000
Ona je savršen testni primjerak.
04:51
What if we put HollyHolly into the sameisti contextkontekst as humansljudi?
117
276000
3000
Što ako stavimo Holly u isti kontekst kao ljude?
04:54
Does she make the sameisti mistakesgreške as us?
118
279000
2000
Hoće li učiniti iste greške kao mi?
04:56
Does she not learnnaučiti from them? And so on.
119
281000
2000
Hoće li naučiti iz njih? I tako dalje.
04:58
And so this is the kindljubazan of thing we decidedodlučio to do.
120
283000
2000
Ovo je nešto što smo odlučili napraviti.
05:00
My studentsstudenti and I got very exciteduzbuđen about this a fewnekoliko yearsgodina agoprije.
121
285000
2000
Moji studenti i ja smo bili vrlo uzbuđeni oko toga prije par godina.
05:02
We said, all right, let's, you know, throwbacanje so problemsproblemi at HollyHolly,
122
287000
2000
Rekli smo, u redu, hajdemo, znate, baciti par problema na Holly,
05:04
see if she messeszabrljati these things up.
123
289000
2000
da vidimo hoće li uprskati.
05:06
First problemproblem is just, well, where should we startpočetak?
124
291000
3000
Prvi problem je, gdje da počnemo?
05:09
Because, you know, it's great for us, but badloše for humansljudi.
125
294000
2000
Jer, dobro je za nas, ali loše za ljude.
05:11
We make a lot of mistakesgreške in a lot of differentdrugačiji contextskontekstima.
126
296000
2000
Radimo mnogo grešaka u mnogo različitih konteksta.
05:13
You know, where are we actuallyzapravo going to startpočetak with this?
127
298000
2000
Znate, gdje ćemo zapravo početi s ovim?
05:15
And because we startedpočeo this work around the time of the financialfinancijska collapsekolaps,
128
300000
3000
I pošto smo započeli s ovim radom u vrijeme financijske krize,
05:18
around the time when foreclosuresForeclosures were hittingudaranje the newsvijesti,
129
303000
2000
kada su gubici prava bili glavne vijesti,
05:20
we said, hhmmHhmm, maybe we should
130
305000
2000
rekli smo, hm, možda bismo mogli
05:22
actuallyzapravo startpočetak in the financialfinancijska domaindomena.
131
307000
2000
početi u financijskoj domeni.
05:24
Maybe we should look at monkey'smajmun je economicekonomski decisionsodluke
132
309000
3000
Možda bismo mogli vidjeti donošenje ekonomskih odluka
05:27
and try to see if they do the sameisti kindsvrste of dumbglup things that we do.
133
312000
3000
u majmuna i pokušati vidjeti rade li iste glupe stvari kao i mi.
05:30
Of coursenaravno, that's when we hithit a sortvrsta seconddrugi problemproblem --
134
315000
2000
Naravno, tada smo udarili u drugi problem –
05:32
a little bitbit more methodologicalMetodološka --
135
317000
2000
više metodologijski –
05:34
whichkoji is that, maybe you guys don't know,
136
319000
2000
možda ne znate,
05:36
but monkeysmajmuni don't actuallyzapravo use moneynovac. I know, you haven'tnisu metsastali them.
137
321000
3000
ali majmuni zapravo ne koriste novac. Znam, niste ih upoznali.
05:39
But this is why, you know, they're not in the queuered behindiza you
138
324000
2000
Ali zato, znate, nisu u redu iza vas
05:41
at the grocerytrgovine storedućan or the ATMATM -- you know, they don't do this stuffstvari.
139
326000
3000
u trgovini ili na bankomatu – znate, oni ne rade te stvari.
05:44
So now we facedsuočeni, you know, a little bitbit of a problemproblem here.
140
329000
3000
Sada smo suočeni s malim problemom.
05:47
How are we actuallyzapravo going to askpitati monkeysmajmuni about moneynovac
141
332000
2000
Kako ćemo pitati majmune o novcu
05:49
if they don't actuallyzapravo use it?
142
334000
2000
ako ga oni zapravo ne koriste?
05:51
So we said, well, maybe we should just, actuallyzapravo just sucksisati it up
143
336000
2000
Rekli smo, možda bismo samo
05:53
and teachučiti monkeysmajmuni how to use moneynovac.
144
338000
2000
trebali naučiti majmune kako se koristo novac.
05:55
So that's just what we did.
145
340000
2000
To smo i napravili.
05:57
What you're looking at over here is actuallyzapravo the first unitjedinica that I know of
146
342000
3000
Ovo što gledate ovdje je zapravo prva grupa znanih
06:00
of non-humanneljudska currencyvaluta.
147
345000
2000
ne-ljudskih valuta.
06:02
We weren'tnisu very creativekreativan at the time we startedpočeo these studiesstudije,
148
347000
2000
Nismo bili jako kreativni u to vrijeme kada smo počeli studiju,
06:04
so we just calledzvao it a tokenznak.
149
349000
2000
pa smo ih nazvali žetonima.
06:06
But this is the unitjedinica of currencyvaluta that we'veimamo taughtučio our monkeysmajmuni at YaleYale
150
351000
3000
Ali naše majmune na Yale-u smo naučili
06:09
to actuallyzapravo use with humansljudi,
151
354000
2000
da koriste ovu valutu zajedno s ljudima,
06:11
to actuallyzapravo buykupiti differentdrugačiji pieceskomada of foodhrana.
152
356000
3000
zapravo da kupe različite vrste hrane.
06:14
It doesn't look like much -- in factčinjenica, it isn't like much.
153
359000
2000
Ne izgleda kao puno – zapravo, nije puno.
06:16
Like mostnajviše of our moneynovac, it's just a piecekomad of metalmetal.
154
361000
2000
Kao većina našeg novca, samo je komad metala.
06:18
As those of you who'vekoji su takenpoduzete currenciesvaluta home from your tripputovanje know,
155
363000
3000
Vi koji ste ponijeli valute kući sa nekog putovanja znate,
06:21
oncejednom you get home, it's actuallyzapravo prettyprilično uselessbeskoristan.
156
366000
2000
jednom kad dođete kući, zapravo su beskorisne.
06:23
It was uselessbeskoristan to the monkeysmajmuni at first
157
368000
2000
Bilo je beskorisno i majmunima
06:25
before they realizedshvatio what they could do with it.
158
370000
2000
dok nisu shvatili što mogu s njom.
06:27
When we first gavedali it to them in theirnjihov enclosureskućišta,
159
372000
2000
Kada smo im prvi put dali u njihovom ograđenom prostoru,
06:29
they actuallyzapravo kindljubazan of pickedizabran them up, lookedgledao at them.
160
374000
2000
zapravo su ih podigli i gledali u njih.
06:31
They were these kindljubazan of weirdčudan things.
161
376000
2000
Bile su to nekakve čudne stvari.
06:33
But very quicklybrzo, the monkeysmajmuni realizedshvatio
162
378000
2000
Ali ubrzo, majmuni su shvatili
06:35
that they could actuallyzapravo handruka these tokenstokeni over
163
380000
2000
da mogu dati te žetone
06:37
to differentdrugačiji humansljudi in the lablaboratorija for some foodhrana.
164
382000
3000
različitim ljudima u laboratoriju u zamjenu za hranu.
06:40
And so you see one of our monkeysmajmuni, MaydayPoziv za pomoć, up here doing this.
165
385000
2000
Vidite ovdje jednog našeg majmuna, Maydaya, kako radi to.
06:42
This is A and B are kindljubazan of the pointsbodova where she's sortvrsta of a little bitbit
166
387000
3000
A i B su točke gdje je ona malo
06:45
curiousznatiželjan about these things -- doesn't know.
167
390000
2000
znatiželjna oko tih stvari – ne zna.
06:47
There's this waitingčekanje handruka from a humanljudski experimenterosoba koja vrši eksperimente,
168
392000
2000
Ovdje je ruka ljudskog istraživača koja čeka,
06:49
and MaydayPoziv za pomoć quicklybrzo figuresfigure out, apparentlyočigledno the humanljudski wants this.
169
394000
3000
i Mayday je brzo shvatila, očito čovjek želi to.
06:52
HandsRuke it over, and then getsdobiva some foodhrana.
170
397000
2000
Preda mu žeton i dobije neku hranu.
06:54
It turnsokreti out not just MaydayPoziv za pomoć, all of our monkeysmajmuni get good
171
399000
2000
Ispalo je da ne samo Mayday, već svi su naši majmuni postali dobri
06:56
at tradingtrgovački tokenstokeni with humanljudski salesmanprodavač.
172
401000
2000
u trgovanju žetonima sa ljudskim trgovcima.
06:58
So here'sevo just a quickbrz videovideo of what this looksizgled like.
173
403000
2000
Evo kratki video kako je to izgledalo.
07:00
Here'sOvdje je MaydayPoziv za pomoć. She's going to be tradingtrgovački a tokenznak for some foodhrana
174
405000
3000
Ovo je Mayday. Ona će zamijeniti žeton za hranu
07:03
and waitingčekanje happilySretno and gettinguzimajući her foodhrana.
175
408000
3000
i sretno čekati i dobiti hranu.
07:06
Here'sOvdje je FelixFelix, I think. He's our alphaalfa malemuški; he's a kindljubazan of bigvelika guy.
176
411000
2000
Ovo je Felix. Mislim. On je naš alfa mužjak; dosta je velik.
07:08
But he too waitsčeka patientlystrpljivo, getsdobiva his foodhrana and goeside on.
177
413000
3000
Ali i on čeka strpljivo, dobije hranu i ode.
07:11
So the monkeysmajmuni get really good at this.
178
416000
2000
Majmuni su postali jako dobri u ovome.
07:13
They're surprisinglyiznenađujuče good at this with very little trainingtrening.
179
418000
3000
Iznenađujuće su dobri u ovome sa jako malo treninga.
07:16
We just alloweddopušteno them to pickodabrati this up on theirnjihov ownvlastiti.
180
421000
2000
Dopustili smo im da to pohvataju sami.
07:18
The questionpitanje is: is this anything like humanljudski moneynovac?
181
423000
2000
Pitanje je: je li to slično ljudskom novcu?
07:20
Is this a markettržište at all,
182
425000
2000
Je li to uopće tržište,
07:22
or did we just do a weirdčudan psychologist'spsihologa tricktrik
183
427000
2000
ili smo uradili čudni psihološki trik
07:24
by gettinguzimajući monkeysmajmuni to do something,
184
429000
2000
s tim što smo natjerali majmune da urade nešto,
07:26
looking smartpametan, but not really beingbiće smartpametan.
185
431000
2000
izgledaju pametno, ali da nisu zapravo pametni.
07:28
And so we said, well, what would the monkeysmajmuni spontaneouslyspontano do
186
433000
3000
Rekli smo, što bi majmuni spontano napravili
07:31
if this was really theirnjihov currencyvaluta, if they were really usingkoristeći it like moneynovac?
187
436000
3000
da je ovo njihova valuta, ako bi ju zaista koristili kao novac?
07:34
Well, you mightmoć actuallyzapravo imaginezamisliti them
188
439000
2000
Možete ih zapravo zamisliti kako
07:36
to do all the kindsvrste of smartpametan things
189
441000
2000
rade sve pametne stvari
07:38
that humansljudi do when they startpočetak exchangingrazmjena moneynovac with eachsvaki other.
190
443000
3000
kao i ljudi kada zamjenuju novac međusobno.
07:41
You mightmoć have them startpočetak payingplaćati attentionpažnja to pricecijena,
191
446000
3000
Možda bi počeli opažati cijenu
07:44
payingplaćati attentionpažnja to how much they buykupiti --
192
449000
2000
ili koliko će kupiti -
07:46
sortvrsta of keepingčuvanje trackstaza of theirnjihov monkeymajmun tokenznak, as it were.
193
451000
3000
pratiti gdje je njihov majmunski žeton.
07:49
Do the monkeysmajmuni do anything like this?
194
454000
2000
Rade li majmuni nešto slično tome?
07:51
And so our monkeymajmun marketplacetržište was bornrođen.
195
456000
3000
I tako je rođeno naše tržište za majmune.
07:54
The way this worksdjela is that
196
459000
2000
Način na koji to radi je da
07:56
our monkeysmajmuni normallynormalno liveživjeti in a kindljubazan of bigvelika zooZoološki vrt socialsocijalni enclosureprilog.
197
461000
3000
naši majmuni normalno žive u velikom ograđenom prostoru u zoološkom.
07:59
When they get a hankeringžudnja for some treatstretira,
198
464000
2000
Kada su imali žudnju za nekim poslasticama,
08:01
we actuallyzapravo alloweddopušteno them a way out
199
466000
2000
dopustili smo im da uđu
08:03
into a little smallermanji enclosureprilog where they could enterUnesi the markettržište.
200
468000
2000
u malo manji ograđeni prostor u kojem su mogli ući na tržnicu.
08:05
UponNa enteringulazak the markettržište --
201
470000
2000
Ulazeći na tržište –
08:07
it was actuallyzapravo a much more funzabava markettržište for the monkeysmajmuni than mostnajviše humanljudski marketstržišta
202
472000
2000
bilo je to mnogo zabavnije tržište za majmune nego većina ljudskih tržišta,
08:09
because, as the monkeysmajmuni enteredušao the doorvrata of the markettržište,
203
474000
3000
jer kad su majmuni ušli na tržište,
08:12
a humanljudski would give them a bigvelika walletnovčanik fullpuni of tokenstokeni
204
477000
2000
čovjek bi im dao hrpu žetona
08:14
so they could actuallyzapravo tradetrgovina the tokenstokeni
205
479000
2000
kako bi mogli mijenjati žetone
08:16
with one of these two guys here --
206
481000
2000
sa dva čovjeka tamo –
08:18
two differentdrugačiji possiblemoguće humanljudski salesmenProdavatelji
207
483000
2000
dva različita ljudska trgovca
08:20
that they could actuallyzapravo buykupiti stuffstvari from.
208
485000
2000
od kojih su zapravo mogli kupiti stvari.
08:22
The salesmenProdavatelji were studentsstudenti from my lablaboratorija.
209
487000
2000
Trgovci su bili studenti iz laboratorija.
08:24
They dressedobučen differentlyrazličito; they were differentdrugačiji people.
210
489000
2000
Različito su se obukli; bili su različiti ljudi.
08:26
And over time, they did basicallyu osnovi the sameisti thing
211
491000
3000
Nakon nekog vremena, radili su jednaku stvar
08:29
so the monkeysmajmuni could learnnaučiti, you know,
212
494000
2000
kako bi majmuni mogli naučiti
08:31
who soldprodan what at what pricecijena -- you know, who was reliablepouzdan, who wasn'tnije, and so on.
213
496000
3000
tko je prodao što po kojoj cijeni – znate, tko je bio pouzdan, tko nije, i tako dalje.
08:34
And you can see that eachsvaki of the experimenterseksperimente
214
499000
2000
Možete vidjeti kako je većina istraživača
08:36
is actuallyzapravo holdingdržanje up a little, yellowžuta boja foodhrana dishjelo.
215
501000
3000
držala malu žutu posudu za hranu.
08:39
and that's what the monkeymajmun can for a singlesingl tokenznak.
216
504000
2000
I to je sve što majmun može dobiti za jedan žeton.
08:41
So everything coststroškovi one tokenznak,
217
506000
2000
Sve košta jedan žeton,
08:43
but as you can see, sometimesponekad tokenstokeni buykupiti more than othersdrugi,
218
508000
2000
ali kao što možete vidjeti, nekada neki žetoni kupe mnogo više nego ostali,
08:45
sometimesponekad more grapesgrožđe than othersdrugi.
219
510000
2000
nekada mnogo više zrna grožđa nego ostali.
08:47
So I'll showpokazati you a quickbrz videovideo of what this marketplacetržište actuallyzapravo looksizgled like.
220
512000
3000
Dakle, pokazat ću vam kratak video o tome kako zaista izgleda ovo tržište.
08:50
Here'sOvdje je a monkey-eye-viewmajmun-oka pogled. MonkeysMajmuni are shorterkraće, so it's a little shortkratak.
221
515000
3000
Ovako to vidi majmun. Majmuni su niži, dakle malo je niži.
08:53
But here'sevo HoneyMed.
222
518000
2000
Ali ovdje je Honey.
08:55
She's waitingčekanje for the markettržište to openotvoren a little impatientlys nestrpljenjem.
223
520000
2000
Ona nestrpljivo čeka da se dućan otvori.
08:57
All of a suddennaglo the markettržište opensotvara. Here'sOvdje je her choiceizbor: one grapesgrožđe or two grapesgrožđe.
224
522000
3000
Odjednom, dućan se otvara. Ovo je njen izbor: jedan grozd ili dva grozda.
09:00
You can see HoneyMed, very good markettržište economistekonomista,
225
525000
2000
Možete vidjeti Honey, veoma dobru ekonomisticu tržišta
09:02
goeside with the guy who givesdaje more.
226
527000
3000
sa čovjekom koji daje više.
09:05
She could teachučiti our financialfinancijska adviserssavjetnici a fewnekoliko things or two.
227
530000
2000
Mogla bi naučiti naše financijske savjetnike nekim stvarima.
09:07
So not just HoneyMed,
228
532000
2000
Dakle, ne samo Honey,
09:09
mostnajviše of the monkeysmajmuni wentotišao with guys who had more.
229
534000
3000
nego većina majmuna je otišla s onim koji je imao više.
09:12
MostVećina of the monkeysmajmuni wentotišao with guys who had better foodhrana.
230
537000
2000
Većina majmuna je otišla s onima koji su imali bolju hranu.
09:14
When we introduceduvedena salesprodajni, we saw the monkeysmajmuni paidplaćen attentionpažnja to that.
231
539000
3000
Kad smo predstavili rasprodaje, vidjeli smo da su majmuni obratili pažnju na to.
09:17
They really caredmario about theirnjihov monkeymajmun tokenznak dollardolar.
232
542000
3000
Zaista su pazili na njihove majmunske dolare u obliku žetona.
09:20
The more surprisingiznenađujuće thing was that when we collaboratedsurađivao with economistsekonomisti
233
545000
3000
Iznenađujuće je bilo to što kada smo surađivali sa ekonomistima
09:23
to actuallyzapravo look at the monkeys'majmuni' datapodaci usingkoristeći economicekonomski toolsalat,
234
548000
3000
da zapravo pogledamo podatke koristeći ekonomske alate,
09:26
they basicallyu osnovi matcheduskladiti, not just qualitativelykvalitativno,
235
551000
3000
oni su se zapravo podudarali, ne samo kvalitativno,
09:29
but quantitativelykvantitativno with what we saw
236
554000
2000
već kvantitativno s onim što smo vidjeli
09:31
humansljudi doing in a realstvaran markettržište.
237
556000
2000
da ljudi rade na pravoj tržnici.
09:33
So much so that, if you saw the monkeys'majmuni' numbersbrojevi,
238
558000
2000
Čak toliko da kada ste vidjeli rezultate majmuna,
09:35
you couldn'tne mogu tell whetherda li they camedošao from a monkeymajmun or a humanljudski in the sameisti markettržište.
239
560000
3000
niste mogli reći da li su to rezultati majmuna ili rezultati čovjeka na istom tržištu.
09:38
And what we'dmi bismo really thought we'dmi bismo doneučinio
240
563000
2000
I ono što smo zaista mislili da smo učinili
09:40
is like we'dmi bismo actuallyzapravo introduceduvedena something
241
565000
2000
je to da smo zaista predstavili nešto,
09:42
that, at leastnajmanje for the monkeysmajmuni and us,
242
567000
2000
što barem za majmune i nas,
09:44
worksdjela like a realstvaran financialfinancijska currencyvaluta.
243
569000
2000
izgleda kao prava financijska valuta.
09:46
QuestionPitanje is: do the monkeysmajmuni startpočetak messingzabrljati up in the sameisti waysnačine we do?
244
571000
3000
Pitanje je: da li majmuni počinju brljati na isti način kao i mi?
09:49
Well, we alreadyveć saw anecdotallyAnecdotally a couplepar of signsznakovi that they mightmoć.
245
574000
3000
Pa, već smo vidjeli nekoliko zabavnih primjera koji idu tome u prilog.
09:52
One thing we never saw in the monkeymajmun marketplacetržište
246
577000
2000
Jedna stvar koju nismo nikada vidjeli na majmunskoj tržnici
09:54
was any evidencedokaz of savingušteda --
247
579000
2000
je ta da nema nikakvog dokaza o štednji –
09:56
you know, just like our ownvlastiti speciesvrsta.
248
581000
2000
znate, kao što to radi naša vrsta.
09:58
The monkeysmajmuni enteredušao the markettržište, spentpotrošen theirnjihov entirečitav budgetbudžet
249
583000
2000
Majmuni uđu na tržnicu, potroše sav svoj budžet
10:00
and then wentotišao back to everyonesvatko elsedrugo.
250
585000
2000
i onda se vrate svima ostalima.
10:02
The other thing we alsotakođer spontaneouslyspontano saw,
251
587000
2000
Druga stvar koju smo također spontano vidjeli,
10:04
embarrassinglyposramljeno enoughdovoljno,
252
589000
2000
dovoljno sramotno,
10:06
is spontaneousspontan evidencedokaz of larcenykrađa.
253
591000
2000
je spontani dokaz o razbojništvu.
10:08
The monkeysmajmuni would rip-offparati-off the tokenstokeni at everysvaki availabledostupno opportunityprilika --
254
593000
3000
Majmuni bi otkinuli žetone u svakoj raspoloživoj prilici –
10:11
from eachsvaki other, oftenčesto from us --
255
596000
2000
jedan od drugog, često od nas –
10:13
you know, things we didn't necessarilyobavezno think we were introducinguvođenje,
256
598000
2000
znate, stvari za koje nismo nužno mislili da predstavljamo,
10:15
but things we spontaneouslyspontano saw.
257
600000
2000
ali stvari koje smo spontano vidjeli.
10:17
So we said, this looksizgled badloše.
258
602000
2000
Zatim smo rekli, ovo izgleda loše.
10:19
Can we actuallyzapravo see if the monkeysmajmuni
259
604000
2000
Možemo li zaista vidjeti kako majmuni
10:21
are doing exactlytočno the sameisti dumbglup things as humansljudi do?
260
606000
3000
rade totalno iste glupe stvari kao i ljudi?
10:24
One possibilitymogućnost is just kindljubazan of let
261
609000
2000
Jedna mogućnost je da nekako pustimo
10:26
the monkeymajmun financialfinancijska systemsistem playigrati out,
262
611000
2000
da se majmunski financijski sistem odigra,
10:28
you know, see if they startpočetak callingzvanje us for bailoutspaketi spasa in a fewnekoliko yearsgodina.
263
613000
2000
znate, da vidimo da li bi nas zvali za nekoliko godina da ih izbavimo iz zatvora uz jamčevinu.
10:30
We were a little impatientnestrpljiv so we wanted
264
615000
2000
Bili smo pomalo nestrpljivi pa smo željeli
10:32
to sortvrsta of speedubrzati things up a bitbit.
265
617000
2000
nekako ubrzati stvari.
10:34
So we said, let's actuallyzapravo give the monkeysmajmuni
266
619000
2000
Pa smo rekli, hajdemo zaista dati majmunima
10:36
the sameisti kindsvrste of problemsproblemi
267
621000
2000
istu vrstu problema
10:38
that humansljudi tendskloni to get wrongpogrešno
268
623000
2000
u kojoj ljudi znaju pogriješiti
10:40
in certainsiguran kindsvrste of economicekonomski challengesizazovi,
269
625000
2000
u određenim vrstama ekonomskih izazova
10:42
or certainsiguran kindsvrste of economicekonomski experimentspokusi.
270
627000
2000
ili određenim vrstama ekonomskih eksperimenata.
10:44
And so, sinceod the bestnajbolje way to see how people go wrongpogrešno
271
629000
3000
I tako, s obzirom da je najbolji način da vidimo kako ljudi griješe
10:47
is to actuallyzapravo do it yourselfsami,
272
632000
2000
taj da to zapravo učinite sami,
10:49
I'm going to give you guys a quickbrz experimenteksperiment
273
634000
2000
dat ću vam brzi eksperiment
10:51
to sortvrsta of watch your ownvlastiti financialfinancijska intuitionsintuicije in actionakcijski.
274
636000
2000
kako bi vidjeli vlastite financijske ustanove na djelu.
10:53
So imaginezamisliti that right now
275
638000
2000
Dakle, zamislite da sam upravo sada
10:55
I handedruku eachsvaki and everysvaki one of you
276
640000
2000
svakome od vas dala
10:57
a thousandtisuću U.S. dollarsdolara -- so 10 crispreš hundredstotina dollardolar billsnovčanice.
277
642000
3000
tisuću američkih dolara – dakle 10 svježih novčanica od sto dolara.
11:00
Take these, put it in your walletnovčanik
278
645000
2000
Uzmite ih, stavite u novčanik
11:02
and spendprovesti a seconddrugi thinkingmišljenje about what you're going to do with it.
279
647000
2000
i na sekundu pomislite što ćete učiniti s njima.
11:04
Because it's yourstvoj now; you can buykupiti whateveršto god you want.
280
649000
2000
Zato što je to sada vaše, možete kupiti što god poželite.
11:06
DonateDonirati it, take it, and so on.
281
651000
2000
Donirajte ih, uzmite ih i tako dalje.
11:08
SoundsZvuči great, but you get one more choiceizbor to earnzaraditi a little bitbit more moneynovac.
282
653000
3000
Zvuči odlično, ali dobili ste još jedan izbor da bi zaradili još više novaca.
11:11
And here'sevo your choiceizbor: you can eitherili be riskyrizičan,
283
656000
3000
I evo vašeg izbora: možete riskirati,
11:14
in whichkoji casespis I'm going to flipdrzak one of these monkeymajmun tokenstokeni.
284
659000
2000
a u tom slučaju bacit ću jedan od ovih majmunskih žetona.
11:16
If it comesdolazi up headsglave, you're going to get a thousandtisuću dollarsdolara more.
285
661000
2000
Ako se okrene glava, dobit ćete tisuću dolara više.
11:18
If it comesdolazi up tailspismo, you get nothing.
286
663000
2000
Ako se okrene pismo, nećete dobiti ništa.
11:20
So it's a chanceprilika to get more, but it's prettyprilično riskyrizičan.
287
665000
3000
Dakle, to je šansa da dobijete više, ali je prilično riskantna.
11:23
Your other optionopcija is a bitbit safesef. Your just going to get some moneynovac for sure.
288
668000
3000
Vaša druga opcija je malo sigurnija. Sigurno ćete dobiti nešto novaca.
11:26
I'm just going to give you 500 bucksdolara.
289
671000
2000
Dat ću vam samo 500 dolara.
11:28
You can stickštap it in your walletnovčanik and use it immediatelyodmah.
290
673000
3000
Možete ih pospremiti u novčanik i odmah upotrijebiti.
11:31
So see what your intuitionintuicija is here.
291
676000
2000
Pa vidite kuda vas vodi intuicija.
11:33
MostVećina people actuallyzapravo go with the play-it-safeigra-Internet-sef optionopcija.
292
678000
3000
Većina ljudi zapravo uzme opciju igranja na sigurno.
11:36
MostVećina people say, why should I be riskyrizičan when I can get 1,500 dollarsdolara for sure?
293
681000
3000
Većina ljudi kaže, zašto bih riskirao kad mogu sigurno dobiti 1.500 dolara?
11:39
This seemsčini se like a good betkladiti se. I'm going to go with that.
294
684000
2000
To izgleda kao dobra oklada. Izabrat ću tu.
11:41
You mightmoć say, ehha, that's not really irrationaliracionalan.
295
686000
2000
Mogli biste reći, eh, to nije baš iracionalno.
11:43
People are a little risk-averseaverzija prema riziku. So what?
296
688000
2000
Ljudi nekako nisu skloni riziku. Pa što?
11:45
Well, the "so what?" comesdolazi when startpočetak thinkingmišljenje
297
690000
2000
Pa, to „pa što“ dolazi kad krenemo razmišljati
11:47
about the sameisti problemproblem
298
692000
2000
o istom problemu
11:49
setset up just a little bitbit differentlyrazličito.
299
694000
2000
na malo drugačiji način.
11:51
So now imaginezamisliti that I give eachsvaki and everysvaki one of you
300
696000
2000
Sad zamislite da svakome od vas
11:53
2,000 dollarsdolara -- 20 crispreš hundredstotina dollardolar billsnovčanice.
301
698000
3000
dam 2.000 dolara – 20 svježih novčanica od sto dolara.
11:56
Now you can buykupiti doubledvostruko to stuffstvari you were going to get before.
302
701000
2000
Sada možete kupiti duplo više stvari nego prije.
11:58
Think about how you'dti bi feel stickinglijepljenje it in your walletnovčanik.
303
703000
2000
Razmislite o tome kako bi ih bilo pospremiti u novčanik.
12:00
And now imaginezamisliti that I have you make anotherjoš choiceizbor
304
705000
2000
I sad zamislite kako morate učiniti još jedan izbor.
12:02
But this time, it's a little bitbit worsegore.
305
707000
2000
Ali ovaj put je malo gori.
12:04
Now, you're going to be decidingodlučujući how you're going to loseizgubiti moneynovac,
306
709000
3000
Sada ćete odlučiti kako ćete izgubiti novac,
12:07
but you're going to get the sameisti choiceizbor.
307
712000
2000
ali ćete dobiti isti izbor.
12:09
You can eitherili take a riskyrizičan lossgubitak --
308
714000
2000
Možete ili odabrati riskantan gubitak –
12:11
so I'll flipdrzak a coinnovčić. If it comesdolazi up headsglave, you're going to actuallyzapravo loseizgubiti a lot.
309
716000
3000
bacanje novčića. Ako se okrene glava, zaista ćete mnogo izgubiti.
12:14
If it comesdolazi up tailspismo, you loseizgubiti nothing, you're fine, get to keep the wholečitav thing --
310
719000
3000
Ako se okrene pismo, ne gubite ništa, dobro ste, možete sve zadržati –
12:17
or you could playigrati it safesef, whichkoji meanssredstva you have to reachdohvatiti back into your walletnovčanik
311
722000
3000
ili možete igrati na sigurno, što znači da morate posegnuti u svoj novčanik
12:20
and give me fivepet of those $100 billsnovčanice, for certainsiguran.
312
725000
3000
i svakako mi dati pet tih novčanica od 100 dolara.
12:23
And I'm seeingvidim a lot of furrowedizbrazdana browsobrve out there.
313
728000
3000
I sad vidim ovdje mnogo namrštenih lica.
12:26
So maybe you're havingima the sameisti intuitionsintuicije
314
731000
2000
Dakle, možda imate istu intuiciju
12:28
as the subjectsteme that were actuallyzapravo testedtestiran in this,
315
733000
2000
kao i subjekti koji su zaista bili testirani,
12:30
whichkoji is when presentedpredstavili with these optionsopcije,
316
735000
2000
a to je da kada se iznesu ove opcije,
12:32
people don't chooseizabrati to playigrati it safesef.
317
737000
2000
ljudi ne izaberu igranje na sigurno.
12:34
They actuallyzapravo tendskloni to go a little riskyrizičan.
318
739000
2000
Zapravo imaju tendenciju da idu na rizik.
12:36
The reasonrazlog this is irrationaliracionalan is that we'veimamo givendan people in bothoba situationssituacije
319
741000
3000
Razlog zbog kojeg je ovo iracionalno je taj što smo ljudima u obje situacije
12:39
the sameisti choiceizbor.
320
744000
2000
dali isti izbor.
12:41
It's a 50/50 shotšut of a thousandtisuću or 2,000,
321
746000
3000
To je pola-pola šansa za tisuću ili 2.000,
12:44
or just 1,500 dollarsdolara with certaintysigurnost.
322
749000
2000
ili samo sigurnih 1.500.
12:46
But people'snarodno intuitionsintuicije about how much riskrizik to take
323
751000
3000
Ali ljudska intuicija o tome koliko riskirati
12:49
variesvarira dependingovisno on where they startedpočeo with.
324
754000
2000
ovisi o tome sa koliko su započeli.
12:51
So what's going on?
325
756000
2000
Dakle, što se događa?
12:53
Well, it turnsokreti out that this seemsčini se to be the resultproizlaziti
326
758000
2000
Izgleda da je to rezultat
12:55
of at leastnajmanje two biasespredrasude that we have at the psychologicalpsihološki levelnivo.
327
760000
3000
najmanje dvije predrasude koje imamo na psihološkoj razini.
12:58
One is that we have a really hardteško time thinkingmišljenje in absoluteapsolutan termsUvjeti.
328
763000
3000
Jedna je ta da nam je zaista teško razmišljati o apsolutnom iznosu.
13:01
You really have to do work to figurelik out,
329
766000
2000
Zaista morate raditi da bi shvatili,
13:03
well, one option'sopciju a thousandtisuću, 2,000;
330
768000
2000
pa, jedna opcija je tisuću, 2.000;
13:05
one is 1,500.
331
770000
2000
jedna je 1.500.
13:07
InsteadUmjesto toga, we find it very easylako to think in very relativerođak termsUvjeti
332
772000
3000
Umjesto toga, veoma nam je lako razmišljati u veoma relativnim iznosima
13:10
as optionsopcije changepromijeniti from one time to anotherjoš.
333
775000
3000
kao opcije mijenjanja jednog vremena za drugo.
13:13
So we think of things as, "Oh, I'm going to get more," or "Oh, I'm going to get lessmanje."
334
778000
3000
Dakle, razmišljamo stvari poput ovih, „Oh, dobit ću više“ ili „Oh, dobit ću manje."
13:16
This is all well and good, exceptosim that
335
781000
2000
Sve ovo je dobro i u redu, osim toga
13:18
changespromjene in differentdrugačiji directionssmjerovi
336
783000
2000
što se promjene u različitim smjerovima
13:20
actuallyzapravo effectposljedica whetherda li or not we think
337
785000
2000
zapravo odražavaju na temelju toga da li smatramo
13:22
optionsopcije are good or not.
338
787000
2000
da li su opcije dobre ili loše.
13:24
And this leadsvodi to the seconddrugi biasprednapon,
339
789000
2000
A to vodi do druge predrasude
13:26
whichkoji economistsekonomisti have calledzvao lossgubitak aversionaverzija.
340
791000
2000
koju ekonomisti zovu averzija gubitka.
13:28
The ideaideja is that we really hatemrziti it when things go into the redcrvena.
341
793000
3000
Pomisao je ta da zaista mrzimo kad stvari odu u crveno.
13:31
We really hatemrziti it when we have to loseizgubiti out on some moneynovac.
342
796000
2000
Mi zaista mrzimo kad moramo izgubiti na novcu.
13:33
And this meanssredstva that sometimesponekad we'lldobro actuallyzapravo
343
798000
2000
A to znači da ponekad zaista
13:35
switchprekidač our preferencesosobne postavke to avoidIzbjegavajte this.
344
800000
2000
zamjenimo naše prioritete da bi to izbjegli.
13:37
What you saw in that last scenarioscenario is that
345
802000
2000
Ovo što ste vidjeli u zadnjem scenariju je to
13:39
subjectsteme get riskyrizičan
346
804000
2000
da subjekti idu na rizik
13:41
because they want the smallmali shotšut that there won'tnavika be any lossgubitak.
347
806000
3000
zato što žele imati malu šansu kako neće biti ikakvih gubitaka.
13:44
That meanssredstva when we're in a riskrizik mindsetrazmišljanje --
348
809000
2000
To znači da kada smo u riskantnom stanju uma –
13:46
excuseizgovor me, when we're in a lossgubitak mindsetrazmišljanje,
349
811000
2000
oprostite, kada smo u stanju uma za gubitak,
13:48
we actuallyzapravo becomepostati more riskyrizičan,
350
813000
2000
zapravo postajemo mnogo više skloniji riziku,
13:50
whichkoji can actuallyzapravo be really worryingzabrinjavajući.
351
815000
2000
što zaista može biti zabrinjavajuće.
13:52
These kindsvrste of things playigrati out in lots of badloše waysnačine in humansljudi.
352
817000
3000
Ovakve stvari za ljude na mnogo načina ispadnu loše.
13:55
They're why stockzaliha investorsinvestitori holddržati ontona losinggubljenje stockszalihe longerviše --
353
820000
3000
Eto zašto burzovni ulagači duže drže gubitničke dionice –
13:58
because they're evaluatingvrednovanje them in relativerođak termsUvjeti.
354
823000
2000
zato što ih procjenjuju u relativnim uvjetima.
14:00
They're why people in the housingkućište markettržište refusedodbio to sellprodavati theirnjihov housekuća --
355
825000
2000
Eto zašto ljudi na stambenom tržištu odbijaju prodati svoje kuće –
14:02
because they don't want to sellprodavati at a lossgubitak.
356
827000
2000
zato što ih ne žele prodati s gubitkom.
14:04
The questionpitanje we were interestedzainteresiran in
357
829000
2000
Pitanje koje nas je zanimalo je
14:06
is whetherda li the monkeysmajmuni showpokazati the sameisti biasespredrasude.
358
831000
2000
da li majmuni pokazuju iste predrasude.
14:08
If we setset up those sameisti scenariosscenariji in our little monkeymajmun markettržište,
359
833000
3000
Ako postavimo iste scenarije na našoj maloj majmunskoj tržinici,
14:11
would they do the sameisti thing as people?
360
836000
2000
hoće li učiniti iste stvari kao i ljudi?
14:13
And so this is what we did, we gavedali the monkeysmajmuni choicesizbori
361
838000
2000
I evo što smo učinili, dali smo majmunima izbor
14:15
betweenizmeđu guys who were safesef -- they did the sameisti thing everysvaki time --
362
840000
3000
između tipova koji su sigurni – učinili su istu stvar svaki put –
14:18
or guys who were riskyrizičan --
363
843000
2000
ili tipova koji su riskantni –
14:20
they did things differentlyrazličito halfpola the time.
364
845000
2000
radili su različite stvari pola vremena.
14:22
And then we gavedali them optionsopcije that were bonusesbonusi --
365
847000
2000
I onda smo im dali opcije koje su bile bonusi –
14:24
like you guys did in the first scenarioscenario --
366
849000
2000
kao što ste vi učinili u prvom scenariju –
14:26
so they actuallyzapravo have a chanceprilika more,
367
851000
2000
a oni zapravo imaju šansu više,
14:28
or pieceskomada where they were experiencingdoživljava lossesgubici --
368
853000
3000
ili komadiće u kojima su doživjeli gubitke –
14:31
they actuallyzapravo thought they were going to get more than they really got.
369
856000
2000
oni su zaista mislili da će dobiti više no što su zaista dobili.
14:33
And so this is what this looksizgled like.
370
858000
2000
I evo kako to izgleda.
14:35
We introduceduvedena the monkeysmajmuni to two newnovi monkeymajmun salesmenProdavatelji.
371
860000
2000
Predstavili smo majmunima dva nova majmuna prodavača.
14:37
The guy on the left and right bothoba startpočetak with one piecekomad of grapegrožđa,
372
862000
2000
Tip s lijeva i s desna su počeli s jednim komadom grožđa,
14:39
so it looksizgled prettyprilično good.
373
864000
2000
pa to izgleda relativno dobro.
14:41
But they're going to give the monkeysmajmuni bonusesbonusi.
374
866000
2000
Ali počet će davati bonuse majmunima.
14:43
The guy on the left is a safesef bonusbonus.
375
868000
2000
Tip na lijevoj strani je siguran bonus.
14:45
All the time, he addsdodaje one, to give the monkeysmajmuni two.
376
870000
3000
Svo vrijeme, on dodaje jedan, da bi dao majmunima dva.
14:48
The guy on the right is actuallyzapravo a riskyrizičan bonusbonus.
377
873000
2000
Tip s desne strane je zapravo rizičan bonus.
14:50
SometimesPonekad the monkeysmajmuni get no bonusbonus -- so this is a bonusbonus of zeronula.
378
875000
3000
Ponekad majmuni ne dobiju bonus – dakle ovo je nula bonus.
14:53
SometimesPonekad the monkeysmajmuni get two extraekstra.
379
878000
3000
Ponekad majmuni dobiju dva više.
14:56
For a bigvelika bonusbonus, now they get threetri.
380
881000
2000
Za veliki bonus, sad dobiju tri.
14:58
But this is the sameisti choiceizbor you guys just facedsuočeni.
381
883000
2000
Ali to je isti bonus s kojim ste se vi maloprije suočili.
15:00
Do the monkeysmajmuni actuallyzapravo want to playigrati it safesef
382
885000
3000
Žele li majmuni zapravo igrati na sigurno i
15:03
and then go with the guy who'stko je going to do the sameisti thing on everysvaki trialsuđenje,
383
888000
2000
otići do tipa koji će učiniti istu stvar u svakom iskušenju
15:05
or do they want to be riskyrizičan
384
890000
2000
ili žele ići na rizik
15:07
and try to get a riskyrizičan, but bigvelika, bonusbonus,
385
892000
2000
i pokušati dobiti riskantan, ali veliki bonus
15:09
but riskrizik the possibilitymogućnost of gettinguzimajući no bonusbonus.
386
894000
2000
s time da je šansa da ne dobiju nikakav bonus.
15:11
People here playedigrao it safesef.
387
896000
2000
Ljudi su ovdje igrali na sigurno.
15:13
TurnsPretvara out, the monkeysmajmuni playigrati it safesef too.
388
898000
2000
Ispada da i majmuni također igraju na sigurno.
15:15
QualitativelyKvalitativno and quantitativelykvantitativno,
389
900000
2000
Kvalitativno i kvantitativno,
15:17
they chooseizabrati exactlytočno the sameisti way as people,
390
902000
2000
izabrali su točno isti način kao i ljudi
15:19
when testedtestiran in the sameisti thing.
391
904000
2000
kad ih se testiralo za istu stvar.
15:21
You mightmoć say, well, maybe the monkeysmajmuni just don't like riskrizik.
392
906000
2000
Mogli biste reći, pa možda majmuni jednostavno ne vole rizik.
15:23
Maybe we should see how they do with lossesgubici.
393
908000
2000
Možda bismo trebali vidjeti kako reagiraju s gubicima.
15:25
And so we ranran a seconddrugi versionverzija of this.
394
910000
2000
I onda smo napravili drugu verziju ovog.
15:27
Now, the monkeysmajmuni meetsastati two guys
395
912000
2000
Sada, majmuni upoznaju dva tipa
15:29
who aren'tnisu givingdavanje them bonusesbonusi;
396
914000
2000
koji im ne daju bonuse;
15:31
they're actuallyzapravo givingdavanje them lessmanje than they expectočekivati.
397
916000
2000
zapravo im daju manje no što očekuju.
15:33
So they look like they're startingpolazeći out with a bigvelika amountiznos.
398
918000
2000
Dakle, izgleda kao da počinju s velikom količinom.
15:35
These are threetri grapesgrožđe; the monkey'smajmun je really psychedu komi for this.
399
920000
2000
Ovo su tri grozda.; majmun je zaista uzbuđen zbog ovoga.
15:37
But now they learnnaučiti these guys are going to give them lessmanje than they expectočekivati.
400
922000
3000
Ali sada su naučili da će im ovi tipovi dati manje no što očekuju.
15:40
They guy on the left is a safesef lossgubitak.
401
925000
2000
Tip s lijeve strane je siguran gubitak.
15:42
EverySvaki singlesingl time, he's going to take one of these away
402
927000
3000
Svaki put će jedan uzeti i
15:45
and give the monkeysmajmuni just two.
403
930000
2000
dati majmunima samo dva.
15:47
the guy on the right is the riskyrizičan lossgubitak.
404
932000
2000
Tip s desne strane je riskantan gubitak.
15:49
SometimesPonekad he givesdaje no lossgubitak, so the monkeysmajmuni are really psychedu komi,
405
934000
3000
Ponekad nema gubitka, pa su majmuni zaista uzbuđeni,
15:52
but sometimesponekad he actuallyzapravo givesdaje a bigvelika lossgubitak,
406
937000
2000
ali ponekad zaista napravi veliki gubitak,
15:54
takinguzimanje away two to give the monkeysmajmuni only one.
407
939000
2000
uzimajući dva i dajući majmunima samo jedan.
15:56
And so what do the monkeysmajmuni do?
408
941000
2000
I što majmuni rade?
15:58
Again, sameisti choiceizbor; they can playigrati it safesef
409
943000
2000
Opet, isti izbor; mogu igrati na sigurno
16:00
for always gettinguzimajući two grapesgrožđe everysvaki singlesingl time,
410
945000
3000
dobivajući dva grozda svaki put
16:03
or they can take a riskyrizičan betkladiti se and chooseizabrati betweenizmeđu one and threetri.
411
948000
3000
ili mogu riskirati i birati između jednog i tri.
16:06
The remarkableizvanredan thing to us is that, when you give monkeysmajmuni this choiceizbor,
412
951000
3000
Nevjerojatna činjenica za nas je da kada majmunima date ovaj izbor,
16:09
they do the sameisti irrationaliracionalan thing that people do.
413
954000
2000
oni naprave istu iracionalnu stvar kao i ljudi.
16:11
They actuallyzapravo becomepostati more riskyrizičan
414
956000
2000
Zapravo postanu skloniji riziku
16:13
dependingovisno on how the experimenterseksperimente startedpočeo.
415
958000
3000
ovisno o tome kako su eksperimentatori započeli.
16:16
This is crazylud because it suggestssugerira that the monkeysmajmuni too
416
961000
2000
To je suludo zato što insinuira da i majmuni također
16:18
are evaluatingvrednovanje things in relativerođak termsUvjeti
417
963000
2000
procjenjuju stvari u relativnim uvjetima
16:20
and actuallyzapravo treatingtretiranje lossesgubici differentlyrazličito than they treatliječiti gainsdobici.
418
965000
3000
i zapravo tretiraju gubitke drugačije nego što tretiraju dobitke.
16:23
So what does all of this mean?
419
968000
2000
I što sve ovo znači?
16:25
Well, what we'veimamo shownprikazan is that, first of all,
420
970000
2000
Pa, kao što smo pokazali, prije svega,
16:27
we can actuallyzapravo give the monkeysmajmuni a financialfinancijska currencyvaluta,
421
972000
2000
zaista bismo mogli dati majmunima financijsku valutu
16:29
and they do very similarsličan things with it.
422
974000
2000
i oni bi s time učinili veoma slično.
16:31
They do some of the smartpametan things we do,
423
976000
2000
Rade neke pametne stvari kao i mi,
16:33
some of the kindljubazan of not so nicelijepo things we do,
424
978000
2000
neke ne tako lijepe stvari kao i mi,
16:35
like stealukrasti it and so on.
425
980000
2000
poput krađe i tome slično.
16:37
But they alsotakođer do some of the irrationaliracionalan things we do.
426
982000
2000
Ali oni također rade i neke iracionalne stvari kao i mi.
16:39
They systematicallysustavno get things wrongpogrešno
427
984000
2000
Oni sustavno rade stvari krivo i
16:41
and in the sameisti waysnačine that we do.
428
986000
2000
na isti način kao i mi.
16:43
This is the first take-homeuzmi doma messageporuka of the Talk,
429
988000
2000
Ovo je prva poruka za ponijeti kući s govora,
16:45
whichkoji is that if you saw the beginningpočetak of this and you thought,
430
990000
2000
a to je da ako ste gledali početak i pomislili,
16:47
oh, I'm totallypotpuno going to go home and hirenajam a capuchinkapucin monkeymajmun financialfinancijska advisersavjetnik.
431
992000
2000
oh, totalno ću otići kući i zaposliti majmuna kapucina kao financijskog savjetnika.
16:49
They're way cutersjekač than the one at ... you know --
432
994000
2000
Mnogo su slađi nego oni u... znate –
16:51
Don't do that; they're probablyvjerojatno going to be just as dumbglup
433
996000
2000
Nemojte to učiniti; vjerojatno će biti jednako glup
16:53
as the humanljudski one you alreadyveć have.
434
998000
3000
kao i čovjek kojeg već imate.
16:56
So, you know, a little badloše -- Sorry, sorry, sorry.
435
1001000
2000
Dakle, znate, malo loše – oprostite, oprostite, oprostite.
16:58
A little badloše for monkeymajmun investorsinvestitori.
436
1003000
2000
Malo loše za majmuna ulagača.
17:00
But of coursenaravno, you know, the reasonrazlog you're laughingsmijanje is badloše for humansljudi too.
437
1005000
3000
Ali naravno, znate, razlog zbog kojeg se smijete je također loš i za ljude.
17:03
Because we'veimamo answeredodgovorio the questionpitanje we startedpočeo out with.
438
1008000
3000
Zato što smo odgovorili na pitanje s kojim smo počeli.
17:06
We wanted to know where these kindsvrste of errorsgreške camedošao from.
439
1011000
2000
Željeli smo znati odakle su došle ovakve greške.
17:08
And we startedpočeo with the hopenada that maybe we can
440
1013000
2000
I krenuli smo s nadom da bi možda mogli
17:10
sortvrsta of tweakugađanje our financialfinancijska institutionsinstitucije,
441
1015000
2000
unaprijediti naše financijske ustanove,
17:12
tweakugađanje our technologiestehnologije to make ourselvessebe better.
442
1017000
3000
unaprijediti našu tehnologiju kako bi nam bilo bolje.
17:15
But what we'veimamo learnnaučiti is that these biasespredrasude mightmoć be a deeperdublje partdio of us than that.
443
1020000
3000
Ali ono što smo naučili je to da bi ove predrasude mogle biti dublji dio nas od ovoga.
17:18
In factčinjenica, they mightmoć be dueuslijed to the very naturepriroda
444
1023000
2000
Zapravo, možda su oni nastali tbog same prirode
17:20
of our evolutionaryevolucioni historypovijest.
445
1025000
2000
naše evolucijske povijesti.
17:22
You know, maybe it's not just humansljudi
446
1027000
2000
Znate, možda nisu samo ljudi
17:24
at the right sidestrana of this chainlanac that's dunceyduncey.
447
1029000
2000
na pravoj strani ovog lanca koji je glupav.
17:26
Maybe it's sortvrsta of dunceyduncey all the way back.
448
1031000
2000
Možda je nekako glupo skroz otpočetka.
17:28
And this, if we believe the capuchinkapucin monkeymajmun resultsrezultati,
449
1033000
3000
A ovo, ako vjerujemo rezultatima kapucina,
17:31
meanssredstva that these dunceyduncey strategiesstrategije
450
1036000
2000
znači da bi ove glupave strategije
17:33
mightmoć be 35 millionmilijuna yearsgodina oldstar.
451
1038000
2000
mogle biti stare 35 milijuna godina.
17:35
That's a long time for a strategystrategija
452
1040000
2000
To je puno vremena za strategiju
17:37
to potentiallypotencijalno get changedpromijenjen around -- really, really oldstar.
453
1042000
3000
da se promijeni - stvarno, stvarno puno.
17:40
What do we know about other oldstar strategiesstrategije like this?
454
1045000
2000
Što znamo o ostalim starim strategijama poput ove?
17:42
Well, one thing we know is that they tendskloni to be really hardteško to overcomesavladati.
455
1047000
3000
Pa, jedna stvar koju znamo je da znaju biti zaista teške za savladati.
17:45
You know, think of our evolutionaryevolucioni predilectionpredizbori
456
1050000
2000
Znate, razmislite o našem evolucijskom predizboru
17:47
for eatingjelo sweetslatko things, fattymasne things like cheesecakekolač od sira.
457
1052000
3000
za jedenjem slatkih stvari, onih koje debljaju poput torte od sira.
17:50
You can't just shutzatvoriti that off.
458
1055000
2000
Ne možete to samo tako isključiti.
17:52
You can't just look at the dessertdesert cartkolica as say, "No, no, no. That looksizgled disgustingodvratan to me."
459
1057000
3000
Ne možete samo tako pogledati u košaricu s desertima i reći „Ne, ne, ne. To mi odvratno izgleda.“
17:55
We're just builtizgrađen differentlyrazličito.
460
1060000
2000
Jednostavno smo drugačije napravljeni.
17:57
We're going to perceivedoživljavaju it as a good thing to go after.
461
1062000
2000
Sagledati ćemo to kao dobru stvar.
17:59
My guessnagađati is that the sameisti thing is going to be truepravi
462
1064000
2000
Pretpostavljam da će ista stvar biti istinita
18:01
when humansljudi are perceivingdoživljavanja
463
1066000
2000
kada ljudi sagledavaju
18:03
differentdrugačiji financialfinancijska decisionsodluke.
464
1068000
2000
financijske odluke.
18:05
When you're watchinggledanje your stockszalihe plummetmandata into the redcrvena,
465
1070000
2000
Kada gledate svoje dionice kako prelaze u crveno,
18:07
when you're watchinggledanje your housekuća pricecijena go down,
466
1072000
2000
kada gledate kako vam se spušta cijena kuće,
18:09
you're not going to be ableu stanju to see that
467
1074000
2000
nećete moći biti u stanju to vidjeti
18:11
in anything but oldstar evolutionaryevolucioni termsUvjeti.
468
1076000
2000
nikako drugačije nego u starim evolucijskim terminima.
18:13
This meanssredstva that the biasespredrasude
469
1078000
2000
To znači da predrasude
18:15
that leaddovesti investorsinvestitori to do badlyLoše,
470
1080000
2000
koje vode ulagače da učine nešto loše,
18:17
that leaddovesti to the foreclosureForeclosure crisiskriza
471
1082000
2000
da vode krizu poništenja prava na oslobođenje od hipoteke,
18:19
are going to be really hardteško to overcomesavladati.
472
1084000
2000
to će biti teško nadjačati.
18:21
So that's the badloše newsvijesti. The questionpitanje is: is there any good newsvijesti?
473
1086000
2000
I to su loše vijesti. Pitanje je: ima li uopće dobrih vijesti?
18:23
I'm supposedtrebala to be up here tellingreći you the good newsvijesti.
474
1088000
2000
Trebala bih biti ovdje i govoriti vam dobre vijesti.
18:25
Well, the good newsvijesti, I think,
475
1090000
2000
Pa, dobre vijesti, mislim,
18:27
is what I startedpočeo with at the beginningpočetak of the Talk,
476
1092000
2000
su one s kojima sam počela na početku govora,
18:29
whichkoji is that humansljudi are not only smartpametan;
477
1094000
2000
a to je da ljudi nisu samo pametni;
18:31
we're really inspirationallynadahnuto smartpametan
478
1096000
2000
mi smo zaista nadahnuto pametni
18:33
to the restodmor of the animalsživotinje in the biologicalbiološki kingdomkraljevstvo.
479
1098000
3000
s obzirom na ostale životinje u biološkom carstvu.
18:36
We're so good at overcomingPrevladavanje our biologicalbiološki limitationsograničenja --
480
1101000
3000
Toliko smo dobri u prevladavanju naših bioloških granica –
18:39
you know, I flewletio over here in an airplanezrakoplov.
481
1104000
2000
znate, doletjela sam ovdje zrakoplovom.
18:41
I didn't have to try to flaplepršati my wingskrila.
482
1106000
2000
Nisam trebala pokušati zamahnuti krilima.
18:43
I'm wearingnošenje contactkontakt lensesleće now so that I can see all of you.
483
1108000
3000
Nosim kontaktne leće sada kako bih vas mogla vidjeti.
18:46
I don't have to relyosloniti on my ownvlastiti near-sightednessNear-sightedness.
484
1111000
3000
Ne moram se osloniti na svoju vlastitu kratkovidnost.
18:49
We actuallyzapravo have all of these casesslučajevi
485
1114000
2000
Zapravo imamo mnogo ovakvih primjera
18:51
where we overcomesavladati our biologicalbiološki limitationsograničenja
486
1116000
3000
gdje smo nadvladali naše biološke granice
18:54
throughkroz technologytehnologija and other meanssredstva, seeminglynaizgled prettyprilično easilylako.
487
1119000
3000
kroz tehnologiju i ostalim načinima, naizgled relativno lako.
18:57
But we have to recognizeprepoznati that we have those limitationsograničenja.
488
1122000
3000
Ali moramo prepoznati da imamo te granice.
19:00
And here'sevo the rubtrljati.
489
1125000
2000
I tu je kvaka.
19:02
It was CamusCamus who oncejednom said that, "Man is the only speciesvrsta
490
1127000
2000
Camus je jednom rekao, „Čovjek je jedina vrsta
19:04
who refusesodbija to be what he really is."
491
1129000
3000
koja odbija biti ono što zaista je.“
19:07
But the ironyironija is that
492
1132000
2000
Ali ironija je da bi
19:09
it mightmoć only be in recognizingprepoznavanje our limitationsograničenja
493
1134000
2000
jedino prepoznavanjem naših granica
19:11
that we can really actuallyzapravo overcomesavladati them.
494
1136000
2000
mogli ih zaista nadvladati.
19:13
The hopenada is that you all will think about your limitationsograničenja,
495
1138000
3000
Nada je da ćete svi razmisliti o svojim granicama,
19:16
not necessarilyobavezno as unovercomableunovercomable,
496
1141000
3000
ne nužno kao o nesavladivima,
19:19
but to recognizeprepoznati them, acceptprihvatiti them
497
1144000
2000
ali prepoznati ih, prihvatiti ih
19:21
and then use the worldsvijet of designdizajn to actuallyzapravo figurelik them out.
498
1146000
3000
i onda upotrijebiti svijet dizajna da ih zaista shvatimo.
19:24
That mightmoć be the only way that we will really be ableu stanju
499
1149000
3000
To bi mogao biti jedini način na koji ćemo zaista moći
19:27
to achievepostići our ownvlastiti humanljudski potentialpotencijal
500
1152000
2000
postići vlastiti ljudski potencijal
19:29
and really be the nobleplemenite speciesvrsta we hopenada to all be.
501
1154000
3000
i zaista biti plemenita vrsta kakvom se svi nadamo da jesmo.
19:32
Thank you.
502
1157000
2000
Hvala vam.
19:34
(ApplausePljesak)
503
1159000
5000
(Pljesak)
Translated by Senzos Osijek
Reviewed by Tilen Pigac - EFZG

▲Back to top

ABOUT THE SPEAKER
Laurie Santos - Cognitive psychologist
Laurie Santos studies primate psychology and monkeynomics -- testing problems in human psychology on primates, who (not so surprisingly) have many of the same predictable irrationalities we do.

Why you should listen

Laurie Santos runs the Comparative Cognition Laboratory (CapLab) at Yale, where she and collaborators across departments (from psychology to primatology to neurobiology) explore the evolutionary origins of the human mind by studying lemurs, capuchin monkeys and other primates. The twist: Santos looks not only for positive humanlike traits, like tool-using and altruism, but irrational ones, like biased decisionmaking.

In elegant, carefully constructed experiments, Santos and CapLab have studied how primates understand and categorize objects in the physical world -- for instance, that monkeys understand an object is still whole even when part of it is obscured. Going deeper, their experiments also search for clues that primates possess a theory of mind -- an ability to think about what other people think.

Most recently, the lab has been looking at behaviors that were once the province mainly of novelists: jealousy, frustration, judgment of others' intentions, poor economic choices. In one experiment, Santos and her team taught monkeys to use a form of money, tradeable for food. When certain foods became cheaper, monkeys would, like humans, overbuy. As we humans search for clues to our own irrational behaviors, Santos' research suggests that the source of our genius for bad decisions might be our monkey brains.

More profile about the speaker
Laurie Santos | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee