ABOUT THE SPEAKER
Laurie Santos - Cognitive psychologist
Laurie Santos studies primate psychology and monkeynomics -- testing problems in human psychology on primates, who (not so surprisingly) have many of the same predictable irrationalities we do.

Why you should listen

Laurie Santos runs the Comparative Cognition Laboratory (CapLab) at Yale, where she and collaborators across departments (from psychology to primatology to neurobiology) explore the evolutionary origins of the human mind by studying lemurs, capuchin monkeys and other primates. The twist: Santos looks not only for positive humanlike traits, like tool-using and altruism, but irrational ones, like biased decisionmaking.

In elegant, carefully constructed experiments, Santos and CapLab have studied how primates understand and categorize objects in the physical world -- for instance, that monkeys understand an object is still whole even when part of it is obscured. Going deeper, their experiments also search for clues that primates possess a theory of mind -- an ability to think about what other people think.

Most recently, the lab has been looking at behaviors that were once the province mainly of novelists: jealousy, frustration, judgment of others' intentions, poor economic choices. In one experiment, Santos and her team taught monkeys to use a form of money, tradeable for food. When certain foods became cheaper, monkeys would, like humans, overbuy. As we humans search for clues to our own irrational behaviors, Santos' research suggests that the source of our genius for bad decisions might be our monkey brains.

More profile about the speaker
Laurie Santos | Speaker | TED.com
TEDGlobal 2010

Laurie Santos: A monkey economy as irrational as ours

Laurie Santos: Economia maimuțelor, la fel de irațională ca a noastră

Filmed:
1,506,660 views

Laurie Santos caută rădăcinile iraționalității umane urmărind felul în care rudele noastre, primatele, iau decizii. O serie isteață de experimente în „maimuțonomie” arată că unele dintre alegerile prostești pe care le facem noi, le fac și maimuțele.
- Cognitive psychologist
Laurie Santos studies primate psychology and monkeynomics -- testing problems in human psychology on primates, who (not so surprisingly) have many of the same predictable irrationalities we do. Full bio

Double-click the English transcript below to play the video.

00:17
I want to startstart my talk todayastăzi with two observationsobservații
0
2000
2000
Vreau să încep prezentarea astăzi cu două observații
00:19
about the humanuman speciesspecie.
1
4000
2000
despre specia umană.
00:21
The first observationobservare is something that you mightar putea think is quitedestul de obviousevident,
2
6000
3000
Prima observație este ceva ce ați putea crede că e chiar evident,
00:24
and that's that our speciesspecie, HomoHomo sapienssapiens,
3
9000
2000
anume că specia noastră, Homo Sapiens,
00:26
is actuallyde fapt really, really smartinteligent --
4
11000
2000
este de fapt foarte, foarte deșteaptă –
00:28
like, ridiculouslyridicol smartinteligent --
5
13000
2000
adică, ridicol de deșteaptă –
00:30
like you're all doing things
6
15000
2000
adică toți faceți lucruri
00:32
that no other speciesspecie on the planetplanetă does right now.
7
17000
3000
pe care nicio altă specie de pe planetă nu le mai face acum.
00:35
And this is, of coursecurs,
8
20000
2000
Și asta, bineînțeles,
00:37
not the first time you've probablyprobabil recognizedrecunoscut this.
9
22000
2000
nu este prima dată când probabil v-ați dat seama de asta.
00:39
Of coursecurs, in additionplus to beingfiind smartinteligent, we're alsode asemenea an extremelyextrem vaindegeaba speciesspecie.
10
24000
3000
Firește, pe lângă deșteptăciune, mai avem și extrem de mult orgoliu.
00:42
So we like pointingarătând out the factfapt that we're smartinteligent.
11
27000
3000
Deci ne place să scoatem în evidență că suntem deștepți.
00:45
You know, so I could turnviraj to prettyfrumos much any sagesalvie
12
30000
2000
Știți voi, aș putea să apelez cam la orice on inteligent
00:47
from ShakespeareShakespeare to StephenŞtefan ColbertColbert
13
32000
2000
de la Shakespeare la Stephen Colbert
00:49
to pointpunct out things like the factfapt that
14
34000
2000
pentru a indica lucruri precum faptul că
00:51
we're noblenobil in reasonmotiv and infiniteinfinit in facultiesfacultăți
15
36000
2000
suntem nobili în gândire și nelimitați în înzestrări
00:53
and just kinddrăguț of awesome-erminunat-er than anything elsealtfel on the planetplanetă
16
38000
2000
și parcă un pic mai minunați decât orice altceva de pe planetă
00:55
when it comesvine to all things cerebralcerebrală.
17
40000
3000
când vorbim de toate lucrurile cerebrale.
00:58
But of coursecurs, there's a secondal doilea observationobservare about the humanuman speciesspecie
18
43000
2000
Dar, bineînţeles, există o a doua observaţie despre specia umană
01:00
that I want to focusconcentra on a little bitpic more,
19
45000
2000
pe care vreau să mă concentrez un pic mai mult,
01:02
and that's the factfapt that
20
47000
2000
și aceasta este faptul că
01:04
even thoughdeşi we're actuallyde fapt really smartinteligent, sometimesuneori uniquelyunic smartinteligent,
21
49000
3000
chiar dacă suntem de fapt deștepți, câteodată straniu de deștepți,
01:07
we can alsode asemenea be incrediblyincredibil, incrediblyincredibil dumbprost
22
52000
3000
putem să fim incredibil, incredibil de proști
01:10
when it comesvine to some aspectsaspecte of our decisiondecizie makingluare.
23
55000
3000
când vine vorba de unele aspecte ale luării deciziilor.
01:13
Now I'm seeingvedere lots of smirkssmirks out there.
24
58000
2000
Acum văd multe zâmbete pe-acolo.
01:15
Don't worryface griji, I'm not going to call anyoneoricine in particularspecial out
25
60000
2000
Stați liniștiți, nu o să strig pe nimeni individual
01:17
on any aspectsaspecte of your ownpropriu mistakesgreșeli.
26
62000
2000
în legătură cu aspectele propriilor greșeli.
01:19
But of coursecurs, just in the last two yearsani
27
64000
2000
Dar bineînțeles, numai în ultimii doi ani
01:21
we see these unprecedentedfără precedent examplesexemple of humanuman ineptitudeincompetenţa.
28
66000
3000
vedem aceste exemple nemaiîntâlnite de prostie omenească.
01:24
And we'vene-am watchedvizionat as the toolsunelte we uniquelyunic make
29
69000
3000
Și am văzut cum uneltele pe care doar noi le facem
01:27
to pullTrage the resourcesresurse out of our environmentmediu inconjurator
30
72000
2000
ca să luăm resursele din mediul înconjurător
01:29
kinddrăguț of just blowa sufla up in our facefață.
31
74000
2000
ne cam explodează în față.
01:31
We'veNe-am watchedvizionat the financialfinanciar marketspiețe that we uniquelyunic createcrea --
32
76000
2000
Am urmărit piețele financiare pe care doar noi le creăm –
01:33
these marketspiețe that were supposedpresupus to be foolprooffoarte simplu de manevrat --
33
78000
3000
aceste piețe care ar fi trebuit să fie inofensive –
01:36
we'vene-am watchedvizionat them kinddrăguț of collapsecolaps before our eyesochi.
34
81000
2000
le-am urmărit cum s-au cam prăbușit în fața noastră.
01:38
But bothambii of these two embarrassingjenant examplesexemple, I think,
35
83000
2000
Dar ambele exemple rușinoase, cred,
01:40
don't highlightevidenţia what I think is mostcel mai embarrassingjenant
36
85000
3000
nu evidențiază ce este cel mai rușinos
01:43
about the mistakesgreșeli that humansoameni make,
37
88000
2000
despre greșelile pe care le fac oamenii,
01:45
whichcare is that we'dne-am like to think that the mistakesgreșeli we make
38
90000
3000
și anume că ne-ar plăcea să credem că greșelile noastre
01:48
are really just the resultrezultat of a couplecuplu badrău applesmere
39
93000
2000
sunt doar din cauza câtorva "mere stricate"
01:50
or a couplecuplu really sortfel of FAILNU REUSESC Blog-worthyBlog-demnă decisionsdeciziile.
40
95000
3000
sau a două-trei decizii demne de cascadorii râsului.
01:53
But it turnstransformă out, what socialsocial scientistsoamenii de știință are actuallyde fapt learningînvăţare
41
98000
3000
Dar se pare că ceea ce sociologii află de fapt e că
01:56
is that mostcel mai of us, when put in certainanumit contextscontexte,
42
101000
3000
cei mai mulți dintre noi, puși în anumite contexte,
01:59
will actuallyde fapt make very specificspecific mistakesgreșeli.
43
104000
3000
vor face de fapt greșeli distinctive.
02:02
The errorserori we make are actuallyde fapt predictablepredictibil.
44
107000
2000
Erorile pe care le facem sunt, în realitate, predictibile.
02:04
We make them again and again.
45
109000
2000
Le facem iar și iar.
02:06
And they're actuallyde fapt immuneimun to lots of evidenceevidență.
46
111000
2000
Și chiar sunt imune la o mulțime de dovezi.
02:08
When we get negativenegativ feedbackparere,
47
113000
2000
Când primim reacții negative,
02:10
we still, the nextUrmător → time we're facefață with a certainanumit contextcontext,
48
115000
3000
tot avem tendința de a face aceleași greșeli,
02:13
tendtind to make the samela fel errorserori.
49
118000
2000
data viitoare când suntem într-un anumit context.
02:15
And so this has been a realreal puzzlepuzzle to me
50
120000
2000
Și asta a fost un adevărat puzzle pentru mine
02:17
as a sortfel of scholarsavant of humanuman naturenatură.
51
122000
2000
ca un fel de savant al naturii umane.
02:19
What I'm mostcel mai curiouscurios about is,
52
124000
2000
Lucrul despre care sunt cel mai curioasă este
02:21
how is a speciesspecie that's as smartinteligent as we are
53
126000
3000
cum poate o specie așa inteligentă ca a noastră
02:24
capablecapabil of suchastfel de badrău
54
129000
2000
să facă greșeli atât de grave
02:26
and suchastfel de consistentconsistent errorserori all the time?
55
131000
2000
și atât de consecvente tot timpul?
02:28
You know, we're the smartestdeștept thing out there, why can't we figurefigura this out?
56
133000
3000
Ştiţi, suntem cei mai deștepți de-aici, de ce nu putem să rezolvăm problema asta?
02:31
In some sensesens, where do our mistakesgreșeli really come from?
57
136000
3000
Într-un fel, de unde apar greșelile noastre de fapt?
02:34
And havingavând thought about this a little bitpic, I see a couplecuplu differentdiferit possibilitiesposibilităţi.
58
139000
3000
Și după ce m-am gândit un pic la asta, văd câteva posibilități.
02:37
One possibilityposibilitate is, in some sensesens, it's not really our faultvina.
59
142000
3000
O posibilitate este, într-un fel, că de fapt nu este vina noastră.
02:40
Because we're a smartinteligent speciesspecie,
60
145000
2000
Pentru că suntem o specie isteață,
02:42
we can actuallyde fapt createcrea all kindstipuri of environmentsmedii
61
147000
2000
putem să creăm tot felul de medii
02:44
that are supersuper, supersuper complicatedcomplicat,
62
149000
2000
care sunt super, super complicate,
02:46
sometimesuneori too complicatedcomplicat for us to even actuallyde fapt understanda intelege,
63
151000
3000
uneori prea complicate ca să le înțelegem,
02:49
even thoughdeşi we'vene-am actuallyde fapt createdcreată them.
64
154000
2000
cu toate că noi le-am creat.
02:51
We createcrea financialfinanciar marketspiețe that are supersuper complexcomplex.
65
156000
2000
Facem piețe financiare care sunt super-complexe.
02:53
We createcrea mortgagecredit ipotecar termstermeni that we can't actuallyde fapt dealafacere with.
66
158000
3000
Facem termene ipotecare cu care nu ne descurcăm.
02:56
And of coursecurs, if we are put in environmentsmedii where we can't dealafacere with it,
67
161000
3000
Și, bineînțeles, dacă suntem puși în medii în care nu ne descurcăm,
02:59
in some sensesens makesmărci sensesens that we actuallyde fapt
68
164000
2000
într-un fel e logic că, în realitate
03:01
mightar putea messdezordine certainanumit things up.
69
166000
2000
stricăm unele lucruri.
03:03
If this was the casecaz, we'dne-am have a really easyuşor solutionsoluţie
70
168000
2000
Dacă ar fi fost așa, am fi avut o soluție foarte simplă
03:05
to the problemproblemă of humanuman erroreroare.
71
170000
2000
la problema erorii umane.
03:07
We'dNe-ar actuallyde fapt just say, okay, let's figurefigura out
72
172000
2000
Am fi spus, bine, hai să descoperim
03:09
the kindstipuri of technologiestehnologii we can't dealafacere with,
73
174000
2000
tipurile de tehnologii cu care nu ne descurcăm,
03:11
the kindstipuri of environmentsmedii that are badrău --
74
176000
2000
mediile care sunt dăunătoare –
03:13
get ridscăpa of those, designproiecta things better,
75
178000
2000
scăpăm de astea, proiectăm lucrurile mai bine,
03:15
and we should be the noblenobil speciesspecie
76
180000
2000
și vom fi specia aceea nobilă
03:17
that we expectaştepta ourselvesnoi insine to be.
77
182000
2000
care ne așteptăm să fim.
03:19
But there's anothero alta possibilityposibilitate that I find a little bitpic more worryingîngrijorătoare,
78
184000
3000
Dar mai este o posibilitate, care mi se pare un pic mai îngrijorătoare,
03:22
whichcare is, maybe it's not our environmentsmedii that are messedîncurcătură up.
79
187000
3000
aceea că poate nu mediile înconjurătoare sunt stricate.
03:25
Maybe it's actuallyde fapt us that's designedproiectat badlyprost.
80
190000
3000
Poate chiar noi suntem construiți prost.
03:28
This is a hintaluzie that I've gottenajuns
81
193000
2000
Asta e o idee care mi-a venit
03:30
from watchingvizionarea the waysmoduri that socialsocial scientistsoamenii de știință have learnedînvățat about humanuman errorserori.
82
195000
3000
când am văzut felul în care sociologii au învățat despre erorile umane.
03:33
And what we see is that people tendtind to keep makingluare errorserori
83
198000
3000
Și ce vedem e că oamenii continuă să facă greșeli
03:36
exactlyexact the samela fel way, over and over again.
84
201000
3000
în exact același fel, la nesfârșit.
03:39
It feelsse simte like we mightar putea almostaproape just be builtconstruit
85
204000
2000
Pare ca și cum aproape am fi construiți
03:41
to make errorserori in certainanumit waysmoduri.
86
206000
2000
să facem greșeli în anumite feluri.
03:43
This is a possibilityposibilitate that I worryface griji a little bitpic more about,
87
208000
3000
Aceasta este o posibilitate pentru care îmi fac mai multe griji,
03:46
because, if it's us that's messedîncurcătură up,
88
211000
2000
pentru că, dacă noi suntem cei cu probleme,
03:48
it's not actuallyde fapt clearclar how we go about dealingcare se ocupă with it.
89
213000
2000
nu este clar ce facem ca să le rezolvăm.
03:50
We mightar putea just have to acceptAccept the factfapt that we're erroreroare proneînclinat
90
215000
3000
S-ar putea să trebuiască să acceptăm că suntem înclinați să greșim
03:53
and try to designproiecta things around it.
91
218000
2000
și să încercăm să proiectăm lucruri care să evite asta.
03:55
So this is the questionîntrebare my studentselevi and I wanted to get at.
92
220000
3000
Așadar aceasta este întrebarea la care am vrut să ajungem eu și studenții mei.
03:58
How can we tell the differencediferență betweenîntre possibilityposibilitate one and possibilityposibilitate two?
93
223000
3000
Cum facem diferența între posibilitatea unu și posibilitatea doi?
04:01
What we need is a populationpopulație
94
226000
2000
Avem nevoie de o populație
04:03
that's basicallype scurt smartinteligent, can make lots of decisionsdeciziile,
95
228000
2000
care e în principiu deșteaptă, poate lua multe decizii,
04:05
but doesn't have accessacces to any of the systemssisteme we have,
96
230000
2000
dar nu are acces la niciun sistem pe care îl avem noi,
04:07
any of the things that mightar putea messdezordine us up --
97
232000
2000
oricare dintre lucrurile care ne-ar putea strica –
04:09
no humanuman technologytehnologie, humanuman culturecultură,
98
234000
2000
fără tehnologie umană, cultură umană,
04:11
maybe even not humanuman languagelimba.
99
236000
2000
poate chiar nici limbaj uman.
04:13
And so this is why we turnedîntoarse to these guys here.
100
238000
2000
Și de aceea am apelat la acești tipi.
04:15
These are one of the guys I work with. This is a brownmaro capuchinManta cu glugă monkeymaimuţă.
101
240000
3000
Aceștia sunt indivizii cu care lucrez. Acesta este un capucin maro.
04:18
These guys are NewNoi WorldLumea primatesprimate,
102
243000
2000
Acestea sunt primate platyrrhini,
04:20
whichcare meansmijloace they brokerupt off from the humanuman branchramură
103
245000
2000
ceea ce înseamnă că s-au despărțit de ramura umană
04:22
about 35 millionmilion yearsani agoîn urmă.
104
247000
2000
acum 35 milioane de ani.
04:24
This meansmijloace that your great, great, great great, great, great --
105
249000
2000
Asta înseamnă că stră, stră, stră, stră, stră, stră –
04:26
with about fivecinci millionmilion "greatsmari clasici" in there --
106
251000
2000
cu vreo cinci milioane de "stră" –
04:28
grandmotherbunică was probablyprobabil the samela fel great, great, great, great
107
253000
2000
străbunica voastră a fost probabil aceeași stră, stră, stră, stră
04:30
grandmotherbunică with fivecinci millionmilion "greatsmari clasici" in there
108
255000
2000
străbunică, cu cinci milioane de "stră"
04:32
as HollyHolly up here.
109
257000
2000
ca a lui Holly, cea de aici.
04:34
You know, so you can take comfortconfort in the factfapt that this guy up here is a really really distantîndepărtat,
110
259000
3000
Și, puteți să vă consolați cu ideea că acest individ este o rudă foarte, foarte îndepărtată
04:37
but albeitcu toate că evolutionaryevolutiv, relativerelativ.
111
262000
2000
cu toate că evoluționistă.
04:39
The good newsștiri about HollyHolly thoughdeşi is that
112
264000
2000
Totuși, vestea bună despre Holly este că
04:41
she doesn't actuallyde fapt have the samela fel kindstipuri of technologiestehnologii we do.
113
266000
3000
ea nu are aceleași tehnologii pe care le avem noi.
04:44
You know, she's a smartinteligent, very cuta taia creaturecreatură, a primateprimat as well,
114
269000
3000
Știți, este iteață, o creatură bine croită, și o primată,
04:47
but she lacksîi lipsește all the stuffchestie we think mightar putea be messingMessing us up.
115
272000
2000
dar îi lipsesc toate lucrurile despre care credem că ne dau peste cap.
04:49
So she's the perfectperfect testTest casecaz.
116
274000
2000
Așa că este subiectul perfect de testare.
04:51
What if we put HollyHolly into the samela fel contextcontext as humansoameni?
117
276000
3000
Dar dacă am pune-o pe Holly în același context cu oamenii?
04:54
Does she make the samela fel mistakesgreșeli as us?
118
279000
2000
Va face aceleași greșeli ca și noi?
04:56
Does she not learnînvăța from them? And so on.
119
281000
2000
Nu învață din ele? Ș.a.m.d.
04:58
And so this is the kinddrăguț of thing we decideda decis to do.
120
283000
2000
Așa că acesta e lucrul pe care ne-am hotărât să-l facem.
05:00
My studentselevi and I got very excitedexcitat about this a fewpuțini yearsani agoîn urmă.
121
285000
2000
Eu și studenții mei ne-am entuziasmat foarte tare acum câţiva ani.
05:02
We said, all right, let's, you know, throwarunca so problemsProbleme at HollyHolly,
122
287000
2000
Am zis, bine, să – știți – îi dăm probleme de-astea lui Holly,
05:04
see if she messespopotelor these things up.
123
289000
2000
să vedem dacă dă lucrurile peste cap.
05:06
First problemproblemă is just, well, where should we startstart?
124
291000
3000
Prima problemă este, bine, de unde să începem?
05:09
Because, you know, it's great for us, but badrău for humansoameni.
125
294000
2000
Pentru că, vă dați seama, este minunat pentru noi, dar rău pentru oameni.
05:11
We make a lot of mistakesgreșeli in a lot of differentdiferit contextscontexte.
126
296000
2000
Facem multe greșeli în diverse contexte.
05:13
You know, where are we actuallyde fapt going to startstart with this?
127
298000
2000
Ştiţi, de unde vom începe de fapt?
05:15
And because we starteda început this work around the time of the financialfinanciar collapsecolaps,
128
300000
3000
Și pentru că am început această muncă în perioada începutului crizei financiare,
05:18
around the time when foreclosuresForeclosures were hittinglovind the newsștiri,
129
303000
2000
pe vremea când prescrierile ipotecare ajungeau pe prima pagină,
05:20
we said, hhmmhhmm, maybe we should
130
305000
2000
am zis, hmm, poate ar trebui
05:22
actuallyde fapt startstart in the financialfinanciar domaindomeniu.
131
307000
2000
să începem chiar în domeniul financiar.
05:24
Maybe we should look at monkey'smaimuta pe economiceconomic decisionsdeciziile
132
309000
3000
Poate ar trebui să ne uităm la deciziile economice ale maimuțelor
05:27
and try to see if they do the samela fel kindstipuri of dumbprost things that we do.
133
312000
3000
și să încercăm să vedem dacă și ele fac aceleași prostii ca și noi.
05:30
Of coursecurs, that's when we hitlovit a sortfel secondal doilea problemproblemă --
134
315000
2000
Desigur, atunci am dat de a doua problemă –
05:32
a little bitpic more methodologicalmetodologice --
135
317000
2000
un pic mai metodologică –
05:34
whichcare is that, maybe you guys don't know,
136
319000
2000
aceea că, poate voi nu știți,
05:36
but monkeysmaimuțe don't actuallyde fapt use moneybani. I know, you haven'tnu au metîntâlnit them.
137
321000
3000
dar maimuțele nu folosesc bani. Știu, nu le-ați cunoscut.
05:39
But this is why, you know, they're not in the queuecoadă behindin spate you
138
324000
2000
Dar de aceea, știți, ele nu sunt la coadă în spatele vostru
05:41
at the grocerybăcănie storemagazin or the ATMATM-URI -- you know, they don't do this stuffchestie.
139
326000
3000
la alimentară sau la bancomat – știți voi, ele nu fac asta.
05:44
So now we facedcu care se confruntă, you know, a little bitpic of a problemproblemă here.
140
329000
3000
Așa că acum, vă dați seama, am dat de o altă mică problemă.
05:47
How are we actuallyde fapt going to askcere monkeysmaimuțe about moneybani
141
332000
2000
Cum să le cerem bani maimuțelor
05:49
if they don't actuallyde fapt use it?
142
334000
2000
dacă ele nu îi folosesc?
05:51
So we said, well, maybe we should just, actuallyde fapt just sucka suge it up
143
336000
2000
Și am zis, păi, poate ar trebui să... chiar să tragem aer în piept
05:53
and teacha preda monkeysmaimuțe how to use moneybani.
144
338000
2000
și să le învățăm să folosească banii.
05:55
So that's just what we did.
145
340000
2000
Și asta am și făcut.
05:57
What you're looking at over here is actuallyde fapt the first unitunitate that I know of
146
342000
3000
Ce vedeți aici e de fapt prima unitate monetară ne-omenească
06:00
of non-humannon-uman currencymoneda.
147
345000
2000
despre care știu.
06:02
We weren'tnu au fost very creativecreator at the time we starteda început these studiesstudiu,
148
347000
2000
Nu eram prea creativi când am început aceste studii,
06:04
so we just calleddenumit it a tokentoken-ul.
149
349000
2000
așa că l-am numit jeton.
06:06
But this is the unitunitate of currencymoneda that we'vene-am taughtînvățat our monkeysmaimuțe at YaleYale
150
351000
3000
Dar asta e unitatea monetară pe care le-am învățat pe maimuțele de la Yale
06:09
to actuallyde fapt use with humansoameni,
151
354000
2000
să o folosească cu oamenii,
06:11
to actuallyde fapt buya cumpara differentdiferit piecesbucăți of foodalimente.
152
356000
3000
și, efectiv, să cumpere diverse bucăți de mâncare.
06:14
It doesn't look like much -- in factfapt, it isn't like much.
153
359000
2000
Nu pare mult – de fapt nici nu este mult.
06:16
Like mostcel mai of our moneybani, it's just a piecebucată of metalmetal.
154
361000
2000
La fel ca mulți dintre banii noștri, e doar o bucată de metal.
06:18
As those of you who'vecare au takenluate currenciesvalute home from your tripexcursie know,
155
363000
3000
După cum știți cei care ați luat acasă bani din excursii,
06:21
onceo singura data you get home, it's actuallyde fapt prettyfrumos uselessinutil.
156
366000
2000
odată ce ajungeți acasă, nu prea mai valorează nimic.
06:23
It was uselessinutil to the monkeysmaimuțe at first
157
368000
2000
Era inutilă și pentru maimuțe la început
06:25
before they realizedrealizat what they could do with it.
158
370000
2000
înainte să își dea seama ce pot face cu ea.
06:27
When we first gavea dat it to them in theiral lor enclosurescarcase,
159
372000
2000
Prima dată când le-am dat monede în cuști,
06:29
they actuallyde fapt kinddrăguț of pickedales them up, lookedprivit at them.
160
374000
2000
le-au luat, s-au uitat la ele.
06:31
They were these kinddrăguț of weirdciudat things.
161
376000
2000
Erau ca niște lucruri stranii.
06:33
But very quicklyrepede, the monkeysmaimuțe realizedrealizat
162
378000
2000
Dar destul de repede, maimuțele au înțeles
06:35
that they could actuallyde fapt handmână these tokenstoken-uri over
163
380000
2000
că puteau să predea aceste jetoane
06:37
to differentdiferit humansoameni in the lablaborator for some foodalimente.
164
382000
3000
diverșilor oameni din laborator în schimbul hranei.
06:40
And so you see one of our monkeysmaimuțe, MaydayMayday, up here doing this.
165
385000
2000
Și, vedeți aici una dintre maimuțe, Mayday, făcând asta.
06:42
This is A and B are kinddrăguț of the pointspuncte where she's sortfel of a little bitpic
166
387000
3000
Aici este A și B... sunt puncte în care ea este cumva un pic
06:45
curiouscurios about these things -- doesn't know.
167
390000
2000
curioasă despre aceste lucruri – nu știe.
06:47
There's this waitingaşteptare handmână from a humanuman experimenterexperimentator,
168
392000
2000
Acolo e o mână în așteptare, a unui experimentator uman,
06:49
and MaydayMayday quicklyrepede figurescifrele out, apparentlyaparent the humanuman wants this.
169
394000
3000
și Mayday își dă seama imediat, aparent omul vrea asta.
06:52
HandsMâinile it over, and then getsdevine some foodalimente.
170
397000
2000
Dă jetonul și primește niște mâncare.
06:54
It turnstransformă out not just MaydayMayday, all of our monkeysmaimuțe get good
171
399000
2000
Se pare că nu doar Mayday, ci toate maimuțele se pricep să
06:56
at tradingcomercial tokenstoken-uri with humanuman salesmanvanzator.
172
401000
2000
schimbe jetoane cu un om vânzător.
06:58
So here'saici e just a quickrapid videovideo of what this looksarată like.
173
403000
2000
Și aici este doar un scurt videoclip despre cum arată.
07:00
Here'sAici este MaydayMayday. She's going to be tradingcomercial a tokentoken-ul for some foodalimente
174
405000
3000
Aici este Mayday. Va da un jeton în schimbul mâncării
07:03
and waitingaşteptare happilyfericit and gettingobtinerea her foodalimente.
175
408000
3000
și va aștepta mulțumită și va primi mâncarea.
07:06
Here'sAici este FelixFelix, I think. He's our alphaalfa malemasculin; he's a kinddrăguț of bigmare guy.
176
411000
2000
Aici e Felix, cred. El e masculul nostru alfa; e destul de mare.
07:08
But he too waitsAşteaptă patientlycu răbdare, getsdevine his foodalimente and goesmerge on.
177
413000
3000
Dar și el așteaptă răbdător, își primește mâncarea și continuă.
07:11
So the monkeysmaimuțe get really good at this.
178
416000
2000
Și maimuțele devin foarte pricepute la asta.
07:13
They're surprisinglysurprinzător good at this with very little trainingpregătire.
179
418000
3000
Sunt surprinzător de bune la asta fără prea mult antrenament.
07:16
We just allowedpermis them to pickalege this up on theiral lor ownpropriu.
180
421000
2000
Le-am lăsat să-și dea seama de unele singure.
07:18
The questionîntrebare is: is this anything like humanuman moneybani?
181
423000
2000
Întrebarea este: este la fel ca banii oamenilor?
07:20
Is this a marketpiaţă at all,
182
425000
2000
Este asta o piață,
07:22
or did we just do a weirdciudat psychologist'spsihologului tricktruc
183
427000
2000
sau tocmai am făcut un truc psihologic ciudat
07:24
by gettingobtinerea monkeysmaimuțe to do something,
184
429000
2000
convingând maimuțele să facă ceva,
07:26
looking smartinteligent, but not really beingfiind smartinteligent.
185
431000
2000
părând deștepte, fără să fie de fapt.
07:28
And so we said, well, what would the monkeysmaimuțe spontaneouslyspontan do
186
433000
3000
Așa că am spus, bine, ce ar face maimuțele în mod spontan
07:31
if this was really theiral lor currencymoneda, if they were really usingutilizând it like moneybani?
187
436000
3000
dacă asta ar fi cu adevărat moneda lor, dacă chiar ar folosi-o pe post de bani?
07:34
Well, you mightar putea actuallyde fapt imagineimagina them
188
439000
2000
Păi, ați putea probabil să vi le imaginați
07:36
to do all the kindstipuri of smartinteligent things
189
441000
2000
făcând tot felul de lucruri inteligente
07:38
that humansoameni do when they startstart exchangingschimbul de moneybani with eachfiecare other.
190
443000
3000
pe care oamenii le fac atunci când tranzacționează bani între ei.
07:41
You mightar putea have them startstart payingde plată attentionAtenţie to pricePreț,
191
446000
3000
Te-ai aștepta să înceapă să fie atente la preț,
07:44
payingde plată attentionAtenţie to how much they buya cumpara --
192
449000
2000
atente la cât de mult cumpără –
07:46
sortfel of keepingpăstrare trackurmări of theiral lor monkeymaimuţă tokentoken-ul, as it were.
193
451000
3000
să țină cumva minte cum erau jetoanele lor de maimuțe.
07:49
Do the monkeysmaimuțe do anything like this?
194
454000
2000
Fac maimuțele ceva asemănător?
07:51
And so our monkeymaimuţă marketplacepiata de desfacere was bornnăscut.
195
456000
3000
Și așa a apărut piața noastră a maimuțelor.
07:54
The way this workslucrări is that
196
459000
2000
Felul cum funcționează este că
07:56
our monkeysmaimuțe normallyîn mod normal livetrăi in a kinddrăguț of bigmare zoogradina zoologica socialsocial enclosureîmprejmuire.
197
461000
3000
maimuțele noastre trăiesc de obicei într-un fel de grădină zoologică mare.
07:59
When they get a hankeringdor for some treatstratează,
198
464000
2000
Când li se face dor de niște dulciuri,
08:01
we actuallyde fapt allowedpermis them a way out
199
466000
2000
le-am lăsat o ușă deschisă
08:03
into a little smallermai mic enclosureîmprejmuire where they could enterintroduce the marketpiaţă.
200
468000
2000
spre o incintă unde puteau să intre în piață.
08:05
UponAsupra enteringintroducerea the marketpiaţă --
201
470000
2000
După ce intrau în piață –
08:07
it was actuallyde fapt a much more fundistracţie marketpiaţă for the monkeysmaimuțe than mostcel mai humanuman marketspiețe
202
472000
2000
era o piață mult mai amuzantă pentru maimuțe decât majoritatea piețelor omenești
08:09
because, as the monkeysmaimuțe entereda intrat the dooruşă of the marketpiaţă,
203
474000
3000
pentru că, imediat ce maimuțele intrau pe ușa pieței,
08:12
a humanuman would give them a bigmare walletportofel fulldeplin of tokenstoken-uri
204
477000
2000
un om le dădea un portofel mare, plin de jetoane
08:14
so they could actuallyde fapt tradecomerț the tokenstoken-uri
205
479000
2000
ca să poată să facă comerț cu jetoanele
08:16
with one of these two guys here --
206
481000
2000
cu unul dintre cei doi oameni de aici –
08:18
two differentdiferit possibleposibil humanuman salesmenagenţi de vânzări
207
483000
2000
doi potențiali comercianți
08:20
that they could actuallyde fapt buya cumpara stuffchestie from.
208
485000
2000
de la care se putea cumpăra.
08:22
The salesmenagenţi de vânzări were studentselevi from my lablaborator.
209
487000
2000
Comercianții erau studenți din laboratorul meu.
08:24
They dressedtăbăcit differentlydiferit; they were differentdiferit people.
210
489000
2000
S-au îmbrăcat diferit; erau oameni diferiți.
08:26
And over time, they did basicallype scurt the samela fel thing
211
491000
3000
Și, de-a lungul timpului, au făcut, în esență, același lucru
08:29
so the monkeysmaimuțe could learnînvăța, you know,
212
494000
2000
astfel încât maimuțele să poată învăța, ştiţi,
08:31
who soldvândut what at what pricePreț -- you know, who was reliablede încredere, who wasn'tnu a fost, and so on.
213
496000
3000
cine ce vinde și la ce preț – știți voi, cine era de încredere, cine nu; ș.a.m.d.
08:34
And you can see that eachfiecare of the experimentersexperimentatori
214
499000
2000
Și puteți vedea că fiecare experimentator
08:36
is actuallyde fapt holdingdeținere up a little, yellowgalben foodalimente dishfarfurie.
215
501000
3000
ține de fapt o mică farfurie galbenă.
08:39
and that's what the monkeymaimuţă can for a singlesingur tokentoken-ul.
216
504000
2000
Asta poate primi maimuța pentru un singur jeton.
08:41
So everything costscheltuieli one tokentoken-ul,
217
506000
2000
Deci totul costă un jeton,
08:43
but as you can see, sometimesuneori tokenstoken-uri buya cumpara more than othersalții,
218
508000
2000
dar după cum puteți vedea, câteodată jetoanele cumpără mai mult decât altele,
08:45
sometimesuneori more grapesstruguri than othersalții.
219
510000
2000
câteodată mai mulți struguri decât altele.
08:47
So I'll showspectacol you a quickrapid videovideo of what this marketplacepiata de desfacere actuallyde fapt looksarată like.
220
512000
3000
O să vă arăt un scurt film despre cum arată de fapt această piață.
08:50
Here'sAici este a monkey-eye-viewmaimuta-eye-view. MonkeysMaimuţe are shortermai scurt, so it's a little shortmic de statura.
221
515000
3000
Iată viziunea maimuțelor. Maimuțele sunt mai scunde, deci este un pic mai scurtă.
08:53
But here'saici e HoneyMiere.
222
518000
2000
Dar aici este Honey.
08:55
She's waitingaşteptare for the marketpiaţă to opendeschis a little impatientlynerăbdător.
223
520000
2000
Așteaptă să se deschidă piața, puțin nerăbdătoare.
08:57
All of a suddenbrusc the marketpiaţă opensse deschide. Here'sAici este her choicealegere: one grapesstruguri or two grapesstruguri.
224
522000
3000
Deodată, se deschide piața. Iată alegerea ei: un strugure sau doi struguri.
09:00
You can see HoneyMiere, very good marketpiaţă economisteconomist,
225
525000
2000
Vedeți, Honey este un foarte bun economist de piață,
09:02
goesmerge with the guy who gives more.
226
527000
3000
îl alege pe cel ce oferă mai mult.
09:05
She could teacha preda our financialfinanciar advisersconsilieri a fewpuțini things or two.
227
530000
2000
I-ar putea învăța pe consultanții noștri financiari câteva lucruri.
09:07
So not just HoneyMiere,
228
532000
2000
Și nu doar Honey,
09:09
mostcel mai of the monkeysmaimuțe wenta mers with guys who had more.
229
534000
3000
cele mai multe maimuțe au ales indivizii care au avut mai mult.
09:12
MostCele mai multe of the monkeysmaimuțe wenta mers with guys who had better foodalimente.
230
537000
2000
Cele mai multe maimuțe au ales indivizii care aveau mâncare mai bună.
09:14
When we introduceda introdus salesvânzări, we saw the monkeysmaimuțe paidplătit attentionAtenţie to that.
231
539000
3000
Când am introdus vânzările, am văzut că maimuțele au fost atente la asta.
09:17
They really caredîngrijit about theiral lor monkeymaimuţă tokentoken-ul dollardolar.
232
542000
3000
Chiar le păsa de jetonul-dolar maimuțesc.
09:20
The more surprisingsurprinzător thing was that when we collaborateda colaborat with economistseconomiști
233
545000
3000
Cel mai surprinzător lucru a fost că atunci când am colaborat cu economiști
09:23
to actuallyde fapt look at the monkeys'maimuţe' datadate usingutilizând economiceconomic toolsunelte,
234
548000
3000
să ne uităm la datele maimuțelor cu instrumente economice,
09:26
they basicallype scurt matchedpotrivire, not just qualitativelycalitativ,
235
551000
3000
s-au cam potrivit, nu doar calitativ,
09:29
but quantitativelycantitativ with what we saw
236
554000
2000
dar și cantitativ cu ce i-am văzut
09:31
humansoameni doing in a realreal marketpiaţă.
237
556000
2000
pe oameni făcând pe piața reală.
09:33
So much so that, if you saw the monkeys'maimuţe' numbersnumerele,
238
558000
2000
Atât de mult încât, dacă ai fi văzut numerele maimuțelor,
09:35
you couldn'tnu a putut tell whetherdacă they camea venit from a monkeymaimuţă or a humanuman in the samela fel marketpiaţă.
239
560000
3000
nu ți-ai fi dat seama dacă sunt ale maimuțelor sau ale unor oameni de pe aceeași piață.
09:38
And what we'dne-am really thought we'dne-am doneTerminat
240
563000
2000
Și ce am crezut că am făcut
09:40
is like we'dne-am actuallyde fapt introduceda introdus something
241
565000
2000
e că am introdus ceva
09:42
that, at leastcel mai puţin for the monkeysmaimuțe and us,
242
567000
2000
care, cel puțin pentru maimuțe și pentru noi,
09:44
workslucrări like a realreal financialfinanciar currencymoneda.
243
569000
2000
funcționează ca o valută financiară reală.
09:46
QuestionÎntrebare is: do the monkeysmaimuțe startstart messingMessing up in the samela fel waysmoduri we do?
244
571000
3000
Întrebarea este: și maimuțele strică lucrurile în același fel ca și noi?
09:49
Well, we alreadydeja saw anecdotallyanecdotic a couplecuplu of signssemne that they mightar putea.
245
574000
3000
Păi, deja văzusem în mod anecdotic niște semne că s-ar putea.
09:52
One thing we never saw in the monkeymaimuţă marketplacepiata de desfacere
246
577000
2000
Un lucru pe care nu l-am văzut pe piața maimuțelor
09:54
was any evidenceevidență of savingeconomisire --
247
579000
2000
a fost vreo dovadă de economisire –
09:56
you know, just like our ownpropriu speciesspecie.
248
581000
2000
așa, ca specia noastră.
09:58
The monkeysmaimuțe entereda intrat the marketpiaţă, spenta petrecut theiral lor entireîntreg budgetbuget
249
583000
2000
Maimuțele au intrat pe piață, și-au cheltuit tot bugetul
10:00
and then wenta mers back to everyonetoata lumea elsealtfel.
250
585000
2000
și apoi s-au întors la toată lumea.
10:02
The other thing we alsode asemenea spontaneouslyspontan saw,
251
587000
2000
Celălalt lucru pe care l-am văzut spontan,
10:04
embarrassinglyjenant enoughdestul,
252
589000
2000
destul de jenant,
10:06
is spontaneousspontan evidenceevidență of larcenyfurt.
253
591000
2000
este dovada spontană de furt.
10:08
The monkeysmaimuțe would rip-offrip-off the tokenstoken-uri at everyfiecare availabledisponibil opportunityoportunitate --
254
593000
3000
Maimuțele prădau jetoanele cu fiecare ocazie –
10:11
from eachfiecare other, oftende multe ori from us --
255
596000
2000
între ele, câteodată de la noi –
10:13
you know, things we didn't necessarilyîn mod necesar think we were introducingIntroducand,
256
598000
2000
lucruri pe care nu ne gândeam neapărat că le vom introduce,
10:15
but things we spontaneouslyspontan saw.
257
600000
2000
dar lucruri pe care le-am văzut spontan.
10:17
So we said, this looksarată badrău.
258
602000
2000
Așa că am zis, asta arată rău.
10:19
Can we actuallyde fapt see if the monkeysmaimuțe
259
604000
2000
Putem vedea dacă maimuțele
10:21
are doing exactlyexact the samela fel dumbprost things as humansoameni do?
260
606000
3000
fac exact aceleași lucruri prostești ca și oamenii?
10:24
One possibilityposibilitate is just kinddrăguț of let
261
609000
2000
Una dintre posibilități e, practic, să lăsăm
10:26
the monkeymaimuţă financialfinanciar systemsistem playa juca out,
262
611000
2000
sistemul financiar al maimuțelor să se desfășoare,
10:28
you know, see if they startstart callingapel us for bailoutsplanuri de salvare in a fewpuțini yearsani.
263
613000
2000
știți, să vedem dacă în câțiva ani o să ne cheme să le plătim cauțiunea.
10:30
We were a little impatientnerăbdător so we wanted
264
615000
2000
Eram puțin nerăbdători așa că am vrut
10:32
to sortfel of speedviteză things up a bitpic.
265
617000
2000
cumva să iuțim lucrurile un pic.
10:34
So we said, let's actuallyde fapt give the monkeysmaimuțe
266
619000
2000
Așa că am spus, hai să le dăm maimuțelor
10:36
the samela fel kindstipuri of problemsProbleme
267
621000
2000
aceleași probleme
10:38
that humansoameni tendtind to get wronggresit
268
623000
2000
la care oamenii greșesc
10:40
in certainanumit kindstipuri of economiceconomic challengesprovocări,
269
625000
2000
în anumite tipuri de încercări economice,
10:42
or certainanumit kindstipuri of economiceconomic experimentsexperimente.
270
627000
2000
sau anumite tipuri de experimente economice.
10:44
And so, sincede cand the bestCel mai bun way to see how people go wronggresit
271
629000
3000
Și așa, din moment ce cel mai bun mod de a vedea cum greșesc oamenii
10:47
is to actuallyde fapt do it yourselftu,
272
632000
2000
este să facem asta chiar noi,
10:49
I'm going to give you guys a quickrapid experimentexperiment
273
634000
2000
o să vă arăt un mic experiment
10:51
to sortfel of watch your ownpropriu financialfinanciar intuitionsintuiții in actionacțiune.
274
636000
2000
ca să vă urmărim propriile intuiții financiare în acțiune.
10:53
So imagineimagina that right now
275
638000
2000
Imaginați-vă că acum
10:55
I handedhanded eachfiecare and everyfiecare one of you
276
640000
2000
v-am dat fiecăruia
10:57
a thousandmie U.S. dollarsdolari -- so 10 crispcrocante hundredsută dollardolar billsbancnote.
277
642000
3000
o mie de dolari americani – deci 10 bancnote noi de o sută de dolari.
11:00
Take these, put it in your walletportofel
278
645000
2000
Luați-i, puneți-i în buzunar
11:02
and spendpetrece a secondal doilea thinkinggândire about what you're going to do with it.
279
647000
2000
și gândiți-vă o secundă ce ați face cu banii.
11:04
Because it's yoursa ta now; you can buya cumpara whateverindiferent de you want.
280
649000
2000
Pentru că sunt ai voștri acum; puteți cumpăra ce vreți cu ei.
11:06
DonateDona it, take it, and so on.
281
651000
2000
Îi donați, îi luați etc.
11:08
SoundsSunete great, but you get one more choicealegere to earncastiga a little bitpic more moneybani.
282
653000
3000
Sună minunat, dar mai aveți de făcut o alegere pentru a mai câștiga niște bani.
11:11
And here'saici e your choicealegere: you can eitherfie be riskyriscant,
283
656000
3000
Aveți opțiunile: ori să riscați,
11:14
in whichcare casecaz I'm going to flipflip- one of these monkeymaimuţă tokenstoken-uri.
284
659000
2000
caz în care voi arunca unul dintre aceste jetoane.
11:16
If it comesvine up headsCapete, you're going to get a thousandmie dollarsdolari more.
285
661000
2000
Dacă este cap, mai primiți o mie de dolari.
11:18
If it comesvine up tailsfrac, you get nothing.
286
663000
2000
Dacă e pajură, nu primiți nimic.
11:20
So it's a chanceşansă to get more, but it's prettyfrumos riskyriscant.
287
665000
3000
Deci aveți o șansă să câștigați mai mult, dar e destul de riscant.
11:23
Your other optionopțiune is a bitpic safesigur. Your just going to get some moneybani for sure.
288
668000
3000
Cealaltă opțiune e o ofertă sigură. Cu sigurantă o să primiți niște bani.
11:26
I'm just going to give you 500 bucksdolari.
289
671000
2000
O să vă dau 500 $.
11:28
You can stickbăț it in your walletportofel and use it immediatelyimediat.
290
673000
3000
Puteți să-i băgați în portofel și să-i folosiți imediat.
11:31
So see what your intuitionintuiţie is here.
291
676000
2000
Așa că fiți atenți care vă e intuiția.
11:33
MostCele mai multe people actuallyde fapt go with the play-it-safejuca-it-Seif optionopțiune.
292
678000
3000
Cei mai mulți oameni merg pe opțiunea de siguranță.
11:36
MostCele mai multe people say, why should I be riskyriscant when I can get 1,500 dollarsdolari for sure?
293
681000
3000
Cei mai mulți spun: "De ce să risc, dacă pot obține 1.500$ siguri?"
11:39
This seemspare like a good betpariu. I'm going to go with that.
294
684000
2000
Pare un pariu bun. O să aleg asta.
11:41
You mightar putea say, ehNu-i aşa, that's not really irrationaliraţional.
295
686000
2000
Ați putea spune: "Ei, asta nu-i cu adevărat irațional."
11:43
People are a little risk-averserefractari la risc. So what?
296
688000
2000
Oamenii au o mică aversiune față de risc. Și ce?
11:45
Well, the "so what?" comesvine when startstart thinkinggândire
297
690000
2000
Păi, partea cu "și ce?" apare când ne gândim
11:47
about the samela fel problemproblemă
298
692000
2000
la aceeași problemă
11:49
seta stabilit up just a little bitpic differentlydiferit.
299
694000
2000
pusă un pic diferit.
11:51
So now imagineimagina that I give eachfiecare and everyfiecare one of you
300
696000
2000
Acum imaginați-vă că v-aș da fiecăruia
11:53
2,000 dollarsdolari -- 20 crispcrocante hundredsută dollardolar billsbancnote.
301
698000
3000
2.000 dolari – 20 de bancnote noi de o sută de dolari.
11:56
Now you can buya cumpara doubledubla to stuffchestie you were going to get before.
302
701000
2000
Acum ați putea să cumpărați de două ori mai multe lucruri ca înainte.
11:58
Think about how you'dte-ai feel stickinglipirea it in your walletportofel.
303
703000
2000
Gândiți-vă cum ar fi să-i băgați în portofel.
12:00
And now imagineimagina that I have you make anothero alta choicealegere
304
705000
2000
Și acum gândiți-vă că vă pun să faceți o altă alegere.
12:02
But this time, it's a little bitpic worsemai rau.
305
707000
2000
Dar acum e un pic mai rău.
12:04
Now, you're going to be decidingdecide how you're going to losepierde moneybani,
306
709000
3000
Acum, o să alegeți cum să pierdeți banii,
12:07
but you're going to get the samela fel choicealegere.
307
712000
2000
dar o să aveți aceleași opțiuni.
12:09
You can eitherfie take a riskyriscant losspierderi --
308
714000
2000
Puteți ori să alegeți o pierdere riscantă –
12:11
so I'll flipflip- a coinmonedă. If it comesvine up headsCapete, you're going to actuallyde fapt losepierde a lot.
309
716000
3000
o să dau cu banul. Dacă e cap, o să pierdeți mult.
12:14
If it comesvine up tailsfrac, you losepierde nothing, you're fine, get to keep the wholeîntreg thing --
310
719000
3000
Dacă e pajură, nu pierdeți nimic, totul e bine, rămâneți cu toată suma –
12:17
or you could playa juca it safesigur, whichcare meansmijloace you have to reacha ajunge back into your walletportofel
311
722000
3000
sau ați putea să jucați la siguranță, ceea ce înseamnă că băgați mâna în buzunar
12:20
and give me fivecinci of those $100 billsbancnote, for certainanumit.
312
725000
3000
și îmi dați cinci dintre bancnotele de 100$, în mod sigur.
12:23
And I'm seeingvedere a lot of furrowedbrăzdate browssprâncenele out there.
313
728000
3000
Și văd destule frunți încruntate pe-aici.
12:26
So maybe you're havingavând the samela fel intuitionsintuiții
314
731000
2000
Deci probabil aveți aceleași intuiții
12:28
as the subjectssubiecți that were actuallyde fapt testedtestat in this,
315
733000
2000
ca și subiecții care au fost în realitate testați,
12:30
whichcare is when presenteda prezentat with these optionsOpțiuni,
316
735000
2000
și anume că dacă li se prezintă aceste opțiuni,
12:32
people don't choosealege to playa juca it safesigur.
317
737000
2000
oamenii nu aleg să joace la siguranță.
12:34
They actuallyde fapt tendtind to go a little riskyriscant.
318
739000
2000
Ei tind să meargă la risc.
12:36
The reasonmotiv this is irrationaliraţional is that we'vene-am givendat people in bothambii situationssituații
319
741000
3000
Motivul pentru care asta e irațional este că le-am dat oamenilor
12:39
the samela fel choicealegere.
320
744000
2000
în ambele situații aceleași opțiuni.
12:41
It's a 50/50 shotlovitură of a thousandmie or 2,000,
321
746000
3000
Este o șansă de jumătate pentru 1.000 sau 2.000,
12:44
or just 1,500 dollarsdolari with certaintycertitudine.
322
749000
2000
sau doar 1.500$ în mod sigur.
12:46
But people'soamenii lui intuitionsintuiții about how much riskrisc to take
323
751000
3000
Dar intuiția oamenilor despre cât risc să își asume
12:49
variesvariază dependingîn funcție on where they starteda început with.
324
754000
2000
variază în funcție de unde au început.
12:51
So what's going on?
325
756000
2000
Deci ce se întâmplă?
12:53
Well, it turnstransformă out that this seemspare to be the resultrezultat
326
758000
2000
Păi, am observat că acesta pare să fie rezultatul
12:55
of at leastcel mai puţin two biasesdistorsiunilor that we have at the psychologicalpsihologic levelnivel.
327
760000
3000
a cel puțin două prejudecăți pe care le avem la nivel psihologic.
12:58
One is that we have a really hardgreu time thinkinggândire in absoluteabsolut termstermeni.
328
763000
3000
Una este că ne este foarte greu să gândim în termeni absoluți.
13:01
You really have to do work to figurefigura out,
329
766000
2000
Trebuie făcute eforturi să ne dăm seama,
13:03
well, one option'sopţiunea a thousandmie, 2,000;
330
768000
2000
păi, o opțiune e o mie, 2.000;
13:05
one is 1,500.
331
770000
2000
alta este 1.500.
13:07
InsteadÎn schimb, we find it very easyuşor to think in very relativerelativ termstermeni
332
772000
3000
În schimb, ne pare foarte ușor să gândim în termeni relativi
13:10
as optionsOpțiuni changeSchimbare from one time to anothero alta.
333
775000
3000
pe măsură ce opțiunile se schimbă de la un timp la altul.
13:13
So we think of things as, "Oh, I'm going to get more," or "Oh, I'm going to get lessMai puțin."
334
778000
3000
Și ne gândim la lucruri ca „O, o să primesc mai mult” sau „O, o să primesc mai puțin”.
13:16
This is all well and good, exceptcu exceptia that
335
781000
2000
Toate acestea sunt bune, cu excepția faptului că
13:18
changesschimbări in differentdiferit directionsdirectii
336
783000
2000
schimbările în diverse direcții
13:20
actuallyde fapt effectefect whetherdacă or not we think
337
785000
2000
chiar afectează dacă gândim sau nu
13:22
optionsOpțiuni are good or not.
338
787000
2000
că opțiunile sunt bune sau nu.
13:24
And this leadsOportunitati to the secondal doilea biaspărtinire,
339
789000
2000
Și asta ne duce la cea de-a doua prejudecată,
13:26
whichcare economistseconomiști have calleddenumit losspierderi aversionaversiune faţă de.
340
791000
2000
pe care economiștii au numit-o frica de pierdere.
13:28
The ideaidee is that we really hateură it when things go into the redroșu.
341
793000
3000
Ideea e că urâm atunci când lucrurile ajung la nivelul roșu.
13:31
We really hateură it when we have to losepierde out on some moneybani.
342
796000
2000
Nu ne place deloc când trebuie să pierdem niște bani.
13:33
And this meansmijloace that sometimesuneori we'llbine actuallyde fapt
343
798000
2000
Și asta înseamnă că uneori chiar ne vom
13:35
switchintrerupator our preferencesPreferinţe to avoidevita this.
344
800000
2000
schimba preferințele ca să evităm asta.
13:37
What you saw in that last scenarioscenariu is that
345
802000
2000
Ce ați văzut în scenariul precedent
13:39
subjectssubiecți get riskyriscant
346
804000
2000
e că subiecții riscă
13:41
because they want the smallmic shotlovitură that there won'tnu va be any losspierderi.
347
806000
3000
pentru că vor mica posibilitate că nu va fi nicio pierdere.
13:44
That meansmijloace when we're in a riskrisc mindsetmod de gândire --
348
809000
2000
Asta înseamnă că atunci când suntem într-o stare mentală de risc –
13:46
excusescuză me, when we're in a losspierderi mindsetmod de gândire,
349
811000
2000
mă scuzați, când suntem într-o stare de pierdere,
13:48
we actuallyde fapt becomedeveni more riskyriscant,
350
813000
2000
devenim de fapt mai riscanți,
13:50
whichcare can actuallyde fapt be really worryingîngrijorătoare.
351
815000
2000
ceea ce poate fi chiar îngrijorător.
13:52
These kindstipuri of things playa juca out in lots of badrău waysmoduri in humansoameni.
352
817000
3000
Aceste lucruri se manifestă în multe feluri negative la oameni.
13:55
They're why stockstoc investorsinvestitori holddeține ontope losingpierzând stocksstocurile longermai lung --
353
820000
3000
Din cauza lor investitorii în capital așteaptă mai mult până să piardă capital –
13:58
because they're evaluatingevaluarea them in relativerelativ termstermeni.
354
823000
2000
pentru că evaluează în termeni relativi.
14:00
They're why people in the housingcarcasă marketpiaţă refuseda refuzat to sellvinde theiral lor housecasă --
355
825000
2000
Sunt aceleași motive pentru care oamenii de pe piața imobiliară refuză să-și vândă casa –
14:02
because they don't want to sellvinde at a losspierderi.
356
827000
2000
pentru că nu vor să o vândă în pierdere.
14:04
The questionîntrebare we were interestedinteresat in
357
829000
2000
Întrebarea de care am fost interesați
14:06
is whetherdacă the monkeysmaimuțe showspectacol the samela fel biasesdistorsiunilor.
358
831000
2000
este dacă maimuțele au aceleași prejudecăți.
14:08
If we seta stabilit up those samela fel scenariosscenarii in our little monkeymaimuţă marketpiaţă,
359
833000
3000
Dacă punem la cale aceleași scenarii pe piața noastră a maimuțelor,
14:11
would they do the samela fel thing as people?
360
836000
2000
ar face și ele aceleași lucruri ca oamenii?
14:13
And so this is what we did, we gavea dat the monkeysmaimuțe choicesalegeri
361
838000
2000
Și asta e ce am făcut, le-am dat opțiuni maimuțelor
14:15
betweenîntre guys who were safesigur -- they did the samela fel thing everyfiecare time --
362
840000
3000
între indivizi care erau siguri – făceau același lucru de fiecare dată –
14:18
or guys who were riskyriscant --
363
843000
2000
și indivizi care erau riscanți –
14:20
they did things differentlydiferit halfjumătate the time.
364
845000
2000
făceau lucrurile diferit, jumătate din timp.
14:22
And then we gavea dat them optionsOpțiuni that were bonusesbonusuri --
365
847000
2000
Și când le-am dat opțiuni care erau bonusuri –
14:24
like you guys did in the first scenarioscenariu --
366
849000
2000
cum ați făcut voi în primul scenariu –
14:26
so they actuallyde fapt have a chanceşansă more,
367
851000
2000
astfel încât să mai aibă o șansă în plus,
14:28
or piecesbucăți where they were experiencingse confruntă cu lossespierderile --
368
853000
3000
sau părți în care experimentau pierderi –
14:31
they actuallyde fapt thought they were going to get more than they really got.
369
856000
2000
chiar credeau că o să obțină mai mult decât au obținut.
14:33
And so this is what this looksarată like.
370
858000
2000
Și așa arată.
14:35
We introduceda introdus the monkeysmaimuțe to two newnou monkeymaimuţă salesmenagenţi de vânzări.
371
860000
2000
Le-am prezentat maimuțelor doi vânzători.
14:37
The guy on the left and right bothambii startstart with one piecebucată of grapestruguri,
372
862000
2000
Tipul din stânga și cel din dreapta ambii încep cu o boabă de strugure,
14:39
so it looksarată prettyfrumos good.
373
864000
2000
deci arată destul de bine.
14:41
But they're going to give the monkeysmaimuțe bonusesbonusuri.
374
866000
2000
Dar ei le vor da bonusuri maimuțelor.
14:43
The guy on the left is a safesigur bonusbonus.
375
868000
2000
Cel din stânga este un bonus sigur.
14:45
All the time, he addsadaugă one, to give the monkeysmaimuțe two.
376
870000
3000
Tot timplu el adaugă una, pentru a da maimuțelor două.
14:48
The guy on the right is actuallyde fapt a riskyriscant bonusbonus.
377
873000
2000
Cel din dreapta este de fapt un bonus riscant.
14:50
SometimesUneori the monkeysmaimuțe get no bonusbonus -- so this is a bonusbonus of zerozero.
378
875000
3000
Câteodată maimuțele nu primesc niciun bonus – deci un bonus de zero.
14:53
SometimesUneori the monkeysmaimuțe get two extrasuplimentar.
379
878000
3000
Câteodată maimuțele primesc două în plus.
14:56
For a bigmare bonusbonus, now they get threeTrei.
380
881000
2000
Pentru un bonus mare, acum primesc trei.
14:58
But this is the samela fel choicealegere you guys just facedcu care se confruntă.
381
883000
2000
Dar asta e aceeași alegere pe care ați avut-o și voi.
15:00
Do the monkeysmaimuțe actuallyde fapt want to playa juca it safesigur
382
885000
3000
Vor maimuțele să joace la siguranță
15:03
and then go with the guy who'scine going to do the samela fel thing on everyfiecare trialproces,
383
888000
2000
și să aleagă vânzătorul care va face același lucru de fiecare dată,
15:05
or do they want to be riskyriscant
384
890000
2000
sau vor să riște
15:07
and try to get a riskyriscant, but bigmare, bonusbonus,
385
892000
2000
și să încerce să primească un bonus riscant, dar mare,
15:09
but riskrisc the possibilityposibilitate of gettingobtinerea no bonusbonus.
386
894000
2000
însă riscând posibilitatea de a nu primi nimic.
15:11
People here playedjucat it safesigur.
387
896000
2000
Oamenii de aici au jucat la siguranță.
15:13
TurnsSe transformă out, the monkeysmaimuțe playa juca it safesigur too.
388
898000
2000
Se pare că și maimuțele joacă la siguranță.
15:15
QualitativelyCalitativ and quantitativelycantitativ,
389
900000
2000
Cantitativ și calitativ,
15:17
they choosealege exactlyexact the samela fel way as people,
390
902000
2000
ele aleg exact în același fel ca oamenii,
15:19
when testedtestat in the samela fel thing.
391
904000
2000
când sunt testați în aceleași condiții.
15:21
You mightar putea say, well, maybe the monkeysmaimuțe just don't like riskrisc.
392
906000
2000
Ați putea să spuneți, bine, poate maimuțelor nu le place riscul.
15:23
Maybe we should see how they do with lossespierderile.
393
908000
2000
Poate ar trebui să vedem cum se descurcă cu pierderile.
15:25
And so we rana fugit a secondal doilea versionversiune of this.
394
910000
2000
Și așa că am făcut o a doua variantă a testului.
15:27
Now, the monkeysmaimuțe meetîntâlni two guys
395
912000
2000
Acum maimuțele întâlnesc două persoane
15:29
who aren'tnu sunt givingoferindu- them bonusesbonusuri;
396
914000
2000
care nu le dau bonusuri;
15:31
they're actuallyde fapt givingoferindu- them lessMai puțin than they expectaştepta.
397
916000
2000
le dau de fapt mai puțin decât s-ar aștepta.
15:33
So they look like they're startingpornire out with a bigmare amountCantitate.
398
918000
2000
Și pare că încep cu o sumă mare.
15:35
These are threeTrei grapesstruguri; the monkey'smaimuta pe really psychedincantat for this.
399
920000
2000
Aceștia sunt trei struguri mari; maimuțele sunt entuziasmate de asta.
15:37
But now they learnînvăța these guys are going to give them lessMai puțin than they expectaştepta.
400
922000
3000
Dar acum învață că oamenii le vor da mai puțin decât se așteaptă.
15:40
They guy on the left is a safesigur losspierderi.
401
925000
2000
Tipul din stânga este pierdere sigură.
15:42
EveryFiecare singlesingur time, he's going to take one of these away
402
927000
3000
De fiecare dată va lua una
15:45
and give the monkeysmaimuțe just two.
403
930000
2000
și le va da maimuțelor doar două.
15:47
the guy on the right is the riskyriscant losspierderi.
404
932000
2000
Tipul din dreapta este pierderea riscantă.
15:49
SometimesUneori he gives no losspierderi, so the monkeysmaimuțe are really psychedincantat,
405
934000
3000
Câteodată nu dă nicio pierdere, așa că maimuțele sunt atrase,
15:52
but sometimesuneori he actuallyde fapt gives a bigmare losspierderi,
406
937000
2000
dar câteodată dă pierderi chiar mari,
15:54
takingluare away two to give the monkeysmaimuțe only one.
407
939000
2000
luând două pentru a-i da maimuței doar una.
15:56
And so what do the monkeysmaimuțe do?
408
941000
2000
Deci ce fac maimuțele?
15:58
Again, samela fel choicealegere; they can playa juca it safesigur
409
943000
2000
Din nou, aceeași alegere; pot să joace la siguranță
16:00
for always gettingobtinerea two grapesstruguri everyfiecare singlesingur time,
410
945000
3000
pentru a primi de fiecare dată două boabe de strugure,
16:03
or they can take a riskyriscant betpariu and choosealege betweenîntre one and threeTrei.
411
948000
3000
sau pot să facă un pariu riscant și să aleagă între una și trei.
16:06
The remarkableremarcabil thing to us is that, when you give monkeysmaimuțe this choicealegere,
412
951000
3000
Lucrul remarcabil pentru noi este că, atunci când le dai maimuțelor această alegere,
16:09
they do the samela fel irrationaliraţional thing that people do.
413
954000
2000
și ele fac același lucru irațional ca oamenii.
16:11
They actuallyde fapt becomedeveni more riskyriscant
414
956000
2000
Ele devin mai riscante
16:13
dependingîn funcție on how the experimentersexperimentatori starteda început.
415
958000
3000
în funcție de cum este pornit experimentul.
16:16
This is crazynebun because it suggestssugerează that the monkeysmaimuțe too
416
961000
2000
Asta este nebunie pentru că sugerează că și maimuțele
16:18
are evaluatingevaluarea things in relativerelativ termstermeni
417
963000
2000
evaluează lucrurile în termeni relativi
16:20
and actuallyde fapt treatingtratare lossespierderile differentlydiferit than they treattrata gainscâştigurile.
418
965000
3000
și chiar tratează pierderile diferit față de câștiguri.
16:23
So what does all of this mean?
419
968000
2000
Așadar, ce înseamnă toate astea?
16:25
Well, what we'vene-am shownafișate is that, first of all,
420
970000
2000
Păi, ce am arătat este că, în primul rând,
16:27
we can actuallyde fapt give the monkeysmaimuțe a financialfinanciar currencymoneda,
421
972000
2000
putem să le dăm maimuțelor valută financiară,
16:29
and they do very similarasemănător things with it.
422
974000
2000
și fac lucruri similare cu ea.
16:31
They do some of the smartinteligent things we do,
423
976000
2000
Fac unele lucruri deștepte pe care le facem și noi,
16:33
some of the kinddrăguț of not so nicefrumos things we do,
424
978000
2000
unele lucruri nu prea bune pe care le facem,
16:35
like stealfura it and so on.
425
980000
2000
cum ar fi furatul ș.a.m.d.
16:37
But they alsode asemenea do some of the irrationaliraţional things we do.
426
982000
2000
Dar ele fac și unele lucruri iraționale pe care le facem.
16:39
They systematicallysistematic get things wronggresit
427
984000
2000
În mod sistematic încurcă lucrurile
16:41
and in the samela fel waysmoduri that we do.
428
986000
2000
și în același fel în care le încurcăm și noi.
16:43
This is the first take-homeia acasă messagemesaj of the Talk,
429
988000
2000
Acesta este primul mesaj de luat acasă din prezentare,
16:45
whichcare is that if you saw the beginningînceput of this and you thought,
430
990000
2000
acela că dacă ați văzut începutul și v-ați gândit,
16:47
oh, I'm totallyintru totul going to go home and hireînchiriere a capuchinManta cu glugă monkeymaimuţă financialfinanciar adviserconsilier.
431
992000
2000
O, mă duc acasă și sigur îmi angajez un capucin pe post de consultant financiar.
16:49
They're way cuterdrăguţ than the one at ... you know --
432
994000
2000
Sunt mai drăguți decât cel de la... știți voi –
16:51
Don't do that; they're probablyprobabil going to be just as dumbprost
433
996000
2000
Nu faceți asta; și ei vor fi probabil la fel de proști
16:53
as the humanuman one you alreadydeja have.
434
998000
3000
ca cel uman pe care îl aveți deja.
16:56
So, you know, a little badrău -- Sorry, sorry, sorry.
435
1001000
2000
Deci, știți, un pic mai rău –– Scuze, scuze, scuze.
16:58
A little badrău for monkeymaimuţă investorsinvestitori.
436
1003000
2000
Un pic mai rău pentru investitorii maimuțe.
17:00
But of coursecurs, you know, the reasonmotiv you're laughingrazand is badrău for humansoameni too.
437
1005000
3000
Dar desigur, știți, motivul pentru care râdeți e că e rău și pentru oameni.
17:03
Because we'vene-am answeredrăspuns the questionîntrebare we starteda început out with.
438
1008000
3000
Pentru că am răspuns la întrebarea cu care am început.
17:06
We wanted to know where these kindstipuri of errorserori camea venit from.
439
1011000
2000
Am vrut să vedem de unde vin aceste tipuri de erori.
17:08
And we starteda început with the hopesperanţă that maybe we can
440
1013000
2000
Și am început cu speranța că poate putem
17:10
sortfel of tweakTweak our financialfinanciar institutionsinstituții,
441
1015000
2000
cumva să ne reglăm instituțiile financiare,
17:12
tweakTweak our technologiestehnologii to make ourselvesnoi insine better.
442
1017000
3000
să ne reglăm tehnologiile ca să ne facem mai buni.
17:15
But what we'vene-am learnînvăța is that these biasesdistorsiunilor mightar putea be a deeperMai adânc partparte of us than that.
443
1020000
3000
Dar ce-am învățat e că aceste prejudecăți ar putea fi o parte mai adâncă din noi decât atât.
17:18
In factfapt, they mightar putea be duedatorat to the very naturenatură
444
1023000
2000
De fapt, ar putea să fie cauzate chiar de natura
17:20
of our evolutionaryevolutiv historyistorie.
445
1025000
2000
istoriei noastre evoluționiste.
17:22
You know, maybe it's not just humansoameni
446
1027000
2000
Și, știți, poate nu doar oamenii
17:24
at the right sidelatură of this chainlanţ that's dunceyduncey.
447
1029000
2000
sunt în partea dreaptă a acestui lanț care e tont.
17:26
Maybe it's sortfel of dunceyduncey all the way back.
448
1031000
2000
Poate că este tont pe toată lungimea.
17:28
And this, if we believe the capuchinManta cu glugă monkeymaimuţă resultsrezultate,
449
1033000
3000
Și asta, dacă credem rezultatele cu capucinii,
17:31
meansmijloace that these dunceyduncey strategiesstrategii
450
1036000
2000
înseamnă că aceste strategii nătânge
17:33
mightar putea be 35 millionmilion yearsani oldvechi.
451
1038000
2000
ar putea să aibă 35 milioane de ani.
17:35
That's a long time for a strategystrategie
452
1040000
2000
Este mult timp pentru o strategie
17:37
to potentiallypotenţial get changedschimbat around -- really, really oldvechi.
453
1042000
3000
să fie schimbată – foarte, foarte veche.
17:40
What do we know about other oldvechi strategiesstrategii like this?
454
1045000
2000
Ce știm despre alte strategii vechi ca aceasta?
17:42
Well, one thing we know is that they tendtind to be really hardgreu to overcomea depasi.
455
1047000
3000
Păi, un lucru pe care îl știm e că ele tind să fie foarte greu de depășit.
17:45
You know, think of our evolutionaryevolutiv predilectionpredilecţie
456
1050000
2000
Știți, gândiți-vă la predilecția noastră evoluționistă
17:47
for eatingmâncare sweetdulce things, fattygrase things like cheesecakeprăjitură cu brânză.
457
1052000
3000
pentru a mânca lucruri dulci, lucruri grase cum ar fi plăcinta cu brânză.
17:50
You can't just shutînchide that off.
458
1055000
2000
Nu poți pur și simplu să oprești asta.
17:52
You can't just look at the dessertdesert cartcart as say, "No, no, no. That looksarată disgustingdezgustător to me."
459
1057000
3000
Nu poți să te uiți la căruciorul cu deserturi și să spui „Nu, nu, nu. E dezgustător”.
17:55
We're just builtconstruit differentlydiferit.
460
1060000
2000
Suntem construiți diferit.
17:57
We're going to perceivepercep it as a good thing to go after.
461
1062000
2000
O să îl percepem ca pe un lucru bun după care să ne ghidăm.
17:59
My guessghici is that the samela fel thing is going to be trueAdevărat
462
1064000
2000
Estimarea mea este că același lucru o să fie adevărat
18:01
when humansoameni are perceivingperceperea
463
1066000
2000
când oamenii percep
18:03
differentdiferit financialfinanciar decisionsdeciziile.
464
1068000
2000
decizii financiare diferite.
18:05
When you're watchingvizionarea your stocksstocurile plummetfir cu plumb into the redroșu,
465
1070000
2000
Când îți privești capitalul că intră în zona roșie,
18:07
when you're watchingvizionarea your housecasă pricePreț go down,
466
1072000
2000
când îți vezi prețul casei mergând în jos,
18:09
you're not going to be ablecapabil to see that
467
1074000
2000
nu o să poți vedea asta
18:11
in anything but oldvechi evolutionaryevolutiv termstermeni.
468
1076000
2000
decât în termeni evoluționiști.
18:13
This meansmijloace that the biasesdistorsiunilor
469
1078000
2000
Asta înseamnă că erorile cognitive
18:15
that leadconduce investorsinvestitori to do badlyprost,
470
1080000
2000
care îi fac pe investitori să nu fie performanți,
18:17
that leadconduce to the foreclosureblocare a pieţei crisiscriză
471
1082000
2000
care duc la criza prescrierilor
18:19
are going to be really hardgreu to overcomea depasi.
472
1084000
2000
vor fi foarte greu de depășit.
18:21
So that's the badrău newsștiri. The questionîntrebare is: is there any good newsștiri?
473
1086000
2000
Așa că, vești proaste. Întrebarea este: sunt și vești bune?
18:23
I'm supposedpresupus to be up here tellingspune you the good newsștiri.
474
1088000
2000
Eu ar fi trebuit să fiu aici spunându-vă veștile bune.
18:25
Well, the good newsștiri, I think,
475
1090000
2000
Păi, veștile bune, cred,
18:27
is what I starteda început with at the beginningînceput of the Talk,
476
1092000
2000
sunt ceea ce am zis la începutul prezentării,
18:29
whichcare is that humansoameni are not only smartinteligent;
477
1094000
2000
că oamenii nu sunt doar deștepți;
18:31
we're really inspirationallyInspirationally smartinteligent
478
1096000
2000
inteligența noastră inspiră
18:33
to the restodihnă of the animalsanimale in the biologicalbiologic kingdomregat.
479
1098000
3000
restul animalelor din biosferă.
18:36
We're so good at overcomingdepăşirea our biologicalbiologic limitationslimitări --
480
1101000
3000
Suntem așa de buni la depășirea limitărilor biologice –
18:39
you know, I flewzburat over here in an airplaneavion.
481
1104000
2000
știți, am zburat până aici într-un avion.
18:41
I didn't have to try to flapclapă my wingsaripi.
482
1106000
2000
Nu a trebuit să încerc să dau din aripi.
18:43
I'm wearingpurtare contacta lua legatura lenseslentile now so that I can see all of you.
483
1108000
3000
Port lentile de contact acum ca să vă văd pe toți.
18:46
I don't have to relyse bazează on my ownpropriu near-sightednessNear-sightedness.
484
1111000
3000
Nu trebuie să mă bazez pe prezbitismul meu.
18:49
We actuallyde fapt have all of these casescazuri
485
1114000
2000
Avem de fapt toate aceste cazuri
18:51
where we overcomea depasi our biologicalbiologic limitationslimitări
486
1116000
3000
în care ne depășim limitările biologice
18:54
throughprin technologytehnologie and other meansmijloace, seeminglyaparent prettyfrumos easilyuşor.
487
1119000
3000
prin tehnologie și alte metode, aparent foarte ușor.
18:57
But we have to recognizerecunoaşte that we have those limitationslimitări.
488
1122000
3000
Dar trebuie să recunoastem că avem aceste limitări.
19:00
And here'saici e the rubFrecaţi.
489
1125000
2000
Și uite care e treaba.
19:02
It was CamusCamus who onceo singura data said that, "Man is the only speciesspecie
490
1127000
2000
Camus a spus odată că „Omul este singura specie
19:04
who refusesrefuză to be what he really is."
491
1129000
3000
care refuză să fie ceea ce este cu adevărat.”
19:07
But the ironyironie is that
492
1132000
2000
Dar ironia e că
19:09
it mightar putea only be in recognizingrecunoscând our limitationslimitări
493
1134000
2000
doar recunoscându-ne limitările
19:11
that we can really actuallyde fapt overcomea depasi them.
494
1136000
2000
le putem depăși cu adevărat.
19:13
The hopesperanţă is that you all will think about your limitationslimitări,
495
1138000
3000
Speranța e că toți vă veți gândi la limitările voastre,
19:16
not necessarilyîn mod necesar as unovercomableunovercomable,
496
1141000
3000
nu neapărat ca de nedepășit,
19:19
but to recognizerecunoaşte them, acceptAccept them
497
1144000
2000
dar ca să le recunoașteți, să le acceptați
19:21
and then use the worldlume of designproiecta to actuallyde fapt figurefigura them out.
498
1146000
3000
și să folosiți apoi lumea proiectării pentru a le remedia.
19:24
That mightar putea be the only way that we will really be ablecapabil
499
1149000
3000
Aceasta s-ar putea să fie singura metodă prin care am putea
19:27
to achieveobține our ownpropriu humanuman potentialpotenţial
500
1152000
2000
să ne atingem potențialul uman
19:29
and really be the noblenobil speciesspecie we hopesperanţă to all be.
501
1154000
3000
și să fim cu adevărat specia nobilă care sperăm să fim.
19:32
Thank you.
502
1157000
2000
Vă mulțumesc.
19:34
(ApplauseAplauze)
503
1159000
5000
(Aplauze)
Translated by Alex Ghioiu
Reviewed by Brandusa Gheorghe

▲Back to top

ABOUT THE SPEAKER
Laurie Santos - Cognitive psychologist
Laurie Santos studies primate psychology and monkeynomics -- testing problems in human psychology on primates, who (not so surprisingly) have many of the same predictable irrationalities we do.

Why you should listen

Laurie Santos runs the Comparative Cognition Laboratory (CapLab) at Yale, where she and collaborators across departments (from psychology to primatology to neurobiology) explore the evolutionary origins of the human mind by studying lemurs, capuchin monkeys and other primates. The twist: Santos looks not only for positive humanlike traits, like tool-using and altruism, but irrational ones, like biased decisionmaking.

In elegant, carefully constructed experiments, Santos and CapLab have studied how primates understand and categorize objects in the physical world -- for instance, that monkeys understand an object is still whole even when part of it is obscured. Going deeper, their experiments also search for clues that primates possess a theory of mind -- an ability to think about what other people think.

Most recently, the lab has been looking at behaviors that were once the province mainly of novelists: jealousy, frustration, judgment of others' intentions, poor economic choices. In one experiment, Santos and her team taught monkeys to use a form of money, tradeable for food. When certain foods became cheaper, monkeys would, like humans, overbuy. As we humans search for clues to our own irrational behaviors, Santos' research suggests that the source of our genius for bad decisions might be our monkey brains.

More profile about the speaker
Laurie Santos | Speaker | TED.com