ABOUT THE SPEAKER
Dan Ariely - Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why.

Why you should listen

Dan Ariely is a professor of psychology and behavioral economics at Duke University and a founding member of the Center for Advanced Hindsight. He is the author of the bestsellers Predictably IrrationalThe Upside of Irrationality, and The Honest Truth About Dishonesty -- as well as the TED Book Payoff: The Hidden Logic that Shapes Our Motivations.

Through his research and his (often amusing and unorthodox) experiments, he questions the forces that influence human behavior and the irrational ways in which we often all behave.

More profile about the speaker
Dan Ariely | Speaker | TED.com
EG 2008

Dan Ariely: Are we in control of our own decisions?

Dan Ariely întreabă: Ne controlăm deciziile?

Filmed:
6,706,559 views

Economistul comportamental Dan Ariely, autorul Iraţionalului Predictibil, foloseşte iluzii vizuale clasice şi uneori şocantele, rezultate ale propriei sale cercetări contraintuitive pentru a demonstra că, atunci când luăm decizii, nu suntem atît de intuitivi pe cât credem .
- Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why. Full bio

Double-click the English transcript below to play the video.

00:16
I'll tell you a little bitpic about irrationaliraţional behaviorcomportament.
0
0
3000
O să vă spun câteceva despre comportamentul iraţional.
00:19
Not yoursa ta, of coursecurs -- other people'soamenii lui.
1
3000
2000
NU al dumneavoastră desigur. Al altora.
00:21
(LaughterRâs)
2
5000
1000
(Râsete)
00:22
So after beingfiind at MITMIT for a fewpuțini yearsani,
3
6000
4000
După câţiva ani la MIT
00:26
I realizedrealizat that writingscris academicacademic papershârtii is not that excitingemoționant.
4
10000
4000
Mi-am dat seama că scrierea lucrărilor academice nu era captivantă.
00:30
You know, I don't know how manymulți of those you readcitit,
5
14000
2000
Ştiţi, nu ştiu cât de multe din acestea aţi citit.
00:32
but it's not fundistracţie to readcitit and oftende multe ori not fundistracţie to writescrie --
6
16000
3000
Dar nu este distractiv de citit şi adesea nedistractiv de scris.
00:35
even worsemai rau to writescrie.
7
19000
2000
Chiar mai rău de scris.
00:37
So I decideda decis to try and writescrie something more fundistracţie.
8
21000
3000
Astfel că m-am hotărât să încerc să scriu ceva mai distractiv.
00:40
And I camea venit up with an ideaidee that I will writescrie a cookbookcarte de bucate.
9
24000
4000
Şi mi-a venit ideea să scriu o carte de bucate.
00:44
And the titletitlu for my cookbookcarte de bucate was going to be
10
28000
2000
Iar titlul cărţii urma să fie
00:46
"DiningDe luat masa WithoutFără CrumbsFirimiturile: The ArtArta of EatingPosibilitati de alimentatie Over the SinkChiuveta."
11
30000
3000
Mese fără firimituri: Arta de a mânca peste chiuvetă
00:49
(LaughterRâs)
12
33000
2000
(Râsete)
00:51
And it was going to be a look at life throughprin the kitchenbucătărie.
13
35000
3000
Şi ar fi trebuit să fie o privire asupra vieţii - prin bucătărie.
00:54
And I was quitedestul de excitedexcitat about this. I was going to talk
14
38000
2000
Şi am fost foarte încântat despre aceasta. Urma să vorbesc
00:56
a little bitpic about researchcercetare, a little bitpic about the kitchenbucătărie.
15
40000
3000
puţin despre cercetare, puţin despre bucătărie.
00:59
You know, we do so much in the kitchenbucătărie I thought this would be interestinginteresant.
16
43000
3000
Ştiţi, facem atât de multe în bucătărie, încât am crezut că aceasta ar fi de interes.
01:02
And I wrotea scris a couplecuplu of chapterscapitole.
17
46000
2000
Am scris câteva capitole.
01:04
And I tooka luat it to MITMIT presspresa and they said,
18
48000
2000
Le-am dus la editura MIT şi au spus
01:06
"Cutedrăguţ, but not for us. Go and find somebodycineva elsealtfel."
19
50000
4000
"Drăguţ. Dar nu e pentru noi. Du-te şi găseşte pe altcineva"
01:10
I triedîncercat other people and everybodytoata lumea said the samela fel thing,
20
54000
2000
Am încercat la alţii dar toţi au spus acelaşi lucru,
01:12
"Cutedrăguţ. Not for us."
21
56000
3000
"Drăguţ. Dar nu e pentru noi."
01:15
UntilPână la somebodycineva said,
22
59000
3000
Până când cineva a spus,
01:18
"Look, if you're seriousserios about this,
23
62000
2000
"Dacă esti hotărât în această privinţă
01:20
you first have to writescrie a bookcarte about your researchcercetare. You have to publishpublica something,
24
64000
3000
trebuie mai întâi să scrii o carte despre cercetările tale.Trebuie să publici ceva.
01:23
and then you'llveți get the opportunityoportunitate to writescrie something elsealtfel.
25
67000
2000
Şi apoi vei avea ocazia să scrii altceva.
01:25
If you really want to do it you have to do it."
26
69000
2000
Trebuie să o faci dacă vrei cu adevărat "
01:27
So I said, "You know, I really don't want to writescrie about my researchcercetare.
27
71000
3000
Aşa că am spus "Ştii, în realitate nu vreau să scriu despre cercetarea mea.
01:30
I do this all day long. I want to writescrie something elsealtfel.
28
74000
2000
Fac asta cât e ziua de lungă. Vreau să scriu despre altceva.
01:32
Something a bitpic more freegratuit, lessMai puțin constrainedconstrâns."
29
76000
3000
Ceva mai liber, mai puţin forţat."
01:35
And this personpersoană was very forcefulputernic and said,
30
79000
3000
Şi persoana a fost foarte autoritară şi a spus,
01:38
"Look. That's the only way you'llveți ever do it."
31
82000
2000
"Uite. Acesta este singurul mod de a reuşi vreodată să o faci."
01:40
So I said, "Okay, if I have to do it -- "
32
84000
3000
Aşa ca am spus "OK, trebuie să o fac -- "
01:43
I had a sabbaticalconcediu sabatic. I said, "I'll writescrie about my researchcercetare
33
87000
3000
Am avut o vacanţă. Mi-am spus, "Voi scrie despre cercetarea mea
01:46
if there is no other way. And then I'll get to do my cookbookcarte de bucate."
34
90000
2000
dacă nu se poate altfel.Şi pe urmă voi ajunge să îmi fac cartea de bucate."
01:48
So I wrotea scris a bookcarte on my researchcercetare.
35
92000
3000
Aşa că am scris o carte despre cercetarea mea.
01:51
And it turnedîntoarse out to be quitedestul de fundistracţie in two waysmoduri.
36
95000
3000
Şi aceasta s-a dovedit a fi destul de distractiv. În două feluri.
01:54
First of all, I enjoyedsa bucurat writingscris.
37
98000
3000
În primul rând mi-a plăcut să scriu.
01:57
But the more interestinginteresant thing was that
38
101000
2000
Dar cel mai interesant lucru a fost că
01:59
I starteda început learningînvăţare from people.
39
103000
2000
am început să învăţ de la oameni.
02:01
It's a fantasticfantastic time to writescrie,
40
105000
2000
Este fantastic să scrii.
02:03
because there is so much feedbackparere you can get from people.
41
107000
2000
Pentru că poţi primi atât de multe reacţii de la oameni.
02:05
People writescrie me about theiral lor personalpersonal experienceexperienţă,
42
109000
3000
Mi-au scris despre experienţa lor personală,
02:08
and about theiral lor examplesexemple, and what they disagreedezacord,
43
112000
2000
şi despre exemplele lor, şi despre lucruri cu care nu sunt de acord,
02:10
and nuancesnuante.
44
114000
2000
şi nuanţe.
02:12
And even beingfiind here -- I mean the last fewpuțini dayszi,
45
116000
2000
Şi chiar prezenţa mea de aici. Vreau să spun că în ultimele zile,
02:14
I've knowncunoscut really heightsînălțimi of obsessiveobsesiv behaviorcomportament
46
118000
3000
am cunoscut reale culmi ale comportamentului obsesiv
02:17
I never thought about.
47
121000
2000
pe care nu le-am bănuit.
02:19
(LaughterRâs)
48
123000
1000
(Râsete)
02:20
WhichCare I think is just fascinatingfascinant.
49
124000
2000
Ceea ce cred că este într-adevăr fascinant.
02:22
I will tell you a little bitpic about irrationaliraţional behaviorcomportament.
50
126000
3000
Vă voi spune câte ceva despre comportamentul iraţional.
02:25
And I want to startstart by givingoferindu- you some examplesexemple of visualvizual illusionamăgire
51
129000
3000
Şi doresc să încep prin a vă oferi câteva exemple de iluzii optice
02:28
as a metaphormetaforă for rationalityrațiune.
52
132000
2000
ca o metaforă pentru raţionalitate.
02:30
So think about these two tablesMese.
53
134000
2000
Deci gâdiţi-vă la aceste două mese.
02:32
And you musttrebuie sa have seenvăzut this illusionamăgire.
54
136000
2000
Şi voi trebuie să fi văzut această iluzie.
02:34
If I askedîntrebă you what's longermai lung, the verticalvertical linelinia on the tablemasa on the left,
55
138000
3000
Dacă v-aş fi întrebat care este mai lungă, linia verticală de pe masa din stânga,
02:37
or the horizontalorizontală linelinia on the tablemasa on the right?
56
141000
3000
sau linia orizontală de pe masa din dreapta?
02:40
WhichCare one seemspare longermai lung?
57
144000
3000
Care pare mai lungă?
02:43
Can anybodycineva see anything but the left one beingfiind longermai lung?
58
147000
3000
Poate cineva să vadă altfel decât că cea din stânga este mai lungă?
02:46
No, right? It's impossibleimposibil.
59
150000
2000
Corect, nu ? Este imposibil.
02:48
But the nicefrumos thing about visualvizual illusionamăgire is we can easilyuşor demonstratedemonstra mistakesgreșeli.
60
152000
3000
Dar chestia frumoasă despre iluziile vizuale este că greşeala poate fi uşor dovedită.
02:51
So I can put some lineslinii on; it doesn't help.
61
155000
3000
Deci pot să pun nişte linii deasupra. Nu este de ajutor.
02:54
I can animateanima the lineslinii.
62
158000
2000
Pot să animez liniile.
02:56
And to the extentmăsură you believe I didn't shrinkse contracta the lineslinii,
63
160000
2000
Şi cu condiţia că mă credeţi că nu am micşorat liniile
02:58
whichcare I didn't, I've provendovedit to you that your eyesochi were deceivinginselatoare you.
64
162000
5000
ceea ce chiar aşa este, v-am dovedit că ochii vă păcălesc.
03:03
Now, the interestinginteresant thing about this
65
167000
2000
Acum, partea interesantă despre aceasta
03:05
is when I take the lineslinii away,
66
169000
2000
este că atunci când înlături liniile,
03:07
it's as if you haven'tnu au learnedînvățat anything in the last minuteminut.
67
171000
2000
este ca şi cum nu ai fi aflat nimic în ultimul minut.
03:09
(LaughterRâs)
68
173000
3000
(Râsete)
03:12
You can't look at this and say, "Okay now I see realityrealitate as it is."
69
176000
3000
Nu poţi să te uiţi la asta şi să spui "OK acum văd realitatea aşa cum este".
03:15
Right? It's impossibleimposibil to overcomea depasi this
70
179000
2000
Corect? Este imposibil de trecut peste
03:17
sensesens that this is indeedintr-adevar longermai lung.
71
181000
3000
impresia că aceasta este întradevăr mai lungă.
03:20
Our intuitionintuiţie is really foolingpăcăli us in a repeatablerepetabile, predictablepredictibil, consistentconsistent way.
72
184000
3000
Intuiţia noastră ne păcăleşte într-un mod repetabil, predictibil, consistent.
03:23
And there is almostaproape nothing we can do about it,
73
187000
3000
Şi nu putem face mare lucru în această privinţă.
03:26
asidedeoparte from takingluare a rulerriglă and startingpornire to measuremăsura it.
74
190000
3000
În afară de a lua o riglă şi a începe să măsori.
03:29
Here is anothero alta one -- this is one of my favoritefavorit illusionsiluzii.
75
193000
3000
Iată alta. Aceasta este una dintre iluziile mele favorite.
03:32
What do you see the colorculoare that toptop arrowsăgeată is pointingarătând to?
76
196000
3000
Ce culoare vedeţi în dreptul săgeţii de sus?
03:35
BrownBrown. Thank you.
77
199000
2000
Maro. Mulţumesc.
03:37
The bottomfund one? YellowGalben.
78
201000
2000
Cea de jos? Galben.
03:39
TurnsSe transformă out they're identicalidentic.
79
203000
2000
Alăturate sunt identice.
03:41
Can anybodycineva see them as identicalidentic?
80
205000
2000
Le poate vedea cineva ca identice?
03:43
Very very hardgreu.
81
207000
2000
Foarte foarte greu.
03:45
I can coveracoperi the restodihnă of the cubecub up.
82
209000
2000
Pot să acopăr restul părţii superioare a cubului.
03:47
And if I coveracoperi the restodihnă of the cubecub you can see that they are identicalidentic.
83
211000
3000
şi dacă acopăr restul cubului veţi vedea că sunt identice.
03:50
And if you don't believe me you can get the slidealuneca latermai tarziu
84
214000
2000
Iar dacă nu mă credeţi puteţi primi slide-ul mai târziu
03:52
and do some artsarte and craftsmeserii and see that they're identicalidentic.
85
216000
3000
şi să faceţi câteva manevre ca să vedeţi că sunt identice.
03:55
But again it's the samela fel storypoveste
86
219000
2000
Dar din nou este aceeaşi poveste
03:57
that if we take the backgroundfundal away,
87
221000
2000
dacă înlăturăm fundalul,
03:59
the illusionamăgire comesvine back. Right.
88
223000
2000
iluzia reapare. Desigur.
04:01
There is no way for us not to see this illusionamăgire.
89
225000
3000
Nu avem cum să nu vedem această iluzie.
04:04
I guessghici maybe if you're colorblindColorblind I don't think you can see that.
90
228000
3000
Dacă nu distingeţi culorile, bănuiesc că nu puteţi vedea aceasta.
04:07
I want you to think about illusionamăgire as a metaphormetaforă.
91
231000
3000
Aş vrea să trataţi iluzia ca o metaforă.
04:10
VisionViziune is one of the bestCel mai bun things we do.
92
234000
2000
Vederea este unul din cele mai bune lucruri pe care le facem.
04:12
We have a hugeimens partparte of our braincreier dedicateddedicat to visionviziune --
93
236000
2000
O mare parte a creierului nostru este dedicată vederii.
04:14
biggermai mare than dedicateddedicat to anything elsealtfel.
94
238000
2000
Mai mare decât cele dedicate la orice altceva.
04:16
We do more visionviziune more hoursore of the day than we do anything elsealtfel.
95
240000
4000
Vedem mai multe ore zilnic decât facem orice altceva.
04:20
And we are evolutionarilyevolutiv designedproiectat to do visionviziune.
96
244000
2000
Şi suntem evolutiv proiectaţi pentru a vedea.
04:22
And if we have these predictablepredictibil repeatablerepetabile mistakesgreșeli in visionviziune,
97
246000
3000
Iar dacă avem aceste greşeli de vedere repetabile şi predictibile,
04:25
whichcare we're so good at,
98
249000
2000
la care suntem atât de buni,
04:27
what's the chanceşansă that we don't make even more mistakesgreșeli
99
251000
2000
care este şansa să nu facem şi mai multe greşeli
04:29
in something we're not as good at --
100
253000
2000
în domenii în care nu suntem atât de buni.
04:31
for exampleexemplu, financialfinanciar decisiondecizie makingluare:
101
255000
2000
De exemplu, în luarea deciziilor financiare.
04:33
(LaughterRâs)
102
257000
2000
(Râsete)
04:35
something we don't have an evolutionaryevolutiv reasonmotiv to do,
103
259000
2000
Ceva ce nu are o susţinere evolutivă.
04:37
we don't have a specializedde specialitate partparte of the braincreier,
104
261000
2000
Nu avem o parte specializată a creierului,
04:39
and we don't do that manymulți hoursore of the day.
105
263000
2000
şi nu o facem atâtea ore zilnic.
04:41
And the argumentargument is in those casescazuri
106
265000
3000
Si controversa , în aceste cazuri
04:44
it mightar putea be the issueproblema that we actuallyde fapt make manymulți more mistakesgreșeli
107
268000
4000
poate fi, că în realitate facem mai multe greşeli.
04:48
and, worsemai rau, not have an easyuşor way to see them.
108
272000
3000
Şi mai rău, nu avem un mijloc simplu de a le vedea.
04:51
Because in visualvizual illusionsiluzii we can easilyuşor demonstratedemonstra the mistakesgreșeli;
109
275000
3000
Deoarece în cazul iluziilor vizuale putem demonstra uşor greşelile.
04:54
in cognitivecognitiv illusionamăgire it's much, much harderMai tare
110
278000
2000
În iluziile cognitive este mult, mult mai greu
04:56
to demonstratedemonstra to people the mistakesgreșeli.
111
280000
2000
să demonstrezi oamenilor greşelile.
04:58
So I want to showspectacol you some cognitivecognitiv illusionsiluzii,
112
282000
3000
Aşa că vreau să vă prezint câteva iluzii cognitive,
05:01
or decision-makingluarea deciziilor illusionsiluzii, in the samela fel way.
113
285000
3000
sau iluzii de luare a deciziilor, în acelaşi mod.
05:04
And this is one of my favoritefavorit plotsparcele in socialsocial sciencesștiințe.
114
288000
3000
Şi acesta este unul dintre domeniile mele favorite din ştiinţele sociale.
05:07
It's from a paperhârtie by JohnsonJohnson and GoldsteinGoldstein.
115
291000
4000
Este dintr-un articol de Johnson şi Goldstein.
05:11
And it basicallype scurt showsspectacole
116
295000
2000
Şi practic arată că
05:13
the percentageprocent of people who indicatedindicate
117
297000
2000
procentul celor care au indicat
05:15
they would be interestedinteresat in givingoferindu- theiral lor organsorgane to donationdonare.
118
299000
4000
că ar fi interesaţi de donarea organelor lor.
05:19
And these are differentdiferit countriesțări in EuropeEuropa. And you basicallype scurt
119
303000
2000
Iar acestea sunt ţări diferite din Europa. În esenţă vedeţi
05:21
see two typestipuri of countriesțări:
120
305000
2000
două tipuri de ţări.
05:23
countriesțări on the right, that seempărea to be givingoferindu- a lot;
121
307000
2000
Ţările din drepta care par a fi favorabile.
05:25
and countriesțări on the left that seempărea to givingoferindu- very little,
122
309000
3000
şi ţările din stânga care par a fi foarte puţin favorabile,
05:28
or much lessMai puțin.
123
312000
2000
sau mult mai puţin.
05:30
The questionîntrebare is, why? Why do some countriesțări give a lot
124
314000
2000
Întrebarea este: De ce? De ce unele ţări dau mult
05:32
and some countriesțări give a little?
125
316000
2000
iar alte ţări dau puţin?
05:34
When you askcere people this questionîntrebare,
126
318000
2000
Când puneţi oamenilor această întrebare,
05:36
they usuallyde obicei think that it has to be something about culturecultură.
127
320000
2000
de obicei se gândesc că trebuie să aibă legătură cu cultura.
05:38
Right? How much do you careîngrijire about people?
128
322000
2000
Corect? Cât vă pasă de oameni?
05:40
GivingDa your organsorgane to somebodycineva elsealtfel
129
324000
2000
Donarea organelor
05:42
is probablyprobabil about how much you careîngrijire about societysocietate, how linkedlegat you are.
130
326000
3000
este probabil despre cât de mult îţi pasă de societate, despre cât de legat eşti.
05:45
Or maybe it is about religionreligie.
131
329000
2000
Sau poate este despre religie.
05:47
But, if you look at this plotintrigă,
132
331000
2000
Dar dacă priviţi acest grafic
05:49
you can see that countriesțări that we think about as very similarasemănător
133
333000
3000
veţi observa că ţări despre care credem că sunt foarte asemănătoare
05:52
actuallyde fapt exhibitexpoziţie very differentdiferit behaviorcomportament.
134
336000
3000
afişează în realitate manifestări foarte diferite.
05:55
For exampleexemplu, SwedenSuedia is all the way on the right,
135
339000
2000
De exemplu, Suedia este total în dreapta.
05:57
and DenmarkDanemarca, that we think is culturallycultural very similarasemănător,
136
341000
3000
Si Danemarca, despre care apreciem că este foarte apropiată cultural,
06:00
is all the way on the left.
137
344000
2000
este total în stânga.
06:02
GermanyGermania is on the left. And AustriaAustria is on the right.
138
346000
4000
Germania este în stânga. Şi Austria este în dreapta.
06:06
The NetherlandsOlanda is on the left. And BelgiumBelgia is on the right.
139
350000
3000
Olanda este în stânga. Şi Belgia este în dreapta.
06:09
And finallyin sfarsit, dependingîn funcție on your particularspecial versionversiune
140
353000
3000
Iar în final, în funcţie de versiunea dumneavoastră specifică,
06:12
of EuropeanEuropene similaritysimilitudine,
141
356000
2000
sau similitudinea europeană,
06:14
you can think about the U.K and FranceFranţa as eitherfie similarasemănător culturallycultural or not.
142
358000
5000
puteţi aprecia ca Marea Britanie şi Franţa sunt similare cultural sau nu.
06:19
But it turnstransformă out that from organorgan donationdonare they are very differentdiferit.
143
363000
4000
Dar reiese că sunt foarte diferite din punct de vedere al donării de organe.
06:23
By the way, the NetherlandsOlanda is an interestinginteresant storypoveste.
144
367000
2000
Apropo, Olanda are o poveste interesantă.
06:25
You see the NetherlandsOlanda is kinddrăguț of the biggestCea mai mare of the smallmic groupgrup.
145
369000
5000
Observaţi că Olanda este cam cea mai mare din grupul mic.
06:30
TurnsSe transformă out that they got to 28 percentla sută
146
374000
3000
Se dovedeşte că au ajuns la 28 la sută
06:33
after mailingpoștală everyfiecare householdgospodărie in the countryțară a letterscrisoare
147
377000
3000
după ce au fost trimise scrisori fiecărei gospodării din ţară
06:36
beggingcerşit people to joina adera this organorgan donationdonare programprogram.
148
380000
3000
implorând oamenii să se alăture programului de donare.
06:39
You know the expressionexpresie, "BeggingCerşit only getsdevine you so fardeparte"?
149
383000
3000
Cunoaşteţi vorba "Primeşti doar dacă ceri."
06:42
It's 28 percentla sută in organorgan donationdonare.
150
386000
3000
Sunt 28 de procente în donarea organelor.
06:45
(LaughterRâs)
151
389000
2000
(Râsete)
06:47
But whateverindiferent de the countriesțări on the right are doing
152
391000
2000
Dar orice ar face ţările din dreapta
06:49
they are doing a much better jobloc de munca than beggingcerşit.
153
393000
2000
ele fac ceva mult mai bine decât să doar ceară.
06:51
So what are they doing?
154
395000
2000
Deci ce fac ele?
06:53
TurnsSe transformă out the secretsecret has to do with a formformă at the DMVDMV.
155
397000
3000
S-a dovedit că secretul are legătură cu un formular de la înregistrarea vehiculelor.
06:56
And here is the storypoveste.
156
400000
2000
Iată istoria.
06:58
The countriesțări on the left have a formformă at the DMVDMV
157
402000
2000
Ţările din stânga au un formular la registrul auto
07:00
that looksarată something like this.
158
404000
2000
care arată cam aşa.
07:02
CheckVerifica the boxcutie belowde mai jos if you want to participateparticipa
159
406000
2000
Bifaţi căsuţa de mai jos dacă doriţi să participaţi
07:04
in the organorgan donordonator programprogram.
160
408000
2000
în programul de donare de organe.
07:06
And what happensse întâmplă?
161
410000
2000
Şi ce se întâmplă?
07:08
People don't checkVerifica, and they don't joina adera.
162
412000
3000
Oamenii nu bifează. Şi nu participă.
07:11
The countriesțări on the right, the onescele that give a lot,
163
415000
2000
Ţările din dreapta, cele care donează mult,
07:13
have a slightlypuțin differentdiferit formformă.
164
417000
2000
au un formular uşor diferit.
07:15
It saysspune checkVerifica the boxcutie belowde mai jos if you don't want to participateparticipa.
165
419000
3000
Care spune: bifaţi căsuţa de mai jos dacă nu vreţi să participaţi.
07:18
InterestinglyInteresant enoughdestul, when people get this,
166
422000
2000
Destul de interesant, când oamenii primesc asta,
07:20
they again don't checkVerifica -- but now they joina adera.
167
424000
3000
ei din nou nu bifează. Doar că acum participă.
07:23
(LaughterRâs)
168
427000
3000
(Râsete)
07:26
Now think about what this meansmijloace.
169
430000
3000
Acum gândiţi-vă ce înseamnă asta.
07:29
We waketrezi up in the morningdimineaţă and we feel we make decisionsdeciziile.
170
433000
4000
Ne trezim dimineaţa şi simţim că luăm decizii.
07:33
We waketrezi up in the morningdimineaţă and we opendeschis the closetdulap
171
437000
2000
Ne trezim dimineaţa şi deschidem dulapul.
07:35
and we feel that we decidea decide what to wearpurta.
172
439000
2000
Şi simţim că decidem ce haine vom purta.
07:37
And we opendeschis the refrigeratorfrigider and we feel that we decidea decide what to eatmânca.
173
441000
3000
Şi deschidem frigiderul. Şi simţim că decidem ce vom mânca.
07:40
What this is actuallyde fapt sayingzicală is that
174
444000
2000
Ceea ce spune asta de fapt este că
07:42
much of these decisionsdeciziile are not residingReşedinţa withinîn us.
175
446000
2000
multe din aceste decizii nu sunt în noi.
07:44
They are residingReşedinţa in the personpersoană who is designingproiect that formformă.
176
448000
3000
Ele sunt în persoana care a proiectat acel formular.
07:47
When you walkmers pe jos into the DMVDMV,
177
451000
3000
Când intri la registrul auto,
07:50
the personpersoană who designedproiectat the formformă will have a hugeimens influenceinfluență
178
454000
2000
persoana care a proiectat acel formular va avea o influenţă imensă
07:52
on what you'llveți endSfârşit up doing.
179
456000
2000
asupra ce veţi face în final.
07:54
Now it's alsode asemenea very hardgreu to intuitIntuit these resultsrezultate. Think about it for yourselftu.
180
458000
4000
Aceste rezultate sunt deasemenea foarte greu de intuit. Gândiţi-vă.
07:58
How manymulți of you believe
181
462000
2000
Câţi din voi credeţi
08:00
that if you wenta mers to renewreînnoi your licenselicență tomorrowMâine,
182
464000
2000
că dacă aţi merge mâine să reînnoiţi licenţa,
08:02
and you wenta mers to the DMVDMV,
183
466000
2000
şi aţi merge la registrul auto,
08:04
and you would encounterîntâlni one of these formsformulare,
184
468000
2000
şi aţi întâlni unul din aceste formulare,
08:06
that it would actuallyde fapt changeSchimbare your ownpropriu behaviorcomportament?
185
470000
3000
el ar schimba efectiv comportamentul vostru?
08:09
Very, very hardgreu to think that you will influenceinfluență us.
186
473000
2000
Foarte, foarte greu a gândi că ne-ar influenţa.
08:11
We can say, "Oh, these funnyamuzant EuropeansEuropenii, of coursecurs it would influenceinfluență them."
187
475000
2000
Putem zice, "Oh, aceşti europeni ciudaţi. Desigur că i-ar influenţa."
08:13
But when it comesvine to us,
188
477000
3000
Dar când ne vine rândul
08:16
we have suchastfel de a feelingsentiment that we are at the driver'sconducătorului auto seatscaun,
189
480000
2000
avem sentimentul că noi suntem la volan,
08:18
we have suchastfel de a feelingsentiment that we are in controlControl,
190
482000
2000
avem sentimentul că suntem în control,
08:20
and we are makingluare the decisiondecizie,
191
484000
2000
şi că noi luăm deciziile,
08:22
that it's very hardgreu to even acceptAccept
192
486000
2000
de aceea este foarte greu de acceptat
08:24
the ideaidee that we actuallyde fapt have
193
488000
2000
chiar şi ideea că de fapt avem doar
08:26
an illusionamăgire of makingluare a decisiondecizie, rathermai degraba than an actualreal decisiondecizie.
194
490000
4000
iluzia că luăm o decizie, în loc de o decizie reală.
08:30
Now, you mightar putea say,
195
494000
2000
Acum, aţi putea spune,
08:32
"These are decisionsdeciziile we don't careîngrijire about."
196
496000
3000
"Acestea sunt decizii de care nu ne pasă."
08:35
In factfapt, by definitiondefiniție, these are decisionsdeciziile
197
499000
2000
De fapt, prin definiţie, acestea sunt decizii
08:37
about something that will happenîntâmpla to us after we diea muri.
198
501000
2000
despre ceva care se va întâmpla după ce vom muri.
08:39
How could we careîngrijire about something lessMai puțin
199
503000
3000
Cum am putea să ne preocupăm de ceva
08:42
than something that happensse întâmplă after we diea muri?
200
506000
2000
care se va întâmpla după ce vom muri?
08:44
So a standardstandard economisteconomist, someonecineva who believescrede in rationalityrațiune,
201
508000
3000
Deci un economist mediu, care crede în raţionalitate,
08:47
would say, "You know what? The costa costat of liftingridicare the pencilcreion
202
511000
3000
ar spune, "Ştiţi ceva? Costul ridicării creionului
08:50
and markingmarcarea a V is highersuperior than the possibleposibil
203
514000
2000
şi bifării este mai mare decât
08:52
benefitbeneficiu of the decisiondecizie,
204
516000
2000
potenţialul beneficiu al deciziei."
08:54
so that's why we get this effectefect."
205
518000
2000
Deci de asta obţinem acest efect.
08:56
But, in factfapt, it's not because it's easyuşor.
206
520000
3000
Dar, de fapt, nu e fiindcă e uşor.
08:59
It's not because it's trivialbanal. It's not because we don't careîngrijire.
207
523000
3000
Nu e fiindcă e trivial. Nu e fiindcă nu ne pasă.
09:02
It's the oppositeopus. It's because we careîngrijire.
208
526000
3000
Ba dimpotrivă. Este fiindcă ne pasă.
09:05
It's difficultdificil and it's complexcomplex.
209
529000
2000
Este dificult şi este complex.
09:07
And it's so complexcomplex that we don't know what to do.
210
531000
2000
Şi este aşa de complex încât nu ştim ce să facem.
09:09
And because we have no ideaidee what to do
211
533000
2000
Şi fiindcă nu ştim ce să facem
09:11
we just pickalege whateverindiferent de it was that was chosenales for us.
212
535000
4000
doar alegem orice a fost deja ales pentru noi.
09:15
I'll give you one more exampleexemplu for this.
213
539000
2000
Vă mai dau un exemplu pentru asta.
09:17
This is from a paperhârtie by RedelmeierRedelmeier and SchaeferSchaefer.
214
541000
3000
Aceasta este un fomular al Redelmeier and Schaefer.
09:20
And they said, "Well, this effectefect alsode asemenea happensse întâmplă to expertsexperți,
215
544000
3000
Iar ei spun, "Păi, acest efect se întâmplă şi experţilor,
09:23
people who are well-paidbine plătit, expertsexperți in theiral lor decisionsdeciziile,
216
547000
3000
unora care sunt bine plătiţi, experţi în deciziile lor,
09:26
do it a lot."
217
550000
2000
şi ei fac asta de multe ori."
09:28
And they basicallype scurt tooka luat a groupgrup of physiciansmedici.
218
552000
2000
De fapt au luat un grup de medici.
09:30
And they presenteda prezentat to them a casecaz studystudiu of a patientrabdator.
219
554000
2000
Şi le-au prezentat studiul de caz al unui pacient.
09:32
Here is a patientrabdator. He is a 67-year-old-de ani farmeragricultor.
220
556000
4000
Iată pacientul. El este un fermier de 67 ani.
09:36
He's been sufferingsuferinţă from a right hipşold paindurere for a while.
221
560000
2000
Suferă de o vreme de o durere în şoldul drept.
09:38
And then they said to the physicianmedic,
222
562000
2000
Apoi au spus medicilor,
09:40
"You decideda decis a fewpuțini weekssăptămâni agoîn urmă
223
564000
2000
"Cu câteva săptămâni în urmă aţi decis
09:42
that nothing is workinglucru for this patientrabdator.
224
566000
2000
că niciun tratament nu ajută la acest pacient.
09:44
All these medicationsmedicamente, nothing seemspare to be workinglucru.
225
568000
2000
Toate aceste medicamente. Nimic nu pare a folosi.
09:46
So you refertrimite the patientrabdator to hipşold replacementînlocuire therapyterapie.
226
570000
3000
Aşa că recomandaţi pacientului terapia prin înlocuirea şoldului.
09:49
HipŞold replacementînlocuire. Okay?"
227
573000
2000
Înlocuirea şoldului. În regulă?"
09:51
So the patientrabdator is on a pathcale to have his hipşold replacedînlocuit.
228
575000
3000
Aşa că pacientul e pe cale de a i se înlocui şoldul.
09:54
And then they said to halfjumătate the physiciansmedici, they said,
229
578000
2000
Şi apoi se spune la jumătate din medici,
09:56
"YesterdayIeri you reviewedrevizuite the patient'spacientului casecaz
230
580000
2000
"Ieri aţi revăzut cazul pacientului
09:58
and you realizedrealizat that you forgotuitat to try one medicationmedicament.
231
582000
3000
şi v-aţi dat seama că aţi uitat să încercaţi un medicament.
10:01
You did not try ibuprofenibuprofenul.
232
585000
3000
Nu aţi încercat ibuprofen.
10:04
What do you do? Do you pullTrage the patientrabdator back and try ibuprofenibuprofenul?
233
588000
3000
Ce veţi face? Retrageţi pacientul de la operaţie şi încercaţi ibuprofen?
10:07
Or do you let them go and have hipşold replacementînlocuire?"
234
591000
3000
Sau îl lăsaţi să primească un şold nou?"
10:10
Well the good newsștiri is that mostcel mai physiciansmedici in this casecaz
235
594000
2000
Vestea bună e că în acest caz majoritatea medicilor
10:12
decideda decis to pullTrage the patientrabdator and try the ibuprofenibuprofenul.
236
596000
3000
au decis să retragă pacientul şi să încerce ibuprofen.
10:15
Very good for the physiciansmedici.
237
599000
2000
Foarte bine pentru medici.
10:17
The other groupgrup of the physiciansmedici, they said,
238
601000
2000
Celuilalt grup de medici li s-a spus,
10:19
"YesterdayIeri when you reviewedrevizuite the casecaz
239
603000
2000
"Ieri când aţi revăzut cazul
10:21
you discovereddescoperit there were two medicationsmedicamente you didn't try out yetinca,
240
605000
2000
aţi descoperit că au fost două medicamente pe care nu le-aţi încercat încă,
10:23
ibuprofenibuprofenul and piroxicampiroxicam."
241
607000
3000
ibuprofen şi piroxicam."
10:26
And they said, "You have two medicationsmedicamente you didn't try out yetinca. What do you do?
242
610000
3000
Apoi au spus, "Aveţi două medicamente pe care nu le aţi încercat încă. Ce faceţi?
10:29
You let them go. Or you pullTrage them back.
243
613000
2000
Îl lăsaţi sau îl retrageţi de la operaţie.
10:31
And if you pullTrage them back do you try ibuprofenibuprofenul or piroxicampiroxicam? WhichCare one?"
244
615000
3000
Şi dacă îl retrageţi, veţi încerca ibuprofen sau piroxicam? Care din ele?"
10:34
Now think of it. This decisiondecizie
245
618000
2000
Acum gândiţi-vă. Această decizie
10:36
makesmărci it as easyuşor to let the patientrabdator continuecontinua with hipşold replacementînlocuire.
246
620000
3000
face mai uşor ca pacientul să continue cu înlocuirea şoldului.
10:39
But pullingtrăgând them back, all of the suddenbrusc becomesdevine more complexcomplex.
247
623000
3000
Dar retrăgându-l, decizia devine deodată mult mai complexă.
10:42
There is one more decisiondecizie.
248
626000
2000
Este o decizie în plus.
10:44
What happensse întâmplă now?
249
628000
2000
Ce se întâmplă acum?
10:46
MajorityMajoritatea of the physiciansmedici now choosealege to let the patientrabdator go
250
630000
3000
Majoritatea medicilor aleg acum să lase pacientul să continue
10:49
to hipşold replacementînlocuire.
251
633000
2000
cu înlocuirea şoldului.
10:51
I hopesperanţă this worriesgriji you, by the way --
252
635000
2000
Apropo, sper că asta vă îngrijorează --
10:53
(LaughterRâs)
253
637000
1000
(Râsete)
10:54
when you go to see your physicianmedic.
254
638000
2000
când mergeţi la medicul vostru.
10:56
The thing is is that no physicianmedic would ever say,
255
640000
3000
Chestia este că niciun medic nu va spune vreodată,
10:59
"PiroxicamPiroxicam, ibuprofenibuprofenul, hipşold replacementînlocuire.
256
643000
2000
"Piroxicam, ibuprofen, înlocuirea şoldului.
11:01
Let's go for hipşold replacementînlocuire."
257
645000
2000
Să alegem înlocuirea şoldului."
11:03
But the momentmoment you seta stabilit this as the defaultîn mod implicit
258
647000
3000
Dar în momentul în care setaţi asta ca valorea implicită
11:06
it has a hugeimens powerputere over whateverindiferent de people endSfârşit up doing.
259
650000
4000
ea are o putere imensă asupra ce vor face oamenii în final.
11:10
I'll give you a couplecuplu of more examplesexemple on irrationaliraţional decision-makingluarea deciziilor.
260
654000
3000
Vă voi da alte câteva exemple de luări de decizii iraţionale.
11:13
ImagineImaginaţi-vă I give you a choicealegere.
261
657000
2000
imaginaţi-vă că vă dau de ales.
11:15
Do you want to go for a weekendweek-end to RomeRoma?
262
659000
2000
Vreţi să mergeţi la Roma pentru un weekend?
11:17
All expensescheltuielile paidplătit:
263
661000
2000
Toate cheltuielile plătite,
11:19
hotelhotel, transportationtransport, foodalimente, breakfastmic dejun,
264
663000
2000
hotel, trasport, mâncare, mic dejun,
11:21
a continentalcontinental breakfastmic dejun, everything.
265
665000
2000
mic dejun continental, totul.
11:23
Or a weekendweek-end in ParisParis?
266
667000
2000
Sau un weekend la Paris?
11:25
Now, a weekendweek-end in ParisParis, a weekendweek-end in RomeRoma, these are differentdiferit things;
267
669000
3000
Acum, un weekend la Paris, un weekend la Roma, acestea sunt lucruri diferite.
11:28
they have differentdiferit foodalimente, differentdiferit culturecultură, differentdiferit artartă.
268
672000
2000
Au mâncare, cultură, artă diferite.
11:30
Now imagineimagina I addedadăugat a choicealegere to the seta stabilit
269
674000
2000
Acum imaginaţi-vă că adaug la cele două
11:32
that nobodynimeni wanted.
270
676000
2000
o variantă pe care nimeni nu o vrea.
11:34
ImagineImaginaţi-vă I said, "A weekendweek-end in RomeRoma,
271
678000
2000
Imaginaţi-vă că spun, "Un weekend la Roma,
11:36
a weekendweek-end in ParisParis, or havingavând your carmașină stolenfurat?"
272
680000
3000
un weekend la Paris sau maşina voastră va fi furată?"
11:39
(LaughterRâs)
273
683000
3000
(Râsete)
11:42
It's a funnyamuzant ideaidee, because why would havingavând your carmașină stolenfurat,
274
686000
3000
Este o idee ciudată. Fiindcă de ce ar influenţa orice, în acest context,
11:45
in this seta stabilit, influenceinfluență anything?
275
689000
2000
că maşina voastră ar fi furată?
11:47
(LaughterRâs)
276
691000
2000
(Râsete)
11:49
But what if the optionopțiune to have your carmașină stolenfurat
277
693000
3000
Dar dacă opţiunea cu furtul maşinii
11:52
was not exactlyexact like this.
278
696000
2000
nu ar fi fost exact aşa.
11:54
What if it was a tripexcursie to RomeRoma, all expensescheltuielile paidplătit,
279
698000
2000
Ce ar fi dacă era o excursie la Roma, toate cheltuielile plătite
11:56
transportationtransport, breakfastmic dejun,
280
700000
2000
tranportul, micul dejun.
11:58
but doesn't includeinclude coffeecafea in the morningdimineaţă.
281
702000
3000
Dar nu ar fi inclus cafeaua de dimineaţă.
12:01
If you want coffeecafea you have to paya plati for it yourselftu. It's two euroseuro 50.
282
705000
3000
Dacă vreţi cafea, o plătiţi singuri. Costă doi euro şi jumătate.
12:04
Now in some waysmoduri,
283
708000
3000
Acum, pe de altă parte,
12:07
givendat that you can have RomeRoma with coffeecafea,
284
711000
2000
dat fiind că puteţi avea Roma cu cafea,
12:09
why would you possiblyeventual want RomeRoma withoutfără coffeecafea?
285
713000
3000
de ce oare aţi dori Roma fără cafea?
12:12
It's like havingavând your carmașină stolenfurat. It's an inferiorinferioare optionopțiune.
286
716000
3000
E ca şi cum v-ar fura maşina. Este o opţiune inferioară.
12:15
But guessghici what happeneds-a întâmplat. The momentmoment you addadăuga RomeRoma withoutfără coffeecafea,
287
719000
2000
Dar ghiciţi ce s-a întâmplat. În momentul în care adăugaţi Roma fără cafea,
12:17
RomeRoma with coffeecafea becomesdevine more popularpopular. And people choosealege it.
288
721000
5000
Roma cu cafea devine mai populară. Iar oamenii o aleg.
12:22
The factfapt that you have RomeRoma withoutfără coffeecafea
289
726000
3000
Faptul că aveţi Roma fără cafea
12:25
makesmărci RomeRoma with coffeecafea look superiorsuperior,
290
729000
2000
face ca Roma cu cafea să arate mai superior.
12:27
and not just to RomeRoma withoutfără coffeecafea -- even superiorsuperior to ParisParis.
291
731000
3000
Şi nu numai faţă de Roma fără cafea, dar chiar şi faţă de Paris.
12:30
(LaughterRâs)
292
734000
4000
(Râsete)
12:34
Here are two examplesexemple of this principleprincipiu.
293
738000
2000
Iată două exemple pentru acest principiu.
12:36
This was an adanunț from The EconomistEconomist a fewpuțini yearsani agoîn urmă
294
740000
3000
Aceasta a fost cu câţiva ani în urmă o reclamă in revista The Economist
12:39
that gavea dat us threeTrei choicesalegeri.
295
743000
2000
care ne dădea trei opţiuni.
12:41
An onlinepe net subscriptionabonament for 59 dollarsdolari.
296
745000
3000
Un abonament online pentru 59 dolari.
12:44
A printimprimare subscriptionabonament for 125.
297
748000
4000
Un abonament la exemplarul tipărit pentru 125.
12:48
Or you could get bothambii for 125.
298
752000
2000
Sau le puteaţi obţine pe amândouă pentru 125.
12:50
(LaughterRâs)
299
754000
2000
(Râsete)
12:52
Now I lookedprivit at this and I calleddenumit up The EconomistEconomist.
300
756000
2000
Am văzut asta şi am sunat The Economist.
12:54
And I triedîncercat to figurefigura out what were they thinkinggândire.
301
758000
3000
Şi am încercat să înţeleg la ce se gândeau.
12:57
And they passeda trecut me from one personpersoană to anothero alta to anothero alta,
302
761000
3000
Şi m-au pasat de o persoană la alta.
13:00
untilpana cand eventuallyîn cele din urmă I got to a personpersoană who was in chargeîncărca of the websitewebsite.
303
764000
4000
Până la urmă am ajuns la o persoană responsabilă cu pagina de web.
13:04
And I calleddenumit them up. And they wenta mers to checkVerifica what was going on.
304
768000
3000
Şi i-am sunat. Iar ei au verificat ce se întâmplă.
13:07
The nextUrmător → thing I know, the adanunț is goneplecat. And no explanationexplicaţie.
305
771000
4000
După care reclama a dispărut. Fără explicaţie.
13:11
So I decideda decis to do the experimentexperiment
306
775000
2000
Aşa că am decis să fac experimentul
13:13
that I would have lovediubit The EconomistEconomist to do with me.
307
777000
3000
pe care aş fi fost încântat ca The Economist să-l facă cu mine.
13:16
I tooka luat this and I gavea dat it to 100 MITMIT studentselevi.
308
780000
2000
Am luat asta şi l-am dat la 100 de studenţi de la MIT.
13:18
I said, "What would you choosealege?"
309
782000
2000
Am spus, "Ce aţi alege?"
13:20
These are the marketpiaţă shareacțiune. MostCele mai multe people wanted the combocombo dealafacere.
310
784000
4000
Acestea sunt procentajele. Majoritatea au ales varianta combinată.
13:24
ThankfullyDin fericire nobodynimeni wanted the dominateddominat optionopțiune.
311
788000
2000
Din fericire nimeni nu a ales opţiunea dominată.
13:26
That meansmijloace our studentselevi can readcitit.
312
790000
2000
Asta înseamnă că studenţii pot citi.
13:28
(LaughterRâs)
313
792000
1000
(Râsete)
13:29
But now if you have an optionopțiune that nobodynimeni wants,
314
793000
3000
Dar acum, dacă avem o opţiune pe care nimeni nu o vrea
13:32
you can take it off. Right?
315
796000
2000
îl puteţi scoate. Corect?
13:34
So I printedimprimate anothero alta versionversiune of this,
316
798000
2000
Aşa că am tipărit o altă versiune a acestei reclame.
13:36
where I eliminatedeliminat the middlemijloc optionopțiune.
317
800000
2000
Unde am eliminat opţiunea din mijloc.
13:38
I gavea dat it to anothero alta 100 studentselevi. Here is what happensse întâmplă.
318
802000
3000
Am dat-o la alţi 100 de studenţi. Iată ce s-a întâmplat.
13:41
Now the mostcel mai popularpopular optionopțiune becamea devenit the leastcel mai puţin popularpopular.
319
805000
3000
Acum opţiunea cea mai populară a devenit cea mai puţin populară.
13:44
And the leastcel mai puţin popularpopular becamea devenit the mostcel mai popularpopular.
320
808000
3000
Iar cea mai puţin populară a devenit cea mai populară.
13:47
What was happeninglucru was the optionopțiune that was uselessinutil,
321
811000
4000
Ce se întâmpla era că opţiunea care era fără folos,
13:51
in the middlemijloc, was uselessinutil in the sensesens that nobodynimeni wanted it.
322
815000
4000
cea din mijloc, era fără folos în sensul că nimeni nu o dorea.
13:55
But it wasn'tnu a fost uselessinutil in the sensesens that it helpeda ajutat people figurefigura out
323
819000
2000
Dar nu era fără folos în sensul că a ajutat oamenii să-şi
13:57
what they wanted.
324
821000
2000
dea seama ce vor de fapt.
13:59
In factfapt, relativerelativ to the optionopțiune in the middlemijloc,
325
823000
3000
De fapt, relativ la opţiunea din mijloc,
14:02
whichcare was get only the printimprimare for 125,
326
826000
4000
care era pentru a primi doar versiunea tipărită pentru 125,
14:06
the printimprimare and webweb for 125 lookedprivit like a fantasticfantastic dealafacere.
327
830000
4000
cea cu versiunea tipărită şi web pentru 125 părea o afacere fantastică.
14:10
And as a consequenceconsecinţă, people chosea ales it.
328
834000
2000
Şi în consecinţă oamenii o alegeau.
14:12
The generalgeneral ideaidee here, by the way,
329
836000
2000
Ideea generală aici este că de fapt
14:14
is that we actuallyde fapt don't know our preferencesPreferinţe that well.
330
838000
2000
noi nu ne cunoaştem preferinţele aşa de bine.
14:16
And because we don't know our preferencesPreferinţe that well
331
840000
2000
Şi fiindcă nu ştim preferinţele noastre aşa de bine
14:18
we're susceptiblesusceptibil to all of these influencesinfluențe from the externalextern forcesforţele:
332
842000
4000
suntem susceptibili la toate aceste influenţe ale forţelor externe.
14:22
the defaultsvalorile implicite, the particularspecial optionsOpțiuni that are presenteda prezentat to us, and so on.
333
846000
4000
La valorile implicite, la opţiunile concrete care sunt ne prezentate.
14:26
One more exampleexemplu of this.
334
850000
2000
Şi aşa mai departe. Încă un exemplu de acest tip.
14:28
People believe that when we dealafacere with physicalfizic attractionatracţie,
335
852000
3000
Oamenii cred că atunci când e vorba de atracţia fizică,
14:31
we see somebodycineva, and we know immediatelyimediat whetherdacă we like them or not,
336
855000
3000
vedem pe cineva şi ştim imediat dacă ne place sau nu.
14:34
attractedatras or not.
337
858000
2000
Ne atrage sau nu.
14:36
WhichCare is why we have these four-minutepatru minute datesdatele.
338
860000
2000
Din care cauză se organizează aceste întâlniri de patru minute.
14:38
So I decideda decis to do this experimentexperiment with people.
339
862000
3000
Aşa că am decis să fac acest experiment cu oameni.
14:41
I'll showspectacol you graphicgrafic imagesimagini of people -- not realreal people.
340
865000
2000
Vă voi arăta imaginea grafică a unor oameni -- nu persoane reale.
14:43
The experimentexperiment was with people.
341
867000
2000
Experimentul a fost cu oameni.
14:45
I showeda arătat some people a pictureimagine of TomTom, and a pictureimagine of JerryJerry.
342
869000
3000
Am arătat unor oameni o poză cu Tom şi una cu Jerry.
14:48
I said "Who do you want to dateData? TomTom or JerryJerry?"
343
872000
3000
Am spus "Cu cine vreţi să vă întâlniţi? Cu Tom sau cu Jerry?"
14:51
But for halfjumătate the people I addedadăugat an uglyurât versionversiune of JerryJerry.
344
875000
4000
Dar pentru jumătate din oameni am adăugat o versiune urâtă a lui Jerry.
14:55
I tooka luat PhotoshopPhotoshop and I madefăcut JerryJerry slightlypuțin lessMai puțin attractiveatractiv.
345
879000
5000
Am folosit Photoshop şi l-am făcut pe Jerry mai puţin atrăgător.
15:00
(LaughterRâs)
346
884000
1000
(Râsete)
15:01
The other people, I addedadăugat an uglyurât versionversiune of TomTom.
347
885000
4000
La ceilalţi oameni, am adăugat o versiune mai urâtă a lui Tom.
15:05
And the questionîntrebare was, will uglyurât JerryJerry and uglyurât TomTom
348
889000
3000
Iar întrebarea era dacă Jerry cel urât şi Tom cel urât
15:08
help theiral lor respectiverespectiv, more attractiveatractiv brothersfrați?
349
892000
4000
vor ajuta fraţii lor mai atractivi?
15:12
The answerRăspuns was absolutelyabsolut yes.
350
896000
2000
Răspunsul a fost un da categoric.
15:14
When uglyurât JerryJerry was around, JerryJerry was popularpopular.
351
898000
2000
Când Jerry cel urât era în jur, Jerry era popular.
15:16
When uglyurât TomTom was around, TomTom was popularpopular.
352
900000
2000
Când Tom cel urât era în preajmă, Tom era popular.
15:18
(LaughterRâs)
353
902000
2000
(Râsete)
15:20
This of coursecurs has two very clearclar implicationsimplicații
354
904000
2000
Desigur asta are două implicaţii
15:22
for life in generalgeneral.
355
906000
4000
foarte clare pentru viaţă în general.
15:26
If you ever go barbar hoppingţopăit, who do you want to take with you?
356
910000
3000
Dacă mergeţi vreodată prin baruri oare pe cineva îl veţi lua cu voi?
15:29
(LaughterRâs)
357
913000
6000
(Râsete)
15:35
You want a slightlypuțin uglierurit versionversiune of yourselftu.
358
919000
3000
Vreţi o versiune puţin mai urâtă a propriei persoane.
15:38
(LaughterRâs)
359
922000
2000
(Râsete)
15:40
SimilarSimilare. SimilarSimilare ... but slightlypuțin uglierurit.
360
924000
2000
Similar. Similar ... dar puţin mai urât.
15:42
(LaughterRâs)
361
926000
2000
(Râsete)
15:44
The secondal doilea pointpunct, or coursecurs, is that
362
928000
2000
A doua concluzie este desigur că
15:46
if somebodycineva elsealtfel invitesinvită you, you know how they think about you.
363
930000
3000
dacă cineva vă invită, veţi şti cum gândesc despre Dvs.
15:49
(LaughterRâs)
364
933000
3000
(Râsete)
15:52
Now you're gettingobtinerea it.
365
936000
2000
Acum aţi înţeles.
15:54
What is the generalgeneral pointpunct?
366
938000
2000
Care e concluzia generală?
15:56
The generalgeneral pointpunct is that when we think about economicseconomie we have
367
940000
2000
Concluzia generală este că atunci când ne gândim la economie
15:58
this beautifulfrumoasa viewvedere of humanuman naturenatură.
368
942000
3000
avem această frumoasă părere despre natura umană.
16:01
"What a piecebucată of work is man! How noblenobil in reasonmotiv!"
369
945000
2000
"Ce operă minunată este omul! Ce nobile sunt motivele sale!"
16:03
We have this viewvedere of ourselvesnoi insine, of othersalții.
370
947000
3000
Avem această părere despre noi înşine, despre alţii.
16:06
The behavioralcomportamentale economicseconomie perspectiveperspectivă
371
950000
2000
Perspectiva economiei comportamentale
16:08
is slightlypuțin lessMai puțin generousgeneros to people.
372
952000
3000
este prea puţin generoasă cu oamenii.
16:11
In factfapt in medicalmedical termstermeni, that's our viewvedere.
373
955000
3000
De fapt, în termeni medicali, aceasta este părerea noastră.
16:14
(LaughterRâs)
374
958000
6000
(Râsete)
16:20
But there is a silverargint liningcăptuşeală.
375
964000
2000
Dar este o consolare.
16:22
The silverargint liningcăptuşeală is, I think,
376
966000
2000
Consolarea este că raţionamentul
16:24
kinddrăguț of the reasonmotiv that behavioralcomportamentale economicseconomie is interestinginteresant and excitingemoționant.
377
968000
4000
economiei comportamentale este interesant şi excitant.
16:28
Are we SupermanSuperman? Or are we HomerHomer SimpsonSimpson?
378
972000
2000
Suntem Superman? Sau sunt Homer Simpson?
16:30
When it comesvine to buildingclădire the physicalfizic worldlume,
379
974000
4000
Când ajungem să clădim lumea fizică,
16:34
we kinddrăguț of understanda intelege our limitationslimitări.
380
978000
2000
se pare că ne înţelegem limitările.
16:36
We buildconstrui stepspași. And we buildconstrui these things
381
980000
2000
Construim trepte. Şi clădim aceste lucruri
16:38
that not everybodytoata lumea can use obviouslyevident.
382
982000
3000
pe care în mod evident nu toţi putem să le utilizăm.
16:41
(LaughterRâs)
383
985000
1000
(Râsete)
16:42
We understanda intelege our limitationslimitări,
384
986000
2000
Ne înţelegem limitările.
16:44
and we buildconstrui around it.
385
988000
2000
Şi construim pe baza lor.
16:46
But for some reasonmotiv when it comesvine to the mentalmental worldlume,
386
990000
2000
Dar din anumite motive când vine vorba de lumea mentală,
16:48
when we designproiecta things like healthcaresănătate and retirementpensionare and stockmarketsstockmarkets,
387
992000
4000
când proiectăm lucruri ca sistemul de sănătate, de pensii şi bursele,
16:52
we somehowoarecum forgeta uita the ideaidee that we are limitedlimitat.
388
996000
2000
cumva uităm ideea că suntem limitaţi.
16:54
I think that if we understoodînțeles our cognitivecognitiv limitationslimitări
389
998000
3000
Cred că dacă înţelegem limitările noastre cognitive
16:57
in the samela fel way that we understanda intelege our physicalfizic limitationslimitări,
390
1001000
2000
în acelaşi mod în care le înţelegem pe cele fizice,
16:59
even thoughdeşi they don't stareholbeze us in the facefață in the samela fel way,
391
1003000
2000
chiar dacă nu ne sar în ochi în acelaşi mod,
17:01
we could designproiecta a better worldlume.
392
1005000
3000
putem proiecta o lume mai bună.
17:04
And that, I think, is the hopesperanţă of this thing.
393
1008000
2000
Iar asta este, cred, speranţa acestui lucru.
17:06
Thank you very much.
394
1010000
2000
Vă mulţumesc foarte mult.
17:08
(ApplauseAplauze)
395
1012000
8000
(Aplauze)
Translated by Laszlo Kereszturi
Reviewed by Alex Ghioiu

▲Back to top

ABOUT THE SPEAKER
Dan Ariely - Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why.

Why you should listen

Dan Ariely is a professor of psychology and behavioral economics at Duke University and a founding member of the Center for Advanced Hindsight. He is the author of the bestsellers Predictably IrrationalThe Upside of Irrationality, and The Honest Truth About Dishonesty -- as well as the TED Book Payoff: The Hidden Logic that Shapes Our Motivations.

Through his research and his (often amusing and unorthodox) experiments, he questions the forces that influence human behavior and the irrational ways in which we often all behave.

More profile about the speaker
Dan Ariely | Speaker | TED.com