ABOUT THE SPEAKER
Alexander Wagner - Economist
Alexander Wagner balances two passions: the thrill of seeking knowledge about fundamentals of human behavior for knowledge's sake, and the desire to apply insights in the real world and to improve the workings of markets and organizations.

Why you should listen

Alexander Wagner has discovered that to most people, what matters is not only how much money they receive but also whether they behaved honestly to receive that money. As Swiss Finance Institute professor at the University of Zurich's Department of Banking and Finance, Wagner has taught corporate finance to thousands of eager students and hundreds of motivated executives, and he has helped shape governance systems of companies large and small. His recent research deals with how investors perceive managerial words and deeds … and with the stock market implications of the Trump election.

More profile about the speaker
Alexander Wagner | Speaker | TED.com
TEDxZurich

Alexander Wagner: What really motivates people to be honest in business

એલેક્ઝાંડર વેગનર: લોકોને વ્યવસાયમાં પ્રમાણિક બનવા ખરેખર શું પ્રેરે છે

Filmed:
1,661,864 views

દર વર્ષે, સાતમાંથી એક મોટી કોર્પોરેશન છેતરપિંડી કરે છે. કેમ? શોધવા માટે, એલેક્ઝાંડર વેગનર અમને યોગ્ય કાર્ય કરવાના અર્થશાસ્ત્ર, નીતિશાસ્ત્ર અને મનોવિજ્ઞાન અંદર લઈ જાય છે. છેતરપિંડીની લપસણો નીચે આત્મનિરીક્ષણ યાત્રા માટે તેની સાથે જોડાઓ કારણ કે તે અમને સમજવામાં મદદ કરે છે કે લોકો શા માટે તેમનું વર્તન કરે છે.
- Economist
Alexander Wagner balances two passions: the thrill of seeking knowledge about fundamentals of human behavior for knowledge's sake, and the desire to apply insights in the real world and to improve the workings of markets and organizations. Full bio

Double-click the English transcript below to play the video.

00:12
How many companies
have you interacted with today?
0
760
3440
આજે તમે કેટલી કંપનીઓ સાથે સંપર્ક કર્યો છે?
00:17
Well, you got up in the morning,
1
5240
1656
સારું, તમે સવારે ઉઠ્યા,
00:18
took a shower,
2
6920
1215
સ્નાન કર્યું,
00:20
washed your hair,
3
8160
1256
તમારા વાળ ધોયા,
00:21
used a hair dryer,
4
9440
1536
વાળ સુકાવાના સાધનનો ઉપયોગ કર્યો,
00:23
ate breakfast --
5
11000
1216
નાસ્તો ખાધો -
00:24
ate cereals, fruit, yogurt, whatever --
6
12240
1858
અનાજ, ફળ, દહીં, જે પણ ખાધું --
00:26
had coffee --
7
14122
1214
કોફી પીધી --
00:27
tea.
8
15360
1376
ચા.
00:28
You took public transport to come here,
9
16760
1976
તમે અહીં આવવા માટે જાહેર પરિવહન લીધું છે,
00:30
or maybe used your private car.
10
18760
1840
અથવા કદાચ તમારી ગાડીનો ઉપયોગ કર્યો.
00:33
You interacted with the company
that you work for or that you own.
11
21520
3560
તમે જે કંપની માટે કામ કરો છો અથવા
તમારી જે કંપની છે, તેનો તમે સંપર્ક કર્યો.
00:38
You interacted with your clients,
12
26160
1960
તમે તમારા ગ્રાહકો સાથે વાતચીત કરી,
00:40
your customers,
13
28760
1200
તમારા ગ્રાહકો,
00:42
and so on and so forth.
14
30640
1256
અને તેથી આગળ અને આગળ.
00:43
I'm pretty sure there are
at least seven companies
15
31920
3616
મને ખાતરી છે કે ત્યાં
ઓછામાં ઓછી સાત કંપનીઓ છે
00:47
you've interacted with today.
16
35560
1760
જેની સાથે તમે આજે વાતચીત કરી છે.
00:49
Let me tell you a stunning statistic.
17
37960
2000
ચાલો હું તમને અદભૂત આંકડા કહું.
00:52
One out of seven
large, public corporations
18
40840
4376
સાત વિશાળ, જાહેર નિગમોમાંથી એક
00:57
commit fraud every year.
19
45240
2240
દર વર્ષે છેતરપિંડી કરે છે.
01:00
This is a US academic study
that looks at US companies --
20
48400
3416
આ યુ.એસ. શૈક્ષણિક અભ્યાસ છે
જે યુએસ કંપનીઓને જુએ છે --
01:03
I have no reason to believe
that it's different in Europe.
21
51840
3200
યુરોપમાં તે જુદું છે,
એમ માનવાનું કોઈ કારણ નથી.
01:07
This is a study that looks
at both detected and undetected fraud
22
55480
4216
આ એક એવો અભ્યાસ છે જે શોધાયેલ અને
ન શોધાયેલ, એમ બંનેને જુએ છે
01:11
using statistical methods.
23
59720
1736
આંકડાકીય પદ્ધતિઓનો ઉપયોગ કરીને.
01:13
This is not petty fraud.
24
61480
1720
આ નાની છેતરપિંડી નથી.
01:16
These frauds cost
the shareholders of these companies,
25
64120
2856
આ છેતરપિંડી આ કંપનીઓના શેરહોલ્ડરોને
નુકસાન પહોંચાડે છે,
01:19
and therefore society,
26
67000
1256
અને તેથી સમાજ,
01:20
on the order of
380 billion dollars per year.
27
68280
3600
દર વર્ષે 380 અબજ ડોલરના હુકમ પર.
01:24
We can all think of some examples, right?
28
72960
2216
આપણે બધા કેટલાક ઉદાહરણો વિચારી શકીએ, ખરું?
01:27
The car industry's secrets
aren't quite so secret anymore.
29
75200
3800
કાર ઉદ્યોગના રહસ્યો હવે એટલા ગુપ્ત નથી.
01:31
Fraud has become a feature,
30
79800
3296
છેતરપિંડી એ એક સુવિધા બની ગઈ છે,
01:35
not a bug,
31
83120
1216
ભૂલ નથી,
01:36
of the financial services industry.
32
84360
1936
નાણાકીય સેવા ઉદ્યોગના.
01:38
That's not me who's claiming that,
33
86320
2216
તે હું નથી જે આ દાવો કરી રહ્યો છે,
01:40
that's the president
of the American Finance Association
34
88560
3256
તે અમેરિકન ફાઇનાન્સ એસોસિએશનના પ્રમુખ છે
01:43
who stated that
in his presidential address.
35
91840
2936
જેમણે તેમના રાષ્ટ્રપતિ સંબોધનમાં
જણાવ્યું હતું.
01:46
That's a huge problem
if you think about, especially,
36
94800
2736
ખાસ કરીને, જો તમે તેના વિશે વિચારો,
તો તે મોટી સમસ્યા છે,
01:49
an economy like Switzerland,
37
97560
1696
સ્વિટ્ઝર્લન્ડ જેવી અર્થવ્યવસ્થા,
01:51
which relies so much on the trust
put into its financial industry.
38
99280
4200
જે તેના નાણાકીય ઉદ્યોગમાં મૂકેલા
વિશ્વાસ પર ખૂબ આધાર રાખે છે.
01:56
On the other hand,
39
104960
1216
બીજી બાજુ,
01:58
there are six out of seven companies
who actually remain honest
40
106200
3536
ત્યાં છે છ કંપનીઓ સાતમાંથી
ખરેખર પ્રામાણિક રહે છે
02:01
despite all temptations
to start engaging in fraud.
41
109760
3840
બધી લાલચ હોવા છતાં
છેતરપિંડીમાં સામેલ થવા માટે.
02:06
There are whistle-blowers
like Michael Woodford,
42
114240
2296
ત્યાં સીટી વગાડનારાઓ છે
માઇકલ વુડફોર્ડની જેમ,
02:08
who blew the whistle on Olympus.
43
116560
2336
જેમણે ઓલિમ્પસ પર વ્હિસલ વગાડી હતી.
02:10
These whistle-blowers risk their careers,
44
118920
2696
These whistle-blowers risk their careers,
02:13
their friendships,
45
121640
1216
તેમની મિત્રતા,
02:14
to bring out the truth
about their companies.
46
122880
2136
બહાર લાવવા માટે સત્ય વિશે તેમની કંપનીઓ.
02:17
There are journalists
like Anna Politkovskaya
47
125040
2616
પત્રકારો છે
અન્ના પોલિટોકોસ્કાયા જેવા
02:19
who risk even their lives
to report human rights violations.
48
127680
3856
જે માનવ જીવનના ઉલ્લંઘનની જાણ કરવા માટે પણ
તેમના જીવનનું જોખમ લે છે.
02:23
She got killed --
49
131560
1216
તેણીની હત્યા થઈ -
02:24
every year,
50
132800
1216
દર વર્ષે,
02:26
around 100 journalists get killed
51
134040
1656
લગભગ 100 પત્રકારો માર્યા ગયા
02:27
because of their conviction
to bring out the truth.
52
135720
2720
કારણે તેમની પ્રતીતિને
સત્ય બહાર લાવવા માટે.
02:32
So in my talk today,
53
140040
1256
તો આજે મારી વાતમાં,
02:33
I want to share with you
some insights I've obtained and learned
54
141320
3496
હું તમારી સાથે શેર કરવા માંગુ છું
કેટલીક આંતરદૃષ્ટિ મેં મેળવી અને શીખી છે
02:36
in the last 10 years
of conducting research in this.
55
144840
3296
છેલ્લા 10 વર્ષોમાં
આ સંશોધન હાથ ધરવા.
02:40
I'm a researcher,
a scientist working with economists,
56
148160
3496
હુ એક સંશોધનકાર, વૈજ્ઞાનિક છું
જે કામ કરે છે, અર્થશાસ્ત્રીઓ,
02:43
financial economists,
57
151680
1336
નાણાકીય અર્થશાસ્ત્રીઓ,
02:45
ethicists, neuroscientists,
58
153040
2056
નીતિશાસ્ત્રીઓ, ન્યુરોસાયન્ટ્સ,
02:47
lawyers and others
59
155120
1336
વકીલો અને અન્ય સાથે
02:48
trying to understand
what makes humans tick,
60
156480
2096
મનુષ્યને શું ટિક બનાવે છે
તે સમજવાનો પ્રયત્ન કરી રહ્યો છું,
02:50
and how can we address this issue
of fraud in corporations
61
158600
4776
અને કોર્પોરેશનોમાં છેતરપિંડીના આ મુદ્દાને
આપણે કેવી રીતે ઉકેલી શકીએ
02:55
and therefore contribute
to the improvement of the world.
62
163400
3160
અને તેથી ફાળો આપે છે
વિશ્વના સુધારણા માટે.
02:59
I want to start by sharing with you
two very distinct visions
63
167280
3536
હું તમારી સાથે બે ખૂબ જ અલગ દ્રષ્ટિકોણો
શેર કરીને પ્રારંભ કરવા માંગું છું
03:02
of how people behave.
64
170840
1816
લોકો કેવી રીતે વર્તે છે.
03:04
First, meet Adam Smith,
65
172680
1840
પ્રથમ, એડમ સ્મિથને મળો,
03:07
founding father of modern economics.
66
175200
1960
આધુનિક અર્થશાસ્ત્રના સ્થાપક પિતા.
03:10
His basic idea was that if everybody
behaves in their own self-interests,
67
178280
4296
તેનો મૂળ વિચાર એ હતો કે જો દરેક વ્યક્તિ
તેમના પોતાના સ્વાર્થમાં વર્તે છે,
03:14
that's good for everybody in the end.
68
182600
2520
તે અંતે દરેક માટે સારું છે.
03:18
Self-interest isn't
a narrowly defined concept
69
186080
3056
સ્વાર્થ એ નથી
એક સંકુચિત વ્યાખ્યાયિત ખ્યાલ
03:21
just for your immediate utility.
70
189160
1936
ફક્ત તમારી તાત્કાલિક ઉપયોગિતા માટે.
03:23
It has a long-run implication.
71
191120
1936
તે લાંબા ગાળે સૂચિતાર્થ ધરાવે છે.
03:25
Let's think about that.
72
193080
1480
ચાલો તે વિશે વિચાર કરીએ.
03:27
Think about this dog here.
73
195080
2016
અહીં આ કૂતરા વિશે વિચારો.
03:29
That might be us.
74
197120
1200
તે આપણા હોઈ શકે.
03:31
There's this temptation --
75
199440
1256
આ લાલચ છે -
03:32
I apologize to all vegetarians, but --
76
200720
2376
હું બધા શાકાહારીઓની માફી માંગું છું,
પરંતુ --
03:35
(Laughter)
77
203120
1016
(હાસ્ય)
03:36
Dogs do like the bratwurst.
78
204160
1696
કૂતરાઓ બ્રેટોવર્સ્ટની જેમ કરે છે.
03:37
(Laughter)
79
205880
2376
(હાસ્ય)
03:40
Now, the straight-up,
self-interested move here
80
208280
3096
હવે, સીધા અપ,
અહીં સ્વ-રસિક ચાલ
03:43
is to go for that.
81
211400
1576
તે માટે જવું છે.
03:45
So my friend Adam here might jump up,
82
213000
2936
તેથી મારો મિત્ર આદમ અહીં કૂદી શકે છે,
03:47
get the sausage and thereby ruin
all this beautiful tableware.
83
215960
3360
સોસેજ મેળવો અને ત્યાં વિનાશ કરો
આ બધા સુંદર ટેબલવેર.
03:52
But that's not what Adam Smith meant.
84
220000
1816
પરંતુ એડમ સ્મિથનો અર્થ તે જ નથી.
03:53
He didn't mean
disregard all consequences --
85
221840
2656
તેનો અર્થ નહોતો
બધા પરિણામો અવગણો -
03:56
to the contrary.
86
224520
1216
થી વિપરીત
03:57
He would have thought,
87
225760
1256
તેણે વિચાર્યું હોત,
03:59
well, there may be negative consequences,
88
227040
2016
સારુ,ત્યાં હોઈ શકે છે નકારાત્મક પરિણામો
04:01
for example,
89
229080
1216
દાખ્લા તરીકે,
04:02
the owner might be angry with the dog
90
230320
3096
માલિક થઈ શકે છે ગુસ્સે કુતરા સાથે
04:05
and the dog, anticipating that,
might not behave in this way.
91
233440
3600
અને કૂતરો, એવી અપેક્ષા રાખીને,
કદાચ આ રીતે વર્તે નહીં.
04:09
That might be us,
92
237840
1256
તે આપણા હોઈ શકે,
04:11
weighing the benefits
and costs of our actions.
93
239120
3056
લાભ વજન
અને અમારી ક્રિયાઓની કિંમત.
04:14
How does that play out?
94
242200
1240
તે કેવી રીતે રમશે?
04:15
Well, many of you, I'm sure,
95
243960
1976
સારું, તમે ઘણા, મને ખાતરી છે,
04:17
have in your companies,
96
245960
1536
તમારી કંપનીઓમાં છે,
04:19
especially if it's a large company,
97
247520
1816
ખાસ કરીને જો તે મોટી કંપની છે,
04:21
a code of conduct.
98
249360
1656
આચારસંહિતા.
04:23
And then if you behave
according to that code of conduct,
99
251040
3416
અને પછી જો તમે
તે આચારસંહિતા પ્રમાણે વર્તશો,
04:26
that improves your chances
of getting a bonus payment.
100
254480
3176
કે તમારી તકો સુધારે છે
બોનસ ચુકવણી મેળવવી.
04:29
And on the other hand,
if you disregard it,
101
257680
2135
અને બીજી બાજુ,
જો તમે તેની અવગણના કરો છો,
04:31
then there are higher chances
of not getting your bonus
102
259839
2737
પછી ત્યાં વધુ તકો છે
તમારા બોનસ ન મળી
04:34
or its being diminished.
103
262600
1536
અથવા તેનું ઓછું થઈ રહ્યું છે.
04:36
In other words,
104
264160
1256
બીજા શબ્દો માં,
04:37
this is a very economic motivation
105
265440
1816
આ એક ખૂબજ આર્થિક પ્રેરણા છે
04:39
of trying to get people to be more honest,
106
267280
2776
પ્રયાસ કરવાનો લોકોને વધુ પ્રમાણિક બનાવવાનો
04:42
or more aligned with
the corporation's principles.
107
270080
3360
અથવા વધુ સાથે ગોઠવાયેલ છે
કોર્પોરેશનના સિદ્ધાંતો.
04:46
Similarly, reputation is a very
powerful economic force, right?
108
274240
5256
તેવી જ રીતે, પ્રતિષ્ઠા ખૂબ છે
શક્તિશાળી આર્થિક બળ, અધિકાર?
04:51
We try to build a reputation,
109
279520
1536
અમે પ્રતિષ્ઠા ઊભી કરવાનો પ્રયાસ કરીએ છીએ,
04:53
maybe for being honest,
110
281080
1416
કદાચ પ્રમાણિક હોવા માટે,
04:54
because then people
trust us more in the future.
111
282520
2400
કારણ કે પછી લોકો ભવિષ્યમાં
આપણા પર વધુ વિશ્વાસ કરે.
04:57
Right?
112
285960
1216
ખરું ને?
04:59
Adam Smith talked about the baker
113
287200
2096
એડમ સ્મિથે બેકર વિશે વાત કરી
05:01
who's not producing good bread
out of his benevolence
114
289320
3776
જે સારી રોટલી પેદા કરી રહ્યો નથી
તેના પરોપકાર બહાર
05:05
for those people who consume the bread,
115
293120
3016
તે લોકો માટે જે બ્રેડનો વપરાશ કરે છે,
05:08
but because he wants to sell
more future bread.
116
296160
3040
પરંતુ કારણ કે તે વેચવા માંગે છે
વધુ ભાવિ બ્રેડ.
05:12
In my research, we find, for example,
117
300160
2216
મારા સંશોધનમાં, અમે છીએ, ઉદાહરણ તરીકે,
05:14
at the University of Zurich,
118
302400
1376
ઝુરિક યુનિવર્સિટીમાં,
05:15
that Swiss banks
who get caught up in media,
119
303800
4200
કે સ્વિસ બેન્કો પકડાઈ જાય છે મીડિયામાં
05:20
and in the context, for example,
120
308720
1776
અને સંદર્ભમાં, ઉદાહરણ તરીકે,
05:22
of tax evasion, of tax fraud,
121
310520
1536
કરચોરી, કરચોરી,
05:24
have bad media coverage.
122
312080
1736
ખરાબ મીડિયા કવરેજ છે.
05:25
They lose net new money in the future
123
313840
2736
તેઓ ગુમાવે છે નવા પૈસા ભવિષ્યમાં
05:28
and therefore make lower profits.
124
316600
1616
અને તેથી ઓછો નફો કરો.
05:30
That's a very powerful reputational force.
125
318240
2360
તે જ શક્તિશાળી પ્રતિષ્ઠિત બળ છે.
05:34
Benefits and costs.
126
322200
1600
લાભ અને ખર્ચ.
05:37
Here's another viewpoint of the world.
127
325120
2576
અહીં બીજો દ્રષ્ટિકોણ છે વિશ્વનો
05:39
Meet Immanuel Kant,
128
327720
1536
ઇમાન્યુઅલ કાંતને મળો,
05:41
18th-century German philosopher superstar.
129
329280
2760
18 મી સદીના જર્મન ફિલસૂફ સુપરસ્ટાર.
05:44
He developed this notion
130
332920
1616
આ કલ્પના તેમણે વિકસાવી
05:46
that independent of the consequences,
131
334560
3136
તે પરિણામથી સ્વતંત્ર છે,
05:49
some actions are just right
132
337720
2976
કેટલીક ક્રિયાઓ માત્ર યોગ્ય છે
05:52
and some are just wrong.
133
340720
1696
અને કેટલાક માત્ર ખોટા છે.
05:54
It's just wrong to lie, for example.
134
342440
3216
ખોટું બોલવું ફક્ત ખોટું છે,ઉદાહરણ તરીકે
05:57
So, meet my friend Immanuel here.
135
345680
3136
તેથી, અહીં મારા મિત્ર ઇમેન્યુઅલને મળો.
06:00
He knows that the sausage is very tasty,
136
348840
2816
તે જાણે છે કે સોસેજ ખૂબ સ્વાદિષ્ટ છે,
06:03
but he's going to turn away
because he's a good dog.
137
351680
2456
પરંતુ તે વળશે
કારણ કે તે એક સારો કૂતરો છે.
06:06
He knows it's wrong to jump up
138
354160
2696
તે જાણે છે કે તે કૂદવાનું ખોટું છે
06:08
and risk ruining
all this beautiful tableware.
139
356880
2800
અને જોખમ વિનાશ
આ બધા સુંદર ટેબલવેર.
06:12
If you believe that people
are motivated like that,
140
360520
2416
જો તમે માનો છો કે લોકો
પ્રેરણા આપી છે કે,
06:14
then all the stuff about incentives,
141
362960
2176
પછી પ્રોત્સાહનો વિશેની બધી સામગ્રી,
06:17
all the stuff about code of conduct
and bonus systems and so on,
142
365160
3776
આચારસંહિતા વિશેની બધી સામગ્રી
અને બોનસ સિસ્ટમ્સ અને તેથી વધુ,
06:20
doesn't make a whole lot of sense.
143
368960
2176
સંપૂર્ણ અર્થમાં નથી.
06:23
People are motivated
by different values perhaps.
144
371160
4176
લોકો પ્રેરિત છે
કદાચ વિવિધ મૂલ્યો દ્વારા.
06:27
So, what are people actually motivated by?
145
375360
3376
તેથી, લોકો ખરેખર શું દ્વારા પ્રેરિત છે?
06:30
These two gentlemen here
have perfect hairdos,
146
378760
2176
આ બંને સજ્જન અહીં
સંપૂર્ણ વાળવાળા છે,
06:32
but they give us
very different views of the world.
147
380960
4480
પરંતુ તેઓ અમને વિશ્વના
ઘણા જુદા જુદા મત આપે છે.
06:37
What do we do with this?
148
385840
1256
આપણે આ સાથે શું કરીએ?
06:39
Well, I'm an economist
149
387120
1656
સારું,હું અર્થશાસ્ત્રી છું
06:40
and we conduct so-called experiments
to address this issue.
150
388800
4176
અને આપણે કહેવાતા પ્રયોગો કરીએ છીએ
આ મુદ્દાને ધ્યાનમાં લેવા.
06:45
We strip away facts
which are confusing in reality.
151
393000
3296
અમે તથ્યો છીનવીએ છીએ
જે વાસ્તવિકતામાં મૂંઝવણભર્યું છે.
06:48
Reality is so rich,
there is so much going on,
152
396320
2736
વાસ્તવિકતા ખૂબ સમૃદ્ધ છે,
ત્યાં ઘણું બધું ચાલી રહ્યું છે,
06:51
it's almost impossible to know
what drives people's behavior really.
153
399080
3960
તે જાણવું લગભગ અશક્ય છે
શું ખરેખર લોકોની વર્તણૂક ચલાવે છે.
06:55
So let's do a little experiment together.
154
403520
2720
તો ચાલો સાથે મળીને થોડો પ્રયોગ કરીએ.
06:58
Imagine the following situation.
155
406680
2600
નીચેની પરિસ્થિતિની કલ્પના કરો.
07:02
You're in a room alone,
156
410400
2416
તમે એકલા રૂમમાં છો,
07:04
not like here.
157
412840
1536
અહીં પસંદ નથી.
07:06
There's a five-franc coin
like the one I'm holding up right now
158
414400
3440
એક પાંચ-ફ્રેંક સિક્કો છે
જેવું હું હમણાં પકડી રાખું છું
07:10
in front of you.
159
418560
1576
તમારી સામે.
07:12
Here are your instructions:
160
420160
1576
અહીં તમારી સૂચનાઓ છે:
07:13
toss the coin four times,
161
421760
2480
સિક્કાને ચાર વખત ટssસ કરો,
07:17
and then on a computer
terminal in front of you,
162
425800
2416
અને પછી કમ્પ્યુટર પર
તમારી સામે ટર્મિનલ,
07:20
enter the number of times tails came up.
163
428240
3656
પૂંછડીઓ કેટલી વાર આવે તે દાખલ કરો.
07:23
This is the situation.
164
431920
1280
આ પરિસ્થિતિ છે.
07:25
Here's the rub.
165
433720
1216
અહીં ઘસવું છે.
07:26
For every time that you announce
that you had a tails throw,
166
434960
3376
દરેક વખતે જ્યારે તમે ઘોષણા કરો છો
કે તમારી પાસે પૂંછડીઓ ફેંકી હતી,
07:30
you get paid five francs.
167
438360
1496
તમને પાંચ ફ્રાન્ક ચૂકવવામાં આવે છે.
07:31
So if you say I had two tails throws,
168
439880
2536
તેથી જો તમે કહો કે મારી પાસે
બે પૂંછડીઓ ફેંકી દીધી,
07:34
you get paid 10 francs.
169
442440
2216
તો તમને 10 ફ્રેંક ચૂકવવામાં આવે છે.
07:36
If you say you had zero,
you get paid zero francs.
170
444680
2936
જો તમે કહો છો કે તમારી પાસે છે,
તો તમને શૂન્ય ફ્રેન્ક મળશે.
07:39
If you say, "I had four tails throws,"
171
447640
2456
જો તમે કહો છો,
"મારી પાસે ચાર પૂંછડીઓ ફેંકી હતી,"
07:42
then you get paid 20 francs.
172
450120
2016
તો પછી તમને 20 ફ્રેંક ચૂકવવામાં આવે છે.
07:44
It's anonymous,
173
452160
1256
તે અનામી છે,
07:45
nobody's watching what you're doing,
174
453440
1896
તમે શું કરી રહ્યા છો,
તે કોઈ જોઈ રહ્યું નથી,
07:47
and you get paid that money anonymously.
175
455360
2336
અને તમને તે પૈસા ચૂકવવામાં આવે છે.
07:49
I've got two questions for you.
176
457720
1477
મારી પાસે તમારા માટે બે પ્રશ્નો છે.
07:51
(Laughter)
177
459760
1616
(હાસ્ય)
07:53
You know what's coming now, right?
178
461400
1640
તમે જાણો છો હવે શું આવી રહ્યું છે, બરાબર?
07:56
First, how would you behave
in that situation?
179
464000
3480
પ્રથમ, તમે કેવી રીતે વર્તશો
તે પરિસ્થિતિમાં?
08:00
The second, look to your left
and look to your right --
180
468240
2936
બીજો, તમારી ડાબી બાજુ જુઓ
અને તમારા જમણા તરફ જુઓ -
08:03
(Laughter)
181
471200
1016
(હાસ્ય)
08:04
and think about how
the person sitting next to you
182
472240
2376
અને કેવી રીતે વિચારો
તમારી બાજુમાં બેઠેલી વ્યક્તિ
08:06
might behave in that situation.
183
474640
1656
તે પરિસ્થિતિમાં વર્તે છે.
08:08
We did this experiment for real.
184
476320
2136
અમે આ પ્રયોગ વાસ્તવિક માટે કર્યો.
08:10
We did it at the Manifesta art exhibition
185
478480
2696
અમે તે મેનિફેસ્ટા આર્ટ પ્રદર્શનમાં
કર્યું હતું
08:13
that took place here in Zurich recently,
186
481200
2456
જે તાજેતરમાં અહીંયા
જ્યુરિચમાં યોજાયું હતું,
08:15
not with students in the lab
at the university
187
483680
2856
લેબમાં વિદ્યાર્થીઓ સાથે નહીં
યુનિવર્સિટીમાં
08:18
but with the real population,
188
486560
1776
પરંતુ વાસ્તવિક વસ્તી સાથે,
08:20
like you guys.
189
488360
1200
તમે લોકો જેવા.
08:22
First, a quick reminder of stats.
190
490080
2136
પ્રથમ, આંકડાની ઝડપી રીમાઇન્ડર.
08:24
If I throw the coin four times
and it's a fair coin,
191
492240
3576
જો હું સિક્કો ચાર વાર ફેંકીશ
અને તે એક સરસ સિક્કો છે,
08:27
then the probability
that it comes up four times tails
192
495840
4096
પછી સંભાવના
કે તે ચાર વખત પૂંછડીઓ ઉપર આવે છે
08:31
is 6.25 percent.
193
499960
2400
6.25 ટકા છે.
08:35
And I hope you can intuitively see
194
503080
1656
અને હું આશા રાખું છું કે
તમે સાહજિકતાથી જોઈ શકશો
08:36
that the probability that all four
of them are tails is much lower
195
504760
3376
કે સંભાવના કે બધા ચાર
તેમાંની પૂંછડીઓ ઘણી ઓછી છે
08:40
than if two of them are tails, right?
196
508160
2120
કરતાં જો તેમાંથી બે પૂંછડીઓ છે, ખરું?
08:42
Here are the specific numbers.
197
510760
1440
અહીં ચોક્કસ સંખ્યાઓ છે.
08:46
Here's what happened.
198
514039
1496
જે બન્યું તે અહીં છે.
08:47
People did this experiment for real.
199
515559
2201
લોકોએ આ પ્રયોગ વાસ્તવિક માટે કર્યો.
08:50
Around 30 to 35 percent of people said,
200
518799
3336
લગભગ 30 થી 35 ટકા લોકોએ કહ્યું,
08:54
"Well, I had four tails throws."
201
522159
2401
"સારું, મારી પાસે ચાર પૂંછડીઓ
ફેંકી દેવામાં આવી."
08:57
That's extremely unlikely.
202
525640
1816
તે ખૂબ જ અસંભવિત છે.
08:59
(Laughter)
203
527480
1936
(હાસ્ય)
09:01
But the really amazing thing here,
204
529440
3136
પરંતુ અહીં ખરેખર આશ્ચર્યજનક બાબત,
09:04
perhaps to an economist,
205
532600
1296
કદાચ કોઈ અર્થશાસ્ત્રીને,
09:05
is there are around 65 percent of people
who did not say I had four tails throws,
206
533920
6536
શું ત્યાં લગભગ 65 ટકા લોકો છે જેમણે એમ નથી કહ્યું કે
મારી પાસે ચાર પૂંછડીઓ ફેંકી દેવામાં આવી છે,
09:12
even though in that situation,
207
540480
2176
તેમ છતાં તે પરિસ્થિતિમાં,
09:14
nobody's watching you,
208
542680
2096
કોઈ તમને જોઈ રહ્યું નથી,
09:16
the only consequence that's in place
209
544800
1936
તે જ પરિણામ છે જે જગ્યાએ છે
09:18
is you get more money
if you say four than less.
210
546760
3336
શું તમને વધારે પૈસા મળે છે?
જો તમે ચાર કરતા ઓછા કહો છો.
09:22
You leave 20 francs on the table
by announcing zero.
211
550120
3280
તમે ટેબલ પર 20 ફ્રેન્ક છોડો છો
શૂન્યની ઘોષણા કરીને.
09:26
I don't know whether
the other people all were honest
212
554040
2576
મને ખબર નથી કે નહીં
અન્ય લોકો બધા પ્રામાણિક હતા
09:28
or whether they also said a little bit
higher or lower than what they did
213
556640
3456
અથવા શું તેઓએ થોડુંક કહ્યું વધુ
અથવા તેમના કરતા ઓછા
09:32
because it's anonymous.
214
560120
1216
કારણ કે તે અનામિક છે.
09:33
We only observed the distribution.
215
561360
1656
અમે ફક્ત વિતરણ અવલોકન કર્યું.
09:35
But what I can tell you --
and here's another coin toss.
216
563040
2656
પરંતુ હું તમને શું કહી શકું --
અને અહીં એક અન્ય ટોસ છે.
09:37
There you go, it's tails.
217
565720
1496
ત્યાં તમે જાઓ, તે પૂંછડીઓ છે.
09:39
(Laughter)
218
567240
1496
(હાસ્ય)
09:40
Don't check, OK?
219
568760
1456
તપાસો નહીં, ઠીક છે?
09:42
(Laughter)
220
570240
2816
(હાસ્ય)
09:45
What I can tell you
221
573080
1296
હું તમને શું કહી શકું
09:46
is that not everybody behaved
like Adam Smith would have predicted.
222
574400
4440
કે દરેક જણ વર્ત્યા નથી
જેમ એડમ સ્મિથે આગાહી કરી હોત
09:52
So what does that leave us with?
223
580840
1576
તેથી તે અમને શું છોડશે?
09:54
Well, it seems people are motivated
by certain intrinsic values
224
582440
4496
સારું, એવું લાગે છે કે લોકો પ્રેરિત છે
ચોક્કસ આંતરિક મૂલ્યો દ્વારા
09:58
and in our research, we look at this.
225
586960
1800
અને અમારા સંશોધન, અમે આ જુઓ.
10:01
We look at the idea that people have
so-called protected values.
226
589440
4480
લોકોનો જે વિચાર છે તે આપણે જોઈએ છીએ
કહેવાતા સુરક્ષિત મૂલ્યો.
10:06
A protected value isn't just any value.
227
594760
2816
સંરક્ષિત મૂલ્ય એ ફક્ત કોઈ મૂલ્ય નથી.
10:09
A protected value is a value
where you're willing to pay a price
228
597600
5816
સંરક્ષિત મૂલ્ય એ મૂલ્ય છે
જ્યાં તમે કિંમત ચૂકવવા તૈયાર છો
10:15
to uphold that value.
229
603440
1256
તે મૂલ્યને ટકાવી રાખવા.
10:16
You're willing to pay a price
to withstand the temptation to give in.
230
604720
4440
તમે કિંમત ચૂકવવા તૈયાર છો
આપવાની લાલચનો સામનો કરવો.
10:22
And the consequence is you feel better
231
610200
2656
અને પરિણામ તમને સારું લાગે છે
10:24
if you earn money in a way
that's consistent with your values.
232
612880
4296
જો તમે એક રીતે પૈસા કમાઇ શકો છો
તે તમારા મૂલ્યો સાથે સુસંગત છે
10:29
Let me show you this again
in the metaphor of our beloved dog here.
233
617200
4280
ચાલો હું તમને આ ફરીથી બતાવીશ
અમારા પ્રિય કૂતરાની રૂપક અહીં.
10:34
If we succeed in getting the sausage
without violating our values,
234
622600
4056
જો આપણે સોસેજ મેળવવામાં સફળ થઈએ
અમારા મૂલ્યોનું ઉલ્લંઘન કર્યા વિના
10:38
then the sausage tastes better.
235
626680
1976
તો પછી ફુલમો વધુ સારો છે.
10:40
That's what our research shows.
236
628680
1480
અમારા સંશોધન બતાવે છે તે જ છે.
10:42
If, on the other hand,
237
630720
1256
જો, બીજી બાજુ,
10:44
we do so --
238
632000
1256
અમે આમ કરીએ છીએ -
10:45
if we get the sausage
239
633280
1416
જો આપણે સોસેજ મેળવીએ તો
10:46
and in doing so
we actually violate values,
240
634720
3456
અને આમ કરવાથી
આપણે ખરેખર મૂલ્યોનું ઉલ્લંઘન કરીએ છીએ,
10:50
we value the sausage less.
241
638200
2976
અમે સોસેજને ઓછું મૂલ્ય આપીએ છીએ.
10:53
Quantitatively, that's quite powerful.
242
641200
2456
માત્રાત્મક રીતે, તે એકદમ શક્તિશાળી છે.
10:55
We can measure these protected values,
243
643680
2456
આપણે આ સુરક્ષિત કિંમતોને માપી શકીએ,
10:58
for example,
244
646160
1216
દાખ્લા તરીકે,
10:59
by a survey measure.
245
647400
1920
એક સર્વેક્ષણ દ્વારા.
11:02
Simple, nine-item survey that's quite
predictive in these experiments.
246
650360
5976
સરળ, નવ-આઇટમનો સરવે તે તદ્દન છે
આ પ્રયોગોમાં આગાહીયુક્ત.
11:08
If you think about the average
of the population
247
656360
2336
જો તમે સરેરાશ વિશે વિચારો છો
વસ્તી
11:10
and then there's
a distribution around it --
248
658720
2096
અને પછી ત્યાં છે
તેની આસપાસનું વિતરણ -
11:12
people are different,
we all are different.
249
660840
2040
લોકો જુદા જુદા છે,
આપણે બધા જુદા છીએ.
11:15
People who have a set of protected values
250
663480
2976
જે લોકો પાસે સુરક્ષિત મૂલ્યોનો સમૂહ છે
11:18
that's one standard deviation
above the average,
251
666480
4176
તે એક માનક વિચલન છે
સરેરાશથી ઉપર,
11:22
they discount money they receive
by lying by about 25 percent.
252
670680
5056
તેઓને મળતા પૈસાની છૂટ થાય છે
લગભગ 25 ટકા દ્વારા ખોટું બોલીને.
11:27
That means a dollar received when lying
253
675760
3616
મતલબ કે પડે ત્યારે ડોલર મળે
11:31
is worth to them only 75 cents
254
679400
2136
તેમને ફક્ત 75 સેન્ટની કિંમત છે
11:33
without any incentives you put in place
for them to behave honestly.
255
681560
3696
કોઈપણ જગ્યાએ તમે પ્રોત્સાહિત કર્યા વિના
તેમને પ્રામાણિકપણે વર્તે છે.
11:37
It's their intrinsic motivation.
256
685280
1736
તે તેમની આંતરિક પ્રેરણા છે.
11:39
By the way, I'm not a moral authority.
257
687040
1856
માર્ગ દ્વારા, હું નૈતિક સત્તા નથી.
11:40
I'm not saying I have
all these beautiful values, right?
258
688920
2920
હું એમ નથી કહેતો કે મારી પાસે છે
આ બધા સુંદર મૂલ્યો, અધિકાર?
11:44
But I'm interested in how people behave
259
692440
1936
પરંતુ મને રસ છે કે લોકો કેવું વર્તન કરે છે
11:46
and how we can leverage
that richness in human nature
260
694400
3376
અને આપણે કઈ રીતે લાભ મેળવી શકીએ
માનવ પ્રકૃતિ કે સમૃદ્ધિ
11:49
to actually improve
the workings of our organizations.
261
697800
3440
ખરેખર સુધારવા માટે
અમારી સંસ્થાઓની કામગીરી.
11:54
So there are two
very, very different visions here.
262
702400
3176
તેથી ત્યાં બે છે
અહીં, ખૂબ જ જુદા જુદા દ્રષ્ટિકોણો.
11:57
On the one hand,
263
705600
1336
એક તરફ,
11:58
you can appeal to benefits and costs
264
706960
3016
તમે લાભ અને ખર્ચ માટે અપીલ કરી શકો છો
12:02
and try to get people
to behave according to them.
265
710000
2656
અને લોકોને મેળવવાનો પ્રયાસ કરો
તેમને અનુસાર વર્તે છે.
12:04
On the other hand,
266
712680
1616
બીજી બાજુ,
12:06
you can select people who have the values
267
714320
4016
તમે મૂલ્યો ધરાવતા લોકોને પસંદ કરી શકો છો
12:10
and the desirable
characteristics, of course --
268
718360
2216
અને ઇચ્છનીય
લાક્ષણિકતાઓ, અલબત્ત -
12:12
competencies that go
in line with your organization.
269
720600
3576
કુશળતા કે જાઓ
તમારી સંસ્થા સાથે અનુરૂપ.
12:16
I do not yet know where
these protected values really come from.
270
724200
4216
મને હજી સુધી ખબર નથી કે ક્યાં છે
આ સુરક્ષિત કિંમતો ખરેખર આવે છે.
12:20
Is it nurture or is it nature?
271
728440
3376
તે પોષાય છે કે પ્રકૃતિ છે?
12:23
What I can tell you
272
731840
1376
હું તમને શું કહી શકું
12:25
is that the distribution
looks pretty similar for men and women.
273
733240
5096
કે વિતરણ છે
પુરુષો અને સ્ત્રીઓ માટે ખૂબ સરખા લાગે છે.
12:30
It looks pretty similar
for those who had studied economics
274
738360
3776
તે ખૂબ સમાન દેખાય છે
અર્થશાસ્ત્રનો અભ્યાસ કર્યો હોય તેવા લોકો માટે
12:34
or those who had studied psychology.
275
742160
2360
અથવા જેમણે મનોવિજ્ અભ્યાસ કર્યો હતો.
12:38
It looks even pretty similar
around different age categories
276
746000
3376
તે પણ ખૂબ સમાન દેખાય છે
વિવિધ વય વર્ગોની આસપાસ
12:41
among adults.
277
749400
1216
પુખ્ત વયના લોકો વચ્ચે.
12:42
But I don't know yet
how this develops over a lifetime.
278
750640
2656
પણ મને હજી ખબર નથી
આ આજીવન કેવી રીતે વિકસે છે.
12:45
That will be the subject
of future research.
279
753320
3440
તે વિષય હશે
ભાવિ સંશોધન.
12:49
The idea I want to leave you with
280
757640
1656
હું તમને સાથે રાખવા માંગું છું
12:51
is it's all right to appeal to incentives.
281
759320
2776
શું પ્રોત્સાહનો માટે અપીલ કરવી યોગ્ય છે.
12:54
I'm an economist;
282
762120
1216
હું અર્થશાસ્ત્રી છું;
12:55
I certainly believe in the fact
that incentives work.
283
763360
2920
હું ચોક્કસપણે આ હકીકત પર વિશ્વાસ કરું છું
કે પ્રોત્સાહનો કામ.
12:59
But do think about selecting
the right people
284
767400
4016
પરંતુ પસંદગી વિશે વિચારો
યોગ્ય લોકો
13:03
rather than having people
and then putting incentives in place.
285
771440
3496
લોકો હોવાને બદલે
અને પછી જગ્યાએ પ્રોત્સાહન મૂકો.
13:06
Selecting the right people
with the right values
286
774960
2256
યોગ્ય લોકો પસંદ કરી રહ્યા છીએ
યોગ્ય મૂલ્યો સાથે
13:09
may go a long way
to saving a lot of trouble
287
777240
3936
લાંબી મજલ કાપી શકે
ઘણી મુશ્કેલી બચાવવા માટે
13:13
and a lot of money
288
781200
1376
અને ઘણા પૈસા
13:14
in your organizations.
289
782600
1736
તમારી સંસ્થાઓમાં.
13:16
In other words,
290
784360
1256
બીજા શબ્દોમાં,
13:17
it will pay off to put people first.
291
785640
3760
તે લોકોને પ્રથમ મૂકવા માટે ચૂકવણી કરશે.
13:22
Thank you.
292
790040
1216
આભાર.
13:23
(Applause)
293
791280
3640
(તાળીઓ)
Translated by shreya jain
Reviewed by Keyur Thakkar

▲Back to top

ABOUT THE SPEAKER
Alexander Wagner - Economist
Alexander Wagner balances two passions: the thrill of seeking knowledge about fundamentals of human behavior for knowledge's sake, and the desire to apply insights in the real world and to improve the workings of markets and organizations.

Why you should listen

Alexander Wagner has discovered that to most people, what matters is not only how much money they receive but also whether they behaved honestly to receive that money. As Swiss Finance Institute professor at the University of Zurich's Department of Banking and Finance, Wagner has taught corporate finance to thousands of eager students and hundreds of motivated executives, and he has helped shape governance systems of companies large and small. His recent research deals with how investors perceive managerial words and deeds … and with the stock market implications of the Trump election.

More profile about the speaker
Alexander Wagner | Speaker | TED.com