ABOUT THE SPEAKER
Alexander Wagner - Economist
Alexander Wagner balances two passions: the thrill of seeking knowledge about fundamentals of human behavior for knowledge's sake, and the desire to apply insights in the real world and to improve the workings of markets and organizations.

Why you should listen

Alexander Wagner has discovered that to most people, what matters is not only how much money they receive but also whether they behaved honestly to receive that money. As Swiss Finance Institute professor at the University of Zurich's Department of Banking and Finance, Wagner has taught corporate finance to thousands of eager students and hundreds of motivated executives, and he has helped shape governance systems of companies large and small. His recent research deals with how investors perceive managerial words and deeds … and with the stock market implications of the Trump election.

More profile about the speaker
Alexander Wagner | Speaker | TED.com
TEDxZurich

Alexander Wagner: What really motivates people to be honest in business

亞歷山大 華格納: 什麼真正地激勵人在企業裡誠實行事

Filmed:
1,661,864 views

每年,七間大型企業中就有一間詐欺。為什麼?為了找出答案,亞歷山大 華格納帶我們進入「做對的事」的經濟、倫理、心理面向。加入他這趟關於欺騙的自省之旅,他會幫助我們了解人們行為背後的動機。
- Economist
Alexander Wagner balances two passions: the thrill of seeking knowledge about fundamentals of human behavior for knowledge's sake, and the desire to apply insights in the real world and to improve the workings of markets and organizations. Full bio

Double-click the English transcript below to play the video.

00:12
How many許多 companies公司
have you interacted互動 with today今天?
0
760
3440
今天你和多少間公司互動過?
00:17
Well, you got up in the morning早上,
1
5240
1656
你早上起床,
00:18
took a shower淋浴,
2
6920
1215
先去淋浴,
00:20
washed your hair頭髮,
3
8160
1256
洗洗頭髮,
00:21
used a hair頭髮 dryer烘乾機,
4
9440
1536
用了吹風機,
00:23
ate breakfast早餐 --
5
11000
1216
吃了早餐──
00:24
ate cereals穀物, fruit水果, yogurt酸奶, whatever隨你 --
6
12240
1858
吃的是穀片、水果、優格、等等──
00:26
had coffee咖啡 --
7
14122
1214
喝了咖啡
00:27
tea.
8
15360
1376
或茶。
00:28
You took public上市 transport運輸 to come here,
9
16760
1976
你搭乘大眾交通工具到這裡,
00:30
or maybe used your private私人的 car汽車.
10
18760
1840
或是開你自己的車過來。
00:33
You interacted互動 with the company公司
that you work for or that you own擁有.
11
21520
3560
你和你上班的公司或是
你自己開的公司互動。
00:38
You interacted互動 with your clients客戶,
12
26160
1960
你和你的客戶互動,
00:40
your customers顧客,
13
28760
1200
和你的顧客互動,
00:42
and so on and so forth向前.
14
30640
1256
諸如此類。
00:43
I'm pretty漂亮 sure there are
at least最小 seven companies公司
15
31920
3616
我非常確定
你今天至少和七間公司互動過。
00:47
you've interacted互動 with today今天.
16
35560
1760
00:49
Let me tell you a stunning令人驚嘆 statistic統計.
17
37960
2000
讓我告訴各位一個驚人的統計數據。
00:52
One out of seven
large, public上市 corporations公司
18
40840
4376
每七間大型的上市公司中
00:57
commit承諾 fraud舞弊 every一切 year.
19
45240
2240
每年會有一間犯下詐欺罪。
01:00
This is a US academic學術的 study研究
that looks容貌 at US companies公司 --
20
48400
3416
這是美國的學術研究,
調查的對象是美國的公司──
01:03
I have no reason原因 to believe
that it's different不同 in Europe歐洲.
21
51840
3200
但我認為歐洲公司的情況類似。
01:07
This is a study研究 that looks容貌
at both detected檢測 and undetected未被發現 fraud舞弊
22
55480
4216
被發現、未被發現的詐欺
兩者都被調查研究,
01:11
using運用 statistical統計 methods方法.
23
59720
1736
使用的方法是統計。
01:13
This is not petty小氣 fraud舞弊.
24
61480
1720
不是小欺小騙。
01:16
These frauds欺詐 cost成本
the shareholders股東 of these companies公司,
25
64120
2856
這些詐欺會造成公司股東的損失,
01:19
and therefore因此 society社會,
26
67000
1256
因此也造成社會的損失,
01:20
on the order訂購 of
380 billion十億 dollars美元 per year.
27
68280
3600
每年損失約三千八百億美元。
01:24
We can all think of some examples例子, right?
28
72960
2216
我們都能想出一些例子,對嗎?
01:27
The car汽車 industry's業界 secrets秘密
aren't quite相當 so secret秘密 anymore.
29
75200
3800
汽車產業的秘密不再那麼秘密了。
01:31
Fraud舞弊 has become成為 a feature特徵,
30
79800
3296
在金融服務業,
詐欺已經變成了一種特性,
01:35
not a bug竊聽器,
31
83120
1216
而不是錯誤。
01:36
of the financial金融 services服務 industry行業.
32
84360
1936
01:38
That's not me who's誰是 claiming自稱 that,
33
86320
2216
並不是我自己在這麼說,
01:40
that's the president主席
of the American美國 Finance金融 Association協會
34
88560
3256
是美國財務學會的會長
01:43
who stated聲明 that
in his presidential總統 address地址.
35
91840
2936
在他的會長演說當中說的。
01:46
That's a huge巨大 problem問題
if you think about, especially特別,
36
94800
2736
如果你仔細想想,
這是個很大的問題,
特別是在像瑞士這樣的經濟體中,
01:49
an economy經濟 like Switzerland瑞士,
37
97560
1696
01:51
which哪一個 relies依賴 so much on the trust相信
put into its financial金融 industry行業.
38
99280
4200
瑞士非常仰賴人們對其
金融業投入的信任。
01:56
On the other hand,
39
104960
1216
另一方面,
01:58
there are six out of seven companies公司
who actually其實 remain honest誠實
40
106200
3536
七間中的六間事實上維持著誠信,
02:01
despite儘管 all temptations誘惑
to start開始 engaging in fraud舞弊.
41
109760
3840
它們抗拒了各種引誘
它們進行詐欺的誘惑。
02:06
There are whistle-blowers舉報人
like Michael邁克爾 Woodford福德,
42
114240
2296
有像邁克爾伍德福特這樣的告密者,
02:08
who blew自爆 the whistle on Olympus奧林巴斯.
43
116560
2336
他告了奧林巴斯的密。
02:10
These whistle-blowers舉報人 risk風險 their careers職業生涯,
44
118920
2696
這些告密者賭上他們的職涯
02:13
their friendships友誼,
45
121640
1216
和友情,
02:14
to bring帶來 out the truth真相
about their companies公司.
46
122880
2136
揭露他們公司的真相。
02:17
There are journalists記者
like Anna安娜 Politkovskaya波利特科夫斯卡婭
47
125040
2616
有像安娜波利特科夫
斯卡婭這樣的記者,
02:19
who risk風險 even their lives生活
to report報告 human人的 rights權利 violations違規.
48
127680
3856
冒著生命危險去報導
違反人權的事件。
02:23
She got killed殺害 --
49
131560
1216
後來她被殺了──
02:24
every一切 year,
50
132800
1216
每年,
02:26
around 100 journalists記者 get killed殺害
51
134040
1656
有大約一百名記者
02:27
because of their conviction定罪
to bring帶來 out the truth真相.
52
135720
2720
因為堅定地想要揭露真相而被殺害。
02:32
So in my talk today今天,
53
140040
1256
在今天這場演說,
02:33
I want to share分享 with you
some insights見解 I've obtained獲得 and learned學到了
54
141320
3496
我想和各位分享的是我過去十年間
02:36
in the last 10 years年份
of conducting開展 research研究 in this.
55
144840
3296
在研究這個主題時
所學到的一些洞見。
02:40
I'm a researcher研究員,
a scientist科學家 working加工 with economists經濟學家,
56
148160
3496
我是個研究者、科學家,
合作的對象有經濟學家、
02:43
financial金融 economists經濟學家,
57
151680
1336
金融經濟學家、
02:45
ethicists倫理學家, neuroscientists神經學家,
58
153040
2056
倫理學家、神經科學家、
律師,以及其他的人。
02:47
lawyers律師 and others其他
59
155120
1336
02:48
trying to understand理解
what makes品牌 humans人類 tick,
60
156480
2096
我嘗試要了解是什麼在驅使人類,
02:50
and how can we address地址 this issue問題
of fraud舞弊 in corporations公司
61
158600
4776
以及我們如何處理
企業內的詐欺議題,
02:55
and therefore因此 contribute有助於
to the improvement起色 of the world世界.
62
163400
3160
因而對改善世界貢獻一份心力。
02:59
I want to start開始 by sharing分享 with you
two very distinct不同 visions願景
63
167280
3536
一開始,我想分享兩個
非常不同的看法,
03:02
of how people behave表現.
64
170840
1816
對於人的行為的看法。
03:04
First, meet遇到 Adam亞當 Smith工匠,
65
172680
1840
首先,來見見亞當史密斯,
03:07
founding創建 father父親 of modern現代 economics經濟學.
66
175200
1960
現代經濟學之父。
03:10
His basic基本 idea理念 was that if everybody每個人
behaves的行為 in their own擁有 self-interests自身利益,
67
178280
4296
他的基本想法是:
如果每個人都依自身利益而行,
03:14
that's good for everybody每個人 in the end結束.
68
182600
2520
最終,那對每個人而言都是好的。
03:18
Self-interest自利 isn't
a narrowly險些 defined定義 concept概念
69
186080
3056
自身利益不是一個
定義很狹隘的觀念,
03:21
just for your immediate即時 utility效用.
70
189160
1936
不是只為了立即的功利。
03:23
It has a long-run長跑 implication意義.
71
191120
1936
它有著長期的意涵。
03:25
Let's think about that.
72
193080
1480
我們來想想這一點。
03:27
Think about this dog here.
73
195080
2016
想想圖上的這隻狗。
03:29
That might威力 be us.
74
197120
1200
牠可能就是我們。
03:31
There's this temptation誘惑 --
75
199440
1256
圖上有著誘惑──
03:32
I apologize道歉 to all vegetarians素食者, but --
76
200720
2376
我要向所有的素食者道歉,但──
03:35
(Laughter笑聲)
77
203120
1016
(笑聲)
03:36
Dogs小狗 do like the bratwurst香腸.
78
204160
1696
狗確實喜歡臘腸。
03:37
(Laughter笑聲)
79
205880
2376
(笑聲)
03:40
Now, the straight-up直線上升,
self-interested自利 move移動 here
80
208280
3096
這裡最直接、最以
自身利益為主的做法,
03:43
is to go for that.
81
211400
1576
就是去取得臘腸。
03:45
So my friend朋友 Adam亞當 here might威力 jump up,
82
213000
2936
所以我的朋友亞當,可能會跳上去,
03:47
get the sausage香腸 and thereby從而 ruin廢墟
all this beautiful美麗 tableware餐具.
83
215960
3360
取得臘腸,因而把
所有的美麗餐具都給毀了。
03:52
But that's not what Adam亞當 Smith工匠 meant意味著.
84
220000
1816
但那並不是亞當史密斯的意思。
03:53
He didn't mean
disregard漠視 all consequences後果 --
85
221840
2656
他並不是說要不顧一切的後果──
03:56
to the contrary相反.
86
224520
1216
其實相反。
03:57
He would have thought,
87
225760
1256
他會想,
03:59
well, there may可能 be negative consequences後果,
88
227040
2016
也許會有負面的後果,
04:01
for example,
89
229080
1216
比如,
04:02
the owner所有者 might威力 be angry憤怒 with the dog
90
230320
3096
主人可能會對狗發怒,
04:05
and the dog, anticipating期待 that,
might威力 not behave表現 in this way.
91
233440
3600
而狗能預期到這一點,
就不會做出這個行為。
04:09
That might威力 be us,
92
237840
1256
那可能就是我們,
04:11
weighing稱重 the benefits好處
and costs成本 of our actions行動.
93
239120
3056
權衡我們每個行動的利益和成本。
04:14
How does that play out?
94
242200
1240
那會產生什麼結果?
04:15
Well, many許多 of you, I'm sure,
95
243960
1976
我相信,在座許多人,
04:17
have in your companies公司,
96
245960
1536
在你們的公司裡,
04:19
especially特別 if it's a large company公司,
97
247520
1816
特別是大公司裡,
04:21
a code of conduct進行.
98
249360
1656
會有「行為準則」。
04:23
And then if you behave表現
according根據 to that code of conduct進行,
99
251040
3416
如果你根據行為準則來做事,
04:26
that improves提高 your chances機會
of getting得到 a bonus獎金 payment付款.
100
254480
3176
就能讓你比較有機會得到獎金。
04:29
And on the other hand,
if you disregard漠視 it,
101
257680
2135
另一方面,如果你漠視它,
04:31
then there are higher更高 chances機會
of not getting得到 your bonus獎金
102
259839
2737
就比較有可能得不到獎金,
04:34
or its being存在 diminished減少.
103
262600
1536
或是獎金會縮水。
04:36
In other words,
104
264160
1256
換言之,
04:37
this is a very economic經濟 motivation動機
105
265440
1816
這是個非常經濟的動機,
04:39
of trying to get people to be more honest誠實,
106
267280
2776
試圖讓人們更誠實,
04:42
or more aligned對齊 with
the corporation's公司的 principles原則.
107
270080
3360
或是更符合公司的原則。
04:46
Similarly同樣, reputation聲譽 is a very
powerful強大 economic經濟 force, right?
108
274240
5256
同樣地,名聲也是種非常
強大的經濟力量,對吧?
04:51
We try to build建立 a reputation聲譽,
109
279520
1536
我們試圖建立名聲,
04:53
maybe for being存在 honest誠實,
110
281080
1416
也許是誠實的名聲,
04:54
because then people
trust相信 us more in the future未來.
111
282520
2400
因為這樣做,人們將來會更信任我們。
04:57
Right?
112
285960
1216
對嗎?
04:59
Adam亞當 Smith工匠 talked about the baker麵包師傅
113
287200
2096
亞當史密斯談到一個麵包師傅,
05:01
who's誰是 not producing生產 good bread麵包
out of his benevolence
114
289320
3776
他為那些消費者製作好的麵包,
05:05
for those people who consume消耗 the bread麵包,
115
293120
3016
並不是出於善心,
05:08
but because he wants to sell
more future未來 bread麵包.
116
296160
3040
而是因為他想要在未來
能賣出更多麵包。
05:12
In my research研究, we find, for example,
117
300160
2216
在我的研究中,我們發現,比如,
05:14
at the University大學 of Zurich蘇黎世,
118
302400
1376
在蘇黎世大學,
05:15
that Swiss瑞士人 banks銀行
who get caught抓住 up in media媒體,
119
303800
4200
瑞士銀行被捲入媒體當中,
05:20
and in the context上下文, for example,
120
308720
1776
例如在逃稅或稅務詐欺的情況下,
05:22
of tax evasion逃避, of tax fraud舞弊,
121
310520
1536
05:24
have bad media媒體 coverage覆蓋.
122
312080
1736
有很糟的媒體報導。
05:25
They lose失去 net new money in the future未來
123
313840
2736
他們就會在未來失去淨新增資金,
05:28
and therefore因此 make lower降低 profits利潤.
124
316600
1616
因此賺的利潤就會減少。
05:30
That's a very powerful強大 reputational名譽 force.
125
318240
2360
那是非常強大的名聲力量。
05:34
Benefits好處 and costs成本.
126
322200
1600
利益和成本。
05:37
Here's這裡的 another另一個 viewpoint觀點 of the world世界.
127
325120
2576
世界上有另一種觀點。
05:39
Meet遇見 Immanuel伊曼紐爾 Kant康德,
128
327720
1536
來見見伊曼努爾康德,
05:41
18th-centuryTH-世紀 German德語 philosopher哲學家 superstar超級明星.
129
329280
2760
十八世紀的明星德國哲學家。
05:44
He developed發達 this notion概念
130
332920
1616
他發展出了這個概念:
05:46
that independent獨立 of the consequences後果,
131
334560
3136
和結果無關,
05:49
some actions行動 are just right
132
337720
2976
有些行為就是對的,
05:52
and some are just wrong錯誤.
133
340720
1696
有些就是錯的。
05:54
It's just wrong錯誤 to lie謊言, for example.
134
342440
3216
比如,說謊就是錯的。
05:57
So, meet遇到 my friend朋友 Immanuel伊曼紐爾 here.
135
345680
3136
所以,來見見我的朋友伊曼努爾。
06:00
He knows知道 that the sausage香腸 is very tasty可口,
136
348840
2816
牠知道香腸非常可口,
06:03
but he's going to turn away
because he's a good dog.
137
351680
2456
但牠打算調頭走開,
因為牠是條好狗。
06:06
He knows知道 it's wrong錯誤 to jump up
138
354160
2696
牠知道跳上去是錯的,
06:08
and risk風險 ruining破壞
all this beautiful美麗 tableware餐具.
139
356880
2800
有可能會打破所有這些漂亮的餐具。
06:12
If you believe that people
are motivated動機 like that,
140
360520
2416
如果你相信人們會被
這樣的動機驅使,
06:14
then all the stuff東東 about incentives獎勵,
141
362960
2176
那麼所有關於獎勵的一切,
06:17
all the stuff東東 about code of conduct進行
and bonus獎金 systems系統 and so on,
142
365160
3776
那麼所有關於行為準則、
獎金制度等等的一切,
06:20
doesn't make a whole整個 lot of sense.
143
368960
2176
就不是很有道理了。
06:23
People are motivated動機
by different不同 values perhaps也許.
144
371160
4176
人們被不同的價值觀驅使,也許吧。
06:27
So, what are people actually其實 motivated動機 by?
145
375360
3376
所以人們的動機到底是什麼?
06:30
These two gentlemen紳士 here
have perfect完善 hairdos髮型,
146
378760
2176
這裡的兩位先生有著完美的髮型,
06:32
but they give us
very different不同 views意見 of the world世界.
147
380960
4480
但他們給我們非常不同的世界觀。
06:37
What do we do with this?
148
385840
1256
對此,我們該怎麼辦?
06:39
Well, I'm an economist經濟學家
149
387120
1656
嗯,我是經濟學家,
06:40
and we conduct進行 so-called所謂 experiments實驗
to address地址 this issue問題.
150
388800
4176
而我們會進行所謂的實驗,
來處理這個議題。
06:45
We strip跳閘 away facts事實
which哪一個 are confusing撲朔迷離 in reality現實.
151
393000
3296
我們會剝除在現實中讓我們困惑的事實,
06:48
Reality現實 is so rich豐富,
there is so much going on,
152
396320
2736
現實非常的豐富,
有太多事情在發生,
06:51
it's almost幾乎 impossible不可能 to know
what drives驅動器 people's人們 behavior行為 really.
153
399080
3960
幾乎不可能知道
什麼真正驅動人類的行為。
06:55
So let's do a little experiment實驗 together一起.
154
403520
2720
所以,讓我們一起來做個小實驗。
06:58
Imagine想像 the following以下 situation情況.
155
406680
2600
想像下面的情境。
07:02
You're in a room房間 alone單獨,
156
410400
2416
你單獨在一間房間中,
07:04
not like here.
157
412840
1536
不像這裡這麼多人。
07:06
There's a five-franc五法郎 coin硬幣
like the one I'm holding保持 up right now
158
414400
3440
有一個五法郎硬幣,
就像我手上的這個,
07:10
in front面前 of you.
159
418560
1576
硬幣就在你面前。
07:12
Here are your instructions說明:
160
420160
1576
你得到的指示是:
07:13
toss折騰 the coin硬幣 four times,
161
421760
2480
擲硬幣四次,
07:17
and then on a computer電腦
terminal終奌站 in front面前 of you,
162
425800
2416
接著,在你面前的電腦終端機上,
07:20
enter輸入 the number of times tails尾巴 came來了 up.
163
428240
3656
輸入硬幣出現反面的次數。
07:23
This is the situation情況.
164
431920
1280
情境就是這樣。
07:25
Here's這裡的 the rub.
165
433720
1216
難處在這裏:
07:26
For every一切 time that you announce宣布
that you had a tails尾巴 throw,
166
434960
3376
每次你宣佈你擲出了反面,
07:30
you get paid支付 five francs法郎.
167
438360
1496
你就會得到五法郎。
07:31
So if you say I had two tails尾巴 throws,
168
439880
2536
所以如果你說我擲出兩次反面,
07:34
you get paid支付 10 francs法郎.
169
442440
2216
你就會得十法郎。
07:36
If you say you had zero,
you get paid支付 zero francs法郎.
170
444680
2936
如果你說你沒擲出反面,
你就會得到零法郎。
07:39
If you say, "I had four tails尾巴 throws,"
171
447640
2456
如果你說:「我擲出四次反面」,
07:42
then you get paid支付 20 francs法郎.
172
450120
2016
你就會得到二十法郎。
07:44
It's anonymous匿名,
173
452160
1256
這是匿名的,
07:45
nobody's沒有人是 watching觀看 what you're doing,
174
453440
1896
沒有人在看你做,
07:47
and you get paid支付 that money anonymously匿名.
175
455360
2336
付錢給你時也是匿名的。
07:49
I've got two questions問題 for you.
176
457720
1477
我要問各位兩個問題。
07:51
(Laughter笑聲)
177
459760
1616
(笑聲)
07:53
You know what's coming未來 now, right?
178
461400
1640
你們知道接下來是什麼吧?
07:56
First, how would you behave表現
in that situation情況?
179
464000
3480
第一,在這個情境,你會怎麼做?
08:00
The second第二, look to your left
and look to your right --
180
468240
2936
第二,看看你的左邊,
看看你的右邊──
08:03
(Laughter笑聲)
181
471200
1016
(笑聲)
08:04
and think about how
the person sitting坐在 next下一個 to you
182
472240
2376
想想坐在你旁邊的人
在這情境可能會怎麼做。
08:06
might威力 behave表現 in that situation情況.
183
474640
1656
08:08
We did this experiment實驗 for real真實.
184
476320
2136
我們真做了這個實驗。
08:10
We did it at the Manifesta宣言展 art藝術 exhibition展覽
185
478480
2696
我們是在最近蘇黎世這裡舉行的
08:13
that took place地點 here in Zurich蘇黎世 recently最近,
186
481200
2456
Manifesta 藝術展覽上做的,
08:15
not with students學生們 in the lab實驗室
at the university大學
187
483680
2856
不是在大學實驗室裡對學生做的,
08:18
but with the real真實 population人口,
188
486560
1776
對象是真正的一般大眾,
08:20
like you guys.
189
488360
1200
就像在座各位。
08:22
First, a quick reminder提醒 of stats統計.
190
490080
2136
首先,快速提醒大家一下統計數字,
08:24
If I throw the coin硬幣 four times
and it's a fair公平 coin硬幣,
191
492240
3576
如果你擲硬幣四次,
且它是個公平的硬幣,
08:27
then the probability可能性
that it comes up four times tails尾巴
192
495840
4096
四次都是反面的機率
08:31
is 6.25 percent百分.
193
499960
2400
是 6.25%。
08:35
And I hope希望 you can intuitively直觀地 see
194
503080
1656
希望你們用直覺就能看出,
08:36
that the probability可能性 that all four
of them are tails尾巴 is much lower降低
195
504760
3376
四次都是反面的機率
遠低於兩次是反面的機率,對吧?
08:40
than if two of them are tails尾巴, right?
196
508160
2120
08:42
Here are the specific具體 numbers數字.
197
510760
1440
這裡是明確的數據。
08:46
Here's這裡的 what happened發生.
198
514039
1496
而結果如下。
08:47
People did this experiment實驗 for real真實.
199
515559
2201
人們真的做了這個實驗。
08:50
Around 30 to 35 percent百分 of people said,
200
518799
3336
大約 30%~35% 的人說:
08:54
"Well, I had four tails尾巴 throws."
201
522159
2401
「嗯,我擲出四次反面。」
08:57
That's extremely非常 unlikely不會.
202
525640
1816
那是極度不可能的。
08:59
(Laughter笑聲)
203
527480
1936
(笑聲)
09:01
But the really amazing驚人 thing here,
204
529440
3136
但,真正驚人的是,
也許對經濟學家而言,驚人的是:
09:04
perhaps也許 to an economist經濟學家,
205
532600
1296
09:05
is there are around 65 percent百分 of people
who did not say I had four tails尾巴 throws,
206
533920
6536
大約 65% 的人
沒說他們擲出四次反面,
09:12
even though雖然 in that situation情況,
207
540480
2176
即使在那個情境中,
09:14
nobody's沒有人是 watching觀看 you,
208
542680
2096
沒有人在看你,
09:16
the only consequence後果 that's in place地點
209
544800
1936
唯一會發生的後果是:
09:18
is you get more money
if you say four than less.
210
546760
3336
假如你說四次而不是少於四次,
得的錢就會比較多;
09:22
You leave離開 20 francs法郎 on the table
by announcing宣布 zero.
211
550120
3280
如果你宣稱零次,就放棄了二十法郎。
09:26
I don't know whether是否
the other people all were honest誠實
212
554040
2576
我不知道其他人是否都誠實,
09:28
or whether是否 they also said a little bit
higher更高 or lower降低 than what they did
213
556640
3456
或是他們會把數字向上或向下調整,
09:32
because it's anonymous匿名.
214
560120
1216
因為這是匿名的。
09:33
We only observed觀察到的 the distribution分配.
215
561360
1656
我們只是觀察數據分佈。
09:35
But what I can tell you --
and here's這裡的 another另一個 coin硬幣 toss折騰.
216
563040
2656
但我可以告訴各位──
這是另一次擲硬幣結果。
09:37
There you go, it's tails尾巴.
217
565720
1496
來了,是反面。
09:39
(Laughter笑聲)
218
567240
1496
(笑聲)
09:40
Don't check, OK?
219
568760
1456
別來確認,好嗎?
09:42
(Laughter笑聲)
220
570240
2816
(笑聲)
09:45
What I can tell you
221
573080
1296
我能告訴你們的是,
09:46
is that not everybody每個人 behaved
like Adam亞當 Smith工匠 would have predicted預料到的.
222
574400
4440
並非每個人的行為
都如亞當史密斯所預測。
09:52
So what does that leave離開 us with?
223
580840
1576
所以這告訴我們什麼?
09:54
Well, it seems似乎 people are motivated動機
by certain某些 intrinsic固有 values
224
582440
4496
嗯,似乎人們會被某種
內在的價值觀所驅使,
09:58
and in our research研究, we look at this.
225
586960
1800
在研究中,我們調查了這點。
10:01
We look at the idea理念 that people have
so-called所謂 protected保護 values.
226
589440
4480
我們探討了人會有所謂的
「被保護的價值觀」的這個想法。
10:06
A protected保護 value isn't just any value.
227
594760
2816
被保護的價值觀並非任何價值觀。
10:09
A protected保護 value is a value
where you're willing願意 to pay工資 a price價錢
228
597600
5816
被保護的價值觀是
你願意付出一個代價
10:15
to uphold堅持 that value.
229
603440
1256
來維持的價值。
10:16
You're willing願意 to pay工資 a price價錢
to withstand經受 the temptation誘惑 to give in.
230
604720
4440
你願意付出一個代價來
對抗要你屈服的誘惑。
10:22
And the consequence後果 is you feel better
231
610200
2656
而結果就是,如果你賺到錢的方式
10:24
if you earn money in a way
that's consistent一貫 with your values.
232
612880
4296
和你的價值觀是一致的,
你的感覺會比較好。
10:29
Let me show顯示 you this again
in the metaphor隱喻 of our beloved心愛 dog here.
233
617200
4280
讓我再次用我們都愛的
狗狗比喻來說明。
10:34
If we succeed成功 in getting得到 the sausage香腸
without violating違反 our values,
234
622600
4056
如果我們不違反價值觀
而成功地取得香腸,
10:38
then the sausage香腸 tastes口味 better.
235
626680
1976
那麼香腸嚐起來的味道比較好。
10:40
That's what our research研究 shows節目.
236
628680
1480
那就是我們的研究發現。
10:42
If, on the other hand,
237
630720
1256
另一方面,
10:44
we do so --
238
632000
1256
若我們這樣做──
10:45
if we get the sausage香腸
239
633280
1416
如果我們取得香腸,
10:46
and in doing so
we actually其實 violate違反 values,
240
634720
3456
用的是違反價值觀的方式,
10:50
we value the sausage香腸 less.
241
638200
2976
我們也會比較不珍視這香腸。
10:53
Quantitatively定量, that's quite相當 powerful強大.
242
641200
2456
就量化而言,相當強而有力。
10:55
We can measure測量 these protected保護 values,
243
643680
2456
我們能夠測量這些被保護的價值觀,
10:58
for example,
244
646160
1216
比如,
10:59
by a survey調查 measure測量.
245
647400
1920
可以用問卷調查來測量。
11:02
Simple簡單, nine-item九項目 survey調查 that's quite相當
predictive預測 in these experiments實驗.
246
650360
5976
簡單的九題問卷調查
是非常容易預測結果的實驗。
11:08
If you think about the average平均
of the population人口
247
656360
2336
如果考量人數平均值,
11:10
and then there's
a distribution分配 around it --
248
658720
2096
平均值的周邊會呈現一種分佈──
11:12
people are different不同,
we all are different不同.
249
660840
2040
人各不相同,我們都不一樣。
11:15
People who have a set of protected保護 values
250
663480
2976
持有著一組保護價值觀
11:18
that's one standard標準 deviation偏差
above以上 the average平均,
251
666480
4176
比平均值高出一個標準差的那些人,
11:22
they discount折扣 money they receive接收
by lying說謊 by about 25 percent百分.
252
670680
5056
透過說謊得到的金錢價值
大約會被他們打個 75 折。
11:27
That means手段 a dollar美元 received收到 when lying說謊
253
675760
3616
也就是說,說謊得到的一塊錢,
11:31
is worth價值 to them only 75 cents
254
679400
2136
和誠實得到的一塊錢相比,
11:33
without any incentives獎勵 you put in place地點
for them to behave表現 honestly老老實實.
255
681560
3696
只值 75 分錢而已。
11:37
It's their intrinsic固有 motivation動機.
256
685280
1736
那是他們的內在動機。
11:39
By the way, I'm not a moral道德 authority權威.
257
687040
1856
順便一提,我並非道德權威。
11:40
I'm not saying I have
all these beautiful美麗 values, right?
258
688920
2920
我並不是說我有所有這些
美好的價值觀。
11:44
But I'm interested有興趣 in how people behave表現
259
692440
1936
但我感興趣的是人的行為,
11:46
and how we can leverage槓桿作用
that richness豐富 in human人的 nature性質
260
694400
3376
以及如何讓人類本性中的
豐富特性能夠發揮功效,
11:49
to actually其實 improve提高
the workings運作 of our organizations組織.
261
697800
3440
來實際改善在組織內的工作。
11:54
So there are two
very, very different不同 visions願景 here.
262
702400
3176
所以,這裡有兩種非常不同的觀點。
11:57
On the one hand,
263
705600
1336
一方面,
11:58
you can appeal上訴 to benefits好處 and costs成本
264
706960
3016
你可以訴諸利益和成本,
12:02
and try to get people
to behave表現 according根據 to them.
265
710000
2656
嘗試讓人們依利益和成本而行。
12:04
On the other hand,
266
712680
1616
另一方面,
12:06
you can select選擇 people who have the values
267
714320
4016
當然你可以篩選具有價值觀
12:10
and the desirable合意
characteristics特點, of course課程 --
268
718360
2216
和具有你所想要之特質的人──
12:12
competencies競爭力 that go
in line with your organization組織.
269
720600
3576
能夠配合你的組織。
12:16
I do not yet然而 know where
these protected保護 values really come from.
270
724200
4216
我還不知道
這些受保護的價值觀來自何處。
12:20
Is it nurture培育 or is it nature性質?
271
728440
3376
是後天養成還是天性?
12:23
What I can tell you
272
731840
1376
但我能告訴各位,
12:25
is that the distribution分配
looks容貌 pretty漂亮 similar類似 for men男人 and women婦女.
273
733240
5096
男性和女性的分佈很類似。
12:30
It looks容貌 pretty漂亮 similar類似
for those who had studied研究 economics經濟學
274
738360
3776
學經濟的人和學心理學的人,
12:34
or those who had studied研究 psychology心理學.
275
742160
2360
他們的分佈看起來很相似。
12:38
It looks容貌 even pretty漂亮 similar類似
around different不同 age年齡 categories類別
276
746000
3376
不同年齡層的成人
他們的分佈還更相似。
12:41
among其中 adults成年人.
277
749400
1216
12:42
But I don't know yet然而
how this develops發展 over a lifetime一生.
278
750640
2656
但我還不知道一輩子的進展會怎樣。
12:45
That will be the subject學科
of future未來 research研究.
279
753320
3440
那將會是未來的研究主題。
12:49
The idea理念 I want to leave離開 you with
280
757640
1656
我想留給各位的想法是,
12:51
is it's all right to appeal上訴 to incentives獎勵.
281
759320
2776
被獎勵所吸引是沒關係的。
12:54
I'm an economist經濟學家;
282
762120
1216
我是經濟學家;
12:55
I certainly當然 believe in the fact事實
that incentives獎勵 work.
283
763360
2920
我肯定相信獎勵是有效的。
12:59
But do think about selecting選擇
the right people
284
767400
4016
但你一定要考慮篩選對的人,
13:03
rather than having people
and then putting incentives獎勵 in place地點.
285
771440
3496
而不只是先把人招來,再提供獎勵。
13:06
Selecting選擇 the right people
with the right values
286
774960
2256
篩選對的、有正確價值觀的人,
13:09
may可能 go a long way
to saving保存 a lot of trouble麻煩
287
777240
3936
可成功地為你的組織
省掉很多麻煩、
13:13
and a lot of money
288
781200
1376
和很多金錢。
13:14
in your organizations組織.
289
782600
1736
13:16
In other words,
290
784360
1256
換言之,
13:17
it will pay工資 off to put people first.
291
785640
3760
把「人」放在首位必有好收穫。
13:22
Thank you.
292
790040
1216
謝謝。
13:23
(Applause掌聲)
293
791280
3640
(掌聲)
Translated by Lilian Chiu
Reviewed by Nan-Kun Wu

▲Back to top

ABOUT THE SPEAKER
Alexander Wagner - Economist
Alexander Wagner balances two passions: the thrill of seeking knowledge about fundamentals of human behavior for knowledge's sake, and the desire to apply insights in the real world and to improve the workings of markets and organizations.

Why you should listen

Alexander Wagner has discovered that to most people, what matters is not only how much money they receive but also whether they behaved honestly to receive that money. As Swiss Finance Institute professor at the University of Zurich's Department of Banking and Finance, Wagner has taught corporate finance to thousands of eager students and hundreds of motivated executives, and he has helped shape governance systems of companies large and small. His recent research deals with how investors perceive managerial words and deeds … and with the stock market implications of the Trump election.

More profile about the speaker
Alexander Wagner | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee