ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com
TEDGlobal 2013

Alessandro Acquisti: What will a future without secrets look like?

亞歷山卓‧阿吉斯 (Alessandro Acquisti): 隱私權為什麼重要?

Filmed:
1,423,103 views

在過去十年來,「公開」與「私人」的界線已經模糊不清,同時,網路上與現實生活也是一樣,亞歷山卓‧阿吉斯提在此解釋隱私權代表的意義,以及它很重要的原因。在這場發人深省但又有點嚇人的演講中,講者與大家分享近期完成的研究成果與還在進行的研究的細節,其中包括有一項計畫,該項計畫顯示,要將陌生人的照片與他們非常敏感的私人資訊連接起來,是一件非常簡單的事情。
- Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks. Full bio

Double-click the English transcript below to play the video.

00:12
I would like to tell you a story故事
0
641
2354
我想告訴各位一則故事
00:14
connecting the notorious臭名昭著 privacy隱私 incident事件
1
2995
3176
是著名的亞當和夏娃隱私事件
00:18
involving涉及 Adam亞當 and Eve前夕,
2
6171
2769
是著名的亞當和夏娃隱私事件
00:20
and the remarkable卓越 shift轉移 in the boundaries邊界
3
8940
3446
以及這10年來, 在公眾與個人之間分界的重大改變
00:24
between之間 public上市 and private私人的 which哪一個 has occurred發生
4
12386
2686
以及這10年來, 在公眾與個人之間分界的重大改變
00:27
in the past過去 10 years年份.
5
15072
1770
以及這10年來, 在公眾與個人之間分界的重大改變
00:28
You know the incident事件.
6
16842
1298
你知道這起事件
00:30
Adam亞當 and Eve前夕 one day in the Garden花園 of Eden伊甸園
7
18140
3330
有一天亞當和夏娃在伊甸園
00:33
realize實現 they are naked.
8
21470
1843
發現他們都沒穿衣服
00:35
They freak怪物 out.
9
23313
1500
他們嚇壞了
00:36
And the rest休息 is history歷史.
10
24813
2757
其餘的部分你們都知道了
00:39
Nowadays如今, Adam亞當 and Eve前夕
11
27570
2188
換做是現在的話, 亞當和夏娃
00:41
would probably大概 act法案 differently不同.
12
29758
2361
可能會有不同的反應
00:44
[@Adam亞當 Last nite有限 was a blast爆破! loved喜愛 datDAT apple蘋果 LOL大聲笑]
13
32119
2268
(twitter)@亞當 昨晚的表現真是精采! 愛死那顆蘋果了
00:46
[@Eve前夕 yep是的.. babe孩兒, know what happened發生 to my pants褲子 tho?]
14
34387
1873
(twitter)@夏娃 寶貝你知道我的褲子怎麼了嗎?
00:48
We do reveal揭示 so much more information信息
15
36260
2636
在網路上, 我們都比從前透露出更多關於自己的訊息
00:50
about ourselves我們自己 online線上 than ever before,
16
38896
3334
在網路上, 我們都比從前透露出更多關於自己的訊息
00:54
and so much information信息 about us
17
42230
1704
而這些有關我們的訊息
00:55
is being存在 collected by organizations組織.
18
43934
2224
正被許多政府機構收集起來
00:58
Now there is much to gain獲得 and benefit效益
19
46158
3282
現在可以從分析個人資訊或是巨量資料中得到許多利益
01:01
from this massive大規模的 analysis分析 of personal個人 information信息,
20
49440
2446
現在可以從分析個人資訊或是巨量資料中得到許多利益
01:03
or big data數據,
21
51886
1946
現在可以從分析個人資訊或是巨量資料中得到許多利益
01:05
but there are also complex複雜 tradeoffs權衡 that come
22
53832
2638
但是在捨棄隱私權的同時, 也伴隨著複雜的得失交換
01:08
from giving away our privacy隱私.
23
56470
3098
但是在捨棄隱私權的同時, 也伴隨著複雜的得失交換
01:11
And my story故事 is about these tradeoffs權衡.
24
59568
4023
我要講的故事是有關這些得失交換
01:15
We start開始 with an observation意見 which哪一個, in my mind心神,
25
63591
2584
我們先從觀察開始
01:18
has become成為 clearer更清晰 and clearer更清晰 in the past過去 few少數 years年份,
26
66175
3327
在我看來, 過去幾年中, 這個情況已經變得越來越明確
01:21
that any personal個人 information信息
27
69502
2097
任何個人資訊
01:23
can become成為 sensitive敏感 information信息.
28
71599
2285
都能變成敏感的訊息
01:25
Back in the year 2000, about 100 billion十億 photos相片
29
73884
4125
回朔到西元2000年的時候,
01:30
were shot射擊 worldwide全世界,
30
78009
1912
全世界上所有人約拍出1000億張照片
01:31
but only a minuscule微不足道 proportion比例 of them
31
79921
3065
但是只有極少數的照片
01:34
were actually其實 uploaded上傳 online線上.
32
82986
1883
被上傳到網路上
01:36
In 2010, only on FacebookFacebook的, in a single month,
33
84869
3361
在2010年 光是一個月, Facebook用戶就上傳25億張照片
01:40
2.5 billion十億 photos相片 were uploaded上傳,
34
88230
3270
在2010年時 光是一個月, Facebook用戶就上傳25億張照片
01:43
most of them identified確定.
35
91500
1882
而多數照片上的人都可以被辨識出來
01:45
In the same相同 span跨度 of time,
36
93382
1880
在這段時間裡
01:47
computers'電腦' ability能力 to recognize認識 people in photos相片
37
95262
4870
辨認照片內人物的電腦運算能力
01:52
improved改善 by three orders命令 of magnitude大小.
38
100132
3608
也加快了1000倍
01:55
What happens發生 when you combine結合
39
103740
1882
如果將這些技術結合起來
01:57
these technologies技術 together一起:
40
105622
1501
會發生什麼事?
01:59
increasing增加 availability可用性 of facial面部 data數據;
41
107123
2658
取得了更多的臉部資料
02:01
improving提高 facial面部 recognizing認識 ability能力 by computers電腦;
42
109781
3648
改善了電腦臉部辨識的能力
02:05
but also cloud computing計算,
43
113429
2182
還有雲端運算
02:07
which哪一個 gives anyone任何人 in this theater劇院
44
115611
1888
這會給與現場任何一個人
02:09
the kind of computational計算 power功率
45
117499
1560
一種運算能力
02:11
which哪一個 a few少數 years年份 ago was only the domain
46
119059
1886
而這種運算能力在幾年前只專屬於
02:12
of three-letter三個字母 agencies機構;
47
120945
1782
那些政府機構
02:14
and ubiquitous普及 computing計算,
48
122727
1378
這種普及的運算能力
02:16
which哪一個 allows允許 my phone電話, which哪一個 is not a supercomputer超級計算機,
49
124105
2892
能讓我的普通手機
02:18
to connect to the Internet互聯網
50
126997
1671
連上網際網路
02:20
and do there hundreds數以百計 of thousands數千
51
128668
2334
在幾秒之內進行數十萬次的人臉辨識
02:23
of face面對 metrics指標 in a few少數 seconds?
52
131002
2639
在幾秒之內進行數十萬次的人臉辨識
02:25
Well, we conjecture推測 that the result結果
53
133641
2628
我們推測這些
02:28
of this combination組合 of technologies技術
54
136269
2064
技術結合的結果
02:30
will be a radical激進 change更改 in our very notions概念
55
138333
2888
會顛覆我們
02:33
of privacy隱私 and anonymity匿名.
56
141221
2257
對於隱私權與匿名性最初的想法
02:35
To test測試 that, we did an experiment實驗
57
143478
1993
為了進行測試 我們做了一項實驗
02:37
on Carnegie卡內基 Mellon梅隆 University大學 campus校園.
58
145471
2121
在卡內基美隆大學的校園裡
02:39
We asked students學生們 who were walking步行 by
59
147592
2099
我們找路過的學生
02:41
to participate參加 in a study研究,
60
149691
1779
來參與這項研究
02:43
and we took a shot射擊 with a webcam攝像頭,
61
151470
2562
我們拿視訊攝影機拍照
02:46
and we asked them to fill out a survey調查 on a laptop筆記本電腦.
62
154032
2782
請他們用筆電填寫問卷調查
02:48
While they were filling填充 out the survey調查,
63
156814
1979
他們在填寫問卷的時候
02:50
we uploaded上傳 their shot射擊 to a cloud-computing雲計算 cluster,
64
158793
2797
上傳他們的照片到一個雲端運算群組
02:53
and we started開始 using運用 a facial面部 recognizer識別
65
161590
1727
使用一個臉部辨識系統
02:55
to match比賽 that shot射擊 to a database數據庫
66
163317
2405
將這組照片拿去與
02:57
of some hundreds數以百計 of thousands數千 of images圖片
67
165722
2393
一個約有數十萬張圖像的資料庫比對
03:00
which哪一個 we had downloaded下載 from FacebookFacebook的 profiles型材.
68
168115
3596
這些圖像是我們從Facebook的個人簡介下載下來的
03:03
By the time the subject學科 reached到達 the last page
69
171711
3259
等到受測者填寫到問卷最後一頁的時候
03:06
on the survey調查, the page had been dynamically動態 updated更新
70
174970
3347
畫面會更新成辨識器找出的10張最相符的照片
03:10
with the 10 best最好 matching匹配 photos相片
71
178317
2313
畫面會更新成辨識器找出的10張最相符的照片
03:12
which哪一個 the recognizer識別 had found發現,
72
180630
2285
畫面會更新成辨識器找出的10張最相符的照片
03:14
and we asked the subjects主題 to indicate表明
73
182915
1738
我們要求受測者指出
03:16
whether是否 he or she found發現 themselves他們自己 in the photo照片.
74
184653
4120
是否有在這些照片中找到他們自己
03:20
Do you see the subject學科?
75
188773
3699
你有看到這名受測者嗎?
03:24
Well, the computer電腦 did, and in fact事實 did so
76
192472
2845
是的, 電腦有找到
03:27
for one out of three subjects主題.
77
195317
2149
三人之中就有一人被找到
03:29
So essentially實質上, we can start開始 from an anonymous匿名 face面對,
78
197466
3184
基本上 我們能夠從一張不知名的臉開始,
03:32
offline離線 or online線上, and we can use facial面部 recognition承認
79
200650
3484
不管是離線或在線 我們都能利用臉部辨識
03:36
to give a name名稱 to that anonymous匿名 face面對
80
204134
2360
讓一張不知名的臉找到它的名字
03:38
thanks謝謝 to social社會 media媒體 data數據.
81
206494
2108
這都是拜社群媒體資料庫所賜
03:40
But a few少數 years年份 back, we did something else其他.
82
208602
1872
但是幾年前 我們又做其他的事情
03:42
We started開始 from social社會 media媒體 data數據,
83
210474
1823
我們從社群媒體開始著手-
03:44
we combined結合 it statistically統計學 with data數據
84
212297
3051
我們將它與美國社會安全局的資料做結合
03:47
from U.S. government政府 social社會 security安全,
85
215348
2102
我們將它與美國社會安全局的資料做結合
03:49
and we ended結束 up predicting預測 social社會 security安全 numbers數字,
86
217450
3324
我們可以猜出個人的社會安全號碼
03:52
which哪一個 in the United聯合的 States狀態
87
220774
1512
這在美國是一項極度敏感的個人資訊
03:54
are extremely非常 sensitive敏感 information信息.
88
222286
2040
這在美國是一項極度敏感的個人資訊
03:56
Do you see where I'm going with this?
89
224326
2093
你知道我在講什麼嗎?
03:58
So if you combine結合 the two studies學習 together一起,
90
226419
2922
所以如果你們將兩種研究結果加在一起,
04:01
then the question becomes,
91
229341
1512
那這個問題就會變成
04:02
can you start開始 from a face面對 and,
92
230853
2720
你能從一張臉開始
04:05
using運用 facial面部 recognition承認, find a name名稱
93
233573
2311
利用臉部辨識技術 找到他的名字
04:07
and publicly公然 available可得到 information信息
94
235884
2669
找到這個人的公開資訊
04:10
about that name名稱 and that person,
95
238553
1932
找到這個人的公開資訊
04:12
and from that publicly公然 available可得到 information信息
96
240485
2248
再從公開資訊
04:14
infer推斷 non-publicly非公開 available可得到 information信息,
97
242733
2042
推測出那些更加敏感的非公開資訊
04:16
much more sensitive敏感 ones那些
98
244775
1606
推測出那些更加敏感的非公開資訊
04:18
which哪一個 you link鏈接 back to the face面對?
99
246381
1492
然後你再回想起這張臉嗎?
04:19
And the answer回答 is, yes, we can, and we did.
100
247873
1916
答案是可以的, 而且我們也做到了
04:21
Of course課程, the accuracy準確性 keeps保持 getting得到 worse更差.
101
249789
2568
當然, 準確度還不是很好
04:24
[27% of subjects'受試者 first 5 SSNSSN digits數字 identified確定 (with 4 attempts嘗試)]
102
252357
944
在四次嘗試中, 可以辨識出27%受測者的社會安全號碼前五碼
04:25
But in fact事實, we even decided決定 to develop發展 an iPhone蘋果手機 app應用
103
253301
3827
但事實上 我們甚至決定做一個 iPhone app
04:29
which哪一個 uses使用 the phone's手機 internal內部 camera相機
104
257128
2715
利用手機內建像機
04:31
to take a shot射擊 of a subject學科
105
259843
1600
幫受測者拍一張照片
04:33
and then upload上載 it to a cloud
106
261443
1487
然後上傳至雲端網路
04:34
and then do what I just described描述 to you in real真實 time:
107
262930
2662
接下來馬上就像我對大家描述的一樣
04:37
looking for a match比賽, finding發現 public上市 information信息,
108
265592
2088
即時找出相符的臉, 找出公開資訊
04:39
trying to infer推斷 sensitive敏感 information信息,
109
267680
1730
試著推斷敏感的私人資訊
04:41
and then sending發出 back to the phone電話
110
269410
2591
然後傳回手機
04:44
so that it is overlaid覆蓋 on the face面對 of the subject學科,
111
272001
3609
這些資訊會顯示在受測者的臉部照片旁
04:47
an example of augmented增強 reality現實,
112
275610
1901
這是一個擴增實境的例子
04:49
probably大概 a creepy爬行 example of augmented增強 reality現實.
113
277511
2451
也許是一個會令人毛骨悚然的擴增實境案例
04:51
In fact事實, we didn't develop發展 the app應用 to make it available可得到,
114
279962
3339
事實上我們並沒有讓這個app上市
04:55
just as a proof證明 of concept概念.
115
283301
1922
只是做為一種觀念的證明
04:57
In fact事實, take these technologies技術
116
285223
2313
事實上, 利用這些科技到極致的時候
04:59
and push them to their logical合乎邏輯 extreme極端.
117
287536
1837
事實上, 利用這些科技到極致的時候
05:01
Imagine想像 a future未來 in which哪一個 strangers陌生人 around you
118
289373
2719
想像一下未來, 你身旁的陌生人
05:04
will look at you through通過 their Google谷歌 Glasses眼鏡
119
292092
2311
能透過Google眼鏡來看你
05:06
or, one day, their contact聯繫 lenses鏡頭,
120
294403
2307
或者有一天 隱形眼鏡也能做到同樣的事情
05:08
and use seven or eight data數據 points about you
121
296710
4020
使用七或八個有關於你的資訊
05:12
to infer推斷 anything else其他
122
300730
2582
去推測其他
05:15
which哪一個 may可能 be known已知 about you.
123
303312
2603
可能與你相關的事
05:17
What will this future未來 without secrets秘密 look like?
124
305915
4794
沒有秘密的未來會是什麼樣子?
05:22
And should we care關心?
125
310709
1964
我們應該關心這個嗎?
05:24
We may可能 like to believe
126
312673
1891
我們可能比較願意去相信
05:26
that the future未來 with so much wealth財富 of data數據
127
314564
3040
一個有這麼多數據資料的未來
05:29
would be a future未來 with no more biases偏見,
128
317604
2514
會是一個沒有偏差的未來
05:32
but in fact事實, having so much information信息
129
320118
3583
但是, 事實上, 擁有這麼多資訊
05:35
doesn't mean that we will make decisions決定
130
323701
2191
不表示我們能夠做出
05:37
which哪一個 are more objective目的.
131
325892
1706
更客觀的決定
05:39
In another另一個 experiment實驗, we presented呈現 to our subjects主題
132
327598
2560
在另一個實驗裡 我們把求職者的資訊給受測者看
05:42
information信息 about a potential潛在 job工作 candidate候選人.
133
330158
2246
在另一個實驗裡 我們把求職者的資訊給受測者看
05:44
We included包括 in this information信息 some references引用
134
332404
3178
我們的資料含括
05:47
to some funny滑稽, absolutely絕對 legal法律,
135
335582
2646
關於一些有趣, 絕對合法
05:50
but perhaps也許 slightly embarrassing尷尬 information信息
136
338228
2465
但也許稍微有點尷尬的訊息
05:52
that the subject學科 had posted發布 online線上.
137
340693
2020
這些都是受測者張貼在網路上的資訊
05:54
Now interestingly有趣, among其中 our subjects主題,
138
342713
2366
有趣的是 我們實驗的對象中
05:57
some had posted發布 comparable可比 information信息,
139
345079
3083
有些人也發表了類似的訊息
06:00
and some had not.
140
348162
2362
但有些人則沒有
06:02
Which哪一個 group do you think
141
350524
1949
你認為哪一組人
06:04
was more likely容易 to judge法官 harshly粗暴地 our subject學科?
142
352473
4552
比較可能嚴厲批評我們的受測者?
06:09
Paradoxically矛盾的是, it was the group
143
357025
1957
答案出乎意料的是
06:10
who had posted發布 similar類似 information信息,
144
358982
1733
那些發表類似訊息的人
06:12
an example of moral道德 dissonance不和諧.
145
360715
2942
這也是種道德觀念不一致的例子
06:15
Now you may可能 be thinking思維,
146
363657
1750
現在你可能正在想
06:17
this does not apply應用 to me,
147
365407
1702
這對我來說沒用
06:19
because I have nothing to hide隱藏.
148
367109
2162
因為我沒有什麼要藏的東西
06:21
But in fact事實, privacy隱私 is not about
149
369271
2482
但事實上 隱私不只是
06:23
having something negative to hide隱藏.
150
371753
3676
有什麼不好的東西要藏起來而已
06:27
Imagine想像 that you are the H.R. director導向器
151
375429
2354
想像你是某個組織的人事主管
06:29
of a certain某些 organization組織, and you receive接收sumés,
152
377783
2947
你收到應徵者寄來的履歷
06:32
and you decide決定 to find more information信息 about the candidates候選人.
153
380730
2473
你決定要找出更多該名應徵者的訊息
06:35
Therefore因此, you Google谷歌 their names
154
383203
2460
因此 你就在google上搜尋他們的名字
06:37
and in a certain某些 universe宇宙,
155
385663
2240
在特定時空
06:39
you find this information信息.
156
387903
2008
你可以找到這筆資訊
06:41
Or in a parallel平行 universe宇宙, you find this information信息.
157
389911
4437
或是在平行時空 你找到這筆資訊
06:46
Do you think that you would be equally一樣 likely容易
158
394348
2717
你認為你會同樣的
06:49
to call either candidate候選人 for an interview訪問?
159
397065
2803
打電話通知應徵者前來面試嗎?
06:51
If you think so, then you are not
160
399868
2282
如果你這麼認為,
06:54
like the U.S. employers雇主 who are, in fact事實,
161
402150
2582
那你就不像美國雇主
06:56
part部分 of our experiment實驗, meaning含義 we did exactly究竟 that.
162
404732
3307
事實上, 他們也在我們的實驗當中
07:00
We created創建 FacebookFacebook的 profiles型材, manipulating操縱 traits性狀,
163
408039
3182
我們創造了一些Facebook個人簡介,
07:03
then we started開始 sending發出 out résumés to companies公司 in the U.S.,
164
411221
2851
然後寄送履歷到美國各家公司
07:06
and we detected檢測, we monitored監控,
165
414072
1908
然後我們偵查、監控
07:07
whether是否 they were searching搜索 for our candidates候選人,
166
415980
2393
看是否他們正在上網搜尋我們的應徵者
07:10
and whether是否 they were acting演戲 on the information信息
167
418373
1832
並且依照這些社群媒體上找到的資訊做事.
07:12
they found發現 on social社會 media媒體. And they were.
168
420205
1938
他們真的這麼作.
07:14
Discrimination區別 was happening事件 through通過 social社會 media媒體
169
422143
2101
透過社群媒體, 對技能相當的應徵者們來說
07:16
for equally一樣 skilled技能的 candidates候選人.
170
424244
3073
也會發生不公平待遇的事情
07:19
Now marketers營銷 like us to believe
171
427317
4575
現在行銷的人想讓我們相信
07:23
that all information信息 about us will always
172
431892
2269
所有關於我們的個人資訊都會
07:26
be used in a manner方式 which哪一個 is in our favor偏愛.
173
434161
3273
用在對我們有利的面向
07:29
But think again. Why should that be always the case案件?
174
437434
3715
但是再想想, 真的會這樣嗎?
07:33
In a movie電影 which哪一個 came來了 out a few少數 years年份 ago,
175
441149
2664
幾年前上映的一部電影
07:35
"Minority少數民族 Report報告," a famous著名 scene現場
176
443813
2553
「關鍵報告」裡一個著名的場景
07:38
had Tom湯姆 Cruise巡航 walk步行 in a mall購物中心
177
446366
2576
就是湯姆克‧魯斯走進一間賣場
07:40
and holographic全息 personalized個性化 advertising廣告
178
448942
3776
有一個個人化的雷射投影廣告
07:44
would appear出現 around him.
179
452718
1835
出現在他旁邊
07:46
Now, that movie電影 is set in 2054,
180
454553
3227
那部電影的時空背景設定於2054年
07:49
about 40 years年份 from now,
181
457780
1642
從現在算起 大約是40年之後
07:51
and as exciting扣人心弦 as that technology技術 looks容貌,
182
459422
2908
那種技術看起來很精彩
07:54
it already已經 vastly大大 underestimates低估
183
462330
2646
它已經大大低估
07:56
the amount of information信息 that organizations組織
184
464976
2140
各組織能夠匯集起有關你個人的資料量
07:59
can gather收集 about you, and how they can use it
185
467116
2483
與他們是如何運用這些資料
08:01
to influence影響 you in a way that you will not even detect檢測.
186
469599
3398
以某一個你無法查覺的方式, 對你造成影響
08:04
So as an example, this is another另一個 experiment實驗
187
472997
2103
還有一個例子 這是另一項實驗
08:07
actually其實 we are running賽跑, not yet然而 completed完成.
188
475100
2273
是我們正在進行中的實驗, 還沒有完成
08:09
Imagine想像 that an organization組織 has access訪問
189
477373
2319
想像一個組織能夠進入
08:11
to your list名單 of FacebookFacebook的 friends朋友,
190
479692
2056
你的Facebook好友清單
08:13
and through通過 some kind of algorithm算法
191
481748
1772
透過某種運算規則
08:15
they can detect檢測 the two friends朋友 that you like the most.
192
483520
3734
他們可以偵測到你最喜歡的兩個好友
08:19
And then they create創建, in real真實 time,
193
487254
2280
然後他們就能即時創造出
08:21
a facial面部 composite綜合 of these two friends朋友.
194
489534
2842
由這兩個好友所組成的臉部合成照
08:24
Now studies學習 prior to ours我們的 have shown顯示 that people
195
492376
3069
在我們之前有研究已經顯示
08:27
don't recognize認識 any longer even themselves他們自己
196
495445
2885
人們在看臉部合成照, 連他們自己都認不出來
08:30
in facial面部 composites複合材料, but they react應對
197
498330
2462
人們在看臉部合成照, 連他們自己都認不出來
08:32
to those composites複合材料 in a positive manner方式.
198
500792
2117
但是他們對那些合成照有正面評價
08:34
So next下一個 time you are looking for a certain某些 product產品,
199
502909
3415
所以下次你在找某項產品
08:38
and there is an ad廣告 suggesting提示 you to buy購買 it,
200
506324
2559
此時有一個建議購買的廣告
08:40
it will not be just a standard標準 spokesperson發言人.
201
508883
2907
廣告將不會是一個固定的代言人
08:43
It will be one of your friends朋友,
202
511790
2313
他很可能是你其中一位朋友
08:46
and you will not even know that this is happening事件.
203
514103
3303
你甚至不知道這種事正發生在你的生活中
08:49
Now the problem問題 is that
204
517406
2413
現在問題就是
08:51
the current當前 policy政策 mechanisms機制 we have
205
519819
2519
目前政策機制是我們必須
08:54
to protect保護 ourselves我們自己 from the abuses濫用 of personal個人 information信息
206
522338
3438
保護我們自己免於個人資料遭到濫用
08:57
are like bringing使 a knife to a gunfight槍戰.
207
525776
2984
這就像是以卵擊石
09:00
One of these mechanisms機制 is transparency透明度,
208
528760
2913
其中一項機制就是資訊透明化
09:03
telling告訴 people what you are going to do with their data數據.
209
531673
3200
你必須告訴人們你想拿他們資料做什麼
09:06
And in principle原理, that's a very good thing.
210
534873
2106
原則上 這是一件非常好的事情
09:08
It's necessary必要, but it is not sufficient足夠.
211
536979
3667
這是應該的, 但是這麼做還不夠
09:12
Transparency透明度 can be misdirected誤導.
212
540646
3698
資訊透明化的方向可能會被誤導
09:16
You can tell people what you are going to do,
213
544344
2104
你可以告訴大家你想做什麼
09:18
and then you still nudge微調 them to disclose透露
214
546448
2232
然後你促使他人揭露
09:20
arbitrary隨意 amounts of personal個人 information信息.
215
548680
2623
或多或少的個人資訊
09:23
So in yet然而 another另一個 experiment實驗, this one with students學生們,
216
551303
2886
在另一項實驗中, 實驗對象是學生
09:26
we asked them to provide提供 information信息
217
554189
3058
我們要求他們提供個人資訊
09:29
about their campus校園 behavior行為,
218
557247
1813
關於他們在學校裡做的事
09:31
including包含 pretty漂亮 sensitive敏感 questions問題, such這樣 as this one.
219
559060
2940
包括一些相當敏感的問題 就像這一個
09:34
[Have you ever cheated被騙 in an exam考試?]
220
562000
621
在考試的時候 你有作弊過嗎?
09:34
Now to one group of subjects主題, we told them,
221
562621
2300
對其中一組受測者, 我們告訴他們
09:36
"Only other students學生們 will see your answers答案."
222
564921
2841
只有其他的同學會看到你的答案
09:39
To another另一個 group of subjects主題, we told them,
223
567762
1579
對另一組受測者 我們告訴他們
09:41
"Students學生們 and faculty學院 will see your answers答案."
224
569341
3561
所有學生和教職員都會看到你的答案
09:44
Transparency透明度. Notification通知. And sure enough足夠, this worked工作,
225
572902
2591
透明化 告知. 這真的有用.
09:47
in the sense that the first group of subjects主題
226
575493
1407
第一組受測者
09:48
were much more likely容易 to disclose透露 than the second第二.
227
576900
2568
比第二組受測者更有可能公佈事實
09:51
It makes品牌 sense, right?
228
579468
1520
合理吧?
09:52
But then we added添加 the misdirection誤導.
229
580988
1490
但是之後我們加入誤導手段
09:54
We repeated重複 the experiment實驗 with the same相同 two groups,
230
582478
2760
我們對相同兩組學生重覆進行實驗
09:57
this time adding加入 a delay延遲
231
585238
2427
這次在不同的時間告訴受測者我們是如何使用他們的資料
09:59
between之間 the time we told subjects主題
232
587665
2935
這次在不同的時間告訴受測者我們是如何使用他們的資料
10:02
how we would use their data數據
233
590600
2080
這次在不同的時間告訴受測者我們是如何使用他們的資料
10:04
and the time we actually其實 started開始 answering回答 the questions問題.
234
592680
4388
現在我們知道了
10:09
How long a delay延遲 do you think we had to add
235
597068
2561
你認為我們必須要延遲多久時間
10:11
in order訂購 to nullify廢止 the inhibitory抑制 effect影響
236
599629
4613
為使這種抑制效應無效
10:16
of knowing會心 that faculty學院 would see your answers答案?
237
604242
3411
而這種效應就是知道教職員會看見你的答案?
10:19
Ten minutes分鐘?
238
607653
1780
10分鐘?
10:21
Five minutes分鐘?
239
609433
1791
5分鐘?
10:23
One minute分鐘?
240
611224
1776
1分鐘?
10:25
How about 15 seconds?
241
613000
2049
15秒怎樣?
10:27
Fifteen十五 seconds were sufficient足夠 to have the two groups
242
615049
2668
15秒就足夠讓兩組人
10:29
disclose透露 the same相同 amount of information信息,
243
617717
1568
透露出相同資訊量
10:31
as if the second第二 group now no longer cares管它
244
619285
2746
就好像第二組人現在不再關心教職員會看他們的答案
10:34
for faculty學院 reading their answers答案.
245
622031
2656
就好像第二組人現在不再關心教職員會看他們的答案
10:36
Now I have to admit承認 that this talk so far
246
624687
3336
現在我必須承認目前為止我說的這些話
10:40
may可能 sound聲音 exceedingly非常 gloomy陰沉,
247
628023
2480
可能聽起來非常沉悶
10:42
but that is not my point.
248
630503
1721
但我要說的不是這個
10:44
In fact事實, I want to share分享 with you the fact事實 that
249
632224
2699
事實上 我想與大家分享的是
10:46
there are alternatives備擇方案.
250
634923
1772
還有替代方案
10:48
The way we are doing things now is not the only way
251
636695
2499
我們現在實驗的方式
10:51
they can doneDONE, and certainly當然 not the best最好 way
252
639194
3037
並不是唯一可行的方式
10:54
they can be doneDONE.
253
642231
2027
當然也不是最好的辦法
10:56
When someone有人 tells告訴 you, "People don't care關心 about privacy隱私,"
254
644258
4171
有人告訴你 「沒人會在乎他的隱私」
11:00
consider考慮 whether是否 the game遊戲 has been designed設計
255
648429
2642
想想看是否這場遊戲已經遭到設計
11:03
and rigged非法操縱的 so that they cannot不能 care關心 about privacy隱私,
256
651071
2724
暗中操作 所以他們才不在意隱私權
11:05
and coming未來 to the realization實現 that these manipulations操作 occur發生
257
653795
3262
逐漸發現這些操作手段的已經入侵到那些能夠能夠保護你的方法中
11:09
is already已經 halfway through通過 the process處理
258
657057
1607
逐漸發現這些操作手段的已經入侵到那些能夠能夠保護你的方法中
11:10
of being存在 able能夠 to protect保護 yourself你自己.
259
658664
2258
逐漸發現這些操作手段的已經入侵到那些能夠能夠保護你的方法中
11:12
When someone有人 tells告訴 you that privacy隱私 is incompatible不相容
260
660922
3710
有人告訴你隱私
11:16
with the benefits好處 of big data數據,
261
664632
1849
與巨量資料所帶來的利益是無法共存的
11:18
consider考慮 that in the last 20 years年份,
262
666481
2473
想想看近20年
11:20
researchers研究人員 have created創建 technologies技術
263
668954
1917
研究人員已經研發出數套技術
11:22
to allow允許 virtually實質上 any electronic電子 transactions交易
264
670871
3318
讓幾乎所有電子交易
11:26
to take place地點 in a more privacy-preserving隱私保護 manner方式.
265
674189
3749
能夠在有更高度的隱私環境下進行
11:29
We can browse瀏覽 the Internet互聯網 anonymously匿名.
266
677938
2555
我們可以匿名瀏覽網頁
11:32
We can send發送 emails電子郵件 that can only be read
267
680493
2678
傳送唯讀電子郵件
11:35
by the intended recipient接受者, not even the NSANSA.
268
683171
3709
這些電子郵件僅能由指定的收件者閱讀
就連國家安全局都沒辦法查看
11:38
We can have even privacy-preserving隱私保護 data數據 mining礦業.
269
686880
2997
我們甚至能在隱私受到保護的情況下
進行資料開採
11:41
In other words, we can have the benefits好處 of big data數據
270
689877
3894
另一方面, 在保護隱私權的同時, 我們仍擁有巨量資料所帶來的好處
11:45
while protecting保護 privacy隱私.
271
693771
2132
另一方面, 在保護隱私權的同時, 我們仍擁有巨量資料所帶來的好處
11:47
Of course課程, these technologies技術 imply意味著 a shifting
272
695903
3791
當然 這些技術也可以看出,
11:51
of cost成本 and revenues收入
273
699694
1546
在資料持有人與資料提供者之間
11:53
between之間 data數據 holders持有人 and data數據 subjects主題,
274
701240
2107
利益的變化
11:55
which哪一個 is why, perhaps也許, you don't hear more about them.
275
703347
3453
這也許是為什麼你沒有聽過太多有關這些技術的事情
11:58
Which哪一個 brings帶來 me back to the Garden花園 of Eden伊甸園.
276
706800
3706
就讓我將話題轉回伊甸園
12:02
There is a second第二 privacy隱私 interpretation解釋
277
710506
2780
有第二種
12:05
of the story故事 of the Garden花園 of Eden伊甸園
278
713286
1809
對伊甸園故事的隱私解釋
12:07
which哪一個 doesn't have to do with the issue問題
279
715095
2096
這與亞當和夏娃
12:09
of Adam亞當 and Eve前夕 feeling感覺 naked
280
717191
2225
覺得全身赤裸
12:11
and feeling感覺 ashamed羞愧.
281
719416
2381
和感到羞恥沒有關係
12:13
You can find echoes迴聲 of this interpretation解釋
282
721797
2781
你可以在約翰·密爾頓的《失樂園》裡發現對於這個解釋的迴響
12:16
in John約翰 Milton's彌爾頓 "Paradise天堂 Lost丟失."
283
724578
2782
你可以在約翰·密爾頓的《失樂園》裡發現對於這個解釋的迴響
12:19
In the garden花園, Adam亞當 and Eve前夕 are materially重大 content內容.
284
727360
4197
在伊甸園裡 亞當和夏娃只是物品
12:23
They're happy快樂. They are satisfied滿意.
285
731557
2104
他們很快樂 很滿足
12:25
However然而, they also lack缺乏 knowledge知識
286
733661
2293
然而 他們也缺乏知識
12:27
and self-awareness自我意識.
287
735954
1640
和自覺
12:29
The moment時刻 they eat the aptly恰當地 named命名
288
737594
3319
此刻他們恰好吃下名叫
12:32
fruit水果 of knowledge知識,
289
740913
1293
「知識」的水果
12:34
that's when they discover發現 themselves他們自己.
290
742206
2605
就在那時他們才發現自我
12:36
They become成為 aware知道的. They achieve實現 autonomy自治.
291
744811
4031
他們開始擁有自覺和自主能力
12:40
The price價錢 to pay工資, however然而, is leaving離開 the garden花園.
292
748842
3126
然而 所付出的代價就是必須離開伊甸園
12:43
So privacy隱私, in a way, is both the means手段
293
751968
3881
所以, 隱私權是自由的意義也是代價
12:47
and the price價錢 to pay工資 for freedom自由.
294
755849
2962
所以, 隱私權是自由的意義也是代價
12:50
Again, marketers營銷 tell us
295
758811
2770
市場商人告訴我們
12:53
that big data數據 and social社會 media媒體
296
761581
3019
巨量資料與社群媒體
12:56
are not just a paradise天堂 of profit利潤 for them,
297
764600
2979
不只對於他們是獲利的天堂
12:59
but a Garden花園 of Eden伊甸園 for the rest休息 of us.
298
767579
2457
對我們其餘的人也是座伊甸園
13:02
We get free自由 content內容.
299
770036
1238
我們可以得到免費的內容
13:03
We get to play Angry憤怒 Birds鳥類. We get targeted針對 apps應用.
300
771274
3123
我們可以玩憤怒鳥 使用挑選好的app
13:06
But in fact事實, in a few少數 years年份, organizations組織
301
774397
2897
實際上,在幾年之內
13:09
will know so much about us,
302
777294
1609
政府機構將知道許多關於我們的資訊
13:10
they will be able能夠 to infer推斷 our desires慾望
303
778903
2710
他們能在我們想到之前推斷我們想做的事情
13:13
before we even form形成 them, and perhaps也許
304
781613
2204
他們能在我們想到之前推斷我們想做的事情
13:15
buy購買 products製品 on our behalf代表
305
783817
2447
也許在我們知道我們需要這些東西之前, 就替我們購買產品
13:18
before we even know we need them.
306
786264
2274
也許在我們知道我們需要這些東西之前, 就替我們購買產品
13:20
Now there was one English英語 author作者
307
788538
3237
現在有一名英國作家
13:23
who anticipated預期 this kind of future未來
308
791775
3045
考慮到未來可能會發生這種情況
13:26
where we would trade貿易 away
309
794820
1405
到時候我們可能會為了過舒適的生活
13:28
our autonomy自治 and freedom自由 for comfort安慰.
310
796225
3548
而賤賣我們的自主能力與自由
13:31
Even more so than George喬治 Orwell奧威爾,
311
799773
2161
其著作比喬治·歐威爾還多
13:33
the author作者 is, of course課程, Aldous奧爾德斯 Huxley赫胥黎.
312
801934
2761
這名作家當然就是奧爾德斯·赫胥黎
13:36
In "Brave勇敢 New World世界," he imagines不可想像 a society社會
313
804695
2854
在《美麗新世界》書中 他想像出一個社會
13:39
where technologies技術 that we created創建
314
807549
2171
那裡的科技是
13:41
originally本來 for freedom自由
315
809720
1859
我們為了自由而創造的技術
13:43
end結束 up coercing脅迫 us.
316
811579
2567
最後我們反被科技奴役
13:46
However然而, in the book, he also offers報價 us a way out
317
814146
4791
然而 在書中 他也提供我們一個逃離
13:50
of that society社會, similar類似 to the path路徑
318
818937
3438
那個社會的方式 與那條路很像
13:54
that Adam亞當 and Eve前夕 had to follow跟隨 to leave離開 the garden花園.
319
822375
3955
就是亞當和夏娃離開伊甸園的那條路
13:58
In the words of the Savage野蠻人,
320
826330
2147
就「野蠻人」這個詞而言
14:00
regaining恢復 autonomy自治 and freedom自由 is possible可能,
321
828477
3069
重新找回自主能力和自由是可行的
14:03
although雖然 the price價錢 to pay工資 is steep.
322
831546
2679
雖然需要付出的代價實在太高
14:06
So I do believe that one of the defining確定 fights打架
323
834225
5715
所以我相信我們這個時代的
14:11
of our times will be the fight鬥爭
324
839940
2563
其中一個決定性的戰鬥將會是
14:14
for the control控制 over personal個人 information信息,
325
842503
2387
為掌控個人資訊而戰
14:16
the fight鬥爭 over whether是否 big data數據 will become成為 a force
326
844890
3507
不管巨量資料是否將成為一股迎向自由的力量
14:20
for freedom自由,
327
848397
1289
這場戰鬥終將結束
14:21
rather than a force which哪一個 will hiddenlyhiddenly manipulate操作 us.
328
849686
4746
而不會成為一股暗中操縱我們的力量-
14:26
Right now, many許多 of us
329
854432
2593
現在 我們當中許多人
14:29
do not even know that the fight鬥爭 is going on,
330
857025
2753
甚至都不知道 戰鬥正在進行
14:31
but it is, whether是否 you like it or not.
331
859778
2672
不管你喜不喜歡 這就是現況
14:34
And at the risk風險 of playing播放 the serpent,
332
862450
2804
冒著玩弄魔鬼的危險
14:37
I will tell you that the tools工具 for the fight鬥爭
333
865254
2897
我告訴各位, 這場戰爭的工具就在這裡
14:40
are here, the awareness意識 of what is going on,
334
868151
3009
了解現在發生什麼事
14:43
and in your hands,
335
871160
1355
就掌握在你手裡
14:44
just a few少數 clicks點擊 away.
336
872515
3740
只要用滑鼠點幾下就行了
14:48
Thank you.
337
876255
1482
謝謝大家
14:49
(Applause掌聲)
338
877737
4477
(掌聲)
Translated by Bert Chen
Reviewed by Kuo-Hsien Chiang

▲Back to top

ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com