ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com
TEDGlobal 2013

Alessandro Acquisti: What will a future without secrets look like?

アレサンドロ・アクイスティ: プライバシーはなぜ重要か

Filmed:
1,423,103 views

オンラインと実世界の両方で、公私の境界線はここ10年の間に曖昧になってきています。アレサンドロ・アクイスティがこれが何を意味し、なぜ問題となるのかを説明します。私たちの思考を刺激する、やや背筋の寒くなるトークで、人物の写真からその人物に対するプライバシー情報を得ることがいかに簡単かを含む、最新の研究を紹介します。
- Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks. Full bio

Double-click the English transcript below to play the video.

00:12
I would like to tell you a storyストーリー
0
641
2354
今日は アダムとイブが巻き込まれた
00:14
connecting接続する the notorious悪名高いです privacyプライバシー incident入射
1
2995
3176
今日は アダムとイブが巻き込まれた
00:18
involving関与する Adamアダム and Eveイブ,
2
6171
2769
有名なプライバシー事件と
00:20
and the remarkable顕著 shiftシフト in the boundaries境界
3
8940
3446
ここ10年間に起きた
00:24
betweenの間に publicパブリック and privateプライベート whichどの has occurred発生した
4
12386
2686
公私の境界の 大きな変化を関連付けて
00:27
in the past過去 10 years.
5
15072
1770
お話ししたいと思います
00:28
You know the incident入射.
6
16842
1298
この事件はご存知の通りです
00:30
Adamアダム and Eveイブ one day in the Garden庭園 of Edenエデン
7
18140
3330
エデンの園にいる
アダムとイブはある日
00:33
realize実現する they are naked.
8
21470
1843
自分たちが 裸なのに気付きます
00:35
They freakフリーク out.
9
23313
1500
彼らは ひどく あわてます
00:36
And the rest残り is history歴史.
10
24813
2757
その後の顛末は
ご存知の通りです
00:39
Nowadays今日, Adamアダム and Eveイブ
11
27570
2188
今日なら アダムとイブは
00:41
would probably多分 act行為 differently異なって.
12
29758
2361
恐らく 違った行動を取るでしょう
00:44
[@Adamアダム Last niteナイト was a blast爆風! loved愛された datdat apple林檎 LOL]
13
32119
2268
[ @アダム :昨夜は楽しかった!
あのリンゴは美味しかった(笑)]
00:46
[@Eveイブ yepうん.. babeベイビー, know what happened起こった to my pantsズボン thoトー?]
14
34387
1873
[ @イブ:本当に
でも ズボンどうしたんだろう?]
00:48
We do reveal明らかにする so much more information情報
15
36260
2636
私たちは今までになく多くの
00:50
about ourselves自分自身 onlineオンライン than ever before,
16
38896
3334
情報をオンラインで公開しています
00:54
and so much information情報 about us
17
42230
1704
そして我々に関する情報は
00:55
is beingであること collected集めました by organizations組織.
18
43934
2224
様々な組織によって収集されています
00:58
Now there is much to gain利得 and benefit利益
19
46158
3282
この大量の個人情報
01:01
from this massive大規模 analysis分析 of personal個人的 information情報,
20
49440
2446
あるいはビッグデータから
01:03
or big大きい dataデータ,
21
51886
1946
非常に有用で
価値のあるものが得られますが
01:05
but there are alsoまた、 complex複合体 tradeoffsトレードオフ that come
22
53832
2638
同時にプライバシーを手放すことに伴う
01:08
from giving与える away our privacyプライバシー.
23
56470
3098
複雑なトレードオフも存在します
01:11
And my storyストーリー is about these tradeoffsトレードオフ.
24
59568
4023
今日は このような
トレードオフについてお話しします
まずここ数年の間に 私のなかで
01:15
We start開始 with an observation観察 whichどの, in my mindマインド,
25
63591
2584
01:18
has become〜になる clearerより明確な and clearerより明確な in the past過去 few少数 years,
26
66175
3327
非常に明確になってきた
01:21
that any personal個人的 information情報
27
69502
2097
どんな個人情報でもプライバシー情報になり得る
01:23
can become〜になる sensitive敏感な information情報.
28
71599
2285
という洞察から話したいと思います
01:25
Back in the year 2000, about 100 billion photos写真
29
73884
4125
2000年の時点で 全世界で
1000億枚ほどの写真が撮られましたが
01:30
were shotショット worldwide世界的に,
30
78009
1912
01:31
but only a minuscule微量 proportion割合 of them
31
79921
3065
ウェブにアップロードされたものの割合は
01:34
were actually実際に uploadedアップロードされた onlineオンライン.
32
82986
1883
非常に小さなものでした
01:36
In 2010, only on Facebookフェイスブック, in a singleシングル month,
33
84869
3361
2010年には ファイスブックだけでも
01:40
2.5 billion photos写真 were uploadedアップロードされた,
34
88230
3270
25億枚の写真がひと月にアップされ
01:43
most最も of them identified特定された.
35
91500
1882
そのほとんどが誰の写真か特定可能です
01:45
In the same同じ spanスパン of time,
36
93382
1880
同じ期間で
01:47
computers'コンピュータ ' ability能力 to recognize認識する people in photos写真
37
95262
4870
写真に写っている人を認識する
01:52
improved改善された by three orders注文 of magnitudeマグニチュード.
38
100132
3608
コンピュータの能力は3桁上がりました
01:55
What happens起こる when you combine結合する
39
103740
1882
この2つの技術を組み合わせると
01:57
these technologiesテクノロジー together一緒に:
40
105622
1501
何が起こるでしょうか
01:59
increasing増加する availability可用性 of facialフェイシャル dataデータ;
41
107123
2658
顔写真がどんどん手に入るようになり
02:01
improving改善する facialフェイシャル recognizing認識 ability能力 by computersコンピュータ;
42
109781
3648
コンピュータの顔認識の能力が向上する
02:05
but alsoまた、 cloud computing計算,
43
113429
2182
そしてクラウドコンピューティングが
02:07
whichどの gives与える anyone誰でも in this theater劇場
44
115611
1888
ここにいる誰に対しても
02:09
the kind種類 of computational計算上の powerパワー
45
117499
1560
数年前には政府の専門機関しか
02:11
whichどの a few少数 years ago was only the domainドメイン
46
119059
1886
持てなかったような
02:12
of three-letter3文字 agencies代理店;
47
120945
1782
コンピュータ能力を提供します
02:14
and ubiquitousユビキタス computing計算,
48
122727
1378
ユビキタスコンピューティングによって
02:16
whichどの allows許す my phone電話, whichどの is not a supercomputerスーパーコンピュータ,
49
124105
2892
スーパーコンピュータではない私の携帯電話が
02:18
to connect接続する to the Internetインターネット
50
126997
1671
インターネットに接続して
02:20
and do there hundreds数百 of thousands
51
128668
2334
数十万の顔認識を
02:23
of face metricsメトリック in a few少数 seconds?
52
131002
2639
数秒で実行することを可能にします
02:25
Well, we conjecture推測 that the result結果
53
133641
2628
このような技術の組み合わせが
02:28
of this combination組み合わせ of technologiesテクノロジー
54
136269
2064
プライバシーと匿名性に対する
02:30
will be a radicalラジカル change変化する in our very notions概念
55
138333
2888
私たちの基本的な理解を
02:33
of privacyプライバシー and anonymity匿名.
56
141221
2257
大きく変えると推測します
02:35
To testテスト that, we did an experiment実験
57
143478
1993
この考えを検証するために
02:37
on Carnegieカーネギー Mellonメロン University大学 campusキャンパス.
58
145471
2121
カーネギーメロン大学で
ある実験を行ないました
02:39
We asked尋ねた students学生の who were walking歩く by
59
147592
2099
キャンパスを歩いている学生に声を掛け
02:41
to participate参加する in a study調査,
60
149691
1779
実験に参加してもらい
02:43
and we took取った a shotショット with a webcamウェブカメラ,
61
151470
2562
ウェブカメラで学生の顔写真を撮って
02:46
and we asked尋ねた them to fill埋める out a survey調査 on a laptopラップトップ.
62
154032
2782
ノートパソコンに用意した
アンケートに答えてもらいました
02:48
While they were filling充填 out the survey調査,
63
156814
1979
彼らがアンケートに答えている間に
02:50
we uploadedアップロードされた their彼らの shotショット to a cloud-computingクラウドコンピューティング clusterクラスタ,
64
158793
2797
クラウドコンピューティングのクラスタに
写真をアップし
02:53
and we started開始した usingを使用して a facialフェイシャル recognizer認識装置
65
161590
1727
顔認識技術を使って
02:55
to match一致 that shotショット to a databaseデータベース
66
163317
2405
フェイスブックから取ってきた
02:57
of some hundreds数百 of thousands of imagesイメージ
67
165722
2393
数十万の画像データーベースと
03:00
whichどの we had downloadedダウンロードした from Facebookフェイスブック profilesプロファイル.
68
168115
3596
照合しました
03:03
By the time the subject主題 reached到達した the last pageページ
69
171711
3259
被験者の学生がアンケートの最後の
03:06
on the survey調査, the pageページ had been dynamically動的に updated更新しました
70
174970
3347
ページに到達する頃には
そのページは動的に変更されていて
03:10
with the 10 bestベスト matchingマッチング photos写真
71
178317
2313
顔認識エンジンが選んだ最も似ている
03:12
whichどの the recognizer認識装置 had found見つけた,
72
180630
2285
10枚の写真が表示されます
03:14
and we asked尋ねた the subjects科目 to indicate示す
73
182915
1738
そこで 学生にその写真の中に
03:16
whetherかどうか he or she found見つけた themselves自分自身 in the photo写真.
74
184653
4120
自分が映っているかどうか尋ねました
03:20
Do you see the subject主題?
75
188773
3699
学生をみつけられますか?
03:24
Well, the computerコンピューター did, and in fact事実 did so
76
192472
2845
コンピュータは探せたわけです
03:27
for one out of three subjects科目.
77
195317
2149
実際3人中1人の割合で学生の特定が可能でした
03:29
So essentially基本的に, we can start開始 from an anonymous匿名 face,
78
197466
3184
基本的には
不特定の顔写真から始めて
03:32
offlineオフライン or onlineオンライン, and we can use facialフェイシャル recognition認識
79
200650
3484
オンラインかオフラインかに関わらず
顔認識技術を使って
03:36
to give a name to that anonymous匿名 face
80
204134
2360
その写真の人物の名前を特定することが
03:38
thanksありがとう to socialソーシャル mediaメディア dataデータ.
81
206494
2108
ソーシャルメディアのおかげで可能です
03:40
But a few少数 years back, we did something elseelse.
82
208602
1872
数年前にこれとは異なる実験を行いました
03:42
We started開始した from socialソーシャル mediaメディア dataデータ,
83
210474
1823
ソーシャルメディアのデータから始めて
03:44
we combined結合された it statistically統計的に with dataデータ
84
212297
3051
それを統計的に米国政府の
03:47
from U.S. government政府 socialソーシャル securityセキュリティ,
85
215348
2102
ソーシャルセキュリティー関連の
データと組み合わせ
03:49
and we ended終了しました up predicting予測する socialソーシャル securityセキュリティ numbers数字,
86
217450
3324
最終的にソーシャルセキュリティー番号を
特定することが出来ました
03:52
whichどの in the Unitedユナイテッド States
87
220774
1512
ソーシャルセキュリティー番号は米国では
03:54
are extremely極端な sensitive敏感な information情報.
88
222286
2040
プライバシーに関する非常に重要な情報です
03:56
Do you see where I'm going with this?
89
224326
2093
この話の先に見えてくるものは何でしょう?
03:58
So if you combine結合する the two studies研究 together一緒に,
90
226419
2922
この2つの実験を組み合わせると
04:01
then the question質問 becomes〜になる,
91
229341
1512
ある疑問が浮かびます
04:02
can you start開始 from a face and,
92
230853
2720
顔の写真から始めて
04:05
usingを使用して facialフェイシャル recognition認識, find a name
93
233573
2311
顔認識技術によって名前を特定し
04:07
and publicly公然と available利用可能な information情報
94
235884
2669
その名前からその個人に対する
04:10
about that name and that person,
95
238553
1932
公開情報を取得し
04:12
and from that publicly公然と available利用可能な information情報
96
240485
2248
次に公開情報から
04:14
infer推論 non-publicly非公開 available利用可能な information情報,
97
242733
2042
よりプライベートな
04:16
much more sensitive敏感な onesもの
98
244775
1606
非公開情報を参照し
04:18
whichどの you linkリンク back to the face?
99
246381
1492
それを元の顔と結びつけられるでしょうか?
04:19
And the answer回答 is, yes, we can, and we did.
100
247873
1916
答えはイエスで
私たちはそれに成功しました
04:21
Of courseコース, the accuracy正確さ keeps維持する getting取得 worse悪化する.
101
249789
2568
もちろん精度は徐々に悪くなります
[27%の被験者のソーシャルセキュリティ番号の
頭5桁が特定できました]
もちろん精度は徐々に悪くなります
[27%の被験者のソーシャルセキュリティ番号の
頭5桁が特定できました]
04:24
[27% of subjects'科目' first 5 SSNSSN digits数字 identified特定された (with 4 attempts試み)]
102
252357
944
04:25
But in fact事実, we even decided決定しました to develop開発する an iPhoneiPhone appアプリ
103
253301
3827
iPhoneのアプリも作ることにしました
[27%の被験者のソーシャルセキュリティ番号の
頭5桁が特定できました]
04:29
whichどの uses用途 the phone's電話の internal内部 cameraカメラ
104
257128
2715
内蔵のカメラで
04:31
to take a shotショット of a subject主題
105
259843
1600
人物の写真を撮って
04:33
and then uploadアップロード it to a cloud
106
261443
1487
それをクラウドにアップして
04:34
and then do what I just described記載された to you in realリアル time:
107
262930
2662
先ほど説明した処理をリアルタイムで実行して
04:37
looking for a match一致, finding所見 publicパブリック information情報,
108
265592
2088
該当する写真を探し
公開されている情報を探し
04:39
trying試す to infer推論 sensitive敏感な information情報,
109
267680
1730
そこからプライバシー情報を探し
04:41
and then sending送信 back to the phone電話
110
269410
2591
それを携帯に送り返し
04:44
so that it is overlaid重なった on the face of the subject主題,
111
272001
3609
その人物の写真と重ね合わせて表示する
04:47
an example of augmented増強された reality現実,
112
275610
1901
なんかゾッとする
拡張現実の例だと思います
04:49
probably多分 a creepy気味悪い example of augmented増強された reality現実.
113
277511
2451
なんかゾッとする
拡張現実の例だと思います
04:51
In fact事実, we didn't develop開発する the appアプリ to make it available利用可能な,
114
279962
3339
このアプリは公開していません
04:55
just as a proof証明 of concept概念.
115
283301
1922
単に可能かやってみただけです
04:57
In fact事実, take these technologiesテクノロジー
116
285223
2313
このような技術の応用が
04:59
and push押す them to their彼らの logical論理的 extreme極端な.
117
287536
1837
最大限に進んだ場合を考えると
05:01
Imagine想像する a future未来 in whichどの strangers見知らぬ人 around you
118
289373
2719
周りにいる他人が
05:04
will look at you throughを通して their彼らの GoogleGoogle Glasses眼鏡
119
292092
2311
あなたの顔を
グーグルグラスや
05:06
or, one day, their彼らの contact接触 lensesレンズ,
120
294403
2307
コンタクトレンズを通して見て
05:08
and use sevenセブン or eight8 dataデータ pointsポイント about you
121
296710
4020
あなたに関する7、8個のデータから
05:12
to infer推論 anything elseelse
122
300730
2582
知り得るどんな個人情報にも
05:15
whichどの mayかもしれない be known既知の about you.
123
303312
2603
アクセスできるような未来が想像できます
05:17
What will this future未来 withoutなし secrets秘密 look like?
124
305915
4794
このような秘密のない世界はどんな感じでしょうか?
05:22
And should we careお手入れ?
125
310709
1964
このようなことに注意を払うべきでしょうか?
05:24
We mayかもしれない like to believe
126
312673
1891
私たちは
05:26
that the future未来 with so much wealth of dataデータ
127
314564
3040
多くのデータにアクセスできる未来が
05:29
would be a future未来 with no more biasesバイアス,
128
317604
2514
偏見のない世界だと信じる傾向にあります
05:32
but in fact事実, having持つ so much information情報
129
320118
3583
でも 多くの情報があるからといって
05:35
doesn't mean that we will make decisions決定
130
323701
2191
より客観的な判断をするとは限りません
05:37
whichどの are more objective目的.
131
325892
1706
より客観的な判断をするとは限りません
05:39
In another別の experiment実験, we presented提示された to our subjects科目
132
327598
2560
もう1つの実験では 被験者に
05:42
information情報 about a potential潜在的な jobジョブ candidate候補者.
133
330158
2246
就職志望者の情報を見てもらいました
05:44
We included含まれる in this information情報 some referencesリファレンス
134
332404
3178
この情報のなかに
意図的に混ぜたのは
05:47
to some funny面白い, absolutely絶対に legal法的,
135
335582
2646
被験者自身がネットに投稿した
05:50
but perhapsおそらく slightly少し embarrassing恥ずかしい information情報
136
338228
2465
完全に合法でありながら
ちょっと具合の悪い
05:52
that the subject主題 had posted投稿された onlineオンライン.
137
340693
2020
情報に関することです
05:54
Now interestingly興味深いことに, among our subjects科目,
138
342713
2366
被験者のなかには
05:57
some had posted投稿された comparable匹敵します information情報,
139
345079
3083
そのような情報を投稿したことがある人も
06:00
and some had not.
140
348162
2362
ない人もいました
06:02
Whichどの groupグループ do you think
141
350524
1949
どちらのグループが求職者を
06:04
was more likelyおそらく to judge裁判官 harshly厳しく our subject主題?
142
352473
4552
厳しく非難したと思いますか?
06:09
Paradoxically逆説的に, it was the groupグループ
143
357025
1957
逆説的ですが 自分自身もそのような
06:10
who had posted投稿された similar類似 information情報,
144
358982
1733
情報を投稿したことがあるグループでした
06:12
an example of moral道徳 dissonance不協和音.
145
360715
2942
これは言動不一致の良い例です
06:15
Now you mayかもしれない be thinking考え,
146
363657
1750
皆さんは これは自分は当てはまらない
06:17
this does not apply適用する to me,
147
365407
1702
なぜなら隠しておきたいことは
06:19
because I have nothing to hide隠す.
148
367109
2162
ないからと思っているかも知れません
06:21
But in fact事実, privacyプライバシー is not about
149
369271
2482
しかしプライバシーとは
06:23
having持つ something negative to hide隠す.
150
371753
3676
ネガティブなことを隠すことではありません
06:27
Imagine想像する that you are the H.R. directorディレクター
151
375429
2354
あなたがどこかの組織の
06:29
of a certainある organization組織, and you receive受け取るsumés,
152
377783
2947
人事担当責任者で 就職希望者の
履歴書を受け取ったときに
06:32
and you decide決めます to find more information情報 about the candidates候補者.
153
380730
2473
応募者に関してもう少し調べたいと思ったとしましょう
06:35
Thereforeしたがって、, you GoogleGoogle their彼らの names名前
154
383203
2460
候補者の名前をグーグルで検索したら
06:37
and in a certainある universe宇宙,
155
385663
2240
あるサイトで こんな情報が
見つかったとします
06:39
you find this information情報.
156
387903
2008
あるサイトで こんな情報が
見つかったとします
06:41
Or in a parallel平行 universe宇宙, you find this information情報.
157
389911
4437
一方 どこかのパラレルワールドで
この情報を見つけるとします
06:46
Do you think that you would be equally均等に likelyおそらく
158
394348
2717
あなたは両方の応募者と
06:49
to call eitherどちらか candidate候補者 for an interviewインタビュー?
159
397065
2803
同じように面談をしたいと思うでしょうか
06:51
If you think so, then you are not
160
399868
2282
もしそう思うのなら
06:54
like the U.S. employers雇用主 who are, in fact事実,
161
402150
2582
あなたは米国の雇用主とは違います
06:56
part of our experiment実験, meaning意味 we did exactly正確に that.
162
404732
3307
私たちは実験の一部として
正にそのような状況を試してみました
07:00
We created作成した Facebookフェイスブック profilesプロファイル, manipulating操作する traits形質,
163
408039
3182
ファイスブックに人柄を操作した
架空のプロファイルを登録し
07:03
then we started開始した sending送信 out résumés to companies企業 in the U.S.,
164
411221
2851
米国内の様々な企業に
その人物の履歴書を送りました
07:06
and we detected検出された, we monitored監視される,
165
414072
1908
そして企業がその人物に関する情報を
07:07
whetherかどうか they were searching検索 for our candidates候補者,
166
415980
2393
ソーシャルメディアで検索するかどうか
07:10
and whetherかどうか they were acting演技 on the information情報
167
418373
1832
また そこで得た情報に影響されるか
観察すると
07:12
they found見つけた on socialソーシャル mediaメディア. And they were.
168
420205
1938
影響されると分かりました
07:14
Discrimination差別 was happeningハプニング throughを通して socialソーシャル mediaメディア
169
422143
2101
同じ能力の候補者間で
07:16
for equally均等に skilled熟練 candidates候補者.
170
424244
3073
ソーシャルメディアを介した差別が発生していました
07:19
Now marketersマーケティング担当者 like us to believe
171
427317
4575
マーケティングの人たちは
07:23
that all information情報 about us will always
172
431892
2269
私たち自身に関する情報が
07:26
be used in a manner方法 whichどの is in our favor好意.
173
434161
3273
私たちのために使われると
信じさせようとしています
07:29
But think again. Why should that be always the case場合?
174
437434
3715
でもよく考えてみてください
常にそうであるはずがありません
07:33
In a movie映画 whichどの came来た out a few少数 years ago,
175
441149
2664
何年か前の「マイノリティー・レポート」という映画で
07:35
"Minority少数 Report報告する," a famous有名な sceneシーン
176
443813
2553
トム・クルーズがショッピング・モールを歩くと
07:38
had Tomトム Cruiseクルーズ walk歩く in a mallモール
177
446366
2576
個人に特化した広告がホログラフィックに
07:40
and holographicホログラフィック personalizedパーソナライズド advertising広告
178
448942
3776
彼を取り巻くように表示される
07:44
would appear現れる around him.
179
452718
1835
有名な場面がありました
07:46
Now, that movie映画 is setセット in 2054,
180
454553
3227
映画の設定は2054年
07:49
about 40 years from now,
181
457780
1642
40年後の未来となっていて
07:51
and as excitingエキサイティング as that technology技術 looks外見,
182
459422
2908
その技術は素晴らしいもののように見えますが
07:54
it already既に vastly大いに underestimates過小評価する
183
462330
2646
それはすでに
07:56
the amount of information情報 that organizations組織
184
464976
2140
組織が集めることのできる個人情報と
07:59
can gatherギャザー about you, and how they can use it
185
467116
2483
それが思いもよらない方法で利用され得る
08:01
to influence影響 you in a way that you will not even detect検出する.
186
469599
3398
ということに関して過小評価をしています
08:04
So as an example, this is another別の experiment実験
187
472997
2103
そのような例として
現在私たちが行なっている
08:07
actually実際に we are runningランニング, not yetまだ completed完成した.
188
475100
2273
実験を紹介します
08:09
Imagine想像する that an organization組織 has accessアクセス
189
477373
2319
企業があなたのフェイスブックの
08:11
to your listリスト of Facebookフェイスブック friends友達,
190
479692
2056
友達リストにアクセスできると仮定してみて下さい
08:13
and throughを通して some kind種類 of algorithmアルゴリズム
191
481748
1772
そして何らかのアルゴリズムで
08:15
they can detect検出する the two friends友達 that you like the most最も.
192
483520
3734
一番仲のいい友達を2人選ぶことが出来るとします
08:19
And then they create作成する, in realリアル time,
193
487254
2280
そしてその2人の友達の顔の写真を
08:21
a facialフェイシャル composite複合 of these two friends友達.
194
489534
2842
リアルタイムにで合成出来るとします
過去の研究から 合成された顔写真は
08:24
Now studies研究 prior前の to ours私たちのもの have shown示された that people
195
492376
3069
08:27
don't recognize認識する any longerより長いです even themselves自分自身
196
495445
2885
本人自身もそれと認識は出来ないのですが
08:30
in facialフェイシャル composites複合材, but they react反応する
197
498330
2462
何故かその写真の顔に親しみをもつ
08:32
to those composites複合材 in a positiveポジティブ manner方法.
198
500792
2117
ということが分かっています
08:34
So next time you are looking for a certainある product製品,
199
502909
3415
次に何か特定の商品を探しているとき
08:38
and there is an ad広告 suggesting提案する you to buy購入 it,
200
506324
2559
それを勧める広告があり
08:40
it will not be just a standard標準 spokesperson広報担当者.
201
508883
2907
勧めているのは見知らぬ人ではなく
08:43
It will be one of your friends友達,
202
511790
2313
あなたの友達の合成イメージで
08:46
and you will not even know that this is happeningハプニング.
203
514103
3303
それに 全く気付かないかもしれません
08:49
Now the problem問題 is that
204
517406
2413
問題は
08:51
the current現在 policyポリシー mechanismsメカニズム we have
205
519819
2519
現在の法律では
08:54
to protect保護する ourselves自分自身 from the abuses虐待 of personal個人的 information情報
206
522338
3438
個人情報の悪用から
我々を保護する仕組みは
08:57
are like bringing持参 a knifeナイフ to a gunfight銃撃戦.
207
525776
2984
銃撃戦にナイフで対抗するような
ものだということです
09:00
One of these mechanismsメカニズム is transparency透明性,
208
528760
2913
このような仕組みの一つが透明性で
09:03
telling伝える people what you are going to do with their彼らの dataデータ.
209
531673
3200
入手した情報をどの様に使うかを
明確するものです
09:06
And in principle原理, that's a very good thing.
210
534873
2106
原理として それは良いことです
09:08
It's necessary必要, but it is not sufficient十分.
211
536979
3667
必要ですが 充分ではありません
09:12
Transparency透明性 can be misdirected間違った.
212
540646
3698
透明性は誤用される可能性があります
09:16
You can tell people what you are going to do,
213
544344
2104
情報をどのように使うかを伝えた上で
09:18
and then you still nudgeナッジ them to disclose開示する
214
546448
2232
個人情報を提供するように
09:20
arbitrary任意 amounts金額 of personal個人的 information情報.
215
548680
2623
相手を誘導することが可能です
09:23
So in yetまだ another別の experiment実験, this one with students学生の,
216
551303
2886
学生を対象に
もう1つ実験を実施しました
09:26
we asked尋ねた them to provide提供する information情報
217
554189
3058
学生達にキャンパスでの行ないに関して
09:29
about their彼らの campusキャンパス behavior動作,
218
557247
1813
情報を提供するように依頼しました
09:31
includingを含む prettyかなり sensitive敏感な questions質問, suchそのような as this one.
219
559060
2940
試験でカンニングをしたことがありますか?
といった非常にプライベートな質問を含んでいます
09:34
[Have you ever cheated騙された in an exam試験?]
220
562000
621
09:34
Now to one groupグループ of subjects科目, we told them,
221
562621
2300
一つ目のグループには
09:36
"Only other students学生の will see your answers答え."
222
564921
2841
回答は 他の学生だけが閲覧すると伝えました
09:39
To another別の groupグループ of subjects科目, we told them,
223
567762
1579
もう一つのグループには
09:41
"Students学生の and faculty学部 will see your answers答え."
224
569341
3561
他の学生と教授陣が回答を閲覧すると伝えました
09:44
Transparency透明性. Notificationお知らせ. And sure enough十分な, this worked働いた,
225
572902
2591
透明性と留意点が明確であり
当然期待した結果になりました
09:47
in the senseセンス that the first groupグループ of subjects科目
226
575493
1407
最初のグループの方が
09:48
were much more likelyおそらく to disclose開示する than the second二番.
227
576900
2568
2番目のグループより情報を開示する可能性が
高いという結果です
09:51
It makes作る senseセンス, right?
228
579468
1520
妥当な結果だと思います
09:52
But then we added追加された the misdirection誤報.
229
580988
1490
次に誤った誘導を加えました
09:54
We repeated繰り返し the experiment実験 with the same同じ two groupsグループ,
230
582478
2760
同じ2つのグループで実験を行ないましたが
09:57
this time adding追加する a delayディレイ
231
585238
2427
今度はどのように回答が利用されるかを
09:59
betweenの間に the time we told subjects科目
232
587665
2935
伝えるタイミングと
10:02
how we would use their彼らの dataデータ
233
590600
2080
実際に質問をするタイミングを
10:04
and the time we actually実際に started開始した answering答える the questions質問.
234
592680
4388
ずらしました
10:09
How long a delayディレイ do you think we had to add追加する
235
597068
2561
教授陣も回答を閲覧するという
10:11
in order注文 to nullify無効にする the inhibitory抑制的 effect効果
236
599629
4613
抑止作用のある情報を
10:16
of knowing知っている that faculty学部 would see your answers答え?
237
604242
3411
忘れるのにどの位の時間が必要だったと思いますか?
10:19
Ten minutes?
238
607653
1780
10分?
10:21
Five minutes?
239
609433
1791
5分?
10:23
One minute?
240
611224
1776
1分?
10:25
How about 15 seconds?
241
613000
2049
15秒ではどうでしょう?
10:27
Fifteen15 seconds were sufficient十分 to have the two groupsグループ
242
615049
2668
両方のグループに同じ量の情報を開示させるのには
10:29
disclose開示する the same同じ amount of information情報,
243
617717
1568
15秒あれば充分でした
10:31
as if the second二番 groupグループ now no longerより長いです cares心配
244
619285
2746
2つ目のグループも教授陣が
10:34
for faculty学部 reading読書 their彼らの answers答え.
245
622031
2656
回答を見ることを気にしていないようでした
10:36
Now I have to admit認める that this talk so far遠い
246
624687
3336
ここまでの話で
10:40
mayかもしれない sound exceedingly極めて gloomy暗い,
247
628023
2480
とても憂鬱な気分になるとは思います
10:42
but that is not my pointポイント.
248
630503
1721
でもそれがポイントではないのです
10:44
In fact事実, I want to shareシェア with you the fact事実 that
249
632224
2699
実際には別のアプローチがある
10:46
there are alternatives代替案.
250
634923
1772
ということをお話したいのです
10:48
The way we are doing things now is not the only way
251
636695
2499
現在のやり方が唯一の方法ということは
10:51
they can done完了, and certainly確かに not the bestベスト way
252
639194
3037
ありませんし
ベストな方法でもありません
10:54
they can be done完了.
253
642231
2027
ありませんし
ベストな方法でもありません
10:56
When someone誰か tells伝える you, "People don't careお手入れ about privacyプライバシー,"
254
644258
4171
もし誰かが
「人々はプライバシーを気にしない」と言ったら
11:00
consider検討する whetherかどうか the gameゲーム has been designed設計
255
648429
2642
やり方が巧妙にデザインされていて
11:03
and rigged装備 so that they cannotできない careお手入れ about privacyプライバシー,
256
651071
2724
プライバシーを
気にさせなくしているか疑って下さい
11:05
and coming到来 to the realization実現 that these manipulations操作 occur発生する
257
653795
3262
そのような操作が存在すると気付くことは
11:09
is already既に halfway中途半端 throughを通して the processプロセス
258
657057
1607
すでに自分自身を守る道を
11:10
of beingであること ableできる to protect保護する yourselfあなた自身.
259
658664
2258
半分進んでいることを示しています
11:12
When someone誰か tells伝える you that privacyプライバシー is incompatible互換性のない
260
660922
3710
もし誰かが プライバシーと
11:16
with the benefits利点 of big大きい dataデータ,
261
664632
1849
ビッグデータから得られるメリットは
両立しないなどと言い放ったら
11:18
consider検討する that in the last 20 years,
262
666481
2473
ここ20年間 研究者は
11:20
researchers研究者 have created作成した technologiesテクノロジー
263
668954
1917
理論上どんな電気的な通信に対しても
11:22
to allow許す virtually事実上 any electronic電子 transactions取引
264
670871
3318
プライバシーを強化できる技術を
11:26
to take place場所 in a more privacy-preservingプライバシー保護 manner方法.
265
674189
3749
開発してきたことを思い出すべきです
11:29
We can browseブラウズ the Internetインターネット anonymously匿名で.
266
677938
2555
私たちは匿名のままインターネットを
ブラウズすることができます
11:32
We can send送信する emailsメール that can only be read読む
267
680493
2678
メールを指定した受信者だけが
11:35
by the intended意図されました recipient受取人, not even the NSANSA.
268
683171
3709
読めるように送ることもできます
米国家安全保障局でさえ読めません
11:38
We can have even privacy-preservingプライバシー保護 dataデータ mining鉱業.
269
686880
2997
プライバシーに配慮したデータマイニングも可能です
11:41
In other words言葉, we can have the benefits利点 of big大きい dataデータ
270
689877
3894
言い換えれば ビッグデータのメリットを享受しながら
11:45
while protecting保護 privacyプライバシー.
271
693771
2132
同時にプライバシーを守ることが可能です
11:47
Of courseコース, these technologiesテクノロジー imply暗示する a shiftingシフト
272
695903
3791
もちろんこのような技術は
11:51
of costコスト and revenues収入
273
699694
1546
情報を持つ者と
情報を利用する者の間の
11:53
betweenの間に dataデータ holdersホルダー and dataデータ subjects科目,
274
701240
2107
コストと利益のあり方に
影響するかもしれません
11:55
whichどの is why, perhapsおそらく, you don't hear聞く more about them.
275
703347
3453
これが理由であまりこのような話を
聞かないのかもしれません
11:58
Whichどの bringsもたらす me back to the Garden庭園 of Edenエデン.
276
706800
3706
ここからエデンの園に話に戻ります
12:02
There is a second二番 privacyプライバシー interpretation解釈
277
710506
2780
これはエデンの園の話を
12:05
of the storyストーリー of the Garden庭園 of Edenエデン
278
713286
1809
プライバシーの観点からみたもう1つの解釈です
12:07
whichどの doesn't have to do with the issue問題
279
715095
2096
これはアダムとイブが裸であることに
12:09
of Adamアダム and Eveイブ feeling感じ naked
280
717191
2225
気付いて恥ずかしいと思ったこととは
12:11
and feeling感じ ashamed恥ずかしい.
281
719416
2381
関係がありません
12:13
You can find echoesエコー of this interpretation解釈
282
721797
2781
同じような話を
12:16
in Johnジョン Milton'sミルトンズ "Paradiseパラダイス Lost失われた."
283
724578
2782
ジョン・ミルトンの「失楽園」にも
見ることができます
12:19
In the garden庭園, Adamアダム and Eveイブ are materially物質的に contentコンテンツ.
284
727360
4197
エデンの園で アダムとイブは
物質的には不自由なく
12:23
They're happyハッピー. They are satisfied満足.
285
731557
2104
幸せで満足していました
12:25
Howeverしかしながら, they alsoまた、 lack欠如 knowledge知識
286
733661
2293
しかし同時に彼らは知識や
12:27
and self-awareness自己認識.
287
735954
1640
自己認識に欠けていました
12:29
The moment瞬間 they eat食べる the aptly適切に named名前
288
737594
3319
彼らは 適切にも知恵の実と名付けられた
12:32
fruitフルーツ of knowledge知識,
289
740913
1293
実を食べた瞬間
12:34
that's when they discover発見する themselves自分自身.
290
742206
2605
自分たちを発見しました
12:36
They become〜になる aware承知して. They achieve達成する autonomy自律性.
291
744811
4031
彼らは自分達を認識し
自主性を獲得しました
12:40
The price価格 to pay支払う, howeverしかしながら, is leaving去る the garden庭園.
292
748842
3126
しかしその代償は
エデンの園を去ることでした
12:43
So privacyプライバシー, in a way, is bothどちらも the means手段
293
751968
3881
プライバシーも自由のための
12:47
and the price価格 to pay支払う for freedom自由.
294
755849
2962
手段でもあり
同時に払うべき代償でもあります
12:50
Again, marketersマーケティング担当者 tell us
295
758811
2770
マーケッティングの人々は
12:53
that big大きい dataデータ and socialソーシャル mediaメディア
296
761581
3019
ビッグデータとソーシャルメディアは
12:56
are not just a paradiseパラダイス of profit利益 for them,
297
764600
2979
彼らが利益を得るための場ではなく
12:59
but a Garden庭園 of Edenエデン for the rest残り of us.
298
767579
2457
私たち全員のエデンの園だといいます
13:02
We get free無料 contentコンテンツ.
299
770036
1238
私たちは無料でコンテンツを楽しみ
13:03
We get to play遊びます Angry怒る Birds. We get targeted目標 appsアプリ.
300
771274
3123
アングリーバードを手に入れたり
ほしいアプリを手に入れたりできます
13:06
But in fact事実, in a few少数 years, organizations組織
301
774397
2897
しかし実際には 数年の内に企業は
13:09
will know so much about us,
302
777294
1609
私たちを熟知し
13:10
they will be ableできる to infer推論 our desires願望
303
778903
2710
私たちの欲しいものを
13:13
before we even form them, and perhapsおそらく
304
781613
2204
意識する前に察知し
13:15
buy購入 products製品 on our behalf代わって
305
783817
2447
必要と思う前に 買い物まで
してくれるようになるかもしれません
13:18
before we even know we need them.
306
786264
2274
必要と思う前に 買い物まで
してくれるようになるかもしれません
13:20
Now there was one English英語 author著者
307
788538
3237
このように私たちが自立性と自由を
13:23
who anticipated予想される this kind種類 of future未来
308
791775
3045
快適さと引き換えに手放してしまう
13:26
where we would tradeトレード away
309
794820
1405
このような未来を憂慮した
13:28
our autonomy自律性 and freedom自由 for comfort快適.
310
796225
3548
英国の作家がいました
13:31
Even more so than Georgeジョージ Orwellオーウェル,
311
799773
2161
ジョージ・オーウェル以上に
これを描いたのは
13:33
the author著者 is, of courseコース, Aldousアルドゥス Huxleyハクスリー.
312
801934
2761
もちろん オルダス・ハクスリーです
13:36
In "Brave勇敢 New新しい World世界," he imagines想像する a society社会
313
804695
2854
『すばらしい新世界』で彼は
13:39
where technologiesテクノロジー that we created作成した
314
807549
2171
もともとは自由のために私たちが
13:41
originally元々 for freedom自由
315
809720
1859
作り上げた技術が 私たちを
13:43
end終わり up coercing強制 us.
316
811579
2567
支配する世界を創造しています
13:46
Howeverしかしながら, in the book, he alsoまた、 offersオファー us a way out
317
814146
4791
しかし同時にその小説では その社会から
13:50
of that society社会, similar類似 to the pathパス
318
818937
3438
逃げ出す経路 アダムとイブがエデンの園から
13:54
that Adamアダム and Eveイブ had to followフォローする to leave離れる the garden庭園.
319
822375
3955
出るために通らなければならなかった経路と
似たものを示しています
13:58
In the words言葉 of the Savageサベージ,
320
826330
2147
小説のなかの未開人の言葉として
14:00
regaining回復する autonomy自律性 and freedom自由 is possible可能,
321
828477
3069
代償は高いが
14:03
althoughただし、 the price価格 to pay支払う is steep急な.
322
831546
2679
自立性と自由を手に入れることは可能だと言っています
14:06
So I do believe that one of the defining定義する fights戦う
323
834225
5715
我々の時代の独特の戦いは
14:11
of our times will be the fight戦い
324
839940
2563
個人情報のコントロールに対する
14:14
for the controlコントロール over personal個人的 information情報,
325
842503
2387
戦いであると私は信じています
14:16
the fight戦い over whetherかどうか big大きい dataデータ will become〜になる a force
326
844890
3507
ビッグデータが自由のための力となるか
14:20
for freedom自由,
327
848397
1289
私たちを陰で操作するような
力となるかの戦いです
14:21
ratherむしろ than a force whichどの will hiddenly隠された manipulate操作する us.
328
849686
4746
私たちを陰で操作するような
力となるかの戦いです
14:26
Right now, manyたくさんの of us
329
854432
2593
現在はまだ 多くの人が
14:29
do not even know that the fight戦い is going on,
330
857025
2753
そのような戦いが始まっていることすら知りません
14:31
but it is, whetherかどうか you like it or not.
331
859778
2672
しかし好むと好まないとにかかわらず
戦いは始まっています
14:34
And at the riskリスク of playing遊ぶ the serpent,
332
862450
2804
蛇の役割を演じてしまう危険を承知で
14:37
I will tell you that the toolsツール for the fight戦い
333
865254
2897
戦いに必要な道具はここにある
14:40
are here, the awareness意識 of what is going on,
334
868151
3009
何が起きているかを理解する力は
14:43
and in your hands,
335
871160
1355
あなたの手のなかに
14:44
just a few少数 clicksクリック数 away.
336
872515
3740
ほんの数クリックしか離れていないところに
あると伝えたいと思います
14:48
Thank you.
337
876255
1482
ありがとうございます
14:49
(Applause拍手)
338
877737
4477
(拍手)
Translated by Shigeto Oeda
Reviewed by Tomoyuki Suzuki

▲Back to top

ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com