sponsored links
TEDGlobal 2013

Alessandro Acquisti: What will a future without secrets look like?

アレサンドロ・アクイスティ: プライバシーはなぜ重要か

June 14, 2013

オンラインと実世界の両方で、公私の境界線はここ10年の間に曖昧になってきています。アレサンドロ・アクイスティがこれが何を意味し、なぜ問題となるのかを説明します。私たちの思考を刺激する、やや背筋の寒くなるトークで、人物の写真からその人物に対するプライバシー情報を得ることがいかに簡単かを含む、最新の研究を紹介します。

Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks. Full bio

sponsored links
Double-click the English subtitles below to play the video.
I would like to tell you a story
今日は アダムとイブが巻き込まれた
00:12
connecting the notorious privacy incident
今日は アダムとイブが巻き込まれた
00:14
involving Adam and Eve,
有名なプライバシー事件と
00:17
and the remarkable shift in the boundaries
ここ10年間に起きた
00:20
between public and private which has occurred
公私の境界の 大きな変化を関連付けて
00:24
in the past 10 years.
お話ししたいと思います
00:26
You know the incident.
この事件はご存知の通りです
00:28
Adam and Eve one day in the Garden of Eden
エデンの園にいる
アダムとイブはある日
00:29
realize they are naked.
自分たちが 裸なのに気付きます
00:33
They freak out.
彼らは ひどく あわてます
00:35
And the rest is history.
その後の顛末は
ご存知の通りです
00:36
Nowadays, Adam and Eve
今日なら アダムとイブは
00:39
would probably act differently.
恐らく 違った行動を取るでしょう
00:41
[@Adam Last nite was a blast! loved dat apple LOL]
[ @アダム :昨夜は楽しかった!
あのリンゴは美味しかった(笑)]
00:43
[@Eve yep.. babe, know what happened to my pants tho?]
[ @イブ:本当に
でも ズボンどうしたんだろう?]
00:46
We do reveal so much more information
私たちは今までになく多くの
00:48
about ourselves online than ever before,
情報をオンラインで公開しています
00:50
and so much information about us
そして我々に関する情報は
00:54
is being collected by organizations.
様々な組織によって収集されています
00:55
Now there is much to gain and benefit
この大量の個人情報
00:57
from this massive analysis of personal information,
あるいはビッグデータから
01:01
or big data,
非常に有用で
価値のあるものが得られますが
01:03
but there are also complex tradeoffs that come
同時にプライバシーを手放すことに伴う
01:05
from giving away our privacy.
複雑なトレードオフも存在します
01:08
And my story is about these tradeoffs.
今日は このような
トレードオフについてお話しします
01:11
We start with an observation which, in my mind,
まずここ数年の間に 私のなかで
01:15
has become clearer and clearer in the past few years,
非常に明確になってきた
01:17
that any personal information
どんな個人情報でもプライバシー情報になり得る
01:21
can become sensitive information.
という洞察から話したいと思います
01:23
Back in the year 2000, about 100 billion photos
2000年の時点で 全世界で
01:25
were shot worldwide,
1000億枚ほどの写真が撮られましたが
01:29
but only a minuscule proportion of them
ウェブにアップロードされたものの割合は
01:31
were actually uploaded online.
非常に小さなものでした
01:34
In 2010, only on Facebook, in a single month,
2010年には ファイスブックだけでも
01:36
2.5 billion photos were uploaded,
25億枚の写真がひと月にアップされ
01:40
most of them identified.
そのほとんどが誰の写真か特定可能です
01:43
In the same span of time,
同じ期間で
01:45
computers' ability to recognize people in photos
写真に写っている人を認識する
01:47
improved by three orders of magnitude.
コンピュータの能力は3桁上がりました
01:51
What happens when you combine
この2つの技術を組み合わせると
01:55
these technologies together:
何が起こるでしょうか
01:57
increasing availability of facial data;
顔写真がどんどん手に入るようになり
01:58
improving facial recognizing ability by computers;
コンピュータの顔認識の能力が向上する
02:01
but also cloud computing,
そしてクラウドコンピューティングが
02:05
which gives anyone in this theater
ここにいる誰に対しても
02:07
the kind of computational power
数年前には政府の専門機関しか
02:09
which a few years ago was only the domain
持てなかったような
02:10
of three-letter agencies;
コンピュータ能力を提供します
02:12
and ubiquitous computing,
ユビキタスコンピューティングによって
02:14
which allows my phone, which is not a supercomputer,
スーパーコンピュータではない私の携帯電話が
02:15
to connect to the Internet
インターネットに接続して
02:18
and do there hundreds of thousands
数十万の顔認識を
02:20
of face metrics in a few seconds?
数秒で実行することを可能にします
02:22
Well, we conjecture that the result
このような技術の組み合わせが
02:25
of this combination of technologies
プライバシーと匿名性に対する
02:28
will be a radical change in our very notions
私たちの基本的な理解を
02:30
of privacy and anonymity.
大きく変えると推測します
02:33
To test that, we did an experiment
この考えを検証するために
02:35
on Carnegie Mellon University campus.
カーネギーメロン大学で
ある実験を行ないました
02:37
We asked students who were walking by
キャンパスを歩いている学生に声を掛け
02:39
to participate in a study,
実験に参加してもらい
02:41
and we took a shot with a webcam,
ウェブカメラで学生の顔写真を撮って
02:43
and we asked them to fill out a survey on a laptop.
ノートパソコンに用意した
アンケートに答えてもらいました
02:45
While they were filling out the survey,
彼らがアンケートに答えている間に
02:48
we uploaded their shot to a cloud-computing cluster,
クラウドコンピューティングのクラスタに
写真をアップし
02:50
and we started using a facial recognizer
顔認識技術を使って
02:53
to match that shot to a database
フェイスブックから取ってきた
02:55
of some hundreds of thousands of images
数十万の画像データーベースと
02:57
which we had downloaded from Facebook profiles.
照合しました
02:59
By the time the subject reached the last page
被験者の学生がアンケートの最後の
03:03
on the survey, the page had been dynamically updated
ページに到達する頃には
そのページは動的に変更されていて
03:06
with the 10 best matching photos
顔認識エンジンが選んだ最も似ている
03:10
which the recognizer had found,
10枚の写真が表示されます
03:12
and we asked the subjects to indicate
そこで 学生にその写真の中に
03:14
whether he or she found themselves in the photo.
自分が映っているかどうか尋ねました
03:16
Do you see the subject?
学生をみつけられますか?
03:20
Well, the computer did, and in fact did so
コンピュータは探せたわけです
03:24
for one out of three subjects.
実際3人中1人の割合で学生の特定が可能でした
03:27
So essentially, we can start from an anonymous face,
基本的には
不特定の顔写真から始めて
03:29
offline or online, and we can use facial recognition
オンラインかオフラインかに関わらず
顔認識技術を使って
03:32
to give a name to that anonymous face
その写真の人物の名前を特定することが
03:35
thanks to social media data.
ソーシャルメディアのおかげで可能です
03:38
But a few years back, we did something else.
数年前にこれとは異なる実験を行いました
03:40
We started from social media data,
ソーシャルメディアのデータから始めて
03:42
we combined it statistically with data
それを統計的に米国政府の
03:44
from U.S. government social security,
ソーシャルセキュリティー関連の
データと組み合わせ
03:47
and we ended up predicting social security numbers,
最終的にソーシャルセキュリティー番号を
特定することが出来ました
03:49
which in the United States
ソーシャルセキュリティー番号は米国では
03:52
are extremely sensitive information.
プライバシーに関する非常に重要な情報です
03:54
Do you see where I'm going with this?
この話の先に見えてくるものは何でしょう?
03:56
So if you combine the two studies together,
この2つの実験を組み合わせると
03:58
then the question becomes,
ある疑問が浮かびます
04:01
can you start from a face and,
顔の写真から始めて
04:02
using facial recognition, find a name
顔認識技術によって名前を特定し
04:05
and publicly available information
その名前からその個人に対する
04:07
about that name and that person,
公開情報を取得し
04:10
and from that publicly available information
次に公開情報から
04:12
infer non-publicly available information,
よりプライベートな
04:14
much more sensitive ones
非公開情報を参照し
04:16
which you link back to the face?
それを元の顔と結びつけられるでしょうか?
04:18
And the answer is, yes, we can, and we did.
答えはイエスで
私たちはそれに成功しました
04:19
Of course, the accuracy keeps getting worse.
もちろん精度は徐々に悪くなります
[27%の被験者のソーシャルセキュリティ番号の
頭5桁が特定できました]
04:21
[27% of subjects' first 5 SSN digits identified (with 4 attempts)]
もちろん精度は徐々に悪くなります
[27%の被験者のソーシャルセキュリティ番号の
頭5桁が特定できました]
04:24
But in fact, we even decided to develop an iPhone app
iPhoneのアプリも作ることにしました
[27%の被験者のソーシャルセキュリティ番号の
頭5桁が特定できました]
04:25
which uses the phone's internal camera
内蔵のカメラで
04:28
to take a shot of a subject
人物の写真を撮って
04:31
and then upload it to a cloud
それをクラウドにアップして
04:33
and then do what I just described to you in real time:
先ほど説明した処理をリアルタイムで実行して
04:34
looking for a match, finding public information,
該当する写真を探し
公開されている情報を探し
04:37
trying to infer sensitive information,
そこからプライバシー情報を探し
04:39
and then sending back to the phone
それを携帯に送り返し
04:41
so that it is overlaid on the face of the subject,
その人物の写真と重ね合わせて表示する
04:43
an example of augmented reality,
なんかゾッとする
拡張現実の例だと思います
04:47
probably a creepy example of augmented reality.
なんかゾッとする
拡張現実の例だと思います
04:49
In fact, we didn't develop the app to make it available,
このアプリは公開していません
04:51
just as a proof of concept.
単に可能かやってみただけです
04:55
In fact, take these technologies
このような技術の応用が
04:57
and push them to their logical extreme.
最大限に進んだ場合を考えると
04:59
Imagine a future in which strangers around you
周りにいる他人が
05:01
will look at you through their Google Glasses
あなたの顔を
グーグルグラスや
05:03
or, one day, their contact lenses,
コンタクトレンズを通して見て
05:06
and use seven or eight data points about you
あなたに関する7、8個のデータから
05:08
to infer anything else
知り得るどんな個人情報にも
05:12
which may be known about you.
アクセスできるような未来が想像できます
05:15
What will this future without secrets look like?
このような秘密のない世界はどんな感じでしょうか?
05:17
And should we care?
このようなことに注意を払うべきでしょうか?
05:22
We may like to believe
私たちは
05:24
that the future with so much wealth of data
多くのデータにアクセスできる未来が
05:26
would be a future with no more biases,
偏見のない世界だと信じる傾向にあります
05:29
but in fact, having so much information
でも 多くの情報があるからといって
05:31
doesn't mean that we will make decisions
より客観的な判断をするとは限りません
05:35
which are more objective.
より客観的な判断をするとは限りません
05:37
In another experiment, we presented to our subjects
もう1つの実験では 被験者に
05:39
information about a potential job candidate.
就職志望者の情報を見てもらいました
05:41
We included in this information some references
この情報のなかに
意図的に混ぜたのは
05:44
to some funny, absolutely legal,
被験者自身がネットに投稿した
05:47
but perhaps slightly embarrassing information
完全に合法でありながら
ちょっと具合の悪い
05:50
that the subject had posted online.
情報に関することです
05:52
Now interestingly, among our subjects,
被験者のなかには
05:54
some had posted comparable information,
そのような情報を投稿したことがある人も
05:56
and some had not.
ない人もいました
05:59
Which group do you think
どちらのグループが求職者を
06:02
was more likely to judge harshly our subject?
厳しく非難したと思いますか?
06:04
Paradoxically, it was the group
逆説的ですが 自分自身もそのような
06:08
who had posted similar information,
情報を投稿したことがあるグループでした
06:10
an example of moral dissonance.
これは言動不一致の良い例です
06:12
Now you may be thinking,
皆さんは これは自分は当てはまらない
06:15
this does not apply to me,
なぜなら隠しておきたいことは
06:17
because I have nothing to hide.
ないからと思っているかも知れません
06:18
But in fact, privacy is not about
しかしプライバシーとは
06:21
having something negative to hide.
ネガティブなことを隠すことではありません
06:23
Imagine that you are the H.R. director
あなたがどこかの組織の
06:27
of a certain organization, and you receive résumés,
人事担当責任者で 就職希望者の
履歴書を受け取ったときに
06:29
and you decide to find more information about the candidates.
応募者に関してもう少し調べたいと思ったとしましょう
06:32
Therefore, you Google their names
候補者の名前をグーグルで検索したら
06:35
and in a certain universe,
あるサイトで こんな情報が
見つかったとします
06:37
you find this information.
あるサイトで こんな情報が
見つかったとします
06:39
Or in a parallel universe, you find this information.
一方 どこかのパラレルワールドで
この情報を見つけるとします
06:41
Do you think that you would be equally likely
あなたは両方の応募者と
06:46
to call either candidate for an interview?
同じように面談をしたいと思うでしょうか
06:48
If you think so, then you are not
もしそう思うのなら
06:51
like the U.S. employers who are, in fact,
あなたは米国の雇用主とは違います
06:53
part of our experiment, meaning we did exactly that.
私たちは実験の一部として
正にそのような状況を試してみました
06:56
We created Facebook profiles, manipulating traits,
ファイスブックに人柄を操作した
架空のプロファイルを登録し
06:59
then we started sending out résumés to companies in the U.S.,
米国内の様々な企業に
その人物の履歴書を送りました
07:03
and we detected, we monitored,
そして企業がその人物に関する情報を
07:05
whether they were searching for our candidates,
ソーシャルメディアで検索するかどうか
07:07
and whether they were acting on the information
また そこで得た情報に影響されるか
観察すると
07:10
they found on social media. And they were.
影響されると分かりました
07:12
Discrimination was happening through social media
同じ能力の候補者間で
07:13
for equally skilled candidates.
ソーシャルメディアを介した差別が発生していました
07:16
Now marketers like us to believe
マーケティングの人たちは
07:19
that all information about us will always
私たち自身に関する情報が
07:23
be used in a manner which is in our favor.
私たちのために使われると
信じさせようとしています
07:25
But think again. Why should that be always the case?
でもよく考えてみてください
常にそうであるはずがありません
07:29
In a movie which came out a few years ago,
何年か前の「マイノリティー・レポート」という映画で
07:32
"Minority Report," a famous scene
トム・クルーズがショッピング・モールを歩くと
07:35
had Tom Cruise walk in a mall
個人に特化した広告がホログラフィックに
07:38
and holographic personalized advertising
彼を取り巻くように表示される
07:40
would appear around him.
有名な場面がありました
07:44
Now, that movie is set in 2054,
映画の設定は2054年
07:46
about 40 years from now,
40年後の未来となっていて
07:49
and as exciting as that technology looks,
その技術は素晴らしいもののように見えますが
07:51
it already vastly underestimates
それはすでに
07:54
the amount of information that organizations
組織が集めることのできる個人情報と
07:56
can gather about you, and how they can use it
それが思いもよらない方法で利用され得る
07:58
to influence you in a way that you will not even detect.
ということに関して過小評価をしています
08:01
So as an example, this is another experiment
そのような例として
現在私たちが行なっている
08:04
actually we are running, not yet completed.
実験を紹介します
08:06
Imagine that an organization has access
企業があなたのフェイスブックの
08:09
to your list of Facebook friends,
友達リストにアクセスできると仮定してみて下さい
08:11
and through some kind of algorithm
そして何らかのアルゴリズムで
08:13
they can detect the two friends that you like the most.
一番仲のいい友達を2人選ぶことが出来るとします
08:15
And then they create, in real time,
そしてその2人の友達の顔の写真を
08:19
a facial composite of these two friends.
リアルタイムにで合成出来るとします
08:21
Now studies prior to ours have shown that people
過去の研究から 合成された顔写真は
08:24
don't recognize any longer even themselves
本人自身もそれと認識は出来ないのですが
08:27
in facial composites, but they react
何故かその写真の顔に親しみをもつ
08:30
to those composites in a positive manner.
ということが分かっています
08:32
So next time you are looking for a certain product,
次に何か特定の商品を探しているとき
08:34
and there is an ad suggesting you to buy it,
それを勧める広告があり
08:38
it will not be just a standard spokesperson.
勧めているのは見知らぬ人ではなく
08:40
It will be one of your friends,
あなたの友達の合成イメージで
08:43
and you will not even know that this is happening.
それに 全く気付かないかもしれません
08:45
Now the problem is that
問題は
08:49
the current policy mechanisms we have
現在の法律では
08:51
to protect ourselves from the abuses of personal information
個人情報の悪用から
我々を保護する仕組みは
08:54
are like bringing a knife to a gunfight.
銃撃戦にナイフで対抗するような
ものだということです
08:57
One of these mechanisms is transparency,
このような仕組みの一つが透明性で
09:00
telling people what you are going to do with their data.
入手した情報をどの様に使うかを
明確するものです
09:03
And in principle, that's a very good thing.
原理として それは良いことです
09:06
It's necessary, but it is not sufficient.
必要ですが 充分ではありません
09:08
Transparency can be misdirected.
透明性は誤用される可能性があります
09:12
You can tell people what you are going to do,
情報をどのように使うかを伝えた上で
09:16
and then you still nudge them to disclose
個人情報を提供するように
09:18
arbitrary amounts of personal information.
相手を誘導することが可能です
09:20
So in yet another experiment, this one with students,
学生を対象に
もう1つ実験を実施しました
09:23
we asked them to provide information
学生達にキャンパスでの行ないに関して
09:26
about their campus behavior,
情報を提供するように依頼しました
09:29
including pretty sensitive questions, such as this one.
試験でカンニングをしたことがありますか?
09:30
[Have you ever cheated in an exam?]
といった非常にプライベートな質問を含んでいます
09:33
Now to one group of subjects, we told them,
一つ目のグループには
09:34
"Only other students will see your answers."
回答は 他の学生だけが閲覧すると伝えました
09:36
To another group of subjects, we told them,
もう一つのグループには
09:39
"Students and faculty will see your answers."
他の学生と教授陣が回答を閲覧すると伝えました
09:41
Transparency. Notification. And sure enough, this worked,
透明性と留意点が明確であり
当然期待した結果になりました
09:44
in the sense that the first group of subjects
最初のグループの方が
09:47
were much more likely to disclose than the second.
2番目のグループより情報を開示する可能性が
高いという結果です
09:48
It makes sense, right?
妥当な結果だと思います
09:51
But then we added the misdirection.
次に誤った誘導を加えました
09:52
We repeated the experiment with the same two groups,
同じ2つのグループで実験を行ないましたが
09:54
this time adding a delay
今度はどのように回答が利用されるかを
09:57
between the time we told subjects
伝えるタイミングと
09:59
how we would use their data
実際に質問をするタイミングを
10:02
and the time we actually started answering the questions.
ずらしました
10:04
How long a delay do you think we had to add
教授陣も回答を閲覧するという
10:08
in order to nullify the inhibitory effect
抑止作用のある情報を
10:11
of knowing that faculty would see your answers?
忘れるのにどの位の時間が必要だったと思いますか?
10:16
Ten minutes?
10分?
10:19
Five minutes?
5分?
10:21
One minute?
1分?
10:23
How about 15 seconds?
15秒ではどうでしょう?
10:24
Fifteen seconds were sufficient to have the two groups
両方のグループに同じ量の情報を開示させるのには
10:26
disclose the same amount of information,
15秒あれば充分でした
10:29
as if the second group now no longer cares
2つ目のグループも教授陣が
10:31
for faculty reading their answers.
回答を見ることを気にしていないようでした
10:33
Now I have to admit that this talk so far
ここまでの話で
10:36
may sound exceedingly gloomy,
とても憂鬱な気分になるとは思います
10:39
but that is not my point.
でもそれがポイントではないのです
10:42
In fact, I want to share with you the fact that
実際には別のアプローチがある
10:44
there are alternatives.
ということをお話したいのです
10:46
The way we are doing things now is not the only way
現在のやり方が唯一の方法ということは
10:48
they can done, and certainly not the best way
ありませんし
ベストな方法でもありません
10:51
they can be done.
ありませんし
ベストな方法でもありません
10:54
When someone tells you, "People don't care about privacy,"
もし誰かが
「人々はプライバシーを気にしない」と言ったら
10:56
consider whether the game has been designed
やり方が巧妙にデザインされていて
11:00
and rigged so that they cannot care about privacy,
プライバシーを
気にさせなくしているか疑って下さい
11:02
and coming to the realization that these manipulations occur
そのような操作が存在すると気付くことは
11:05
is already halfway through the process
すでに自分自身を守る道を
11:08
of being able to protect yourself.
半分進んでいることを示しています
11:10
When someone tells you that privacy is incompatible
もし誰かが プライバシーと
11:12
with the benefits of big data,
ビッグデータから得られるメリットは
両立しないなどと言い放ったら
11:16
consider that in the last 20 years,
ここ20年間 研究者は
11:18
researchers have created technologies
理論上どんな電気的な通信に対しても
11:20
to allow virtually any electronic transactions
プライバシーを強化できる技術を
11:22
to take place in a more privacy-preserving manner.
開発してきたことを思い出すべきです
11:26
We can browse the Internet anonymously.
私たちは匿名のままインターネットを
ブラウズすることができます
11:29
We can send emails that can only be read
メールを指定した受信者だけが
11:32
by the intended recipient, not even the NSA.
読めるように送ることもできます
米国家安全保障局でさえ読めません
11:34
We can have even privacy-preserving data mining.
プライバシーに配慮したデータマイニングも可能です
11:38
In other words, we can have the benefits of big data
言い換えれば ビッグデータのメリットを享受しながら
11:41
while protecting privacy.
同時にプライバシーを守ることが可能です
11:45
Of course, these technologies imply a shifting
もちろんこのような技術は
11:47
of cost and revenues
情報を持つ者と
情報を利用する者の間の
11:51
between data holders and data subjects,
コストと利益のあり方に
影響するかもしれません
11:53
which is why, perhaps, you don't hear more about them.
これが理由であまりこのような話を
聞かないのかもしれません
11:55
Which brings me back to the Garden of Eden.
ここからエデンの園に話に戻ります
11:58
There is a second privacy interpretation
これはエデンの園の話を
12:02
of the story of the Garden of Eden
プライバシーの観点からみたもう1つの解釈です
12:05
which doesn't have to do with the issue
これはアダムとイブが裸であることに
12:06
of Adam and Eve feeling naked
気付いて恥ずかしいと思ったこととは
12:09
and feeling ashamed.
関係がありません
12:11
You can find echoes of this interpretation
同じような話を
12:13
in John Milton's "Paradise Lost."
ジョン・ミルトンの「失楽園」にも
見ることができます
12:16
In the garden, Adam and Eve are materially content.
エデンの園で アダムとイブは
物質的には不自由なく
12:19
They're happy. They are satisfied.
幸せで満足していました
12:23
However, they also lack knowledge
しかし同時に彼らは知識や
12:25
and self-awareness.
自己認識に欠けていました
12:27
The moment they eat the aptly named
彼らは 適切にも知恵の実と名付けられた
12:29
fruit of knowledge,
実を食べた瞬間
12:32
that's when they discover themselves.
自分たちを発見しました
12:34
They become aware. They achieve autonomy.
彼らは自分達を認識し
自主性を獲得しました
12:36
The price to pay, however, is leaving the garden.
しかしその代償は
エデンの園を去ることでした
12:40
So privacy, in a way, is both the means
プライバシーも自由のための
12:43
and the price to pay for freedom.
手段でもあり
同時に払うべき代償でもあります
12:47
Again, marketers tell us
マーケッティングの人々は
12:50
that big data and social media
ビッグデータとソーシャルメディアは
12:53
are not just a paradise of profit for them,
彼らが利益を得るための場ではなく
12:56
but a Garden of Eden for the rest of us.
私たち全員のエデンの園だといいます
12:59
We get free content.
私たちは無料でコンテンツを楽しみ
13:01
We get to play Angry Birds. We get targeted apps.
アングリーバードを手に入れたり
ほしいアプリを手に入れたりできます
13:03
But in fact, in a few years, organizations
しかし実際には 数年の内に企業は
13:06
will know so much about us,
私たちを熟知し
13:09
they will be able to infer our desires
私たちの欲しいものを
13:10
before we even form them, and perhaps
意識する前に察知し
13:13
buy products on our behalf
必要と思う前に 買い物まで
してくれるようになるかもしれません
13:15
before we even know we need them.
必要と思う前に 買い物まで
してくれるようになるかもしれません
13:18
Now there was one English author
このように私たちが自立性と自由を
13:20
who anticipated this kind of future
快適さと引き換えに手放してしまう
13:23
where we would trade away
このような未来を憂慮した
13:26
our autonomy and freedom for comfort.
英国の作家がいました
13:28
Even more so than George Orwell,
ジョージ・オーウェル以上に
これを描いたのは
13:31
the author is, of course, Aldous Huxley.
もちろん オルダス・ハクスリーです
13:33
In "Brave New World," he imagines a society
『すばらしい新世界』で彼は
13:36
where technologies that we created
もともとは自由のために私たちが
13:39
originally for freedom
作り上げた技術が 私たちを
13:41
end up coercing us.
支配する世界を創造しています
13:43
However, in the book, he also offers us a way out
しかし同時にその小説では その社会から
13:45
of that society, similar to the path
逃げ出す経路 アダムとイブがエデンの園から
13:50
that Adam and Eve had to follow to leave the garden.
出るために通らなければならなかった経路と
似たものを示しています
13:54
In the words of the Savage,
小説のなかの未開人の言葉として
13:58
regaining autonomy and freedom is possible,
代償は高いが
14:00
although the price to pay is steep.
自立性と自由を手に入れることは可能だと言っています
14:03
So I do believe that one of the defining fights
我々の時代の独特の戦いは
14:06
of our times will be the fight
個人情報のコントロールに対する
14:11
for the control over personal information,
戦いであると私は信じています
14:14
the fight over whether big data will become a force
ビッグデータが自由のための力となるか
14:16
for freedom,
私たちを陰で操作するような
力となるかの戦いです
14:20
rather than a force which will hiddenly manipulate us.
私たちを陰で操作するような
力となるかの戦いです
14:21
Right now, many of us
現在はまだ 多くの人が
14:26
do not even know that the fight is going on,
そのような戦いが始まっていることすら知りません
14:28
but it is, whether you like it or not.
しかし好むと好まないとにかかわらず
戦いは始まっています
14:31
And at the risk of playing the serpent,
蛇の役割を演じてしまう危険を承知で
14:34
I will tell you that the tools for the fight
戦いに必要な道具はここにある
14:37
are here, the awareness of what is going on,
何が起きているかを理解する力は
14:39
and in your hands,
あなたの手のなかに
14:42
just a few clicks away.
ほんの数クリックしか離れていないところに
あると伝えたいと思います
14:44
Thank you.
ありがとうございます
14:48
(Applause)
(拍手)
14:49
Translator:Shigeto Oeda
Reviewer:Tomoyuki Suzuki

sponsored links

Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

sponsored links

If you need translations, you can install "Google Translate" extension into your Chrome Browser.
Furthermore, you can change playback rate by installing "Video Speed Controller" extension.

Data provided by TED.

This website is owned and operated by Tokyo English Network.
The developer's blog is here.