English-Video.net comment policy

The comment field is common to all languages

Let's write in your language and use "Google Translate" together

Please refer to informative community guidelines on TED.com

TEDxMidAtlantic 2013

Jennifer Golbeck: Your social media "likes" expose more than you think

ジェニファー・ゴルベック: カーリー・フライの謎解き — ソーシャルメディアでの「いいね!」があなたの秘密を明かす?

Filmed
Views 2,046,206

カーリーフライは好きですか? フェイスブックて「いいね!」しましたか? フェイスブック(やそのほかのソーシャルネット)が、一見ランダムな「いいね!」や投稿からあなたについてどれほどのことを推測できるか、この講演を見て知っておいてください。コンピュータ科学者のジェニファー・ゴルベックが、どうやってそんなことが可能なのか、この技術の応用が必ずしも好ましいとは限らないこと、そして自分の情報をコントロールする力を本来の持ち主の手に戻すべきである理由を語ります。

- Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions. Full bio

If you remember that first decade of the web,
ウェブが最初の10年間
どんなだったか
00:12
it was really a static place.
覚えていますか?
固定的なものでした
00:14
You could go online, you could look at pages,
ネットにつなげ
サイトを見ることはできましたが
00:16
and they were put up either by organizations
当時それは
そのための部署を持つ組織や
00:19
who had teams to do it
当時それは
そのための部署を持つ組織や
00:21
or by individuals who were really tech-savvy
コンピュータに精通した個人が
立ち上げたものでした
00:23
for the time.
コンピュータに精通した個人が
立ち上げたものでした
00:25
And with the rise of social media
2000年代初期にソーシャルメディアや
ソーシャルネットワークが登場すると
00:27
and social networks in the early 2000s,
2000年代初期にソーシャルメディアや
ソーシャルネットワークが登場すると
00:28
the web was completely changed
ウェブは大きく変容を遂げ
00:31
to a place where now the vast majority of content
今や私たちの見る
コンテンツの大部分が
00:33
we interact with is put up by average users,
一般的なユーザーによる
00:36
either in YouTube videos or blog posts
YouTubeのビデオ、ブログ
00:40
or product reviews or social media postings.
製品のレビューやソーシャルメディアでの
投稿で占められています
00:42
And it's also become a much more interactive place,
また人々が互いに
00:46
where people are interacting with others,
やり取りをする場へと変化しています
00:48
they're commenting, they're sharing,
コメントしたり 情報を共有したりし
00:51
they're not just reading.
ただ情報を見るだけではないのです
00:52
So Facebook is not the only place you can do this,
フェイスブックはこのような場として
唯一ではないものの最大です
00:54
but it's the biggest,
フェイスブックはこのような場として
唯一ではないものの最大です
00:56
and it serves to illustrate the numbers.
数字を見れば分ります
00:57
Facebook has 1.2 billion users per month.
フェイスブックには
月間ユーザーが12億います
00:59
So half the Earth's Internet population
つまり地球上のインターネット人口の―
01:02
is using Facebook.
半分がフェイスブックを利用しています
01:04
They are a site, along with others,
他のサイトと同様に
01:06
that has allowed people to create an online persona
ITのスキルが殆どなくても
ネット上の人格を作ることができる
01:08
with very little technical skill,
そんなサイトであり
01:11
and people responded by putting huge amounts
人々は個人的な情報を大量に
01:13
of personal data online.
投稿してきたのです
01:15
So the result is that we have behavioral,
その結果 何億という人々の
行動パターン
01:17
preference, demographic data
好みや人口統計データなどが
01:20
for hundreds of millions of people,
得られるのです
01:22
which is unprecedented in history.
こんなことは
過去には有りませんでした
01:24
And as a computer scientist,
what this means is that
私のようなコンピュータ科学者にとって
これは意味深く
01:26
I've been able to build models
私は人々が共有した情報から
01:29
that can predict all sorts of hidden attributes
本人が公開しているとは思いもしない
01:30
for all of you that you don't even know
多くの隠された特性を予測できる
01:32
you're sharing information about.
モデルを構築することができました
01:35
As scientists, we use that to help
科学者はそれによって
人々の—
01:37
the way people interact online,
ネット上での交流を
手助け出来るのですが
01:39
but there's less altruistic applications,
そんなに利他的でない
応用もあります
01:41
and there's a problem in that users don't really
問題はユーザーが
01:44
understand these techniques and how they work,
この様な技術の存在やしくみを理解せず
01:46
and even if they did, they don't
have a lot of control over it.
たとえ知っていたとしても
コントロールする手段が無いことです
01:49
So what I want to talk to you about today
私が今日お話ししたいことは
01:52
is some of these things that we're able to do,
こういうことに対して我々が
何をできるか
01:53
and then give us some ideas
of how we might go forward
そして我々の手に
01:56
to move some control back into the hands of users.
いくらかコントロールを
取り返すアイデアについてです
01:59
So this is Target, the company.
これはTargetという会社のロゴ
02:02
I didn't just put that logo
この哀れな妊婦のお腹に
02:03
on this poor, pregnant woman's belly.
ロゴを意味もなく
貼りつけたのではありません
02:05
You may have seen this anecdote that was printed
雑誌フォーブスに載った逸話を
02:07
in Forbes magazine where Target
ご覧になったかもしれません
02:09
sent a flyer to this 15-year-old girl
Targetはこの15歳の少女が
02:11
with advertisements and coupons
親に妊娠を打ち明ける2週も前に
02:13
for baby bottles and diapers and cribs
哺乳瓶、おむつ、 ベビーベッドの
02:15
two weeks before she told her parents
広告とクーポン券を
02:17
that she was pregnant.
送りつけたのです
02:19
Yeah, the dad was really upset.
父親は激怒しました
02:21
He said, "How did Target figure out
Targetは 親さえ知らない
02:24
that this high school girl was pregnant
高校生の少女の妊娠を
02:25
before she told her parents?"
どうして知っていたのか?
02:27
It turns out that they have the purchase history
判明したことは 彼らには
02:29
for hundreds of thousands of customers
何十万という顧客の
購入履歴データがあり
02:32
and they compute what they
call a pregnancy score,
彼らが言う所の
妊娠スコアというものを計算したのです
02:34
which is not just whether or
not a woman's pregnant,
単に妊娠の判断だけでなく
02:37
but what her due date is.
予定日の推定さえするのです
02:39
And they compute that
すぐそれと分かる購入品—
02:41
not by looking at the obvious things,
例えばベビーベッドや
赤ちゃん服だけでなく
02:42
like, she's buying a crib or baby clothes,
例えばベビーベッドや
赤ちゃん服だけでなく
02:44
but things like, she bought more vitamins
いつもよりビタミン剤を
多めに買ったとか
02:46
than she normally had,
おむつを入れるのに必要であろう
02:49
or she bought a handbag
大きな手さげカバンを
02:51
that's big enough to hold diapers.
買ったということから
推測するのです
02:52
And by themselves, those purchases don't seem
それぞれの物は
購入したからと言って
02:54
like they might reveal a lot,
何かがばれる訳ではなさそうですが
02:56
but it's a pattern of behavior that,
そういった購入行動のパターンを
02:59
when you take it in the context
of thousands of other people,
他の数千人の人々のデータと
照らし合わせることによって
03:01
starts to actually reveal some insights.
その意味が見えてきます
03:04
So that's the kind of thing that we do
このようにして我々は―
03:06
when we're predicting stuff
about you on social media.
ソーシャルメディアを通して
皆さんの事を分析しています
03:08
We're looking for little
patterns of behavior that,
我々は数百万の人々の
03:11
when you detect them among millions of people,
この様な ささいな行動パターンから
03:14
lets us find out all kinds of things.
様々なことを見出そうとしているのです
03:16
So in my lab and with colleagues,
私の研究所では仲間たちと
03:19
we've developed mechanisms where we can
様々なことを正確に予測する
手法を開発しました
03:21
quite accurately predict things
様々なことを正確に予測する
手法を開発しました
03:22
like your political preference,
人々の政治的傾向
03:24
your personality score, gender, sexual orientation,
個性 性別 性的傾向
03:26
religion, age, intelligence,
宗教 年令 知能
03:29
along with things like
それに加え
03:32
how much you trust the people you know
知人をどの程度信頼し
03:34
and how strong those relationships are.
どれくらい深い関係か
といったことです
03:36
We can do all of this really well.
かなり上手くいきました
03:38
And again, it doesn't come from what you might
繰り返しますが 直接的でない
情報から結果が得られるのです
03:39
think of as obvious information.
繰り返しますが 直接的でない
情報から結果が得られるのです
03:41
So my favorite example is from this study
私が特に気に入っている事例は
03:44
that was published this year
米国科学アカデミー紀要に載った
03:46
in the Proceedings of the National Academies.
今年の論文で グーグルで
検索すれば見つかるでしょう
03:47
If you Google this, you'll find it.
今年の論文で グーグルで
検索すれば見つかるでしょう
03:49
It's four pages, easy to read.
4ページの論文で
すぐに読めます
03:50
And they looked at just people's Facebook likes,
ここでは フェイスブックで
何を「いいね!」したかという
03:52
so just the things you like on Facebook,
情報だけを元に
03:55
and used that to predict all these attributes,
先ほど挙げたような
個人の特性を
03:57
along with some other ones.
予測しています
03:59
And in their paper they listed the five likes
この論文では 高い知能と
関連性の高い
04:01
that were most indicative of high intelligence.
5つの「いいね!」の対象をリストしました
04:04
And among those was liking a page
その一つが
04:07
for curly fries. (Laughter)
カーリー・フライのページです (笑)
04:09
Curly fries are delicious,
カーリー・フライは
確かに美味しいですが
04:11
but liking them does not necessarily mean
カーリー・フライが
好きなこと自体が
04:13
that you're smarter than the average person.
平均以上の知性を
意味するのではありません
04:15
So how is it that one of the strongest indicators
では どうして対象物が
予測しようとする性質と無関係なのに
04:17
of your intelligence
では どうして対象物が
予測しようとする性質と無関係なのに
04:21
is liking this page
これが知性と関連性の高い
指標となるのでしょう
04:22
when the content is totally irrelevant
これが知性と関連性の高い
指標となるのでしょう
04:24
to the attribute that's being predicted?
これが知性と関連性の高い
指標となるのでしょう
04:26
And it turns out that we have to look at
これを説き明かすために
04:28
a whole bunch of underlying theories
背後にある ありとあらゆる
04:30
to see why we're able to do this.
理論に着目すべきことが
分りました
04:32
One of them is a sociological
theory called homophily,
その一つが社会学で
「同類性」といわれるもので
04:34
which basically says people are
friends with people like them.
人間は基本的に似た者同士が
集まるというものです
04:37
So if you're smart, you tend to
be friends with smart people,
賢い人は賢い人達と
仲間になる傾向があり
04:40
and if you're young, you tend
to be friends with young people,
若者は若者同士で集まるといったことで
04:42
and this is well established
これは何百年もの前に
04:45
for hundreds of years.
確立された理論です
04:46
We also know a lot
情報がネットワークにより
04:48
about how information spreads through networks.
どう広がるかも
よく分かっています
04:49
It turns out things like viral videos
話題になるビデオや
04:52
or Facebook likes or other information
フェイスブックの「いいね!」
のような情報は
04:54
spreads in exactly the same way
まるで病気が伝染するように
04:56
that diseases spread through social networks.
ソーシャルネットワークを通して
広がるのです
04:58
So this is something we've studied for a long time.
こういうことは長年研究され
05:01
We have good models of it.
良い予測モデルがあります
05:02
And so you can put those things together
こういったことを合わせて考えてみれば
05:04
and start seeing why things like this happen.
なぜあんな予測がなされるのか
分ってきます
05:06
So if I were to give you a hypothesis,
そこで仮説を示すとすれば―
05:09
it would be that a smart guy started this page,
そのページを作った人か
05:11
or maybe one of the first people who liked it
あるいは初期に「いいね!」をした一人が
05:14
would have scored high on that test.
知性の高い人だったのでしょう
05:16
And they liked it, and their friends saw it,
彼らが気に入って
そして その友達がこれを見て
05:18
and by homophily, we know that
he probably had smart friends,
類が友を呼び ― きっと彼には賢い友人が
多いのでしょう
05:20
and so it spread to them,
and some of them liked it,
仲間の輪は広がり
彼らも気に入り
05:23
and they had smart friends,
そこからさらに
05:26
and so it spread to them,
賢い友達へと広まり
05:28
and so it propagated through the network
ネットワークを通して
たくさんの知性の高い人へと伝わっていき
05:28
to a host of smart people,
ネットワークを通して
たくさんの知性の高い人へと伝わっていき
05:30
so that by the end, the action
ついにはカーリー・フライへの
05:33
of liking the curly fries page
「いいね!」という行動が
05:35
is indicative of high intelligence,
商品の中身とは無関係に
05:37
not because of the content,
「いいね!」と投票した人たちの
05:39
but because the actual action of liking
共通の特性が反映され
05:41
reflects back the common attributes
高い知性を表すことになったのです
05:43
of other people who have done it.
高い知性を表すことになったのです
05:45
So this is pretty complicated stuff, right?
とても複雑な関係ですね?
05:48
It's a hard thing to sit down and explain
これを普通の方の前で
05:51
to an average user, and even if you do,
説明するのは難しいし
そうしたからといって
05:53
what can the average user do about it?
普通の人はどうすべきか
分かりませんね?
05:56
How do you know that
you've liked something
何かを「いいね!」したとき
05:58
that indicates a trait for you
それとは直接関係のない
06:00
that's totally irrelevant to the
content of what you've liked?
性格をつかまれてしまうなんて
どうして分かるでしょう?
06:01
There's a lot of power that users don't have
ユーザーがデータの用途を
コントロールできない
06:05
to control how this data is used.
そんな仕組みが多くあるのです
06:08
And I see that as a real
problem going forward.
そして私は実際に問題が
起こっていることを知っています
06:10
So I think there's a couple paths
私はユーザーにデータの使用方法の
06:13
that we want to look at
コントロールを与える
06:15
if we want to give users some control
2つのやり方があると
思います
06:16
over how this data is used,
2つのやり方があると
思います
06:18
because it's not always going to be used
というのもデータ利用は必ずしも
ユーザの―
06:20
for their benefit.
為になっていないからです
06:21
An example I often give is that,
私がよく挙げる例は
06:23
if I ever get bored being a professor,
もし私が教授職に飽きて
06:24
I'm going to go start a company
会社を立ち上げ
06:26
that predicts all of these attributes
皆さんの特性だとか
06:28
and things like how well you work in teams
チームワーク力とか
06:29
and if you're a drug user, if you're an alcoholic.
薬物使用癖やアルコール依存
などを予測します
06:31
We know how to predict all that.
推定方法は分かっています
06:33
And I'm going to sell reports
そして皆さんを雇用したがっている
06:35
to H.R. companies and big businesses
人材派遣会社や大企業に
06:36
that want to hire you.
レポートを売りつけるのです
06:39
We totally can do that now.
我々はすぐにでもできます
06:41
I could start that business tomorrow,
明日にだってビジネスを始められるでしょう
06:42
and you would have
absolutely no control
そして私が皆さんのデータを
06:44
over me using your data like that.
そのように使うのを
止めることはできません
06:46
That seems to me to be a problem.
そのことが問題だと言っているのです
06:48
So one of the paths we can go down
取り得る対策の一つは
06:50
is the policy and law path.
ポリシーや法律による方法です
06:52
And in some respects, I think
that that would be most effective,
ある意味
これが最も効果的かもしれません
06:54
but the problem is we'd
actually have to do it.
しかし問題は我々は
働きかけることしかできないことです
06:57
Observing our political process in action
政策決定のプロセスを見ていると
07:00
makes me think it's highly unlikely
多くの議員が集まって
07:03
that we're going to get a bunch of representatives
我々の話を聞いて
事情を理解し
07:05
to sit down, learn about this,
ユーザーが自分のデータの
07:07
and then enact sweeping changes
用途を管理できるよう
07:09
to intellectual property law in the U.S.
米国の知的所有権法を
大幅に変えるというのは
07:11
so users control their data.
とても起こりそうな気がしません
07:13
We could go the policy route,
ポリシーという道もあります
07:16
where social media companies say,
つまりソーシャルメディア会社が
07:17
you know what? You own your data.
“データは皆さんのものです
07:18
You have total control over how it's used.
皆さんがすべて管理できます”
と言うのです
07:20
The problem is that the revenue models
問題は収入モデルにあります
07:22
for most social media companies
ソーシャルメディア会社は
07:24
rely on sharing or exploiting
users' data in some way.
ユーザのデータを何らかの方法で
共有もしくは利用することで成り立っています
07:26
It's sometimes said of Facebook that the users
時々言われる事ですが
フェイスブックにとって
07:30
aren't the customer, they're the product.
“ユーザは顧客ではなくて製品だと”
07:32
And so how do you get a company
だから このような会社が
07:34
to cede control of their main asset
大事な資産をユーザーに返すなどという
07:37
back to the users?
譲歩をするでしょうか?
07:39
It's possible, but I don't think it's something
可能だとは思いますが
07:41
that we're going to see change quickly.
私は直ぐには起こりそうにないと思います
07:42
So I think the other path
もう一つの道で
07:45
that we can go down that's
going to be more effective
より効果的であろうものは
07:46
is one of more science.
科学を使うことです
07:48
It's doing science that allowed us to develop
データから個人の特性を
導き出すメカニズムを
07:50
all these mechanisms for computing
開発できるようにしてくれた
07:52
this personal data in the first place.
科学を研究すること
07:54
And it's actually very similar research
それとごく似た
07:56
that we'd have to do
研究によって
07:58
if we want to develop mechanisms
“これにはリスクがありますよ”
といった警告を
08:00
that can say to a user,
ユーザーに発するような
08:02
"Here's the risk of that action you just took."
仕組みを開発できるでしょう
08:04
By liking that Facebook page,
フェイスブックで「いいね!」したり
08:06
or by sharing this piece of personal information,
個人情報を共有すると
08:08
you've now improved my ability
皆さんが ドラッグをやっているかとか
08:10
to predict whether or not you're using drugs
職場で上手くいっているかどうかとか
08:12
or whether or not you get
along well in the workplace.
そういった事について予測される精度が
上がったのでした
08:14
And that, I think, can affect whether or not
警告の仕組みを導入すると
08:17
people want to share something,
情報を公開する
友達に限定する
08:19
keep it private, or just keep it offline altogether.
まったく共有しないといった
人々の選択に影響するでしょう
08:20
We can also look at things like
またはアップロードする情報を
08:24
allowing people to encrypt data that they upload,
暗号化するという手段も
考えられるでしょう
08:25
so it's kind of invisible and worthless
これでフェイスブックの様なサイトや
08:28
to sites like Facebook
そこからデータを受ける
08:30
or third party services that access it,
第三者のサービス会社には
無意味なデータとなり
08:31
but that select users who the person who posted it
一方で 本人が見て欲しいと思う人は
08:34
want to see it have access to see it.
見ることができます
08:37
This is all super exciting research
これは知的な観点から
08:40
from an intellectual perspective,
非常に面白い研究であり
08:42
and so scientists are going to be willing to do it.
科学者は喜んで取り組むでしょう
08:43
So that gives us an advantage over the law side.
その点で政策に訴える手段よりも
優れています
08:45
One of the problems that people bring up
この話をすると皆さんに―
08:49
when I talk about this is, they say,
よく指摘されるのは
08:51
you know, if people start
keeping all this data private,
皆が情報を非公開に
するようになったら
08:52
all those methods that you've been developing
私たちの開発してきた
人の行動パターンの―
08:55
to predict their traits are going to fail.
予測手法が使えなくなるのでは
ということです
08:57
And I say, absolutely, and for me, that's success,
その通りですが
私にとってそれは成功なのです
09:00
because as a scientist,
なぜなら一科学者として
09:03
my goal is not to infer information about users,
私の目標はユーザーの情報から
何かをあぶりだすことではなくて
09:05
it's to improve the way people interact online.
人々のオンラインにおける交流を
改善することだからです
09:09
And sometimes that involves
inferring things about them,
そのために人々のデータから
推測をすることもありますが
09:11
but if users don't want me to use that data,
皆さんがデータの利用を
望まないのであれば
09:15
I think they should have the right to do that.
皆さんにそう言う権利が
あるべきだと思います
09:18
I want users to be informed and consenting
我々が開発するツールについて
ユーザーは知らされ
09:20
users of the tools that we develop.
同意の元で使われるべきだと思います
09:22
And so I think encouraging this kind of science
データを管理する力の一部を
ソーシャルメディアから
09:24
and supporting researchers
ユーザーに返すような
09:27
who want to cede some of that control back to users
科学的研究を推し進め
09:29
and away from the social media companies
研究者を支援することで
09:32
means that going forward, as these tools evolve
このようなツールは進化し
09:34
and advance,
進歩を遂げることになり
09:37
means that we're going to have an educated
ユーザーが知識と力を
09:38
and empowered user base,
持つようになるでしょう
09:40
and I think all of us can agree
これが理想的な方法だと
09:41
that that's a pretty ideal way to go forward.
同意して頂けるものと思ってます
09:42
Thank you.
どうも有り難うございました
09:45
(Applause)
(拍手)
09:47
Translated by Tomoyuki Suzuki
Reviewed by Yasushi Aoki

▲Back to top

About the speaker:

Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com