ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com
TEDxMidAtlantic 2013

Jennifer Golbeck: Your social media "likes" expose more than you think

ジェニファー・ゴルベック: カーリー・フライの謎解き — ソーシャルメディアでの「いいね!」があなたの秘密を明かす?

Filmed:
2,366,837 views

カーリーフライは好きですか? フェイスブックて「いいね!」しましたか? フェイスブック(やそのほかのソーシャルネット)が、一見ランダムな「いいね!」や投稿からあなたについてどれほどのことを推測できるか、この講演を見て知っておいてください。コンピュータ科学者のジェニファー・ゴルベックが、どうやってそんなことが可能なのか、この技術の応用が必ずしも好ましいとは限らないこと、そして自分の情報をコントロールする力を本来の持ち主の手に戻すべきである理由を語ります。
- Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions. Full bio

Double-click the English transcript below to play the video.

00:12
If you remember思い出す that first decade10年 of the webウェブ,
0
738
1997
ウェブが最初の10年間
どんなだったか
00:14
it was really a static静的 place場所.
1
2735
2255
覚えていますか?
固定的なものでした
00:16
You could go onlineオンライン, you could look at pagesページ,
2
4990
2245
ネットにつなげ
サイトを見ることはできましたが
00:19
and they were put up eitherどちらか by organizations組織
3
7235
2513
当時それは
そのための部署を持つ組織や
00:21
who had teamsチーム to do it
4
9748
1521
当時それは
そのための部署を持つ組織や
00:23
or by individuals個人 who were really tech-savvyハイテクに精通した
5
11269
2229
コンピュータに精通した個人が
立ち上げたものでした
00:25
for the time.
6
13498
1737
コンピュータに精通した個人が
立ち上げたものでした
00:27
And with the rise上昇 of socialソーシャル mediaメディア
7
15235
1575
2000年代初期にソーシャルメディアや
ソーシャルネットワークが登場すると
00:28
and socialソーシャル networksネットワーク in the early早い 2000s,
8
16810
2399
2000年代初期にソーシャルメディアや
ソーシャルネットワークが登場すると
00:31
the webウェブ was completely完全に changedかわった
9
19209
2149
ウェブは大きく変容を遂げ
00:33
to a place場所 where now the vast広大 majority多数 of contentコンテンツ
10
21358
3608
今や私たちの見る
コンテンツの大部分が
00:36
we interact相互作用する with is put up by average平均 usersユーザー,
11
24966
3312
一般的なユーザーによる
00:40
eitherどちらか in YouTubeYouTube videosビデオ or blogブログ posts投稿
12
28278
2697
YouTubeのビデオ、ブログ
00:42
or product製品 reviewsレビュー or socialソーシャル mediaメディア postings転記.
13
30975
3315
製品のレビューやソーシャルメディアでの
投稿で占められています
00:46
And it's alsoまた、 become〜になる a much more interactiveインタラクティブ place場所,
14
34290
2347
また人々が互いに
00:48
where people are interacting相互作用する with othersその他,
15
36637
2637
やり取りをする場へと変化しています
00:51
they're commentingコメントする, they're sharing共有,
16
39274
1696
コメントしたり 情報を共有したりし
00:52
they're not just reading読書.
17
40970
1614
ただ情報を見るだけではないのです
00:54
So Facebookフェイスブック is not the only place場所 you can do this,
18
42584
1866
フェイスブックはこのような場として
唯一ではないものの最大です
00:56
but it's the biggest最大,
19
44450
1098
フェイスブックはこのような場として
唯一ではないものの最大です
00:57
and it serves奉仕する to illustrate説明する the numbers数字.
20
45548
1784
数字を見れば分ります
00:59
Facebookフェイスブック has 1.2 billion usersユーザー per〜ごと month.
21
47332
3477
フェイスブックには
月間ユーザーが12億います
01:02
So halfハーフ the Earth's地球の Internetインターネット population人口
22
50809
1930
つまり地球上のインターネット人口の―
01:04
is usingを使用して Facebookフェイスブック.
23
52739
1653
半分がフェイスブックを利用しています
01:06
They are a siteサイト, along一緒に with othersその他,
24
54392
1932
他のサイトと同様に
01:08
that has allowed許可された people to create作成する an onlineオンライン personaペルソナ
25
56324
3219
ITのスキルが殆どなくても
ネット上の人格を作ることができる
01:11
with very little technicalテクニカル skillスキル,
26
59543
1782
そんなサイトであり
01:13
and people responded応答した by puttingパッティング huge巨大 amounts金額
27
61325
2476
人々は個人的な情報を大量に
01:15
of personal個人的 dataデータ onlineオンライン.
28
63801
1983
投稿してきたのです
01:17
So the result結果 is that we have behavioral行動的,
29
65784
2543
その結果 何億という人々の
行動パターン
01:20
preference好み, demographic人口統計学 dataデータ
30
68327
1986
好みや人口統計データなどが
01:22
for hundreds数百 of millions何百万 of people,
31
70313
2101
得られるのです
01:24
whichどの is unprecedented前例のない in history歴史.
32
72414
2026
こんなことは
過去には有りませんでした
01:26
And as a computerコンピューター scientist科学者,
what this means手段 is that
33
74440
2560
私のようなコンピュータ科学者にとって
これは意味深く
01:29
I've been ableできる to buildビルドする modelsモデル
34
77000
1664
私は人々が共有した情報から
01:30
that can predict予測する all sortsソート of hidden隠された attributes属性
35
78664
2322
本人が公開しているとは思いもしない
01:32
for all of you that you don't even know
36
80986
2284
多くの隠された特性を予測できる
01:35
you're sharing共有 information情報 about.
37
83270
2202
モデルを構築することができました
01:37
As scientists科学者, we use that to help
38
85472
2382
科学者はそれによって
人々の—
01:39
the way people interact相互作用する onlineオンライン,
39
87854
2114
ネット上での交流を
手助け出来るのですが
01:41
but there's lessもっと少なく altruistic利他的 applicationsアプリケーション,
40
89968
2499
そんなに利他的でない
応用もあります
01:44
and there's a problem問題 in that usersユーザー don't really
41
92467
2381
問題はユーザーが
01:46
understandわかる these techniques技術 and how they work,
42
94848
2470
この様な技術の存在やしくみを理解せず
01:49
and even if they did, they don't
have a lot of controlコントロール over it.
43
97318
3128
たとえ知っていたとしても
コントロールする手段が無いことです
01:52
So what I want to talk to you about today今日
44
100446
1490
私が今日お話ししたいことは
01:53
is some of these things that we're ableできる to do,
45
101936
2702
こういうことに対して我々が
何をできるか
01:56
and then give us some ideasアイデア
of how we mightかもしれない go forward前進
46
104638
2763
そして我々の手に
01:59
to move動く some controlコントロール back into the hands of usersユーザー.
47
107401
2769
いくらかコントロールを
取り返すアイデアについてです
02:02
So this is Targetターゲット, the company会社.
48
110170
1586
これはTargetという会社のロゴ
02:03
I didn't just put that logoロゴ
49
111756
1324
この哀れな妊婦のお腹に
02:05
on this poor貧しい, pregnant妊娠している woman's女性の belly.
50
113080
2170
ロゴを意味もなく
貼りつけたのではありません
02:07
You mayかもしれない have seen見た this anecdote逸話 that was printed印刷された
51
115250
1840
雑誌フォーブスに載った逸話を
02:09
in Forbesフォーブス magazineマガジン where Targetターゲット
52
117090
2061
ご覧になったかもしれません
02:11
sent送られた a flyerチラシ to this 15-year-old-歳 girl女の子
53
119151
2361
Targetはこの15歳の少女が
02:13
with advertisements広告 and couponsクーポン
54
121512
1710
親に妊娠を打ち明ける2週も前に
02:15
for baby赤ちゃん bottlesボトル and diapersおむつ and cribsベビーベッド
55
123222
2554
哺乳瓶、おむつ、 ベビーベッドの
02:17
two weeks before she told her parents
56
125776
1684
広告とクーポン券を
02:19
that she was pregnant妊娠している.
57
127460
1864
送りつけたのです
02:21
Yeah, the dadパパ was really upset動揺.
58
129324
2704
父親は激怒しました
02:24
He said, "How did Targetターゲット figure数字 out
59
132028
1716
Targetは 親さえ知らない
02:25
that this high高い school学校 girl女の子 was pregnant妊娠している
60
133744
1824
高校生の少女の妊娠を
02:27
before she told her parents?"
61
135568
1960
どうして知っていたのか?
02:29
It turnsターン out that they have the purchase購入 history歴史
62
137528
2621
判明したことは 彼らには
02:32
for hundreds数百 of thousands of customers顧客
63
140149
2301
何十万という顧客の
購入履歴データがあり
02:34
and they compute計算する what they
call a pregnancy妊娠 scoreスコア,
64
142450
2730
彼らが言う所の
妊娠スコアというものを計算したのです
02:37
whichどの is not just whetherかどうか or
not a woman's女性の pregnant妊娠している,
65
145180
2332
単に妊娠の判断だけでなく
02:39
but what her due支払う date日付 is.
66
147512
1730
予定日の推定さえするのです
02:41
And they compute計算する that
67
149242
1304
すぐそれと分かる購入品—
02:42
not by looking at the obvious明らか things,
68
150546
1768
例えばベビーベッドや
赤ちゃん服だけでなく
02:44
like, she's buying買う a cribベビーベッド or baby赤ちゃん clothes,
69
152314
2512
例えばベビーベッドや
赤ちゃん服だけでなく
02:46
but things like, she bought買った more vitaminsビタミン
70
154826
2943
いつもよりビタミン剤を
多めに買ったとか
02:49
than she normally通常は had,
71
157769
1717
おむつを入れるのに必要であろう
02:51
or she bought買った a handbagハンドバッグ
72
159486
1464
大きな手さげカバンを
02:52
that's big大きい enough十分な to holdホールド diapersおむつ.
73
160950
1711
買ったということから
推測するのです
02:54
And by themselves自分自身, those purchases購入 don't seem思われる
74
162661
1910
それぞれの物は
購入したからと言って
02:56
like they mightかもしれない reveal明らかにする a lot,
75
164571
2469
何かがばれる訳ではなさそうですが
02:59
but it's a patternパターン of behavior動作 that,
76
167040
1978
そういった購入行動のパターンを
03:01
when you take it in the contextコンテキスト
of thousands of other people,
77
169018
3117
他の数千人の人々のデータと
照らし合わせることによって
03:04
starts開始する to actually実際に reveal明らかにする some insights洞察.
78
172135
2757
その意味が見えてきます
03:06
So that's the kind種類 of thing that we do
79
174892
1793
このようにして我々は―
03:08
when we're predicting予測する stuffもの
about you on socialソーシャル mediaメディア.
80
176685
2567
ソーシャルメディアを通して
皆さんの事を分析しています
03:11
We're looking for little
patternsパターン of behavior動作 that,
81
179252
2796
我々は数百万の人々の
03:14
when you detect検出する them among millions何百万 of people,
82
182048
2682
この様な ささいな行動パターンから
03:16
lets〜する us find out all kinds種類 of things.
83
184730
2706
様々なことを見出そうとしているのです
03:19
So in my lab研究室 and with colleagues同僚,
84
187436
1747
私の研究所では仲間たちと
03:21
we've私たちは developed発展した mechanismsメカニズム where we can
85
189183
1777
様々なことを正確に予測する
手法を開発しました
03:22
quiteかなり accurately正確に predict予測する things
86
190960
1560
様々なことを正確に予測する
手法を開発しました
03:24
like your political政治的 preference好み,
87
192520
1725
人々の政治的傾向
03:26
your personality scoreスコア, gender性別, sexual性的 orientationオリエンテーション,
88
194245
3752
個性 性別 性的傾向
03:29
religion宗教, age年齢, intelligenceインテリジェンス,
89
197997
2873
宗教 年令 知能
03:32
along一緒に with things like
90
200870
1394
それに加え
03:34
how much you trust信頼 the people you know
91
202264
1937
知人をどの程度信頼し
03:36
and how strong強い those relationships関係 are.
92
204201
1804
どれくらい深い関係か
といったことです
03:38
We can do all of this really well.
93
206005
1785
かなり上手くいきました
03:39
And again, it doesn't come from what you mightかもしれない
94
207790
2197
繰り返しますが 直接的でない
情報から結果が得られるのです
03:41
think of as obvious明らか information情報.
95
209987
2102
繰り返しますが 直接的でない
情報から結果が得られるのです
03:44
So my favoriteお気に入り example is from this study調査
96
212089
2281
私が特に気に入っている事例は
03:46
that was published出版された this year
97
214370
1240
米国科学アカデミー紀要に載った
03:47
in the Proceedings議事録 of the Nationalナショナル Academiesアカデミー.
98
215610
1795
今年の論文で グーグルで
検索すれば見つかるでしょう
03:49
If you GoogleGoogle this, you'llあなたは find it.
99
217405
1285
今年の論文で グーグルで
検索すれば見つかるでしょう
03:50
It's four4つの pagesページ, easy簡単 to read読む.
100
218690
1872
4ページの論文で
すぐに読めます
03:52
And they looked見た at just people's人々の Facebookフェイスブック likes好きな人,
101
220562
3003
ここでは フェイスブックで
何を「いいね!」したかという
03:55
so just the things you like on Facebookフェイスブック,
102
223565
1920
情報だけを元に
03:57
and used that to predict予測する all these attributes属性,
103
225485
2138
先ほど挙げたような
個人の特性を
03:59
along一緒に with some other onesもの.
104
227623
1645
予測しています
04:01
And in their彼らの paper they listedリストされた the five likes好きな人
105
229268
2961
この論文では 高い知能と
関連性の高い
04:04
that were most最も indicative指示的 of high高い intelligenceインテリジェンス.
106
232229
2787
5つの「いいね!」の対象をリストしました
04:07
And among those was liking好み a pageページ
107
235016
2324
その一つが
04:09
for curly縮れた friesフライ. (Laughter笑い)
108
237340
1905
カーリー・フライのページです (笑)
04:11
Curly縮れた friesフライ are deliciousおいしい,
109
239245
2093
カーリー・フライは
確かに美味しいですが
04:13
but liking好み them does not necessarily必ずしも mean
110
241338
2530
カーリー・フライが
好きなこと自体が
04:15
that you're smarterスマートな than the average平均 person.
111
243868
2080
平均以上の知性を
意味するのではありません
04:17
So how is it that one of the strongest最強 indicators指標
112
245948
3207
では どうして対象物が
予測しようとする性質と無関係なのに
04:21
of your intelligenceインテリジェンス
113
249155
1570
では どうして対象物が
予測しようとする性質と無関係なのに
04:22
is liking好み this pageページ
114
250725
1447
これが知性と関連性の高い
指標となるのでしょう
04:24
when the contentコンテンツ is totally完全に irrelevant無関係
115
252172
2252
これが知性と関連性の高い
指標となるのでしょう
04:26
to the attribute属性 that's beingであること predicted予測された?
116
254424
2527
これが知性と関連性の高い
指標となるのでしょう
04:28
And it turnsターン out that we have to look at
117
256951
1584
これを説き明かすために
04:30
a whole全体 bunch of underlying根底にある theories理論
118
258535
1618
背後にある ありとあらゆる
04:32
to see why we're ableできる to do this.
119
260153
2569
理論に着目すべきことが
分りました
04:34
One of them is a sociological社会学的
theory理論 calledと呼ばれる homophily同性愛者,
120
262722
2913
その一つが社会学で
「同類性」といわれるもので
04:37
whichどの basically基本的に says言う people are
friends友達 with people like them.
121
265635
3092
人間は基本的に似た者同士が
集まるというものです
04:40
So if you're smartスマート, you tend傾向がある to
be friends友達 with smartスマート people,
122
268727
2014
賢い人は賢い人達と
仲間になる傾向があり
04:42
and if you're young若い, you tend傾向がある
to be friends友達 with young若い people,
123
270741
2630
若者は若者同士で集まるといったことで
04:45
and this is well established設立
124
273371
1627
これは何百年もの前に
04:46
for hundreds数百 of years.
125
274998
1745
確立された理論です
04:48
We alsoまた、 know a lot
126
276743
1232
情報がネットワークにより
04:49
about how information情報 spreadsスプレッド throughを通して networksネットワーク.
127
277975
2550
どう広がるかも
よく分かっています
04:52
It turnsターン out things like viralウイルス性の videosビデオ
128
280525
1754
話題になるビデオや
04:54
or Facebookフェイスブック likes好きな人 or other information情報
129
282279
2406
フェイスブックの「いいね!」
のような情報は
04:56
spreadsスプレッド in exactly正確に the same同じ way
130
284685
1888
まるで病気が伝染するように
ソーシャルネットワークを通して
広がるのです
04:58
that diseases病気 spread普及 throughを通して socialソーシャル networksネットワーク.
131
286573
2454
05:01
So this is something we've私たちは studied研究した for a long time.
132
289027
1791
こういうことは長年研究され
05:02
We have good modelsモデル of it.
133
290818
1576
良い予測モデルがあります
05:04
And so you can put those things together一緒に
134
292394
2157
こういったことを合わせて考えてみれば
05:06
and start開始 seeing見る why things like this happen起こる.
135
294551
3088
なぜあんな予測がなされるのか
分ってきます
05:09
So if I were to give you a hypothesis仮説,
136
297639
1814
そこで仮説を示すとすれば―
05:11
it would be that a smartスマート guy started開始した this pageページ,
137
299453
3227
そのページを作った人か
05:14
or maybe one of the first people who liked好き it
138
302680
1939
あるいは初期に「いいね!」をした一人が
05:16
would have scored得点する high高い on that testテスト.
139
304619
1736
知性の高い人だったのでしょう
05:18
And they liked好き it, and their彼らの friends友達 saw it,
140
306355
2288
彼らが気に入って
そして その友達がこれを見て
05:20
and by homophily同性愛者, we know that
he probably多分 had smartスマート friends友達,
141
308643
3122
類が友を呼び ― きっと彼には賢い友人が
多いのでしょう
05:23
and so it spread普及 to them,
and some of them liked好き it,
142
311765
3056
仲間の輪は広がり
彼らも気に入り
05:26
and they had smartスマート friends友達,
143
314821
1189
そこからさらに
05:28
and so it spread普及 to them,
144
316010
807
賢い友達へと広まり
05:28
and so it propagated伝播 throughを通して the networkネットワーク
145
316817
1973
ネットワークを通して
たくさんの知性の高い人へと伝わっていき
05:30
to a hostホスト of smartスマート people,
146
318790
2569
ネットワークを通して
たくさんの知性の高い人へと伝わっていき
05:33
so that by the end終わり, the actionアクション
147
321359
2056
ついにはカーリー・フライへの
05:35
of liking好み the curly縮れた friesフライ pageページ
148
323415
2544
「いいね!」という行動が
05:37
is indicative指示的 of high高い intelligenceインテリジェンス,
149
325959
1615
商品の中身とは無関係に
05:39
not because of the contentコンテンツ,
150
327574
1803
「いいね!」と投票した人たちの
05:41
but because the actual実際の actionアクション of liking好み
151
329377
2522
共通の特性が反映され
05:43
reflects反映する back the common一般 attributes属性
152
331899
1900
高い知性を表すことになったのです
05:45
of other people who have done完了 it.
153
333799
2468
高い知性を表すことになったのです
05:48
So this is prettyかなり complicated複雑な stuffもの, right?
154
336267
2897
とても複雑な関係ですね?
05:51
It's a hardハード thing to sit座る down and explain説明する
155
339164
2199
これを普通の方の前で
05:53
to an average平均 userユーザー, and even if you do,
156
341363
2848
説明するのは難しいし
そうしたからといって
05:56
what can the average平均 userユーザー do about it?
157
344211
2188
普通の人はどうすべきか
分かりませんね?
05:58
How do you know that
you've liked好き something
158
346399
2048
何かを「いいね!」したとき
06:00
that indicates指示する a trait形質 for you
159
348447
1492
それとは直接関係のない
06:01
that's totally完全に irrelevant無関係 to the
contentコンテンツ of what you've liked好き?
160
349939
3545
性格をつかまれてしまうなんて
どうして分かるでしょう?
06:05
There's a lot of powerパワー that usersユーザー don't have
161
353484
2546
ユーザーがデータの用途を
コントロールできない
06:08
to controlコントロール how this dataデータ is used.
162
356030
2230
そんな仕組みが多くあるのです
06:10
And I see that as a realリアル
problem問題 going forward前進.
163
358260
3112
そして私は実際に問題が
起こっていることを知っています
06:13
So I think there's a coupleカップル pathsパス
164
361372
1977
私はユーザーにデータの使用方法の
06:15
that we want to look at
165
363349
1001
コントロールを与える
06:16
if we want to give usersユーザー some controlコントロール
166
364350
1910
2つのやり方があると
思います
06:18
over how this dataデータ is used,
167
366260
1740
2つのやり方があると
思います
06:20
because it's not always going to be used
168
368000
1940
というのもデータ利用は必ずしも
ユーザの―
06:21
for their彼らの benefit利益.
169
369940
1381
為になっていないからです
06:23
An example I oftenしばしば give is that,
170
371321
1422
私がよく挙げる例は
06:24
if I ever get bored退屈な beingであること a professor教授,
171
372743
1646
もし私が教授職に飽きて
06:26
I'm going to go start開始 a company会社
172
374389
1653
会社を立ち上げ
06:28
that predicts予測する all of these attributes属性
173
376042
1454
皆さんの特性だとか
06:29
and things like how well you work in teamsチーム
174
377496
1602
チームワーク力とか
06:31
and if you're a drugドラッグ userユーザー, if you're an alcoholicアルコール性.
175
379098
2671
薬物使用癖やアルコール依存
などを予測します
06:33
We know how to predict予測する all that.
176
381769
1440
推定方法は分かっています
06:35
And I'm going to sell売る reportsレポート
177
383209
1761
そして皆さんを雇用したがっている
06:36
to H.R. companies企業 and big大きい businessesビジネス
178
384970
2100
人材派遣会社や大企業に
06:39
that want to hire雇う you.
179
387070
2273
レポートを売りつけるのです
06:41
We totally完全に can do that now.
180
389343
1177
我々はすぐにでもできます
06:42
I could start開始 that businessビジネス tomorrow明日,
181
390520
1788
明日にだってビジネスを始められるでしょう
06:44
and you would have
absolutely絶対に no controlコントロール
182
392308
2052
そして私が皆さんのデータを
06:46
over me usingを使用して your dataデータ like that.
183
394360
2138
そのように使うのを
止めることはできません
06:48
That seems思われる to me to be a problem問題.
184
396498
2292
そのことが問題だと言っているのです
06:50
So one of the pathsパス we can go down
185
398790
1910
取り得る対策の一つは
06:52
is the policyポリシー and law法律 pathパス.
186
400700
2032
ポリシーや法律による方法です
06:54
And in some respects敬意, I think
that that would be most最も effective効果的な,
187
402732
3046
ある意味
これが最も効果的かもしれません
06:57
but the problem問題 is we'd結婚した
actually実際に have to do it.
188
405778
2756
しかし問題は我々は
働きかけることしかできないことです
07:00
Observing観察する our political政治的 processプロセス in actionアクション
189
408534
2780
政策決定のプロセスを見ていると
07:03
makes作る me think it's highly高く unlikely起こりそうもない
190
411314
2379
多くの議員が集まって
07:05
that we're going to get a bunch of representatives代表者
191
413693
1597
我々の話を聞いて
事情を理解し
07:07
to sit座る down, learn学ぶ about this,
192
415290
1986
ユーザーが自分のデータの
07:09
and then enact制定する sweeping掃く changes変更
193
417276
2106
用途を管理できるよう
07:11
to intellectual知的 propertyプロパティ law法律 in the U.S.
194
419382
2157
米国の知的所有権法を
大幅に変えるというのは
07:13
so usersユーザー controlコントロール their彼らの dataデータ.
195
421539
2461
とても起こりそうな気がしません
07:16
We could go the policyポリシー routeルート,
196
424000
1304
ポリシーという道もあります
07:17
where socialソーシャル mediaメディア companies企業 say,
197
425304
1479
つまりソーシャルメディア会社が
“データは皆さんのものです
07:18
you know what? You own自分の your dataデータ.
198
426783
1402
07:20
You have total合計 controlコントロール over how it's used.
199
428185
2489
皆さんがすべて管理できます”
と言うのです
07:22
The problem問題 is that the revenue収入 modelsモデル
200
430674
1848
問題は収入モデルにあります
07:24
for most最も socialソーシャル mediaメディア companies企業
201
432522
1724
ソーシャルメディア会社は
07:26
rely頼りにする on sharing共有 or exploiting悪用
users'ユーザーの ' dataデータ in some way.
202
434246
4031
ユーザのデータを何らかの方法で
共有もしくは利用することで成り立っています
07:30
It's sometimes時々 said of Facebookフェイスブック that the usersユーザー
203
438277
1833
時々言われる事ですが
フェイスブックにとって
07:32
aren'tない the customer顧客, they're the product製品.
204
440110
2528
“ユーザは顧客ではなくて製品だと”
07:34
And so how do you get a company会社
205
442638
2714
だから このような会社が
07:37
to cedeセド controlコントロール of their彼らの mainメイン asset資産
206
445352
2558
大事な資産をユーザーに返すなどという
07:39
back to the usersユーザー?
207
447910
1249
譲歩をするでしょうか?
07:41
It's possible可能, but I don't think it's something
208
449159
1701
可能だとは思いますが
07:42
that we're going to see change変化する quickly早く.
209
450860
2320
私は直ぐには起こりそうにないと思います
07:45
So I think the other pathパス
210
453180
1500
もう一つの道で
07:46
that we can go down that's
going to be more effective効果的な
211
454680
2288
より効果的であろうものは
07:48
is one of more science科学.
212
456968
1508
科学を使うことです
07:50
It's doing science科学 that allowed許可された us to develop開発する
213
458476
2510
データから個人の特性を
導き出すメカニズムを
07:52
all these mechanismsメカニズム for computing計算
214
460986
1750
開発できるようにしてくれた
07:54
this personal個人的 dataデータ in the first place場所.
215
462736
2052
科学を研究すること
07:56
And it's actually実際に very similar類似 research研究
216
464788
2106
それとごく似た
07:58
that we'd結婚した have to do
217
466894
1438
研究によって
08:00
if we want to develop開発する mechanismsメカニズム
218
468332
2386
“これにはリスクがありますよ”
といった警告を
08:02
that can say to a userユーザー,
219
470718
1421
ユーザーに発するような
08:04
"Here'sここにいる the riskリスク of that actionアクション you just took取った."
220
472139
2229
仕組みを開発できるでしょう
08:06
By liking好み that Facebookフェイスブック pageページ,
221
474368
2080
フェイスブックで「いいね!」したり
08:08
or by sharing共有 this pieceピース of personal個人的 information情報,
222
476448
2535
個人情報を共有すると
08:10
you've now improved改善された my ability能力
223
478983
1502
皆さんが ドラッグをやっているかとか
08:12
to predict予測する whetherかどうか or not you're usingを使用して drugs薬物
224
480485
2086
職場で上手くいっているかどうかとか
08:14
or whetherかどうか or not you get
along一緒に well in the workplace職場.
225
482571
2862
そういった事について予測される精度が
上がったのでした
08:17
And that, I think, can affect影響を与える whetherかどうか or not
226
485433
1848
警告の仕組みを導入すると
08:19
people want to shareシェア something,
227
487281
1510
情報を公開する
友達に限定する
08:20
keep it privateプライベート, or just keep it offlineオフライン altogether全部.
228
488791
3239
まったく共有しないといった
人々の選択に影響するでしょう
08:24
We can alsoまた、 look at things like
229
492030
1563
またはアップロードする情報を
08:25
allowing許す people to encrypt暗号化する dataデータ that they uploadアップロード,
230
493593
2728
暗号化するという手段も
考えられるでしょう
08:28
so it's kind種類 of invisible目に見えない and worthless役に立たない
231
496321
1855
これでフェイスブックの様なサイトや
08:30
to sitesサイト like Facebookフェイスブック
232
498176
1431
そこからデータを受ける
08:31
or third三番 partyパーティー servicesサービス that accessアクセス it,
233
499607
2629
第三者のサービス会社には
無意味なデータとなり
08:34
but that select選択する usersユーザー who the person who posted投稿された it
234
502236
3247
一方で 本人が見て欲しいと思う人は
08:37
want to see it have accessアクセス to see it.
235
505483
2670
見ることができます
08:40
This is all superスーパー excitingエキサイティング research研究
236
508153
2166
これは知的な観点から
08:42
from an intellectual知的 perspective視点,
237
510319
1620
非常に面白い研究であり
08:43
and so scientists科学者 are going to be willing喜んで to do it.
238
511939
1859
科学者は喜んで取り組むでしょう
08:45
So that gives与える us an advantage利点 over the law法律 side.
239
513798
3610
その点で政策に訴える手段よりも
優れています
08:49
One of the problems問題 that people bring持参する up
240
517408
1725
この話をすると皆さんに―
08:51
when I talk about this is, they say,
241
519133
1595
よく指摘されるのは
皆が情報を非公開に
するようになったら
08:52
you know, if people start開始
keeping維持 all this dataデータ privateプライベート,
242
520728
2646
08:55
all those methodsメソッド that you've been developing現像
243
523374
2113
私たちの開発してきた
人の行動パターンの―
08:57
to predict予測する their彼らの traits形質 are going to fail失敗します.
244
525487
2653
予測手法が使えなくなるのでは
ということです
09:00
And I say, absolutely絶対に, and for me, that's success成功,
245
528140
3520
その通りですが
私にとってそれは成功なのです
09:03
because as a scientist科学者,
246
531660
1786
なぜなら一科学者として
09:05
my goalゴール is not to infer推論 information情報 about usersユーザー,
247
533446
3688
私の目標はユーザーの情報から
何かをあぶりだすことではなくて
09:09
it's to improve改善する the way people interact相互作用する onlineオンライン.
248
537134
2767
人々のオンラインにおける交流を
改善することだからです
09:11
And sometimes時々 that involves関係する
inferring推論 things about them,
249
539901
3218
そのために人々のデータから
推測をすることもありますが
09:15
but if usersユーザー don't want me to use that dataデータ,
250
543119
3022
皆さんがデータの利用を
望まないのであれば
09:18
I think they should have the right to do that.
251
546141
2038
皆さんにそう言う権利が
あるべきだと思います
09:20
I want usersユーザー to be informed知らされた and consenting合意
252
548179
2651
我々が開発するツールについて
ユーザーは知らされ
09:22
usersユーザー of the toolsツール that we develop開発する.
253
550830
2112
同意の元で使われるべきだと思います
09:24
And so I think encouraging励ます this kind種類 of science科学
254
552942
2952
データを管理する力の一部を
ソーシャルメディアから
09:27
and supportingサポートする researchers研究者
255
555894
1346
ユーザーに返すような
09:29
who want to cedeセド some of that controlコントロール back to usersユーザー
256
557240
3023
科学的研究を推し進め
09:32
and away from the socialソーシャル mediaメディア companies企業
257
560263
2311
研究者を支援することで
09:34
means手段 that going forward前進, as these toolsツール evolve進化する
258
562574
2671
このようなツールは進化し
09:37
and advance前進,
259
565245
1476
進歩を遂げることになり
09:38
means手段 that we're going to have an educated教育を受けた
260
566721
1414
ユーザーが知識と力を
09:40
and empowered権限を与えられた userユーザー baseベース,
261
568135
1694
持つようになるでしょう
09:41
and I think all of us can agree同意する
262
569829
1100
これが理想的な方法だと
09:42
that that's a prettyかなり ideal理想的な way to go forward前進.
263
570929
2564
同意して頂けるものと思ってます
09:45
Thank you.
264
573493
2184
どうも有り難うございました
09:47
(Applause拍手)
265
575677
3080
(拍手)
Translated by Tomoyuki Suzuki
Reviewed by Yasushi Aoki

▲Back to top

ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com