ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com
TEDxMidAtlantic 2013

Jennifer Golbeck: Your social media "likes" expose more than you think

제니퍼 골벡: 꼬부랑 감자의 수수께끼: 왜 소셜미디어의 "좋아요"에 생각지도 못한 의미가 있을까?

Filmed:
2,366,837 views

온라인상의 데이타로 엄청난 일들을 할 수 있습니다. 페이스북의 꼬부랑 감자를 "좋아요"라고 선택하는 것이 여러분이 지적인 사람이라는 것을 의미 한다고 컴퓨터공학자들이 알아냈다는 것을 아십니까? 사실입니다. 컴퓨터 과학자 제니퍼 골벡은 어떻게 해서 이런 일이 생기고, 어째서 과학기술의 적용이 아주 해가 없는 것이 아닌지, 그리고 왜 정보의 통제권을 원래의 소유자에게 돌려 주어야 한다고 생각하는지 설명합니다.
- Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions. Full bio

Double-click the English transcript below to play the video.

00:12
If you remember생각해 내다 that first decade로사리오 염주 of the web편물,
0
738
1997
인터넷의 초기 10년을 생각하면
00:14
it was really a static공전 place장소.
1
2735
2255
거긴 정말 정적인 곳이었습니다.
00:16
You could go online온라인, you could look at pages페이지들,
2
4990
2245
온라인으로 페이지들을 볼 수 있었죠
00:19
and they were put up either어느 한 쪽 by organizations조직
3
7235
2513
그것은 팀으로 이루어진 단체에서
00:21
who had teams to do it
4
9748
1521
올린 것이거나
00:23
or by individuals개인 who were really tech-savvy기술에 정통한
5
11269
2229
그 당시 컴퓨터 기술에 능숙한
00:25
for the time.
6
13498
1737
개인들이 올린 것이었습니다.
00:27
And with the rise오르기 of social사회적인 media미디어
7
15235
1575
2000년대 초기에 부상하기 시작한
00:28
and social사회적인 networks네트워크 in the early이른 2000s,
8
16810
2399
소셜미디어와 네트워크로 인해
00:31
the web편물 was completely완전히 changed변경된
9
19209
2149
인터넷은 완전히 바뀌었습니다.
00:33
to a place장소 where now the vast거대한 majority과반수 of content함유량
10
21358
3608
우리가 보는 어마어마한 콘텐츠들을
00:36
we interact상호 작용하다 with is put up by average평균 users사용자,
11
24966
3312
보통의 사용자들이 올리는 장소로 말입니다.
00:40
either어느 한 쪽 in YouTubeYouTube videos비디오 or blog블로그 posts게시물
12
28278
2697
유투브 동영상이라든지 블로그,
00:42
or product생성물 reviews리뷰 or social사회적인 media미디어 postings게시물.
13
30975
3315
또는 상품후기나 소셜미디어 글들이요.
00:46
And it's also또한 become지다 a much more interactive상호 작용하는 place장소,
14
34290
2347
사람들이 서로 소통하는
00:48
where people are interacting상호 작용하는 with others다른 사람,
15
36637
2637
훨씬 상호적인 장소가 되었습니다.
00:51
they're commenting주석 달기, they're sharing나누는,
16
39274
1696
답글을 남기고, 공유합니다.
00:52
they're not just reading독서.
17
40970
1614
그저 읽기만 하지 않습니다.
00:54
So Facebook페이스 북 is not the only place장소 you can do this,
18
42584
1866
페이스북은 이런 것을 할 수 있는
유일한 곳일 뿐만 아니라
00:56
but it's the biggest가장 큰,
19
44450
1098
가장 큰 곳이기도 합니다.
00:57
and it serves봉사하다 to illustrate설명하다 the numbers번호.
20
45548
1784
숫자가 바로 설명해주죠.
00:59
Facebook페이스 북 has 1.2 billion십억 users사용자 per month.
21
47332
3477
페이스북은 한 달기준으로
12억명이 사용합니다.
01:02
So half절반 the Earth's지구의 Internet인터넷 population인구
22
50809
1930
그러니까 지구상의 인터넷 사용자 중
01:04
is using~을 사용하여 Facebook페이스 북.
23
52739
1653
절반이 페이스북을 쓰고 있어요.
01:06
They are a site대지, along...을 따라서 with others다른 사람,
24
54392
1932
다른 사이트들과 같이
01:08
that has allowed허용 된 people to create몹시 떠들어 대다 an online온라인 persona페르소나
25
56324
3219
별다른 기술이 없어도 온라인 상의 인물을
01:11
with very little technical전문인 skill기술,
26
59543
1782
만들수 있도록 해줍니다.
01:13
and people responded대답했다 by putting퍼팅 huge거대한 amounts금액
27
61325
2476
사람들은 엄청난 양의 개인적인 내용을
01:15
of personal개인적인 data데이터 online온라인.
28
63801
1983
올리는 것으로 그것을 사용하죠.
01:17
So the result결과 is that we have behavioral행동 적,
29
65784
2543
그것으로 인한 결과는 역사에 선례없는
01:20
preference우선권, demographic인구 통계학의 data데이터
30
68327
1986
수 십억 명의 사람들에 관한
01:22
for hundreds수백 of millions수백만 of people,
31
70313
2101
행동패턴, 선호도, 인구적 데이타를
01:24
which어느 is unprecedented새로운 in history역사.
32
72414
2026
얻게 된 것입니다.
01:26
And as a computer컴퓨터 scientist과학자,
what this means방법 is that
33
74440
2560
컴퓨터 과학자로서, 이것의 의미는
01:29
I've been able할 수 있는 to build짓다 models모델
34
77000
1664
여러분들이 공유하고 있는 줄도 모르는 정보들로
01:30
that can predict예측하다 all sorts종류 of hidden숨겨진 attributes속성들
35
78664
2322
그 안에 숨겨진 여러분의 의도를
01:32
for all of you that you don't even know
36
80986
2284
예측해 낼 수 있는 모형을
01:35
you're sharing나누는 information정보 about.
37
83270
2202
만들어 낼 수 있었다는 겁니다.
01:37
As scientists과학자들, we use that to help
38
85472
2382
과학자로서, 우리는 사람들이 온라인상에서
01:39
the way people interact상호 작용하다 online온라인,
39
87854
2114
상호작용하는 방식에 도움을 주는데 씁니다.
01:41
but there's less적게 altruistic이타적인 applications응용 프로그램,
40
89968
2499
그러나 도움이 되는 쪽은 좀 적습니다.
01:44
and there's a problem문제 in that users사용자 don't really
41
92467
2381
사용자들은 이 기술이나 과정이 어떤지
01:46
understand알다 these techniques기법 and how they work,
42
94848
2470
실제로 이해하지 못한다는 게 문제입니다.
01:49
and even if they did, they don't
have a lot of control제어 over it.
43
97318
3128
안다고 해도, 그것을 통제할 수가 없죠.
01:52
So what I want to talk to you about today오늘
44
100446
1490
그래서 오늘 말씀드리려고 하는 것은
01:53
is some of these things that we're able할 수 있는 to do,
45
101936
2702
이에 대해 우리가 할 수 있는 것에 대한 것과
01:56
and then give us some ideas아이디어
of how we might go forward앞으로
46
104638
2763
어떻게 하면 사용자들에게
그 통제권을 돌려 주도록
01:59
to move움직임 some control제어 back into the hands소유 of users사용자.
47
107401
2769
할 수 있는가에 관한 생각들입니다.
02:02
So this is Target목표, the company회사.
48
110170
1586
이건 타겟이라는 회사입니다.
02:03
I didn't just put that logo심벌 마크
49
111756
1324
여기 임신한 여성의 배에 있는 로고는
02:05
on this poor가난한, pregnant충만한 woman's여자의 belly.
50
113080
2170
제가 넣은 게 아닙니다.
02:07
You may할 수있다 have seen this anecdote일화 that was printed인쇄 된
51
115250
1840
이 이야기를 들어 보신 적이 있으실 거에요.
02:09
in Forbes포브스 magazine매거진 where Target목표
52
117090
2061
포브스 잡지에 실린 것인데
02:11
sent보낸 a flyer전단 to this 15-year-old예전의 girl소녀
53
119151
2361
타겟 회사에서 15살짜리 소녀에게
02:13
with advertisements광고 and coupons쿠폰
54
121512
1710
젖병, 기저귀, 요람를 위한 광고와 쿠폰 전단지를
02:15
for baby아가 bottles and diapers기저귀 and cribs관들
55
123222
2554
그녀가 자신의 부모님에게
02:17
two weeks before she told her parents부모님
56
125776
1684
임신했다는 사실을 말하기 2주 전에
02:19
that she was pregnant충만한.
57
127460
1864
보냈다는 겁니다.
02:21
Yeah, the dad아빠 was really upset당황.
58
129324
2704
네, 그래요. 아버지가 무척 화가 나셨죠.
02:24
He said, "How did Target목표 figure그림 out
59
132028
1716
그가, "어떻게 고등학생이 임신했다는 것을
02:25
that this high높은 school학교 girl소녀 was pregnant충만한
60
133744
1824
부모가 알기도 전에
02:27
before she told her parents부모님?"
61
135568
1960
타겟이 먼저 알 수가 있죠?" 라고 말했어요.
02:29
It turns회전 out that they have the purchase매수 history역사
62
137528
2621
알고 보니 그들은 수 십만명의 고객들에 대한
02:32
for hundreds수백 of thousands수천 of customers고객
63
140149
2301
구매이력을 가지고 있었고
02:34
and they compute계산하다 what they
call a pregnancy임신 score점수,
64
142450
2730
그들만의 임신척도라고 하는 것을 계산했어요.
02:37
which어느 is not just whether인지 어떤지 or
not a woman's여자의 pregnant충만한,
65
145180
2332
단지 임신을 했는지 안했는지만 보는게 아니라
02:39
but what her due정당한 date날짜 is.
66
147512
1730
예정일이 언제인지 까지요.
02:41
And they compute계산하다 that
67
149242
1304
그들이 계산 해낸 것이
02:42
not by looking at the obvious분명한 things,
68
150546
1768
아기요람이나 옷을 사는 것과 같은
02:44
like, she's buying구매 a crib어린이 침대 or baby아가 clothes,
69
152314
2512
뻔한 것을 통해서 알아 낸 것이 아니고
02:46
but things like, she bought샀다 more vitamins비타민
70
154826
2943
평소에 샀던 것보다
더 많은 비타민을 산다든지
02:49
than she normally정상적으로 had,
71
157769
1717
02:51
or she bought샀다 a handbag핸드백
72
159486
1464
아니면 기저귀를 넣을 수 있을 만큼
02:52
that's big enough충분히 to hold보류 diapers기저귀.
73
160950
1711
큰 가방을 산다든지 하는 것으로 아는 겁니다.
02:54
And by themselves그들 자신, those purchases구매 don't seem보다
74
162661
1910
그 구매자체만 봐서는
02:56
like they might reveal창틀 a lot,
75
164571
2469
별로 보여주는 게 없습니다.
02:59
but it's a pattern무늬 of behavior행동 that,
76
167040
1978
그것은 행동 패턴으로
03:01
when you take it in the context문맥
of thousands수천 of other people,
77
169018
3117
수 천명의 다른 사람들 속에서 보면
03:04
starts시작하다 to actually사실은 reveal창틀 some insights통찰력.
78
172135
2757
이해할 만한 것이 보입니다.
03:06
So that's the kind종류 of thing that we do
79
174892
1793
그게 우리가 하는 일인데요
03:08
when we're predicting예측하는 stuff물건
about you on social사회적인 media미디어.
80
176685
2567
소셜미디어에서 여러분에 대한 것을 예측하는 겁니다.
03:11
We're looking for little
patterns패턴들 of behavior행동 that,
81
179252
2796
여러분이 수 백만명의 사람들 속에서 무언가 발견하면
03:14
when you detect탐지하다 them among사이에 millions수백만 of people,
82
182048
2682
여러가지 것들을 알 수 있게 해주는
03:16
lets~시키다 us find out all kinds종류 of things.
83
184730
2706
어떤 행동 패턴들을 찾습니다.
03:19
So in my lab and with colleagues동료들,
84
187436
1747
연구실에서 동료들과
03:21
we've우리는 developed개발 된 mechanisms메커니즘 where we can
85
189183
1777
꽤 정확하게 예측할 수 있는
03:22
quite아주 accurately정확히 predict예측하다 things
86
190960
1560
방법을 개발했습니다.
03:24
like your political주재관 preference우선권,
87
192520
1725
여러분의 정치적 성향,
03:26
your personality인격 score점수, gender성별, sexual성적 orientation정위,
88
194245
3752
성격 점수, 성별, 성적 성향,
03:29
religion종교, age나이, intelligence지성,
89
197997
2873
종교, 나이, 지능,
03:32
along...을 따라서 with things like
90
200870
1394
거기에다가
03:34
how much you trust믿음 the people you know
91
202264
1937
사람들을 얼마나 신뢰하고 있고
03:36
and how strong강한 those relationships관계 are.
92
204201
1804
관계가 얼마나 두터운지도요.
03:38
We can do all of this really well.
93
206005
1785
저희는 이런 걸 정말 잘합니다.
03:39
And again, it doesn't come from what you might
94
207790
2197
다시 말씀드리지만,
여러분이 생각하실 만한 뻔한 정보로
03:41
think of as obvious분명한 information정보.
95
209987
2102
이런 것들을 알아내는 게 아닙니다.
03:44
So my favorite특히 잘하는 example is from this study연구
96
212089
2281
올해 미국 국립과학원 회보에 실린
03:46
that was published출판 된 this year
97
214370
1240
이 연구에서
03:47
in the Proceedings소송 절차 of the National내셔널 Academies아카데미.
98
215610
1795
제가 제일 좋아하는 부분입니다.
03:49
If you GoogleGoogle this, you'll find it.
99
217405
1285
구글 검색을 해보시면 나옵니다.
03:50
It's four pages페이지들, easy쉬운 to read독서.
100
218690
1872
읽기 쉬운 4페이지 분량이에요.
03:52
And they looked보았다 at just people's사람들의 Facebook페이스 북 likes좋아하는 사람,
101
220562
3003
여러분들이 좋아하시는 것들에 표시하는
03:55
so just the things you like on Facebook페이스 북,
102
223565
1920
페이스북의 "좋아요"를 보고서
03:57
and used that to predict예측하다 all these attributes속성들,
103
225485
2138
다른 것들과 함께
03:59
along...을 따라서 with some other ones그들.
104
227623
1645
어떤 요인을 예측하는데 쓰는 겁니다.
04:01
And in their그들의 paper종이 they listed열거 된 the five다섯 likes좋아하는 사람
105
229268
2961
보고서에는 5개의 "좋아요" 리스트가 있는데
04:04
that were most가장 indicative지시적 of high높은 intelligence지성.
106
232229
2787
높은 지능을 나타내는 강력한 지표였습니다.
04:07
And among사이에 those was liking기호 a page페이지
107
235016
2324
그 다섯 가지 중 하나가
꼬부랑 감자에 대한 페이지를
"좋아요"하는 것이었어요. (웃음)
04:09
for curly곱슬 곱슬 한 fries감자 튀김. (Laughter웃음)
108
237340
1905
04:11
Curly곱슬 fries감자 튀김 are delicious맛있는,
109
239245
2093
꼬부랑 감자는 맛있지만,
04:13
but liking기호 them does not necessarily필연적으로 mean
110
241338
2530
그것을 좋다고 하는 것이
04:15
that you're smarter똑똑한 than the average평균 person사람.
111
243868
2080
꼭 평균보다 똑똑하다는 것을
의미하진 않습니다.
04:17
So how is it that one of the strongest가장 강한 indicators지시계
112
245948
3207
그럼 어떻게 여러분의 지능에 관한
04:21
of your intelligence지성
113
249155
1570
확실한 지표중 하나가
04:22
is liking기호 this page페이지
114
250725
1447
이 페이지를 좋다고 하는 걸까요?
04:24
when the content함유량 is totally전적으로 irrelevant무의미한
115
252172
2252
이 내용이 지능이라는 요인과는
04:26
to the attribute속성 that's being존재 predicted예언 된?
116
254424
2527
아무런 관련성이 없는데도 말이에요.
04:28
And it turns회전 out that we have to look at
117
256951
1584
왜 그런지 보려면
04:30
a whole완전한 bunch다발 of underlying밑에 있는 theories이론들
118
258535
1618
그 이면에 있는 여러 가지 이론들을
04:32
to see why we're able할 수 있는 to do this.
119
260153
2569
알아 봐야 합니다.
04:34
One of them is a sociological사회학의
theory이론 called전화 한 homophily동성애의,
120
262722
2913
그 중의 하나가 호모필리라고 하는 사회이론입니다.
04:37
which어느 basically원래 says말한다 people are
friends친구 with people like them.
121
265635
3092
비슷한 사람들끼리 친구가 된다는 이론입니다.
04:40
So if you're smart똑똑한, you tend지키다 to
be friends친구 with smart똑똑한 people,
122
268727
2014
똑똑한 사람은 똑똑한 사람끼리
04:42
and if you're young어린, you tend지키다
to be friends친구 with young어린 people,
123
270741
2630
젊은 사람은 젊은 사람끼리
친구가 되는 경향이 있고
04:45
and this is well established설립 된
124
273371
1627
이것은 수 백년 동안
04:46
for hundreds수백 of years연령.
125
274998
1745
그렇게 굳어졌습니다.
04:48
We also또한 know a lot
126
276743
1232
우리는 잘 압니다.
04:49
about how information정보 spreads퍼짐 through...을 통하여 networks네트워크.
127
277975
2550
정보가 어떻게 인맥을 통해 퍼지는지요.
04:52
It turns회전 out things like viral바이러스 성의 videos비디오
128
280525
1754
히트 동영상이나
04:54
or Facebook페이스 북 likes좋아하는 사람 or other information정보
129
282279
2406
페이스북의 "좋아요", 또는 다른 정보들이
04:56
spreads퍼짐 in exactly정확하게 the same같은 way
130
284685
1888
사회적 망을 통해서
04:58
that diseases질병 spread전파 through...을 통하여 social사회적인 networks네트워크.
131
286573
2454
질병이 퍼지는 방법과 똑같다는 것입니다.
05:01
So this is something we've우리는 studied공부 한 for a long time.
132
289027
1791
이것이 저희가 오랫동안 연구한 것입니다.
05:02
We have good models모델 of it.
133
290818
1576
잘 설명해 줄 수 있는 모델이 있죠.
05:04
And so you can put those things together함께
134
292394
2157
그러니까 이 모든 정보들을 모아서
05:06
and start스타트 seeing why things like this happen우연히 있다.
135
294551
3088
왜 이런 일이 생기는지 알 수 있는 것이죠.
05:09
So if I were to give you a hypothesis가설,
136
297639
1814
가능한 가설을 말씀드리자면,
05:11
it would be that a smart똑똑한 guy started시작한 this page페이지,
137
299453
3227
어떤 똑똑한 사람이 이 페이지를 시작했거나
05:14
or maybe one of the first people who liked좋아했다 it
138
302680
1939
"좋아요" 라고 시작한 사람이
05:16
would have scored득점 한 high높은 on that test테스트.
139
304619
1736
지능테스트에서 높은 점수를 받았던 거죠.
05:18
And they liked좋아했다 it, and their그들의 friends친구 saw it,
140
306355
2288
"좋아요" 한 후에 그 친구들이 봤고,
05:20
and by homophily동성애의, we know that
he probably아마 had smart똑똑한 friends친구,
141
308643
3122
호모필리 이론상, 그에겐 똑똑한 친구들이 있을겁니다.
05:23
and so it spread전파 to them,
and some of them liked좋아했다 it,
142
311765
3056
그게 그들에게 퍼진 것이고,
몇몇은 "좋아요"를 눌렀을 거구요.
05:26
and they had smart똑똑한 friends친구,
143
314821
1189
그들에게 있는 똑똑한 친구들에게
05:28
and so it spread전파 to them,
144
316010
807
다시 퍼지는 겁니다.
05:28
and so it propagated전파 된 through...을 통하여 the network회로망
145
316817
1973
그래서 그 관계를 통해 선전이 되는 것이죠.
05:30
to a host숙주 of smart똑똑한 people,
146
318790
2569
똑똑한 사람들 집단에게요.
05:33
so that by the end종료, the action동작
147
321359
2056
그래서 마침내 꼬부랑 감자를
05:35
of liking기호 the curly곱슬 곱슬 한 fries감자 튀김 page페이지
148
323415
2544
"좋아요" 한 행동이
05:37
is indicative지시적 of high높은 intelligence지성,
149
325959
1615
높은 지능의 표시가 되는 겁니다.
05:39
not because of the content함유량,
150
327574
1803
그것이 내용 때문이 아니라
05:41
but because the actual실제의 action동작 of liking기호
151
329377
2522
"좋아요"를 누르는
05:43
reflects반영하다 back the common공유지 attributes속성들
152
331899
1900
행동을 한 사람들의
05:45
of other people who have done끝난 it.
153
333799
2468
공통적인 요인 때문인 것이죠.
05:48
So this is pretty예쁜 complicated복잡한 stuff물건, right?
154
336267
2897
꽤 복잡하게 들리시죠?
05:51
It's a hard단단한 thing to sit앉다 down and explain설명
155
339164
2199
이걸 보통 사람들에게 설명하기가
05:53
to an average평균 user사용자, and even if you do,
156
341363
2848
어렵습니다. 한다고 해도
05:56
what can the average평균 user사용자 do about it?
157
344211
2188
그들이 이걸 갖고 뭘 할까요?
05:58
How do you know that
you've liked좋아했다 something
158
346399
2048
여러분이 어떤 것을 좋다고 하는 것이
06:00
that indicates나타내는 a trait특성 for you
159
348447
1492
좋아하는 내용과는 전혀 관련이 없는
06:01
that's totally전적으로 irrelevant무의미한 to the
content함유량 of what you've liked좋아했다?
160
349939
3545
어떤 특징을 보여주는 것을 어떻게 알겠어요?
06:05
There's a lot of power that users사용자 don't have
161
353484
2546
이런 데이타가 사용되는 방법에 대해
06:08
to control제어 how this data데이터 is used.
162
356030
2230
사용자들은 통제력이 거의 없습니다.
06:10
And I see that as a real레알
problem문제 going forward앞으로.
163
358260
3112
이것이 앞으로 나아가는데 큰 문제라고 봅니다.
06:13
So I think there's a couple paths경로들
164
361372
1977
우리가 살펴봐야 할
06:15
that we want to look at
165
363349
1001
몇 가지 경우가 있다고 생각합니다.
06:16
if we want to give users사용자 some control제어
166
364350
1910
데이타가 사용되는 것에 대한 통제권을
06:18
over how this data데이터 is used,
167
366260
1740
사용자에게 주고 싶은지에 대해서요.
06:20
because it's not always going to be used
168
368000
1940
왜냐하면 이것이 언제나 사용자에게
06:21
for their그들의 benefit이익.
169
369940
1381
좋은 쪽으로만 사용되는 것은 아니니까요.
06:23
An example I often자주 give is that,
170
371321
1422
제가 자주 드는 예가 있는데요,
06:24
if I ever get bored지루한 being존재 a professor교수,
171
372743
1646
제가 만약 교수직을 하는 것이 싫어진다면
06:26
I'm going to go start스타트 a company회사
172
374389
1653
이런 모든 요인들을 예측하는
06:28
that predicts예측하다 all of these attributes속성들
173
376042
1454
회사를 차릴 수 있을 겁니다.
06:29
and things like how well you work in teams
174
377496
1602
여러분이 팀에서 일을 잘 할 지,
06:31
and if you're a drug user사용자, if you're an alcoholic알콜 중독의.
175
379098
2671
마약복용자인지, 알콜 중독자인지 알려주는 회사요.
06:33
We know how to predict예측하다 all that.
176
381769
1440
예측하는 방법을 알고 있거든요.
06:35
And I'm going to sell팔다 reports보고
177
383209
1761
저는 그 보고서를 판매하는 거죠.
06:36
to H.R. companies회사들 and big businesses사업
178
384970
2100
여러분을 고용하려는 대기업이나
06:39
that want to hire고용 you.
179
387070
2273
인력회사에 말이에요.
06:41
We totally전적으로 can do that now.
180
389343
1177
지금 그 일들을 할 수가 있어요.
06:42
I could start스타트 that business사업 tomorrow내일,
181
390520
1788
내일 그 사업을 시작할 수도 있죠.
06:44
and you would have
absolutely전혀 no control제어
182
392308
2052
제가 그런 데이타를 쓰는 것에 대해
06:46
over me using~을 사용하여 your data데이터 like that.
183
394360
2138
여러분은 통제권이 아예 없습니다.
06:48
That seems~ 같다 to me to be a problem문제.
184
396498
2292
그게 저에게는 문제로 느껴집니다.
06:50
So one of the paths경로들 we can go down
185
398790
1910
우리가 택할 수 있는 방법 중 하나는
06:52
is the policy정책 and law path통로.
186
400700
2032
정책과 법률입니다.
06:54
And in some respects인사, I think
that that would be most가장 effective유효한,
187
402732
3046
어떤 면에서, 제 생각엔 가장 효과적일 것 같습니다.
06:57
but the problem문제 is we'd우리는
actually사실은 have to do it.
188
405778
2756
문제는 실제로 그렇게 해야 한다는 겁니다.
07:00
Observing관찰 our political주재관 process방법 in action동작
189
408534
2780
정치적인 과정이 돌아가는 것을 보면
07:03
makes~을 만든다 me think it's highly고도로 unlikely있을 것 같지 않게
190
411314
2379
그렇게 될 것 같지가 않습니다.
07:05
that we're going to get a bunch다발 of representatives대리인
191
413693
1597
수 많은 의원님들을 데리고
07:07
to sit앉다 down, learn배우다 about this,
192
415290
1986
앉혀 놓고, 상황을 알려 준 다음에
07:09
and then enact제정하다 sweeping청소 changes변화들
193
417276
2106
미국의 지적재산권법에
07:11
to intellectual지적인 property재산 law in the U.S.
194
419382
2157
엄청난 변화를 줄 법을 제정해서
07:13
so users사용자 control제어 their그들의 data데이터.
195
421539
2461
사용자들이 데이타를 통제하게 하는 것이죠.
07:16
We could go the policy정책 route노선,
196
424000
1304
소셜미디어 회사들이 말하는
07:17
where social사회적인 media미디어 companies회사들 say,
197
425304
1479
정책적인 방법을 선택할 수 도 있어요.
07:18
you know what? You own개인적인 your data데이터.
198
426783
1402
아세요? 데이타는 여러분 것입니다.
07:20
You have total합계 control제어 over how it's used.
199
428185
2489
데이타 사용에 대한 통제권이 여러분에게 있어요.
07:22
The problem문제 is that the revenue수익 models모델
200
430674
1848
문제는 대부분의 소셜미디어 기업들이
07:24
for most가장 social사회적인 media미디어 companies회사들
201
432522
1724
어떤 방식으로든 사용자들의 데이타를
07:26
rely의지하다 on sharing나누는 or exploiting착취
users'사용자 ' data데이터 in some way.
202
434246
4031
공유하고 이용하는 것으로 매출을 얻고 있다는 것입니다.
07:30
It's sometimes때때로 said of Facebook페이스 북 that the users사용자
203
438277
1833
페이스북에는 사용자가 있는게 아니라
07:32
aren't있지 않다. the customer고객, they're the product생성물.
204
440110
2528
상품들이 있는 거라고 얘기하기도 합니다.
07:34
And so how do you get a company회사
205
442638
2714
어떻게 해야 회사들이
07:37
to cede양을 치다 control제어 of their그들의 main본관 asset유산
206
445352
2558
주요 자산의 통제권을
07:39
back to the users사용자?
207
447910
1249
사용자들에게 돌려 줄까요?
07:41
It's possible가능한, but I don't think it's something
208
449159
1701
가능한 일이지만, 제 생각엔
07:42
that we're going to see change변화 quickly빨리.
209
450860
2320
당장 벌어지진 않을 겁니다.
07:45
So I think the other path통로
210
453180
1500
그래서 다른 방법으로
07:46
that we can go down that's
going to be more effective유효한
211
454680
2288
훨씬 효과적으로 대응할 수 있는 것이
07:48
is one of more science과학.
212
456968
1508
과학적인 방법을 쓰는 겁니다.
07:50
It's doing science과학 that allowed허용 된 us to develop나타나게 하다
213
458476
2510
애초에 개인적인 데이타를
07:52
all these mechanisms메커니즘 for computing컴퓨팅
214
460986
1750
계산해내는 메카니즘을
07:54
this personal개인적인 data데이터 in the first place장소.
215
462736
2052
만들어 내는 것이 과학입니다.
07:56
And it's actually사실은 very similar비슷한 research연구
216
464788
2106
사실 이건 우리가 해야 하는 연구와
07:58
that we'd우리는 have to do
217
466894
1438
아주 비슷합니다.
08:00
if we want to develop나타나게 하다 mechanisms메커니즘
218
468332
2386
사용자에게 이런 경고를 해주는
08:02
that can say to a user사용자,
219
470718
1421
프로그램을 만들려면요.
08:04
"Here's여기에 the risk위험 of that action동작 you just took~했다."
220
472139
2229
"방금 하신 일에는 위험이 따릅니다."
08:06
By liking기호 that Facebook페이스 북 page페이지,
221
474368
2080
페이스북의 "좋아요"를 누르시고
08:08
or by sharing나누는 this piece조각 of personal개인적인 information정보,
222
476448
2535
개인 정보를 공유하심으로써
08:10
you've now improved개선 된 my ability능력
223
478983
1502
제가 예측하는 능력을 키워 주시는 거에요.
08:12
to predict예측하다 whether인지 어떤지 or not you're using~을 사용하여 drugs약제
224
480485
2086
여러분이 마약을 하시는지
08:14
or whether인지 어떤지 or not you get
along...을 따라서 well in the workplace직장.
225
482571
2862
회사에서 잘 지내시는지요.
08:17
And that, I think, can affect감정 whether인지 어떤지 or not
226
485433
1848
제 생각엔, 그게 영향을 줄 수 있습니다.
08:19
people want to share something,
227
487281
1510
어떤 것을 공유할 지
08:20
keep it private은밀한, or just keep it offline오프라인 altogether전부.
228
488791
3239
비밀로 할지, 아예 오프라인으로만 갖고 있을지요.
08:24
We can also또한 look at things like
229
492030
1563
이런 것도 생각 해 볼 수 있습니다.
08:25
allowing허락하는 people to encrypt암호화하다 data데이터 that they upload업로드,
230
493593
2728
업로드하는 데이타를 암호화해서
08:28
so it's kind종류 of invisible보이지 않는 and worthless가치 없는
231
496321
1855
페이스북 같은 사이트나
08:30
to sites사이트 like Facebook페이스 북
232
498176
1431
제3자가 아예 추적도 못하고
08:31
or third제삼 party파티 services서비스 that access접속하다 it,
233
499607
2629
쓸 수도 없게 말입니다.
08:34
but that select고르다 users사용자 who the person사람 who posted게시 됨 it
234
502236
3247
하지만 업로드한 사용자가 지정한 사람만
08:37
want to see it have access접속하다 to see it.
235
505483
2670
그것을 보게 해 주는 것이죠.
08:40
This is all super감독자 exciting흥미 진진한 research연구
236
508153
2166
지적인 관점에서 보면
이것은 대단히 설레는 연구입니다.
08:42
from an intellectual지적인 perspective원근법,
237
510319
1620
08:43
and so scientists과학자들 are going to be willing자발적인 to do it.
238
511939
1859
과학자들은 기꺼이 하려고 합니다.
08:45
So that gives주는 us an advantage이점 over the law side측면.
239
513798
3610
그래서 법률적인 측면에서
우리에게 유리하도록 말입니다.
08:49
One of the problems문제들 that people bring가져오다 up
240
517408
1725
제가 이런 말을 할때
08:51
when I talk about this is, they say,
241
519133
1595
사람들이 제기하는 문제가 있는데요,
08:52
you know, if people start스타트
keeping유지 all this data데이터 private은밀한,
242
520728
2646
"모두가 데이타를 비밀로 한다면
08:55
all those methods행동 양식 that you've been developing개발 중
243
523374
2113
당신이 예측하려고 개발하는 방법들이
08:57
to predict예측하다 their그들의 traits형질 are going to fail실패.
244
525487
2653
다 실패할 겁니다." 라고 말이에요.
09:00
And I say, absolutely전혀, and for me, that's success성공,
245
528140
3520
그럼 저는, "맞아요, 그럼 성공한 거에요" 라고요.
09:03
because as a scientist과학자,
246
531660
1786
저는 과학자로서
09:05
my goal is not to infer미루다 information정보 about users사용자,
247
533446
3688
사용자들에 대한 정보를 추측하는게 아니라
09:09
it's to improve돌리다 the way people interact상호 작용하다 online온라인.
248
537134
2767
온라인에서 더 좋은 방법으로
교류하도록 하는게 목표이니까요.
09:11
And sometimes때때로 that involves관련
inferring유추하다 things about them,
249
539901
3218
어떤 때는 그들에 대한 정보를 추측하는 일이 생깁니다.
09:15
but if users사용자 don't want me to use that data데이터,
250
543119
3022
하지만 사용자가 원치 않으면,
09:18
I think they should have the right to do that.
251
546141
2038
제 생각엔 그들에게 그럴 권리가 있습니다.
09:20
I want users사용자 to be informed정보를 얻은 and consenting동의하다
252
548179
2651
우리가 개발한 방법들을
09:22
users사용자 of the tools도구들 that we develop나타나게 하다.
253
550830
2112
사용자들에게 알려주고 동의를 받고 싶습니다.
09:24
And so I think encouraging격려의 this kind종류 of science과학
254
552942
2952
이러한 과학을 장려하고
09:27
and supporting지원 researchers연구원
255
555894
1346
사용자들에게
09:29
who want to cede양을 치다 some of that control제어 back to users사용자
256
557240
3023
통제권을 돌려주고 소셜미디어 회사들로부터
09:32
and away from the social사회적인 media미디어 companies회사들
257
560263
2311
멀어지도록 하는 연구자들을 지원하는 것이
09:34
means방법 that going forward앞으로, as these tools도구들 evolve진화하다
258
562574
2671
이 개발도구들이 변화하고 발전하면서
09:37
and advance전진,
259
565245
1476
앞으로 나아가는 것입니다.
09:38
means방법 that we're going to have an educated교육받은
260
566721
1414
또한 지식이 있고
09:40
and empowered권한을 부여받은 user사용자 base베이스,
261
568135
1694
권리가 있는 사용자들이 생긴다는 것이죠.
09:41
and I think all of us can agree동의하다
262
569829
1100
저는 앞으로 나아가기 위해
09:42
that that's a pretty예쁜 ideal이상 way to go forward앞으로.
263
570929
2564
모두가 동의할 만한 것이라고 생각합니다.
09:45
Thank you.
264
573493
2184
감사합니다.
09:47
(Applause박수 갈채)
265
575677
3080
(박수)
Translated by Jihyeon J. Kim
Reviewed by Catherine YOO

▲Back to top

ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com