ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com
TEDGlobal 2013

Alessandro Acquisti: What will a future without secrets look like?

알레산드로 어퀴스티 (Alessandro Acquisti): 사생활은 왜 중요한가

Filmed:
1,423,103 views

지난 10년 간 온라인과 현실 상에서 공공생활과 사생활의 선은 희미해졌고, 알레산드로 어퀴스티는 이 현상의 의미와 중요성을 설명하기 위해 나왔습니다. 생각을 유발하며 약간은 으시시한 이 강연에서 그는 낯선 사람의 사진과 그 사람의 민감한 개인정보를 연결시키는 것이 얼마나 쉬운지를 보여주는 프로젝트를 포함한 최근 진행 중인 연구의 내용을 공유합니다.
- Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks. Full bio

Double-click the English transcript below to play the video.

00:12
I would like to tell you a story이야기
0
641
2354
저는 아담과 이브와 관련된
00:14
connecting연결 the notorious유명한 privacy은둔 incident사건
1
2995
3176
악명 높은
00:18
involving관련 Adam아담 and Eve이브,
2
6171
2769
사생활 사건과 관련된 이야기와
00:20
and the remarkable주목할 만한 shift시프트 in the boundaries경계
3
8940
3446
지난 10년 간 사생활과
00:24
between중에서 public공공의 and private은밀한 which어느 has occurred발생한
4
12386
2686
공개된 생활의 경계가
얼마나 놀랍게 바뀌었는지
00:27
in the past과거 10 years연령.
5
15072
1770
말씀드리겠습니다.
00:28
You know the incident사건.
6
16842
1298
여러분도 아는 일입니다.
00:30
Adam아담 and Eve이브 one day in the Garden정원 of Eden에덴 동산
7
18140
3330
어느 날 아담과 이브는 에덴 동산에서
00:33
realize깨닫다 they are naked적나라한.
8
21470
1843
그들이 알몸이라는 것을
인지합니다.
00:35
They freak변덕 out.
9
23313
1500
매우 놀라죠.
00:36
And the rest휴식 is history역사.
10
24813
2757
나머지는 성경에
나오는 그대로입니다.
00:39
Nowadays현대, Adam아담 and Eve이브
11
27570
2188
만약 지금이었다면 아담과 이브는
00:41
would probably아마 act행위 differently다르게.
12
29758
2361
아마 다르게 행동했을 겁니다.
00:44
[@Adam아담 Last nite귀염둥이 was a blast쏘다! loved사랑하는 datdat apple사과 LOLLOL]
13
32119
2268
[@아담 어제 밤은 폭발적이었어!
그 사과 최고야. LOL]
00:46
[@Eve이브 yep.. babe아기, know what happened일어난 to my pants바지 tho그래도?]
14
34387
1873
[@이브 응... 자기, 근데
내 바지 어디간 거야?]
00:48
We do reveal창틀 so much more information정보
15
36260
2636
우리는 스스로에 관해서
전례가 없을 만큼
00:50
about ourselves우리 스스로 online온라인 than ever before,
16
38896
3334
훨씬 많은 정보를 온라인에 공개하고
00:54
and so much information정보 about us
17
42230
1704
우리에 관한 많은 정보를
00:55
is being존재 collected모은 by organizations조직.
18
43934
2224
여러 기관들이 수집하고 있습니다.
00:58
Now there is much to gain이득 and benefit이익
19
46158
3282
이제 대량의 개인 정보 분석자료와
01:01
from this massive거대한 analysis분석 of personal개인적인 information정보,
20
49440
2446
빅데이터를 통해
01:03
or big data데이터,
21
51886
1946
얻을 수 있는 이득은 매우 많습니다
01:05
but there are also또한 complex복잡한 tradeoffs상충 관계 that come
22
53832
2638
하지만 우리의 개인정보를 넘김으로써
01:08
from giving주는 away our privacy은둔.
23
56470
3098
발생하는 복잡한 댓가가 있습니다.
01:11
And my story이야기 is about these tradeoffs상충 관계.
24
59568
4023
그리고 제 이야기는
그 댓가에 관한 것입니다.
01:15
We start스타트 with an observation관측 which어느, in my mind마음,
25
63591
2584
지난 수년간 제 머리속에서
01:18
has become지다 clearer더 명확한 and clearer더 명확한 in the past과거 few조금 years연령,
26
66175
3327
더 명확해진 관찰로 시작하겠습니다
01:21
that any personal개인적인 information정보
27
69502
2097
어떤 개인 정보도
01:23
can become지다 sensitive민감한 information정보.
28
71599
2285
민감한 정보가 될 수 있습니다
01:25
Back in the year 2000, about 100 billion십억 photos사진들
29
73884
4125
2000년에 전세계에서
01:30
were shot worldwide세계적인,
30
78009
1912
천억명의 사람들이 사진을 찍혔고
01:31
but only a minuscule소문자 proportion비율 of them
31
79921
3065
하지만 그 중 아주 작은 비율만
01:34
were actually사실은 uploaded업로드 된 online온라인.
32
82986
1883
실제로 온라인에 실렸습니다.
01:36
In 2010, only on Facebook페이스 북, in a single단일 month,
33
84869
3361
2010년엔 단 한 달간 페이스북에서만
01:40
2.5 billion십억 photos사진들 were uploaded업로드 된,
34
88230
3270
25억 장의 사진이 올려졌고
01:43
most가장 of them identified확인 된.
35
91500
1882
대부분이 신원 확인되었죠.
01:45
In the same같은 span스팬 of time,
36
93382
1880
같은 기간동안
01:47
computers'컴퓨터 ' ability능력 to recognize인정하다 people in photos사진들
37
95262
4870
사진 속의 사람을 인식할 수 있는
01:52
improved개선 된 by three orders명령 of magnitude크기.
38
100132
3608
컴퓨터의 능력은
천배 가량 증가했습니다.
01:55
What happens일이 when you combine콤바인
39
103740
1882
그 기술들을 모두 합치면
01:57
these technologies기술 together함께:
40
105622
1501
어떤 일이 일어날까요.
01:59
increasing증가하는 availability유효성 of facial얼굴 마사지 data데이터;
41
107123
2658
안면 정보 이용율의 증가,
02:01
improving개선 facial얼굴 마사지 recognizing인식하는 ability능력 by computers컴퓨터들;
42
109781
3648
컴퓨터의 안면 인식 능력 개선,
02:05
but also또한 cloud구름 computing컴퓨팅,
43
113429
2182
또한 클라우드 컴퓨팅을
가능하게 합니다
02:07
which어느 gives주는 anyone누군가 in this theater극장
44
115611
1888
그래서 이 극장에 계신 어떤 분이라도
02:09
the kind종류 of computational전산의 power
45
117499
1560
몇년 전에는 세글자를 가진 조직만이
02:11
which어느 a few조금 years연령 ago...전에 was only the domain도메인
46
119059
1886
할 수 있었던
02:12
of three-letter3 글자 agencies에이전시;
47
120945
1782
계산 능력을 가질 수 있습니다.
02:14
and ubiquitous어디에나 있는 computing컴퓨팅,
48
122727
1378
그리고 유비쿼터스 컴퓨팅은
02:16
which어느 allows허락하다 my phone전화, which어느 is not a supercomputer수퍼 컴퓨터,
49
124105
2892
슈퍼컴퓨터가 아닌 제 휴대전화를
02:18
to connect잇다 to the Internet인터넷
50
126997
1671
인터넷에 연결해서
02:20
and do there hundreds수백 of thousands수천
51
128668
2334
몇 초 만에 수백, 수천장의
02:23
of face얼굴 metrics측정 항목 in a few조금 seconds?
52
131002
2639
안면인식을 가능하도록 합니다.
02:25
Well, we conjecture어림짐작 that the result결과
53
133641
2628
우리는 이 기술 조합의 결과가
02:28
of this combination콤비네이션 of technologies기술
54
136269
2064
사생활과 익명성에 관한
02:30
will be a radical근본적인 change변화 in our very notions개념
55
138333
2888
개념에 급속한 변화를
02:33
of privacy은둔 and anonymity익명.
56
141221
2257
가져오리라 추측합니다.
02:35
To test테스트 that, we did an experiment실험
57
143478
1993
그것을 시험하기 위해
02:37
on Carnegie카네기 Mellon멜론 University대학 campus교정.
58
145471
2121
카네기 멜론 대학교에서
실험을 진행했습니다.
02:39
We asked물었다 students재학생 who were walking보행 by
59
147592
2099
우리는 걸어 지나가는 학생들에게
02:41
to participate어느 정도 가지다 in a study연구,
60
149691
1779
연구에 참여할 수 있냐고 묻고
02:43
and we took~했다 a shot with a webcam웹캠,
61
151470
2562
웹캠으로 사진을 찍고
02:46
and we asked물었다 them to fill가득 따르다 out a survey측량 on a laptop휴대용 퍼스널 컴퓨터.
62
154032
2782
노트북의 설문조사에
응해달라고 했습니다.
02:48
While they were filling충전재 out the survey측량,
63
156814
1979
그들이 설문에 답하는 동안
02:50
we uploaded업로드 된 their그들의 shot to a cloud-computing클라우드 컴퓨팅 cluster클러스터,
64
158793
2797
우린 그들의 사진을
클라우드 컴퓨팅군에 올렸고
02:53
and we started시작한 using~을 사용하여 a facial얼굴 마사지 recognizer인식기
65
161590
1727
안면 인식기를 이용해서 그 사진과
02:55
to match시합 that shot to a database데이터 베이스
66
163317
2405
우리가 페이스북 프로필에서 내려받은
02:57
of some hundreds수백 of thousands수천 of images이미지들
67
165722
2393
수많은 사진들이 있는 데이터베이스를
03:00
which어느 we had downloaded다운로드 된 from Facebook페이스 북 profiles프로필.
68
168115
3596
맞춰보기 시작했습니다.
03:03
By the time the subject제목 reached도달 한 the last page페이지
69
171711
3259
참가자가 설문지의
마지막장에 도달했을 때
03:06
on the survey측량, the page페이지 had been dynamically역동적 인 updated업데이트 된
70
174970
3347
실시간으로 업데이트 되는 그 페이지는
03:10
with the 10 best베스트 matching어울리는 photos사진들
71
178317
2313
안면 인식프로그램이 찾은
03:12
which어느 the recognizer인식기 had found녹이다,
72
180630
2285
가장 비슷한 사진을 10장 표시했고
03:14
and we asked물었다 the subjects과목들 to indicate가리키다
73
182915
1738
우리는 참가자들에게
03:16
whether인지 어떤지 he or she found녹이다 themselves그들 자신 in the photo사진.
74
184653
4120
자신들의 사진이 있는지
표기하도록 했습니다.
03:20
Do you see the subject제목?
75
188773
3699
설문 참가자가 보이시나요?
03:24
Well, the computer컴퓨터 did, and in fact did so
76
192472
2845
컴퓨터는 보았습니다.
03:27
for one out of three subjects과목들.
77
195317
2149
사실 3명 중 1명을 찾아냈습니다.
03:29
So essentially본질적으로, we can start스타트 from an anonymous익명의 face얼굴,
78
197466
3184
기본적으로 우리는
오프라인 또는 온라인에 있는
03:32
offline오프라인 or online온라인, and we can use facial얼굴 마사지 recognition인식
79
200650
3484
익명의 얼굴로 시작해서
안면 인식 기술을 통해
03:36
to give a name이름 to that anonymous익명의 face얼굴
80
204134
2360
그 익명의 얼굴에
이름을 찾을 수 있습니다.
03:38
thanks감사 to social사회적인 media미디어 data데이터.
81
206494
2108
소셜 미디어 데이터 덕분이지요.
03:40
But a few조금 years연령 back, we did something else그밖에.
82
208602
1872
하지만 몇년 전
우린 다른 일을 했습니다.
03:42
We started시작한 from social사회적인 media미디어 data데이터,
83
210474
1823
우리는 소셜 미디어 데이터를
03:44
we combined결합 된 it statistically통계적으로 with data데이터
84
212297
3051
미국 정부의 사회 보장 정보와
03:47
from U.S. government정부 social사회적인 security보안,
85
215348
2102
통계적으로 합쳐
03:49
and we ended끝난 up predicting예측하는 social사회적인 security보안 numbers번호,
86
217450
3324
사회 보장 번호를
예상하기에 이르렀습니다
03:52
which어느 in the United유나이티드 States
87
220774
1512
미국내에서는
03:54
are extremely매우 sensitive민감한 information정보.
88
222286
2040
매우 민감한 정보입니다.
03:56
Do you see where I'm going with this?
89
224326
2093
제가 무슨 말을 하는지 아시겠습니까?
03:58
So if you combine콤바인 the two studies연구 together함께,
90
226419
2922
만약 여러분이 두 연구를 합친다면
04:01
then the question문제 becomes된다,
91
229341
1512
의문을 가지게 될 것 입니다.
04:02
can you start스타트 from a face얼굴 and,
92
230853
2720
얼굴로 시작해서
04:05
using~을 사용하여 facial얼굴 마사지 recognition인식, find a name이름
93
233573
2311
안면 인식 기술을 이용해서
이름을 알아내고
04:07
and publicly공개적으로 available유효한 information정보
94
235884
2669
그 이름과 그 사람에 대해
04:10
about that name이름 and that person사람,
95
238553
1932
공개된 정보를 얻고
04:12
and from that publicly공개적으로 available유효한 information정보
96
240485
2248
그렇게 공개된 정보로부터
04:14
infer미루다 non-publicly비공개로 available유효한 information정보,
97
242733
2042
훨씬 더 민감한
04:16
much more sensitive민감한 ones그들
98
244775
1606
비공개 정보를 추론해서
04:18
which어느 you link링크 back to the face얼굴?
99
246381
1492
그 얼굴에 연결할 수 있을까?
04:19
And the answer대답 is, yes, we can, and we did.
100
247873
1916
답은 예이고 우리는 해냈습니다.
04:21
Of course코스, the accuracy정확성 keeps유지하다 getting점점 worse보다 나쁜.
101
249789
2568
물론 정확도는 계속 안 좋아지죠.
04:24
[27% of subjects'과목 ' first 5 SSNSSN digits자릿수 identified확인 된 (with 4 attempts시도)]
102
252357
944
[네 번의 시도로 대상의 27%의
사회 보장 번호 첫 다섯 자리가 확인]
04:25
But in fact, we even decided결정적인 to develop나타나게 하다 an iPhoneiPhone app
103
253301
3827
하지만 우리는 사실 아이폰 앱을
개발하기로 결정했습니다.
04:29
which어느 uses용도 the phone's전화 internal내부의 camera카메라
104
257128
2715
이앱은 전화기의 내부 카메라를 사용하여
04:31
to take a shot of a subject제목
105
259843
1600
대상의 사진을 찍어
04:33
and then upload업로드 it to a cloud구름
106
261443
1487
클라우드에 올려서
04:34
and then do what I just described기술 된 to you in real레알 time:
107
262930
2662
제가 방금 설명드린 작업을
실시간으로 진행합니다.
04:37
looking for a match시합, finding발견 public공공의 information정보,
108
265592
2088
일치하는 것을 찾고
공개된 정보를 찾으며
04:39
trying견딜 수 없는 to infer미루다 sensitive민감한 information정보,
109
267680
1730
민감한 정보를 추론하여
04:41
and then sending배상 back to the phone전화
110
269410
2591
그리고 전화기의 사진위에
04:44
so that it is overlaid겹쳐진 on the face얼굴 of the subject제목,
111
272001
3609
찾은 정보를 덧씌워 표기됩니다.
04:47
an example of augmented증강 된 reality현실,
112
275610
1901
증강 현실의 예처럼요.
04:49
probably아마 a creepy소름 끼치는 example of augmented증강 된 reality현실.
113
277511
2451
아마 소름끼치는
증강 현실의 예일 것입니다.
04:51
In fact, we didn't develop나타나게 하다 the app to make it available유효한,
114
279962
3339
사실 우리는 그 앱을
사용하기 위해서가 아니라
04:55
just as a proof증명 of concept개념.
115
283301
1922
단지 개념을 증명해
보이기 위해서 만들었죠.
04:57
In fact, take these technologies기술
116
285223
2313
실제로 이 기술을 이용해서
04:59
and push푸시 them to their그들의 logical논리적 인 extreme극단.
117
287536
1837
극한의 논리를 적용해보세요.
05:01
Imagine상상해 보라. a future미래 in which어느 strangers낯선 사람 around you
118
289373
2719
미래에 여러분 주위에서 낯선 사람들이
05:04
will look at you through...을 통하여 their그들의 GoogleGoogle Glasses안경
119
292092
2311
구글 글래스나 콘텍츠 렌즈로
05:06
or, one day, their그들의 contact접촉 lenses렌즈들,
120
294403
2307
여러분을 쳐다본다고 상상해 보세요.
05:08
and use seven일곱 or eight여덟 data데이터 points전철기 about you
121
296710
4020
여러분에 대한
일곱 여덟 가지 데이터를 사용해
05:12
to infer미루다 anything else그밖에
122
300730
2582
여러분에 대해 알려진
05:15
which어느 may할 수있다 be known알려진 about you.
123
303312
2603
어떠한 정보든지 추론합니다.
05:17
What will this future미래 without없이 secrets기미 look like?
124
305915
4794
비밀이 없는 미래는 어떤 모습일까요?
05:22
And should we care케어?
125
310709
1964
그리고 우리가 그걸 신경써야 할까요?
05:24
We may할 수있다 like to believe
126
312673
1891
우리는 풍부한 데이터가
존재하는 그 미래가
05:26
that the future미래 with so much wealth of data데이터
127
314564
3040
편견이 사라진 미래라고
05:29
would be a future미래 with no more biases편향,
128
317604
2514
믿고 싶어할 수도 있지만
05:32
but in fact, having so much information정보
129
320118
3583
사실 많은 정보를 갖는다는 것이
05:35
doesn't mean that we will make decisions결정들
130
323701
2191
우리가 보다 객관적인 결정을
05:37
which어느 are more objective목표.
131
325892
1706
내린다는 뜻은 아닙니다.
05:39
In another다른 experiment실험, we presented제시된 to our subjects과목들
132
327598
2560
또 다른 실험에서 우린 피실험자들에게
05:42
information정보 about a potential가능성 job candidate후보자.
133
330158
2246
잠재적 입사지원자들에
대한 정보를 제공하였습니다
05:44
We included포함 된 in this information정보 some references참고 문헌
134
332404
3178
우린 그 정보 속에
05:47
to some funny이상한, absolutely전혀 legal적법한,
135
335582
2646
피실험자들이 인터넷에 올렸던
05:50
but perhaps혹시 slightly약간 embarrassing창피한 information정보
136
338228
2465
조금 웃기고 아주 합법적이지만
05:52
that the subject제목 had posted게시 됨 online온라인.
137
340693
2020
아마 조금은 창피할 수 있는 내용을
포함했습니다.
05:54
Now interestingly재미있게, among사이에 our subjects과목들,
138
342713
2366
자 흥미롭게도, 피실험자들 중에서
05:57
some had posted게시 됨 comparable유사한 information정보,
139
345079
3083
어떤 이들은 비슷한 정보를 올렸고
06:00
and some had not.
140
348162
2362
다른 이들은 그러지 않았습니다.
06:02
Which어느 group그룹 do you think
141
350524
1949
여러분 생각엔 어떤 그룹이
06:04
was more likely아마도 to judge판사 harshly거치게 our subject제목?
142
352473
4552
입사지원자들을 더욱 냉정하게
평가했을까요?
06:09
Paradoxically역설적으로, it was the group그룹
143
357025
1957
역설적으로 그 그룹은
06:10
who had posted게시 됨 similar비슷한 information정보,
144
358982
1733
비슷한 정보를 올렸던 그룹이었습니다.
06:12
an example of moral사기 dissonance불협화음.
145
360715
2942
도덕적 부조화의 한 예입니다.
06:15
Now you may할 수있다 be thinking생각,
146
363657
1750
여러분은 아마 숨길게 없기 때문에
06:17
this does not apply대다 to me,
147
365407
1702
이건 나와는 상관없는 일이야
06:19
because I have nothing to hide숨는 장소.
148
367109
2162
라고 생각하실지 모릅니다.
06:21
But in fact, privacy은둔 is not about
149
369271
2482
하지만 사실, 사생활은 감춰야 할
06:23
having something negative부정 to hide숨는 장소.
150
371753
3676
부정적인 것에 관한 것이 아닙니다.
06:27
Imagine상상해 보라. that you are the H.R. director감독
151
375429
2354
여러분이 어느 단체의
인사 담당자라고 가정해보세요.
06:29
of a certain어떤 organization조직, and you receive받다sum합집합és,
152
377783
2947
여러분은 이력서를 받고
06:32
and you decide결정하다 to find more information정보 about the candidates후보자.
153
380730
2473
지원자에 대한 더 많은 정보를
찾기로 결정합니다
06:35
Therefore따라서, you GoogleGoogle their그들의 names이름
154
383203
2460
그래서 여러분은 그 이름들을
구글에 검색하고
06:37
and in a certain어떤 universe우주,
155
385663
2240
어느 한 곳에서
06:39
you find this information정보.
156
387903
2008
그 정보를 찾습니다.
06:41
Or in a parallel평행 universe우주, you find this information정보.
157
389911
4437
혹은 평행 세계에서
이런 정보를 찾습니다.
06:46
Do you think that you would be equally같이 likely아마도
158
394348
2717
여러분은 두 지원자 모두 동등하게
06:49
to call either어느 한 쪽 candidate후보자 for an interview회견?
159
397065
2803
면접에 부를 것이라 생각하세요?
06:51
If you think so, then you are not
160
399868
2282
만약 그렇다면
06:54
like the U.S. employers고용주 who are, in fact,
161
402150
2582
여러분은 우리 실험에 참가했던
06:56
part부품 of our experiment실험, meaning의미 we did exactly정확하게 that.
162
404732
3307
미국의 고용자와 다른 겁니다.
우린 그렇게 했어요.
07:00
We created만들어진 Facebook페이스 북 profiles프로필, manipulating조작하는 traits형질,
163
408039
3182
우린 조작된 페이스북 프로필을 만들고
07:03
then we started시작한 sending배상 out résum합집합és to companies회사들 in the U.S.,
164
411221
2851
미국 회사에 이력서를 보냈습니다.
07:06
and we detected탐지 된, we monitored감시하다,
165
414072
1908
그리고 그 회사에서
07:07
whether인지 어떤지 they were searching수색 for our candidates후보자,
166
415980
2393
우리의 지원자를 찾는지
감시하였습니다.
07:10
and whether인지 어떤지 they were acting연기 on the information정보
167
418373
1832
또한 그들이 소셜 미디어에서
찾은 정보에 따라
07:12
they found녹이다 on social사회적인 media미디어. And they were.
168
420205
1938
행동하는지 지켜보았어요.
그들은 그렇게 했습니다.
07:14
Discrimination차별 was happening사고 through...을 통하여 social사회적인 media미디어
169
422143
2101
소셜 미디어로 인해
동등한 기술을 지닌
07:16
for equally같이 skilled숙련 된 candidates후보자.
170
424244
3073
지원자들을 두고
차별이 생겼습니다.
07:19
Now marketers마케터 like us to believe
171
427317
4575
마케팅 담당자들은
07:23
that all information정보 about us will always
172
431892
2269
우리에 대한 정보는 항상 우리에게
07:26
be used in a manner방법 which어느 is in our favor호의.
173
434161
3273
좋은 쪽으로 사용될거라고
믿게 합니다.
07:29
But think again. Why should that be always the case케이스?
174
437434
3715
하지만 다시 생각해보세요.
왜 항상 그래야 할까요?
07:33
In a movie영화 which어느 came왔다 out a few조금 years연령 ago...전에,
175
441149
2664
몇년 전에 개봉한 영화,
07:35
"Minority소수 Report보고서," a famous유명한 scene장면
176
443813
2553
"마이너리티 리포트"에는
07:38
had Tom남자 이름 Cruise크루즈 walk산책 in a mall쇼핑 센터
177
446366
2576
톰 크루즈가 백화점을 걸을 때
홀로그래픽 개인 맞춤 광고가
07:40
and holographic홀로 그래픽 personalized개인화 된 advertising광고하는
178
448942
3776
그의 주위에 나타나는
07:44
would appear나타나다 around him.
179
452718
1835
유명한 장면이 있습니다.
07:46
Now, that movie영화 is set세트 in 2054,
180
454553
3227
그 영화의 배경은 2054년입니다.
07:49
about 40 years연령 from now,
181
457780
1642
지금으로부터 40년 후죠.
07:51
and as exciting흥미 진진한 as that technology과학 기술 looks외모,
182
459422
2908
그 기술이 아주 멋지게 보이듯
07:54
it already이미 vastly크게 underestimates과소 평가하다
183
462330
2646
단체들이 모을 수 있는
여러분에 대한 정보의 양과
07:56
the amount of information정보 that organizations조직
184
464976
2140
또 그 정보를 이용해
여러분이 알아챌 수 없도록
07:59
can gather모으다 about you, and how they can use it
185
467116
2483
여러분에게 영향을
줄 수 있다는 사실은
08:01
to influence영향 you in a way that you will not even detect탐지하다.
186
469599
3398
매우 과소평가돼있습니다.
08:04
So as an example, this is another다른 experiment실험
187
472997
2103
예로, 이 실험은
현재 우리가 진행 중인
08:07
actually사실은 we are running달리는, not yet아직 completed완료된.
188
475100
2273
또다른 실험이고
아직 끝나지 않았습니다.
08:09
Imagine상상해 보라. that an organization조직 has access접속하다
189
477373
2319
어느 단체가 당신의
페이스북 친구 목록에
08:11
to your list명부 of Facebook페이스 북 friends친구,
190
479692
2056
접근할 수 있다고 상상해보세요.
08:13
and through...을 통하여 some kind종류 of algorithm연산
191
481748
1772
그리고 어떠한 알고리즘을 통해
08:15
they can detect탐지하다 the two friends친구 that you like the most가장.
192
483520
3734
여러분이 가장 좋아하는
친구 2명을 알아낼 수 있습니다.
08:19
And then they create몹시 떠들어 대다, in real레알 time,
193
487254
2280
그리고 그들은 실시간으로
08:21
a facial얼굴 마사지 composite합성물 of these two friends친구.
194
489534
2842
그 두 친구의 안면 합성을
만들어냅니다.
08:24
Now studies연구 prior사전의 to ours우리 것 have shown표시된 that people
195
492376
3069
이 전의 연구들에서 사람들은
08:27
don't recognize인정하다 any longer더 길게 even themselves그들 자신
196
495445
2885
합성된 얼굴에서 자신조차도
인식할 수 없지만
08:30
in facial얼굴 마사지 composites복합 재료, but they react반응하다
197
498330
2462
그 합성 얼굴에 대해
08:32
to those composites복합 재료 in a positive manner방법.
198
500792
2117
긍정적인 반응을 보인다고 했습니다.
08:34
So next다음 것 time you are looking for a certain어떤 product생성물,
199
502909
3415
그러니 다음에 만약 여러분이
어떤 제품을 찾을 때
08:38
and there is an ad광고 suggesting제안하는 you to buy사다 it,
200
506324
2559
만약 특정 제품을 권하는 광고가 있으면
08:40
it will not be just a standard표준 spokesperson대변인.
201
508883
2907
일반적인 대변인이 아닐겁니다.
08:43
It will be one of your friends친구,
202
511790
2313
아마 여러분의 친구 중 한명일 거에요.
08:46
and you will not even know that this is happening사고.
203
514103
3303
그리고 여러분은 이런 일이
일어나는지도 모르겠죠.
08:49
Now the problem문제 is that
204
517406
2413
이제 문제는
08:51
the current흐름 policy정책 mechanisms메커니즘 we have
205
519819
2519
현재 우리가 가진
개인 정보의 남용을
08:54
to protect보호 ourselves우리 스스로 from the abuses남용 of personal개인적인 information정보
206
522338
3438
막기 위한 정책 구조는
08:57
are like bringing데려 오는 a knife to a gunfight총격전.
207
525776
2984
마치 총싸움에 칼을
가지고 가는 것과 같습니다.
09:00
One of these mechanisms메커니즘 is transparency투명도,
208
528760
2913
그 구조 중 하나는 투명성입니다.
09:03
telling말함 people what you are going to do with their그들의 data데이터.
209
531673
3200
사람들의 정보를 가지고
무엇을 할지 말하는 것이죠.
09:06
And in principle원리, that's a very good thing.
210
534873
2106
원칙대로라면 아주 좋은 거에요.
09:08
It's necessary필요한, but it is not sufficient충분한.
211
536979
3667
필요하지만 충분하지 않습니다.
09:12
Transparency투명도 can be misdirected잘못 지시 한.
212
540646
3698
투명성은 잘못 사용될 수 있습니다.
09:16
You can tell people what you are going to do,
213
544344
2104
사람들에게 무엇을 할지 말을 하고
09:18
and then you still nudge슬쩍 찌르다 them to disclose드러내다
214
546448
2232
계속 그들에게 확실하지 않은 양의
09:20
arbitrary임의의 amounts금액 of personal개인적인 information정보.
215
548680
2623
정보를 밝히라고 부추길 수 있어요.
09:23
So in yet아직 another다른 experiment실험, this one with students재학생,
216
551303
2886
그래서 또 다른 학생들과
진행한 실험에서는
09:26
we asked물었다 them to provide~을 제공하다 information정보
217
554189
3058
교정 안에서의 행동에 대한
09:29
about their그들의 campus교정 behavior행동,
218
557247
1813
정보를 요구했습니다.
09:31
including포함 pretty예쁜 sensitive민감한 questions질문들, such이러한 as this one.
219
559060
2940
꽤나 민감한 이런 질문도 있었어요.
09:34
[Have you ever cheated바람 피는 in an exam시험?]
220
562000
621
[시험 도중 컨닝한 적이 있습니까?]
09:34
Now to one group그룹 of subjects과목들, we told them,
221
562621
2300
우린 한 피실험자 그룹에게
이렇게 얘기했습니다.
09:36
"Only other students재학생 will see your answers답변."
222
564921
2841
"다른 학생들만 답을 볼거에요."
09:39
To another다른 group그룹 of subjects과목들, we told them,
223
567762
1579
또 다른 그룹에게는 이렇게 얘기했죠.
09:41
"Students재학생 and faculty학부 will see your answers답변."
224
569341
3561
"학생들과 교수진들 모두
응답을 볼겁니다."
09:44
Transparency투명도. Notification공고. And sure enough충분히, this worked일한,
225
572902
2591
투명성. 알림. 이건
당연하게도 통했습니다.
09:47
in the sense감각 that the first group그룹 of subjects과목들
226
575493
1407
첫번재 그룹이
두번째 그룹보다
09:48
were much more likely아마도 to disclose드러내다 than the second둘째.
227
576900
2568
더 많은 정보를 밝혔어요.
09:51
It makes~을 만든다 sense감각, right?
228
579468
1520
납득이 되지요. 그렇죠?
09:52
But then we added추가 된 the misdirection잘못된 방향.
229
580988
1490
그리고 잘못된 지시를 더했습니다.
09:54
We repeated반복 된 the experiment실험 with the same같은 two groups여러 떼,
230
582478
2760
같은 그룹에게 실험을 반복했지만
09:57
this time adding첨가 a delay지연
231
585238
2427
이번엔 피실험자들에게
09:59
between중에서 the time we told subjects과목들
232
587665
2935
우리가 정보를 어떻게
사용할지 말한 때와
10:02
how we would use their그들의 data데이터
233
590600
2080
질문에 답하기 시작한 때 사이에
10:04
and the time we actually사실은 started시작한 answering응답 the questions질문들.
234
592680
4388
시간 간격을 두었어요.
10:09
How long a delay지연 do you think we had to add더하다
235
597068
2561
교수진이 응답을 볼거란 사실에 의한
10:11
in order주문 to nullify무효화하다 the inhibitory억제 성의 effect효과
236
599629
4613
억제 영향을 무효화시키기 위해
10:16
of knowing that faculty학부 would see your answers답변?
237
604242
3411
얼마나 긴 간격을 두어야 했을까요?
10:19
Ten minutes의사록?
238
607653
1780
10분?
10:21
Five다섯 minutes의사록?
239
609433
1791
5분?
10:23
One minute?
240
611224
1776
1분?
10:25
How about 15 seconds?
241
613000
2049
15초는 어떻습니까?
10:27
Fifteen열 다섯 seconds were sufficient충분한 to have the two groups여러 떼
242
615049
2668
두 그룹이 같은 양의
정보를 밝히기 위해선
10:29
disclose드러내다 the same같은 amount of information정보,
243
617717
1568
15초면 충분했습니다.
10:31
as if the second둘째 group그룹 now no longer더 길게 cares걱정하다
244
619285
2746
두번째 그룹이 교수진이
응답을 볼거란 사실을
10:34
for faculty학부 reading독서 their그들의 answers답변.
245
622031
2656
신경 쓰지 않은 것처럼요.
10:36
Now I have to admit들이다 that this talk so far멀리
246
624687
3336
저는 지금껏 이 강연이
10:40
may할 수있다 sound소리 exceedingly대단히 gloomy우울한,
247
628023
2480
매우 우울하게 들렸다는 걸 인정하지만
10:42
but that is not my point포인트.
248
630503
1721
그게 중점은 아닙니다.
10:44
In fact, I want to share with you the fact that
249
632224
2699
사실 전 대안이 있다는 것을
10:46
there are alternatives대안들.
250
634923
1772
알려드리고 싶습니다.
10:48
The way we are doing things now is not the only way
251
636695
2499
지금 저희가 하는 방식이
10:51
they can done끝난, and certainly확실히 not the best베스트 way
252
639194
3037
유일한 방법이 아니고
또한 최상의 방법은
10:54
they can be done끝난.
253
642231
2027
더더욱 아닙니다.
10:56
When someone어떤 사람 tells말하다 you, "People don't care케어 about privacy은둔,"
254
644258
4171
누군가 여러분에게
"사람들은 사생활에 신경쓰지 않아."
11:00
consider중히 여기다 whether인지 어떤지 the game경기 has been designed디자인 된
255
648429
2642
라고 말할 때
모든게 설계되고 조작되어
11:03
and rigged조작 된 so that they cannot~ 할 수 없다. care케어 about privacy은둔,
256
651071
2724
사생활에 신경 쓸 수
없게 됬는지 고려해보세요.
11:05
and coming오는 to the realization실현 that these manipulations조작 occur나오다
257
653795
3262
그리고 그러한 조작들이
일어나고 있음을 깨닫는 순간이
11:09
is already이미 halfway중도 through...을 통하여 the process방법
258
657057
1607
이미 여러분 자신을
보호하는 과정의
11:10
of being존재 able할 수 있는 to protect보호 yourself당신 자신.
259
658664
2258
절반에 왔습니다.
11:12
When someone어떤 사람 tells말하다 you that privacy은둔 is incompatible양립 할 수없는
260
660922
3710
누군가 여러분에게 사생활과
11:16
with the benefits은혜 of big data데이터,
261
664632
1849
빅 데이터의 장점은
공존할 수 없다 말할 때
11:18
consider중히 여기다 that in the last 20 years연령,
262
666481
2473
지난 20년 간 연구진들이
11:20
researchers연구원 have created만들어진 technologies기술
263
668954
1917
기술을 개발해서
11:22
to allow허용하다 virtually사실상 any electronic전자 transactions업무
264
670871
3318
거의 모든 전자 거래가
11:26
to take place장소 in a more privacy-preserving프라이버시 보호 manner방법.
265
674189
3749
사생활을 더 보호하는 방식으로
이뤄지고 있습니다.
11:29
We can browse검색 the Internet인터넷 anonymously익명으로.
266
677938
2555
우린 익명으로 인터넷을
볼 수 있습니다.
11:32
We can send보내다 emails이메일 that can only be read독서
267
680493
2678
우린 오직 지정된
수신자만 읽을 수 있는
11:35
by the intended예정된 recipient수령인, not even the NSANSA.
268
683171
3709
이메일을 보낼 수 있습니다.
NSA도 읽을 수 없어요.
11:38
We can have even privacy-preserving프라이버시 보호 data데이터 mining채광.
269
686880
2997
우린 사생활을 보호하며
데이터 마이닝을 할 수 있습니다.
11:41
In other words, we can have the benefits은혜 of big data데이터
270
689877
3894
다른 말로 우리는 사생활을 보호하며
11:45
while protecting보호 privacy은둔.
271
693771
2132
빅 데이터의 이점을 가질 수 있습니다.
11:47
Of course코스, these technologies기술 imply암시하다 a shifting이동
272
695903
3791
물론 그 기술들은
11:51
of cost비용 and revenues수입
273
699694
1546
데이터 보유자와 대상자 사이의
11:53
between중에서 data데이터 holders소지자 and data데이터 subjects과목들,
274
701240
2107
비용과 수익의 변화를 의미합니다.
11:55
which어느 is why, perhaps혹시, you don't hear듣다 more about them.
275
703347
3453
어쩌면 여러분이 그것에 대해
더이상 듣지 못하는 이유일겁니다.
11:58
Which어느 brings가져다 준다 me back to the Garden정원 of Eden에덴 동산.
276
706800
3706
다시 에덴의 동산으로 돌아가보죠.
12:02
There is a second둘째 privacy은둔 interpretation해석
277
710506
2780
에덴의 동산 이야기엔
12:05
of the story이야기 of the Garden정원 of Eden에덴 동산
278
713286
1809
두번째 사생활에 관련된
해석이 있습니다.
12:07
which어느 doesn't have to do with the issue발행물
279
715095
2096
이건 아담과 이브가
12:09
of Adam아담 and Eve이브 feeling감각 naked적나라한
280
717191
2225
알몸인 채
12:11
and feeling감각 ashamed부끄러워.
281
719416
2381
창피해 하는 것과는 상관 없어요.
12:13
You can find echoes에코 of this interpretation해석
282
721797
2781
이 해석의 메아리는
12:16
in John남자 Milton's밀턴 "Paradise파라다이스 Lost잃어버린."
283
724578
2782
존 밀튼의 "실낙원"에서
찾으실 수 있습니다.
12:19
In the garden정원, Adam아담 and Eve이브 are materially물질적으로 content함유량.
284
727360
4197
동산에서 아담과 이브는
물질적으로 만족합니다.
12:23
They're happy행복. They are satisfied만족 한.
285
731557
2104
그들은 행복합니다.
만족하고 있어요.
12:25
However하나, they also또한 lack결핍 knowledge지식
286
733661
2293
하지만 그들은
12:27
and self-awareness자기 인식.
287
735954
1640
지식과 자기 인식이 없습니다.
12:29
The moment순간 they eat먹다 the aptly적절히 named명명 된
288
737594
3319
그들이 적절하게 이름 지어진
12:32
fruit과일 of knowledge지식,
289
740913
1293
선악과를 먹는 순간
12:34
that's when they discover발견하다 themselves그들 자신.
290
742206
2605
자기 자신을 발견합니다.
12:36
They become지다 aware알고있는. They achieve이루다 autonomy자치.
291
744811
4031
그들은 의식하게 되요.
자주성을 얻습니다.
12:40
The price가격 to pay지불, however하나, is leaving퇴거 the garden정원.
292
748842
3126
하지만 그에 대한 대가는
동산을 떠나는 것입니다.
12:43
So privacy은둔, in a way, is both양자 모두 the means방법
293
751968
3881
사생활이란 한편으로
12:47
and the price가격 to pay지불 for freedom자유.
294
755849
2962
자유를 위해 지불하는 대가입니다.
12:50
Again, marketers마케터 tell us
295
758811
2770
다시 한번, 마케팅 담당자들은
12:53
that big data데이터 and social사회적인 media미디어
296
761581
3019
빅 데이터와 소셜 미디어가
12:56
are not just a paradise파라다이스 of profit이익 for them,
297
764600
2979
그들을 위한 이익의 낙원일 뿐만 아니라
12:59
but a Garden정원 of Eden에덴 동산 for the rest휴식 of us.
298
767579
2457
우리를 위한 에덴 동산이라고 말합니다.
13:02
We get free비어 있는 content함유량.
299
770036
1238
우린 무료 콘텐츠를 얻죠.
13:03
We get to play놀이 Angry성난 Birds조류. We get targeted목표로 삼은 apps.
300
771274
3123
앵그리 버드를 하게 되고요.
특정한 앱을 얻습니다.
13:06
But in fact, in a few조금 years연령, organizations조직
301
774397
2897
하지만 사실 몇년 후 단체들은
13:09
will know so much about us,
302
777294
1609
우리에 대해 아주 많이
알게 될 겁니다.
13:10
they will be able할 수 있는 to infer미루다 our desires욕망
303
778903
2710
그들은 우리가 욕구를 가지기도 전에
13:13
before we even form형태 them, and perhaps혹시
304
781613
2204
그 욕구를 추론할 수 있고
13:15
buy사다 products제작품 on our behalf대신에
305
783817
2447
우리가 필요를 느끼기도 전에
13:18
before we even know we need them.
306
786264
2274
제품을 사게 할 수도 있을 겁니다.
13:20
Now there was one English영어 author저자
307
788538
3237
한 영국 작가가
13:23
who anticipated예상 한 this kind종류 of future미래
308
791775
3045
이런 미래를 예상했어요.
13:26
where we would trade무역 away
309
794820
1405
편의를 위해
13:28
our autonomy자치 and freedom자유 for comfort위로.
310
796225
3548
우리의 자주성과 자유를 판다고 말이죠.
13:31
Even more so than George성 조지 Orwell오웰,
311
799773
2161
조지 오웰보다 더한
13:33
the author저자 is, of course코스, AldousAldous Huxley헉슬리.
312
801934
2761
자가는 물론 올더스 헉슬리입니다.
13:36
In "Brave용감한 New새로운 World세계," he imagines상상하다 a society사회
313
804695
2854
"멋진 신세계"에서 그는
13:39
where technologies기술 that we created만들어진
314
807549
2171
우리가 창조한
자유를 위한 기술들이
13:41
originally원래 for freedom자유
315
809720
1859
우리를 강압하는
13:43
end종료 up coercing강요하는 us.
316
811579
2567
사회를 그립니다.
13:46
However하나, in the book도서, he also또한 offers제안 us a way out
317
814146
4791
하지만 책에서 그는
13:50
of that society사회, similar비슷한 to the path통로
318
818937
3438
그런 사회에서 벗어나는
방법도 권합니다.
13:54
that Adam아담 and Eve이브 had to follow따르다 to leave휴가 the garden정원.
319
822375
3955
아담과 이브가 동산을
떠나야 했던 것과 비슷하게요.
13:58
In the words of the Savage야만인,
320
826330
2147
새비지의 말로
14:00
regaining회복 autonomy자치 and freedom자유 is possible가능한,
321
828477
3069
자주성과 자유를
되찾는 것은 가능합니다.
14:03
although이기는 하지만 the price가격 to pay지불 is steep험한.
322
831546
2679
그에 대한 대가는 비싸지만요.
14:06
So I do believe that one of the defining정의 fights싸움
323
834225
5715
그래서 저는
14:11
of our times타임스 will be the fight싸움
324
839940
2563
우리 시대의 중요한 싸움은
14:14
for the control제어 over personal개인적인 information정보,
325
842503
2387
개인정보 통제를 위한 싸움,
14:16
the fight싸움 over whether인지 어떤지 big data데이터 will become지다 a force
326
844890
3507
빅 데이터가 자유를 위한
14:20
for freedom자유,
327
848397
1289
힘이 될지의 싸움이라 믿습니다.
14:21
rather차라리 than a force which어느 will hiddenly은밀히 manipulate교묘히 다루다 us.
328
849686
4746
우리를 몰래 조종하는 힘 대신에요.
14:26
Right now, many많은 of us
329
854432
2593
지금 많은 사람들은
14:29
do not even know that the fight싸움 is going on,
330
857025
2753
그 싸움이 진행 중인지도 모를거에요.
14:31
but it is, whether인지 어떤지 you like it or not.
331
859778
2672
하지만 여러분이
좋든 싫든 진행 중입니다.
14:34
And at the risk위험 of playing연주하다 the serpent,
332
862450
2804
그리고 뱀을 갖고 노는 위험을 무릅쓰고
14:37
I will tell you that the tools도구들 for the fight싸움
333
865254
2897
싸움을 위한 도구는
14:40
are here, the awareness인식 of what is going on,
334
868151
3009
여기 있습니다.
현 상황의 자각과
14:43
and in your hands소유,
335
871160
1355
여러분의 손에 있는
14:44
just a few조금 clicks클릭 수 away.
336
872515
3740
몇 번의 클릭입니다.
14:48
Thank you.
337
876255
1482
감사합니다.
14:49
(Applause박수 갈채)
338
877737
4477
(박수)
Translated by Wooran Lee
Reviewed by Gemma Lee

▲Back to top

ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com