ABOUT THE SPEAKER
Christopher Soghoian - Privacy researcher and activist
Christopher Soghoian researches and exposes the high-tech surveillance tools that governments use to spy on their own citizens, and he is a champion of digital privacy rights.

Why you should listen

TED Fellow Christopher Soghoian is a champion of digital privacy rights, with a focus on the role that third-party service providers play in enabling governments to monitor citizens. As the principal technologist at the American Civil Liberties Union, he explores the intersection of federal surveillance and citizen's rights.

Before joining the ACLU, he was the first-ever technologist for the Federal Trade Commision's Division of Privacy and Identity Protection, where he worked on investigations of Facebook, Twitter, MySpace and Netflix. Soghoian is also the creator of Do Not Track, an anti-tracking device that all major web browsers now use, and his work has been cited in court.

More profile about the speaker
Christopher Soghoian | Speaker | TED.com
TEDSummit

Christopher Soghoian: Your smartphone is a civil rights issue

크리스토퍼 소고이안(Christopher Soghoian): 여러분의 스마트폰은 시민권의 문제입니다

Filmed:
1,581,538 views

스마트폰 사용은 단순한 개인적 취향 이상을 반영합니다. 얼마나 자세히 추적당하고 있느냐를 보여줄 수 있습니다. 사생활 전문자이자 TED펠로우인 크리스토퍼 소고이안이 애플과 안드로이드 기기에서 사용되는 암호화의 놀라운 차이점을 자세히 설명하고 점차 늘어나는 디지털 보안 격차에 주목할 것을 촉구합니다. "정부의 추적으로부터 보호할 수 있는 사람들은 오로지 부유하고 권력있는 사람들 뿐인데, 그게 문제입니다."라고 그는 말합니다. "이것은 그저 사이버보안의 문제가 아니라 시민권 문제입니다."
- Privacy researcher and activist
Christopher Soghoian researches and exposes the high-tech surveillance tools that governments use to spy on their own citizens, and he is a champion of digital privacy rights. Full bio

Double-click the English transcript below to play the video.

00:12
In the spring of 2016,
0
499
2523
2016년 봄에
00:15
a legal적법한 battle전투 between중에서 Apple사과
and the Federal연방 정부 Bureau of Investigation조사
1
3046
4404
애플과 FBI의 법적 싸움이
00:19
captured포착 된 the world's세계의 attention주의.
2
7474
1678
전 세계의 관심을 끌었습니다.
00:21
Apple사과 has built세워짐 security보안 features풍모
into its mobile변하기 쉬운 products제작품
3
9633
3339
애플은 휴대용 제품에
보안 기능을 탑재했는데
00:24
which어느 protect보호 data데이터 on its devices장치들
from everyone각자 모두 but the owner소유자.
4
12996
3833
소유자 외에는 기기의 데이터를
아무도 못 보게 하는 겁니다.
00:28
That means방법 that criminals범죄자, hackers해커
and yes, even governments정부
5
16853
4645
즉, 범죄자, 해커, 그렇습니다,
정부도 모두 접근 못합니다.
00:33
are all locked잠긴 out.
6
21522
1320
00:35
For Apple's애플의 customers고객,
this is a great thing.
7
23580
2199
애플 사용자들에겐 멋진 일이죠.
00:38
But governments정부 are not so happy행복.
8
26581
2039
하지만 정부는 별로
좋아하지 않았습니다.
00:41
You see, Apple사과 has made만든
a conscious의식이있는 decision결정
9
29152
2317
보시듯이 애플은 감시를 할 수 없도록
00:43
to get out of the surveillance감시 business사업.
10
31493
2560
의식있는 결정을 한 겁니다.
00:46
Apple사과 has tried시도한 to make surveillance감시
as difficult어려운 as possible가능한
11
34077
3211
애플은 정부나 다른 어떤 관련자든
00:49
for governments정부 and any other actors배우들.
12
37312
2366
감시가 최대한 어렵게 하려고 했습니다.
00:53
There are really two
smartphone스마트 폰 operating운영중인 systems시스템
13
41676
2330
여기 세계 스마트 폰 시장에는
두 가지 운영 체계가 있습니다.
00:56
in the global글로벌 smartphone스마트 폰 market시장:
14
44030
1628
00:57
iOSiOS and Android기계적 인조 인간.
15
45682
1714
iOS와 안드로이드죠.
00:59
iOSiOS is made만든 by Apple사과.
Android기계적 인조 인간 is made만든 by GoogleGoogle.
16
47749
3068
iOS는 애플이,
안드로이드는 구글이 만들었죠.
01:03
Apple사과 has spent지출하다 a lot of time and money
17
51446
3124
애플은 많은 시간과 자금을 들여
01:06
to make sure that its products제작품
are as secure안전한 as possible가능한.
18
54594
3271
제품의 보안성에 최대한 신경썼습니다.
01:10
Apple사과 encrypts암호화하다 all data데이터
stored저장된 on iPhones아이폰 by default태만,
19
58458
3434
아이폰에 저장되는 모든 데이터는
암호화 되도록 초기설정 돼 있고
01:13
and text본문 messages메시지 sent보낸 from one
Apple사과 customer고객 to another다른 Apple사과 customer고객
20
61916
4006
애플 사용자 간의 문자메시지도
암호화되게 설정되어 있습니다.
01:17
are encrypted암호화 된 by default태만
21
65946
1702
01:19
without없이 the user사용자 having
to take any actions행위.
22
67672
2517
사용자가 따로 뭔가 할 필요가 없죠.
01:22
What this means방법 is that,
23
70769
1611
이것이 무슨 뜻인가 하면
01:24
if the police경찰 seize잡다 an iPhoneiPhone
and it has a password암호,
24
72404
3780
경찰이 비밀번호가 있는
아이폰을 가졌다고 하면
01:28
they'll그들은 할 것이다 have a difficult어려운 time
getting점점 any data데이터 off of it,
25
76724
3642
데이터를 빼내는 게
매우 어렵다는 겁니다.
01:32
if they can do it at all.
26
80390
1412
할 수만 있다면 말이죠.
01:34
In contrast대조, the security보안 of Android기계적 인조 인간
just really isn't as good.
27
82374
4138
반대로 안드로이드의 보안은
별로 좋지 않습니다.
01:38
Android기계적 인조 인간 phones전화, or at least가장 작은
most가장 of the Android기계적 인조 인간 phones전화
28
86536
3046
판매된 대부분의 안드로이드 폰은
01:41
that have been sold팔린 to consumers소비자,
29
89606
1606
01:43
do not encrypt암호화하다 data데이터 stored저장된
on the device장치 by default태만,
30
91236
2855
초기설정으로 데이터
암호화를 하지 않고
01:46
and the built-in붙박이 text본문 messaging메시지 app
in Android기계적 인조 인간 does not use encryption암호화.
31
94115
4986
내장된 문자 메시지 앱도
암호화되지 않습니다.
01:51
So if the police경찰 seize잡다 an Android기계적 인조 인간 phone전화,
32
99555
2694
경찰이 안드로이드폰을 갖게 되면
01:54
chances기회 are, they'll그들은 할 것이다 be able할 수 있는 to get
all the data데이터 they want
33
102273
3357
기기에 있는 모든 데이터를
얻을 수 있습니다.
01:57
off of that device장치.
34
105654
1292
01:59
Two smartphones스마트 폰
35
107858
1686
세계 최대인 두 회사의 스마트 폰이
02:01
from two of the biggest가장 큰
companies회사들 in the world세계;
36
109568
2333
02:04
one that protects보호하다 data데이터 by default태만,
37
112497
1785
하나는 초기설정으로 데이터를 보호하고
02:06
and one that doesn't.
38
114948
1274
하나는 안 합니다.
02:08
Apple사과 is a seller파는 사람 of luxury사치 goods상품.
39
116840
3142
애플은 고급제품 판매사입니다.
02:12
It dominates지배하다 the high높은 end종료 of the market시장.
40
120006
2249
고가 시장을 장악하고 있죠.
02:14
And we would expect배고 있다 a manufacturer제조자
of luxury사치 goods상품 to have products제작품
41
122710
4354
고급제품은 뭔가 다른 기능이
있을 거라고 우리는 기대합니다.
02:19
that include포함 more features풍모.
42
127088
1957
02:21
But not everyone각자 모두 can afford여유가있다 an iPhoneiPhone.
43
129567
2407
하지만 모두가 아이폰을
살 여유가 있진 않죠.
02:23
That's where Android기계적 인조 인간
really, really dominates지배하다:
44
131998
2587
바로 안드로이드가
그 부분을 차지합니다.
02:26
at the middle중간 and low낮은 end종료 of the market시장,
45
134609
2751
중저가 시장이죠.
02:29
smartphones스마트 폰 for the billion십억
and a half절반 people
46
137384
2626
15억 명의 스마트폰 사용자가
02:32
who cannot~ 할 수 없다. or will not spend보내
47
140034
2870
휴대폰에 600달러를 쓸 수
없거나 쓰지 않을 사람들이죠.
02:34
600 dollars불화 on a phone전화.
48
142928
2461
02:41
But the dominance권세 of Android기계적 인조 인간
has led to what I call
49
149275
5830
하지만 안드로이드의 지배가
소위 "디지털 보안 격차"를
만들었습니다.
02:47
the "digital디지털 security보안 divide분할."
50
155129
2212
02:49
That is, there is now increasingly더욱 더 a gap
51
157365
2985
즉, 현재 점점 더 격차가 벌어지는데
02:52
between중에서 the privacy은둔
and security보안 of the rich풍부한,
52
160374
4125
초기설정으로 데이터가 보호되는
기기를 살 여유가 있는 부유한 사람과
02:56
who can afford여유가있다 devices장치들
that secure안전한 their그들의 data데이터 by default태만,
53
164523
2770
03:00
and of the poor가난한,
54
168036
1252
가난한 사람들인데
03:01
whose누구의 devices장치들 do very little
to protect보호 them by default태만.
55
169851
4674
그들의 휴대폰은 초기설정으로
거의 보호가 되지 않죠.
03:07
So, think of the average평균 Apple사과 customer고객:
56
175667
3115
보통의 애플 사용자를 생각해 보세요.
03:12
a banker은행가, a lawyer변호사,
a doctor의사, a politician정치가.
57
180013
4862
금융인, 변호사, 의사, 정치인입니다.
03:17
These individuals개인 now increasingly더욱 더 have
smartphones스마트 폰 in their그들의 pockets주머니
58
185387
5254
이런 사람들은 가지고 다니는 스마트폰은
03:22
that encrypt암호화하다 their그들의 calls전화,
their그들의 text본문 messages메시지,
59
190665
3473
통화, 문자 메시지와
모든 데이터를 암호화합니다.
03:26
all the data데이터 on the device장치,
60
194162
1535
03:27
without없이 them doing really anything
to secure안전한 their그들의 information정보.
61
195721
4008
정보보호를 위해 이 사람들이
따로 할 일이 없습니다.
03:32
In contrast대조, the poor가난한
and the most가장 vulnerable취약 in our societies사회
62
200904
4045
반대로, 가난한 사람들과
사회의 약자들은
03:36
are using~을 사용하여 devices장치들 that leave휴가 them
completely완전히 vulnerable취약 to surveillance감시.
63
204973
5187
감시에 완전히 노출된
기기를 사용합니다.
03:43
In the United유나이티드 States, where I live살고 있다,
64
211065
1989
제가 사는 미국에서는
03:45
African-Americans아프리카 계 미국인 are more likely아마도
to be seen as suspicious의심 많은
65
213078
3949
아프리카계 미국인이 더 의심받고
03:49
or more likely아마도 to be profiled프로파일 링 된,
66
217051
1851
개인 정보가 분석되거나
03:51
and are more likely아마도 to be targeted목표로 삼은
by the state상태 with surveillance감시.
67
219640
3665
정부의 감시 표적이 될
가능성이 더 높죠.
03:56
But African-Americans아프리카 계 미국인
are also또한 disproportionately불균형으로 likely아마도
68
224008
2789
하지만 아프리카계 미국인은
03:58
to use Android기계적 인조 인간 devices장치들
that do nothing at all
69
226821
3096
감시에서 보호받지 못하는 안드로이드
기기를 사용할 가능성이 훨씬 높습니다.
04:01
to protect보호 them from that surveillance감시.
70
229941
2070
04:04
This is a problem문제.
71
232974
1324
이것이 문제입니다.
04:07
We must절대로 필요한 것 remember생각해 내다
that surveillance감시 is a tool수단.
72
235536
2509
감시는 도구라는 것을 기억해야 합니다.
04:10
It's a tool수단 used by those in power
73
238810
2648
그것은 권력을 가진 자가
04:13
against반대 those who have no power.
74
241934
2258
없는 자에게 쓰는 도구입니다.
04:17
And while I think it's absolutely전혀 great
75
245173
4750
확실히 좋은 일이라고는 생각합니다.
04:21
that companies회사들 like Apple사과
are making만들기 it easy쉬운 for people to encrypt암호화하다,
76
249947
3448
애플같은 회사가 휴대폰을
쉽게 암호화하게 해주니까요.
04:26
if the only people
who can protect보호 themselves그들 자신
77
254355
3815
정부의 감시를 벗어하는 사람들이
04:30
from the gaze응시하다 of the government정부
78
258194
1491
오직 부자와 권력자 뿐이라면
04:31
are the rich풍부한 and powerful강한,
79
259709
1560
04:33
that's a problem문제.
80
261741
1187
그건 문제입니다.
04:35
And it's not just a privacy은둔
or a cybersecurity사이버 보안 problem문제.
81
263549
3562
그것은 그저 사생활이나
사이버보안 문제가 아니라
04:39
It's a civil예의 바른 rights진상 problem문제.
82
267739
1544
시민권의 문제입니다.
04:42
So the lack결핍 of default태만 security보안 in Android기계적 인조 인간
83
270806
2867
안드로이드의 초기설정 보안이 없는 것은
04:45
is not just a problem문제
for the poor가난한 and vulnerable취약 users사용자
84
273697
5379
이런 기기를 사용하는
단지 가난하고 취약한
사용자의 문제가 아닙니다.
04:51
who are depending의존하는 on these devices장치들.
85
279100
2218
04:53
This is actually사실은 a problem문제
for our democracy민주주의.
86
281342
2260
이것은 사실 민주주의 문제입니다.
04:56
I'll explain설명 what I mean.
87
284237
1468
무슨 말인지 설명해 드리겠습니다.
04:58
Modern현대 social사회적인 movements동정
rely의지하다 on technology과학 기술 --
88
286514
2875
현대의 사회 운동은 기술에 의존합니다.
05:01
from Black검은 Lives Matter문제 to the Arab아라비아 사람 Spring
to Occupy점령하다 Wall Street거리.
89
289413
5423
"흑인생명은 소중하다"에서부터
"아랍의 봄",
"월가를 점령하라" 까지
05:07
The organizers주최자 of these movements동정
and the members회원 of these movements동정
90
295238
3975
이런 운동의 주최자나 참여자는
05:11
increasingly더욱 더 communicate소통하다
and coordinate동등 어구 with smartphones스마트 폰.
91
299237
3940
점점 더 스마트폰을 통해
소통하고 계획합니다.
05:16
And so, naturally당연히 governments정부
that feel threatened위협당한 by these movements동정
92
304446
3851
그러니 당연히 이런 운동에
위기감을 느끼는 정부는
05:20
will also또한 target목표 the organizers주최자
and their그들의 smartphones스마트 폰.
93
308321
3656
주최자들과 그들의
스마트폰을 노릴 겁니다.
05:25
Now, it's quite아주 possible가능한
94
313462
2074
다음과 같이 생각할 수도 있습니다.
05:27
that a future미래 Martin남자 이름 Luther루터 King
or a Mandela만델라 or a Gandhi간디
95
315560
4064
미래의 마틴 루터 킹이나
만델라, 간디는
05:31
will have an iPhoneiPhone and be protected보호 된
from government정부 surveillance감시.
96
319648
3857
정부의 감시를 피해
아이폰을 가질 거라고요.
05:36
But chances기회 are,
97
324283
1547
하지만 실제론
05:37
they'll그들은 할 것이다 probably아마 have a cheap,
$20 Android기계적 인조 인간 phone전화 in their그들의 pocket포켓.
98
325854
3714
저렴한 20달러짜리 안드로이드폰을
가질 가능성이 더 큽니다.
05:42
And so if we do nothing
to address주소 the digital디지털 security보안 divide분할,
99
330676
3821
디지털 보안 격차에 대해
아무 것도 하지 않으면
05:46
if we do nothing to ensure안전하게 하다
that everyone각자 모두 in our society사회
100
334521
3868
우리 사회 모두가 똑같이
암호화의 혜택을 받을 수 있고
05:51
gets도착 the same같은 benefits은혜 of encryption암호화
101
339167
2285
05:53
and is equally같이 able할 수 있는 to protect보호 themselves그들 자신
from surveillance감시 by the state상태,
102
341476
3657
정부의 감시에서 동등하게
보호받도록 하지 않으면
05:57
not only will the poor가난한 and vulnerable취약
be exposed드러난 to surveillance감시,
103
345157
4782
가난한 자나 취약한 사람들만
감시에 노출되는 게 아니라
06:02
but future미래 civil예의 바른 rights진상
movements동정 may할 수있다 be crushed밀어 넣는
104
350404
2941
미래의 시민 운동이 완전히
실현되기도 전에 억압당할 겁니다.
06:05
before they ever reach범위
their그들의 full완전한 potential가능성.
105
353369
2420
06:07
Thank you.
106
355813
1167
감사합니다.
06:09
(Applause박수 갈채)
107
357004
3107
(박수)
06:15
Helen헬렌 Walters월터스: Chris크리스, thank you so much.
108
363940
1926
헬렌 월터스:
크리스, 대단히 감사합니다.
06:17
I have a question문제 for you.
109
365890
1872
질문이 하나 있는데요.
06:19
We saw recently요새 in the press프레스
110
367786
1853
최근 언론에서 보았듯이
06:21
that Mark Zuckerberg주커 버그 from Facebook페이스 북
covers표지 over his camera카메라
111
369663
5504
페이스북의 마크 저커버그가
카메라를 가리고
06:27
and does something
with his headphone헤드폰 mic마이크 jack.
112
375191
2974
헤드폰 마이크 잭에 뭔가 했습니다.
06:30
So I wanted to ask청하다 you
a personal개인적인 question문제, which어느 is:
113
378189
2545
개인적인 질문을 하고 싶은데요.
06:32
Do you do that?
114
380758
1152
당신도 그렇게 하나요?
06:33
And, on behalf대신에 of everyone각자 모두
here, particularly특별히 myself자기,
115
381934
2579
여기 계신 분들을 대신해서
특히 제가 궁금한데요.
06:36
Should we be doing that?
116
384537
1325
우리도 그렇게 해야 하나요?
06:37
Should we be covering피복 these things?
117
385886
1768
이런 것들을 가려야 하나요?
06:39
Christopher크리스토퍼 SoghoianSoghoian: Putting퍼팅 a sticker상표 --
actually사실은, I like Band-Aids반창고,
118
387678
4161
크리스토퍼 소고이안:
스티커 붙이면, 전 밴드가 좋아요.
06:43
because you can remove풀다 them
and put them back on
119
391863
2265
뗐다가 다시 붙일 수 있으니까요.
전화하거나 스카이프
통화하고 싶을 때마다요.
06:46
whenever할때는 언제나 you want to make
a call or a SkypeSkype call.
120
394152
2312
웹캠에 스티커 붙이는 것은
06:48
Putting퍼팅 a sticker상표 over your web편물 cam
121
396488
1702
06:50
is probably아마 the best베스트 thing
you can do for your privacy은둔
122
398214
2676
아마도 사생활 보호에
제일 좋을 겁니다.
06:52
in terms자귀 of bang for buck책임.
123
400914
1506
싸지만 효과가 좋죠.
06:54
There really is malware멀웨어,
malicious악의 있는 software소프트웨어 out there
124
402444
3897
실제로 악성소프트웨어가
06:58
that can take over your web편물 cam,
125
406365
1857
웹캠을 장악할 수도 있어요.
07:00
even without없이 the light turning선회 on.
126
408246
1870
심지어 불을 켜지 않아도요
07:02
This is used by criminals범죄자.
This is used by stalkers스토커.
127
410140
3169
범죄자나 스토커가 그렇게 합니다.
07:05
You can buy사다 $19.99 "spy스파이
on your ex-girlfriend전 여자 친구" software소프트웨어 online온라인.
128
413333
4938
19.99$의 "전여자친구 엿보기"를
온라인에서 살 수 있죠.
07:10
It's really terrifying겁나게 하는.
129
418295
1151
정말 끔찍합니다.
07:11
And then, of course코스,
it's used by governments정부.
130
419470
2524
물론 정부에서도 사용합니다.
07:14
And there's obviously명백하게
a sexual성적 violence폭력 component구성 요소 to this,
131
422018
3221
분명히 성폭력 요소가 있어서
07:17
which어느 is that this kind종류 of surveillance감시
can be used most가장 effectively효과적으로
132
425263
3701
이런 종류의 감시는 아주 효과적으로
07:20
against반대 women여자들 and other people
who can be shamed부끄러워하는 in our society사회.
133
428988
6803
여성이나 사회에서 모욕을 당할수 있는
누군가를 상대로 쓰일 수 있습니다.
07:28
Even if you think
you have nothing to hide숨는 장소,
134
436417
2108
여러분이 숨길 게 없다고 생각하셔도
07:30
at the very least가장 작은, if you have
children어린이, teenagers십대 in your lives,
135
438549
4558
적어도 자녀나, 십대 자녀가 있으시다면
07:35
make sure you put a sticker상표
on their그들의 camera카메라 and protect보호 them.
136
443131
3010
카메라에 스티커를 붙이고
보호해 주도록 하세요.
07:38
HWHW: Wow와우. Thank you so much.
CS연사: Thank you.
137
446165
1994
HW: 정말 감사합니다.
CS: 감사합니다.
HW: 감사합니다, 크리스.
07:40
HWHW: Thanks감사, Chris크리스.
138
448183
1151
(박수)
07:41
(Applause박수 갈채)
139
449358
2472
Translated by Jihyeon J. Kim
Reviewed by Park Haesik

▲Back to top

ABOUT THE SPEAKER
Christopher Soghoian - Privacy researcher and activist
Christopher Soghoian researches and exposes the high-tech surveillance tools that governments use to spy on their own citizens, and he is a champion of digital privacy rights.

Why you should listen

TED Fellow Christopher Soghoian is a champion of digital privacy rights, with a focus on the role that third-party service providers play in enabling governments to monitor citizens. As the principal technologist at the American Civil Liberties Union, he explores the intersection of federal surveillance and citizen's rights.

Before joining the ACLU, he was the first-ever technologist for the Federal Trade Commision's Division of Privacy and Identity Protection, where he worked on investigations of Facebook, Twitter, MySpace and Netflix. Soghoian is also the creator of Do Not Track, an anti-tracking device that all major web browsers now use, and his work has been cited in court.

More profile about the speaker
Christopher Soghoian | Speaker | TED.com