ABOUT THE SPEAKER
Lorrie Faith Cranor - Security researcher
At Carnegie Mellon University, Lorrie Faith Cranor studies online privacy, usable security, phishing, spam and other research around keeping us safe online.

Why you should listen

Lorrie Faith Cranor is an Associate Professor of Computer Science and of Engineering and Public Policy at Carnegie Mellon University, where she is director of the CyLab Usable Privacy and Security Laboratory (CUPS) and co-director of the MSIT-Privacy Engineering masters program. She is also a co-founder of Wombat Security Technologies, Inc. She has authored over 100 research papers on online privacy, usable security, phishing, spam, electronic voting, anonymous publishing, and other topics.

Cranor plays a key role in building the usable privacy and security research community, having co-edited the seminal book Security and Usability and founded the Symposium On Usable Privacy and Security (SOUPS). She also chaired the Platform for Privacy Preferences Project (P3P) Specification Working Group at the W3C and authored the book Web Privacy with P3P. She has served on a number of boards, including the Electronic Frontier Foundation Board of Directors, and on the editorial boards of several journals. In 2003 she was named one of the top 100 innovators 35 or younger by Technology Review.

More profile about the speaker
Lorrie Faith Cranor | Speaker | TED.com
TEDxCMU

Lorrie Faith Cranor: What’s wrong with your pa$$w0rd?

로리 패이스 크레너 (Lorrie Faith Cranor): 여러분의 암호가 잘못된 점은 뭘까요?

Filmed:
1,566,161 views

로리 패이스 크레너는 사용자와 보안 사이트가 보안을 절충하기 위해서 놀라울만큼 흔한 실수를 하는 것을 파악하기 위해 수천개의 진짜 암호를 연구했습니다. 여러분은 이렇게 묻겠죠. 그녀는 어떻게 사용자의 보안을 위협하지 않고 수천개의 암호를 연구했을까? 그 질문 자체가 이야기입니다. 알아야 할 가치가 있는 비밀 자료이죠. 특히 여러분의 암호가 123456... 이라면요.
- Security researcher
At Carnegie Mellon University, Lorrie Faith Cranor studies online privacy, usable security, phishing, spam and other research around keeping us safe online. Full bio

Double-click the English transcript below to play the video.

00:12
I am a computer컴퓨터 science과학 and engineering공학
professor교수 here at Carnegie카네기 Mellon멜론,
0
535
3445
저는 카네기 멜론 대학교의
컴퓨터공학과 교수입니다.
00:15
and my research연구 focuses집중하다 on
usable쓸 수 있는 privacy은둔 and security보안,
1
3980
4248
저는 사용가능한 사생활과 안보에
초점을 둔 연구를 하고 있습니다.
00:20
and so my friends친구 like to give me examples예제들
2
8228
2768
제 친구들은
컴퓨터 시스템과 관련해서
00:22
of their그들의 frustrations좌절 with computing컴퓨팅 systems시스템,
3
10996
2202
짜증스런 경우를 얘기하는데
00:25
especially특히 frustrations좌절 related관련 to
4
13198
3354
특히 사용가능하지 않은
사생활과 안보에
00:28
unusable쓸 수 없는 privacy은둔 and security보안.
5
16552
4112
관련한 짜증스런 경우를 얘기하죠.
00:32
So passwords암호 are something that I hear듣다 a lot about.
6
20664
2711
전 암호와 관련된 얘기를
많이 듣는데요.
00:35
A lot of people are frustrated실망한 with passwords암호,
7
23375
2880
많은 분들이 암호 때문에
짜증스러워 하는데
00:38
and it's bad나쁜 enough충분히
8
26255
1694
아주 충분히 나쁜 정도이죠,
00:39
when you have to have one really good password암호
9
27949
2644
여러분이 기억할 수 있고
00:42
that you can remember생각해 내다
10
30593
1822
아무도 추측할 수 없는
00:44
but nobody아무도 else그밖에 is going to be able할 수 있는 to guess추측.
11
32415
2894
아주 좋은 암호 하나를
만들어야 하니까요.
00:47
But what do you do when you have accounts계정
12
35309
1637
하지만 여러분의 계좌가
00:48
on a hundred different다른 systems시스템
13
36946
1808
백 개의 다른 시스템에 있다면
어떻게 하겠습니까?
00:50
and you're supposed가정의 to have a unique독특한 password암호
14
38754
2276
고유의 암호를
00:53
for each마다 of these systems시스템?
15
41030
3037
각 시스템마다 만들어야 한다면요?
(웃음)
00:56
It's tough강인한.
16
44067
2184
힘들죠.
00:58
At Carnegie카네기 Mellon멜론, they used to make it
17
46251
1759
카네기 멜론에서는
01:00
actually사실은 pretty예쁜 easy쉬운 for us
18
48010
1299
우리가 아주 수월하게
01:01
to remember생각해 내다 our passwords암호.
19
49309
1737
암호를 기억하게 했습니다.
01:03
The password암호 requirement요건 up through...을 통하여 2009
20
51046
2403
2009년까지는
암호를 만드는 조건은
01:05
was just that you had to have a password암호
21
53449
2379
암호에
01:07
with at least가장 작은 one character캐릭터.
22
55828
2211
한 글자만 있으면 됐었죠.
01:10
Pretty예쁜 easy쉬운. But then they changed변경된 things,
23
58039
2888
아주 쉽죠.
하지만 정책을 바꾸게 되서,
01:12
and at the end종료 of 2009, they announced발표하다
24
60927
2670
2009년 말에는
01:15
that we were going to have a new새로운 policy정책,
25
63597
2376
새로운 정책을 발표했는데
01:17
and this new새로운 policy정책 required필수
26
65973
1863
새로운 정책에 따르면
01:19
passwords암호 that were at least가장 작은 eight여덟 characters문자들 long,
27
67836
2681
암호는 최소한 8자가 되어야 하고
01:22
with an uppercase대문자 letter편지, lowercase소문자 letter편지,
28
70517
1775
대문자, 소문자,
01:24
a digit손가락, a symbol상징,
29
72292
1288
숫자, 기호가 들어가야 합니다.
01:25
you couldn't할 수 없었다 use the same같은
character캐릭터 more than three times타임스,
30
73580
2638
똑같은 글자를
세 번 이상 쓸 수 없고
01:28
and it wasn't아니었다. allowed허용 된 to be in a dictionary사전.
31
76218
2434
사전에 나와 있어도 안됩니다.
01:30
Now, when they implemented이행 된 this new새로운 policy정책,
32
78652
2182
자, 대학에서
새로운 정책을 내놓았을 때
01:32
a lot of people, my colleagues동료들 and friends친구,
33
80834
2310
제 동료와 친구들을
포함한 많은 사람들이
01:35
came왔다 up to me and they said, "Wow와우,
34
83144
1854
제게 와서 이렇게 말하더군요.
01:36
now that's really unusable쓸 수 없는.
35
84998
1512
"와, 이건 정말 쓸 수가 없군.
01:38
Why are they doing this to us,
36
86510
1193
우리에게 왜 이렇게 하는 거죠?
01:39
and why didn't you stop them?"
37
87703
1711
왜 그 사람들을 막지 않았어요?"
01:41
And I said, "Well, you know what?
38
89414
1356
그래서 제가 말했죠.
"글쎄, 그거 아세요?
01:42
They didn't ask청하다 me."
39
90770
1508
나한테 물어보지 않았답니다."
01:44
But I got curious이상한, and I decided결정적인 to go talk
40
92278
3465
하지만 저는 궁금해져서
01:47
to the people in charge요금 of our computer컴퓨터 systems시스템
41
95743
1937
컴퓨터 시스템을 담당하는
사람들에게 말해서
01:49
and find out what led them to introduce끼워 넣다
42
97680
2831
무슨 이유로
01:52
this new새로운 policy정책,
43
100511
1848
새로운 정책을 내놓게 되었는지
알아보기로 했죠.
01:54
and they said that the university대학
44
102359
1584
그들이 답하기를 우리 대학이
01:55
had joined합류 한 a consortium협회 of universities대학,
45
103943
2366
여러 대학으로 이뤄진
협력단에 합류했는데
01:58
and one of the requirements요구 사항 of membership회원
46
106309
2634
가입조건 중의 하나가
02:00
was that we had to have stronger더 강한 passwords암호
47
108943
2248
강한 암호를 가져야 한다는 것이었죠.
02:03
that complied준수하다 with some new새로운 requirements요구 사항,
48
111191
2272
거기다가 몇 가지 새로운 조건이 있는데
02:05
and these requirements요구 사항 were that our passwords암호
49
113463
2104
그 조건은 암호에
02:07
had to have a lot of entropy엔트로피.
50
115567
1604
불확실성이 많아야 한다는 거였어요.
02:09
Now entropy엔트로피 is a complicated복잡한 term기간,
51
117171
2278
불확실성은 복잡한 용어인데,
02:11
but basically원래 it measures조치들 the strength of passwords암호.
52
119449
2798
기본적으로 그것은
암호의 강도를 측정합니다.
02:14
But the thing is, there isn't actually사실은
53
122247
1979
하지만 실제로는
02:16
a standard표준 measure법안 of entropy엔트로피.
54
124226
1949
불확실성을 재는
표준 측정법이 없습니다.
02:18
Now, the National내셔널 Institute학회
of Standards표준 and Technology과학 기술
55
126175
2399
국립 표준 기술 연구소(NST)는
02:20
has a set세트 of guidelines지침
56
128574
1553
지침서를 갖고 있는데
02:22
which어느 have some rules규칙들 of thumb무지
57
130127
2568
거기에 불확실성을 재는
02:24
for measuring자질 entropy엔트로피,
58
132695
1440
몇 가지 규칙이 나와있지만
02:26
but they don't have anything too specific특유한,
59
134135
2895
구체적인 것은 없습니다.
02:29
and the reason이유 they only have rules규칙들 of thumb무지
60
137030
2337
경험에 근거한
규칙만 갖고 있는 까닭은
02:31
is it turns회전 out they don't actually사실은 have any good data데이터
61
139367
3136
실제로 암호에 관해서
02:34
on passwords암호.
62
142503
1520
다양한 자료가 없기 때문입니다.
02:36
In fact, their그들의 report보고서 states,
63
144023
2312
사실 국립 표준 기술 연구소의
보고를 보면
02:38
"Unfortunately운수 나쁘게, we do not have much data데이터
64
146335
2328
"유감스럽게도 저희는
정해진 규칙에 따라
02:40
on the passwords암호 users사용자
choose고르다 under아래에 particular특별한 rules규칙들.
65
148663
2842
사용자가 선택한 암호에
관해 많은 자료가 없습니다.
02:43
NISTNIST would like to obtain얻다 more data데이터
66
151505
2333
NIST는 사용자가 실제로 선택한
02:45
on the passwords암호 users사용자 actually사실은 choose고르다,
67
153838
2462
암호에 관해
더 많은 자료를 모으고 싶지만
02:48
but system체계 administrators관리자
are understandably당연히 reluctant싫어하는
68
156300
2463
시스템 관리자는 암호 자료를
02:50
to reveal창틀 password암호 data데이터 to others다른 사람."
69
158763
2940
다른 사람에게 공개하기를 꺼립니다."
02:53
So this is a problem문제, but our research연구 group그룹
70
161703
3097
그래서 이게 문제인데 저희 연구팀은
02:56
looked보았다 at it as an opportunity기회.
71
164800
2140
이걸 기회로 봤습니다.
02:58
We said, "Well, there's a need
for good password암호 data데이터.
72
166940
3100
저희는 "좋은 암호 자료가
필요하다"고 말했죠.
03:02
Maybe we can collect수집 some good password암호 data데이터
73
170040
2148
저희가 어쩌면
좋은 암호 자료를 모을 수 있고
03:04
and actually사실은 advance전진 the state상태 of the art미술 here.
74
172188
2704
여기서 예술의 경지로
이끌어갈 지도 모르죠.
03:06
So the first thing we did is,
75
174892
1672
그래서 처음에 한 일은
03:08
we got a bag가방 of candy사탕 bars
76
176564
1556
캔디바 (막대기형의 스낵)
한 봉지를 가지고
03:10
and we walked걸었다 around campus교정
77
178120
1086
교내를 돌아다니면서
03:11
and talked말한 to students재학생, faculty학부 and staff직원,
78
179206
2798
학생, 교수, 직원들에게
03:14
and asked물었다 them for information정보
79
182004
1530
암호에 관한
03:15
about their그들의 passwords암호.
80
183534
1552
질문을 던졌습니다.
03:17
Now we didn't say, "Give us your password암호."
81
185086
3004
"암호를 말해주세요."
라고 하지는 않았어요.
03:20
No, we just asked물었다 them about their그들의 password암호.
82
188090
2661
그저 암호에 관해서 물어봤습니다.
03:22
How long is it? Does it have a digit손가락?
83
190751
1478
암호가 얼마나 길죠?
숫자가 들어갔나요?
03:24
Does it have a symbol상징?
84
192229
1068
기호가 들어갔습니까?
03:25
And were you annoyed괴로운 at having to create몹시 떠들어 대다
85
193297
2045
"지난 주에 새로운 암호를
03:27
a new새로운 one last week?
86
195342
2744
만들어야 했을 때
귀찮게 느껴졌나요?"
03:30
So we got results결과들 from 470 students재학생,
87
198086
3206
그래서 저희는 470 명의 학생,
03:33
faculty학부 and staff직원,
88
201292
971
교수, 직원들한테서 답을 받았고
03:34
and indeed과연 we confirmed확인 된 that the new새로운 policy정책
89
202263
2514
새로운 정책이 정말로 피곤하게 한다는
03:36
was very annoying성가신,
90
204777
1453
사실을 확인했습니다.
03:38
but we also또한 found녹이다 that people said
91
206230
1792
하지만 동시에 사람들은
03:40
they felt펠트 more secure안전한 with these new새로운 passwords암호.
92
208022
3130
새 암호의 보안이 강화되었음을
느꼈다고 말했습니다.
03:43
We found녹이다 that most가장 people knew알고 있었다
93
211152
2306
대부분의 사람들이
03:45
they were not supposed가정의 to
write쓰다 their그들의 password암호 down,
94
213458
2152
암호를 적어두면
안 된다고 알고 있었고
03:47
and only 13 percent퍼센트 of them did,
95
215610
2391
오직 13% 의 사람들이
암호를 적어 두었고
03:50
but disturbingly혼란스럽게, 80 percent퍼센트 of people
96
218001
2416
놀랍게도 80 % 의 사람들이
03:52
said they were reusing재사용 their그들의 password암호.
97
220417
2124
암호를 다시 사용하고 있었습니다.
03:54
Now, this is actually사실은 more dangerous위험한
98
222541
1796
이는 암호를 적어두는 것보다
03:56
than writing쓰기 your password암호 down,
99
224337
2022
실제로 더 위험합니다.
03:58
because it makes~을 만든다 you much
more susceptible느끼기 쉬운 to attackers공격자.
100
226359
3561
왜냐하면 쉽게 공격받을
수 있기 때문입니다.
04:01
So if you have to, write쓰다 your passwords암호 down,
101
229920
3118
그러니 필요하다면
암호를 적되
04:05
but don't reuse재사용 them.
102
233038
1799
다시 사용하지는 마세요.
04:06
We also또한 found녹이다 some interesting재미있는 things
103
234837
1751
저희는 또 사람들이 암호에 쓰는
04:08
about the symbols기호들 people use in passwords암호.
104
236588
2961
기호에 대해
재미난 사실을 알았습니다.
04:11
So CMUCMU allows허락하다 32 possible가능한 symbols기호들,
105
239549
2799
카네기 멜론 대학은 사용가능한
32 개의 기호를 허용하는데
04:14
but as you can see, there's only a small작은 number번호
106
242348
2433
보시다시피 사람들은
04:16
that most가장 people are using~을 사용하여,
107
244781
1802
아주 적은 일부의 기호만
사용하고 있습니다.
04:18
so we're not actually사실은 getting점점 very much strength
108
246583
2941
그래서 암호에 들어간 기호때문에
04:21
from the symbols기호들 in our passwords암호.
109
249524
2466
암호의 강도가
그다지 세지지 않습니다.
04:23
So this was a really interesting재미있는 study연구,
110
251990
2711
이것은 정말 흥미로운 연구였는데
04:26
and now we had data데이터 from 470 people,
111
254701
2464
470 명한테 받은 자료가 있고
04:29
but in the scheme계획 of things,
112
257165
1305
일반적으로 볼 때
04:30
that's really not very much password암호 data데이터,
113
258470
2580
암호 자료가 많은 것은 아닙니다.
04:33
and so we looked보았다 around to see
114
261050
1445
그래서 암호 자료를 추가로
04:34
where could we find additional추가의 password암호 data데이터?
115
262495
2560
얻을 수 있는 곳이
어딘가 살펴봤습니다.
04:37
So it turns회전 out there are a lot of people
116
265055
2176
그런데 많은 사람들이
04:39
going around stealing훔침 passwords암호,
117
267231
2202
암호를 훔쳐서
04:41
and they often자주 go and post게시하다 these passwords암호
118
269433
2477
인터넷에
04:43
on the Internet인터넷.
119
271910
1337
훔친 암호를
올려놓는 것을 알았습니다.
04:45
So we were able할 수 있는 to get access접속하다
120
273247
1673
저희는 이렇게 도난당한 암호에
04:46
to some of these stolen훔친 password암호 sets세트.
121
274920
3970
접속할 수 있었지만
04:50
This is still not really ideal이상 for research연구, though그래도,
122
278890
2328
연구를 위해서는
적합하지 않습니다.
04:53
because it's not entirely전적으로 clear명확한
123
281218
2037
왜냐하면 이들 암호의
04:55
where all of these passwords암호 came왔다 from,
124
283255
2184
출처가 분명하지 않고
04:57
or exactly정확하게 what policies정책들 were in effect효과
125
285439
2242
사람들이 암호를 만들었을 때
04:59
when people created만들어진 these passwords암호.
126
287681
2108
어떤 방침을
따랐는지 모르기 때문이죠.
05:01
So we wanted to find some better source출처 of data데이터.
127
289789
3552
그래서 저희는 좀더 나은
자료를 찾고 싶었습니다.
05:05
So we decided결정적인 that one thing we could do
128
293341
1634
그래서 저희가
할 수 있는 방법 하나는
05:06
is we could do a study연구 and have people
129
294975
2129
연구를 하고
그래서 사람들이
05:09
actually사실은 create몹시 떠들어 대다 passwords암호 for our study연구.
130
297104
3240
저희가 하는 연구를 위해서
암호를 만들게 하는 것이죠.
05:12
So we used a service서비스 called전화 한
Amazon아마존 Mechanical기계 Turk잔인한 사람,
131
300344
2821
저희는 아마존 미케니컬 터크라는
서비스를 이용했습니다.
05:15
and this is a service서비스 where you can post게시하다
132
303165
2334
이 서비스는
05:17
a small작은 job online온라인 that takes a minute,
133
305499
2304
1 분, 몇 분, 1 시간이 걸리는
05:19
a few조금 minutes의사록, an hour시간,
134
307803
1500
작은 업무를 온라인에 올려서
05:21
and pay지불 people, a penny페니, ten cents센트, a few조금 dollars불화,
135
309303
2584
그 일을 하는 사람들에게
05:23
to do a task태스크 for you,
136
311887
1346
1 페니, 10 센트, 몇 달러를
지불하게 합니다.
05:25
and then you pay지불 them through...을 통하여 Amazon아마존.comcom.
137
313233
2122
아마존으로 지불하죠.
05:27
So we paid유료 people about 50 cents센트
138
315355
2294
그래서 저희는
사람들에게 50 센트를 주고
05:29
to create몹시 떠들어 대다 a password암호 following수행원 our rules규칙들
139
317649
2596
저희가 제시하는 규칙에 따라
05:32
and answering응답 a survey측량,
140
320245
1410
암호를 만들게 하고
설문조사에 답하도록 했습니다.
05:33
and then we paid유료 them again to come back
141
321655
2525
그리고 이틀 뒤에
05:36
two days later후에 and log로그 in
142
324180
2071
그들의 암호로 로그인해서
05:38
using~을 사용하여 their그들의 password암호 and answering응답 another다른 survey측량.
143
326251
2574
또다른 설문조사에 답하게 했죠.
05:40
So we did this, and we collected모은 5,000 passwords암호,
144
328825
4464
저희는 이런 실험을 해서
암호 5,000 개를 모았는데
05:45
and we gave people a bunch다발 of different다른 policies정책들
145
333289
2695
암호를 만들 때 필요한
05:47
to create몹시 떠들어 대다 passwords암호 with.
146
335984
1508
조건을 다양하게 줬습니다.
05:49
So some people had a pretty예쁜 easy쉬운 policy정책,
147
337492
1910
어떤 사람들한테는 아주 쉬운
정책을 줬는데
05:51
we call it Basic기본8,
148
339402
1539
기본 8 이라고 하겠습니다.
05:52
and here the only rule규칙 was that your password암호
149
340941
2146
여기서는 유일한 규칙이
05:55
had to have at least가장 작은 eight여덟 characters문자들.
150
343087
3416
8개의 글자만 있으면 됩니다.
05:58
Then some people had a much harder열심히 policy정책,
151
346503
2251
다른 사람들한테는
아주 힘든 정책을 줬는데
06:00
and this was very similar비슷한 to the CMUCMU policy정책,
152
348754
2537
이는 카네기 멜론 대학의 정책과
아주 비슷했어요.
06:03
that it had to have eight여덟 characters문자들
153
351291
1934
글자 수는 8개가 되어야 하고
06:05
including포함 uppercase대문자, lowercase소문자, digit손가락, symbol상징,
154
353225
2376
대문자, 소문자, 숫자,
기호가 있어야 하고
06:07
and pass패스 a dictionary사전 check검사.
155
355601
2389
사전에 없어야 됩니다.
06:09
And one of the other policies정책들 we tried시도한,
156
357990
1335
저희가 해본 다른 정책 중 하나는
06:11
and there were a whole완전한 bunch다발 more,
157
359325
1270
아주 다양한 실험을 했는데
06:12
but one of the ones그들 we tried시도한 was called전화 한 Basic기본16,
158
360595
2240
그 중 하나는 기본 16 이라고
부르는 것으로
06:14
and the only requirement요건 here
159
362835
2632
여기서 필요한 것은 한 가지
06:17
was that your password암호 had
to have at least가장 작은 16 characters문자들.
160
365467
3153
최소한 16개의 글자만
있으면 됩니다.
06:20
All right, so now we had 5,000 passwords암호,
161
368620
2458
자, 그래서 저희는
암호 5,000 개를 모았고
06:23
and so we had much more detailed상세한 information정보.
162
371078
3563
아주 상세한 정보를 얻게 되었죠.
06:26
Again we see that there's only a small작은 number번호
163
374641
2559
사람들이 암호에서
06:29
of symbols기호들 that people are actually사실은 using~을 사용하여
164
377200
1915
실제로 사용하는 기호는
06:31
in their그들의 passwords암호.
165
379115
1886
몇 개 뿐임을 알 수 있었어요.
06:33
We also또한 wanted to get an idea생각 of how strong강한
166
381001
2599
저희는 사람들이 만드는 암호가
06:35
the passwords암호 were that people were creating창조,
167
383600
2771
얼마나 강한지 알고 싶었습니다.
06:38
but as you may할 수있다 recall소환, there isn't a good measure법안
168
386371
2620
여러분이 기억하실 지 모르지만
06:40
of password암호 strength.
169
388991
1754
암호의 강도를 재는
좋은 측정방법은 없습니다.
06:42
So what we decided결정적인 to do was to see
170
390745
2312
그래서 저희가 한 일은
06:45
how long it would take to crack갈라진 금 these passwords암호
171
393057
2370
이들 암호를 해독하는데
걸리는 시간을 보는 거였죠.
06:47
using~을 사용하여 the best베스트 cracking열분해 tools도구들
172
395427
1414
나쁜 사람들이 사용하는
06:48
that the bad나쁜 guys are using~을 사용하여,
173
396841
1808
암호 해독기를 사용하거나
06:50
or that we could find information정보 about
174
398649
2016
연구소에서
06:52
in the research연구 literature문학.
175
400665
1537
찾을 수 있는 정보를 이용해서 말이죠.
06:54
So to give you an idea생각 of how bad나쁜 guys
176
402202
2758
나쁜 사람들이 암호를 풀 때
06:56
go about cracking열분해 passwords암호,
177
404960
2170
어떻게 하는지를 보여드리자면
06:59
they will steal훔치다 a password암호 file파일
178
407130
1951
그들은 모든 암호가 들어있는
07:01
that will have all of the passwords암호
179
409081
2153
암호 파일을 훔칩니다.
07:03
in kind종류 of a scrambled뒤섞인 form형태, called전화 한 a hash해시시,
180
411234
2889
암호가 해시라고 부르는
형태로 들어있습니다.
07:06
and so what they'll그들은 할 것이다 do is they'll그들은 할 것이다 make a guess추측
181
414123
2562
그러면 암호가 뭔지
07:08
as to what a password암호 is,
182
416685
1712
추측을 해 나갑니다.
07:10
run운영 it through...을 통하여 a hashing해싱 function기능,
183
418397
1897
해시 함수를 써서
07:12
and see whether인지 어떤지 it matches성냥
184
420294
1765
훔친 목록에 들어있는 암호와
07:14
the passwords암호 they have on
their그들의 stolen훔친 password암호 list명부.
185
422059
3950
맞는지 비교합니다.
07:18
So a dumb우둔한 attacker공격자 will try every...마다 password암호 in order주문.
186
426009
3105
멍청한 공격자는 모든 암호를
순서대로 해 볼겁니다.
07:21
They'll그들은 할 것이다 start스타트 with AAAAAAAAAA and move움직임 on to AAAABAAAAB,
187
429114
3568
AAAAAA로 시작해서
AAAAB로 옮겨갑니다.
07:24
and this is going to take a really long time
188
432682
2418
이렇게 하면
07:27
before they get any passwords암호
189
435100
1526
사람들이 실제로 가진
07:28
that people are really likely아마도 to actually사실은 have.
190
436626
2697
암호를 풀기까지
상당한 시간이 걸립니다.
07:31
A smart똑똑한 attacker공격자, on the other hand,
191
439323
2183
반면에 똑똑한 공격자는
07:33
does something much more clever영리한.
192
441506
1386
훨씬 더 영리한 방법을 씁니다.
07:34
They look at the passwords암호
193
442892
1826
그들은 훔진 암호에서
07:36
that are known알려진 to be popular인기 있는
194
444718
1800
인기가 많은
07:38
from these stolen훔친 password암호 sets세트,
195
446518
1727
암호를 보고
07:40
and they guess추측 those first.
196
448245
1189
그것들을 먼저 추측합니다.
07:41
So they're going to start스타트 by guessing짐작 "password암호,"
197
449434
2134
그래서 "암호"를 먼저 추측하고
07:43
and then they'll그들은 할 것이다 guess추측 "I love you," and "monkey원숭이,"
198
451568
2751
그 다음은 "사랑해", "원숭이",
07:46
and "12345678,"
199
454319
2583
""12345678"을 추측하죠.
07:48
because these are the passwords암호
200
456902
1312
왜냐하면 이런 암호들을
07:50
that are most가장 likely아마도 for people to have.
201
458214
1905
사람들이 자주 쓰기 때문이죠.
07:52
In fact, some of you probably아마 have these passwords암호.
202
460119
3261
어쩌면 여러분 가운데 몇 분도
이런 암호를 갖고 계실지도 모릅니다.
07:57
So what we found녹이다
203
465191
1298
그래서 암호가 얼마나 강한지
07:58
by running달리는 all of these 5,000 passwords암호 we collected모은
204
466489
3406
알아보기 위한 실험에서
저희가 모은 5 천개의 암호에서
08:01
through...을 통하여 these tests검사들 to see how strong강한 they were,
205
469895
4106
발견한 사실은
08:06
we found녹이다 that the long passwords암호
206
474001
2752
긴 암호가
08:08
were actually사실은 pretty예쁜 strong강한,
207
476753
1280
실제로 아주 강하다는 것이었어요.
08:10
and the complex복잡한 passwords암호 were pretty예쁜 strong강한 too.
208
478033
3262
복잡한 암호도 상당히 강했구요.
08:13
However하나, when we looked보았다 at the survey측량 data데이터,
209
481295
2442
하지만 저희가 조사한 자료를 봤을 때
08:15
we saw that people were really frustrated실망한
210
483737
3024
사람들은 아주 복잡한 암호 때문에
08:18
by the very complex복잡한 passwords암호,
211
486761
2339
정말 짜증스러워했습니다.
08:21
and the long passwords암호 were a lot more usable쓸 수 있는,
212
489100
2630
긴 암호는 더 사용할 수 있고
08:23
and in some cases사례, they were actually사실은
213
491730
1325
어떤 경우에는
08:25
even stronger더 강한 than the complex복잡한 passwords암호.
214
493055
2908
복잡한 암호보다 강했습니다.
08:27
So this suggests제안 that,
215
495963
1169
이 말은
08:29
instead대신에 of telling말함 people that they need
216
497132
1703
사람들한테
08:30
to put all these symbols기호들 and numbers번호
217
498835
1522
이런 기호와 숫자,
08:32
and crazy미친 things into their그들의 passwords암호,
218
500357
2842
이상한 것들을 암호에
넣으라고 하는 대신,
08:35
we might be better off just telling말함 people
219
503199
2022
긴 암호를 만들어라고
08:37
to have long passwords암호.
220
505221
2652
말하는게 나을 지도 모릅니다.
08:39
Now here's여기에 the problem문제, though그래도:
221
507873
1792
하지만 문제가 생기죠.
08:41
Some people had long passwords암호
222
509665
2255
어떤 사람들은 긴 암호를 만들지만
08:43
that actually사실은 weren't하지 않았다 very strong강한.
223
511920
1555
실제로 강하지는 않습니다.
08:45
You can make long passwords암호
224
513475
1997
여러분은 긴 암호를 만들 수 있지만
08:47
that are still the sort종류 of thing
225
515472
1556
여전히 공격자가
08:49
that an attacker공격자 could easily용이하게 guess추측.
226
517028
1742
쉽게 추측할 수 있습니다.
08:50
So we need to do more than
just say long passwords암호.
227
518770
3365
그래서 저희는 긴 암호에
덧붙여 뭔가를 할 필요가 있어요.
08:54
There has to be some additional추가의 requirements요구 사항,
228
522135
1936
어떤 부가적인 요소가 있어야 하는데,
08:56
and some of our ongoing전진 research연구 is looking at
229
524071
2969
저희가 계속하고 있는 연구의 일부는
08:59
what additional추가의 requirements요구 사항 we should add더하다
230
527040
2439
어떤 부가적인 요소를 넣어야
09:01
to make for stronger더 강한 passwords암호
231
529479
2104
강한 암호를 만들고
09:03
that also또한 are going to be easy쉬운 for people
232
531583
2312
또 사람들이 기억하기도 쉬우면서
09:05
to remember생각해 내다 and type유형.
233
533895
2698
입력하기도 쉬운지를
살펴보는 일입니다.
09:08
Another다른 approach접근 to getting점점 people to have
234
536593
2126
사람들에게 강한 암호를 만들게 하는
09:10
stronger더 강한 passwords암호 is to use a password암호 meter미터.
235
538719
2257
또다른 방법은 암호 미터를
사용하는 것인데요.
09:12
Here are some examples예제들.
236
540976
1385
여기 몇 가지 보기가 있습니다.
09:14
You may할 수있다 have seen these on the Internet인터넷
237
542361
1401
여러분이 인터넷에서
09:15
when you were creating창조 passwords암호.
238
543762
3057
암호를 만들 때 봤을 거에요.
09:18
We decided결정적인 to do a study연구 to find out
239
546819
2248
이런 암호 미터가
정말로 효과가 있는지
09:21
whether인지 어떤지 these password암호 meters미터 actually사실은 work.
240
549067
2887
살펴보기 위해 연구를 했습니다.
09:23
Do they actually사실은 help people
241
551954
1421
실제로 암호 미터가
사람들이
09:25
have stronger더 강한 passwords암호,
242
553375
1453
강한 암호를 만드는데 도움을 주는가?
09:26
and if so, which어느 ones그들 are better?
243
554828
2086
그렇다면 어느 방법이 더 나은가?
09:28
So we tested테스트 한 password암호 meters미터 that were
244
556914
2507
저희들은 서로 다른
암호 미터를 실험했습니다.
09:31
different다른 sizes크기, shapes도형, colors그림 물감,
245
559421
2098
다른 크기, 모양, 색깔,
09:33
different다른 words next다음 것 to them,
246
561519
1416
다른 말을 암호 옆에 뒀어요.
09:34
and we even tested테스트 한 one that was a dancing댄스 bunny토끼.
247
562935
3275
춤추는 토끼까지 실험했습니다.
09:38
As you type유형 a better password암호,
248
566210
1582
여러분이 좀더 나은 암호를 입력하면
09:39
the bunny토끼 dances faster더 빠른 and faster더 빠른.
249
567792
2539
토끼가 더욱더 빨리 춤을 춥니다.
09:42
So this was pretty예쁜 fun장난.
250
570331
2529
아주 재미있었어요.
09:44
What we found녹이다
251
572860
1567
저희가 발견한 사실은
09:46
was that password암호 meters미터 do work.
252
574427
3572
암호 미터가 효과가 있었다는 거죠.
09:49
(Laughter웃음)
253
577999
1801
(웃음)
09:51
Most가장 of the password암호 meters미터 were actually사실은 effective유효한,
254
579800
3333
대부분의 암호 미터가
실제 효과가 있었고
09:55
and the dancing댄스 bunny토끼 was very effective유효한 too,
255
583133
2521
춤추는 토끼도 좋은 효과가 있었지만
09:57
but the password암호 meters미터 that were the most가장 effective유효한
256
585654
2881
가장 효과가 뛰어난 암호 미터는
10:00
were the ones그들 that made만든 you work harder열심히
257
588535
2355
"잘하고 있어요" 라고
10:02
before they gave you that thumbs엄지 손가락 up and said
258
590890
1980
엄지손가락을 치켜세우는
화면을 보여주기 전까지
10:04
you were doing a good job,
259
592870
1377
사람들이 더 노력하게끔
만드는 것이었습니다.
10:06
and in fact we found녹이다 that most가장
260
594247
1512
사실 인터넷에 나오는
10:07
of the password암호 meters미터 on the Internet인터넷 today오늘
261
595759
2281
대부분의 암호 미터는
10:10
are too soft부드러운.
262
598040
952
너무 부드럽다는 것을
발견했습니다.
10:10
They tell you you're doing a good job too early이른,
263
598992
2203
암호 미터는 "여러분이 잘하고 있다"고
너무나 일찍 말합니다.
10:13
and if they would just wait a little bit비트
264
601195
1929
그렇게 긍정적인 의견을 주기전에
10:15
before giving주는 you that positive feedback피드백,
265
603124
2049
조금만 더 기다린다면
10:17
you probably아마 would have better passwords암호.
266
605173
3160
여러분은 조금 더 나은
암호를 만들겁니다.
10:20
Now another다른 approach접근 to better passwords암호, perhaps혹시,
267
608333
3847
더 나은 암호를 만드는 또다른 방법은
10:24
is to use pass패스 phrases실없는 말 instead대신에 of passwords암호.
268
612180
2890
암호 대신
비밀어구를 사용하는 것이죠.
10:27
So this was an xkcdxkcd cartoon만화
from a couple of years연령 ago...전에,
269
615070
3418
이건 몇 년 전에 나온
xkcd 만화인데
10:30
and the cartoonist만화가 suggests제안
270
618488
1674
만화가는
10:32
that we should all use pass패스 phrases실없는 말,
271
620162
2196
우리가 비밀어구를
써야 한다고 말합니다.
10:34
and if you look at the second둘째 row of this cartoon만화,
272
622358
3170
이 만화의 둘째줄을 보면
10:37
you can see the cartoonist만화가 is suggesting제안하는
273
625528
1857
만화가가 비밀어구인
10:39
that the pass패스 phrase "correct옳은 horse battery배터리 staple스테이플"
274
627385
3441
"바른 말 밧데리 스테이플"
이라고 제안하는데
10:42
would be a very strong강한 pass패스 phrase
275
630826
2481
이것은 꽤 강한 비밀어구이고
10:45
and something really easy쉬운 to remember생각해 내다.
276
633307
1916
외우기도 쉽습니다.
10:47
He says말한다, in fact, you've already이미 remembered기억 된 it.
277
635223
2797
만화가는 여러분이 이미
그걸 외웠다고 얘기합니다.
10:50
And so we decided결정적인 to do a research연구 study연구
278
638020
2150
그래서 저희는 이것이 사실인지 아닌지
10:52
to find out whether인지 어떤지 this was true참된 or not.
279
640170
2592
확인하기 위해서 연구를 했습니다.
10:54
In fact, everybody각자 모두 who I talk to,
280
642762
1775
사실 제가 얘기한 모든 사람들이
10:56
who I mention언급하다 I'm doing password암호 research연구,
281
644537
2042
제가 암호에 관한
연구를 한다고 했더니
10:58
they point포인트 out this cartoon만화.
282
646579
1400
이 만화를 말하더군요.
10:59
"Oh, have you seen it? That xkcdxkcd.
283
647979
1574
"아, 그것 보셨어요? xkcd만화요.
11:01
Correct옳은 horse battery배터리 staple스테이플."
284
649553
1602
올바른 말 밧데리 스테이플."
11:03
So we did the research연구 study연구 to see
285
651155
1806
그래서 저희는 실제로
11:04
what would actually사실은 happen우연히 있다.
286
652961
2359
어떤 일이 벌어지는지 연구했습니다.
11:07
So in our study연구, we used Mechanical기계 Turk잔인한 사람 again,
287
655320
3060
저희가 한 연구에서
미케니컬 터크를 다시 썼는데
11:10
and we had the computer컴퓨터 pick선택 the random무작위의 words
288
658380
4167
컴퓨터가 무작위로 낱말을 뽑아서
11:14
in the pass패스 phrase.
289
662547
1100
비밀어구를 만들게 했습니다.
11:15
Now the reason이유 we did this
290
663647
1153
그렇게 한 까닭은
11:16
is that humans인간 are not very good
291
664800
1586
사람들이 무작위로 낱말을 고르는데
11:18
at picking선발 random무작위의 words.
292
666386
1384
익숙하지 않기 때문입니다.
11:19
If we asked물었다 a human인간의 to do it,
293
667770
1262
사람들한테 그렇게 하라고 하면
11:21
they would pick선택 things that were not very random무작위의.
294
669032
2998
별로 무작위적이지 않은
낱말을 고르고는 했죠.
11:24
So we tried시도한 a few조금 different다른 conditions정황.
295
672030
2032
그래서 저희는
다른 조건을 넣었습니다.
11:26
In one condition조건, the computer컴퓨터 picked뽑힌
296
674062
2090
한 조건에는, 컴퓨터가
11:28
from a dictionary사전 of the very common공유지 words
297
676152
2216
영어 사전에서
11:30
in the English영어 language언어,
298
678368
1362
아주 흔한 낱말을 고르게 했고
11:31
and so you'd당신은 get pass패스 phrases실없는 말 like
299
679730
1764
그러면 여러분은 다음과 같은
비밀어구를 얻습니다.
11:33
"try there three come."
300
681494
1924
"거기서 셋이 오게 해."
11:35
And we looked보았다 at that, and we said,
301
683418
1732
저희는 그걸 보고
11:37
"Well, that doesn't really seem보다 very memorable기억에 남는."
302
685150
3050
"쉽게 외울 수 없어보여."라고 했죠.
11:40
So then we tried시도한 picking선발 words
303
688200
2240
그래서 저희들은
11:42
that came왔다 from specific특유한 parts부분품 of speech연설,
304
690440
2521
연설의 구체적인 한 부분에서
낱말을 고르게 했습니다.
11:44
so how about noun-verb-adjective-noun명사 - 동사 - 형용사.
305
692961
2182
명사-동사-형용사-명사
이런 식으로요.
11:47
That comes온다 up with something
that's sort종류 of sentence-like문장과 같은.
306
695143
2577
그러면 일종의 문장처럼 나옵니다.
11:49
So you can get a pass패스 phrase like
307
697720
2070
그래서 다음과 같은
비밀어구가 생기죠.
11:51
"plan계획 builds빌드 sure power"
308
699790
1308
"계획은 확실한 힘을 세운다" 나
11:53
or "end종료 determines결정하다 red빨간 drug."
309
701098
2786
"마지막은 빨간 약을 결정짓는다."
11:55
And these seemed~ 같았다 a little bit비트 more memorable기억에 남는,
310
703884
2676
이것들은 좀 더 외우기가
쉬운것처럼 보이죠.
11:58
and maybe people would like those a little bit비트 better.
311
706560
2822
사람들이 이런 걸 조금 더
좋아할 지도 모르죠.
12:01
We wanted to compare비교 them with passwords암호,
312
709382
2572
저희는 비밀어구를 암호와
비교해보고 싶었습니다.
12:03
and so we had the computer컴퓨터
pick선택 random무작위의 passwords암호,
313
711954
3196
그래서 컴퓨터가 무작위로
암호를 고르게 했는데
12:07
and these were nice좋은 and short짧은, but as you can see,
314
715150
1990
이들 암호는 짧고 멋지지만
여러분이 보시다시피
12:09
they don't really look very memorable기억에 남는.
315
717140
2806
쉽게 외울 수 없게 보입니다.
12:11
And then we decided결정적인 to try something called전화 한
316
719946
1396
그 다음에는
12:13
a pronounceable발음 할 수있는 password암호.
317
721342
1646
발음하기 쉬운 암호를
연구했습니다.
12:14
So here the computer컴퓨터 picks추천 random무작위의 syllables음절
318
722988
2245
여기서는 컴퓨터가 무작위로
12:17
and puts넣다 them together함께
319
725233
1134
음절을 골라 같이 묶어서
12:18
so you have something sort종류 of pronounceable발음 할 수있는,
320
726367
2475
발음할 수 있는 낱말을 만듭니다.
12:20
like "tufritvi투 프릿 비" and "vadasabi바다 사비."
321
728842
2602
"투프리트비"나 "바다사비"
같은 것이죠.
12:23
That one kind종류 of rolls off your tongue.
322
731444
2147
그런 말은 여러분 혀에서
굴러나옵니다.
12:25
So these were random무작위의 passwords암호 that were
323
733591
2216
이렇게 무작위로 나온 암호가
12:27
generated생성 된 by our computer컴퓨터.
324
735807
2744
컴퓨터로 만들어집니다.
12:30
So what we found녹이다 in this study연구 was that, surprisingly놀랍게도,
325
738551
2978
저희가 한 연구에서
발견한 사실은 놀랍게도
12:33
pass패스 phrases실없는 말 were not actually사실은 all that good.
326
741529
3768
비밀어구가 실제로는 그렇게
훌륭하지 않다는 것입니다.
12:37
People were not really better at remembering기억하는
327
745297
2793
사람들은 이렇게
무작위로 뽑은 암호보다
12:40
the pass패스 phrases실없는 말 than these random무작위의 passwords암호,
328
748090
2953
비밀어구를 잘 외우지 못했는데
12:43
and because the pass패스 phrases실없는 말 are longer더 길게,
329
751043
2754
비밀어구가 길고
12:45
they took~했다 longer더 길게 to type유형
330
753797
1226
입력하기도 길고
12:47
and people made만든 more errors오류 while typing타자 them in.
331
755023
3010
사람들이 입력하면서
실수도 하기 때문이죠.
12:50
So it's not really a clear명확한 win승리 for pass패스 phrases실없는 말.
332
758033
3227
그래서 비밀어구의
명백한 승리는 아닙니다.
12:53
Sorry, all of you xkcdxkcd fans팬들.
333
761260
3345
xkcd 팬 여러분께는 죄송하군요.
12:56
On the other hand, we did find
334
764605
1892
다른 한편으로
12:58
that pronounceable발음 할 수있는 passwords암호
335
766497
1804
발음할 수 있는 암호가
13:00
worked일한 surprisingly놀랍게도 well,
336
768301
1471
놀랍게도 효과가 있었고
13:01
and so we actually사실은 are doing some more research연구
337
769772
2418
그러한 접근방법이 더 나은지
13:04
to see if we can make that
approach접근 work even better.
338
772190
3195
연구를 좀 더 했습니다.
13:07
So one of the problems문제들
339
775385
1812
저희가 한 연구의 일부에서
13:09
with some of the studies연구 that we've우리는 done끝난
340
777197
1623
맞닥뜨린 문제는
13:10
is that because they're all done끝난
341
778820
1683
모든 연구를
13:12
using~을 사용하여 Mechanical기계 Turk잔인한 사람,
342
780503
1590
미케니컬 터크를 이용한 것이어서
13:14
these are not people's사람들의 real레알 passwords암호.
343
782093
1812
이것들이 사람들이 사용하는
진짜 암호는 아니라는 거죠.
13:15
They're the passwords암호 that they created만들어진
344
783905
2105
저희가 하는 연구를 위해서
사람들이 만든 암호이거나
13:18
or the computer컴퓨터 created만들어진 for them for our study연구.
345
786010
2495
컴퓨터가 만든 암호입니다.
13:20
And we wanted to know whether인지 어떤지 people
346
788505
1568
저희가 알고 싶었던 것은
13:22
would actually사실은 behave굴다 the same같은 way
347
790073
2312
사람들이 자신들의 진짜 암호에도
13:24
with their그들의 real레알 passwords암호.
348
792385
2227
비슷하게 행동하는지 였습니다.
13:26
So we talked말한 to the information정보
security보안 office사무실 at Carnegie카네기 Mellon멜론
349
794612
3681
그래서 저희는 카네기멜론 대학의
정보 안전소와 얘기해서
13:30
and asked물었다 them if we could
have everybody's모두들 real레알 passwords암호.
350
798293
3803
모든 사람들의 진짜 암호를
얻을 수 있는지 물었습니다.
13:34
Not surprisingly놀랍게도, they were a little bit비트 reluctant싫어하는
351
802096
1754
당연히 그들은
13:35
to share them with us,
352
803850
1550
암호를 공개하고 싶어하지 않았어요.
13:37
but we were actually사실은 able할 수 있는 to work out
353
805400
1810
하지만 저희는 실제로 암호를
13:39
a system체계 with them
354
807210
1040
연구할 수 있는 시스템을
생각해냈습니다.
13:40
where they put all of the real레알 passwords암호
355
808250
2109
25,000 명의 카네기멜론 대학
학생, 교수, 직원들의
13:42
for 25,000 CMUCMU students재학생, faculty학부 and staff직원,
356
810359
3091
진짜 암호를
13:45
into a locked잠긴 computer컴퓨터 in a locked잠긴 room,
357
813450
2448
암호가 걸린 컴퓨터에 넣고
암호가 걸린 방에 두고
13:47
not connected연결된 to the Internet인터넷,
358
815898
1394
인터넷 연결도 끊은 채
13:49
and they ran달렸다 code암호 on it that we wrote
359
817292
1848
이들 암호를 분석하기 위해
13:51
to analyze분석하다 these passwords암호.
360
819140
2152
저희가 개발한
프로그램을 돌렸습니다.
13:53
They audited감사 한 our code암호.
361
821292
1326
그들은 저희가 개발한
프로그램을 검토한 뒤
13:54
They ran달렸다 the code암호.
362
822618
1312
그걸 실행했습니다.
13:55
And so we never actually사실은 saw
363
823930
1738
그래서 저희는 실제로
13:57
anybody's아무나 password암호.
364
825668
2817
누구의 암호도 보지 못했습니다.
14:00
We got some interesting재미있는 results결과들,
365
828485
1515
저희는 재미있는 결과를 얻었는데
14:02
and those of you Tepper테퍼 students재학생 in the back
366
830000
1696
저 뒤에 앉아있는 테퍼스쿨 학생들이
14:03
will be very interested관심있는 in this.
367
831696
2875
흥미로워 할 결과입니다.
14:06
So we found녹이다 that the passwords암호 created만들어진
368
834571
3731
컴퓨터 학부에 소속된
14:10
by people affiliated계열사 with the
school학교 of computer컴퓨터 science과학
369
838302
2158
사람들이 만든 암호는
14:12
were actually사실은 1.8 times타임스 stronger더 강한
370
840460
2324
경영 대학에 소속된
14:14
than those affiliated계열사 with the business사업 school학교.
371
842784
3738
사람들이 만든 암호보다
1.8배 강했습니다.
14:18
We have lots of other really interesting재미있는
372
846522
2040
아주 재미있는
14:20
demographic인구 통계학의 information정보 as well.
373
848562
2238
인구통계학 정보도 많은데요.
14:22
The other interesting재미있는 thing that we found녹이다
374
850800
1846
저희가 발견한
또다른 재미있는 사실은
14:24
is that when we compared비교하다
the Carnegie카네기 Mellon멜론 passwords암호
375
852646
2440
카네기멜론 대학의 암호와
14:27
to the Mechanical기계 Turk-generated터크 생성 된 passwords암호,
376
855086
2283
미케니컬 터크가 만든
암호를 비교했을 때
14:29
there was actually사실은 a lot of similarities유사점,
377
857369
2619
실제로 아주 비슷한 점이 많아서
14:31
and so this helped도움이 된 validate유효성을 검사하다 our research연구 method방법
378
859988
1948
저희가 한 연구방법을
인증하는데 도움이 되었고
14:33
and show보여 주다 that actually사실은, collecting수집 passwords암호
379
861936
2510
미케니컬 터크를 이용해서
14:36
using~을 사용하여 these Mechanical기계 Turk잔인한 사람 studies연구
380
864446
1808
암호를 모은 방법이
14:38
is actually사실은 a valid유효한 way to study연구 passwords암호.
381
866254
2788
암호를 연구하는데
효과적인 방법임을 보여줬습니다.
14:41
So that was good news뉴스.
382
869042
2285
그래서 그건 좋은 뉴스였죠.
14:43
Okay, I want to close닫기 by talking말하는 about
383
871327
2414
자, 마지막으로
14:45
some insights통찰력 I gained얻은 while on sabbatical안식일 같은
384
873741
2068
제가 작년에 안식년을
14:47
last year in the Carnegie카네기 Mellon멜론 art미술 school학교.
385
875809
3201
카네기멜론 예술 대학에서 보냈을 때
얻은 경험을 얘기하겠습니다.
14:51
One of the things that I did
386
879010
1281
제가 한 일 가운데 하나는
14:52
is I made만든 a number번호 of quilts퀼트,
387
880291
1524
조각 이불을 몇 개를 만든 거죠.
14:53
and I made만든 this quilt이불 here.
388
881815
1548
여기 보시는 조각 이불을 만들었는데
14:55
It's called전화 한 "Security보안 Blanket담요."
389
883363
1899
"안보 이불"이라고 부릅니다.
14:57
(Laughter웃음)
390
885262
2431
(웃음)
14:59
And this quilt이불 has the 1,000
391
887693
3095
이 조각 이불은
15:02
most가장 frequent빈번한 passwords암호 stolen훔친
392
890788
2328
롹 유 웹사이트에서 가장 많이
15:05
from the RockYou website웹 사이트.
393
893116
2571
도난당한 암호
1,000 개가 들어있어요.
15:07
And the size크기 of the passwords암호 is proportional비례항
394
895687
2061
암호의 크기는
15:09
to how frequently자주 they appeared출연 한
395
897748
1901
도난당한 자료에서
15:11
in the stolen훔친 dataset데이터 세트.
396
899649
2248
자주 나오는 횟수에 비례합니다.
15:13
And what I did is I created만들어진 this word워드 cloud구름,
397
901897
2632
제가 한 일은 낱말로 된
구름을 만들어서
15:16
and I went갔다 through...을 통하여 all 1,000 words,
398
904529
2132
1,000 개의 낱말을 보고
15:18
and I categorized분류 된 them into
399
906661
1795
어떤 주제로
15:20
loose느슨하게 thematic어간 형성 모음 categories카테고리.
400
908456
2380
분류를 했습니다.
15:22
And it was, in some cases사례,
401
910836
1903
어떤 경우에는
15:24
it was kind종류 of difficult어려운 to figure그림 out
402
912739
2038
어떤 주제로
15:26
what category범주 they should be in,
403
914777
1755
분류해야 할 지 모를 때도 있었죠.
15:28
and then I color-coded색으로 구분 된 them.
404
916532
1899
그 뒤에 색깔로 분류했어요.
15:30
So here are some examples예제들 of the difficulty어려움.
405
918431
2619
그 과정이 얼마나 힘들었는지
여기서 보실 수 있습니다.
15:33
So "justin저스틴."
406
921050
1181
"져스틴"은
15:34
Is that the name이름 of the user사용자,
407
922231
1829
사용자의 이름이거나
15:36
their그들의 boyfriend남자 친구, their그들의 son아들?
408
924060
1322
남자친구, 아들이겠죠?
15:37
Maybe they're a Justin저스틴 Bieber비버 fan부채.
409
925382
2888
어쩌면 져스틴 비버의
팬일지도 몰라요.
15:40
Or "princess공주님."
410
928270
2225
또는 "공주."
15:42
Is that a nickname별명?
411
930495
1635
별명일까요?
15:44
Are they Disney디즈니 princess공주님 fans팬들?
412
932130
1595
디즈니 공주의 팬일까요?
15:45
Or maybe that's the name이름 of their그들의 cat고양이.
413
933725
3694
어쩌면 고양이의 이름일수도 있겠죠.
15:49
"Iloveyou사랑해" appears등장하다 many많은 times타임스
414
937419
1655
"사랑해"는 여러 언어에서
15:51
in many많은 different다른 languages언어.
415
939074
1545
많이 나왔습니다.
15:52
There's a lot of love in these passwords암호.
416
940619
3735
이들 암호에는 사랑이 넘칩니다.
15:56
If you look carefully면밀히, you'll see there's also또한
417
944354
1680
자세히 살펴보면
15:58
some profanity욕설,
418
946034
2267
비속한 말도 있지만
16:00
but it was really interesting재미있는 to me to see
419
948301
1950
이들 암호에
16:02
that there's a lot more love than hate미움
420
950251
2307
미움보다는 사랑이 훨씬 많다는 것을
16:04
in these passwords암호.
421
952558
2292
보는게 저한테는 흥미로웠습니다.
16:06
And there are animals동물,
422
954850
1490
동물도 있었는데
16:08
a lot of animals동물,
423
956340
1360
아주 많은 동물이 나왔어요.
16:09
and "monkey원숭이" is the most가장 common공유지 animal동물
424
957700
2304
"원숭이"는 가장 흔한 동물이고
16:12
and the 14th most가장 popular인기 있는 password암호 overall사무용 겉옷.
425
960004
3675
전체로 봤을 때 14번째로
인기있는 암호입니다.
16:15
And this was really curious이상한 to me,
426
963679
2231
저는 이게 정말 궁금했어요.
16:17
and I wondered궁금해하는, "Why are monkeys원숭이 so popular인기 있는?"
427
965910
2523
"왜 이렇게 원숭이가 인기가 많지?"
16:20
And so in our last password암호 study연구,
428
968433
3352
그래서 마지막 암호 연구에서
16:23
any time we detected탐지 된 somebody어떤 사람
429
971785
1686
"원숭이"가 들어간 암호를
16:25
creating창조 a password암호 with the word워드 "monkey원숭이" in it,
430
973471
2649
만든 사람을 감지하면
16:28
we asked물었다 them why they had
a monkey원숭이 in their그들의 password암호.
431
976120
3030
암호에 원숭이를
넣는 이유를 물었습니다.
16:31
And what we found녹이다 out --
432
979150
1910
저희가 발견한 사실은
16:33
we found녹이다 17 people so far멀리, I think,
433
981060
2103
지금까지 17명이
16:35
who have the word워드 "monkey원숭이" --
434
983163
1283
"원숭이"를 암호에 썼다는 것이죠.
16:36
We found녹이다 out about a third제삼 of them said
435
984446
1812
그중의 1/3 은
16:38
they have a pet착한 애 named명명 된 "monkey원숭이"
436
986258
1740
"원숭이"라고 이름붙인
애완동물을 갖고 있거나
16:39
or a friend친구 whose누구의 nickname별명 is "monkey원숭이,"
437
987998
2291
별명이 "원숭이"인
친구가 있다고 했습니다.
16:42
and about a third제삼 of them said
438
990289
1660
그리고 1/3 은
16:43
that they just like monkeys원숭이
439
991949
1533
원숭이를 좋아하고
16:45
and monkeys원숭이 are really cute귀엽다.
440
993482
1638
원숭이가 정말 귀엽다고 말했어요.
16:47
And that guy is really cute귀엽다.
441
995120
3639
그렇게 말한 사람은 참 귀엽습니다.
16:50
So it seems~ 같다 that at the end종료 of the day,
442
998759
3408
그래서, 최종적인 경향은
16:54
when we make passwords암호,
443
1002167
1783
우리가 암호를 만들 때
16:55
we either어느 한 쪽 make something that's really easy쉬운
444
1003950
1974
입력하기 아주 쉽거나
16:57
to type유형, a common공유지 pattern무늬,
445
1005924
3009
흔한 패턴으로 만들거나,
17:00
or things that remind생각 나게하다 us of the word워드 password암호
446
1008933
2486
우리에게 그 암호를
떠올리게 하는 것들이나
17:03
or the account계정 that we've우리는 created만들어진 the password암호 for,
447
1011419
3312
우리가 암호를 위해 만든 계좌나
17:06
or whatever도대체 무엇이.
448
1014731
2617
다른 어떤것이든지로 만들죠.
17:09
Or we think about things that make us happy행복,
449
1017348
2642
또는 우리를 행복하게
만드는 것을 생각하거나
17:11
and we create몹시 떠들어 대다 our password암호
450
1019990
1304
우리를 행복하게 만드는 것에
17:13
based기반 on things that make us happy행복.
451
1021294
2238
근거해서 암호를 만듭니다.
17:15
And while this makes~을 만든다 typing타자
452
1023532
2863
그래서 이렇게 하는 것은
암호를 입력하고
17:18
and remembering기억하는 your password암호 more fun장난,
453
1026395
2870
기억하는게 재미있게 만들지만,
17:21
it also또한 makes~을 만든다 it a lot easier더 쉬운
454
1029265
1807
암호를 추측하는 것 또한
17:23
to guess추측 your password암호.
455
1031072
1506
훨씬 쉽게 합니다.
17:24
So I know a lot of these TED테드 Talks협상
456
1032578
1748
저는 많은 TED 강연들이
17:26
are inspirational영감을주는
457
1034326
1634
영감을 주는 것을 알고 있고
17:27
and they make you think about nice좋은, happy행복 things,
458
1035960
2461
기분좋고 즐거운 것을
생각하게 만들지만
17:30
but when you're creating창조 your password암호,
459
1038421
1897
여러분이 암호를 만들 때는
17:32
try to think about something else그밖에.
460
1040318
1991
뭔가 다른 것을 생각하도록 하세요.
17:34
Thank you.
461
1042309
1107
고맙습니다.
17:35
(Applause박수 갈채)
462
1043416
553
(박수)
Translated by Gemma Lee
Reviewed by Jeong-Lan Kinser

▲Back to top

ABOUT THE SPEAKER
Lorrie Faith Cranor - Security researcher
At Carnegie Mellon University, Lorrie Faith Cranor studies online privacy, usable security, phishing, spam and other research around keeping us safe online.

Why you should listen

Lorrie Faith Cranor is an Associate Professor of Computer Science and of Engineering and Public Policy at Carnegie Mellon University, where she is director of the CyLab Usable Privacy and Security Laboratory (CUPS) and co-director of the MSIT-Privacy Engineering masters program. She is also a co-founder of Wombat Security Technologies, Inc. She has authored over 100 research papers on online privacy, usable security, phishing, spam, electronic voting, anonymous publishing, and other topics.

Cranor plays a key role in building the usable privacy and security research community, having co-edited the seminal book Security and Usability and founded the Symposium On Usable Privacy and Security (SOUPS). She also chaired the Platform for Privacy Preferences Project (P3P) Specification Working Group at the W3C and authored the book Web Privacy with P3P. She has served on a number of boards, including the Electronic Frontier Foundation Board of Directors, and on the editorial boards of several journals. In 2003 she was named one of the top 100 innovators 35 or younger by Technology Review.

More profile about the speaker
Lorrie Faith Cranor | Speaker | TED.com