ABOUT THE SPEAKER
Amy Adele Hasinoff - Communications researcher
Amy Adele Hasinoff studies gender, sexuality, privacy and consent in new media.

Why you should listen

Amy Adele Hasinoff investigates how we think about communication technologies as both the cause of and solution to social problems. She wrote a book, Sexting Panic, about the well-intentioned but problematic responses to sexting in mass media, law and education. The National Communication Association described it as "[T]he rare book that advances scholarly conversations while also promising to enrich family conversations around the dinner table."

Hasinoff is an Assistant Professor in the communication department at the University of Colorado Denver. She publishes regularly in scholarly journals and books and wrote an op-ed about sexting for the New York Times.

More profile about the speaker
Amy Adele Hasinoff | Speaker | TED.com
TEDxMileHigh

Amy Adele Hasinoff: How to practice safe sexting

에이미 아델 하신오프(Amy Adele Hasinoff): 안전하게 섹스팅 즐기기

Filmed:
1,570,366 views

섹스팅은 재미로 즐기는 다른 취미처럼 위험하기도 합니다. 하지만 심각한 사생활 침해가 있어선 안됩니다. 에이미 아델 하신오프는 섹스팅에 대한 대중 매체, 법률과 교육 분야의 문제적 반응들을 살펴보고, 개인과 기술개발사가 민감한(음, 창피할 수도 있는) 디지털 자료를 보호할 수 있는 방법에 대해 실용적인 해결책을 제시합니다.
- Communications researcher
Amy Adele Hasinoff studies gender, sexuality, privacy and consent in new media. Full bio

Double-click the English transcript below to play the video.

00:12
People have been using~을 사용하여 media미디어
to talk about sex섹스 for a long time.
0
720
4280
사람들은 오래 전부터 미디어를
이용해 성에 관한 이야기를 했어요.
00:17
Love letters편지, phone전화 sex섹스, racy기질이 좋은 Polaroids폴라로이드.
1
5600
3440
폰섹스를 하거나 연애편지,
야한 사진 등을 보냈죠.
00:21
There's even a story이야기 of a girl소녀 who eloped도망친
with a man that she met만난 over the telegraph전신
2
9480
6056
심지어 전보로 만난 남친과
야반도주한 여자아이도 있었어요.
00:27
in 1886.
3
15560
1640
무려 1886년에요.
00:30
Today오늘 we have sexting섹스팅,
and I am a sexting섹스팅 expert전문가.
4
18560
5096
오늘 주제는 섹스팅(sexting)이고
전 섹스팅 전문가예요
00:35
Not an expert전문가 sexter매춘부.
5
23680
1880
제가 섹스팅을 잘한다는 게 아니예요
00:38
Though그래도, I do know what this means방법 --
I think you do too.
6
26800
4176
이게 뭔지는 알지만요.
여러분도 아실 거예요.
00:43
[it's a penis음경]
7
31000
1375
(이것은 성기다)
00:44
(Laughter웃음)
8
32400
2360
(웃음)
00:48
I have been studying공부하는 sexting섹스팅 since이후
the media미디어 attention주의 to it began시작되었다 in 2008.
9
36360
6336
2008년부터 미디어가 섹스팅에
주목하자 저도 연구하기 시작했어요.
00:54
I wrote a book도서 on the moral사기
panic공포 about sexting섹스팅.
10
42720
2976
섹스팅과 도덕적 혼란을
주제로 책도 냈어요.
00:57
And here's여기에 what I found녹이다:
11
45720
1616
그리고 이걸 알아냈죠.
00:59
most가장 people are worrying걱정하는
about the wrong잘못된 thing.
12
47360
3216
사람들은 엉뚱한 것을
걱정을 하고 있어요.
01:02
They're trying견딜 수 없는 to just prevent막다
sexting섹스팅 from happening사고 entirely전적으로.
13
50600
4176
섹스팅을 완전히 없애려 노력하죠.
01:06
But let me ask청하다 you this:
14
54800
1536
그런데 질문 하나 드릴게요.
01:08
As long as it's completely완전히 consensual합의 된,
what's the problem문제 with sexting섹스팅?
15
56360
4856
서로 합의 하에 하는 한
왜 섹스팅이 문제가 되는 거죠?
01:13
People are into all sorts종류 of things
that you may할 수있다 not be into,
16
61240
4016
여러분에겐 흥미없는 일이지만
그것에 열광하는 사람도 많아요.
01:17
like blue푸른 cheese치즈 or cilantro실란트.
17
65280
2296
블루 치즈나 고수같은 거 말이죠.
01:19
(Laughter웃음)
18
67600
1640
(웃음)
01:22
Sexting섹스팅 is certainly확실히 risky위험한,
like anything that's fun장난,
19
70600
4136
섹스팅은 분명히 위험한 취미죠.
다른 재밌는 취미와 마찬가지로요.
01:26
but as long as you're not sending배상 an image영상
to someone어떤 사람 who doesn't want to receive받다 it,
20
74760
6696
하지만 원치 않는 사람에게만
보내지 않으면
01:33
there's no harm.
21
81480
1776
해가 될 일은 없어요.
01:35
What I do think is a serious진지한 problem문제
22
83280
2616
제 생각에 심각한 문제가
발생하는 경우는
01:37
is when people share
private은밀한 images이미지들 of others다른 사람
23
85920
3256
사람들이 허락없이 타인의
사적인 사진을 공유할 때예요.
01:41
without없이 their그들의 permission허가.
24
89200
1520
01:43
And instead대신에 of worrying걱정하는 about sexting섹스팅,
25
91360
2336
섹스팅하는 걸 걱정하기보단
01:45
what I think we need to do
is think a lot more about digital디지털 privacy은둔.
26
93720
4560
디지털 프라이버시에 대해
생각해보아야 합니다.
01:50
The key is consent동의.
27
98880
2200
핵심은 동의입니다.
01:53
Right now most가장 people
are thinking생각 about sexting섹스팅
28
101680
3296
요즘 사람들은 대부분
동의에 대해 생각해보지 않은 채로
01:57
without없이 really thinking생각
about consent동의 at all.
29
105000
2960
섹스팅 자체가 문제라고
생각하고 있습니다.
02:00
Did you know that we currently현재
criminalize범죄 화하다 teen비탄 sexting섹스팅?
30
108400
3680
요즘 10대 섹스팅이
불법인 거 아시나요?
02:05
It can be a crime범죄 because
it counts카운트 as child어린이 pornography춘화,
31
113400
3456
18세 미만의 사진이 있으면
아동포르노에 해당되기 때문에
02:08
if there's an image영상 of someone어떤 사람 under아래에 18,
32
116880
2856
범죄가 될 수 있어요.
그리고 아이들이 본인의 의지로
02:11
and it doesn't even matter문제
33
119760
1336
02:13
if they took~했다 that image영상 of themselves그들 자신
and shared공유 된 it willingly기꺼이.
34
121120
4200
자기 사진을 찍어서 공유한 것인지
아닌지는 중요치 않아요.
02:17
So we end종료 up with this
bizarre기괴한 legal적법한 situation상태
35
125800
2976
그래서 우리는 미국에서 17세가
02:20
where two 17-year-olds삼년
can legally법적으로 have sex섹스 in most가장 US states
36
128800
4536
성관계를 하는 건 합법이지만
사진을 찍는 건 불법인
02:25
but they can't photograph사진 it.
37
133360
1880
이상한 법적인 상황에 부딪히게 됩니다.
02:28
Some states have also또한 tried시도한
passing통과 sexting섹스팅 misdemeanor경범죄 laws법률
38
136560
4256
몇몇 지역에선 섹스팅 경범죄 법을
통과시키려는 노력을 하기도 했죠.
02:32
but these laws법률 repeat반복 the same같은 problem문제
39
140840
3016
하지만 이 법도 똑같은
문제를 반복할 뿐이었어요.
02:35
because they still
make consensual합의 된 sexting섹스팅 illegal불법.
40
143880
3760
왜냐하면 합의 하에 한 섹스팅이
여전히 불법이었으니까요.
02:40
It doesn't make sense감각
41
148520
1256
사생활 침해 문제를 해결하기 위해
02:41
to try to ban all sexting섹스팅
to try to address주소 privacy은둔 violations위반.
42
149800
4736
섹스팅을 모두 금지하는 것은
말이 안 됩니다.
02:46
This is kind종류 of like saying속담,
43
154560
1496
그건 이런 말과 같아요.
02:48
let's solve풀다 the problem문제 of date날짜 rape강간
by just making만들기 dating데이트 completely완전히 illegal불법.
44
156080
5440
"데이트 강간을 해결하기 위해
데이트 자체를 완전히 불법화하자."
02:55
Most가장 teens열대 don't get arrested체포 된 for sexting섹스팅,
but can you guess추측 who does?
45
163120
5376
섹스팅을 한다고 십대들이 구속되지는
않아요. 누가 구속되게요?
03:00
It's often자주 teens열대 who are disliked싫어하는
by their그들의 partner's파트너 parents부모님.
46
168520
4976
섹스팅 상대의 부모들이 십대들을
좋아하지 않습니다.
03:05
And this can be because of class수업 bias바이어스,
racism민족적 우월감 or homophobia동성애 공포증.
47
173520
4800
계급적 편견이나 인종차별
동성애혐모 때문이기도 하죠.
03:10
Most가장 prosecutors검찰 are,
of course코스, smart똑똑한 enough충분히
48
178960
2776
물론 대부분의 검찰은 똑똑해서
십대를 아동포르노 혐의로
03:13
not to use child어린이 pornography춘화 charges요금
against반대 teenagers십대, but some do.
49
181760
5480
기소하지 않아요. 몇몇은 하지만요.
03:19
According따라 to researchers연구원
at the University대학 of New새로운 Hampshire햄프셔
50
187720
3656
뉴 햄프셔 대학의 연구에 따르면
03:23
seven일곱 percent퍼센트 of all child어린이 pornography춘화
possession소유 arrests체포 are teens열대,
51
191400
5656
아동 포르노를 소장한 죄로 채포당한
사람 중 7%가 10대라고 합니다.
03:29
sexting섹스팅 consensually합의에 따라 with other teens열대.
52
197080
3000
또래 친구와 합의 하에 한
섹스팅인데도 말이죠.
03:33
Child어린이 pornography춘화 is a serious진지한 crime범죄,
53
201480
2536
아동 포르노는 심각한 범죄지만
03:36
but it's just not
the same같은 thing as teen비탄 sexting섹스팅.
54
204040
3680
10대 섹스팅과는 다른 겁니다.
03:41
Parents부모님 and educators교육자
are also또한 responding응답하는 to sexting섹스팅
55
209040
3416
부모와 교육자들 또한
합의라는 것은 무시한 채
03:44
without없이 really thinking생각
too much about consent동의.
56
212480
3136
섹스팅 문제에 대응합니다.
03:47
Their그들의 message메시지 to teens열대 is often자주:
just don't do it.
57
215640
4120
보통 아이에게 이렇게 가르치죠.
"그냥 하지 말거라"
03:52
And I totally전적으로 get it --
there are serious진지한 legal적법한 risks위험
58
220200
3496
저도 전적으로 이해는 합니다
심각한 법적 위험이 있고
03:55
and of course코스, that potential가능성
for privacy은둔 violations위반.
59
223720
3656
물론 사생활 침해의 가능성도 있죠.
03:59
And when you were a teen비탄,
60
227400
1256
그리고 여러분이 10대였을 때
04:00
I'm sure you did exactly정확하게
as you were told, right?
61
228680
3400
분명히 어른들 말씀을
고분고분 들으셨을 거예요, 맞죠?
04:05
You're probably아마 thinking생각,
my kid아이 would never sext섹스.
62
233440
3456
그리고 여러분들도 내 아이는
안 하겠지라고 생각하실 겁니다.
04:08
And that's true참된, your little angel천사
may할 수있다 not be sexting섹스팅
63
236920
3456
맞아요, 여러분의 착한 아기는
섹스팅을 안 할지도 모릅니다.
04:12
because only 33 percent퍼센트
64
240400
3136
왜냐하면 16-17세 중에
섹스팅하는 아이는
04:15
of 16- and 17-year-olds삼년 are sexting섹스팅.
65
243560
2360
고작 33%밖에 안 되거든요.
04:19
But, sorry, by the time they're older더 오래된,
odds승산 are they will be sexting섹스팅.
66
247200
4616
하지만 죄송해요, 아이들이 크면
이걸 할 확률도 높아져요.
04:23
Every마다 study연구 I've seen puts넣다 the rate
above위에 50 percent퍼센트 for 18- to 24-year-olds삼년.
67
251840
6200
제가 여태껏 봐온 모든 연구에 따르면
18-24세의 경우는 50%이상이에요.
04:30
And most가장 of the time, nothing goes간다 wrong잘못된.
68
258720
3056
하지만 대부분의 경우
아무 문제도 생기지 않아요.
04:33
People ask청하다 me all the time things like,
isn't sexting섹스팅 just so dangerous위험한, though그래도?
69
261800
5376
주변에서 항상 이렇게 물어봐요.
"섹스팅 자체가 위험한 거 아니야?"
이건 공원 벤치에 지갑을
두고 오지 않는 거하고 비슷한 거예요.
04:39
It's like you wouldn't~ 않을거야.
leave휴가 your wallet지갑 on a park공원 bench벤치
70
267200
3576
04:42
and you expect배고 있다 it's going to get stolen훔친
if you do that, right?
71
270800
3440
지갑을 벤치에 놓고 왔으면
누가 훔쳐갔을거라 생각하시겠죠.
04:46
Here's여기에 how I think about it:
72
274880
1456
저는 이렇게 생각해요.
04:48
sexting섹스팅 is like leaving퇴거 your wallet지갑
at your boyfriend's남자 친구 house.
73
276360
3936
섹스팅은 남자친구 집에 지갑을
놓고 오는 것과 같다고요.
04:52
If you come back the next다음 것 day
74
280320
1776
그래서 다음날 찾으러 갔는데
04:54
and all the money is just gone지나간,
75
282120
2280
돈이 다 없어졌다면
04:57
you really need to dump덤프 that guy.
76
285040
2120
정말 그 인간을 차버려야죠.
04:59
(Laughter웃음)
77
287690
2170
(웃음)
05:03
So instead대신에 of criminalizing범죄 행위 sexting섹스팅
78
291360
2320
그러니 사생활 침해를 막으려고
05:05
to try to prevent막다
these privacy은둔 violations위반,
79
293720
2616
섹스팅을 범죄화하기보다는
05:08
instead대신에 we need to make consent동의 central본부
80
296360
3296
개인 정보의 유포에 관해
05:11
to how we think about the circulation순환
of our private은밀한 information정보.
81
299680
4080
합의라는 걸 중요시해야 해요.
05:16
Every마다 new새로운 media미디어 technology과학 기술
raises제기하다 privacy은둔 concerns우려.
82
304480
4256
새로운 미디어 기술이 생길 때마다
사생활에 대한 우려가 제기됩니다.
05:20
In fact, in the US the very first
major주요한 debates논쟁 about privacy은둔
83
308760
4616
실제로 미국에서 당시 비교적
최신인 기술이 등장했을 때
05:25
were in response응답 to technologies기술
that were relatively상대적으로 new새로운 at the time.
84
313400
4496
최초로 사생활 문제를 주제로 한
대규모 논쟁이 일어났죠.
05:29
In the late늦은 1800s,
people were worried걱정 about cameras카메라,
85
317920
3896
1800년대 말 사람들은
신문의 가십란과,
05:33
which어느 were just suddenly갑자기
more portable가지고 다닐 수 있는 than ever before,
86
321840
3456
한순간에 예전보다 휴대하기 편해진
05:37
and newspaper신문 gossip잡담 columns기둥.
87
325320
2496
카메라를 걱정했어요.
05:39
They were worried걱정 that the camera카메라
would capture포착 information정보 about them,
88
327840
3816
왜냐하면 카메라로 자기를 찍어
05:43
take it out of context문맥
and widely넓게 disseminate보급하다 it.
89
331680
3200
전후 설명없이 신문에 실어서
널리 퍼뜨릴까봐 걱정된거죠.
05:47
Does this sound소리 familiar익숙한?
90
335240
1616
익숙한 상황이죠?
05:48
It's exactly정확하게 what we're worrying걱정하는 about
now with social사회적인 media미디어 and drone무인 비행기 cameras카메라,
91
336880
4856
우리가 요즘 SNS나 드론 카메라에 대해
걱정하는 것과 동일합니다.
05:53
and, of course코스, sexting섹스팅.
92
341760
1640
물론 섹스팅도 그렇고요.
05:55
And these fears두려움 about technology과학 기술,
93
343920
2216
신기술에 대한 두려움은
모두 공감할 거예요.
05:58
they make sense감각
94
346160
1216
05:59
because technologies기술
can amplify더욱 상 세히 하다 and bring가져오다 out
95
347400
3416
왜냐하면 기술은
우리의 나쁜 행동이나 단점을
부풀려서 폭로해버릴 수 있으니까요.
06:02
our worst가장 나쁜 qualities자질 and behaviors행동.
96
350840
2720
06:06
But there are solutions솔루션.
97
354160
2376
그래도 해결책은 있어요.
06:08
And we've우리는 been here before
with a dangerous위험한 new새로운 technology과학 기술.
98
356560
3560
그리고 이전에도 위험한 신기술때문에
이런 상황에 처해본 적 있잖아요.
06:12
In 1908, Ford포드 introduced도입 된 the Model모델 T car.
99
360720
3776
1908년에 포드는
모델 T 차량을 선보였고,
06:16
Traffic교통 fatality숙명 rates요금 were rising상승.
100
364520
2576
교통사고 사망자 수가 증가했어요.
06:19
It was a serious진지한 problem문제 --
it looks외모 so safe안전한, right?
101
367120
2800
심각한 문제였죠.
보기엔 안전한 것 같은데, 그렇죠?
06:24
Our first response응답
was to try to change변화 drivers'드라이버 ' behavior행동,
102
372080
3976
그래서 우리가 처음 한 일은
운전자의 행동을 바꾸는 거였어요.
06:28
so we developed개발 된 speed속도 limits제한
and enforced강요된 them through...을 통하여 fines벌금.
103
376080
3720
그래서 속도 제한을 만들고
벌금을 물어 지키게 만들었죠.
06:32
But over the following수행원 decades수십 년,
104
380240
1856
하지만 수십 년을 지나오면서
06:34
we started시작한 to realize깨닫다 the technology과학 기술
of the car itself그 자체 is not just neutral중립국.
105
382120
5496
자동차 기술은 중립적이지
않다는 걸 깨달았어요.
06:39
We could design디자인 the car to make it safer더 안전한.
106
387640
3216
차량을 더 안전하게 제작할 수 있었죠.
06:42
So in the 1920s, we got
shatter-resistant산산이 부서지는 windshields앞 유리.
107
390880
3456
그래서 1920년에
비산방지 앞유리를 만듭니다.
06:46
In the 1950s, seat좌석 belts벨트.
108
394360
2496
50년대에 안전벨트를 만들고요.
06:48
And in the 1990s, airbags에어백.
109
396880
3080
그리고 90년대엔 에어백을요.
06:52
All three of these areas지역:
110
400440
2376
세월이 흐르면서
06:54
laws법률, individuals개인 and industry산업
came왔다 together함께 over time
111
402840
4776
법, 개인 그리고 업계의
3개 영역 힘을 합쳐
06:59
to help solve풀다 the problem문제
that a new새로운 technology과학 기술 causes원인.
112
407640
3776
신기술이 야기하는 문제를
해결하기 위해 나섰죠.
07:03
And we can do the same같은 thing
with digital디지털 privacy은둔.
113
411440
3240
디지털 사생활 문제도
똑같이 해결할 수 있습니다.
07:07
Of course코스, it comes온다 back to consent동의.
114
415160
2760
물론 "합의"라는 것으로
돌아가서 말이죠.
07:10
Here's여기에 the idea생각.
115
418360
1216
이런 방법이 있어요.
07:11
Before anyone누군가 can distribute배포하다
your private은밀한 information정보,
116
419600
3816
누군가 여러분 개인 정보를
퍼트리기 전에
07:15
they should have to get your permission허가.
117
423440
2240
여러분의 허락이 있어야 하는 거예요.
07:18
This idea생각 of affirmative긍정의 consent동의
comes온다 from anti-rape반 강간 activists활동가들
118
426240
4816
적극적 합의란 개념은 모든 성행위에는
합의가 있어야 한다고 주장하는
07:23
who tell us that we need consent동의
for every...마다 sexual성적 act행위.
119
431080
3776
성폭행 반대운동가들에게서
파생된 거예요.
07:26
And we have really high높은 standards표준
for consent동의 in a lot of other areas지역.
120
434880
4576
여타 많은 분야에서도 합의에 대한
기준이 상당히 높아요.
07:31
Think about having surgery외과.
121
439480
1856
외과수술을 예를 들어보죠.
07:33
Your doctor의사 has to make sure
122
441360
1616
주치의는 의료 행위를 하기 전
07:35
that you are meaningfully의미심장하게 and knowingly알고 있으면서
consenting동의하다 to that medical의료 procedure순서.
123
443000
4040
환자가 내용을 알고 동의했다는 걸
확실히 해둬야 하죠.
07:39
This is not the type유형 of consent동의
like with an iTunesiTunes Terms자귀 of Service서비스
124
447520
3696
이건 아이튠즈 약관 동의처럼
맨 밑으로 스크롤 내리고
07:43
where you just scroll스크롤 to the bottom바닥
and you're like, agree동의하다, agree동의하다, whatever도대체 무엇이.
125
451240
3656
동의 란에 체크, 체크하는
것과는 달라요.
07:46
(Laughter웃음)
126
454920
1720
(웃음)
07:49
If we think more about consent동의,
we can have better privacy은둔 laws법률.
127
457160
5256
합의에 대해 더 고민해보면 더 개선된
사생활 보호법을 만들 수 있어요.
07:54
Right now, we just don't have
that many많은 protections보호.
128
462440
3416
지금은 별로 보호 장치가 많지 않아요.
07:57
If your ex-husband전 남편 or your ex-wife전 부인
is a terrible무서운 person사람,
129
465880
3576
전남편이나 전부인이 끔찍한 사람이면
08:01
they can take your nude나체상 photos사진들
and upload업로드 them to a porn포르노 site대지.
130
469480
4216
여러분의 나체사진을
포르노 사이트에 올려버릴 수도 있죠.
08:05
It can be really hard단단한
to get those images이미지들 taken취한 down.
131
473720
3216
이 사진들을 없애려면
정말 애를 먹죠.
08:08
And in a lot of states,
132
476960
1216
많은 주에서
08:10
you're actually사실은 better off
if you took~했다 the images이미지들 of yourself당신 자신
133
478200
3816
내 사진을 내가 직접
찍는 게 더 나아요.
그러면 저작권을 주장할 수 있어서요.
08:14
because then you can
file파일 a copyright저작권 claim청구.
134
482040
2800
08:17
(Laughter웃음)
135
485320
2056
(웃음)
08:19
Right now, if someone어떤 사람
violates위반하다 your privacy은둔,
136
487400
2976
요즘은 누가 여러분 사생활을 침해하면
08:22
whether인지 어떤지 that's an individual개인
or a company회사 or the NSANSA,
137
490400
4200
그게 개인이나 기업,
혹은 국정원일지라도
08:27
you can try filing줄질 a lawsuit소송,
138
495280
2736
고소할 수 있어요.
08:30
though그래도 you may할 수있다 not be successful성공한
139
498040
2136
다수의 법원이 디지털 사생활은
08:32
because many많은 courts법원 assume취하다
that digital디지털 privacy은둔 is just impossible불가능한.
140
500200
4776
불가능하다고 가정하기 때문에
승소하긴 어렵지만요.
08:37
So they're not willing자발적인
to punish벌하다 anyone누군가 for violating위반하는 it.
141
505000
3440
그래서 사생활을 침해해도
처벌하진 않으려고 합니다.
08:41
I still hear듣다 people
asking질문 me all the time,
142
509200
2896
주변에서는 제게 여전히 물어봐요.
08:44
isn't a digital디지털 image영상 somehow어쩐지 blurring흐리게하는
the line between중에서 public공공의 and private은밀한
143
512120
5296
인터넷에 올린 이미지는 디지털이라서
사적인건지와 공적인건지의
구분이 애매해지지 않아요?
08:49
because it's digital디지털, right?
144
517440
1640
08:51
No! No!
145
519600
1336
절대! 아닙니다!
디지털이라고해서
공적인 것은 아닙니다.
08:52
Everything digital디지털
is not just automatically자동으로 public공공의.
146
520960
3336
08:56
That doesn't make any sense감각.
147
524320
1896
전혀 말도 안 되는 말입니다.
08:58
As NYU뉴욕 대학교 legal적법한 scholar학자
Helen헬렌 Nissenbaum니센 바움 tells말하다 us,
148
526240
3496
뉴욕대 법학자 헬렌 니센바움은
09:01
we have laws법률 and policies정책들 and norms규범
149
529760
2616
우리에겐 사적인 정보면
어떤 종류든 보호해주는
09:04
that protect보호 all kinds종류
of information정보 that's private은밀한,
150
532400
3136
법과 정책, 규범이 있기 때문에
09:07
and it doesn't make a difference
if it's digital디지털 or not.
151
535560
3416
디지털이든 아니든 달라질 게
없다고 말합니다.
09:11
All of your health건강 records기록들 are digitized디지털화 된
152
539000
2656
모든 건강 기록도 디지털화 되어있지만
09:13
but your doctor의사 can't
just share them with anyone누군가.
153
541680
3136
의사는 그걸 누구와도 공유할 수 없죠.
09:16
All of your financial재정적 인 information정보
is held개최 된 in digital디지털 databases데이터베이스,
154
544840
4456
여러분의 모든 재무 정보는
디지털 데이터베이스에 저장돼 있지만
09:21
but your credit신용 card카드 company회사 can't
just post게시하다 your purchase매수 history역사 online온라인.
155
549320
4240
카드사는 여러분의 구매기록을
공개할 수 없습니다.
09:27
Better laws법률 could help address주소
privacy은둔 violations위반 after they happen우연히 있다,
156
555080
5456
더 좋은 법제는 사생활 침해에
사후 대응을 할 수 있겠지만
09:32
but one of the easiest가장 쉬운 things
we can all do is make personal개인적인 changes변화들
157
560560
4376
저희가 할 수 있는 것 중
가장 쉬운 방법 하나는
타인이 사생활을 지킬 수 있게
해주는 거예요.
09:36
to help protect보호 each마다 other's다른 privacy은둔.
158
564960
2680
09:40
We're always told that privacy은둔
159
568360
1896
항상 사생활 문제는
09:42
is our own개인적인, sole바닥,
individual개인 responsibility책임.
160
570280
3056
완전히 개인 책임이라고 말하죠.
09:45
We're told, constantly끊임없이 monitor감시 장치
and update최신 정보 your privacy은둔 settings설정.
161
573360
4256
계속 개인정보를 업데이트하고 검사하고
09:49
We're told, never share anything
you wouldn't~ 않을거야. want the entire완전한 world세계 to see.
162
577640
4800
온세상에 알리고 싶지 않은 것은
절대 공유하지 말라고 합니다.
09:55
This doesn't make sense감각.
163
583400
1216
말도 안 돼요.
09:56
Digital디지털 media미디어 are social사회적인 environments환경
164
584640
2976
디지털 미디어는 사회와 같아서
09:59
and we share things
with people we trust믿음 all day, every...마다 day.
165
587640
4280
신뢰하는 사람들과
매일 정보를 공유해요.
10:04
As Princeton프린스턴 researcher연구원
Janet자넷 VertesiVertesi argues주장하다,
166
592760
2976
프린스턴대 연구원 쟈넷 버테시는
10:07
our data데이터 and our privacy은둔,
they're not just personal개인적인,
167
595760
4016
개인 정보와 사생활은
그냥 개인적인 것이 아니라
10:11
they're actually사실은 interpersonal대인 관계.
168
599800
2576
실제론 대인적인 것이라고 주장합니다.
10:14
And so one thing you can do
that's really easy쉬운
169
602400
3256
그러니 정말로 쉽게 할 수 있는 일은
10:17
is just start스타트 asking질문 for permission허가 before
you share anyone누군가 else's다른 information정보.
170
605680
5096
그냥 타인의 정보를 공유하기 전에
허락받기 시작하는 거예요.
10:22
If you want to post게시하다 a photo사진
of someone어떤 사람 online온라인, ask청하다 for permission허가.
171
610800
4536
누군가의 사진을 인터넷에 올리고
싶으시면 허락을 받으세요.
10:27
If you want to forward앞으로 an email이메일 thread,
172
615360
2456
이메일을 전달하고 싶으시면
10:29
ask청하다 for permission허가.
173
617840
1376
허락을 받으세요.
10:31
And if you want to share
someone's누군가의 nude나체상 selfie셀카,
174
619240
2776
누군가의 나체 셀카를 공유하고 싶으면
10:34
obviously명백하게, ask청하다 for permission허가.
175
622040
2280
물론 허락을 받으세요.
10:37
These individual개인 changes변화들 can really
help us protect보호 each마다 other's다른 privacy은둔,
176
625560
4456
개개인의 변화가 사생활 보호에
많은 도움이 됩니다.
10:42
but we need technology과학 기술 companies회사들
on board as well.
177
630040
3800
하지만 기술개발사들도 동참해야 합니다.
10:46
These companies회사들 have very little
incentive자극 to help protect보호 our privacy은둔
178
634360
4496
기술개발사들은 사생활 보호를 위해
노력할 동기가 없습니다.
10:50
because their그들의 business사업 models모델
depend의존하다 on us sharing나누는 everything
179
638880
3296
왜냐하면 사업이 성공하려면
사람들이 최대한 많은 이들과
10:54
with as many많은 people as possible가능한.
180
642200
2240
모든 걸 공유해주어야 되니까요.
10:57
Right now, if I send보내다 you an image영상,
181
645080
1936
제가 여러분께 사진 하나를 보내면
10:59
you can forward앞으로 that
to anyone누군가 that you want.
182
647040
3096
여러분은 그 사진을
누구에게든 보낼 수 있어요.
11:02
But what if I got to decide결정하다
if that image영상 was forwardable전송 가능 or not?
183
650160
4256
하지만 보내도 되는지의
결정권이 제게 있게 된다면요?
11:06
This would tell you, you don't
have my permission허가 to send보내다 this image영상 out.
184
654440
4056
그럼 이 이미지를 전송해도 된다고
허락하지 않았다는 걸 알 수 있겠죠.
11:10
We do this kind종류 of thing all the time
to protect보호 copyright저작권.
185
658520
4136
저작권을 보호하기 위해선
항상 이런 일들을 하죠.
11:14
If you buy사다 an e-book전자 책, you can't just
send보내다 it out to as many많은 people as you want.
186
662680
4776
전자책을 구입하면
많은 사람들과 공유해서는 안되죠.
11:19
So why not try this with mobile변하기 쉬운 phones전화?
187
667480
2560
그럼 핸드폰에서도
그렇게 하는 건 어떨까요?
11:22
What you can do is we can demand수요
that tech기술 companies회사들 add더하다 these protections보호
188
670960
4776
우리는 기술개발사에게
이런 보호 장치가 자동으로
11:27
to our devices장치들 and our platforms플랫폼
as the default태만.
189
675760
3736
기기와 플랫폼에 적용되게
추가해달라고 요구할 수 있어요.
11:31
After all, you can choose고르다
the color색깔 of your car,
190
679520
3416
차량 색깔은 선택할 수 있지만
11:34
but the airbags에어백 are always standard표준.
191
682960
2840
애어백은 항상 들어있잖아요.
11:40
If we don't think more
about digital디지털 privacy은둔 and consent동의,
192
688080
3816
디지털 사생활과 합의에 대해
더 고민하지 않으면
11:43
there can be serious진지한 consequences결과.
193
691920
2720
심각한 결과를 초래할 거예요.
11:47
There was a teenager십대 from Ohio오하이오 주 --
194
695360
2256
오하이오에 사는 10대 아이가 있는데,
11:49
let's call her Jennifer제니퍼,
for the sake사케 of her privacy은둔.
195
697640
2840
개인정보 보호를 위해
제니퍼라고 할게요.
11:53
She shared공유 된 nude나체상 photos사진들 of herself그녀 자신
with her high높은 school학교 boyfriend남자 친구,
196
701120
3576
자신의 나체 사진을
고등학교 남친과 공유했죠.
11:56
thinking생각 she could trust믿음 him.
197
704720
1520
남친을 믿었거든요.
11:59
Unfortunately운수 나쁘게, he betrayed배신당한 her
198
707720
1936
불행히도 남자친구는
12:01
and sent보낸 her photos사진들
around the entire완전한 school학교.
199
709680
2976
제니퍼를 배신하고
사진을 학교 전체에 뿌렸어요.
12:04
Jennifer제니퍼 was embarrassed어리둥절한 and humiliated굴욕적인,
200
712680
3520
제니퍼는 너무 당황스럽고
수치심을 느꼈지만
12:08
but instead대신에 of being존재 compassionate인정 많은,
her classmates급우 harassed괴롭힘을당한 her.
201
716800
4136
동정받기는커녕 반 친구들로부터
괴롭힘을 당했어요.
12:12
They called전화 한 her a slut암캐 and a whore매춘부
202
720960
1856
걸레고 창녀라고 불렀고
12:14
and they made만든 her life miserable딱한.
203
722840
1960
제니퍼를 비참하게 만들었어요.
12:17
Jennifer제니퍼 started시작한 missing있어야 할 곳에 없는 school학교
and her grades성적 dropped떨어 뜨린.
204
725360
3680
제니퍼는 학교를 빠지기 시작했고
성적은 떨어졌어요.
12:21
Ultimately궁극적으로, Jennifer제니퍼 decided결정적인
to end종료 her own개인적인 life.
205
729520
3800
결국 제니퍼는 자살을 선택했어요.
12:26
Jennifer제니퍼 did nothing wrong잘못된.
206
734720
2696
그 아이는 잘못한 게 없어요.
12:29
All she did was share a nude나체상 photo사진
207
737440
2256
믿을 수 있다고 생각한 사람에게
12:31
with someone어떤 사람 she thought
that she could trust믿음.
208
739720
2816
단지 나체 사진 하나 보냈을 뿐이에요.
12:34
And yet아직 our laws법률 tell her
209
742560
2616
그런데도 법은 제니퍼에게
12:37
that she committed저지른 a horrible끔찍한 crime범죄
equivalent동등한 to child어린이 pornography춘화.
210
745200
4160
아동 포르노와 동등한
끔찍한 범죄를 저질렀다고 합니다.
우리의 성관념은
12:41
Our gender성별 norms규범 tell her
211
749920
1496
12:43
that by producing생산
this nude나체상 image영상 of herself그녀 자신,
212
751440
3216
자신의 나체 사진을 찍은 건
12:46
she somehow어쩐지 did the most가장
horrible끔찍한, shameful부끄러운 thing.
213
754680
3200
가장 더럽고 추잡한
짓이라며 제니퍼를 비난합니다.
12:50
And when we assume취하다 that privacy은둔
is impossible불가능한 in digital디지털 media미디어,
214
758400
4216
그리고 디지털 매체에서 사생활은
불가능하다고 가정하게 되면
12:54
we completely완전히 write쓰다 off and excuse변명
her boyfriend's남자 친구 bad나쁜, bad나쁜 behavior행동.
215
762640
5520
그 남학생의 악행을 면죄하고
변명해주는 꼴이 될 뿐이죠.
13:01
People are still saying속담 all the time
to victims피해자 of privacy은둔 violations위반,
216
769200
5736
사람들은 여전히 사생활 침해
피해자에게 이렇게 말합니다.
13:06
"What were you thinking생각?
217
774960
1256
"무슨 생각으로 그런 거야?
13:08
You should have never sent보낸 that image영상."
218
776240
2480
그런 사진은 절대 보내지 말았어야지."
13:11
If you're trying견딜 수 없는 to figure그림 out
what to say instead대신에, try this.
219
779640
4000
그 대신에 무슨 말을 해야할지
고민이라면 이렇게 해보세요.
13:16
Imagine상상해 보라. you've run운영 into your friend친구
who broke파산하다 their그들의 leg다리 skiing스키 타기.
220
784160
3520
여러분 친구가 스키 타다가
다리가 부러졌다고 상상해보세요.
13:20
They took~했다 a risk위험 to do something fun장난,
and it didn't end종료 well.
221
788240
4576
재미로 위험한 짓을 하다가
끝이 좋지 않았어요
13:24
But you're probably아마
not going to be the jerk얼간이 who says말한다,
222
792840
2536
하지만 거기다 대고
멍청이처럼 이렇게 말하진 않겠죠.
13:27
"Well, I guess추측 you shouldn't해서는 안된다.
have gone지나간 skiing스키 타기 then."
223
795400
2440
"그러니까 스키를 타지 말았어야지."
13:32
If we think more about consent동의,
224
800080
2136
합의에 대해 좀 더 생각해본다면
13:34
we can see that victims피해자
of privacy은둔 violations위반
225
802240
3256
사생활 침해 피해자는
13:37
deserve받을 만하다 our compassion측은히 여김,
226
805520
1736
범죄자의 낙인이나 수치심,
괴롭힘, 처벌이 아니라
13:39
not criminalization범죄 화, shaming쉐이밍,
harassment괴롭힘 or punishment처벌.
227
807280
4600
우리의 연민을 받아야한다는 걸
알 수 있을 거예요.
13:44
We can support지원하다 victims피해자,
and we can prevent막다 some privacy은둔 violations위반
228
812440
4496
우리는 법적, 개인적,
기술적 변화를 통해
13:48
by making만들기 these legal적법한,
individual개인 and technological기술적 인 changes변화들.
229
816960
4320
피해자들을 지지하고
사생활 침해를 예방할 수 있어요.
13:53
Because the problem문제 is not sexting섹스팅,
the issue발행물 is digital디지털 privacy은둔.
230
821840
5816
섹스팅이 문제가 아니라
디지털 사생활이 문제이니까요.
13:59
And one solution해결책 is consent동의.
231
827680
2360
유일한 해결책은 합의예요.
14:02
So the next다음 것 time a victim희생자
of a privacy은둔 violation위반 comes온다 up to you,
232
830680
4576
다음번에 사생활 침해 피해자가
여러분에게 오거든
14:07
instead대신에 of blaming비난하는 them,
let's do this instead대신에:
233
835280
2736
피해자 탓을 하는 대신
이렇게 해보세요.
14:10
let's shift시프트 our ideas아이디어
about digital디지털 privacy은둔,
234
838040
3416
디지털 사생활에 대한 생각을 바꾸고
14:13
and let's respond응창 성가 with compassion측은히 여김.
235
841480
2640
동정심을 가지고 대해 주세요.
14:16
Thank you.
236
844680
1216
감사합니다.
14:17
(Applause박수 갈채)
237
845920
6136
(박수)
Translated by 기영 장
Reviewed by Ju Hye Lim

▲Back to top

ABOUT THE SPEAKER
Amy Adele Hasinoff - Communications researcher
Amy Adele Hasinoff studies gender, sexuality, privacy and consent in new media.

Why you should listen

Amy Adele Hasinoff investigates how we think about communication technologies as both the cause of and solution to social problems. She wrote a book, Sexting Panic, about the well-intentioned but problematic responses to sexting in mass media, law and education. The National Communication Association described it as "[T]he rare book that advances scholarly conversations while also promising to enrich family conversations around the dinner table."

Hasinoff is an Assistant Professor in the communication department at the University of Colorado Denver. She publishes regularly in scholarly journals and books and wrote an op-ed about sexting for the New York Times.

More profile about the speaker
Amy Adele Hasinoff | Speaker | TED.com