ABOUT THE SPEAKER
Amy Adele Hasinoff - Communications researcher
Amy Adele Hasinoff studies gender, sexuality, privacy and consent in new media.

Why you should listen

Amy Adele Hasinoff investigates how we think about communication technologies as both the cause of and solution to social problems. She wrote a book, Sexting Panic, about the well-intentioned but problematic responses to sexting in mass media, law and education. The National Communication Association described it as "[T]he rare book that advances scholarly conversations while also promising to enrich family conversations around the dinner table."

Hasinoff is an Assistant Professor in the communication department at the University of Colorado Denver. She publishes regularly in scholarly journals and books and wrote an op-ed about sexting for the New York Times.

More profile about the speaker
Amy Adele Hasinoff | Speaker | TED.com
TEDxMileHigh

Amy Adele Hasinoff: How to practice safe sexting

Amy Adele Hasinoff: 如何安全发送色情短信

Filmed:
1,570,366 views

色情短信,正如任何有趣的事物一样,有着风险--但严重的隐私侵权不该被包括在内。Amy Adele Hasinoff着眼于大众传媒,法律及教育对与色情信息的不当反应,并为个人及科技公司应如何保护带有敏感性(且具有诽谤性)的数字化文件提供了实用的解决方法。
- Communications researcher
Amy Adele Hasinoff studies gender, sexuality, privacy and consent in new media. Full bio

Double-click the English transcript below to play the video.

人们借助各种媒体来谈性
已经有着很长的历史了
00:12
People have been using运用 media媒体
to talk about sex性别 for a long time.
0
720
4280
00:17
Love letters, phone电话 sex性别, racy活泼 Polaroids宝丽来.
1
5600
3440
比如说情书、电话性爱以及裸照
00:21
There's even a story故事 of a girl女孩 who eloped私奔
with a man that she met会见 over the telegraph电报
2
9480
6056
甚至有这样一个女孩与一个通过
电报认识的男子私奔的故事
00:27
in 1886.
3
15560
1640
在1886年
00:30
Today今天 we have sexting发色情短信,
and I am a sexting发色情短信 expert专家.
4
18560
5096
直到今天,我们演变出了一种短信称之为[色情短信]
我是这方面的专家
00:35
Not an expert专家 sextersexter.
5
23680
1880
我作为专家是研究它的
可不擅长于发这个
00:38
Though虽然, I do know what this means手段 --
I think you do too.
6
26800
4176
嗯,我想在座的各位和我一样
十分清楚这代表着什么
00:43
[it's a penis阴茎]
7
31000
1375
(这指代着男性的阴茎)
00:44
(Laughter笑声)
8
32400
2360
(观众笑声)
00:48
I have been studying研究 sexting发色情短信 since以来
the media媒体 attention注意 to it began开始 in 2008.
9
36360
6336
自从2008年媒体开始关注以来
我一直致力于研究色情短信
我撰写了一本书专门讨论
色情短信的出现所引起的道德恐慌
00:54
I wrote a book on the moral道德
panic恐慌 about sexting发色情短信.
10
42720
2976
00:57
And here's这里的 what I found发现:
11
45720
1616
这是我发现的:
00:59
most people are worrying令人担忧
about the wrong错误 thing.
12
47360
3216
大部分的人都在担心
错误的事情
他们试图从根源上
防止色情短信的产生
01:02
They're trying to just prevent避免
sexting发色情短信 from happening事件 entirely完全.
13
50600
4176
01:06
But let me ask you this:
14
54800
1536
但是我不禁要问:
只要是完全自愿的
色情短信的问题在哪儿?
01:08
As long as it's completely全然 consensual两厢情愿,
what's the problem问题 with sexting发色情短信?
15
56360
4856
01:13
People are into all sorts排序 of things
that you may可能 not be into,
16
61240
4016
人们试图去理清各种各样的事
甚至是与自己毫不相干的事
01:17
like blue蓝色 cheese起司 or cilantro胡荽叶.
17
65280
2296
比如蓝奶酪或香菜
01:19
(Laughter笑声)
18
67600
1640
(观众笑声)
01:22
Sexting色情短信 is certainly当然 risky有风险,
like anything that's fun开玩笑,
19
70600
4136
色情短信和其它好玩的事情一样
是绝对有风险性的
01:26
but as long as you're not sending发出 an image图片
to someone有人 who doesn't want to receive接收 it,
20
74760
6696
但是只要你给愿意接受的人们发
01:33
there's no harm危害.
21
81480
1776
也未尝不可
我认为这其中一个严重的问题
01:35
What I do think is a serious严重 problem问题
22
83280
2616
01:37
is when people share分享
private私人的 images图片 of others其他
23
85920
3256
是人们未经他人同意
01:41
without their permission允许.
24
89200
1520
分享他人的隐私照片
01:43
And instead代替 of worrying令人担忧 about sexting发色情短信,
25
91360
2336
与其忧心于色情短信本身
01:45
what I think we need to do
is think a lot more about digital数字 privacy隐私.
26
93720
4560
我想我们该更关注的
是数字时代的个人隐私
01:50
The key is consent同意.
27
98880
2200
关键是同意
01:53
Right now most people
are thinking思维 about sexting发色情短信
28
101680
3296
现在很多人在想着
色情短信本身
01:57
without really thinking思维
about consent同意 at all.
29
105000
2960
而完全忽略了
“他人的同意”
02:00
Did you know that we currently目前
criminalize刑事犯罪 teen青少年 sexting发色情短信?
30
108400
3680
你们知道我们现在在将青少年
发送色情短信违法化吗?
02:05
It can be a crime犯罪 because
it counts计数 as child儿童 pornography色情,
31
113400
3456
它可以是一个罪犯是由于
它可以被当作儿童色情
02:08
if there's an image图片 of someone有人 under 18,
32
116880
2856
如果有一个当事人18岁以下的照片
02:11
and it doesn't even matter
33
119760
1336
是否他们自愿拍照以及自愿
分享照片
02:13
if they took that image图片 of themselves他们自己
and shared共享 it willingly甘心.
34
121120
4200
是无关紧要的
02:17
So we end结束 up with this
bizarre奇异的 legal法律 situation情况
35
125800
2976
结果我们就有了这种
怪异的法律情况
02:20
where two 17-year-olds- 年的孩子
can legally法律上 have sex性别 in most US states状态
36
128800
4536
即在美国大多数州
两个17岁的孩子可以合法性交
但不能把它拍出来
02:25
but they can't photograph照片 it.
37
133360
1880
02:28
Some states状态 have also tried试着
passing通过 sexting发色情短信 misdemeanor轻罪 laws法律
38
136560
4256
一些州还试图对色情短信立法
02:32
but these laws法律 repeat重复 the same相同 problem问题
39
140840
3016
但是这些立法都重复了同样的问题
02:35
because they still
make consensual两厢情愿 sexting发色情短信 illegal非法.
40
143880
3760
因为他们仍然使得
两厢情愿的性短信违法
02:40
It doesn't make sense
41
148520
1256
通过禁止所有形式的色情短信
来试图解决隐私侵权问题
02:41
to try to ban禁止 all sexting发色情短信
to try to address地址 privacy隐私 violations违规.
42
149800
4736
其实都是徒劳
02:46
This is kind of like saying,
43
154560
1496
这种做法就像是
02:48
let's solve解决 the problem问题 of date日期 rape强奸
by just making制造 dating约会 completely全然 illegal非法.
44
156080
5440
让我们通过宣布约会违法
来解决约会强奸的问题
02:55
Most teens青少年 don't get arrested被捕 for sexting发色情短信,
but can you guess猜测 who does?
45
163120
5376
大部分青少年不会因发送色情短信而被捕
不过你们能猜到谁被捕了?
03:00
It's often经常 teens青少年 who are disliked不喜欢的
by their partner's伙伴 parents父母.
46
168520
4976
就是那些不被发送色情短信的
对象的父母喜欢的人
03:05
And this can be because of class bias偏压,
racism种族主义 or homophobia同性恋.
47
173520
4800
这也许源于阶层差异
种族歧视以及对同性恋的憎恶
03:10
Most prosecutors检察官 are,
of course课程, smart聪明 enough足够
48
178960
2776
大部分的检举人还很明智
03:13
not to use child儿童 pornography色情 charges收费
against反对 teenagers青少年, but some do.
49
181760
5480
不对青少年以儿童色情罪起诉
但是有一些人这么做
03:19
According根据 to researchers研究人员
at the University大学 of New Hampshire汉普郡
50
187720
3656
根据新罕布什尔大学的调查研究
因儿童色情被捕的人群中
有百分之七都是青少年
03:23
seven percent百分 of all child儿童 pornography色情
possession所有权 arrests逮捕 are teens青少年,
51
191400
5656
03:29
sexting发色情短信 consensually协商一致 with other teens青少年.
52
197080
3000
而他们都是两厢情愿的发送色情短信
03:33
Child儿童 pornography色情 is a serious严重 crime犯罪,
53
201480
2536
儿童色情是重罪
03:36
but it's just not
the same相同 thing as teen青少年 sexting发色情短信.
54
204040
3680
但是与青少年的色情短信
还是有所差异的
03:41
Parents父母 and educators教育工作者
are also responding响应 to sexting发色情短信
55
209040
3416
很多父母和教育工作者
也都往往不假思索的
03:44
without really thinking思维
too much about consent同意.
56
212480
3136
对色情短信作出反应
而不去认真思考同意的问题
03:47
Their message信息 to teens青少年 is often经常:
just don't do it.
57
215640
4120
他们往往冷冰冰的告诉孩子们
不要这么做
03:52
And I totally完全 get it --
there are serious严重 legal法律 risks风险
58
220200
3496
我也完全明白
这其中包含很严重的法律风险
03:55
and of course课程, that potential潜在
for privacy隐私 violations违规.
59
223720
3656
当然,也可能触犯私人隐私
03:59
And when you were a teen青少年,
60
227400
1256
你们还是青少年的时候
04:00
I'm sure you did exactly究竟
as you were told, right?
61
228680
3400
肯定也按吩咐办事,对吧?
04:05
You're probably大概 thinking思维,
my kid孩子 would never sext六重峰.
62
233440
3456
你可能认为
我的孩子从不发色情短信
04:08
And that's true真正, your little angel天使
may可能 not be sexting发色情短信
63
236920
3456
的确,你的小宝贝
可能不会发色情短信
04:12
because only 33 percent百分
64
240400
3136
因为16到17岁这个年龄段里
04:15
of 16- and 17-year-olds- 年的孩子 are sexting发色情短信.
65
243560
2360
只有百分之三十三的人
会发送色情短信
04:19
But, sorry, by the time they're older旧的,
odds可能性 are they will be sexting发色情短信.
66
247200
4616
但是,当他们长大些
概率是他们会发送色情短信
04:23
Every一切 study研究 I've seen看到 puts看跌期权 the rate
above以上 50 percent百分 for 18- to 24-year-olds- 年的孩子.
67
251840
6200
每一个我所看过的研究显示
18到24岁人群中发送色情短信的人数过半
大多情况下,这也没有出现什么问题
04:30
And most of the time, nothing goes wrong错误.
68
258720
3056
04:33
People ask me all the time things like,
isn't sexting发色情短信 just so dangerous危险, though虽然?
69
261800
5376
人们总问我
发色情短信不是很危险吗?
04:39
It's like you wouldn't不会
leave离开 your wallet钱包 on a park公园 bench长凳
70
267200
3576
就像你不会把你的钱包
落在公园椅子上
04:42
and you expect期望 it's going to get stolen被盗
if you do that, right?
71
270800
3440
因为你觉得这样做
钱包会被偷,对吧?
04:46
Here's这里的 how I think about it:
72
274880
1456
我觉得是这样的:
04:48
sexting发色情短信 is like leaving离开 your wallet钱包
at your boyfriend's男友 house.
73
276360
3936
发色情短信就如把钱包
丢在了男友家里一样
04:52
If you come back the next下一个 day
74
280320
1776
如果你第二天回来
发现钱都没了的话
04:54
and all the money is just gone走了,
75
282120
2280
04:57
you really need to dump倾倒 that guy.
76
285040
2120
你真的可以把他甩了
04:59
(Laughter笑声)
77
287690
2170
(观众笑声)
05:03
So instead代替 of criminalizing刑事犯罪 sexting发色情短信
78
291360
2320
所以,与其将发送色情短信
违法化
05:05
to try to prevent避免
these privacy隐私 violations违规,
79
293720
2616
以此来试图防止
隐私侵犯
05:08
instead代替 we need to make consent同意 central中央
80
296360
3296
我们可以将同意当作
我们如何看待我们隐私信息的
传播的中心
05:11
to how we think about the circulation循环
of our private私人的 information信息.
81
299680
4080
每个新的媒体技术
都会引起隐私问题
05:16
Every一切 new media媒体 technology技术
raises加薪 privacy隐私 concerns关注.
82
304480
4256
05:20
In fact事实, in the US the very first
major重大的 debates辩论 about privacy隐私
83
308760
4616
实际上,在美国
关于隐私的最初辩论
05:25
were in response响应 to technologies技术
that were relatively相对 new at the time.
84
313400
4496
是对当时崭新的科技
的回应
05:29
In the late晚了 1800s,
people were worried担心 about cameras相机,
85
317920
3896
19世纪末,人们担心那较过去
突然轻便许多的照相机
05:33
which哪一个 were just suddenly突然
more portable手提 than ever before,
86
321840
3456
05:37
and newspaper报纸 gossip八卦 columns.
87
325320
2496
以及报纸上的八卦板块
05:39
They were worried担心 that the camera相机
would capture捕获 information信息 about them,
88
327840
3816
他们担心照相机会获取他们的信息
05:43
take it out of context上下文
and widely广泛 disseminate传播 it.
89
331680
3200
断章取义
大肆宣扬
05:47
Does this sound声音 familiar?
90
335240
1616
听起来是不是很熟悉?
05:48
It's exactly究竟 what we're worrying令人担忧 about
now with social社会 media媒体 and drone无人驾驶飞机 cameras相机,
91
336880
4856
就像我们担忧社交媒体
和无人机摄像头
05:53
and, of course课程, sexting发色情短信.
92
341760
1640
当然,还有色情短信
05:55
And these fears恐惧 about technology技术,
93
343920
2216
这些对于科技的恐惧
不无道理
05:58
they make sense
94
346160
1216
因为科技能够展露出
05:59
because technologies技术
can amplify放大 and bring带来 out
95
347400
3416
并放大我们最为糟糕的品质与行为
06:02
our worst最差 qualities气质 and behaviors行为.
96
350840
2720
06:06
But there are solutions解决方案.
97
354160
2376
但这是有解决方法的
06:08
And we've我们已经 been here before
with a dangerous危险 new technology技术.
98
356560
3560
我们就曾经历过一个危险的新科技
1908年,福特推出了T系车
06:12
In 1908, Ford introduced介绍 the Model模型 T car汽车.
99
360720
3776
06:16
Traffic交通 fatality病死率 rates利率 were rising升起.
100
364520
2576
交通死亡率不断上升
06:19
It was a serious严重 problem问题 --
it looks容貌 so safe安全, right?
101
367120
2800
这曾是一个严重的问题--
它看起来很安全,对吧?
06:24
Our first response响应
was to try to change更改 drivers'司机 behavior行为,
102
372080
3976
我们第一反应是
尝试改变司机的驾驶行为
06:28
so we developed发达 speed速度 limits范围
and enforced强制执行 them through通过 fines罚款.
103
376080
3720
所以我们建立了速度限制
并通过罚款来强制实行
06:32
But over the following以下 decades几十年,
104
380240
1856
但在此后的几十年里
06:34
we started开始 to realize实现 the technology技术
of the car汽车 itself本身 is not just neutral中性.
105
382120
5496
我们开始认识到汽车技术
本身不是一成不变的
06:39
We could design设计 the car汽车 to make it safer更安全.
106
387640
3216
我们可以设计出更安全的汽车
06:42
So in the 1920s, we got
shatter-resistant防碎 windshields挡风玻璃.
107
390880
3456
于是上世纪20年代,我们有了
抗碎挡风玻璃
06:46
In the 1950s, seat座位 belts皮带.
108
394360
2496
到了50年代有了安全带
06:48
And in the 1990s, airbags安全气囊.
109
396880
3080
到了90年代,安全气囊
06:52
All three of these areas:
110
400440
2376
这三个领域:
06:54
laws法律, individuals个人 and industry行业
came来了 together一起 over time
111
402840
4776
法律,个人及工业
可以随着时间的推移集合在一起
来帮助解决新科技
所造成的问题
06:59
to help solve解决 the problem问题
that a new technology技术 causes原因.
112
407640
3776
07:03
And we can do the same相同 thing
with digital数字 privacy隐私.
113
411440
3240
我们在数字信息隐私
上亦可以如法炮制
07:07
Of course课程, it comes back to consent同意.
114
415160
2760
当然,这又回到同意的话题上来
07:10
Here's这里的 the idea理念.
115
418360
1216
我有个想法
07:11
Before anyone任何人 can distribute分发
your private私人的 information信息,
116
419600
3816
在任何人可以传播
你的个人信息之前
07:15
they should have to get your permission允许.
117
423440
2240
他们应该得到你的同意
07:18
This idea理念 of affirmative肯定 consent同意
comes from anti-rape反强奸 activists活动家
118
426240
4816
明确同意的观点源自于反性侵害人士
07:23
who tell us that we need consent同意
for every一切 sexual有性 act法案.
119
431080
3776
他们告诉我们对于每个性行为
都需要得到双方同意
07:26
And we have really high standards标准
for consent同意 in a lot of other areas.
120
434880
4576
我们在很多领域对待同意
都有着极高的标准
比如做手术
07:31
Think about having surgery手术.
121
439480
1856
07:33
Your doctor医生 has to make sure
122
441360
1616
医生需要确认
07:35
that you are meaningfully有意义 and knowingly有意识
consenting同意 to that medical procedure程序.
123
443000
4040
你了解并同意医疗程序
07:39
This is not the type类型 of consent同意
like with an iTunesiTunes的 Terms条款 of Service服务
124
447520
3696
这可不像你同意iTunes服务条款一样
07:43
where you just scroll滚动 to the bottom底部
and you're like, agree同意, agree同意, whatever随你.
125
451240
3656
直接滑到屏幕底部
然后一个劲地点同意
07:46
(Laughter笑声)
126
454920
1720
(观众笑声)
07:49
If we think more about consent同意,
we can have better privacy隐私 laws法律.
127
457160
5256
如果我们多考虑他人是否同意
我们会有更好隐私法
07:54
Right now, we just don't have
that many许多 protections保护.
128
462440
3416
现在,我们没有
那么多的保护
07:57
If your ex-husband前夫 or your ex-wife前妻
is a terrible可怕 person,
129
465880
3576
如果你的前夫或前妻
为人很不好
08:01
they can take your nude裸体 photos相片
and upload上载 them to a pornA片 site现场.
130
469480
4216
他们可以把你的裸照
发到色情网站上去
08:05
It can be really hard
to get those images图片 taken采取 down.
131
473720
3216
想把那些照片删掉
是很难的
08:08
And in a lot of states状态,
132
476960
1216
在许多州里
08:10
you're actually其实 better off
if you took the images图片 of yourself你自己
133
478200
3816
你自己拍照其实会更好点
08:14
because then you can
file文件 a copyright版权 claim要求.
134
482040
2800
因为这样你就可以
申请版权了
08:17
(Laughter笑声)
135
485320
2056
(观众笑声)
08:19
Right now, if someone有人
violates违反 your privacy隐私,
136
487400
2976
现在,如果再有人侵犯了你的隐私
08:22
whether是否 that's an individual个人
or a company公司 or the NSANSA,
137
490400
4200
不管是个人还是
企业还是美国国安局
08:27
you can try filing备案 a lawsuit诉讼,
138
495280
2736
你都可以提起诉讼
08:30
though虽然 you may可能 not be successful成功
139
498040
2136
尽管诉讼结果可能并不成功
08:32
because many许多 courts法院 assume承担
that digital数字 privacy隐私 is just impossible不可能.
140
500200
4776
因为很多法院觉得
保护数字信息隐私是不可能的
08:37
So they're not willing愿意
to punish惩治 anyone任何人 for violating违反 it.
141
505000
3440
所以他们不愿意去
惩罚那些触犯的人
08:41
I still hear people
asking me all the time,
142
509200
2896
我还是能听到
人们不停的问我
08:44
isn't a digital数字 image图片 somehow不知何故 blurring模糊
the line线 between之间 public上市 and private私人的
143
512120
5296
数字图像模糊了公共和私人的界限
08:49
because it's digital数字, right?
144
517440
1640
因为它是数字的,对吗?
08:51
No! No!
145
519600
1336
不!不!
08:52
Everything digital数字
is not just automatically自动 public上市.
146
520960
3336
每一个数位化产品并不是
自然而然就成为公众的
08:56
That doesn't make any sense.
147
524320
1896
那太没道理了
08:58
As NYUNYU legal法律 scholar学者
Helen海伦 Nissenbaum尼森鲍姆 tells告诉 us,
148
526240
3496
正如纽约大学法学者
Helen Nissenbaum告诉我们
09:01
we have laws法律 and policies政策 and norms规范
149
529760
2616
我们有着法律,政策以及准则
09:04
that protect保护 all kinds
of information信息 that's private私人的,
150
532400
3136
来保护各类私人信息
09:07
and it doesn't make a difference区别
if it's digital数字 or not.
151
535560
3416
不论它是不是数字信息
09:11
All of your health健康 records记录 are digitized数字化
152
539000
2656
你所有的医疗记录都是数字化的
09:13
but your doctor医生 can't
just share分享 them with anyone任何人.
153
541680
3136
但你的医生却不能
将它们分享给任何人
09:16
All of your financial金融 information信息
is held保持 in digital数字 databases数据库,
154
544840
4456
你所有的财务信息
都储存在数字数据库里
09:21
but your credit信用 card company公司 can't
just post岗位 your purchase采购 history历史 online线上.
155
549320
4240
但你的信用卡公司不能将
你的购买记录发布到网上
09:27
Better laws法律 could help address地址
privacy隐私 violations违规 after they happen发生,
156
555080
5456
更好的法律可以在侵犯隐私的问题
发生之后帮助解决
09:32
but one of the easiest最简单的 things
we can all do is make personal个人 changes变化
157
560560
4376
但我们可以做的最为简便的事情之一
就是从个人上做出改变来
帮助保护他人的隐私
09:36
to help protect保护 each other's其他 privacy隐私.
158
564960
2680
09:40
We're always told that privacy隐私
159
568360
1896
我们总是被告知隐私
是我们自己的,独有的
个人的责任
09:42
is our own拥有, sole唯一,
individual个人 responsibility责任.
160
570280
3056
09:45
We're told, constantly经常 monitor监控
and update更新 your privacy隐私 settings设置.
161
573360
4256
我们被告知要经常监控
并更新隐私设置
09:49
We're told, never share分享 anything
you wouldn't不会 want the entire整个 world世界 to see.
162
577640
4800
我们被告知永远别把不想被
全世界知道的东西分享出去
09:55
This doesn't make sense.
163
583400
1216
这很没道理
09:56
Digital数字 media媒体 are social社会 environments环境
164
584640
2976
数字媒体就是社会环境
09:59
and we share分享 things
with people we trust相信 all day, every一切 day.
165
587640
4280
我们每天无时无刻地将
事情分享给我们所信任的人
10:04
As Princeton普林斯顿 researcher研究员
Janet珍妮特 Vertesi韦尔泰希 argues主张,
166
592760
2976
就如普林斯顿研究员Janet Vertesi表示
10:07
our data数据 and our privacy隐私,
they're not just personal个人,
167
595760
4016
我们的数据和隐私
不单单是私人的
10:11
they're actually其实 interpersonal人际交往.
168
599800
2576
它们实际上是一种人与人之间相互的
10:14
And so one thing you can do
that's really easy简单
169
602400
3256
所以,我们能做的
很简单的一件事
10:17
is just start开始 asking for permission允许 before
you share分享 anyone任何人 else's别人的 information信息.
170
605680
5096
就是在你分享别人信息之前
取得别人的同意
10:22
If you want to post岗位 a photo照片
of someone有人 online线上, ask for permission允许.
171
610800
4536
你想把某人的照片传到网上
先经过那人的同意
10:27
If you want to forward前锋 an email电子邮件 thread线,
172
615360
2456
如果你想转寄一封电子邮件
先经过当事人同意
10:29
ask for permission允许.
173
617840
1376
10:31
And if you want to share分享
someone's谁家 nude裸体 selfie自拍,
174
619240
2776
如果你想分享某人的裸体自拍
10:34
obviously明显, ask for permission允许.
175
622040
2280
显然,先经过当事人同意
10:37
These individual个人 changes变化 can really
help us protect保护 each other's其他 privacy隐私,
176
625560
4456
这些个人行为的改变可以
帮助我们保护彼此的隐私
10:42
but we need technology技术 companies公司
on board as well.
177
630040
3800
但我们同样需要科技公司的帮忙
10:46
These companies公司 have very little
incentive激励 to help protect保护 our privacy隐私
178
634360
4496
科技公司几乎没有动机
来保护我们的隐私
10:50
because their business商业 models楷模
depend依靠 on us sharing分享 everything
179
638880
3296
因为他们的业务模式依靠于
我们分享我们的每件事
与尽可能多的人
10:54
with as many许多 people as possible可能.
180
642200
2240
10:57
Right now, if I send发送 you an image图片,
181
645080
1936
现在,如果我发给你一张照片
10:59
you can forward前锋 that
to anyone任何人 that you want.
182
647040
3096
你可以转发给任何人
11:02
But what if I got to decide决定
if that image图片 was forwardable转发 or not?
183
650160
4256
但如果我来决定这张照片
可不可以被转发会怎样?
11:06
This would tell you, you don't
have my permission允许 to send发送 this image图片 out.
184
654440
4056
这就会告诉你,你没有我的
批准去发送这张照片
11:10
We do this kind of thing all the time
to protect保护 copyright版权.
185
658520
4136
我们一直这样做
来保护我们的版权
11:14
If you buy购买 an e-book电子书, you can't just
send发送 it out to as many许多 people as you want.
186
662680
4776
如果你买了本电子书
你不能随意把它寄给别人
11:19
So why not try this with mobile移动 phones手机?
187
667480
2560
所以为什么不
如法炮制到手机上去呢?
11:22
What you can do is we can demand需求
that tech高科技 companies公司 add these protections保护
188
670960
4776
我们可以让科技公司
给我们的设备和平台
11:27
to our devices设备 and our platforms平台
as the default默认.
189
675760
3736
默认装上这些保护
11:31
After all, you can choose选择
the color颜色 of your car汽车,
190
679520
3416
毕竟,你可以选择
你自己车子的颜色
11:34
but the airbags安全气囊 are always standard标准.
191
682960
2840
但安全气囊总是有固定标准的
11:40
If we don't think more
about digital数字 privacy隐私 and consent同意,
192
688080
3816
如果我们不多思考
数字隐私和同意的问题
11:43
there can be serious严重 consequences后果.
193
691920
2720
就可能会有严重后果
11:47
There was a teenager青少年 from Ohio俄亥俄州 --
194
695360
2256
有一位来自俄亥俄的少女--
11:49
let's call her Jennifer詹妮弗,
for the sake清酒 of her privacy隐私.
195
697640
2840
为了保护她的隐私
我们就叫她Jennifer吧
11:53
She shared共享 nude裸体 photos相片 of herself她自己
with her high school学校 boyfriend男朋友,
196
701120
3576
她把她的裸照分享给了
她高中的男朋友
11:56
thinking思维 she could trust相信 him.
197
704720
1520
觉得他可以信任
11:59
Unfortunately不幸, he betrayed背叛 her
198
707720
1936
不幸的是,男友背叛了她
12:01
and sent发送 her photos相片
around the entire整个 school学校.
199
709680
2976
把她的照片传遍学校
12:04
Jennifer詹妮弗 was embarrassed尴尬 and humiliated羞辱,
200
712680
3520
让Jennifer难堪,备受羞辱
12:08
but instead代替 of being存在 compassionate富于同情心的,
her classmates同学 harassed骚扰 her.
201
716800
4136
她的同学非但没有同情她
反而对她进行骚扰
12:12
They called her a slut懒妇 and a whore妓女
202
720960
1856
他们说她是个荡妇,妓女
12:14
and they made制作 her life miserable.
203
722840
1960
使她的生活痛苦不堪
12:17
Jennifer詹妮弗 started开始 missing失踪 school学校
and her grades等级 dropped下降.
204
725360
3680
Jennifer开始缺课,成绩下滑
12:21
Ultimately最终,, Jennifer詹妮弗 decided决定
to end结束 her own拥有 life.
205
729520
3800
最终,Jennifer决定
结束了她的生命
12:26
Jennifer詹妮弗 did nothing wrong错误.
206
734720
2696
Jennifer没做错什么
12:29
All she did was share分享 a nude裸体 photo照片
207
737440
2256
她不过将她的裸照分享
12:31
with someone有人 she thought
that she could trust相信.
208
739720
2816
给了她认为
可以信任的人
12:34
And yet然而 our laws法律 tell her
209
742560
2616
可我们的法律告诉她
12:37
that she committed提交 a horrible可怕 crime犯罪
equivalent当量 to child儿童 pornography色情.
210
745200
4160
她犯了和儿童色情一样
可怕的罪行
12:41
Our gender性别 norms规范 tell her
211
749920
1496
我们的性别规范告诉她
12:43
that by producing生产
this nude裸体 image图片 of herself她自己,
212
751440
3216
给自己拍裸照
12:46
she somehow不知何故 did the most
horrible可怕, shameful可耻 thing.
213
754680
3200
是她做过的最为可怕
羞耻的事
12:50
And when we assume承担 that privacy隐私
is impossible不可能 in digital数字 media媒体,
214
758400
4216
当我们觉得保护隐私
在数字媒体环境下是不可能的时候
12:54
we completely全然 write off and excuse借口
her boyfriend's男友 bad, bad behavior行为.
215
762640
5520
我们完全无视男朋友的
不道德行为
13:01
People are still saying all the time
to victims受害者 of privacy隐私 violations违规,
216
769200
5736
人们还是在不停地对那些
隐私受侵犯的受害者们说
13:06
"What were you thinking思维?
217
774960
1256
“你在想些什么啊?
13:08
You should have never sent发送 that image图片."
218
776240
2480
你就不该发那照片的”
13:11
If you're trying to figure数字 out
what to say instead代替, try this.
219
779640
4000
如果你尝试换种说法
试试这个
13:16
Imagine想像 you've run into your friend朋友
who broke打破 their leg skiing滑雪.
220
784160
3520
想象下你碰到一个
滑雪时摔断腿的朋友
13:20
They took a risk风险 to do something fun开玩笑,
and it didn't end结束 well.
221
788240
4576
他们当时冒险做了些好玩的动作
结果腿摔断了
13:24
But you're probably大概
not going to be the jerk混蛋 who says,
222
792840
2536
但你不太可能蠢到说
13:27
"Well, I guess猜测 you shouldn't不能
have gone走了 skiing滑雪 then."
223
795400
2440
”唉,我觉得你就不该去滑雪的。”
13:32
If we think more about consent同意,
224
800080
2136
如果我们多考虑他人是否同意
13:34
we can see that victims受害者
of privacy隐私 violations违规
225
802240
3256
我们便能看见
侵犯隐私的受害者们
13:37
deserve值得 our compassion同情,
226
805520
1736
得到了我们的同情
13:39
not criminalization犯罪, shaming羞辱,
harassment骚扰 or punishment惩罚.
227
807280
4600
而不是遭到定罪,羞辱
骚扰或是惩罚
13:44
We can support支持 victims受害者,
and we can prevent避免 some privacy隐私 violations违规
228
812440
4496
我们可以支持这些受害者
通过法律,个人和科技上的改变
13:48
by making制造 these legal法律,
individual个人 and technological技术性 changes变化.
229
816960
4320
来防止侵权隐私的发生
13:53
Because the problem问题 is not sexting发色情短信,
the issue问题 is digital数字 privacy隐私.
230
821840
5816
因为问题不在于色情信息的发送
而在于数字隐私
13:59
And one solution is consent同意.
231
827680
2360
解决方法之一就是获得他人的同意
14:02
So the next下一个 time a victim受害者
of a privacy隐私 violation违反 comes up to you,
232
830680
4576
所以下次一个隐私受侵犯的人
来找你的时候
14:07
instead代替 of blaming归咎 them,
let's do this instead代替:
233
835280
2736
不要责备他们
而是这么做
14:10
let's shift转移 our ideas思路
about digital数字 privacy隐私,
234
838040
3416
让我们转变我们对数字隐私的看法
14:13
and let's respond响应 with compassion同情.
235
841480
2640
并以同情作为回应
14:16
Thank you.
236
844680
1216
谢谢
14:17
(Applause掌声)
237
845920
6136
Translated by Wei Shao
Reviewed by Chen Zou

▲Back to top

ABOUT THE SPEAKER
Amy Adele Hasinoff - Communications researcher
Amy Adele Hasinoff studies gender, sexuality, privacy and consent in new media.

Why you should listen

Amy Adele Hasinoff investigates how we think about communication technologies as both the cause of and solution to social problems. She wrote a book, Sexting Panic, about the well-intentioned but problematic responses to sexting in mass media, law and education. The National Communication Association described it as "[T]he rare book that advances scholarly conversations while also promising to enrich family conversations around the dinner table."

Hasinoff is an Assistant Professor in the communication department at the University of Colorado Denver. She publishes regularly in scholarly journals and books and wrote an op-ed about sexting for the New York Times.

More profile about the speaker
Amy Adele Hasinoff | Speaker | TED.com