ABOUT THE SPEAKER
Amy Adele Hasinoff - Communications researcher
Amy Adele Hasinoff studies gender, sexuality, privacy and consent in new media.

Why you should listen

Amy Adele Hasinoff investigates how we think about communication technologies as both the cause of and solution to social problems. She wrote a book, Sexting Panic, about the well-intentioned but problematic responses to sexting in mass media, law and education. The National Communication Association described it as "[T]he rare book that advances scholarly conversations while also promising to enrich family conversations around the dinner table."

Hasinoff is an Assistant Professor in the communication department at the University of Colorado Denver. She publishes regularly in scholarly journals and books and wrote an op-ed about sexting for the New York Times.

More profile about the speaker
Amy Adele Hasinoff | Speaker | TED.com
TEDxMileHigh

Amy Adele Hasinoff: How to practice safe sexting

艾米‧阿黛菈‧賀森娜芙: 如何進行安全的性愛簡訊

Filmed:
1,570,366 views

性愛、調情簡訊,就像其它有趣好玩的事物一樣,自身承載著一定的風險 ── 但是若嚴重地違反隱私權,則不能將其視為所應承擔的風險。艾米‧阿黛菈‧賀森娜芙(Amy Adele Hasinoff)觀察到大眾媒體、法律與教育界對性愛簡訊所呈現的兩難反應,提出了個人與科技公司如何保護敏感的(呃...可能是尷尬丟臉的)數位檔案的解決之道。
- Communications researcher
Amy Adele Hasinoff studies gender, sexuality, privacy and consent in new media. Full bio

Double-click the English transcript below to play the video.

00:12
People have been using運用 media媒體
to talk about sex性別 for a long time.
0
720
4280
人們利用各種媒介討論性由來已久。
00:17
Love letters, phone電話 sex性別, racy活潑 Polaroids寶麗來.
1
5600
3440
情書、性愛電話以及辛辣的照片。
00:21
There's even a story故事 of a girl女孩 who eloped私奔
with a man that she met會見 over the telegraph電報
2
9480
6056
甚至有個女生與透過電報認識的
男生一同私奔,
早在 1886 年就有了。
00:27
in 1886.
3
15560
1640
00:30
Today今天 we have sexting發色情短信,
and I am a sexting發色情短信 expert專家.
4
18560
5096
現今,我們有性愛調情簡訊,
而我是個研究性愛簡訊的專家。
00:35
Not an expert專家 sextersexter.
5
23680
1880
不是喜歡傳情色簡訊的專家哦。
00:38
Though雖然, I do know what this means手段 --
I think you do too.
6
26800
4176
雖然我知道這玩意兒代表什麼意思,
我想你們也知道。
00:43
[it's a penis陰莖]
7
31000
1375
(它代表著男性的陰莖)
00:44
(Laughter笑聲)
8
32400
2360
(笑聲)
00:48
I have been studying研究 sexting發色情短信 since以來
the media媒體 attention注意 to it began開始 in 2008.
9
36360
6336
2008 年自從媒體開始注意到
性愛簡訊時,我就已經在研究它了。
00:54
I wrote a book on the moral道德
panic恐慌 about sexting發色情短信.
10
42720
2976
我寫了本有關
性愛簡訊之道德恐慌的書。
00:57
And here's這裡的 what I found發現:
11
45720
1616
我發現
00:59
most people are worrying令人擔憂
about the wrong錯誤 thing.
12
47360
3216
大多數人都擔錯心了。
01:02
They're trying to just prevent避免
sexting發色情短信 from happening事件 entirely完全.
13
50600
4176
他們嘗試全面禁止性愛簡訊。
01:06
But let me ask you this:
14
54800
1536
但是我問各位:
01:08
As long as it's completely全然 consensual兩廂情願,
what's the problem問題 with sexting發色情短信?
15
56360
4856
只要他們是兩廂情願的,
性愛簡訊有什麼問題嗎?
01:13
People are into all sorts排序 of things
that you may可能 not be into,
16
61240
4016
人家喜歡的,你可能不喜歡,
01:17
like blue藍色 cheese起司 or cilantro胡荽葉.
17
65280
2296
譬如說藍起司或香菜。
01:19
(Laughter笑聲)
18
67600
1640
(笑聲)
01:22
Sextingsexting is certainly當然 risky有風險,
like anything that's fun開玩笑,
19
70600
4136
性愛簡訊確實具有風險,
就像其它好玩有趣的事物一樣。
01:26
but as long as you're not sending發出 an image圖片
to someone有人 who doesn't want to receive接收 it,
20
74760
6696
但是只要你不是將圖片寄到
不想收到的人手中,
01:33
there's no harm危害.
21
81480
1776
那根本無傷大雅啊。
01:35
What I do think is a serious嚴重 problem問題
22
83280
2616
我真正在意的是另一個嚴重的問題,
01:37
is when people share分享
private私人的 images圖片 of others其他
23
85920
3256
就是人們在未經對方同意的情況下,
01:41
without their permission允許.
24
89200
1520
將私人照片分享出去。
01:43
And instead代替 of worrying令人擔憂 about sexting發色情短信,
25
91360
2336
與其擔心性愛簡訊,
01:45
what I think we need to do
is think a lot more about digital數字 privacy隱私.
26
93720
4560
我們更應該關心數位隱私的議題。
01:50
The key is consent同意.
27
98880
2200
關鍵點是得到對方的同意。
01:53
Right now most people
are thinking思維 about sexting發色情短信
28
101680
3296
現在大多數的人只想到性愛簡訊,
01:57
without really thinking思維
about consent同意 at all.
29
105000
2960
卻沒有想到對方同意與否的問題。
02:00
Did you know that we currently目前
criminalize刑事犯罪 teen青少年 sexting發色情短信?
30
108400
3680
你們知道目前青少年傳調情簡訊,
是違法的嗎?
02:05
It can be a crime犯罪 because
it counts計數 as child兒童 pornography色情,
31
113400
3456
這可能會犯罪,因為如果訊息中
有未滿 18 歲青少年的圖片,
02:08
if there's an image圖片 of someone有人 under 18,
32
116880
2856
它會被視為兒童色情文物。
02:11
and it doesn't even matter
33
119760
1336
就算是當事人他們自拍後上傳,
02:13
if they took that image圖片 of themselves他們自己
and shared共享 it willingly甘心.
34
121120
4200
自願分享給別人看,也是一樣違法。
02:17
So we end結束 up with this
bizarre奇異的 legal法律 situation情況
35
125800
2976
所以,我們現在卡在這個
詭異的法律情況中,
02:20
where two 17-year-olds- 年的孩子
can legally法律上 have sex性別 in most US states狀態
36
128800
4536
兩位年滿 17 歲的人發生性行為,
在美國大部分的州都視為合法,
02:25
but they can't photograph照片 it.
37
133360
1880
但是他們不能拍性愛照。
02:28
Some states狀態 have also tried試著
passing通過 sexting發色情短信 misdemeanor輕罪 laws法律
38
136560
4256
一些州亦試圖通過
性愛簡訊的輕罪法律,
02:32
but these laws法律 repeat重複 the same相同 problem問題
39
140840
3016
但是這些法規卻重複著相同的問題,
02:35
because they still
make consensual兩廂情願 sexting發色情短信 illegal非法.
40
143880
3760
因為它們仍將兩廂情願的
調情簡訊視為違法的。
02:40
It doesn't make sense
41
148520
1256
試著要禁止所有的情色簡訊
與嘗試解決所謂隱私權的侵犯,
02:41
to try to ban禁止 all sexting發色情短信
to try to address地址 privacy隱私 violations違規.
42
149800
4736
是沒有意義的。
02:46
This is kind of like saying,
43
154560
1496
這就好像在說,
02:48
let's solve解決 the problem問題 of date日期 rape強姦
by just making製造 dating約會 completely全然 illegal非法.
44
156080
5440
為了解決約會性侵害的問題,
我們卻把全部的約會視為違法一樣。
02:55
Most teens青少年 don't get arrested被捕 for sexting發色情短信,
but can you guess猜測 who does?
45
163120
5376
大多數青少年不因傳調情簡訊被捕,
但你們猜,誰會呢?
03:00
It's often經常 teens青少年 who are disliked不喜歡的
by their partner's夥伴 parents父母.
46
168520
4976
通常是被對方父母討厭的青少年。
03:05
And this can be because of class bias偏壓,
racism種族主義 or homophobia同性戀.
47
173520
4800
被討厭的原因有可能是階級偏見、
種族歧視或是對同性戀的憎惡。
當然,大部分的檢察官很聰明,
03:10
Most prosecutors檢察官 are,
of course課程, smart聰明 enough足夠
48
178960
2776
03:13
not to use child兒童 pornography色情 charges收費
against反對 teenagers青少年, but some do.
49
181760
5480
他們不會以違反兒童色情文物的罪名
來起訴青少年,但有些還是會。
03:19
According根據 to researchers研究人員
at the University大學 of New Hampshire漢普郡
50
187720
3656
根據新罕布夏大學的研究人員指出,
03:23
seven percent百分 of all child兒童 pornography色情
possession所有權 arrests逮捕 are teens青少年,
51
191400
5656
因持有兒童色情文物而被定罪的
有 7% 是青少年,
03:29
sexting發色情短信 consensually協商一致 with other teens青少年.
52
197080
3000
且是經雙方彼此同意下所傳的調情內容。
03:33
Child兒童 pornography色情 is a serious嚴重 crime犯罪,
53
201480
2536
持有兒童色情文物是一個嚴重的罪行,
03:36
but it's just not
the same相同 thing as teen青少年 sexting發色情短信.
54
204040
3680
但它和青少年互傳調情簡訊的情況
是迥然不同的。
03:41
Parents父母 and educators教育工作者
are also responding響應 to sexting發色情短信
55
209040
3416
父母與教育工作者
對調情簡訊的回應也是一樣,
03:44
without really thinking思維
too much about consent同意.
56
212480
3136
他們並沒有認真思考過
兩廂情願的情況。
03:47
Their message信息 to teens青少年 is often經常:
just don't do it.
57
215640
4120
他們對青少年所傳達的訊息通常是:
不要傳就對了。
03:52
And I totally完全 get it --
there are serious嚴重 legal法律 risks風險
58
220200
3496
而我完全能理解,
因為有很嚴重的法律風險,
03:55
and of course課程, that potential潛在
for privacy隱私 violations違規.
59
223720
3656
當然,還有潛在侵害隱私權的問題。
03:59
And when you were a teen青少年,
60
227400
1256
當你還是個青少年時,
04:00
I'm sure you did exactly究竟
as you were told, right?
61
228680
3400
我相信你一定照大人說的去做,
對吧?
04:05
You're probably大概 thinking思維,
my kid孩子 would never sext六重峰.
62
233440
3456
你可能認為我的孩子
絕對不會傳情色簡訊。
04:08
And that's true真正, your little angel天使
may可能 not be sexting發色情短信
63
236920
3456
對,是真的。你的小天使
也許不會傳情色簡訊,
04:12
because only 33 percent百分
64
240400
3136
因為只有 33% 的
04:15
of 16- and 17-year-olds- 年的孩子 are sexting發色情短信.
65
243560
2360
16-17 歲的青少年在傳。
04:19
But, sorry, by the time they're older舊的,
odds可能性 are they will be sexting發色情短信.
66
247200
4616
但不好意思,等到他們再長大一些,
他們會傳情色簡訊的機率會變高。
04:23
Every一切 study研究 I've seen看到 puts看跌期權 the rate
above以上 50 percent百分 for 18- to 24-year-olds- 年的孩子.
67
251840
6200
我看過的每個研究數據皆顯示,
18-24 歲會傳的比例,超過一半
04:30
And most of the time, nothing goes wrong錯誤.
68
258720
3056
而大多數時間,沒出什麼差錯。
04:33
People ask me all the time things like,
isn't sexting發色情短信 just so dangerous危險, though雖然?
69
261800
5376
人們常問我這樣的問題,
傳性愛簡訊不是很危險嗎?
04:39
It's like you wouldn't不會
leave離開 your wallet錢包 on a park公園 bench長凳
70
267200
3576
就像你不會將你的皮包留在
公園的長凳上,
04:42
and you expect期望 it's going to get stolen被盜
if you do that, right?
71
270800
3440
如果你這樣做的話,
皮包會被偷走,對吧?
04:46
Here's這裡的 how I think about it:
72
274880
1456
我是這麼想的:
04:48
sexting發色情短信 is like leaving離開 your wallet錢包
at your boyfriend's男友 house.
73
276360
3936
性愛簡訊就像妳把皮包
留在男友家中,
04:52
If you come back the next下一個 day
74
280320
1776
如果隔天你回去男友家
04:54
and all the money is just gone走了,
75
282120
2280
發現皮包裡的錢都不見了,
04:57
you really need to dump傾倒 that guy.
76
285040
2120
你真的要把那個男生給甩了。
04:59
(Laughter笑聲)
77
287690
2170
(笑聲)
05:03
So instead代替 of criminalizing刑事犯罪 sexting發色情短信
78
291360
2320
所以,與其加諸罪名在性愛簡訊上
05:05
to try to prevent避免
these privacy隱私 violations違規,
79
293720
2616
以此來防範隱私受到侵害,
05:08
instead代替 we need to make consent同意 central中央
80
296360
3296
反而應該著重在彼此同意
05:11
to how we think about the circulation循環
of our private私人的 information信息.
81
299680
4080
我們的私訊如何流通。
05:16
Every一切 new media媒體 technology技術
raises加薪 privacy隱私 concerns關注.
82
304480
4256
每一個新媒體科技的出現,
都會引發我們對隱私權的關注。
05:20
In fact事實, in the US the very first
major重大的 debates辯論 about privacy隱私
83
308760
4616
實際上,美國史上首次有關
隱私權的辯論,
05:25
were in response響應 to technologies技術
that were relatively相對 new at the time.
84
313400
4496
就是為了因應當時相當嶄新的科技。
05:29
In the late晚了 1800s,
people were worried擔心 about cameras相機,
85
317920
3896
在十九世紀末,人們擔心相機,
05:33
which哪一個 were just suddenly突然
more portable手提 than ever before,
86
321840
3456
因為突然間它變得更方便、輕巧;
05:37
and newspaper報紙 gossip八卦 columns.
87
325320
2496
還擔心報紙的八卦專欄。
05:39
They were worried擔心 that the camera相機
would capture捕獲 information信息 about them,
88
327840
3816
他們擔心相機拍到他們的相關動態,
看圖說故事斷章取義地
將圖片廣為散播。
05:43
take it out of context上下文
and widely廣泛 disseminate傳播 it.
89
331680
3200
05:47
Does this sound聲音 familiar?
90
335240
1616
這聽起來很耳熟嗎?
05:48
It's exactly究竟 what we're worrying令人擔憂 about
now with social社會 media媒體 and drone無人駕駛飛機 cameras相機,
91
336880
4856
這正是我們現在所擔心的
社群媒體與無人機相機;
05:53
and, of course課程, sexting發色情短信.
92
341760
1640
當然,還有情色簡訊。
05:55
And these fears恐懼 about technology技術,
93
343920
2216
這些對科技的恐懼,
05:58
they make sense
94
346160
1216
不無道理,
05:59
because technologies技術
can amplify放大 and bring帶來 out
95
347400
3416
因為科技能夠放大並將我們人類
06:02
our worst最差 qualities氣質 and behaviors行為.
96
350840
2720
最糟糕的特質與行為展露出來。
06:06
But there are solutions解決方案.
97
354160
2376
但還是有解決之道。
06:08
And we've我們已經 been here before
with a dangerous危險 new technology技術.
98
356560
3560
我們以前也曾經歷過所謂
危險的新科技。
06:12
In 1908, Ford introduced介紹 the Model模型 T car汽車.
99
360720
3776
1980 年,福特推出了福特 T 型車。
06:16
Traffic交通 fatality病死率 rates利率 were rising升起.
100
364520
2576
交通事故的死亡率節節攀升。
06:19
It was a serious嚴重 problem問題 --
it looks容貌 so safe安全, right?
101
367120
2800
這是個嚴重的問題。
它看起來很安全,對吧?
06:24
Our first response響應
was to try to change更改 drivers'司機 behavior行為,
102
372080
3976
我們第一個反應是
嘗試改變駕駛人的駕駛行為,
06:28
so we developed發達 speed速度 limits範圍
and enforced強制執行 them through通過 fines罰款.
103
376080
3720
所以我們有了速限並
藉由罰鍰來強制執行。
06:32
But over the following以下 decades幾十年,
104
380240
1856
但,經過幾十年後,
06:34
we started開始 to realize實現 the technology技術
of the car汽車 itself本身 is not just neutral中性.
105
382120
5496
我們開始了解到汽車科技本身
並非停滯不前的,
06:39
We could design設計 the car汽車 to make it safer更安全.
106
387640
3216
我們可以把車子設計得更安全。
06:42
So in the 1920s, we got
shatter-resistant防碎 windshields擋風玻璃.
107
390880
3456
所以,在 1920 年代,
我們有了抗碎的擋風玻璃。
06:46
In the 1950s, seat座位 belts皮帶.
108
394360
2496
1950 年代,安全帶問世。
06:48
And in the 1990s, airbags安全氣囊.
109
396880
3080
以及 1990 年代的安全氣囊。
06:52
All three of these areas:
110
400440
2376
這三個領域:
06:54
laws法律, individuals個人 and industry行業
came來了 together一起 over time
111
402840
4776
法律、個人和產業界,會聚在一起
共同尋求解決新科技所帶來的問題。
06:59
to help solve解決 the problem問題
that a new technology技術 causes原因.
112
407640
3776
07:03
And we can do the same相同 thing
with digital數字 privacy隱私.
113
411440
3240
我們對數位隱私權也可以如法炮製。
07:07
Of course課程, it comes back to consent同意.
114
415160
2760
當然,這又回到
取得對方同意的議題上了。
07:10
Here's這裡的 the idea理念.
115
418360
1216
我是這麼想的。
07:11
Before anyone任何人 can distribute分發
your private私人的 information信息,
116
419600
3816
在任何人可以將你的私人訊息
傳播出去之前,
07:15
they should have to get your permission允許.
117
423440
2240
他們必須先取得你的同意。
07:18
This idea理念 of affirmative肯定 consent同意
comes from anti-rape反強姦 activists活動家
118
426240
4816
確認同意的概念,
是從反性侵害活動中得到的,
07:23
who tell us that we need consent同意
for every一切 sexual有性 act法案.
119
431080
3776
它告訴我們每次的性行為都需要
經過彼此的同意。
07:26
And we have really high standards標準
for consent同意 in a lot of other areas.
120
434880
4576
在其他的領域上,我們對同意權的
行使有著極高的標準。
07:31
Think about having surgery手術.
121
439480
1856
想想當我們要進行手術。
07:33
Your doctor醫生 has to make sure
122
441360
1616
你的醫師必須確認
07:35
that you are meaningfully有意義 and knowingly有意識
consenting同意 to that medical procedure程序.
123
443000
4040
你知情、瞭解並同意醫療程序。
07:39
This is not the type類型 of consent同意
like with an iTunesiTunes的 Terms條款 of Service服務
124
447520
3696
這跟只需要把螢幕滑到最底下,
然後點選喜歡、同意、全都同意的
07:43
where you just scroll滾動 to the bottom底部
and you're like, agree同意, agree同意, whatever隨你.
125
451240
3656
iTunes 服務條款同意書
是不同的。
07:46
(Laughter笑聲)
126
454920
1720
(笑聲)
07:49
If we think more about consent同意,
we can have better privacy隱私 laws法律.
127
457160
5256
假如我們對同意這個議題多些關注,
我們就能有比較好的隱私權法律。
07:54
Right now, we just don't have
that many許多 protections保護.
128
462440
3416
目前,我們並沒有那麼多的
隱私權保護政策。
07:57
If your ex-husband前夫 or your ex-wife前妻
is a terrible可怕 person,
129
465880
3576
假如你的前夫或前妻是個可怕的人,
08:01
they can take your nude裸體 photos相片
and upload上載 them to a pornA片 site現場.
130
469480
4216
他們可以將你的裸照上傳到
色情網站上面。
08:05
It can be really hard
to get those images圖片 taken採取 down.
131
473720
3216
要將那些裸照下架非常困難。
08:08
And in a lot of states狀態,
132
476960
1216
在很多的州,
08:10
you're actually其實 better off
if you took the images圖片 of yourself你自己
133
478200
3816
如果那些照片是你自己拍攝的,
會比較好處理,
08:14
because then you can
file文件 a copyright版權 claim要求.
134
482040
2800
因為你可以提出版權的聲明。
08:17
(Laughter笑聲)
135
485320
2056
(笑聲)
08:19
Right now, if someone有人
violates違反 your privacy隱私,
136
487400
2976
現在,如果有人侵犯你的隱私權,
08:22
whether是否 that's an individual個人
or a company公司 or the NSANSA,
137
490400
4200
不論侵權者是個人或公司
或美國國家安全局,
08:27
you can try filing備案 a lawsuit訴訟,
138
495280
2736
你都可以試著提起訴訟;
08:30
though雖然 you may可能 not be successful成功
139
498040
2136
雖然你未必會成功,
08:32
because many許多 courts法院 assume承擔
that digital數字 privacy隱私 is just impossible不可能.
140
500200
4776
因為多數法庭認為數位隱私權
是無法掌控管理的。
08:37
So they're not willing願意
to punish懲治 anyone任何人 for violating違反 it.
141
505000
3440
所以,他們不想要懲罰違反的人。
08:41
I still hear people
asking me all the time,
142
509200
2896
我仍然一直聽到有人問我,
08:44
isn't a digital數字 image圖片 somehow不知何故 blurring模糊
the line between之間 public上市 and private私人的
143
512120
5296
數位影像模糊了公眾與隱私的界限,
08:49
because it's digital數字, right?
144
517440
1640
因為它是數位的,對嗎?
08:51
No! No!
145
519600
1336
不 ! 不是這樣的 !
08:52
Everything digital數字
is not just automatically自動 public上市.
146
520960
3336
數位化的東西,並不是
自然而然就變成公有的。
08:56
That doesn't make any sense.
147
524320
1896
那太沒有道理了。
08:58
As NYUNYU legal法律 scholar學者
Helen海倫 Nissenbaum尼森鮑姆 tells告訴 us,
148
526240
3496
紐約大學法律學者
海倫·尼森鮑姆告訴我們,
09:01
we have laws法律 and policies政策 and norms規範
149
529760
2616
我們有法律、政策和社會規範
09:04
that protect保護 all kinds
of information信息 that's private私人的,
150
532400
3136
能夠保護所有種類的隱私資訊,
09:07
and it doesn't make a difference區別
if it's digital數字 or not.
151
535560
3416
跟數位化與否並無關係。
09:11
All of your health健康 records記錄 are digitized數字化
152
539000
2656
所有的醫療紀錄都是數位化的,
09:13
but your doctor醫生 can't
just share分享 them with anyone任何人.
153
541680
3136
但是你的醫師不能將其
任意分享給別人。
09:16
All of your financial金融 information信息
is held保持 in digital數字 databases數據庫,
154
544840
4456
所有的財務資訊
也都存在數位資料庫裡,
09:21
but your credit信用 card company公司 can't
just post崗位 your purchase採購 history歷史 online線上.
155
549320
4240
但你的信用卡公司不能將你的
購物明細放在網站上供人閱覽。
09:27
Better laws法律 could help address地址
privacy隱私 violations違規 after they happen發生,
156
555080
5456
更好的法律能在事後
幫助解決隱私權的侵害問題,
09:32
but one of the easiest最簡單的 things
we can all do is make personal個人 changes變化
157
560560
4376
但保護彼此隱私權最簡單的方法,
就是改變個人的使用習慣。
09:36
to help protect保護 each other's其他 privacy隱私.
158
564960
2680
09:40
We're always told that privacy隱私
159
568360
1896
我們總是被告知隱私
09:42
is our own擁有, sole唯一,
individual個人 responsibility責任.
160
570280
3056
是我們自身、獨有、個人的責任。
09:45
We're told, constantly經常 monitor監控
and update更新 your privacy隱私 settings設置.
161
573360
4256
我們被告知要經常性地偵測、
更新隱私設定。
09:49
We're told, never share分享 anything
you wouldn't不會 want the entire整個 world世界 to see.
162
577640
4800
我們被告知絕對不要將你不想
被全世界看到的東西分享出去。
09:55
This doesn't make sense.
163
583400
1216
這沒有道理。
09:56
Digital數字 media媒體 are social社會 environments環境
164
584640
2976
數位媒體是個社群環境,
09:59
and we share分享 things
with people we trust相信 all day, every一切 day.
165
587640
4280
我們每天與所信任的人
分享喜怒哀樂。
10:04
As Princeton普林斯頓 researcher研究員
Janet珍妮特 VertesiVertesi argues主張,
166
592760
2976
普林斯頓研究員
珍妮· 瓦爾特絲認為,
10:07
our data數據 and our privacy隱私,
they're not just personal個人,
167
595760
4016
我們的資訊與隱私,
它們不僅僅只是私人的,
10:11
they're actually其實 interpersonal人際交往.
168
599800
2576
它們實際上還是一種人際關係。
10:14
And so one thing you can do
that's really easy簡單
169
602400
3256
所以,我們能做的事非常簡單,
10:17
is just start開始 asking for permission允許 before
you share分享 anyone任何人 else's別人的 information信息.
170
605680
5096
就是當你要分享別人的資訊時,
先徵得當事人的同意。
10:22
If you want to post崗位 a photo照片
of someone有人 online線上, ask for permission允許.
171
610800
4536
假如你要在網站上貼別人的照片,
先徵得當事人的同意。
10:27
If you want to forward前鋒 an email電子郵件 thread,
172
615360
2456
如果你想要轉寄電子郵件,
10:29
ask for permission允許.
173
617840
1376
先徵得當事人的同意。
10:31
And if you want to share分享
someone's誰家 nude裸體 selfie自拍,
174
619240
2776
如果你要分享某人的自拍裸照,
10:34
obviously明顯, ask for permission允許.
175
622040
2280
顯然地,請先徵得自拍者的同意。
10:37
These individual個人 changes變化 can really
help us protect保護 each other's其他 privacy隱私,
176
625560
4456
這些經由個人使用習慣的改變,
才能真正幫助我們保護彼此的隱私,
10:42
but we need technology技術 companies公司
on board as well.
177
630040
3800
但我們仍需要科技公司的協助。
10:46
These companies公司 have very little
incentive激勵 to help protect保護 our privacy隱私
178
634360
4496
這些公司幾乎沒有動機
要協助我們保護我們的隱私,
10:50
because their business商業 models楷模
depend依靠 on us sharing分享 everything
179
638880
3296
因為它們的商業模式有賴於
大家盡可能地
10:54
with as many許多 people as possible可能.
180
642200
2240
分享所有的東西給更多的人。
10:57
Right now, if I send發送 you an image圖片,
181
645080
1936
現在,我寄給你一張照片,
10:59
you can forward前鋒 that
to anyone任何人 that you want.
182
647040
3096
你可以轉寄給任何人。
11:02
But what if I got to decide決定
if that image圖片 was forwardable轉發 or not?
183
650160
4256
但,假如我能夠決定
這張照片可不可以被轉寄呢?
11:06
This would tell you, you don't
have my permission允許 to send發送 this image圖片 out.
184
654440
4056
這會告訴你,
我沒允許你寄照片出去。
11:10
We do this kind of thing all the time
to protect保護 copyright版權.
185
658520
4136
我們總是做這個動作來保護版權。
11:14
If you buy購買 an e-book電子書, you can't just
send發送 it out to as many許多 people as you want.
186
662680
4776
假如你買了一本電子書,
你不能隨便就寄給別人。
11:19
So why not try this with mobile移動 phones手機?
187
667480
2560
為何我們不在手機上試試這個呢?
11:22
What you can do is we can demand需求
that tech高科技 companies公司 add these protections保護
188
670960
4776
你我能要求科技公司把保護警語
11:27
to our devices設備 and our platforms平台
as the default默認.
189
675760
3736
設成我們裝置與平台的預設值。
11:31
After all, you can choose選擇
the color顏色 of your car汽車,
190
679520
3416
畢竟,你可以選擇自己車子的顏色,
11:34
but the airbags安全氣囊 are always standard標準.
191
682960
2840
但是,安全氣囊一定是標準配備。
11:40
If we don't think more
about digital數字 privacy隱私 and consent同意,
192
688080
3816
如果我們不對數位隱私與同意權
多加考慮思索,
11:43
there can be serious嚴重 consequences後果.
193
691920
2720
可能會造成嚴重的後果。
11:47
There was a teenager青少年 from Ohio俄亥俄州 --
194
695360
2256
有一個來自俄亥俄州的少女,
11:49
let's call her Jennifer詹妮弗,
for the sake清酒 of her privacy隱私.
195
697640
2840
為了保護她的隱私,
姑且稱她為珍妮佛。
11:53
She shared共享 nude裸體 photos相片 of herself她自己
with her high school學校 boyfriend男朋友,
196
701120
3576
她將自己的裸照分享給
她的高中男友,
11:56
thinking思維 she could trust相信 him.
197
704720
1520
她以為他值得信任。
11:59
Unfortunately不幸, he betrayed背叛 her
198
707720
1936
不幸的是,他背叛了她
12:01
and sent發送 her photos相片
around the entire整個 school學校.
199
709680
2976
將她的裸照寄給全校的同學。
12:04
Jennifer詹妮弗 was embarrassed尷尬 and humiliated羞辱,
200
712680
3520
珍妮佛覺得受辱與無地自容,
12:08
but instead代替 of being存在 compassionate富於同情心的,
her classmates同學 harassed騷擾 her.
201
716800
4136
她的同學非但沒有同情心,
還不斷騷擾她。
12:12
They called her a slut懶婦 and a whore妓女
202
720960
1856
他們罵她是蕩婦和妓女,
12:14
and they made製作 her life miserable.
203
722840
1960
讓她的人生陷入了愁雲慘霧。
12:17
Jennifer詹妮弗 started開始 missing失踪 school學校
and her grades等級 dropped下降.
204
725360
3680
珍妮佛開始缺課,成績也一落千丈。
12:21
Ultimately最終,, Jennifer詹妮弗 decided決定
to end結束 her own擁有 life.
205
729520
3800
最終,珍妮佛選擇結束自己的生命。
12:26
Jennifer詹妮弗 did nothing wrong錯誤.
206
734720
2696
珍妮佛並沒有做錯什麼。
12:29
All she did was share分享 a nude裸體 photo照片
207
737440
2256
她只是把自己的裸照分享給
12:31
with someone有人 she thought
that she could trust相信.
208
739720
2816
自認可以信得過的人。
12:34
And yet然而 our laws法律 tell her
209
742560
2616
然而,法律告訴她,
12:37
that she committed提交 a horrible可怕 crime犯罪
equivalent當量 to child兒童 pornography色情.
210
745200
4160
她犯了一個很可怕的罪,
相當於違反兒童色情文物法的罪。
12:41
Our gender性別 norms規範 tell her
211
749920
1496
我們的性別規範告訴她,
12:43
that by producing生產
this nude裸體 image圖片 of herself她自己,
212
751440
3216
她自拍裸照的這個行為,
12:46
she somehow不知何故 did the most
horrible可怕, shameful可恥 thing.
213
754680
3200
是最可怕且最羞恥的事。
12:50
And when we assume承擔 that privacy隱私
is impossible不可能 in digital數字 media媒體,
214
758400
4216
當我們認為隱私權在
數位媒體的時代是無所遁形的,
12:54
we completely全然 write off and excuse藉口
her boyfriend's男友 bad, bad behavior行為.
215
762640
5520
我們等於完全無視她男友所犯的過錯
並給與他脫罪的藉口。
13:01
People are still saying all the time
to victims受害者 of privacy隱私 violations違規,
216
769200
5736
人們還是常對隱私被侵害的人說 :
13:06
"What were you thinking思維?
217
774960
1256
「你到底在想什麼?
13:08
You should have never sent發送 that image圖片."
218
776240
2480
你本來就不應該把那照片寄出去。」
13:11
If you're trying to figure數字 out
what to say instead代替, try this.
219
779640
4000
如果你在想如何反駁的話,
試試這個。
13:16
Imagine想像 you've run into your friend朋友
who broke打破 their leg skiing滑雪.
220
784160
3520
想像你遇到了一個
滑雪摔斷腿的朋友,
13:20
They took a risk風險 to do something fun開玩笑,
and it didn't end結束 well.
221
788240
4576
他們當時冒險做了一些有趣的動作,
結果不小心摔傷了。
13:24
But you're probably大概
not going to be the jerk混蛋 who says,
222
792840
2536
你應該不會白目到去告訴他:
13:27
"Well, I guess猜測 you shouldn't不能
have gone走了 skiing滑雪 then."
223
795400
2440
「嗯,我早猜到你不應該滑雪的。」
13:32
If we think more about consent同意,
224
800080
2136
假如我們多想想同意與否的問題,
13:34
we can see that victims受害者
of privacy隱私 violations違規
225
802240
3256
我們就能夠知道那些
隱私受到侵害的人,
13:37
deserve值得 our compassion同情,
226
805520
1736
是值得我們同情的;
13:39
not criminalization犯罪, shaming羞辱,
harassment騷擾 or punishment懲罰.
227
807280
4600
而不是將他們定罪、羞辱、
騷擾或懲罰。
13:44
We can support支持 victims受害者,
and we can prevent避免 some privacy隱私 violations違規
228
812440
4496
我們可以支持受害者,
藉由法律、個人和科技的改變
13:48
by making製造 these legal法律,
individual個人 and technological技術性 changes變化.
229
816960
4320
來防止隱私權受到侵害。
13:53
Because the problem問題 is not sexting發色情短信,
the issue問題 is digital數字 privacy隱私.
230
821840
5816
因為問題不是性愛簡訊,
而是數位隱私。
13:59
And one solution is consent同意.
231
827680
2360
而解決的方法之一就是徵得同意。
14:02
So the next下一個 time a victim受害者
of a privacy隱私 violation違反 comes up to you,
232
830680
4576
所以,下一次當隱私權
受到侵害的人來找你時,
14:07
instead代替 of blaming歸咎 them,
let's do this instead代替:
233
835280
2736
不要責備他們,
反之,我們應該這樣做:
14:10
let's shift轉移 our ideas思路
about digital數字 privacy隱私,
234
838040
3416
讓我們改變對數位隱私的窠臼觀點,
14:13
and let's respond響應 with compassion同情.
235
841480
2640
以同情心、同理心來回應吧。
14:16
Thank you.
236
844680
1216
謝謝。
14:17
(Applause掌聲)
237
845920
6136
(掌聲)
Translated by SF Huang
Reviewed by Yi-Fan Yu

▲Back to top

ABOUT THE SPEAKER
Amy Adele Hasinoff - Communications researcher
Amy Adele Hasinoff studies gender, sexuality, privacy and consent in new media.

Why you should listen

Amy Adele Hasinoff investigates how we think about communication technologies as both the cause of and solution to social problems. She wrote a book, Sexting Panic, about the well-intentioned but problematic responses to sexting in mass media, law and education. The National Communication Association described it as "[T]he rare book that advances scholarly conversations while also promising to enrich family conversations around the dinner table."

Hasinoff is an Assistant Professor in the communication department at the University of Colorado Denver. She publishes regularly in scholarly journals and books and wrote an op-ed about sexting for the New York Times.

More profile about the speaker
Amy Adele Hasinoff | Speaker | TED.com