ABOUT THE SPEAKER
Amy Adele Hasinoff - Communications researcher
Amy Adele Hasinoff studies gender, sexuality, privacy and consent in new media.

Why you should listen

Amy Adele Hasinoff investigates how we think about communication technologies as both the cause of and solution to social problems. She wrote a book, Sexting Panic, about the well-intentioned but problematic responses to sexting in mass media, law and education. The National Communication Association described it as "[T]he rare book that advances scholarly conversations while also promising to enrich family conversations around the dinner table."

Hasinoff is an Assistant Professor in the communication department at the University of Colorado Denver. She publishes regularly in scholarly journals and books and wrote an op-ed about sexting for the New York Times.

More profile about the speaker
Amy Adele Hasinoff | Speaker | TED.com
TEDxMileHigh

Amy Adele Hasinoff: How to practice safe sexting

エイミー・アデル・ハシノフ: 安全にセクスティングする方法

Filmed:
1,570,366 views

楽しいことの例にもれず、セクスティングにはリスクが伴いますが、深刻なプライバシー侵害は認めるべきではありません。エイミー・アデル・ハシノフはマスメディアや法や教育のセクスティングに対する問題ある反応の仕方に目を向け、扱いに注意を要する(恥ずかしいかもしれない)デジタルファイルを保護するために個々人やテクノロジー企業ができる現実的な解決方法を提案します。
- Communications researcher
Amy Adele Hasinoff studies gender, sexuality, privacy and consent in new media. Full bio

Double-click the English transcript below to play the video.

00:12
People have been usingを使用して mediaメディア
to talk about sexセックス for a long time.
0
720
4280
人々は昔から性的な会話に
メディアを使ってきました
00:17
Love letters手紙, phone電話 sexセックス, racyレイシー Polaroidsポーラロイド.
1
5600
3440
ラブレター テレホンセックス
きわどいポラロイド写真
00:21
There's even a storyストーリー of a girl女の子 who eloped逃亡した
with a man that she met会った over the telegraph電信
2
9480
6056
電報で知り合った男と駆け落ちした
少女の話さえあります
1886年のことです
00:27
in 1886.
3
15560
1640
00:30
Today今日 we have sextingセッティング,
and I am a sextingセッティング expert専門家.
4
18560
5096
現在はセクスティングがあり
私はそのエキスパートです
セクスティングする
エキスパートじゃありませんよ
00:35
Not an expert専門家 sexterセクター.
5
23680
1880
でもこれが何を意味するかは知っています
皆さんもご存じでしょうけど
00:38
Thoughしかし, I do know what this means手段 --
I think you do too.
6
26800
4176
00:43
[it's a penis陰茎]
7
31000
1375
[これはペニスの意]
00:44
(Laughter笑い)
8
32400
2360
(笑)
00:48
I have been studying勉強する sextingセッティング since以来
the mediaメディア attention注意 to it began始まった in 2008.
9
36360
6336
セクスティングがメディアに注目され出した
2008年から 私は研究するようになり
セクスティングに関わる
モラルの混乱について本も書きました
00:54
I wrote書きました a book on the moral道徳
panicパニック about sextingセッティング.
10
42720
2976
00:57
And here'sここにいる what I found見つけた:
11
45720
1616
それでわかったのは
00:59
most最も people are worrying心配する
about the wrong違う thing.
12
47360
3216
多くの人が的外れなことを
心配していることです
01:02
They're trying試す to just prevent防ぐ
sextingセッティング from happeningハプニング entirely完全に.
13
50600
4176
みんなセクスティング自体を
なくそうとしています
01:06
But let me ask尋ねる you this:
14
54800
1536
でも考えてほしいんです
01:08
As long as it's completely完全に consensual合意,
what's the problem問題 with sextingセッティング?
15
56360
4856
完全な合意の上でなら セクスティングの
何が問題だというのでしょう?
01:13
People are into all sortsソート of things
that you mayかもしれない not be into,
16
61240
4016
世の中 変なものが
好きな人もいます
01:17
like blue cheeseチーズ or cilantroコリアンダー.
17
65280
2296
ブルーチーズとか パクチーとか
01:19
(Laughter笑い)
18
67600
1640
(笑)
01:22
Sextingセクティング is certainly確かに riskyリスキーな,
like anything that's fun楽しい,
19
70600
4136
楽しいことの例に漏れず
セクスティングにはリスクがあります
01:26
but as long as you're not sending送信 an image画像
to someone誰か who doesn't want to receive受け取る it,
20
74760
6696
でも 受け取りたくない人に
きわどい写真を送ったりしない限りは
01:33
there's no harm.
21
81480
1776
害はありません
01:35
What I do think is a serious深刻な problem問題
22
83280
2616
本当に問題があるのは
01:37
is when people shareシェア
privateプライベート imagesイメージ of othersその他
23
85920
3256
他人のプライベートな写真を
許可も得ずに
公開することです
01:41
withoutなし their彼らの permission許可.
24
89200
1520
セクスティングについて
心配をするよりも
01:43
And instead代わりに of worrying心配する about sextingセッティング,
25
91360
2336
01:45
what I think we need to do
is think a lot more about digitalデジタル privacyプライバシー.
26
93720
4560
私たちがすべきなのは デジタル情報の
プライバシーについて考えることで
その鍵になるのは「合意」です
01:50
The keyキー is consent同意.
27
98880
2200
01:53
Right now most最も people
are thinking考え about sextingセッティング
28
101680
3296
現在のところ 多くの人は
セクスティングについて考えるとき
01:57
withoutなし really thinking考え
about consent同意 at all.
29
105000
2960
合意の有無を
まったく考慮していません
現在 ティーンのセクスティングは
犯罪だとされているのをご存じですか?
02:00
Did you know that we currently現在
criminalize犯罪化する teen十代 sextingセッティング?
30
108400
3680
02:05
It can be a crime犯罪 because
it countsカウント as child pornographyポルノ,
31
113400
3456
犯罪になる理由は
18歳未満の裸の画像は
児童ポルノと見なされるためで
02:08
if there's an image画像 of someone誰か under 18,
32
116880
2856
たとえそれが自分で撮って
合意の上で渡されたものであっても
02:11
and it doesn't even matter問題
33
119760
1336
02:13
if they took取った that image画像 of themselves自分自身
and shared共有 it willingly喜んで.
34
121120
4200
関係ありません
02:17
So we end終わり up with this
bizarre奇妙な legal法的 situation状況
35
125800
2976
そのため法的に
非常に奇妙な状況が生じます
02:20
where two 17-year-olds
can legally法的に have sexセックス in most最も US states
36
128800
4536
アメリカのほとんどの州で
17歳の男女は合法的にセックスできますが
02:25
but they can't photograph写真 it.
37
133360
1880
その写真を撮ることは
できないのです
02:28
Some states have alsoまた、 tried試した
passing通過 sextingセッティング misdemeanor軽罪 laws法律
38
136560
4256
州によってはセクスティングのための
軽犯罪法を作ろうとしていますが
02:32
but these laws法律 repeat繰り返す the same同じ problem問題
39
140840
3016
同じ間違いを
繰り返しています
02:35
because they still
make consensual合意 sextingセッティング illegal違法.
40
143880
3760
合意の上でのセクスティングを
違法としているからです
02:40
It doesn't make senseセンス
41
148520
1256
プライバシー侵害に
対処するために
02:41
to try to ban禁止 all sextingセッティング
to try to address住所 privacyプライバシー violations違反.
42
149800
4736
セクスティング自体を
禁止しようとするのは筋違いです
02:46
This is kind種類 of like saying言って,
43
154560
1496
それはデートレイプをなくすために
02:48
let's solve解決する the problem問題 of date日付 rapeレイプ
by just making作る datingデート completely完全に illegal違法.
44
156080
5440
デート自体を違法にしようと
するようなものです
ティーンの多くはセクスティングで逮捕されはしませんが
逮捕されているのがどんな人か分かりますか?
02:55
Most最も teens十代の若者たち don't get arrested逮捕された for sextingセッティング,
but can you guess推測 who does?
45
163120
5376
03:00
It's oftenしばしば teens十代の若者たち who are disliked嫌いな
by their彼らの partner'sパートナーの parents.
46
168520
4976
相手の親に嫌われている
ティーンです
そしてその本当の理由は 階級意識や 人種差別や
同性愛嫌悪のためかも知れません
03:05
And this can be because of classクラス biasバイアス,
racism人種差別主義 or homophobia同性愛嫌悪.
47
173520
4800
もちろん検事の多くは
馬鹿じゃありませんから
03:10
Most最も prosecutors検察官 are,
of courseコース, smartスマート enough十分な
48
178960
2776
03:13
not to use child pornographyポルノ charges料金
againstに対して teenagersティーンエイジャー, but some do.
49
181760
5480
子供を児童ポルノで訴えたりは
しませんが する人もいます
03:19
Accordingによると to researchers研究者
at the University大学 of New新しい Hampshireハンプシャー州
50
187720
3656
ニューハンプシャー大学の
研究者らによると
児童ポルノ所持で
逮捕されたうちの7%が
03:23
sevenセブン percentパーセント of all child pornographyポルノ
possession所持 arrests逮捕 are teens十代の若者たち,
51
191400
5656
合意の上でセクスティングしていた
ティーンだったそうです
03:29
sextingセッティング consensually合意により with other teens十代の若者たち.
52
197080
3000
03:33
Child pornographyポルノ is a serious深刻な crime犯罪,
53
201480
2536
児童ポルノは
重大な犯罪ですが
03:36
but it's just not
the same同じ thing as teen十代 sextingセッティング.
54
204040
3680
ティーンのセクスティングは
まったく別の話です
03:41
Parents and educators教育者
are alsoまた、 responding応答する to sextingセッティング
55
209040
3416
親や教師というのも
合意について考慮せずに
セクスティングに反応しています
03:44
withoutなし really thinking考え
too much about consent同意.
56
212480
3136
03:47
Their彼らの messageメッセージ to teens十代の若者たち is oftenしばしば:
just don't do it.
57
215640
4120
彼らのメッセージはたいてい
「一切やめろ」です
03:52
And I totally完全に get it --
there are serious深刻な legal法的 risksリスク
58
220200
3496
理解は出来ます
深刻な法的リスクや
プライバシー侵害の危険がありますから
03:55
and of courseコース, that potential潜在的な
for privacyプライバシー violations違反.
59
223720
3656
皆さんは10代の頃
03:59
And when you were a teen十代,
60
227400
1256
04:00
I'm sure you did exactly正確に
as you were told, right?
61
228680
3400
言い付けを何でも
良く守っていたことでしょう
我が子に限ってセクスティングなんか
するわけがないと
04:05
You're probably多分 thinking考え,
my kidキッド would never sextセックス.
62
233440
3456
それはそうです 皆さんの
天使のようなお子さんはしないでしょうとも
04:08
And that's true真実, your little angel天使
mayかもしれない not be sextingセッティング
63
236920
3456
04:12
because only 33 percentパーセント
64
240400
3136
16〜17歳でセクスティング
しているのは
04:15
of 16- and 17-year-olds are sextingセッティング.
65
243560
2360
33%だけですから
04:19
But, sorry, by the time they're olderより古い,
oddsオッズ are they will be sextingセッティング.
66
247200
4616
でも大人になるまでには
セクスティングするようになる可能性が高いです
04:23
Everyすべて study調査 I've seen見た puts置く the rateレート
above上の 50 percentパーセント for 18- to 24-year-olds.
67
251840
6200
私の見てきたどの調査でも
18〜24歳の50%以上がセクスティングしています
そしてほとんどの場合
悪いことは何も起こりません
04:30
And most最も of the time, nothing goes行く wrong違う.
68
258720
3056
04:33
People ask尋ねる me all the time things like,
isn't sextingセッティング just so dangerous危険な, thoughしかし?
69
261800
5376
「でもセクスティングはやっぱり
危ないんじゃないの?」とよく聞かれます
公園のベンチに財布を
置き忘れないようにするのと同じで
04:39
It's like you wouldn'tしないだろう
leave離れる your wallet財布 on a parkパーク benchベンチ
70
267200
3576
04:42
and you expect期待する it's going to get stolen盗まれた
if you do that, right?
71
270800
3440
そんなの盗まれるに
決まっているでしょうと
04:46
Here'sここにいる how I think about it:
72
274880
1456
私に言わせると
04:48
sextingセッティング is like leaving去る your wallet財布
at your boyfriend'sボーイフレンド house.
73
276360
3936
セクスティングは彼氏の家に
財布を置き忘れるようなものです
04:52
If you come back the next day
74
280320
1776
次の日に行くと
04:54
and all the moneyお金 is just gone行った,
75
282120
2280
財布のお金が全部
なくなっていたとしたら
そんな男とはすぐ
別れるべきでしょう
04:57
you really need to dumpダンプ that guy.
76
285040
2120
(笑)
04:59
(Laughter笑い)
77
287690
2170
05:03
So instead代わりに of criminalizing犯罪化する sextingセッティング
78
291360
2320
プライバシー侵害を防ぐために
05:05
to try to prevent防ぐ
these privacyプライバシー violations違反,
79
293720
2616
セクスティングを
犯罪化するのではなく
05:08
instead代わりに we need to make consent同意 central中央
80
296360
3296
個人のプライベートな
情報を流すときに
05:11
to how we think about the circulationサーキュレーション
of our privateプライベート information情報.
81
299680
4080
合意を第一に考えるべきです
新しいメディア技術はいつも
プライバシーへの懸念を生んできました
05:16
Everyすべて new新しい mediaメディア technology技術
raises起き上がる privacyプライバシー concerns心配.
82
304480
4256
05:20
In fact事実, in the US the very first
majorメジャー debates議論 about privacyプライバシー
83
308760
4616
事実アメリカにおいて最初の
プライバシーに関する議論は
05:25
were in response応答 to technologiesテクノロジー
that were relatively比較的 new新しい at the time.
84
313400
4496
当時 比較的新しかった技術への
反応として起こりました
1800年代末
人々が懸念を抱いたのは
05:29
In the late遅く 1800s,
people were worried心配している about camerasカメラ,
85
317920
3896
以前よりも ずっと
持ち運びやすくなったカメラと
05:33
whichどの were just suddenly突然
more portableポータブル than ever before,
86
321840
3456
新聞のゴシップ欄でした
05:37
and newspaper新聞 gossipゴシップ columns.
87
325320
2496
05:39
They were worried心配している that the cameraカメラ
would captureキャプチャー information情報 about them,
88
327840
3816
自分の情報が
カメラで写し取られ
元の文脈を離れて
広められたりはしないかと
05:43
take it out of contextコンテキスト
and widely広く disseminate広める it.
89
331680
3200
聞いたことのある
ような話ですよね?
05:47
Does this sound familiar身近な?
90
335240
1616
05:48
It's exactly正確に what we're worrying心配する about
now with socialソーシャル mediaメディア and drone無人機 camerasカメラ,
91
336880
4856
私たちがまさに今 懸念していることです
ソーシャルメディアに カメラ搭載ドローン
05:53
and, of courseコース, sextingセッティング.
92
341760
1640
そしてもちろんセクスティング
05:55
And these fears恐怖 about technology技術,
93
343920
2216
そういったテクノロジーに
対する恐怖は
理にかなっています
05:58
they make senseセンス
94
346160
1216
05:59
because technologiesテクノロジー
can amplify増幅する and bring持参する out
95
347400
3416
テクノロジーには
私たちの最低な面や振る舞いを
06:02
our worst最悪 qualities品質 and behaviors行動.
96
350840
2720
引き出し増幅する
力がありますから
06:06
But there are solutionsソリューション.
97
354160
2376
しかし解決法があります
06:08
And we've私たちは been here before
with a dangerous危険な new新しい technology技術.
98
356560
3560
危険な新技術というのは
以前にもありました
06:12
In 1908, Fordフォード introduced導入された the Modelモデル T car.
99
360720
3776
1908年 T型フォードが発売され
06:16
Trafficトラフィック fatality死亡 rates料金 were rising上昇する.
100
364520
2576
交通死亡事故が増加しました
06:19
It was a serious深刻な problem問題 --
it looks外見 so safe安全, right?
101
367120
2800
深刻な問題です
なんて安全そうな車でしょう!
06:24
Our first response応答
was to try to change変化する drivers'ドライバーは、 behavior動作,
102
372080
3976
最初の反応は ドライバーの行動を
変えようというものでした
06:28
so we developed発展した speed速度 limits限界
and enforced施行された them throughを通して fines罰金.
103
376080
3720
それで速度制限が設けられ
違反には罰金が科せられました
しかしその後の
数十年の間に
06:32
But over the following以下 decades数十年,
104
380240
1856
06:34
we started開始した to realize実現する the technology技術
of the car itself自体 is not just neutral中性.
105
382120
5496
自動車の技術は中立的なんかじゃないと
気付くようになりました
06:39
We could design設計 the car to make it saferより安全な.
106
387640
3216
より安全な車を
デザインすることもできるのです
06:42
So in the 1920s, we got
shatter-resistant粉砕抵抗性の windshieldsフロントガラス.
107
390880
3456
それで1920年代に
飛散防止フロントガラスができ
06:46
In the 1950s, seatシート beltsベルト.
108
394360
2496
1950年代にはシートベルトが
06:48
And in the 1990s, airbagsエアバッグ.
109
396880
3080
1990年代にはエアバッグが
装備されるようになりました
法・個人・業界の三者が歩み寄り
06:52
All three of these areasエリア:
110
400440
2376
06:54
laws法律, individuals個人 and industry業界
came来た together一緒に over time
111
402840
4776
時間を掛けて
新技術が引き起こす問題を
解決していきました
06:59
to help solve解決する the problem問題
that a new新しい technology技術 causes原因.
112
407640
3776
07:03
And we can do the same同じ thing
with digitalデジタル privacyプライバシー.
113
411440
3240
デジタルプライバシーについても
同じことができるはずです
07:07
Of courseコース, it comes来る back to consent同意.
114
415160
2760
もちろん鍵になるのは合意です
07:10
Here'sここにいる the ideaアイディア.
115
418360
1216
考え方としては
07:11
Before anyone誰でも can distribute分配します
your privateプライベート information情報,
116
419600
3816
誰かのプライベートな情報を
配布する場合には
07:15
they should have to get your permission許可.
117
423440
2240
その人の許可を得る必要がある
ということです
07:18
This ideaアイディア of affirmative肯定的な consent同意
comes来る from anti-rape反レイプ activists活動家
118
426240
4816
この積極的合意という考え方は
どんな性行為にも合意が必要という
反レイプ活動家から来ています
07:23
who tell us that we need consent同意
for everyすべて sexual性的 act行為.
119
431080
3776
07:26
And we have really high高い standards基準
for consent同意 in a lot of other areasエリア.
120
434880
4576
他の様々な分野では 合意について
とても高い基準があります
手術を受ける場合を
考えてください
07:31
Think about having持つ surgery手術.
121
439480
1856
07:33
Your doctor医師 has to make sure
122
441360
1616
自分の受ける医療について 患者が
確かに理解した上で合意していることを
07:35
that you are meaningfully意味のある and knowingly故意に
consenting合意 to that medical医療 procedure手順.
123
443000
4040
医者は確認する
必要があります
07:39
This is not the typeタイプ of consent同意
like with an iTunesiTunes Terms条項 of Serviceサービス
124
447520
3696
iTunesの利用規約への合意なんかとは
わけが違います
07:43
where you just scrollスクロール to the bottom
and you're like, agree同意する, agree同意する, whateverなんでも.
125
451240
3656
みんなただスクロールして
何か知らずにOKしてると思いますが
07:46
(Laughter笑い)
126
454920
1720
(笑)
07:49
If we think more about consent同意,
we can have better privacyプライバシー laws法律.
127
457160
5256
合意についてみんながもっとよく考えるなら
もっと良いプライバシー保護法ができるはずです
07:54
Right now, we just don't have
that manyたくさんの protections保護.
128
462440
3416
現在はそんなに
保護されてはいません
07:57
If your ex-husband元夫 or your ex-wife元妻
is a terribleひどい person,
129
465880
3576
元夫や元妻が酷い人間で
自分の裸の写真をポルノサイトに
アップロードされたとしたら
08:01
they can take your nudeヌード photos写真
and uploadアップロード them to a pornポルノ siteサイト.
130
469480
4216
08:05
It can be really hardハード
to get those imagesイメージ taken撮影 down.
131
473720
3216
そういった写真をすっかり
削除するのは大変です
08:08
And in a lot of states,
132
476960
1216
多くの州では
08:10
you're actually実際に better off
if you took取った the imagesイメージ of yourselfあなた自身
133
478200
3816
その写真を自分で
撮っていた方が好都合です
08:14
because then you can
fileファイル a copyright著作権 claim請求.
134
482040
2800
著作権を主張できますから
08:17
(Laughter笑い)
135
485320
2056
(笑)
08:19
Right now, if someone誰か
violates違反する your privacyプライバシー,
136
487400
2976
現在のところ
個人であれ企業であれNSAであれ
08:22
whetherかどうか that's an individual個人
or a company会社 or the NSANSA,
137
490400
4200
誰かにプライバシーを
侵害されたというとき
法に訴えることはできますが
08:27
you can try filing提出 a lawsuit訴訟,
138
495280
2736
08:30
thoughしかし you mayかもしれない not be successful成功した
139
498040
2136
うまくいかない可能性が
多分にあります
08:32
because manyたくさんの courts裁判所 assume想定する
that digitalデジタル privacyプライバシー is just impossible不可能.
140
500200
4776
多くの裁判所が デジタルプライバシーは
実現不能だと考えているからです
08:37
So they're not willing喜んで
to punish罰する anyone誰でも for violating違反する it.
141
505000
3440
だからプライバシー侵害での裁判を
したがらないのです
08:41
I still hear聞く people
asking尋ねる me all the time,
142
509200
2896
未だに絶えず聞かれるのは
デジタル画像だと
08:44
isn't a digitalデジタル image画像 somehow何とか blurringぼかし
the lineライン betweenの間に publicパブリック and privateプライベート
143
512120
5296
私的なものと公のものの区別が
曖昧になるのでは という話です
08:49
because it's digitalデジタル, right?
144
517440
1640
そんなことありません!
08:51
No! No!
145
519600
1336
08:52
Everything digitalデジタル
is not just automatically自動的に publicパブリック.
146
520960
3336
デジタルだと自動的に
公のものになるわけじゃありません
08:56
That doesn't make any senseセンス.
147
524320
1896
そんな道理はありません
08:58
As NYUNYU legal法的 scholar学者
Helenヘレン Nissenbaumニッセンバム tells伝える us,
148
526240
3496
ニューヨーク大学の法学者
ヘレン・ニッセンバウムが言っています
09:01
we have laws法律 and policiesポリシー and norms規範
149
529760
2616
あらゆる種類の
プライベートな情報を保護する
09:04
that protect保護する all kinds種類
of information情報 that's privateプライベート,
150
532400
3136
法・方針・規範があるが
デジタルかどうかは
区別されていないと
09:07
and it doesn't make a difference
if it's digitalデジタル or not.
151
535560
3416
09:11
All of your health健康 records記録 are digitizedデジタル化された
152
539000
2656
医療データはデジタル化
されていますが
09:13
but your doctor医師 can't
just shareシェア them with anyone誰でも.
153
541680
3136
医者がそれを漏らす
ことはできません
09:16
All of your financial金融 information情報
is held開催 in digitalデジタル databasesデータベース,
154
544840
4456
個人のファイナンス情報は
デジタルのデータベースに保存されていますが
09:21
but your creditクレジット cardカード company会社 can't
just post役職 your purchase購入 history歴史 onlineオンライン.
155
549320
4240
クレジットカード会社は人の購入履歴を
勝手にネットで公開したりできません
より良い法律は 起きてしまった
プライバシー侵害に対処することができますが
09:27
Better laws法律 could help address住所
privacyプライバシー violations違反 after they happen起こる,
156
555080
5456
09:32
but one of the easiest最も簡単な things
we can all do is make personal個人的 changes変更
157
560560
4376
もっと簡単なのは
お互いのプライバシーを守るよう
個々人が変わることです
09:36
to help protect保護する each other'sその他の privacyプライバシー.
158
564960
2680
09:40
We're always told that privacyプライバシー
159
568360
1896
プライバシーは
その人自身の責任だと
09:42
is our own自分の, sole唯一,
individual個人 responsibility責任.
160
570280
3056
ずっと言われてきました
09:45
We're told, constantly常に monitorモニター
and update更新 your privacyプライバシー settings設定.
161
573360
4256
プライバシー設定にいつも注意を払って
更新するようにとか
09:49
We're told, never shareシェア anything
you wouldn'tしないだろう want the entire全体 world世界 to see.
162
577640
4800
世界中の人に見られて困るようなものは
共有してはいけないとか言われてきました
そんなの変です
09:55
This doesn't make senseセンス.
163
583400
1216
09:56
Digitalデジタル mediaメディア are socialソーシャル environments環境
164
584640
2976
デジタルメディアというのは
社会的な環境であり
09:59
and we shareシェア things
with people we trust信頼 all day, everyすべて day.
165
587640
4280
人々は信用している相手に対して
絶えず共有をしています
10:04
As Princetonプリンストン researcher研究者
Janetジャネット Vertesiヴェルテシ argues主張する,
166
592760
2976
プリンストン大学の研究者
ジャネット・ヴァーテッシは
10:07
our dataデータ and our privacyプライバシー,
they're not just personal個人的,
167
595760
4016
データやプライバシーというのは
単なる個人のものではなく
個人間のものなのだ
と言っています
10:11
they're actually実際に interpersonal対人関係.
168
599800
2576
10:14
And so one thing you can do
that's really easy簡単
169
602400
3256
皆さんにできる
簡単なことは
10:17
is just start開始 asking尋ねる for permission許可 before
you shareシェア anyone誰でも else's他の information情報.
170
605680
5096
他の人の情報を共有する時には
本人の許可を得るということです
10:22
If you want to post役職 a photo写真
of someone誰か onlineオンライン, ask尋ねる for permission許可.
171
610800
4536
誰かの写真をネットに上げようと思ったら
許可を得ましょう
10:27
If you want to forward前進 an emailEメール thread,
172
615360
2456
メールを転送しようと思ったら
10:29
ask尋ねる for permission許可.
173
617840
1376
許可を得ましょう
誰かの裸の自撮り写真を
共有したいと思ったら
10:31
And if you want to shareシェア
someone's誰かの nudeヌード selfieセルフ,
174
619240
2776
10:34
obviously明らかに, ask尋ねる for permission許可.
175
622040
2280
言うまでもなく
許可を得ましょう
10:37
These individual個人 changes変更 can really
help us protect保護する each other'sその他の privacyプライバシー,
176
625560
4456
そういった個々人の変化は
お互いのプライバシーを守る助けになりますが
10:42
but we need technology技術 companies企業
on boardボード as well.
177
630040
3800
テクノロジー企業にも
協力してもらう必要があります
10:46
These companies企業 have very little
incentiveインセンティブ to help protect保護する our privacyプライバシー
178
634360
4496
そういった会社は
プライバシーを守る動機が低いものです
10:50
because their彼らの businessビジネス modelsモデル
depend依存する on us sharing共有 everything
179
638880
3296
みんながあらゆるものを
可能な限り多くの人と共有することに
10:54
with as manyたくさんの people as possible可能.
180
642200
2240
彼らのビジネスモデルが
依存しているからです
10:57
Right now, if I send送信する you an image画像,
181
645080
1936
現在は 私が皆さんに
写真を送ったら
10:59
you can forward前進 that
to anyone誰でも that you want.
182
647040
3096
皆さんはそれを
誰にでも転送できます
11:02
But what if I got to decide決めます
if that image画像 was forwardable転送可能 or not?
183
650160
4256
でも転送して良いかどうかを
私が決められたとしたらどうでしょう?
11:06
This would tell you, you don't
have my permission許可 to send送信する this image画像 out.
184
654440
4056
「この画像の送信は許可されていません」と
言えるとしたら?
11:10
We do this kind種類 of thing all the time
to protect保護する copyright著作権.
185
658520
4136
著作権を守るためであれば
そういうことは よく行われています
11:14
If you buy購入 an e-book電子書籍, you can't just
send送信する it out to as manyたくさんの people as you want.
186
662680
4776
電子書籍を買っても
それをいろんな人に送ったりはできません
11:19
So why not try this with mobileモバイル phones電話機?
187
667480
2560
携帯でも同じように
したらどうでしょう?
11:22
What you can do is we can demandデマンド
that techハイテク companies企業 add追加する these protections保護
188
670960
4776
私たちにできることは
デバイスやプラットフォームに
そういう保護を標準で付けるよう
テクノロジー企業に求めることです
11:27
to our devicesデバイス and our platformsプラットフォーム
as the defaultデフォルト.
189
675760
3736
11:31
After all, you can choose選択する
the color of your car,
190
679520
3416
車だって ボディカラーは
好きに選べても
11:34
but the airbagsエアバッグ are always standard標準.
191
682960
2840
エアバッグは常に標準品です
11:40
If we don't think more
about digitalデジタル privacyプライバシー and consent同意,
192
688080
3816
デジタルプライバシーと合意について
ちゃんと考えないなら
11:43
there can be serious深刻な consequences結果.
193
691920
2720
大変な結果を招くことに
なるかもしれません
11:47
There was a teenagerティーンエイジャー from Ohioオハイオ州 --
194
695360
2256
オハイオ州に
ある十代の女の子がいました
11:49
let's call her Jenniferジェニファー,
for the sake of her privacyプライバシー.
195
697640
2840
彼女の名を仮に
ジェニファーとしておきましょう
彼女は自分の裸の画像を
高校のボーイフレンドにあげました
11:53
She shared共有 nudeヌード photos写真 of herself自分自身
with her high高い school学校 boyfriendボーイフレンド,
196
701120
3576
11:56
thinking考え she could trust信頼 him.
197
704720
1520
彼を信用できると思ったんです
11:59
Unfortunately残念ながら, he betrayed裏切られた her
198
707720
1936
不幸にも彼女は裏切られ
12:01
and sent送られた her photos写真
around the entire全体 school学校.
199
709680
2976
彼はその写真を
学校のみんなに送りました
12:04
Jenniferジェニファー was embarrassed恥ずかしい and humiliated屈辱,
200
712680
3520
ジェニファーは さらし者にされて
恥ずかしい思いをし
クラスメートは同情するどころか
彼女をいじめました
12:08
but instead代わりに of beingであること compassionate思いやりのある,
her classmates同級生 harassed嫌がらせをする her.
201
716800
4136
彼女をあばずれだの
売女だのと罵り
12:12
They calledと呼ばれる her a slutふしだらな女 and a whore売春婦
202
720960
1856
12:14
and they made her life miserable悲惨な.
203
722840
1960
彼女の人生を
みじめなものにしました
ジェニファーは学校を休みがちになり
成績が落ちました
12:17
Jenniferジェニファー started開始した missing行方不明 school学校
and her grades成績 dropped落とした.
204
725360
3680
12:21
Ultimately最終的に, Jenniferジェニファー decided決定しました
to end終わり her own自分の life.
205
729520
3800
最終的に彼女は
自らの命を絶つことを選びました
12:26
Jenniferジェニファー did nothing wrong違う.
206
734720
2696
ジェニファーは何も悪いことを
したわけではありません
12:29
All she did was shareシェア a nudeヌード photo写真
207
737440
2256
ただ信用できると思った人に
12:31
with someone誰か she thought
that she could trust信頼.
208
739720
2816
裸の写真を送ったというだけです
12:34
And yetまだ our laws法律 tell her
209
742560
2616
それなのに法律では
彼女が児童ポルノに等しい
大変な罪を犯したことにされてしまいます
12:37
that she committedコミットした a horrible恐ろしい crime犯罪
equivalent同等 to child pornographyポルノ.
210
745200
4160
12:41
Our gender性別 norms規範 tell her
211
749920
1496
我々の性の規範では
12:43
that by producing生産する
this nudeヌード image画像 of herself自分自身,
212
751440
3216
自分のヌード写真を撮ることは
甚だしい恥ずべき行為だと
されているんです
12:46
she somehow何とか did the most最も
horrible恐ろしい, shameful恥ずべき thing.
213
754680
3200
12:50
And when we assume想定する that privacyプライバシー
is impossible不可能 in digitalデジタル mediaメディア,
214
758400
4216
デジタルメディアでプライバシーを
守ることは不可能だと考えるのは
12:54
we completely完全に write書きます off and excuse言い訳
her boyfriend'sボーイフレンド bad悪い, bad悪い behavior動作.
215
762640
5520
彼女のボーイフレンドの
極めて悪い行為を忘れ 許すことになります
13:01
People are still saying言って all the time
to victims犠牲者 of privacyプライバシー violations違反,
216
769200
5736
人々はいまだプライバシーを侵害された
被害者たちに こう言っています
「いったい何を考えているんだ?
13:06
"What were you thinking考え?
217
774960
1256
13:08
You should have never sent送られた that image画像."
218
776240
2480
そんな写真を送る方が悪い」
13:11
If you're trying試す to figure数字 out
what to say instead代わりに, try this.
219
779640
4000
どう言うべきか迷っているなら
こう考えてみてください
スキーで脚を折った友達に
ばったり出会ったとしましょう
13:16
Imagine想像する you've run走る into your friend友人
who broke壊れた their彼らの leg skiingスキー.
220
784160
3520
13:20
They took取った a riskリスク to do something fun楽しい,
and it didn't end終わり well.
221
788240
4576
何か楽しいことをやろうとリスクを冒し
まずい結果になったわけです
13:24
But you're probably多分
not going to be the jerkジャーク who says言う,
222
792840
2536
でも皆さんはそういう人に
「スキーなんかに行くのが悪い」
などと言うイヤな奴ではないでしょう
13:27
"Well, I guess推測 you shouldn'tすべきではない
have gone行った skiingスキー then."
223
795400
2440
13:32
If we think more about consent同意,
224
800080
2136
合意について
よく考えたなら
13:34
we can see that victims犠牲者
of privacyプライバシー violations違反
225
802240
3256
プライバシー侵害の被害者は
同情すべきであって
13:37
deserve値する our compassion思いやり,
226
805520
1736
犯罪者扱いしたり 辱めたり
嫌がらせしたり
13:39
not criminalization犯罪, shamingシェーミング,
harassment嫌がらせ or punishment.
227
807280
4600
罰したりすべきではないと
分かるはずです
13:44
We can supportサポート victims犠牲者,
and we can prevent防ぐ some privacyプライバシー violations違反
228
812440
4496
被害者を支え
プライバシー侵害をある程度防ぐことが
13:48
by making作る these legal法的,
individual個人 and technological技術的 changes変更.
229
816960
4320
お話ししたような法的・個人的・技術的な
変化によって可能です
13:53
Because the problem問題 is not sextingセッティング,
the issue問題 is digitalデジタル privacyプライバシー.
230
821840
5816
問題なのはセクスティングではなく
デジタルプライバシーだからです
13:59
And one solution溶液 is consent同意.
231
827680
2360
そして解決法の1つは
合意を得ることです
14:02
So the next time a victim犠牲者
of a privacyプライバシー violation違反 comes来る up to you,
232
830680
4576
だから今度プライバシー侵害の
被害者に会うことがあれば
14:07
instead代わりに of blaming非難する them,
let's do this instead代わりに:
233
835280
2736
その人を非難するのではなく
14:10
let's shiftシフト our ideasアイデア
about digitalデジタル privacyプライバシー,
234
838040
3416
デジタルプライバシーに
対する考えを変え
14:13
and let's respond応答する with compassion思いやり.
235
841480
2640
思いやりの気持ちをもって
あたりましょう
14:16
Thank you.
236
844680
1216
ありがとうございました
14:17
(Applause拍手)
237
845920
6136
(拍手)
Translated by Yasushi Aoki
Reviewed by Eriko T.

▲Back to top

ABOUT THE SPEAKER
Amy Adele Hasinoff - Communications researcher
Amy Adele Hasinoff studies gender, sexuality, privacy and consent in new media.

Why you should listen

Amy Adele Hasinoff investigates how we think about communication technologies as both the cause of and solution to social problems. She wrote a book, Sexting Panic, about the well-intentioned but problematic responses to sexting in mass media, law and education. The National Communication Association described it as "[T]he rare book that advances scholarly conversations while also promising to enrich family conversations around the dinner table."

Hasinoff is an Assistant Professor in the communication department at the University of Colorado Denver. She publishes regularly in scholarly journals and books and wrote an op-ed about sexting for the New York Times.

More profile about the speaker
Amy Adele Hasinoff | Speaker | TED.com