14:26
TEDxMileHigh

Amy Adele Hasinoff: How to practice safe sexting

エイミー・アデル・ハシノフ: 安全にセクスティングする方法

Filmed:

楽しいことの例にもれず、セクスティングにはリスクが伴いますが、深刻なプライバシー侵害は認めるべきではありません。エイミー・アデル・ハシノフはマスメディアや法や教育のセクスティングに対する問題ある反応の仕方に目を向け、扱いに注意を要する(恥ずかしいかもしれない)デジタルファイルを保護するために個々人やテクノロジー企業ができる現実的な解決方法を提案します。

- Communications researcher
Amy Adele Hasinoff studies gender, sexuality, privacy and consent in new media. Full bio

People have been using media
to talk about sex for a long time.
人々は昔から性的な会話に
メディアを使ってきました
00:12
Love letters, phone sex, racy Polaroids.
ラブレター テレホンセックス
きわどいポラロイド写真
00:17
There's even a story of a girl who eloped
with a man that she met over the telegraph
電報で知り合った男と駆け落ちした
少女の話さえあります
00:21
in 1886.
1886年のことです
00:27
Today we have sexting,
and I am a sexting expert.
現在はセクスティングがあり
私はそのエキスパートです
00:30
Not an expert sexter.
セクスティングする
エキスパートじゃありませんよ
00:35
Though, I do know what this means --
I think you do too.
でもこれが何を意味するかは知っています
皆さんもご存じでしょうけど
00:38
[it's a penis]
[これはペニスの意]
00:43
(Laughter)
(笑)
00:44
I have been studying sexting since
the media attention to it began in 2008.
セクスティングがメディアに注目され出した
2008年から 私は研究するようになり
00:48
I wrote a book on the moral
panic about sexting.
セクスティングに関わる
モラルの混乱について本も書きました
00:54
And here's what I found:
それでわかったのは
00:57
most people are worrying
about the wrong thing.
多くの人が的外れなことを
心配していることです
00:59
They're trying to just prevent
sexting from happening entirely.
みんなセクスティング自体を
なくそうとしています
01:02
But let me ask you this:
でも考えてほしいんです
01:06
As long as it's completely consensual,
what's the problem with sexting?
完全な合意の上でなら セクスティングの
何が問題だというのでしょう?
01:08
People are into all sorts of things
that you may not be into,
世の中 変なものが
好きな人もいます
01:13
like blue cheese or cilantro.
ブルーチーズとか パクチーとか
01:17
(Laughter)
(笑)
01:19
Sexting is certainly risky,
like anything that's fun,
楽しいことの例に漏れず
セクスティングにはリスクがあります
01:22
but as long as you're not sending an image
to someone who doesn't want to receive it,
でも 受け取りたくない人に
きわどい写真を送ったりしない限りは
01:26
there's no harm.
害はありません
01:33
What I do think is a serious problem
本当に問題があるのは
01:35
is when people share
private images of others
他人のプライベートな写真を
01:37
without their permission.
許可も得ずに
公開することです
01:41
And instead of worrying about sexting,
セクスティングについて
心配をするよりも
01:43
what I think we need to do
is think a lot more about digital privacy.
私たちがすべきなのは デジタル情報の
プライバシーについて考えることで
01:45
The key is consent.
その鍵になるのは「合意」です
01:50
Right now most people
are thinking about sexting
現在のところ 多くの人は
セクスティングについて考えるとき
01:53
without really thinking
about consent at all.
合意の有無を
まったく考慮していません
01:57
Did you know that we currently
criminalize teen sexting?
現在 ティーンのセクスティングは
犯罪だとされているのをご存じですか?
02:00
It can be a crime because
it counts as child pornography,
犯罪になる理由は
02:05
if there's an image of someone under 18,
18歳未満の裸の画像は
児童ポルノと見なされるためで
02:08
and it doesn't even matter
たとえそれが自分で撮って
合意の上で渡されたものであっても
02:11
if they took that image of themselves
and shared it willingly.
関係ありません
02:13
So we end up with this
bizarre legal situation
そのため法的に
非常に奇妙な状況が生じます
02:17
where two 17-year-olds
can legally have sex in most US states
アメリカのほとんどの州で
17歳の男女は合法的にセックスできますが
02:20
but they can't photograph it.
その写真を撮ることは
できないのです
02:25
Some states have also tried
passing sexting misdemeanor laws
州によってはセクスティングのための
軽犯罪法を作ろうとしていますが
02:28
but these laws repeat the same problem
同じ間違いを
繰り返しています
02:32
because they still
make consensual sexting illegal.
合意の上でのセクスティングを
違法としているからです
02:35
It doesn't make sense
プライバシー侵害に
対処するために
02:40
to try to ban all sexting
to try to address privacy violations.
セクスティング自体を
禁止しようとするのは筋違いです
02:41
This is kind of like saying,
それはデートレイプをなくすために
02:46
let's solve the problem of date rape
by just making dating completely illegal.
デート自体を違法にしようと
するようなものです
02:48
Most teens don't get arrested for sexting,
but can you guess who does?
ティーンの多くはセクスティングで逮捕されはしませんが
逮捕されているのがどんな人か分かりますか?
02:55
It's often teens who are disliked
by their partner's parents.
相手の親に嫌われている
ティーンです
03:00
And this can be because of class bias,
racism or homophobia.
そしてその本当の理由は 階級意識や 人種差別や
同性愛嫌悪のためかも知れません
03:05
Most prosecutors are,
of course, smart enough
もちろん検事の多くは
馬鹿じゃありませんから
03:10
not to use child pornography charges
against teenagers, but some do.
子供を児童ポルノで訴えたりは
しませんが する人もいます
03:13
According to researchers
at the University of New Hampshire
ニューハンプシャー大学の
研究者らによると
03:19
seven percent of all child pornography
possession arrests are teens,
児童ポルノ所持で
逮捕されたうちの7%が
03:23
sexting consensually with other teens.
合意の上でセクスティングしていた
ティーンだったそうです
03:29
Child pornography is a serious crime,
児童ポルノは
重大な犯罪ですが
03:33
but it's just not
the same thing as teen sexting.
ティーンのセクスティングは
まったく別の話です
03:36
Parents and educators
are also responding to sexting
親や教師というのも
03:41
without really thinking
too much about consent.
合意について考慮せずに
セクスティングに反応しています
03:44
Their message to teens is often:
just don't do it.
彼らのメッセージはたいてい
「一切やめろ」です
03:47
And I totally get it --
there are serious legal risks
理解は出来ます
03:52
and of course, that potential
for privacy violations.
深刻な法的リスクや
プライバシー侵害の危険がありますから
03:55
And when you were a teen,
皆さんは10代の頃
03:59
I'm sure you did exactly
as you were told, right?
言い付けを何でも
良く守っていたことでしょう
04:00
You're probably thinking,
my kid would never sext.
我が子に限ってセクスティングなんか
するわけがないと
04:05
And that's true, your little angel
may not be sexting
それはそうです 皆さんの
天使のようなお子さんはしないでしょうとも
04:08
because only 33 percent
16〜17歳でセクスティング
しているのは
04:12
of 16- and 17-year-olds are sexting.
33%だけですから
04:15
But, sorry, by the time they're older,
odds are they will be sexting.
でも大人になるまでには
セクスティングするようになる可能性が高いです
04:19
Every study I've seen puts the rate
above 50 percent for 18- to 24-year-olds.
私の見てきたどの調査でも
18〜24歳の50%以上がセクスティングしています
04:23
And most of the time, nothing goes wrong.
そしてほとんどの場合
悪いことは何も起こりません
04:30
People ask me all the time things like,
isn't sexting just so dangerous, though?
「でもセクスティングはやっぱり
危ないんじゃないの?」とよく聞かれます
04:33
It's like you wouldn't
leave your wallet on a park bench
公園のベンチに財布を
置き忘れないようにするのと同じで
04:39
and you expect it's going to get stolen
if you do that, right?
そんなの盗まれるに
決まっているでしょうと
04:42
Here's how I think about it:
私に言わせると
04:46
sexting is like leaving your wallet
at your boyfriend's house.
セクスティングは彼氏の家に
財布を置き忘れるようなものです
04:48
If you come back the next day
次の日に行くと
04:52
and all the money is just gone,
財布のお金が全部
なくなっていたとしたら
04:54
you really need to dump that guy.
そんな男とはすぐ
別れるべきでしょう
04:57
(Laughter)
(笑)
04:59
So instead of criminalizing sexting
プライバシー侵害を防ぐために
05:03
to try to prevent
these privacy violations,
セクスティングを
犯罪化するのではなく
05:05
instead we need to make consent central
個人のプライベートな
情報を流すときに
05:08
to how we think about the circulation
of our private information.
合意を第一に考えるべきです
05:11
Every new media technology
raises privacy concerns.
新しいメディア技術はいつも
プライバシーへの懸念を生んできました
05:16
In fact, in the US the very first
major debates about privacy
事実アメリカにおいて最初の
プライバシーに関する議論は
05:20
were in response to technologies
that were relatively new at the time.
当時 比較的新しかった技術への
反応として起こりました
05:25
In the late 1800s,
people were worried about cameras,
1800年代末
人々が懸念を抱いたのは
05:29
which were just suddenly
more portable than ever before,
以前よりも ずっと
持ち運びやすくなったカメラと
05:33
and newspaper gossip columns.
新聞のゴシップ欄でした
05:37
They were worried that the camera
would capture information about them,
自分の情報が
カメラで写し取られ
05:39
take it out of context
and widely disseminate it.
元の文脈を離れて
広められたりはしないかと
05:43
Does this sound familiar?
聞いたことのある
ような話ですよね?
05:47
It's exactly what we're worrying about
now with social media and drone cameras,
私たちがまさに今 懸念していることです
ソーシャルメディアに カメラ搭載ドローン
05:48
and, of course, sexting.
そしてもちろんセクスティング
05:53
And these fears about technology,
そういったテクノロジーに
対する恐怖は
05:55
they make sense
理にかなっています
05:58
because technologies
can amplify and bring out
テクノロジーには
私たちの最低な面や振る舞いを
05:59
our worst qualities and behaviors.
引き出し増幅する
力がありますから
06:02
But there are solutions.
しかし解決法があります
06:06
And we've been here before
with a dangerous new technology.
危険な新技術というのは
以前にもありました
06:08
In 1908, Ford introduced the Model T car.
1908年 T型フォードが発売され
06:12
Traffic fatality rates were rising.
交通死亡事故が増加しました
06:16
It was a serious problem --
it looks so safe, right?
深刻な問題です
なんて安全そうな車でしょう!
06:19
Our first response
was to try to change drivers' behavior,
最初の反応は ドライバーの行動を
変えようというものでした
06:24
so we developed speed limits
and enforced them through fines.
それで速度制限が設けられ
違反には罰金が科せられました
06:28
But over the following decades,
しかしその後の
数十年の間に
06:32
we started to realize the technology
of the car itself is not just neutral.
自動車の技術は中立的なんかじゃないと
気付くようになりました
06:34
We could design the car to make it safer.
より安全な車を
デザインすることもできるのです
06:39
So in the 1920s, we got
shatter-resistant windshields.
それで1920年代に
飛散防止フロントガラスができ
06:42
In the 1950s, seat belts.
1950年代にはシートベルトが
06:46
And in the 1990s, airbags.
1990年代にはエアバッグが
装備されるようになりました
06:48
All three of these areas:
法・個人・業界の三者が歩み寄り
06:52
laws, individuals and industry
came together over time
時間を掛けて
新技術が引き起こす問題を
06:54
to help solve the problem
that a new technology causes.
解決していきました
06:59
And we can do the same thing
with digital privacy.
デジタルプライバシーについても
同じことができるはずです
07:03
Of course, it comes back to consent.
もちろん鍵になるのは合意です
07:07
Here's the idea.
考え方としては
07:10
Before anyone can distribute
your private information,
誰かのプライベートな情報を
配布する場合には
07:11
they should have to get your permission.
その人の許可を得る必要がある
ということです
07:15
This idea of affirmative consent
comes from anti-rape activists
この積極的合意という考え方は
07:18
who tell us that we need consent
for every sexual act.
どんな性行為にも合意が必要という
反レイプ活動家から来ています
07:23
And we have really high standards
for consent in a lot of other areas.
他の様々な分野では 合意について
とても高い基準があります
07:26
Think about having surgery.
手術を受ける場合を
考えてください
07:31
Your doctor has to make sure
自分の受ける医療について 患者が
確かに理解した上で合意していることを
07:33
that you are meaningfully and knowingly
consenting to that medical procedure.
医者は確認する
必要があります
07:35
This is not the type of consent
like with an iTunes Terms of Service
iTunesの利用規約への合意なんかとは
わけが違います
07:39
where you just scroll to the bottom
and you're like, agree, agree, whatever.
みんなただスクロールして
何か知らずにOKしてると思いますが
07:43
(Laughter)
(笑)
07:46
If we think more about consent,
we can have better privacy laws.
合意についてみんながもっとよく考えるなら
もっと良いプライバシー保護法ができるはずです
07:49
Right now, we just don't have
that many protections.
現在はそんなに
保護されてはいません
07:54
If your ex-husband or your ex-wife
is a terrible person,
元夫や元妻が酷い人間で
07:57
they can take your nude photos
and upload them to a porn site.
自分の裸の写真をポルノサイトに
アップロードされたとしたら
08:01
It can be really hard
to get those images taken down.
そういった写真をすっかり
削除するのは大変です
08:05
And in a lot of states,
多くの州では
08:08
you're actually better off
if you took the images of yourself
その写真を自分で
撮っていた方が好都合です
08:10
because then you can
file a copyright claim.
著作権を主張できますから
08:14
(Laughter)
(笑)
08:17
Right now, if someone
violates your privacy,
現在のところ
個人であれ企業であれNSAであれ
08:19
whether that's an individual
or a company or the NSA,
誰かにプライバシーを
侵害されたというとき
08:22
you can try filing a lawsuit,
法に訴えることはできますが
08:27
though you may not be successful
うまくいかない可能性が
多分にあります
08:30
because many courts assume
that digital privacy is just impossible.
多くの裁判所が デジタルプライバシーは
実現不能だと考えているからです
08:32
So they're not willing
to punish anyone for violating it.
だからプライバシー侵害での裁判を
したがらないのです
08:37
I still hear people
asking me all the time,
未だに絶えず聞かれるのは
08:41
isn't a digital image somehow blurring
the line between public and private
デジタル画像だと
08:44
because it's digital, right?
私的なものと公のものの区別が
曖昧になるのでは という話です
08:49
No! No!
そんなことありません!
08:51
Everything digital
is not just automatically public.
デジタルだと自動的に
公のものになるわけじゃありません
08:52
That doesn't make any sense.
そんな道理はありません
08:56
As NYU legal scholar
Helen Nissenbaum tells us,
ニューヨーク大学の法学者
ヘレン・ニッセンバウムが言っています
08:58
we have laws and policies and norms
あらゆる種類の
プライベートな情報を保護する
09:01
that protect all kinds
of information that's private,
法・方針・規範があるが
09:04
and it doesn't make a difference
if it's digital or not.
デジタルかどうかは
区別されていないと
09:07
All of your health records are digitized
医療データはデジタル化
されていますが
09:11
but your doctor can't
just share them with anyone.
医者がそれを漏らす
ことはできません
09:13
All of your financial information
is held in digital databases,
個人のファイナンス情報は
デジタルのデータベースに保存されていますが
09:16
but your credit card company can't
just post your purchase history online.
クレジットカード会社は人の購入履歴を
勝手にネットで公開したりできません
09:21
Better laws could help address
privacy violations after they happen,
より良い法律は 起きてしまった
プライバシー侵害に対処することができますが
09:27
but one of the easiest things
we can all do is make personal changes
もっと簡単なのは
09:32
to help protect each other's privacy.
お互いのプライバシーを守るよう
個々人が変わることです
09:36
We're always told that privacy
プライバシーは
その人自身の責任だと
09:40
is our own, sole,
individual responsibility.
ずっと言われてきました
09:42
We're told, constantly monitor
and update your privacy settings.
プライバシー設定にいつも注意を払って
更新するようにとか
09:45
We're told, never share anything
you wouldn't want the entire world to see.
世界中の人に見られて困るようなものは
共有してはいけないとか言われてきました
09:49
This doesn't make sense.
そんなの変です
09:55
Digital media are social environments
デジタルメディアというのは
社会的な環境であり
09:56
and we share things
with people we trust all day, every day.
人々は信用している相手に対して
絶えず共有をしています
09:59
As Princeton researcher
Janet Vertesi argues,
プリンストン大学の研究者
ジャネット・ヴァーテッシは
10:04
our data and our privacy,
they're not just personal,
データやプライバシーというのは
単なる個人のものではなく
10:07
they're actually interpersonal.
個人間のものなのだ
と言っています
10:11
And so one thing you can do
that's really easy
皆さんにできる
簡単なことは
10:14
is just start asking for permission before
you share anyone else's information.
他の人の情報を共有する時には
本人の許可を得るということです
10:17
If you want to post a photo
of someone online, ask for permission.
誰かの写真をネットに上げようと思ったら
許可を得ましょう
10:22
If you want to forward an email thread,
メールを転送しようと思ったら
10:27
ask for permission.
許可を得ましょう
10:29
And if you want to share
someone's nude selfie,
誰かの裸の自撮り写真を
共有したいと思ったら
10:31
obviously, ask for permission.
言うまでもなく
許可を得ましょう
10:34
These individual changes can really
help us protect each other's privacy,
そういった個々人の変化は
お互いのプライバシーを守る助けになりますが
10:37
but we need technology companies
on board as well.
テクノロジー企業にも
協力してもらう必要があります
10:42
These companies have very little
incentive to help protect our privacy
そういった会社は
プライバシーを守る動機が低いものです
10:46
because their business models
depend on us sharing everything
みんながあらゆるものを
可能な限り多くの人と共有することに
10:50
with as many people as possible.
彼らのビジネスモデルが
依存しているからです
10:54
Right now, if I send you an image,
現在は 私が皆さんに
写真を送ったら
10:57
you can forward that
to anyone that you want.
皆さんはそれを
誰にでも転送できます
10:59
But what if I got to decide
if that image was forwardable or not?
でも転送して良いかどうかを
私が決められたとしたらどうでしょう?
11:02
This would tell you, you don't
have my permission to send this image out.
「この画像の送信は許可されていません」と
言えるとしたら?
11:06
We do this kind of thing all the time
to protect copyright.
著作権を守るためであれば
そういうことは よく行われています
11:10
If you buy an e-book, you can't just
send it out to as many people as you want.
電子書籍を買っても
それをいろんな人に送ったりはできません
11:14
So why not try this with mobile phones?
携帯でも同じように
したらどうでしょう?
11:19
What you can do is we can demand
that tech companies add these protections
私たちにできることは
デバイスやプラットフォームに
11:22
to our devices and our platforms
as the default.
そういう保護を標準で付けるよう
テクノロジー企業に求めることです
11:27
After all, you can choose
the color of your car,
車だって ボディカラーは
好きに選べても
11:31
but the airbags are always standard.
エアバッグは常に標準品です
11:34
If we don't think more
about digital privacy and consent,
デジタルプライバシーと合意について
ちゃんと考えないなら
11:40
there can be serious consequences.
大変な結果を招くことに
なるかもしれません
11:43
There was a teenager from Ohio --
オハイオ州に
ある十代の女の子がいました
11:47
let's call her Jennifer,
for the sake of her privacy.
彼女の名を仮に
ジェニファーとしておきましょう
11:49
She shared nude photos of herself
with her high school boyfriend,
彼女は自分の裸の画像を
高校のボーイフレンドにあげました
11:53
thinking she could trust him.
彼を信用できると思ったんです
11:56
Unfortunately, he betrayed her
不幸にも彼女は裏切られ
11:59
and sent her photos
around the entire school.
彼はその写真を
学校のみんなに送りました
12:01
Jennifer was embarrassed and humiliated,
ジェニファーは さらし者にされて
恥ずかしい思いをし
12:04
but instead of being compassionate,
her classmates harassed her.
クラスメートは同情するどころか
彼女をいじめました
12:08
They called her a slut and a whore
彼女をあばずれだの
売女だのと罵り
12:12
and they made her life miserable.
彼女の人生を
みじめなものにしました
12:14
Jennifer started missing school
and her grades dropped.
ジェニファーは学校を休みがちになり
成績が落ちました
12:17
Ultimately, Jennifer decided
to end her own life.
最終的に彼女は
自らの命を絶つことを選びました
12:21
Jennifer did nothing wrong.
ジェニファーは何も悪いことを
したわけではありません
12:26
All she did was share a nude photo
ただ信用できると思った人に
12:29
with someone she thought
that she could trust.
裸の写真を送ったというだけです
12:31
And yet our laws tell her
それなのに法律では
12:34
that she committed a horrible crime
equivalent to child pornography.
彼女が児童ポルノに等しい
大変な罪を犯したことにされてしまいます
12:37
Our gender norms tell her
我々の性の規範では
12:41
that by producing
this nude image of herself,
自分のヌード写真を撮ることは
12:43
she somehow did the most
horrible, shameful thing.
甚だしい恥ずべき行為だと
されているんです
12:46
And when we assume that privacy
is impossible in digital media,
デジタルメディアでプライバシーを
守ることは不可能だと考えるのは
12:50
we completely write off and excuse
her boyfriend's bad, bad behavior.
彼女のボーイフレンドの
極めて悪い行為を忘れ 許すことになります
12:54
People are still saying all the time
to victims of privacy violations,
人々はいまだプライバシーを侵害された
被害者たちに こう言っています
13:01
"What were you thinking?
「いったい何を考えているんだ?
13:06
You should have never sent that image."
そんな写真を送る方が悪い」
13:08
If you're trying to figure out
what to say instead, try this.
どう言うべきか迷っているなら
こう考えてみてください
13:11
Imagine you've run into your friend
who broke their leg skiing.
スキーで脚を折った友達に
ばったり出会ったとしましょう
13:16
They took a risk to do something fun,
and it didn't end well.
何か楽しいことをやろうとリスクを冒し
まずい結果になったわけです
13:20
But you're probably
not going to be the jerk who says,
でも皆さんはそういう人に
13:24
"Well, I guess you shouldn't
have gone skiing then."
「スキーなんかに行くのが悪い」
などと言うイヤな奴ではないでしょう
13:27
If we think more about consent,
合意について
よく考えたなら
13:32
we can see that victims
of privacy violations
プライバシー侵害の被害者は
同情すべきであって
13:34
deserve our compassion,
犯罪者扱いしたり 辱めたり
嫌がらせしたり
13:37
not criminalization, shaming,
harassment or punishment.
罰したりすべきではないと
分かるはずです
13:39
We can support victims,
and we can prevent some privacy violations
被害者を支え
プライバシー侵害をある程度防ぐことが
13:44
by making these legal,
individual and technological changes.
お話ししたような法的・個人的・技術的な
変化によって可能です
13:48
Because the problem is not sexting,
the issue is digital privacy.
問題なのはセクスティングではなく
デジタルプライバシーだからです
13:53
And one solution is consent.
そして解決法の1つは
合意を得ることです
13:59
So the next time a victim
of a privacy violation comes up to you,
だから今度プライバシー侵害の
被害者に会うことがあれば
14:02
instead of blaming them,
let's do this instead:
その人を非難するのではなく
14:07
let's shift our ideas
about digital privacy,
デジタルプライバシーに
対する考えを変え
14:10
and let's respond with compassion.
思いやりの気持ちをもって
あたりましょう
14:13
Thank you.
ありがとうございました
14:16
(Applause)
(拍手)
14:17
Translated by Yasushi Aoki
Reviewed by Eriko T.

▲Back to top

About the Speaker:

Amy Adele Hasinoff - Communications researcher
Amy Adele Hasinoff studies gender, sexuality, privacy and consent in new media.

Why you should listen

Amy Adele Hasinoff investigates how we think about communication technologies as both the cause of and solution to social problems. She wrote a book, Sexting Panic, about the well-intentioned but problematic responses to sexting in mass media, law and education. The National Communication Association described it as "[T]he rare book that advances scholarly conversations while also promising to enrich family conversations around the dinner table."

Hasinoff is an Assistant Professor in the communication department at the University of Colorado Denver. She publishes regularly in scholarly journals and books and wrote an op-ed about sexting for the New York Times.

More profile about the speaker
Amy Adele Hasinoff | Speaker | TED.com