Julie Cordua: How we can eliminate child sexual abuse material from the internet
ジュリー・コードゥア: ネットから児童性的虐待コンテンツを消し去る方法
Julie Cordua is dedicated to building the tools, partnerships and communities that will eliminate child sexual abuse from the internet. Full bio
Double-click the English transcript below to play the video.
that would change my life.
電話がありました
streaming through the window.
asking for my help
児童性的虐待の画像を発見したので
sexual abuse images they had found online.
身元特定を手伝ってほしいというのです
着手したばかりで
その少女への虐待の様子が
to the world for years
児童性的虐待を専門とするサイトで
to the sexual abuse of children.
配信されていたことだけでした
technologically sophisticated:
持っていて
新たな画像や動画が出るのに
ほとんどつかめませんでした
we were a new nonprofit
テクノロジーを開発する―
to fight child sexual abuse.
電話をかけてきたのです
出来てから まだ2年で
on child sex trafficking.
性的人身売買だけだったので
help them stop this abuse.
協力できる術が なかったのです
見つけ出すのには
1年の歳月が かかりました
documenting her rape had gone viral,
画像や動画が拡散されていました
private chat rooms
プライベートチャットルーム
毎日 使っている
大変な思いをしています
that thousands around the world
世界中の人に見られ続けているという
in the last five years
なってしまったのでしょう?
児童ポルノ―
写真や映像ですが
child sexual abuse material --
made it simply too risky
危険すぎるようになったのです
and the market exploded.
市場が爆発的に広がりました
of child sexual abuse material
for Missing and Exploited Children,
通報されました
the amount the year prior.
are hard to contemplate,
直視に堪えません
featuring children younger than 12,
12歳以下の児童だと思われます
extreme acts of sexual violence.
dedicated to the abuse of children,
チャットルーム内で賞賛されます
犠牲者が多いほど
the content itself.
通貨になります
to leverage new technologies,
新しい技術を取り入れるのが早く
遅れているのは明らかです
user agreements of websites,
利用規約なんて読みはしません
geographic boundaries.
国境はありません
at one piece of the puzzle at a time,
勝ち目はありませんが
our response today is designed.
まさに そんな感じなのです
プラットフォームだけを見ます
どんなものであれ
disconnected approach is not working.
当然 効果が上がりません
our response to this epidemic
悪しき流行への対策を
what we're doing at Thorn.
to connect these dots,
テクノロジーを開発しています
消し去るのに必要なツールを
to ultimately eliminate
最前線で対応している人たちに
from the internet.
about what those dots are.
ということについてです
this content is horrific.
想像できますよね
you don't want to look at it.
見たくないものです
or law enforcement agencies
into a unique string of numbers.
固有の数字に変換します
is use the information in investigations
画像や動画の中身を確認しなくても
the content from their platform,
at every image and every video each time.
コンテンツを削除したりできます
of millions of these hashes
all around the world.
格納されていることです
that has control over it,
役立つでしょうが
we don't know how many are unique.
固有のものがどれだけあるのかも
children who have already been rescued
どの児童が身元確認中なのかも
is that all of this data
つなげなければなりません
combined with software on a global scale,
世界的につなぎ合わせることで
impact in this space.
2つあります
身元を迅速に特定し
役立てられます
the hundreds of millions of files
特定する手がかりとして
of new material before it ever goes viral.
拡散前に阻止します
and we just felt this, um ...
ただ 強い挫折感を感じてました
is the way I can put it,
その少女を探している間
in the investigation
全て見ました
would have existed,
見つかったでしょう
the only thing we knew how to do:
することにしました
of officers all around the world
通知音を鳴らすことでした
a new victim online,
新たな被害者の投稿をしたら
looking for them immediately.
the details of that software,
話すことはできませんが
to get to a child
on that second horizon:
identify and remove this content.
支援するソフトウェアの開発です
about these companies.
and videos in the US alone last year.
通報がありましたが
たった12の企業でした
of child sexual abuse material.
児童性的虐待ファイルを通報したのです
that have the money
そういうコンテンツを
to pull this content down.
開発する資金があるのです
around the world,
their platform would be used for abuse,
虐待に使われると考えていないか
on something that is not driving revenue.
資金がないかのどちらかです
開発を進めています
with the more companies that participate.
このシステムも強力になります
if you haven't heard of this company,
ご存じないかもしれませんが
websites in the US --
利用者の多いサイトの1つです
content uploaded every single day,
楽しい場所にするという志の元
画像アップロードを受けています
a more fun place.
of going live on our system,
20分もせずに
a known piece of abuse material.
アップロードが試みられました
they pull it down,
for Missing and Exploited Children.
通報することができました
of the person who had uploaded it.
アカウントの人物を調べたところ
of child sexual abuse material
児童性的虐待の映像が
to see exponential impact.
for Missing and Exploited Children
通報します
go back into the system
システムに加わり
lead to millions more and, in real time,
さらに何百万というハッシュにつながり
and pulling this content down,
そのコンテンツを削除します
the speed at which we are removing
児童性的虐待のコンテンツを
from the internet around the world.
劇的に速まるでしょう
about software and data,
データだけでなく
追い抜くことができるなら
何百という企業に行動を促し
to outrun the perpetrators
行っている世界中のコミュニティを
that are normalizing child sexual abuse
the impact this is having on our children.
わからないとは もう言えません
whose abuse has gone viral
最初の世代の子どもたちが
of these young adults
消えないことを知ってる若者が
they try to recover from,
特有のトラウマの理解を目的とした
have thought about suicide.
自殺を考えたことがあります
自殺を試みたことがあります
have attempted suicide.
with the fear every single day
日々 怯えながら生活しています
or they interview for a job
就職面接の時も
見たことがあるんじゃないかと怖いのです
for more than 30 percent of them.
現実になっています
from their abuse material online.
自分だとバレたことがあるのです
that is really hard to look at,
見つめると決意し
決意をしてください
聞こえるように
and make sure that their platforms
児童虐待に加担することが絶対ないよう
決意してください
with their law enforcement
訴えることができなくても
a digital first crime,
必要なツールを
cannot speak for themselves.
決意してください
is part of that will.
この決意の一部です
against one of humanity's darkest evils.
宣戦布告です
an investment in a future
子どものままでいられる未来への
ABOUT THE SPEAKER
Julie Cordua - Social entrepreneurJulie Cordua is dedicated to building the tools, partnerships and communities that will eliminate child sexual abuse from the internet.
Why you should listen
Julie Cordua is driven by a desire to break down traditional silos and barriers and bring the resources and talent of the private sector to bear on some of our society's worst social problems. In 2006, she left the wireless technology industry to help launch (RED), bringing private sector resources to work on AIDS in Africa. In 2011, she joined co-founders Ashton Kutcher and Demi Moore to create Thorn, a technology-led non-profit that builds products and systems aimed at eliminating online child sexual abuse. Today, Thorn's tools are deployed in more than 50 countries, having helped to identify more than 14,000 child victims of abuse and reduce investigative time by more than 65 percent.
Julie Cordua | Speaker | TED.com