Cathy O'Neil: The era of blind faith in big data must end
キャシー・オニール: ビッグデータを盲信する時代に終止符を
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias. Full bio
Double-click the English transcript below to play the video.
the winners from the losers.
申し込めます
that we don't understand
不服申し立ての機会もない—
格付けされているのです
必要なものが2つあります
定義する基準です
and often hoping for.
定義する基準です
アルゴリズムを訓練します
by looking, figuring out.
理解させるためです
what is associated with success.
誰でも使っています
in written code.
家族の食事を用意します
to make a meal for my family.
of ramen noodles as food.
食べ物とは認めません
if my kids eat vegetables.
基準はガラッと変わり
from if my youngest son were in charge.
食べられれば成功」と言うでしょう
he gets to eat lots of Nutella.
私の意見が重要なんですから
埋め込まれた意見なのです
アルゴリズムのイメージとはかけ離れています
most people think of algorithms.
and true and scientific.
科学的なものと思っていますが
恐れさせたりするのもそう
blind faith in big data.
いろいろな問題が生じかねません
ブルックリンの高校で校長をしています
She's a high school principal in Brooklyn.
her teachers were being scored
彼女の学校では
複雑な秘密のアルゴリズムで
ということでした
what the formula is, show it to me.
「数式を調べてみましょう
「数式を入手しようとしたら
to get the formula,
理解できないでしょう』と
told me it was math
a Freedom of Information Act request,
情報自由法に基づく開示請求をして
and all their scores
名前とスコアを手に入れ
as an act of teacher-shaming.
データを公表しました
the source code, through the same means,
同じ方法で手に入れようとしたところ
had access to that formula.
見られる人は誰もおらず
頭のキレる人物が登場します
got involved, Gary Rubenstein.
from that New York Post data
教員665名を見つけ出しました
教えている場合です
for individual assessment.
使ってはいけません
先生たちと共に
with 205 other teachers,
非常に高かったのにです
recommendations from her principal
非常に高かったのにです
of you guys are thinking,
わかります
AIの専門家なら思うでしょう
the AI experts here.
an algorithm that inconsistent."
アルゴリズムは作らない」って
with good intentions.
破壊的な影響を及ぼすことだってあります
that's designed badly
その様子が見えますが
大惨事をもたらし続けかねないんです
silently wreaking havoc.
about sexual harassment.
セクハラ被害を訴えました
to succeed at Fox News.
妨害されたそうです
but we've seen recently
問題は依然残っています
to turn over another leaf?
FOXニュースは何をすべきか?
their hiring process
機械学習アルゴリズムに
何が使えるでしょう?
21 years of applications to Fox News.
履歴書がいいでしょう
成功するんでしょう?
stayed there for four years
最低1回は昇進していれば
to learn what led to success,
何が成功につながるか—
historically led to success
成功に繋がってきたのかを
当てはめると どうなるでしょう?
to a current pool of applicants.
who were successful in the past.
見えないからです
アルゴリズムを適用しても
blindly apply algorithms.
if we had a perfect world,
それでいいんでしょうが
don't have embarrassing lawsuits,
みっともない裁判を抱えている訳ではありませんが
データサイエンティストは
it means they could be codifying sexism
コード化されている可能性があります
社会があるとします
all neighborhoods
人種は隔離され
only to the minority neighborhoods
警察を送り込むのは
かなり偏ったものになるでしょう
we found the data scientists
探してきて
where the next crime would occur?
予測させたらどうなるでしょう?
criminal would be?
予測させたら?
about how great and how accurate
モデルの素晴らしさと正確さを
but we do have severe segregations
深刻な人種差別があり
偏っているという
and justice system data.
犯罪多発地域を
the individual criminality,
recently looked into
いわゆる「再犯リスク」アルゴリズムの
量刑手続に使われているものです
during sentencing by judges.
was scored a 10 out of 10.
10点満点の10点で
3 out of 10, low risk.
3点はローリスクです
for drug possession.
the higher score you are,
スコアが高ければ高いほど
a longer sentence.
傾向があるからです
technologists hide ugly truths
ブラックボックスのようなアルゴリズムの内部に
important and destructive,
重要で破壊的なアルゴリズムを
and it's not a mistake.
どこにでも存在します
私的な目的で
building private algorithms
for teachers and the public police,
教員や警察向けのアルゴリズムでさえ
「秘伝のタレ」だから
企業側は主張します
the authority of the inscrutable.
企業は利益を得ています
アルゴリズムが民間のものなら
since all this stuff is private
will solve this problem.
問題を解決するのではないか…
to be made in unfairness.
生み出しますから
合理的経済人ではなく
in ways that we wish we weren't,
気づきもしない形で
そのことがわかります
have consistently demonstrated this
考案した実験を通して
of applications to jobs out,
履歴書を大量に送付しました
have white-sounding names
一部は白人っぽい名前で
常にがっかりするものでした
the results -- always.
into the algorithms
注入しているんです
about ramen noodles --
含めないのと同じで
私なんです
picking up on past practices
データを信頼し
to emerge unscathed?
期待できるのでしょう?
チェックが必要なんです
we can check them for fairness.
答えないので
the truth every time.
We can make them better.
作り替えられます
アルゴリズム監査と呼んでいます
algorithm I talked about,
再犯リスク・アルゴリズムの場合—
we'd have to come to terms with the fact
事実を直視するという意味になるでしょう
smoke pot at the same rate
白人と黒人で同じなのに
to be arrested --
黒人の方がはるかに高く
depending on the area.
4〜5倍になるという事実があります
in other crime categories,
他の犯罪では どんな形で表れ
どう説明したらいいでしょうか?
考えなければなりません
the definition of success,
algorithm? We talked about it.
思い出してください
昇進1回の人はどうだったでしょう
and is promoted once?
that is supported by their culture.
支持されたとも言えます
バイアスがあるかもしれないので
the blind orchestra audition
ブラインド・オーディションを見るべきでしょう
ブラインド・オーディションを見るべきでしょう
are behind a sheet.
衝立の向こうにいます
have decided what's important
何が重要でないかを
惑わされないようにしている点です
distracted by that.
するようになって
auditions started,
went up by a factor of five.
5倍に増えました
for teachers would fail immediately.
すぐ落第になる項目です
the errors of every algorithm.
誤りを検討する必要があります
and for whom does this model fail?
どんな相手だと そのモデルは機能しないのか?
フィードバック・ループです
聞こえるかもしれませんが
had considered that
友人の投稿だけを表示する前に
考慮していたらと考えてみてください
only things that our friends had posted.
one for the data scientists out there.
1つはデータサイエンティストに向けたものです
not be the arbiters of truth.
真実を決めるべきではありません
of ethical discussions that happen
倫理的な議論を
皆さん—
皆さん—
for our algorithmic overlords.
私たちは説明を求める必要があります
in big data must end.
終わらせるべきです
ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientistData skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.
Why you should listen
In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.
With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.
Cathy O'Neil | Speaker | TED.com