Joy Buolamwini: How I'm fighting bias in algorithms
ジョイ・ブォロムウィニ: アルゴリズムに潜む偏見との戦い
Joy Buolamwini's research explores the intersection of social impact technology and inclusion. Full bio
Double-click the English transcript below to play the video.
コードの詩人 ジョイです
an unseen force that's rising,
目に見えない力
と私が呼ぶ―
阻止することです
results in unfairness.
偏見が入り込むと不公正な結果を生みます
can spread bias on a massive scale
偏見をどんどん拡散してしまいます
to exclusionary experiences
排他的な扱いや
I've got a face.
私には顔があるわ
このお面は見える?
試している理由は?
コード化された視線と
at the MIT Media Lab,
on all sorts of whimsical projects,
いろいろ関わっています
「Aspire Mirror(鼓舞する鏡)」は
digital masks onto my reflection.
デジタルの仮面を重ねるものです
to feel powerful,
なりたければ
I might have a quote.
何かを「引用」したりできます
facial recognition software
一般的な顔認識ソフトを使い
unless I wore a white mask.
テストすら難しいと気づきました
into this issue before.
初めてではありませんでした
at Georgia Tech studying computer science,
コンピュータ科学を学んでいたとき
to play peek-a-boo,
代わりばんこに
課題がありました
and then uncover it saying, "Peek-a-boo!"
どけて顔を見せる遊びですね
doesn't really work if I can't see you,
成立しないゲームですが
認識できませんでした
to get the project done,
どうにか作業を終え
somebody else will solve this problem.
直してくれると思っていました
for an entrepreneurship competition.
香港に行きました
to take participants
いくつかの地元の新興企業に
ソーシャルロボットで
なりました
until it got to me,
私の番がやって来ます
と開発者たちに尋ねたら
generic facial recognition software.
使っていることが判明しました
can travel as quickly
広がるのはすごく早いことです
some files off of the internet.
時間しかかかりません
Why isn't my face being detected?
なぜ私の顔は検知されないのか?
at how we give machines sight.
考えてみましょう
machine learning techniques
機械学習の技術を使って
a training set with examples of faces.
トレーニングするのです
This is not a face.
これは顔じゃない
how to recognize other faces.
顔を認識する方法を習得します
aren't really that diverse,
あまり多様性がなかったら
from the established norm
大きく外れた顔は
希望の持てる面もあります
materialize out of nowhere.
できるわけではありません
full-spectrum training sets
トレーニング用のサンプルを作り
portrait of humanity.
しっかり反映させれば いいんです
with algorithmic bias.
切り捨てが見つかりました
to discriminatory practices.
つながりうるものです
facial recognition software
ロースクールの報告によると
in the US -- that's 117 million people --
1億1700万人の顔が
in facial recognition networks.
記録されています
at these networks unregulated,
これらのシステムを参照できますが
been audited for accuracy.
正確さは検証されていません
is not fail proof,
remains a challenge.
なおも難しい課題です
こんな経験をしたことは?
when we see other people
おかしなタグが付いていて
is no laughing matter,
笑い事では済みません
どころでもありません
for facial recognition,
利用されるとともに
of computer vision.
利用範囲を拡大しています
of Math Destruction,"
キャシー・オニールは
talks about the rising new WMDs --
(数学破壊兵器)』の中で
and destructive algorithms
「数学破壊兵器」として台頭し
to make decisions
使われるようになり
影響を与えていると述べています
Do you get insurance?
保険に入れるかどうか
you wanted to get into?
for the same product
購入するのなら
といったことにもです
to use machine learning
予測警備にも
risk scores to determine
機械が出したリスク評価をもとに
is going to spend in prison.
決める人もいます
よく考えなければなりません
about these decisions.
アルゴリズムの偏見により
lead to fair outcomes.
公平ではありません
how we create more inclusive code
より包括的なコードを作り
考えることから始めましょう
チームを構成し
with diverse individuals
チェックできているか?
how we code matters.
コードをどう作るかが重要です
as we're developing systems?
公正さを組み込んでいるか?
コードを書くかも重要です
to unlock immense wealth.
莫大な富を生み出してきましたが
to unlock even greater equality
生み出すことができるのです
後付けでなく
that will make up the "incoding" movement.
3つの柱があるわけです
we can start thinking about
まず手を付けるべきは
プラットフォームを作ること
like the ones I shared,
経験を集積して
点検もします
more inclusive training sets.
もっと多様性を盛り込みましょう
キャンペーンを展開して
developers test and create
開発者が作成しテストするのを
more conscientiously
社会に与える影響について
of the technology that we're developing.
考えるようにしましょう
始めるために
Justice League,
を設立しました
can help fight the coded gaze.
コード化された視線との戦いに参加できます
codedgaze.comへ
参加してほしいんです
works for all of us,
一部の人でなく みんなの役に立つ―
and center social change.
自ら社会を変える そんな世界にしましょう
ABOUT THE SPEAKER
Joy Buolamwini - Poet of codeJoy Buolamwini's research explores the intersection of social impact technology and inclusion.
Why you should listen
Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.
Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.
Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.
Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer. She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.
Joy Buolamwini | Speaker | TED.com