Joy Buolamwini: How I'm fighting bias in algorithms
Джой Буоламвини: Как я борюсь со сбоями в алгоритмах
Joy Buolamwini's research explores the intersection of social impact technology and inclusion. Full bio
Double-click the English transcript below to play the video.
an unseen force that's rising,
набирающую обороты силу,
«закодированный взгляд»,
results in unfairness.
человека, ведёт к несправедливости.
can spread bias on a massive scale
распространять ошибки в больших масштабах
to exclusionary experiences
могут приводить к отчуждению
I've got a face.
камера. Вот моё лицо.
дешёвой камерой?
at the MIT Media Lab,
on all sorts of whimsical projects,
над всяческими фантастическими проектами,
digital masks onto my reflection.
цифровые маски на своё отражение.
to feel powerful,
чувствовать себя сильной,
I might have a quote.
то можно обойтись цитатой.
facial recognition software
программу распознавания лиц,
unless I wore a white mask.
тестировать, если на мне нет белой маски.
into this issue before.
сталкивалась с этой проблемой.
at Georgia Tech studying computer science,
в Технологическом институте Джорджии,
to play peek-a-boo,
робота играть в «ку-ку».
and then uncover it saying, "Peek-a-boo!"
и, открывая, говорят: «Ку-ку!»
doesn't really work if I can't see you,
если вас не видно, то игра теряет смысл,
to get the project done,
чтобы я смогла закончить проект,
somebody else will solve this problem.
решит эту проблему.
for an entrepreneurship competition.
предринимателей в Гонконге.
to take participants
until it got to me,
пока дело не дошло до меня,
generic facial recognition software.
и ту же программу для распознавания лиц.
can travel as quickly
может распространяться так же быстро,
some files off of the internet.
файлы из интернета.
Why isn't my face being detected?
моё лицо не распознаётся?
at how we give machines sight.
как мы создаём машинное зрение.
machine learning techniques
техники машинного обучения,
a training set with examples of faces.
тренировочный набор с примерами лиц.
This is not a face.
how to recognize other faces.
компьютер распознавать другие лица.
aren't really that diverse,
не очень разнообразны,
from the established norm
от установленной нормы,
есть и хорошие новости.
materialize out of nowhere.
не появляются из ниоткуда.
full-spectrum training sets
тренировочных наборов,
portrait of humanity.
портрет человечества.
with algorithmic bias.
из-за алгоритмической погрешности.
to discriminatory practices.
приводить к дискриминации.
facial recognition software
программы распознавания лиц
in the US -- that's 117 million people --
в США один из двух взрослых —
in facial recognition networks.
имеют свои лица в сетях распознавания лиц.
at these networks unregulated,
неограниченно пользоваться этими сетями,
been audited for accuracy.
которых не была проверена.
is not fail proof,
распознавание лиц несовершенно
remains a challenge.
остаётся сложной задачей.
when we see other people
когда видим других людей,
is no laughing matter,
подозреваемого — это не шутка
for facial recognition,
для распознавания лиц,
of computer vision.
of Math Destruction,"
математического поражения»
talks about the rising new WMDs --
рассказывает о новом ОМП —
and destructive algorithms
и поражающих алгоритмах,
to make decisions
для принятия решений,
аспектов нашей жизни.
Do you get insurance?
you wanted to get into?
в который собирались?
for the same product
на один и тот же товар,
to use machine learning
начинают применять машинное обучение
risk scores to determine
сгенерированные машиной, для определения
is going to spend in prison.
должен будет провести в тюрьме.
about these decisions.
над этими решениями.
lead to fair outcomes.
how we create more inclusive code
как создавать более всестороний код
в программировании.
with diverse individuals
из разнообразных личностей,
how we code matters.
то, как мы пишем код.
as we're developing systems?
во время разработки систем?
to unlock immense wealth.
открыло нам невероятное богатство.
to unlock even greater equality
добиться ещё большего равенства,
изменение приоритетной,
that will make up the "incoding" movement.
составляют основу движения «инкодинг».
we can start thinking about
мы можем начать задумываться
которые могут находить ошибку,
like the ones I shared,
программное обеспечение.
more inclusive training sets.
более полных тренировочных наборов.
«Селфи для присоединения»,
developers test and create
тестировать и создавать
more conscientiously
более добросовестно
of the technology that we're developing.
над которой мы работаем.
Justice League,
справедливости,
can help fight the coded gaze.
может помочь бороться со сбоями.
можете сообщить об ошибке,
works for all of us,
работает на всех нас,
and center social change.
сосредотачиваемся на социальных переменах.
ко мне в этой борьбе?»
ABOUT THE SPEAKER
Joy Buolamwini - Poet of codeJoy Buolamwini's research explores the intersection of social impact technology and inclusion.
Why you should listen
Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.
Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.
Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.
Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer. She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.
Joy Buolamwini | Speaker | TED.com