Joy Buolamwini: How I'm fighting bias in algorithms
Joy Boulamwini: Como estou combatendo o viés algorítmico
Joy Buolamwini's research explores the intersection of social impact technology and inclusion. Full bio
Double-click the English transcript below to play the video.
an unseen force that's rising,
uma força invisível que tem crescido,
results in unfairness.
ele resulta em desigualdade.
can spread bias on a massive scale
em grande escala e rapidamente.
to exclusionary experiences
pode levar a experiências de exclusão
I've got a face.
Oi, câmera. Tenho um rosto.
usando uma máscara branca,
por uma câmera barata?
contra o olhar codificado
at the MIT Media Lab,
no Laboratório de Mídia do MIT,
on all sorts of whimsical projects,
em diversos projetos bacanas,
digital masks onto my reflection.
máscaras digitais sobre minha imagem.
to feel powerful,
poderosa, poderia usar uma de leão.
usaria uma citação.
I might have a quote.
facial recognition software
de reconhecimento facial
unless I wore a white mask.
a não ser que usasse uma máscara branca.
into this issue before.
at Georgia Tech studying computer science,
em ciência da computação na Georgia Tech,
to play peek-a-boo,
um robô brincasse de "Achou!",
and then uncover it saying, "Peek-a-boo!"
o mostra à outra, dizendo: "Achou!"
doesn't really work if I can't see you,
não dá certo se você não vê o outro,
to get the project done,
de uma amiga para fazer o projeto,
somebody else will solve this problem.
Outra pessoa vai resolver esse problema".
for an entrepreneurship competition.
numa competição de empreendedorismo.
to take participants
levar os participantes
e eles decidiram fazer uma demonstração.
until it got to me,
e, como vocês já podem imaginar,
generic facial recognition software.
genérico de reconhecimento facial que eu.
descobri que o viés algorítmico
can travel as quickly
quanto um download da internet.
some files off of the internet.
Por que meu rosto não era detectado?
Why isn't my face being detected?
at how we give machines sight.
como damos "visão" às máquinas.
machine learning techniques
técnicas de aprendizagem automática
a training set with examples of faces.
de treinamento, com alguns rostos.
This is not a face.
Isto não é um rosto."
how to recognize other faces.
a reconhecer outros rostos.
aren't really that diverse,
diversificadas o bastante,
from the established norm
muito diferente dos demais
e era isso que acontecia comigo.
materialize out of nowhere.
não surgem do nada.
full-spectrum training sets
séries de amplo espectro,
portrait of humanity.
de forma mais diversa.
with algorithmic bias.
pelo viés algorítmico,
to discriminatory practices.
pode acarretar práticas discriminatórias.
facial recognition software
a usar softwares de reconhecimento facial
na luta contra o crime.
in the US -- that's 117 million people --
nos EUA, ou seja, 117 milhões de pessoas,
in facial recognition networks.
em redes de reconhecimento facial.
at these networks unregulated,
usar essas redes sem qualquer regulação,
been audited for accuracy.
sua precisão auditada.
is not fail proof,
o reconhecimento facial não é infalível,
remains a challenge.
continua sendo um desafio.
quando vemos outras pessoas
when we see other people
em nossas fotos.
is no laughing matter,
de crime não é nada engraçado,
for facial recognition,
usada no reconhecimento facial,
of computer vision.
além da visão de computador.
of Math Destruction,"
of Math Destruction",
talks about the rising new WMDs --
fala sobre a ascensão dos novos "DMDs"
and destructive algorithms
misteriosos e destrutivos"
to make decisions
na tomada de decisões
das nossas vidas.
Do you get insurance?
empréstimo, ou seguro?
you wanted to get into?
for the same product
pelo mesmo produto
to use machine learning
a usar a aprendizagem automática
risk scores to determine
de risco gerados por máquinas
um indivíduo ficará na prisão.
is going to spend in prison.
about these decisions.
sobre essas decisões. Será que são justas?
nem sempre leva a resultados justos.
lead to fair outcomes.
how we create more inclusive code
em como criar codificação mais inclusiva
de codificação inclusivas.
with diverse individuals
com indivíduos diferentes
pontos cegos uns dos outros?
how we code matters.
a forma como codificamos é relevante.
as we're developing systems?
no desenvolvimento de sistemas?
codificamos é relevante.
to unlock immense wealth.
computacional para gerar imensas riquezas.
to unlock even greater equality
de gerar igualdade ainda maior,
social como uma prioridade
that will make up the "incoding" movement.
do movimento pela codificação inclusiva.
we can start thinking about
podemos começar a pensar
que identifiquem o viés,
como as que eu contei aqui,
like the ones I shared,
softwares já existentes.
more inclusive training sets.
séries de treinamento mais inclusivas.
de "'Selfies' pela Inclusão",
developers test and create
os desenvolvedores a testar
mais inclusivas.
more conscientiously
a pensar de forma mais consciente
of the technology that we're developing.
que temos desenvolvido.
de codificação inclusiva
Justice League,
can help fight the coded gaze.
podem lutar contra o olhar codificado.
vocês podem relatar vieses,
participar dos testes
works for all of us,
trabalhe em favor de todos,
and center social change.
e tenhamos como foco a mudança social.
ABOUT THE SPEAKER
Joy Buolamwini - Poet of codeJoy Buolamwini's research explores the intersection of social impact technology and inclusion.
Why you should listen
Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.
Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.
Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.
Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer. She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.
Joy Buolamwini | Speaker | TED.com