Joy Buolamwini: How I'm fighting bias in algorithms
Joy Buolamwini: Como eu luto contra o preconceito em algoritmos
Joy Buolamwini's research explores the intersection of social impact technology and inclusion. Full bio
Double-click the English transcript below to play the video.
an unseen force that's rising,
uma força invisível em ascensão,
"olhar codificado,"
results in unfairness.
preconceito humano, resulta da injustiça.
can spread bias on a massive scale
numa grande escala
to exclusionary experiences
pode levar a experiências de exclusão
I've got a face.
Vês a minha máscara?
de um computador
uma câmara de vídeo barata?
contra o olhar codificado
at the MIT Media Lab,
no laboratório de "media" do MIT.
on all sorts of whimsical projects,
em todo tipo de projetos bizarros,
digital masks onto my reflection.
máscaras digitais para o meu reflexo.
to feel powerful,
se quisesse sentir-me poderosa,
I might have a quote.
podia ter uma citação.
facial recognition software
genérico de reconhecimento facial
unless I wore a white mask.
a menos que usasse uma máscara branca.
into this issue before.
nesse problema.
at Georgia Tech studying computer science,
e estudava ciência informática,
to play peek-a-boo,
com que um robô jogasse às escondidas,
and then uncover it saying, "Peek-a-boo!"
e depois destapam-na, dizendo "Espreita!"
doesn't really work if I can't see you,
funciona se eu puder ver o outro,
to get the project done,
colega de quarto para terminar o projeto,
somebody else will solve this problem.
outra pessoa que resolva esse problema".
for an entrepreneurship competition.
competição de empreendedorismo.
to take participants
levar os participantes
until it got to me,
até chegar a minha vez.
o que é que se passava,
generic facial recognition software.
software genérico de reconhecimento facial.
can travel as quickly
pode viajar tão depressa
some files off of the internet.
de ficheiros da Internet.
Why isn't my face being detected?
Porque é que a minha cara não é detetada?
at how we give machines sight.
como damos visão às máquinas.
machine learning techniques
técnicas de aprendizagem de máquina
a training set with examples of faces.
de formação com exemplos de rostos.
This is not a face.
Isto não é um rosto.
how to recognize other faces.
o computador a reconhecer rostos.
aren't really that diverse,
não forem diversificados,
from the established norm
demasiado da norma estabelecida
há boas notícias.
materialize out of nowhere.
não se materializam do nada.
full-spectrum training sets
grupos de formação com um espetro completo
portrait of humanity.
mais rico da humanidade.
with algorithmic bias.
com o preconceito algorítmico.
to discriminatory practices.
pode levar a práticas discriminatórias.
facial recognition software
a usar o software de reconhecimento facial
publicou um relatório
in the US -- that's 117 million people --
em dois adultos, nos EUA
in facial recognition networks.
de reconhecimento facial.
at these networks unregulated,
nessas redes não regulamentadas,
been audited for accuracy.
auditados quanto ao seu rigor.
is not fail proof,
facial não é à prova de falhas,
remains a challenge.
continua a ser um problema.
when we see other people
quando vemos outras pessoas
is no laughing matter,
criminoso não é motivo para rir,
a violação das liberdades civis.
for facial recognition,
usada para reconhecimento facial,
of computer vision.
do domínio da visão por computador.
of Math Destruction,"
Destruição Matemática" (ADM),
talks about the rising new WMDs --
fala sobre o aumento de novas ADM
and destructive algorithms
misteriosos e destrutivos
to make decisions
para tomar decisões
ou despedido?
Do you get insurance?
Recebemos o seguro?
you wanted to get into?
em que queremos entrar?
for the same product
para o mesmo produto
to use machine learning
a usar a aprendizagem de máquinas
risk scores to determine
gerada por máquinas para determinar
is going to spend in prison.
vai passar na prisão.
about these decisions.
nessas decisões.
lead to fair outcomes.
a resultados justos.
how we create more inclusive code
em criar códigos mais inclusivos
with diverse individuals
completo com diversos indivíduos
uns dos outros?
how we code matters.
é importante a forma como codificamos.
as we're developing systems?
enquanto desenvolvemos os sistemas?
por que codificamos.
to unlock immense wealth.
de criação informática
to unlock even greater equality
de desbloquear uma igualdade ainda maior
that will make up the "incoding" movement.
que formam o movimento "de codificação".
por que codificamos.
we can start thinking about
podemos começar a pensar
possam identificar preconceitos
like the ones I shared,
como as que eu contei,
os softwares existentes.
more inclusive training sets.
grupos de formação mais inclusivos.
"Selfies para Inclusão"
developers test and create
os desenvolvedores a criar e testar
more conscientiously
a pensar com maior consciência
of the technology that we're developing.
que estamos a desenvolver.
Justice League,
can help fight the coded gaze.
se interessam pela justiça
contra o olhar codificado.
podem relatar preconceitos,
works for all of us,
funcione para todos nós,
and center social change.
e nos centramos na mudança social.
ABOUT THE SPEAKER
Joy Buolamwini - Poet of codeJoy Buolamwini's research explores the intersection of social impact technology and inclusion.
Why you should listen
Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.
Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.
Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.
Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer. She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.
Joy Buolamwini | Speaker | TED.com