Joy Buolamwini: How I'm fighting bias in algorithms
Joy Buolamwini: Mon combat contre les algorithmes biaisés
Joy Buolamwini's research explores the intersection of social impact technology and inclusion. Full bio
Double-click the English transcript below to play the video.
an unseen force that's rising,
une force invisible qui prend de l'ampleur
« le regard codé »,
results in unfairness.
cognitif, crée de l'injustice.
can spread bias on a massive scale
peuvent massivement générer un biais
to exclusionary experiences
créer des sentiments d'exclusion
ce que je veux dire.
I've got a face.
webcam. J'ai un visage.
voir mon masque ?
est-ce arrivé ?
assise devant un ordinateur
par une webcam premier prix ?
contre le regard codé
at the MIT Media Lab,
on all sorts of whimsical projects,
sur plein de projets fantaisistes
digital masks onto my reflection.
des masques digitaux sur mon reflet.
to feel powerful,
me sentir plus forte,
I might have a quote.
je pouvais choisir une citation.
facial recognition software
de reconnaissance faciale
unless I wore a white mask.
le tester à moins de porter un masque.
into this issue before.
rencontré ce problème.
at Georgia Tech studying computer science,
en informatique à Georgia Tech,
to play peek-a-boo,
un robot pour qu'il joue à « Caché »,
and then uncover it saying, "Peek-a-boo!"
puis le découvre en disant « Coucou ! »
doesn't really work if I can't see you,
pas marcher si je ne peux pas vous voir
to get the project done,
colocataire pour finir le projet,
somebody else will solve this problem.
quelqu'un d'autre résoudrait le problème.
for an entrepreneurship competition.
pour une compétition d'entrepreneuriat.
to take participants
d'emmener les participants
ont décidé de faire une démonstration.
until it got to me,
jusqu'à ce que vienne mon tour,
détecter mon visage.
ce qu'il se passait,
generic facial recognition software.
outil de reconnaissance faciale.
can travel as quickly
peut voyager aussi rapidement
some files off of the internet.
Why isn't my face being detected?
Pourquoi mon visage n'est pas détecté ?
at how we give machines sight.
on donne la vue aux machines.
machine learning techniques
des techniques de machine learning
a training set with examples of faces.
de formation avec des exemples.
This is not a face.
Mais pas ça.
how to recognize other faces.
comment reconnaître d'autres visages.
aren't really that diverse,
ne sont pas très variés,
from the established norm
de la norme établie
il y a de bonnes nouvelles.
materialize out of nowhere.
n'apparaissent pas par magie.
full-spectrum training sets
des jeux de tests plus variés
portrait of humanity.
plus riche de l'humanité.
with algorithmic bias.
du biais algorithmique.
to discriminatory practices.
mener à des pratiques discriminatoires.
facial recognition software
des logiciels de reconnaissance faciale
in the US -- that's 117 million people --
États-Unis - 117 millions de personnes--
in facial recognition networks.
reconnaissance faciale.
at these networks unregulated,
ces systèmes non régulés,
been audited for accuracy.
dont la fiabilité n'a pas été testée.
is not fail proof,
faciale a des failles,
remains a challenge.
un visage reste un défi.
when we see other people
quand on voit d'autres personnes
is no laughing matter,
un criminel n'est pas drôle,
non plus.
for facial recognition,
pour la reconnaissance faciale,
of computer vision.
domaines que la vision informatique.
of Math Destruction,"
of Math Destruction »,
talks about the rising new WMDs --
parle des risques de ces nouvelles armes,
and destructive algorithms
mystérieux et destructeurs
to make decisions
dans des prises de décision
Do you get insurance?
Une assurance ?
you wanted to get into?
que vous voulez vraiment ?
for the same product
le même prix pour le même produit
to use machine learning
à utiliser le machine learning
risk scores to determine
générés par des machines
is going to spend in prison.
un individu passera derrière les barreaux.
about these decisions.
à ces décisions.
le biais algorithmique
lead to fair outcomes.
à des décisions justes.
how we create more inclusive code
à une manière de coder plus inclusivement
de code plus inclusives.
with diverse individuals
composées d'individus variés
leurs travaux ?
how we code matters.
comment on code a de l'importance.
as we're developing systems?
quand nous développons des systèmes ?
on code a une importance.
to unlock immense wealth.
pour générer d'immenses richesses.
to unlock even greater equality
de créer encore plus d'égalité
social une priorité.
that will make up the "incoding" movement.
du mouvement « incoding ».
we can start thinking about
nous pouvons commencer à réfléchir
pouvant identifier ce biais
like the ones I shared,
comme celui que j'ai partagé,
des logiciels existants.
more inclusive training sets.
des jeux de tests plus complets.
« Selfies pour l'inclusion »,
developers test and create
les développeurs à tester et créer
more conscientiously
plus consciencieusement
of the technology that we're developing.
des technologies que nous développons.
Justice League,
can help fight the coded gaze.
peut aider à combattre le regard codé.
dénoncer des biais,
works for all of us,
marche pour nous tous,
and center social change.
et le changement social ont de la valeur.
ABOUT THE SPEAKER
Joy Buolamwini - Poet of codeJoy Buolamwini's research explores the intersection of social impact technology and inclusion.
Why you should listen
Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.
Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.
Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.
Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer. She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.
Joy Buolamwini | Speaker | TED.com