Joy Buolamwini: How I'm fighting bias in algorithms
Joy Buolamwini: Come sto combattendo la parzialità algoritmica
Joy Buolamwini's research explores the intersection of social impact technology and inclusion. Full bio
Double-click the English transcript below to play the video.
della programmazione,
an unseen force that's rising,
una crescente forza inattesa.
"sguardo programmato",
per la parzialità algoritmica.
results in unfairness.
come quella umana, produce ingiustizia.
can spread bias on a massive scale
si possono diffondere su ampia scala
to exclusionary experiences
portare a esperienze di esclusione
I've got a face.
Ho una faccia.
Vedi la mia maschera?
da una webcam economica?
"lo sguardo programmato"
della programmazione,
at the MIT Media Lab,
al Media Lab del MIT,
on all sorts of whimsical projects,
su ogni tipo di progetto stravagante,
digital masks onto my reflection.
una maschera digitale sul mio riflesso.
to feel powerful,
I might have a quote.
potrei avere un'altezza.
facial recognition software
di riconoscimento facciale
unless I wore a white mask.
a meno di indossare una maschera bianca.
into this issue before.
ho già toccato questo tema.
at Georgia Tech studying computer science,
al Georgia Tech
to play peek-a-boo,
un robot a "booh! chi sono?",
and then uncover it saying, "Peek-a-boo!"
poi la scoprono dicendo "booh! chi sono?"
doesn't really work if I can't see you,
veramente se non vi vedo,
to get the project done,
della mia compagna di stanza,
somebody else will solve this problem.
risolvesse il problema.
for an entrepreneurship competition.
sulla imprenditorialità.
to take participants
di scegliere i partecipanti
until it got to me,
cosa stava succedendo,
generic facial recognition software.
generico di riconoscimento facciale.
can travel as quickly
può viaggiare velocemente
some files off of the internet.
da internet.
Why isn't my face being detected?
Perchè la mia faccia non era riconosciuta?
at how we give machines sight.
diamo la vista alle macchine.
machine learning techniques
tecniche di auto-apprendimento
a training set with examples of faces.
per l'apprendimento.
This is not a face.
Questa non è una faccia.
how to recognize other faces.
come riconoscere altre facce.
aren't really that diverse,
non sono veramente diversi,
from the established norm
dalla norma stabilita
ci sono buone notizie.
materialize out of nowhere.
non nascono dal nulla.
full-spectrum training sets
di esempi ad ampio spettro
portrait of humanity.
ritratto dell'umanità.
with algorithmic bias.
dovuta alla parzialità algoritmica.
to discriminatory practices.
anche a pratiche discriminatorie.
facial recognition software
software di riconoscimento facciale
in the US -- that's 117 million people --
cioè 117 milioni di persone,
in facial recognition networks.
per il riconoscimento facciale.
at these networks unregulated,
utilizzare queste reti non regolamentate,
been audited for accuracy.
sulla loro accuratezza.
is not fail proof,
facciale non è a prova di errore,
remains a challenge.
rimane una sfida.
when we see other people
vediamo altre persone
is no laughing matter,
non è una cosa da riderci su,
for facial recognition,
per il riconoscimento facciale,
of computer vision.
della visione via computer.
of Math Destruction,"
"Armi per la Distruzione Matematica",
talks about the rising new WMDs --
ci parla dei crescenti nuovi WMD,
and destructive algorithms
misteriosi e distruttivi
to make decisions
per prendere decisioni
delle nostre vite.
Do you get insurance?
E la assicurazione?
you wanted to get into?
al quale volete andare?
for the same product
per lo stesso prodotto
[e-commerce]
to use machine learning
a usare l'apprendimento automatico
risk scores to determine
di rischio automatiche per determinare
is going to spend in prison.
deve passare in prigione.
about these decisions.
su queste decisioni.
la parzialità algoritmica
lead to fair outcomes.
a esiti giusti.
how we create more inclusive code
possiamo creare codice più inclusivo
with diverse individuals
ad ampio spettro, con diversi individui
i punti oscuri dell'altro?
how we code matters.
il modo in cui codifichiamo è importante.
as we're developing systems?
quando sviluppiamo i sistemi?
ci interessa la codifica.
to unlock immense wealth.
per liberare immense ricchezze.
to unlock even greater equality
a una uguaglianza più vasta
un pensiero aggiuntivo.
that will make up the "incoding" movement.
il movimento di "codifica inclusiva".
we can start thinking about
possiamo partire pensando
identificare le parzialità
like the ones I shared,
come quelle condivise,
il software esistente.
more inclusive training sets.
un modello formativo più inclusivo.
"Selfie per l'inclusione"
developers test and create
gli sviluppatori a provare e creare
more conscientiously
più consciamente
of the technology that we're developing.
che stiamo sviluppando.
di "codifica inclusiva",
Justice League,
la Giustizia Algoritmica,
can help fight the coded gaze.
può combattere "lo sguardo programmato".
segnalare parzialità,
diventare un collaudatore
works for all of us,
lavori per tutti noi,
and center social change.
e ci concentriamo sul cambiamento sociale.
ABOUT THE SPEAKER
Joy Buolamwini - Poet of codeJoy Buolamwini's research explores the intersection of social impact technology and inclusion.
Why you should listen
Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.
Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.
Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.
Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer. She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.
Joy Buolamwini | Speaker | TED.com