Joy Buolamwini: How I'm fighting bias in algorithms
Joy Buolamwini: Wie ich Vorurteile in Algorithmen bekämpfe
Joy Buolamwini's research explores the intersection of social impact technology and inclusion. Full bio
Double-click the English transcript below to play the video.
an unseen force that's rising,
aufstrebende Macht aufzuhalten.
den "programmierten Blick".
für algorithmische Vorurteile.
Vorurteile führen zu Ungerechtigkeit.
results in unfairness.
wie Viren, Vorurteile massiv verbreiten,
can spread bias on a massive scale
to exclusionary experiences
auch zu Erfahrungen des Ausschlusses
I've got a face.
Hi, Kamera. Ich habe ein Gesicht.
Kannst du meine Maske sehen?
erkannt zu werden?
den programmierten Blick
at the MIT Media Lab,
am MIT Media Lab
on all sorts of whimsical projects,
verschiedensten, wunderlichen Projekten,
digital masks onto my reflection.
auf mein Spiegelbild projiziert.
mächtig fühlen wollte,
to feel powerful,
I might have a quote.
erschien vielleicht ein Zitat.
Software für Gesichtserkennung,
facial recognition software
unless I wore a white mask.
außer wenn ich eine weiße Maske trug.
into this issue before.
dieses Problem schon einmal begegnet.
at Georgia Tech studying computer science,
an der Georgia Tech studierte,
to play peek-a-boo,
mit einem Roboter Kuckuck zu spielen.
and then uncover it saying, "Peek-a-boo!"
und beim Aufdecken "Kuckuck!" sagt.
doesn't really work if I can't see you,
nicht, wenn man sich nicht sieht,
to get the project done,
ich das Gesicht meines Mitbewohners,
somebody else will solve this problem.
jemand anderes wird das Problem lösen."
for an entrepreneurship competition.
Unternehmer-Wettbewerb.
to take participants
örtliche Start-ups zu zeigen.
hatte einen sozialen Roboter,
until it got to me,
bei jedem bis auf mich.
generic facial recognition software.
zur Gesichtserkennung benutzt hatten.
der Welt erkannte ich,
can travel as quickly
Voreingenommenheit
some files off of the internet.
Downloads verbreiten kann.
Why isn't my face being detected?
Warum wird mein Gesicht nicht erkannt?
at how we give machines sight.
wie wir Maschinen das Sehen beibringen.
machine learning techniques
verwendet maschinelles Lernen,
a training set with examples of faces.
mit Gesichterbeispielen.
This is not a face.
Das ist kein Gesicht.
how to recognize other faces.
beibringen, andere Gesichter zu erkennen.
aren't really that diverse,
nicht sehr diversifiziert sind,
from the established norm
von der erstellten Norm abweichen,
es gibt gute Nachrichten.
materialize out of nowhere.
aus dem Nichts auf.
full-spectrum training sets
inklusive Trainingssets zu erstellen,
portrait of humanity.
der Menschheit widerspiegeln.
meiner Beispiele gesehen,
with algorithmic bias.
durch algorithmische Vorurteile erfuhr.
to discriminatory practices.
zu diskriminierendem Verhalten führen.
als Teil ihrer Kriminalitätsbekäpfung
facial recognition software
zu verwenden.
in the US -- that's 117 million people --
-- das sind 117 Mio. Menschen --
in facial recognition networks.
zur Gesichtserkennung erfasst ist.
at these networks unregulated,
uneingeschränkt auf diese zugreifen
been audited for accuracy.
nicht auf Genauigkeit überprüft wurden.
is not fail proof,
Gesichtserkennung nicht fehlerfrei ist
remains a challenge.
immer noch eine Herausforderung ist.
auf Facebook gesehen.
when we see other people
wenn andere Leute
Fotos markiert werden.
is no laughing matter,
zu verdächtigen, ist nicht zum Lachen,
for facial recognition,
wird für Gesichtserkennung,
of computer vision.
computergestütztem Sehen hinaus verwendet.
of Math Destruction,"
talks about the rising new WMDs --
über neue Massenvernichtungswaffen --
and destructive algorithms
und zerstörerische Algorithmen,
to make decisions
Entscheidungen zu treffen,
Do you get insurance?
Oder eine Versicherung?
you wanted to get into?
studieren wollen, angenommen?
for the same product
für dasselbe Produkt,
gekauft haben?
to use machine learning
maschinelles Lernen
generierte Risikoraten, um festzusetzen,
risk scores to determine
is going to spend in prison.
im Gefängnis bleiben wird.
über diese Entscheidungen nachdenken.
about these decisions.
dass algorithmische Vorurteile
lead to fair outcomes.
zu fairen Ergebnissen führen.
how we create more inclusive code
wie man inklusiveren Code schreibt
die inklusiver sind.
with diverse individuals
aus diversifizierten Individuen,
überprüfen können?
how we code matters.
eine Rolle, wie programmiert wird.
as we're developing systems?
beim Entwickeln von Systemen?
spielt auch eine Rolle.
to unlock immense wealth.
enormen Wohlstand geschaffen.
to unlock even greater equality
noch größere Gleichheit zu schaffen,
that will make up the "incoding" movement.
der "Incoding"-Bewegung.
we can start thinking about
müssen wir darüber nachdenken,
erkennen können, zu schaffen,
wie z. B. meinen,
like the ones I shared,
Software zu überprüfen.
more inclusive training sets.
inklusivere Trainingssets zu erstellen.
"Selfies für Inklusion" vor,
developers test and create
beim Testen und Entwickeln
more conscientiously
über die sozialen Auswirkungen
of the technology that we're developing.
entwickeln, nachdenken.
Justice League,
"Algorithmic Justice Leage".
can help fight the coded gaze.
den programmierten Blick zu bekämpfen.
über Voreingenommenheit berichten,
sich mir anzuschließen
works for all of us,
in der Technologie für uns alle,
and center social change.
und soziale Veränderung im Zentrum steht.
ABOUT THE SPEAKER
Joy Buolamwini - Poet of codeJoy Buolamwini's research explores the intersection of social impact technology and inclusion.
Why you should listen
Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.
Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.
Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.
Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer. She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.
Joy Buolamwini | Speaker | TED.com