Joy Buolamwini: How I'm fighting bias in algorithms
جوی بولاموینی: من چگونه با تبعیض در الگوریتمها مبارزه میکنم؟
Joy Buolamwini's research explores the intersection of social impact technology and inclusion. Full bio
Double-click the English transcript below to play the video.
an unseen force that's rising,
یک نیروی دیده نشده در حال ظهور،
results in unfairness.
باعث نابرابری میشود.
can spread bias on a massive scale
می تونن در ابعاد عظیم
to exclusionary experiences
تجربیات انحصاری
I've got a face.
من یک صورت دارم.
ارزان قیمت شناخته شوم؟
با "نگاه رمزی" مبارزه نمی کنم
at the MIT Media Lab,
در آزمایشگاه رسانه MIT هستم
on all sorts of whimsical projects,
جالب و خیالبافانه کار کنم
digital masks onto my reflection.
روی تصویر من ماسک بگذارد
to feel powerful,
I might have a quote.
می توانم یک نقل قول ببینم.
facial recognition software
استفاده کردم
unless I wore a white mask.
امکان تست این سیستم وجود نداره.
into this issue before.
به این مشکل برخورد کرده بودم
at Georgia Tech studying computer science,
دانشجوی کارشناسی رشته علوم کامپیوتر بودم،
to play peek-a-boo,
بازی peek-a-boo رو یاد بدم
(مثل دالّی کردن)
and then uncover it saying, "Peek-a-boo!"
بعد پوشش رو بر میداره و میگه "peek-a-boo"
doesn't really work if I can't see you,
اگر من نتونم ببینمتون فایده نداره
to get the project done,
تا پروژم رو انجام بدم
somebody else will solve this problem.
یکی دیگه این مشکل رو حل خواهد کرد.
for an entrepreneurship competition.
در هنگ کنگ بودم.
to take participants
که شرکت کننده ها رو
until it got to me,
generic facial recognition software.
رو استفاده میکردن که ما میکردیم.
can travel as quickly
میتونه خیلی سریع سفر کنه
some files off of the internet.
Why isn't my face being detected?
چرا صورت من تشخیص داده نشد؟
at how we give machines sight.
توانایی دیدن میدیم.
machine learning techniques
از تکنیکهای یادگیری ماشین استفاده میکنه
a training set with examples of faces.
از نمونه صورت ها درست میکنید.
This is not a face.
how to recognize other faces.
یاد بدین که چطوری صورت هارو تشخیص بده.
aren't really that diverse,
واقعا متنوع نباشه.
from the established norm
خبرهای خوبی برای شنیدن هستن
materialize out of nowhere.
همینطوری از ناکجا آباد نمیان.
full-spectrum training sets
متنوع و فراگیر وجود داره.
portrait of humanity.
with algorithmic bias.
محرومیت به وسیله تبعیض الگوریتمی شدن.
to discriminatory practices.
باعث رفتارهای تبعیضآمیز بشه
facial recognition software
از نرمافزار تشخیص چهره کردن.
در جنگ با جرم اضافه کردن.
in the US -- that's 117 million people --
از هر دو نفر یک نفر
in facial recognition networks.
تصاویرشون در شبکههای تشخیص چهره قرار داره
at these networks unregulated,
میتونه به این شبکهها نگاه کنه
been audited for accuracy.
صحتشون تایید نشده.
is not fail proof,
تشخیص چهره، عاری از خطا نیست
remains a challenge.
همیشه یک چالش باقی خواهد ماند.
when we see other people
اشتباه تو عکسهامون مشخص شدن خندمون میگیره.
is no laughing matter,
اصلا چیز خنده داری نیست.
for facial recognition,
از یادگیری ماشین داره استفاده میشه
of computer vision.
فراتر از محدوده بینایی ماشین هست.
of Math Destruction,"
talks about the rising new WMDs --
درباره ظهور این سلاحهای جدید صحبت میکنه
and destructive algorithms
to make decisions
در تصمیم گیریها هستند.
زندگیهای ما تاثیر میذارن.
Do you get insurance?
بیمه بشین؟
you wanted to get into?
for the same product
با یک قیمت بخریم؟
to use machine learning
استفاده از یادگیری ماشین
risk scores to determine
توسط ماشین برای مشخص کردن اینکه
is going to spend in prison.
about these decisions.
درباره این تصمیمات فکر کنیم.
lead to fair outcomes.
how we create more inclusive code
درباره ساختن کدهای غیر انحصاری تر
برای کد زدن استفاده کنیم.
with diverse individuals
با طیف مختلفی از افراد درست میکنیم؟
how we code matters.
as we're developing systems?
برامون برابری یک شاخص هست؟
to unlock immense wealth.
بدست آوردن ثروت زیادی استفاده کرده ایم.
to unlock even greater equality
که حتی برابری بیشتری هم بدست بیاریم.
تغییر اجتماعی رو یک اولویت بذاریم
حالا بعدا بهش فکر میکنیم
that will make up the "incoding" movement.
این سه اصل رو داریم:
we can start thinking about
میتونیم شروع کنیم به فکر کردن
تبعیض رو تشخیص میدن
like the ones I shared,
مثل اونایی که من به اشتراک گذاشتم
more inclusive training sets.
مجموعه دادههای آموزشی غیرانحصاری تر.
developers test and create
به برنامهنویسها کمک کنیم
بسازن و تست کنن
more conscientiously
شروع به فکر کردن کنیم
of the technology that we're developing.
تکنولوژی که خودمون توسعش میدیم.
Justice League,
can help fight the coded gaze.
میتونه برای مبارزه با نگاه رمزی مبارزه کنه
تبعیض ها رو گزارش بدین،
یک تست کننده بشین
works for all of us,
برای همهی ما، نه فقط بعضیها کار کنه.
and center social change.
و تغییرات اجتماعی مورد توجهمون هست.
ABOUT THE SPEAKER
Joy Buolamwini - Poet of codeJoy Buolamwini's research explores the intersection of social impact technology and inclusion.
Why you should listen
Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.
Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.
Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.
Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer. She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.
Joy Buolamwini | Speaker | TED.com