ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com
TEDxBeaconStreet

Joy Buolamwini: How I'm fighting bias in algorithms

جوی بولاموینی: من چگونه با تبعیض در الگوریتم‌ها مبارزه میکنم؟

Filmed:
1,223,943 views

جوی بولاموینی ، دانشجوی تحصیلات تکمیلی MIT در حال کار روی نرم افزار تشخیص چهره بود که متوجه مشکلی شد: نرم‌ افزار چهره‌اش رو تشخیص نمیده -- چون افرادی که الگورتیم رو تبدیل به کد کرده بودند، بهش انوع متنوعی از رنگ‌های پوست و قالب چهره انسان‌ها رو یاد نداده بودند. حالا او در ماموریتی برای مبارزه با تبعیض در یادگیری ماشین است که خودش به آن "چهره رمزی" می‌گوید. این یک سخنرانی تلنگر بخش درباره نیاز به مسئولیت در کد زدن است همانطور که الگوریتمها ابعاد بیشتر و بیشتری از زندگی‌های ما را تسخیر میکنند.
- Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion. Full bio

Double-click the English transcript below to play the video.

00:13
Helloسلام, I'm Joyشادی, a poetشاعر of codeکد,
0
1041
3134
سلام ، من جوی هستم ، شاعر کد،
00:16
on a missionماموریت to stop
an unseenغیر قابل مشاهده است forceزور that's risingرو به افزایش,
1
4199
4993
در یک ماموریت برای متوقف کردن
یک نیروی دیده نشده در حال ظهور،
00:21
a forceزور that I calledبه نام "the codedکدگذاری شده gazeخیره شدن,"
2
9216
2856
نیرویی که من آن را "نگاه رمزی" صدا می کنم
00:24
my termدوره for algorithmicالگوریتمیک biasتعصب.
3
12096
3309
اصطلاح من برای تبعیض الگوریتمی.
00:27
Algorithmicالگوریتمیک biasتعصب, like humanانسان biasتعصب,
resultsنتایج in unfairnessناعادلانه.
4
15429
4300
تبعیض الگوریتمی، مانند تبعیض انسانی
باعث نابرابری میشود.
00:31
Howeverبا این حال, algorithmsالگوریتم ها, like virusesویروس ها,
can spreadانتشار دادن biasتعصب on a massiveعظیم scaleمقیاس
5
19753
6022
با این حال،الگوریتم ها، مانند ویروس ها
می تونن در ابعاد عظیم
00:37
at a rapidسریع paceسرعت.
6
25799
1582
و سرعت زیادی، تبعیض رو گسترش یابند
00:39
Algorithmicالگوریتمیک biasتعصب can alsoهمچنین leadسرب
to exclusionaryانحصاری experiencesتجربیات
7
27943
4387
تبعیض الگوریتمی همچنین میتونه باعث
تجربیات انحصاری
00:44
and discriminatoryتبعیض آمیز practicesشیوه ها.
8
32354
2128
و اعمال تبعیض آمیز بشه.
00:46
Let me showنشان بده you what I mean.
9
34506
2061
بذارین منظورمو بهتون نشون بدم.
00:48
(Videoویدئو) Joyشادی Buolamwiniبوالاموینی: Hiسلام, cameraدوربین.
I've got a faceصورت.
10
36980
2436
[فیلم] جوی: سلام دوربین.
من یک صورت دارم.
00:52
Can you see my faceصورت?
11
40162
1864
میتونی صورتمو ببینی
00:54
No-glassesبدون عینک faceصورت?
12
42051
1625
صورت بدون عینکم رو؟
00:55
You can see her faceصورت.
13
43701
2214
تو میتونی صورتشو ببینی.
00:58
What about my faceصورت?
14
46237
2245
صورت من رو چطور؟
01:03
I've got a maskماسک. Can you see my maskماسک?
15
51890
3750
من یک ماسک دارم. می تونی ماسک من رو ببینی؟
01:08
Joyشادی Buolamwiniبوالاموینی: So how did this happenبه وقوع پیوستن?
16
56474
2365
پس چطور این اتفاق افتاد؟
01:10
Why am I sittingنشسته in frontجلوی of a computerکامپیوتر
17
58863
3141
چرا من روبه روی یک کامپیوتر نشستم
01:14
in a whiteسفید maskماسک,
18
62028
1424
به همراه یک ماسک سفید
01:15
tryingتلاش کن to be detectedشناسایی شده by a cheapارزان webcamوبکم?
19
63476
3650
و تلاش می کنم تا به وسیله یک وب کم
ارزان قیمت شناخته شوم؟
01:19
Well, when I'm not fightingدعوا کردن the codedکدگذاری شده gazeخیره شدن
20
67150
2291
خب وقتی که من
با "نگاه رمزی" مبارزه نمی کنم
01:21
as a poetشاعر of codeکد,
21
69465
1520
به عنوان یک شاعر کد،
01:23
I'm a graduateفارغ التحصیل studentدانشجو
at the MITMIT Mediaرسانه ها Labآزمایشگاه,
22
71009
3272
من یک دانشجوی تحصیلات تکمیلی
در آزمایشگاه رسانه MIT هستم
01:26
and there I have the opportunityفرصت to work
on all sortsانواع of whimsicalغافلگیر کننده projectsپروژه ها,
23
74305
4917
من آنجا فرصت دارم تا روی انواع پروژه های
جالب و خیالبافانه کار کنم
01:31
includingشامل the Aspireآرزو می کنم Mirrorآینه,
24
79246
2027
مثل آینه آرزو
01:33
a projectپروژه I did so I could projectپروژه
digitalدیجیتال masksماسک ها ontoبه سوی my reflectionانعکاس.
25
81297
5134
پروژه ای که می تواند
روی تصویر من ماسک بگذارد
01:38
So in the morningصبح, if I wanted
to feel powerfulقدرتمند,
26
86455
2350
پس در صبح، اگر من بخوام احساس قدرت کنم،
01:40
I could put on a lionشیر نر.
27
88829
1434
میتونم ماسک یک شیر رو بذارم.
01:42
If I wanted to be upliftedبالا بردن,
I mightممکن have a quoteنقل قول.
28
90287
3496
یا اگر بخواهم با روحیه باشم
می توانم یک نقل قول ببینم.
01:45
So I used genericعمومی
facialچهره recognitionبه رسمیت شناختن softwareنرم افزار
29
93807
2989
بنابراین از یک دستگاه تشخیص چهره
استفاده کردم
01:48
to buildساختن the systemسیستم,
30
96820
1351
تا این سیستم رو بسازم،
01:50
but foundپیدا شد it was really hardسخت to testتست it
unlessمگر اینکه I woreبه تن کرد a whiteسفید maskماسک.
31
98195
5103
ولی فهمیدم که واقعا بدون ماسک سفید
امکان تست این سیستم وجود نداره.
01:56
Unfortunatelyمتاسفانه, I've runاجرا کن
into this issueموضوع before.
32
104282
4346
متاسفانه قبلاً هم
به این مشکل برخورد کرده بودم
02:00
When I was an undergraduateکارشناسی
at Georgiaجورجیا Techفناوری studyingدر حال مطالعه computerکامپیوتر scienceعلوم پایه,
33
108652
4303
وقتی که در دانشگاه Gerogia Tech
دانشجوی کارشناسی رشته علوم کامپیوتر بودم،
02:04
I used to work on socialاجتماعی robotsروبات ها,
34
112979
2055
روی ربات‌های اجتماعی کار میکردم،
02:07
and one of my tasksوظایف was to get a robotربات
to playبازی peek-a-boopeek-a-boo,
35
115058
3777
و یکی از وظایفم این بود که به ربات
بازی peek-a-boo رو یاد بدم
02:10
a simpleساده turn-takingنوبت گرفتن gameبازی
36
118859
1683
یک بازی نوبتی ساده
(مثل دالّی کردن)
02:12
where partnersهمکاران coverپوشش theirخودشان faceصورت
and then uncoverبرملا کردن it sayingگفت:, "Peek-a-booPeek-a-boo!"
37
120566
4321
که تو اون به نوبت هرکی صورتشو میپوشونه و
بعد پوشش رو بر میداره و میگه "peek-a-boo"
02:16
The problemمسئله is, peek-a-boopeek-a-boo
doesn't really work if I can't see you,
38
124911
4429
مشکل اینه که، این بازی
اگر من نتونم ببینمتون فایده نداره
02:21
and my robotربات couldn'tنمی توانستم see me.
39
129364
2499
و ربات من نمی‌تونست من رو ببینه.
02:23
But I borrowedقرض گرفت my roommate'sهم اتاقی faceصورت
to get the projectپروژه doneانجام شده,
40
131887
3950
ولی من صورت هم اتاقیم رو قرض گرفتم
تا پروژم رو انجام بدم
02:27
submittedارسال شده the assignmentوظیفه,
41
135861
1380
تمرین رو انجام دادم،
02:29
and figuredشکل گرفته, you know what,
somebodyکسی elseچیز دیگری will solveحل this problemمسئله.
42
137265
3753
و فهمیدم که، میدونی چیه؟
یکی دیگه این مشکل رو حل خواهد کرد.
02:33
Not too long after,
43
141669
2003
مدت کوتاهی بعد از این ماجرا،
02:35
I was in Hongهنگ Kongکنگ
for an entrepreneurshipکارآفرینی competitionرقابت.
44
143696
4159
من برای یک مسابقه کارآفرینی
در هنگ کنگ بودم.
02:40
The organizersسازمان دهندگان decidedقرار بر این شد
to take participantsشركت كنندگان
45
148339
2694
برگزارکنندگان تصیمیم گرفتن
که شرکت کننده ها رو
02:43
on a tourتور of localمحلی start-upsراه اندازی.
46
151057
2372
به یک تور بازدید از استارتاپ های محلی ببرن
02:45
One of the start-upsراه اندازی had a socialاجتماعی robotربات,
47
153453
2715
یکی از استارتاپ‌ها یک ربات اجتماعی داشت،
02:48
and they decidedقرار بر این شد to do a demoنسخه ی نمایشی.
48
156192
1912
و تصمیم گرفتن که یک دمو برگزار کنن.
02:50
The demoنسخه ی نمایشی workedکار کرد on everybodyهمه
untilتا زمان it got to me,
49
158128
2980
دمو روی همه کار کرد تا اینکه نوبت من شد
02:53
and you can probablyشاید guessحدس بزن it.
50
161132
1923
و احتمالا میتونین حدس بزنین.
02:55
It couldn'tنمی توانستم detectتشخیص my faceصورت.
51
163079
2965
که ربات نتونست صورت من رو تشخیص بده.
02:58
I askedپرسید: the developersتوسعه دهندگان what was going on,
52
166068
2511
من از توسعه‌دهندگان ربات پرسیدم جریان چیه
03:00
and it turnedتبدیل شد out we had used the sameیکسان
genericعمومی facialچهره recognitionبه رسمیت شناختن softwareنرم افزار.
53
168603
5533
و معلوم شد که همون نرم‌افزار تشخیص چهره‌ای
رو استفاده میکردن که ما میکردیم.
03:06
Halfwayنیمه راه around the worldجهان,
54
174160
1650
اون طرف دنیا،
03:07
I learnedیاد گرفتم that algorithmicالگوریتمیک biasتعصب
can travelمسافرت رفتن as quicklyبه سرعت
55
175834
3852
من یاد گرفتم که تبعیض الگوریتمی
میتونه خیلی سریع سفر کنه
03:11
as it takes to downloadدانلود
some filesفایل ها off of the internetاینترنت.
56
179710
3170
به سرعت دانلود چندتا فایل از اینترنت.
03:15
So what's going on?
Why isn't my faceصورت beingبودن detectedشناسایی شده?
57
183745
3076
حالا جریان چیه؟
چرا صورت من تشخیص داده نشد؟
03:18
Well, we have to look
at how we give machinesماشین آلات sightمنظره.
58
186845
3356
باید ببینیم که ما چطوری به ماشین‌ها
توانایی دیدن میدیم.
03:22
Computerکامپیوتر visionچشم انداز usesاستفاده می کند
machineدستگاه learningیادگیری techniquesتکنیک
59
190225
3409
بینایی کامپیوتر برای تشخیص چهره
از تکنیک‌های یادگیری ماشین استفاده میکنه
03:25
to do facialچهره recognitionبه رسمیت شناختن.
60
193658
1880
03:27
So how this worksآثار is, you createايجاد كردن
a trainingآموزش setتنظیم with examplesمثال ها of facesچهره ها.
61
195562
3897
روش کارش اینطوریه که یک مجموعه داده آموزشی
از نمونه صورت ها درست میکنید.
03:31
This is a faceصورت. This is a faceصورت.
This is not a faceصورت.
62
199483
2818
این یک صورته. این یک صورته. این صورت نیست.
03:34
And over time, you can teachتدریس کنید a computerکامپیوتر
how to recognizeتشخیص other facesچهره ها.
63
202325
4519
و به مرور زمان، میتونین به کامپیوتر
یاد بدین که چطوری صورت هارو تشخیص بده.
03:38
Howeverبا این حال, if the trainingآموزش setsمجموعه ها
aren'tنه really that diverseمتنوع,
64
206868
3989
اما اگه مجموعه داده آموزشی
واقعا متنوع نباشه.
03:42
any faceصورت that deviatesانحراف دارد too much
from the establishedایجاد normهنجار
65
210881
3349
هر چهره‌ای که خیلی با معیار فرق کنه،
03:46
will be harderسخت تر to detectتشخیص,
66
214254
1649
تشخیصش سخت ‌تر میشه
03:47
whichکه is what was happeningاتفاق می افتد to me.
67
215927
1963
که این برای من هم پیش اومد.
03:49
But don't worryنگرانی -- there's some good newsاخبار.
68
217914
2382
ولی نگران نباشین
خبرهای خوبی برای شنیدن هستن
03:52
Trainingآموزش setsمجموعه ها don't just
materializeتحقق یابد out of nowhereهیچ جایی.
69
220320
2771
مجموعه داده آموزشی
همینطوری از ناکجا آباد نمیان.
03:55
We actuallyدر واقع can createايجاد كردن them.
70
223115
1788
در واقع ما میسازیمشون.
03:56
So there's an opportunityفرصت to createايجاد كردن
full-spectrumطیف کامل trainingآموزش setsمجموعه ها
71
224927
4176
پس این فرصت برای ساخت مجموعه‌ داده آموزشی
متنوع و فراگیر وجود داره.
04:01
that reflectمنعکس کننده a richerغنی تر
portraitپرتره of humanityبشریت.
72
229127
3824
که تصویر غنی‌تری از انسانیت رو نشون بدن.
04:04
Now you've seenمشاهده گردید in my examplesمثال ها
73
232975
2221
شما در مثال‌های من دیدین که
04:07
how socialاجتماعی robotsروبات ها
74
235220
1768
چجوری ربات‌های اجتماعی
04:09
was how I foundپیدا شد out about exclusionخروج
with algorithmicالگوریتمیک biasتعصب.
75
237012
4611
باعث کشف من درباره
محرومیت به وسیله تبعیض الگوریتمی شدن.
04:13
But algorithmicالگوریتمیک biasتعصب can alsoهمچنین leadسرب
to discriminatoryتبعیض آمیز practicesشیوه ها.
76
241647
4815
ولی تبعیض الگوریتمی میتونه
باعث رفتارهای تبعیض‌آمیز بشه
04:19
Acrossدر سراسر the US,
77
247437
1453
در سراسر ایالات متحده
04:20
policeپلیس departmentsادارات are startingراه افتادن to use
facialچهره recognitionبه رسمیت شناختن softwareنرم افزار
78
248914
4198
دپارتمان‌های پلیس شروع به استفاده
از نرم‌افزار تشخیص چهره کردن.
04:25
in theirخودشان crime-fightingمبارزه با جرم arsenalانبار مهمات.
79
253136
2459
و اون رو به تجهیزاتشون
در جنگ با جرم اضافه کردن.
04:27
Georgetownجورج تاون Lawقانون publishedمنتشر شده a reportگزارش
80
255619
2013
Georgetown Law گزارشی رو منتشر کرده که
04:29
showingنشان دادن that one in two adultsبزرگسالان
in the US -- that's 117 millionمیلیون people --
81
257656
6763
نشون میده، در ایالت متحده
از هر دو نفر یک نفر
04:36
have theirخودشان facesچهره ها
in facialچهره recognitionبه رسمیت شناختن networksشبکه های.
82
264443
3534
چیزی حدود ۱۱۷ میلیون نفر
تصاویرشون در شبکه‌های تشخیص چهره قرار داره
04:40
Policeپلیس departmentsادارات can currentlyدر حال حاضر look
at these networksشبکه های unregulatedغیرقابل کنترل است,
83
268001
4552
پلیس بدون نظارت مراجع مربوطه
میتونه به این شبکه‌ها نگاه کنه
04:44
usingاستفاده كردن algorithmsالگوریتم ها that have not
been auditedحسابرسی شده for accuracyدقت.
84
272577
4286
اونم با استفاده از الگوریتم‌هایی که
صحتشون تایید نشده.
04:48
Yetهنوز we know facialچهره recognitionبه رسمیت شناختن
is not failشکست proofاثبات,
85
276887
3864
با این وجود میدونیم که
تشخیص چهره، عاری از خطا نیست
04:52
and labelingبرچسب زدن facesچهره ها consistentlyهمواره
remainsبقایای a challengeچالش.
86
280775
4179
و مشخص کردن چهره‌ها
همیشه یک چالش باقی خواهد ماند.
04:56
You mightممکن have seenمشاهده گردید this on Facebookفیس بوک.
87
284978
1762
شاید شما اینو تو فیسبوک دیده باشین.
04:58
My friendsدوستان and I laughخنده all the time
when we see other people
88
286764
2988
من و دوستام همیشه ازینکه بقیه
اشتباه تو عکسهامون مشخص شدن خندمون میگیره.
05:01
mislabeledبرچسب نادرست in our photosعکس ها.
89
289776
2458
05:04
But misidentifyingاشتباه شناسایی a suspectedمشکوک criminalجنایی
is no laughingخندیدن matterموضوع,
90
292258
5591
ولی تشخیص اشتباه یک مظنون جنایی
اصلا چیز خنده داری نیست.
05:09
norنه is breachingنقض civilمدنی libertiesآزادی ها.
91
297873
2827
نقض آزادی‌های مدنی هم همینطور.
05:12
Machineدستگاه learningیادگیری is beingبودن used
for facialچهره recognitionبه رسمیت شناختن,
92
300724
3205
برای تشخیص چهره،
از یادگیری ماشین داره استفاده میشه
05:15
but it's alsoهمچنین extendingگسترش دادن beyondفراتر the realmقلمرو
of computerکامپیوتر visionچشم انداز.
93
303953
4505
ولی یادگیری ماشین
فراتر از محدوده بینایی ماشین هست.
05:21
In her bookکتاب, "Weaponsاسلحه
of Mathریاضی Destructionتخریب,"
94
309266
4016
در کتاب "سلاح‌های ریاضی مخرب"
05:25
dataداده ها scientistدانشمند Cathyکتی O'Neilاونیل
talksگفتگو about the risingرو به افزایش newجدید WMDsWMD ها --
95
313306
6681
Cathy O'Neil که یک داده شناس هست،
درباره ظهور این سلاح‌های جدید صحبت میکنه
05:32
widespreadبطور گسترده, mysteriousمرموز
and destructiveمخرب algorithmsالگوریتم ها
96
320011
4353
الگوریتم‌هایی مرموز، فراگیر و مخرب
05:36
that are increasinglyبه طور فزاینده beingبودن used
to make decisionsتصمیمات
97
324388
2964
که به طور روز افزون در حال استفاده شدن
در تصمیم گیری‌ها هستند.
05:39
that impactتأثیر more aspectsجنبه های of our livesزندگی می کند.
98
327376
3177
و روی جنبه های بیشتری از
زندگی‌های ما تاثیر میذارن.
05:42
So who getsمی شود hiredاستخدام شده or firedاخراج شد?
99
330577
1870
مثلا کی استخدام شه کی اخراج؟
05:44
Do you get that loanوام?
Do you get insuranceبیمه?
100
332471
2112
فلان وام رو بگیرین؟
بیمه بشین؟
05:46
Are you admittedپذیرفته into the collegeکالج
you wanted to get into?
101
334607
3503
در دانشگاهی که میخواهین برین پذیرفته شین؟
05:50
Do you and I payپرداخت the sameیکسان priceقیمت
for the sameیکسان productتولید - محصول
102
338134
3509
من و شما یک کالا رو از یک مکان
با یک قیمت بخریم؟
05:53
purchasedخریداری شده on the sameیکسان platformسکو?
103
341667
2442
05:56
Lawقانون enforcementاجرای is alsoهمچنین startingراه افتادن
to use machineدستگاه learningیادگیری
104
344133
3759
مجریان قانونی هم شروع به
استفاده از یادگیری ماشین
05:59
for predictiveپیش بینی policingپلیس.
105
347916
2289
برای محافظت پیشگیرانه کرده اند.
06:02
Some judgesقضات use machine-generatedدستگاه تولید شده است
riskخطر scoresنمرات to determineتعیین کنید
106
350229
3494
برخی از قاضی ها از مقدار ریسک محاسبه شده
توسط ماشین برای مشخص کردن اینکه
06:05
how long an individualفردی
is going to spendخرج کردن in prisonزندان.
107
353747
4402
یک فرد چقدر در زندان باشد، استفاده میکنند.
06:10
So we really have to think
about these decisionsتصمیمات.
108
358173
2454
پس ما باید خیلی جدی
درباره این تصمیمات فکر کنیم.
06:12
Are they fairنمایشگاه?
109
360651
1182
آیا منصفانه هستن؟
06:13
And we'veما هستیم seenمشاهده گردید that algorithmicالگوریتمیک biasتعصب
110
361857
2890
و ما تبعیض الگوریتمی رو دیده ایم
06:16
doesn't necessarilyلزوما always
leadسرب to fairنمایشگاه outcomesنتایج.
111
364771
3374
که لزوماً باعث نتایج منصفانه نمیشن.
06:20
So what can we do about it?
112
368169
1964
خب ما چه کار میتونیم بکنیم؟
06:22
Well, we can startشروع کن thinkingفكر كردن about
how we createايجاد كردن more inclusiveشامل codeکد
113
370157
3680
ما میتونیم شروع کنیم به فکر کردن
درباره ساختن کدهای غیر انحصاری تر
06:25
and employاستخدام کنید inclusiveشامل codingبرنامه نویسی practicesشیوه ها.
114
373861
2990
و رفتارهای غیر انحصاری رو
برای کد زدن استفاده کنیم.
06:28
It really startsشروع می شود with people.
115
376875
2309
همه چی واقعاً از آدم‌ها شروع میشه.
06:31
So who codesکدهای mattersمسائل.
116
379708
1961
اینکه چه کسی کُد میزنه مهمه.
06:33
Are we creatingپدید آوردن full-spectrumطیف کامل teamsتیم ها
with diverseمتنوع individualsاشخاص حقیقی
117
381693
4119
آیا ما داریم تیم هایی
با طیف مختلفی از افراد درست میکنیم؟
06:37
who can checkبررسی eachهر یک other'sدیگران blindنابینا spotsنقاط?
118
385836
2411
که بتونن نقاط ضعف همدیگه رو بررسی کنن؟
06:40
On the technicalفنی sideسمت,
how we codeکد mattersمسائل.
119
388271
3545
در سمت تکنیکال، اینکه چطوری کد میزنیم مهمه
06:43
Are we factoringفاکتورینگ in fairnessعدالت
as we're developingدر حال توسعه systemsسیستم های?
120
391840
3651
آیا وقتی که یک سیستم رو توسعه میدیم
برامون برابری یک شاخص هست؟
06:47
And finallyسرانجام, why we codeکد mattersمسائل.
121
395515
2913
و در پایان، اینکه چرا کد میزنیم مهمه.
06:50
We'veما هستیم used toolsابزار of computationalمحاسباتی creationایجاد
to unlockباز کردن immenseعظیم wealthثروت.
122
398785
5083
ما از ابزارهای کامپیوتری برای
بدست آوردن ثروت زیادی استفاده کرده ایم.
06:55
We now have the opportunityفرصت
to unlockباز کردن even greaterبزرگتر equalityبرابری
123
403892
4447
حالا این فرصت رو داریم
که حتی برابری بیشتری هم بدست بیاریم.
07:00
if we make socialاجتماعی changeتغییر دادن a priorityاولویت
124
408363
2930
به شرط اینکه
تغییر اجتماعی رو یک اولویت بذاریم
07:03
and not an afterthoughtپس انداز.
125
411317
2170
و به عنوان نه چیزی که
حالا بعدا بهش فکر میکنیم
07:06
And so these are the threeسه tenetsفرضیه ها
that will make up the "incodingتلفات" movementجنبش.
126
414008
4522
پس برای جنبش "کد غیرانحصاری"
این سه اصل رو داریم:
07:10
Who codesکدهای mattersمسائل,
127
418554
1652
اینکه کی کد میزنه مهمه،
07:12
how we codeکد mattersمسائل
128
420230
1543
اینکه چطوری کد میزنیم مهمه
07:13
and why we codeکد mattersمسائل.
129
421797
2023
و اینکه چرا کد میزنیم هم مهمه.
07:15
So to go towardsبه سمت incodingتلفات,
we can startشروع کن thinkingفكر كردن about
130
423844
3099
پس برای اینکه به این سمت بریم،
میتونیم شروع کنیم به فکر کردن
07:18
buildingساختمان platformsسیستم عامل ها that can identifyشناسایی biasتعصب
131
426967
3164
درباره ساختن پلتفرم‌هایی که
تبعیض رو تشخیص میدن
07:22
by collectingجمع آوری people'sمردم experiencesتجربیات
like the onesآنهایی که I sharedبه اشتراک گذاشته شده,
132
430155
3078
استفاده از تجربیات افراد،
مثل اونایی که من به اشتراک گذاشتم
07:25
but alsoهمچنین auditingحسابرسی existingموجود است softwareنرم افزار.
133
433257
3070
و البته نظارت و بازرسی بر نرم افزارها.
07:28
We can alsoهمچنین startشروع کن to createايجاد كردن
more inclusiveشامل trainingآموزش setsمجموعه ها.
134
436351
3765
همچنین میتونیم شروع کنیم به ساختن
مجموعه داده‌های آموزشی غیرانحصاری تر.
07:32
Imagineتصور کن a "SelfiesSelfies for Inclusionورود" campaignکمپین
135
440140
2803
کمپین "سلفی‌ برای باهم بودن" رو تصور کنید
07:34
where you and I can help
developersتوسعه دهندگان testتست and createايجاد كردن
136
442967
3655
که من و شما میتونیم
به برنامه‌نویس‌ها کمک کنیم
تا مجموعه داده‌های غیرانحصاری‌تری
بسازن و تست کنن
07:38
more inclusiveشامل trainingآموزش setsمجموعه ها.
137
446646
2093
07:41
And we can alsoهمچنین startشروع کن thinkingفكر كردن
more conscientiouslyبا وجدان
138
449302
2828
و میتونیم با وجدان بیشتری
شروع به فکر کردن کنیم
07:44
about the socialاجتماعی impactتأثیر
of the technologyتکنولوژی that we're developingدر حال توسعه.
139
452154
5391
درباره مسائلی مثل تاثیر اجتماعی
تکنولوژی که خودمون توسعش میدیم.
07:49
To get the incodingتلفات movementجنبش startedآغاز شده,
140
457569
2393
برای شروع این جنبش،
07:51
I've launchedراه اندازی شد the Algorithmicالگوریتمیک
Justiceعدالت Leagueلیگ,
141
459986
2847
من لیگ عدالت الگوریتمی رو راه‌ اندازی کردم
07:54
where anyoneهر کسی who caresمراقب باش about fairnessعدالت
can help fightمبارزه کردن the codedکدگذاری شده gazeخیره شدن.
142
462857
5872
که هرکس که به برابری اهمیت میده
میتونه برای مبارزه با نگاه رمزی مبارزه کنه
08:00
On codedgazecodedgaze.comکام, you can reportگزارش biasتعصب,
143
468753
3296
شما میتونین در سایت codedgaze.com
تبعیض ها رو گزارش بدین،
08:04
requestدرخواست auditsحسابرسی, becomeتبدیل شدن به a testerتستر
144
472073
2445
درخواست بررسی کنین،
یک تست کننده بشین
08:06
and joinپیوستن the ongoingدر دست اقدام conversationگفتگو,
145
474542
2771
و به گفتگو در جریان بپیوندید.
08:09
#codedgazecodedgaze.
146
477337
2287
codedgaze#
08:12
So I inviteدعوت you to joinپیوستن me
147
480742
2487
من شما رو دعوت میکنم که به من ملحق شین
08:15
in creatingپدید آوردن a worldجهان where technologyتکنولوژی
worksآثار for all of us,
148
483253
3719
برای ساخت جهانی که در آن، تکنولوژی
برای همه‌ی ما، نه فقط بعضی‌ها کار کنه.
08:18
not just some of us,
149
486996
1897
08:20
a worldجهان where we valueارزش inclusionگنجاندن
and centerمرکز socialاجتماعی changeتغییر دادن.
150
488917
4588
جهانی که به غیر انحصاری بودن ارزش میدیم
و تغییرات اجتماعی مورد توجهمون هست.
08:25
Thank you.
151
493529
1175
خیلی ممنون.
08:26
(Applauseتشویق و تمجید)
152
494728
4271
(تشویق حاضرین)
08:32
But I have one questionسوال:
153
500873
2854
ولی من یک سوال ازتون دارم:
08:35
Will you joinپیوستن me in the fightمبارزه کردن?
154
503751
2059
آیا به من در این مبارزه می‌پیوندید؟
08:37
(Laughterخنده)
155
505834
1285
(خنده حاضرین)
08:39
(Applauseتشویق و تمجید)
156
507143
3687
(تشویق حاضرین)
Translated by Iman Mirzadeh
Reviewed by soheila Jafari

▲Back to top

ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com