ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com
TEDxBeaconStreet

Joy Buolamwini: How I'm fighting bias in algorithms

ג׳וי בולמוויני: כיצד אני נלחמת בהטייה אלגוריתמית

Filmed:
1,223,943 views

הסטודנטית בוגרת MIT ג׳וי בולמוויני עבדה עם תוכנה לזוהוי פנים כשהבחינה בבעייה: התוכנה לא זיהתה את פניה - - כיוון שמפתחי האלגוריתם לא לימדו אותו לזהות מגוון של גווני פנים ומבני פנים. היא כעת במשימה להילחם בהטייה שיש בלמידת מכונה, תופעה שהיא מכנה ״בהייה קודית״. זו הרצאה פותחת עיניים על הצורך לאחריות בקידוד.. כיוון שאלגוריתמים משפיעים על תחומים נרחבים יותר ויותר של חיינו.
- Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion. Full bio

Double-click the English transcript below to play the video.

00:13
Helloשלום, I'm Joyשִׂמְחָה, a poetמְשׁוֹרֵר of codeקוד,
0
1041
3134
שלום, שמי ג׳וי, ואני משוררת של קוד,
00:16
on a missionמשימה to stop
an unseenבלתי נראות forceכּוֹחַ that's risingעוֹלֶה,
1
4199
4993
במשימה לעצור כח בלתי נראה שנמצא בעליה,
00:21
a forceכּוֹחַ that I calledשקוראים לו "the codedמקודד gazeמַבָּט,"
2
9216
2856
כח שקראתי לו ״בהייה קודית״,
00:24
my termטווח for algorithmicאלגוריתמי biasהֲטָיָה.
3
12096
3309
ההגדרה שלי להטייה אלגוריתמית.
00:27
Algorithmicאלגוריתמי biasהֲטָיָה, like humanבן אנוש biasהֲטָיָה,
resultsתוצאות in unfairnessחוסר הגינות.
4
15429
4300
הטייה אלגוריתמית, בדומה להטייה אנושית,
גורמת לחוסר הוגנות.
00:31
Howeverלמרות זאת, algorithmsאלגוריתמים, like virusesוירוסים,
can spreadהתפשטות biasהֲטָיָה on a massiveמַסִיבִי scaleסוּלָם
5
19753
6022
אבל אלגוריתמים, כמו וירוסים,
יכולים להפיץ את ההטייה בצורה נרחבת
00:37
at a rapidמָהִיר paceלִפְסוֹעַ.
6
25799
1582
ובקצב גבוה.
00:39
Algorithmicאלגוריתמי biasהֲטָיָה can alsoגַם leadעוֹפֶרֶת
to exclusionaryהדרה experiencesחוויות
7
27943
4387
הטייה אלגוריתמית יכולה
להוביל לחוויות פסילה
00:44
and discriminatoryמַפלֶה practicesשיטות.
8
32354
2128
ולפרקטיקות מפלות.
00:46
Let me showלְהַצִיג you what I mean.
9
34506
2061
בואו ואראה לכם למה אני מתכוונת.
00:48
(Videoוִידֵאוֹ) Joyשִׂמְחָה BuolamwiniBuolamwini: Hiהיי, cameraמַצלֵמָה.
I've got a faceפָּנִים.
10
36980
2436
שלום מצלמה, יש לי פנים.
00:52
Can you see my faceפָּנִים?
11
40162
1864
את מזהה את הפנים שלי?
00:54
No-glassesללא משקפיים faceפָּנִים?
12
42051
1625
אולי בלי משקפיים?
00:55
You can see her faceפָּנִים.
13
43701
2214
את רואה את הפנים שלה.
00:58
What about my faceפָּנִים?
14
46237
2245
מה לגבי הפנים שלי?
01:03
I've got a maskמסכה. Can you see my maskמסכה?
15
51890
3750
יש לי מסכה. את רואה אותה?
01:08
Joyשִׂמְחָה BuolamwiniBuolamwini: So how did this happenלִקְרוֹת?
16
56474
2365
אז איך זה קרה?
01:10
Why am I sittingיְשִׁיבָה in frontחֲזִית of a computerמַחשֵׁב
17
58863
3141
למה אני יושבת לפני המחשב
01:14
in a whiteלבן maskמסכה,
18
62028
1424
במסכה לבנה,
01:15
tryingמנסה to be detectedזוהה by a cheapזוֹל webcamמצלמת אינטרנט?
19
63476
3650
מנסה להיות מזוהה על ידי
מצלמת רשת זולה?
01:19
Well, when I'm not fightingלְחִימָה the codedמקודד gazeמַבָּט
20
67150
2291
ובכן, כשאני לא נלחמת בבהייה הקודית
01:21
as a poetמְשׁוֹרֵר of codeקוד,
21
69465
1520
כמשוררת של קוד,
01:23
I'm a graduateבוגר studentתלמיד
at the MITMIT Mediaכְּלֵי תִקְשׁוֹרֶת Labמַעבָּדָה,
22
71009
3272
אני סטודנטית לתואר שני במעבדת המדיה של MIT,
01:26
and there I have the opportunityהִזדַמְנוּת to work
on all sortsמיני of whimsicalגַחְמָנִי projectsפרויקטים,
23
74305
4917
ושם יש לי הזדמנות לעבוד על כל מיני
פרוייקטים גחמניים,
01:31
includingלְרַבּוֹת the Aspireלִשְׁאוֹף Mirrorמַרְאָה,
24
79246
2027
כולל ״המראה המעצימה״,
01:33
a projectפּרוֹיֶקט I did so I could projectפּרוֹיֶקט
digitalדִיגִיטָלי masksמסכות ontoעַל גַבֵּי my reflectionהִשׁתַקְפוּת.
25
81297
5134
פרוייקט שעשיתי כדי לשים מסכה דיגיטלית
על ההשתקפות שלי.
01:38
So in the morningשַׁחַר, if I wanted
to feel powerfulחָזָק,
26
86455
2350
כך שבבוקר, אם רציתי להרגיש עוצמתית,
01:40
I could put on a lionאַריֵה.
27
88829
1434
יכולתי לשים מסיכה של אריה.
01:42
If I wanted to be upliftedמוּרָם,
I mightאולי have a quoteציטוט.
28
90287
3496
אם רציתי להיות מעודדת, יכולתי לשים ציטוט.
01:45
So I used genericגנרית
facialפַּרצוּפִי recognitionהַכָּרָה softwareתוֹכנָה
29
93807
2989
ובכן, השתמשתי בתוכנת זיהוי פנים כללית
01:48
to buildלִבנוֹת the systemמערכת,
30
96820
1351
כדי לבנות את המערכת,
01:50
but foundמצאתי it was really hardקָשֶׁה to testמִבְחָן it
unlessאֶלָא אִם I woreלבש a whiteלבן maskמסכה.
31
98195
5103
אבל גיליתי שקשה לבדוק את המערכת
בלי שאלבש מסיכה לבנה.
01:56
Unfortunatelyלצערי, I've runלָרוּץ
into this issueנושא before.
32
104282
4346
לרוע המזל, נתקלתי בבעיה זו גם בעבר.
02:00
When I was an undergraduateסטודנט לתואר ראשון
at Georgiaגאורגיה Techטק studyingלומד computerמַחשֵׁב scienceמַדָע,
33
108652
4303
כשלמדתי לתואר ראשון במדעי המחשב
במכון הטכנולוגי בג׳ורג׳יה,
02:04
I used to work on socialחֶברָתִי robotsרובוטים,
34
112979
2055
עבדתי על ״רובוטים חברתיים״,
02:07
and one of my tasksמשימות was to get a robotרוֹבּוֹט
to playלְשַׂחֵק peek-a-booלהציץ- a-boo,
35
115058
3777
ואחת מהמשימות היתה ללמד רובוט לשחק מחבואים
(Peek-a-boo),
02:10
a simpleפָּשׁוּט turn-takingמפנה gameמִשְׂחָק
36
118859
1683
משחק פשוט מבוסס תורות
02:12
where partnersשותפים coverכיסוי theirשֶׁלָהֶם faceפָּנִים
and then uncoverלגלות it sayingפִּתגָם, "Peek-a-booלהציץ- a-boo!"
37
120566
4321
שבו השחקנים מכסים את פניהם, וכשהם מגלים
אותם הם אומרים ״Peek-a-boo״!
02:16
The problemבְּעָיָה is, peek-a-booלהציץ- a-boo
doesn't really work if I can't see you,
38
124911
4429
הבעייה היא שהמשחק לא עובד
אם אי אפשר לראות אותך.
02:21
and my robotרוֹבּוֹט couldn'tלא יכול see me.
39
129364
2499
והרובוט שלי לא יכל לראות אותי.
02:23
But I borrowedשָׁאוּל my roommate'sלחדר של faceפָּנִים
to get the projectפּרוֹיֶקט doneבוצע,
40
131887
3950
אבל השאלתי את פניה של השותפה לדירה שלי
כדי להשלים את הפרוייקט,
02:27
submittedהוגשה the assignmentמְשִׁימָה,
41
135861
1380
הגשתי את המשימה,
02:29
and figuredמְעוּטָר, you know what,
somebodyמִישֶׁהוּ elseאַחֵר will solveלִפְתוֹר this problemבְּעָיָה.
42
137265
3753
והנחתי שמישהו אחר
כבר יפתור את הבעייה הזאת.
02:33
Not too long after,
43
141669
2003
כעבור זמן לא רב,
02:35
I was in Hongהונג Kongקונג
for an entrepreneurshipיזמות competitionתַחֲרוּת.
44
143696
4159
הייתי בהונג קונג כמשתתפת בתחרות יזמות.
02:40
The organizersמארגנים decidedהחליט
to take participantsמשתתפים
45
148339
2694
המארגנים החליטו לקחת את המשתתפים
02:43
on a tourסיור of localמְקוֹמִי start-upsסטארט-אפים.
46
151057
2372
לסיור בין סטארטאפים מקומיים.
02:45
One of the start-upsסטארט-אפים had a socialחֶברָתִי robotרוֹבּוֹט,
47
153453
2715
באחד הסטארטאפים היה ״רובוט חברתי״,
02:48
and they decidedהחליט to do a demoהַדגָמָה.
48
156192
1912
והם החליטו לערוך הדגמה.
02:50
The demoהַדגָמָה workedעבד on everybodyכולם
untilעד it got to me,
49
158128
2980
ההדגמה עבדה על כולם עד שהגיעו אלי,
02:53
and you can probablyכנראה guessלְנַחֵשׁ it.
50
161132
1923
ואתם בטח כבר מנחשים,
02:55
It couldn'tלא יכול detectלזהות my faceפָּנִים.
51
163079
2965
הרובוט לא הצליח לזהות את פניי.
02:58
I askedשאל the developersמפתחים what was going on,
52
166068
2511
שאלתי את המפתחים למה זה קורה,
03:00
and it turnedפנה out we had used the sameאותו
genericגנרית facialפַּרצוּפִי recognitionהַכָּרָה softwareתוֹכנָה.
53
168603
5533
ומסתבר שהם השתמשו באותה תוכנה כללית
לזיהוי פנים.
03:06
Halfwayבְּחַצִי הַדֶרֶך around the worldעוֹלָם,
54
174160
1650
בצד השני של העולם,
03:07
I learnedמְלוּמָד that algorithmicאלגוריתמי biasהֲטָיָה
can travelלִנְסוֹעַ as quicklyבִּמְהִירוּת
55
175834
3852
למדתי שהטייה אלגוריתמית יכולה לנוע
באותה מהירות
03:11
as it takes to downloadהורד
some filesקבצים off of the internetאינטרנט.
56
179710
3170
שלוקח להוריד כמה קבצים מהאינטרנט.
03:15
So what's going on?
Why isn't my faceפָּנִים beingלהיות detectedזוהה?
57
183745
3076
אז מה קורה פה?
למה הפנים שלי לא מזוהות?
03:18
Well, we have to look
at how we give machinesמכונה sightמראה.
58
186845
3356
ובכן, עלינו להבין כיצד אנו נותנים למכונות
את היכולת לראות.
03:22
Computerמַחשֵׁב visionחָזוֹן usesשימו
machineמְכוֹנָה learningלְמִידָה techniquesטכניקות
59
190225
3409
ראייה ממוחשבת משתמשת
בטכניקות של למידת מכונה
03:25
to do facialפַּרצוּפִי recognitionהַכָּרָה.
60
193658
1880
כדי לבצע זיהוי פנים.
03:27
So how this worksעובד is, you createלִיצוֹר
a trainingהַדְרָכָה setמַעֲרֶכֶת with examplesדוגמאות of facesפרצופים.
61
195562
3897
הדרך בה זה עובד היא שאתה מכין
קבוצת אימון של דוגמאות של פנים.
03:31
This is a faceפָּנִים. This is a faceפָּנִים.
This is not a faceפָּנִים.
62
199483
2818
אלו פנים. אלו פנים.
אלו לא פנים.
03:34
And over time, you can teachלְלַמֵד a computerמַחשֵׁב
how to recognizeלזהות other facesפרצופים.
63
202325
4519
ואז, לאחר זמן מה, אתה יכול ללמד את
המחשב לזהות פנים אחרות.
03:38
Howeverלמרות זאת, if the trainingהַדְרָכָה setsסטים
aren'tלא really that diverseמְגוּוָן,
64
206868
3989
אבל, אם קבוצות האימון
אינן באמת מגוונות מספיק
03:42
any faceפָּנִים that deviatesחריגה too much
from the establishedמְבוּסָס normנוֹרמָה
65
210881
3349
אז כל צורת פנים שסוטה יותר מדי מהנורמה
03:46
will be harderקשה יותר to detectלזהות,
66
214254
1649
תהיה קשה לזיהוי,
03:47
whichאיזה is what was happeningמתרחש to me.
67
215927
1963
וזה מה שקרה לי.
03:49
But don't worryדאגה -- there's some good newsחֲדָשׁוֹת.
68
217914
2382
אבל אל דאגה - יש לי חדשות טובות.
03:52
Trainingהַדְרָכָה setsסטים don't just
materializeלְהִתְגַשֵׁם out of nowhereלְשׁוּם מָקוֹם.
69
220320
2771
קבוצות אימון אינן נוצרות משום מקום.
03:55
We actuallyלמעשה can createלִיצוֹר them.
70
223115
1788
אנחנו למעשה יכולים ליצור אותן.
03:56
So there's an opportunityהִזדַמְנוּת to createלִיצוֹר
full-spectrumספקטרום מלא trainingהַדְרָכָה setsסטים
71
224927
4176
כלומר יש לנו הזדמנות ליצור קבוצות אימון
שמכסות את כל הספקטרום
04:01
that reflectמשקף a richerעשירה יותר
portraitדְיוֹקָן of humanityאֶנוֹשִׁיוּת.
72
229127
3824
ומייצגות דיוקן עשיר יותר של האנושות.
04:04
Now you've seenלראות in my examplesדוגמאות
73
232975
2221
כעת ראיתם בדוגמאות שהבאתי
04:07
how socialחֶברָתִי robotsרובוטים
74
235220
1768
כיצד בעזרת רובוטים חברתיים
04:09
was how I foundמצאתי out about exclusionהוֹצָאָה מִן הַכְלַל
with algorithmicאלגוריתמי biasהֲטָיָה.
75
237012
4611
גיליתי על הטייה אלגוריתמית שגורמת לפסילה.
04:13
But algorithmicאלגוריתמי biasהֲטָיָה can alsoגַם leadעוֹפֶרֶת
to discriminatoryמַפלֶה practicesשיטות.
76
241647
4815
אבל הטייה אלגוריתמית יכולה
להוביל גם לאפלייה.
04:19
Acrossלְרוֹחָב the US,
77
247437
1453
לאורך כל ארצות הברית
04:20
policeמִשׁטָרָה departmentsמחלקות are startingהחל to use
facialפַּרצוּפִי recognitionהַכָּרָה softwareתוֹכנָה
78
248914
4198
מחלקות משטרה מתחילות
להשתמש בתוכנה לזיהוי פנים
04:25
in theirשֶׁלָהֶם crime-fightingלחימה בפשיעה arsenalמַחסָן נֶשֶׁק.
79
253136
2459
כחלק מהאמצעים ללחימה פשע.
04:27
Georgetownג'ורג'טאון Lawחוֹק publishedיצא לאור a reportלהגיש תלונה
80
255619
2013
האוניברסיטה ג'ורג'טאון לאו
פרסמה דו״ח
04:29
showingמראה that one in two adultsמבוגרים
in the US -- that's 117 millionמִילִיוֹן people --
81
257656
6763
שהפנים של אחד מכל שני בוגרים בארה״ב -
כלומר 117 מליון אנשים
04:36
have theirשֶׁלָהֶם facesפרצופים
in facialפַּרצוּפִי recognitionהַכָּרָה networksרשתות.
82
264443
3534
נמצאות ברשתות של זיהוי פנים.
04:40
Policeמִשׁטָרָה departmentsמחלקות can currentlyכַּיוֹם look
at these networksרשתות unregulatedללא פיקוח,
83
268001
4552
מחלקות משטרה משתמשות כיום ברשתות
אלו בצורה לא מוסדרת,
04:44
usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני algorithmsאלגוריתמים that have not
been auditedמבוקר for accuracyדיוק.
84
272577
4286
ומשתמשות באלגוריתמים שדיוקם לא מוודא.
04:48
Yetעדיין we know facialפַּרצוּפִי recognitionהַכָּרָה
is not failלְהִכָּשֵׁל proofהוכחה,
85
276887
3864
ועדיין, אנו יודעים שזיהוי פנים
אינו חף מטעויות,
04:52
and labelingתִיוּג facesפרצופים consistentlyבאופן עקבי
remainsשְׂרִידִים a challengeאתגר.
86
280775
4179
ותיוג פנים בעקביות נשאר אתגר.
04:56
You mightאולי have seenלראות this on Facebookפייסבוק.
87
284978
1762
אולי ראיתם זאת בפייסבוק.
04:58
My friendsחברים and I laughלִצְחוֹק all the time
when we see other people
88
286764
2988
חבריי ואני צוחקים כל הזמן כשאנו רואים
אנשים אחרים
05:01
mislabeledמוטעה in our photosתמונות.
89
289776
2458
מתוייגים בטעות בתמונות שלנו.
05:04
But misidentifyingמזויפות a suspectedחשוד criminalפְּלִילִי
is no laughingצוחק matterחוֹמֶר,
90
292258
5591
אבל זיהוי מוטעה
של חשוד בפשע אינו נושא לצחוק,
05:09
norולא is breachingפריצה civilאֶזרָחִי libertiesחירויות.
91
297873
2827
כמו גם פריצת זכויות אזרח.
05:12
Machineמְכוֹנָה learningלְמִידָה is beingלהיות used
for facialפַּרצוּפִי recognitionהַכָּרָה,
92
300724
3205
לימוד מכונה נמצא בשימוש של זיהוי פנים,
05:15
but it's alsoגַם extendingמַאֲרִיך beyondמעבר the realmתְחוּם
of computerמַחשֵׁב visionחָזוֹן.
93
303953
4505
אך זה גם מתרחב מעבר לתחום
של ראייה ממוחשבת.
05:21
In her bookסֵפֶר, "Weaponsכלי נשק
of Mathמתמטיקה Destructionהֶרֶס,"
94
309266
4016
בספרה ״נשקים של השמדה מתמטית״,
05:25
dataנתונים scientistמַדְעָן Cathyקאתי O'Neilאוניל
talksשיחות about the risingעוֹלֶה newחָדָשׁ WMDsנשק להשמדה המונית --
95
313306
6681
מדענית הנתונים קאת׳י אוניל מדברת על
העלייה של אלגוריתמים מסוג WMDs -
05:32
widespreadנָפוֹץ, mysteriousמסתורי
and destructiveהַרסָנִי algorithmsאלגוריתמים
96
320011
4353
אלגוריתמים נפוצים, מסתוריים והרסניים
05:36
that are increasinglyיותר ויותר beingלהיות used
to make decisionsהחלטות
97
324388
2964
שנמצאים בשימוש גובר למטרת קבלת החלטות
05:39
that impactפְּגִיעָה more aspectsהיבטים of our livesחיים.
98
327376
3177
שמשפיעות על עוד ועוד היבטים של חיינו.
05:42
So who getsמקבל hiredנשכר or firedנורה?
99
330577
1870
מי מתקבל לעבודה ומי מפוטר?
05:44
Do you get that loanלְהַלווֹת?
Do you get insuranceביטוח?
100
332471
2112
האם תקבל את ההלוואה?
האם תקבל את הביטוח?
05:46
Are you admittedהודה into the collegeמִכלָלָה
you wanted to get into?
101
334607
3503
האם אתה מתקבל לקולג׳ שרצית?
05:50
Do you and I payלְשַׁלֵם the sameאותו priceמחיר
for the sameאותו productמוצר
102
338134
3509
האם אתה ואני משלמים אותו מחיר
עבור אותו מוצר
05:53
purchasedנרכש on the sameאותו platformפּלַטפוֹרמָה?
103
341667
2442
שנקנה באותה פלטפורמה?
05:56
Lawחוֹק enforcementאַכִיפָה is alsoגַם startingהחל
to use machineמְכוֹנָה learningלְמִידָה
104
344133
3759
יחידות לאכיפת החוק גם מתחילות
להשתמש בלימוד מכונה
05:59
for predictiveמְנַבֵּא policingשיטור.
105
347916
2289
עבור שיטור תחזיתי.
06:02
Some judgesשופטים use machine-generatedמחשב שנוצר
riskלְהִסְתָכֵּן scoresציונים to determineלקבוע
106
350229
3494
יש שופטים שמשתמשים בציוני סיכון שהופקו ע״י
מכונה כדי להחליט
06:05
how long an individualאִישִׁי
is going to spendלְבַלוֹת in prisonבית כלא.
107
353747
4402
כמה זמן אדם יבלה בכלא.
06:10
So we really have to think
about these decisionsהחלטות.
108
358173
2454
לכן עלינו לחשוב באמת על החלטות אלו.
06:12
Are they fairהוֹגֶן?
109
360651
1182
האם הן הוגנות?
06:13
And we'veיש לנו seenלראות that algorithmicאלגוריתמי biasהֲטָיָה
110
361857
2890
וכבר ראינו שהטייה אלגורימית
06:16
doesn't necessarilyבהכרח always
leadעוֹפֶרֶת to fairהוֹגֶן outcomesתוצאות.
111
364771
3374
לא בהכרח מביאה לתוצאות הוגנות.
06:20
So what can we do about it?
112
368169
1964
אז מה ניתן לעשות בקשר לזה?
06:22
Well, we can startהַתחָלָה thinkingחושב about
how we createלִיצוֹר more inclusiveכָּלוּל codeקוד
113
370157
3680
ובכן, אנחנו יכולים להתחיל לחשוב איך ניצור
קוד יותר מכליל
06:25
and employלְהַעֲסִיק inclusiveכָּלוּל codingסִמוּל practicesשיטות.
114
373861
2990
ולממש שיטות קידוד מכלילות.
06:28
It really startsמתחיל with people.
115
376875
2309
זה באמת מתחיל באנשים.
06:31
So who codesקודים mattersעניינים.
116
379708
1961
כך שזה משנה מי מקודד.
06:33
Are we creatingיוצר full-spectrumספקטרום מלא teamsצוותים
with diverseמְגוּוָן individualsיחידים
117
381693
4119
האם אנחנו בונים צוותים מכל הספקטרום
עם אנשים שונים?
06:37
who can checkלבדוק eachכל אחד other'sאחרים blindסומא spotsכתמים?
118
385836
2411
שיכולים לבדוק את האזורים המתים של האחרים?
06:40
On the technicalטֶכנִי sideצַד,
how we codeקוד mattersעניינים.
119
388271
3545
בצד הטכני, איך אנחנו מקודדים משנה גם.
06:43
Are we factoringפקטורינג in fairnessהֲגִינוּת
as we're developingמתפתח systemsמערכות?
120
391840
3651
האם אנחנו משקללים גם הוגנות כשאנו
מפתחים מערכות?
06:47
And finallyסוף כל סוף, why we codeקוד mattersעניינים.
121
395515
2913
ולבסוף, למה אנחנו מקודדים גם משנה.
06:50
We'veללא שם: יש לנו used toolsכלים of computationalחישובית creationיצירה
to unlockלבטל נעילה immenseעצום wealthעוֹשֶׁר.
122
398785
5083
השתמשנו בכלים ממוחשבים לפתוח עושר עצום.
06:55
We now have the opportunityהִזדַמְנוּת
to unlockלבטל נעילה even greaterגדול יותר equalityשוויון
123
403892
4447
יש לנו הזדמנות כעת לפתוח אפילו יותר שוויון
07:00
if we make socialחֶברָתִי changeשינוי a priorityעדיפות
124
408363
2930
אם ניתן עדיפות לשינוי חברתי
07:03
and not an afterthoughtלאחר מחשבה.
125
411317
2170
ולא רק לאחר מעשה.
07:06
And so these are the threeשְׁלוֹשָׁה tenetsעקרונות
that will make up the "incodingמקודד" movementתְנוּעָה.
126
414008
4522
וכך אלו שלושת העיקרים של תנועת
״הקוד המכליל״.
07:10
Who codesקודים mattersעניינים,
127
418554
1652
מי שמקודד משנה,
07:12
how we codeקוד mattersעניינים
128
420230
1543
איך מקודדים משנה
07:13
and why we codeקוד mattersעניינים.
129
421797
2023
ולמה אנחנו מקודדים משנה.
07:15
So to go towardsלִקרַאת incodingמקודד,
we can startהַתחָלָה thinkingחושב about
130
423844
3099
כדי להתקדם לעבר הקוד המכליל
אנחנו יכולים להתחיל לחשוב
07:18
buildingבִּניָן platformsפלטפורמות that can identifyלזהות biasהֲטָיָה
131
426967
3164
על בניית פלטפורמות שיכולות לזהות הטייה
07:22
by collectingאיסוף people'sשל אנשים experiencesחוויות
like the onesיחידות I sharedמְשׁוּתָף,
132
430155
3078
על ידי איסוף חוויות מאנשים,
כפי שאני שיתפתי,
07:25
but alsoגַם auditingביקורת existingקיים softwareתוֹכנָה.
133
433257
3070
אך גם על ידי ביקורת של תוכנה קיימת.
07:28
We can alsoגַם startהַתחָלָה to createלִיצוֹר
more inclusiveכָּלוּל trainingהַדְרָכָה setsסטים.
134
436351
3765
אנו יכולים גם ליצור קבוצות אימון
שלמות יותר.
07:32
Imagineלדמיין a "SelfiesSelfies for Inclusionהַכלָלָה" campaignקמפיין
135
440140
2803
דמיינו קמפיין ״סלפי לשלמות״
07:34
where you and I can help
developersמפתחים testמִבְחָן and createלִיצוֹר
136
442967
3655
שבו אתם ואני יכולים לעזור למפתחים
לבדוק וליצור
07:38
more inclusiveכָּלוּל trainingהַדְרָכָה setsסטים.
137
446646
2093
קבוצות אימון שלמות יותר.
07:41
And we can alsoגַם startהַתחָלָה thinkingחושב
more conscientiouslyבזהירות
138
449302
2828
אנו יכולים גם להתחיל לחשוב
בצורה מודעת יותר
07:44
about the socialחֶברָתִי impactפְּגִיעָה
of the technologyטֶכנוֹלוֹגִיָה that we're developingמתפתח.
139
452154
5391
על ההשפעה החברתית
של הטכנולוגיה אותה אנו מפתחים.
07:49
To get the incodingמקודד movementתְנוּעָה startedהתחיל,
140
457569
2393
כדי להתחיל את תנועת ״הקוד המכליל״,
07:51
I've launchedMANAG מספר the Algorithmicאלגוריתמי
Justiceצֶדֶק Leagueלִיגָה,
141
459986
2847
השקתי את הליגה לצדק אלגוריתמי,
07:54
where anyoneכֹּל אֶחָד who caresאכפת about fairnessהֲגִינוּת
can help fightמַאֲבָק the codedמקודד gazeמַבָּט.
142
462857
5872
שבה כל אחד שאכפת לו מצדק
יכול להילחם בבהייה קודית.
08:00
On codedgazecodedgaze.comcom, you can reportלהגיש תלונה biasהֲטָיָה,
143
468753
3296
באתר codedgaze.com אתם יכולים
לדווח על הטייה,
08:04
requestבַּקָשָׁה auditsביקורת, becomeהפכו a testerבּוֹחֵן
144
472073
2445
לבקש ביקורת, להיות בודק
08:06
and joinלְהִצְטַרֵף the ongoingמתמשך conversationשִׂיחָה,
145
474542
2771
ולהצטרף לשיחה על הנושא,
08:09
#codedgazecodedgaze.
146
477337
2287
#codegaze.
08:12
So I inviteלהזמין you to joinלְהִצְטַרֵף me
147
480742
2487
אז אני מזמינה אתכם להצטרף אלי
08:15
in creatingיוצר a worldעוֹלָם where technologyטֶכנוֹלוֹגִיָה
worksעובד for all of us,
148
483253
3719
ביצירת עולם שבו הטכנולוגיה עובדת
עבור כולנו,
08:18
not just some of us,
149
486996
1897
לא רק עבור חלקינו,
08:20
a worldעוֹלָם where we valueערך inclusionהַכלָלָה
and centerמֶרְכָּז socialחֶברָתִי changeשינוי.
150
488917
4588
עולם שבו אנו מעריכים שלמות
ומתרכזים בשינוי חברתי.
08:25
Thank you.
151
493529
1175
תודה לכם.
08:26
(Applauseתְשׁוּאוֹת)
152
494728
4271
(מחיאות כפיים)
08:32
But I have one questionשְׁאֵלָה:
153
500873
2854
יש לי רק שאלה אחת:
08:35
Will you joinלְהִצְטַרֵף me in the fightמַאֲבָק?
154
503751
2059
תצטרפו אלי למאבק?
08:37
(Laughterצחוק)
155
505834
1285
(צחוק)
08:39
(Applauseתְשׁוּאוֹת)
156
507143
3687
(מחיאות כפיים)
Translated by Ilan Caner
Reviewed by Ido Dekkers

▲Back to top

ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com