ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com
TEDxBeaconStreet

Joy Buolamwini: How I'm fighting bias in algorithms

جوي بولمويني: كيف أقاوم التحيز في الخوارزميات

Filmed:
1,223,943 views

طالبة متخرجة من إم آي تي تدعى جوي بولمويني كانت تعمل على برمجة خاصة بالتعرف على بصمة الوجه عندما لاحظت مشكلة ما: وهي أن البرمجة لم تتعرف على وجهها -- لأن من قام بتشفير الخوارزمية لم يقم بتعليم الآلة تحديد مستوى واسع من ألوان البشرة و تراكيب الوجه. الآن هي في مهمة لمكافحة التحيز في تعلم الآلة، وهي ظاهرة قامت بتسميتها "النظرة المشفرَّة." يعد هذا حديثًا منفتحًا عن الحاجة للمحاسبة في مجال التشفير... لأن الخوارزميات تستولي على المزيد والمزيد من النواحي في حياتنا.
- Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion. Full bio

Double-click the English transcript below to play the video.

00:13
Helloمرحبا, I'm Joyفرح, a poetشاعر of codeالشفرة,
0
1041
3134
مرحبا أُدعى (جوي)،
أَنظُم الشعر على الحاسوب
00:16
on a missionمهمة to stop
an unseenغير مرئي forceفرض that's risingارتفاع,
1
4199
4993
في مهمة لردع قوة ناشئة غير مرئية،
00:21
a forceفرض that I calledمسمي "the codedمشفرة gazeتحديق,"
2
9216
2856
قوة أسميتها "النظرة المشفرَّة،"
00:24
my termمصطلح for algorithmicالخوارزمية biasانحياز، نزعة.
3
12096
3309
مصطلح أطلقه عن تحيز الخوارزمية.
00:27
Algorithmicحسابي biasانحياز، نزعة, like humanبشري biasانحياز، نزعة,
resultsالنتائج in unfairnessظلم.
4
15429
4300
تحيز الخوارزمية مثل تحيز البشر
يؤدي إلى الإجحاف.
00:31
Howeverومع ذلك, algorithmsخوارزميات, like virusesالفيروسات,
can spreadانتشار biasانحياز، نزعة on a massiveكبير scaleمقياس
5
19753
6022
برغم ذلك، الخوارزميات مثل الفيروسات
يتفشى فيها التحيز على مستوى واسع
00:37
at a rapidسريعون paceسرعة.
6
25799
1582
بخطى سريعة.
00:39
Algorithmicحسابي biasانحياز، نزعة can alsoأيضا leadقيادة
to exclusionaryإقصائية experiencesخبرة
7
27943
4387
تحيز الخوارزمية قد يُفضِي إلى
وقوع حوادث إقصائية
00:44
and discriminatoryتمييزي practicesالممارسات.
8
32354
2128
و ممارسات تمييزية.
00:46
Let me showتبين you what I mean.
9
34506
2061
دعوني أوضح ما أعنيه.
00:48
(Videoفيديو) Joyفرح BuolamwiniBuolamwini: Hiمرحبا, cameraالة تصوير.
I've got a faceوجه.
10
36980
2436
(فيديو): أهلا بالكاميرا.
لدي وجه.
00:52
Can you see my faceوجه?
11
40162
1864
هل ترون وجهي؟
00:54
No-glassesبلا نظارات faceوجه?
12
42051
1625
وجه بلا نظارات؟
00:55
You can see her faceوجه.
13
43701
2214
تستطيع رؤية وجهها.
00:58
What about my faceوجه?
14
46237
2245
ماذا عن وجهي؟
01:03
I've got a maskقناع. Can you see my maskقناع?
15
51890
3750
لدي قناع. هل ترى قناعي؟
01:08
Joyفرح BuolamwiniBuolamwini: So how did this happenيحدث?
16
56474
2365
إذن كيف حدث هذا؟
01:10
Why am I sittingجلسة in frontأمامي of a computerالحاسوب
17
58863
3141
لمَ أجلس أمام حاسوب
01:14
in a whiteأبيض maskقناع,
18
62028
1424
أضع قناعًا أبيض،
01:15
tryingمحاولة to be detectedالكشف عن by a cheapرخيص webcamكاميرا ويب?
19
63476
3650
أحاول أن تكتشفني كاميرا ويب زهيدة؟
01:19
Well, when I'm not fightingقتال the codedمشفرة gazeتحديق
20
67150
2291
حسنا عندما لا أقاوم النظرة المشفرة
01:21
as a poetشاعر of codeالشفرة,
21
69465
1520
بصفتي شاعرة أستخدم التشفير،
01:23
I'm a graduateتخرج studentطالب علم
at the MITMIT Mediaوسائل الإعلام Labمختبر,
22
71009
3272
أنا طالبة دراسات عليا في
إم آي تي ميديا لاب،
01:26
and there I have the opportunityفرصة to work
on all sortsأنواع of whimsicalغريب الأطوار projectsمشاريع,
23
74305
4917
و هناك لدي الفرصة للعمل على
جميع أنواع المشروعات الغريبة،
01:31
includingبما فيها the Aspireأطمح Mirrorمرآة,
24
79246
2027
بما في ذلك ( أسباير ميرور)،
01:33
a projectمشروع I did so I could projectمشروع
digitalرقمي masksأقنعة ontoعلى my reflectionانعكاس.
25
81297
5134
مشروع قمت به لأرسم
أقنعة رقْمية على انعكاسي.
01:38
So in the morningصباح, if I wanted
to feel powerfulقوي,
26
86455
2350
لذا في الصباح إذا أردت
الشعور بالقوة،
01:40
I could put on a lionأسد.
27
88829
1434
أستطيع أن أضع قناع أسد.
01:42
If I wanted to be upliftedالرقي,
I mightربما have a quoteاقتبس.
28
90287
3496
إذا أردت أن أرفع معنوياتي،
قد أحصل على اقتباس.
01:45
So I used genericعام
facialتجميل الوجه recognitionالتعرف على softwareالبرمجيات
29
93807
2989
لذا استخدمت برمجة موسعة
للتعرف على الوجه
01:48
to buildبناء the systemالنظام,
30
96820
1351
لبناء النظام،
01:50
but foundوجدت it was really hardالصعب to testاختبار it
unlessما لم I woreلبس a whiteأبيض maskقناع.
31
98195
5103
لكني وجدت أنه من الصعب
اختباره مالم أضع قناعًا.
01:56
Unfortunatelyلسوء الحظ, I've runيركض
into this issueالقضية before.
32
104282
4346
لسوء الحظ واجهتني هذه المسألة من قبل.
02:00
When I was an undergraduateالجامعية
at Georgiaجورجيا Techالتكنولوجيا studyingدراسة عربي computerالحاسوب scienceعلم,
33
108652
4303
عندما كنت طالبة في جامعة جورجيا
التقنية أدرس علوم الحاسب،
02:04
I used to work on socialاجتماعي robotsالروبوتات,
34
112979
2055
اعتدت العمل على الروبوتات الاجتماعية،
02:07
and one of my tasksمهام was to get a robotإنسان آلي
to playلعب peek-a-booنظرة خاطفة,
35
115058
3777
و إحدى مهامي كانت أن أجعل روبوت
يلعب بيكابو (لعبة الاختفاء)،
02:10
a simpleبسيط turn-takingاخذ دور gameلعبه
36
118859
1683
لعبة بسيطة لتناوب الأدوار
02:12
where partnersشركاء coverغطاء، يغطي theirهم faceوجه
and then uncoverكشف it sayingقول, "Peek-a-booنظرة خاطفة!"
37
120566
4321
حيث يغطي الشخص وجهه
عن شريكه ثم يكشفه قائلا، "بيكابو!"
02:16
The problemمشكلة is, peek-a-booنظرة خاطفة
doesn't really work if I can't see you,
38
124911
4429
المشكلة أن هذه اللعبة لا تعمل
حقيقةً إذا لم أستطع رؤيتك،
02:21
and my robotإنسان آلي couldn'tلم أستطع see me.
39
129364
2499
و روبوتي لا يستطيع رؤيتي.
02:23
But I borrowedاقترضت، استعارت my roommate'sالحجرة faceوجه
to get the projectمشروع doneفعله,
40
131887
3950
لكني استعنت بوجه زميلتي
بالسكن لكي أنهي المشروع،
02:27
submittedقدمت the assignmentمهمة,
41
135861
1380
وقدمت المَهًمّة،
02:29
and figuredأحسب, you know what,
somebodyشخص ما elseآخر will solveحل this problemمشكلة.
42
137265
3753
ووجدت أن شخصا آخر قد حل هذه المشكلة.
02:33
Not too long after,
43
141669
2003
ليس بعد وقت طويل حينها،
02:35
I was in Hongكونغ Kongهونغ
for an entrepreneurshipريادة الأعمال competitionمنافسة.
44
143696
4159
كنت في هونغ كونغ لأجل
مسابقة في ريادة الأعمال.
02:40
The organizersمنظمو decidedقرر
to take participantsالمشاركين
45
148339
2694
قرر المنظمون أن يأخذوا المشاركين
02:43
on a tourجولة of localمحلي start-upsالطلائعية.
46
151057
2372
في جولة للشركات الناشئة المحلية.
02:45
One of the start-upsالطلائعية had a socialاجتماعي robotإنسان آلي,
47
153453
2715
إحدى هذه الشركات
كان لديها روبوت اجتماعي،
02:48
and they decidedقرر to do a demoعرض.
48
156192
1912
و قرروا استخدام عرض توضيحي.
02:50
The demoعرض workedعمل on everybodyالجميع
untilحتى it got to me,
49
158128
2980
عمل العرض التوضيحي مع الجميع
حتى جاء دوري،
02:53
and you can probablyالمحتمل guessخمن it.
50
161132
1923
ربما تستطيع تخيل الأمر.
02:55
It couldn'tلم أستطع detectالكشف my faceوجه.
51
163079
2965
لم يتعرف على وجهي.
02:58
I askedطلبت the developersالمطورين what was going on,
52
166068
2511
سألت المطورين عما يحدث،
03:00
and it turnedتحول out we had used the sameنفسه
genericعام facialتجميل الوجه recognitionالتعرف على softwareالبرمجيات.
53
168603
5533
واتضح أننا استخدمنا نفس البرمجة
العامة للتعرف على الوجه.
03:06
Halfwayفي منتصف الطريق around the worldالعالمية,
54
174160
1650
جبت نصف العالم،
03:07
I learnedتعلم that algorithmicالخوارزمية biasانحياز، نزعة
can travelالسفر as quicklyبسرعة
55
175834
3852
لأعلم أن تحيز الخوارزمية
يستطيع الانتقال بسرعة
03:11
as it takes to downloadتحميل
some filesملفات off of the internetالإنترنت.
56
179710
3170
قدر ما يأخذه الوقت لتحميل
بعض الملفات من شبكة الانترنت.
03:15
So what's going on?
Why isn't my faceوجه beingيجرى detectedالكشف عن?
57
183745
3076
إذن ما الذي يحدث؟
لم لا يتعرف على وجهي؟
03:18
Well, we have to look
at how we give machinesآلات sightمشهد.
58
186845
3356
حسنا، علينا أن ننظر إلى كيفية
تفعيل حاسة البصر عند الآلات.
03:22
Computerالحاسوب visionرؤية usesالاستخدامات
machineآلة learningتعلم techniquesتقنيات
59
190225
3409
يستخدم البصر الحاسوبي
تقنيات خاصة بتعلم الآلة
03:25
to do facialتجميل الوجه recognitionالتعرف على.
60
193658
1880
للقيام بالتعرف على الوجه.
03:27
So how this worksأعمال is, you createخلق
a trainingتدريب setجلس with examplesأمثلة of facesوجوه.
61
195562
3897
إذن يتفعل هذا بإنشاء جهاز
تدريب مزود بأمثلة للأوجه.
03:31
This is a faceوجه. This is a faceوجه.
This is not a faceوجه.
62
199483
2818
هذا وجه. هذا وجه.
هذا ليس بوجه.
03:34
And over time, you can teachعلم a computerالحاسوب
how to recognizeتعرف other facesوجوه.
63
202325
4519
وبمرور الوقت، يتعلم الحاسوب
كيف يتعرف على وجوه أخرى.
03:38
Howeverومع ذلك, if the trainingتدريب setsموعات
aren'tلا really that diverseمتنوع,
64
206868
3989
برغم ذلك، إذا لم تكن أجهزة التدريب متنوعة،
03:42
any faceوجه that deviatesينحرف too much
from the establishedأنشئت normمعيار
65
210881
3349
ووجد وجه يختلف كثيرا عن النمط القائم
03:46
will be harderأصعب to detectالكشف,
66
214254
1649
سيكون أصعب في التعرف عليه،
03:47
whichالتي is what was happeningحدث to me.
67
215927
1963
الأمر الذي حدث معي.
03:49
But don't worryقلق -- there's some good newsأخبار.
68
217914
2382
لكن لا تقلقوا -- هناك أخبار جيدة.
03:52
Trainingتدريب setsموعات don't just
materializeتجسد out of nowhereلا مكان.
69
220320
2771
أجهزة التدريب لا تحقق إنجازًا من لاشيء.
03:55
We actuallyفعلا can createخلق them.
70
223115
1788
نستطيع بالفعل أن ننشئهم.
03:56
So there's an opportunityفرصة to createخلق
full-spectrumكامل الطيف trainingتدريب setsموعات
71
224927
4176
إذن هناك فرصة لإنتاج أجهزة
تدريب تمسح الطيف الكامل
04:01
that reflectتعكس a richerثراء
portraitصورة of humanityإنسانية.
72
229127
3824
التي تعكس صورا تُثري الإنسانية أكثر.
04:04
Now you've seenرأيت in my examplesأمثلة
73
232975
2221
الآن قد رأيتم في أمثلتي
04:07
how socialاجتماعي robotsالروبوتات
74
235220
1768
كيف أن الروبوتات الاجتماعية
04:09
was how I foundوجدت out about exclusionإقصاء
with algorithmicالخوارزمية biasانحياز، نزعة.
75
237012
4611
كشفت لي الإقصاء المنتهج
في تحيز الخوارزمية.
04:13
But algorithmicالخوارزمية biasانحياز، نزعة can alsoأيضا leadقيادة
to discriminatoryتمييزي practicesالممارسات.
76
241647
4815
لكن قد يؤدي تحيز الخوارزمية
إلى الممارسات التمييزية أيضا.
04:19
Acrossعبر the US,
77
247437
1453
عبر الولايات المتحدة،
04:20
policeشرطة departmentsالإدارات are startingابتداء to use
facialتجميل الوجه recognitionالتعرف على softwareالبرمجيات
78
248914
4198
بدأت أقسام الشرطة في استخدام
برمجة التعرف على الوجه
04:25
in theirهم crime-fightingمكافحة الجريمة arsenalترسانة.
79
253136
2459
كسلاح لمكافحة الجريمة.
04:27
Georgetownجورج تاون Lawالقانون publishedنشرت a reportأبلغ عن
80
255619
2013
نشرت كلية حقوق جورج تاون تقريراً
04:29
showingتظهر that one in two adultsالكبار
in the US -- that's 117 millionمليون people --
81
257656
6763
يظهر أن بالغاً من كل اثنين في الولايات
المتحدة -- حوالى 117 مليون نسمة --
04:36
have theirهم facesوجوه
in facialتجميل الوجه recognitionالتعرف على networksالشبكات.
82
264443
3534
توجد بصمة وجهه
في شبكات التعرف على الوجه.
04:40
Policeشرطة departmentsالإدارات can currentlyحاليا look
at these networksالشبكات unregulatedغير المنظم,
83
268001
4552
تتمكن أقسام الشرطة حالياً من تفحص
هذه الشبكات بطريقة غير منظمة،
04:44
usingاستخدام algorithmsخوارزميات that have not
been auditedدققنا for accuracyصحة.
84
272577
4286
باستخدام خوارزميات لم يراع فيها الدقة.
04:48
Yetبعد we know facialتجميل الوجه recognitionالتعرف على
is not failفشل proofدليل,
85
276887
3864
حتى الآن لم يثبَت فشل التعرف على الوجه،
04:52
and labelingوضع العلامات facesوجوه consistentlyباتساق
remainsبقايا a challengeالتحدي.
86
280775
4179
ويظل تصنيف الوجوه تحدياً مستمراً.
04:56
You mightربما have seenرأيت this on Facebookفيس بوك.
87
284978
1762
قد تكون رأيت هذا في فيسبوك.
04:58
My friendsاصحاب and I laughيضحك all the time
when we see other people
88
286764
2988
أضحك كثيرا أنا وأصدقائي
عندما نرى الآخرين
05:01
mislabeledتسميتها in our photosالصور.
89
289776
2458
غير مصنَّفين في صورنا.
05:04
But misidentifyingديانة غير حقيقية a suspectedيشتبه criminalمجرم
is no laughingيضحك matterشيء,
90
292258
5591
لكن عدم تحديد مجرماً
مشتبهاً به ليس أمراً مضحكاً،
05:09
norولا is breachingاختراق civilمدني libertiesالحريات.
91
297873
2827
ولا انتهاكاً للحريات المدنية.
05:12
Machineآلة learningتعلم is beingيجرى used
for facialتجميل الوجه recognitionالتعرف على,
92
300724
3205
التعلم الآلي يستخدم في التعرف على الوجه،
05:15
but it's alsoأيضا extendingتمتد beyondوراء the realmمملكة
of computerالحاسوب visionرؤية.
93
303953
4505
لكنه أيضا يتجاوز حدود رؤية الحاسوب.
05:21
In her bookكتاب, "Weaponsأسلحة
of Mathالرياضيات Destructionتدمير,"
94
309266
4016
في كتابها، "أسلحة الدمار الحسابيّ،"
05:25
dataالبيانات scientistامن Cathyكاثي O'Neilأونيل
talksمحادثات about the risingارتفاع newالجديد WMDsأسلحة الدمار الشامل --
95
313306
6681
تحدثت عالمة البيانات (كاثي أونيل)
عن هذه الأسلحة الصاعدة --
05:32
widespreadواسع الانتشار, mysteriousغامض
and destructiveمدمرة algorithmsخوارزميات
96
320011
4353
الخوارزميات الرائجة والغامضة والمدمرة
05:36
that are increasinglyعلى نحو متزايد beingيجرى used
to make decisionsقرارات
97
324388
2964
التي تُستخدم بتزايد في اتخاذ القرارات
05:39
that impactتأثير more aspectsالنواحي of our livesالأرواح.
98
327376
3177
التي تؤثر على نواحي أكثر في حياتنا.
05:42
So who getsيحصل على hiredالتعاقد or firedمطرود?
99
330577
1870
إذن من يُوظَّف أو يُطرَد؟
05:44
Do you get that loanقرض?
Do you get insuranceتأمين?
100
332471
2112
هل تحصل على ذاك القرض؟
هل تحصل على التأمين؟
05:46
Are you admittedاعترف into the collegeكلية
you wanted to get into?
101
334607
3503
هل قُبلت بالكلية التي أردتها؟
05:50
Do you and I payدفع the sameنفسه priceالسعر
for the sameنفسه productالمنتج
102
338134
3509
هل يدفع الجميع نفس السعرعن نفس المنتج
05:53
purchasedشراء on the sameنفسه platformبرنامج?
103
341667
2442
الذي اشتُرِي من نفس المنصة؟
05:56
Lawالقانون enforcementتطبيق is alsoأيضا startingابتداء
to use machineآلة learningتعلم
104
344133
3759
بدأ مسؤولو تطبيق القانون
في استخدام التعلم الآلي
05:59
for predictiveتنبؤي policingالشرطة.
105
347916
2289
لغرض الفاعلية في حفظ الأمن.
06:02
Some judgesالقضاة use machine-generatedالمولدة آليا
riskخطر scoresدرجات to determineتحديد
106
350229
3494
بعض القضاة يحددون درجات
الخطر باستخدام الآلة لمعرفة
06:05
how long an individualفرد
is going to spendأنفق in prisonالسجن.
107
353747
4402
طول المدة التي سيقضيها الفرد في السجن.
06:10
So we really have to think
about these decisionsقرارات.
108
358173
2454
بالتالي علينا أن نفكر مليًّا
في هذه القرارات.
06:12
Are they fairمعرض?
109
360651
1182
هل هي عادلة؟
06:13
And we'veقمنا seenرأيت that algorithmicالخوارزمية biasانحياز، نزعة
110
361857
2890
و لقد رأينا أن تحيز الخوارزمية
06:16
doesn't necessarilyبالضرورة always
leadقيادة to fairمعرض outcomesالنتائج.
111
364771
3374
لا يؤدي بالضرورة إلى نتائج عادلة دائما.
06:20
So what can we do about it?
112
368169
1964
ما الذي يمكن فعله حيال هذا؟
06:22
Well, we can startبداية thinkingتفكير about
how we createخلق more inclusiveشامل codeالشفرة
113
370157
3680
حسنا، نستطيع البدء في
إنتاج تشفير أكثر تضميناً
06:25
and employتوظيف inclusiveشامل codingالترميز practicesالممارسات.
114
373861
2990
و نوظف ممارسات تشفير شاملة.
06:28
It really startsيبدأ with people.
115
376875
2309
إن الناس هم من يبادروا.
06:31
So who codesرموز mattersالقضايا.
116
379708
1961
لذا من يقوم بالتشفير له أهمية.
06:33
Are we creatingخلق full-spectrumكامل الطيف teamsفرق
with diverseمتنوع individualsالأفراد
117
381693
4119
هل ننتج مجموعات للطيف
الكامل بها أفراد متنوعين
06:37
who can checkالتحقق من eachكل other'sالآخرين blindبليند spotsبقع?
118
385836
2411
من يستطيع فحص النقاط
غير المرئية لبعضهم البعض؟
06:40
On the technicalتقني sideجانب,
how we codeالشفرة mattersالقضايا.
119
388271
3545
على الصعيد الفني،
يوجد أهمية لكيفية التشفير.
06:43
Are we factoringالعوملة in fairnessعدل
as we're developingتطوير systemsأنظمة?
120
391840
3651
هل نصنّع بعَدْل بينما نطور النظام؟
06:47
And finallyأخيرا, why we codeالشفرة mattersالقضايا.
121
395515
2913
و في النهاية لمً نقوم بالتشفير.
06:50
We'veقمنا used toolsأدوات of computationalالحسابية creationخلق
to unlockفتح immenseهائل wealthثروة.
122
398785
5083
لقد استخدمنا أدوات للإعداد الحاسوبي
لكشف الثروة الهائلة.
06:55
We now have the opportunityفرصة
to unlockفتح even greaterأكبر equalityمساواة
123
403892
4447
لدينا الآن الفرصة لكشف جودة أكبر
07:00
if we make socialاجتماعي changeيتغيرون a priorityأفضلية
124
408363
2930
إذا جعلنا من التغير الاجتماعي أولوية
07:03
and not an afterthoughtمستدركا.
125
411317
2170
و ليس كتفكير مؤجَّل.
07:06
And so these are the threeثلاثة tenetsالمبادئ
that will make up the "incodingincoding" movementحركة.
126
414008
4522
و هذه الركائز الثلاثة التي
ستشعل حركة التشفير.
07:10
Who codesرموز mattersالقضايا,
127
418554
1652
من يشفر له أهمية،
07:12
how we codeالشفرة mattersالقضايا
128
420230
1543
كيف نشفر مهم
07:13
and why we codeالشفرة mattersالقضايا.
129
421797
2023
ولمِاذا نشفر مهم أيضا.
07:15
So to go towardsتجاه incodingincoding,
we can startبداية thinkingتفكير about
130
423844
3099
إذن لنتحول للتشفير
نستطيع البدء بالتفكير في
07:18
buildingبناء platformsمنصات that can identifyتحديد biasانحياز، نزعة
131
426967
3164
بناء منصات تستطيع تحديد التحيز
07:22
by collectingجمع people'sوالناس experiencesخبرة
like the onesمنها I sharedمشترك,
132
430155
3078
بواسطة جمع خبرات الناس
مثل تلك التي شاركتها،
07:25
but alsoأيضا auditingالتدقيق existingموجود softwareالبرمجيات.
133
433257
3070
أيضا التدقيق في البرمجة الحالية.
07:28
We can alsoأيضا startبداية to createخلق
more inclusiveشامل trainingتدريب setsموعات.
134
436351
3765
نستطيع أيضا إنشاء أدوات تدريب شاملة أكثر.
07:32
Imagineتخيل a "Selfiesصور شخصية for Inclusionإدراجه" campaignحملة
135
440140
2803
تخيل حملة بعنوان" سيلفي للتضمين"
07:34
where you and I can help
developersالمطورين testاختبار and createخلق
136
442967
3655
حيث نستطيع جميعا مساعدة
المطورين لاختبار و إنتاج
07:38
more inclusiveشامل trainingتدريب setsموعات.
137
446646
2093
أجهزة تدريب أكثر شمولية.
07:41
And we can alsoأيضا startبداية thinkingتفكير
more conscientiouslyضمير
138
449302
2828
و نستطيع التفكير بطريقة أكثر وعياً
07:44
about the socialاجتماعي impactتأثير
of the technologyتقنية that we're developingتطوير.
139
452154
5391
تجاه التأثير الاجتماعي
للتكنولوجيا التي نطورها.
07:49
To get the incodingincoding movementحركة startedبدأت,
140
457569
2393
لكي نفعل حركة التشفير،
07:51
I've launchedأطلقت the Algorithmicحسابي
Justiceعدالة Leagueالدوري,
141
459986
2847
أطللقت رابطة باسم العدالة الخوارزمية،
07:54
where anyoneأي واحد who caresهموم about fairnessعدل
can help fightيقاتل the codedمشفرة gazeتحديق.
142
462857
5872
حيث يستطيع كل من يهتم بالعدل
أن يكافح ضد النظرة المشفرة.
08:00
On codedgazecodedgaze.comكوم, you can reportأبلغ عن biasانحياز، نزعة,
143
468753
3296
يمكنكم التبليغ عن التحيز على موقع
codedgaze.com
08:04
requestطلب auditsالتدقيق, becomeيصبح a testerاختبار
144
472073
2445
وتطالب بالتدقيق وتصبح مُختبِراً
08:06
and joinانضم the ongoingجاري التنفيذ conversationمحادثة,
145
474542
2771
و تنضم للمحادثة الدائرة،
08:09
#codedgazecodedgaze.
146
477337
2287
على وسْم #codegaze.
08:12
So I inviteدعا you to joinانضم me
147
480742
2487
لذا أدعوكم للانضمام إليّ
08:15
in creatingخلق a worldالعالمية where technologyتقنية
worksأعمال for all of us,
148
483253
3719
في إيجاد عالم حيث تعمل فيه
التكنولوجيا من أجل الجميع،
08:18
not just some of us,
149
486996
1897
ليس البعض منا فحسب،
08:20
a worldالعالمية where we valueالقيمة inclusionإدراجه
and centerمركز socialاجتماعي changeيتغيرون.
150
488917
4588
عالم حيث نقدّر التضمين
و نركز على التغير الاجتماعي.
08:25
Thank you.
151
493529
1175
شكرا لكم.
08:26
(Applauseتصفيق)
152
494728
4271
(تصفيق)
08:32
But I have one questionسؤال:
153
500873
2854
لكن لدي سؤال واحد:
08:35
Will you joinانضم me in the fightيقاتل?
154
503751
2059
هل ستنضمون إلي في الكفاح؟
08:37
(Laughterضحك)
155
505834
1285
(ضحك)
08:39
(Applauseتصفيق)
156
507143
3687
(تصفيق)
Translated by Alaa Eladle
Reviewed by Eatedal Saii

▲Back to top

ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee