ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com
TEDxBeaconStreet

Joy Buolamwini: How I'm fighting bias in algorithms

Joy Buolamwini: Mon combat contre les algorithmes biaisés

Filmed:
1,223,943 views

Joy Buolamwini, doctorante au MIT, travaillait avec des logiciels de reconnaissances faciale quand elle a remarqué un problème: le logiciel ne reconnaissait pas son visage -- parce que ceux qui avaient codé l'algorithme ne lui avait pas appris à identifier une grande variété de couleurs de peau et de structures faciales. Elle s'est donné pour mission de combattre le biais algorithmique dans le machine learning, un phénomène qu'elle nomme le « regard codé ». Cette conférence fait comprendre l'importance de la responsabilité dans le développement, sachant que les algorithmes prennent de plus en plus d'importance dans nos vies.
- Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion. Full bio

Double-click the English transcript below to play the video.

00:13
HelloSalut, I'm JoyJoy, a poetpoète of codecode,
0
1041
3134
Bonjour, je suis Joy, une poète du code
00:16
on a missionmission to stop
an unseeninvisible forceObliger that's risingen hausse,
1
4199
4993
en mission pour arrêter
une force invisible qui prend de l'ampleur
00:21
a forceObliger that I calledappelé "the codedcodé gazeregard,"
2
9216
2856
une force que j'appelle
« le regard codé »,
00:24
my termterme for algorithmicalgorithmique biasbiais.
3
12096
3309
mon terme pour le biais algorithmique.
00:27
AlgorithmicAlgorithmique biasbiais, like humanHumain biasbiais,
resultsrésultats in unfairnessinjustice.
4
15429
4300
Le biais algorithmique, comme le biais
cognitif, crée de l'injustice.
00:31
HoweverCependant, algorithmsalgorithmes, like virusesles virus,
can spreadpropager biasbiais on a massivemassif scaleéchelle
5
19753
6022
Mais les algorithmes, comme les virus,
peuvent massivement générer un biais
00:37
at a rapidrapide pacerythme.
6
25799
1582
et ce, très rapidement.
00:39
AlgorithmicAlgorithmique biasbiais can alsoaussi leadconduire
to exclusionaryd’exclusion experiencesexpériences
7
27943
4387
Le biais algorithmique peut aussi
créer des sentiments d'exclusion
00:44
and discriminatorydiscriminatoires practicespratiques.
8
32354
2128
et mener à des pratiques discriminatoires.
00:46
Let me showmontrer you what I mean.
9
34506
2061
Laissez-moi vous montrer
ce que je veux dire.
00:48
(VideoVidéo) JoyJoy BuolamwiniBuolamwini: HiSalut, cameracaméra.
I've got a facevisage.
10
36980
2436
(Video) Joy Boulamwini : Salut
webcam. J'ai un visage.
00:52
Can you see my facevisage?
11
40162
1864
Est-ce que tu peux le voir?
00:54
No-glassesNon-verres facevisage?
12
42051
1625
Et sans lunettes ?
00:55
You can see her facevisage.
13
43701
2214
Tu peux voir son visage à elle.
00:58
What about my facevisage?
14
46237
2245
Et le mien ?
01:03
I've got a maskmasque. Can you see my maskmasque?
15
51890
3750
J'ai un masque. Est-ce que tu peux
voir mon masque ?
01:08
JoyJoy BuolamwiniBuolamwini: So how did this happense produire?
16
56474
2365
Joy Boulamwini : Ça, comment
est-ce arrivé ?
01:10
Why am I sittingséance in frontde face of a computerordinateur
17
58863
3141
Pourquoi est-ce que je me retrouve
assise devant un ordinateur
01:14
in a whiteblanc maskmasque,
18
62028
1424
portant un masque blanc
01:15
tryingen essayant to be detecteddétecté by a cheappas cher webcamWebcam?
19
63476
3650
pour essayer d'être détectée
par une webcam premier prix ?
01:19
Well, when I'm not fightingcombat the codedcodé gazeregard
20
67150
2291
Quand je ne me bats pas
contre le regard codé
01:21
as a poetpoète of codecode,
21
69465
1520
en tant que poète du code,
01:23
I'm a graduatediplômé studentétudiant
at the MITMIT MediaMédias LabLab,
22
71009
3272
Je suis doctorante au Media Lab du MIT
01:26
and there I have the opportunityopportunité to work
on all sortssortes of whimsicallunatique projectsprojets,
23
74305
4917
et j'ai l'opportunité de plancher
sur plein de projets fantaisistes
01:31
includingcomprenant the AspireAspire MirrorMiroir,
24
79246
2027
dont le Miroir Aspire
01:33
a projectprojet I did so I could projectprojet
digitalnumérique masksmasques ontosur my reflectionréflexion.
25
81297
5134
que j'ai construit pour pouvoir projeter
des masques digitaux sur mon reflet.
01:38
So in the morningMatin, if I wanted
to feel powerfulpuissant,
26
86455
2350
Comme ça le matin, pour
me sentir plus forte,
01:40
I could put on a lionLion.
27
88829
1434
je pouvais projeter un lion.
01:42
If I wanted to be upliftedembarqué,
I mightpourrait have a quotecitation.
28
90287
3496
Si j'avais besoin d'encouragements,
je pouvais choisir une citation.
01:45
So I used genericgénérique
facialsoin du visage recognitionreconnaissance softwareLogiciel
29
93807
2989
J'ai donc utilisé un logiciel
de reconnaissance faciale
01:48
to buildconstruire the systemsystème,
30
96820
1351
pour construire le système,
01:50
but founda trouvé it was really harddifficile to testtester it
unlesssauf si I woreportait a whiteblanc maskmasque.
31
98195
5103
mais j'ai réalisé que je ne pouvais pas
le tester à moins de porter un masque.
01:56
UnfortunatelyMalheureusement, I've runcourir
into this issueproblème before.
32
104282
4346
Malheureusement, j'avais déjà
rencontré ce problème.
02:00
When I was an undergraduatepremier cycle
at GeorgiaGéorgie TechTech studyingen train d'étudier computerordinateur sciencescience,
33
108652
4303
Quand j'étais étudiante
en informatique à Georgia Tech,
02:04
I used to work on socialsocial robotsdes robots,
34
112979
2055
je travaillais sur les robots sociaux
02:07
and one of my tasksles tâches was to get a robotrobot
to playjouer peek-a-booPeek-a-boo,
35
115058
3777
et l'un de mes devoirs était de programmer
un robot pour qu'il joue à « Caché »,
un jeu qui se joue à tour de rôle
02:10
a simplesimple turn-takingprendre gameJeu
36
118859
1683
02:12
where partnersles partenaires covercouverture theirleur facevisage
and then uncoverdécouvrir it sayingen disant, "Peek-a-booPeek-a-boo!"
37
120566
4321
dans lequel chacun couvre son visage,
puis le découvre en disant « Coucou ! »
02:16
The problemproblème is, peek-a-booPeek-a-boo
doesn't really work if I can't see you,
38
124911
4429
Le problème, c'est que ce jeu ne peut
pas marcher si je ne peux pas vous voir
02:21
and my robotrobot couldn'tne pouvait pas see me.
39
129364
2499
et mon robot ne pouvait pas me voir.
02:23
But I borrowedemprunté my roommate'scolocataire facevisage
to get the projectprojet doneterminé,
40
131887
3950
Mais j'ai emprunté le visage de ma
colocataire pour finir le projet,
02:27
submittedsoumis the assignmentaffectation,
41
135861
1380
j'ai rendu le devoir,
02:29
and figuredfiguré, you know what,
somebodyquelqu'un elseautre will solverésoudre this problemproblème.
42
137265
3753
et je me suis dit que
quelqu'un d'autre résoudrait le problème.
02:33
Not too long after,
43
141669
2003
Peu de temps après,
02:35
I was in HongHong KongKong
for an entrepreneurshipesprit d’entreprise competitioncompétition.
44
143696
4159
j'étais à Hong Kong
pour une compétition d'entrepreneuriat.
02:40
The organizersorganisateurs decideddécidé
to take participantsparticipants
45
148339
2694
Les organisateurs ont décidé
d'emmener les participants
02:43
on a tourtour of locallocal start-upsstart-ups.
46
151057
2372
faire le tour des start-up locales.
02:45
One of the start-upsstart-ups had a socialsocial robotrobot,
47
153453
2715
L'une d'elles avait un robot social, ils
ont décidé de faire une démonstration.
02:48
and they decideddécidé to do a demodémo.
48
156192
1912
02:50
The demodémo workedtravaillé on everybodyTout le monde
untiljusqu'à it got to me,
49
158128
2980
Ça a marché avec tout le monde
jusqu'à ce que vienne mon tour,
02:53
and you can probablyProbablement guessdeviner it.
50
161132
1923
et vous pouvez sans doute deviner.
02:55
It couldn'tne pouvait pas detectdétecter my facevisage.
51
163079
2965
Le robot ne pouvait pas
détecter mon visage.
02:58
I askeda demandé the developersles développeurs what was going on,
52
166068
2511
J'ai demandé aux développeurs
ce qu'il se passait,
03:00
and it turnedtourné out we had used the sameMême
genericgénérique facialsoin du visage recognitionreconnaissance softwareLogiciel.
53
168603
5533
et en fait nous avions utilisé le même
outil de reconnaissance faciale.
03:06
HalfwayÀ mi-chemin around the worldmonde,
54
174160
1650
À l'autre bout du monde,
03:07
I learnedappris that algorithmicalgorithmique biasbiais
can travelVoyage as quicklyrapidement
55
175834
3852
j'avais appris que le biais algorithmique
peut voyager aussi rapidement
03:11
as it takes to downloadTélécharger
some filesfichiers off of the internetl'Internet.
56
179710
3170
qu'un téléchargement de fichiers.
03:15
So what's going on?
Why isn't my facevisage beingétant detecteddétecté?
57
183745
3076
Qu'est-ce qui se passe ?
Pourquoi mon visage n'est pas détecté ?
03:18
Well, we have to look
at how we give machinesmachines sightvue.
58
186845
3356
Pour répondre, il faut comprendre comment
on donne la vue aux machines.
03:22
ComputerOrdinateur visionvision usesles usages
machinemachine learningapprentissage techniquestechniques
59
190225
3409
La vision informatique utilise
des techniques de machine learning
03:25
to do facialsoin du visage recognitionreconnaissance.
60
193658
1880
pour reconnaître des visages.
03:27
So how this workstravaux is, you createcréer
a trainingentraînement setensemble with examplesexemples of facesvisages.
61
195562
3897
Pour que ça marche, vous créez un ensemble
de formation avec des exemples.
03:31
This is a facevisage. This is a facevisage.
This is not a facevisage.
62
199483
2818
Ceci est un visage. Ceci est un visage.
Mais pas ça.
03:34
And over time, you can teachapprendre a computerordinateur
how to recognizereconnaître other facesvisages.
63
202325
4519
Au fur et à mesure, l'ordinateur apprend
comment reconnaître d'autres visages.
03:38
HoweverCependant, if the trainingentraînement setsensembles
aren'tne sont pas really that diversediverse,
64
206868
3989
Mais si les jeux de tests
ne sont pas très variés,
03:42
any facevisage that deviatess’écarte too much
from the establishedétabli normnorme
65
210881
3349
n'importe quel visage qui dévie trop
de la norme établie
03:46
will be harderPlus fort to detectdétecter,
66
214254
1649
sera plus compliqué à détecter,
03:47
whichlequel is what was happeningévénement to me.
67
215927
1963
et c'était ce qui se passait avec moi.
03:49
But don't worryinquiéter -- there's some good newsnouvelles.
68
217914
2382
Mais pas d'angoisse --
il y a de bonnes nouvelles.
03:52
TrainingFormation setsensembles don't just
materializese matérialiser out of nowherenulle part.
69
220320
2771
Les jeux de tests
n'apparaissent pas par magie.
03:55
We actuallyréellement can createcréer them.
70
223115
1788
On peut les créer nous-mêmes.
03:56
So there's an opportunityopportunité to createcréer
full-spectrumspectre complet trainingentraînement setsensembles
71
224927
4176
Il y a la possibilité de créer
des jeux de tests plus variés
04:01
that reflectréfléchir a richerplus riche
portraitportrait of humanityhumanité.
72
229127
3824
qui offrent un portrait
plus riche de l'humanité.
04:04
Now you've seenvu in my examplesexemples
73
232975
2221
Vous avez vu dans mes exemples
04:07
how socialsocial robotsdes robots
74
235220
1768
que c'est via les robots sociaux
04:09
was how I founda trouvé out about exclusionexclusion
with algorithmicalgorithmique biasbiais.
75
237012
4611
que je me suis rendu compte de l'existence
du biais algorithmique.
04:13
But algorithmicalgorithmique biasbiais can alsoaussi leadconduire
to discriminatorydiscriminatoires practicespratiques.
76
241647
4815
Mais le biais algorithmique peut aussi
mener à des pratiques discriminatoires.
04:19
AcrossDans l’ensemble the US,
77
247437
1453
Aux États-Unis,
04:20
policepolice departmentsdépartements are startingdépart to use
facialsoin du visage recognitionreconnaissance softwareLogiciel
78
248914
4198
la police commence à utiliser
des logiciels de reconnaissance faciale
04:25
in theirleur crime-fightinglutte contre la criminalité arsenalArsenal.
79
253136
2459
dans son arsenal contre le crime.
04:27
GeorgetownGeorgetown LawDroit publishedpublié a reportrapport
80
255619
2013
Georgetown Law a publié un rapport
04:29
showingmontrer that one in two adultsadultes
in the US -- that's 117 millionmillion people --
81
257656
6763
montrant qu'un adulte sur deux aux
États-Unis - 117 millions de personnes--
04:36
have theirleur facesvisages
in facialsoin du visage recognitionreconnaissance networksréseaux.
82
264443
3534
ont leur visage dans un système de
reconnaissance faciale.
04:40
PolicePolice departmentsdépartements can currentlyactuellement look
at these networksréseaux unregulatednon réglementée,
83
268001
4552
La police peut en ce moment consulter
ces systèmes non régulés,
04:44
usingen utilisant algorithmsalgorithmes that have not
been auditedaudités for accuracyprécision.
84
272577
4286
en utilisant des algorithmes
dont la fiabilité n'a pas été testée.
04:48
YetEncore we know facialsoin du visage recognitionreconnaissance
is not failéchouer proofpreuve,
85
276887
3864
Mais on sait que la reconnaissance
faciale a des failles,
04:52
and labelingl’étiquetage facesvisages consistentlyconstamment
remainsrestes a challengedéfi.
86
280775
4179
et que correctement étiqueter
un visage reste un défi.
04:56
You mightpourrait have seenvu this on FacebookFacebook.
87
284978
1762
Vous l'avez sûrement vu sur Facebook.
04:58
My friendscopains and I laughrire all the time
when we see other people
88
286764
2988
Avec mes amis, on rit souvent
quand on voit d'autres personnes
05:01
mislabeledmal étiquetés in our photosPhotos.
89
289776
2458
mal identifiées dans nos photos.
05:04
But misidentifyingidentifie par erreur a suspectedsoupçonné criminalcriminel
is no laughingen riant mattermatière,
90
292258
5591
Mais mal identifier un suspect comme étant
un criminel n'est pas drôle,
05:09
norni is breachingviolant civilcivil libertieslibertés.
91
297873
2827
et porter atteinte aux libertés civiles
non plus.
05:12
MachineMachine learningapprentissage is beingétant used
for facialsoin du visage recognitionreconnaissance,
92
300724
3205
Le machine learning est utilisé
pour la reconnaissance faciale,
05:15
but it's alsoaussi extendingextension beyondau-delà the realmdomaine
of computerordinateur visionvision.
93
303953
4505
mais s'utilise dans d'autres
domaines que la vision informatique.
05:21
In her booklivre, "WeaponsArmes
of MathMath DestructionDestruction,"
94
309266
4016
Dans son livre « Weapons
of Math Destruction »,
05:25
dataLes données scientistscientifique CathyCathy O'NeilO ' Neil
talkspourparlers about the risingen hausse newNouveau WMDsArmes de destruction massive --
95
313306
6681
la data scientist Cathy O'Neil
parle des risques de ces nouvelles armes,
05:32
widespreadrépandu, mysteriousmystérieux
and destructivedestructrice algorithmsalgorithmes
96
320011
4353
des algorithmes répandus,
mystérieux et destructeurs
05:36
that are increasinglyde plus en plus beingétant used
to make decisionsles décisions
97
324388
2964
qui sont de plus en plus utilisés
dans des prises de décision
05:39
that impactimpact more aspectsaspects of our livesvies.
98
327376
3177
qui ont un impact sur nos vies.
05:42
So who getsobtient hiredembauché or firedmis à la porte?
99
330577
1870
Qui est embauché ou renvoyé ?
05:44
Do you get that loanprêt?
Do you get insuranceAssurance?
100
332471
2112
Aurez-vous ce prêt ?
Une assurance ?
05:46
Are you admittedadmis into the collegeUniversité
you wanted to get into?
101
334607
3503
Serez-vous admis dans cette université
que vous voulez vraiment ?
05:50
Do you and I payPayer the sameMême priceprix
for the sameMême productproduit
102
338134
3509
Est-ce que vous et moi payons
le même prix pour le même produit
05:53
purchasedacheté on the sameMême platformPlate-forme?
103
341667
2442
acheté sur la même plateforme ?
05:56
LawDroit enforcementmise en vigueur is alsoaussi startingdépart
to use machinemachine learningapprentissage
104
344133
3759
Les autorités policières commencent
à utiliser le machine learning
05:59
for predictiveprédictive policingmaintien de l’ordre.
105
347916
2289
dans le cadre de la prévention policière.
06:02
Some judgesjuges use machine-generatedgénérées par ordinateur
riskrisque scoresscores to determinedéterminer
106
350229
3494
Certains juges utilisent des scores
générés par des machines
06:05
how long an individualindividuel
is going to spenddépenser in prisonprison.
107
353747
4402
pour déterminer combien de temps
un individu passera derrière les barreaux.
06:10
So we really have to think
about these decisionsles décisions.
108
358173
2454
Nous devons donc réfléchir
à ces décisions.
06:12
Are they fairjuste?
109
360651
1182
Sont-elles justes ?
06:13
And we'venous avons seenvu that algorithmicalgorithmique biasbiais
110
361857
2890
Et nous avons vu que
le biais algorithmique
06:16
doesn't necessarilynécessairement always
leadconduire to fairjuste outcomesrésultats.
111
364771
3374
ne mène pas forcément
à des décisions justes.
06:20
So what can we do about it?
112
368169
1964
Que pouvons-nous faire ?
06:22
Well, we can startdébut thinkingen pensant about
how we createcréer more inclusivecompris codecode
113
370157
3680
Nous pouvons commencer à penser
à une manière de coder plus inclusivement
06:25
and employemployer inclusivecompris codingcodage practicespratiques.
114
373861
2990
et à utiliser des pratiques
de code plus inclusives.
06:28
It really startsdéparts with people.
115
376875
2309
Tout commence avec les gens.
06:31
So who codescodes mattersimporte.
116
379708
1961
Qui code a une importance.
06:33
Are we creatingcréer full-spectrumspectre complet teamséquipes
with diversediverse individualspersonnes
117
381693
4119
Créons-nous des équipes
composées d'individus variés
06:37
who can checkvérifier eachchaque other'sautres blindaveugle spotsspots?
118
385836
2411
qui puissent vérifier mutuellement
leurs travaux ?
06:40
On the technicaltechnique sidecôté,
how we codecode mattersimporte.
119
388271
3545
D'un point de vue technique,
comment on code a de l'importance.
06:43
Are we factoringaffacturage in fairnesséquité
as we're developingdéveloppement systemssystèmes?
120
391840
3651
Ajoutons-nous la justice à l'équation
quand nous développons des systèmes ?
06:47
And finallyenfin, why we codecode mattersimporte.
121
395515
2913
Finalement, pourquoi
on code a une importance.
06:50
We'veNous avons used toolsoutils of computationalcalcul creationcréation
to unlockdéverrouiller immenseimmense wealthrichesse.
122
398785
5083
Nous avons utilisé des outils numériques
pour générer d'immenses richesses.
06:55
We now have the opportunityopportunité
to unlockdéverrouiller even greaterplus grand equalityégalité
123
403892
4447
Nous avons maintenant l'opportunité
de créer encore plus d'égalité
07:00
if we make socialsocial changechangement a prioritypriorité
124
408363
2930
si nous faisons du changement
social une priorité.
07:03
and not an afterthoughtaprès coup.
125
411317
2170
et pas une préoccupation secondaire.
07:06
And so these are the threeTrois tenetspréceptes
that will make up the "incodingincoding" movementmouvement.
126
414008
4522
Ceci seront les trois piliers
du mouvement « incoding ».
07:10
Who codescodes mattersimporte,
127
418554
1652
Qui code a de l'importance,
07:12
how we codecode mattersimporte
128
420230
1543
la manière dont on code aussi
07:13
and why we codecode mattersimporte.
129
421797
2023
et pourquoi on code également.
07:15
So to go towardsvers incodingincoding,
we can startdébut thinkingen pensant about
130
423844
3099
Pour aller vers l'incoding,
nous pouvons commencer à réfléchir
07:18
buildingbâtiment platformsplateformes that can identifyidentifier biasbiais
131
426967
3164
à comment construire des outils
pouvant identifier ce biais
07:22
by collectingrecueillir people'sles gens experiencesexpériences
like the onesceux I sharedpartagé,
132
430155
3078
via la collecte de témoignages
comme celui que j'ai partagé,
07:25
but alsoaussi auditingl’audit existingexistant softwareLogiciel.
133
433257
3070
mais qui pourraient aussi tester
des logiciels existants.
07:28
We can alsoaussi startdébut to createcréer
more inclusivecompris trainingentraînement setsensembles.
134
436351
3765
Nous pouvons commencer à créer
des jeux de tests plus complets.
07:32
ImagineImaginez a "SelfiesSelfies for InclusionInscription" campaigncampagne
135
440140
2803
Imaginez une campagne
« Selfies pour l'inclusion »,
07:34
where you and I can help
developersles développeurs testtester and createcréer
136
442967
3655
où vous et moi pourrions aider
les développeurs à tester et créer
07:38
more inclusivecompris trainingentraînement setsensembles.
137
446646
2093
ces jeux de tests plus variés.
07:41
And we can alsoaussi startdébut thinkingen pensant
more conscientiouslyen toute conscience
138
449302
2828
Nous pouvons commencer à penser
plus consciencieusement
07:44
about the socialsocial impactimpact
of the technologyLa technologie that we're developingdéveloppement.
139
452154
5391
à l'impact social
des technologies que nous développons.
07:49
To get the incodingincoding movementmouvement startedcommencé,
140
457569
2393
Pour commencer le mouvement incoding,
07:51
I've launchedlancé the AlgorithmicAlgorithmique
JusticeJustice LeagueLigue,
141
459986
2847
J'ai lancé l'Algorithmic Justice League,
07:54
where anyonen'importe qui who caresse soucie about fairnesséquité
can help fightbats toi the codedcodé gazeregard.
142
462857
5872
où n'importe qui se souciant du problème
peut aider à combattre le regard codé.
08:00
On codedgazecodedgaze.comcom, you can reportrapport biasbiais,
143
468753
3296
Sur codedgaze.com, vous pouvez
dénoncer des biais,
08:04
requestdemande auditsaudits, becomedevenir a testertesteur
144
472073
2445
demander des tests, être testeur vous-même
08:06
and joinjoindre the ongoingen cours conversationconversation,
145
474542
2771
et rejoindre la conversation,
08:09
#codedgazecodedgaze.
146
477337
2287
#codedgaze.
08:12
So I inviteinviter you to joinjoindre me
147
480742
2487
Donc je vous invite à me rejoindre
08:15
in creatingcréer a worldmonde where technologyLa technologie
workstravaux for all of us,
148
483253
3719
pour créer un monde où la technologie
marche pour nous tous,
08:18
not just some of us,
149
486996
1897
pas seulement pour certains,
08:20
a worldmonde where we valuevaleur inclusioninclusion
and centercentre socialsocial changechangement.
150
488917
4588
un monde où l'inclusion
et le changement social ont de la valeur.
08:25
Thank you.
151
493529
1175
Merci.
08:26
(ApplauseApplaudissements)
152
494728
4271
(Applaudissements)
08:32
But I have one questionquestion:
153
500873
2854
Mais j'ai une question :
08:35
Will you joinjoindre me in the fightbats toi?
154
503751
2059
Me rejoindrez-vous dans ce combat?
08:37
(LaughterRires)
155
505834
1285
(Rires)
08:39
(ApplauseApplaudissements)
156
507143
3687
(Applaudissements)
Translated by Marie P
Reviewed by eric vautier

▲Back to top

ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com