ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com
TEDxBeaconStreet

Joy Buolamwini: How I'm fighting bias in algorithms

Joy Buolamwini: Cómo lucho contra el sesgo en los algoritmos

Filmed:
1,223,943 views

Como estudiante de grado en el MIT, Joy Buolamwini estaba trabajando con software de reconocimiento facial cuando se dio cuenta de un problema: el software no reconocía su rostro -- porque quienes codificaron el algoritmo no le enseñaron a identificar una amplia variedad de tonos de piel y estructuras faciales. Actualmente se encuentra en una misión para luchar contra el sesgo en el aprendizaje automático, un fenómeno que ella llama "mirada codificada". Es una charla que abre los ojos con respecto a la necesidad de responsabilidad a la hora de codificar... al tiempo que los algoritmos se apoderan cada vez de más y más aspectos de nuestras vidas.
- Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion. Full bio

Double-click the English transcript below to play the video.

00:13
HelloHola, I'm JoyAlegría, a poetpoeta of codecódigo,
0
1041
3134
Hola, soy Joy, una poetisa del código,
00:16
on a missionmisión to stop
an unseeninvisible forcefuerza that's risingcreciente,
1
4199
4993
en una misión para frenar
una fuerza invisible que crece,
00:21
a forcefuerza that I calledllamado "the codedcodificado gazemirada,"
2
9216
2856
una fuerza que llamo "mirada codificada",
00:24
my termtérmino for algorithmicalgorítmico biasparcialidad.
3
12096
3309
mi término para el sesgo algorítmico.
00:27
AlgorithmicAlgorítmico biasparcialidad, like humanhumano biasparcialidad,
resultsresultados in unfairnessinjusticia.
4
15429
4300
El sesgo algorítmico, como el humano,
se traduce en injusticia.
00:31
Howeversin embargo, algorithmsAlgoritmos, like virusesvirus,
can spreaduntado biasparcialidad on a massivemasivo scaleescala
5
19753
6022
Pero, los algoritmos, como los virus,
pueden propagar sesgos a gran escala
00:37
at a rapidrápido pacepaso.
6
25799
1582
a un ritmo acelerado.
00:39
AlgorithmicAlgorítmico biasparcialidad can alsoademás leaddirigir
to exclusionaryexcluyente experiencesexperiencias
7
27943
4387
El sesgo algorítmico puede también
generar experiencias de exclusión
00:44
and discriminatorydiscriminatorio practicespracticas.
8
32354
2128
y prácticas discriminatorias.
00:46
Let me showespectáculo you what I mean.
9
34506
2061
Les mostraré lo que quiero decir.
00:48
(VideoVídeo) JoyAlegría BuolamwiniBuolamwini: HiHola, cameracámara.
I've got a facecara.
10
36980
2436
(Video) Joy Buolamwini: Hola, cámara.
Tengo una cara.
00:52
Can you see my facecara?
11
40162
1864
¿Puedes ver mi cara?
00:54
No-glassesSin lentes facecara?
12
42051
1625
¿Sin lentes?
00:55
You can see her facecara.
13
43701
2214
Puedes ver su cara.
00:58
What about my facecara?
14
46237
2245
¿Qué tal mi cara?
01:03
I've got a maskmáscara. Can you see my maskmáscara?
15
51890
3750
Tengo una máscara. ¿Puedes verla?
01:08
JoyAlegría BuolamwiniBuolamwini: So how did this happenocurrir?
16
56474
2365
Joy Buolamwini: ¿Cómo ocurrió esto?
01:10
Why am I sittingsentado in frontfrente of a computercomputadora
17
58863
3141
¿Por qué estoy ante una computadora
01:14
in a whiteblanco maskmáscara,
18
62028
1424
con una máscara blanca,
01:15
tryingmolesto to be detecteddetectado by a cheapbarato webcamcámara web?
19
63476
3650
intentando que una cámara
barata me detecte?
01:19
Well, when I'm not fightinglucha the codedcodificado gazemirada
20
67150
2291
Cuando no lucho
contra la mirada codificada
01:21
as a poetpoeta of codecódigo,
21
69465
1520
como poetisa del código,
01:23
I'm a graduategraduado studentestudiante
at the MITMIT MediaMedios de comunicación LabLaboratorio,
22
71009
3272
soy estudiante de posgrado
en el Laboratorio de Medios del MIT,
01:26
and there I have the opportunityoportunidad to work
on all sortstipo of whimsicalcaprichoso projectsproyectos,
23
74305
4917
y allí puedo trabajar
en todo tipo de proyectos caprichosos,
01:31
includingincluso the AspireAspirar MirrorEspejo,
24
79246
2027
incluso el Aspire Mirror,
01:33
a projectproyecto I did so I could projectproyecto
digitaldigital masksmáscaras ontosobre my reflectionreflexión.
25
81297
5134
un proyecto que realicé para proyectar
máscaras digitales en mi propio reflejo.
01:38
So in the morningMañana, if I wanted
to feel powerfulpoderoso,
26
86455
2350
Entonces, de mañana,
si quería sentirme poderosa,
01:40
I could put on a lionleón.
27
88829
1434
podía convertirme en león.
01:42
If I wanted to be upliftedlevantado,
I mightpodría have a quotecitar.
28
90287
3496
Si quería inspiración,
podía usar una cita.
01:45
So I used genericgenérico
facialfacial recognitionreconocimiento softwaresoftware
29
93807
2989
Entonces, usé el software
de reconocimiento facial
01:48
to buildconstruir the systemsistema,
30
96820
1351
para crear el sistema,
01:50
but foundencontró it was really harddifícil to testprueba it
unlessa no ser que I worellevaba a whiteblanco maskmáscara.
31
98195
5103
pero me resultó muy difícil probarlo
sin colocarme una máscara blanca.
01:56
UnfortunatelyDesafortunadamente, I've runcorrer
into this issueproblema before.
32
104282
4346
Desafortunadamente, ya tuve
este problema antes.
02:00
When I was an undergraduatede licenciatura
at GeorgiaGeorgia TechTech studyingestudiando computercomputadora scienceciencia,
33
108652
4303
Cuando era estudiante de informática
en Georgia Tech,
02:04
I used to work on socialsocial robotsrobots,
34
112979
2055
solía trabajar con robots sociales,
02:07
and one of my tasksTareas was to get a robotrobot
to playjugar peek-a-boocucú,
35
115058
3777
y una de mis tareas fue lograr
que un robot jugara a esconderse,
02:10
a simplesencillo turn-takingtomar turnos gamejuego
36
118859
1683
un juego de turnos simple
donde las personas cubren sus rostros y
luego las descubren diciendo: "Aquí está".
02:12
where partnersfogonadura covercubrir theirsu facecara
and then uncoverdescubrir it sayingdiciendo, "Peek-a-booCucú!"
37
120566
4321
02:16
The problemproblema is, peek-a-boocucú
doesn't really work if I can't see you,
38
124911
4429
El problema es que el juego
no funciona, si no te pueden ver
02:21
and my robotrobot couldn'tno pudo see me.
39
129364
2499
y el robot no me veía.
02:23
But I borrowedprestado my roommate'scompañero de cuarto facecara
to get the projectproyecto donehecho,
40
131887
3950
Pero usé el rostro de mi compañera
para terminar el proyecto,
02:27
submittedpresentada the assignmentasignación,
41
135861
1380
entregué la tarea,
02:29
and figuredfigurado, you know what,
somebodyalguien elsemás will solveresolver this problemproblema.
42
137265
3753
y pensé que otra persona
resolvería este problema.
02:33
Not too long after,
43
141669
2003
Al poco tiempo,
02:35
I was in HongHong KongKong
for an entrepreneurshipemprendimiento competitioncompetencia.
44
143696
4159
me encontraba en Hong Kong
en una competencia de emprendedores.
02:40
The organizersorganizadores decideddecidido
to take participantsParticipantes
45
148339
2694
Los organizadores decidieron
llevar a los participantes
02:43
on a tourgira of locallocal start-upsnuevas empresas.
46
151057
2372
a un recorrido
por empresas locales emergentes.
02:45
One of the start-upsnuevas empresas had a socialsocial robotrobot,
47
153453
2715
Una de ellas tenía un robot social,
02:48
and they decideddecidido to do a demomanifestación.
48
156192
1912
y decidieron hacer una demostración.
02:50
The demomanifestación workedtrabajó on everybodytodos
untilhasta it got to me,
49
158128
2980
La demostración funcionó bien
hasta que llegó mi turno,
02:53
and you can probablyprobablemente guessadivinar it.
50
161132
1923
y probablemente pueden adivinar.
02:55
It couldn'tno pudo detectdetectar my facecara.
51
163079
2965
No pudo detectar mi rostro.
02:58
I askedpreguntó the developersdesarrolladores what was going on,
52
166068
2511
Pregunté a los desarrolladores qué pasaba,
03:00
and it turnedconvertido out we had used the samemismo
genericgenérico facialfacial recognitionreconocimiento softwaresoftware.
53
168603
5533
y resultó que habíamos usado el mismo
software genérico de reconocimiento.
03:06
HalfwayMedio camino around the worldmundo,
54
174160
1650
Al otro lado del mundo,
03:07
I learnedaprendido that algorithmicalgorítmico biasparcialidad
can travelviajar as quicklycon rapidez
55
175834
3852
aprendí que el sesgo algorítmico
puede viajar tan rápido
03:11
as it takes to downloaddescargar
some filesarchivos off of the internetInternet.
56
179710
3170
como el tiempo que lleva
descargar archivos de Internet.
03:15
So what's going on?
Why isn't my facecara beingsiendo detecteddetectado?
57
183745
3076
Entonces, ¿qué sucede?
¿Por qué no se detecta mi rostro?
03:18
Well, we have to look
at how we give machinesmáquinas sightvisión.
58
186845
3356
Bueno, debemos pensar
cómo hacemos que las máquinas vean.
03:22
ComputerComputadora visionvisión usesusos
machinemáquina learningaprendizaje techniquestécnicas
59
190225
3409
La visión por computadora
usa técnicas de aprendizaje de máquina
03:25
to do facialfacial recognitionreconocimiento.
60
193658
1880
para el reconocimiento facial.
03:27
So how this workstrabajos is, you createcrear
a trainingformación setconjunto with examplesejemplos of facescaras.
61
195562
3897
Se trabaja así, creando una serie
de prueba con ejemplos de rostros.
03:31
This is a facecara. This is a facecara.
This is not a facecara.
62
199483
2818
Esto es un rostro. Esto es un rostro.
Esto no lo es.
03:34
And over time, you can teachenseñar a computercomputadora
how to recognizereconocer other facescaras.
63
202325
4519
Con el tiempo, puedes enseñar
a una computadora a reconocer rostros.
03:38
Howeversin embargo, if the trainingformación setsconjuntos
aren'tno son really that diversediverso,
64
206868
3989
Sin embargo, si las series de prueba
no son realmente diversas,
03:42
any facecara that deviatesse desvía too much
from the establishedestablecido normnorma
65
210881
3349
todo rostro que se desvíe mucho
de la norma establecida
03:46
will be harderMás fuerte to detectdetectar,
66
214254
1649
será más difícil de detectar,
03:47
whichcual is what was happeningsucediendo to me.
67
215927
1963
que es lo que me sucedía a mí.
03:49
But don't worrypreocupación -- there's some good newsNoticias.
68
217914
2382
Pero no se preocupen,
tengo buenas noticias.
03:52
TrainingFormación setsconjuntos don't just
materializematerializar out of nowhereen ninguna parte.
69
220320
2771
Las series de prueba
no se materializan de la nada.
03:55
We actuallyactualmente can createcrear them.
70
223115
1788
En verdad las podemos crear.
03:56
So there's an opportunityoportunidad to createcrear
full-spectrumespectro completo trainingformación setsconjuntos
71
224927
4176
Por ende, se pueden crear
series de prueba con espectros completos
04:01
that reflectreflejar a richermás rico
portraitretrato of humanityhumanidad.
72
229127
3824
que reflejen de manera más exhaustiva
un retrato de la humanidad.
04:04
Now you've seenvisto in my examplesejemplos
73
232975
2221
Ya han visto en mis ejemplos
04:07
how socialsocial robotsrobots
74
235220
1768
cómo con los robots sociales
04:09
was how I foundencontró out about exclusionexclusión
with algorithmicalgorítmico biasparcialidad.
75
237012
4611
me enteré de la exclusión
por el sesgo algorítmico.
04:13
But algorithmicalgorítmico biasparcialidad can alsoademás leaddirigir
to discriminatorydiscriminatorio practicespracticas.
76
241647
4815
Además, el sesgo algorítmico
puede generar prácticas discriminatorias.
04:19
AcrossA través de the US,
77
247437
1453
En EE.UU.
04:20
policepolicía departmentsdepartamentos are startingcomenzando to use
facialfacial recognitionreconocimiento softwaresoftware
78
248914
4198
los departamentos de policía incorporan
software de reconocimiento facial
04:25
in theirsu crime-fightinglucha contra el crimen arsenalarsenal.
79
253136
2459
en su arsenal
para la lucha contra el crimen.
04:27
GeorgetownGeorgetown LawLey publishedpublicado a reportinforme
80
255619
2013
Georgetown publicó un informe
04:29
showingdemostración that one in two adultsadultos
in the US -- that's 117 millionmillón people --
81
257656
6763
que muestra que uno de cada dos adultos
en EE.UU., 117 millones de personas,
04:36
have theirsu facescaras
in facialfacial recognitionreconocimiento networksredes.
82
264443
3534
tiene sus rostros en redes
de reconocimiento facial.
04:40
PolicePolicía departmentsdepartamentos can currentlyactualmente look
at these networksredes unregulatedno regulado,
83
268001
4552
Los departamentos de policía hoy
tienen acceso a esas redes no reguladas,
04:44
usingutilizando algorithmsAlgoritmos that have not
been auditedauditado for accuracyexactitud.
84
272577
4286
mediante algoritmos cuya exactitud
no ha sido testeada.
04:48
YetTodavía we know facialfacial recognitionreconocimiento
is not failfallar proofprueba,
85
276887
3864
Sabemos que el reconocimiento facial
no es a prueba de fallas
04:52
and labelingetiquetado facescaras consistentlyconsecuentemente
remainspermanece a challengereto.
86
280775
4179
y etiquetar rostros de forma consistente
aún es un desafío.
04:56
You mightpodría have seenvisto this on FacebookFacebook.
87
284978
1762
Tal vez lo han visto en Facebook.
04:58
My friendsamigos and I laughrisa all the time
when we see other people
88
286764
2988
Mis amigos y yo nos reímos,
cuando vemos a otros
05:01
mislabeledmal etiquetados in our photosfotos.
89
289776
2458
mal etiquetados en nuestras fotos.
05:04
But misidentifyingidentificación errónea a suspectedsospecha criminalcriminal
is no laughingriendo matterimportar,
90
292258
5591
Pero identificar mal a un sospechoso
no es un tema para reírse,
05:09
norni is breachingviolar civilcivil libertieslibertades.
91
297873
2827
tampoco lo es violar la libertad civil.
05:12
MachineMáquina learningaprendizaje is beingsiendo used
for facialfacial recognitionreconocimiento,
92
300724
3205
El aprendizaje automático se usa
para el reconocimiento facial,
05:15
but it's alsoademás extendingextensión beyondmás allá the realmreino
of computercomputadora visionvisión.
93
303953
4505
pero también se está extendiendo
al campo de la visión por computadora.
05:21
In her booklibro, "WeaponsArmas
of MathMates DestructionDestrucción,"
94
309266
4016
En su libro, "Armas de
destrucción matemática",
05:25
datadatos scientistcientífico CathyCathy O'NeilO'Neil
talksnegociaciones about the risingcreciente newnuevo WMDsWMDs --
95
313306
6681
la científica de datos Cathy O'Neil
habla sobre los nuevos WMDs,
05:32
widespreadextendido, mysteriousmisterioso
and destructivedestructivo algorithmsAlgoritmos
96
320011
4353
algoritmos amplios,
misteriosos y destructivos
05:36
that are increasinglycada vez más beingsiendo used
to make decisionsdecisiones
97
324388
2964
que se usan cada vez más
para tomar decisiones
05:39
that impactimpacto more aspectsaspectos of our livesvive.
98
327376
3177
que influyen sobre muchos aspectos
de nuestras vidas.
05:42
So who getsse pone hiredcontratado or fireddespedido?
99
330577
1870
¿A quién se contrata o se despide?
05:44
Do you get that loanpréstamo?
Do you get insuranceseguro?
100
332471
2112
¿Recibes el préstamo?
¿Y la cobertura de seguros?
05:46
Are you admittedaceptado into the collegeUniversidad
you wanted to get into?
101
334607
3503
¿Eres aceptado en la universidad
a la que deseas entrar?
05:50
Do you and I paypaga the samemismo priceprecio
for the samemismo productproducto
102
338134
3509
¿Tú y yo pagamos el mismo precio
por el mismo producto
05:53
purchasedcomprado on the samemismo platformplataforma?
103
341667
2442
comprado en la misma plataforma?
05:56
LawLey enforcementaplicación is alsoademás startingcomenzando
to use machinemáquina learningaprendizaje
104
344133
3759
La aplicación de la ley también empieza
a usar el aprendizaje de máquina
05:59
for predictiveprofético policingvigilancia.
105
347916
2289
para la predicción de la policía.
Algunos jueces usan puntajes de riesgo
generados por máquinas para determinar
06:02
Some judgesjueces use machine-generatedgenerado por máquina
riskriesgo scorespuntuaciones to determinedeterminar
106
350229
3494
06:05
how long an individualindividual
is going to spendgastar in prisonprisión.
107
353747
4402
cuánto tiempo un individuo
permanecerá en prisión.
06:10
So we really have to think
about these decisionsdecisiones.
108
358173
2454
Así que hay que pensar
sobre estas decisiones.
06:12
Are they fairjusta?
109
360651
1182
¿Son justas?
06:13
And we'venosotros tenemos seenvisto that algorithmicalgorítmico biasparcialidad
110
361857
2890
Y hemos visto que el sesgo algorítmico
06:16
doesn't necessarilynecesariamente always
leaddirigir to fairjusta outcomesresultados.
111
364771
3374
no necesariamente lleva siempre
a resultados justos.
06:20
So what can we do about it?
112
368169
1964
Entonces, ¿qué podemos hacer al respecto?
06:22
Well, we can startcomienzo thinkingpensando about
how we createcrear more inclusiveinclusivo codecódigo
113
370157
3680
Bueno, podemos empezar a pensar en
cómo creamos un código más inclusivo
06:25
and employemplear inclusiveinclusivo codingcodificación practicespracticas.
114
373861
2990
y emplear prácticas
de codificación inclusivas.
06:28
It really startsempieza with people.
115
376875
2309
Realmente empieza con la gente.
06:31
So who codescódigos mattersasuntos.
116
379708
1961
Con los que codifican cosas.
06:33
Are we creatingcreando full-spectrumespectro completo teamsequipos
with diversediverso individualsindividuos
117
381693
4119
¿Estamos creando equipos de
amplio espectro con diversidad de personas
que pueden comprobar
los puntos ciegos de los demás?
06:37
who can checkcomprobar eachcada other'sotros blindciego spotsmanchas?
118
385836
2411
06:40
On the technicaltécnico sidelado,
how we codecódigo mattersasuntos.
119
388271
3545
Desde el punto de vista técnico,
importa cómo codificamos.
06:43
Are we factoringfactorización in fairnessjusticia
as we're developingdesarrollando systemssistemas?
120
391840
3651
¿Lo gestionamos con equidad
al desarrollar los sistemas?
06:47
And finallyfinalmente, why we codecódigo mattersasuntos.
121
395515
2913
Y finalmente, importa por qué
codificamos.
Hemos usado herramientas informáticas
06:50
We'veNosotros tenemos used toolsherramientas of computationalcomputacional creationcreación
to unlockdesbloquear immenseinmenso wealthriqueza.
122
398785
5083
para generar una riqueza inmensa.
06:55
We now have the opportunityoportunidad
to unlockdesbloquear even greatermayor equalityigualdad
123
403892
4447
Ahora tenemos la oportunidad de generar
una igualdad aún más grande
07:00
if we make socialsocial changecambio a priorityprioridad
124
408363
2930
si hacemos del cambio social una prioridad
07:03
and not an afterthoughtidea tardía.
125
411317
2170
y no solo un pensamiento.
07:06
And so these are the threeTres tenetsprincipios
that will make up the "incodingincoding" movementmovimiento.
126
414008
4522
Estos son los tres principios que
constituirán el movimiento "codificador".
07:10
Who codescódigos mattersasuntos,
127
418554
1652
Quién codifica importa,
07:12
how we codecódigo mattersasuntos
128
420230
1543
cómo codificamos importa,
07:13
and why we codecódigo mattersasuntos.
129
421797
2023
y por qué codificamos importa.
07:15
So to go towardshacia incodingincoding,
we can startcomienzo thinkingpensando about
130
423844
3099
Así que, para abordar la codificación,
podemos empezar a pensar
07:18
buildingedificio platformsplataformas that can identifyidentificar biasparcialidad
131
426967
3164
en construir plataformas
que puedan identificar sesgos
07:22
by collectingcoleccionar people'sla gente experiencesexperiencias
like the onesunos I sharedcompartido,
132
430155
3078
reuniendo experiencias de la gente
como las que compartí,
07:25
but alsoademás auditingrevisión de cuentas existingexistente softwaresoftware.
133
433257
3070
pero también auditando
el software existente.
07:28
We can alsoademás startcomienzo to createcrear
more inclusiveinclusivo trainingformación setsconjuntos.
134
436351
3765
También podemos crear
grupos de formación más inclusivos.
07:32
ImagineImagina a "SelfiesSelfies for InclusionInclusión" campaignCampaña
135
440140
2803
Imaginen una campaña de
"Selfies por la inclusión"
07:34
where you and I can help
developersdesarrolladores testprueba and createcrear
136
442967
3655
donde Uds. y yo podamos ayudar
a los desarrolladores a crear
07:38
more inclusiveinclusivo trainingformación setsconjuntos.
137
446646
2093
grupos de formación más inclusivos.
07:41
And we can alsoademás startcomienzo thinkingpensando
more conscientiouslyconcienzudamente
138
449302
2828
Y también podemos empezar a pensar
más concienzudamente
07:44
about the socialsocial impactimpacto
of the technologytecnología that we're developingdesarrollando.
139
452154
5391
sobre el impacto social de la tecnología
que estamos desarrollando.
07:49
To get the incodingincoding movementmovimiento startedempezado,
140
457569
2393
Para iniciar el movimiento
de codificación,
07:51
I've launchedlanzado the AlgorithmicAlgorítmico
JusticeJusticia LeagueLiga,
141
459986
2847
creé la Liga de la Justicia algorítmica,
07:54
where anyonenadie who carescuidados about fairnessjusticia
can help fightlucha the codedcodificado gazemirada.
142
462857
5872
donde todo el que
se preocupa por la equidad
puede ayudar a combatir
la mirada codificada.
08:00
On codedgazecodiciado.comcom, you can reportinforme biasparcialidad,
143
468753
3296
En codedgaze.com
pueden informar sesgos,
08:04
requestsolicitud auditsauditorías, becomevolverse a testerensayador
144
472073
2445
solicitar auditorías,
convertirse en un betatesters
08:06
and joinunirse the ongoingen marcha conversationconversacion,
145
474542
2771
y unirse a la conversación en curso,
08:09
#codedgazecodiciado.
146
477337
2287
#codedgaze.
08:12
So I inviteinvitación you to joinunirse me
147
480742
2487
Así que los invito a que se unan a mí
08:15
in creatingcreando a worldmundo where technologytecnología
workstrabajos for all of us,
148
483253
3719
para crear un mundo donde la tecnología
trabaje para todos nosotros,
08:18
not just some of us,
149
486996
1897
no solo para algunos de nosotros,
08:20
a worldmundo where we valuevalor inclusioninclusión
and centercentrar socialsocial changecambio.
150
488917
4588
un mundo donde se valore la inclusión
y así centrar el cambio social.
Gracias.
08:25
Thank you.
151
493529
1175
(Aplausos)
08:26
(ApplauseAplausos)
152
494728
4271
08:32
But I have one questionpregunta:
153
500873
2854
Pero tengo una pregunta:
¿Se unirán a mí en mi lucha?
08:35
Will you joinunirse me in the fightlucha?
154
503751
2059
(Risas)
08:37
(LaughterRisa)
155
505834
1285
(Aplausos)
08:39
(ApplauseAplausos)
156
507143
3687

▲Back to top

ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee