ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com
TEDxBeaconStreet

Joy Buolamwini: How I'm fighting bias in algorithms

Joy Buolamwini: Como eu luto contra o preconceito em algoritmos

Filmed:
1,223,943 views

Joy Buolamwini, estudante de pós-graduação de MIT, trabalhava com um software de reconhecimento facial quando notou um problema: o software não reconhecia o seu rosto, porque as pessoas que tinham codificado o algoritmo não tinham pensado em identificar uma ampla variedade de tons de pele e de estruturas faciais. Agora ela está numa missão de lutar contra o preconceito em aprendizagem de máquina, um fenómeno a que ela chama "olhar codificado". É uma conversa de olhos abertos sobre a responsabilidade necessária em codificação... enquanto os algoritmos tomam conta de cada vez mais aspetos da nossa vida.
- Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion. Full bio

Double-click the English transcript below to play the video.

00:13
HelloOlá, I'm JoyAlegria, a poetpoeta of codecódigo,
0
1041
3134
Olá, sou a Joy, uma poetisa de código,
00:16
on a missionmissão to stop
an unseeninvisível forceforça that's risingAumentar,
1
4199
4993
numa missão de fazer parar
uma força invisível em ascensão,
00:21
a forceforça that I calledchamado "the codedcodificados gazeolhar,"
2
9216
2856
uma força a que eu chamo
"olhar codificado,"
00:24
my termprazo for algorithmicalgorítmica biasviés.
3
12096
3309
o meu termo para preconceito algorítmico.
00:27
AlgorithmicAlgorítmica biasviés, like humanhumano biasviés,
resultsresultados in unfairnessinjustiça.
4
15429
4300
O preconceito algorítmico, como o
preconceito humano, resulta da injustiça.
00:31
HoweverNo entanto, algorithmsalgoritmos, like virusesvírus,
can spreadespalhar biasviés on a massivemaciço scaleescala
5
19753
6022
Porém, os algoritmos, tal como os vírus,
podem espalhar preconceitos
numa grande escala
00:37
at a rapidrápido paceritmo.
6
25799
1582
num ritmo rápido.
00:39
AlgorithmicAlgorítmica biasviés can alsoAlém disso leadconduzir
to exclusionaryexclusão experiencesexperiências
7
27943
4387
O preconceito em algoritmos também
pode levar a experiências de exclusão
00:44
and discriminatorydiscriminatórias practicespráticas.
8
32354
2128
e a práticas discriminatórias.
00:46
Let me showexposição you what I mean.
9
34506
2061
Vou mostrar o que quero dizer.
00:48
(VideoVídeo) JoyAlegria BuolamwiniBuolamwini: HiOi, cameraCâmera.
I've got a facecara.
10
36980
2436
(Vídeo) Olá, câmara, eu tenho um rosto.
00:52
Can you see my facecara?
11
40162
1864
Podes ver o meu rosto?
00:54
No-glassesNão-óculos facecara?
12
42051
1625
Um rosto sem óculos?
00:55
You can see her facecara.
13
43701
2214
Podes ver o rosto dela.
00:58
What about my facecara?
14
46237
2245
E o meu rosto?
01:03
I've got a maskmascarar. Can you see my maskmascarar?
15
51890
3750
Tenho uma máscara.
Vês a minha máscara?
01:08
JoyAlegria BuolamwiniBuolamwini: So how did this happenacontecer?
16
56474
2365
Joy: Então, como é que isso aconteceu?
01:10
Why am I sittingsentado in frontfrente of a computercomputador
17
58863
3141
Porque é que eu estou em frente
de um computador
01:14
in a whitebranco maskmascarar,
18
62028
1424
com uma máscara branca,
01:15
tryingtentando to be detecteddetectado by a cheapbarato webcamwebcam?
19
63476
3650
a tentar ser detetada por
uma câmara de vídeo barata?
01:19
Well, when I'm not fightingcombate the codedcodificados gazeolhar
20
67150
2291
Quando não estou a lutar
contra o olhar codificado
01:21
as a poetpoeta of codecódigo,
21
69465
1520
como uma poetisa de código,
01:23
I'm a graduategraduado studentaluna
at the MITMIT MediaMeios de comunicação LabLaboratório,
22
71009
3272
sou uma estudante de pós-graduação
no laboratório de "media" do MIT.
01:26
and there I have the opportunityoportunidade to work
on all sortstipos of whimsicalcaprichoso projectsprojetos,
23
74305
4917
Aí tenho a oportunidade de trabalhar
em todo tipo de projetos bizarros,
01:31
includingIncluindo the AspireAspire MirrorEspelho,
24
79246
2027
incluindo o Espelho de Desejar,
01:33
a projectprojeto I did so I could projectprojeto
digitaldigital masksmáscaras ontopara my reflectionreflexão.
25
81297
5134
um projeto que fiz para poder projetar
máscaras digitais para o meu reflexo.
01:38
So in the morningmanhã, if I wanted
to feel powerfulpoderoso,
26
86455
2350
Então, pela manhã,
se quisesse sentir-me poderosa,
01:40
I could put on a lionLeão.
27
88829
1434
eu podia usar um leão.
01:42
If I wanted to be uplifteduplifted,
I mightpoderia have a quotecitar.
28
90287
3496
Se quisesse ficar inspirada,
podia ter uma citação.
01:45
So I used genericgenérico
facialtratamento facial recognitionreconhecimento softwareProgramas
29
93807
2989
Então eu usei o software
genérico de reconhecimento facial
01:48
to buildconstruir the systemsistema,
30
96820
1351
para construir o sistema,
01:50
but foundencontrado it was really hardDifícil to testteste it
unlessa menos que I woreusava a whitebranco maskmascarar.
31
98195
5103
mas descobri que era difícil testá-lo
a menos que usasse uma máscara branca.
01:56
UnfortunatelyInfelizmente, I've runcorre
into this issuequestão before.
32
104282
4346
Infelizmente, eu já tinha esbarrado
nesse problema.
02:00
When I was an undergraduatecursos de graduação
at GeorgiaGeórgia TechTecnologia studyingestudando computercomputador scienceCiência,
33
108652
4303
Quando era universitária em Georgia Tech
e estudava ciência informática,
02:04
I used to work on socialsocial robotsrobôs,
34
112979
2055
eu costumava trabalhar em robôs sociais,
02:07
and one of my taskstarefas was to get a robotrobô
to playToque peek-a-booesconde-esconde,
35
115058
3777
e uma das minhas tarefas era fazer
com que um robô jogasse às escondidas,
02:10
a simplesimples turn-takingtomada de turno gamejogos
36
118859
1683
um simples jogo de turnos
02:12
where partnersparceiros covertampa theirdeles facecara
and then uncoverdescobrir it sayingdizendo, "Peek-a-booEsconde-esconde!"
37
120566
4321
em que os parceiros escondem a cara
e depois destapam-na, dizendo "Espreita!"
02:16
The problemproblema is, peek-a-booesconde-esconde
doesn't really work if I can't see you,
38
124911
4429
O problema é que isso só
funciona se eu puder ver o outro,
02:21
and my robotrobô couldn'tnão podia see me.
39
129364
2499
e o meu robô não me via.
02:23
But I borrowedPeguei emprestado my roommate'scolega de quarto facecara
to get the projectprojeto donefeito,
40
131887
3950
Pedi emprestada a cara da minha
colega de quarto para terminar o projeto,
02:27
submittedenviado the assignmenttarefa,
41
135861
1380
apresentei a tarefa e pensei:
02:29
and figuredfigurado, you know what,
somebodyalguém elseoutro will solveresolver this problemproblema.
42
137265
3753
"Sabem que mais,
outra pessoa que resolva esse problema".
02:33
Not too long after,
43
141669
2003
Pouco tempo depois,
02:35
I was in HongHong KongKong
for an entrepreneurshipEmpreendedorismo competitionconcorrência.
44
143696
4159
eu estava em Hong Kong para uma
competição de empreendedorismo.
02:40
The organizersorganizadores decideddecidiu
to take participantsparticipantes
45
148339
2694
Os organizadores decidiram
levar os participantes
02:43
on a tourTour of locallocal start-upsStart-ups.
46
151057
2372
numa visita às "start-ups" locais.
02:45
One of the start-upsStart-ups had a socialsocial robotrobô,
47
153453
2715
Uma das "start-ups" tinha um robô social,
02:48
and they decideddecidiu to do a demodemo.
48
156192
1912
e decidiram fazer uma demonstração.
02:50
The demodemo workedtrabalhou on everybodytodo mundo
untilaté it got to me,
49
158128
2980
A demonstração funcionou com toda a gente
até chegar a minha vez.
02:53
and you can probablyprovavelmente guessacho it.
50
161132
1923
Provavelmente já adivinham.
02:55
It couldn'tnão podia detectdetectar my facecara.
51
163079
2965
Não conseguiu detetar o meu rosto.
02:58
I askedperguntei the developersdesenvolvedores what was going on,
52
166068
2511
Perguntei aos responsáveis
o que é que se passava,
03:00
and it turnedvirou out we had used the samemesmo
genericgenérico facialtratamento facial recognitionreconhecimento softwareProgramas.
53
168603
5533
e acontece que tínhamos usado o mesmo
software genérico de reconhecimento facial.
03:06
HalfwayNa metade do caminho around the worldmundo,
54
174160
1650
Do outro lado do mundo,
03:07
I learnedaprendido that algorithmicalgorítmica biasviés
can travelviagem as quicklyrapidamente
55
175834
3852
aprendi que o preconceito do algoritmo
pode viajar tão depressa
03:11
as it takes to downloadbaixar
some filesarquivos off of the internetInternet.
56
179710
3170
quanto uma descarga
de ficheiros da Internet.
03:15
So what's going on?
Why isn't my facecara beingser detecteddetectado?
57
183745
3076
Então, o que é que se passa?
Porque é que a minha cara não é detetada?
03:18
Well, we have to look
at how we give machinesmáquinas sightvista.
58
186845
3356
Temos de olhar para o modo
como damos visão às máquinas.
03:22
ComputerComputador visionvisão usesusa
machinemáquina learningAprendendo techniquestécnicas
59
190225
3409
A visão informática usa
técnicas de aprendizagem de máquina
03:25
to do facialtratamento facial recognitionreconhecimento.
60
193658
1880
para fazer o reconhecimento facial.
03:27
So how this workstrabalho is, you createcrio
a trainingTreinamento setconjunto with examplesexemplos of facesrostos.
61
195562
3897
Funciona assim: criamos um grupo
de formação com exemplos de rostos.
03:31
This is a facecara. This is a facecara.
This is not a facecara.
62
199483
2818
Isto é um rosto. Isto é um rosto.
Isto não é um rosto.
03:34
And over time, you can teachEnsinar a computercomputador
how to recognizereconhecer other facesrostos.
63
202325
4519
Com o tempo, podemos ensinar
o computador a reconhecer rostos.
03:38
HoweverNo entanto, if the trainingTreinamento setsconjuntos
aren'tnão são really that diversediverso,
64
206868
3989
Contudo, se os grupos de formação
não forem diversificados,
03:42
any facecara that deviatesAfasta-se too much
from the establishedestabelecido normnorma
65
210881
3349
qualquer rosto que se desvie
demasiado da norma estabelecida
03:46
will be hardermais difíceis to detectdetectar,
66
214254
1649
será difícil de detetar.
03:47
whichqual is what was happeningacontecendo to me.
67
215927
1963
Era o que estava a acontecer comigo.
03:49
But don't worrypreocupação -- there's some good newsnotícia.
68
217914
2382
Mas não se preocupem,
há boas notícias.
03:52
TrainingFormação setsconjuntos don't just
materializematerializar-se out of nowherelugar algum.
69
220320
2771
Os grupos de formação
não se materializam do nada.
03:55
We actuallyna realidade can createcrio them.
70
223115
1788
Na verdade, podemos criá-los.
03:56
So there's an opportunityoportunidade to createcrio
full-spectrumespectro total trainingTreinamento setsconjuntos
71
224927
4176
Portanto, há a oportunidade de criar
grupos de formação com um espetro completo
04:01
that reflectrefletir a richermais rico
portraitretrato of humanityhumanidade.
72
229127
3824
que reflitam um retrato
mais rico da humanidade.
04:04
Now you've seenvisto in my examplesexemplos
73
232975
2221
Vocês viram nos meus exemplos
04:07
how socialsocial robotsrobôs
74
235220
1768
com os robôs sociais
04:09
was how I foundencontrado out about exclusionexclusão
with algorithmicalgorítmica biasviés.
75
237012
4611
que foi como eu descobri a exclusão
com o preconceito algorítmico.
04:13
But algorithmicalgorítmica biasviés can alsoAlém disso leadconduzir
to discriminatorydiscriminatórias practicespráticas.
76
241647
4815
Mas o preconceito algorítmico também
pode levar a práticas discriminatórias.
04:19
AcrossDo outro lado the US,
77
247437
1453
Nos Estados Unidos da América,
04:20
policepolícia departmentsdepartamentos are startinginiciando to use
facialtratamento facial recognitionreconhecimento softwareProgramas
78
248914
4198
os departamentos da polícia começam
a usar o software de reconhecimento facial
04:25
in theirdeles crime-fightingcombate ao crime arsenalArsenal.
79
253136
2459
no seu arsenal de luta contra o crime.
04:27
GeorgetownGeorgetown LawLei publishedPublicados a reportrelatório
80
255619
2013
A Faculdade de Direito de Georgetown
publicou um relatório
04:29
showingmostrando that one in two adultsadultos
in the US -- that's 117 millionmilhão people --
81
257656
6763
mostrando que um
em dois adultos, nos EUA
— ou seja, 117 milhões de pessoas —
04:36
have theirdeles facesrostos
in facialtratamento facial recognitionreconhecimento networksredes.
82
264443
3534
têm os rostos em redes
de reconhecimento facial.
04:40
PolicePolícia departmentsdepartamentos can currentlyatualmente look
at these networksredes unregulatednão regulamentada,
83
268001
4552
Os departamentos da polícia podem procurar
nessas redes não regulamentadas,
04:44
usingusando algorithmsalgoritmos that have not
been auditedauditados for accuracyprecisão.
84
272577
4286
usando algoritmos que não foram
auditados quanto ao seu rigor.
04:48
YetAinda we know facialtratamento facial recognitionreconhecimento
is not failfalhou proofprova,
85
276887
3864
No entanto, sabemos que o reconhecimento
facial não é à prova de falhas,
04:52
and labelingrotulagem facesrostos consistentlyconsistentemente
remainspermanece a challengedesafio.
86
280775
4179
e rotular rostos consistentemente
continua a ser um problema.
04:56
You mightpoderia have seenvisto this on FacebookFacebook.
87
284978
1762
Podem ter visto isto no Facebook.
04:58
My friendsamigos and I laughrir all the time
when we see other people
88
286764
2988
Os meus amigos e eu estamos sempre a rir
quando vemos outras pessoas
05:01
mislabelederroneamente in our photosfotos.
89
289776
2458
mal rotuladas nas nossas fotos.
05:04
But misidentifyinginterpretação a suspectedsuspeitava criminalCriminoso
is no laughingrindo matterimportam,
90
292258
5591
Mas a má identificação de um possível
criminoso não é motivo para rir,
05:09
nornem is breachingviolar a civilCivil libertiesdas liberdades.
91
297873
2827
e o mesmo acontece com
a violação das liberdades civis.
05:12
MachineMáquina learningAprendendo is beingser used
for facialtratamento facial recognitionreconhecimento,
92
300724
3205
A aprendizagem de máquinas está a ser
usada para reconhecimento facial,
05:15
but it's alsoAlém disso extendingestendendo beyondalém the realmreino
of computercomputador visionvisão.
93
303953
4505
mas está a estender-se para além
do domínio da visão por computador.
05:21
In her booklivro, "WeaponsArmas
of MathMatemática DestructionDestruição,"
94
309266
4016
No seu livro, "Armas de
Destruição Matemática" (ADM),
05:25
datadados scientistcientista CathyCathy O'NeilO ' Neil
talksfala about the risingAumentar newNovo WMDsArmas de destruição maciça --
95
313306
6681
a cientista de dados Cathy O'Neil
fala sobre o aumento de novas ADM
05:32
widespreadgeneralizada, mysteriousmisterioso
and destructivedestrutivo algorithmsalgoritmos
96
320011
4353
algoritmos difundidos,
misteriosos e destrutivos
05:36
that are increasinglycada vez mais beingser used
to make decisionsdecisões
97
324388
2964
que estão a ser cada vez mais usados
para tomar decisões
05:39
that impactimpacto more aspectsaspectos of our livesvidas.
98
327376
3177
que afetam mais aspetos da nossa vida.
05:42
So who getsobtém hiredcontratado or fireddisparamos?
99
330577
1870
Por exemplo, quem é contratado
ou despedido?
05:44
Do you get that loanempréstimo?
Do you get insuranceseguro?
100
332471
2112
Recebemos esse empréstimo?
Recebemos o seguro?
05:46
Are you admittedadmitiu into the collegeFaculdade
you wanted to get into?
101
334607
3503
Somos admitidos na faculdade
em que queremos entrar?
05:50
Do you and I paypagamento the samemesmo pricepreço
for the samemesmo productprodutos
102
338134
3509
Pagamos todos o mesmo preço
para o mesmo produto
05:53
purchasedcomprado on the samemesmo platformplataforma?
103
341667
2442
comprado na mesma plataforma?
05:56
LawLei enforcementexecução is alsoAlém disso startinginiciando
to use machinemáquina learningAprendendo
104
344133
3759
A polícia também está a começar
a usar a aprendizagem de máquinas
05:59
for predictivepreditiva policingpoliciamento.
105
347916
2289
para policiamento preditivo.
06:02
Some judgesjuízes use machine-generatedgerado pelo computador
riskrisco scorespontuações to determinedeterminar
106
350229
3494
Alguns juízes usam a avaliação de risco
gerada por máquinas para determinar
06:05
how long an individualIndividual
is going to spendgastar in prisonprisão.
107
353747
4402
quanto tempo um indivíduo
vai passar na prisão.
06:10
So we really have to think
about these decisionsdecisões.
108
358173
2454
Portanto, temos mesmo que pensar
nessas decisões.
06:12
Are they fairjusto?
109
360651
1182
Elas sãos justas?
06:13
And we'venós temos seenvisto that algorithmicalgorítmica biasviés
110
361857
2890
Já vimos que o preconceito algorítmico
06:16
doesn't necessarilynecessariamente always
leadconduzir to fairjusto outcomesresultados.
111
364771
3374
nem sempre conduz
a resultados justos.
06:20
So what can we do about it?
112
368169
1964
Então, o que podemos fazer quanto a isso?
06:22
Well, we can startcomeçar thinkingpensando about
how we createcrio more inclusiveinclusive codecódigo
113
370157
3680
Podemos começar a pensar
em criar códigos mais inclusivos
06:25
and employempregar inclusiveinclusive codingcodificação practicespráticas.
114
373861
2990
e usar práticas de codificação inclusiva.
06:28
It really startscomeça with people.
115
376875
2309
Isto começa com as pessoas.
06:31
So who codescódigos de mattersimporta.
116
379708
1961
Por isso, é importante quem codifica.
06:33
Are we creatingcriando full-spectrumespectro total teamsequipes
with diversediverso individualsindivíduos
117
381693
4119
Estaremos a criar equipas de espetro
completo com diversos indivíduos
06:37
who can checkVerifica eachcada other'soutras blindcego spotspontos?
118
385836
2411
que podem verificar os pontos cegos
uns dos outros?
06:40
On the technicaltécnico sidelado,
how we codecódigo mattersimporta.
119
388271
3545
No lado técnico,
é importante a forma como codificamos.
06:43
Are we factoringfactoring in fairnessJustiça
as we're developingem desenvolvimento systemssistemas?
120
391840
3651
Estaremos a considerar a equidade
enquanto desenvolvemos os sistemas?
06:47
And finallyfinalmente, why we codecódigo mattersimporta.
121
395515
2913
E, finalmente, é importante a razão
por que codificamos.
06:50
We'veTemos used toolsFerramentas of computationalcomputacional creationcriação
to unlockdesbloquear immenseimenso wealthriqueza.
122
398785
5083
Temos usado ferramentas
de criação informática
para desbloquear uma riqueza imensa.
06:55
We now have the opportunityoportunidade
to unlockdesbloquear even greatermaior equalityigualdade
123
403892
4447
Agora temos a oportunidade
de desbloquear uma igualdade ainda maior
07:00
if we make socialsocial changemudança a priorityprioridade
124
408363
2930
se dermos prioridade à mudança social
07:03
and not an afterthoughtreflexão tardia.
125
411317
2170
e não uma reflexão tardia.
07:06
And so these are the threetrês tenetsprincípios
that will make up the "incodingincoding" movementmovimento.
126
414008
4522
Portanto, estes são os três princípios
que formam o movimento "de codificação".
07:10
Who codescódigos de mattersimporta,
127
418554
1652
É importante quem codifica,
07:12
how we codecódigo mattersimporta
128
420230
1543
é importante como codificamos,
07:13
and why we codecódigo mattersimporta.
129
421797
2023
e é importante a razão
por que codificamos.
07:15
So to go towardsem direção incodingincoding,
we can startcomeçar thinkingpensando about
130
423844
3099
Para avançarmos para a codificação,
podemos começar a pensar
07:18
buildingconstrução platformsplataformas that can identifyidentificar biasviés
131
426967
3164
em construir plataformas que
possam identificar preconceitos
07:22
by collectingcoletando people'spovos experiencesexperiências
like the onesuns I sharedcompartilhado,
132
430155
3078
reunindo as experiências de pessoas
como as que eu contei,
07:25
but alsoAlém disso auditingauditoria existingexistir softwareProgramas.
133
433257
3070
e também auditando
os softwares existentes.
07:28
We can alsoAlém disso startcomeçar to createcrio
more inclusiveinclusive trainingTreinamento setsconjuntos.
134
436351
3765
Também podemos começar a criar
grupos de formação mais inclusivos.
07:32
ImagineImagine a "SelfiesSelfies for InclusionInclusão" campaigncampanha
135
440140
2803
Imaginem uma campanha
"Selfies para Inclusão"
07:34
where you and I can help
developersdesenvolvedores testteste and createcrio
136
442967
3655
em que qualquer um pode ajudar
os desenvolvedores a criar e testar
07:38
more inclusiveinclusive trainingTreinamento setsconjuntos.
137
446646
2093
grupos de formação mais inclusivos.
07:41
And we can alsoAlém disso startcomeçar thinkingpensando
more conscientiouslyconscienciosamente
138
449302
2828
Também podemos começar
a pensar com maior consciência
07:44
about the socialsocial impactimpacto
of the technologytecnologia that we're developingem desenvolvimento.
139
452154
5391
no impacto social da tecnologia
que estamos a desenvolver.
07:49
To get the incodingincoding movementmovimento startedcomeçado,
140
457569
2393
Para iniciar o movimento de codificação,
07:51
I've launchedlançado the AlgorithmicAlgorítmica
JusticeJustiça LeagueLiga,
141
459986
2847
lancei o Algoritmo Liga da Justiça,
07:54
where anyonealguém who caresse preocupa about fairnessJustiça
can help fightluta the codedcodificados gazeolhar.
142
462857
5872
em que todos os que
se interessam pela justiça
podem ajudar a lutar
contra o olhar codificado.
08:00
On codedgazecodedgaze.comcom, you can reportrelatório biasviés,
143
468753
3296
Em codedgaze.com,
podem relatar preconceitos,
08:04
requestsolicitação de auditsauditorias, becometornar-se a testertestador
144
472073
2445
exigir auditos, fazerem testes
08:06
and joinJunte-se the ongoingem progresso conversationconversação,
145
474542
2771
e participar das conversas em curso,
08:09
#codedgazecodedgaze.
146
477337
2287
#codedgaze.
08:12
So I inviteconvite you to joinJunte-se me
147
480742
2487
Portanto, convido-os a juntarem-se a mim
08:15
in creatingcriando a worldmundo where technologytecnologia
workstrabalho for all of us,
148
483253
3719
para criar um mundo em que a tecnologia
funcione para todos nós,
08:18
not just some of us,
149
486996
1897
não apenas para alguns,
08:20
a worldmundo where we valuevalor inclusioninclusão
and centercentro socialsocial changemudança.
150
488917
4588
um mundo em que valorizamos a inclusão
e nos centramos na mudança social.
08:25
Thank you.
151
493529
1175
Obrigada.
08:26
(ApplauseAplausos)
152
494728
4271
(Aplausos).
08:32
But I have one questionquestão:
153
500873
2854
Mas eu tenho uma pergunta:
08:35
Will you joinJunte-se me in the fightluta?
154
503751
2059
Vão juntar-se a mim nesta luta?
08:37
(LaughterRiso)
155
505834
1285
(Risos)
08:39
(ApplauseAplausos)
156
507143
3687
(Aplausos)
Translated by Adília Correia
Reviewed by Margarida Ferreira

▲Back to top

ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com