ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com
TEDxBeaconStreet

Joy Buolamwini: How I'm fighting bias in algorithms

Joy Buolamwini: Come sto combattendo la parzialità algoritmica

Filmed:
1,223,943 views

Joy Buolamwini, studentessa magistrale al MIT, stava lavorando sul software di riconoscimento facciale quando si è accorta di un problema: il software non riconosceva la sua faccia, poiché chi aveva programmato l'algoritmo non aveva pensato a come identificare un'ampia gamma di colori di pelle e di strutture facciali. Ora lei si è impegnata nella missione di combattere la parzialità nell'apprendimento automatico, un fenomeno che lei chiama "lo sguardo programmato". Questa è una conferenza che ci apre gli occhi sulla necessità di responsabilizzare il modo di codificare i programmi... visto che gli algoritmi coinvolgono sempre più aspetti della nostra vita.
- Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion. Full bio

Double-click the English transcript below to play the video.

00:13
HelloCiao, I'm JoyGioia, a poetpoeta of codecodice,
0
1041
3134
Ciao, sono Joy, una poetessa
della programmazione,
00:16
on a missionmissione to stop
an unseeninvisibile forcevigore that's risingcrescente,
1
4199
4993
in missione per fermare
una crescente forza inattesa.
00:21
a forcevigore that I calledchiamato "the codedcodificato gazesguardo,"
2
9216
2856
Una forza che ho chiamato
"sguardo programmato",
00:24
my termtermine for algorithmicalgoritmico biaspregiudizio.
3
12096
3309
la mia espressione
per la parzialità algoritmica.
00:27
AlgorithmicAlgoritmico biaspregiudizio, like humanumano biaspregiudizio,
resultsrisultati in unfairnessslealtà.
4
15429
4300
La parzialità algoritmica,
come quella umana, produce ingiustizia.
00:31
HoweverTuttavia, algorithmsalgoritmi, like virusesvirus,
can spreaddiffusione biaspregiudizio on a massivemassiccio scalescala
5
19753
6022
Tuttavia gli algoritmi, come i virus,
si possono diffondere su ampia scala
00:37
at a rapidrapido paceritmo.
6
25799
1582
in tempi rapidi.
00:39
AlgorithmicAlgoritmico biaspregiudizio can alsoanche leadcondurre
to exclusionaryesclusione experiencesesperienze
7
27943
4387
La parzialità algoritmica può anche
portare a esperienze di esclusione
00:44
and discriminatorydiscriminatorie practicespratiche.
8
32354
2128
e pratiche discriminatorie.
00:46
Let me showmostrare you what I mean.
9
34506
2061
Vi mostro cosa voglio dire.
00:48
(VideoVideo) JoyGioia BuolamwiniBuolamwini: HiCiao, cameramacchina fotografica.
I've got a faceviso.
10
36980
2436
(Video) Joy Buolamwini: Ciao.
Ho una faccia.
00:52
Can you see my faceviso?
11
40162
1864
Puoi vedere la mia faccia?
00:54
No-glassesNo-occhiali faceviso?
12
42051
1625
Senza occhiali?
00:55
You can see her faceviso.
13
43701
2214
Puoi vedere la sua faccia.
00:58
What about my faceviso?
14
46237
2245
Che dici della mia faccia?
01:03
I've got a maskmaschera. Can you see my maskmaschera?
15
51890
3750
Ho qui una maschera.
Vedi la mia maschera?
01:08
JoyGioia BuolamwiniBuolamwini: So how did this happenaccadere?
16
56474
2365
Joy Buolamwini: Com'è successo?
01:10
Why am I sittingseduta in frontdavanti of a computercomputer
17
58863
3141
Perché ero seduta davanti al computer
01:14
in a whitebianca maskmaschera,
18
62028
1424
con una maschera bianca,
01:15
tryingprovare to be detectedrilevato by a cheapa buon mercato webcamWebcam?
19
63476
3650
tentando di essere individuata
da una webcam economica?
01:19
Well, when I'm not fightingcombattente the codedcodificato gazesguardo
20
67150
2291
Quando non combatto
"lo sguardo programmato"
01:21
as a poetpoeta of codecodice,
21
69465
1520
da poetessa
della programmazione,
01:23
I'm a graduatediplomato studentalunno
at the MITMIT MediaMedia LabLaboratorio,
22
71009
3272
sono una studentessa di laurea magistrale
al Media Lab del MIT,
01:26
and there I have the opportunityopportunità to work
on all sortstipi of whimsicalwhimsical projectsprogetti,
23
74305
4917
dove ho avuto la opportunità di lavorare
su ogni tipo di progetto stravagante,
01:31
includingCompreso the AspireAspire MirrorSpecchio,
24
79246
2027
incluso lo Specchio dei Desideri,
01:33
a projectprogetto I did so I could projectprogetto
digitaldigitale masksmaschere ontosu my reflectionriflessione.
25
81297
5134
un progetto che mi consente di proiettare
una maschera digitale sul mio riflesso.
01:38
So in the morningmattina, if I wanted
to feel powerfulpotente,
26
86455
2350
Così la mattina, se voglio sentirmi forte,
01:40
I could put on a lionLeone.
27
88829
1434
posso indossare leone.
01:42
If I wanted to be upliftedsollevato,
I mightpotrebbe have a quotecitazione.
28
90287
3496
Se volessi essere rialzata,
potrei avere un'altezza.
01:45
So I used genericgenerico
facialtrattamento viso recognitionriconoscimento softwareSoftware
29
93807
2989
Ho utilizzzato un generico software
di riconoscimento facciale
01:48
to buildcostruire the systemsistema,
30
96820
1351
per costruire il sistema,
01:50
but foundtrovato it was really harddifficile to testTest it
unlesssalvo che I woreindossava a whitebianca maskmaschera.
31
98195
5103
ma ho trovato molto difficile provarlo
a meno di indossare una maschera bianca.
01:56
UnfortunatelyPurtroppo, I've runcorrere
into this issueproblema before.
32
104282
4346
Sfortunatamente,
ho già toccato questo tema.
02:00
When I was an undergraduatestudenti universitari
at GeorgiaGeorgia TechTech studyingstudiando computercomputer sciencescienza,
33
108652
4303
Quando ero unastudentessa di Informatica
al Georgia Tech
02:04
I used to work on socialsociale robotsrobot,
34
112979
2055
ero abituata a lavorare sui robot sociali,
02:07
and one of my taskscompiti was to get a robotrobot
to playgiocare peek-a-booPeek-a-boo,
35
115058
3777
e uno dei miei compiti era di far giocare
un robot a "booh! chi sono?",
02:10
a simplesemplice turn-takingturni gamegioco
36
118859
1683
un semplice gioco a turni,
02:12
where partnerspartner covercopertina theirloro faceviso
and then uncoverScoprire it sayingdetto, "Peek-a-booPeek-a-boo!"
37
120566
4321
dove i compagni nascondono la faccia e
poi la scoprono dicendo "booh! chi sono?"
02:16
The problemproblema is, peek-a-booPeek-a-boo
doesn't really work if I can't see you,
38
124911
4429
Il problema è che il gioco non funziona
veramente se non vi vedo,
02:21
and my robotrobot couldn'tnon poteva see me.
39
129364
2499
e il mio robot non mi poteva vedere.
02:23
But I borrowedpreso in prestito my roommate'scompagno di stanza faceviso
to get the projectprogetto donefatto,
40
131887
3950
Allora mi sono fatta prestare il volto
della mia compagna di stanza,
02:27
submittedinviato the assignmentassegnazione,
41
135861
1380
e ho consegnato il compito,
02:29
and figuredfigurato, you know what,
somebodyqualcuno elsealtro will solverisolvere this problemproblema.
42
137265
3753
e ho pensato che qualcun altro
risolvesse il problema.
02:33
Not too long after,
43
141669
2003
Non molto dopo,
02:35
I was in HongHong KongKong
for an entrepreneurshipimprenditorialità competitionconcorrenza.
44
143696
4159
ero a Hong Kong per una gara
sulla imprenditorialità.
02:40
The organizersorganizzatori decideddeciso
to take participantspartecipanti
45
148339
2694
Gli organizzatori decisero
di scegliere i partecipanti
02:43
on a tourgiro of localLocale start-upsStart-up.
46
151057
2372
esaminando le start-up locali.
02:45
One of the start-upsStart-up had a socialsociale robotrobot,
47
153453
2715
Una delle start-up aveva un robot sociale,
02:48
and they decideddeciso to do a demoDemo.
48
156192
1912
e loro decisero di fare un demo.
02:50
The demoDemo workedlavorato on everybodytutti
untilfino a it got to me,
49
158128
2980
Il demo funzionò finché non giunsero a me,
02:53
and you can probablyprobabilmente guessindovina it.
50
161132
1923
e forse indovinate perché.
02:55
It couldn'tnon poteva detectindividuare my faceviso.
51
163079
2965
Non poteva individuare la mia faccia.
02:58
I askedchiesto the developerssviluppatori what was going on,
52
166068
2511
Ho chiesto agli sviluppatori
cosa stava succedendo,
03:00
and it turnedtrasformato out we had used the samestesso
genericgenerico facialtrattamento viso recognitionriconoscimento softwareSoftware.
53
168603
5533
e risultò che usavano lo stesso software
generico di riconoscimento facciale.
03:06
HalfwayA metà strada around the worldmondo,
54
174160
1650
Dall'altra parte del mondo,
03:07
I learnedimparato that algorithmicalgoritmico biaspregiudizio
can travelviaggio as quicklyvelocemente
55
175834
3852
ho imparato che la parzialità algoritmica
può viaggiare velocemente
03:11
as it takes to downloadScaricare
some filesfile off of the internetInternet.
56
179710
3170
visto che basta scaricare qualche file
da internet.
03:15
So what's going on?
Why isn't my faceviso beingessere detectedrilevato?
57
183745
3076
Cosa stava succedendo?
Perchè la mia faccia non era riconosciuta?
03:18
Well, we have to look
at how we give machinesmacchine sightvista.
58
186845
3356
Dobbiamo vedere come
diamo la vista alle macchine.
03:22
ComputerComputer visionvisione usesusi
machinemacchina learningapprendimento techniquestecniche
59
190225
3409
La visione tramite computer usa
tecniche di auto-apprendimento
03:25
to do facialtrattamento viso recognitionriconoscimento.
60
193658
1880
per il riconoscimento facciale.
03:27
So how this workslavori is, you createcreare
a trainingformazione setimpostato with examplesesempi of facesfacce.
61
195562
3897
Come funziona: si creano esempi di facce
per l'apprendimento.
03:31
This is a faceviso. This is a faceviso.
This is not a faceviso.
62
199483
2818
Questa è una faccia. Anche questa.
Questa non è una faccia.
03:34
And over time, you can teachinsegnare a computercomputer
how to recognizericonoscere other facesfacce.
63
202325
4519
Con il tempo, si può insegnare al computer
come riconoscere altre facce.
03:38
HoweverTuttavia, if the trainingformazione setsimposta
aren'tnon sono really that diversediverso,
64
206868
3989
Ma se gli esempi per l'addestramento
non sono veramente diversi,
03:42
any faceviso that deviatesdevia too much
from the establishedstabilito normnorma
65
210881
3349
qualsiasi faccia che devia troppo
dalla norma stabilita
03:46
will be harderPiù forte to detectindividuare,
66
214254
1649
sarà difficile da riconoscere,
03:47
whichquale is what was happeningavvenimento to me.
67
215927
1963
che era quanto mi stava capitando.
03:49
But don't worrypreoccupazione -- there's some good newsnotizia.
68
217914
2382
Ma non vi preoccupate,
ci sono buone notizie.
03:52
TrainingFormazione setsimposta don't just
materializematerializzare out of nowhereDa nessuna parte.
69
220320
2771
Gli esempi per l'addestramento
non nascono dal nulla.
03:55
We actuallyin realtà can createcreare them.
70
223115
1788
Siamo noi a crearli.
03:56
So there's an opportunityopportunità to createcreare
full-spectrumspettro completo trainingformazione setsimposta
71
224927
4176
C'è quindi la possibilità di creare gruppi
di esempi ad ampio spettro
04:01
that reflectriflettere a richerpiù ricca
portraitritratto of humanityumanità.
72
229127
3824
che riflettono un più ricco
ritratto dell'umanità.
04:04
Now you've seenvisto in my examplesesempi
73
232975
2221
Avete ora visto nei miei esempi
04:07
how socialsociale robotsrobot
74
235220
1768
come tramite i robot sociali
04:09
was how I foundtrovato out about exclusionesclusione
with algorithmicalgoritmico biaspregiudizio.
75
237012
4611
ho scopertoa l'esclusione
dovuta alla parzialità algoritmica.
04:13
But algorithmicalgoritmico biaspregiudizio can alsoanche leadcondurre
to discriminatorydiscriminatorie practicespratiche.
76
241647
4815
Ma la parzialità algoritmica può condurre
anche a pratiche discriminatorie.
04:19
AcrossDa altra parte the US,
77
247437
1453
Negli USA,
04:20
policepolizia departmentsdipartimenti are startingdi partenza to use
facialtrattamento viso recognitionriconoscimento softwareSoftware
78
248914
4198
i dipartimenti di polizia iniziano a usare
software di riconoscimento facciale
04:25
in theirloro crime-fightinglotta contro la criminalità arsenalArsenal.
79
253136
2459
nel loro arsenale di battaglia al crimine.
04:27
GeorgetownGeorgetown LawLegge publishedpubblicato a reportrapporto
80
255619
2013
Georgetown Law ha pubblicato un rapporto
04:29
showingmostrando that one in two adultsadulti
in the US -- that's 117 millionmilione people --
81
257656
6763
che mostra come uno su due adulti in USA,
cioè 117 milioni di persone,
04:36
have theirloro facesfacce
in facialtrattamento viso recognitionriconoscimento networksreti.
82
264443
3534
ha la sua faccia nelle reti
per il riconoscimento facciale.
04:40
PolicePolizia departmentsdipartimenti can currentlyattualmente look
at these networksreti unregulatednon regolamentata,
83
268001
4552
I dipartimenti di polizia possono ora
utilizzare queste reti non regolamentate,
04:44
usingutilizzando algorithmsalgoritmi that have not
been auditedcontrollati for accuracyprecisione.
84
272577
4286
che usano algoritmi non verificati
sulla loro accuratezza.
04:48
YetAncora we know facialtrattamento viso recognitionriconoscimento
is not failfallire proofprova,
85
276887
3864
Certo si sa che il riconoscimento
facciale non è a prova di errore,
04:52
and labelingetichettatura facesfacce consistentlymodo coerente
remainsresti a challengesfida.
86
280775
4179
ed etichettare le facce coerentemente
rimane una sfida.
04:56
You mightpotrebbe have seenvisto this on FacebookFacebook.
87
284978
1762
Si può vedere ciò anche su Facebook.
04:58
My friendsamici and I laughridere all the time
when we see other people
88
286764
2988
I miei amici ed io ridiamo quando
vediamo altre persone
05:01
mislabeledmislabeled in our photosfotografie.
89
289776
2458
etichettate male nelle nostre foto.
05:04
But misidentifyingrileva a suspectedsospetto criminalpenale
is no laughingche ride matterimporta,
90
292258
5591
Ma identificare male un sospetto criminale
non è una cosa da riderci su,
05:09
nor is breachingviolazione civilcivile libertieslibertà.
91
297873
2827
neppure violare le nostre libertà civili.
05:12
MachineMacchina learningapprendimento is beingessere used
for facialtrattamento viso recognitionriconoscimento,
92
300724
3205
Si usa l'apprendimento automatico
per il riconoscimento facciale,
05:15
but it's alsoanche extendingestendendo beyondal di là the realmregno
of computercomputer visionvisione.
93
303953
4505
ma si sta estendendo oltre il campo
della visione via computer.
05:21
In her booklibro, "WeaponsArmi
of MathMatematica DestructionDistruzione,"
94
309266
4016
Nel suo libro,
"Armi per la Distruzione Matematica",
05:25
datadati scientistscienziato CathyCathy O'NeilO ' Neil
talkstrattativa about the risingcrescente newnuovo WMDsADM --
95
313306
6681
la scienzata sui dati Cathy O'Neil
ci parla dei crescenti nuovi WMD,
05:32
widespreadmolto diffuso, mysteriousmisterioso
and destructivedistruttivo algorithmsalgoritmi
96
320011
4353
algoritmi diffusi,
misteriosi e distruttivi
05:36
that are increasinglysempre più beingessere used
to make decisionsdecisioni
97
324388
2964
che sono sempre più usati
per prendere decisioni
05:39
that impacturto more aspectsaspetti of our livesvite.
98
327376
3177
che influiscono su molti aspetti
delle nostre vite.
05:42
So who getsprende hiredassunti or firedlicenziato?
99
330577
1870
Così, chi viene assunto o licenziato?
05:44
Do you get that loanprestito?
Do you get insuranceassicurazione?
100
332471
2112
Ottenete quel mutuo?
E la assicurazione?
05:46
Are you admittedammesso into the collegeUniversità
you wanted to get into?
101
334607
3503
Siete ammessi al college
al quale volete andare?
05:50
Do you and I paypagare the samestesso priceprezzo
for the samestesso productprodotto
102
338134
3509
Voi ed io paghiamo lo stesso prezzo
per lo stesso prodotto
05:53
purchasedacquistati on the samestesso platformpiattaforma?
103
341667
2442
comprato sulla stessa piattaforma?
[e-commerce]
05:56
LawLegge enforcementrinforzo is alsoanche startingdi partenza
to use machinemacchina learningapprendimento
104
344133
3759
Le forze dell'ordine stanno iniziando
a usare l'apprendimento automatico
05:59
for predictivepredittiva policingattività di polizia.
105
347916
2289
per compiti di "polizia predittiva".
06:02
Some judgesgiudici use machine-generatedgenerato dal computer
riskrischio scorespunteggi to determinedeterminare
106
350229
3494
Alcuni giudici usano valutazioni
di rischio automatiche per determinare
06:05
how long an individualindividuale
is going to spendtrascorrere in prisonprigione.
107
353747
4402
quanto tempo una persona
deve passare in prigione.
06:10
So we really have to think
about these decisionsdecisioni.
108
358173
2454
Veramente dobbiamo riflettere
su queste decisioni.
06:12
Are they fairgiusto?
109
360651
1182
Sono giuste?
06:13
And we'venoi abbiamo seenvisto that algorithmicalgoritmico biaspregiudizio
110
361857
2890
Abbiamo visto che
la parzialità algoritmica
06:16
doesn't necessarilynecessariamente always
leadcondurre to fairgiusto outcomesrisultati.
111
364771
3374
non necessariamente porta
a esiti giusti.
06:20
So what can we do about it?
112
368169
1964
Cosa possiamo fare per questo?
06:22
Well, we can startinizio thinkingpensiero about
how we createcreare more inclusiveinclusivo codecodice
113
370157
3680
Possiamo iniziare a riflettere su come
possiamo creare codice più inclusivo
06:25
and employimpiegare inclusiveinclusivo codingcodifica practicespratiche.
114
373861
2990
e impiegare criteri di codifica inclusivi.
06:28
It really startsinizia with people.
115
376875
2309
In effetti si parte dalle persone.
06:31
So who codescodici mattersquestioni.
116
379708
1961
Con chi è interessato al codice.
06:33
Are we creatingla creazione di full-spectrumspettro completo teamssquadre
with diversediverso individualsindividui
117
381693
4119
Stiamo veramente creando squadre
ad ampio spettro, con diversi individui
06:37
who can checkdai un'occhiata eachogni other'saltri blindcieco spotsmacchie?
118
385836
2411
che possano verificare
i punti oscuri dell'altro?
06:40
On the technicaltecnico sidelato,
how we codecodice mattersquestioni.
119
388271
3545
Da un punto di vista tecnico,
il modo in cui codifichiamo è importante.
06:43
Are we factoringfactoring in fairnessequità
as we're developingin via di sviluppo systemssistemi?
120
391840
3651
Stiamo puntando sulla imparzialità
quando sviluppiamo i sistemi?
06:47
And finallyfinalmente, why we codecodice mattersquestioni.
121
395515
2913
E alla fine, perché
ci interessa la codifica.
06:50
We'veAbbiamo used toolsutensili of computationalcomputazionale creationcreazione
to unlocksbloccare immenseimmenso wealthricchezza.
122
398785
5083
Usiamo strumenti di sviluppo elaborativo
per liberare immense ricchezze.
06:55
We now have the opportunityopportunità
to unlocksbloccare even greatermaggiore equalityuguaglianza
123
403892
4447
Ora abbiamo l'opportunità di dar vita
a una uguaglianza più vasta
07:00
if we make socialsociale changemodificare a prioritypriorità
124
408363
2930
se diamo priorità al cambiamento sociale
07:03
and not an afterthoughtripensamento.
125
411317
2170
e non lo consideriamo
un pensiero aggiuntivo.
07:06
And so these are the threetre tenetsprincipi
that will make up the "incodingincoding" movementmovimento.
126
414008
4522
Vi sono quindi tre principi che sorreggono
il movimento di "codifica inclusiva".
07:10
Who codescodici mattersquestioni,
127
418554
1652
A chi interessa il codice,
07:12
how we codecodice mattersquestioni
128
420230
1543
come ci interessa il codice
07:13
and why we codecodice mattersquestioni.
129
421797
2023
e perché ci interessa il codice.
07:15
So to go towardsin direzione incodingincoding,
we can startinizio thinkingpensiero about
130
423844
3099
Per puntare alla "codifica inclusiva",
possiamo partire pensando
07:18
buildingcostruzione platformspiattaforme that can identifyidentificare biaspregiudizio
131
426967
3164
di costruire piattaforme che possano
identificare le parzialità
07:22
by collectingraccolta people'spersone di experiencesesperienze
like the onesquelli I shareddiviso,
132
430155
3078
raccogliendo le esperienze delle persone
come quelle condivise,
07:25
but alsoanche auditingRevisione contabile existingesistente softwareSoftware.
133
433257
3070
ma anche verificando
il software esistente.
07:28
We can alsoanche startinizio to createcreare
more inclusiveinclusivo trainingformazione setsimposta.
134
436351
3765
Possiamo anche iniziare a creare
un modello formativo più inclusivo.
07:32
ImagineImmaginate a "SelfiesAutoscatti for InclusionInclusione" campaigncampagna
135
440140
2803
Pensate a una campagna mediatica
"Selfie per l'inclusione"
07:34
where you and I can help
developerssviluppatori testTest and createcreare
136
442967
3655
dove voi ed io possiamo aiutare
gli sviluppatori a provare e creare
07:38
more inclusiveinclusivo trainingformazione setsimposta.
137
446646
2093
modelli formativi più inclusivi.
07:41
And we can alsoanche startinizio thinkingpensiero
more conscientiouslycoscienziosamente
138
449302
2828
Possiamo anche iniziare a riflettere
più consciamente
07:44
about the socialsociale impacturto
of the technologytecnologia that we're developingin via di sviluppo.
139
452154
5391
sull'impatto sociale della tecnologia
che stiamo sviluppando.
07:49
To get the incodingincoding movementmovimento startediniziato,
140
457569
2393
Per avviare il movimento
di "codifica inclusiva",
07:51
I've launchedlanciato the AlgorithmicAlgoritmico
JusticeGiustizia LeagueLega,
141
459986
2847
ho lanciato la Lega per
la Giustizia Algoritmica,
07:54
where anyonechiunque who carescure about fairnessequità
can help fightcombattimento the codedcodificato gazesguardo.
142
462857
5872
dove ognuno che ha a cuore la giustizia
può combattere "lo sguardo programmato".
08:00
On codedgazecodedgaze.comcom, you can reportrapporto biaspregiudizio,
143
468753
3296
Su codedgaze.com si possono
segnalare parzialità,
08:04
requestrichiesta auditsaudit, becomediventare a testertester
144
472073
2445
richiedere verifiche,
diventare un collaudatore
08:06
and joinaderire the ongoingin corso conversationconversazione,
145
474542
2771
e unirsi alla conversazione corrente,
08:09
#codedgazecodedgaze.
146
477337
2287
#codedgaze.
08:12
So I inviteinvitare you to joinaderire me
147
480742
2487
Vi invito quidi ad unirvi a me
08:15
in creatingla creazione di a worldmondo where technologytecnologia
workslavori for all of us,
148
483253
3719
nel creare un mondo dove la tecnologia
lavori per tutti noi,
08:18
not just some of us,
149
486996
1897
non solo per qualcuno di noi,
08:20
a worldmondo where we valuevalore inclusioninclusione
and centercentro socialsociale changemodificare.
150
488917
4588
un mondo dove diamo valore alla inclusione
e ci concentriamo sul cambiamento sociale.
08:25
Thank you.
151
493529
1175
Grazie.
08:26
(ApplauseApplausi)
152
494728
4271
(Applausi)
08:32
But I have one questiondomanda:
153
500873
2854
Ma ho una domanda:
08:35
Will you joinaderire me in the fightcombattimento?
154
503751
2059
Vi unirete a me nella battaglia?
08:37
(LaughterRisate)
155
505834
1285
(Risate)
08:39
(ApplauseApplausi)
156
507143
3687
(Applausi)
Translated by Federico MINELLE
Reviewed by Nadia Ahmed

▲Back to top

ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee