ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com
TEDxBeaconStreet

Joy Buolamwini: How I'm fighting bias in algorithms

Joy Boulamwini: Algoritmalardaki yanlılık ile nasıl savaşıyorum

Filmed:
1,223,943 views

MIT mezunu Joy Boulamwini bir problemin farkına vardığında yüz tanıma yazılımı üzerinde çalışıyordu: Yazılım onun yüzünü tanımlamadı. Çünkü algoritmayı kodlayan kişi cilt rengini ve yüz yapısı gibi bilgileri tanımlamayı ona öğretmemişti. Şimdi "kodlu bakış" diye adlandırdığı makine öğrenme konusundaki yanlılık ile savaşma görevinde. Kodlamada izlenebilirlik ihtiyacını anlatan aydınlatıcı bir konuşma... özellikle de algoritmalar giderek hayatımızı ele geçirirken.
- Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion. Full bio

Double-click the English transcript below to play the video.

00:13
HelloMerhaba, I'm JoySevinç, a poetşair of codekod,
0
1041
3134
Merhaba ben kodlar şairi Joy
00:16
on a missionmisyon to stop
an unseengörünmeyen forcekuvvet that's risingyükselen,
1
4199
4993
görünmez bir gücün yükselişini
durdurma görevindeyim,
00:21
a forcekuvvet that I calleddenilen "the codedkodlanmış gazebakışları,"
2
9216
2856
algoritmik yanlılık için kullandığım
00:24
my termterim for algorithmicalgoritmik biasönyargı.
3
12096
3309
"kodlu bakış" adını verdiğim bir güç.
00:27
AlgorithmicAlgoritmik biasönyargı, like humaninsan biasönyargı,
resultsSonuçlar in unfairnessinsafsızlık.
4
15429
4300
Algoritmik yanlılık, insan yanlılığı gibi,
adaletsizlikle sonuçlanır.
00:31
HoweverAncak, algorithmsalgoritmalar, like virusesvirüsler,
can spreadYAYILMIŞ biasönyargı on a massivemasif scaleölçek
5
19753
6022
Ama algoritmalar virüsler gibi büyük çapta
00:37
at a rapidhızlı pacehız.
6
25799
1582
ve hızda yanlılığı yayabilirler.
00:39
AlgorithmicAlgoritmik biasönyargı can alsoAyrıca leadöncülük etmek
to exclusionaryDışlayıcı experiencesdeneyimler
7
27943
4387
Algoritmik yanlılık dışlayıcı deneyimlere
00:44
and discriminatoryayrımcı practicesuygulamaları.
8
32354
2128
ve ayrımcı uygulamalara yol açabilir.
00:46
Let me showgöstermek you what I mean.
9
34506
2061
Ne demek istediğimi göstereyim.
00:48
(VideoVideo) JoySevinç BuolamwiniBuolamwini: HiMerhaba, camerakamera.
I've got a faceyüz.
10
36980
2436
(Video) Joy Boulamwini: Selam kamera.
Bir yüzüm var.
00:52
Can you see my faceyüz?
11
40162
1864
Yüzümü görebiliyor musunuz?
00:54
No-glassesHayır-gözlük faceyüz?
12
42051
1625
Gözlüksüz yüzüm?
00:55
You can see her faceyüz.
13
43701
2214
Onun yüzünü görebilirsin.
00:58
What about my faceyüz?
14
46237
2245
Ya benimkini?
01:03
I've got a maskmaskelemek. Can you see my maskmaskelemek?
15
51890
3750
Maskem var. Maskemi görebiliyor musun?
01:08
JoySevinç BuolamwiniBuolamwini: So how did this happenolmak?
16
56474
2365
Joy Boulamwini: Bu nasıl oldu?
01:10
Why am I sittingoturma in frontön of a computerbilgisayar
17
58863
3141
Neden bilgisayarın önünde bir beyaz maske
ile oturuyor ve ucuz bir kamera
01:14
in a whitebeyaz maskmaskelemek,
18
62028
1424
01:15
tryingçalışıyor to be detectedtespit by a cheapucuz webcamWeb kamerası?
19
63476
3650
tarafından algılanmaya çalışıyorum?
01:19
Well, when I'm not fightingkavga the codedkodlanmış gazebakışları
20
67150
2291
Kod şairi olarak kodlu bakış ile
01:21
as a poetşair of codekod,
21
69465
1520
savaşmadığımda
01:23
I'm a graduatemezun olmak studentÖğrenci
at the MITMIT MediaMedya LabLaboratuvar,
22
71009
3272
MIT Medya Lab'ında lisanüstü öğrencisiyim
01:26
and there I have the opportunityfırsat to work
on all sortssıralar of whimsicalkaprisli projectsprojeler,
23
74305
4917
ve her tür garip projede
çalışma şansım var.
01:31
includingdahil olmak üzere the AspireAspire MirrorAyna,
24
79246
2027
Buna yaptığım Aspire Mirror da dâhil.
01:33
a projectproje I did so I could projectproje
digitaldijital masksmaskeleri ontoüstüne my reflectionyansıma.
25
81297
5134
Sayesinde yansımamın üzerine
dijital maskeler tasarlayabilirim.
01:38
So in the morningsabah, if I wanted
to feel powerfulgüçlü,
26
86455
2350
Sabah eğer güçlü hissetmek istersem,
01:40
I could put on a lionAslan.
27
88829
1434
bir aslanı takabilirim.
01:42
If I wanted to be upliftedkoyulugunu asacak sekilde,
I mightbelki have a quotealıntı.
28
90287
3496
Sevinçli olmak istiyorsam,
bir alıntı yapabilirim.
01:45
So I used genericgenel
facialYüz Bakımı recognitiontanıma softwareyazılım
29
93807
2989
Sistemi oluşturmak için genel yüz tanıma
01:48
to buildinşa etmek the systemsistem,
30
96820
1351
yazılımını kullandım.
01:50
but foundbulunan it was really hardzor to testÖlçek it
unlessolmadıkça I woregiydiği a whitebeyaz maskmaskelemek.
31
98195
5103
Ama beyaz bir maske takmadıkça
sistemi test etmek gerçekten zordu.
01:56
UnfortunatelyNe yazık ki, I've runkoş
into this issuekonu before.
32
104282
4346
Maalesef bu sorunla daha önce karşılaştım.
02:00
When I was an undergraduateLisans
at GeorgiaGürcistan TechTeknik okul studyingders çalışıyor computerbilgisayar scienceBilim,
33
108652
4303
Georgia Tech de bilgisayar
bilimleri okurken,
02:04
I used to work on socialsosyal robotsrobotlar,
34
112979
2055
sosyal robotlar üzerinde çalıştım
02:07
and one of my tasksgörevler was to get a robotrobot
to playoyun peek-a-boopeek-a-boo,
35
115058
3777
ve görevlerimden biri ce-ee
oynayan bir robot yapmaktı.
02:10
a simplebasit turn-takingsıra alma gameoyun
36
118859
1683
Partnerlerinizin yüzlerini kapayıp
02:12
where partnersortaklar coverkapak theironların faceyüz
and then uncoverortaya çıkarmak it sayingsöz, "Peek-a-booPeek-a-boo!"
37
120566
4321
sonra açıp ce-ee dedikleri bir oyun.
02:16
The problemsorun is, peek-a-boopeek-a-boo
doesn't really work if I can't see you,
38
124911
4429
Problem şu ki sizi göremezsem
ce-ee işe yaramaz
02:21
and my robotrobot couldn'tcould see me.
39
129364
2499
ve robotum beni göremiyordu.
02:23
But I borrowedödünç aldım my roommate'sOda arkadaşı 's faceyüz
to get the projectproje donetamam,
40
131887
3950
Projeyi tamamlamak için
arkadaşımın yüzünü ödünç aldım,
02:27
submittedgönderilmiş the assignmentatama,
41
135861
1380
ödevimi sundum ve bu sorunu
02:29
and figuredanladım, you know what,
somebodybirisi elsebaşka will solveçözmek this problemsorun.
42
137265
3753
başkasının çözeceğini varsaydım.
02:33
Not too long after,
43
141669
2003
Daha sonra Hong Kong'da
02:35
I was in HongHong KongKong
for an entrepreneurshipGirişimcilik competitionyarışma.
44
143696
4159
bir girişimcilik yarışmasına katıldım.
02:40
The organizersorganizatörler decidedkarar
to take participantskatılımcılar
45
148339
2694
Organizatörler yarışmacıların başlangıç
02:43
on a tourtur of localyerel start-upsstart-up.
46
151057
2372
turuna katılmasına karar verdi.
02:45
One of the start-upsstart-up had a socialsosyal robotrobot,
47
153453
2715
Yarışmacılardan birinin
sosyal robotu vardı
02:48
and they decidedkarar to do a demodemo.
48
156192
1912
ve demo yapmaya karar verdi.
02:50
The demodemo workedişlenmiş on everybodyherkes
untila kadar it got to me,
49
158128
2980
Demo bana gelene kadar işe yaradı
02:53
and you can probablymuhtemelen guesstahmin it.
50
161132
1923
ve ne olduğunu tahmin edebilirsiniz.
02:55
It couldn'tcould detectbelirlemek my faceyüz.
51
163079
2965
Robot yüzümü algılayamadı.
02:58
I askeddiye sordu the developersgeliştiriciler what was going on,
52
166068
2511
Geliştiricisine ne olduğunu sordum
03:00
and it turneddönük out we had used the sameaynı
genericgenel facialYüz Bakımı recognitiontanıma softwareyazılım.
53
168603
5533
ve fark ettik ki aynı genel
yüz tanıma yazılımını kullanıyormuşuz.
03:06
HalfwayYarıya kadar around the worldDünya,
54
174160
1650
Dünyanın öbür ucunda
03:07
I learnedbilgili that algorithmicalgoritmik biasönyargı
can travelseyahat as quicklyhızlı bir şekilde
55
175834
3852
algoritmik yanlılığın
internetten dosya indirmek kadar
03:11
as it takes to downloadindir
some filesdosyaları off of the internetInternet.
56
179710
3170
hızlı yolculuk yaptığını öğrendim.
03:15
So what's going on?
Why isn't my faceyüz beingolmak detectedtespit?
57
183745
3076
Yani ne oluyor? Neden beni algılamıyor?
03:18
Well, we have to look
at how we give machinesmakineler sightgörme.
58
186845
3356
Makinelere nasıl görme yetisi
verdiğimize göz atmalıyız.
03:22
ComputerBilgisayar visionvizyon useskullanımları
machinemakine learningöğrenme techniquesteknikleri
59
190225
3409
Bilgisayar görüşü yüzü tanımlamak için
03:25
to do facialYüz Bakımı recognitiontanıma.
60
193658
1880
makine öğrenme tekniklerini kullanır.
03:27
So how this worksEserleri is, you createyaratmak
a trainingEğitim setset with examplesörnekler of facesyüzleri.
61
195562
3897
Bunun çalışma şekli sizin yüz örnekleriyle
eğitim seti oluşturmanızdır.
03:31
This is a faceyüz. This is a faceyüz.
This is not a faceyüz.
62
199483
2818
Bu bir yüz. Bu bir yüz.
Bu bir yüz değil.
03:34
And over time, you can teachöğretmek a computerbilgisayar
how to recognizetanımak other facesyüzleri.
63
202325
4519
Zamanla bilgisayara diğer yüzleri
nasıl tanımlayacağını öğretirsiniz.
03:38
HoweverAncak, if the trainingEğitim setskümeler
aren'tdeğil really that diverseçeşitli,
64
206868
3989
Fakat eğitim seti kapsamlı değilse
03:42
any faceyüz that deviatessapma too much
from the establishedkurulmuş normnorm
65
210881
3349
sabit normdan çok fazla sapan bir yüzü
03:46
will be harderDaha güçlü to detectbelirlemek,
66
214254
1649
tanımlamak zor olacaktır.
03:47
whichhangi is what was happeningolay to me.
67
215927
1963
Bana olduğu gibi.
03:49
But don't worryendişelenmek -- there's some good newshaber.
68
217914
2382
Ama merak etmeyin - iyi haberlerim var.
03:52
TrainingEğitim setskümeler don't just
materializegerçekleştirmek out of nowhereHiçbir yerde.
69
220320
2771
Eğitim setleri bir anda ortaya çıkmaz.
03:55
We actuallyaslında can createyaratmak them.
70
223115
1788
Aslında biz onları yaratabiliriz.
03:56
So there's an opportunityfırsat to createyaratmak
full-spectrumtam spektrumlu trainingEğitim setskümeler
71
224927
4176
Yani insanlığın daha zengin portresini
04:01
that reflectyansıtmak a richerzengin
portraitportre of humanityinsanlık.
72
229127
3824
çıkaran tam spektrumlu
eğitim seti oluşturabiliriz.
04:04
Now you've seengörüldü in my examplesörnekler
73
232975
2221
Şimdi örneklerimde sosyal robotlar
04:07
how socialsosyal robotsrobotlar
74
235220
1768
sayesinde algoritmik dışlanmayı
04:09
was how I foundbulunan out about exclusionhariç tutma
with algorithmicalgoritmik biasönyargı.
75
237012
4611
nasıl ortaya çıkardığımı gördünüz.
04:13
But algorithmicalgoritmik biasönyargı can alsoAyrıca leadöncülük etmek
to discriminatoryayrımcı practicesuygulamaları.
76
241647
4815
Ama algoritmik yanlılık ayrımcı
uygulamalara da yol açabilir.
04:19
AcrossArasında the US,
77
247437
1453
ABD çapında, polis merkezleri
04:20
policepolis departmentsbölümler are startingbaşlangıç to use
facialYüz Bakımı recognitiontanıma softwareyazılım
78
248914
4198
suçla mücadele cephaneliklerinde
04:25
in theironların crime-fightingsuçla mücadele arsenalArsenal.
79
253136
2459
yüz tanıma yazılımını kullanmaya başladı.
04:27
GeorgetownGeorgetown LawHukuk publishedyayınlanan a reportrapor
80
255619
2013
Georgetown Yasası ABD'de iki yetişkinden
04:29
showinggösterme that one in two adultsyetişkinler
in the US -- that's 117 millionmilyon people --
81
257656
6763
birinin - 117 milyon insanın- yüz tanıma
04:36
have theironların facesyüzleri
in facialYüz Bakımı recognitiontanıma networksağlar.
82
264443
3534
ağında yüzlerinin bulunduğunu açıkladı.
04:40
PolicePolis departmentsbölümler can currentlyşu anda look
at these networksağlar unregulateddüzensiz,
83
268001
4552
Polis merkezleri doğrulukları
denetlenmemiş
04:44
usingkullanma algorithmsalgoritmalar that have not
been auditeddenetlenmiş for accuracydoğruluk.
84
272577
4286
algoritmalar kullanarak
bu ağları izinsiz görebilir.
04:48
YetHenüz we know facialYüz Bakımı recognitiontanıma
is not failbaşarısız proofkanıt,
85
276887
3864
Biliyoruz ki yüz tanıma yanılmaz değil
04:52
and labelingetiketleme facesyüzleri consistentlysürekli olarak
remainskalıntılar a challengemeydan okuma.
86
280775
4179
ve yüzlerin tutarlı etiketlenmesi
hâlâ bir sorun.
Bunu Facebook da görmüş olabilirsiniz.
04:56
You mightbelki have seengörüldü this on FacebookFacebook.
87
284978
1762
04:58
My friendsarkadaşlar and I laughgülmek all the time
when we see other people
88
286764
2988
Arkadaşlarımla diğer insanların yanlış
05:01
mislabeledMislabeled in our photosfotoğraflar.
89
289776
2458
etiketlendiğini gördüğümüzde gülüyoruz.
05:04
But misidentifyingAlgıla a suspectedşüpheli criminaladli
is no laughinggülme mattermadde,
90
292258
5591
Şüpheli bir suçluyu yanlış tanımlamak
gülünç bir mesele
05:09
norne de is breachingihlal civilsivil libertiesözgürlükler.
91
297873
2827
veya sivil özgürlükleri ihlal değil.
05:12
MachineMakine learningöğrenme is beingolmak used
for facialYüz Bakımı recognitiontanıma,
92
300724
3205
Makine öğrenme yüz tanımada kullanılır
05:15
but it's alsoAyrıca extendinguzatma beyondötesinde the realmDiyar
of computerbilgisayar visionvizyon.
93
303953
4505
ama bilgisayar görüş alanının
ötesine de uzanıyor.
05:21
In her bookkitap, "WeaponsSilah
of MathMatematik Destructionİmha,"
94
309266
4016
Veri bilimcisi Cathy O'Neil
05:25
dataveri scientistBilim insanı CathyCathy O'NeilO'Neil
talksgörüşmeler about the risingyükselen newyeni WMDsKitle imha silahları --
95
313306
6681
"Matemetiksel İmha Silahları"
kitabında, hayatımızın
05:32
widespreadyaygın, mysteriousgizemli
and destructiveyıkıcı algorithmsalgoritmalar
96
320011
4353
daha çok boyutunu etkileyen kararlar
05:36
that are increasinglygiderek beingolmak used
to make decisionskararlar
97
324388
2964
almak için kullanılan yaygın,
gizemli ve yıkıcı
05:39
that impactdarbe more aspectsyönleri of our liveshayatları.
98
327376
3177
algoritmalarla KİS'lerden bahsediyor.
05:42
So who getsalır hiredkiralanmış or firedateş?
99
330577
1870
Peki işe alınan ya da kovulan kim?
05:44
Do you get that loanborç?
Do you get insurancesigorta?
100
332471
2112
O krediyi alıyor musun? Sigortan var mı?
05:46
Are you admittedkabul edilmiş into the collegekolej
you wanted to get into?
101
334607
3503
Girmek istediğin üniversiteye
kabul edildin mi?
05:50
Do you and I payödeme the sameaynı pricefiyat
for the sameaynı productürün
102
338134
3509
Aynı platformda satın alınan
aynı ürün için
05:53
purchasedsatın alındı on the sameaynı platformplatform?
103
341667
2442
sen ve ben aynı fiyatı mı ödüyoruz?
05:56
LawHukuk enforcementzorlama is alsoAyrıca startingbaşlangıç
to use machinemakine learningöğrenme
104
344133
3759
Güvenlik polisi öngörücü polislik için
05:59
for predictiveAkıllı policingPolislik.
105
347916
2289
otomatik öğrenmeyi kullanmaya başlıyor.
06:02
Some judgesyargıçlar use machine-generatedmakine tarafından oluşturulan
riskrisk scoresSkorlar to determinebelirlemek
106
350229
3494
Bazı hakimler hapis cezasını
06:05
how long an individualbireysel
is going to spendharcamak in prisonhapis.
107
353747
4402
belirlemek için makine üretimli
risk puanlarını kullanıyor.
06:10
So we really have to think
about these decisionskararlar.
108
358173
2454
Bu kararları gerçekten
düşünmek zorundayız.
06:12
Are they fairadil?
109
360651
1182
Adiller mi?
06:13
And we'vebiz ettik seengörüldü that algorithmicalgoritmik biasönyargı
110
361857
2890
Gördük ki algoritmik yanlılık her zaman
06:16
doesn't necessarilyzorunlu olarak always
leadöncülük etmek to fairadil outcomesçıktıları.
111
364771
3374
adil sonuçlar getirmez.
06:20
So what can we do about it?
112
368169
1964
Peki biz ne yapabiliriz?
06:22
Well, we can startbaşlama thinkingdüşünme about
how we createyaratmak more inclusivedahil codekod
113
370157
3680
Daha kapsamlı kod oluşturup
kapsamlı kod uygulamalarını
06:25
and employkullanmak inclusivedahil codingkodlama practicesuygulamaları.
114
373861
2990
nasıl kullandığımızı düşünebiliriz.
06:28
It really startsbaşlar with people.
115
376875
2309
Bu, insanlarla başlar.
06:31
So who codeskodları mattershususlar.
116
379708
1961
Yani kimin kodladığı önemlidir.
06:33
Are we creatingoluşturma full-spectrumtam spektrumlu teamstakımlar
with diverseçeşitli individualsbireyler
117
381693
4119
Birbirlerinin kör noktalarını görebilen
farklı kişilerle tam spektrumlu
06:37
who can checkKontrol eachher other'sdiğer en blindkör spotsnoktalar?
118
385836
2411
takımlar oluşturabiliyor muyuz?
06:40
On the technicalteknik sideyan,
how we codekod mattershususlar.
119
388271
3545
Teknik olarak, nasıl kodladığımız önemli.
06:43
Are we factoringfaktoring in fairnessAdalet
as we're developinggelişen systemssistemler?
120
391840
3651
Sistemi geliştirirken adaletle
mi oluşturuyoruz?
06:47
And finallyen sonunda, why we codekod mattershususlar.
121
395515
2913
Son olarak niçin kodladığımız önemlidir.
06:50
We'veBiz ettik used toolsaraçlar of computationalbilişimsel creationoluşturma
to unlockkilidini immenseengin wealthservet.
122
398785
5083
Harika zenginliğin kilidini açmak için
işlemsel yaratma araçlarını kullandık.
06:55
We now have the opportunityfırsat
to unlockkilidini even greaterbüyük equalityeşitlik
123
403892
4447
Sosyal değişimi sonraki düşünce değil,
07:00
if we make socialsosyal changedeğişiklik a priorityöncelik
124
408363
2930
öncelik hâline getirirsek daha geniş
07:03
and not an afterthoughtsonradan.
125
411317
2170
eşitliği açma fırsatımız olur.
07:06
And so these are the threeüç tenetsilkelerinin
that will make up the "incodingincoding" movementhareket.
126
414008
4522
"Incoding" hareketini oluşturan
gerekli üç ilke var:
07:10
Who codeskodları mattershususlar,
127
418554
1652
Kimin kodladığı,
07:12
how we codekod mattershususlar
128
420230
1543
nasıl kodladığı
07:13
and why we codekod mattershususlar.
129
421797
2023
ve niçin kodladığı.
07:15
So to go towardskarşı incodingincoding,
we can startbaşlama thinkingdüşünme about
130
423844
3099
Incoding'e yönelmek için
benim paylaştıklarım
07:18
buildingbina platformsplatformlar that can identifybelirlemek biasönyargı
131
426967
3164
gibi insanların deneyimlerini toplayarak
07:22
by collectingtoplama people'sinsanların experiencesdeneyimler
like the onesolanlar I sharedpaylaşılan,
132
430155
3078
yanlılığı belirleyen ve var olan yazılımı
07:25
but alsoAyrıca auditingdenetleme existingmevcut softwareyazılım.
133
433257
3070
denetleyen platformlar oluşturmayı
düşünmeye başlayabiliriz.
07:28
We can alsoAyrıca startbaşlama to createyaratmak
more inclusivedahil trainingEğitim setskümeler.
134
436351
3765
Ayrıca daha kapsamlı
eğitim setleri hazırlayabiliriz.
07:32
ImagineHayal a "SelfiesSelfies for InclusionDahil etme" campaignkampanya
135
440140
2803
Geliştiricilerin daha kapsamlı
eğitim setleri oluşturmasına
07:34
where you and I can help
developersgeliştiriciler testÖlçek and createyaratmak
136
442967
3655
ve deneyebilmesine yardım
ettiğimiz "Kaynaşmak için Özçekimler"
07:38
more inclusivedahil trainingEğitim setskümeler.
137
446646
2093
kampanyasını düşünün.
07:41
And we can alsoAyrıca startbaşlama thinkingdüşünme
more conscientiouslyvicdanlı
138
449302
2828
Ve şu an geliştirdiğimiz
teknolojinin toplumsal etkileri
07:44
about the socialsosyal impactdarbe
of the technologyteknoloji that we're developinggelişen.
139
452154
5391
konusunda daha vicdani
düşünmeye başlayabiliriz.
07:49
To get the incodingincoding movementhareket startedbaşladı,
140
457569
2393
Incoding hareketini başlatmak için
07:51
I've launchedbaşlattı the AlgorithmicAlgoritmik
JusticeAdalet LeagueLig,
141
459986
2847
adaletle ilgilenen birinin kodlu
bakışla savaşabileceği
07:54
where anyonekimse who caresbakımları about fairnessAdalet
can help fightkavga the codedkodlanmış gazebakışları.
142
462857
5872
Algoritmik Adalet Ligi'ni başlattım.
08:00
On codedgazecodedgaze.comcom, you can reportrapor biasönyargı,
143
468753
3296
codedgaze.com'da yanlılığı bildirebilir,
denetleme isteyebilir, deneyen olabilir,
08:04
requestistek auditsdenetimleri, becomeolmak a testertest cihazı
144
472073
2445
08:06
and joinkatılmak the ongoingdevam eden conversationkonuşma,
145
474542
2771
süren tartışmalara katılabilirsiniz,
08:09
#codedgazecodedgaze.
146
477337
2287
#codedgaze
Sizi dâhil olmaya ve
merkez sosyal değişime
08:12
So I inviteDavet etmek you to joinkatılmak me
147
480742
2487
değer verdiğimiz ve teknolojinin
sadece bir kısım için değil,
08:15
in creatingoluşturma a worldDünya where technologyteknoloji
worksEserleri for all of us,
148
483253
3719
herkes için işe yaradığı
08:18
not just some of us,
149
486996
1897
08:20
a worldDünya where we valuedeğer inclusioniçerme
and centermerkez socialsosyal changedeğişiklik.
150
488917
4588
bir dünyaya davet ediyorum.
Teşekkürler.
08:25
Thank you.
151
493529
1175
08:26
(ApplauseAlkış)
152
494728
4271
(Alkış)
08:32
But I have one questionsoru:
153
500873
2854
Bir sorum var.
08:35
Will you joinkatılmak me in the fightkavga?
154
503751
2059
Bu savaşta benimle misiniz?
(Gülüşmeler)
08:37
(LaughterKahkaha)
155
505834
1285
(Alkış)
08:39
(ApplauseAlkış)
156
507143
3687
Translated by esra alantepe
Reviewed by Suleyman Cengiz

▲Back to top

ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee