ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com
TEDxBeaconStreet

Joy Buolamwini: How I'm fighting bias in algorithms

Joy Buolami: Küzdelmem az algoritmikus előítélettel szemben

Filmed:
1,223,943 views

Az MIT hallgatója Joy Buolami arcfelismerő programmal dolgozott, amikor észrevett egy problémát: a program nem észlelte az ő arcát. Az algoritmust kódolói nem tanították meg bőrtónusok és arcszerkezetek szélesebb spektrumának felismerésére. Joy egy misszión van, ahol harcol a gépi tanulás torzításai, az általa "kódolt csőlátás"-nak nevezett jelenség ellen. Ez egy szemfelnyitó beszéd a kódolással összefüggő felelősség szükségességéről ... mivel az algoritmusok életünk egyre több és több területén jutnak meghatározó szerephez.
- Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion. Full bio

Double-click the English transcript below to play the video.

00:13
Hellohelló, I'm JoyÖröm, a poetköltő of codekód,
0
1041
3134
Sziasztok, én Joy vagyok, a kód poétája,
00:16
on a missionmisszió to stop
an unseenláthatatlan forceerő that's risingemelkedő,
1
4199
4993
és küldetésem egy láthatatlan,
egyre hatalmasabb erő,
00:21
a forceerő that I calledhívott "the codedkódolt gazetekintete,"
2
9216
2856
a "kódolt csőlátás" megfékezése.
00:24
my termkifejezés for algorithmicalgoritmikus biasElfogultság.
3
12096
3309
Így nevezem én az algoritmikus torzítást.
00:27
AlgorithmicAlgoritmikus biasElfogultság, like humanemberi biasElfogultság,
resultstalálatok in unfairnesstisztességtelen.
4
15429
4300
Ez, akárcsak az emberi előítélet,
igazságtalanságokhoz vezet.
00:31
HoweverAzonban, algorithmsalgoritmusok, like virusesvírusok,
can spreadterjedését biasElfogultság on a massivetömeges scaleskála
5
19753
6022
Az algoritmusok azonban
képesek e torzításokat járványszerűen,
óriási területen és hihetetlen
sebességgel terjeszteni.
00:37
at a rapidgyors pacesebesség.
6
25799
1582
00:39
AlgorithmicAlgoritmikus biasElfogultság can alsois leadvezet
to exclusionarykirekesztő experiencestapasztalatok
7
27943
4387
Az algoritmikus torzítás emellett
kizárásos tapasztalatokhoz,
00:44
and discriminatorymegkülönböztető practicesgyakorlatok.
8
32354
2128
és diszkriminációs gyakorlathoz
is vezethet.
00:46
Let me showelőadás you what I mean.
9
34506
2061
Bemutatom, mire gondolok.
00:48
(VideoVideóinak) JoyÖröm BuolamwiniBuolamwini: Hiszia, camerakamera.
I've got a facearc.
10
36980
2436
(Videó) Szia, kamera. Van egy arcom.
00:52
Can you see my facearc?
11
40162
1864
Látod az arcom?
00:54
No-glassesNo-szemüveg facearc?
12
42051
1625
A szemüveg nélküli arcom?
00:55
You can see her facearc.
13
43701
2214
Az ő arcát látod.
00:58
What about my facearc?
14
46237
2245
Mi a helyzet az én arcommal?
01:03
I've got a maskmaszk. Can you see my maskmaszk?
15
51890
3750
Van egy maszkom. Látod a maszkom?
01:08
JoyÖröm BuolamwiniBuolamwini: So how did this happentörténik?
16
56474
2365
Szóval, hogy hogy is történt ez?
01:10
Why am I sittingülés in frontelülső of a computerszámítógép
17
58863
3141
Miért ülök egy számítógéppel szemben
01:14
in a whitefehér maskmaszk,
18
62028
1424
egy fehér maszkban,
01:15
tryingmegpróbálja to be detectedészlelt by a cheapolcsó webcamwebkamera?
19
63476
3650
próbálva egy olcsó webkamerával
felismertetni magam?
01:19
Well, when I'm not fightingharcoló the codedkódolt gazetekintete
20
67150
2291
Mikor épp nem a kódolt
csőlátás ellen harcolo
01:21
as a poetköltő of codekód,
21
69465
1520
kódpoétaként,
01:23
I'm a graduateérettségizni studentdiák
at the MITMIT MediaMédia LabLabor,
22
71009
3272
akkor vagyok végzős hallgató
az MIT Media Lab-en,
01:26
and there I have the opportunitylehetőség to work
on all sortsfajta of whimsicalszeszélyes projectsprojektek,
23
74305
4917
ahol lehetőségem van mindenféle
furcsa projekten dolgozni.
01:31
includingbeleértve the AspireAspire MirrorTükör,
24
79246
2027
Ezek egyike az Aspire Mirror,
01:33
a projectprogram I did so I could projectprogram
digitaldigitális masksmaszkok onto-ra my reflectionvisszaverődés.
25
81297
5134
melyben digitális maszkokat tudok
a tükörképemre vetíteni.
01:38
So in the morningreggel, if I wanted
to feel powerfulerős,
26
86455
2350
Reggel, ha erősnek akarom érezni magam,
01:40
I could put on a lionoroszlán.
27
88829
1434
felveszek egy oroszlánt.
01:42
If I wanted to be upliftedmegemelve,
I mightesetleg have a quoteidézet.
28
90287
3496
Ha lelkesítésre van szükségem,
akkor talán egy idézetet.
01:45
So I used genericgenerikus
facialarc recognitionelismerés softwareszoftver
29
93807
2989
E rendszer megépítéséhez
egy általános arcfelismerő
programot használtam,
01:48
to buildépít the systemrendszer,
30
96820
1351
01:50
but foundtalál it was really hardkemény to testteszt it
unlesshacsak I woreviselt a whitefehér maskmaszk.
31
98195
5103
de fehér maszk nélkül
nehéz volt tesztelni.
01:56
UnfortunatelySajnos, I've runfuss
into this issueprobléma before.
32
104282
4346
Sajnos korábban már
beleütköztem ebbe a problémába.
02:00
When I was an undergraduategraduális
at GeorgiaGrúzia TechTech studyingtanul computerszámítógép sciencetudomány,
33
108652
4303
Amikor a Georgia Tech-en
számítástudományt tanultam.
02:04
I used to work on socialtársadalmi robotsrobotok,
34
112979
2055
társas robotokon dolgoztam,
02:07
and one of my tasksfeladatok was to get a robotrobot
to playjáték peek-a-booPeek-a-boo,
35
115058
3777
és az egyik feladat az volt,
hogy bújócskázzak egyikükkel,
02:10
a simpleegyszerű turn-takingviszont-bevétel gamejátszma, meccs
36
118859
1683
ami egy egyszerű oda-vissza játék.
02:12
where partnerspartnerek coverborító theirazok facearc
and then uncoverfeltárni it sayingmondás, "Peek-a-booPeek-a-boo!"
37
120566
4321
A partnerek eltakarták az arcukat,
aztán felfedték: "Aki bújt, aki nem..."
02:16
The problemprobléma is, peek-a-booPeek-a-boo
doesn't really work if I can't see you,
38
124911
4429
A probléma, hogy nehéz bújócskázni,
ha nem látjuk egymást.
02:21
and my robotrobot couldn'tnem tudott see me.
39
129364
2499
A robotom pedig nem látott engem.
02:23
But I borrowedkölcsön my roommate'sszobatárs facearc
to get the projectprogram doneKész,
40
131887
3950
Ezért kölcsönvettem a szobatársam arcát
a projekt idejére,
02:27
submittedbenyújtott the assignmentfeladat,
41
135861
1380
aztán beadtam a feladatot.
02:29
and figuredmintás, you know what,
somebodyvalaki elsemás will solvemegfejt this problemprobléma.
42
137265
3753
Majd rájöttem, hogy valaki más
fogja megoldani ezt a problémát.
02:33
Not too long after,
43
141669
2003
Nem sokkal később,
02:35
I was in HongHong KongKong
for an entrepreneurshipvállalkozói szellem competitionverseny.
44
143696
4159
Hong Kongban voltam
egy vállalkozói versenyen.
02:40
The organizersszervezők decidedhatározott
to take participantsrésztvevők
45
148339
2694
A szervezők látogatásra
vitték a résztvevőket
02:43
on a tourtúra of localhelyi start-upsinduló.
46
151057
2372
helybeli startup vállalkozásokhoz.
02:45
One of the start-upsinduló had a socialtársadalmi robotrobot,
47
153453
2715
Az egyiknek volt egy társas robotja,
02:48
and they decidedhatározott to do a demodemo.
48
156192
1912
amivel készítettek egy bemutatót.
02:50
The demodemo workeddolgozott on everybodymindenki
untilamíg it got to me,
49
158128
2980
Ez mindenkin működött, kivéve engem,
02:53
and you can probablyvalószínűleg guessTaláld ki it.
50
161132
1923
és valószínűleg kitalálják:
02:55
It couldn'tnem tudott detectfelismerni my facearc.
51
163079
2965
az én arcomat nem érzékelte.
02:58
I askedkérdezte the developersfejlesztők what was going on,
52
166068
2511
Kérdeztem a fejlesztőket, mi történik.
03:00
and it turnedfordult out we had used the sameazonos
genericgenerikus facialarc recognitionelismerés softwareszoftver.
53
168603
5533
Kiderült, hogy ugyanazt
az arcfelismerő programot használtuk.
A világ másik felén jöttem rá,
03:06
HalfwayFélúton around the worldvilág,
54
174160
1650
03:07
I learnedtanult that algorithmicalgoritmikus biasElfogultság
can travelutazás as quicklygyorsan
55
175834
3852
hogy az algoritmikus torzítás
terjedése olyan gyors,
03:11
as it takes to downloadLetöltés
some filesfájlok off of the internetInternet.
56
179710
3170
mint pár fájl letöltése az internetről.
03:15
So what's going on?
Why isn't my facearc beinglény detectedészlelt?
57
183745
3076
De mi is történik itt?
Miért nem érzékeli az arcom?
03:18
Well, we have to look
at how we give machinesgépek sightlátás.
58
186845
3356
Nézzük meg,
hogy tanítjuk meg látni a gépeket.
03:22
ComputerSzámítógép visionlátomás usesfelhasználások
machinegép learningtanulás techniquestechnikák
59
190225
3409
A gépi látás gépi tanulási
technikákat használnak
03:25
to do facialarc recognitionelismerés.
60
193658
1880
az arcfelismeréshez.
03:27
So how this worksművek is, you createteremt
a trainingkiképzés setkészlet with examplespéldák of facesarcok.
61
195562
3897
Ez úgy működik, hogy különböző arcokból
betanító adathalmazokat készítünk.
03:31
This is a facearc. This is a facearc.
This is not a facearc.
62
199483
2818
Ez egy arc. Ez egy arc. Ez nem egy arc.
03:34
And over time, you can teachtanít a computerszámítógép
how to recognizeelismerik other facesarcok.
63
202325
4519
A gép idővel megtanul
más arcokat is felismerni.
03:38
HoweverAzonban, if the trainingkiképzés setskészletek
aren'tnem really that diversekülönböző,
64
206868
3989
Ha azonban a betanító sorozat
nem elég változatos,
03:42
any facearc that deviateseltér too much
from the establishedalapított normnorma
65
210881
3349
az átlagtól jelentősen eltérő arcokat
03:46
will be hardernehezebb to detectfelismerni,
66
214254
1649
nehezen fogja felismerni.
03:47
whichmelyik is what was happeningesemény to me.
67
215927
1963
Ez történt az esetemben is.
03:49
But don't worryaggodalom -- there's some good newshírek.
68
217914
2382
De semmi gond, vannak azért jó hírek is.
03:52
TrainingKépzés setskészletek don't just
materializevalósult meg out of nowheremost itt.
69
220320
2771
A betanító adathalmazok
nem a semmiből lesznek.
03:55
We actuallytulajdonképpen can createteremt them.
70
223115
1788
Mi tudunk ilyeneket készíteni.
03:56
So there's an opportunitylehetőség to createteremt
full-spectrumteljes spektrumú trainingkiképzés setskészletek
71
224927
4176
Tudunk teljes spektrumú
betanító készleteket gyártani,
04:01
that reflecttükrözik a richergazdagabb
portraitportré of humanityemberiség.
72
229127
3824
melyek jobban tükrözik
az emberi arcok sokféleségét.
04:04
Now you've seenlátott in my examplespéldák
73
232975
2221
Láthatták a példáimon,
04:07
how socialtársadalmi robotsrobotok
74
235220
1768
hogyan vettem észre a társas robotoknál
04:09
was how I foundtalál out about exclusionkirekesztés
with algorithmicalgoritmikus biasElfogultság.
75
237012
4611
ezeket az algoritmikus torzításokat.
04:13
But algorithmicalgoritmikus biasElfogultság can alsois leadvezet
to discriminatorymegkülönböztető practicesgyakorlatok.
76
241647
4815
Az algoritmikus torzítás azonban
diszkriminációhoz vezethet.
04:19
AcrossEgész the US,
77
247437
1453
A rendőrség Amerika-szerte
04:20
policerendőrség departmentsosztályok are startingkiindulási to use
facialarc recognitionelismerés softwareszoftver
78
248914
4198
elkezdett arcfelismerő
programokat használni
04:25
in theirazok crime-fightingbűnözés elleni küzdelem arsenalArsenal.
79
253136
2459
a bűnözés elleni harcban.
04:27
GeorgetownGeorgetown LawTörvény publishedközzétett a reportjelentés
80
255619
2013
A Georgtown-i törvényszék
jelentése szerint
04:29
showingkiállítás that one in two adultsfelnőttek
in the US -- that's 117 millionmillió people --
81
257656
6763
minden második amerikai felnőtt -
azaz 117 millió ember -
04:36
have theirazok facesarcok
in facialarc recognitionelismerés networkshálózatok.
82
264443
3534
arca szerepel arcfelismerő hálózatokban.
04:40
PoliceRendőrség departmentsosztályok can currentlyjelenleg look
at these networkshálózatok unregulatednem szabályozott,
83
268001
4552
A rendőrség szabályozatlanul
fér hozzá e hálózatokhoz,
04:44
usinghasználva algorithmsalgoritmusok that have not
been auditedellenőrzött for accuracypontosság.
84
272577
4286
olyan algoritmusokkal, melyek pontosságát
senki nem ellenőrizte.
04:48
YetMég we know facialarc recognitionelismerés
is not failnem sikerül proofbizonyíték,
85
276887
3864
Tudjuk, hogy az arcfelismerés
nem elég megbízható,
04:52
and labelingcímkézés facesarcok consistentlykövetkezetesen
remainsmaradványok a challengekihívás.
86
280775
4179
és az arcok következetes felismerése
továbbra is gondot okoz.
04:56
You mightesetleg have seenlátott this on FacebookFacebook.
87
284978
1762
Láthatták a Facebookon.
04:58
My friendsbarátok and I laughnevetés all the time
when we see other people
88
286764
2988
A barátaim és én mindig nevetünk
05:01
mislabeledmislabeled in our photosfotók.
89
289776
2458
mások félrejelölt képein a fotóinkon.
05:04
But misidentifyinghálózatbeállításokat a suspectedfeltételezett criminalBűnügyi
is no laughingnevetés matterügy,
90
292258
5591
De tévesen felismerni
egy bűnözőt, nem vicces,
05:09
norsem is breachingmegsértése civilcivil libertiesszabadságjogok.
91
297873
2827
mint ahogy a személyes szabadság
megsértése sem az.
05:12
MachineGép learningtanulás is beinglény used
for facialarc recognitionelismerés,
92
300724
3205
A gépi tanulást
arcfelismerésre használják,
05:15
but it's alsois extendingkiterjedő beyondtúl the realmbirodalom
of computerszámítógép visionlátomás.
93
303953
4505
de már a a számítógépes látás
területén kívül is használják.
05:21
In her bookkönyv, "WeaponsFegyverek
of MathMatematikai DestructionMegsemmisítése,"
94
309266
4016
"Weapons of Math Destruction"
[Matematikai fegyverek] című könyvében
05:25
dataadat scientisttudós CathyCathy O'NeilO'Neil
talksbeszél about the risingemelkedő newúj WMDsTömegpusztító fegyverek --
95
313306
6681
Cathy O'Neil adattudós
a WMO-k - egyre szaporodó,
05:32
widespreadszéles körben elterjedt, mysteriousrejtélyes
and destructiveromboló algorithmsalgoritmusok
96
320011
4353
rejtélyes és pusztító algoritmusok -
térnyeréséről ír,
05:36
that are increasinglyegyre inkább beinglény used
to make decisionsdöntések
97
324388
2964
melyeket fontos döntések során használnak,
05:39
that impacthatás more aspectsszempontok of our liveséletét.
98
327376
3177
és melyek életünk
több területére kihatnak.
05:42
So who getsjelentkeznek hiredbérelt or firedkirúgott?
99
330577
1870
Kit veszünk fel és kit rúgunk ki?
05:44
Do you get that loanhitel?
Do you get insurancebiztosítás?
100
332471
2112
Ki kap hitelt? Ki köthet biztosítást?
05:46
Are you admittedfelvételt nyer into the collegefőiskola
you wanted to get into?
101
334607
3503
Felvesznek a fősulira,
ahova be akarunk kerülni?
05:50
Do you and I payfizetés the sameazonos priceár
for the sameazonos producttermék
102
338134
3509
Az egy adott helyez vásárolt
azonos termékekért
05:53
purchasedvásárolt on the sameazonos platformemelvény?
103
341667
2442
vajon ugyanazt az árat fizetjük?
05:56
LawTörvény enforcementvégrehajtás is alsois startingkiindulási
to use machinegép learningtanulás
104
344133
3759
A törvénykezés elkezdte a gépi tanulást
05:59
for predictivea prediktív policingrendőri.
105
347916
2289
a bűnmegelőzésben is használni.
06:02
Some judgesbírók use machine-generatedgép által generált
riskkockázat scorespontszámok to determinemeghatározására
106
350229
3494
Egyes bírók gép által generált
kockázati értékek alapján döntik el,
06:05
how long an individualEgyedi
is going to spendtölt in prisonbörtön.
107
353747
4402
mennyi időt üljön valaki börtönben.
06:10
So we really have to think
about these decisionsdöntések.
108
358173
2454
Nagyon el kell gondolkoznunk
ezeken a döntéseken.
06:12
Are they fairbecsületes?
109
360651
1182
Igazságosak vajon?
06:13
And we'vevoltunk seenlátott that algorithmicalgoritmikus biasElfogultság
110
361857
2890
Láthattuk, hogy az algoritmikus torzítás
06:16
doesn't necessarilyszükségszerűen always
leadvezet to fairbecsületes outcomeseredmények.
111
364771
3374
nem mindig vezet
igazságos végkimenetelhez.
06:20
So what can we do about it?
112
368169
1964
Mit tudunk hát tenni?
06:22
Well, we can startRajt thinkinggondolkodás about
how we createteremt more inclusiveinclusive codekód
113
370157
3680
Ki kell találnunk, hogyan készítsünk
tökéletesebb kódokat,
06:25
and employfoglalkoztat inclusiveinclusive codingkódolás practicesgyakorlatok.
114
373861
2990
jobb kódolási gyakorlatok alkalmazásával.
06:28
It really startskezdődik with people.
115
376875
2309
És ez az emberekkel kezdődik.
06:31
So who codeskódok mattersügyek.
116
379708
1961
A kódolókkal, programozókkal.
06:33
Are we creatinglétrehozása full-spectrumteljes spektrumú teamscsapat
with diversekülönböző individualsegyének
117
381693
4119
Vajon a fejlesztői teamek
összetétele elég változatos ahhoz,
06:37
who can checkjelölje be eachminden egyes other'smásik blindvak spotshelyek?
118
385836
2411
hogy a tagok képesek legyenek
egymás gyenge pontjait kiküszöbölni?
06:40
On the technicalműszaki sideoldal,
how we codekód mattersügyek.
119
388271
3545
Technikai oldalról nézve az számít,
hogy hogyan kódolunk.
06:43
Are we factoringfaktoring in fairnessméltányosság
as we're developingfejlesztés systemsrendszerek?
120
391840
3651
Beépítjük az igazságosságot
a rendszerek fejlesztése során?
06:47
And finallyvégül, why we codekód mattersügyek.
121
395515
2913
És végül: miért is kódolunk?
06:50
We'veMost már used toolsszerszámok of computationalszámítási creationTeremtés
to unlockkinyit immenseóriási wealthjólét.
122
398785
5083
A számítástechnika eszközei
hatalmas gazdagságra nyitottak kaput.
06:55
We now have the opportunitylehetőség
to unlockkinyit even greaternagyobb equalityegyenlőség
123
403892
4447
Most lehetőségünk van nagyobb
egyenlőség elérésére,
07:00
if we make socialtársadalmi changeváltozás a prioritykiemelten fontos
124
408363
2930
ha rendszereinket kezdettől fogva
07:03
and not an afterthoughtutólag.
125
411317
2170
a társadalmi változásokat
szem előtt tartva fejlesztjük.
07:06
And so these are the threehárom tenetstételei
that will make up the "incodingincoding" movementmozgalom.
126
414008
4522
Ez a "belekódolás" mozgalom
három alapeleme:
07:10
Who codeskódok mattersügyek,
127
418554
1652
Ki kódol?
07:12
how we codekód mattersügyek
128
420230
1543
Hogyan kódol?
07:13
and why we codekód mattersügyek.
129
421797
2023
Miért kódol?
07:15
So to go towardsfelé incodingincoding,
we can startRajt thinkinggondolkodás about
130
423844
3099
A "belekódolás" irányába való
elmozduláshoz szükségünk lesz
07:18
buildingépület platformsállványok that can identifyazonosítani biasElfogultság
131
426967
3164
olyan megoldásokra, amelyek képesek
az enyémhez hasonló
07:22
by collectinggyűjtő people'semberek experiencestapasztalatok
like the onesazok I sharedmegosztott,
132
430155
3078
emberi tapasztalatok gyűjtésével,
és létező rendszerek ellenőrzésével
07:25
but alsois auditingnaplózás existinglétező softwareszoftver.
133
433257
3070
felismerni az algoritmikus torzítást.
07:28
We can alsois startRajt to createteremt
more inclusiveinclusive trainingkiképzés setskészletek.
134
436351
3765
Közben elkezdhetünk jobb
betanító készleteket összeállítani.
07:32
ImagineKépzeld el a "SelfiesSelfies for InclusionFelvétel" campaignkampány
135
440140
2803
Képzeljünk el egy "Közreműködő selfie-k"
kampányt,
07:34
where you and I can help
developersfejlesztők testteszt and createteremt
136
442967
3655
mellyel segíthetjük a fejlesztőket
átfogóbb betanítási készletek
07:38
more inclusiveinclusive trainingkiképzés setskészletek.
137
446646
2093
létrehozásában és tesztelésében.
07:41
And we can alsois startRajt thinkinggondolkodás
more conscientiouslylelkiismeretesen
138
449302
2828
És elkezdhetünk lelkiismeretesebben
gondolkozni
07:44
about the socialtársadalmi impacthatás
of the technologytechnológia that we're developingfejlesztés.
139
452154
5391
az általunk fejlesztett technológia
társadalmi hatásairól.
07:49
To get the incodingincoding movementmozgalom startedindult,
140
457569
2393
A "belekódolási" mozgalom elindításához
07:51
I've launchedindított the AlgorithmicAlgoritmikus
JusticeIgazságszolgáltatás LeagueLiga,
141
459986
2847
Megalapítottam
az Algoritmikus Igazság Ligáját,
07:54
where anyonebárki who caresgondok about fairnessméltányosság
can help fightharc the codedkódolt gazetekintete.
142
462857
5872
melyhez bárki csatlakozhat, és segíthet
a kódolt csőlátás elleni harcban.
08:00
On codedgazecodedgaze.comcom, you can reportjelentés biasElfogultság,
143
468753
3296
A codedgaze.com oldalon
bejelenthetnek részrehajlást,
08:04
requestkérelem auditsellenőrzések, becomeválik a testervizsgáló
144
472073
2445
kérhetnek felülvizsgálatot,
jelentkezhetnek tesztelőnek,
08:06
and joincsatlakozik the ongoingfolyamatban lévő conversationbeszélgetés,
145
474542
2771
és csatlakozhatnak beszélgetésekhez.
08:09
#codedgazecodedgaze.
146
477337
2287
#codedgaze.
08:12
So I invitemeghívás you to joincsatlakozik me
147
480742
2487
Kérem hát önöket,
csatlakozzanak egy világhoz,
08:15
in creatinglétrehozása a worldvilág where technologytechnológia
worksművek for all of us,
148
483253
3719
ahol a technika mindnyájunkért van,
08:18
not just some of us,
149
486996
1897
nem csak néhányunkért.
08:20
a worldvilág where we valueérték inclusionbefogadás
and centerközpont socialtársadalmi changeváltozás.
150
488917
4588
Egy világhoz, ahol a részvétel
és a társadalmi változás van a központban!
08:25
Thank you.
151
493529
1175
Köszönöm.
08:26
(ApplauseTaps)
152
494728
4271
( Taps)
08:32
But I have one questionkérdés:
153
500873
2854
Végül van még egy kérdésem:
08:35
Will you joincsatlakozik me in the fightharc?
154
503751
2059
Csatlakoznak hozzám e harcban?
08:37
(LaughterNevetés)
155
505834
1285
(Nevetés)
08:39
(ApplauseTaps)
156
507143
3687
(Taps)
Translated by Dávid Victoria
Reviewed by Csaba Lóki

▲Back to top

ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee