ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com
TEDxBeaconStreet

Joy Buolamwini: How I'm fighting bias in algorithms

Джой Буоламвини: Как я борюсь со сбоями в алгоритмах

Filmed:
1,223,943 views

Аспирант Массачусетского технологического института Джой Буоламвини работала с программным обеспечением для распознавания лиц, когда столкнулась с проблемой: люди, создавшие алгоритм, не научили его определять целый ряд оттенков кожи и лицевых структур. Сейчас она находится на миссии борьбы со сбоями в машинном обучении, с феноменом, который она назвала «закодированный взгляд». Это выступление, раскрывающее глаза на необходимость ответственного программирования по мере того, как алгоритмы захватывают всё больше и больше аспектов нашей жизни.
- Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion. Full bio

Double-click the English transcript below to play the video.

00:13
HelloЗдравствуйте, I'm JoyРадость, a poetпоэт of codeкод,
0
1041
3134
Привет, я Джой, поэт кода.
00:16
on a missionмиссия to stop
an unseenневидимый forceсила that's risingподнимающийся,
1
4199
4993
Моя миссия — остановить невидимую,
набирающую обороты силу,
00:21
a forceсила that I calledназывается "the codedзакодированный gazeпосмотреть,"
2
9216
2856
силу, которую я называю
«закодированный взгляд»,
00:24
my termсрок for algorithmicалгоритмический biasсмещение.
3
12096
3309
моё определение для алгоритмического сбоя.
00:27
Algorithmicалгоритмический biasсмещение, like humanчеловек biasсмещение,
resultsРезультаты in unfairnessнечестность.
4
15429
4300
Необъективность алгоритма, как и
человека, ведёт к несправедливости.
00:31
HoweverОднако, algorithmsалгоритмы, like virusesвирусы,
can spreadраспространение biasсмещение on a massiveмассивный scaleмасштаб
5
19753
6022
Алгоритмы, как вирусы, способны
распространять ошибки в больших масштабах
00:37
at a rapidбыстрый paceтемп.
6
25799
1582
и очень быстро.
00:39
Algorithmicалгоритмический biasсмещение can alsoтакже leadвести
to exclusionaryисключающий experiencesопыт
7
27943
4387
Алгоритмические отклонения
могут приводить к отчуждению
00:44
and discriminatoryдискриминационный practicesпрактика.
8
32354
2128
и дискриминации.
00:46
Let me showпоказать you what I mean.
9
34506
2061
Давайте я покажу, что я имею в виду.
00:48
(Videoвидео) JoyРадость BuolamwiniBuolamwini: HiЗдравствуй, cameraкамера.
I've got a faceлицо.
10
36980
2436
(Видео) Джой: Привет,
камера. Вот моё лицо.
00:52
Can you see my faceлицо?
11
40162
1864
Ты видишь моё лицо?
00:54
No-glassesНет-очки faceлицо?
12
42051
1625
Лицо без очков?
00:55
You can see her faceлицо.
13
43701
2214
Ты видишь её лицо.
00:58
What about my faceлицо?
14
46237
2245
А моё?
01:03
I've got a maskмаскировать. Can you see my maskмаскировать?
15
51890
3750
Теперь с маской. Видишь маску?
01:08
JoyРадость BuolamwiniBuolamwini: So how did this happenслучаться?
16
56474
2365
Джой Буоламвини: Как так получилось?
01:10
Why am I sittingсидящий in frontфронт of a computerкомпьютер
17
58863
3141
Почему я сижу за компьютером
01:14
in a whiteбелый maskмаскировать,
18
62028
1424
в белой маске,
01:15
tryingпытаясь to be detectedобнаруженный by a cheapдешево webcamВеб-камера?
19
63476
3650
пытаясь быть распознанной
дешёвой камерой?
01:19
Well, when I'm not fightingборьба the codedзакодированный gazeпосмотреть
20
67150
2291
Когда я не воюю с закодированным взглядом,
01:21
as a poetпоэт of codeкод,
21
69465
1520
будучи поэтом кода,
01:23
I'm a graduateвыпускник studentстудент
at the MITMIT MediaСМИ Labлаборатория,
22
71009
3272
я аспирант Медиа-лаборатории в МИТ,
01:26
and there I have the opportunityвозможность to work
on all sortsвиды of whimsicalкапризный projectsпроектов,
23
74305
4917
где у меня есть возможность работать
над всяческими фантастическими проектами,
01:31
includingв том числе the Aspireстремиться MirrorЗеркало,
24
79246
2027
включая Зеркало стремлений,
01:33
a projectпроект I did so I could projectпроект
digitalцифровой masksмаски ontoна my reflectionотражение.
25
81297
5134
которое позволяет проецировать
цифровые маски на своё отражение.
01:38
So in the morningутро, if I wanted
to feel powerfulмощный,
26
86455
2350
Например, если утром я хочу
чувствовать себя сильной,
01:40
I could put on a lionлев.
27
88829
1434
я могу наложить маску льва.
01:42
If I wanted to be upliftedподнятой,
I mightмог бы have a quoteкотировка.
28
90287
3496
Если я хочу приободриться,
то можно обойтись цитатой.
01:45
So I used genericобщий
facialлицевой recognitionпризнание softwareпрограммного обеспечения
29
93807
2989
Я использовала обычную
программу распознавания лиц,
01:48
to buildстроить the systemсистема,
30
96820
1351
чтобы создать эту систему,
01:50
but foundнайденный it was really hardжесткий to testконтрольная работа it
unlessесли I woreносил a whiteбелый maskмаскировать.
31
98195
5103
но оказалось, что её очень трудно
тестировать, если на мне нет белой маски.
01:56
UnfortunatelyК сожалению, I've runбег
into this issueвопрос before.
32
104282
4346
К сожалению, я и раньше
сталкивалась с этой проблемой.
02:00
When I was an undergraduateстудент
at GeorgiaГрузия TechТехнология studyingизучение computerкомпьютер scienceнаука,
33
108652
4303
Когда я изучала информатику
в Технологическом институте Джорджии,
02:04
I used to work on socialСоциальное robotsроботы,
34
112979
2055
я работала над социальными роботами,
02:07
and one of my tasksзадания was to get a robotробот
to playиграть peek-a-booка-ка,
35
115058
3777
и одной из моих задач было научить
робота играть в «ку-ку».
02:10
a simpleпросто turn-takingпошаговая принимая gameигра
36
118859
1683
Это простая игра со сменой ролей,
02:12
where partnersпартнеры coverобложка theirих faceлицо
and then uncoverраскрывать it sayingпоговорка, "Peek-a-booPeek-ку!"
37
120566
4321
когда участники закрывают лицо ладонями,
и, открывая, говорят: «Ку-ку!»
02:16
The problemпроблема is, peek-a-booка-ка
doesn't really work if I can't see you,
38
124911
4429
Проблема заключается в том, что
если вас не видно, то игра теряет смысл,
02:21
and my robotробот couldn'tне может see me.
39
129364
2499
а мой робот меня не видел.
02:23
But I borrowedзаимствованные my roommate'sсосед по комнате faceлицо
to get the projectпроект doneсделанный,
40
131887
3950
Моя соседка одолжила мне своё лицо,
чтобы я смогла закончить проект,
02:27
submittedОтправлено the assignmentназначение,
41
135861
1380
я сдала задание
02:29
and figuredфигурный, you know what,
somebodyкто-то elseеще will solveрешать this problemпроблема.
42
137265
3753
и подумала, что кто-нибудь другой
решит эту проблему.
02:33
Not too long after,
43
141669
2003
Через некоторое время
02:35
I was in HongHong KongKong
for an entrepreneurshipпредпринимательство competitionсоревнование.
44
143696
4159
я участвовала в конкурсе
предринимателей в Гонконге.
02:40
The organizersорганизаторы decidedприняли решение
to take participantsучастники
45
148339
2694
Организаторы решили показать участникам
02:43
on a tourтур of localместный start-upsстартапы.
46
151057
2372
местные стартапы.
02:45
One of the start-upsстартапы had a socialСоциальное robotробот,
47
153453
2715
В одном стартапе был социальный робот,
02:48
and they decidedприняли решение to do a demoдемонстрация.
48
156192
1912
и они решили его продемонстрировать.
02:50
The demoдемонстрация workedработал on everybodyвсе
untilдо it got to me,
49
158128
2980
Демонстрация сработала на всех,
пока дело не дошло до меня,
02:53
and you can probablyвероятно guessУгадай it.
50
161132
1923
и вы, наверное, уже догадались.
02:55
It couldn'tне может detectобнаружить my faceлицо.
51
163079
2965
Он не смог распознать моё лицо.
02:58
I askedспросил the developersРазработчики what was going on,
52
166068
2511
Я спросила у разработчиков, в чём дело,
03:00
and it turnedоказалось out we had used the sameодна и та же
genericобщий facialлицевой recognitionпризнание softwareпрограммного обеспечения.
53
168603
5533
и оказалось, что мы использовали одну
и ту же программу для распознавания лиц.
03:06
HalfwayНаполовину around the worldМир,
54
174160
1650
На другой половине земного шара
03:07
I learnedнаучился that algorithmicалгоритмический biasсмещение
can travelпутешествовать as quicklyбыстро
55
175834
3852
до меня дошло, что алгоритмическая ошибка
может распространяться так же быстро,
03:11
as it takes to downloadскачать
some filesфайлы off of the internetинтернет.
56
179710
3170
как быстро можно скачивать
файлы из интернета.
03:15
So what's going on?
Why isn't my faceлицо beingявляющийся detectedобнаруженный?
57
183745
3076
Так что же происходит? Почему
моё лицо не распознаётся?
03:18
Well, we have to look
at how we give machinesмашины sightвзгляд.
58
186845
3356
Для начала рассмотрим,
как мы создаём машинное зрение.
03:22
Computerкомпьютер visionвидение usesиспользования
machineмашина learningобучение techniquesметоды
59
190225
3409
Компьютерное зрение использует
техники машинного обучения,
03:25
to do facialлицевой recognitionпризнание.
60
193658
1880
чтобы распознавать лица.
03:27
So how this worksработает is, you createСоздайте
a trainingобучение setзадавать with examplesПримеры of facesлица.
61
195562
3897
Это работает таким образом: вы создаёте
тренировочный набор с примерами лиц.
03:31
This is a faceлицо. This is a faceлицо.
This is not a faceлицо.
62
199483
2818
Это лицо. Это лицо. Это не лицо.
03:34
And over time, you can teachучат a computerкомпьютер
how to recognizeпризнать other facesлица.
63
202325
4519
И постепенно вы можете научить
компьютер распознавать другие лица.
03:38
HoweverОднако, if the trainingобучение setsнаборы
aren'tне really that diverseразнообразный,
64
206868
3989
Однако, если тренировочные наборы
не очень разнообразны,
03:42
any faceлицо that deviatesотклоняется too much
from the establishedустановленный normнорма
65
210881
3349
любое лицо, которое сильно отличается
от установленной нормы,
03:46
will be harderСильнее to detectобнаружить,
66
214254
1649
будет сложно распознать,
03:47
whichкоторый is what was happeningпроисходит to me.
67
215927
1963
что и происходило со мной.
03:49
But don't worryбеспокоиться -- there's some good newsНовости.
68
217914
2382
Но не переживайте —
есть и хорошие новости.
03:52
TrainingОбучение setsнаборы don't just
materializeматериализовать out of nowhereнигде.
69
220320
2771
Тренировочные наборы
не появляются из ниоткуда.
03:55
We actuallyна самом деле can createСоздайте them.
70
223115
1788
Мы вообще-то можем их создавать.
03:56
So there's an opportunityвозможность to createСоздайте
full-spectrumполный спектр trainingобучение setsнаборы
71
224927
4176
Есть возможность создавать полный спектр
тренировочных наборов,
04:01
that reflectотражать a richerбогаче
portraitпортрет of humanityчеловечество.
72
229127
3824
которые отражают более насыщенный
портрет человечества.
04:04
Now you've seenвидели in my examplesПримеры
73
232975
2221
Вы увидели в моих примерах,
04:07
how socialСоциальное robotsроботы
74
235220
1768
как социальные роботы
04:09
was how I foundнайденный out about exclusionисключение
with algorithmicалгоритмический biasсмещение.
75
237012
4611
позволили мне обнаружить исключения
из-за алгоритмической погрешности.
04:13
But algorithmicалгоритмический biasсмещение can alsoтакже leadвести
to discriminatoryдискриминационный practicesпрактика.
76
241647
4815
Но алгоритмическая ошибка может также
приводить к дискриминации.
04:19
Acrossчерез the US,
77
247437
1453
В США
04:20
policeполиция departmentsведомства are startingначало to use
facialлицевой recognitionпризнание softwareпрограммного обеспечения
78
248914
4198
отделения полиции начинают использовать
программы распознавания лиц
04:25
in theirих crime-fightingборьба с преступностью arsenalарсенал.
79
253136
2459
в их арсенале борьбы с преступностью.
04:27
GeorgetownGeorgetown Lawзакон publishedопубликованный a reportдоклад
80
255619
2013
Школа права университета Джорджтаун
04:29
showingпоказ that one in two adultsВзрослые
in the US -- that's 117 millionмиллиона people --
81
257656
6763
опубликовала отчёт, согласно которому
в США один из двух взрослых —
04:36
have theirих facesлица
in facialлицевой recognitionпризнание networksсети.
82
264443
3534
это 117 миллионов человек —
имеют свои лица в сетях распознавания лиц.
04:40
PoliceПолиция departmentsведомства can currentlyВ данный момент look
at these networksсети unregulatedнерегулируемый,
83
268001
4552
Отделения полиции сейчас могут
неограниченно пользоваться этими сетями,
04:44
usingс помощью algorithmsалгоритмы that have not
been auditedаудит for accuracyточность.
84
272577
4286
используя алгоритмы, точность
которых не была проверена.
04:48
YetВсе же we know facialлицевой recognitionпризнание
is not failпотерпеть неудачу proofдоказательство,
85
276887
3864
Но мы знаем, что
распознавание лиц несовершенно
04:52
and labelingмаркировка facesлица consistentlyпоследовательно
remainsостатки a challengeвызов.
86
280775
4179
и что последовательное определение лиц
остаётся сложной задачей.
04:56
You mightмог бы have seenвидели this on Facebookfacebook.
87
284978
1762
Можно столкнуться с этим на Фейсбуке.
04:58
My friendsдрузья and I laughсмех all the time
when we see other people
88
286764
2988
Мы с друзьями всё время смеёмся,
когда видим других людей,
05:01
mislabeledнеправильно маркированный in our photosфото.
89
289776
2458
отмеченных на наших фото.
05:04
But misidentifyingmisidentifying a suspectedподозреваемый criminalпреступник
is no laughingсмеющийся matterдело,
90
292258
5591
Но ошибочное определение уголовно
подозреваемого — это не шутка
05:09
norни is breachingПРОРЫВНЫЕ civilгражданского libertiesсвободы.
91
297873
2827
и не просто нарушение гражданских свобод.
05:12
MachineМашина learningобучение is beingявляющийся used
for facialлицевой recognitionпризнание,
92
300724
3205
Машинное обучение используется
для распознавания лиц,
05:15
but it's alsoтакже extendingпростирающийся beyondза the realmобласть
of computerкомпьютер visionвидение.
93
303953
4505
но не ограничивается компьютерным зрением.
05:21
In her bookкнига, "Weaponsоружие
of Mathматематический Destructionразрушение,"
94
309266
4016
В своей книге «Оружие
математического поражения»
05:25
dataданные scientistученый CathyCathy O'NeilO'Neil
talksпереговоры about the risingподнимающийся newновый WMDsОМП --
95
313306
6681
учёный в области данных Кэти О'нейл
рассказывает о новом ОМП —
05:32
widespreadшироко распространен, mysteriousзагадочный
and destructiveразрушительный algorithmsалгоритмы
96
320011
4353
охватывающих, малоизвестных
и поражающих алгоритмах,
05:36
that are increasinglyвсе больше и больше beingявляющийся used
to make decisionsрешения
97
324388
2964
которые всё чаще используются
для принятия решений,
05:39
that impactвлияние more aspectsаспекты of our livesжизни.
98
327376
3177
которые влияют на всё большее количество
аспектов нашей жизни.
05:42
So who getsполучает hiredнаемный or firedуволен?
99
330577
1870
Кто будет принят на работу или уволен?
05:44
Do you get that loanссуда?
Do you get insuranceстрахование?
100
332471
2112
Дадут ли вам этот кредит? Страховку?
05:46
Are you admittedпризнал into the collegeколледж
you wanted to get into?
101
334607
3503
Попадёте ли вы в тот колледж,
в который собирались?
05:50
Do you and I payплатить the sameодна и та же priceцена
for the sameодна и та же productпродукт
102
338134
3509
Одинаковы ли цены для вас и для меня
на один и тот же товар,
05:53
purchasedкупленный on the sameодна и та же platformПлатформа?
103
341667
2442
купленный на той же платформе?
05:56
Lawзакон enforcementправоприменение is alsoтакже startingначало
to use machineмашина learningобучение
104
344133
3759
Правоохранительные органы также
начинают применять машинное обучение
05:59
for predictiveпрогностическое policingполицейская.
105
347916
2289
для прогнозирования.
06:02
Some judgesсудьи use machine-generatedМашина-порожденных
riskриск scoresмножество to determineопределить
106
350229
3494
Судьи используют рейтинги риска,
сгенерированные машиной, для определения
06:05
how long an individualиндивидуальный
is going to spendпроводить in prisonтюрьма.
107
353747
4402
срока, который человек
должен будет провести в тюрьме.
06:10
So we really have to think
about these decisionsрешения.
108
358173
2454
Мы должны крепко задуматься
над этими решениями.
06:12
Are they fairСправедливая?
109
360651
1182
Справедливы ли они?
06:13
And we'veмы в seenвидели that algorithmicалгоритмический biasсмещение
110
361857
2890
Мы видели, что алгоритмический сбой
06:16
doesn't necessarilyобязательно always
leadвести to fairСправедливая outcomesрезультаты.
111
364771
3374
ведёт к не совсем правильным результатам.
06:20
So what can we do about it?
112
368169
1964
Что же мы можем с этим сделать?
06:22
Well, we can startНачало thinkingмышление about
how we createСоздайте more inclusiveвключительно codeкод
113
370157
3680
Для начала, мы можем задуматься о том,
как создавать более всестороний код
06:25
and employиспользовать inclusiveвключительно codingкодирование practicesпрактика.
114
373861
2990
и применять инклюзивные практики
в программировании.
06:28
It really startsначинается with people.
115
376875
2309
Это всё начинается с людей.
06:31
So who codesкоды mattersвопросы.
116
379708
1961
Важно, кто пишет код.
06:33
Are we creatingсоздание full-spectrumполный спектр teamsкоманды
with diverseразнообразный individualsиндивидуумы
117
381693
4119
Создаём ли мы группы
из разнообразных личностей,
06:37
who can checkпроверить eachкаждый other'sдруга blindслепой spotsпятна?
118
385836
2411
способных видеть слепые зоны друг друга?
06:40
On the technicalтехнический sideбоковая сторона,
how we codeкод mattersвопросы.
119
388271
3545
С технической стороны, имеет значение
то, как мы пишем код.
06:43
Are we factoringфакторинг in fairnessсправедливость
as we're developingразвивающийся systemsсистемы?
120
391840
3651
Движет ли нами справедливость
во время разработки систем?
06:47
And finallyв конце концов, why we codeкод mattersвопросы.
121
395515
2913
И наконец, важно, для чего мы пишем код.
06:50
We'veУ нас used toolsинструменты of computationalвычислительный creationсоздание
to unlockотпереть immenseогромный wealthбогатство.
122
398785
5083
Использование компьютерного творчества
открыло нам невероятное богатство.
06:55
We now have the opportunityвозможность
to unlockотпереть even greaterбольшая equalityравенство
123
403892
4447
Сейчас у нас есть возможность
добиться ещё большего равенства,
07:00
if we make socialСоциальное changeизменение a priorityприоритет
124
408363
2930
если мы сделаем социальное
изменение приоритетной,
07:03
and not an afterthoughtраздумье.
125
411317
2170
а не запоздалой идеей.
07:06
And so these are the threeтри tenetsпостулаты
that will make up the "incodingincoding" movementдвижение.
126
414008
4522
Итак, есть три принципа, которые
составляют основу движения «инкодинг».
07:10
Who codesкоды mattersвопросы,
127
418554
1652
Важно, кто пишет код,
07:12
how we codeкод mattersвопросы
128
420230
1543
важно, как мы пишем код,
07:13
and why we codeкод mattersвопросы.
129
421797
2023
и важно, для чего мы пишем код.
07:15
So to go towardsв направлении incodingincoding,
we can startНачало thinkingмышление about
130
423844
3099
Двигаясь в сторону инкодинга,
мы можем начать задумываться
07:18
buildingздание platformsплатформы that can identifyидентифицировать biasсмещение
131
426967
3164
о создании платформ,
которые могут находить ошибку,
07:22
by collectingсбор people'sнародный experiencesопыт
like the onesте, I sharedобщий,
132
430155
3078
собирая опыт людей, таких как я,
07:25
but alsoтакже auditingаудит existingсуществующий softwareпрограммного обеспечения.
133
433257
3070
а также проверяющих существующее
программное обеспечение.
07:28
We can alsoтакже startНачало to createСоздайте
more inclusiveвключительно trainingобучение setsнаборы.
134
436351
3765
Также мы можем приступить к созданию
более полных тренировочных наборов.
07:32
ImagineПредставить a "SelfiesСеле for Inclusionвключение" campaignкампания
135
440140
2803
Представьте себе кампанию
«Селфи для присоединения»,
07:34
where you and I can help
developersРазработчики testконтрольная работа and createСоздайте
136
442967
3655
где вы и я можем помочь разработчикам
тестировать и создавать
07:38
more inclusiveвключительно trainingобучение setsнаборы.
137
446646
2093
более полные тренировочные наборы.
07:41
And we can alsoтакже startНачало thinkingмышление
more conscientiouslyдобросовестно
138
449302
2828
Также мы можем начать думать
более добросовестно
07:44
about the socialСоциальное impactвлияние
of the technologyтехнологии that we're developingразвивающийся.
139
452154
5391
о социальном влиянии технологии,
над которой мы работаем.
07:49
To get the incodingincoding movementдвижение startedначал,
140
457569
2393
Чтобы запустить движение инкодинга,
07:51
I've launchedзапущенный the Algorithmicалгоритмический
Justiceюстиция Leagueлига,
141
459986
2847
я создала Лигу алгоритмической
справедливости,
07:54
where anyoneкто угодно who caresзаботы about fairnessсправедливость
can help fightборьба the codedзакодированный gazeпосмотреть.
142
462857
5872
где каждый, кто заботится о равенстве,
может помочь бороться со сбоями.
08:00
On codedgazecodedgaze.comком, you can reportдоклад biasсмещение,
143
468753
3296
На codedgaze.com вы
можете сообщить об ошибке,
08:04
requestзапрос auditsаудит, becomeстали a testerтестер
144
472073
2445
запросить проверку, стать тестировщиком
08:06
and joinприсоединиться the ongoingпостоянный conversationразговор,
145
474542
2771
и присоединиться к обсуждению.
08:09
#codedgazecodedgaze.
146
477337
2287
#codedgaze.
08:12
So I inviteприглашать you to joinприсоединиться me
147
480742
2487
Я приглашаю вас присоединиться ко мне,
08:15
in creatingсоздание a worldМир where technologyтехнологии
worksработает for all of us,
148
483253
3719
чтобы создать мир, в котором технология
работает на всех нас,
08:18
not just some of us,
149
486996
1897
а не только на некоторых,
08:20
a worldМир where we valueстоимость inclusionвключение
and centerцентр socialСоциальное changeизменение.
150
488917
4588
мир, в котором мы ценим инклюзию и
сосредотачиваемся на социальных переменах.
08:25
Thank you.
151
493529
1175
Спасибо.
08:26
(ApplauseАплодисменты)
152
494728
4271
(Аплодисменты)
08:32
But I have one questionвопрос:
153
500873
2854
И у меня один вопрос:
08:35
Will you joinприсоединиться me in the fightборьба?
154
503751
2059
«А вы присоединитесь
ко мне в этой борьбе?»
08:37
(LaughterСмех)
155
505834
1285
(Смех)
08:39
(ApplauseАплодисменты)
156
507143
3687
(Аплодисменты)

▲Back to top

ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com