ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com
TEDxBeaconStreet

Joy Buolamwini: How I'm fighting bias in algorithms

ジョイ・ブォロムウィニ: アルゴリズムに潜む偏見との戦い

Filmed:
1,223,943 views

MITの大学院生ジョイ・ブォロムウィニは、顔認識ソフトを使っていて、ある問題に気づきました。自分の顔が認識されないのです。原因は、アルゴリズムをコード化した開発者が多様な肌の色や容貌を認識するようソフトを訓練していなかったからでした。そこでジョイは、「コード化された視線」と彼女が呼ぶ、機械学習における偏見との戦いに身を投じました。生活のいろいろな側面にアルゴリズムがどんどん入り込んでいる現在、コーディングにも説明責任が求められる、というジョイの主張は新鮮な驚きに満ちています。
- Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion. Full bio

Double-click the English transcript below to play the video.

00:13
Helloこんにちは, I'm Joy喜び, a poet詩人 of codeコード,
0
1041
3134
こんにちは
コードの詩人 ジョイです
00:16
on a missionミッション to stop
an unseen見えない force that's rising上昇する,
1
4199
4993
私の使命は 強まりつつある
目に見えない力
00:21
a force that I calledと呼ばれる "the codedコードされた gaze視線,"
2
9216
2856
「コード化された視線」
と私が呼ぶ―
00:24
my term期間 for algorithmicアルゴリズム的 biasバイアス.
3
12096
3309
アルゴリズムにおける偏見を
阻止することです
00:27
Algorithmicアルゴリズム biasバイアス, like human人間 biasバイアス,
results結果 in unfairness不公平.
4
15429
4300
アルゴリズムも 人と同じで
偏見が入り込むと不公正な結果を生みます
00:31
Howeverしかしながら, algorithmsアルゴリズム, like virusesウイルス,
can spread普及 biasバイアス on a massive大規模 scale規模
5
19753
6022
しかも アルゴリズムはウイルスのように
偏見をどんどん拡散してしまいます
00:37
at a rapid迅速な paceペース.
6
25799
1582
それも急速にです
00:39
Algorithmicアルゴリズム biasバイアス can alsoまた、 lead
to exclusionary排他的 experiences経験
7
27943
4387
アルゴリズムの偏見は
排他的な扱いや
00:44
and discriminatory差別的な practices実践.
8
32354
2128
差別行為を生む恐れもあります
00:46
Let me showショー you what I mean.
9
34506
2061
具体的にお見せしましょう
00:48
(Videoビデオ) Joy喜び BuolamwiniBuolamwini: Hiこんにちは, cameraカメラ.
I've got a face.
10
36980
2436
(ビデオ)ねえ カメラくん
私には顔があるわ
00:52
Can you see my face?
11
40162
1864
私の顔が見える?
00:54
No-glasses無眼鏡 face?
12
42051
1625
メガネを外した方がいいかな?
00:55
You can see her face.
13
43701
2214
この人の顔は見えるわね
00:58
What about my face?
14
46237
2245
私の顔はどう?
01:03
I've got a maskマスク. Can you see my maskマスク?
15
51890
3750
お面をつけるわ
このお面は見える?
01:08
Joy喜び BuolamwiniBuolamwini: So how did this happen起こる?
16
56474
2365
(ジョイ)何が起きたのでしょう?
01:10
Why am I sitting座っている in frontフロント of a computerコンピューター
17
58863
3141
私が白い仮面をつけて
01:14
in a white maskマスク,
18
62028
1424
コンピュータの前に座り
01:15
trying試す to be detected検出された by a cheap安いです webcamウェブカメラ?
19
63476
3650
安いウェブカメラで検知されるか
試している理由は?
01:19
Well, when I'm not fighting戦う the codedコードされた gaze視線
20
67150
2291
コードの詩人として
コード化された視線と
01:21
as a poet詩人 of codeコード,
21
69465
1520
戦うとき以外の私は
01:23
I'm a graduate卒業 student学生
at the MITMIT Mediaメディア Labラボ,
22
71009
3272
MITメディアラボの大学院生で
01:26
and there I have the opportunity機会 to work
on all sortsソート of whimsical気まぐれな projectsプロジェクト,
23
74305
4917
ちょっと変わったプロジェクトに
いろいろ関わっています
01:31
includingを含む the Aspire熱望 Mirror,
24
79246
2027
その1つの
「Aspire Mirror(鼓舞する鏡)」は
01:33
a projectプロジェクト I did so I could projectプロジェクト
digitalデジタル masksマスク onto〜に my reflection反射.
25
81297
5134
鏡に映った自分の顔に
デジタルの仮面を重ねるものです
01:38
So in the morning, if I wanted
to feel powerful強力な,
26
86455
2350
朝起きてパワフルな気分に
なりたければ
01:40
I could put on a lionライオン.
27
88829
1434
ライオンの面をつけたり
01:42
If I wanted to be uplifted隆起した,
I mightかもしれない have a quote見積もり.
28
90287
3496
気分を高めるために
何かを「引用」したりできます
01:45
So I used genericジェネリック
facialフェイシャル recognition認識 softwareソフトウェア
29
93807
2989
このとき 私は
一般的な顔認識ソフトを使い
システムを組もうとしたのですが
01:48
to buildビルドする the systemシステム,
30
96820
1351
01:50
but found見つけた it was really hardハード to testテスト it
unless限り I wore着て a white maskマスク.
31
98195
5103
白い仮面をつけないと
テストすら難しいと気づきました
01:56
Unfortunately残念ながら, I've run走る
into this issue問題 before.
32
104282
4346
実は この問題に悩まされたのは
初めてではありませんでした
02:00
When I was an undergraduate学部
at Georgiaジョージア州 Techテック studying勉強する computerコンピューター science科学,
33
108652
4303
ジョージア工科大学で
コンピュータ科学を学んでいたとき
02:04
I used to work on socialソーシャル robotsロボット,
34
112979
2055
ソーシャルロボットを研究していて
02:07
and one of my tasksタスク was to get a robotロボット
to play遊びます peek-a-booピック・ア・ブー,
35
115058
3777
ロボット相手に
代わりばんこに
「いないいないばあ」をするという
課題がありました
02:10
a simple単純 turn-takingターン gameゲーム
36
118859
1683
02:12
where partnersパートナー coverカバー their彼らの face
and then uncover明らかにする it saying言って, "Peek-a-booピック・ア・ブー!"
37
120566
4321
顔を覆った手を 「ばあ!」のところで
どけて顔を見せる遊びですね
02:16
The problem問題 is, peek-a-booピック・ア・ブー
doesn't really work if I can't see you,
38
124911
4429
相手の顔が見えないと
成立しないゲームですが
02:21
and my robotロボット couldn'tできなかった see me.
39
129364
2499
ロボットは私の顔を
認識できませんでした
02:23
But I borrowed借りた my roommate'sルームメイト face
to get the projectプロジェクト done完了,
40
131887
3950
私はルームメイトの顔を借りて
どうにか作業を終え
02:27
submitted提出済み the assignment割り当て,
41
135861
1380
課題を提出しました
02:29
and figured思った, you know what,
somebody誰か elseelse will solve解決する this problem問題.
42
137265
3753
そのときは このバグも誰かが
直してくれると思っていました
02:33
Not too long after,
43
141669
2003
それから少しして 私は
02:35
I was in Hong香港 Kong香港
for an entrepreneurship起業家精神 competitionコンペ.
44
143696
4159
起業コンテストに参加するため
香港に行きました
02:40
The organizers主催者 decided決定しました
to take participants参加者
45
148339
2694
参加者たちは
いくつかの地元の新興企業に
02:43
on a tourツアー of local地元 start-upsスタートアップ.
46
151057
2372
案内されました
02:45
One of the start-upsスタートアップ had a socialソーシャル robotロボット,
47
153453
2715
ある会社の製品は
ソーシャルロボットで
02:48
and they decided決定しました to do a demoデモ.
48
156192
1912
デモを見せてもらうことに
なりました
02:50
The demoデモ worked働いた on everybodyみんな
until〜まで it got to me,
49
158128
2980
デモは成功し
私の番がやって来ます
02:53
and you can probably多分 guess推測 it.
50
161132
1923
結果はご想像のとおり
02:55
It couldn'tできなかった detect検出する my face.
51
163079
2965
私の顔は検知されません
02:58
I asked尋ねた the developers開発者 what was going on,
52
166068
2511
「どうなってるの?」
と開発者たちに尋ねたら
03:00
and it turned回した out we had used the same同じ
genericジェネリック facialフェイシャル recognition認識 softwareソフトウェア.
53
168603
5533
私と同じ顔認識ソフトを
使っていることが判明しました
03:06
Halfway途中で around the world世界,
54
174160
1650
世界を半周して分かったのは
03:07
I learned学んだ that algorithmicアルゴリズム的 biasバイアス
can travel旅行 as quickly早く
55
175834
3852
アルゴリズムの偏見が
広がるのはすごく早いことです
03:11
as it takes to downloadダウンロード
some filesファイル off of the internetインターネット.
56
179710
3170
ネットからダウンロードする
時間しかかかりません
03:15
So what's going on?
Why isn't my face beingであること detected検出された?
57
183745
3076
どうなっているのか?
なぜ私の顔は検知されないのか?
03:18
Well, we have to look
at how we give machines機械 sight視力.
58
186845
3356
機械に視覚を持たせる仕組みを
考えてみましょう
03:22
Computerコンピューター visionビジョン uses用途
machine機械 learning学習 techniques技術
59
190225
3409
コンピュータビジョンでは
機械学習の技術を使って
03:25
to do facialフェイシャル recognition認識.
60
193658
1880
顔を認識します
03:27
So how this works作品 is, you create作成する
a trainingトレーニング setセット with examples of faces.
61
195562
3897
顔のサンプルを集めて
トレーニングするのです
03:31
This is a face. This is a face.
This is not a face.
62
199483
2818
これは顔 これは顔
これは顔じゃない
03:34
And over time, you can teach教える a computerコンピューター
how to recognize認識する other faces.
63
202325
4519
やがてコンピュータは
顔を認識する方法を習得します
03:38
Howeverしかしながら, if the trainingトレーニング setsセット
aren'tない really that diverse多様,
64
206868
3989
でもトレーニング用のサンプルに
あまり多様性がなかったら
03:42
any face that deviates逸脱する too much
from the established設立 norm規範
65
210881
3349
そこで確立された基準から
大きく外れた顔は
03:46
will be harderもっと強く to detect検出する,
66
214254
1649
検知するのが難しくなります
03:47
whichどの is what was happeningハプニング to me.
67
215927
1963
私の場合はそれでした
03:49
But don't worry心配 -- there's some good newsニュース.
68
217914
2382
でも大丈夫
希望の持てる面もあります
03:52
Trainingトレーニング setsセット don't just
materialize実現する out of nowhereどこにも.
69
220320
2771
顔のサンプル集は ひとりでに
できるわけではありません
03:55
We actually実際に can create作成する them.
70
223115
1788
私たちにだって作れます
03:56
So there's an opportunity機会 to create作成する
full-spectrum全スペクトル trainingトレーニング setsセット
71
224927
4176
ですから 網羅的な
トレーニング用のサンプルを作り
04:01
that reflect反映する a richerより豊かな
portraitポートレート of humanity人類.
72
229127
3824
さまざまな人間の姿形を
しっかり反映させれば いいんです
04:04
Now you've seen見た in my examples
73
232975
2221
私の例でお見せしたように
04:07
how socialソーシャル robotsロボット
74
235220
1768
ソーシャルロボットの振る舞いから
04:09
was how I found見つけた out about exclusion除外
with algorithmicアルゴリズム的 biasバイアス.
75
237012
4611
アルゴリズムの偏見による
切り捨てが見つかりました
04:13
But algorithmicアルゴリズム的 biasバイアス can alsoまた、 lead
to discriminatory差別的な practices実践.
76
241647
4815
この偏見は 差別行為にも
つながりうるものです
04:19
Across the US,
77
247437
1453
米国では全国的に
04:20
police警察 departments部門 are starting起動 to use
facialフェイシャル recognition認識 softwareソフトウェア
78
248914
4198
警察が顔認識ソフトを使って
04:25
in their彼らの crime-fighting犯罪と戦う arsenalアーセナル.
79
253136
2459
犯罪に対処し始めています
04:27
Georgetownジョージタウン Law法律 published出版された a report報告する
80
255619
2013
ジョージタウン大学
ロースクールの報告によると
04:29
showing表示 that one in two adults大人
in the US -- that's 117 million百万 people --
81
257656
6763
米国の成人2人に1人
1億1700万人の顔が
04:36
have their彼らの faces
in facialフェイシャル recognition認識 networksネットワーク.
82
264443
3534
何らかの顔認識用のデータベースに
記録されています
04:40
Police警察 departments部門 can currently現在 look
at these networksネットワーク unregulated規制されていない,
83
268001
4552
警察は現在 制限なしに
これらのシステムを参照できますが
04:44
usingを使用して algorithmsアルゴリズム that have not
been audited監査された for accuracy正確さ.
84
272577
4286
使っているアルゴリズムの
正確さは検証されていません
04:48
Yetまだ we know facialフェイシャル recognition認識
is not fail失敗します proof証明,
85
276887
3864
でも 顔認識は完璧でなく
04:52
and labelingラベリング faces consistently一貫して
remains残っている a challengeチャレンジ.
86
280775
4179
顔と名前を一致させるのは
なおも難しい課題です
Facebookで
こんな経験をしたことは?
04:56
You mightかもしれない have seen見た this on Facebookフェイスブック.
87
284978
1762
04:58
My friends友達 and I laugh笑い all the time
when we see other people
88
286764
2988
写真の中の人が正しく認識されず
おかしなタグが付いていて
05:01
mislabeledラベルが間違っている in our photos写真.
89
289776
2458
私は いつも友達と大笑いしています
05:04
But misidentifying誤認 a suspected疑わしい criminal犯罪者
is no laughing笑い matter問題,
90
292258
5591
でも 犯罪者と間違われたら
笑い事では済みません
05:09
norまた is breaching違反 civil市民 liberties自由.
91
297873
2827
市民の自由が侵された
どころでもありません
05:12
Machine機械 learning学習 is beingであること used
for facialフェイシャル recognition認識,
92
300724
3205
機械学習は顔認識に
利用されるとともに
05:15
but it's alsoまた、 extending拡張する beyond超えて the realmレルム
of computerコンピューター visionビジョン.
93
303953
4505
コンピュータビジョンの
利用範囲を拡大しています
05:21
In her book, "Weapons兵器
of Math数学 Destruction破壊,"
94
309266
4016
データ・サイエンティストの
キャシー・オニールは
05:25
dataデータ scientist科学者 Cathyキャシー O'Neilオニール
talks交渉 about the rising上昇する new新しい WMDsWMDs --
95
313306
6681
『Weapons of Math Destruction
(数学破壊兵器)』の中で
05:32
widespread広範囲, mysterious不思議な
and destructive破壊的 algorithmsアルゴリズム
96
320011
4353
不可解で破壊的なアルゴリズムが
「数学破壊兵器」として台頭し
05:36
that are increasinglyますます beingであること used
to make decisions決定
97
324388
2964
ますます広く意思決定に
使われるようになり
05:39
that impact影響 more aspects側面 of our lives人生.
98
327376
3177
私たちの暮らしの多くの場面に
影響を与えていると述べています
05:42
So who gets取得 hired雇われた or fired撃たれた?
99
330577
1870
仕事の採用・不採用を分けるものは?
05:44
Do you get that loanローン?
Do you get insurance保険?
100
332471
2112
ローンが組めるかどうか
保険に入れるかどうか
志望大学に入学できるかどうか
05:46
Are you admitted認められた into the collegeカレッジ
you wanted to get into?
101
334607
3503
05:50
Do you and I pay支払う the same同じ price価格
for the same同じ product製品
102
338134
3509
同じところで同じ製品を
購入するのなら
05:53
purchased購入した on the same同じ platformプラットフォーム?
103
341667
2442
誰でも値段は同じかどうか
といったことにもです
05:56
Law法律 enforcement執行 is alsoまた、 starting起動
to use machine機械 learning学習
104
344133
3759
警察は機械学習を
予測警備にも
05:59
for predictive予測的 policingポリシング.
105
347916
2289
使い始めています
06:02
Some judges判定 use machine-generated機械で生成された
riskリスク scores得点 to determine決定する
106
350229
3494
裁判官の中には
機械が出したリスク評価をもとに
06:05
how long an individual個人
is going to spend費やす in prison刑務所.
107
353747
4402
何年の懲役にすべきか
決める人もいます
だから こうした判断について
よく考えなければなりません
06:10
So we really have to think
about these decisions決定.
108
358173
2454
06:12
Are they fairフェア?
109
360651
1182
判断は公平なのでしょうか?
06:13
And we've私たちは seen見た that algorithmicアルゴリズム的 biasバイアス
110
361857
2890
すでに見た通り
アルゴリズムの偏見により
06:16
doesn't necessarily必ずしも always
lead to fairフェア outcomes結果.
111
364771
3374
出てくる結果は必ずしも
公平ではありません
06:20
So what can we do about it?
112
368169
1964
私たちに何ができるでしょう
06:22
Well, we can start開始 thinking考え about
how we create作成する more inclusive包括的な codeコード
113
370157
3680
どうすれば
より包括的なコードを作り
06:25
and employ採用する inclusive包括的な codingコーディング practices実践.
114
373861
2990
それを実践していけるのか
考えることから始めましょう
06:28
It really starts開始する with people.
115
376875
2309
まずは人からです
06:31
So who codesコード matters問題.
116
379708
1961
つまり コードを書く人が大事です
多様なメンバーで
チームを構成し
06:33
Are we creating作成 full-spectrum全スペクトル teamsチーム
with diverse多様 individuals個人
117
381693
4119
互いの盲点を
チェックできているか?
06:37
who can checkチェック each other'sその他の blindブラインド spotsスポット?
118
385836
2411
06:40
On the technicalテクニカル side,
how we codeコード matters問題.
119
388271
3545
技術的な面では
コードをどう作るかが重要です
06:43
Are we factoringファクタリング in fairness公平
as we're developing現像 systemsシステム?
120
391840
3651
システム開発の要素に
公正さを組み込んでいるか?
06:47
And finally最後に, why we codeコード matters問題.
121
395515
2913
最後に 何のために
コードを書くかも重要です
06:50
We've私たちは used toolsツール of computational計算上の creation創造
to unlockロック解除する immense巨大 wealth.
122
398785
5083
私たちはコンピュータを使って
莫大な富を生み出してきましたが
06:55
We now have the opportunity機会
to unlockロック解除する even greater大きい equality平等
123
403892
4447
今 より一層の平等も
生み出すことができるのです
07:00
if we make socialソーシャル change変化する a priority優先
124
408363
2930
社会の変革を
後付けでなく
07:03
and not an afterthought結果論.
125
411317
2170
優先事項とすれば良いのです
07:06
And so these are the three tenets教義
that will make up the "incodingインコーディング" movement移動.
126
414008
4522
このように「インコーディング」運動には
3つの柱があるわけです
07:10
Who codesコード matters問題,
127
418554
1652
誰がコードを書くかが重要
07:12
how we codeコード matters問題
128
420230
1543
どのようにコードを書くかが重要
07:13
and why we codeコード matters問題.
129
421797
2023
なぜコードを書くかが重要 なのです
07:15
So to go towards方向 incodingインコーディング,
we can start開始 thinking考え about
130
423844
3099
インコーディングに向けて
まず手を付けるべきは
07:18
building建物 platformsプラットフォーム that can identify識別する biasバイアス
131
426967
3164
偏りを発見できる
プラットフォームを作ること
07:22
by collecting収集する people's人々の experiences経験
like the onesもの I shared共有,
132
430155
3078
私が紹介したような
経験を集積して
07:25
but alsoまた、 auditing監査 existing既存の softwareソフトウェア.
133
433257
3070
今あるソフトウェアの
点検もします
07:28
We can alsoまた、 start開始 to create作成する
more inclusive包括的な trainingトレーニング setsセット.
134
436351
3765
トレーニング用サンプルにも
もっと多様性を盛り込みましょう
07:32
Imagine想像する a "Selfies自我 for Inclusionインクルージョン" campaignキャンペーン
135
440140
2803
「インクルージョンに向けた自撮り」
キャンペーンを展開して
07:34
where you and I can help
developers開発者 testテスト and create作成する
136
442967
3655
多様性のあるサンプルを
開発者が作成しテストするのを
07:38
more inclusive包括的な trainingトレーニング setsセット.
137
446646
2093
支援することもできます
07:41
And we can alsoまた、 start開始 thinking考え
more conscientiously良心的に
138
449302
2828
さらには 開発中の技術が
社会に与える影響について
07:44
about the socialソーシャル impact影響
of the technology技術 that we're developing現像.
139
452154
5391
もっと注意深く
考えるようにしましょう
07:49
To get the incodingインコーディング movement移動 started開始した,
140
457569
2393
インコーディング運動を
始めるために
07:51
I've launched打ち上げ the Algorithmicアルゴリズム
Justice正義 Leagueリーグ,
141
459986
2847
私は「Algorithmic Justice League」
を設立しました
07:54
where anyone誰でも who cares心配 about fairness公平
can help fight戦い the codedコードされた gaze視線.
142
462857
5872
公正さに関心がある人なら誰でも
コード化された視線との戦いに参加できます
08:00
On codedgazeコード化された凝視.comcom, you can report報告する biasバイアス,
143
468753
3296
偏ったコードの通報や監査依頼
08:04
request要求 audits監査, become〜になる a testerテスター
144
472073
2445
試験者の参加申し込みは
codedgaze.comへ
08:06
and join参加する the ongoing進行中の conversation会話,
145
474542
2771
話題の共有には
08:09
#codedgazeコード化された凝視.
146
477337
2287
#codedgazeを使ってください
08:12
So I invite招待する you to join参加する me
147
480742
2487
ぜひ皆さんに
参加してほしいんです
08:15
in creating作成 a world世界 where technology技術
works作品 for all of us,
148
483253
3719
テクノロジーが
一部の人でなく みんなの役に立つ―
08:18
not just some of us,
149
486996
1897
世界を創りましょう
08:20
a world世界 where we value inclusion包含
and centerセンター socialソーシャル change変化する.
150
488917
4588
インクルージョンを大事にし
自ら社会を変える そんな世界にしましょう
08:25
Thank you.
151
493529
1175
ありがとうございました
08:26
(Applause拍手)
152
494728
4271
(拍手)
08:32
But I have one question質問:
153
500873
2854
でも ほんとに大丈夫?
08:35
Will you join参加する me in the fight戦い?
154
503751
2059
本気で参加してくれますね?
08:37
(Laughter笑い)
155
505834
1285
(笑)
08:39
(Applause拍手)
156
507143
3687
(拍手)
Translated by Yoichi Fukuoka
Reviewed by Yuko Yoshida

▲Back to top

ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee