ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com
TEDxBeaconStreet

Joy Buolamwini: How I'm fighting bias in algorithms

Joy Buolamwini: Tôi đang đấu tranh với sự thiên vị trong thuật toán

Filmed:
1,223,943 views

Joy Buolamwini, một sinh viên tốt nghiệp MIT, khi đang làm việc với phần mềm nhận dạng khuôn mặt thì cô phát hiện thấy một vấn đề: phần mềm không nhận ra được khuôn mặt của cô - bởi vì những người viết mã cho các thuật toán đã không dạy chúng nhận diện đầy đủ các loại tông màu da và cấu trúc khuôn mặt. Giờ đây cô đang thực hiện nhiệm vụ chiến đấu với sự thiên vị trong công nghệ học máy, một hiện tượng cô ấy gọi là "coded gaze". Đó là một cuộc nói chuyện cởi mở về yêu cầu giải trình trong viết mã... khi các thuật toán chiếm lĩnh ngày càng nhiều lĩnh vực trong cuộc sống.
- Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion. Full bio

Double-click the English transcript below to play the video.

00:13
HelloXin chào, I'm JoyNiềm vui, a poetnhà thơ of code,
0
1041
3134
Xin chào, Tôi là Joy, một nhà thơ viết mã,
00:16
on a missionsứ mệnh to stop
an unseenthần bí forcelực lượng that's risingtăng lên,
1
4199
4993
đang thực hiện nhiệm vụ ngăn chặn một
một lực lượng vô hình đang gia tăng,
00:21
a forcelực lượng that I calledgọi là "the codedmã hoá gazechiêm ngưỡng,"
2
9216
2856
một lực lượng mà tôi gọi là
"the coded gaze,"
00:24
my termkỳ hạn for algorithmicthuật toán biassự thiên vị.
3
12096
3309
là từ tôi nói về
sự thiên vị thuật toán.
00:27
AlgorithmicThuật toán biassự thiên vị, like humanNhân loại biassự thiên vị,
resultscác kết quả in unfairnessbất công.
4
15429
4300
Thiên vị thuật toán, giống như thiên vị
con người, sẽ đưa đến sự bất công.
00:31
HoweverTuy nhiên, algorithmsthuật toán, like virusesvi rút,
can spreadLan tràn biassự thiên vị on a massiveto lớn scaletỉ lệ
5
19753
6022
Tuy nhiên, thuật toán, giống như virút, có
thể phát tán sự thiên vị trên quy mô lớn
00:37
at a rapidnhanh pacetốc độ.
6
25799
1582
với tốc độ nhanh chóng.
00:39
AlgorithmicThuật toán biassự thiên vị can alsocũng thế leadchì
to exclusionaryexclusionary experienceskinh nghiệm
7
27943
4387
Thiên vị thuật toán có thể dẫn đến
nhiều trải nghiệm bị loại trừ ra
00:44
and discriminatoryphân biệt đối xử practicesthực tiễn.
8
32354
2128
và các hành vi phân biệt đối xử.
00:46
Let me showchỉ you what I mean.
9
34506
2061
Tôi sẽ cho các bạn thấy điều tôi muốn nói.
00:48
(VideoVideo) JoyNiềm vui BuolamwiniBuolamwini: HiChào bạn, cameraMáy ảnh.
I've got a faceđối mặt.
10
36980
2436
(Video) Joy: Chào camera.
Tôi có một khuôn mặt.
00:52
Can you see my faceđối mặt?
11
40162
1864
Bạn có thấy mặt tôi không?
00:54
No-glassesKhông có kính faceđối mặt?
12
42051
1625
Khuôn mặt không đeo kính ấy?
00:55
You can see her faceđối mặt.
13
43701
2214
Bạn có thể thấy mặt cô ấy.
00:58
What about my faceđối mặt?
14
46237
2245
Thế còn mặt của tôi?
01:03
I've got a maskmặt nạ. Can you see my maskmặt nạ?
15
51890
3750
Tôi có một mặt nạ. Bạn có thấy mặt nạ
của tôi không?
01:08
JoyNiềm vui BuolamwiniBuolamwini: So how did this happenxảy ra?
16
56474
2365
Joy Buolamwini: Việc này là thế nào?
01:10
Why am I sittingngồi in fronttrước mặt of a computermáy vi tính
17
58863
3141
Tại sao tôi đang ngồi trước máy tính
01:14
in a whitetrắng maskmặt nạ,
18
62028
1424
đeo mặt nạ trắng,
01:15
tryingcố gắng to be detectedphát hiện by a cheapgiá rẻ webcamwebcam?
19
63476
3650
cố dò khuôn mặt mình bằng một
webcam rẽ tiền?
01:19
Well, when I'm not fightingtrận đánh the codedmã hoá gazechiêm ngưỡng
20
67150
2291
Vâng, tôi không chống lại
the coded gaze
01:21
as a poetnhà thơ of code,
21
69465
1520
với vai trò một nhà thơ viết mã
01:23
I'm a graduatetốt nghiệp studentsinh viên
at the MITMIT MediaPhương tiện truyền thông LabPhòng thí nghiệm,
22
71009
3272
Tôi là sinh viên tốt nghiệp
tại MIT Media Lab,
01:26
and there I have the opportunitycơ hội to work
on all sortsloại of whimsicalhay thay đổi projectsdự án,
23
74305
4917
và ở đó, tôi có cơ hội làm việc với mọi
loại dự án kỳ quặc,
01:31
includingkể cả the AspireAspire MirrorGương,
24
79246
2027
bao gồm dự án Aspire Mirror,
01:33
a projectdự án I did so I could projectdự án
digitalkỹ thuật số masksmặt nạ ontotrên my reflectionsự phản chiếu.
25
81297
5134
dự án này tôi đã thực hiện nên tôi có thể
chiếu các mặt nạ số phản ánh tâm trạng tôi
01:38
So in the morningbuổi sáng, if I wanted
to feel powerfulquyền lực,
26
86455
2350
vào buổi sáng, nếu tôi muốn
cảm thấy mạnh mẽ
01:40
I could put on a lionsư tử.
27
88829
1434
Tôi có thể đeo mặt nạ sư tử.
01:42
If I wanted to be upliftednổi lên,
I mightcó thể have a quoteTrích dẫn.
28
90287
3496
Nếu tôi muốn được lên tinh thần,
tôi có thể có một viện dẫn.
01:45
So I used genericchung
facialda mặt recognitionsự công nhận softwarephần mềm
29
93807
2989
Và tôi đã sử dụng một phần mềm
nhận diện khuôn mặt thông dụng
01:48
to buildxây dựng the systemhệ thống,
30
96820
1351
để xây dựng hệ thống,
01:50
but foundtìm it was really hardcứng to testthử nghiệm it
unlesstrừ khi I woređeo a whitetrắng maskmặt nạ.
31
98195
5103
nhưng tôi nhận ra rằng rất khó để
chạy thử nó trừ khi tôi đeo mặt nạ trắng
01:56
UnfortunatelyThật không may, I've runchạy
into this issuevấn đề before.
32
104282
4346
Thật không may, trước đây tôi cũng đã
gặp sự cố này.
02:00
When I was an undergraduatechương trình đại học
at GeorgiaGeorgia TechCông nghệ cao studyinghọc tập computermáy vi tính sciencekhoa học,
33
108652
4303
Khi tôi còn là sinh viên nghiên cứu khoa
học máy tính ở Georgia Tech,
02:04
I used to work on socialxã hội robotsrobot,
34
112979
2055
tôi đã từng làm các robot xã hội,
02:07
and one of my tasksnhiệm vụ was to get a robotrobot
to playchơi peek-a-booPeek-a-boo,
35
115058
3777
và một trong những công việc của tôi là
cài đặt robot chơi trò "Ú òa",
02:10
a simpleđơn giản turn-takingbiến-uống gametrò chơi
36
118859
1683
một trò chơi luân phiên đơn giản
02:12
where partnersđối tác coverche theirhọ faceđối mặt
and then uncoverkhám phá it sayingnói, "Peek-a-booPeek-a-boo!"
37
120566
4321
trong đó các người chơi che mặt lại
và tháo mặt ra và nói "Ú òa!"
02:16
The problemvấn đề is, peek-a-booPeek-a-boo
doesn't really work if I can't see you,
38
124911
4429
Vấn đề là, tôi sẽ không Ú Òa nếu
không nhìn thấy bạn,
02:21
and my robotrobot couldn'tkhông thể see me.
39
129364
2499
và robot của tôi đã không thấy tôi.
02:23
But I borrowedvay mượn my roommate'sbạn cùng phòng của faceđối mặt
to get the projectdự án donelàm xong,
40
131887
3950
Nhưng khi tôi mượn khuôn mặt của bạn
cùng phòng để thực hiện dự án,
02:27
submittedgửi the assignmentnhiệm vụ,
41
135861
1380
nộp bài tập,
02:29
and figuredhình dung, you know what,
somebodycó ai elsekhác will solvegiải quyết this problemvấn đề.
42
137265
3753
và tham gia, bạn biết không, ai sẽ giải
quyết vấn đề này.
02:33
Not too long after,
43
141669
2003
Không lâu sau đó,
02:35
I was in HongHồng KongKong
for an entrepreneurshiptinh thần kinh doanh competitioncuộc thi.
44
143696
4159
Tôi đã đến Hong Kong để tham gia một
cuộc thi làm doanh nhân.
02:40
The organizersBan tổ chức decidedquyết định
to take participantsngười tham gia
45
148339
2694
Các nhà tổ chức đã quyết định đưa những
người tham gia
02:43
on a tourchuyến du lịch of localđịa phương start-upsbắt đầu-up.
46
151057
2372
đi tham quan các startup địa phương.
02:45
One of the start-upsbắt đầu-up had a socialxã hội robotrobot,
47
153453
2715
Một trong các startup đó có một
robot xã hội,
02:48
and they decidedquyết định to do a demogiới thiệu.
48
156192
1912
và họ đã quyết định demo.
02:50
The demogiới thiệu workedđã làm việc on everybodymọi người
untilcho đến it got to me,
49
158128
2980
Việc demo thực hiện với mọi người
và khi đến lược tôi
02:53
and you can probablycó lẽ guessphỏng đoán it.
50
161132
1923
và bạn có lẽ cùng đoán được.
02:55
It couldn'tkhông thể detectphát hiện my faceđối mặt.
51
163079
2965
Nó không nhận diện được khuôn mặt tôi.
02:58
I askedyêu cầu the developersnhà phát triển what was going on,
52
166068
2511
Tôi đã hỏi người phát triển nó
chuyện gì xãy ra vậy,
03:00
and it turnedquay out we had used the sametương tự
genericchung facialda mặt recognitionsự công nhận softwarephần mềm.
53
168603
5533
và hóa ra chúng tôi đã sử dụng cùng một
phần mềm nhận diện khuôn mặt đó.
03:06
HalfwayNửa chừng around the worldthế giới,
54
174160
1650
Nữa vòng trái đất,
03:07
I learnedđã học that algorithmicthuật toán biassự thiên vị
can traveldu lịch as quicklyMau
55
175834
3852
Tôi đã học được rằng sự thiên vị
thuật toán có thể di chuyển nhanh như
03:11
as it takes to downloadtải về
some filestập tin off of the internetInternet.
56
179710
3170
việc tải một số file từ internet.
03:15
So what's going on?
Why isn't my faceđối mặt beingđang detectedphát hiện?
57
183745
3076
Vậy điều gì đang xãy ra?
Tại sao khuôn mặt tôi không nhận ra được
03:18
Well, we have to look
at how we give machinesmáy móc sightthị giác.
58
186845
3356
Vâng, chúng ta phải xem lại cách chúng ta
cho máy tính nhìn.
03:22
ComputerMáy tính visiontầm nhìn usessử dụng
machinemáy móc learninghọc tập techniqueskỹ thuật
59
190225
3409
Thi giác máy tính sử dụng các công nghệ
học máy để nhìn
03:25
to do facialda mặt recognitionsự công nhận.
60
193658
1880
để nhận diện khuôn mặt.
03:27
So how this workscông trinh is, you createtạo nên
a trainingđào tạo setbộ with examplesví dụ of faceskhuôn mặt.
61
195562
3897
Và cách làm là, ta tạo ra một một tập huấn
luyện với các ví dụ về khuôn mặt.
03:31
This is a faceđối mặt. This is a faceđối mặt.
This is not a faceđối mặt.
62
199483
2818
Đây là khuôn mặt. Đây là khuôn mặt.
Còn đây thì không.
03:34
And over time, you can teachdạy a computermáy vi tính
how to recognizenhìn nhận other faceskhuôn mặt.
63
202325
4519
và qua thời gian, ta có thể dạy máy tính
cách nhận ra các khuôn mặt khác.
03:38
HoweverTuy nhiên, if the trainingđào tạo setsbộ
aren'tkhông phải really that diversephong phú,
64
206868
3989
Tuy nhiên, nếu tập huấn luyện
không đa dạng,
03:42
any faceđối mặt that deviatesdeviates too much
from the establishedthành lập normđịnh mức
65
210881
3349
bất kỳ khuôn mặt nào mà khác quá nhiều
so với chuẩn đã thiết lập
03:46
will be harderkhó hơn to detectphát hiện,
66
214254
1649
sẽ khó dò tìm hơn,
03:47
which is what was happeningxảy ra to me.
67
215927
1963
đó chính là trường hợp xãy ra với tôi.
03:49
But don't worrylo -- there's some good newsTin tức.
68
217914
2382
Nhưng đừng lo - có một vài tin tốt.
03:52
TrainingĐào tạo setsbộ don't just
materializecụ thể hoá out of nowherehư không.
69
220320
2771
Các tập huấn luyện không tồn tại ở
cõi hư vô.
03:55
We actuallythực ra can createtạo nên them.
70
223115
1788
Mà do chính chúng ta tạo ra.
03:56
So there's an opportunitycơ hội to createtạo nên
full-spectrumđầy đủ-quang phổ trainingđào tạo setsbộ
71
224927
4176
Do vậy chúng ta có cơ hội tạo ra các tập
huấn luyện phủ kín các trường hợp
04:01
that reflectphản chiếu a richerphong phú hơn
portraitChân dung of humanitynhân loại.
72
229127
3824
và phản ánh một bức tranh đầy đủ hơn
về con người.
04:04
Now you've seenđã xem in my examplesví dụ
73
232975
2221
Bây giờ bạn đã thấy trong các ví dụ
của tôi
04:07
how socialxã hội robotsrobot
74
235220
1768
các robot xã hội nó ra sao
04:09
was how I foundtìm out about exclusionsự loại trừ
with algorithmicthuật toán biassự thiên vị.
75
237012
4611
cách tôi đã tìm ra sự sai sót về
thiên vị thuật toán.
04:13
But algorithmicthuật toán biassự thiên vị can alsocũng thế leadchì
to discriminatoryphân biệt đối xử practicesthực tiễn.
76
241647
4815
Nhưng sự thiên vị thuật toán có thể dẫn
đến các hành vi phân biệt đối xử.
04:19
AcrossXem qua the US,
77
247437
1453
Khắp nước Mỹ,
04:20
policecảnh sát departmentsphòng ban are startingbắt đầu to use
facialda mặt recognitionsự công nhận softwarephần mềm
78
248914
4198
các sở cảnh sát đang bắt đầu đưa
phần mềm nhận dạng khuôn mặt
04:25
in theirhọ crime-fightingchống tội phạm arsenalkho vũ khí.
79
253136
2459
vào kho vũ khí chống tội phạm của họ.
04:27
GeorgetownGeorgetown LawPháp luật publishedđược phát hành a reportbài báo cáo
80
255619
2013
Trường luật Georgetown công bố một
báo cáo
04:29
showinghiển thị that one in two adultsngười trưởng thành
in the US -- that's 117 milliontriệu people --
81
257656
6763
cho thấy 1/2 người lớn ở Mỹ
-- có đến 117 triệu người --
04:36
have theirhọ faceskhuôn mặt
in facialda mặt recognitionsự công nhận networksmạng lưới.
82
264443
3534
có khuôn mặt trong các mạng lưới
nhận dạng khuôn mặt.
04:40
PoliceCảnh sát departmentsphòng ban can currentlyhiện tại look
at these networksmạng lưới unregulatedkhông được kiểm soát,
83
268001
4552
Hiện tại các sở cảnh sát có thể nhìn
vào các mạng lưới không được kiểm soát này
04:44
usingsử dụng algorithmsthuật toán that have not
been auditedkiểm toán for accuracytính chính xác.
84
272577
4286
sử dụng các thuật toán không được kiểm tra
để bảo đảm sự chính xác.
04:48
YetNào được nêu ra we know facialda mặt recognitionsự công nhận
is not failThất bại proofbằng chứng,
85
276887
3864
Nhưng chúng ta biết nhận dạng khuôn mặt
không phải là không có sai sót
04:52
and labelingnhãn mác faceskhuôn mặt consistentlynhất quán
remainsvẫn còn a challengethử thách.
86
280775
4179
và đánh nhãn khuôn mặt một cách chắc chắn
vẫn còn là một thách thức.
04:56
You mightcó thể have seenđã xem this on FacebookFacebook.
87
284978
1762
Bạn có thể thấy điều này
trên Facebook
04:58
My friendsbạn bè and I laughcười all the time
when we see other people
88
286764
2988
Tôi và các bạn tôi luôn cười khi thấy
những người khác
05:01
mislabeledmislabeled in our photosảnh.
89
289776
2458
bị đánh nhãn sai trong các bức hình
của chúng tôi.
05:04
But misidentifyingmisidentifying a suspectednghi ngờ criminalphạm tội
is no laughingcười mattervấn đề,
90
292258
5591
Nhưng nhận diện sai một nghi phạm
không phải là một chuyện để cười,
05:09
norcũng không is breachingvi phạm civildân sự libertiestự do.
91
297873
2827
cũng không phải là vi phạm
quyền tự do dân sự.
05:12
MachineMáy learninghọc tập is beingđang used
for facialda mặt recognitionsự công nhận,
92
300724
3205
Công nghệ học máy đang được sử dụng
để nhận diện khuôn mặt,
05:15
but it's alsocũng thế extendingmở rộng beyondvượt ra ngoài the realmcảnh giới
of computermáy vi tính visiontầm nhìn.
93
303953
4505
nhưng nó cũng đang mở rộng vượt quá lĩnh
vực thị giác máy tính.
05:21
In her booksách, "WeaponsVũ khí
of MathToán học DestructionHủy diệt,"
94
309266
4016
Trong cuốn sách "Vũ khí hủy diệt toán học"
05:25
datadữ liệu scientistnhà khoa học CathyCathy O'NeilO'Neil
talksnói chuyện about the risingtăng lên newMới WMDsWMDs --
95
313306
6681
của cô Cathy O'Neil, một nhà khoa học
dữ liệu, nói các loại WMD đang gia tăng --
05:32
widespreadphổ biến rộng rãi, mysterioushuyền bí
and destructivephá hoại algorithmsthuật toán
96
320011
4353
các giải thuật hủy diệt, thần bí và
phổ biến rộng rãi
05:36
that are increasinglyngày càng beingđang used
to make decisionsquyết định
97
324388
2964
đang ngày càng được sử dụng để đưa
ra quyết định
05:39
that impactva chạm more aspectscác khía cạnh of our livescuộc sống.
98
327376
3177
mà ảnh hưởng đến nhiều lĩnh vực của
cuộc sống.
05:42
So who getsđược hiredthuê or firedBị sa thải?
99
330577
1870
Vậy ai được tuyển dụng hoặc sa thải?
05:44
Do you get that loantiền vay?
Do you get insurancebảo hiểm?
100
332471
2112
Bạn có khoản vay đó?
Bạn có bảo hiểm không?
05:46
Are you admittedthừa nhận into the collegetrường đại học
you wanted to get into?
101
334607
3503
Bạn có được tiếp nhận vào trường đại học
mà bạn muốn?
05:50
Do you and I paytrả the sametương tự pricegiá bán
for the sametương tự productsản phẩm
102
338134
3509
Bạn và tôi có trả cùng giá
cho cùng sản phẩm
05:53
purchasedđã mua on the sametương tự platformnền tảng?
103
341667
2442
được mua trên cùng một nền tảng?
05:56
LawPháp luật enforcementthực thi is alsocũng thế startingbắt đầu
to use machinemáy móc learninghọc tập
104
344133
3759
Việc thực thi luật pháp cũng đang bắt đầu
sử dụng công nghệ học máy
05:59
for predictivetiên đoán policinglập chính sách.
105
347916
2289
để dự báo tình hình phạm pháp
06:02
Some judgesban giám khảo use machine-generatedMáy tạo ra
riskrủi ro scoresđiểm số to determinemục đích
106
350229
3494
Một số thẩm phán sử dụng điểm số rủi ro
do máy tạo ra để xác định
06:05
how long an individualcá nhân
is going to spendtiêu in prisonnhà tù.
107
353747
4402
một cá nhân sẽ đi tù trong bao lâu.
06:10
So we really have to think
about these decisionsquyết định.
108
358173
2454
Do vậy chúng ta phải nghĩ về những
quyết định này.
06:12
Are they fairhội chợ?
109
360651
1182
Chúng có công bằng?
06:13
And we'vechúng tôi đã seenđã xem that algorithmicthuật toán biassự thiên vị
110
361857
2890
Và chúng ta đã thấy rằng
sự thiên vị thuật toán
06:16
doesn't necessarilynhất thiết always
leadchì to fairhội chợ outcomeskết quả.
111
364771
3374
không nhất thiết luôn cho ra kết quả
công bằng
06:20
So what can we do about it?
112
368169
1964
Vậy ta có thể làm gì với chúng?
06:22
Well, we can startkhởi đầu thinkingSuy nghĩ about
how we createtạo nên more inclusivebao gồm code
113
370157
3680
Vâng, ta có thể bắt đầu nghĩ về cách
tạo ra mã lệnh bao hàm nhiều hơn
06:25
and employthuê inclusivebao gồm codingmã hóa practicesthực tiễn.
114
373861
2990
và sử dụng các hoạt động viết mã có
tính bao hàm.
06:28
It really startsbắt đầu with people.
115
376875
2309
Nó thực sự bắt đầu với con người.
06:31
So who codesMã số mattersvấn đề.
116
379708
1961
Vậy ai viết các mã lệnh đó.
06:33
Are we creatingtạo full-spectrumđầy đủ-quang phổ teamsđội
with diversephong phú individualscá nhân
117
381693
4119
Có phải chúng ta đang tạo ra các nhóm
đầy đủ với các cá nhân đa dạng
06:37
who can checkkiểm tra eachmỗi other'sKhác blindmù quáng spotsđiểm?
118
385836
2411
những người có thể kiểm tra các điểm mù
lẫn nhau?
06:40
On the technicalkỹ thuật sidebên,
how we code mattersvấn đề.
119
388271
3545
Về mặt kỹ thuật,
chúng ta viết các mã lệnh đó như thế nào
06:43
Are we factoringbao thanh toán in fairnesscông bằng
as we're developingphát triển systemshệ thống?
120
391840
3651
Chúng ta có đang tính đến yếu tố công bằng
khi xây dựng hệ thống/
06:47
And finallycuối cùng, why we code mattersvấn đề.
121
395515
2913
Và cuối cùng, tại sao chúng ta viết những
mã lệnh đó.
06:50
We'veChúng tôi đã used toolscông cụ of computationaltính toán creationsự sáng tạo
to unlockmở khóa immensebao la wealthsự giàu có.
122
398785
5083
Chúng ta đã sử dụng các công cụ sáng tạo
tính toán để mở khóa sự giàu có to lớn.
06:55
We now have the opportunitycơ hội
to unlockmở khóa even greaterlớn hơn equalitybình đẳng
123
403892
4447
Giờ đây chúng ta có cơ hội mở khóa
sự bình đẳng to lớn hơn
07:00
if we make socialxã hội changethay đổi a prioritysự ưu tiên
124
408363
2930
nếu chúng ta tạo ra sự thay đổi xã hội
một sự ưu tiên
07:03
and not an afterthoughtsuy nghĩ lại.
125
411317
2170
và không suy nghĩ lại
07:06
And so these are the threesố ba tenetsgiáo lý
that will make up the "incodingincoding" movementphong trào.
126
414008
4522
Và đây là 3 nguyên lý mà sẽ tạo nên
phong trào "incoding".
07:10
Who codesMã số mattersvấn đề,
127
418554
1652
Ai viết mã lệnh đó,
07:12
how we code mattersvấn đề
128
420230
1543
chúng ta viết mã lệnh đó ra sao
07:13
and why we code mattersvấn đề.
129
421797
2023
và tại sao ta viết mã lệnh đó.
07:15
So to go towardsvề hướng incodingincoding,
we can startkhởi đầu thinkingSuy nghĩ about
130
423844
3099
Do đó để hướng đến sự viết mã tận tâm,
ta có thể bắt đầu nghĩ về
07:18
buildingTòa nhà platformsnền tảng that can identifynhận định biassự thiên vị
131
426967
3164
xây dựng các nền tảng mà có thể
nhận diện sự thiên vị
07:22
by collectingthu gom people'sngười experienceskinh nghiệm
like the onesnhững người I sharedchia sẻ,
132
430155
3078
bằng cách tập hợp trải nghiệm của
mọi người như tôi đã chia sẽ
07:25
but alsocũng thế auditingkiểm toán existinghiện tại softwarephần mềm.
133
433257
3070
nhưng cũng kiểm tra các phần mềm hiện tại.
07:28
We can alsocũng thế startkhởi đầu to createtạo nên
more inclusivebao gồm trainingđào tạo setsbộ.
134
436351
3765
Chúng ta cũng có thể bắt đầu tạo ra
những tập huấn luyện bao hàm hơn
07:32
ImagineHãy tưởng tượng a "SelfiesSelfies for InclusionBao gồm" campaignchiến dịch
135
440140
2803
Hãy tưởng tượng một chiến dịch
"Tự sướng để hòa nhập"
07:34
where you and I can help
developersnhà phát triển testthử nghiệm and createtạo nên
136
442967
3655
ở đó bạn và tôi có thể giúp các
nhà phát triển kiểm thử và tạo ra
07:38
more inclusivebao gồm trainingđào tạo setsbộ.
137
446646
2093
các tập huấn luyện bao hàm hơn.
07:41
And we can alsocũng thế startkhởi đầu thinkingSuy nghĩ
more conscientiouslymẫn
138
449302
2828
Và chúng ta cũng bắt đầu suy nghĩ
một cách tận tâm hơn
07:44
about the socialxã hội impactva chạm
of the technologyCông nghệ that we're developingphát triển.
139
452154
5391
về sự ảnh hưởng xã hội của công nghệ
mà ta đang phát triển.
07:49
To get the incodingincoding movementphong trào startedbắt đầu,
140
457569
2393
Để bắt đầu phong trào viết mã tận tâm
07:51
I've launchedđưa ra the AlgorithmicThuật toán
JusticeTư pháp LeagueGiải đấu,
141
459986
2847
Tôi đã khởi xướng Liên minh công lý
thuật toán,
07:54
where anyonebất kỳ ai who caresquan tâm about fairnesscông bằng
can help fightchiến đấu the codedmã hoá gazechiêm ngưỡng.
142
462857
5872
ở đó bất cứ ai quan tâm đến sự công bằng
đều có thể giúp chống lại the coded gaze.
08:00
On codedgazecodedgaze.comcom, you can reportbài báo cáo biassự thiên vị,
143
468753
3296
trên codedgaze.com, nơi bạn có thể
báo cáo lại các thiên vị,
08:04
requestyêu cầu auditskiểm toán, becometrở nên a testerngười kiểm tra
144
472073
2445
đề nghị sự kiểm tra, trở thành
người kiểm thử
08:06
and jointham gia the ongoingđang diễn ra conversationcuộc hội thoại,
145
474542
2771
và tham gia vào các cuộc nói chuyện
08:09
#codedgazecodedgaze.
146
477337
2287
#codedgaze.
08:12
So I invitemời gọi you to jointham gia me
147
480742
2487
Tôi mời bạn tham gia với tôi
08:15
in creatingtạo a worldthế giới where technologyCông nghệ
workscông trinh for all of us,
148
483253
3719
để tạo ra một thế giới ở đó công nghệ
phục vụ cho tất cả chúng ta,
08:18
not just some of us,
149
486996
1897
không phải chỉ với một số người,
08:20
a worldthế giới where we valuegiá trị inclusionđưa vào
and centerTrung tâm socialxã hội changethay đổi.
150
488917
4588
một thế giới ở đó chúng ta đề cao sự hòa
nhập và thay đổi xã hội làm trung tâm
08:25
Thank you.
151
493529
1175
Xin cảm ơn.
08:26
(ApplauseVỗ tay)
152
494728
4271
(Vỗ tay)
08:32
But I have one questioncâu hỏi:
153
500873
2854
Nhưng tôi còn một câu hỏi:
08:35
Will you jointham gia me in the fightchiến đấu?
154
503751
2059
Bạn có cùng tôi vào
cuộc chiến này không?
08:37
(LaughterTiếng cười)
155
505834
1285
(Cười)
08:39
(ApplauseVỗ tay)
156
507143
3687
(Vỗ tay)
Translated by Thuy Nguyen Thanh
Reviewed by Nguyet Minh Doan

▲Back to top

ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee