ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com
TEDxBeaconStreet

Joy Buolamwini: How I'm fighting bias in algorithms

จอย บัวลามมินิ (Joy Buolamwini): ฉันกำลังต่อสู้กับอคติในชุดคำสั่งขั้นตอนวิธีบนคอมพิวเตอร์อย่างไร

Filmed:
1,223,943 views

บัณฑิตจากสถาบันเทคโนโลยีแมสซาชูเซตส์ ชื่อ จอย บัวลามมินิ ตอนที่กำลังทำงานกับโปรแกรมชุดคำสั่งเรื่องการจดจำใบหน้าอยู่นั้น เธอได้สังเกตเห็นปัญหาอย่างหนึ่ง นั่นคือ โปรแกรมนั้นไม่สามารถจำใบหน้าของเธอได้ -- เพราะว่าคนที่ลงรหัสโปรแกรมชุดคำสั่งที่ว่านั้น ไม่ได้สอนมัน ให้ระบุการไล่ระดับของสีผิวและโครงสร้างของใบหน้าในขอบเขตที่กว้าง ปัจจุบันเธอกำลังมีภาระหน้าที่ในการต่อสู้กับอคติในเรื่องการเรียนรู้ของเครื่องจักรกล ซึ่งเป็นปรากฏการณ์ที่เธอเรียกว่า "การจ้องมองที่ถูกเข้ารหัส" เป็นการพูดที่เปิดหูเปิดตาให้รู้ถึง ความจำเป็นสำหรับความรับผิดชอบในการเข้ารหัส ... เพราะว่าโปรแกรมชุดคำสั่งได้เข้ามาควบคุมด้านต่างๆของชีวิตเราเพิ่มมากขึ้นเรื่อยๆ
- Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion. Full bio

Double-click the English transcript below to play the video.

00:13
Helloสวัสดี, I'm Joyความปิติยินดี, a poetกวี of codeรหัส,
0
1041
3134
สวัสดีค่ะ ฉันชื่อ จอย เป็นกวีเขียนรหัส
00:16
on a missionหน้าที่ to stop
an unseenไม่มีใครเห็น forceบังคับ that's risingที่เพิ่มสูงขึ้น,
1
4199
4993
มีภาระหน้าที่เพื่อหยุดยั้ง
พลังที่เรามองไม่เห็นที่กำลังพุ่งขึ้นมา
00:21
a forceบังคับ that I calledเรียกว่า "the codedรหัส gazeจ้องมอง,"
2
9216
2856
พลังที่ฉันเคยเรียกว่า
การจ้องมองที่ถูกเข้ารหัส (โคดเดด เกซ)
00:24
my termวาระ for algorithmicอัลกอริทึม biasอคติ.
3
12096
3309
ศัพท์ของฉันเอง สำหรับอคติในชุดคำสั่งขั้นตอนวิธี
(algorithmic bias)
00:27
Algorithmicอัลกอริทึม biasอคติ, like humanเป็นมนุษย์ biasอคติ,
resultsผล in unfairnessความไม่ยุติธรรม.
4
15429
4300
อคติที่ว่านั้น ก็เหมือนกับอคติของมนุษย์
มีผลทำให้เกิดความไม่เป็นธรรม
00:31
Howeverอย่างไรก็ตาม, algorithmsอัลกอริทึม, like virusesไวรัส,
can spreadกระจาย biasอคติ on a massiveมาก scaleขนาด
5
19753
6022
แต่ขั้นตอนวิธีปฏิบัติ ก็เหมือนกับไวรัส
สามารถแพร่กระจายอคติ ไปได้อย่างกว้างขวาง
00:37
at a rapidรวดเร็ว paceก้าว.
6
25799
1582
ในย่างก้าวที่รวดเร็ว
00:39
Algorithmicอัลกอริทึม biasอคติ can alsoด้วย leadนำ
to exclusionaryวรรณะ experiencesประสบการณ์
7
27943
4387
อคติในชุดคำสั่งขั้นตอนวิธี
ยังสามารถนำไปสู่ประสบการณ์ที่กันออกไป
00:44
and discriminatoryพินิจพิเคราะห์ practicesการปฏิบัติ.
8
32354
2128
และการกระทำที่แบ่งแยกเลือกปฏิบัติ
00:46
Let me showแสดง you what I mean.
9
34506
2061
ขอแสดงให้คุณเข้าใจว่าฉันหมายถึงอะไร
00:48
(Videoวีดีโอ) Joyความปิติยินดี BuolamwiniBuolamwini: Hiสวัสดี, cameraกล้อง.
I've got a faceใบหน้า.
10
36980
2436
(วิดีโอ) จอยบัวลามวินิ: สวัสดีค่ะ กล้อง
ฉันมีใบหน้า
00:52
Can you see my faceใบหน้า?
11
40162
1864
คุณสามารถเห็นใบหน้าฉันหรือไม่ค่ะ
00:54
No-glassesไม่มีแว่นตา faceใบหน้า?
12
42051
1625
ใบหน้าที่ไม่มีแว่นตานะค่ะ
00:55
You can see her faceใบหน้า.
13
43701
2214
คุณสามารถเห็นใบหน้าของเธอได้
00:58
What about my faceใบหน้า?
14
46237
2245
แล้วใบหน้าของฉันเองล่ะ
01:03
I've got a maskหน้ากาก. Can you see my maskหน้ากาก?
15
51890
3750
ฉันสวมหน้ากากอยู่นะ
คุณสามารถเห็นหน้ากากของฉันหรือไม่ค่ะ
01:08
Joyความปิติยินดี BuolamwiniBuolamwini: So how did this happenเกิดขึ้น?
16
56474
2365
จอย บัวลามมินิ: ค่ะ
สิ่งนี้เกิดขึ้นได้อย่างไรหรือ
01:10
Why am I sittingนั่ง in frontด้านหน้า of a computerคอมพิวเตอร์
17
58863
3141
ทำไมฉันจึงกำลังนั่งอยู่หน้าคอมพิวเตอร์
01:14
in a whiteขาว maskหน้ากาก,
18
62028
1424
ใส่หน้ากากสิขาว
01:15
tryingพยายาม to be detectedตรวจพบ by a cheapถูก webcamเว็บแคม?
19
63476
3650
พยายามจะให้ถูกตรวจพบโดยเว็บแคมราคาถูก ๆ
01:19
Well, when I'm not fightingศึก the codedรหัส gazeจ้องมอง
20
67150
2291
ค่ะ เมื่อฉันไม่ได้กำลังต่อสู้
อยู่กับโคดเด็ดเกซ
01:21
as a poetกวี of codeรหัส,
21
69465
1520
ในฐานะเป็นกวีเขียนรหัส
01:23
I'm a graduateจบการศึกษา studentนักเรียน
at the MITเอ็มไอที Mediaสื่อ Labห้องปฏิบัติการ,
22
71009
3272
ฉันเป็นนักศึกษาบัณฑิตศึกษา
อยู่ที่ห้องทดลองสื่อที่สถาบัน MIT
01:26
and there I have the opportunityโอกาส to work
on all sortsทุกประเภท of whimsicalแปลก projectsโครงการ,
23
74305
4917
และที่นั่นฉันได้โอกาสทำงานในทุก ๆ เรื่อง
เกี่ยวกับโครงการแปลก ๆ ซึ่งรวมถึง
01:31
includingรวมไปถึง the Aspireปรารถนา Mirrorกระจกเงา,
24
79246
2027
กระจกตามความปรารถนา (Aspire Mirror)
01:33
a projectโครงการ I did so I could projectโครงการ
digitalดิจิตอล masksมาสก์ ontoไปยัง my reflectionการสะท้อน.
25
81297
5134
เป็นโครงการที่ฉันทำ เพื่อให้ฉันฉาย
หน้ากากดิจิตอล ลงบนภาพสะท้อนของฉันบนกระจก
01:38
So in the morningตอนเช้า, if I wanted
to feel powerfulมีอำนาจ,
26
86455
2350
ดังนั้น ในตอนเช้า
ถ้าฉันต้องการจะรู้สึกมีพลัง
01:40
I could put on a lionสิงโต.
27
88829
1434
ฉันก็ใส่หน้ากากสิงโต
01:42
If I wanted to be upliftedเพิ่มขึ้น,
I mightอาจ have a quoteอ้างอิง.
28
90287
3496
ถ้าต้องการทำให้รู้สึกเบิกบานใจ
ฉันอาจยกหรือคัดลอกคำพูดมา
01:45
So I used genericทั่วไป
facialที่หน้า recognitionได้รับการยอมรับ softwareซอฟต์แวร์
29
93807
2989
ดังนั้น ฉันจึงได้ใช้โปรแกรมจดจำใบหน้า
แบบพื้นฐาน
01:48
to buildสร้าง the systemระบบ,
30
96820
1351
เพื่อสร้างระบบนั้นขึ้นมา
01:50
but foundพบ it was really hardยาก to testทดสอบ it
unlessเว้นแต่ I woreสวม a whiteขาว maskหน้ากาก.
31
98195
5103
แต่ก็ได้พบว่า มันยากจริง ๆ ที่จะทดสอบมัน
เว้นแต่ว่าฉันจะต้องใส่หน้ากากสีขาว
01:56
Unfortunatelyน่าเสียดาย, I've runวิ่ง
into this issueปัญหา before.
32
104282
4346
โชคไม่ดีค่ะ ฉันเคยวิ่งเข้าไปพบปัญหานี้
มาก่อน
02:00
When I was an undergraduateนักศึกษาระดับปริญญาตรี
at Georgiaจอร์เจีย Techเทค studyingการศึกษา computerคอมพิวเตอร์ scienceวิทยาศาสตร์,
33
108652
4303
เมื่อตอนเรียนปริญญาตรีอยู่ที่จอร์เจียเทค
เรียนวิทยาศาสตร์คอมพิวเตอร์
02:04
I used to work on socialสังคม robotsหุ่นยนต์,
34
112979
2055
ฉันเคยทำงานเกี่ยวกับหุ่นยนต์สังคม
02:07
and one of my tasksงาน was to get a robotหุ่นยนต์
to playเล่น peek-a-booจ๊ะเอ๋,
35
115058
3777
และงานหน้าที่อย่างหนึ่งของฉันก็คือ
ให้หุ่นยนต์เล่นเกมจ๊ะเอ๋
02:10
a simpleง่าย turn-takingเปิดการ gameเกม
36
118859
1683
เป็นเกมง่าย ๆ แบบผลัดกันเล่น
02:12
where partnersพาร์ทเนอร์ coverปก theirของพวกเขา faceใบหน้า
and then uncoverเปิดเผย it sayingคำพูด, "Peek-a-booจ๊ะเอ๋!"
37
120566
4321
ที่ผู้เล่นปิดหน้าของตนไว้ แล้วก็เปิดออก
พร้อมกับพูดว่า "จ๊ะเอ๋"
02:16
The problemปัญหา is, peek-a-booจ๊ะเอ๋
doesn't really work if I can't see you,
38
124911
4429
ปัญหาก็ตือ จะเล่น จ๊ะเอ๋ ไม่ได้
ถ้าฉันมองไม่เห็นคุณ
02:21
and my robotหุ่นยนต์ couldn'tไม่สามารถ see me.
39
129364
2499
และหุ่นยนต์ของฉันก็มองไม่เห็นฉัน
02:23
But I borrowedยืม my roommate'sเพื่อนร่วมห้องของ faceใบหน้า
to get the projectโครงการ doneเสร็จแล้ว,
40
131887
3950
แต่ฉันไปยืมใบหน้าของเพื่อนร่วมห้องมา
เพื่อให้โครงการนี้สำเร็จ
02:27
submittedส่ง the assignmentการมอบหมาย,
41
135861
1380
ส่งงานนั้นให้อาจารย์ไปได้
02:29
and figuredคิด, you know what,
somebodyบางคน elseอื่น will solveแก้ this problemปัญหา.
42
137265
3753
และก็คิดไปว่า คุณรู้ไหม
จะมีคนอื่นมาแก้ปัญหานี้
02:33
Not too long after,
43
141669
2003
หลังจากนั้นไม่นานนัก
02:35
I was in Hongฮ่องกง Kongฮ่องกง
for an entrepreneurshipผู้ประกอบการ competitionการแข่งขัน.
44
143696
4159
ตอนอยู่ที่ฮ่องกงในการแข่งขันผู้ประกอบการ
02:40
The organizersการจัดงาน decidedตัดสินใจ
to take participantsผู้เข้าร่วม
45
148339
2694
ผู้จัดการแข่งขันตัดสินใจ
พาผู้เข้าร่วมการแข่งขัน
02:43
on a tourการท่องเที่ยว of localในประเทศ start-upsเริ่มอัพ.
46
151057
2372
ไปเที่ยวชมธุรกิจเติบโตเร็วในท้องถิ่น
02:45
One of the start-upsเริ่มอัพ had a socialสังคม robotหุ่นยนต์,
47
153453
2715
หนึ่งในธุรกิจเติบโตเร็วนั้นมีหุ่นยนต์สังคม
(social robot)
02:48
and they decidedตัดสินใจ to do a demoการสาธิต.
48
156192
1912
และพวกเขาก็ตัดสินใจแสดงให้ดูเป็นตัวอย่าง
02:50
The demoการสาธิต workedทำงาน on everybodyทุกคน
untilจนกระทั่ง it got to me,
49
158128
2980
การแสดงทำได้ดีกับทุก ๆ คน จนมาถึงฉัน
02:53
and you can probablyอาจ guessเดา it.
50
161132
1923
และคุณก็น่าจะเดาออก
02:55
It couldn'tไม่สามารถ detectตรวจจับ my faceใบหน้า.
51
163079
2965
มันตรวจไม่พบใบหน้าของฉัน
02:58
I askedถาม the developersนักพัฒนา what was going on,
52
166068
2511
ฉันเลยถามผู้ที่พัฒนาสร้างมันขึ้นมา
ว่าเกิดอะไรขึ้น
03:00
and it turnedหัน out we had used the sameเหมือนกัน
genericทั่วไป facialที่หน้า recognitionได้รับการยอมรับ softwareซอฟต์แวร์.
53
168603
5533
และก็กลายเป็นว่า พวกเราใช้
โปรแกรมจดจำใบหน้าแบบพื้นฐานแบบเดียวกัน
03:06
Halfwayครึ่งทาง around the worldโลก,
54
174160
1650
ห่างออกไปครึ่งหนึ่งของโลก
03:07
I learnedได้เรียนรู้ that algorithmicอัลกอริทึม biasอคติ
can travelการท่องเที่ยว as quicklyอย่างรวดเร็ว
55
175834
3852
ฉันเรียนรู้ว่าอคติในชุดคำสั่งขั้นตอนวิธี
สามารถเดินทางไปได้อย่างรวดเร็ว
03:11
as it takes to downloadดาวน์โหลด
some filesไฟล์ off of the internetอินเทอร์เน็ต.
56
179710
3170
เท่า ๆ กับที่มันใช้เวลาคัดลอกบางแฟ้มข้อมูล
ของอินเตอร์เน็ตออกไปจนหมด
03:15
So what's going on?
Why isn't my faceใบหน้า beingกำลัง detectedตรวจพบ?
57
183745
3076
ดังนั้น จึงเกิดอะไรขึ้นหรือค่ะ
ทำไมมันจึงตรวจไม่ใบหน้าของฉัน
03:18
Well, we have to look
at how we give machinesเครื่อง sightสายตา.
58
186845
3356
ค่ะ เราก็ต้องมาดูว่า เราให้เครื่องจักรกล
มองเห็นได้อย่างไร
03:22
Computerคอมพิวเตอร์ visionวิสัยทัศน์ usesการใช้งาน
machineเครื่อง learningการเรียนรู้ techniquesเทคนิค
59
190225
3409
การมองเห็นของคอมพิวเตอร์นั้น
ใช้เทคนิคการเรียนรู้ของเครื่องจักรกล
03:25
to do facialที่หน้า recognitionได้รับการยอมรับ.
60
193658
1880
เพื่อให้จดจำใบหน้าได้
03:27
So how this worksโรงงาน is, you createสร้าง
a trainingการอบรม setชุด with examplesตัวอย่าง of facesใบหน้า.
61
195562
3897
สิ่งนี้ทำงานอย่างไรนั้น คือ คุณสร้างชุด
การฝึกขึ้นมาพร้อมกับตัวอย่างใบหน้าแบบต่าง ๆ
03:31
This is a faceใบหน้า. This is a faceใบหน้า.
This is not a faceใบหน้า.
62
199483
2818
นี่เป็นใบหน้า นี่ก็เป็นใบหน้า
นี่ไม่ใช่ใบหน้า
03:34
And over time, you can teachสอน a computerคอมพิวเตอร์
how to recognizeรับรู้ other facesใบหน้า.
63
202325
4519
และเมื่อเวลาผ่านไป คุณก็สามารถสอนคอมพิวเตอร์
วิธีการจดจำใบหน้าอื่น ๆ ได้
03:38
Howeverอย่างไรก็ตาม, if the trainingการอบรม setsชุด
aren'tไม่ได้ really that diverseหลากหลาย,
64
206868
3989
อย่างไรก็ตาม ถ้าหากว่าชุดการฝึกนั้น
ไม่มีความหลากหลายอย่างแท้จริงแล้ว
03:42
any faceใบหน้า that deviatesเบี่ยงเบน too much
from the establishedที่จัดตั้งขึ้น normบรรทัดฐาน
65
210881
3349
ใบหน้าใดก็ตามที่เบี่ยงเบนไปอย่างมาก
จากบรรทัดฐานที่สร้างขึ้นมา
03:46
will be harderยาก to detectตรวจจับ,
66
214254
1649
ก็จะเป็นการยากที่จะตรวจพบได้
03:47
whichที่ is what was happeningสิ่งที่เกิดขึ้น to me.
67
215927
1963
ซึ่งก็คือ สิ่งที่กำลังเกิดขึ้นกับฉัน
03:49
But don't worryกังวล -- there's some good newsข่าว.
68
217914
2382
แต่ไม่ต้องเป็นห่วงนะคะ -- มีข่าวดีอยู่บ้าง
03:52
Trainingการอบรม setsชุด don't just
materializeเป็นตัวเป็นตนขึ้น out of nowhereไม่มีที่ไหนเลย.
69
220320
2771
ชุดการฝึกนั้น ไม่ได้แค่เป็นตัวเป็นตน
ขึ้นมาได้เอง
03:55
We actuallyแท้จริง can createสร้าง them.
70
223115
1788
จริง ๆ เราสามารถสร้างพวกมันขึ้นมาได้
03:56
So there's an opportunityโอกาส to createสร้าง
full-spectrumเต็มสเปกตรัม trainingการอบรม setsชุด
71
224927
4176
ดังนั้นจึงมีโอกาสที่จะสร้าง
ชุดการฝึกแบบครบถ้วนทุกส่วน
04:01
that reflectสะท้อน a richerที่ดียิ่งขึ้น
portraitภาพเหมือน of humanityมนุษยชาติ.
72
229127
3824
ที่สะท้อนภาพเหมือนของมนุษย์
ได้สมบูรณ์ยิ่งขึ้น
04:04
Now you've seenเห็น in my examplesตัวอย่าง
73
232975
2221
ค่ะ คุณก็ได้เห็นในตัวอย่างของฉันแล้ว
04:07
how socialสังคม robotsหุ่นยนต์
74
235220
1768
ว่า หุ่นยนต์สังคมเป็นอย่างไร
04:09
was how I foundพบ out about exclusionยกเว้น
with algorithmicอัลกอริทึม biasอคติ.
75
237012
4611
ฉันค้นพบได้อย่างไร เกี่ยวกับการกันแยกออกไป
ด้วยอคติของชุดคำสั่งปฏิบัติ
04:13
But algorithmicอัลกอริทึม biasอคติ can alsoด้วย leadนำ
to discriminatoryพินิจพิเคราะห์ practicesการปฏิบัติ.
76
241647
4815
แต่อคติของชุดคำสั่งขั้นตอนวิธี ยังสามารถ
นำไปสู่การเลือกปฏิบัติได้อีกด้วย
04:19
Acrossข้าม the US,
77
247437
1453
ขณะนี้ทั่วทั้งสหรัฐ
04:20
policeตำรวจ departmentsหน่วยงาน are startingที่เริ่มต้น to use
facialที่หน้า recognitionได้รับการยอมรับ softwareซอฟต์แวร์
78
248914
4198
กรมตำรวจกำลังเริ่มใช้โปรแกรมการจดจำใบหน้า
04:25
in theirของพวกเขา crime-fightingต่อสู้อาชญากรรม arsenalคลังแสง.
79
253136
2459
ในคลังแสงต่อสู้อาชญากรรมของพวกเขา
04:27
Georgetownจอร์จทาวน์ Lawกฎหมาย publishedการตีพิมพ์ a reportรายงาน
80
255619
2013
คณะกฎหมายมหาวิทยาลัยจอร์ดทาวน์
ได้ตีพิมพ์
04:29
showingการแสดง that one in two adultsผู้ใหญ่
in the US -- that's 117 millionล้าน people --
81
257656
6763
แสดงให้เห็นว่า ผู้ใหญ่หนึ่งในสองคน ในสหรัฐ
-- นั่นก็คือ คน 117 ล้านคน --
04:36
have theirของพวกเขา facesใบหน้า
in facialที่หน้า recognitionได้รับการยอมรับ networksเครือข่าย.
82
264443
3534
มีใบหน้าของพวกเขา
อยู่ในเครือข่ายของการจดจำใบหน้าแล้ว
04:40
Policeตำรวจ departmentsหน่วยงาน can currentlyปัจจุบัน look
at these networksเครือข่าย unregulatedอลหม่าน,
83
268001
4552
ปัจจุบันกรมตำรวจสามารถเข้าไป
ดูเครือข่ายเหล่านี้ได้ โดยไม่มีการควบคุม
04:44
usingการใช้ algorithmsอัลกอริทึม that have not
been auditedผ่านการตรวจสอบ for accuracyความถูกต้อง.
84
272577
4286
โดยใช้ชุดคำสั่งที่ยังไม่ได้ถูกตรวจสอบ
ในเรื่องความเที่ยงตรง
04:48
Yetยัง we know facialที่หน้า recognitionได้รับการยอมรับ
is not failล้มเหลว proofพิสูจน์,
85
276887
3864
แต่เราก็รู้ว่า การจดจำใบหน้า
ไม่ใช่ข้อมูลที่ใช้ไม่ได้
04:52
and labelingการติดฉลาก facesใบหน้า consistentlyเสมอต้นเสมอปลาย
remainsซากศพ a challengeท้าทาย.
86
280775
4179
และการบอกชื่อลักษณะของใบหน้า
ก็ยังคงเป็นสิ่งที่ท้าทาย
04:56
You mightอาจ have seenเห็น this on FacebookFacebook.
87
284978
1762
คุณอาจจะได้เห็นสิ่งนี้มาแล้ว ในเฟซบุค
04:58
My friendsเพื่อน and I laughหัวเราะ all the time
when we see other people
88
286764
2988
เพื่อน ๆ ฉันและตัวฉันหัวเราะตลอดเวลา
เมื่อเราเห็นคนอื่น ๆ
05:01
mislabeledเรียกไม่ถูก in our photosภาพถ่าย.
89
289776
2458
ติดป้ายชื่อผิด ๆ ในภาพของเรา
05:04
But misidentifyingmisidentifying a suspectedสงสัยว่า criminalอาชญากร
is no laughingที่หัวเราะ matterเรื่อง,
90
292258
5591
แต่การระบุตัวอาชญากรผู้ต้องสงสัยผิดไป
ไม่ใช่เรื่องน่าขบขัน
05:09
norไม่ is breachingการทำให้แตกแยก civilพลเรือน libertiesเสรีภาพ.
91
297873
2827
และไม่ใช่เป็นเรื่องทำให้เกิดรอยแตกร้าว
ในเสรีภาพของพลเมือง
05:12
Machineเครื่อง learningการเรียนรู้ is beingกำลัง used
for facialที่หน้า recognitionได้รับการยอมรับ,
92
300724
3205
การเรียนรู้ของเครื่องจักรกล กำลังถูกใช้
สำหรับการจดจำใบหน้า
05:15
but it's alsoด้วย extendingขยาย beyondเกิน the realmดินแดน
of computerคอมพิวเตอร์ visionวิสัยทัศน์.
93
303953
4505
แต่มันยังกำลังขยายออกไปเกินขอบเขต
ของการมองเห็นของคอมพิวเตอร์
05:21
In her bookหนังสือ, "Weaponsอาวุธ
of Mathคณิตศาสตร์ Destructionการทำลาย,"
94
309266
4016
หนังสือ "อาวุธของการทำลายเชิงคณิตศาสตร์"
(Weapons of Math Destruction)
05:25
dataข้อมูล scientistนักวิทยาศาสตร์ Cathyเคธี่ O'Neilโอนีล
talksการเจรจา about the risingที่เพิ่มสูงขึ้น newใหม่ WMDsWMDs --
95
313306
6681
นักวิทยาศาสตร์ข้อมูล แคธี่ โอนีล พูดถึง
การเกิดขึ้นของ ดับเบิลยูเอ็มดี แบบใหม่ --
05:32
widespreadแพร่หลาย, mysteriousลึกลับ
and destructiveเป็นอันตราย algorithmsอัลกอริทึม
96
320011
4353
คือ ชุดคำสั่งที่ ขยายกว้าง (widespread)
ลึกลับ (mysterious) ทำลายล้าง (destructive)
05:36
that are increasinglyขึ้น beingกำลัง used
to make decisionsการตัดสินใจ
97
324388
2964
ที่กำลังถูกใช้เพิ่มมากขึ้น
เพื่อใช้ในการตัดสินใจ
05:39
that impactส่งผลกระทบ more aspectsด้าน of our livesชีวิต.
98
327376
3177
ที่เกิดผลกระทบต่อด้านต่าง ๆ
ในชีวิตของเรามากยิ่งขึ้น
05:42
So who getsได้รับ hiredที่จ้าง or firedยิง?
99
330577
1870
ใครถูกจ้างงาน หรือถูกไล่ออกหรือคะ
05:44
Do you get that loanเงินกู้?
Do you get insuranceประกันภัย?
100
332471
2112
คุณได้เงินกู้นั่น หรือได้ประกันหรือไม่คะ
05:46
Are you admittedที่ยอมรับ into the collegeวิทยาลัย
you wanted to get into?
101
334607
3503
คุณได้รับการตอบรับให้เข้าเรียน
ในมหาวิทยาลัยที่คุณต้องการหรือไม่คะ
05:50
Do you and I payจ่ายเงิน the sameเหมือนกัน priceราคา
for the sameเหมือนกัน productสินค้า
102
338134
3509
คุณและฉันจ่ายเงินซื้อสินค้าอย่างเดียวกัน
ในราคาที่เท่ากันหรือไม่คะ
05:53
purchasedซื้อ on the sameเหมือนกัน platformเวที?
103
341667
2442
เมื่อสินค้านั้นถูกซื้อบนฐานงานเดียวกัน
05:56
Lawกฎหมาย enforcementการบังคับใช้ is alsoด้วย startingที่เริ่มต้น
to use machineเครื่อง learningการเรียนรู้
104
344133
3759
การบังคับกฏหมาย กำลังเริ่มต้นที่จะใช้
การเรียนรู้ของเครื่องจักรกล
05:59
for predictiveทำนาย policingการรักษา.
105
347916
2289
เพื่อคาดเดาและระบุอาชญากรรม
06:02
Some judgesผู้พิพากษา use machine-generatedเครื่องสร้าง
riskอันตราย scoresคะแนน to determineกำหนด
106
350229
3494
ผู้พิพากษาบางคนใช้คะแนนความเสี่ยง
ที่ได้จากเครื่องจักรกล เพื่อตัดสินใจว่า
06:05
how long an individualรายบุคคล
is going to spendใช้จ่าย in prisonคุก.
107
353747
4402
บุคคลหนึ่งจะใช้เวลาติดคุกนานเท่าใด
06:10
So we really have to think
about these decisionsการตัดสินใจ.
108
358173
2454
แท้จริง เราจึงต้องคิดเกี่ยวกับ
การตัดสินใจเหล่านี้
06:12
Are they fairธรรม?
109
360651
1182
มันยุติธรรมหรือไม่
06:13
And we'veเราได้ seenเห็น that algorithmicอัลกอริทึม biasอคติ
110
361857
2890
และเราก็ได้เห็นแล้วว่า
อคติในชุดคำสั่งขั้นตอนการวิธีนั้น
06:16
doesn't necessarilyจำเป็นต้อง always
leadนำ to fairธรรม outcomesผลลัพธ์.
111
364771
3374
ไม่ได้จำเป็นเสมอว่า
จะนำไปสู่ผลลัพธ์ที่เป็นธรรม
06:20
So what can we do about it?
112
368169
1964
ดังนั้น เราจะสามารถทำอะไรได้ในเรื่องนี้
06:22
Well, we can startเริ่มต้น thinkingคิด about
how we createสร้าง more inclusiveรวมทั้ง codeรหัส
113
370157
3680
ค่ะ เราสามารถเริ่มคิดเกี่ยวกับว่า
จะสร้างรหัสที่ครอบคลุมเบ็ดเสร็จยิ่งกว่านี้
06:25
and employจ้าง inclusiveรวมทั้ง codingการเข้ารหัส practicesการปฏิบัติ.
114
373861
2990
และใช้วิธีการปฏิบัติในการลงรหัส
ที่ครอบคลุมเบ็ดเสร็จ ได้อย่างไร
06:28
It really startsเริ่มต้น with people.
115
376875
2309
โดยแท้จริงแล้ว มันเริ่มต้นจากผู้คน
06:31
So who codesรหัส mattersเรื่อง.
116
379708
1961
ใครเป็นคนลงรหัส จึงเป็นเรื่องสำคัญ
06:33
Are we creatingการสร้าง full-spectrumเต็มสเปกตรัม teamsทีม
with diverseหลากหลาย individualsบุคคล
117
381693
4119
เรากำลังสร้างทีมงานที่ครบถ้วนทุกส่วน
พร้อมกับบุคคลที่หลากหลายหรือไม่
06:37
who can checkตรวจสอบ eachแต่ละ other'sอื่น ๆ blindตาบอด spotsจุด?
118
385836
2411
มีใครที่จะสามารถตรวจสอบ
จุดบอดของแต่ละคนหรือไม่
06:40
On the technicalวิชาการ sideด้าน,
how we codeรหัส mattersเรื่อง.
119
388271
3545
ในด้านเทคนิคนั้น เราลงรหัสอย่างไร
เป็นสิ่งสำคัญ
06:43
Are we factoringแฟ in fairnessความเป็นธรรม
as we're developingที่กำลังพัฒนา systemsระบบ?
120
391840
3651
เราแบ่งแยกออกเป็นส่วนๆในเรื่องความเป็นธรรม
ขณะที่เราพัฒนาระบบหรือไม่
06:47
And finallyในที่สุด, why we codeรหัส mattersเรื่อง.
121
395515
2913
และท้ายสุด ทำไมเราจึงลงรหัส ก็สำคัญ
06:50
We'veเราได้ used toolsเครื่องมือ of computationalการคำนวณ creationการสร้าง
to unlockปลดล็อค immenseเวิ้งว้าง wealthความมั่งคั่ง.
122
398785
5083
เราใช้เครื่องมือของการสร้างเชิงคอมพิวเตอร์
เพื่อปลดล็อกความมั่งคั่งที่มากมาย
06:55
We now have the opportunityโอกาส
to unlockปลดล็อค even greaterมากขึ้น equalityความเท่าเทียมกัน
123
403892
4447
ถึงตอนนี้ เรามีโอกาสที่จะปลดล็อกเปิดได้
แม้กระทั่งระดับคุณภาพที่ยิ่งใหญ่กว่า
07:00
if we make socialสังคม changeเปลี่ยนแปลง a priorityจัดลำดับความสำคัญ
124
408363
2930
ถ้าเราทำให้การเปลี่ยนแปลงทางสังคมนั้น
เป็นสิ่งสำคัญอันดับแรก
07:03
and not an afterthoughtคำอธิบายเพิ่มเติม.
125
411317
2170
และไม่ใช่เป็นสิ่งที่จะนำมาคิดพิจารณา
ในภายหลัง
07:06
And so these are the threeสาม tenetsหลักคำสอน
that will make up the "incodingincoding" movementการเคลื่อนไหว.
126
414008
4522
และทั้งหมดนี้ คือ หลักการสามข้อที่จะ
ก่อร่างขึ้นเป็นความเคลื่อนไหว "การลงรหัส"
07:10
Who codesรหัส mattersเรื่อง,
127
418554
1652
คนที่ลงรหัสนั้นสำคัญ
07:12
how we codeรหัส mattersเรื่อง
128
420230
1543
เราจะลงรหัสอย่างไรนั้นสำคัญ
07:13
and why we codeรหัส mattersเรื่อง.
129
421797
2023
และทำไมเราจึงลงรหัส ก็สำคัญ
07:15
So to go towardsไปทาง incodingincoding,
we can startเริ่มต้น thinkingคิด about
130
423844
3099
ดังนั้น จะไปสู่การลงรหัส
เราสามารถเริ่มต้นการคิดเกี่ยวกับ
07:18
buildingอาคาร platformsแพลตฟอร์ม that can identifyแยกแยะ biasอคติ
131
426967
3164
การสร้างฐานงานที่สามารถระบุอคติได้
07:22
by collectingการจัดเก็บภาษี people'sของผู้คน experiencesประสบการณ์
like the onesคน I sharedที่ใช้ร่วมกัน,
132
430155
3078
โดยการรวบรวมประสบการณ์ของผู้คน
เช่น คนที่ฉันได้ไปแบ่งปันความคิด
07:25
but alsoด้วย auditingการตรวจสอบบัญชี existingที่มีอยู่ softwareซอฟต์แวร์.
133
433257
3070
และก็ยังไปตรวจสอบโปรแกรมคอมพิวเตอร์
ที่มีอยู่อีกด้วย
07:28
We can alsoด้วย startเริ่มต้น to createสร้าง
more inclusiveรวมทั้ง trainingการอบรม setsชุด.
134
436351
3765
เรายังสามารถที่จะสร้างชุดการฝึก
ที่ครอบคลุมเบ็ดเสร็จยิ่งกว่านี้ได้อีกด้วย
07:32
Imagineจินตนาการ a "Selfiesเซลฟี for Inclusionรวม" campaignรณรงค์
135
440140
2803
ลองคิดดูซิคะ รณรงค์
"มือถือถ่ายภาพตัวเอง เพื่อนำไปรวมด้วย"
07:34
where you and I can help
developersนักพัฒนา testทดสอบ and createสร้าง
136
442967
3655
ซึ่งคุณและฉันสามารถช่วยนักพัฒนาทั้งหลาย
ทดสอบและสร้างขึ้นมาได้
07:38
more inclusiveรวมทั้ง trainingการอบรม setsชุด.
137
446646
2093
ชุดการฝึกแบบครอบคลุมเบ็ดเสร็จ
07:41
And we can alsoด้วย startเริ่มต้น thinkingคิด
more conscientiouslyเป็นเรื่องเป็นราว
138
449302
2828
และเรายังเริ่มต้นการคิดที่
เป็นเรื่องเป็นราวยิ่งขึ้นได้อีก
07:44
about the socialสังคม impactส่งผลกระทบ
of the technologyเทคโนโลยี that we're developingที่กำลังพัฒนา.
139
452154
5391
เกี่ยวกับผลกระทบของเทคโนโลยีต่อสังคม
ที่เรากำลังพัฒนากัน
07:49
To get the incodingincoding movementการเคลื่อนไหว startedเริ่มต้น,
140
457569
2393
เพื่อให้การเคลื่อนไหวเชิงการลงรหัส
เริ่มต้นขึ้นมา
07:51
I've launchedเปิดตัว the Algorithmicอัลกอริทึม
Justiceความยุติธรรม Leagueพันธมิตร,
141
459986
2847
ฉันได้เริ่ม คณะเพื่อความเป็นธรรม
ด้านชุดคำสั่งขั้นตอนวิธี
07:54
where anyoneใคร ๆ who caresใส่ใจ about fairnessความเป็นธรรม
can help fightสู้ the codedรหัส gazeจ้องมอง.
142
462857
5872
ซึ่งใครๆที่สนใจเกี่ยวกับความเป็นธรรมมาร่วม
ช่วยต่อสู้เรื่อง การจ้องมองที่ถูกเข้ารหัส
08:00
On codedgazecodedgaze.comดอทคอม, you can reportรายงาน biasอคติ,
143
468753
3296
ที่ codedgaze.com
คุณสามารถรายงานเกี่ยวกับ อคติ
08:04
requestขอร้อง auditsการตรวจสอบ, becomeกลายเป็น a testerทดสอบ
144
472073
2445
ร้องขอการตรวจสอบ มาเป็นผู้ทดสอบ
08:06
and joinร่วม the ongoingต่อเนื่อง conversationการสนทนา,
145
474542
2771
และเข้ามาร่วมการสนธนาที่กำลังมีอยู่
08:09
#codedgazecodedgaze.
146
477337
2287
ที่ #codedgaze
08:12
So I inviteเชิญ you to joinร่วม me
147
480742
2487
จึงขอเชิญชวนคุณให้มาร่วมกับฉัน
08:15
in creatingการสร้าง a worldโลก where technologyเทคโนโลยี
worksโรงงาน for all of us,
148
483253
3719
ในการสร้างโลกใบหนึ่ง ซึ่งเทคโนโลยี
ทำงานให้กับเราทุกคน
08:18
not just some of us,
149
486996
1897
ไม่ใช่แค่พวกเราบางคน
08:20
a worldโลก where we valueความคุ้มค่า inclusionรวม
and centerศูนย์ socialสังคม changeเปลี่ยนแปลง.
150
488917
4588
โลกใบหนึ่ง ที่เราเห็นคุณค่าในการรวมกัน
และมีศูนย์กลางอยู่ที่การเปลี่ยนแปลงสังคม
08:25
Thank you.
151
493529
1175
ขอบคุณค่ะ
08:26
(Applauseการปรบมือ)
152
494728
4271
(เสียงปรบมือ)
08:32
But I have one questionคำถาม:
153
500873
2854
แต่ฉันมีคำถามหนึ่ง
08:35
Will you joinร่วม me in the fightสู้?
154
503751
2059
คุณจะมาเข้าร่วมกับฉันในการต่อสู้หรือไม่คะ
08:37
(Laughterเสียงหัวเราะ)
155
505834
1285
(เสียงหัวเราะ)
08:39
(Applauseการปรบมือ)
156
507143
3687
(เสียงปรบมือ)
Translated by yamela areesamarn

▲Back to top

ABOUT THE SPEAKER
Joy Buolamwini - Poet of code
Joy Buolamwini's research explores the intersection of social impact technology and inclusion.

Why you should listen

Joy Buolamwini is a poet of code on a mission to show compassion through computation. As a graduate researcher at the MIT Media Lab, she leads the Algorithmic Justice League to fight coded bias. Her research explores the intersection of social impact technology and inclusion. In support of this work, Buolamwini was awarded a $50,000 grant as the Grand Prize winner of a national contest inspired by the critically acclaimed film Hidden Figures, based on the book by Margot Lee Shetterly.

Driven by an entrepreneurial spirit, Buolamwini's global interest in creating technology for social impact spans multiple industries and countries. As the inaugural Chief Technology Officer for Techturized Inc., a hair care technology company, and Swift Tech Solutions, a global health tech consultancy, she led software development for underserved communities in the United States, Ethiopia, Mali, Nigeria and Niger. In Zambia, she explored empowering citizens with skills to create their own technology through the Zamrize Project. In the United Kingdom, Buolamwini piloted a Service Year Initiative to launch Code4Rights which supports youth in creating meaningful technology for their communities in partnership with local organizations.

Through Filmmakers Collaborative, Buolamwini produces media that highlight diverse creators of technology. Her short documentary, The Coded Gaze: Unmasking Algorithmic Bias, debuted at the Museum of Fine Arts Boston and her pilot of the Code4Rights: Journey To Code training series debuted at the Vatican. She has presented keynote speeches and public talks at various forums including #CSforAll at the White House, Harvard University, Saïd Business School, Rutgers University, NCWIT, Grace Hopper Celebration and SXSWedu.

Buolamwini is a Rhodes Scholar, Fulbright Fellow, Google Anita Borg Scholar, Astronaut Scholar, A Stamps President's Scholar and Carter Center technical consultant recognized as a distinguished volunteer.  She holds a master's degree in Learning and Technology from Oxford University and a bachelor's degree in Computer Science from the Georgia Institute of Technology. Buolamwini serves as a Harvard resident tutor at Adams House where she mentors students seeking scholarships or pursuing entrepreneurship.

More profile about the speaker
Joy Buolamwini | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee