Zeynep Tufekci: Machine intelligence makes human morals more important
เซย์เน็พ ตูเฟ็คชี่ (Zeynep Tufekci): เมื่อมีปัญญาประดิษฐ์ ศีลธรรมมนุษย์ก็ยิ่งสำคัญ
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
as a computer programmer
เป็นคอมพิวเตอร์ โปรแกรมเมอร์
came down to where I was,
มาหาดิฉัน
And why are we whispering?"
แล้วเราจะกระซิบกันทำไม?"
at the computer in the room.
ไปที่คอมพิวเตอร์
an affair with the receptionist.
เป็นชู้อยู่กับพนักงานต้อนรับ
if you're lying."
the laugh's on me.
ดิฉันกลับขำไม่ออกเสียเอง
emotional states and even lying
หรือกระทั่งคำโกหกได้
are very interested.
ต่างก็สนใจอย่างมาก
crazy about math and science.
และวิทยาศาสตร์มาก ๆ
I'd learned about nuclear weapons,
ดิฉันก็ได้รู้เรื่องอาวุธนิวเคลียร์
with the ethics of science.
จริยธรรมทางวิทยาศาสตร์เอามาก ๆ
as soon as possible.
let me pick a technical field
with any troublesome questions of ethics.
ปัญหาจริยธรรมอะไรก็แล้วกัน
All the laughs are on me.
ดิฉันนี่เองกลับขำไม่ออก
are building platforms
กำลังสร้างแพลตฟอร์ม
people see every day.
เป็นพันล้านคนดูอยู่ทุกวัน
that could decide who to run over.
ที่จะตัดสินใจว่าใครที่จะวิ่งชนได้
to make all sort of decisions,
เพื่อตัดสินใจเรื่องสารพัดอย่าง
that have no single right answers,
เพื่อตอบคำถามที่ไม่มีคำตอบตายตัว
should you be shown?"
likely to reoffend?"
should be recommended to people?"
computers for a while,
เราใช้คอมพิวเตอร์กันมาระยะนึงแล้ว
for such subjective decisions
มาช่วยแก้ปัญหาเชิงอัตวิสัย
for flying airplanes, building bridges,
สร้างสะพาน
Did the bridge sway and fall?
สะพานจะแกว่งหรือพังมั้ย
fairly clear benchmarks,
ที่จับต้อง เห็นตรงกันได้
เรื่องธุระที่ยุ่งเหยิงของมนุษย์
our software is getting more powerful,
เมื่อซอฟท์แวร์ของเราทรงพลังขึ้น
transparent and more complex.
และซับซ้อนมากขึ้น
have made great strides.
ก้าวล้ำรุดหน้าอย่างยิ่ง
from a method called "machine learning."
"แมคชีน เลิร์นนิ่ง" (Machine Learning)
than traditional programming,
การเขียนโปรแกรมทั่วไป
detailed, exact, painstaking instructions.
อย่างละเอียด เจาะจง และรัดกุม
and you feed it lots of data,
เข้าสู่ระบบ
in our digital lives.
by churning through this data.
โดยประมวลย่อยข้อมูลเหล่านั้น
under a single-answer logic.
โดยใช้ชุดตรรกะที่ให้คำตอบตายตัว
it's more probabilistic:
แต่เป็นคำตอบที่อิงความน่าจะเป็น
what you're looking for."
this method is really powerful.
วิธีการนี้ทรงพลังเอามาก ๆ
what the system learned.
อะไรคือสิ่งที่ระบบเรียนรู้
instructions to a computer;
a puppy-machine-creature
ที่เผอิญเป็นคอมพิวเตอร์
intelligence system gets things wrong.
พวกนี้ตีความข้อมูลผิด
when it gets things right,
แม้เมื่อมันตีความถูก
when it's a subjective problem.
เมื่อพูดถึงปัญหาแบบอัตนัย
using machine-learning systems.
โดยใช้วิธีแมคชีน เลิร์นนิ่ง
on previous employees' data
พนักงานที่เคยจ้างในอดีต
high performers in the company.
ระดับเยี่ยมที่มีอยู่ในปัจจุบัน
human resources managers and executives,
ผู้จัดการและผู้บริหารด้านทรัพยากรมนุษย์
more objective, less biased,
ตรงตามข้อเท็จจริงมากขึ้น มีอคติน้อยลง
and minorities a better shot
มีโอกาสได้จ้างดีขึ้น
as a programmer,
come down to where I was
จะมาหาฉัน
or really late in the afternoon,
ตอนบ่ายมาก ๆ
let's go to lunch!"
ไปกินข้าวเที่ยงกัน!"
ฉะนั้น ข้าวเที่ยงฟรี ฉันพร้อมเสมอ
had not confessed to their higher-ups
บอกผู้ใหญ่ตามตรงว่า
for a serious job was a teen girl
มานั้น เป็นแค่วัยรุ่นผู้หญิง
I just looked wrong
แต่รูปลักษณ์นั้นไม่ผ่าน
ไม่คำนึงถึงเพศ และเชื้อชาติ
it is more complicated, and here's why:
จะมีเรื่องยุ่งยากเพิ่มขึ้นค่ะ
can infer all sorts of things about you
สามารถคาดเดาเรื่องของคุณได้สารพัด
disclosed those things.
ข้อมูลเหล่านั้นเลยก็ตาม
ทั้งรสนิยมทางเพศของคุณ
with high levels of accuracy.
ด้วยความแม่นยำสูง
you haven't even disclosed.
ที่คุณไม่ได้เปิดเผยเสียด้วยซ้ำ
such computational systems
ระบบคอมพิวเตอร์แบบนี้
of clinical or postpartum depression
ของการเป็นโรคซึมเศร้ารุนแรงหรือหลังคลอดลูก
the likelihood of depression
แนวโน้มการเป็นโรคซึมเศร้า
for early intervention. Great!
เพื่อป้องกันโรคแต่เนิ่น ๆ ดีค่ะ!
managers conference,
งานนี้
in a very large company,
ของบริษัทใหญ่ยักษ์แห่งหนึ่ง
what if, unbeknownst to you,
โดยที่คุณไม่ล่วงรู้"
with high future likelihood of depression?
เป็นโรคซึมเศร้าในอนาคตสูงออกไป
just maybe in the future, more likely.
แค่อาจจะซึมเศร้าในอนาคต
more likely to be pregnant
ว่าจะตั้งครรภ์
but aren't pregnant now?
แต่ไม่ได้ตั้งครรภ์ตอนนี้ออกไปล่ะ
because that's your workplace culture?"
เพราะว่ามันเป็นวัฒนธรรมองค์กรของคุณล่ะ
at gender breakdowns.
โดยใช้แค่เพศจำแนก
not traditional coding,
ไม่ใช่การโปรแกรมแบบปกติ
labeled "higher risk of depression,"
"ความเสี่ยงซึมเศร้าสูง"
what your system is selecting on,
ระบบเลือกอะไรมา
where to begin to look.
ว่าจะเริ่มหาจากตรงไหนดี
but you don't understand it.
แต่เราไม่อาจเข้าใจมันได้
isn't doing something shady?"
ไม่ทำอะไรนอกลู่นอกทาง
just stepped on 10 puppy tails.
เหยียบหางลูกหมาอยู่ 10 ตัว
another word about this."
ให้ฉันฟังอีกนะคะ"
isn't my problem, go away, death stare.
ไปไกล ๆ ไล่ด้วยสายตา
may even be less biased
อาจมีอคติน้อยกว่า
shutting out of the job market
คนที่มีแนวโน้มซึมเศร้า
โดยเราไม่รู้ตัว
we want to build,
สร้างขึ้น
to machines we don't totally understand?
ก็ไม่เข้าใจอย่างถ่องแท้อย่างนั้นหรือ
on data generated by our actions,
โดยใช้ข้อมูลที่เกิดจากพฤติกรรมของเรา
reflecting our biases,
could be picking up on our biases
neutral computation."
ตามข้อเท็จจริง"
to be shown job ads for high-paying jobs.
ให้ผู้หญิงเห็นน้อยกว่าให้ผู้ชาย
suggesting criminal history,
กับประวัติอาชญากรรมจะแสดงขึ้นมา
and black-box algorithms
และอัลกอริธึ่มกล่องดำแบบนี้เอง
but sometimes we don't know,
แต่บางครั้งก็ไม่อาจรู้ได้
ถึงขั้นเปลี่ยนชีวิตคนได้
was sentenced to six years in prison
ถูกตัดสินจำคุกหกปี
in parole and sentencing decisions.
การสั่งทัณฑ์บนหรือจำคุกมากขึ้นเรื่อย ๆ
How is this score calculated?
คะแนนนี้มีวิธีคำนวณอย่างไร
be challenged in open court.
ศาลไต่สวนอัลกอริธึ่มของตนเอง
nonprofit, audited that very algorithm
ตรวจสอบอัลกอริธึ่มนั้น
was dismal, barely better than chance,
ดีกว่าเดาสุ่มแค่นิดเดียว
black defendants as future criminals
ผู้ต้องหาผิวดำมีแนวโน้มเป็นอาชญากรในอนาคต
picking up her godsister
กลับจากโรงเรียน
สายกว่าเวลา
with a friend of hers.
วิ่งกันไปตามถนน
and a scooter on a porch
และสกูตเตอร์วางทิ้งไว้
a woman came out and said,
ผู้หญิงคนหนึ่งก็ออกมาตะโกนว่า
but they were arrested.
รีบเดินหนี แล้วก็ถูกจับกุม
but she was also just 18.
แต่เธอก็อายุแค่ 18 ด้วย
for shoplifting in Home Depot --
ข้อหาขโมยของในโฮมดีโป้
a similar petty crime.
เป็นอาชญากรรมเล็ก ๆ น้อย ๆ เช่นกัน
armed robbery convictions.
มาแล้วถึงสองครั้ง
as high risk, and not him.
ความเสี่ยงเธอสูง ไม่ใช่เขา
that she had not reoffended.
เธอไม่ได้กระทำผิดซ้ำอีก
for her with her record.
ทำให้เธอหางานทำได้ยาก
prison term for a later crime.
จากการทำผิดหนหลัง
this kind of unchecked power.
ไม่มีการถ่วงดุลเช่นนี้
but they don't solve all our problems.
แต่ก็ไม่ได้แก้ปัญหาได้ทุกเรื่อง
news feed algorithm --
ของเฟซบุ้กเป็นตัวอย่าง
and decides what to show you
แล้วตัดสินใจว่าจะโชว์อะไรให้คุณดู
for engagement on the site:
การมีปฏิสัมพันธ์ต่อคอนเทนต์
teenager by a white police officer,
ฆ่าวัยรุ่นแอฟริกันอเมริกันตาย
unfiltered Twitter feed,
ที่ไม่มีอัลกอริธึ่มคัดกรองของดิฉัน
keeps wanting to make you
จะยืนกรานแต่ให้คุณ
were talking about it.
ต่างก็พูดถึงเรื่องนี้
wasn't showing it to me.
โชว์ให้ดิฉันดู
this was a widespread problem.
และพบว่านี่เป็นปัญหาในวงกว้าง
wasn't algorithm-friendly.
ไม่เป็นมิตรกับอัลกอริธึ่ม
to even fewer people,
จะโชว์ให้คนดูน้อยลงไปอีก
donate to charity, fine.
ได้บริจาคช่วยคน ดีค่ะ
but difficult conversation
แต่สำคัญมาก ๆ แบบนี้
can also be wrong
ก็อาจผิดพลาด
IBM's machine-intelligence system
ระบบสมองประดิษฐ์ของ IBM
with human contestants on Jeopardy?
แบบขาดลอยในรายการเจพเปอร์ดี้
Watson was asked this question:
วัตสันต้องตอบคำถามนี้ค่ะ
for a World War II hero,
ตั้งชื่อตามวีรบุรุษสงครามโลกครั้งที่ 2
for a World War II battle."
ในสงครามโลกครั้งที่ 2"
answered "Toronto" --
a second-grader wouldn't make.
หรือกระทั้งเด็กประถมไม่มีทางพลาด
error patterns of humans,
and be prepared for.
และไม่ได้เตรียมรับมือ
one is qualified for,
มีคุณสมบัติพร้อมก็แย่อยู่แล้ว
if it was because of stack overflow
เพราะแค่เกิด สแต็ค โอเวอร์โฟลว์
fueled by a feedback loop
เนื่องจากลูปป้อนกลับ
of value in 36 minutes.
กว่าหนึ่งล้านล้านดอลลาร์ใน 36 นาที
what "error" means
"ข้อบกพร่อง" จะเป็นแบบไหน
autonomous weapons.
อาวุธอันตรายแบบอัตโนมัติแทน
but that's exactly my point.
แต่นั่นแหละ คือประเด็นของดิฉัน
these difficult questions.
our responsibilities to machines.
ของเราเองนี้ไปให้คอมพิวเตอร์ไม่ได้
a "Get out of ethics free" card.
เป็นอิสระจากปัญหาเชิงจริยธรรม
calls this math-washing.
เรียกเรื่องนี้ว่า แม็ธวอชชิ่ง (math-washing)
scrutiny and investigation.
ตรวจตรา ตั้งข้อสงสัยในอัลกอริธึ่ม
algorithmic accountability,
สามารถตรวจสอบย้อนกลับได้
that bringing math and computation
การเอาคณิตศาสตร์และคอมพิวเตอร์
และแฝงความเชื่อทางสังคม
อย่างภววิสัย
invades the algorithms.
จะเล่นงานอัลกอริธึ่มแทน
เราใช้ได้ และควรใช้ด้วย
to our moral responsibility to judgment,
ในการตัดสินใจนั้น
and outsource our responsibilities
ความรับผิดชอบของเรา
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com