Zeynep Tufekci: We're building a dystopia just to make people click on ads
เซเน็พ ทูเฟกสิ: เรากำลังสร้างสภาพทางสังคมที่ถูกควบคุมแบบโหดร้ายรุนแรง
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
of artificial intelligence,
กลัวปัญญาประดิษฐ์
of humanoid robots run amok.
พวกหุ่นยนต์มนุษย์วิ่งพล่านอาละวาดไปทั่ว
หนังเรื่องคนเหล็ก?
something to consider,
ที่ต้องมาพิจารณาให้ดี
เกี่ยวกับการสอดแนมผ่านทางระบบดิจิตอล
for the 21st century.
ของสังคมที่เลวร้ายสำหรับศตวรรษที่ 21 นี้
will do to us on its own,
จะทำกับเราด้วยตัวมันเอง
will use artificial intelligence
จะใช้ปัญญาประดิษฐ์
and our dignity in the near-term future
ในช่วงอนาคตอันใกล้นี้
and selling our data and our attention
ข้อมูล และความสนใจของเรา
bolstering their business as well.
ปรับเสริมธุรกิจพวกเขาให้แข็งแรงขึ้นอีกด้วย
like artificial intelligence
ปัญญาประดิษฐ์
โฆษณาทางอินเตอร์เน็ต
of many areas of study and research.
ในการศึกษา และการวิจัยหลายๆสาขา
a famous Hollywood philosopher,
ผู้มีชื่อเสียง ที่กล่าวว่า
comes prodigious risk."
การเสี่ยงที่มหาศาลเช่นกัน"
of our digital lives, online ads.
ของชีวิตดิจิตอลของเรา อย่างโฆษณาออนไลน์
of being followed on the web
ทางอินเตอร์เน็ตมาแลัว
we searched or read.
ที่เราเคยค้นหาหรือเคยอ่าน
อย่างเช่น คุณมองหารองเท้าบูทสักคู่
you around everywhere you go.
ก็ตามคุณไปทั่ว ไม่ว่าจะไปที่ไหน
they're still following you around.
มันก็ยังคงตามคุณไปทั่ว
of basic, cheap manipulation.
การล่อลวงพื้นฐานง่าย ๆ กระจอก ๆ นั้นไปแล้ว
"You know what? These things don't work."
"รู้อะไรมั๊ย? ของแบบนี้ใช้ไม่ได้ผลหรอก"
let's think of a physical world example.
เรามาคิดถึงตัวอย่างในโลกทางกายภาพ
at supermarkets, near the cashier,
ในซุปเปอร์มาร์เก็ต ใกล้เครื่องคิดเงิน
at the eye level of kids?
วางอยู่ในระดับสายตาของพวกเด็ก ๆ
whine at their parents
งอแงใส่พ่อแม่
are about to sort of check out.
กำลังจะจ่ายเงิน
in every supermarket.
ในทุกร้านค้า
are kind of limited,
ค่อนข้างมีข้อจำกัด
so many things by the cashier. Right?
ไว้ใกล้เครื่องคิดเงินได้ ใช่มั๊ยคะ?
it's the same for everyone,
ก็เหมือนๆกันสำหรับทุกคน
whiny little humans beside them.
ร้องโหยหวนอยู่ข้างกาย
we live with those limitations.
เราอยู่กับข้อจำกัดเหล่านั้น
can be built at the scale of billions
สามารถถูกสร้างขึ้นมาได้ในระดับพันล้าน
to everyone's phone private screen,
โทรศัพท์ส่วนตัวของทุกคน
that artificial intelligence can do.
ที่ปัญญาประดิษฐ์สามารถทำได้
plane tickets to Vegas. Right?
ไปที่ลาส เวกัสนะคะ?
of some demographics to target
กลุ่มประชากรที่คุณจะตั้งเป้า
and what you can guess.
และสิ่งที่คุณสามารถคาดเดาได้
a high limit on their credit card,
และการเรียนรู้ของเครื่องจักรกล
that Facebook has on you:
ที่เฟสบุ๊กมีเกี่ยวกับคุณ:
that you uploaded there.
ที่คุณถ่ายโอนข้อมูลลงไป
and change your mind and delete it,
แล้วเปลี่ยนใจและลบมันไปเสีย
and analyzes them, too.
สิ่งที่คุณลบไปแล้วนั้นด้วย
to match you with your offline data.
คุณกับข้อมูลออฟไลน์ของคุณ
a lot of data from data brokers.
จากนายหน้าขายข้อมูลอีกด้วย
from your financial records
ตั้งแต่บันทึกด้านการเงินของคุณ
such data is routinely collected,
ถูกเก็บรวบรวมไว้ประจำเป็นกิจวัตร
พวกเขามีกฎที่เข้มงวดกว่านี้ค่ะ
these machine-learning algorithms --
ชุดคำสั่งการเรียนรู้ของเครื่องพวกนี้ --
learning algorithms --
ชุดคำสั่งขั้นตอนการเรียนรู้ ..
the characteristics of people
ลักษณะเฉพาะของผู้คน
จากข้อมูลที่มีอยู่
how to apply this to new people.
ถึงวิธีประยุกต์ใช้กับคนใหม่
is likely to buy a ticket to Vegas or not.
คนนั้นน่าจะซื้อตั๋วไปฃาสเวกัสหรือไม่
an offer to buy tickets to Vegas.
การเสนอขายตั๋วไปเวกัส
how these complex algorithms work.
ขั้นตอนวิธีที่ซับซ้อนพวกนี้ทำงานอย่างไร
how they're doing this categorization.
การแยกประเภทข้อมูลนี้ได้อย่างไร
thousands of rows and columns,
เต็มไปด้วยแถบแถวของข้อมูลนับพัน
how exactly it's operating
มันกำลังทำงานอย่างไร
what I was thinking right now
ว่าฉันกำลังคิดอยู่ในขณะนี้
a cross section of my brain.
เราไม่ได้กำลังเขียนโปรแกรมอีกต่อไปแล้ว
that we don't truly understand.
ที่เราไม่เข้าใจอย่างแท้จริง ให้เติบโตขึ้น
if there's an enormous amount of data,
มีข้อมูลจำนวนมากมายเท่านั้น
deep surveillance on all of us
การสอดแนมเชิงลึกกับพวกเราทุกคน
algorithms can work.
ชุดคำสั่งการเรียนรู้มาทำงาน
to collect all the data it can about you.
รวบรวมข้อมูลคุณทั้งหมดเท่าที่จะทำได้
that we do not understand
ซึ่งเราไม่เข้าใจนั้น
to sell Vegas tickets
มันง่ายกว่าที่จะขายตั๋วไปเวกัส
and about to enter the manic phase.
และกำลังจะเข้าช่วงอารมณ์ดีผิดปกติ
overspenders, compulsive gamblers.
เป็นนักพนันที่ควบคุมตัวเองไม่ได้
that's what they were picking up on.
ว่านั่นคือสิ่งที่มันหยิบมาใช้ได้
to a bunch of computer scientists once
กับกลุ่มนักวิทยาศาสตร์คอมพิวเตอร์
"That's why I couldn't publish it."
"นั่นล่ะสาเหตุที่ผมพิมพ์เผยแพร่มันไม่ได้"
figure out the onset of mania
การเข้าสู่ช่วงอารมณ์ดีผิดปกติ
before clinical symptoms,
ก่อนมีอาการของโรค
or what it was picking up on.
หรือมันกำลังหยิบจับอะไรขึ้นมา
if he doesn't publish it,
ถ้าเขาไม่ได้พิมพ์เผยแพร่มันไป
this kind of technology,
is just off the shelf.
หาได้ง่ายมีจำหน่ายทั่วไป
meaning to watch one video
ตั้งใจจะดูแค่วิดีโอเดียว
คุณดูไปแล้ว 27 เรื่อง
has this column on the right
that you might be interested in
and what people like you have watched,
และสิ่งที่คนเหมือนคุณได้ดูไปแล้ว
what you're interested in,
and useful feature,
และมีประโยชน์
of then-candidate Donald Trump
โดแนล ทรัมพ์ ซึ่งตอนนั้นยังเป็นผู้สมัคร
the movement supporting him.
ความเคลื่อนไหวที่สนับสนุนเขาอยู่
so I was studying it, too.
จึงกำลังศึกษามันด้วยเช่นกัน
about one of his rallies,
เกี่ยวกับการชุมนุมครั้งหนึ่งของเขา
white supremacist videos
ของผู้ที่เชื่อในความเป็นเลิศของคนผิวขาว
ของลัทธิหัวรุนแรง
or Bernie Sanders content,
หรือ เบอร์นี แซนเดอร์
and autoplays conspiracy left,
เรื่องเกี่ยวกับฝ่ายซ้ายสมคบคิดกัน
this is politics, but it's not.
นี่มันเป็นเรื่องการเมือง แต่มันไม่ใข่
figuring out human behavior.
ที่กำลังวิเคราะห์พฤติกรรมมนุษย์
about vegetarianism on YouTube
เกี่ยวกับลัทธิมังสวิรัติ ในยูทูบ
and autoplayed a video about being vegan.
เรื่องเกี่ยวกับการเป็นคนกินมังสวิรัติ
hardcore enough for YouTube.
สำหรับยูทูบ
จดทะเบียนกรรมสิทธิ์ไปแล้ว
กำลังเกิดขึ้นอยู่
show them something more hardcore,
บางสิ่งบางอย่างที่สุดโต่งยิ่งขึ้น
นานยิ่งขึ้น
going down that rabbit hole
ลงไปสู่ภาวะอันชุลมุนวุ่นวาย
the ethics of the store,
ในเรื่องจริยธรรมของร้านค้า
ของผู้คนทั้งหลาย
anti-Semitic content,
กับพวกยิวอย่างเปิดเผยแน่นอน
ชุดคำสั่งขั้นตอนวิธีเข้ามาได้อีกด้วย
anti-Semitic content on their profile
อย่างเปิดเผยในข้อมูลส่วนตัว
may be susceptible to such messages,
อาจจะรู้สึกหวั่นไหวต่อข่าวสารข้อความนั้น
like an implausible example,
เหมือนตัวอย่างที่เหลือเชื่อ
ตรวจสอบเรื่องนี้
do this on Facebook,
คุณก็สามารถทำแบบนี้ได้ ในเฟซบุ๊ก
offered up suggestions
and very quickly they found,
และก็พบอย่างรวดเร็วมาก
spent about 30 dollars
social media manager disclosed
ของโดนัลด์ ทรัมป์ ได้เปิดเผยว่า
to demobilize people,
กลุ่มที่ตั้งเป้าไว้เท่านั้น เพื่อระดมคน
ไม่ไปลงคะแนนเสียงเลย
they targeted specifically,
พวกเขาก็ตั้งเป้าเจาะจงเป็นพิเศษ
in key cities like Philadelphia,
ในเมืองสำคัญ เช่น ฟิลาเดลเฟีย
exactly what he said.
ตรงเป๊ะกับที่เขาพูด
we want to see it see it.
ให้เห็นเท่านั้น ที่ได้เห็นมัน
to turn these people out."
ความสามารถของเธอ ที่จะทำให้คนพวกนี้ออกมา"
arranges the posts
ไปตามลำดับคำสั่งชุดขั้นตอนวิธี
or the pages you follow.
หรือบนเพจที่คุณติดตามอยู่
everything chronologically.
ตามลำดับก่อนหลัง
that the algorithm thinks will entice you
คิดว่า มันจะหลอกล่อคุณ
somebody is snubbing you on Facebook.
ใครบางคนกำลังดูถูกดูแคลนคุณอยู่ บนเฟซบุ๊ก
be showing your post to them.
สิ่งที่คุณโพสต์ลงไป ให้พวกเขาเห็นเลย
some of them and burying the others.
ของบางเรื่อง และก็ฝังกลบเรื่องอื่นที่เหลือ
can affect your emotions.
สามารถกระทบถึงอารมณ์ของคุณได้
ในการเลือกตั้งกึ่งวาระ
on 61 million people in the US
จำนวน 61 ล้านคนในสหรัฐฯ
"Today is election day,"
"วันนี้เป็นวันเลือกตั้ง"
the one with that tiny tweak
ข้อความที่ปรับเปลี่ยนไปเล็กน้อยนั้น
"ฉันออกเสียงเลือกตั้งแล้ว"
ถึง 340,000 คน
โดยทะเบียนผู้มีสิทธิเลือกตั้ง
they repeated the same experiment.
พวกเขาทำการทดลองเหมือนกันนี้อีกครั้ง
ถูกนำเสนอแค่ครั้งเดียว
อีก 270,000 คน
US presidential election
ของสหรัฐฯ ในปี ค.ศ 2016
very easily infer what your politics are,
อีกด้วยว่า มุมมองการเมืองคุณเป็นอย่างไร
disclosed them on the site.
can do that quite easily.
กลับทำได้ง่ายดาย
ที่พร้อมด้วยพลังอำนาจเช่นนั้น
of one candidate over the other?
ออกไปลงคะแนน เกินกว่าผู้สมัครอีกคน?
seemingly innocuous --
ซึ่งดูเหมือนจะไม่มีอันตราย --
if we're seeing the same information
ว่าเรากำลังเห็นข้อมูลข่าวสารเดียวกัน
ก็กำลังจะเป็นไปไม่ได้
the beginning stages of this.
ของเรื่องนี้เท่านั้น
สามารถอนุมานได้อย่างง่ายดาย
personality traits,
ลักษณะบุคลิกภาพ
use of addictive substances,
การใช้สารเสพย์ติด
อายุ และเพศ
ก็สามารถระบุตัวผู้ประท้วงได้
are partially concealed.
จะถูกปกปิดซ่อนเร้นเป็นบางส่วน
to detect people's sexual orientation
อาจจะสามารถแกะรอยแนวโน้มทางเพศของผู้คน
ในการนัดหมายนัดพบของพวกเขา
to be 100 percent right,
the temptation to use these technologies
ต่อสิ่งล่อใจที่จะใช้เทคโนโลยีเหล่านี้
some false positives,
มีประโยชน์เชิงเท็จบางอย่าง
a whole other layer of problems.
มันสามารถสร้างปัญหาอีกหลายชั้น
it has on its citizens.
เกี่ยวกับพลเมืองของรัฐ
face detection technology
การแกะรอยใบหน้าแล้ว
of surveillance authoritarianism
สอดแนมตามแบบลัทธิอำนาจนิยมขึ้นมา
Orwell's authoritarianism.
ตามแบบของออร์เวลล์
is using overt fear to terrorize us,
ความกลัวที่โจ่งแจ้ง เพื่อคุกคามข่มขวัญเรา
are using these algorithms
กำลังใช้ชุดตำสั่งขั้นตอนวิธีเหล่านี้
the troublemakers and the rebels,
คนที่จะสร้างความเดือดร้อน และผู้ทรยศ
architectures at scale
อย่างกว้างขวาง
weaknesses and vulnerabilities,
ส่วนตัวรายบุคคลของพวกเขา
อย่างกว้างขวาง
and neighbors are seeing,
กำลังดูอะไรอยุ่,
will envelop us like a spider's web
จะครอบงำเราเอาไว้ ราวกับใยแมงมุม
เราอยู่ในนั้น
ครึ่งล้านล้านดอลลาร์
as a persuasion architecture.
ในฐานะเป็นสถาปัตยกรรมการชักจูง
personal and social information flows,
ด้านการเมือง ส่วนตัว และสังคมของเราอีกด้วย
because they provide us with great value.
มันให้คุณค่าที่ยิ่งใหญ่แก่เรา
with friends and family around the world.
และครอบครัวเราไปทั่วโลก
social media is for social movements.
สำคัญยิ่งต่อการเคลื่อนไหวทางสังคมอย่างไร
these technologies can be used
สามารถนำเทคโนโลยีเหล่านี้ไปใช้ได้อย่างไร
you know, Facebook or Google
ในที่อย่างเฟซบุ๊ก หรือกุเกิล
or the world more polarized
หรือโลก ถูกแบ่งแยกยิ่งขึ้น
well-intentioned statements
people in technology make that matter,
ที่ผู้คนในเทคโนโลยีนั้นบอกมาหรอก
and business models they're building.
ที่พวกเขากำลังสร้างขึ้นมาต่างหาก
of half a trillion dollars
ในเงินครึ่งล้านล้านนั้น
as a persuasion architecture,
ในฐานะเป็นสถาปัตยกรรมเชิงการชักจูง
is of great concern.
โน้มน้าวของมันนั้น เป็นเรื่องน่าห่วงใยมากๆ
digital technology operates.
ที่เทคโนโลยีดิจิตอลทำงาน
technology is developed
ที่เทคโนโลยีนี้ถูกพัฒนาขึ้นมา
economic and otherwise,
created by the proprietary algorithms,
ชุดคำสั่งขั้นตอนวิธี ที่สั่งการด้วยตัวเอง
of machine learning's opacity,
ของการเรียนรู้ของเครื่องจักร
that's being collected about us.
ที่ถูกสะสมจากพวกเรา
artificial intelligence
ด้านความเป็นมนุษย์ของเรา
by our human values.
ค่านิยมในความเป็นมนุษย์ของเราอีกด้วย
on what those terms mean.
ในเรื่องความหมายของคำศัพท์เหล่านั้น
depend on for so much operate,
ทำงานอย่างไร
this conversation anymore.
การพูดคุยกันในเรื่องนี้ต่อไปอีก ได้อย่างไร
เป็นจำนวนมาก
that we are the product that's being sold.
เราเป็นผลิตภัณฑ์ ที่กำลังถูกขาย
และความสนใจของเรานั้น
authoritarian or demagogue.
เผด็จการหรือพวกกวนเมืองที่เสนอราคาสูงสุด
that Hollywood paraphrase,
ที่พูดถึงมาแล้วนั้
ให้ศักยภาพที่มหาศาล
and digital technology to blossom,
เบ่งบาน
this prodigious menace,
ภัยอันตรายมากมายมหาศาลนี้
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com