Cathy O'Neil: The era of blind faith in big data must end
ক্যাথি ও নিল: 'বিগ ডাটা' এ অন্ধ বিশ্বাস শেষ করার যুগ এসে গেছে
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias. Full bio
Double-click the English transcript below to play the video.
the winners from the losers.
বিজয়ীরা একটি ভালো চাকরি
that we don't understand
যা আমরা বুঝতে পারিনা
and often hoping for.
by looking, figuring out.
অ্যালগরিদম কে শেখান |
what is associated with success.
যুক্ত তা প্রকাশ করে।
এগিয়ে নিয়ে যায়?
in written code.
to make a meal for my family.
করে আমার পরিবারের জন্য খাবার বানাই|
of ramen noodles as food.
প্যাকেজগুলো গণনা করিনা |
if my kids eat vegetables.
from if my youngest son were in charge.
এই কাজের কর্মকর্তা হত |
he gets to eat lots of Nutella.
সে অনেক নিউটেলা খেতে পারবে |
মধ্যে উদ্ভিত করা থাকে|
most people think of algorithms.
সম্পর্কে তার চেয়ে ভিন্ন|
and true and scientific.
এবং সত্য এবং বৈজ্ঞানিক।
এবং ভয় পান
এবং ভয় পান|
blind faith in big data.
ভুল হতে পারে|
She's a high school principal in Brooklyn.
উচ্চ বিদ্যালয়ের প্রধান|
her teachers were being scored
যে তার শিক্ষকদের
দিয়ে অবহিত করা হচ্ছে
what the formula is, show it to me.
তা আমাকে দেখিয়ে দাও।
to get the formula,
চেষ্টা করেছি,
told me it was math
a Freedom of Information Act request,
and all their scores
as an act of teacher-shaming.
রূপে প্রকাশ করে।
the source code, through the same means,
সোর্স কোড গুলো, একই পথে,
had access to that formula.
got involved, Gary Rubenstein.
গ্যারি রুবিনস্টাইন|
from that New York Post data
তথ্যে
for individual assessment.
with 205 other teachers,
recommendations from her principal
পিতামাতাদের
of you guys are thinking,
the AI experts here.
an algorithm that inconsistent."
অ্যালগরিদম তৈরী করবোনা|"
with good intentions.
ধ্বংসাত্মক প্রভাব থাকতে পারে।
that's designed badly
silently wreaking havoc.
about sexual harassment.
সম্পর্কে অভিযোগ করেছে।
to succeed at Fox News.
সফলতা হাসিল করতে দেওয়া হয়নি|
but we've seen recently
to turn over another leaf?
their hiring process
প্রক্রিয়াটি একটি মেশিন-লার্নিং
21 years of applications to Fox News.
সর্বশেষ ২১ বছরের অ্যাপ্লিকেশন।
stayed there for four years
to learn what led to success,
তা জানতে লোকেদের সন্ধান করতে
historically led to success
কোন অ্যাপ্লিকেশন সাফল্যলাভ
to a current pool of applicants.
who were successful in the past.
এক সময় সফল ছিলনা।
blindly apply algorithms.
if we had a perfect world,
হত তাহলে তা
don't have embarrassing lawsuits,
কোন মামলা হয় না,
তথ্যগুলি অনুসরণ
it means they could be codifying sexism
রয়েছে,এর মানে তা কোন রকমের প্রাধান্য
all neighborhoods
only to the minority neighborhoods
প্রতিবেশীদের
গ্রেপ্তারের তথ্য খুব পক্ষপাতদুষ্ট হবে।
we found the data scientists
খুঁজে বার করে
where the next crime would occur?
অপরাধ ঘটবে তা জানার জন্য তাহলে কি হবে?
criminal would be?
about how great and how accurate
but we do have severe segregations
and justice system data.
the individual criminality,
recently looked into
during sentencing by judges.
শাস্তি প্রদানের সময়।
was scored a 10 out of 10.
এ ১০ নম্বর দেওয়া হয়।
3 out of 10, low risk.
১০ এ ৩,অর্থাৎ নিম্ন ঝুঁকি।
for drug possession.
পাওয়া যায়। দুজনেরই
the higher score you are,
উচ্চতর নম্বর,
a longer sentence.
সম্ভবনাটাও অতটা বেশি।
technologists hide ugly truths
কালো বক্স অ্যালগোরিদমগুলির
important and destructive,
ধ্বংসাত্মক হয়,
and it's not a mistake.
এবং এটা কোন ভুল নয়।
building private algorithms
ব্যক্তিগত প্রয়োজনে কিছু ব্যক্তিগত
for teachers and the public police,
শিক্ষক ও সরকারি পুলিশের বিষয়ে,
the authority of the inscrutable.
তুলে দিয়ে লাভ করছে।
since all this stuff is private
এইগুলো বেসরকারি বিষয়ে
will solve this problem.
সমস্যার সমাধান করবে।
to be made in unfairness.
প্রতিনিধি নই।
in ways that we wish we weren't,
আমরা চাইনা,
have consistently demonstrated this
তাদের পরীক্ষার
of applications to jobs out,
আবেদনপত্র পাঠায়,
have white-sounding names
কিন্তু তার মধ্যে কারো
the results -- always.
ফলাফলটা - সবসময়।
into the algorithms
মধ্যে প্রদান করি
about ramen noodles --
ভাবতে পছন্দ করিনা--
picking up on past practices
to emerge unscathed?
পারি কি?
we can check them for fairness.
পরীক্ষা করতে পারি।
the truth every time.
We can make them better.
তাদের ভাল করে তুলতে পারি।
algorithm I talked about,
সম্পর্কে বললাম,
we'd have to come to terms with the fact
হবে আমরা এটা শিকার করি যে
smoke pot at the same rate
দুজনরাই একই পরিমানে নেশা করে
to be arrested --
সম্ভবনা বেশি--
depending on the area.
পাঁচ গুণ বেশি।
in other crime categories,
পক্ষপাতিত্ব কিরকম রয়েছে,
the definition of success,
সম্পর্কে ভাবা উচিত,
algorithm? We talked about it.
কথা যা আমি আলোচনা করলাম।
and is promoted once?
পদোন্নতি হয়?
that is supported by their culture.
দ্বারা সমর্থন পায়।
the blind orchestra audition
অর্কেস্ট্রা শ্রুতি
are behind a sheet.
তারা একটি চাদরের পিছনে।
have decided what's important
নিয়েছে যে তারা কি শুনতে চায়
distracted by that.
বিভ্রান্ত হচ্ছেনা।
auditions started,
went up by a factor of five.
উঠতে দেখা যায়।
for teachers would fail immediately.
মডেলটি অবিলম্বে নিষ্ফল হবে।
the errors of every algorithm.
ত্রুটি বিবেচনা করা।
and for whom does this model fail?
এবং কাদের বিষয় এই মডেল ব্যর্থ হয়?
had considered that
ভেবে থাকতেন
only things that our friends had posted.
দেখানোর আগে।
one for the data scientists out there.
তথ্য বিজ্ঞানীদের জন্য।
not be the arbiters of truth.
সালিশ হতে হবেনা।
of ethical discussions that happen
for our algorithmic overlords.
দায়বদ্ধতা দাবি করতে হবে।
in big data must end.
শেষ করতে হবে|
ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientistData skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.
Why you should listen
In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.
With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.
Cathy O'Neil | Speaker | TED.com