Cathy O'Neil: The era of blind faith in big data must end
کثی اونیل: عصر ایمان کورکورانه به دادههای عظیم باید به پایان برسد
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias. Full bio
Double-click the English transcript below to play the video.
the winners from the losers.
ردهبندی کرده و از هم جدا میکنند
that we don't understand
که درکشان نمیکنیم.
and often hoping for.
و معمولاً انتظارش را دارید.
by looking, figuring out.
و درک کردن آموزش میدهید.
what is associated with success.
با موفقیت ارتباط دارند.
از الگوریتمها استفاده میکنند.
in written code.
to make a meal for my family.
برای پخت غذای خانوادهام استفاده میکنم.
of ramen noodles as food.
نودل رامن را غذا به حساب نمیآورم.
if my kids eat vegetables.
اگر فرزندانم سبزیجات بخورند.
from if my youngest son were in charge.
اگر پسر بزرگترم مسئول بود.
he gets to eat lots of Nutella.
که بتواند زیاد نوتلا بخورد.
نظر من است که اهمیت دارد.
که در قالب کد ارائه میشوند.
most people think of algorithms.
الگوریتمها فکر میکنند تفاوت دارد.
and true and scientific.
عینی، درست و علمی هستند.
و ترس از آنها کنند
blind faith in big data.
میتواند عواقب نادرستی داشته باشد.
She's a high school principal in Brooklyn.
او مدیر یک دبیرستان در بروکلین است.
her teachers were being scored
معلمهای مدرسهاش
و پیچیده امتیازبندی میشوند
«مدل ارزش افزوده» است.
what the formula is, show it to me.
و به من نشان بده
to get the formula,
که فرمول را بدست بیاورم،
told me it was math
به من گفت که ریاضیات است
a Freedom of Information Act request,
مربوط به «سند آزادی اطلاعات» منتشر کرد،
and all their scores
و تمام نمراتشان را به دست آورد
as an act of teacher-shaming.
آنها را منتشر کرد.
the source code, through the same means,
و کد را از همین طریق ببینم،
had access to that formula.
به آن فرمول دسترسی نداشت.
got involved, Gary Rubenstein.
به نام «گری روبنشتاین» درگیر این موضوع شد.
from that New York Post data
نیویورک پست بودند را یافت
for individual assessment.
مورد استفاده قرار میگرفت.
with 205 other teachers,
recommendations from her principal
خیلی خوبی از طرف مدیر
of you guys are thinking,
چه فکر میکنید،
the AI experts here.
و خبرگان هوش مصنوعی.
an algorithm that inconsistent."
به این ناسازگاری نخواهم ساخت».
with good intentions.
در صورتی که نیتشان خیر بوده است.
that's designed badly
که بد طراحی شده است
silently wreaking havoc.
به صورت خاموش تخریب کند.
about sexual harassment.
شکایت کردند.
to succeed at Fox News.
در فاکس نیوز را ندارند.
but we've seen recently
اما اخیراً دیده شده
to turn over another leaf?
تا بهبود یابد؟
their hiring process
21 years of applications to Fox News.
در ۲۱ سال گذشتهی فاکس نیوز است.
stayed there for four years
چهار سال در آنجا مانده باشد
to learn what led to success,
و بفهمد چه چیزی منجر به موفقیت شده است.
historically led to success
منجر به موفقیت شدهاند؟
to a current pool of applicants.
چه خواهد شد؟
who were successful in the past.
موفق بودهاند به نظر نمیرسند.
blindly apply algorithms.
و کورکورانه به کار ببرید.
if we had a perfect world,
این عالی بود،
don't have embarrassing lawsuits,
دادخواستهای شرمآوری ندارند،
it means they could be codifying sexism
یعنی ممکن است تبعیض جنسی
all neighborhoods
تمام محلهها
only to the minority neighborhoods
خیلی تبعیضآمیز خواهد بود.
we found the data scientists
تعدادی دانشمند داده بیابیم
where the next crime would occur?
جرایم بعدی را پیشبینی کنند؟
criminal would be?
که خواهد بود؟
about how great and how accurate
و دقتِ مدلِشان
but we do have severe segregations
اما ما این تفکیکهای شدید را
and justice system data.
در دست داریم.
the individual criminality,
را پیشبینی میکنیم.
recently looked into
به یکی از الگوریتمهای
during sentencing by judges.
قضات استفاده میشود.
was scored a 10 out of 10.
امتیاز ۱۰ از ۱۰ گرفته بود.
3 out of 10, low risk.
۳ از ۱۰، ریسک کم.
for drug possession.
مواد مخدر دستگیر شده بودند.
the higher score you are,
که هر چه امتیاز شما بالاتر باشد،
a longer sentence.
بگیرید افزایش مییابد.
technologists hide ugly truths
حقایق زشت را در جعبههای سیاه
important and destructive,
مهم و ویرانگر هستند،
and it's not a mistake.
و این یک اشتباه نیست.
building private algorithms
الگوریتمهایی خصوصی
for teachers and the public police,
برای معلمان و پلیس عمومی،
ساخته شده بودند
به ما توضیح دهند.
the authority of the inscrutable.
حق محرمانگی سود میبرند.
since all this stuff is private
چون این چیزها خصوصی هستند
will solve this problem.
این مسئله را حل کند.
to be made in unfairness.
به دست میآید.
عاملهای اقتصادیِ منطقیای نیستیم.
in ways that we wish we weren't,
به طرقی که دوست داشتیم نباشیم،
have consistently demonstrated this
مدام این را با آزمایشهایی که میکنند،
of applications to jobs out,
استخدام را ارسال میکنند
have white-sounding names
اما برخی نامهای سفیدپوستی
the results -- always.
into the algorithms
با دادههایی که جمعآوری میکنیم
about ramen noodles --
به ریمن نودل فکر نکنم
picking up on past practices
که از تجربیات گذشته یاد میگیرند
to emerge unscathed?
انتظار داشته باشیم جان سالم به در ببرند؟
we can check them for fairness.
میتوانیم عدالت را در آنان بررسی کنیم.
the truth every time.
حقیقت را خواهند گفت.
We can make them better.
میتوانیم آنها را بهتر کنیم.
algorithm I talked about,
که دربارهاش صحبت کردم،
we'd have to come to terms with the fact
که باید با این حقیقت کنار بیاییم
smoke pot at the same rate
و سفیدپوستان به میزان یکسانی گُل میکشند
to be arrested --
بیشتر دستگیر میشوند
depending on the area.
وابسته به منطقه.
in other crime categories,
the definition of success,
algorithm? We talked about it.
دربارهی آن صحبت کردیم.
and is promoted once?
و یک بار ارتقاء گرفته باشد؟
that is supported by their culture.
که در فرهنگش مورد حمایت قرار گرفته است.
the blind orchestra audition
are behind a sheet.
در پسِ یک پرده هستند.
have decided what's important
متوجه شدهاند چه چیزی مهم است
distracted by that.
حواسشان پرت نمیشود.
auditions started,
went up by a factor of five.
پنچ برابر شد.
for teachers would fail immediately.
برای معلمان بلافاصله در هم میشکند.
the errors of every algorithm.
تمام الگوریتمها را در نظر بگیریم.
and for whom does this model fail?
و این مدل برای چه کسانی بد عمل میکند؟
در نظر بگیریم.
had considered that
پیش از آنکه تصمیم بگیرند
only things that our friends had posted.
که دوستانمان فرستادهاند،
one for the data scientists out there.
یکی برای دانشمندان داده.
not be the arbiters of truth.
داوران حقیقت باشیم.
of ethical discussions that happen
for our algorithmic overlords.
از اربابانِ الگوریتمیمان مطالبه کنیم.
in big data must end.
به دادههای عظیم باید پایان بیابد.
ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientistData skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.
Why you should listen
In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.
With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.
Cathy O'Neil | Speaker | TED.com