Cathy O'Neil: The era of blind faith in big data must end
كاثي أونيل: لا بد أن ينتهي عصر الثقة العمياء في البيانات الضخمة
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias. Full bio
Double-click the English transcript below to play the video.
the winners from the losers.
that we don't understand
في معظم الأحيان.
وتأملون غالبًا إيجاده.
and often hoping for.
by looking, figuring out.
what is associated with success.
in written code.
على هيئة شفرات مكتوبة.
لأصنع وجبة غذائية لأسرتي.
to make a meal for my family.
الرامن (حساء المعكرونة) طعامًا.
of ramen noodles as food.
إذا تناول أطفالي الخضروات.
if my kids eat vegetables.
from if my youngest son were in charge.
he gets to eat lots of Nutella.
الكثير من شوكولاتة "نوتيلا".
most people think of algorithms.
موضوعية وصحيحة وعلمية.
and true and scientific.
blind faith in big data.
نضع ثقة عمياء في البيانات الضخمة.
She's a high school principal in Brooklyn.
إنها مديرة مدرسة ثانوية في (بروكلين).
her teachers were being scored
بأنه كان يتمّ تصنيف معلميها
what the formula is, show it to me.
وأريني إياها.
to get the formula,
told me it was math
أنها عبارة عن رياضيات
a Freedom of Information Act request,
"طلب قانون حماية المعلومات"
and all their scores
as an act of teacher-shaming.
the source code, through the same means,
والشيفرة المصدرية عبر الوسائل نفسها،
had access to that formula.
الوصول إلى تلك الصيغة.
got involved, Gary Rubenstein.
يدعى (غاري روبنشتاين).
from that New York Post data
صحفية (نيويورك بوست) تلك
for individual assessment.
على الإطلاق للتقييم الفردي.
with 205 other teachers,
-بالإضافة إلى 205 معلم آخر-
recommendations from her principal
of you guys are thinking,
الذكاء الاصطناعي هنا.
the AI experts here.
خوارزمية غير متجانسة كهذه".
an algorithm that inconsistent."
with good intentions.
حتى رغم النوايا حسنة.
that's designed badly
silently wreaking havoc.
تعيث فسادًا في صمت.
about sexual harassment.
to succeed at Fox News.
النجاح في قناة (فوكس) الإخبارية.
but we've seen recently
to turn over another leaf?
عمله لتبدأ صفحة جديدة؟
their hiring process
21 years of applications to Fox News.
خلال 21 سنة الأخيرة.
في قناة (فوكس) الإخبارية؟
stayed there for four years
to learn what led to success,
لمعرفة ما الذي أدّى إلى النجاح،
historically led to success
التي أدت تاريخيًا إلى النجاح
to a current pool of applicants.
من طالبي التوظيف.
who were successful in the past.
الذين نجحوا في الماضي.
blindly apply algorithms.
if we had a perfect world,
don't have embarrassing lawsuits,
شكاوي قضائية محرجة،
it means they could be codifying sexism
فيمكن أن يقوموا بتقنين التمييز الجنسي
مفصول عنصريًا بالكامل،
all neighborhoods
only to the minority neighborhoods
لأحياء الأقليّات فقط
we found the data scientists
وجدنا علماء البيانات
where the next crime would occur?
criminal would be?
about how great and how accurate
but we do have severe segregations
ولكن لدينا تمييز وفصل شديد
وبيانات نظام العدالة.
and justice system data.
the individual criminality,
بالجريمة الفردية،
recently looked into
"خطر التعرض للانتكاس"
أثناء إعلان الحُكم من قبل القضاة.
during sentencing by judges.
was scored a 10 out of 10.
الرجل الأسود، 10/10.
و3 من 10، الخطر المنخفض.
3 out of 10, low risk.
for drug possession.
the higher score you are,
a longer sentence.
technologists hide ugly truths
important and destructive,
and it's not a mistake.
building private algorithms
تبني خوارزميات خاصة
for teachers and the public police,
بشأن المعلمين ورجال الشرطة،
the authority of the inscrutable.
للسلطة الغامضة.
since all this stuff is private
ولأنّ كل هذه الامور خاصة
will solve this problem.
نتيجة عدم الإنصاف.
to be made in unfairness.
in ways that we wish we weren't,
بطرق نرغبُ بأننا لم نسلكها،
have consistently demonstrated this
of applications to jobs out,
لكن لدى بعضهم أسماء تبدو لأشخاص بيض
have white-sounding names
the results -- always.
into the algorithms
about ramen noodles --
لعدم التفكير بالشعيرية المجففة --
picking up on past practices
اختيار الممارسات الماضية
ظهور الخوارزميات متكاملة؟
to emerge unscathed?
نستطيعُ التحقق منهم من أجل الإنصاف.
we can check them for fairness.
the truth every time.
We can make them better.
algorithm I talked about,
خطر الانتكاس التي تحدثتُ عنها،
we'd have to come to terms with the fact
بأنه علينا التوصل إلى تفاهم مع الواقع
بنفس المعدل
smoke pot at the same rate
على الأرجح أكثر بكثير --
to be arrested --
اعتمادًا على المنطقة.
depending on the area.
in other crime categories,
في فئات الجرائم الأخرى،
the definition of success,
algorithm? We talked about it.
التي تحدثنا عنها.
ويتمُ ترقيته لمرة واحدة.
and is promoted once?
من قبل التقاليد الموروثة.
that is supported by their culture.
the blind orchestra audition
في تجربة أداء الأوركسترا العمياء
are behind a sheet.
have decided what's important
distracted by that.
auditions started,
went up by a factor of five.
for teachers would fail immediately.
بشأن المعلمين على الفور.
the errors of every algorithm.
في كل خوارزمية.
and for whom does this model fail?
ولمن يفشل هذا النموذج؟
had considered that
أخذوا بعين الاعتبار ذلك
only things that our friends had posted.
الأشياء التي ينشرها أصدقاؤنا فقط.
one for the data scientists out there.
الأولى لعلماء البيانات الموجودن من حولنا.
not be the arbiters of truth.
لا ينبغي علينا أن نقرر ما هي الحقيقة.
of ethical discussions that happen
التي تحدثُ في المجتمع الأكبر.
لمن يضع الخوارزميات من الأسياد.
for our algorithmic overlords.
في البيانات الضخمة.
in big data must end.
ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientistData skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.
Why you should listen
In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.
With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.
Cathy O'Neil | Speaker | TED.com