Cathy O'Neil: The era of blind faith in big data must end
קטי אוניל: עידן האמון העיוור בנתונים חייב להסתיים
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias. Full bio
Double-click the English transcript below to play the video.
the winners from the losers.
ומפרידים בין מנצחים למפסידים.
that we don't understand
מדרגות אותנו,
לערער על החלטותיהן.
מה קרה בעבר,
and often hoping for.
by looking, figuring out.
what is associated with success.
בצורת קוד כתוב.
in written code.
כדי להכין למשפחתי ארוחה.
to make a meal for my family.
of ramen noodles as food.
if my kids eat vegetables.
אם הילדים שלי אוכלים ירקות.
from if my youngest son were in charge.
זה יהיה אחרת לגמרי.
שהוא אכל הרבה חמאת-בוטנים.
he gets to eat lots of Nutella.
מהי הצלחה.
most people think of algorithms.
חושבים על אלגוריתמים.
הם אובייקטיביים, נכונים ומדעיים.
and true and scientific.
וחוששים ממנה.
blind faith in big data.
נותנים אמון עיוור בנתוני-עתק.
She's a high school principal in Brooklyn.
מנהלת בי"ס תיכון בברוקלין.
שהמורים שלה מדורגים
her teachers were being scored
ותראי לי אותה.
what the formula is, show it to me.
"ניסיתי לקבל את הנוסחה.
to get the formula,
שזאת מתמטיקה,
told me it was math
a Freedom of Information Act request,
לפי חוק חופש המידע.
and all their scores
והדירוג שלהם,
של ביוש מורים.
as an act of teacher-shaming.
את הקוד המקורי, באותם האמצעים,
the source code, through the same means,
אין גישה לנוסחה ההיא.
had access to that formula.
got involved, Gary Rubenstein.
גרי רובינשטיין.
from that New York Post data
665 מורים עם שני דירוגים.
מתמטיקה בכיתות ז' וגם בכיתות ח'.
for individual assessment.
לצורך הערכות אישיות.
יחד עם עוד 205 מורים
with 205 other teachers,
recommendations from her principal
מהנהלת ביה"ס
of you guys are thinking,
ומומחי הבינה המלאכותית שכאן,
the AI experts here.
an algorithm that inconsistent."
כל-כך לא עיקבי."
מתוך כוונות טובות.
with good intentions.
וכולם רואים זאת,
that's designed badly
silently wreaking havoc.
ולזרוע בשקט תוהו.
about sexual harassment.
על הטרדה מינית
להצליח ב"חדשות פוקס".
to succeed at Fox News.
אך לאחרונה נודע לנו
but we've seen recently
לעשות כדי לפתוח דף חדש?
to turn over another leaf?
their hiring process
ההעסקה שלהם
של בקשות עבודה ב"חדשות פוקס".
21 years of applications to Fox News.
stayed there for four years
כבר 4 שנים,
כדי ללמוד מה הוביל להצלחה,
to learn what led to success,
historically led to success
אם ניישם זאת למאגר מועמדים בהווה:
to a current pool of applicants.
who were successful in the past.
blindly apply algorithms.
if we had a perfect world,
לא מתמודדות עם תביעות מביכות,
don't have embarrassing lawsuits,
מחוייבים לציית לנתונים,
it means they could be codifying sexism
שמופרדת לפי גזעים:
all neighborhoods
only to the minority neighborhoods
רק בשכונות של מיעוטים.
מוטים בצורה מובהקת.
we found the data scientists
מצאנו מומחה לנתונים
איפה יקרה הפשע הבא?
where the next crime would occur?
criminal would be?
מי יהיה הפושע הבא?
about how great and how accurate
כמה נהדר ומדוייק המודל שלהם.
but we do have severe segregations
אבל יש לנו באמת הפרדה חמורה
and justice system data.
ובמערכת המשפט.
the individual criminality,
הנטיה האישית לפשוע.
recently looked into
ל"ניבוי הישנות פשיעה"
שופטים בזמן חריצת גזר הדין.
during sentencing by judges.
was scored a 10 out of 10.
קיבל 10 נקודות מתך 10.
3 out of 10, low risk.
3 מתוך 10 - סיכון נמוך.
for drug possession.
the higher score you are,
ניקוד יותר גבוה,
a longer sentence.
עונש מאסר ארוך יותר.
technologists hide ugly truths
מסתירים אמיתות מכוערות
סודיים, חשובים והרסניים אלו:
important and destructive,
וזו לא טעות:
and it's not a mistake.
building private algorithms
שכותבות אלגוריתמים פרטיים
for teachers and the public police,
שמשמשים להערכה של מורים ולשיטור
ונמכרו למוסדות ממשלתיים.
the authority of the inscrutable.
since all this stuff is private
"בגלל שכל זה פרטי
אולי יפתור את הבעיה."
will solve this problem.
מחוסר הוגנות.
to be made in unfairness.
in ways that we wish we weren't,
למרות שהיינו מעדיפים לא להיות כאלה,
have consistently demonstrated this
הרבה קורות חיים
of applications to jobs out,
מהשמות נשמעים "לבנים",
have white-sounding names
the results -- always.
תמיד.
לתוך האלגוריתמים
into the algorithms
אילו נתונים יש לאסוף,
about ramen noodles --
לא להתייחס ל"מנה חמה"-
picking up on past practices
ובהגדרת ההצלחה על יסוד גישות קודמות,
שהאלגוריתמים ייצאו ללא פגע?
to emerge unscathed?
אנחנו מוכרחים לבדוק אותם.
we can check them for fairness.
the truth every time.
We can make them better.
algorithm I talked about,
we'd have to come to terms with the fact
שמוכרחים להשלים עם העובדה
smoke pot at the same rate
מעשנים מריחואנה באותה מידה
to be arrested --
תלוי באיזור.
depending on the area.
in other crime categories,
בתחומי פשע אחרים,
the definition of success,
להגדיר מחדש מהי הצלחה.
algorithm? We talked about it.
דיברנו על זה.
וקודם פעם אחת?
and is promoted once?
שהסביבה התרבותית תומכת בו.
that is supported by their culture.
דעות קדומות.
the blind orchestra audition
are behind a sheet.
have decided what's important
מה חשוב ומה לא,
distracted by that.
auditions started,
went up by a factor of five.
גדל פי חמש.
for teachers would fail immediately.
לדירוג מורים ייכשל מיד.
the errors of every algorithm.
השגיאות של כל אלגוריתם:
and for whom does this model fail?
ועם מי המודל הזה נכשל?
לקחת בחשבון
של האלגוריתמים,
היו לוקחים זאת בחשבון
had considered that
only things that our friends had posted.
רק מה ששיתפו החברים שלנו.
one for the data scientists out there.
אחד למתכנתים באשר הם:
not be the arbiters of truth.
אסור לנו לתווך את האמת.
of ethical discussions that happen
לדיוני מוסר שמתקיימים
for our algorithmic overlords.
האלגוריתמים לקחת אחריות.
in big data must end.
חייב להסתיים.
ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientistData skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.
Why you should listen
In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.
With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.
Cathy O'Neil | Speaker | TED.com