Cathy O'Neil: The era of blind faith in big data must end
Кеті О'Ніл: Епоха сліпої віри у великі дані має підійти до кінця
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias. Full bio
Double-click the English transcript below to play the video.
the winners from the losers.
переможців від переможених.
оформлення кредитки.
навіть до співбесіди,
that we don't understand
які ми не розуміємо,
апеляційні скарги.
що алгоритми неправильні?
що сталося у минулому,
and often hoping for.
і на що часто сподіваєтеся.
by looking, figuring out.
розмірковуючи, з'ясовуючи.
what is associated with success.
що асоціюється із успіхом.
in written code.
у вигляді коду.
to make a meal for my family.
щоб приготувати їсти для сім'ї.
of ramen noodles as food.
локшини рамен до їжі.
if my kids eat vegetables.
якщо мої діти їдять овочі.
from if my youngest son were in charge.
синові, і все буде інакше.
he gets to eat lots of Nutella.
з'їсти багато Нутелли.
вбудовані у код.
most people think of algorithms.
більшість людей думає про алгоритми.
and true and scientific.
правдиві і науково обґрунтовані.
алгоритмам та боятися їх,
blind faith in big data.
коли ми сліпо довіряємо великим даним.
She's a high school principal in Brooklyn.
школи старших класів у Брукліні.
her teachers were being scored
що її вчителів оцінювали
"модель з розширеними функціями".
what the formula is, show it to me.
покажи її мені.
to get the formula,
отримати формулу,
told me it was math
сказала мені, що то математика,
a Freedom of Information Act request,
із Законом про свободу інформації,
and all their scores
та усі їх оцінки,
as an act of teacher-shaming.
задля присоромлення вчителів.
the source code, through the same means,
одержати формули, початковий код,
had access to that formula.
не мав доступу до цієї формули.
got involved, Gary Rubenstein.
одна мудра людина, Гері Рубінштейн.
from that New York Post data
у "Нью-Йорк Пост",
і математику у восьмому.
for individual assessment.
для індивідуальної оцінки.
with 205 other teachers,
205 іншими вчителями,
в окрузі Колумбія,
recommendations from her principal
від її директора
of you guys are thinking,
багато із вас,
the AI experts here.
і штучного інтелекту.
an algorithm that inconsistent."
алгоритм з такими протиріччями".
with good intentions.
незважаючи на добрі наміри.
that's designed badly
що був погано спроектований,
silently wreaking havoc.
і тихенько завдавати шкоди.
about sexual harassment.
на сексуальні домагання.
to succeed at Fox News.
досягати успіхів у Fox News.
but we've seen recently
але ми нещодавно побачили,
to turn over another leaf?
щоб почати нову сторінку?
their hiring process
найму працівників вживали
21 years of applications to Fox News.
у Fox News за останній 21 рік.
stayed there for four years
що пробула там чотири роки,
to learn what led to success,
що призвело до успіху,
historically led to success
призводили до успіху
по відношенню
to a current pool of applicants.
банку даних про кандидатів.
who were successful in the past.
що були успішними у минулому.
blindly apply algorithms.
безтурботно і всліпу.
методики роботи,
if we had a perfect world,
ми жили в ідеальному світі,
don't have embarrassing lawsuits,
прикрих правових спорів,
it means they could be codifying sexism
вони можуть кодувати сексизм
all neighborhoods
усіх кварталах,
only to the minority neighborhoods
кварталів, де проживає меншість,
we found the data scientists
ми знайшли б науковців з даних
where the next crime would occur?
де буде скоєно наступний злочин?
criminal would be?
наступним злочинцем?
about how great and how accurate
наскільки чудовою і точною
but we do have severe segregations
але ми маємо суттєву сегрегацію
and justice system data.
і судової системи.
the individual criminality,
індивідуальні злочинні дії,
recently looked into
провело розслідування щодо
"ризику рецидивізму",
during sentencing by judges.
коли виносять вирок.
was scored a 10 out of 10.
отримав рейтинг 10 з 10.
3 out of 10, low risk.
3 з 10, низький ризик.
for drug possession.
зберігання наркотиків.
the higher score you are,
чим вищий в тебе ризик,
a longer sentence.
довший термін покарання.
technologists hide ugly truths
неприємну правду
important and destructive,
важливі та нищівні,
and it's not a mistake.
і це не помилково.
building private algorithms
що будують приватні алгоритми
for teachers and the public police,
для вчителів і державної поліції,
"секретний соус",
розповісти нам про нього.
the authority of the inscrutable.
над незбагненним.
since all this stuff is private
ви можете припустити,
will solve this problem.
вирішить цю проблему.
to be made in unfairness.
чимало грошей.
економічними раціональними агентами.
in ways that we wish we weren't,
хоч нам це і не подобається,
загалом і є,
have consistently demonstrated this
демонструють це
of applications to jobs out,
відгуків на вакансії,
have white-sounding names
"білі" імена,
the results -- always.
завжди.
into the algorithms
в алгоритми,
about ramen noodles --
не думати про локшину рамен -
picking up on past practices
що вловлюють практику, що склалася,
to emerge unscathed?
будуть без несправностей?
we can check them for fairness.
перевіряти їх на справедливість.
the truth every time.
нам правду.
We can make them better.
Ми можемо покращити їх.
algorithm I talked about,
риску рецидивізму,
що нам довелося б змиритися із фактом,
we'd have to come to terms with the fact
smoke pot at the same rate
обкурені однаково,
to be arrested --
набагато частіше -
depending on the area.
залежно від району.
в інших кримінальних категоріях,
in other crime categories,
the definition of success,
визначення успіху,
algorithm? We talked about it.
щодо прийняття на роботу?
і раз отримує підвищення?
and is promoted once?
that is supported by their culture.
організаційна культура.
багато упередження.
the blind orchestra audition
з прослуховування всліпу
are behind a sheet.
є за листом паперу.
have decided what's important
вирішили, що важливе,
distracted by that.
auditions started,
went up by a factor of five.
зросла у п'ять разів.
for teachers would fail immediately.
для вчителів одразу б провалилася.
the errors of every algorithm.
у кожному алгоритмі.
and for whom does this model fail?
і кого підведе ця модель?
прийняти до уваги
had considered that
прийняли б це до уваги,
only things that our friends had posted.
лише те, що постять наші друзі.
one for the data scientists out there.
одна для науковців з даних.
not be the arbiters of truth.
арбітрами правди.
of ethical discussions that happen
етичних дискусій, що відбуваються
for our algorithmic overlords.
від наших алгоритмічних можновладців.
in big data must end.
має підійти до кінця.
ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientistData skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.
Why you should listen
In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.
With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.
Cathy O'Neil | Speaker | TED.com