Cathy O'Neil: The era of blind faith in big data must end
Cathy O'Neil: Büyük verideki kör inanç dönemi bitmeli
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias. Full bio
Double-click the English transcript below to play the video.
the winners from the losers.
daha fazla ödeme yaparlar.
that we don't understand
anlamadığımız
and often hoping for.
by looking, figuring out.
algoritma çalıştırırsınız.
what is associated with success.
bağlantılı olduğunu keşfeder.
in written code.
to make a meal for my family.
her gün algoritma kullanırım.
of ramen noodles as food.
yemekten saymıyorum.
if my kids eat vegetables.
yemeğim başarılıdır.
from if my youngest son were in charge.
bu tanım farklı olurdu.
he gets to eat lots of Nutella.
çok miktarda Nutella yemek.
Görüşüm önemli.
kodların içine gömülmüş fikirlerdir.
most people think of algorithms.
görüşlerinden farklı bir şey bu.
and true and scientific.
doğru ve bilimsel olduğunu düşünür.
çünkü matematikten de korkarsınız
blind faith in big data.
çok şey yanlış gidebilir.
She's a high school principal in Brooklyn.
Brooklyn'de okul müdürü.
her teachers were being scored
'katma değer modeli' adında
what the formula is, show it to me.
sana içeriğini açıklayayım" dedim.
"Doğrusu formülasyonu almaya çalıştım
to get the formula,
told me it was math
bunun matematiksel olduğunu
a Freedom of Information Act request,
"Bilgiye Özgürlük Hareketi" kapsamındaki
and all their scores
isim ve puanlarını temin edip
as an act of teacher-shaming.
eylemi olarak sonuçları yayımladı.
the source code, through the same means,
almaya çalıştığımda
Talebim reddedildi.
had access to that formula.
got involved, Gary Rubenstein.
zeki biri olaya dâhil oldu.
from that New York Post data
665 öğretmenin aslında iki tane
7 ve 8'inci sınıflara
for individual assessment.
kullanılmamalıydı.
with 205 other teachers,
recommendations from her principal
of you guys are thinking,
ne düşündüğünüzü biliyorum.
the AI experts here.
an algorithm that inconsistent."
algoritma oluşturmazdım" diyorsunuz.
with good intentions.
yıkıcı sonuçları olabilir.
that's designed badly
silently wreaking havoc.
uzun süre devam edebilir.
taciz iddiasıyla şikayetçi oldu.
about sexual harassment.
to succeed at Fox News.
engellendiğini söylediler.
but we've seen recently
to turn over another leaf?
için ne yapmalı?
makine öğrenmesine dayalı
their hiring process
21 years of applications to Fox News.
iş başvuruları veri seçimi için
stayed there for four years
to learn what led to success,
historically led to success
başarıya ulaştığını görmek için
düşünün.
to a current pool of applicants.
who were successful in the past.
blindly apply algorithms.
süreçleri daha adil hale getirmez.
if we had a perfect world,
bu iyi olurdu
don't have embarrassing lawsuits,
yüz kızartıcı davası yoktur
it means they could be codifying sexism
ki bu cinsiyetçiliği veya başka bir
anlamına gelebilir.
ırk bakımından
all neighborhoods
only to the minority neighborhoods
gelecek suçların nerede olacağını öngören
we found the data scientists
where the next crime would occur?
veri bilimcileri olsa ne olurdu?
criminal would be?
olacağını öngörmek için?
about how great and how accurate
ve haklı olurlardı da.
but we do have severe segregations
ama pek çok bölgede
and justice system data.
the individual criminality,
recently looked into
during sentencing by judges.
was scored a 10 out of 10.
10 üzerinden 10 puan aldı.
10 üzerinden 3 puan.
3 out of 10, low risk.
10 üzerinden 3 düşük risk.
göz altına alındı.
for drug possession.
the higher score you are,
a longer sentence.
technologists hide ugly truths
gerçekleri kara kutulu algoritmalarla
important and destructive,
ve her yerde olmaları hata sonucu değil.
and it's not a mistake.
building private algorithms
özel algoritmalar üreten
for teachers and the public police,
söylediklerim bile
ilgili konuşmuyorlar.
the authority of the inscrutable.
since all this stuff is private
serbest piyasanın
will solve this problem.
to be made in unfairness.
önemli miktarda para var.
rasyonel karar alıcılar değiliz.
ön yargılarımız var.
in ways that we wish we weren't,
ve öyle olmayı dilemesek bile
have consistently demonstrated this
of applications to jobs out,
have white-sounding names
Kimi başvurular siyah,
andıran isimlerle yapıldı.
the results -- always.
into the algorithms
seçtiğimiz veriler ile
about ramen noodles --
picking up on past practices
baz alarak seçtiğimiz veriye
to emerge unscathed?
sağlıklı olacağını nasıl bekleyebiliriz?
Algoritmaları test etmemiz gerekir.
test etmeliyiz.
we can check them for fairness.
the truth every time.
We can make them better.
adını veriyorum
algorithm I talked about,
riski algoritmasında
we'd have to come to terms with the fact
esrar tüketimi aynı ölçüde yaygın,
smoke pot at the same rate
to be arrested --
depending on the area.
dört veya beş kat fazla.
in other crime categories,
bu tür bir taraflılık nasıldır
the definition of success,
algorithm? We talked about it.
bahsetmiştim, hatırlayın.
and is promoted once?
en az bir kez terfi alan kişi.
that is supported by their culture.
desteklenen bir kişi.
the blind orchestra audition
are behind a sheet.
bulunduğundan görünmüyor.
have decided what's important
distracted by that.
başladığından beri
auditions started,
went up by a factor of five.
bulundurmalıyız.
anında başarısız olacağı aşama olurdu.
for teachers would fail immediately.
the errors of every algorithm.
hatalarını dikkate almalıyız.
and for whom does this model fail?
hangileri modeli başarısız kılıyor?
göz önünde bulundurmalıyız.
ama Facebook yazılımcıları
had considered that
görmemize karar vermeden önce
only things that our friends had posted.
nasıl olurdu, hayal edin.
Birincisi veri bilimciler için:
one for the data scientists out there.
not be the arbiters of truth.
karar verenler olmamalıyız.
of ethical discussions that happen
etik tartışmaların
for our algorithmic overlords.
sorumluluk talep etmeliyiz.
in big data must end.
ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientistData skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.
Why you should listen
In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.
With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.
Cathy O'Neil | Speaker | TED.com