Cathy O'Neil: The era of blind faith in big data must end
Cathy O'Neil: Tiden när vi trodde blint på big data måste få ett slut
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias. Full bio
Double-click the English transcript below to play the video.
the winners from the losers.
that we don't understand
som vi inte förstår
and often hoping for.
by looking, figuring out.
genom att titta och fundera.
what is associated with success.
vad som associeras med framgång.
in written code.
i skriftlig kod.
to make a meal for my family.
dag för att laga mat.
of ramen noodles as food.
med nudlar som mat.
if my kids eat vegetables.
om barnen äter grönsakerna.
from if my youngest son were in charge.
yngste sons definition.
he gets to eat lots of Nutella.
om han får äta mycket Nutella.
för en algoritm.
most people think of algorithms.
att folk tror om algoritmer.
and true and scientific.
sanna och vetenskapligt underbyggda.
och fruktar matematik.
blind faith in big data.
när vi tror blint på big data.
Hon är gymnasierektor i Brooklyn.
She's a high school principal in Brooklyn.
her teachers were being scored
hennes lärare poängsattes
vilken formeln är, och visa mig den.
what the formula is, show it to me.
to get the formula,
sade att det var matte
told me it was math
med stöd av lagen om informationsfrihet,
a Freedom of Information Act request,
and all their scores
as an act of teacher-shaming.
för att skämma ut lärarna.
the source code, through the same means,
källkoden, på samma vis,
had access to that formula.
hade tillgång till formeln.
got involved, Gary Rubenstein.
inblandad, Gary Rubenstein.
from that New York Post data
i New York Posts reportage
både sjunde- och åttondeklassare
for individual assessment.
för individuella bedömningar.
with 205 other teachers,
recommendations from her principal
från sin rektor och elevernas föräldrar.
of you guys are thinking,
AI-experterna här inne.
the AI experts here.
en sådan inkonsekvent algoritm."
an algorithm that inconsistent."
with good intentions.
även om intentionerna är goda.
that's designed badly
silently wreaking havoc.
och i tysthet skapa kaos.
anmälde sexuella trakasserier.
about sexual harassment.
to succeed at Fox News.
att lyckas på Fox News.
but we've seen recently
men nyligen såg vi
to turn over another leaf?
their hiring process
sin anställningsprocess
21 years of applications to Fox News.
de senaste 21 årens ansökningar
stayed there for four years
låt säga, stannat där i fyra år
to learn what led to success,
att lära sig vad som lett till framgång,
historically led to success
som historiskt lett till framgång
to a current pool of applicants.
på jobbsökare idag.
who were successful in the past.
som varit framgångsrika historiskt.
blindly apply algorithms.
if we had a perfect world,
om världen vore perfekt,
don't have embarrassing lawsuits,
de flesta företag inte har blivit stämda,
it means they could be codifying sexism
att de skulle kunna koda in sexism
all neighborhoods
i alla områden
only to the minority neighborhoods
till minoritetsområdena
väldigt fördomsfulla.
we found the data scientists
vi fann dataanalytikerna
where the next crime would occur?
var nästa brott skulle ske?
criminal would be?
about how great and how accurate
hur bra och tillförlitlig
but we do have severe segregations
men vi har allvarlig segregation
and justice system data.
och skev straffrättslig data.
the individual criminality,
individers kriminalitet,
recently looked into
undersökte för en tid sedan
during sentencing by judges.
när domar ska avkunnas.
was scored a 10 out of 10.
fick 10 poäng av 10 möjliga.
3 out of 10, low risk.
3 av 10, låg risk.
for drug possession.
the higher score you are,
för ju högre poäng man har,
a longer sentence.
att man får ett längre straff.
technologists hide ugly truths
gömmer fula sanningar
important and destructive,
och destruktiva,
and it's not a mistake.
och det är inte ett misstag.
building private algorithms
som skapar privata algoritmer
for teachers and the public police,
som jag pratat om,
the authority of the inscrutable.
sin ogenomträngliga makt.
since all this stuff is private
att eftersom allt det här är privat
will solve this problem.
to be made in unfairness.
att tjäna på orättvisa.
ekonomiskt rationella varelser.
in ways that we wish we weren't,
som vi önskar att vi inte var,
have consistently demonstrated this
of applications to jobs out,
have white-sounding names
men några har "vita" namn
the results -- always.
en besvikelse - alltid.
into the algorithms
about ramen noodles --
att inte ta med japanska nudlar.
picking up on past practices
som bygger på tidigare erfarenheter
to emerge unscathed?
att algoritmerna är harmlösa?
we can check them for fairness.
att vi kan kolla rättvisan i dem.
the truth every time.
We can make them better.
Vi kan förbättra dem.
revision av algoritmer,
algorithm I talked about,
som jag pratade om,
we'd have to come to terms with the fact
att vi behöver ta tag i det faktum
smoke pot at the same rate
maruijana i samma utsträckning
to be arrested --
att arresteras -
depending on the area.
beroende på område.
in other crime categories,
i andra brottskategorier
the definition of success,
hur vi definierar framgång,
algorithm? We talked about it.
and is promoted once?
och befordras en gång?
that is supported by their culture.
som stöttas av företagskulturen.
the blind orchestra audition
till orkestrar som ett exempel.
bakom en skärm.
are behind a sheet.
have decided what's important
har bestämt vad som är viktigt
distracted by that.
auditions started,
av rekryteringar startade,
went up by a factor of five.
i orkestrarna femfalt.
for teachers would fail immediately.
för lärare skulle misslyckas omedelbart.
the errors of every algorithm.
i varje algoritm.
and for whom does this model fail?
och för vem misslyckas modellen?
had considered that
övervägt det här
only things that our friends had posted.
visa oss det våra vänner lagt upp.
one for the data scientists out there.
ett för dataanalytikerna där ute.
not be the arbiters of truth.
sanningens skiljedomare.
of ethical discussions that happen
av de etiska diskussioner som sker
for our algorithmic overlords.
från våra algoritmiska överherrar.
in big data must end.
på big data måste få ett slut.
ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientistData skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.
Why you should listen
In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.
With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.
Cathy O'Neil | Speaker | TED.com