Cathy O'Neil: The era of blind faith in big data must end
Cathy O'Neil: Vremea încrederii oarbe în volumele mari de date (big data) trebuie să ia sfârșit
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias. Full bio
Double-click the English transcript below to play the video.
the winners from the losers.
învingătorii de învinși.
that we don't understand
pe care nu le înțelegem
și dacă algoritmii conțin erori?
date, ce s-a întâmplat în trecut,
a ceea ce cauți și speri să obții.
and often hoping for.
by looking, figuring out.
observând, descifrând.
what is associated with success.
ce se asociază cu succesul,
dar nu formalizați în scris.
in written code.
ca să pregătesc masa pentru familia mea.
to make a meal for my family.
timpul disponibil,
apoi organizez datele.
of ramen noodles as food.
pachețelele de tăieței ramen.
if my kids eat vegetables.
când copiii mei mănâncă legume.
care, dacă ar fi după el,
from if my youngest son were in charge.
he gets to eat lots of Nutella.
să mănânce multă Nutella.
most people think of algorithms.
că majoritatea crede despre algoritmi.
sunt obiectivi, adevărați și științifici.
and true and scientific.
și să vă temeți de algoritmi,
și vă temeți de matematică.
blind faith in big data.
încredere oarbă în volume mari de date.
She's a high school principal in Brooklyn.
unui liceu din Brooklyn.
erau evaluați
her teachers were being scored
what the formula is, show it to me.
arată-mi-o și ți-o explic.”
to get the formula,
dar la Departamentul de Educație
told me it was math
și n-o să înțeleg.”
a Freedom of Information Act request,
Legii privind libertatea de informare,
tuturor profesorilor și punctajele lor
and all their scores
as an act of teacher-shaming.
the source code, through the same means,
codul sursă, cu aceleași mijloace,
n-avea acces la acea formulă.
had access to that formula.
got involved, Gary Rubenstein.
foarte inteligent: Gary Rubinstein.
from that New York Post data
din datele de la New York Post
folosit pentru evaluare personală.
for individual assessment.
de numere aleatorii.
împreună cu alți 205 profesori,
with 205 other teachers,
de la director și părinții copiilor.
recommendations from her principal
of you guys are thinking,
și inteligență artificială.
the AI experts here.
un algoritm așa de inconsecvent.”
an algorithm that inconsistent."
în ciuda bunelor intenții.
with good intentions.
that's designed badly
care e prost conceput
silently wreaking havoc.
făcând ravagii pe ascuns.
about sexual harassment.
s-au plâns de hărțuire sexuală.
să aibă succes la Fox News.
to succeed at Fox News.
but we've seen recently
dar am văzut recent
to turn over another leaf?
pentru a întoarce pagina?
their hiring process
procesul de recrutare
de angajare din ultimii 21 de ani.
21 years of applications to Fox News.
a lucrat acolo patru ani
stayed there for four years
ca să înțeleagă ce a condus la succes,
to learn what led to success,
historically led to success
au condus de-a lungul timpului la succes,
to a current pool of applicants.
unui grup actual de candidați.
who were successful in the past.
care să fi avut succes în trecut.
blindly apply algorithms.
if we had a perfect world,
dacă am trăi într-o lume perfectă,
n-au procese de judecată jenante,
don't have embarrassing lawsuits,
din acele companii
it means they could be codifying sexism
înseamnă că ar putea codifica
sau orice alt fel de intoleranță.
all neighborhoods
toate cartierele,
doar în cartierele cu minorități
only to the minority neighborhoods
ar fi foarte părtinitoare.
we found the data scientists
am găsi specialiștii în date
unde ar avea loc următoarea infracțiune?
where the next crime would occur?
criminal would be?
următorul infractor?
about how great and how accurate
cu cât de grozav și precis
but we do have severe segregations
dar avem diviziuni profunde
și datele sistemului judiciar.
and justice system data.
the individual criminality,
infracțiunile individuale,
recently looked into
a analizat recent
„riscului de recidivă”, cum li se zice,
în sentințele judecătorești.
during sentencing by judges.
was scored a 10 out of 10.
a obținut zece puncte din zece.
Trei din zece, risc scăzut.
3 out of 10, low risk.
for drug possession.
the higher score you are,
deoarece cu cât ai scorul mai mare,
a longer sentence.
să primești o sentință mai lungă.
technologists hide ugly truths
ascund adevăruri neplăcute
important and destructive,
importanți și distructivi,
pentru algoritmii ăștia:
and it's not a mistake.
building private algorithms
care construiesc algoritmi privați
for teachers and the public police,
pentru profesori și poliție,
și vânduți instituțiilor guvernamentale.
the authority of the inscrutable.
autoritatea impenetrabilă.
since all this stuff is private
că, din moment ce totul e privat,
o să rezolve problema.
will solve this problem.
to be made in unfairness.
din inechitate.
agenți economici raționali.
in ways that we wish we weren't,
și de care nici nu ne dăm seama.
have consistently demonstrated this
au demonstrat-o constant
la anunțurile de angajare,
of applications to jobs out,
have white-sounding names
au nume ca de albi și altele ca de negri,
the results -- always.
into the algorithms
în algoritmi,
la tăiețeii ramen,
about ramen noodles --
care reiau practicile din trecut
picking up on past practices
to emerge unscathed?
ca algoritmii să fie neafectați?
we can check them for fairness.
că le putem verifica echitatea.
the truth every time.
We can make them better.
Putem să-i îmbunătățim.
verificarea integrității datelor.
algorithm I talked about,
de care am vorbit,
we'd have to come to terms with the fact
ar însemna să acceptăm faptul
fumează canabis în egală măsură,
smoke pot at the same rate
au mai multe șanse să fie arestați,
to be arrested --
depending on the area.
în funcție de regiune.
in other crime categories,
în alte categorii de infracțiuni
the definition of success,
la definiția succesului, să audităm asta.
algorithm? We talked about it.
Am vorbit de el.
and is promoted once?
și e promovat o dată?
that is supported by their culture.
care e susținut de cultura lor.
the blind orchestra audition
drept exemplu.
are behind a sheet.
stau după un paravan.
ce-i important și ce nu
have decided what's important
distracted by that.
auditions started,
a crescut de cinci ori.
went up by a factor of five.
trebuie să examinăm acuratețea.
for teachers would fail immediately.
pentru profesori ar eșua imediat.
the errors of every algorithm.
la erorile fiecărui algoritm.
and for whom does this model fail?
și pentru cine nu funcționează modelul?
had considered that
s-ar fi gândit la asta
only things that our friends had posted.
doar ce au publicat prietenii noștri.
one for the data scientists out there.
pentru specialiștii în date dintre voi.
not be the arbiters of truth.
nu trebuie să fim arbitrii adevărului.
of ethical discussions that happen
discuțiilor etice care au loc
for our algorithmic overlords.
suzeranilor noștri algoritmici.
de date trebuie să ia sfârșit.
in big data must end.
ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientistData skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.
Why you should listen
In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.
With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.
Cathy O'Neil | Speaker | TED.com