Cathy O'Neil: The era of blind faith in big data must end
Cathy O'Neil: L'era della fede cieca nelle grandi masse di dati deve finire
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias. Full bio
Double-click the English transcript below to play the video.
the winners from the losers.
i vincitori dai perdenti.
carta di credito.
neanche un colloquio di lavoro
that we don't understand
che non comprendiamo
sistemi cui poter fare ricorso.
and often hoping for.
e spesso sperando di ottenere.
by looking, figuring out.
cercando, risolvendo.
ciò che è associato al successo,
what is associated with success.
in written code.
attraverso un codice scritto.
per cucinare per la mia famiglia.
to make a meal for my family.
of ramen noodles as food.
pacchettini di noodles istantanei.
if my kids eat vegetables.
se i miei figli mangiano verdure.
mio figlio più piccolo a decidere.
from if my youngest son were in charge.
è mangiare tanta Nutella.
he gets to eat lots of Nutella.
cos'è il successo.
È la mia opinione che conta.
racchiuse in codici.
most people think of algorithms.
pensa degli algoritmi.
and true and scientific.
oggettivi e realistici e scientifici.
degli algoritmi e a temerli
delle scienze matematiche.
blind faith in big data.
una fiducia cieca in grandi masse di dati.
She's a high school principal in Brooklyn.
in una scuola superiore di Brooklyn.
i suoi docenti erano valutati
her teachers were being scored
what the formula is, show it to me.
la formula e mostramela.
ad avere la formula,
to get the formula,
ha detto che era matematica
told me it was math
secondo il Freedom of Information Act,
a Freedom of Information Act request,
gli insegnanti e i loro punteggi
and all their scores
as an act of teacher-shaming.
gli insegnanti alla pubblica gogna.
il codice sorgente,
the source code, through the same means,
che non potevo averle.
had access to that formula.
aveva accesso a quella formula.
got involved, Gary Rubenstein.
è stato coinvolto, Gary Rubenstein.
from that New York Post data
presenti nei dati del New York Post
per una valutazione individuale.
for individual assessment.
con altri 205 insegnanti
with 205 other teachers,
di Washington DC,
altamente positive da parte del preside
recommendations from her principal
of you guys are thinking,
di Intelligenza Artificiale.
the AI experts here.
an algorithm that inconsistent."
degli algoritmi così incoerenti".
with good intentions.
nonostante le buone intenzioni.
that's designed badly
silently wreaking havoc.
creando silenziosamente il caos.
accusato di molestie sessuali.
about sexual harassment.
to succeed at Fox News.
fare carriera a Fox News.
but we've seen recently
ma di recente abbiamo visto
to turn over another leaf?
per voltare veramente pagina?
their hiring process
il loro sistema di assunzione
21 years of applications to Fox News.
di assunzione a Fox News.
stayed there for four years
diciamo, per quattro anni
almeno una volta.
dovrebbe essere preparato.
to learn what led to success,
capire cosa conduce al successo,
historically led to success
storicamente portato al successo
a un attuale campione di candidati.
to a current pool of applicants.
who were successful in the past.
che hanno avuto successo in passato.
blindly apply algorithms.
allegramente e ciecamente.
if we had a perfect world,
se vivessimo in un mondo perfetto,
don't have embarrassing lawsuits,
non ha cause legali imbarazzanti,
che potrebbero codificare il sessismo
it means they could be codifying sexism
all neighborhoods
tutte le città, tutti i quartieri,
only to the minority neighborhoods
solo nei quartieri periferici
intrisi di pregiudizi.
oltretutto, trovassimo gli analisti
we found the data scientists
where the next crime would occur?
dove si verificherà il prossimo crimine?
abitati dalle minoranze.
criminal would be?
sarà il prossimo criminale?
about how great and how accurate
di quanto straordinari e accurati
but we do have severe segregations
ma esistono gravi segregazioni
e giudiziari basati su pregiudizi.
and justice system data.
di anticipare i luoghi critici,
the individual criminality,
la criminalità individuale,
recently looked into
ha recentemente esaminato
sul "rischio recidiva",
during sentencing by judges.
durante le sentenze.
was scored a 10 out of 10.
ha avuto un punteggio di 10 su 10.
3 out of 10, low risk.
3 su 10, rischio basso.
for drug possession.
per possesso di droga.
the higher score you are,
più il vostro punteggio è alto,
a longer sentence.
la vostra condanna sia lunga.
technologists hide ugly truths
di tecnologia nascondono tremende verità
important and destructive,
importanti e distruttivi,
per questi algoritmi:
and it's not a mistake.
building private algorithms
che costruiscono algoritmi privati
for teachers and the public police,
per gli insegnanti e la polizia
"ingrediente segreto",
the authority of the inscrutable.
l'autorità dell'imperscrutabile.
since all this stuff is private
visto che è tutto privato
will solve this problem.
risolverà il problema.
to be made in unfairness.
da fare in modo scorretto.
agenti economici razionali.
in ways that we wish we weren't,
in modi che preferiremmo non essere,
al complesso dei dati,
have consistently demonstrated this
un mucchio di richieste di lavoro,
of applications to jobs out,
have white-sounding names
ma alcune con nomi da bianchi,
the results -- always.
deludente. Sempre.
into the algorithms
quei pregiudizi negli algoritmi,
about ramen noodles --
a quei noodles istantanei,
picking up on past practices
si riferiscono a prassi del passato
per valutare il successo
to emerge unscathed?
che gli algoritmi ne escano indenni?
per garantirne l'imparzialità.
verificarne l'imparzialità.
we can check them for fairness.
the truth every time.
Possiamo renderli migliori.
We can make them better.
algorithm I talked about,
degli algoritmi di cui ho parlato,
we'd have to come to terms with the fact
significherebbe constatare il fatto
smoke pot at the same rate
e neri che fumano erba è uguale
probabilità di essere arrestati,
to be arrested --
depending on the area.
a seconda della zona.
in altre categorie criminologiche,
in other crime categories,
la definizione di successo,
the definition of success,
algorithm? We talked about it.
delle assunzioni che ho illustrato?
anni ed è promosso una volta?
and is promoted once?
sostenuto dalla loro cultura.
that is supported by their culture.
anche un lieve pregiudizio.
le audizioni d'orchestra alla cieca
the blind orchestra audition
are behind a sheet.
sta dietro uno schermo.
have decided what's important
hanno deciso cosa sia importante
distracted by that.
auditions started,
alla cieca sono iniziate,
went up by a factor of five.
nelle orchestre è quintuplicato.
for teachers would fail immediately.
per insegnanti fallisce immediatamente.
the errors of every algorithm.
gli errori di ogni algoritmo.
and for whom does this model fail?
e per chi fallisce questo modello?
degli algoritmi,
che stanno generando.
lo avessero considerato
had considered that
only things that our friends had posted.
le cose pubblicate dai nostri amici.
una per gli analisti di dati là fuori.
one for the data scientists out there.
not be the arbiters of truth.
essere gli arbitri della verità.
of ethical discussions that happen
delle discussioni etiche che accadono
for our algorithmic overlords.
dai signori degli algoritmi.
in big data must end.
nelle masse di dati deve finire.
ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientistData skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.
Why you should listen
In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.
With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.
Cathy O'Neil | Speaker | TED.com