Cathy O'Neil: The era of blind faith in big data must end
Cathy O'Neil: L'ère de la confiance absolue dans le Big Data doit prendre fin
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias. Full bio
Double-click the English transcript below to play the video.
the winners from the losers.
les vainqueurs des perdants.
même pas un entretien
that we don't understand
que nous ne comprenons pas
de systèmes de recours.
and often hoping for.
by looking, figuring out.
en observant, en comprenant,
what is associated with success.
l'on associe au succès,
tout le monde utilise des algorithmes
en les écrivant.
in written code.
je me sers d'un algorithme.
to make a meal for my family.
de ramen comme de la nourriture.
of ramen noodles as food.
if my kids eat vegetables.
mangent des légumes.
ce serait différent.
from if my youngest son were in charge.
he gets to eat lots of Nutella.
de manger plein de Nutella.
ce qu'est le succès.
intégrées dans du code.
most people think of algorithms.
les gens pensent des algorithmes.
and true and scientific.
objectifs, vrais et scientifiques.
les algorithmes,
les mathématiques.
blind faith in big data.
une foi aveugle dans le Big Data.
d'un lycée à Brooklyn.
She's a high school principal in Brooklyn.
professeurs étaient classés
her teachers were being scored
what the formula is, show it to me.
montre-la moi,
to get the formula,
« J'ai essayé de la trouver,
m'a dit que c'était des "maths"
told me it was math
sur la liberté d'information,
a Freedom of Information Act request,
and all their scores
ainsi que leur classement,
as an act of teacher-shaming.
pour humilier les enseignants.
the source code, through the same means,
le code source, par les mêmes moyens,
had access to that formula.
accès à cette formule.
got involved, Gary Rubenstein.
s'en est mêlé, Gary Rubinstein.
from that New York Post data
des données du New York Post
for individual assessment.
pour des évaluations individuelles.
with 205 other teachers,
avec 205 autres enseignants
recommendations from her principal
recommandations de son directeur
d'entre vous pensent,
of you guys are thinking,
the AI experts here.
un algorithme aussi incohérent.
an algorithm that inconsistent."
with good intentions.
avec de bonnes intentions.
that's designed badly
mal conçu s'écrase,
silently wreaking havoc.
à faire des ravages en silence.
about sexual harassment.
de harcèlement sexuel,
to succeed at Fox News.
de réussir chez Fox News.
but we've seen recently
mais on a vu récemment
to turn over another leaf?
pour tourner la page ?
their hiring process
de recrutement
quelles seraient les données ?
21 years of applications to Fox News.
candidatures des 21 dernières années.
stayed there for four years
au moins quatre ans,
to learn what led to success,
apprendre ce qui les a conduits au succès,
historically led to success
historiquement mené au succès
to a current pool of applicants.
à un groupe actuel de candidats.
who were successful in the past.
qui ont eu du succès dans le passé.
les choses équitables
blindly apply algorithms.
avec négligence.
if we had a perfect world,
si nous avions un monde parfait,
don't have embarrassing lawsuits,
font pas l'objet de poursuites honteuses
dans ces sociétés
it means they could be codifying sexism
cela veut dire qu'ils pourraient coder
à la ségrégation --
all neighborhoods
les villes, tous les voisinages
only to the minority neighborhoods
dans les quartiers de minorité
complètement biaisées.
we found the data scientists
des experts en données
where the next crime would occur?
prédisent le lieu du prochain crime ?
criminal would be?
le prochain criminel ?
about how great and how accurate
de l'excellence et de l'exactitude
but we do have severe segregations
mais la ségrégation existe tout de même
and justice system data.
sont biaisées.
les zones sensibles,
the individual criminality,
les infractions individuelles,
recently looked into
s'est récemment penchée
de « risque de récidive »,
pendant la détermination de la peine.
during sentencing by judges.
was scored a 10 out of 10.
a obtenu un 10 sur 10.
3 out of 10, low risk.
3 sur 10, risque faible.
for drug possession.
possession de drogue.
the higher score you are,
est élevé,
a longer sentence.
soit longue.
technologists hide ugly truths
pour cacher des vérités gênantes
important and destructive,
importants et destructifs,
and it's not a mistake.
une erreur !
building private algorithms
qui créent des algorithmes privés,
for teachers and the public police,
pour les professeurs et la police,
par des sociétés privées
leur « recette secrète »,
nous en parler.
the authority of the inscrutable.
l'autorité à ce qu'on ne comprend pas.
since all this stuff is private
puisque tout ceci est privé,
will solve this problem.
résoudre ce problème.
to be made in unfairness.
grâce à l'injustice.
des acteurs économiques rationnels.
in ways that we wish we weren't,
sans le vouloir,
have consistently demonstrated this
sans cesse démontré
of applications to jobs out,
à qualifications égales
have white-sounding names
the results -- always.
Toujours.
porteurs de préjugés,
into the algorithms
les données à collecter
about ramen noodles --
de mettre les ramen de côté,
picking up on past practices
qui reprennent des pratiques passées
to emerge unscathed?
les algorithmes en sortent indemnes ?
we can check them for fairness.
contrôler leur équité.
the truth every time.
We can make them better.
les améliorer.
un « audit algorithmique »,
de l'intégrité des données.
algorithm I talked about,
dont j'ai parlé,
we'd have to come to terms with the fact
faudra se rendre compte du fait
smoke pot at the same rate
fument la même quantité de joints,
chance d'être arrêtés,
to be arrested --
depending on the area.
dans les autres catégories de crime,
in other crime categories,
the definition of success,
à la définition du succès,
algorithm? We talked about it.
l'algorithme de recrutement ?
et est promu une fois ?
and is promoted once?
that is supported by their culture.
par sa culture.
the blind orchestra audition
les auditions à l'aveugle
are behind a sheet.
derrière un drap.
have decided what's important
ont décidé de ce qui est important,
par cela.
distracted by that.
auditions started,
à l'aveugle ont commencé,
went up by a factor of five.
s'est multiplié par 5.
de la précision.
professeurs échouerait dans ce cas-là.
for teachers would fail immediately.
évidemment,
the errors of every algorithm.
erreurs de tous les algorithmes.
and for whom does this model fail?
et pour qui est-ce que le modèle échoue ?
qu'ils engendrent.
had considered that
de Facebook y avaient pensé
only things that our friends had posted.
seulement les publications de nos amis.
one for the data scientists out there.
les scientifiques de données ici.
not be the arbiters of truth.
les arbitres de la vérité.
of ethical discussions that happen
des discussions d'ordre éthique
for our algorithmic overlords.
à nos souverains algorithmiques.
in big data must end.
dans le Big Data doit prendre fin.
ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientistData skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.
Why you should listen
In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.
With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.
Cathy O'Neil | Speaker | TED.com