Cathy O'Neil: The era of blind faith in big data must end
Cathy O'Neil: A era da fé cega nos "big data" tem de acabar
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias. Full bio
Double-click the English transcript below to play the video.
the winners from the losers.
os vencedores dos perdedores.
para o cartão de crédito.
that we don't understand
com fórmulas secretas que não entendemos
não têm sistemas de recurso.
and often hoping for.
e que queremos atingir.
by looking, figuring out.
com a procura, com a descoberta.
what is associated with success.
o que está associado ao sucesso.
in written code.
em código escrito.
to make a meal for my family.
para cozinhar para a minha família.
of ramen noodles as food.
de "noodles" como comida.
if my kids eat vegetables.
se os filhos comerem vegetais.
from if my youngest son were in charge.
mais novo fosse o responsável.
he gets to eat lots of Nutella.
seria ele comer muita Nutella.
A minha opinião conta.
dos algoritmos.
embutidas em código.
most people think of algorithms.
pensam sobre este assunto.
and true and scientific.
são objetivos, verdadeiros e científicos.
nos intimidarem,
e medo deles,
e receamos a matemática.
blind faith in big data.
se confiarmos cegamente nos "big data".
She's a high school principal in Brooklyn.
de uma escola secundária em Brooklyn.
her teachers were being scored
os professores eram avaliados
what the formula is, show it to me.
"Bem, se descobrir a fórmula, mostre-ma".
to get the formula,
told me it was math
disse que era matemática"
a Freedom of Information Act request,
a lei da Liberdade de Informação,
and all their scores
e os seus resultados
as an act of teacher-shaming.
como forma de envergonhar os professores.
the source code, through the same means,
ao código-fonte, através dos mesmos meios,
had access to that formula.
teve acesso a essa fórmula.
got involved, Gary Rubenstein.
muito inteligente: Gary Rubenstein.
from that New York Post data
através dos dados publicados no jornal,
se estivessem a lecionar
e matemática de oitavo ano.
um professor.
for individual assessment.
para uma avaliação individual.
de números aleatórios.
with 205 other teachers,
juntamente com 205 professores
recommendations from her principal
recomendações do seu diretor
of you guys are thinking,
especialistas em Inteligência Artificial.
the AI experts here.
an algorithm that inconsistent."
um algoritmo tão inconsistente".
with good intentions.
destrutivos, cheios de boas intenções.
that's designed badly
que é mal arquitetado
silently wreaking havoc.
causando estragos silenciosamente.
about sexual harassment.
queixaram-se de assédio sexual.
to succeed at Fox News.
não lhes era permitido terem sucesso.
but we've seen recently
mas, recentemente,
to turn over another leaf?
para virar a página?
their hiring process
o seu processo de recrutamento
de aprendizagem automática?
21 years of applications to Fox News.
recebidos nos últimos 21 anos.
stayed there for four years
durante quatro anos
to learn what led to success,
e perceber o que levava ao sucesso,
historically led to success
eram propícios a isso,
to a current pool of applicants.
ao conjunto atual de candidaturas.
who were successful in the past.
que tiveram sucesso no passado.
blindly apply algorithms.
de ânimo leve e às cegas.
if we had a perfect world,
se o mundo fosse perfeito.
don't have embarrassing lawsuits,
não têm processos legais em curso,
aos seus cientistas de dados
it means they could be codifying sexism
eles podiam codificar o sexismo
all neighborhoods
tudo segregado racialmente —
only to the minority neighborhoods
a bairros minoritários
seriam tendenciosos.
we found the data scientists
para esta situação
where the next crime would occur?
onde iria ocorrer o crime seguinte?
criminal would be?
o criminoso seguinte?
about how great and how accurate
da eficiência e precisão do seu modelo
but we do have severe segregations
mas temos segregações graves
and justice system data.
são tendenciosos.
the individual criminality,
recently looked into
analisou recentemente
during sentencing by judges.
durante os julgamentos.
was scored a 10 out of 10.
que teve uma pontuação de 10 em 10.
teve uma pontuação de 3 em 10.
3 out of 10, low risk.
3 em 10 é risco reduzido.
for drug possession.
por posse de droga.
um assalto à mão armada
the higher score you are,
quanto mais alta é a pontuação,
a longer sentence.
de a sentença ser mais longa.
technologists hide ugly truths
escondem verdades muito graves
important and destructive,
importantes e destrutivos
and it's not a mistake.
e não são um erro.
building private algorithms
a criar algoritmos privados
for teachers and the public police,
para os professores e a polícia,
the authority of the inscrutable.
a autoridade do inescrutável.
since all this stuff is private
e existe concorrência,
will solve this problem.
corrija este problema.
to be made in unfairness.
com a injustiça.
agentes económicos racionais.
in ways that we wish we weren't,
em proporções horríveis,
em níveis agregados,
have consistently demonstrated this
têm vindo a demonstrá-lo,
em resposta a anúncios,
of applications to jobs out,
mas alguns com nomes caucasianos
have white-sounding names
the results -- always.
desconcertantes... Sempre!
into the algorithms
esses preconceitos nos algoritmos,
about ramen noodles --
em relação aos "noodles"
picking up on past practices
que têm, por base, acontecimentos passados
to emerge unscathed?
que os algoritmos saiam ilesos?
we can check them for fairness.
the truth every time.
We can make them better.
Podemos torná-los melhores.
a integridade dos dados.
algorithm I talked about,
de que já vos falei,
we'd have to come to terms with the fact
significa que concordamos com o facto
smoke pot at the same rate
como os negros fumam erva,
maior probabilidade de ser detidos
to be arrested --
depending on the area.
probabilidades, dependendo da zona.
in other crime categories,
esta tendência, noutros crimes
the definition of success,
na definição de sucesso,
algorithm? We talked about it.
de contratação de que já falámos.
durante quatro anos e é promovido uma vez?
and is promoted once?
that is supported by their culture.
que apoia a cultura da empresa.
é muito tendencioso.
the blind orchestra audition
de uma orquestra
are behind a sheet.
escondem-se atrás duma cortina.
have decided what's important
decidiram o que é importante
distracted by that.
auditions started,
went up by a factor of five.
aumentou cinco vezes.
a precisão.
for teachers would fail immediately.
acrescentado" dos professores.
the errors of every algorithm.
os erros de cada um.
and for whom does this model fail?
e com quem é que este modelo falha?
had considered that
do Facebook consideravam
only things that our friends had posted.
o que os nossos amigos publicam.
one for the data scientists out there.
uma delas para os cientistas de dados.
not be the arbiters of truth.
devemos ser os árbitros da verdade.
of ethical discussions that happen
de discussões éticas
for our algorithmic overlords.
dos soberanos dos nossos algoritmos.
in big data must end.
tem de acabar.
ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientistData skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.
Why you should listen
In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.
With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.
Cathy O'Neil | Speaker | TED.com