Cathy O'Neil: The era of blind faith in big data must end
Cathy O'Neil: A era da fé cega no Big data tem de acabar
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias. Full bio
Double-click the English transcript below to play the video.
os vencedores dos perdedores.
the winners from the losers.
ou a oferta de um bom cartão de crédito.
nem mesmo uma entrevista.
that we don't understand
com fórmulas secretas que não entendemos,
como serem contestadas.
para criar um algoritmo:
e uma definição de sucesso,
e geralmente esperando.
and often hoping for.
by looking, figuring out.
procurando, calculando.
what is associated with success.
o que está associado com o sucesso,
in written code.
num código escrito.
as refeições da minha família.
to make a meal for my family.
o tempo disponível,
of ramen noodles as food.
if my kids eat vegetables.
quando meus filhos comem verduras.
from if my youngest son were in charge.
mais novo estiver no comando.
he gets to eat lots of Nutella.
é comer montes de Nutella.
embutidas num código.
most people think of algorithms.
de nós pensa sobre os algoritmos.
and true and scientific.
objetivos, verdadeiros e científicos.
ou ter medo deles
na matemática, e temos medo dela.
quando confiamos cegamente no Big Data.
blind faith in big data.
diretora de um colégio no Brooklyn.
She's a high school principal in Brooklyn.
her teachers were being scored
por um algoritmo complexo e secreto,
a fórmula dele e me mostre.
what the formula is, show it to me.
mas meu contato na Secretaria de Educação
to get the formula,
told me it was math
e que eu não iria entender".
a Freedom of Information Act request,
um pedido de transparência,
and all their scores
e todas suas avaliações
as an act of teacher-shaming.
para expor os professores.
the source code, through the same means,
o código-fonte, através dos mesmos meios,
Nova Iorque tinha acesso àquela fórmula.
had access to that formula.
got involved, Gary Rubenstein.
um cara muito inteligente, se envolveu.
from that New York Post data
naqueles dados do "New York Post"
matemática na sétima e na oitava série.
for individual assessment.
numa avaliação individual.
com 205 outros professores,
with 205 other teachers,
de Washington, D.C.,
de sua diretora e dos pais das crianças.
recommendations from her principal
especialmente cientistas de dados,
of you guys are thinking,
the AI experts here.
inconsistente assim".
an algorithm that inconsistent."
efeitos profundamente destrutivos.
with good intentions.
that's designed badly
cai, e todo mundo vê,
silently wreaking havoc.
de forma silenciosa, por um longo tempo.
about sexual harassment.
reclamaram de assédio sexual.
permitido subir na Fox News.
to succeed at Fox News.
but we've seen recently
mas vimos recentemente
to turn over another leaf?
para virar essa página?
their hiring process
seu processo de contratação
de máquina? Parece boa ideia, né?
21 years of applications to Fox News.
21 anos de contratação da Fox News.
quem é bem-sucedido para a Fox News?
stayed there for four years
que tenha ficado lá por quatro anos
to learn what led to success,
para aprender o que leva ao sucesso,
historicamente levaram ao sucesso
historically led to success
to a current pool of applicants.
atual de pedidos de emprego.
who were successful in the past.
tiveram sucesso no passado.
blindly apply algorithms.
de forma cega e displicente.
passadas, nossos padrões.
um mundo perfeito,
if we had a perfect world,
don't have embarrassing lawsuits,
não inclui os litígios constrangedores,
it means they could be codifying sexism
que poderiam estar codificando sexismo
intelectual, pois gosto deles:
todas as cidades, todos os bairros,
all neighborhoods
only to the minority neighborhoods
a bairros de minorias atrás de crimes.
seriam muito tendenciosos.
we found the data scientists
cientistas de dados
where the next crime would occur?
onde vai ocorrer o próximo crime?
criminal would be?
about how great and how accurate
da excelência e da precisão de seu modelo,
but we do have severe segregations
mas temos graves segregações
e muitas evidências
and justice system data.
e judiciários tendenciosos.
the individual criminality,
a criminalidade individual,
recently looked into
recentemente estudou
chamados de "risco de recidiva",
na Flórida para proferirem sentenças.
during sentencing by judges.
o homem negro, atingiu dez em dez.
was scored a 10 out of 10.
3 out of 10, low risk.
três em dez, baixo risco.
for drug possession.
e Dylan tinha um delito grave,
the higher score you are,
pois, quanto maior a pontuação,
a longer sentence.
uma sentença mais severa.
technologists hide ugly truths
escondem verdades sujas
e os chamam de objetivos,
secretos, importantes e destrutivos:
important and destructive,
e isso não é um erro.
and it's not a mistake.
building private algorithms
criando algoritmos privados
for teachers and the public police,
para os professores e a polícia,
e vendidos a instituições governamentais.
e por isso não nos contam sobre eles.
the authority of the inscrutable.
a autoridade do inescrutável.
e não há competição,
since all this stuff is private
resolva o problema.
will solve this problem.
to be made in unfairness.
a ser ganho com a injustiça.
agentes econômicos racionais.
in ways that we wish we weren't,
de maneiras que desejávamos não ser,
have consistently demonstrated this
demonstrado isso consistentemente
enviam um monte de currículos,
of applications to jobs out,
have white-sounding names
ser de brancos, e outros, de negros,
the results -- always.
into the algorithms
esses preconceitos nos algoritmos
about ramen noodles --
porque decidi que ele era irrelevante.
picking up on past practices
que se baseiam em práticas do passado
to emerge unscathed?
que os algoritmos saiam incólumes?
we can check them for fairness.
the truth every time.
We can make them better.
a integridade dos dados.
algorithm I talked about,
de recidiva que mencionei,
we'd have to come to terms with the fact
significa aceitarmos o fato
smoke pot at the same rate
fumam maconha na mesma proporção,
to be arrested --
muito mais chance de serem presos,
depending on the area.
dependendo da região.
in other crime categories,
em outras categorias de crime
the definition of success,
na definição de sucesso,
algorithm? We talked about it.
de contratação de que falei?
and is promoted once?
e foi promovido uma vez?
that is supported by their culture.
que tem apoio da cultura da empresa.
the blind orchestra audition
na audição às cegas de orquestras.
ficam atrás de uma planilha.
are behind a sheet.
have decided what's important
decidem o que é importante
distracted by that.
auditions started,
de orquestras começaram,
went up by a factor of five.
cresceu cinco vezes mais.
professores fracassaria imediatamente.
for teachers would fail immediately.
the errors of every algorithm.
do pressuposto de que todos erram.
e com quem esse modelo falha?
and for whom does this model fail?
se os engenheiros do Facebook
had considered that
only things that our friends had posted.
apenas coisas que nossos amigos postam.
one for the data scientists out there.
uma para os cientistas de dados.
not be the arbiters of truth.
ser os árbitros da verdade.
of ethical discussions that happen
dos debates éticos que ocorrem
isso não é um teste de matemática.
for our algorithmic overlords.
dos "senhores dos algoritmos".
in big data must end.
no Big Data tem de acabar.
ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientistData skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.
Why you should listen
In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.
With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.
Cathy O'Neil | Speaker | TED.com