Cathy O'Neil: The era of blind faith in big data must end
캐시 오닐 (Cathy O'Neil): 빅 데이터에 대한 맹신의 시기는 끝나야만 합니다
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias. Full bio
Double-click the English transcript below to play the video.
the winners from the losers.
that we don't understand
점수 매겨지지만
기회조차 없습니다.
어떤 일이 발생할까요?
두 가지가 필요합니다.
and often hoping for.
by looking, figuring out.
알고리듬을 훈련시킵니다
what is associated with success.
뭔지 알아내죠.
알고리즘을 사용합니다.
in written code.
않았을 뿐인데
준비할 때 알고리즘을 이용합니다.
to make a meal for my family.
of ramen noodles as food.
요리로 치지 않습니다.
if my kids eat vegetables.
성공한 식사가 되는 건데
from if my youngest son were in charge.
성공과는 아주 다르죠.
he gets to eat lots of Nutella.
성공이라 했을 테니까요.
제가 선택하는 겁니다.
제 의견이 중요한 거죠.
첫 번째 규칙입니다.
의견입니다.
most people think of algorithms.
알고리즘과는 매우 다르죠.
사실이고 과학적이라고 생각하지만
and true and scientific.
마케팅 상술인데
두려워하니까요.
blind faith in big data.
많은 것이 잘못될 수 있습니다.
She's a high school principal in Brooklyn.
교장인 키리 소어스 씨인데
her teachers were being scored
교사들의 인사 고과 평가에
what the formula is, show it to me.
파악하고 보여주세요.
"음, 공식을 구하려고 했지만
to get the formula,
told me it was math
정보공개를 신청한 후
a Freedom of Information Act request,
and all their scores
기사화 했어요.
as an act of teacher-shaming.
소스코드를 찾으려고 했더니
the source code, through the same means,
접근할 수 없었어요.
had access to that formula.
got involved, Gary Rubenstein.
똑똑한 사람이 여기 관여하게 됩니다.
665명의 선생님을 찾아내 봤더니
from that New York Post data
for individual assessment.
말았어야 할 프로그램이었던 겁니다.
with 205 other teachers,
recommendations from her principal
높은 평가를 받았음에도
인공지능 과학자분들이
of you guys are thinking,
the AI experts here.
이렇게 생각하시겠죠.
an algorithm that inconsistent."
알고리즘은 절대 안 만들어."
결과로 이끌 수 있습니다.
with good intentions.
that's designed badly
모두가 알 수 있지만
silently wreaking havoc.
우리를 파멸시킵니다.
성희롱을 당했다고 했습니다.
about sexual harassment.
성공할 수 없었다고 해요.
to succeed at Fox News.
우리는 최근에도
but we've seen recently
접하고 있습니다.
to turn over another leaf?
뭘 해야 할까요?
their hiring process
바꾸면 어떨까요?
자료면 합당하겠죠.
21 years of applications to Fox News.
정도면 어때요?
4년 정도 근무하면서
stayed there for four years
될 듯한데.
이 정의에 따라
to learn what led to success,
찾아내도록 훈련한
historically led to success
지원자들에게 적용하면
to a current pool of applicants.
있을 것 같지 않기 때문이죠.
who were successful in the past.
공평해지진 않습니다.
blindly apply algorithms.
행동의 유형을 따라할 뿐입니다.
훌륭한 알고리즘이겠지만
if we had a perfect world,
don't have embarrassing lawsuits,
난처한 소송에 휘말리진 않아도
요구받고 있습니다.
성차별이나 다른 어떤 편견을
it means they could be codifying sexism
all neighborhoods
이웃도 분리되고
경찰을 보내 범죄를 조사한다고 해보죠.
only to the minority neighborhoods
아주 편향되었을 겁니다.
고용된 데이터 분석가들에게
we found the data scientists
where the next crime would occur?
예측하게 한다면 어떻게 될까요?
예측케 한다면 누가 될까요?
criminal would be?
얼마나 대단하고 정확한지
about how great and how accurate
우리는 많은 도시와 마을에서
but we do have severe segregations
법 집행에 대한 증거는 차고 넘칩니다.
and justice system data.
발생할 것 같은 장소를
범죄 가능성을 예측하죠.
the individual criminality,
recently looked into
알고리즘을 살펴 봤습니다.
선고하는 동안 사용하고 있죠.
during sentencing by judges.
10점 만점에 10점을 받았습니다.
was scored a 10 out of 10.
10점 만점에 3점을 받았고요.
3 out of 10, low risk.
10점 만점에 3점, 저위험군.
재판 중이었습니다.
for drug possession.
점수가 높으면 높을수록
the higher score you are,
있기 때문입니다.
a longer sentence.
technologists hide ugly truths
중요하면서 파괴적이기 때문에
important and destructive,
새 이름을 지었습니다.
그게 실수가 아닙니다.
and it's not a mistake.
building private algorithms
자신들만의 알고리즘을 만든 사기업입니다.
경찰관 고과평가 프로그램도
for teachers and the public police,
"비법"이라고 하고
이익을 챙기고 있죠.
the authority of the inscrutable.
사적인 문제이고
since all this stuff is private
생각하실 수도 있습니다.
will solve this problem.
많은 돈을 벌 수 있습니다.
to be made in unfairness.
이성적 참여자가 아닙니다.
in ways that we wish we weren't,
심지어 알지도 못하는 방식으로
편견에 사로잡혀 있습니다.
이걸 알고 있습니다.
자신들만의 실험으로
have consistently demonstrated this
같은 이름을 적은 지원서와
of applications to jobs out,
have white-sounding names
지원서를 여러 장 기업에 제출했는데
결과는, 늘 그랬어요.
the results -- always.
동물이라는 겁니다.
알고리즘에 투영합니다.
into the algorithms
배제하기로 한다던지 하는 식으로
about ramen noodles --
없다고 생각했죠.
수집된 자료를 신뢰하거나
picking up on past practices
아무탈 없기를 기대하겠습니까?
to emerge unscathed?
그들의 유효성을 검증해야 합니다.
검증이 필요합니다.
검증할 수 있다는 것입니다.
we can check them for fairness.
진실을 말해 줄 겁니다.
the truth every time.
We can make them better.
알고리즘을 개선할 수 있습니다.
algorithm I talked about,
재범 위험도 알고리즘에서
흑인과 백인 모두 같은 비율로
we'd have to come to terms with the fact
체포율은 흑인이 훨씬 높음을
smoke pot at the same rate
to be arrested --
네 배까지 높죠.
depending on the area.
in other crime categories,
과연 어떨까요?
the definition of success,
정의를 다시 생각하고 따져봐야 합니다.
algorithm? We talked about it.
아까 얘기했는데요.
and is promoted once?
찾는 알고리즘 말입니다.
직원이기도 합니다.
that is supported by their culture.
너무 한쪽으로 치우져 있죠.
필요가 있습니다.
the blind orchestra audition
참고할 필요가 있습니다.
are behind a sheet.
have decided what's important
듣는 사람이라는 거죠
distracted by that.
auditions started,
5배 정도 증가했습니다.
went up by a factor of five.
가치 증강 모델이 금방 탈락합니다.
for teachers would fail immediately.
완벽하지 않습니다.
the errors of every algorithm.
고려해야 합니다.
이 모델이 안 맞는 사람은 누군가요?
and for whom does this model fail?
반드시 고려해야 하는 것은
had considered that
올린 글만 보여주도록 결정하기 전에
only things that our friends had posted.
과연 어땠을까요?
one for the data scientists out there.
하나는 데이터 과학자분들 겁니다.
진실의 결정권자가 아닙니다.
not be the arbiters of truth.
of ethical discussions that happen
윤리적 토론을 번역하는 사람에 불과합니다.
책임을 요구할 필요가 있습니다.
for our algorithmic overlords.
반드시 끝나야 합니다.
in big data must end.
ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientistData skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.
Why you should listen
In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.
With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.
Cathy O'Neil | Speaker | TED.com