Zeynep Tufekci: Machine intelligence makes human morals more important
제이넵 투펙치(Zeynep Tufekci): 인공지능 시대에 더 중요해진 인간 윤리
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
as a computer programmer
컴퓨터 프로그래머 일을
came down to where I was,
And why are we whispering?"
아무도 없는데 왜 속삭이시는 거예요?"
at the computer in the room.
컴퓨터를 가리켰어요.
an affair with the receptionist.
직원과 바람을 피우고 있었죠.
if you're lying."
알 수 있을 거예요."
the laugh's on me.
결국 제가 어리석었죠.
emotional states and even lying
are very interested.
이 기술에 관심을 기울이고 있죠.
과학을 매우 좋아해서
crazy about math and science.
I'd learned about nuclear weapons,
with the ethics of science.
괌심이 많아졌습니다.
as soon as possible.
let me pick a technical field
with any troublesome questions of ethics.
없는 일을 고르기로 했습니다.
All the laughs are on me.
어리석은 생각이었네요.
are building platforms
만드는 플랫폼은
people see every day.
시스템을 통제합니다.
that could decide who to run over.
to make all sort of decisions,
의사결정에 사용되고 있고
that have no single right answers,
컴퓨터에게 묻고 있습니다.
should you be shown?"
업데이트해야 할까요?
likely to reoffend?"
가능성이 더 높을까요?"
should be recommended to people?"
추천 목록에 넣을까요?"
computers for a while,
for such subjective decisions
컴퓨터에 의지할 수는 없거든요.
for flying airplanes, building bridges,
달에 가는 것과 다르죠.
Did the bridge sway and fall?
다리가 흔들리고 무너질 것인가.
fairly clear benchmarks,
모두가 동의할 만한 기준이 있고
일을 판단하는 데에는
our software is getting more powerful,
점점 더 강력해지고 있지만
transparent and more complex.
이해하기 힘들어지고 있습니다.
have made great strides.
굉장한 진전이 있었죠.
종양을 식별할 수 있고
이길 수 있습니다.
from a method called "machine learning."
기법의 공이 큽니다.
than traditional programming,
프로그래밍과는 다릅니다.
detailed, exact, painstaking instructions.
자세한 지시를 내려야 했죠.
and you feed it lots of data,
대량의 데이터를 입력합니다.
in our digital lives.
포함해서 말이죠.
by churning through this data.
헤쳐나가면서 학습합니다.
under a single-answer logic.
논리로 작동하지 않습니다.
it's more probabilistic:
확률적 결론을 내리죠.
what you're looking for."
가능성이 높습니다."라고요.
this method is really powerful.
정말 강력하다는 겁니다.
책임자는 이를 두고
what the system learned.
우리는 알 수 없다는 겁니다.
instructions to a computer;
a puppy-machine-creature
못하는 강아지 같은 기계를
intelligence system gets things wrong.
학습할 때 문제가 발생하죠.
when it gets things right,
when it's a subjective problem.
뭐가 뭔지도 모르니까요.
했는지 알 수가 없는 거죠.
using machine-learning systems.
기계 학습 시스템입니다.
on previous employees' data
바탕으로 훈련되었을 것이고
high performers in the company.
human resources managers and executives,
그런 채용 시스템 도입을
참석한 적이 있습니다.
more objective, less biased,
객관적인 채용을 가능케 하고
and minorities a better shot
여성과 소수자에게
as a programmer,
직장 중 하나에서
come down to where I was
제가 아침 일찍부터
or really late in the afternoon,
let's go to lunch!"
라고 말했었어요.
점심 사 준다니까 항상 갔죠.
had not confessed to their higher-ups
그녀가 고용한 프로그래머가
for a serious job was a teen girl
일터에 오는 십대 학생이란 걸
I just looked wrong
입은 옷과 나이와 성별이
가리지 않은 채용은
it is more complicated, and here's why:
칼인 이유는 따로 있죠.
can infer all sorts of things about you
공개하지 않은 개인 정보도
추론할 수 있기 때문입니다.
disclosed those things.
with high levels of accuracy.
you haven't even disclosed.
such computational systems
of clinical or postpartum depression
예측하는 시스템을 개발했습니다.
the likelihood of depression
증상이 시작되기 몇 달 전에
예측할 수 있었어요.
for early intervention. Great!
사용될 거라 생각했어요. 좋은 일이죠?
채용 시스템에 적용되었습니다.
managers conference,
아까 그 학회에서
in a very large company,
다가가서 이렇게 말했습니다.
what if, unbeknownst to you,
with high future likelihood of depression?
가려내고 있다면 어떻게 될까요?
just maybe in the future, more likely.
미래에 위험 가능성이 있죠.
more likely to be pregnant
여성들을 미리 가려내고 있다면요?
but aren't pregnant now?
because that's your workplace culture?"
공격적인 사람만을 고용한다면요?"
at gender breakdowns.
판단할 수 없어요.
not traditional coding,
방식이 아닌 기계 학습이기 때문에
labeled "higher risk of depression,"
변수명은 존재하지 않아요.
what your system is selecting on,
선택하는지 모르는 것은 물론
where to begin to look.
but you don't understand it.
어떤 안전 장치를 마련하시겠어요?"
isn't doing something shady?"
just stepped on 10 puppy tails.
것처럼 쳐다보더라고요.
another word about this."
듣고 싶지 않네요."
isn't my problem, go away, death stare.
신경쓰게 하지 말라는 경고였죠.
may even be less biased
편견이 없을 수도 있어요.
지속적이고 암묵적으로
shutting out of the job market
고용 기회를 박탈할 수 있습니다.
we want to build,
의사결정을 맡기면서
to machines we don't totally understand?
바람직한 사회인가요?
on data generated by our actions,
만들어 낸 정보들로 학습을 합니다.
reflecting our biases,
그대로 반영하게 되고
could be picking up on our biases
우리에게 결과로 보여주게 됩니다.
결과를 뽑는 중이야~" 라면서요.
neutral computation."
구글 검색의 경우에는
to be shown job ads for high-paying jobs.
광고에 덜 노출된다고 합니다.
suggesting criminal history,
더 많이 나온다고 해요.
and black-box algorithms
블랙박스 속 알고리즘은
but sometimes we don't know,
우리도 모르는 사이에
was sentenced to six years in prison
경찰 수사를 거부한 죄로
in parole and sentencing decisions.
점점 더 많이 사용되고 있습니다.
How is this score calculated?
어떻게 나오는지 알고 싶었죠.
be challenged in open court.
심판받는 것을 거부했죠.
nonprofit, audited that very algorithm
비영리 수사 기구가
우연과 별다르지 않은 수준이었으며
was dismal, barely better than chance,
black defendants as future criminals
낙인찍는 확률이
높다는 것이었습니다.
picking up her godsister
카운티의 학교에 다니는
약속에 늦는 바람에
with a friend of hers.
and a scooter on a porch
자전거와 스쿠터를 발견하고는
한 여자가 뛰어나와 소리쳤죠.
a woman came out and said,
but they were arrested.
달아났지만 체포되었습니다.
but she was also just 18.
그런데 겨우 열여덟 살이었죠.
전과가 몇 건 있었죠.
for shoplifting in Home Depot --
좀도둑질을 하다가 체포되었습니다.
a similar petty crime.
armed robbery convictions.
무장강도 전과가 있었어요.
as high risk, and not him.
여자를 고위험군으로 분류했죠.
that she had not reoffended.
여성은 재범하지 않았습니다.
for her with her record.
prison term for a later crime.
현재 8년을 복역 중입니다.
this kind of unchecked power.
분명히 해야 합니다.
but they don't solve all our problems.
모든 문제를 해결하진 못합니다.
news feed algorithm --
알고리즘을 살펴 보죠.
and decides what to show you
무엇을 보여 줄지를 결정하죠.
for engagement on the site:
최적화되어 있습니다.
범행이 불확실한 상황에서
teenager by a white police officer,
사건 후, 미주리 주 퍼거슨에서
unfiltered Twitter feed,
알고리즘을 해제해 보았습니다.
keeps wanting to make you
글을 보여주려고 해서 좀 까다로웠죠.
were talking about it.
하지 않던 게 아니었습니다.
wasn't showing it to me.
막고 있었던 겁니다.
this was a widespread problem.
광범위한 문제임을 알았습니다.
wasn't algorithm-friendly.
선호할 만한 게 아니죠.
to even fewer people,
싶지 않아했고
알고리즘이 선호한 것은
아이스 버킷 챌린지였습니다.
donate to charity, fine.
한다는 취지 자체는 괜찮죠.
좋아할 만한 것이었습니다.
but difficult conversation
쟁점이 묻힐 뻔했습니다.
can also be wrong
인간과는 다른 방식으로
IBM's machine-intelligence system
누르고 우승을 차지한
with human contestants on Jeopardy?
Watson was asked this question:
마지막 문제를 보시면
for a World War II hero,
2차 대전 영웅을,
2차 대전 전투를 따서 지어졌다.
for a World War II battle."
answered "Toronto" --
a second-grader wouldn't make.
하지 않을 실수를 저질렀죠.
다른 방식으로 오작동할 수 있고
error patterns of humans,
and be prepared for.
대비하기 어렵습니다.
one is qualified for,
못한다면 기분 나쁠 거예요.
if it was because of stack overflow
과부하 오류 때문이라면
fueled by a feedback loop
반복문 오류로 주가가 폭락했고
of value in 36 minutes.
가치가 사라진 일이 있었죠.
what "error" means
일어나면 어떻게 될지
autonomous weapons.
but that's exactly my point.
저는 그래야 한다고 생각합니다.
these difficult questions.
피할 수 없습니다.
our responsibilities to machines.
a "Get out of ethics free" card.
면죄부'를 주지는 않습니다.
calls this math-washing.
이를 두고 '논리 세탁'이라 표현했죠.
scrutiny and investigation.
검수하는 능력을 길러야 합니다.
algorithmic accountability,
그리고 투명성 제고 방법을
that bringing math and computation
수학과 컴퓨터를 도입한다고 해서
invades the algorithms.
알고리즘을 주관적으로 만들죠.
컴퓨터를 이용할 수도 있을 겁니다.
to our moral responsibility to judgment,
우리 스스로가 짊어져야 합니다.
이용되어야 할 뿐이고
and outsource our responsibilities
전가하는 수단이 되어서는 안되죠.
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com