Janelle Shane: The danger of AI is weirder than you think
자넬 셰인(Janelle Shane): 생각보다 이상한 AI의 위험성
While moonlighting as a research scientist, Janelle Shane found fame documenting the often hilarious antics of AI algorithms. Full bio
Double-click the English transcript below to play the video.
all kinds of industries.
와해시키는 것으로 알려져 있죠.
new flavors could we generate
artificial intelligence?
from Kealing Middle School
existing ice cream flavors,
아이스크림 맛들을 모으고,
to see what it would generate.
알고리즘을 적용했습니다.
that the AI came up with.
맛들이 있습니다.
as we might have hoped they would be.
맛있지 않습니다.
뭐가 잘못된 거죠?
and there was a problem?
문제가 있었던 걸까요?
goes wrong with AI,
복종하기 싫다고 결정하고
the humans anymore,
thank you very much.
아주 감사하게도요.
the AI that we actually have
new things about brains
새로운 것을 배워서
don't measure up to real brains.
분명히 알 수 있죠.
like identify a pedestrian in a picture,
식별하기 같은 일을 할 수 있죠.
of what the pedestrian is
개념은 가지고 있지 않습니다.
of lines and textures and things.
덩어리 너머의 것입니다.
무엇인지 알지 못합니다.
do what we ask it to do?
우리가 요청한 것을 수행할까요?
하지 않을 수도 있습니다.
were trying to get an AI
이 로봇 부품들로
to get from Point A to Point B.
간다고 생각해 봅시다.
and solve this problem
컴퓨터 프로그래밍을 이용한다면,
computer program,
step-by-step instructions
다리가 있는 로봇으로 만드는 방법과,
into a robot with legs
to walk to Point B.
to solve the problem,
이 문제를 해결한다면,
how to solve the problem,
AI에게 알려주지 않고
via trial and error
목표에 도달할 방법을 알아내는 것이죠.
to solve this particular problem
and then falls over
B에 떨어지는 것이죠.
이건 문제를 해결하긴 합니다.
it's going to rebel against us,
우리에게 맞설 것이라는 것이 아니라,
exactly what we ask it to do.
아주 그대로 할 것이라는 겁니다.
of working with AI becomes:
어떻게 문제를 설정하느냐입니다.
so that it actually does what we want?
is being controlled by an AI.
AI가 조종합니다.
for the robot legs
to get past all these obstacles.
다리를 이용할 방법을 알아냈습니다.
이 실험을 고안할 때,
with very, very strict limits
설정해야만 했습니다.
was allowed to make the legs,
to the end of that obstacle course.
이것은 장애물 코스를 통과했습니다.
to do something as simple as just walk.
AI에게는 어렵습니다.
you may say, OK, no fair,
여러분은 아마 이렇게 말할 겁니다.
그냥 큰 탑이 돼서 넘어지면 안돼.
a tall tower and fall over,
use legs to walk.
that doesn't always work, either.
빠르게 움직이는 것입니다.
to run facing forward
알려주지 않았습니다.
when you train AI to move fast,
이런 결과를 얻을 것입니다.
and silly walks.
바보같은 걸음같은 것을 볼 수 있죠.
should have been a whole lot weirder
더 이상했어야 했던 것은
that AI will do if you give it a chance.
기회를 주면 AI가 할 또다른 일이죠.
AI를 훈련시킨다면,
hack into the simulation's math errors
해킹하는 것과 같은 방법을 배워서
by glitching repeatedly into the floor.
더 빨리 움직이는 방법을 알아내겠죠.
사람과 일하는 것과 다르고,
with some kind of weird force of nature.
일하는 것과 더 유사합니다.
give AI the wrong problem to solve,
주는 것도 쉬운 일입니다.
until something has actually gone wrong.
우리는 그걸 알아채지 못하죠.
to copy paint colors,
here on the left.
actually came up with.
고생하다, 회색 음부]
like, nice paint color names,
요청했다고 생각했는데
of letter combinations
그냥 모방하는 것이었습니다.
about what words mean,
알려주지 않았습니다.
있을 수 있다는 것도요.
in these paint colors.
is the data that I gave it.
제가 준 데이터가 전부였지요.
it doesn't know about anything else.
전혀 아는 것이 없었습니다.
to do the wrong thing.
종종 실수로 말합니다.
잉어를 식별하도록 했습니다.
this tench in pictures.
사진의 어떤 부분을
using to identify the fish,
사람의 손가락을 찾고 있을까요?
is a trophy fish,
남길만한 물고기여서,
that the AI had seen of this fish
이 물고기의 사진들은
aren't part of the fish.
아니라는 것을 몰랐죠.
to design an AI
무엇을 찾고 있는지 이해할 수 있는
what it's looking at.
왜 어려운지 알 수 있을 것입니다.
the image recognition
이미지 인식을
힘든 일인 지에 대한 이유이고
AI가 혼란스러워했기 때문입니다.
이야기해보고 싶습니다.
was using Tesla's autopilot AI,
아주 치명적인 사고를 당했습니다.
like it was designed for,
디자인되었는데
and the car failed to brake.
그 차는 서지 못했습니다.
to recognize trucks in pictures.
트럭을 인식하도록 훈련되었습니다.
trucks on highway driving,
인식하도록 훈련된 거 같아 보였습니다.
to see trucks from behind.
생각하도록 말이죠.
to happen on a highway,
고속도로에는 일어나지 않는 일이었고,
as most likely to be a road sign
안전하다고 판단한 것이죠.
from a different field.
AI의 실수가 있습니다.
on a résumé-sorting algorithm
포기해야만 했습니다.
여성을 차별한다는 것을 발견한 것이죠.
had learned to discriminate against women.
on example résumés
to avoid the résumés of people
기피하는 것을 배웠습니다.
somewhere in their resume,
‘여성’이라는 단어가 있는 사람들,
or "Society of Women Engineers."
'여성공학자협회'같은 단어말이죠.
to copy this particular thing
안된다는 것을 모르고 있었죠.
what they asked it to do.
AI는 아마존이 요청한 것을 했습니다.
to do the wrong thing.
잘못된 일을 시킨 것이죠.
and not know it.
해롭다는 것을 모를 수 있습니다.
new content in Facebook, in YouTube,
새로운 콘텐츠를 추천해주는 AI들은
the number of clicks and views.
최적화되어 있습니다.
that they have found of doing this
of conspiracy theories or bigotry.
콘텐츠를 추천하는 것입니다.
of what this content actually is,
무엇인지에 대한 개념이 없습니다.
of what the consequences might be
대한 개념도 없습니다.
발생될 결과요.
우리에게 달려있습니다.
the age-old problem of communication,
how to communicate with AI.
방법을 배워야하는 거죠.
is capable of doing and what it's not,
무엇인지 알아야 합니다.
with its tiny little worm brain,
what we're trying to ask it to do.
이해하지 못한다는 것을 알아야합니다.
to be prepared to work with AI
all-knowing AI of science fiction.
전지전능한 AI가 아닙니다.
함께 일하도록 준비해야 합니다.
in the present day.
대단히 이상합니다.
ABOUT THE SPEAKER
Janelle Shane - AI researcherWhile moonlighting as a research scientist, Janelle Shane found fame documenting the often hilarious antics of AI algorithms.
Why you should listen
Janelle Shane's humor blog, AIweirdness.com, looks at, as she tells it, "the strange side of artificial intelligence." Her upcoming book, You Look Like a Thing and I Love You: How AI Works and Why It's Making the World a Weirder Place, uses cartoons and humorous pop-culture experiments to look inside the minds of the algorithms that run our world, making artificial intelligence and machine learning both accessible and entertaining.
According to Shane, she has only made a neural network-written recipe once -- and discovered that horseradish brownies are about as terrible as you might imagine.
Janelle Shane | Speaker | TED.com