Abe Davis: New video technology that reveals an object's hidden properties
에이브 데이비스: 사물의 숨겨진 성질을 보여주는 새로운 비디오 테크놀로지
Computer vision expert Abe Davis pioneers methods to extract audio from silent digital videos, even footage shot on ordinary consumer cameras. Full bio
Double-click the English transcript below to play the video.
as a very visual thing.
시각적인 것으로 생각합니다.
or gesture with my hands while I speak,
가로질러 걷거나 손동작을 취하면
볼 수 있습니다.
that's too subtle for the human eye,
눈에 분별하기 어려운 것들도 있습니다.
인간이 보지 못하는 이 움직임을
even when humans can't.
사실을 알아냈습니다.
of a person's wrist,
of a sleeping infant,
아기 동영상이 있어요.
that these were videos,
말씀드리지 않았다면
at two regular images,
보고 있다고 생각하실 수 있습니다.
almost completely still.
of subtle motion going on here,
움직임이 일어나고 있습니다.
the wrist on the left,
손목을 만질 수 있다면
the infant on the right,
and fall of her chest
가슴이 오르락 내리락
a lot of significance,
우리에게 중요한 정보를 제공합니다.
too subtle for us to see,
식별하기에 매우 미세합니다.
what they call a motion microscope,
스콥" 이라는 걸 개발했습니다.
these subtle motions in video
미세한 움직임을 찾아내
become large enough for us to see.
그 움직임을 증폭시켜줍니다.
on the left video,
적용해 보면
this person's heart rate.
on the right video,
오른쪽 영상에 사용해 보았습니다.
that this infant takes,
눈으로 볼 수 있게 해주고,
to monitor her breathing.
관찰할 수 있습니다.
because it takes these phenomena
매우 엄청납니다.
통해 느끼는 현상들을
to experience through touch
경험하게 해주기 때문입니다.
and non-invasively.
개발자들과 함께 일하기 시작했습니다.
with the folks that created that software,
일을 시도해 보기로 했습니다.
that we can use software
시각화하는 것은 매우 멋진 일이며
as a way to extend our sense of touch.
것이라 할 수 있지 않은가.
with our ability to hear?
듣는 능력을 확장해보면 어떨까?"
소리의 진동을 촬영 할 수 있다면요?
to capture the vibrations of sound,
움직임이라고 할 수 있잖아요.
into a microphone?
소리로 변환해 본다면요?
in perspective for you.
설명해 드리겠습니다.
work by converting the motion
전기신호로 변환하도록 되어있는데
into an electrical signal,
움직이도록 설계되었습니다.
to move readily with sound
소리로 변환되어 읽히기도 합니다.
and interpreted as audio.
too subtle and too fast for us to see.
미묘하고 빨라서 확인하기 어렵죠.
with a high-speed camera
영상을 기록하고
아주 작은 미동을 추출해 낸뒤
to extract tiny motions
분석하면 어떨까요?
what sounds created them?
소리를 알아낼 수 있도록 해주지 않을까.
into visual microphones from a distance.
that you see on the right
played this sound.
-스피커를 통해 음악이 나옴-
of frames per second,
속도로 기록되었지만,
just sitting there doing nothing,
by about a micrometer.
마이크로미터 정도로
a hundredth and a thousandth
천분의 일로 나눈 정도입니다.
perceptually invisible.
눈으로 분별하기 어렵습니다.
can be perceptually invisible
육안으로는 자각하기 어려운 것이지만
충분히 있는 것으로 드러났어요.
seemingly still video
동영상을 찍은 뒤
복원해 낼 수 있었기 때문입니다.
out of so little motion?
방대한 정보를 얻을 수 있냐고요?
move by just a single micrometer,
움직인다고 합시다.
by just a thousandth of a pixel.
이미지가 이동했다고 합시다.
of pixels in it,
of the tiny motions that we see
우리가 볼 수 있는
to something pretty significant.
의미있는 움직임으로 바뀝니다.
when we figured this out.
이 사실에 대해 몹시 흥분했습니다.
a pretty important piece of the puzzle.
없었습니다.
that affect when and how well
언제, 어떻게 이 기술이
영향을 끼칩니다.
and the lens that you use;
and how loud your sound is.
음향은 얼마나 커야 하는지 말이죠
이용할지라도
with our early experiments,
깊은 주의를 기울여야 했습니다.
any of these factors wrong,
잘못된 가정이 있었다면
what the problem was.
없었기 때문입니다.
결과물로 얻었겠죠.
experiments looked like this.
다음과 같습니다.
see our high-speed camera,
초고속 카메라가 언뜻 보이시죠
by these bright lamps.
밝은 이 램프 빛입니다.
very careful in these early experiments,
모든 것에 대해 매우 조심스러웠습니다.
Little lamb! Little lamb!
날아라, 날아라! "
looks completely ridiculous.
우스꽝스러워 보입니다.
대고 소리를 지르고
we tried this on. (Laughter)
녹여버릴 정도였습니다. (웃음)
to recover this sound.
성공했기 때문입니다.
Little lamb! Little lamb!
날아라 날아라!
중요성을 띕니다.
we recovered intelligible human speech
무음의 동영상에서
낸 사례이기 때문입니다.
to modify the experiment,
시도했습니다.
or moving the object further away,
촬영 거리를 더 멀리 조정하고
더 작은 소리를 이용하기도 했습니다.
the limits of our technique,
이해하게 되었습니다.
이해한 뒤에는
볼 수 있기 때문입니다.
실험을 하게 되었습니다.
이야기를 합니다.
to a bag of chips,
about 15 feet away,
4.5 미터 정도의 거리로 옮기고
설치하였습니다.
by only natural sunlight.
from inside, next to the bag of chips.
들리는 소리는 다음과 같습니다.
whose fleece was white as snow,
날아라 날아라
that lamb was sure to go.
to recover from our silent video
방음창 밖에서 찍은
whose fleece was white as snow,
날아라 날아라
that lamb was sure to go.
that we can push these limits as well.
여러가지 다른 방법들도 시도했습니다.
이용한 실험입니다.
plugged into a laptop computer,
촬영한 것으로
the music that was playing on that laptop
음악을 복원해 내는 것이었습니다.
할 수 있을 정도였어요.
by changing the hardware that we use.
허용 한도를 시험해 보기도 했습니다.
I've shown you so far
a high-speed camera,
about a 100 times faster
핸드폰 카메라보다
to use this technique
알아냈습니다.
of what's called a rolling shutter.
효과를 이용한 것인데요
record images one row at a time,
한 줄씩 기록합니다.
during the recording of a single image,
between each row,
일어나게 되고
기록됩니다.
is that by analyzing these artifacts,
이 인위적 변형을 분석한 결과
using a modified version of our algorithm.
복원해낼 수 있었습니다.
music from before,
음악이 흘러나옵니다.
store-bought camera,
구입한 일반 카메라를 사용했습니다.
the sound that we recovered,
들려드릴텐데요
distorted this time,
소리를 들으실 것입니다.
recognize the music.
무슨 음악인지 알 수 있는 지 보세요.
주목하실 점은
is that we were able to do this
that you could literally run out
것입니다.
about surveillance.
누군가를 감시하기 위해
this technology to spy on someone.
상상하기란 그리 어렵지 않습니다.
a lot of very mature technology
감시카메라와 장비들이
from a distance for decades.
수십년간이나 해왔습니다.
to picture the vibrations of an object,
시각화 할 수 있는 방법이 생겼고
있게 해준다는 겁니다.
through which to look at the world,
일으키는 요소가 무엇인지 뿐 아니라
that cause an object to vibrate,
대해서도 알 수 있게 해줍니다.
the ways that we use video,
생각해 보고 싶어요.
to look at things,
보기 위해 동영상을 이용하는데
들을 수도 있기 때문입니다.
that we learn about the world:
알 수 있는 다른 방법이 있습니다.
찌르거나 당겨보기도 합니다.
살피기도 합니다.
still won't let us do,
동영상으로 할 수 없는 것입니다.
보여드리겠습니다.
just a few months ago,
기반으로 한 것인데,
I've shown it to a public audience.
공개하는 것입니다.
to use the vibrations in a video
기본이론을 전제로
that will let us interact with them
방식을 포착한 것인데요,
반응 하는지 알 수 있습니다.
in the shape of a human,
철사로 만든 인형입니다.
with just a regular camera.
촬영합니다.
about this camera.
특이할 것이 없습니다.
with my cell phone before.
실험하기도 했습니다.
관찰해 보고자 하는데
on the surface where it's resting
세게 두들겨 봅니다.
of regular video,
우리가 표면을 두들기는 동안 찍은
the vibrations in that video
and material properties of our object,
어떤 것인지
to create something new and interactive.
조작해 볼 수 있습니다.
and it's not a video,
아닙니다.
마우스를 갖다대서
with the object.
있기 때문입니다.
힘을 가할때 이 사물이
that we've never seen before,
시뮬레이션입니다.
five seconds of regular video.
만들어낸 것 입니다.
way to look at the world,
세상을 보는 방법입니다.
how objects will respond
새로운 상황에 대해
때문입니다.
looking at an old bridge
여러분이 낡은 다리를 보고
how would that bridge hold up
궁금해 할 수 있습니다.
that you probably want to answer
그 답을 알고 싶어 하는 것입니다.
across that bridge.
건너기 전에 말입니다.
limitations to this technique,
음원복원 기술처럼
with the visual microphone,
in a lot of situations
확인하였습니다.
이용하면 말입니다.
here's a video that I captured
하지 않았습니다.
to create this simulation.
시뮬레이션을 만들어 볼 수 있었습니다.
to a film director,
준다고 상상해 보세요.
in a shot after it's been recorded.
조정할 수 있겠죠.
at a hanging curtain,
커튼을 촬영한 것 입니다.
any motion in this video,
큰 움직임이 없습니다.
imperceptible motions and vibrations
to create this simulation.
만들 수 있습니다.
this kind of interactivity
그래픽을 통해 이런식으로
익숙해져있습니다.
and 3D models,
같은것이요.
from real objects in the real world
이러한 정보를 얻어내느 것은
a lot of potential.
매우 큰 잠재력을 지니고 있습니다.
who worked with me on these projects.
애써주신 훌륭한 분들입니다.
is only the beginning.
단지 시작에 불과합니다.
with this kind of imaging,
with common, accessible technology.
보편적인 방법을 개발할 것입니다.
really exciting to explore
ABOUT THE SPEAKER
Abe Davis - Computer scientistComputer vision expert Abe Davis pioneers methods to extract audio from silent digital videos, even footage shot on ordinary consumer cameras.
Why you should listen
MIT PhD student, computer vision wizard and rap artist Abe Davis has co-created the world’s most improbable audio instrument. In 2014, Davis and his collaborators debuted the “visual microphone,” an algorithm that samples the sympathetic vibrations of ordinary objects (such as a potato chip bag) from ordinary high-speed video footage and transduces them into intelligible audio tracks.
Davis is also the author of Caperture, a 3D-imaging app designed to create and share 3D images on any compatible smartphone.
Abe Davis | Speaker | TED.com