sponsored links
TED2006

Jeff Han: The radical promise of the multi-touch interface

ジェフ・ハンの画期的なタッチスクリーン

February 6, 2006

ジェフ・ハンが安価でスケーラブルな感圧式マルチタッチ・スクリーン・インタフェースを披露します。これはもしかするとマウスの時代の終わりを意味しているのかもしれません。

Jeff Han - Human-computer interface designer
After years of research on touch-driven computer displays, Jeff Han has created a simple, multi-touch, multi-user screen interface that just might herald the end of the point-and-click era. Full bio

sponsored links
Double-click the English subtitles below to play the video.
この場でお話できることに興奮しています
00:24
I'm really excited to be here today.
00:25
I'll show you some stuff
that's just ready to come out of the lab,
研究室で出来上がったばかりのものをこれからお目にかけます
皆さんが最初にこれを直接目にする人間となるのは 素晴らしいことです
00:29
literally, and I'm really glad
that you guys
00:31
are going to be among
the first to see it in person,
これは人がコンピュータと接する方法を
00:34
because I really think this is going
to really change
今後本当に変えるものになるでしょう
00:36
the way we interact
with machines from this point on.
ここにあるのはリアプロジェクション方式の製図台です 幅が36インチほどあって
00:39
Now, this is a rear-projected
drafting table.
00:42
It's about 36 inches wide
マルチタッチセンサを備えています キオスク端末や
00:43
and it's equipped
with a multi-touch sensor.
00:45
Normal touch sensors that you see,
対話式ホワイトボードにある通常のタッチセンサは
00:47
like on a kiosk
or interactive whiteboards,
1度に1つの点しか把握できませんが
00:49
can only register one point
of contact at a time.
これは同時に複数の点を捉えることができます
00:52
This thing allows you to have
multiple points at the same time.
両手が使えます 指を同時に動かす
00:55
They can use both my hands;
I can use chording actions;
やりたければ10本の指全部を使ってもいい
00:59
I can just go right up and use
all 10 fingers if I wanted to.
こんな具合に
01:02
You know, like that.
01:03
Now, multi-touch sensing
isn't completely new.
マルチタッチセンサというのはまったく新しいものというわけではありません
ビル バクストンのような人たちが80年代に研究していました
01:08
People like Bill Buxton have been
playing around with it in the '80s.
私のアプローチは 高解像度のものを低価格で作ること
01:11
However, the approach I built here
is actually high-resolution,
01:15
low-cost, and probably
most importantly, very scalable.
そしてさらに重要なのは スケーラブルにするということです
だからテクノロジー自体は 新たなアクセシビリティという点を別にすると
01:19
So, the technology, you know,
01:21
isn't the most exciting thing
here right now,
すごくエキサイティングなわけではありませんが
01:23
other than probably
its newfound accessibility.
ここで興味深いのはこれを使って何ができるか
01:26
What's really interesting here
is what you can do with it
01:29
and the kind of interfaces
you can build on top of it.
そしてこの上にどのようなインタフェースを作れるかということです
01:33
So let's see.
例えばこれはラバランプ アプリです
01:35
So, for instance, we have
a lava lamp application here.
01:39
Now, you can see,
ご覧の通り 両手を使い 掴んで固まりを作れます
01:41
I can use both of my hands to kind
of squeeze and put the blobs together.
手で熱を加えることができます
01:44
I can inject heat into the system here,
2本の指を使って引きちぎれます
01:47
or I can pull it apart
with two of my fingers.
まったく直感的です 使用説明書は必要なし
01:49
It's completely intuitive;
there's no instruction manual.
インタフェースがなくなったかのようです
01:52
The interface just kind of disappears.
これは元々は私のドクターコースの学生のイリヤ ローゼンバーグが作った
01:54
This started out as a screensaver app
01:55
that one of the Ph.D. students
in our lab, Ilya Rosenberg, made.
一種のスクリーンセーバーだったのですが これに載せることで本当に面白いものになりました
01:59
But I think its true identity
comes out here.
マルチタッチセンサのいいところは
02:04
Now what's great about a multi-touch
sensor is that, you know,
たくさんの指が使えるということですが
02:07
I could be doing this
with as many fingers here,
02:09
but of course multi-touch
also inherently means multi-user.
これはユーザが複数いても良いということでもあります
02:12
Chris could be interacting
with another part of Lava,
クリスがこっちの方をいじり
同時に私が別なところをいじることもできます
02:15
while I play around with it here.
02:17
You can imagine
a new kind of sculpting tool,
新しい彫刻の道具をイメージできます
02:19
where I'm kind of warming something up,
making it malleable,
温めて形を変えられるようにし 冷めるとある状態で固まるというような
02:22
and then letting it cool down
and solidifying in a certain state.
02:29
Google should have
something like this in their lobby.
Googleのロビーにはこんなのがありそうです (笑)
02:32
(Laughter)
次にお見せするのは もう少し実用的な例です 今ロードしています
02:38
I'll show you a little more
of a concrete example here,
02:41
as this thing loads.
これは写真家のライトボックスアプリです
02:43
This is a photographer's
light-box application.
02:45
Again, I can use both of my hands
to interact and move photos around.
ここでも両手を使って操作したり写真を動かしたりできます
02:49
But what's even cooler
is that if I have two fingers,
特にいいのは 2本の指を使って
02:53
I can actually grab a photo and then
stretch it out like that really easily.
写真を掴んでサッと引き伸ばせることです
パンだって 拡大だって 回転だって簡単にできます
02:57
I can pan, zoom
and rotate it effortlessly.
両手全体でもやれますし
03:01
I can do that grossly
with both of my hands,
両手の人差し指だけでもできます
03:03
or I can do it just with two fingers
on each of my hands together.
03:06
If I grab the canvas, I can do
the same thing -- stretch it out.
キャンバス自体を掴んでも同じことができます 引き延ばす
同時にもできます 一カ所を押えて
03:09
I can do it simultaneously,
holding this down,
別なところを掴み こう引き延ばせます
03:11
and gripping on another one,
stretching this out.
ここでもインタフェースが消失しています
03:14
Again, the interface just disappears here.
マニュアルはいりません 思ったとおりに動きます
03:16
There's no manual.
03:17
This is exactly what you expect,
03:19
especially if you haven't interacted
with a computer before.
コンピュータに触ったことがなければなおのことそうでしょう
100ドルノートPCのような活動で
03:23
Now, when you have initiatives
like the $100 laptop,
03:25
I kind of cringe at the idea
まったく新しい世代の人々に
03:27
of introducing a whole new
generation to computing
標準的なマウスとウィンドウを使わせるというのはどうかと思います
03:29
with this standard
mouse-and-windows-pointer interface.
03:32
This is something that I think
is really the way
これから先 私たちがコンピュータに接する方法は
03:35
we should be interacting
with machines from now on.
このようなものであるべきだと思います (拍手)
03:38
(Applause)
もちろんキーボードを出すことだってできます
03:45
Now, of course, I can bring up a keyboard.
03:47
(Laughter)
画面上で動かせます
03:52
And I can bring that around,
put that up there.
03:55
Obviously, this is a standard keyboard,
普通のキーボードですが
自分の手に合うように大きさを変えられます
03:57
but of course I can rescale it
to make it work well for my hands.
今の時代 物理的なデバイスに人が合わせなければならない
04:00
That's really important, because
there's no reason in this day and age
理由はありません
04:03
that we should be conforming
to a physical device.
それでは反復性ストレス障害みたいな悪いことが起きるだけです
04:05
That leads to bad things, like RSI.
04:07
We have so much technology nowadays
今日では進んだテクノロジーがあり
04:10
that these interfaces
should start conforming to us.
インタフェースの方が人に合わせるべきでしょう
04:14
There's so little applied now
to actually improving
インタフェースに接する方法をこういう方向から改善するというのは
04:18
the way we interact with interfaces
from this point on.
現在ほとんど行われていません
このキーボードはたぶん正しいやり方ではありませんね
04:21
This keyboard is probably actually
the really wrong direction to go.
将来このようなテクノロジーがどう発展するか想像してみてください
04:24
You can imagine, in the future,
as we develop this kind of technology,
04:27
a keyboard that kind of automatically
drifts as your hand moves away,
手の動きに合わせてキーボードも動いて
打とうと思ったキーがどれなのか知的に判断する
04:31
and really intelligently anticipates
which key you're trying to stroke.
これちょっといいと思いません?
04:35
So -- again, isn't this great?
04:39
(Laughter)
(観客: どこのラボにいるの?)
04:41
Audience: Where's your lab?
04:42
Jeff Han: I'm a research scientist
at NYU in New York.
私はニューヨーク大学の研究員です
これはまた別なアプリで このように小さなボールを作れます
04:49
Here's an example of another kind of app.
I can make these little fuzz balls.
指の動きを記録します もちろん全部の指を使えます
04:53
It'll remember the strokes I'm making.
04:55
Of course I can do it with all my hands.
お分りになると思いますが 圧力感知式になっています
04:57
It's pressure-sensitive.
04:59
What's neat about that is,
ここでも2本の指のジェスチャーで 素早くズームできます
05:01
I showed that two-finger gesture
that zooms in really quickly.
手のひらツールやら 虫眼鏡ツールやら
05:04
Because you don't have
to switch to a hand tool
切り替える必要はありません
05:06
or the magnifying glass tool,
いろいろなスケールで 同時に作り出すことができます
05:08
you can just continuously make things
05:10
in real multiple scales,
all at the same time.
こっちで大きなのを作り 素早く元の場所に戻って
05:13
I can create big things out here,
05:15
but I can go back
and really quickly go back
小さなのを作る
05:17
to where I started,
and make even smaller things here.
データ可視化のようなことをやろうとするとき これはとても重要になるでしょう
05:21
This is going to be really important
05:23
as we start getting to things
like data visualization.
たとえば私たちはみんなハンス ロスリングの講演を とても楽しみましたが
05:26
For instance, I think
we all enjoyed Hans Rosling's talk,
05:28
and he really emphasized the fact
I've been thinking about for a long time:
私も長い間考えていたことを 彼は強調していました
我々には素晴らしいデータがあるのに それが活用されていません
05:32
We have all this great data,
05:33
but for some reason,
it's just sitting there.
アクセスできずにいます その原因のある部分は
05:35
We're not accessing it.
05:37
And one of the reasons why I think that is
05:40
will be helped by things like graphics
and visualization and inference tools,
グラフィックスや可視化やインタフェースによって改善できるでしょう
中でも大きいのは 全体的なことを考えながらデータを掘り下げていける
05:45
but I also think a big part of it
05:47
is going to be having better interfaces,
優れたインタフェースだと思います
05:49
to be able to drill down
into this kind of data,
05:51
while still thinking
about the big picture here.
05:54
Let me show you another app here.
This is called WorldWind.
アプリをもう1つご覧に入れましょう
これはWorldWindで NASAが作ったものです
05:57
It's done by NASA.
05:58
We've all seen Google Earth;
みなさんGoogle Earth はご存じだと思いますが これはそのオープンソース版です
06:01
this is an open-source version of that.
06:03
There are plug-ins to be able
to load in different data sets
NASAが長年に渡って集めた様々なデータを読み込めるプラグインがあります
06:07
that NASA's collected over the years.
06:08
As you can see, I can use
the same two-fingered gestures
2本の指を使った
ジェスチャーにより シームレスに拡大していくことができます
06:11
to go down and go in really seamlessly.
06:13
There's no interface, again.
インタフェースはないようなもの 誰でも使え 思った通りに動きます
06:15
It really allows anybody
to kind of go in --
06:18
and it just does
what you'd expect, you know?
ほら インタフェースなし 単に消えてしまったかのよう
06:21
Again, there's just no interface here.
The interface just disappears.
データビューの種類を切り替えられるようになっているのがいい
06:27
I can switch to different data views.
06:28
That's what's neat about this app here.
NASAはほんとにいかしてますね
06:31
NASA's really cool.
06:32
These hyper-spectral images
are false-colored so you can --
これは色づけされたハイパースペクトル画像で 植生がわかるようになっています こちらに戻しましょう
06:35
it's really good for determining
vegetative use.
06:39
Well, let's go back to this.
この地図アプリが素晴らしいのは
06:44
The great thing
about mapping applications --
2Dだけでなく 3D表示もできることです 再びマルチタッチインタフェースを使い
06:46
it's not really 2D, it's 3D.
06:48
So, again, with a multi-point interface,
you can do a gesture like this --
このようなジェスチャーで 傾けて見ることができます
06:51
so you can be able
to tilt around like that --
2Dだけのパンや動きとは違います
06:55
(Surprised laughter)
06:56
It's not just simply relegated
to a kind of 2D panning and motion.
このジェスチャーは私たちが開発したもので
07:00
This gesture is just putting
two fingers down --
2本の指を置いて傾ける軸を決め 上下に傾けます
07:02
it's defining an axis of tilt --
and I can tilt up and down that way.
その場で思いついたものです
07:06
We just came up with that on the spot,
あまりいいやり方ではないかもしれませんが
07:08
it's probably not the right thing to do,
このようなインタフェースを使うと こういう面白いことができるのです
07:10
but there's such interesting things
you can do with this interface.
遊んでいると時間を忘れます (笑)
07:15
It's just so much fun
playing around with it, too.
07:17
(Laughter)
次のが お見せする最後になりますが
07:19
And so the last thing
I want to show you is --
これを使ったエンターテインメントを
07:22
I'm sure we can all think
of a lot of entertainment apps
いろいろ考ることができます
07:24
that you can do with this thing.
私は特に 創作のためのアプリに興味があります
07:26
I'm more interested in the creative
applications we can do with this.
このアプリは単純です 曲線を描き
07:30
Now, here's a simple application here --
I can draw out a curve.
閉じると キャラクタのようになります
07:35
And when I close it,
it becomes a character.
07:38
But the neat thing about it
is I can add control points.
これが面白いのは 制御点を設定してやると
07:41
And then what I can do is manipulate them
with both of my fingers at the same time.
指を同時に使って操作できることです
07:45
And you notice what it does.
お分りになるでしょう
07:48
It's kind of a puppeteering thing,
操り人形みたいです
07:50
where I can use as many fingers
as I have to draw and make --
たくさんの指を使って 描き…
これは中ではたくさんの数学を使っています
08:02
Now, there's a lot of actual math
going on under here
メッシュを制御し しかるべく動くようにする
08:05
for this to control this mesh
and do the right thing.
この複数の制御点を使ってメッシュを操作するテクニックは
08:10
This technique of being able to manipulate
a mesh here, with multiple control points,
実際最先端のテクノロジーなのです
08:15
is actually state of the art.
去年のSIGGRAPH で発表されました
08:17
It was released at SIGGRAPH last year.
これは私が好きな研究の例です
08:19
It's a great example
of the kind of research I really love:
コンピュータの力を使って ものに直感的でしかるべき動きを
08:22
all this compute power
to make things do the right things,
人が期待した通りの動きをさせる
08:24
intuitive things,
to do exactly what you expect.
マルチタッチ操作は 現在ヒューマン インタフェースの分野でとても活発に研究されています
08:31
So, multi-touch interaction research
is a very active field right now in HCI.
こういうことは 私だけでなく たくさんの人がやっています
08:36
I'm not the only one doing it,
a lot of other people are getting into it.
このようなテクノロジーに取り組む人は 今後さらに増えるでしょう
08:39
This kind of technology is going to let
even more people get into it,
この後の数日間で
08:42
I'm looking forward to interacting
with all of you over the next few days
皆さんの分野でどんな応用ができるかお話しできるのを楽しみにしています
08:46
and seeing how it can apply
to your respective fields.
ありがどうございました
08:48
Thank you.
(喝采)
08:50
(Applause)
Translator:Yasushi Aoki
Reviewer:Masahiro Kyushima

sponsored links

Jeff Han - Human-computer interface designer
After years of research on touch-driven computer displays, Jeff Han has created a simple, multi-touch, multi-user screen interface that just might herald the end of the point-and-click era.

Why you should listen

Jeff Han's intuitive "interface-free" computer displays -- controlled by the touch of fingertips -- will change forever the way you think about computers. At TED 2006, the audience whistled, clapped and gasped audibly as Han demoed (for the first time publicly) his prototype drafting table-cum-touch display, developed at NYU's Courant Institute of Mathematical Sciences. The demo included a virtual lightbox, where he moved photos by fingertip -- as if they were paper on a desk -- flicking them across the screen and zooming in and out by pinching two fingers together, as well as a Google Earth-like map that he tilted and flew over with simple moves.

When the demo hit the web, bloggers and YouTubers made him a bit of a megastar. (His video has been watched more than 600,000 times on YouTube alone; "Amazing," "Incredible" and "Freaking awesome" are the typical responses there. Also: "When can I buy one?") After this legendary demo, Han launched a startup called Perceptive Pixel -- and when he came back to TED2007, he and his team brought an entire interactive wall, where TEDsters lined up to play virtual guitars. His talent and reputation earned him a place on Time Magazine's 2008 list of the world's 100 Most Influential People. 

sponsored links

If you need translations, you can install "Google Translate" extension into your Chrome Browser.
Furthermore, you can change playback rate by installing "Video Speed Controller" extension.

Data provided by TED.

This website is owned and operated by Tokyo English Network.
The developer's blog is here.