English-Video.net comment policy

The comment field is common to all languages

Let's write in your language and use "Google Translate" together

Please refer to informative community guidelines on TED.com

TED2010

Blaise Agüera y Arcas: Augmented-reality maps

ブレイス・アグエラ・ヤルカスによる新世代地図の実演

Filmed
Views 1,727,418

TED2010で観衆が息を飲んだデモンストレーションにてブレイス・アグエラ・ヤルカスがマイクロソフトの拡張現実的地図の実演をお見せします。

- Software architect
Blaise Agüera y Arcas works on machine learning at Google. Previously a Distinguished Engineer at Microsoft, he has worked on augmented reality, mapping, wearable computing and natural user interfaces. Full bio

About a year and a half ago,
このTEDの場で2007年に公演をした
00:15
Stephen Lawler, who also gave a talk
スティーブン ローラ-によって、私は1年半前くらいに
00:17
here at TED in 2007 on Virtual Earth,
マイクロソフトが取り組んでいる
00:20
brought me over to become the architect of Bing Maps,
オンラインマップ Bing Maps の
00:22
which is Microsoft's online-mapping effort.
アーキテクトに取り立てられました。
00:26
In the past two and a half, we've been very hard at work
ここ2年半でオンライン上の地図の仕組みを
00:29
on redefining the way maps work online.
再定義するため一生懸命働きましたね。
00:31
And we really are seeing this in very different terms
そうして以前あったような地図サイトや
00:35
from the kind of mapping and direction site
ナビサイトとは大きく異なるものが
00:37
that one is used to.
出来てきていると思います。
00:39
So, the first thing that you might notice about the mapping site
この地図を見て初めに気付くことは
00:41
is just the fluidity of the zooming and the panning,
流れるような拡大とパンの動きでしょう。
00:43
which, if you're familiar at all with Seadragon,
Seadragonをご存知かもしれませんが
00:45
that's where it comes from.
これはその技術を使っています。
00:47
Mapping is, of course,
もちろん地図には
00:49
not just about cartography,
ただの地図だけでなく
00:51
it's also about imagery.
画像のものもあります。
00:53
So, as we zoom-in beyond a certain level
そこである解像度を越えて拡大していくと
00:55
this resolves into a kind of Sim City-like
斜め45度からのシムシティみたいな
00:58
virtual view at 45 degrees.
3D地図が見えてきます。
01:01
This can be viewed from any of the cardinal directions
全ての外観、3D構造を東西南北
01:03
to show you the 3D structure of the city, all the facades.
どこからでも見ることができます。
01:05
Now, we see this space, this three-dimensional environment,
今我々はこの3D仮想空間をあらゆるソフトが
01:08
as being a canvas on which
稼働することが出来る
01:14
all sorts of applications can play out,
真っ白なキャンバスだと思っています。
01:17
and map's directions are really just one of them.
そして道案内機能はそのうちのほんの一部なのです。
01:23
If you click on this, you'll see
ここをクリックすると
01:26
some of the ones that we've put out, just in the past couple of months
数ヶ月の間に追加してきたソフトの幾つかを
01:29
since we've launched.
見ることができます。
01:32
So, for example, a couple of days after the disaster in Haiti,
例えばハイチの大災害の2、3日後、我々は地震の
01:34
we had an earthquake map that showed
発生以前と後の衛星画像を映し出す
01:36
before and after pictures from the sky.
地震地図というものを用意していました。
01:38
This wonderful one which I don't have time to show you
今日時間の都合でお見せできないのですが、
01:40
is taking hyper-local blogs in real time
この素晴らしい機能は地元のブログにリアルタイムで
01:42
and mapping those stories, those entries
アクセスし、ブログに投稿のあるエントリーを
01:45
to the places that are referred to on the blogs.
それが言及している所の地図上に表示します。
01:47
It's wonderful.
すごいでしょ?
01:49
But I'm going to show you some more candy sort of stuff.
けど今はもう少し楽しみが持てそうな物を少しお見せしましょう。
01:52
So, we see the imagery, of course,
ここで皆さんが目にする写真は
01:55
not stopping at the sky.
衛星写真にとどまりません。
01:59
These little green bubbles represent
この小さな緑色の粒粒はユーザーが作ってくれた
02:02
photosynths that users have made.
Photosynthです。これもこれ以上
02:05
I'm not going to dive into them either, but photosynths are integrated into the map.
深入りはしませんがPhotosynthのデータを地図に埋め込むものです。
02:07
Everything that's cased in blue
青色で囲まれている個所は既に
02:10
is an area where we've taken imagery on the ground as well.
地上での画像も撮り終えてある地域です。
02:12
And so, when you fly down --
そこで下に降りていくと--
02:17
(Applause)
(拍手)
02:19
Thank you. When you fly down to the ground,
ありがとう。地上に降りていくと、
02:21
and you see this kind of panoramic imagery,
この様にパノラマ画像が見えてきます。
02:23
the first thing that you might notice is that it's not just a picture,
まず皆さんが初めに気付くことは、これは単なる写真ではなく
02:26
there's just as much three-dimensional understanding of this environment
上空からの3D画像を見ることが出来た様に
02:30
as there is of the three-dimensional city from above,
地上レベルでも環境が3次元的に把握されています。
02:33
so if I click on something to get a closer view of it,
そこでもっと近づいてみるために何かクリックしてみましょう。
02:36
then, the fact that that transition looks as it does,
3次元モデルと幾何学に基づいて
02:40
is a function of all of that geometry,
3D世界の中に実際に
02:43
all of that 3D understanding behind this model.
いるかのように移動が行われます。
02:45
Now, I'll show you a fun app
ここで1つFlickrのユーザーと
02:49
that -- we've been working on a collaboration with our friends at Flickr.
協力して作り上げた面白いやつをお見せしましょう。
02:52
This takes Flickr, georegistered imagery
Flickr上で位置登録された画像を取り込み、
02:59
and uses photosynth-like processes
Photosynthの要領で
03:02
to connect that imagery to our imagery, so --
我々の3D地図とリンクさせます。すると--
03:05
I'm not sure if that's the one I actually meant to pull up, but --
これが私がお見せしようとしたものか確証がないんですが...
03:09
(Laughter)
(「父が忍者にやられた。カラテのレッスンに金がいる」―笑い)
03:12
But notice -- this is, of course, a popular tourist site,
これは有名な観光地で
03:15
and there are lots of photos around here,
ここにはたくさんが写真ありますね
03:19
and these photos are all taken at different times.
これらはすべて違う時間帯に撮られたものです。
03:21
So this one was taken around five.
ほらこれは五時ぐらいに撮られていますね。
03:24
So that's the Flickr photo,
これがFlickrの写真であり、
03:26
that's our imagery.
我々の画像の源泉なんです。
03:28
So you really see how this kind of crowd-sourced imagery
つまり皆さんには実際にこの画像の数々が
03:30
is integrating, in a very deep way, into the map itself.
地図自体に深く統合されていることがお分かりになると思います。
03:33
(Applause)
(拍手)
03:36
Thank you.
ありがとう
03:38
(Applause)
(拍手)
03:40
There are several reasons why this is interesting
この手法が面白い理由は幾つかあるんですが
03:42
and one of them, of course, is time travel.
そのうちの一つは絶対にタイムトラベルでしょう。
03:44
And I'm not going to show you some of the wonderful historic imagery in here,
今は時間の関係でお見せ出来ないのですが
03:46
but there are some with horses and carriages and so on as well.
馬と馬車が少し映っている歴史的写真などがあります。
03:48
But what's cool about this is that, not only is it augmenting
ところでこれのすごいところといえば、一般の
03:51
this visual representation of the world
ユーザーから提供されている画像で地図を
03:54
with things that are coming in from users,
改良していっている点だけでなく、
03:56
but it also is the foundation for augmented reality,
拡張現実の基盤である点です。
03:59
and that's something that I'll be showing you more of in just a moment.
後ほど皆さんにもう少し詳しくお見せします。
04:03
Now I just made a transition indoors. That's also interesting.
今建物の内部に移動をしてみました。これも面白いんですよ。
04:06
OK, notice there's now a roof above us.
ほらここの頭上には屋根がありますね。
04:10
We're inside the Pike Place Market.
我々は今パイクプレイスマーケットの内側にいます。
04:12
And this is something that we're able to do with a backpack camera,
これはバックパックカメラによって実現しています。
04:15
so, we're now not only imaging in the street
つまり我々は車の上につけたカメラを通して
04:17
with this camera on tops of cars,
外部のみの画像を撮っているだけではなく
04:21
but we're also imaging inside.
内部の画像も撮っているのです。
04:23
And from here, we're able to do the same sorts of registration,
そして現地で我々は静止画だけでなく動画も
04:27
not only of still images, but also of video.
同じように登録することができます。
04:32
So this is something that we're now going to try
つまりこれが我々がまさに今
04:36
for the first time, live,
初めてリアルタイムで挑戦しようとしていることで
04:38
and this is really, truly, very frightening.
実際うまくいくかとても心配なんです。
04:40
(Laughter)
(笑い)
04:43
OK.
さて始めましょうか。
04:46
(Ringing)
(発信音)
04:48
All right, guys, are you there?
大丈夫か、みんな、もう着いてる?
04:50
(Noise)
(雑音)
04:52
All right. I'm hitting it. I'm punching play.
あぁ今やってる。デモを始めるとこ。
04:54
I'm live. All right. There we go.
ああステージにいるよ。よし。来たな。
04:56
So, these are our friends in Pike Place Market, the lab.
これがパイクプレイスマーケットにいる我々の仲間たちからの映像です。
04:58
(Applause)
(拍手)
05:03
So they're broadcasting this live.
彼らは今リアルタイムで中継しています。
05:12
OK, George, can you pan back over to the corner market?
オッケー、ジョージ、市場の端っこに戻れる?
05:14
Because I want to show points of interest.
みんなにお勧めのものを見せたいんだ。
05:18
No, no. The other way.
違うそっちじゃなくて逆だよ。
05:22
Yeah, yeah, back to the corner, back to the corner.
そうそっち。端っこに戻って。端っこね。
05:25
I don't want to see you guys yet.
お前らはまだ映らなくていいよ。
05:27
OK, OK, back to the corner, back to the corner, back to the corner.
わかった、わかった。端っこに戻って。端っこ端っこ。
05:31
OK, never mind.
もういいや、なんでもない。
05:37
What I wanted to show you was these points of interest
私がお見せしたかったお勧めのものというのは
05:40
over here on top of the image
画像の上の方にある赤色の点なんですが
05:42
because what that gives you a sense of is the way,
それは実際にこの場所にいたらどう使えるのか
05:44
if you're actually on the spot,
感覚を与えてくれるからです。
05:46
you can think about this --
考えてみて下さい。
05:48
this is taking a step in addition to augmented reality.
これは拡張現実からさらに一歩踏み込んだものなんです。
05:50
What the hell are you guys -- oh, sorry.
お前ら何してんだよ--ああ、すいません。
05:53
(Laughter)
(笑い)
05:55
We're doing two different --
我々は2つの異なる...
05:58
OK, I'm hanging up now.
よしわかった、もう切ろう。
06:01
We're doing two different things here.
我々はここで異なる2つの事をしています。
06:04
One of them is to take that real ...
1つはリアルタイムの...
06:06
(Laughter)
(笑い)
06:08
All right, let me just take a moment and thank the team.
では今少し時間をいただいてチームの皆に感謝したいと思います。
06:15
They've done a fantastic job of pulling this together.
彼らはこのデモ成功のため素晴しい働きをしてくれました。
06:18
(Applause)
(拍手)
06:20
I'm going to abandon them now and walk back outside.
ここで彼らとはお別れで、これからまた外に戻りたいと思います。
06:22
And while I walk outside, I'll just mention that
そして外を歩いている間、私が触れておきたいことは
06:25
here we're using this for telepresence,
我々は今これをテレプレゼンスのために
06:28
but you can equally well use this
利用しましたが、同様にこれを現地で
06:30
on the spot, for augmented reality.
拡張現実のための利用も十分に可能です。
06:32
When you use it on the spot, it means that
これを現地で利用することは世界中の
06:34
you're able to bring all of that metadata
あらゆるメタデータと情報をあなたのもとに
06:36
and information about the world to you.
取りだすことが出来るということです。
06:38
So here, we're taking the extra step of also broadcasting it.
ここではそれをさらに一歩進めて放送しました。
06:40
That was being broadcast, by the way, on a 4G network
ところで先ほどの市場からの映像は4Gネットワーク上で
06:42
from the market.
送信されていました。
06:45
All right, and now there's one last TED talk
さて、ここ数年でマイクロソフトが提供した
06:48
that Microsoft has given in the past several years.
TEDトークの中で一番新しいものは
06:51
And that's Curtis Wong, WorldWide Telescope.
カーティスウォンのWorldWide Telescopeです。
06:53
So, we're going to head over to the dumpsters,
今我々はゴミ捨て場の方に向かっています。
06:56
where it's traditional, after a long day at the market,
そこは市場での長い一日の後休憩のためや
06:58
to go out for a break, but also stare up at the sky.
空を見上げるために皆さんが訪れている場所です。
07:01
This is the integration
これはWorldWide Telescopeを
07:05
of WorldWide Telescope into our maps.
我々の地図に統合したものです。
07:07
(Applause)
(拍手)
07:10
This is the current -- thank you --
これが現在の--ありがとう--
07:12
this is the current time. If we scrub the time,
これは現在の画像ですが時間バーを動かすと
07:15
then we can see how the sky will look at different times,
異なる時間帯では違った空を見ることができます
07:17
and we can get all of this very detailed
それから我々は全ての異なる時間、日付の
07:20
information about different times, different dates:
全ての詳細な情報を参照することができます。
07:22
Let's move the moon a little higher in the sky,
もう少し上空に行って月を見てみましょう。
07:27
maybe change the date.
日付も変えた方がいいかな。
07:29
I would like to kind of zoom in on the moon.
月に少しズームしてみたいと思います。
07:33
So, this is an astronomically complete
これが天文学的に完璧に
07:39
representation of the sky
表現されている空の様子です。
07:41
integrated right into the Earth.
我々の地図と一体となっています。
07:44
All right now, I've overrun my time,
では、時間もないので、
07:46
so I've got to stop.
ここで終わりにしましょう。
07:48
Thank you all very much.
ありがとうございました。
07:50
(Applause)
(拍手)
07:52
Translated by Takahiro Shimpo
Reviewed by Yasushi Aoki

▲Back to top

About the speaker:

Blaise Agüera y Arcas - Software architect
Blaise Agüera y Arcas works on machine learning at Google. Previously a Distinguished Engineer at Microsoft, he has worked on augmented reality, mapping, wearable computing and natural user interfaces.

Why you should listen

Blaise Agüera y Arcas is principal scientist at Google, where he leads a team working on machine intelligence for mobile devices. His group works extensively with deep neural nets for machine perception and distributed learning, and it also investigates so-called "connectomics" research, assessing maps of connections within the brain.

Agüera y Arcas' background is as multidimensional as the visions he helps create. In the 1990s, he authored patents on both video compression and 3D visualization techniques, and in 2001, he made an influential computational discovery that cast doubt on Gutenberg's role as the father of movable type.

He also created Seadragon (acquired by Microsoft in 2006), the visualization technology that gives Photosynth its amazingly smooth digital rendering and zoom capabilities. Photosynth itself is a vastly powerful piece of software capable of taking a wide variety of images, analyzing them for similarities, and grafting them together into an interactive three-dimensional space. This seamless patchwork of images can be viewed via multiple angles and magnifications, allowing us to look around corners or “fly” in for a (much) closer look. Simply put, it could utterly transform the way we experience digital images.

He joined Microsoft when Seadragon was acquired by Live Labs in 2006. Shortly after the acquisition of Seadragon, Agüera y Arcas directed his team in a collaboration with Microsoft Research and the University of Washington, leading to the first public previews of Photosynth several months later. His TED Talk on Seadragon and Photosynth in 2007 is rated one of TED's "most jaw-dropping." He returned to TED in 2010 to demo Bing’s augmented reality maps.

Fun fact: According to the author, Agüera y Arcas is the inspiration for the character Elgin in the 2012 best-selling novel Where'd You Go, Bernadette?

More profile about the speaker
Blaise Agüera y Arcas | Speaker | TED.com