ABOUT THE SPEAKER
Blaise Agüera y Arcas - Software architect
Blaise Agüera y Arcas works on machine learning at Google. Previously a Distinguished Engineer at Microsoft, he has worked on augmented reality, mapping, wearable computing and natural user interfaces.

Why you should listen

Blaise Agüera y Arcas is principal scientist at Google, where he leads a team working on machine intelligence for mobile devices. His group works extensively with deep neural nets for machine perception and distributed learning, and it also investigates so-called "connectomics" research, assessing maps of connections within the brain.

Agüera y Arcas' background is as multidimensional as the visions he helps create. In the 1990s, he authored patents on both video compression and 3D visualization techniques, and in 2001, he made an influential computational discovery that cast doubt on Gutenberg's role as the father of movable type.

He also created Seadragon (acquired by Microsoft in 2006), the visualization technology that gives Photosynth its amazingly smooth digital rendering and zoom capabilities. Photosynth itself is a vastly powerful piece of software capable of taking a wide variety of images, analyzing them for similarities, and grafting them together into an interactive three-dimensional space. This seamless patchwork of images can be viewed via multiple angles and magnifications, allowing us to look around corners or “fly” in for a (much) closer look. Simply put, it could utterly transform the way we experience digital images.

He joined Microsoft when Seadragon was acquired by Live Labs in 2006. Shortly after the acquisition of Seadragon, Agüera y Arcas directed his team in a collaboration with Microsoft Research and the University of Washington, leading to the first public previews of Photosynth several months later. His TED Talk on Seadragon and Photosynth in 2007 is rated one of TED's "most jaw-dropping." He returned to TED in 2010 to demo Bing’s augmented reality maps.

Fun fact: According to the author, Agüera y Arcas is the inspiration for the character Elgin in the 2012 best-selling novel Where'd You Go, Bernadette?

More profile about the speaker
Blaise Agüera y Arcas | Speaker | TED.com
TED2007

Blaise Agüera y Arcas: How PhotoSynth can connect the world's images

ブレイス・アグエラ・ヤルカス Photosynthを実演説明

Filmed:
5,831,957 views

ブレイス・アグエラ・ヤルカスが Photosynth の実演をします。 デジタル画像への見方を変えてしまうかもしれないソフトウェアです。 Photosynth はウェブから取り出した画像を使って息を飲む夢のような風景を構築し、 それをナビゲートさせてくれます。
- Software architect
Blaise Agüera y Arcas works on machine learning at Google. Previously a Distinguished Engineer at Microsoft, he has worked on augmented reality, mapping, wearable computing and natural user interfaces. Full bio

Double-click the English transcript below to play the video.

00:25
What I'm going to showショー you first, as quickly早く as I can,
0
0
2000
最初に手早く基盤技術をお見せします
00:27
is some foundational基礎的な work, some new新しい technology技術
1
2000
4000
ちょうど1年前に買収の一部として
00:31
that we brought持ってきた to Microsoftマイクロソフト as part of an acquisition取得
2
6000
3000
Microsoft社にもっていった新テクノロジーです。
00:34
almostほぼ exactly正確に a year ago. This is Seadragonシードラゴン,
3
9000
3000
これはSeadragonで
00:37
and it's an environment環境 in whichどの you can eitherどちらか locallyローカルに or remotely遠隔に
4
12000
3000
ローカルあるいはリモートにある膨大な量の
00:40
interact相互作用する with vast広大 amounts金額 of visualビジュアル dataデータ.
5
15000
3000
ビジュアルデータを操作可能にする環境です。
00:43
We're looking at manyたくさんの, manyたくさんの gigabytesギガバイト of digitalデジタル photos写真 here
6
18000
3000
ご覧のように、 何ギガバイトものデジタル写真を
00:46
and kind種類 of seamlesslyシームレスに and continuously連続的に zoomingズーミング in,
7
21000
3000
スムーズに連続的に ズームインしたり パンしたり
00:50
panningパニング throughを通して the thing, rearranging再編成 it in any way we want.
8
25000
2000
自由にアレンジし直したりできます。
00:52
And it doesn't matter問題 how much information情報 we're looking at,
9
27000
4000
見ている情報の多さ、コレクションの規模
00:56
how big大きい these collectionsコレクション are or how big大きい the imagesイメージ are.
10
31000
3000
画像の大きさなどは問題ではありません。
00:59
Most最も of them are ordinary普通の digitalデジタル cameraカメラ photos写真,
11
34000
2000
ほとんどはデジカメで撮った写真ですが
01:01
but this one, for example, is a scanスキャン from the Libraryとしょうかん of Congress会議,
12
36000
3000
これは、米国議会図書館からスキャンしたもので
01:05
and it's in the 300 megapixelメガピクセル range範囲.
13
40000
2000
300メガピクセルほどあります。
01:08
It doesn't make any difference
14
43000
1000
でも何の違いもありません。
01:09
because the only thing that oughtすべきだ to limit限界 the performanceパフォーマンス
15
44000
3000
なぜなら、 このシステムのパフォーマンスを制限するものは
01:12
of a systemシステム like this one is the number of pixelsピクセル on your screen画面
16
47000
3000
画面表示のピクセル数だけだからです。
01:15
at any given与えられた moment瞬間. It's alsoまた、 very flexibleフレキシブル architecture建築.
17
50000
3000
また 大変柔軟なアーキテクチャになっています
01:18
This is an entire全体 book, so this is an example of non-image非画像 dataデータ.
18
53000
3000
これはまるまる1冊の本です。 画像ではないデータの1例です。
01:22
This is "Bleakブリーク House" by Dickensディケンズ. Everyすべて columnカラム is a chapter.
19
57000
5000
ディケンズの“荒涼館”です。  各段が章です。
01:27
To prove証明する to you that it's really textテキスト, and not an image画像,
20
62000
4000
これは本当にテキストであり、 画像ではありません。
01:31
we can do something like so, to really showショー
21
66000
2000
テキストだという証拠に
01:33
that this is a realリアル representation表現 of the textテキスト; it's not a picture画像.
22
68000
3000
こんな事ができます。画像ではありません。
01:37
Maybe this is a kind種類 of an artificial人工的な way to read読む an e-book電子書籍.
23
72000
2000
e-ブックを読む手段にも なるかもしれませんが
01:39
I wouldn'tしないだろう recommendお勧めする it.
24
74000
1000
お奨めはしません。
01:40
This is a more realistic現実的な case場合. This is an issue問題 of The Guardianガーディアン.
25
75000
3000
これはもっと実用的な例で、ガーディアン紙 1部分のデータです。
01:43
Everyすべて large image画像 is the beginning始まり of a sectionセクション.
26
78000
2000
大きい写真は皆、 項目の始めです。
01:45
And this really gives与える you the joy喜び and the good experience経験
27
80000
3000
本物の印刷版の雑誌や新聞を読む
01:48
of reading読書 the realリアル paper versionバージョン of a magazineマガジン or a newspaper新聞,
28
83000
5000
楽しい経験を与えてくれます。  新聞や雑誌というのは 本質的に多重スケールの
01:54
whichどの is an inherently本質的に multi-scaleマルチスケール kind種類 of medium.
29
89000
1000
メディアなのです。
01:56
We've私たちは alsoまた、 done完了 a little something
30
91000
1000
この紙面の隅に
01:57
with the cornerコーナー of this particular特に issue問題 of The Guardianガーディアン.
31
92000
3000
ちょっとした仕掛けをしました。
02:00
We've私たちは made up a fake ad広告 that's very high高い resolution解決 --
32
95000
3000
大変高い解像度のニセモノの広告をでっちあげました。
02:03
much higher高い than you'dあなたは be ableできる to get in an ordinary普通の ad広告 --
33
98000
2000
普通の広告より、ずっと高い解像度です。
02:05
and we've私たちは embedded埋め込み extra余分な contentコンテンツ.
34
100000
2000
追加のコンテンツも足しました。
02:07
If you want to see the features特徴 of this car, you can see it here.
35
102000
2000
車の特徴をここで ご覧いただけます。
02:10
Or other modelsモデル, or even technicalテクニカル specifications仕様.
36
105000
4000
ほかのモデル、 あるいは技術仕様まであります。
02:15
And this really gets取得 at some of these ideasアイデア
37
110000
2000
こういったアイデアによって
02:18
about really doing away with those limits限界 on screen画面 realリアル estateエステート.
38
113000
4000
画面サイズという制限をなくせます。
02:22
We hope希望 that this means手段 no more pop-upsポップアップ
39
117000
2000
これによりポップアップなど
02:24
and other kind種類 of rubbishごみ like that -- shouldn'tすべきではない be necessary必要.
40
119000
2000
不必要なガラクタをなくせればと願っています。
02:27
Of courseコース, mappingマッピング is one of those really obvious明らか applicationsアプリケーション
41
122000
2000
もちろん地図にも このテクノロジーは
02:29
for a technology技術 like this.
42
124000
2000
応用できます。
02:31
And this one I really won't〜されません spend費やす any time on,
43
126000
2000
今回は 時間を取れませんが
02:33
exceptを除いて to say that we have things to contribute貢献する to this fieldフィールド as well.
44
128000
2000
この領域にも使えるとだけ言っておきます。
02:37
But those are all the roads道路 in the U.S.
45
132000
2000
これは NASAの衛星画像の上に
02:39
superimposed重ね合わされた on top of a NASANASA geospatial地理空間 image画像.
46
134000
4000
米国のすべての道路を重ね合わせたものです。
02:44
So let's pull引く up, now, something elseelse.
47
139000
2000
ほかのものを見てみましょう。
02:46
This is actually実際に liveライブ on the Webウェブ now; you can go checkチェック it out.
48
141000
3000
これは現在ウェブで見られるので、確認してください。
02:49
This is a projectプロジェクト calledと呼ばれる PhotosynthPhotosynth,
49
144000
1000
Photosynthといって
02:51
whichどの really marries結婚する two different異なる technologiesテクノロジー.
50
146000
1000
2つの技術からなります
02:52
One of them is Seadragonシードラゴン
51
147000
1000
ひとつは、Seadragon
02:54
and the other is some very beautiful綺麗な computerコンピューター visionビジョン research研究
52
149000
2000
もうひとつは
02:57
done完了 by Noahノア Snavelyかわいい, a graduate卒業 student学生 at the University大学 of Washingtonワシントン,
53
152000
2000
ワシントン大学の大学院生 ノア スネーヴェリが
03:00
co-advised共同助言された by Steveスティーブ Seitzセイツ at U.W.
54
155000
2000
同大学の スティーブ サイツと
03:02
and Rickリック SzeliskiSzeliski at Microsoftマイクロソフト Research研究. A very niceいい collaborationコラボレーション.
55
157000
4000
Microsoft Researchのリック セリスキーの指導の下で行った コンピューター ビジョンの研究です。
03:07
And so this is liveライブ on the Webウェブ. It's powered動力 by Seadragonシードラゴン.
56
162000
2000
ウェブで公開され、Seadragonを使っています。
03:09
You can see that when we kind種類 of do these sortsソート of views再生回数,
57
164000
2000
画像の中に飛び込んで、このような
03:12
where we can dive潜水 throughを通して imagesイメージ
58
167000
1000
見方もできますし
03:14
and have this kind種類 of multi-resolutionマルチ解像度 experience経験.
59
169000
1000
多重のスケールも体験できます
03:16
But the spatial空間的 arrangement配置 of the imagesイメージ here is actually実際に meaningful意味のある.
60
171000
4000
この画像の空間的配置には意味があります。
03:20
The computerコンピューター visionビジョン algorithmsアルゴリズム have registered登録された these imagesイメージ together一緒に
61
175000
3000
このコンピューター ビジョン アルゴリズムは、このような画像を
03:23
so that they correspond対応する to the realリアル spaceスペース in whichどの these shotsショット --
62
178000
4000
撮影された実際の場所に対応させて登録します。
03:27
all taken撮影 near近く Grassiグラッシー Lakes in the Canadianカナダ人 Rockiesロッキー --
63
182000
2000
全てカナディアンロッキーのグラッシーレイクで
03:31
all these shotsショット were taken撮影. So you see elements要素 here
64
186000
2000
撮影されており、 連続したスライドショーや
03:33
of stabilized安定化された slide-showスライドショー or panoramicパノラマ imagingイメージング,
65
188000
4000
パノラマ風のイメージの要素を見ると
03:40
and these things have all been related関連する spatially空間的に.
66
195000
2000
全てが空間的に関連づけられています。
03:42
I'm not sure if I have time to showショー you any other environments環境.
67
197000
3000
別の場所も見ている時間はなさそうですが もっと空間を感じさせる
03:45
There are some that are much more spatial空間的.
68
200000
1000
例もあります。
03:47
I would like to jumpジャンプ straightまっすぐ to one of Noah'sノアの犬 original元の data-setsデータセット --
69
202000
3000
ノア氏のオリジナルのデータセットのひとつに進みましょう。
03:50
and this is from an early早い prototypeプロトタイプ of PhotosynthPhotosynth
70
205000
2000
これはその夏に作業を始めた
03:52
that we first got workingワーキング in the summer --
71
207000
2000
Photosynthの初期プロトのデータで
03:54
to showショー you what I think
72
209000
1000
Photosynthのテクノロジーの
03:55
is really the punchパンチ lineライン behind後ろに this technology技術,
73
210000
3000
本質がこれでわかると思います。
03:59
the PhotosynthPhotosynth technology技術. And it's not necessarily必ずしも so apparent見かけ上
74
214000
2000
ウェブサイトに載せた環境を見るだけでは
04:01
from looking at the environments環境 that we've私たちは put up on the websiteウェブサイト.
75
216000
3000
あまり良く わからないかもしれません。
04:04
We had to worry心配 about the lawyers弁護士 and so on.
76
219000
2000
法的な制約があるものですから。
04:07
This is a reconstruction再建 of Notreノート Dameダメ Cathedral大聖堂
77
222000
1000
Flickr画像から
04:09
that was done完了 entirely完全に computationally計算上
78
224000
2000
ノートルダム寺院をコンピューターで再現しました。
04:11
from imagesイメージ scraped削られた from FlickrFlickr. You just typeタイプ Notreノート Dameダメ into FlickrFlickr,
79
226000
3000
Flickrで"Notre Dame"とタイプすると
04:14
and you get some picturesピクチャー of guys in t-shirtsTシャツ, and of the campusキャンパス
80
229000
3000
Tシャツを着た人たちや キャンパスの画像などが出てきます。
04:17
and so on. And each of these orangeオレンジ conesコーン representsは表す an image画像
81
232000
4000
小さなオレンジの円錐は、それぞれこのモデルに適合することが
04:22
that was discovered発見された to belong属する to this modelモデル.
82
237000
2000
見出された画像を示しています。
04:26
And so these are all FlickrFlickr imagesイメージ,
83
241000
2000
全てFlickrの画像です。
04:28
and they've彼らは all been related関連する spatially空間的に in this way.
84
243000
3000
このように皆、空間的に関連づけられています。
04:31
And we can just navigateナビゲートする in this very simple単純 way.
85
246000
2000
簡単にナビゲートしていけます。
04:35
(Applause拍手)
86
250000
9000
(拍手)
04:44
You know, I never thought that I'd end終わり up workingワーキング at Microsoftマイクロソフト.
87
259000
2000
私もMicrosoftで仕事するなんて
04:46
It's very gratifying喜ばしい to have this kind種類 of reception受付 here.
88
261000
4000
思ってもいませんでした。  こんなに好評だなんて驚いています。
04:50
(Laughter笑い)
89
265000
3000
(笑)
04:53
I guess推測 you can see
90
268000
3000
ご推察のとおり
04:56
this is lots of different異なる typesタイプ of camerasカメラ:
91
271000
2000
いろいろなタイプのカメラがあります。
04:58
it's everything from cell細胞 phone電話 camerasカメラ to professional専門家 SLRsSLR,
92
273000
3000
携帯電話のカメラから プロ用の一眼レフまでの
05:02
quiteかなり a large number of them, stitched縫う
93
277000
1000
多数の写真を
05:03
together一緒に in this environment環境.
94
278000
1000
この環境でつなぎ合わせています。
05:04
And if I can, I'll find some of the sortソート of weird奇妙な onesもの.
95
279000
2000
変わりダネを探してみましょう。
05:08
So manyたくさんの of them are occluded閉塞した by faces, and so on.
96
283000
3000
顔が写ったものもたくさんあります。
05:13
Somewhereどこか in here there are actually実際に
97
288000
1000
確かこの辺の
05:15
a seriesシリーズ of photographs写真 -- here we go.
98
290000
1000
写真の中に…ありました
05:17
This is actually実際に a posterポスター of Notreノート Dameダメ that registered登録された correctly正しく.
99
292000
3000
ノートルダムのポスターです。  こんなのでも認識できました。
05:21
We can dive潜水 in from the posterポスター
100
296000
2000
このポスターから
05:24
to a physical物理的 view見る of this environment環境.
101
299000
3000
この環境に飛び込むことができます。
05:31
What the pointポイント here really is is that we can do things
102
306000
3000
これは社会的環境だという点が重要です。
05:34
with the socialソーシャル environment環境. This is now taking取る dataデータ from everybodyみんな --
103
309000
5000
データをあらゆる人から得ています。
05:39
from the entire全体 collective集団 memory記憶
104
314000
1000
地球の姿への
05:40
of, visually視覚的に, of what the Earth地球 looks外見 like --
105
315000
2000
集合的記憶全体からデータを取り
05:43
and linkリンク all of that together一緒に.
106
318000
1000
全てをリンクします。
05:44
All of those photos写真 become〜になる linkedリンクされた together一緒に,
107
319000
2000
全ての写真がリンクされることで
05:46
and they make something emergent緊急の
108
321000
1000
新たなものが現れます
05:47
that's greater大きい than the sum of the parts部品.
109
322000
2000
部分の集まりよりも 価値のあるものです。
05:49
You have a modelモデル that emerges出現する of the entire全体 Earth地球.
110
324000
2000
地球全体から立ち現れるモデルを手にしています。
05:51
Think of this as the long tail to Stephenスティーヴン Lawler'sローラーズ Virtualバーチャル Earth地球 work.
111
326000
5000
スティーブン ローラーの “バーチャルアース”の続きのようなものです。
05:56
And this is something that grows成長する in complexity複雑
112
331000
2000
人々が利用するにつれ複雑に成長します。
05:58
as people use it, and whoseその benefits利点 become〜になる greater大きい
113
333000
3000
ユーザーが利用するにつれ利点が
06:01
to the usersユーザー as they use it.
114
336000
2000
大きくなります。
06:03
Their彼らの own自分の photos写真 are getting取得 taggedタグ付き with meta-dataメタデータ
115
338000
2000
ユーザー自身の写真に他の人が入力した
06:05
that somebody誰か elseelse entered入った.
116
340000
1000
メタデータが埋め込まれます。
06:07
If somebody誰か bothered悩まされる to tagタグ all of these saints聖人
117
342000
3000
誰かが聖人達のデータを埋めこんでおけば
06:10
and say who they all are, then my photo写真 of Notreノート Dameダメ Cathedral大聖堂
118
345000
3000
私のノートルダム寺院の写真が
06:13
suddenly突然 gets取得 enriched豊かな with all of that dataデータ,
119
348000
2000
そのデータにより、 更に豊かなものになります。
06:15
and I can use it as an entryエントリ pointポイント to dive潜水 into that spaceスペース,
120
350000
3000
そこを入り口にして この空間に飛び込み
06:18
into that meta-verseメタ詩, usingを使用して everybodyみんな else's他の photos写真,
121
353000
2000
みんなの写真が作る仮想空間の中で
06:21
and do a kind種類 of a cross-modalクロスモーダル
122
356000
2000
様式やユーザーの垣根を超えた
06:25
and cross-userクロスユーザー socialソーシャル experience経験 that way.
123
360000
3000
社会的体験ができます。
06:28
And of courseコース, a by-product副産物 of all of that
124
363000
1000
副産物は、もちろん
06:30
is immensely非常に richリッチ virtualバーチャル modelsモデル
125
365000
2000
地球の興味深い場所全ての
06:32
of everyすべて interesting面白い part of the Earth地球, collected集めました
126
367000
2000
きわめて豊かなバーチャルモデルです。
06:35
not just from overheadオーバーヘッド flightsフライト and from satellite衛星 imagesイメージ
127
370000
3000
航空写真や、 衛星画像を集めただけのものではなく
06:38
and so on, but from the collective集団 memory記憶.
128
373000
2000
集合的記憶を集めたものなのです。
06:40
Thank you so much.
129
375000
2000
ありがとうございました。
06:42
(Applause拍手)
130
377000
11000
(拍手)
06:53
Chrisクリス Andersonアンダーソン: Do I understandわかる this right? That what your softwareソフトウェア is going to allow許す,
131
388000
4000
僕の理解は正しいですか? あなたのソフトウェアで、
06:58
is that at some pointポイント, really within以内 the next few少数 years,
132
393000
2000
ここ2~3年のうちに
07:01
all the picturesピクチャー that are shared共有 by anyone誰でも across横断する the world世界
133
396000
4000
世界中の誰でも全ての写真を共有し
07:05
are going to basically基本的に linkリンク together一緒に?
134
400000
2000
リンクできるようになるのですか?
07:07
BAABAA: Yes. What this is really doing is discovering発見する.
135
402000
2000
ええ、 やろうとしているのは実は発見です。
07:09
It's creating作成 hyperlinksハイパーリンク, if you will, betweenの間に imagesイメージ.
136
404000
3000
画像間にハイパーリンクを作成しています。
07:12
And it's doing that
137
407000
1000
画像の内容を元に
07:13
basedベース on the contentコンテンツ inside内部 the imagesイメージ.
138
408000
1000
それを行います。
07:14
And that gets取得 really excitingエキサイティング when you think about the richness豊か
139
409000
3000
多くの写真が持っている意味的情報の豊かさを考えれば、
07:17
of the semanticセマンティック information情報 that a lot of those imagesイメージ have.
140
412000
2000
これはとても すごい事です。
07:19
Like when you do a webウェブ searchサーチ for imagesイメージ,
141
414000
2000
たとえば画像のウェブ検索を行う時、
07:22
you typeタイプ in phrasesフレーズ, and the textテキスト on the webウェブ pageページ
142
417000
2000
言葉を入力しますよね。  ウェブ上のテキストは
07:24
is carrying運ぶ a lot of information情報 about what that picture画像 is of.
143
419000
3000
その画像が何であるかについて多くの情報を持っています。
07:27
Now, what if that picture画像 linksリンク to all of your picturesピクチャー?
144
422000
2000
では写真がすべてリンクし合うようになったら?
07:29
Then the amount of semanticセマンティック interconnection相互接続
145
424000
2000
意味の相互のつながりと、 そこから出てくる
07:31
and the amount of richness豊か that comes来る out of that
146
426000
1000
豊かさは実に大きい。
07:32
is really huge巨大. It's a classicクラシック networkネットワーク effect効果.
147
427000
3000
典型的なネットワーク効果が現れます。
07:35
CACA: Blaiseブレイズ, that is truly真に incredible信じられない. Congratulationsおめでとう.
148
430000
2000
ブレイスさん、 実にすばらしい。  やりましたね。
07:37
BAABAA: Thanksありがとう so much.
149
432000
1000
ありがとうございます。
Reviewed by Yasushi Aoki

▲Back to top

ABOUT THE SPEAKER
Blaise Agüera y Arcas - Software architect
Blaise Agüera y Arcas works on machine learning at Google. Previously a Distinguished Engineer at Microsoft, he has worked on augmented reality, mapping, wearable computing and natural user interfaces.

Why you should listen

Blaise Agüera y Arcas is principal scientist at Google, where he leads a team working on machine intelligence for mobile devices. His group works extensively with deep neural nets for machine perception and distributed learning, and it also investigates so-called "connectomics" research, assessing maps of connections within the brain.

Agüera y Arcas' background is as multidimensional as the visions he helps create. In the 1990s, he authored patents on both video compression and 3D visualization techniques, and in 2001, he made an influential computational discovery that cast doubt on Gutenberg's role as the father of movable type.

He also created Seadragon (acquired by Microsoft in 2006), the visualization technology that gives Photosynth its amazingly smooth digital rendering and zoom capabilities. Photosynth itself is a vastly powerful piece of software capable of taking a wide variety of images, analyzing them for similarities, and grafting them together into an interactive three-dimensional space. This seamless patchwork of images can be viewed via multiple angles and magnifications, allowing us to look around corners or “fly” in for a (much) closer look. Simply put, it could utterly transform the way we experience digital images.

He joined Microsoft when Seadragon was acquired by Live Labs in 2006. Shortly after the acquisition of Seadragon, Agüera y Arcas directed his team in a collaboration with Microsoft Research and the University of Washington, leading to the first public previews of Photosynth several months later. His TED Talk on Seadragon and Photosynth in 2007 is rated one of TED's "most jaw-dropping." He returned to TED in 2010 to demo Bing’s augmented reality maps.

Fun fact: According to the author, Agüera y Arcas is the inspiration for the character Elgin in the 2012 best-selling novel Where'd You Go, Bernadette?

More profile about the speaker
Blaise Agüera y Arcas | Speaker | TED.com