17:35
TED@BCG Paris

Blaise Agüera y Arcas: How computers are learning to be creative

ブレイス・アグエラ・ヤルカス: コンピューターはこうしてクリエイティブになる

Filmed:

我々はアートと創造性の新時代の入り口におり、その主人公は人間ではない—そう語るGoogle社の主席サイエンティストのブレイス・アグエラ・ヤルカスは、深層学習を行うニューラルネットワークで機械知覚と分散学習を実現する取り組みを進めています。画像認識用にトレーニングしたニューラルネットワークを逆に使って非常に斬新な映像を生み出すという、目を奪われるようなデモを彼は披露してくれます。コンピューターが作り出すその映像は、幻想的ですばらしく、既成のジャンル分けには当てはまらないコラージュ作品です。そればかりか、コンピューターは今や詩まで作れるといいます。彼はこう言います。「知覚と創造性の間には非常に密接な結び付きがあり、知覚行為を行う能力を有するものは創造力も兼ね備えている」

- Software architect
Blaise Agüera y Arcas works on machine learning at Google. Previously a Distinguished Engineer at Microsoft, he has worked on augmented reality, mapping, wearable computing and natural user interfaces. Full bio

So, I lead a team at Google
that works on machine intelligence;
私はGoogleで 機械知能に取り組む
開発チームを率いています
00:12
in other words, the engineering discipline
of making computers and devices
機械知能とは コンピューターや
いろいろな種類の端末に
00:15
able to do some of the things
that brains do.
人間の脳のような機能を
持たせるための技術です
00:20
And this makes us
interested in real brains
仕事上 私たちは
人間の脳の働きや
00:23
and neuroscience as well,
神経科学に関心があり
00:26
and especially interested
in the things that our brains do
脳が未だコンピューターより
はるかに優れている領域に
00:27
that are still far superior
to the performance of computers.
特に興味を持っています
00:32
Historically, one of those areas
has been perception,
そのような領域として
古くから認識されていたのは 知覚です
00:37
the process by which things
out there in the world --
知覚とは 外界に存在するもの―
00:40
sounds and images --
つまり 音や映像のようなものを
00:43
can turn into concepts in the mind.
心の中の概念に 変えるプロセスです
00:45
This is essential for our own brains,
これは 人間の脳に
本質的に備わっている能力ですが
00:48
and it's also pretty useful on a computer.
コンピューターにも 有用なものです
00:50
The machine perception algorithms,
for example, that our team makes,
例えば 私の部署で作っている
機械知覚アルゴリズムは
00:53
are what enable your pictures
on Google Photos to become searchable,
Googleフォトの画像を
00:57
based on what's in them.
写っているものに基づいて
検索できるようにする技術です
01:00
The flip side of perception is creativity:
一方 知覚と対照的なものに
創造性があります
01:03
turning a concept into something
out there into the world.
創造性とは 概念を
何かの形で世に生み出すことです
01:07
So over the past year,
our work on machine perception
この1年の我々の
機械知覚への取り組みの中で
01:10
has also unexpectedly connected
with the world of machine creativity
コンピューターによる創造
「機械芸術」の世界との
01:13
and machine art.
意外な接点を見ました
01:18
I think Michelangelo
had a penetrating insight
ミケランジェロには
先見の明があり
01:20
into to this dual relationship
between perception and creativity.
この「知覚と創造の二重の関係」を
見ていたのだと思います
01:23
This is a famous quote of his:
彼は 有名な言葉を残しています
01:28
"Every block of stone
has a statue inside of it,
「どんな石の塊にも 彫像が隠れており
01:30
and the job of the sculptor
is to discover it."
彫刻家の仕事は
その像を見出すことである」
01:34
So I think that what
Michelangelo was getting at
ミケランジェロが気づいていたのは
01:38
is that we create by perceiving,
我々は 知覚によって
創造しているということで
01:41
and that perception itself
is an act of imagination
知覚自体が 想像する行為であり
01:44
and is the stuff of creativity.
創造的なものだということです
01:47
The organ that does all the thinking
and perceiving and imagining,
人体の中で 思考 知覚 想像を行う器官は
01:50
of course, is the brain.
言うまでもなく 脳です
01:54
And I'd like to begin
with a brief bit of history
そこで 脳科学の歩みについて
01:57
about what we know about brains.
簡単に振り返りましょう
01:59
Because unlike, say,
the heart or the intestines,
心臓や腸などとは違い
02:02
you really can't say very much
about a brain by just looking at it,
脳については 外観からは
分からないことが多いからです
02:04
at least with the naked eye.
少なくとも 肉眼で見た場合には
02:08
The early anatomists who looked at brains
脳に注目した 昔の解剖学者たちは
02:09
gave the superficial structures
of this thing all kinds of fanciful names,
脳の外部構造を見て
しゃれた名前を付けました
02:12
like hippocampus, meaning "little shrimp."
例えば「海馬」
これは タツノオトシゴのことです
02:16
But of course that sort of thing
doesn't tell us very much
しかし そのように付けられた名前は
02:18
about what's actually going on inside.
その働きについて
ほとんど何も示していません
02:21
The first person who, I think, really
developed some kind of insight
脳内で起きていることについて
本当の知見を初めて得たのは
02:24
into what was going on in the brain
19世紀の 偉大な
スペイン人神経解剖学者
02:28
was the great Spanish neuroanatomist,
Santiago Ramón y Cajal,
サンティアゴ・ラモン・イ・カハールだと
02:30
in the 19th century,
私は思います
02:34
who used microscopy and special stains
彼は顕微鏡と
選択的に染める特殊な染料を使って
02:35
that could selectively fill in
or render in very high contrast
脳内の個々の細胞を
非常にはっきりした形で
02:39
the individual cells in the brain,
見られるようにし
02:43
in order to start to understand
their morphologies.
そこから 形態学的理解が
進むようになりました
02:45
And these are the kinds of drawings
that he made of neurons
19世紀に 彼が描いた
神経のイメージは
02:49
in the 19th century.
このようなものでした
02:52
This is from a bird brain.
これは 鳥の脳です
02:54
And you see this incredible variety
of different sorts of cells,
このように 驚くほど
多様な細胞があります
02:56
even the cellular theory itself
was quite new at this point.
当時は 細胞説自体が
ごく新しいものでした
02:59
And these structures,
この構造 この細胞には
03:02
these cells that have these arborizations,
樹状突起があります
03:03
these branches that can go
very, very long distances --
この突起は
非常に長く伸びうるのですが
03:06
this was very novel at the time.
これも 当時は目新しいことでした
03:08
They're reminiscent, of course, of wires.
樹状突起は 配線のようにも見えます
03:10
That might have been obvious
to some people in the 19th century;
このことは 19世紀の一部の人には
一目瞭然だったかもしれません
03:13
the revolutions of wiring and electricity
were just getting underway.
電気による革命が進み
配線が普及し始めた時代だったからです
03:17
But in many ways,
しかし いろいろな面で
03:21
these microanatomical drawings
of Ramón y Cajal's, like this one,
ラモン・イ・カハールが提示した
微細解剖学的な図は
03:23
they're still in some ways unsurpassed.
ある意味 今なお越えられていません
03:26
We're still more than a century later,
1世紀を経た今も 我々は
03:28
trying to finish the job
that Ramón y Cajal started.
ラモン・イ・カハールが始めた仕事を
完成させようと試み続けています
03:30
These are raw data from our collaborators
これは 我々が提携している
03:33
at the Max Planck Institute
of Neuroscience.
マックス・プランク神経科学研究所による
生のデータです
03:36
And what our collaborators have done
彼らが行ったのは
03:39
is to image little pieces of brain tissue.
脳の組織の小さな断片を
可視化するということです
03:41
The entire sample here
is about one cubic millimeter in size,
この試料全体の大きさは
1立方ミリメートルで
03:46
and I'm showing you a very,
very small piece of it here.
今 お見せしているのは
そのごく一部です
03:49
That bar on the left is about one micron.
左の棒の長さが
1ミクロンです
03:52
The structures you see are mitochondria
ご覧の構造は ミトコンドリアで
03:54
that are the size of bacteria.
大きさとしては
バクテリアと同程度です
03:57
And these are consecutive slices
ごく小さな組織片の
03:59
through this very, very
tiny block of tissue.
連続的断面を映しています
04:00
Just for comparison's sake,
比較のために言うと
04:04
the diameter of an average strand
of hair is about 100 microns.
髪の毛の直径は
平均約100ミクロンです
04:06
So we're looking at something
much, much smaller
ご覧のものは
髪の毛の直径よりも
04:10
than a single strand of hair.
はるかに小さいんです
04:12
And from these kinds of serial
electron microscopy slices,
このような 電子顕微鏡による
連続断面像から
04:14
one can start to make reconstructions
in 3D of neurons that look like these.
ニューロンの3次元像を
再構成できます
04:18
So these are sort of in the same
style as Ramón y Cajal.
ここでは ラモン・イ・カハールが
したのと同じように
04:23
Only a few neurons lit up,
ごく一部のニューロンだけを示しています
04:26
because otherwise we wouldn't
be able to see anything here.
そうしなければ
あまりに密集していて
04:27
It would be so crowded,
わけが分からなくなってしまいます
04:30
so full of structure,
ニューロンは 互いに結合し合った —
04:31
of wiring all connecting
one neuron to another.
非常に複雑な構造をしているためです
04:33
So Ramón y Cajal was a little bit
ahead of his time,
ラモン・イ・カハールは
時代の先を行っていて
04:37
and progress on understanding the brain
脳に対する理解は
04:40
proceeded slowly
over the next few decades.
その後の数十年で
ゆっくりと進んでいきました
04:42
But we knew that neurons used electricity,
やがて ニューロンは
電気を使っていることが発見され
04:45
and by World War II, our technology
was advanced enough
第二次世界大戦の頃には
04:48
to start doing real electrical
experiments on live neurons
仕組みの解明のため
生きたニューロンを使って
04:51
to better understand how they worked.
電気的な実験ができるくらいに
技術が進歩しました
04:54
This was the very same time
when computers were being invented,
ほぼ同時期に
コンピューターも発明されましたが
04:56
very much based on the idea
of modeling the brain --
これは 人間の脳をモデル化するという
アイデアに基づいていました
05:01
of "intelligent machinery,"
as Alan Turing called it,
コンピュータ科学の父の1人である
アラン・チューリングは
05:04
one of the fathers of computer science.
これを「知的機械」と呼びました
05:07
Warren McCulloch and Walter Pitts
looked at Ramón y Cajal's drawing
そしてウォーレン・マカロックと
ウォルター・ピッツが
05:09
of visual cortex,
ラモン・イ・カハールの
視覚野の図に 目を向けました
05:14
which I'm showing here.
今 ここでお見せしているものです
05:15
This is the cortex that processes
imagery that comes from the eye.
これは 目から受け取ったイメージを
処理する皮質です
05:17
And for them, this looked
like a circuit diagram.
2人には これが
回路図のように見えました
05:22
So there are a lot of details
in McCulloch and Pitts's circuit diagram
マカロックとピッツの回路図の
細かい部分には
05:26
that are not quite right.
間違いが たくさんありますが
05:30
But this basic idea
その基本的な概念
05:31
that visual cortex works like a series
of computational elements
つまり 視覚野は一連の
計算要素のように働き
05:32
that pass information
one to the next in a cascade,
段階的に情報を
受け渡していくという概念は
05:36
is essentially correct.
本質的に正しいものでした
05:39
Let's talk for a moment
ここで 少し時間を取って
05:41
about what a model for processing
visual information would need to do.
視覚情報処理が どんなことをするのか
説明しようと思います
05:43
The basic task of perception
知覚の基本的な仕事は
05:48
is to take an image like this one and say,
このような画像を見て 識別をすることです
05:50
"That's a bird,"
「あれは鳥だ」と
05:55
which is a very simple thing
for us to do with our brains.
人間の脳は
この処理を簡単にやってのけますが
05:56
But you should all understand
that for a computer,
コンピューターにとっては難問で
05:59
this was pretty much impossible
just a few years ago.
数年前までは ほとんど不可能でした
06:02
The classical computing paradigm
従来の コンピューターの構造は
06:05
is not one in which
this task is easy to do.
こういうタスクには不向きなんです
06:07
So what's going on between the pixels,
鳥のピクセル画像と
06:11
between the image of the bird
and the word "bird,"
「鳥」という言葉の間にあるのは
06:13
is essentially a set of neurons
connected to each other
ニューラルネットワークの中の
06:17
in a neural network,
結合しあった 一連のニューロンです
06:20
as I'm diagramming here.
図示すると こうなります
06:22
This neural network could be biological,
inside our visual cortices,
このニューラルネットワークは
視覚野内に生物学的なものとして存在し
06:23
or, nowadays, we start
to have the capability
また最近では コンピューター上に
06:26
to model such neural networks
on the computer.
モデル化できるようになりました
06:28
And I'll show you what
that actually looks like.
どのように動作するか お見せしましょう
06:31
So the pixels you can think
about as a first layer of neurons,
画像は ニューロンの
第1層を示しています
06:34
and that's, in fact,
how it works in the eye --
これは目で言うと
06:37
that's the neurons in the retina.
網膜内のニューロンに相当します
06:39
And those feed forward
情報は
06:41
into one layer after another layer,
after another layer of neurons,
ニューロンの1つの層から別の層へと
次々と受け渡され
06:43
all connected by synapses
of different weights.
ニューロン同士は 重みの異なる
シナプスでつながれています
06:46
The behavior of this network
このネットワークの動作は
06:49
is characterized by the strengths
of all of those synapses.
シナプス結合の
強さによって変わり
06:50
Those characterize the computational
properties of this network.
それが ネットワークの
計算的特徴を決めます
06:54
And at the end of the day,
そうして最終的には
06:57
you have a neuron
or a small group of neurons
少数のニューロン群が反応し
06:59
that light up, saying, "bird."
「鳥」だと認識されます
07:01
Now I'm going to represent
those three things --
ここで3つの対象物 ―
07:03
the input pixels and the synapses
in the neural network,
入力されたピクセル
ニューラルネットワーク内のシナプス
07:06
and bird, the output --
出力である「鳥」
07:11
by three variables: x, w and y.
この3つを
「x」「w」「y」と置きましょう
07:13
There are maybe a million or so x's --
xは 画像中のピクセルなので
07:16
a million pixels in that image.
100万個くらいあり
07:18
There are billions or trillions of w's,
wは数十億から数兆個
07:20
which represent the weights of all
these synapses in the neural network.
ニューラルネット内の全シナプスの
結合強度を表します
07:23
And there's a very small number of y's,
このネットワークからの
出力である
07:26
of outputs that that network has.
yの個数はごくわずかです
07:28
"Bird" is only four letters, right?
「bird」は たった4文字ですよね?
07:30
So let's pretend that this
is just a simple formula,
ここで 次の簡単な式が
成立すると仮定します
07:33
x "x" w = y.
x “×” w =y
07:36
I'm putting the times in scare quotes
「かける」に引用符を付けたのは
07:38
because what's really
going on there, of course,
この場面で実行される演算は
07:40
is a very complicated series
of mathematical operations.
実際には 非常に複雑な
数学的な計算だからです
07:43
That's one equation.
1つの方程式があって
07:47
There are three variables.
3個の変数があります
07:48
And we all know
that if you have one equation,
ご存じのように
3つの変数のうち 2つの値が分かれば
07:50
you can solve one variable
by knowing the other two things.
残りの変数の値も求められます
07:52
So the problem of inference,
ここでの問題は
07:57
that is, figuring out
that the picture of a bird is a bird,
鳥の画像から
08:00
is this one:
それが鳥だと推論する
ということでした
08:03
it's where y is the unknown
and w and x are known.
つまり y が未知で
xとwが分かっています
08:04
You know the neural network,
you know the pixels.
画像 x と ネットワーク w は
与えられています
08:08
As you can see, that's actually
a relatively straightforward problem.
ご覧のように
比較的単純な問題です
08:10
You multiply two times three
and you're done.
2と3を掛け合わせれば
答えは出ます
08:14
I'll show you an artificial neural network
我々が最近構築した
ニューラルネットワークでは
08:16
that we've built recently,
doing exactly that.
まさに これを実行しています
08:19
This is running in real time
on a mobile phone,
携帯電話上で
リアルタイムで処理をしています
08:21
and that's, of course,
amazing in its own right,
こんなに すごいことができるのも
08:24
that mobile phones can do so many
billions and trillions of operations
現在の携帯電話では 1秒当たり
数十億~数兆の命令を
08:27
per second.
実行できるからです
08:31
What you're looking at is a phone
ご覧いただいているのは
08:32
looking at one after another
picture of a bird,
携帯電話で次々に出す
鳥の画像に対し
08:34
and actually not only saying,
"Yes, it's a bird,"
ニューラルネットが
「これは鳥だ」と言うだけでなく
08:37
but identifying the species of bird
with a network of this sort.
鳥の種類まで
特定しているところです
08:40
So in that picture,
この式で言うと
08:44
the x and the w are known,
and the y is the unknown.
xとwが既知で yが未知の場合です
08:46
I'm glossing over the very
difficult part, of course,
ここで 難しい部分を はしょっていました
08:50
which is how on earth
do we figure out the w,
wは そもそも
どうやって求めたらいいのか
08:53
the brain that can do such a thing?
脳がやっているようなことですが
08:56
How would we ever learn such a model?
人間は どうやって学ぶのでしょう?
08:59
So this process of learning,
of solving for w,
この学習プロセス
wを解くという問題は
09:01
if we were doing this
with the simple equation
変数が数値の 簡単な式であれば
09:04
in which we think about these as numbers,
どうすればよいか分かります
09:07
we know exactly how to do that: 6 = 2 x w,
6=2×w を解くには
09:09
well, we divide by two and we're done.
両辺を2で割れば済みます
09:12
The problem is with this operator.
ここで問題になるのは
この演算子です
09:16
So, division --
今 割り算をしましたが
09:18
we've used division because
it's the inverse to multiplication,
それは割り算が
掛け算の逆演算だからです
09:19
but as I've just said,
しかし 先ほど言ったとおり
09:23
the multiplication is a bit of a lie here.
掛け算と見るのには ウソがあり
09:24
This is a very, very complicated,
very non-linear operation;
実際には とても複雑な非線形演算で
09:27
it has no inverse.
逆演算が存在しません
09:30
So we have to figure out a way
to solve the equation
だから 除算演算子を使わずに
09:32
without a division operator.
これを解かなければなりません
09:35
And the way to do that
is fairly straightforward.
でも そのやり方はそう難しくありません
09:37
You just say, let's play
a little algebra trick,
代数学的な ちょっとしたワザを使うんです
09:39
and move the six over
to the right-hand side of the equation.
まず「6」を式の右辺に移します
09:42
Now, we're still using multiplication.
依然として乗算を使っています
09:45
And that zero -- let's think
about it as an error.
そして 左辺の「0」を誤差と考えます
09:47
In other words, if we've solved
for w the right way,
つまり wを正しく求められれば
09:51
then the error will be zero.
誤差の値は0になります
09:53
And if we haven't gotten it quite right,
wの値が 正しくない場合
09:55
the error will be greater than zero.
誤差は0より大きくなります
09:57
So now we can just take guesses
to minimize the error,
誤差の値が最小になるよう
推量をします
09:59
and that's the sort of thing
computers are very good at.
こういう処理なら
コンピューターは大得意です
10:02
So you've taken an initial guess:
最初の推測値として
10:05
what if w = 0?
w=0では どうでしょう?
10:06
Well, then the error is 6.
誤差は6です
10:08
What if w = 1? The error is 4.
w=1の場合 誤差は4
10:09
And then the computer can
sort of play Marco Polo,
マルコ・ポーロ式鬼ごっこのような調子で
10:10
and drive down the error close to zero.
誤差を0に近づけていき
10:13
As it does that, it's getting
successive approximations to w.
そうやってwの近似値を求めます
10:15
Typically, it never quite gets there,
but after about a dozen steps,
通常 正解そのものにたどり着くことは
ありませんが
10:19
we're up to w = 2.999,
which is close enough.
数十回繰り返すと w=2.999のような
十分近い値が求まります
10:22
And this is the learning process.
これが 学習プロセスです
10:28
So remember that what's been going on here
ここで改めて 思い出してください
10:30
is that we've been taking
a lot of known x's and known y's
私たちがやっていたのは
既知の xとyに対し
10:32
and solving for the w in the middle
through an iterative process.
反復的プロセスによって
真ん中の wの値を求めるということです
10:37
It's exactly the same way
that we do our own learning.
これは人間がものごとを学習するのと
同じやり方です
10:40
We have many, many images as babies
赤ちゃんのとき
たくさんの絵を見せられ
10:44
and we get told, "This is a bird;
this is not a bird."
「これは鳥 これは鳥じゃない」と
教わります
10:46
And over time, through iteration,
この学習を反復することで
10:49
we solve for w, we solve
for those neural connections.
wを解いて
神経結合を作り出すんです
10:51
So now, we've held
x and w fixed to solve for y;
xと w に対して
y を求めるというのは
10:55
that's everyday, fast perception.
高速な日常的「知覚」です
10:59
We figure out how we can solve for w,
w を求める方法を
先ほど考えましたが
11:01
that's learning, which is a lot harder,
これは「学習」であり
ずっと難しいことです
11:03
because we need to do error minimization,
なぜなら 多くの訓練例を使って
11:05
using a lot of training examples.
誤差を最小化する必要が
あるからです
11:07
And about a year ago,
Alex Mordvintsev, on our team,
1年ほど前 私のチームの
アレックス・モードヴィンツェフは
11:08
decided to experiment
with what happens if we try solving for x,
既知の w と y に対して
x の値を求めるとどうなるか
11:12
given a known w and a known y.
実験してみることにしました
11:15
In other words,
言い換えると
11:18
you know that it's a bird,
鳥に対してトレーニングされた
ニューラルネットが
11:19
and you already have your neural network
that you've trained on birds,
鳥だと答えを出す
11:20
but what is the picture of a bird?
「鳥の絵」はどんなものか
ということです
11:24
It turns out that by using exactly
the same error-minimization procedure,
鳥を認識するネットワークを訓練するのと
同じ誤差最小化の手順が
11:27
one can do that with the network
trained to recognize birds,
この場合も使えることが
分かりました
11:32
and the result turns out to be ...
結果として出てきたのは —
11:35
a picture of birds.
一種の鳥の絵です
11:42
So this is a picture of birds
generated entirely by a neural network
これは「鳥」を認識するように訓練した
ニューラルネットワークによって
11:44
that was trained to recognize birds,
生成された鳥のイメージです
11:48
just by solving for x
rather than solving for y,
yの値を求めるかわりに
11:50
and doing that iteratively.
反復によって xを求めたんです
11:53
Here's another fun example.
別の面白い例を 紹介しましょう
11:55
This was a work made
by Mike Tyka in our group,
私のグループのマイク・タイカが
作ってくれたものです
11:57
which he calls "Animal Parade."
マイクは「動物のパレード」と呼んでました
12:01
It reminds me a little bit
of William Kentridge's artworks,
ウィリアム・ケントリッジの作品を
思わせます
12:03
in which he makes sketches, rubs them out,
ケントリッジは
スケッチを描いては消し
12:06
makes sketches, rubs them out,
また 描いては消しして
12:08
and creates a movie this way.
アニメーションを作り出します
12:10
In this case,
この場合
12:11
what Mike is doing is varying y
over the space of different animals,
マイクは 動物種の集合の中で
yの値を変えていて
12:12
in a network designed
to recognize and distinguish
動物の種類を識別するよう
設計された
12:16
different animals from each other.
ネットワークを使っています
12:18
And you get this strange, Escher-like
morph from one animal to another.
エッシャーのだまし絵のように
動物が別の動物へと変形していきます
12:20
Here he and Alex together
have tried reducing
次は マイクとアレックスが
協力して作ったもので
12:26
the y's to a space of only two dimensions,
y を二次元空間に
収めようと試みていて
12:30
thereby making a map
out of the space of all things
ネットワークが認識するもの
全てを含む空間の
12:33
recognized by this network.
地図を作っています
12:37
Doing this kind of synthesis
この画像合成・画像生成を
12:38
or generation of imagery
over that entire surface,
yの値を変化させながら
画面全体にわたって行うことで
12:40
varying y over the surface,
you make a kind of map --
このような地図が できあがります
12:43
a visual map of all the things
the network knows how to recognize.
ネットワークが認識するものすべての
視覚地図です
12:46
The animals are all here;
"armadillo" is right in that spot.
いろんな動物が現れます
あそこにアルマジロがいますね
12:49
You can do this with other kinds
of networks as well.
他のネットワークでも
同様の処理が実行できます
12:52
This is a network designed
to recognize faces,
これは 人物の顔を見分ける―
12:55
to distinguish one face from another.
顔認識のために設計された
ネットワークです
12:58
And here, we're putting
in a y that says, "me,"
ここで yは「私」です
13:00
my own face parameters.
私の顔をパラメータにして
13:03
And when this thing solves for x,
このネットワークを使い
xの値を求めると
13:05
it generates this rather crazy,
かなり ぶっ飛んだ
画像が作られます
13:06
kind of cubist, surreal,
psychedelic picture of me
キュービズムというか シュールというか
サイケな感じの 私の絵です
13:09
from multiple points of view at once.
複数の視点を
1つにまとめています
13:14
The reason it looks like
multiple points of view at once
このように 複数の視点が
1つになっている理由は
13:15
is because that network is designed
to get rid of the ambiguity
このネットワークが あいまいさを除去する
設計になっているためです
13:18
of a face being in one pose
or another pose,
人の顔の見え方は
見る角度によって変わり
13:22
being looked at with one kind of lighting,
another kind of lighting.
光の当たり方によっても
変わります
13:24
So when you do
this sort of reconstruction,
だから このような再構成を行う場合
13:28
if you don't use some sort of guide image
ガイドとなる画像や
統計値がないと
13:30
or guide statistics,
視点に関して
13:32
then you'll get a sort of confusion
of different points of view,
混乱が生じるんです
13:33
because it's ambiguous.
あいまいさがあるためです
13:37
This is what happens if Alex uses
his own face as a guide image
ここでは 私の顔を再構成する
最適化プロセスで
13:39
during that optimization process
to reconstruct my own face.
アレックスの顔の映像を
ガイドとして使っています
13:44
So you can see it's not perfect.
完璧とは言えず
13:48
There's still quite a lot of work to do
この最適化プロセスを
改善するために
13:50
on how we optimize
that optimization process.
やることは まだまだありますが
13:52
But you start to get something
more like a coherent face,
とりあえず
顔をガイドとして使うことで
13:55
rendered using my own face as a guide.
統一感のあるイメージが
できるようになります
13:57
You don't have to start
with a blank canvas
別に 真っ白なキャンバスや
14:00
or with white noise.
ホワイトノイズから
始める必要はありません
14:03
When you're solving for x,
xを求めるという場合
14:04
you can begin with an x,
that is itself already some other image.
xとして 何か別の画像から
出発してもいいんです
14:05
That's what this little demonstration is.
それを説明するデモを
お見せしましょう
14:09
This is a network
that is designed to categorize
これは 人工物であれ 動物であれ
14:12
all sorts of different objects --
man-made structures, animals ...
あらゆるものを分類するよう
設計されたネットワークです
14:16
Here we're starting
with just a picture of clouds,
この雲の写真からスタートします
14:19
and as we optimize,
これを最適化すると
14:22
basically, this network is figuring out
what it sees in the clouds.
このネットワークは
「雲の中に何が見えるか」を探します
14:24
And the more time
you spend looking at this,
画面をじっと見ているうちに
14:28
the more things you also
will see in the clouds.
雲の中に いろんなものが
見えてきます
14:31
You could also use the face network
to hallucinate into this,
これに顔認識ネットワークを使うと
幻覚っぽい映像になります
14:35
and you get some pretty crazy stuff.
ちょっと頭がおかしくなりそうな
14:38
(Laughter)
(笑)
14:40
Or, Mike has done some other experiments
マイクはまた
14:42
in which he takes that cloud image,
この雲の画像で 別の実験もしています
14:45
hallucinates, zooms, hallucinates,
zooms hallucinates, zooms.
幻視とズームを繰り返していくと
14:49
And in this way,
こんな感じに
14:52
you can get a sort of fugue state
of the network, I suppose,
フーガのような 自由連想のような映像を
14:53
or a sort of free association,
このネットワークから 作り出せます
14:57
in which the network
is eating its own tail.
ネットワークが
自分の尻尾を食べています
15:01
So every image is now the basis for,
それそれのイメージが
次のイメージのベースになっています
15:03
"What do I think I see next?
「次に 何が見える?
15:06
What do I think I see next?
What do I think I see next?"
次に 何が見える?
次に 何が見える?」という風に
15:08
I showed this for the first time in public
ちなみに
このデモを 最初に披露したのは
15:11
to a group at a lecture in Seattle
called "Higher Education" --
シアトルで開かれた
「高等教育」と題した講演会で
15:14
this was right after
marijuana was legalized.
マリファナが合法化された
直後のことでした
15:19
(Laughter)
(笑)
15:22
So I'd like to finish up quickly
最後にまとめとして
15:26
by just noting that this technology
is not constrained.
この技術は お見せしたようなものに
限定されないことを指摘しておきます
15:28
I've shown you purely visual examples
because they're really fun to look at.
今回は視覚的にちょっと面白い例を
紹介しましたが
15:33
It's not a purely visual technology.
別に 視覚のテクノロジー
というわけではないんです
15:36
Our artist collaborator, Ross Goodwin,
我々の協力者でアーティストの
ロス・グッドウィンによる実験ですが
15:39
has done experiments involving
a camera that takes a picture,
彼がカメラで写真を撮ると
15:41
and then a computer in his backpack
writes a poem using neural networks,
その写真の中身を元に
背負っているコンピューターが
15:44
based on the contents of the image.
ニューラルネットワークで
詩を書きます
15:49
And that poetry neural network
has been trained
詩のニューラルネットワークは
15:51
on a large corpus of 20th-century poetry.
20世紀の詩の 膨大なコーパスで
トレーニングされています
15:54
And the poetry is, you know,
そうやって書かれた詩は
15:56
I think, kind of not bad, actually.
どうして そう悪くないと思います
15:57
(Laughter)
(笑)
15:59
In closing,
まとめになりますが
16:01
I think that per Michelangelo,
ミケランジェロは正しかったと
16:02
I think he was right;
つくづく思います
16:04
perception and creativity
are very intimately connected.
知覚と創造性とは
密接に結びついているんです
16:05
What we've just seen are neural networks
先ほどお見せした
ニューラルネットワークは
16:09
that are entirely trained to discriminate,
世の中の さまざまなものを区別するよう
16:12
or to recognize different
things in the world,
学習させたものですが
16:14
able to be run in reverse, to generate.
処理を逆転させて
新しいものを作り出すこともできます
16:16
One of the things that suggests to me
そこで気づかされるのは
16:20
is not only that
Michelangelo really did see
石の塊の中に 彫刻を見ることができるのは
16:21
the sculpture in the blocks of stone,
ミケランジェロだけではないということ
16:24
but that any creature,
any being, any alien
どんな生物であれ どんな存在
地球外生命体だろうと
16:26
that is able to do
perceptual acts of that sort
知覚を行う能力のあるものは
16:30
is also able to create
創造もできるということです
16:34
because it's exactly the same
machinery that's used in both cases.
どちらも同じメカニズムで
できることだからです
16:35
Also, I think that perception
and creativity are by no means
そして 知覚と創造は
16:38
uniquely human.
決して 人間に限られたものではありません
16:43
We start to have computer models
that can do exactly these sorts of things.
私たちは そのようなことができる
コンピューターモデルを作り始めています
16:44
And that ought to be unsurprising;
the brain is computational.
驚くことではありません
脳もまた計算機械だからです
16:48
And finally,
最後に
16:51
computing began as an exercise
in designing intelligent machinery.
コンピューティングは
知的機械の設計から始まり
16:53
It was very much modeled after the idea
機械はいかに知的になれるか
という発想から
16:57
of how could we make machines intelligent.
モデル化されましたが
17:00
And we finally are starting to fulfill now
今や我々は 昔の先駆者が
夢見た世界を
17:03
some of the promises
of those early pioneers,
ようやく実現させつつあります
17:05
of Turing and von Neumann
チューリングやフォン・ノイマンの夢
17:08
and McCulloch and Pitts.
マカロックやピッツの夢を
17:09
And I think that computing
is not just about accounting
コンピューティングは 会計処理だとか
17:12
or playing Candy Crush or something.
キャンディークラッシュで
遊ぶだけのものではありません
17:16
From the beginning,
we modeled them after our minds.
コンピューターはそもそも
人間の脳をモデルとしたものでしたが
17:18
And they give us both the ability
to understand our own minds better
それは 人間の知性を
よりよく理解するためにも
17:21
and to extend them.
人間の知性を拡張するためにも
使えるのです
17:24
Thank you very much.
ありがとうございました
17:26
(Applause)
(拍手)
17:27
Translated by Kaori Nozaki
Reviewed by Yasushi Aoki

▲Back to top

About the Speaker:

Blaise Agüera y Arcas - Software architect
Blaise Agüera y Arcas works on machine learning at Google. Previously a Distinguished Engineer at Microsoft, he has worked on augmented reality, mapping, wearable computing and natural user interfaces.

Why you should listen

Blaise Agüera y Arcas is principal scientist at Google, where he leads a team working on machine intelligence for mobile devices. His group works extensively with deep neural nets for machine perception and distributed learning, and it also investigates so-called "connectomics" research, assessing maps of connections within the brain.

Agüera y Arcas' background is as multidimensional as the visions he helps create. In the 1990s, he authored patents on both video compression and 3D visualization techniques, and in 2001, he made an influential computational discovery that cast doubt on Gutenberg's role as the father of movable type.

He also created Seadragon (acquired by Microsoft in 2006), the visualization technology that gives Photosynth its amazingly smooth digital rendering and zoom capabilities. Photosynth itself is a vastly powerful piece of software capable of taking a wide variety of images, analyzing them for similarities, and grafting them together into an interactive three-dimensional space. This seamless patchwork of images can be viewed via multiple angles and magnifications, allowing us to look around corners or “fly” in for a (much) closer look. Simply put, it could utterly transform the way we experience digital images.

He joined Microsoft when Seadragon was acquired by Live Labs in 2006. Shortly after the acquisition of Seadragon, Agüera y Arcas directed his team in a collaboration with Microsoft Research and the University of Washington, leading to the first public previews of Photosynth several months later. His TED Talk on Seadragon and Photosynth in 2007 is rated one of TED's "most jaw-dropping." He returned to TED in 2010 to demo Bing’s augmented reality maps.

Fun fact: According to the author, Agüera y Arcas is the inspiration for the character Elgin in the 2012 best-selling novel Where'd You Go, Bernadette?

More profile about the speaker
Blaise Agüera y Arcas | Speaker | TED.com