ABOUT THE SPEAKER
Blaise Agüera y Arcas - Software architect
Blaise Agüera y Arcas works on machine learning at Google. Previously a Distinguished Engineer at Microsoft, he has worked on augmented reality, mapping, wearable computing and natural user interfaces.

Why you should listen

Blaise Agüera y Arcas is principal scientist at Google, where he leads a team working on machine intelligence for mobile devices. His group works extensively with deep neural nets for machine perception and distributed learning, and it also investigates so-called "connectomics" research, assessing maps of connections within the brain.

Agüera y Arcas' background is as multidimensional as the visions he helps create. In the 1990s, he authored patents on both video compression and 3D visualization techniques, and in 2001, he made an influential computational discovery that cast doubt on Gutenberg's role as the father of movable type.

He also created Seadragon (acquired by Microsoft in 2006), the visualization technology that gives Photosynth its amazingly smooth digital rendering and zoom capabilities. Photosynth itself is a vastly powerful piece of software capable of taking a wide variety of images, analyzing them for similarities, and grafting them together into an interactive three-dimensional space. This seamless patchwork of images can be viewed via multiple angles and magnifications, allowing us to look around corners or “fly” in for a (much) closer look. Simply put, it could utterly transform the way we experience digital images.

He joined Microsoft when Seadragon was acquired by Live Labs in 2006. Shortly after the acquisition of Seadragon, Agüera y Arcas directed his team in a collaboration with Microsoft Research and the University of Washington, leading to the first public previews of Photosynth several months later. His TED Talk on Seadragon and Photosynth in 2007 is rated one of TED's "most jaw-dropping." He returned to TED in 2010 to demo Bing’s augmented reality maps.

Fun fact: According to the author, Agüera y Arcas is the inspiration for the character Elgin in the 2012 best-selling novel Where'd You Go, Bernadette?

More profile about the speaker
Blaise Agüera y Arcas | Speaker | TED.com
TED@BCG Paris

Blaise Agüera y Arcas: How computers are learning to be creative

Blaise Agüera y Arcas: Como computadores estão aprendendo a ser criativos

Filmed:
1,934,067 views

Estamos à beira de uma nova fronteira na arte e na criatividade e, não é humana. Blaise Agüera y Arcas, principal cientista do Google, trabalha com complexas redes neurais para a percepção da máquina e aprendizagem distribuída. Nesta apresentação fascinante, ele mostra como redes neurais treinadas para reconhecer imagens podem ser executadas em sentido inverso, para gerá-las. Resultado: colagens alucinatórias (e poemas!) espetaculares que desafiam a categorização. "Percepção e criatividade estão intimamente ligadas", diz Agüera y Arcas. "Qualquer criatura, qualquer ser que é capaz de fazer atos de percepção, também é capaz de criar."
- Software architect
Blaise Agüera y Arcas works on machine learning at Google. Previously a Distinguished Engineer at Microsoft, he has worked on augmented reality, mapping, wearable computing and natural user interfaces. Full bio

Double-click the English transcript below to play the video.

00:12
So, I lead a team at Google
that works on machine intelligence;
0
800
3124
Coordeno uma equipe no Google
que lida com I.A.;
em outras palavras, a engenharia
de fazer computadores e aparelhos
00:15
in other words, the engineering discipline
of making computers and devices
1
3948
4650
capazes de criar coisas que o cérebro faz.
00:20
able to do some of the things
that brains do.
2
8622
2419
E isso faz com que nos interessemos
por cérebros reais
00:23
And this makes us
interested in real brains
3
11439
3099
e também por neurociência,
00:26
and neuroscience as well,
4
14562
1289
00:27
and especially interested
in the things that our brains do
5
15875
4172
e nos interessamos, principalmente,
por coisas que nosso cérebro faz
que ainda são muito superiores
à performance dos computadores.
00:32
that are still far superior
to the performance of computers.
6
20071
4042
00:37
Historically, one of those areas
has been perception,
7
25209
3609
Historicamente, uma das áreas
tem sido percepção,
o processo pelo qual as coisas abstratas,
00:40
the process by which things
out there in the world --
8
28842
3039
sons e imagens,
00:43
sounds and images --
9
31905
1584
podem se tornar conceitos na mente.
00:45
can turn into concepts in the mind.
10
33513
2178
00:48
This is essential for our own brains,
11
36235
2517
Isso é essencial para o nosso cérebro
e também muito útil em um computador.
00:50
and it's also pretty useful on a computer.
12
38776
2464
00:53
The machine perception algorithms,
for example, that our team makes,
13
41636
3350
Os algorítimos de percepção artificial,
criados por nós, por exemplo,
são o que permitem que suas fotos
do Google Fotos sejam pesquisáveis,
00:57
are what enable your pictures
on Google Photos to become searchable,
14
45010
3874
baseando-se no que há nelas.
01:00
based on what's in them.
15
48908
1397
01:03
The flip side of perception is creativity:
16
51594
3493
O oposto da percepção é a criatividade:
transformar um conceito
em algo lá fora, para o mundo.
01:07
turning a concept into something
out there into the world.
17
55111
3038
Então, ao longo do ano passado,
nosso trabalho de percepção artificial
01:10
So over the past year,
our work on machine perception
18
58173
3555
também se uniu, inesperadamente,
ao mundo da criatividade artificial
01:13
has also unexpectedly connected
with the world of machine creativity
19
61752
4859
e da arte digital.
01:18
and machine art.
20
66635
1160
01:20
I think Michelangelo
had a penetrating insight
21
68556
3284
Acho que Michelangelo
teve um insight profundo
a respeito da relação
entre percepção e criatividade.
01:23
into to this dual relationship
between perception and creativity.
22
71864
3656
01:28
This is a famous quote of his:
23
76023
2006
Esta é uma famosa citação dele:
01:30
"Every block of stone
has a statue inside of it,
24
78053
3323
"Cada bloco de pedra
tem uma escultura interna,
01:34
and the job of the sculptor
is to discover it."
25
82036
3002
e o trabalho do escultor é descobri-la."
01:38
So I think that what
Michelangelo was getting at
26
86029
3216
Então, penso que Michelangelo
estava querendo dizer
que nós criamos, através da percepção,
01:41
is that we create by perceiving,
27
89269
3180
e que a percepção por si
é um ato de imaginação
01:44
and that perception itself
is an act of imagination
28
92473
3023
e é a tal da criatividade.
01:47
and is the stuff of creativity.
29
95520
2461
01:50
The organ that does all the thinking
and perceiving and imagining,
30
98691
3925
O órgão que cria todo pensamento,
percepção e imaginação,
é certamente, o cérebro.
01:54
of course, is the brain.
31
102640
1588
01:57
And I'd like to begin
with a brief bit of history
32
105089
2545
E eu quero começar
com um pouquinho de história
sobre o que sabemos sobre cérebros.
01:59
about what we know about brains.
33
107658
2302
02:02
Because unlike, say,
the heart or the intestines,
34
110496
2446
Porque, diferente do coração
e dos intestinos,
você não consegue falar muito
sobre o cérebro só olhando pra ele,
02:04
you really can't say very much
about a brain by just looking at it,
35
112966
3144
pelo menos a olho nu.
02:08
at least with the naked eye.
36
116134
1412
02:09
The early anatomists who looked at brains
37
117983
2416
Os primeiros anatomistas
que observaram cérebros
deram às estruturas superficiais
todo tipo de nomes fantásticos,
02:12
gave the superficial structures
of this thing all kinds of fanciful names,
38
120423
3807
como hipocampo,
significando "camarãozinho".
02:16
like hippocampus, meaning "little shrimp."
39
124254
2433
Mas claro que esse tipo de coisa
não nos diz muito
02:18
But of course that sort of thing
doesn't tell us very much
40
126711
2764
sobre o que acontece lá dentro.
02:21
about what's actually going on inside.
41
129499
2318
02:24
The first person who, I think, really
developed some kind of insight
42
132780
3613
A primeira pessoa que eu acho,
que, de fato, desenvolveu algum insight
sobre o que acontecia no cérebro
02:28
into what was going on in the brain
43
136417
1930
02:30
was the great Spanish neuroanatomist,
Santiago Ramón y Cajal,
44
138371
3920
foi o grande neuroanatomista espanhol,
Santiago Ramón y Cajal, no século 19,
02:34
in the 19th century,
45
142315
1544
02:35
who used microscopy and special stains
46
143883
3755
usando microscópio e reagentes especiais,
que puderam, seletivamente, preencher
ou converter em contraste muito elevado,
02:39
that could selectively fill in
or render in very high contrast
47
147662
4170
as células individuais do cérebro,
02:43
the individual cells in the brain,
48
151856
2008
para conseguir entender
a morfologia delas.
02:45
in order to start to understand
their morphologies.
49
153888
3154
02:49
And these are the kinds of drawings
that he made of neurons
50
157972
2891
E estes são os tipos de desenhos
que ele fez dos neurônios no século 19.
02:52
in the 19th century.
51
160887
1209
Este é de um cérebro de pássaro.
02:54
This is from a bird brain.
52
162120
1884
02:56
And you see this incredible variety
of different sorts of cells,
53
164028
3057
E vemos esta incrível variedade
de diferentes tipos de células,
até mesmo a própria teoria celular
era recente nessa época.
02:59
even the cellular theory itself
was quite new at this point.
54
167109
3435
E estas estruturas,
03:02
And these structures,
55
170568
1278
estas células que têm essas ramificações,
03:03
these cells that have these arborizations,
56
171870
2259
03:06
these branches that can go
very, very long distances --
57
174153
2608
que podem percorrer
distâncias muito longas,
tudo era novidade na época.
03:08
this was very novel at the time.
58
176785
1616
Elas são reminiscência de fios, claro.
03:10
They're reminiscent, of course, of wires.
59
178779
2903
Isso pode ter sido óbvio
para algumas pessoas no século 19;
03:13
That might have been obvious
to some people in the 19th century;
60
181706
3457
as revoluções de telefonia e eletricidade
estavam apenas começando.
03:17
the revolutions of wiring and electricity
were just getting underway.
61
185187
4314
03:21
But in many ways,
62
189964
1178
Mas de muitas maneiras,
03:23
these microanatomical drawings
of Ramón y Cajal's, like this one,
63
191166
3313
esses desenhos microanatômicos
do Ramón y Cajal, como este,
ainda são, em alguns pontos, insuperáveis.
03:26
they're still in some ways unsurpassed.
64
194503
2332
03:28
We're still more than a century later,
65
196859
1854
Ainda, depois de um século,
03:30
trying to finish the job
that Ramón y Cajal started.
66
198737
2825
estamos tentando concluir aquilo
que Ramón y Cajal começou.
Estes são dados brutos
de nossos colaboradores
03:33
These are raw data from our collaborators
67
201586
3134
no Instituto de Neurociência Max Planck.
03:36
at the Max Planck Institute
of Neuroscience.
68
204744
2881
03:39
And what our collaborators have done
69
207649
1790
E nossos colaboradores estão representando
partículas de tecido cerebral.
03:41
is to image little pieces of brain tissue.
70
209463
5001
Esta amostra tem aproximadamente
um milímetro cúbico,
03:46
The entire sample here
is about one cubic millimeter in size,
71
214488
3326
e estou mostrando uma parte
minúscula dela aqui.
03:49
and I'm showing you a very,
very small piece of it here.
72
217838
2621
Aquela barra da esquerda
tem em torno de um mícron.
03:52
That bar on the left is about one micron.
73
220483
2346
As estruturas que veem são mitocôndrias,
03:54
The structures you see are mitochondria
74
222853
2409
que são do tamanho de uma bactéria.
03:57
that are the size of bacteria.
75
225286
2044
03:59
And these are consecutive slices
76
227354
1551
E estas são fatias consecutivas
04:00
through this very, very
tiny block of tissue.
77
228929
3148
através deste minúsculo bloco de tecido.
04:04
Just for comparison's sake,
78
232101
2403
Apenas para efeito de comparação,
o diâmetro de um fio médio de cabelo
é de aproximadamente 100 microns.
04:06
the diameter of an average strand
of hair is about 100 microns.
79
234528
3792
Então, estamos olhando para algo
bem menor do que um simples fio de cabelo.
04:10
So we're looking at something
much, much smaller
80
238344
2274
04:12
than a single strand of hair.
81
240642
1398
04:14
And from these kinds of serial
electron microscopy slices,
82
242064
4031
E a partir desses tipos de partículas
microscópicas de elétrons de série,
podemos começar a reconstruir
neurônios em 3D, como estes.
04:18
one can start to make reconstructions
in 3D of neurons that look like these.
83
246119
5008
Estes são do mesmo estilo
do Ramón y Cajal.
04:23
So these are sort of in the same
style as Ramón y Cajal.
84
251151
3157
Poucos neurônios destacaram-se,
04:26
Only a few neurons lit up,
85
254332
1492
04:27
because otherwise we wouldn't
be able to see anything here.
86
255848
2781
pois, caso contrário,
não conseguiríamos ver nada aqui.
Estaria lotado, muito cheio de estruturas,
de neurônios comunicando-se entre si.
04:30
It would be so crowded,
87
258653
1312
04:31
so full of structure,
88
259989
1330
04:33
of wiring all connecting
one neuron to another.
89
261343
2724
04:37
So Ramón y Cajal was a little bit
ahead of his time,
90
265293
2804
Ramón y Cajal estava um pouco
à frente de seu tempo,
e o progresso do entendimento do cérebro
04:40
and progress on understanding the brain
91
268121
2555
seguiu lentamente
através das décadas seguintes.
04:42
proceeded slowly
over the next few decades.
92
270700
2271
04:45
But we knew that neurons used electricity,
93
273455
2853
Mas sabíamos que os neurônios
usavam eletricidade
e, na Segunda Guerra Mundial,
a tecnologia avançou o suficiente
04:48
and by World War II, our technology
was advanced enough
94
276332
2936
04:51
to start doing real electrical
experiments on live neurons
95
279292
2806
para iniciar experimentos elétricos
reais em neurônios vivos
04:54
to better understand how they worked.
96
282122
2106
para entender melhor seu funcionamento.
04:56
This was the very same time
when computers were being invented,
97
284631
4356
Isso ocorreu na mesma época
da invenção dos computadores,
muito baseado na ideia
da modelagem cerebral,
05:01
very much based on the idea
of modeling the brain --
98
289011
3100
da "maquinaria inteligente",
como foi chamada por Alan Turing,
05:04
of "intelligent machinery,"
as Alan Turing called it,
99
292135
3085
um dos pais da ciência da computação.
05:07
one of the fathers of computer science.
100
295244
1991
Warren McCulloch e Walter Pitts
observaram o desenho do córtex visual,
05:09
Warren McCulloch and Walter Pitts
looked at Ramón y Cajal's drawing
101
297923
4632
de Ramón y Cajal,
que estou mostrando aqui.
05:14
of visual cortex,
102
302579
1317
05:15
which I'm showing here.
103
303920
1562
Este é o córtex que processa
as imagens captadas pelo olho.
05:17
This is the cortex that processes
imagery that comes from the eye.
104
305506
4442
05:22
And for them, this looked
like a circuit diagram.
105
310424
3508
E, para eles, isto parecia
um diagrama de circuito.
05:26
So there are a lot of details
in McCulloch and Pitts's circuit diagram
106
314353
3835
Então há muitos detalhes
no diagrama de McCulloch and Pitts
que não estão muito certos,
mas esta ideia básica
05:30
that are not quite right.
107
318212
1352
05:31
But this basic idea
108
319588
1235
05:32
that visual cortex works like a series
of computational elements
109
320847
3992
de que o córtex visual trabalha
como uma série de elementos computacionais
que passam a informação,
um para o outro, em cascata,
05:36
that pass information
one to the next in a cascade,
110
324863
2746
está essencialmente correta.
05:39
is essentially correct.
111
327633
1602
05:41
Let's talk for a moment
112
329259
2350
Vamos falar um pouco
sobre o que um modelo para processar
informações visuais precisaria fazer.
05:43
about what a model for processing
visual information would need to do.
113
331633
4032
05:48
The basic task of perception
114
336228
2741
A tarefa básica de percepção
é levar uma imagem como esta e dizer:
05:50
is to take an image like this one and say,
115
338993
4194
"É um pássaro",
05:55
"That's a bird,"
116
343211
1176
05:56
which is a very simple thing
for us to do with our brains.
117
344411
2874
algo muito simples de se fazer
com nosso cérebro.
Mas vocês têm que entender
que, para um computador,
05:59
But you should all understand
that for a computer,
118
347309
3421
06:02
this was pretty much impossible
just a few years ago.
119
350754
3087
isso era praticamente impossível
há alguns anos.
O paradigma computacional clássico
não é uma tarefa simples de ser realizada.
06:05
The classical computing paradigm
120
353865
1916
06:07
is not one in which
this task is easy to do.
121
355805
2507
06:11
So what's going on between the pixels,
122
359366
2552
O que está acontecendo entre os pixels,
06:13
between the image of the bird
and the word "bird,"
123
361942
4028
entre a imagem do pássaro
e a palavra "pássaro",
é sobretudo um grupo de neurônios
conectados uns aos outros,
06:17
is essentially a set of neurons
connected to each other
124
365994
2814
em uma rede neural, conforme mostro aqui.
06:20
in a neural network,
125
368832
1155
06:22
as I'm diagramming here.
126
370011
1223
06:23
This neural network could be biological,
inside our visual cortices,
127
371258
3272
Essa conexão neural poderia ser biológica,
em nosso córtex visual,
06:26
or, nowadays, we start
to have the capability
128
374554
2162
ou, atualmente, começamos
a ter a capacidade
de modelar tais conexões neurais
no computador.
06:28
to model such neural networks
on the computer.
129
376740
2454
06:31
And I'll show you what
that actually looks like.
130
379834
2353
Eu mostrarei com o que elas
realmente se parecem.
Vocês podem pensar nos pixels como
uma primeira camada de neurônios,
06:34
So the pixels you can think
about as a first layer of neurons,
131
382211
3416
que, na verdade, é como atuam no olho,
são os neurônios na retina.
06:37
and that's, in fact,
how it works in the eye --
132
385651
2239
06:39
that's the neurons in the retina.
133
387914
1663
E eles alimentam
06:41
And those feed forward
134
389601
1500
camada por camada de neurônios,
06:43
into one layer after another layer,
after another layer of neurons,
135
391125
3403
todas conectadas por sinapses
de diferentes pesos.
06:46
all connected by synapses
of different weights.
136
394552
3033
O comportamento dessa rede
06:49
The behavior of this network
137
397609
1335
06:50
is characterized by the strengths
of all of those synapses.
138
398968
3284
é caracterizado pelas forças
de todas aquelas sinapses.
06:54
Those characterize the computational
properties of this network.
139
402276
3288
Elas caracterizam as propriedades
computacionais dessa rede.
E, no final das contas,
06:57
And at the end of the day,
140
405588
1470
06:59
you have a neuron
or a small group of neurons
141
407082
2447
você tem um neurônio,
ou um grupo de neurônios,
07:01
that light up, saying, "bird."
142
409553
1647
que ativam-se, dizendo "pássaro".
07:03
Now I'm going to represent
those three things --
143
411824
3132
Agora, representarei essas três coisas:
a entrada de pixels
e as sinapses na rede neural,
07:06
the input pixels and the synapses
in the neural network,
144
414980
4696
e o pássaro, a saída,
através de três variáveis: x, w e y.
07:11
and bird, the output --
145
419700
1585
07:13
by three variables: x, w and y.
146
421309
3057
07:16
There are maybe a million or so x's --
147
424853
1811
Há um milhão ou mais de x,
um milhão de pixels nesta imagem.
07:18
a million pixels in that image.
148
426688
1953
Há bilhões ou trilhões de w,
07:20
There are billions or trillions of w's,
149
428665
2446
que representam o peso de todas
estas sinapses na rede neural.
07:23
which represent the weights of all
these synapses in the neural network.
150
431135
3421
E há um número muito pequeno de y,
de saídas que essa rede tem.
07:26
And there's a very small number of y's,
151
434580
1875
07:28
of outputs that that network has.
152
436479
1858
"Pássaro" tem sete letras, certo?
07:30
"Bird" is only four letters, right?
153
438361
1749
07:33
So let's pretend that this
is just a simple formula,
154
441088
3426
Então, vamos imaginar que esta
seja apenas uma fórmula simples:
x "x" w = y.
07:36
x "x" w = y.
155
444538
2163
O sinal de multiplicação fica entre aspas,
07:38
I'm putting the times in scare quotes
156
446725
2036
07:40
because what's really
going on there, of course,
157
448785
2280
porque, na verdade,
o que está acontecendo lá
07:43
is a very complicated series
of mathematical operations.
158
451089
3046
é uma série complicada
de operações matemáticas.
07:47
That's one equation.
159
455172
1221
É uma equação.
Há três variáveis,
07:48
There are three variables.
160
456417
1672
e todos nós sabemos
que se você tem uma equação,
07:50
And we all know
that if you have one equation,
161
458113
2726
pode encontrar uma variável,
se souber os outros dois termos.
07:52
you can solve one variable
by knowing the other two things.
162
460863
3642
07:57
So the problem of inference,
163
465158
3380
Então, o problema de inferência,
de entender que aquela figura
de um pássaro é um pássaro,
08:00
that is, figuring out
that the picture of a bird is a bird,
164
468562
2873
é este: na qual y é desconhecido,
mas w e x são conhecidos.
08:03
is this one:
165
471459
1274
08:04
it's where y is the unknown
and w and x are known.
166
472757
3459
Conhecendo a rede neural,
você conhece os pixels.
08:08
You know the neural network,
you know the pixels.
167
476240
2459
Como podem ver, é um problema
relativamente simples.
08:10
As you can see, that's actually
a relatively straightforward problem.
168
478723
3327
Você multiplica duas vezes três e pronto.
08:14
You multiply two times three
and you're done.
169
482074
2186
08:16
I'll show you an artificial neural network
170
484862
2123
Mostrarei uma rede artificial de neurônios
08:19
that we've built recently,
doing exactly that.
171
487009
2296
que criamos recentemente
fazendo exatamente isso.
08:21
This is running in real time
on a mobile phone,
172
489634
2860
Isto está passando
em tempo real em um celular,
e é, claro, surpreendente por si só,
08:24
and that's, of course,
amazing in its own right,
173
492518
3313
que celulares possam fazer bilhões
e trilhões de operações por segundo.
08:27
that mobile phones can do so many
billions and trillions of operations
174
495855
3468
08:31
per second.
175
499347
1248
Vocês estão olhando para um celular
08:32
What you're looking at is a phone
176
500619
1615
08:34
looking at one after another
picture of a bird,
177
502258
3547
vendo uma imagem de pássaro após a outra,
e, na verdade, não só dizendo:
"Sim, é um pássaro",
08:37
and actually not only saying,
"Yes, it's a bird,"
178
505829
2715
mas identificando a espécie do pássaro
com uma rede deste tipo.
08:40
but identifying the species of bird
with a network of this sort.
179
508568
3411
08:44
So in that picture,
180
512890
1826
Nesta imagem,
08:46
the x and the w are known,
and the y is the unknown.
181
514740
3802
o x e o w são conhecidos
e o y é desconhecido.
Estou encobrindo a parte mais difícil,
08:50
I'm glossing over the very
difficult part, of course,
182
518566
2508
que é como descobrimos o w,
08:53
which is how on earth
do we figure out the w,
183
521098
3861
o cérebro que pode fazer tal coisa?
08:56
the brain that can do such a thing?
184
524983
2187
Como aprenderíamos tal modelo?
08:59
How would we ever learn such a model?
185
527194
1834
09:01
So this process of learning,
of solving for w,
186
529418
3233
Este processo de aprendizagem,
de descobrir o w,
se o resolvermos com a equação simples,
09:04
if we were doing this
with the simple equation
187
532675
2647
na qual pensamos
nestas variáveis como números,
09:07
in which we think about these as numbers,
188
535346
2000
09:09
we know exactly how to do that: 6 = 2 x w,
189
537370
2687
saberemos, exatamente,
como resolvê-la: 6 = 2 x w,
dividimos por dois e pronto.
09:12
well, we divide by two and we're done.
190
540081
3312
09:16
The problem is with this operator.
191
544001
2220
O problema é com este sinal.
09:18
So, division --
192
546823
1151
Usamos a divisão porque
é o inverso da multiplicação,
09:19
we've used division because
it's the inverse to multiplication,
193
547998
3121
mas, como acabei de dizer,
09:23
but as I've just said,
194
551143
1440
09:24
the multiplication is a bit of a lie here.
195
552607
2449
a multiplicação não deixa
de ser uma mentira aqui.
09:27
This is a very, very complicated,
very non-linear operation;
196
555080
3326
Esta é uma operação não-linear
muito complicada;
não existe o inverso.
09:30
it has no inverse.
197
558430
1704
Então devemos encontrar
uma forma de resolver a equação
09:32
So we have to figure out a way
to solve the equation
198
560158
3150
sem um sinal de divisão.
09:35
without a division operator.
199
563332
2024
E a forma de se fazer isso
é razoavelmente fácil.
09:37
And the way to do that
is fairly straightforward.
200
565380
2343
Você diz: vamos fazer um truque de álgebra
09:39
You just say, let's play
a little algebra trick,
201
567747
2671
e mover o seis para a direita da equação.
09:42
and move the six over
to the right-hand side of the equation.
202
570442
2906
Agora, ainda temos uma multiplicação
09:45
Now, we're still using multiplication.
203
573372
1826
09:47
And that zero -- let's think
about it as an error.
204
575675
3580
e aquele zero, vamos pensar
nele como um erro.
Em outras palavras,
se acharmos o w da forma certa
09:51
In other words, if we've solved
for w the right way,
205
579279
2515
então o erro será zero.
09:53
then the error will be zero.
206
581818
1656
Se não conseguirmos isso da forma certa,
o erro será maior do que zero.
09:55
And if we haven't gotten it quite right,
207
583498
1938
09:57
the error will be greater than zero.
208
585460
1749
Agora podemos criar suposições
para diminuir os erros,
09:59
So now we can just take guesses
to minimize the error,
209
587233
3366
e é o tipo de coisa que
computadores fazem muito bem.
10:02
and that's the sort of thing
computers are very good at.
210
590623
2687
Na primeira suposição: e se w = 0?
Bem, o erro será 6.
10:05
So you've taken an initial guess:
211
593334
1593
10:06
what if w = 0?
212
594951
1156
10:08
Well, then the error is 6.
213
596131
1240
E se w = 1? O erro será 4.
10:09
What if w = 1? The error is 4.
214
597395
1446
10:10
And then the computer can
sort of play Marco Polo,
215
598865
2367
E, então, o computador tentará adivinhar
e diminuir o erro para próximo de zero.
10:13
and drive down the error close to zero.
216
601256
2367
Enquanto isso ocorre, ele está obtendo
sucessivas aproximações de w.
10:15
As it does that, it's getting
successive approximations to w.
217
603647
3374
Tipicamente, nunca se chega lá,
mas depois de várias etapas,
10:19
Typically, it never quite gets there,
but after about a dozen steps,
218
607045
3656
10:22
we're up to w = 2.999,
which is close enough.
219
610725
4624
estamos próximos de w = 2,999,
o que é bem próximo.
10:28
And this is the learning process.
220
616302
1814
E esse é o processo de aprendizagem.
10:30
So remember that what's been going on here
221
618140
2730
Lembrem-se de que estamos pegando
10:32
is that we've been taking
a lot of known x's and known y's
222
620894
4378
muitos x e y conhecidos
e resolvendo o w no meio disso,
através de um processo interativo.
10:37
and solving for the w in the middle
through an iterative process.
223
625296
3454
É exatamente assim que construímos
nossa própria aprendizagem.
10:40
It's exactly the same way
that we do our own learning.
224
628774
3556
Quando somos bebês nos mostram imagens
10:44
We have many, many images as babies
225
632354
2230
10:46
and we get told, "This is a bird;
this is not a bird."
226
634608
2633
e nos dizem: "Isso é um pássaro;
isso não é um pássaro".
10:49
And over time, through iteration,
227
637714
2098
Com o passar do tempo,
através da interação,
10:51
we solve for w, we solve
for those neural connections.
228
639836
2928
nós encontramos o w,
encontramos essas conexões neurais.
10:55
So now, we've held
x and w fixed to solve for y;
229
643460
4086
Agora mantemos o valor de x e w
para resolver y;
isso acontece todo dia, percepção rápida.
10:59
that's everyday, fast perception.
230
647570
1847
11:01
We figure out how we can solve for w,
231
649441
1763
Compreendemos como achar w,
isso é aprendizagem,
o que é muito mais difícil,
11:03
that's learning, which is a lot harder,
232
651228
1903
11:05
because we need to do error minimization,
233
653155
1985
pois precisamos minimizar os erros,
usando vários exemplos de treinamento.
11:07
using a lot of training examples.
234
655164
1687
11:08
And about a year ago,
Alex Mordvintsev, on our team,
235
656875
3187
Há aproximadamente um ano,
Alex Mordvintsev, da nossa equipe,
decidiu experimentar o que aconteceria
se tentássemos encontrar x,
11:12
decided to experiment
with what happens if we try solving for x,
236
660086
3550
conhecendo os valores de w e y.
11:15
given a known w and a known y.
237
663660
2037
Em outras palavras,
11:18
In other words,
238
666124
1151
você sabe que isto é um pássaro,
11:19
you know that it's a bird,
239
667299
1352
11:20
and you already have your neural network
that you've trained on birds,
240
668675
3303
e já tem sua rede neural
que treinou com pássaros,
mas o que é a figura de um pássaro?
11:24
but what is the picture of a bird?
241
672002
2344
11:27
It turns out that by using exactly
the same error-minimization procedure,
242
675034
5024
Ocorre que, usando o mesmo
procedimento de minimização de erros,
pode-se fazer isso com a rede treinada
para reconhecer pássaros
11:32
one can do that with the network
trained to recognize birds,
243
680082
3430
e o resultado será...
11:35
and the result turns out to be ...
244
683536
3388
11:42
a picture of birds.
245
690400
1305
uma imagem de pássaros.
11:44
So this is a picture of birds
generated entirely by a neural network
246
692814
3737
Essa é uma imagem de pássaros
totalmente gerada por uma rede neural,
a qual foi treinada
para reconhecer pássaros,
11:48
that was trained to recognize birds,
247
696575
1826
11:50
just by solving for x
rather than solving for y,
248
698425
3538
apenas resolvendo x em vez de y,
fazendo isso de forma interativa.
11:53
and doing that iteratively.
249
701987
1288
Aqui tem um outro exemplo divertido.
11:55
Here's another fun example.
250
703732
1847
11:57
This was a work made
by Mike Tyka in our group,
251
705603
3437
Esse foi um trabalho
de Mike Tyka, em nosso grupo,
que ele chamou de "Desfile Animal".
12:01
which he calls "Animal Parade."
252
709064
2308
Faz lembrar um pouco obras de arte
de William Kentridge,
12:03
It reminds me a little bit
of William Kentridge's artworks,
253
711396
2876
na qual ele faz desenhos e os apaga,
sucessivamente, e cria um filme assim.
12:06
in which he makes sketches, rubs them out,
254
714296
2489
12:08
makes sketches, rubs them out,
255
716809
1460
12:10
and creates a movie this way.
256
718293
1398
Neste caso, Mike varia o y
no espaço de diferentes animais,
12:11
In this case,
257
719715
1151
12:12
what Mike is doing is varying y
over the space of different animals,
258
720890
3277
numa rede desenvolvida para reconhecer
e distinguir diferentes animais.
12:16
in a network designed
to recognize and distinguish
259
724191
2382
12:18
different animals from each other.
260
726597
1810
E você consegue essa estranha mudança
de um animal para outro, estilo Escher.
12:20
And you get this strange, Escher-like
morph from one animal to another.
261
728431
3751
12:26
Here he and Alex together
have tried reducing
262
734221
4614
Aqui, Alex e ele, juntos, tentaram reduzir
o y a um espaço de duas dimensões,
12:30
the y's to a space of only two dimensions,
263
738859
2759
fazendo assim um mapa fora
do espaço de todas as coisas
12:33
thereby making a map
out of the space of all things
264
741642
3438
reconhecidas por essa rede.
12:37
recognized by this network.
265
745104
1719
12:38
Doing this kind of synthesis
266
746847
2023
Fazendo esse tipo de síntese
ou geração de imagem
sobre essa superfície inteira,
12:40
or generation of imagery
over that entire surface,
267
748894
2382
variando y sobre a superfície,
você cria um mapa visual
12:43
varying y over the surface,
you make a kind of map --
268
751300
2846
12:46
a visual map of all the things
the network knows how to recognize.
269
754170
3141
de todas as coisas
que a rede consegue reconhecer.
Todos os animas estão aqui;
o tatu está bem naquele canto.
12:49
The animals are all here;
"armadillo" is right in that spot.
270
757335
2865
12:52
You can do this with other kinds
of networks as well.
271
760919
2479
Você também pode fazer isso
com outras redes.
Essa é uma rede criada
para reconhecer faces,
12:55
This is a network designed
to recognize faces,
272
763422
2874
distinguir uma face de outra.
12:58
to distinguish one face from another.
273
766320
2000
E, aqui, colocamos um y que seria "eu",
parâmetros da minha própria face.
13:00
And here, we're putting
in a y that says, "me,"
274
768344
3249
13:03
my own face parameters.
275
771617
1575
E quando essa rede encontra x,
ela gera essa imagem doida,
13:05
And when this thing solves for x,
276
773216
1706
13:06
it generates this rather crazy,
277
774946
2618
13:09
kind of cubist, surreal,
psychedelic picture of me
278
777588
4428
um estilo cubismo, surreal,
uma figura psicodélica de mim
a partir de múltiplos pontos de vista.
13:14
from multiple points of view at once.
279
782040
1806
A razão de parecer com múltiplos pontos
de vista de uma só vez
13:15
The reason it looks like
multiple points of view at once
280
783870
2734
13:18
is because that network is designed
to get rid of the ambiguity
281
786628
3687
é porque a rede é criada
para conseguir se livrar da ambiguidade
de uma face em uma pose ou outra,
13:22
of a face being in one pose
or another pose,
282
790339
2476
sendo olhada com um tipo ou outro de luz.
13:24
being looked at with one kind of lighting,
another kind of lighting.
283
792839
3376
Então, quando faz
esse tipo de reconstrução,
13:28
So when you do
this sort of reconstruction,
284
796239
2085
se você não usar algum
guia de imagem ou de estatística,
13:30
if you don't use some sort of guide image
285
798348
2304
13:32
or guide statistics,
286
800676
1211
pode ficar confuso,
devido a diferentes pontos de vista,
13:33
then you'll get a sort of confusion
of different points of view,
287
801911
3765
porque isso é ambíguo.
13:37
because it's ambiguous.
288
805700
1368
13:39
This is what happens if Alex uses
his own face as a guide image
289
807786
4223
Isto é o que acontece se Alex usar
sua própria face como guia de imagem
durante o processo de otimização
para reconstruir minha face.
13:44
during that optimization process
to reconstruct my own face.
290
812033
3321
13:48
So you can see it's not perfect.
291
816284
2328
Então, podem ver que não é perfeito.
Ainda há muito trabalho a fazer
13:50
There's still quite a lot of work to do
292
818636
1874
sobre como otimizar
aquele processo de otimização.
13:52
on how we optimize
that optimization process.
293
820534
2453
Mas começa a ter algo
como uma face coerente,
13:55
But you start to get something
more like a coherent face,
294
823011
2827
acabando por usar
minha própria face como guia.
13:57
rendered using my own face as a guide.
295
825862
2014
14:00
You don't have to start
with a blank canvas
296
828892
2501
Não é preciso começar com uma
tela em branco ou com ruído branco.
14:03
or with white noise.
297
831417
1156
Quando se está resolvendo x,
14:04
When you're solving for x,
298
832597
1304
14:05
you can begin with an x,
that is itself already some other image.
299
833925
3889
pode-se começar com um x,
que, por si só, já é outra imagem.
Isto é o que representa
esta pequena demonstração.
14:09
That's what this little demonstration is.
300
837838
2556
Isto é uma rede desenhada para categorizar
14:12
This is a network
that is designed to categorize
301
840418
4122
14:16
all sorts of different objects --
man-made structures, animals ...
302
844564
3119
todo tipo de diferentes objetos,
criações humanas, animais...
Aqui começamos apenas
com uma figura de nuvens,
14:19
Here we're starting
with just a picture of clouds,
303
847707
2593
e enquanto otimizamos,
14:22
and as we optimize,
304
850324
1671
basicamente, esta rede está descobrindo
o que se vê nas nuvens.
14:24
basically, this network is figuring out
what it sees in the clouds.
305
852019
4486
14:28
And the more time
you spend looking at this,
306
856931
2320
E quanto mais você olha pra isso,
14:31
the more things you also
will see in the clouds.
307
859275
2753
mais coisas também verá nas nuvens.
14:35
You could also use the face network
to hallucinate into this,
308
863004
3375
Poderia também usar a rede da face
para ficar alucinado,
então verá umas coisas muito loucas.
14:38
and you get some pretty crazy stuff.
309
866403
1812
14:40
(Laughter)
310
868239
1150
(Risos)
14:42
Or, Mike has done some other experiments
311
870401
2744
Mike fez algumas outras experiências,
nas quais leva a imagem da nuvem,
14:45
in which he takes that cloud image,
312
873169
3905
e ele alucina e aproxima, sucessivamente,
14:49
hallucinates, zooms, hallucinates,
zooms hallucinates, zooms.
313
877098
3507
e dessa forma,
14:52
And in this way,
314
880629
1151
14:53
you can get a sort of fugue state
of the network, I suppose,
315
881804
3675
pode ter uma espécie
de estado de fuga da rede, suponho,
ou um tipo de associação livre,
14:57
or a sort of free association,
316
885503
3680
em que a rede morde sua própria cauda.
15:01
in which the network
is eating its own tail.
317
889207
2227
15:03
So every image is now the basis for,
318
891458
3421
Assim, toda imagem é base para a pergunta:
"O que acho que verei agora?
15:06
"What do I think I see next?
319
894903
1421
O que acho que verei agora?
O que acho que verei agora?"
15:08
What do I think I see next?
What do I think I see next?"
320
896348
2803
15:11
I showed this for the first time in public
321
899487
2936
Mostrei isso pela primeira vez em público,
a um grupo, numa palestra em Seattle,
15:14
to a group at a lecture in Seattle
called "Higher Education" --
322
902447
5437
chamado "Educação Maior";
isso aconteceu assim
que a maconha foi legalizada.
15:19
this was right after
marijuana was legalized.
323
907908
2437
15:22
(Laughter)
324
910369
2415
(Risos)
15:26
So I'd like to finish up quickly
325
914627
2104
Então, quero terminar logo,
mencionando que esta tecnologia
não está restrita.
15:28
by just noting that this technology
is not constrained.
326
916755
4255
Mostrei a vocês exemplos puramente visuais
porque são divertidos de se ver.
15:33
I've shown you purely visual examples
because they're really fun to look at.
327
921034
3665
Esta não é uma tecnologia
exclusivamente visual.
15:36
It's not a purely visual technology.
328
924723
2451
Nosso colaborador, Ross Goodwin,
15:39
Our artist collaborator, Ross Goodwin,
329
927198
1993
15:41
has done experiments involving
a camera that takes a picture,
330
929215
3671
fez experiências envolvendo
uma câmera que tira a foto,
e aí, um computador na sua mochila,
escreve um poema usando redes neurais,
15:44
and then a computer in his backpack
writes a poem using neural networks,
331
932910
4234
baseados nos conteúdos da imagem.
15:49
based on the contents of the image.
332
937168
1944
E aquela poesia de rede neural
tem sido treinada
15:51
And that poetry neural network
has been trained
333
939136
2947
num grande corpus de poesia do século 20.
15:54
on a large corpus of 20th-century poetry.
334
942107
2234
E a poesia, na verdade,
não é tão ruim, eu acho.
15:56
And the poetry is, you know,
335
944365
1499
15:57
I think, kind of not bad, actually.
336
945888
1914
(Risos)
15:59
(Laughter)
337
947826
1384
Para fechar,
16:01
In closing,
338
949234
1159
16:02
I think that per Michelangelo,
339
950417
2132
acho que Michelangelo estava certo:
16:04
I think he was right;
340
952573
1234
percepção e criatividade
estão intimamente ligadas.
16:05
perception and creativity
are very intimately connected.
341
953831
3436
16:09
What we've just seen are neural networks
342
957611
2634
O que vimos são apenas redes neurais,
que estão totalmente
treinadas para discriminar
16:12
that are entirely trained to discriminate,
343
960269
2303
ou reconhecer coisas diferentes no mundo,
16:14
or to recognize different
things in the world,
344
962596
2242
16:16
able to be run in reverse, to generate.
345
964862
3161
capazes de trabalhar
em sentido contrário para produzir.
Uma das coisas que me vem à cabeça
16:20
One of the things that suggests to me
346
968047
1783
16:21
is not only that
Michelangelo really did see
347
969854
2398
é que não só Michelangelo viu
a escultura nos blocos de pedra,
16:24
the sculpture in the blocks of stone,
348
972276
2452
mas qualquer criatura,
qualquer ser, alienígena,
16:26
but that any creature,
any being, any alien
349
974752
3638
que é capaz de fazer
atos de percepção desse tipo,
16:30
that is able to do
perceptual acts of that sort
350
978414
3657
também é capaz de criar,
16:34
is also able to create
351
982095
1375
16:35
because it's exactly the same
machinery that's used in both cases.
352
983494
3224
porque é exatamente a mesma máquina
usada nos dois casos.
Também penso que percepção e criatividade
não são exclusivamente humanas.
16:38
Also, I think that perception
and creativity are by no means
353
986742
4532
16:43
uniquely human.
354
991298
1210
16:44
We start to have computer models
that can do exactly these sorts of things.
355
992532
3708
Temos modelos de computadores capazes
de fazer justamente esse tipo de coisa,
e não deveria ser surpreendente,
pois o cérebro é computacional.
16:48
And that ought to be unsurprising;
the brain is computational.
356
996264
3328
E finalmente,
16:51
And finally,
357
999616
1657
a computação começou como um exercício
de planejar maquinaria inteligente.
16:53
computing began as an exercise
in designing intelligent machinery.
358
1001297
4668
Foi muito pensado na ideia
16:57
It was very much modeled after the idea
359
1005989
2462
de como faríamos as máquinas
ficarem inteligentes.
17:00
of how could we make machines intelligent.
360
1008475
3013
E agora, estamos finalmente
começando a cumprir
17:03
And we finally are starting to fulfill now
361
1011512
2162
17:05
some of the promises
of those early pioneers,
362
1013698
2406
algumas das promessas daqueles pioneiros,
17:08
of Turing and von Neumann
363
1016128
1713
de Turing e Von Neumann,
e McCulloch e Pitts.
17:09
and McCulloch and Pitts.
364
1017865
2265
E acho que computação
não é apenas números
17:12
And I think that computing
is not just about accounting
365
1020154
4098
ou jogar Candy Crush ou algo assim.
17:16
or playing Candy Crush or something.
366
1024276
2147
No começo, modelamos as máquinas
segundo as nossas mentes.
17:18
From the beginning,
we modeled them after our minds.
367
1026447
2578
17:21
And they give us both the ability
to understand our own minds better
368
1029049
3269
E elas nos dão tanto a habilidade
de entender melhor nossa mente
como de expandi-la.
17:24
and to extend them.
369
1032342
1529
17:26
Thank you very much.
370
1034627
1167
Muito obrigado.
17:27
(Applause)
371
1035818
5939
(Aplausos)
Translated by Cristiane Babuska
Reviewed by Maricene Crus

▲Back to top

ABOUT THE SPEAKER
Blaise Agüera y Arcas - Software architect
Blaise Agüera y Arcas works on machine learning at Google. Previously a Distinguished Engineer at Microsoft, he has worked on augmented reality, mapping, wearable computing and natural user interfaces.

Why you should listen

Blaise Agüera y Arcas is principal scientist at Google, where he leads a team working on machine intelligence for mobile devices. His group works extensively with deep neural nets for machine perception and distributed learning, and it also investigates so-called "connectomics" research, assessing maps of connections within the brain.

Agüera y Arcas' background is as multidimensional as the visions he helps create. In the 1990s, he authored patents on both video compression and 3D visualization techniques, and in 2001, he made an influential computational discovery that cast doubt on Gutenberg's role as the father of movable type.

He also created Seadragon (acquired by Microsoft in 2006), the visualization technology that gives Photosynth its amazingly smooth digital rendering and zoom capabilities. Photosynth itself is a vastly powerful piece of software capable of taking a wide variety of images, analyzing them for similarities, and grafting them together into an interactive three-dimensional space. This seamless patchwork of images can be viewed via multiple angles and magnifications, allowing us to look around corners or “fly” in for a (much) closer look. Simply put, it could utterly transform the way we experience digital images.

He joined Microsoft when Seadragon was acquired by Live Labs in 2006. Shortly after the acquisition of Seadragon, Agüera y Arcas directed his team in a collaboration with Microsoft Research and the University of Washington, leading to the first public previews of Photosynth several months later. His TED Talk on Seadragon and Photosynth in 2007 is rated one of TED's "most jaw-dropping." He returned to TED in 2010 to demo Bing’s augmented reality maps.

Fun fact: According to the author, Agüera y Arcas is the inspiration for the character Elgin in the 2012 best-selling novel Where'd You Go, Bernadette?

More profile about the speaker
Blaise Agüera y Arcas | Speaker | TED.com