ABOUT THE SPEAKER
Blaise Agüera y Arcas - Software architect
Blaise Agüera y Arcas works on machine learning at Google. Previously a Distinguished Engineer at Microsoft, he has worked on augmented reality, mapping, wearable computing and natural user interfaces.

Why you should listen

Blaise Agüera y Arcas is principal scientist at Google, where he leads a team working on machine intelligence for mobile devices. His group works extensively with deep neural nets for machine perception and distributed learning, and it also investigates so-called "connectomics" research, assessing maps of connections within the brain.

Agüera y Arcas' background is as multidimensional as the visions he helps create. In the 1990s, he authored patents on both video compression and 3D visualization techniques, and in 2001, he made an influential computational discovery that cast doubt on Gutenberg's role as the father of movable type.

He also created Seadragon (acquired by Microsoft in 2006), the visualization technology that gives Photosynth its amazingly smooth digital rendering and zoom capabilities. Photosynth itself is a vastly powerful piece of software capable of taking a wide variety of images, analyzing them for similarities, and grafting them together into an interactive three-dimensional space. This seamless patchwork of images can be viewed via multiple angles and magnifications, allowing us to look around corners or “fly” in for a (much) closer look. Simply put, it could utterly transform the way we experience digital images.

He joined Microsoft when Seadragon was acquired by Live Labs in 2006. Shortly after the acquisition of Seadragon, Agüera y Arcas directed his team in a collaboration with Microsoft Research and the University of Washington, leading to the first public previews of Photosynth several months later. His TED Talk on Seadragon and Photosynth in 2007 is rated one of TED's "most jaw-dropping." He returned to TED in 2010 to demo Bing’s augmented reality maps.

Fun fact: According to the author, Agüera y Arcas is the inspiration for the character Elgin in the 2012 best-selling novel Where'd You Go, Bernadette?

More profile about the speaker
Blaise Agüera y Arcas | Speaker | TED.com
TED@BCG Paris

Blaise Agüera y Arcas: How computers are learning to be creative

Filmed:
1,934,067 views

We're on the edge of a new frontier in art and creativity -- and it's not human. Blaise Agüera y Arcas, principal scientist at Google, works with deep neural networks for machine perception and distributed learning. In this captivating demo, he shows how neural nets trained to recognize images can be run in reverse, to generate them. The results: spectacular, hallucinatory collages (and poems!) that defy categorization. "Perception and creativity are very intimately connected," Agüera y Arcas says. "Any creature, any being that is able to do perceptual acts is also able to create."
- Software architect
Blaise Agüera y Arcas works on machine learning at Google. Previously a Distinguished Engineer at Microsoft, he has worked on augmented reality, mapping, wearable computing and natural user interfaces. Full bio

Double-click the English transcript below to play the video.

Chez Google, l'équipe que je dirige
travaille sur l'intelligence artificielle,
00:12
So, I leadconduire a teaméquipe at GoogleGoogle
that workstravaux on machinemachine intelligenceintelligence;
0
800
3124
00:15
in other wordsmots, the engineeringingénierie disciplinela discipline
of makingfabrication computersdes ordinateurs and devicesdispositifs
1
3948
4650
c'est-à-dire à créer
des ordinateurs et des appareils
00:20
ablecapable to do some of the things
that brainscerveaux do.
2
8622
2419
capables de faire une partie
de ce que fait le cerveau.
00:23
And this makesfait du us
interestedintéressé in realréal brainscerveaux
3
11439
3099
Nous sommes donc très intéressés
par les vrais cerveaux
ainsi que la neuroscience,
00:26
and neuroscienceneuroscience as well,
4
14562
1289
en particulier les choses
que nos cerveaux font
00:27
and especiallynotamment interestedintéressé
in the things that our brainscerveaux do
5
15875
4172
00:32
that are still farloin superiorsupérieur
to the performanceperformance of computersdes ordinateurs.
6
20071
4042
avec une performance bien supérieure
à celle des ordinateurs.
00:37
HistoricallyHistoriquement, one of those areaszones
has been perceptionla perception,
7
25209
3609
Historiquement, un de ces domaines
est la perception,
le processus permettant
aux choses du monde,
00:40
the processprocessus by whichlequel things
out there in the worldmonde --
8
28842
3039
les sons et les images,
00:43
soundsdes sons and imagesimages --
9
31905
1584
de devenir des concepts dans notre esprit.
00:45
can turntour into conceptsconcepts in the mindesprit.
10
33513
2178
00:48
This is essentialessentiel for our ownposséder brainscerveaux,
11
36235
2517
C'est essentiel pour nos propres cerveaux
00:50
and it's alsoaussi prettyjoli usefulutile on a computerordinateur.
12
38776
2464
et est très utile pour un ordinateur.
Les algorithmes de perception
des machines, comme ceux de mon équipe,
00:53
The machinemachine perceptionla perception algorithmsalgorithmes,
for exampleExemple, that our teaméquipe makesfait du,
13
41636
3350
nous permettent de rechercher
des images sur Google
00:57
are what enableactiver your picturesdes photos
on GoogleGoogle PhotosPhotos to becomedevenir searchableconsultable,
14
45010
3874
01:00
basedbasé on what's in them.
15
48908
1397
selon ce qu'elles représentent.
01:03
The flipflip sidecôté of perceptionla perception is creativityla créativité:
16
51594
3493
Le revers de la perception
est la créativité :
01:07
turningtournant a conceptconcept into something
out there into the worldmonde.
17
55111
3038
transformer un concept
en un objet du monde extérieur.
01:10
So over the pastpassé yearan,
our work on machinemachine perceptionla perception
18
58173
3555
Au cours de l'année, notre travail
sur la perception des machines
01:13
has alsoaussi unexpectedlyde façon inattendue connectedconnecté
with the worldmonde of machinemachine creativityla créativité
19
61752
4859
a été lié, de façon inattendue,
au monde de la créativité des machines
et de l'art des machines.
01:18
and machinemachine artart.
20
66635
1160
01:20
I think MichelangeloMichelangelo
had a penetratingpénétrante insightperspicacité
21
68556
3284
Je pense que Michel-Ange
avait une vision perspicace
01:23
into to this dualdouble relationshiprelation
betweenentre perceptionla perception and creativityla créativité.
22
71864
3656
de cette double relation
entre la perception et la créativité.
01:28
This is a famouscélèbre quotecitation of his:
23
76023
2006
Voici une de ses citations connue :
01:30
"EveryChaque blockbloc of stonepierre
has a statuestatue insideà l'intérieur of it,
24
78053
3323
« Chaque bloc de pierre
renferme une statue
et c'est le rôle du sculpteur
de la découvrir. »
01:34
and the jobemploi of the sculptorsculpteur
is to discoverdécouvrir it."
25
82036
3002
01:38
So I think that what
MichelangeloMichelangelo was gettingobtenir at
26
86029
3216
Je pense que ce que Michel-Ange
voulait exprimer
01:41
is that we createcréer by perceivingpercevoir,
27
89269
3180
c'est que nous créons
ce que nous perçevons
01:44
and that perceptionla perception itselfse
is an actacte of imaginationimagination
28
92473
3023
et que cette perception est elle-même
un acte d'imagination
01:47
and is the stuffdes trucs of creativityla créativité.
29
95520
2461
et est le produit de la créativité.
01:50
The organorgane that does all the thinkingen pensant
and perceivingpercevoir and imaginingimaginant,
30
98691
3925
L'organe qui pense et perçoit et imagine
01:54
of coursecours, is the braincerveau.
31
102640
1588
est, bien-sûr, le cerveau.
01:57
And I'd like to begincommencer
with a briefbref bitbit of historyhistoire
32
105089
2545
Et j'aimerais commencer
avec une brève histoire
de ce que nous savons sur le cerveau.
01:59
about what we know about brainscerveaux.
33
107658
2302
02:02
Because unlikecontrairement à, say,
the heartcœur or the intestinesintestins,
34
110496
2446
Car, contrairement au cœur
ou aux intestins,
02:04
you really can't say very much
about a braincerveau by just looking at it,
35
112966
3144
on ne peut pas dire grand chose
sur le cerveau en le regardant,
02:08
at leastmoins with the nakednu eyeœil.
36
116134
1412
tout du moins pas à l’œil nu.
02:09
The earlyde bonne heure anatomistsanatomistes who lookedregardé at brainscerveaux
37
117983
2416
Les premiers anatomistes
qui ont étudié le cerveau
02:12
gavea donné the superficialsuperficiel structuresles structures
of this thing all kindssortes of fancifulfantaisistes namesdes noms,
38
120423
3807
ont donné aux structures superficielles
des tas de jolis noms
02:16
like hippocampushippocampe, meaningsens "little shrimpcrevettes."
39
124254
2433
tels que l'hippocampe,
soit « petit champignon ».
02:18
But of coursecours that sortTrier of thing
doesn't tell us very much
40
126711
2764
Bien-sûr, ce genre de choses
ne nous dit pas
ce qu'il se passe à l'intérieur.
02:21
about what's actuallyréellement going on insideà l'intérieur.
41
129499
2318
La première personne qui, à mon avis,
s'est fait une idée
02:24
The first personla personne who, I think, really
developeddéveloppé some kindgentil of insightperspicacité
42
132780
3613
02:28
into what was going on in the braincerveau
43
136417
1930
de ce qu'il se passait dans le cerveau
02:30
was the great SpanishEspagnol neuroanatomistneuroanatomiste,
SantiagoSantiago RamRAMón y CajalCajal,
44
138371
3920
était le neuroanatomiste espagnol,
Santiago Ramón y Cajal,
02:34
in the 19thth centurysiècle,
45
142315
1544
au 19ème siècle.
02:35
who used microscopymicroscopie and specialspécial stainsles taches
46
143883
3755
Il a utilisé la microscopie
et des colorants spéciaux
02:39
that could selectivelysélectivement fillremplir in
or renderrendre in very highhaute contrastcontraste
47
147662
4170
qui pouvaient colorer
ou créer un fort contraste
dans les différentes cellules du cerveau
02:43
the individualindividuel cellscellules in the braincerveau,
48
151856
2008
02:45
in ordercommande to startdébut to understandcomprendre
theirleur morphologiesmorphologies.
49
153888
3154
afin de commencer
à comprendre leur morphologie.
Il a fait ce genre de dessins
représentant les neurones
02:49
And these are the kindssortes of drawingsdessins
that he madefabriqué of neuronsneurones
50
157972
2891
au 19ème siècle.
02:52
in the 19thth centurysiècle.
51
160887
1209
Ceci est un cerveau d'oiseau.
02:54
This is from a birdoiseau braincerveau.
52
162120
1884
Vous voyez cette incroyable diversité
de type de cellules,
02:56
And you see this incredibleincroyable varietyvariété
of differentdifférent sortssortes of cellscellules,
53
164028
3057
même la théorie cellulaire
était relativement nouvelle à l'époque.
02:59
even the cellularcellulaire theorythéorie itselfse
was quiteassez newNouveau at this pointpoint.
54
167109
3435
03:02
And these structuresles structures,
55
170568
1278
Ces structures,
03:03
these cellscellules that have these arborizationsramifications,
56
171870
2259
ces cellules avec ces arborisations,
03:06
these branchesbranches that can go
very, very long distancesles distances --
57
174153
2608
ces branches parcourant
de très grandes distances,
tout cela était nouveau à l'époque.
03:08
this was very novelroman at the time.
58
176785
1616
03:10
They're reminiscentréminiscence, of coursecours, of wiresfils.
59
178779
2903
Elles nous rappellent des câbles.
03:13
That mightpourrait have been obviousévident
to some people in the 19thth centurysiècle;
60
181706
3457
Au 19ème siècle, cela semblait
peut-être évident à certains :
03:17
the revolutionsrévolutions of wiringcâblage and electricityélectricité
were just gettingobtenir underwayen cours.
61
185187
4314
la révolution du câblage électrique
venait de commencer.
Mais de bien des façons,
03:21
But in manybeaucoup waysfaçons,
62
189964
1178
ces dessins micro-anatomiques
de Ramón y Cajal, comme celui-ci,
03:23
these microanatomicalmicroanatomical drawingsdessins
of RamRAMón y Cajal'sDe Cajal, like this one,
63
191166
3313
03:26
they're still in some waysfaçons unsurpassedinégalée.
64
194503
2332
n'ont toujours pas été surpassés.
03:28
We're still more than a centurysiècle laterplus tard,
65
196859
1854
Plus d'un siècle plus tard,
nous essayons toujours de finir
le travail entamé par Ramón y Cajal.
03:30
tryingen essayant to finishterminer the jobemploi
that RamRAMón y CajalCajal startedcommencé.
66
198737
2825
03:33
These are rawbrut dataLes données from our collaboratorscollaborateurs
67
201586
3134
Voici des données brutes
venant de nos collaborateurs
à l'Institut de Neuroscience Max Planck.
03:36
at the MaxMax PlanckPlanck InstituteInstitut
of NeuroscienceNeuroscience.
68
204744
2881
03:39
And what our collaboratorscollaborateurs have doneterminé
69
207649
1790
Nos collaborateurs ont imagé
03:41
is to imageimage little piecesdes morceaux of braincerveau tissuetissu.
70
209463
5001
de petits morceaux de tissu cérébral.
03:46
The entiretout sampleéchantillon here
is about one cubiccubes millimetermillimètre in sizeTaille,
71
214488
3326
L'échantillon fait environ
un millimètre cube
03:49
and I'm showingmontrer you a very,
very smallpetit piecepièce of it here.
72
217838
2621
et je vous en montre
un très petite portion.
03:52
That barbar on the left is about one micronmicron.
73
220483
2346
Le trait sur la gauche
fait environ un micron.
Les structures que vous voyez
sont des mitochondries
03:54
The structuresles structures you see are mitochondriamitochondrie
74
222853
2409
03:57
that are the sizeTaille of bacteriades bactéries.
75
225286
2044
faisant la taille d'une bactérie.
03:59
And these are consecutiveconsécutives slicestranches de
76
227354
1551
Voici des coupes consécutives
04:00
throughpar this very, very
tinyminuscule blockbloc of tissuetissu.
77
228929
3148
de ce très petit bloc de tissu.
04:04
Just for comparison'sla comparaison sakeSaké,
78
232101
2403
Si vous voulez comparer,
04:06
the diameterdiamètre of an averagemoyenne strandStrand
of haircheveux is about 100 micronsmicrons.
79
234528
3792
le diamètre moyen d'un cheveu
est d'environ 100 microns.
04:10
So we're looking at something
much, much smallerplus petit
80
238344
2274
Nous regardons quelque chose
de beaucoup plus petit qu'un cheveu.
04:12
than a singleunique strandStrand of haircheveux.
81
240642
1398
Avec ce genre de coupes séquentielles
en microscopie électronique,
04:14
And from these kindssortes of serialSerial
electronélectron microscopymicroscopie slicestranches de,
82
242064
4031
04:18
one can startdébut to make reconstructionsreconstructions
in 3D of neuronsneurones that look like these.
83
246119
5008
nous pouvons en faire des reconstructions
en 3D des neurones comme celle-ci.
04:23
So these are sortTrier of in the sameMême
stylestyle as RamRAMón y CajalCajal.
84
251151
3157
Cela ressemble à ce qu'a fait
Ramón y Cajal.
04:26
Only a fewpeu neuronsneurones litallumé up,
85
254332
1492
Seuls quelques neurones s'allument,
sinon nous n'y verrions rien,
04:27
because otherwiseautrement we wouldn'tne serait pas
be ablecapable to see anything here.
86
255848
2781
04:30
It would be so crowdedbondé,
87
258653
1312
Cela serait trop dense,
04:31
so fullplein of structurestructure,
88
259989
1330
trop rempli structures,
04:33
of wiringcâblage all connectingde liaison
one neuronneurone to anotherun autre.
89
261343
2724
de câbles connectant
les neurones entre eux.
04:37
So RamRAMón y CajalCajal was a little bitbit
aheaddevant of his time,
90
265293
2804
Ramón y Cajal était en avance
pour son époque
04:40
and progressle progrès on understandingcompréhension the braincerveau
91
268121
2555
et les progrès faits
dans la compréhension du cerveau
04:42
proceededa procédé slowlylentement
over the nextprochain fewpeu decadesdécennies.
92
270700
2271
ont avancé lentement
au cours des décades suivantes.
04:45
But we knewa connu that neuronsneurones used electricityélectricité,
93
273455
2853
Mais nous savions que les neurones
utilisaient l'électricité
04:48
and by WorldMonde WarGuerre IIII, our technologyLa technologie
was advancedAvancée enoughassez
94
276332
2936
et, en 1945,
notre technologie était assez avancée
pour entamer de vraies
expériences électrique sur des neurones
04:51
to startdébut doing realréal electricalélectrique
experimentsexpériences on livevivre neuronsneurones
95
279292
2806
04:54
to better understandcomprendre how they workedtravaillé.
96
282122
2106
pour mieux comprendre leur fonctionnement.
04:56
This was the very sameMême time
when computersdes ordinateurs were beingétant inventeda inventé,
97
284631
4356
C'est au même moment
que les ordinateurs furent inventés,
05:01
very much basedbasé on the ideaidée
of modelingla modélisation the braincerveau --
98
289011
3100
dans l'idée de modéliser le cerveau ;
05:04
of "intelligentintelligent machinerymachinerie,"
as AlanAlan TuringTuring calledappelé it,
99
292135
3085
une « machine intelligente »,
comme disait Alan Turing,
un des pères de l'informatique.
05:07
one of the fatherspères of computerordinateur sciencescience.
100
295244
1991
05:09
WarrenWarren McCullochMcCulloch and WalterWalter PittsPitts
lookedregardé at RamRAMón y Cajal'sDe Cajal drawingdessin
101
297923
4632
Warren McCulloch et Walter Pitts
ont regardé les dessins que Ramón y Cajal
05:14
of visualvisuel cortexcortex,
102
302579
1317
avait fait du cortex visuel
05:15
whichlequel I'm showingmontrer here.
103
303920
1562
et qui sont présentés ici.
05:17
This is the cortexcortex that processesprocessus
imageryimagerie that comesvient from the eyeœil.
104
305506
4442
C'est le cortex qui traite
les images venant de l’œil.
05:22
And for them, this lookedregardé
like a circuitcircuit diagramdiagramme.
105
310424
3508
Pour eux, cela ressemblait
à un schéma électrique.
05:26
So there are a lot of detailsdétails
in McCullochMcCulloch and Pitts'sDe Pitts circuitcircuit diagramdiagramme
106
314353
3835
Il y a de nombreux détails
dans leur schéma électrique
05:30
that are not quiteassez right.
107
318212
1352
qui ne sont pas exacts.
Mais l'idée de base
selon laquelle le cortex visuel
05:31
But this basicde base ideaidée
108
319588
1235
05:32
that visualvisuel cortexcortex workstravaux like a seriesséries
of computationalcalcul elementséléments
109
320847
3992
fonctionne comme une série
de composants électroniques
05:36
that passpasser informationinformation
one to the nextprochain in a cascadecascade,
110
324863
2746
relayant l'information
à la cascade suivante
est globalement correcte.
05:39
is essentiallyessentiellement correctcorrect.
111
327633
1602
05:41
Let's talk for a momentmoment
112
329259
2350
Considérons un instant
05:43
about what a modelmaquette for processingEn traitement
visualvisuel informationinformation would need to do.
113
331633
4032
ce qu'un modèle de traitement
d'information visuelle ferait.
La tâche basique de perception
05:48
The basicde base tasktâche of perceptionla perception
114
336228
2741
05:50
is to take an imageimage like this one and say,
115
338993
4194
est de prendre une image
comme celle-ci et de dire :
« c'est un oiseau »,
05:55
"That's a birdoiseau,"
116
343211
1176
05:56
whichlequel is a very simplesimple thing
for us to do with our brainscerveaux.
117
344411
2874
ce qui est, pour nous, très simple à faire
grâce à nos cerveaux.
05:59
But you should all understandcomprendre
that for a computerordinateur,
118
347309
3421
Mais vous devriez tous comprendre
que pour un ordinateur
06:02
this was prettyjoli much impossibleimpossible
just a fewpeu yearsannées agodepuis.
119
350754
3087
c'était quelque chose d'impossible
il y a quelques années.
06:05
The classicalclassique computingl'informatique paradigmparadigme
120
353865
1916
Le paradigme classique de l'informatique
06:07
is not one in whichlequel
this tasktâche is easyfacile to do.
121
355805
2507
ne permet pas d'accomplir
cette tâche simplement.
Ce qu'il se passe entre les pixels,
06:11
So what's going on betweenentre the pixelspixels,
122
359366
2552
06:13
betweenentre the imageimage of the birdoiseau
and the wordmot "birdoiseau,"
123
361942
4028
entre l'image de l'oiseau
et le mot « oiseau »,
c'est un ensemble
de neurones connectés entre eux
06:17
is essentiallyessentiellement a setensemble of neuronsneurones
connectedconnecté to eachchaque other
124
365994
2814
à travers un réseau neuronal,
comme représenté ici.
06:20
in a neuralneural networkréseau,
125
368832
1155
06:22
as I'm diagrammingcréation de diagrammes here.
126
370011
1223
Ce réseau neuronal peut être biologique,
comme dans nos cortex visuels
06:23
This neuralneural networkréseau could be biologicalbiologique,
insideà l'intérieur our visualvisuel corticescortex,
127
371258
3272
ou, de nos jours, nous avons la capacité
06:26
or, nowadaysaujourd'hui, we startdébut
to have the capabilityaptitude
128
374554
2162
de modéliser des réseaux neuronaux
en informatique.
06:28
to modelmaquette suchtel neuralneural networksréseaux
on the computerordinateur.
129
376740
2454
06:31
And I'll showmontrer you what
that actuallyréellement looksregards like.
130
379834
2353
Je vais vous montrer
ce à quoi cela ressemble.
06:34
So the pixelspixels you can think
about as a first layercouche of neuronsneurones,
131
382211
3416
Vous pouvez voir les pixels
comme la première couche de neurones,
06:37
and that's, in factfait,
how it workstravaux in the eyeœil --
132
385651
2239
c'est ainsi que l’œil fonctionne :
ce sont les neurones dans la rétine.
06:39
that's the neuronsneurones in the retinarétine.
133
387914
1663
06:41
And those feedalimentation forwardvers l'avant
134
389601
1500
Ils transmettent l'information
06:43
into one layercouche after anotherun autre layercouche,
after anotherun autre layercouche of neuronsneurones,
135
391125
3403
couche après couche de neurones,
06:46
all connectedconnecté by synapsessynapses
of differentdifférent weightspoids.
136
394552
3033
tous connectés par des synapses
de différents poids.
Le comportement de ce réseau
06:49
The behaviorcomportement of this networkréseau
137
397609
1335
06:50
is characterizedcaractérisé by the strengthspoints forts
of all of those synapsessynapses.
138
398968
3284
est caractérisé par les forces
de toutes ces synapses.
06:54
Those characterizecaractériser les the computationalcalcul
propertiesPropriétés of this networkréseau.
139
402276
3288
Elles caractérisent les propriétés
informatiques de ce réseau.
Finalement,
06:57
And at the endfin of the day,
140
405588
1470
vous avez un neurone
ou un petit groupe de neurones
06:59
you have a neuronneurone
or a smallpetit groupgroupe of neuronsneurones
141
407082
2447
07:01
that lightlumière up, sayingen disant, "birdoiseau."
142
409553
1647
qui s'allument et disent « oiseau ».
Je vais représenter ces trois choses :
07:03
Now I'm going to representreprésenter
those threeTrois things --
143
411824
3132
les pixels en entrée et les synapses
du réseau neuronal,
07:06
the inputcontribution pixelspixels and the synapsessynapses
in the neuralneural networkréseau,
144
414980
4696
et l'oiseau, la sortie,
07:11
and birdoiseau, the outputsortie --
145
419700
1585
avec trois variables : x, w et y.
07:13
by threeTrois variablesvariables: x, w and y.
146
421309
3057
Il y a peut-être un million de x :
07:16
There are maybe a millionmillion or so x'sx --
147
424853
1811
07:18
a millionmillion pixelspixels in that imageimage.
148
426688
1953
un million de pixels par image.
Il y a des milliards ou des billions de w
07:20
There are billionsdes milliards or trillionsbillions of w'sw,
149
428665
2446
qui représentent le poids de toutes
ces synapses du réseau neuronal.
07:23
whichlequel representreprésenter the weightspoids of all
these synapsessynapses in the neuralneural networkréseau.
150
431135
3421
Et il y a très peu de y,
07:26
And there's a very smallpetit numbernombre of y'sy,
151
434580
1875
de sorties présentes dans le réseau.
07:28
of outputssorties that that networkréseau has.
152
436479
1858
07:30
"BirdOiseau" is only fourquatre lettersdes lettres, right?
153
438361
1749
« Oiseau » n'a que six lettres.
07:33
So let's pretendfaire semblant that this
is just a simplesimple formulaformule,
154
441088
3426
Prétendons que la formule est simple :
x « fois » w = y.
07:36
x "x" w = y.
155
444538
2163
Je mets fois entre guillements
07:38
I'm puttingen mettant the timesfois in scareeffrayer quotescitations
156
446725
2036
car ce qu'il se passe vraiment
est bien-sûr
07:40
because what's really
going on there, of coursecours,
157
448785
2280
une série complexe
d'opérations mathématiques.
07:43
is a very complicatedcompliqué seriesséries
of mathematicalmathématique operationsopérations.
158
451089
3046
C'est une équation.
07:47
That's one equationéquation.
159
455172
1221
07:48
There are threeTrois variablesvariables.
160
456417
1672
Il y a trois variables.
07:50
And we all know
that if you have one equationéquation,
161
458113
2726
Nous savons tous qu'avec une équation,
07:52
you can solverésoudre one variablevariable
by knowingconnaissance the other two things.
162
460863
3642
vous pouvez trouver une variable
si vous connaissez les deux autres.
Le problème de l'inférence,
07:57
So the problemproblème of inferenceinférence,
163
465158
3380
c'est-à-dire trouver
que la photo de l'oiseau est un oiseau,
08:00
that is, figuringfigurer out
that the picturephoto of a birdoiseau is a birdoiseau,
164
468562
2873
est le suivant :
08:03
is this one:
165
471459
1274
08:04
it's where y is the unknowninconnu
and w and x are knownconnu.
166
472757
3459
y est l'inconnue et w et x sont connus.
Vous connaissez
le réseau neuronal et les pixels.
08:08
You know the neuralneural networkréseau,
you know the pixelspixels.
167
476240
2459
Comme vous le voyez, c'est un problème
plutôt simple à résoudre.
08:10
As you can see, that's actuallyréellement
a relativelyrelativement straightforwardsimple problemproblème.
168
478723
3327
Vous multipliez deux par trois
et vous avez fini.
08:14
You multiplymultiplier two timesfois threeTrois
and you're doneterminé.
169
482074
2186
Je vais vous montrer un réseau neuronal
08:16
I'll showmontrer you an artificialartificiel neuralneural networkréseau
170
484862
2123
08:19
that we'venous avons builtconstruit recentlyrécemment,
doing exactlyexactement that.
171
487009
2296
que nous avons créé récemment
et qui fait cela.
Il tourne en temps réel
sur un téléphone portable,
08:21
This is runningfonctionnement in realréal time
on a mobilemobile phonetéléphone,
172
489634
2860
08:24
and that's, of coursecours,
amazingincroyable in its ownposséder right,
173
492518
3313
bien-sur, c'est génial en soi
08:27
that mobilemobile phonesTéléphones can do so manybeaucoup
billionsdes milliards and trillionsbillions of operationsopérations
174
495855
3468
que les portables puissent faire
des milliards et billions d'opérations
par seconde.
08:31
perpar secondseconde.
175
499347
1248
08:32
What you're looking at is a phonetéléphone
176
500619
1615
Vous regardez un téléphone
08:34
looking at one after anotherun autre
picturephoto of a birdoiseau,
177
502258
3547
considérant à la suite
plusieurs images d'oiseaux
et ne disant pas seulement
que c'est un oiseau
08:37
and actuallyréellement not only sayingen disant,
"Yes, it's a birdoiseau,"
178
505829
2715
08:40
but identifyingidentifier les the speciesespèce of birdoiseau
with a networkréseau of this sortTrier.
179
508568
3411
mais identifiant l'espèce d'oiseau
avec un réseau de ce genre.
08:44
So in that picturephoto,
180
512890
1826
Dans cette image,
08:46
the x and the w are knownconnu,
and the y is the unknowninconnu.
181
514740
3802
le x et le w sont connus
et le y est l'inconnue.
Je fais abstraction
de la partie complexe, bien-sûr,
08:50
I'm glossingGLOSSING over the very
difficultdifficile partpartie, of coursecours,
182
518566
2508
qui est : comment trouver le w,
08:53
whichlequel is how on earthTerre
do we figurefigure out the w,
183
521098
3861
le cerveau est-il capable
d'une telle chose ?
08:56
the braincerveau that can do suchtel a thing?
184
524983
2187
Comment apprendre un tel modèle ?
08:59
How would we ever learnapprendre suchtel a modelmaquette?
185
527194
1834
09:01
So this processprocessus of learningapprentissage,
of solvingrésoudre for w,
186
529418
3233
Ce processus d'apprentissage,
de recherche du w,
si nous le faisons avec la simple équation
09:04
if we were doing this
with the simplesimple equationéquation
187
532675
2647
dans laquelle nous utilisons des nombres,
09:07
in whichlequel we think about these as numbersNombres,
188
535346
2000
nous savons comment procéder : 6 = 2 x w,
09:09
we know exactlyexactement how to do that: 6 = 2 x w,
189
537370
2687
09:12
well, we dividediviser by two and we're doneterminé.
190
540081
3312
il suffit de diviser par 2 et c'est fini.
Le problème est l'opérateur :
09:16
The problemproblème is with this operatoropérateur.
191
544001
2220
la division.
09:18
So, divisiondivision --
192
546823
1151
Nous utilisons la division
qui est l'inverse de la multiplication
09:19
we'venous avons used divisiondivision because
it's the inverseinverse to multiplicationmultiplication,
193
547998
3121
mais, comme je l'ai dit,
09:23
but as I've just said,
194
551143
1440
nous ne faisons pas vraiment
une multiplication.
09:24
the multiplicationmultiplication is a bitbit of a liemensonge here.
195
552607
2449
09:27
This is a very, very complicatedcompliqué,
very non-linearnon linéaire operationopération;
196
555080
3326
C'est une opération très, très compliquée
et non-linéaire ;
09:30
it has no inverseinverse.
197
558430
1704
elle n'a pas d'inverse.
Nous devons donc trouver un moyen
de résoudre l'équation
09:32
So we have to figurefigure out a way
to solverésoudre the equationéquation
198
560158
3150
sans opérateur de division.
09:35
withoutsans pour autant a divisiondivision operatoropérateur.
199
563332
2024
La méthode pour cela est assez simple :
09:37
And the way to do that
is fairlyéquitablement straightforwardsimple.
200
565380
2343
nous utilisons une ruse algébrique
09:39
You just say, let's playjouer
a little algebraalgèbre tricktour,
201
567747
2671
et déplaçons le six
de l'autre côté de l'équation.
09:42
and movebouge toi the sixsix over
to the right-handmain droite sidecôté of the equationéquation.
202
570442
2906
Il y a toujours une multiplication.
09:45
Now, we're still usingen utilisant multiplicationmultiplication.
203
573372
1826
Et ce zéro, voyons-le comme une erreur.
09:47
And that zerozéro -- let's think
about it as an errorErreur.
204
575675
3580
En d'autres mots,
si nous résolvons bien w,
09:51
In other wordsmots, if we'venous avons solvedrésolu
for w the right way,
205
579279
2515
l'erreur sera nulle.
09:53
then the errorErreur will be zerozéro.
206
581818
1656
Si nous n'avons pas totalement raison,
l'erreur sera plus grande que zéro.
09:55
And if we haven'tn'a pas gottenobtenu it quiteassez right,
207
583498
1938
09:57
the errorErreur will be greaterplus grand than zerozéro.
208
585460
1749
Nous pouvons maintenant faire
des suppositions et minimiser l'erreur,
09:59
So now we can just take guessesconjectures
to minimizeminimiser the errorErreur,
209
587233
3366
ce que les ordinateurs
savent très bien faire.
10:02
and that's the sortTrier of thing
computersdes ordinateurs are very good at.
210
590623
2687
On fait une supposition :
10:05
So you've takenpris an initialinitiale guessdeviner:
211
593334
1593
et si w = 0 ? Alors, l'erreur est de 6.
10:06
what if w = 0?
212
594951
1156
Si w = 1 ? L'erreur est de 4.
10:08
Well, then the errorErreur is 6.
213
596131
1240
10:09
What if w = 1? The errorErreur is 4.
214
597395
1446
L'ordinateur peut alors
joueur à Marco Polo
10:10
And then the computerordinateur can
sortTrier of playjouer MarcoMarco PoloPolo,
215
598865
2367
et atteindre une erreur proche de zéro.
10:13
and driveconduire down the errorErreur closeFermer to zerozéro.
216
601256
2367
Il fait cela par des approximations
successives de w.
10:15
As it does that, it's gettingobtenir
successivesuccessif approximationsapproximations to w.
217
603647
3374
Typiquement, il ne l'atteint jamais,
mais après une douzaine d'étapes,
10:19
TypicallyEn général, it never quiteassez getsobtient there,
but after about a dozendouzaine stepspas,
218
607045
3656
10:22
we're up to w = 2.999,
whichlequel is closeFermer enoughassez.
219
610725
4624
nous avons w = 2,999,
ce qui est assez proche.
Voilà le processus d'apprentissage.
10:28
And this is the learningapprentissage processprocessus.
220
616302
1814
10:30
So rememberrappelles toi that what's been going on here
221
618140
2730
Souvenez-vous que ce que nous avons fait
10:32
is that we'venous avons been takingprise
a lot of knownconnu x'sx and knownconnu y'sy
222
620894
4378
c'est de prendre beaucoup
de x et de y connus
et de cherche le w au milieu
via un procédé itératif.
10:37
and solvingrésoudre for the w in the middlemilieu
throughpar an iterativeitératif processprocessus.
223
625296
3454
10:40
It's exactlyexactement the sameMême way
that we do our ownposséder learningapprentissage.
224
628774
3556
C'est exactement la même méthode que celle
par laquelle nous apprenons.
Bébés, nous voyons de nombreuses images
10:44
We have manybeaucoup, manybeaucoup imagesimages as babiesbébés
225
632354
2230
et on nous dit : « C'est un oiseau ;
ce n'en est pas un ».
10:46
and we get told, "This is a birdoiseau;
this is not a birdoiseau."
226
634608
2633
Avec le temps, grâce aux itérations,
10:49
And over time, throughpar iterationitération,
227
637714
2098
nous trouvons w,
nous résolvons ces connexions neuronales.
10:51
we solverésoudre for w, we solverésoudre
for those neuralneural connectionsles liaisons.
228
639836
2928
10:55
So now, we'venous avons heldtenu
x and w fixedfixé to solverésoudre for y;
229
643460
4086
Nous avons fixés x et w et recherché y ;
c'est de la perception rapide, normale.
10:59
that's everydaytous les jours, fastvite perceptionla perception.
230
647570
1847
11:01
We figurefigure out how we can solverésoudre for w,
231
649441
1763
Nous avons réussi à trouver w :
11:03
that's learningapprentissage, whichlequel is a lot harderPlus fort,
232
651228
1903
c'est de l'apprentissage, plus complexe
11:05
because we need to do errorErreur minimizationminimisation des,
233
653155
1985
car nous devons minimiser l'erreur
en pratiquant beaucoup d'exemple.
11:07
usingen utilisant a lot of trainingentraînement examplesexemples.
234
655164
1687
Il y a environ un an,
Alex Mordvintsev, de notre équipe,
11:08
And about a yearan agodepuis,
AlexAlex MordvintsevMordvintsev, on our teaméquipe,
235
656875
3187
a décidé d'essayer de voir
ce qu'il se passe si nous cherchons x
11:12
decideddécidé to experimentexpérience
with what happensarrive if we try solvingrésoudre for x,
236
660086
3550
11:15
givendonné a knownconnu w and a knownconnu y.
237
663660
2037
avec pour données un w et un y connus.
En d'autres mots,
vous savez que c'est un oiseau
11:18
In other wordsmots,
238
666124
1151
11:19
you know that it's a birdoiseau,
239
667299
1352
11:20
and you alreadydéjà have your neuralneural networkréseau
that you've trainedqualifié on birdsdes oiseaux,
240
668675
3303
et avez entraîné votre réseau neuronal
sur les oiseaux,
11:24
but what is the picturephoto of a birdoiseau?
241
672002
2344
mais qu'est-ce qu'une image d'oiseau ?
11:27
It turnsse tourne out that by usingen utilisant exactlyexactement
the sameMême error-minimizationminimisation des erreurs procedureprocédure,
242
675034
5024
Il s'avère qu'en utilisant la même
procédure de minimisation de l'erreur,
cela est possible avec le réseau
entraîné à reconnaître les oiseaux
11:32
one can do that with the networkréseau
trainedqualifié to recognizereconnaître birdsdes oiseaux,
243
680082
3430
et le résultat s'avère être :
11:35
and the resultrésultat turnsse tourne out to be ...
244
683536
3388
une image d'oiseaux.
11:42
a picturephoto of birdsdes oiseaux.
245
690400
1305
11:44
So this is a picturephoto of birdsdes oiseaux
generatedgénéré entirelyentièrement by a neuralneural networkréseau
246
692814
3737
C'est une image d'oiseaux
entièrement générée par un réseau neuronal
entraîné à reconnaître les oiseaux,
11:48
that was trainedqualifié to recognizereconnaître birdsdes oiseaux,
247
696575
1826
11:50
just by solvingrésoudre for x
ratherplutôt than solvingrésoudre for y,
248
698425
3538
simplement en cherchant x plutôt que y
11:53
and doing that iterativelypar itération.
249
701987
1288
et ce par itérations.
11:55
Here'sVoici anotherun autre funamusement exampleExemple.
250
703732
1847
Un autre exemple amusant :
11:57
This was a work madefabriqué
by MikeMike TykaTyka in our groupgroupe,
251
705603
3437
ce travail a été fait
par Mike Tyka, de notre groupe,
12:01
whichlequel he callsappels "AnimalAnimal ParadeDéfilé."
252
709064
2308
et il l'a appelé « Parade Animale ».
12:03
It remindsrappelle me a little bitbit
of WilliamWilliam Kentridge'sDe Kentridge artworksœuvres d’art,
253
711396
2876
Cela me rappelle un peu
les œuvres de William Kentridge
12:06
in whichlequel he makesfait du sketchescroquis, rubsfrotte them out,
254
714296
2489
où il fait des croquis, les efface,
fait des croquis, les efface
et crée un film ainsi.
12:08
makesfait du sketchescroquis, rubsfrotte them out,
255
716809
1460
12:10
and createscrée a moviefilm this way.
256
718293
1398
Dans ce cas, Mike fait varier y
sur différents animaux dans un réseau créé
12:11
In this caseCas,
257
719715
1151
12:12
what MikeMike is doing is varyingvariant y
over the spaceespace of differentdifférent animalsanimaux,
258
720890
3277
12:16
in a networkréseau designedconçu
to recognizereconnaître and distinguishdistinguer
259
724191
2382
pour reconnaître et distinguer
divers animaux entre eux.
12:18
differentdifférent animalsanimaux from eachchaque other.
260
726597
1810
Vous obtenez cette métamorphose étrange,
à la Escher, d'un animal à un autre.
12:20
And you get this strangeétrange, Escher-likeEscher-like
morphMorph from one animalanimal to anotherun autre.
261
728431
3751
Ici, lui et Alex ont essayé de réduire
12:26
Here he and AlexAlex togetherensemble
have trieda essayé reducingréduire
262
734221
4614
l'espace des y à seulement
deux dimensions,
12:30
the y'sy to a spaceespace of only two dimensionsdimensions,
263
738859
2759
12:33
therebyainsi makingfabrication a mapcarte
out of the spaceespace of all things
264
741642
3438
créant ainsi une carte
de l'espace de toutes les choses
12:37
recognizedreconnu by this networkréseau.
265
745104
1719
reconnues par le réseau.
En faisant ce genre de synthèse
ou génération d'images
12:38
Doing this kindgentil of synthesisla synthèse
266
746847
2023
12:40
or generationgénération of imageryimagerie
over that entiretout surfacesurface,
267
748894
2382
sur toute cette surface,
en faisant varier y sur la surface,
vous créez une carte,
12:43
varyingvariant y over the surfacesurface,
you make a kindgentil of mapcarte --
268
751300
2846
une carte visuelle de toutes les choses
que le réseau reconnaît.
12:46
a visualvisuel mapcarte of all the things
the networkréseau knowssait how to recognizereconnaître.
269
754170
3141
Les animaux sont tous là :
le tatou est juste là.
12:49
The animalsanimaux are all here;
"armadillotatou" is right in that spotplace.
270
757335
2865
Vous pouvez aussi le faire
avec d'autres réseaux.
12:52
You can do this with other kindssortes
of networksréseaux as well.
271
760919
2479
Voici un réseau créé
pour reconnaître les visages,
12:55
This is a networkréseau designedconçu
to recognizereconnaître facesvisages,
272
763422
2874
pour distinguer différents visages.
12:58
to distinguishdistinguer one facevisage from anotherun autre.
273
766320
2000
13:00
And here, we're puttingen mettant
in a y that saysdit, "me,"
274
768344
3249
Nous lui donnons un y : moi,
13:03
my ownposséder facevisage parametersparamètres.
275
771617
1575
les paramètres de mon visage.
13:05
And when this thing solvesrésout for x,
276
773216
1706
Quand il cherche x,
13:06
it generatesgénère this ratherplutôt crazyfou,
277
774946
2618
il génère cette image de moi
assez folle, cubiste,
surréelle et psychédélique
13:09
kindgentil of cubistcubiste, surrealsurréaliste,
psychedelicpsychédélique picturephoto of me
278
777588
4428
avec plusieurs points de vue.
13:14
from multipleplusieurs pointspoints of viewvue at onceune fois que.
279
782040
1806
La raison pour laquelle
il y a plusieurs points de vue
13:15
The reasonraison it looksregards like
multipleplusieurs pointspoints of viewvue at onceune fois que
280
783870
2734
est que le réseau est conçu
pour se débarrasser de l'ambiguïté
13:18
is because that networkréseau is designedconçu
to get riddébarrasser of the ambiguityambiguïté
281
786628
3687
13:22
of a facevisage beingétant in one posepose
or anotherun autre posepose,
282
790339
2476
d'un visage pris
de tel ou tel point de vue,
13:24
beingétant lookedregardé at with one kindgentil of lightingéclairage,
anotherun autre kindgentil of lightingéclairage.
283
792839
3376
regardé avec tel ou tel éclairage.
13:28
So when you do
this sortTrier of reconstructionreconstruction,
284
796239
2085
En faisant cette reconstruction,
si vous n'utilisez pas d'image
ou de statistiques directrices,
13:30
if you don't use some sortTrier of guideguider imageimage
285
798348
2304
13:32
or guideguider statisticsstatistiques,
286
800676
1211
13:33
then you'lltu vas get a sortTrier of confusionconfusion
of differentdifférent pointspoints of viewvue,
287
801911
3765
vous obtenez une confusion
de plusieurs points de vue
13:37
because it's ambiguousambiguë.
288
805700
1368
car c'est ambiguë.
13:39
This is what happensarrive if AlexAlex usesles usages
his ownposséder facevisage as a guideguider imageimage
289
807786
4223
Voici ce qu'il se passe si Alex
utilise son visage comme ligne directrice
13:44
duringpendant that optimizationoptimisation processprocessus
to reconstructreconstruire my ownposséder facevisage.
290
812033
3321
durant le processus d'optimisation
de la reconstruction de mon visage.
13:48
So you can see it's not perfectparfait.
291
816284
2328
Vous voyez que ce n'est pas parfait.
Il y a encore beaucoup de travail
13:50
There's still quiteassez a lot of work to do
292
818636
1874
pour optimiser
ce processus d'optimisation.
13:52
on how we optimizeoptimiser
that optimizationoptimisation processprocessus.
293
820534
2453
Mais vous obtenez un visage plus cohérent
13:55
But you startdébut to get something
more like a coherentcohérente facevisage,
294
823011
2827
13:57
renderedrendus usingen utilisant my ownposséder facevisage as a guideguider.
295
825862
2014
en utilisant mon propre visage
comme guide.
Pas besoin de commencer
avec une toile vierge
14:00
You don't have to startdébut
with a blankblanc canvasToile
296
828892
2501
ou avec du bruit blanc.
14:03
or with whiteblanc noisebruit.
297
831417
1156
Quand vous cherchez x,
14:04
When you're solvingrésoudre for x,
298
832597
1304
vous pouvez commencer avec un x
qui est lui-même une autre image.
14:05
you can begincommencer with an x,
that is itselfse alreadydéjà some other imageimage.
299
833925
3889
14:09
That's what this little demonstrationmanifestation is.
300
837838
2556
C'est le cas dans cette démonstration.
14:12
This is a networkréseau
that is designedconçu to categorizecatégoriser
301
840418
4122
C'est un réseau conçu pour catégoriser
toutes sortes d'objets : structures
artificielles, animaux...
14:16
all sortssortes of differentdifférent objectsobjets --
man-madesynthétiques ou artificielles structuresles structures, animalsanimaux ...
302
844564
3119
Nous commençons avec une image de nuages
14:19
Here we're startingdépart
with just a picturephoto of cloudsdes nuages,
303
847707
2593
et, en optimisant,
14:22
and as we optimizeoptimiser,
304
850324
1671
ce réseau détermine
ce qu'il voit dans les nuages.
14:24
basicallyen gros, this networkréseau is figuringfigurer out
what it seesvoit in the cloudsdes nuages.
305
852019
4486
14:28
And the more time
you spenddépenser looking at this,
306
856931
2320
Et plus vous y passez de temps,
14:31
the more things you alsoaussi
will see in the cloudsdes nuages.
307
859275
2753
plus vous verrez de choses
dans les nuages.
Vous pouvez utiliser le réseau entraîné
aux visages pour halluciner dessus
14:35
You could alsoaussi use the facevisage networkréseau
to hallucinateavoir des hallucinations into this,
308
863004
3375
14:38
and you get some prettyjoli crazyfou stuffdes trucs.
309
866403
1812
et obtenir un truc assez fou.
14:40
(LaughterRires)
310
868239
1150
(Rires)
14:42
Or, MikeMike has doneterminé some other experimentsexpériences
311
870401
2744
Sinon, Mike a fait des expériences
où il prend cette image de nuage,
14:45
in whichlequel he takes that cloudnuage imageimage,
312
873169
3905
hallucine, zoome, hallucine,
zoome, hallucine, zoome.
14:49
hallucinateshallucine, zoomszooms, hallucinateshallucine,
zoomszooms hallucinateshallucine, zoomszooms.
313
877098
3507
De cette façon,
14:52
And in this way,
314
880629
1151
vous obtenez une fugue dissociative
du réseau, je suppose,
14:53
you can get a sortTrier of fugueFugue stateEtat
of the networkréseau, I supposesupposer,
315
881804
3675
14:57
or a sortTrier of freegratuit associationassociation,
316
885503
3680
ou une sorte d'association libre,
dans laquelle le réseau se mord la queue.
15:01
in whichlequel the networkréseau
is eatingen mangeant its ownposséder tailqueue.
317
889207
2227
15:03
So everychaque imageimage is now the basisbase for,
318
891458
3421
Chaque image est à la base de :
« Que vois-je ensuite ?
15:06
"What do I think I see nextprochain?
319
894903
1421
15:08
What do I think I see nextprochain?
What do I think I see nextprochain?"
320
896348
2803
Que vois-je ensuite ?
Que vois-je ensuite ? »
J'ai présenté cette image
pour la première fois
15:11
I showedmontré this for the first time in publicpublic
321
899487
2936
à un groupe lors d'une conférence
à Seattle : « Enseignement Supérieur »,
15:14
to a groupgroupe at a lectureconférence in SeattleSeattle
calledappelé "HigherPlus élevé EducationÉducation" --
322
902447
5437
15:19
this was right after
marijuanamarijuana was legalizedlégalisé.
323
907908
2437
juste après la légalisation
de la marijuana.
15:22
(LaughterRires)
324
910369
2415
(Rires)
15:26
So I'd like to finishterminer up quicklyrapidement
325
914627
2104
J'aimerais finir en faisant remarquer
15:28
by just notingnotant that this technologyLa technologie
is not constrainedcontraint.
326
916755
4255
que cette technologie n'est pas limitée.
15:33
I've shownmontré you purelypurement visualvisuel examplesexemples
because they're really funamusement to look at.
327
921034
3665
Je vous ai montré des exemples purement
visuels car ils sont amusants à voir.
15:36
It's not a purelypurement visualvisuel technologyLa technologie.
328
924723
2451
Cette technologie n'est pas
purement visuelle.
Notre collaborateur artistique,
Ross Goodwin,
15:39
Our artistartiste collaboratorcollaborateur, RossRoss GoodwinGoodwin,
329
927198
1993
15:41
has doneterminé experimentsexpériences involvingimpliquant
a cameracaméra that takes a picturephoto,
330
929215
3671
a fait des expériences incluant
un appareil photo prenant une photo,
puis un ordinateur dans son sac à dos
15:44
and then a computerordinateur in his backpacksac à dos
writesécrit a poempoème usingen utilisant neuralneural networksréseaux,
331
932910
4234
écrit un poème
grâce aux réseaux de neurones,
15:49
basedbasé on the contentsContenu of the imageimage.
332
937168
1944
en se basant sur le contenu de l'image.
15:51
And that poetrypoésie neuralneural networkréseau
has been trainedqualifié
333
939136
2947
Ce réseau neuronal poétique a été entraîné
sur un large corpus
de poésie du 20ème siècle.
15:54
on a largegrand corpuscorpus of 20th-centurysiècle poetrypoésie.
334
942107
2234
Et la poésie est,
je crois, pas trop mauvaise.
15:56
And the poetrypoésie is, you know,
335
944365
1499
15:57
I think, kindgentil of not badmal, actuallyréellement.
336
945888
1914
(Rires)
15:59
(LaughterRires)
337
947826
1384
16:01
In closingfermeture,
338
949234
1159
Pour finir,
16:02
I think that perpar MichelangeloMichelangelo,
339
950417
2132
je pense que Michel-Ange avait raison :
16:04
I think he was right;
340
952573
1234
la perception et la créativité
sont intimement liées.
16:05
perceptionla perception and creativityla créativité
are very intimatelyintimement connectedconnecté.
341
953831
3436
Nous avons vu des réseaux neuronaux
16:09
What we'venous avons just seenvu are neuralneural networksréseaux
342
957611
2634
16:12
that are entirelyentièrement trainedqualifié to discriminateune discrimination,
343
960269
2303
entraînés à discriminer ou à reconnaître
16:14
or to recognizereconnaître differentdifférent
things in the worldmonde,
344
962596
2242
différentes choses du monde
16:16
ablecapable to be runcourir in reversesens inverse, to generateGénérer.
345
964862
3161
et capable de fonctionner à l'envers,
de générer.
Une des choses qui me laissent penser
16:20
One of the things that suggestssuggère to me
346
968047
1783
que Michel-Ange n'a pas seulement vu
16:21
is not only that
MichelangeloMichelangelo really did see
347
969854
2398
16:24
the sculpturesculpture in the blocksblocs of stonepierre,
348
972276
2452
la sculpture dans le bloc de pierre
mais aussi que toute créature,
tout être, tout extraterreste
16:26
but that any creaturecréature,
any beingétant, any alienextraterrestre
349
974752
3638
qui est capable de faire
de telles actions perceptives
16:30
that is ablecapable to do
perceptualperceptuel actsactes of that sortTrier
350
978414
3657
est aussi capable de créer
16:34
is alsoaussi ablecapable to createcréer
351
982095
1375
16:35
because it's exactlyexactement the sameMême
machinerymachinerie that's used in bothtous les deux casescas.
352
983494
3224
puisque c'est le même mécanisme
qui est utilisé dans les deux cas.
16:38
AlsoAussi, I think that perceptionla perception
and creativityla créativité are by no meansveux dire
353
986742
4532
Je pense aussi que la perception
et la créativité ne sont aucunement
propres à l'humain.
16:43
uniquelyuniquement humanHumain.
354
991298
1210
16:44
We startdébut to have computerordinateur modelsdes modèles
that can do exactlyexactement these sortssortes of things.
355
992532
3708
Des modèles informatiques
capables de ces mêmes choses apparaissent.
Et cela ne sera pas une surprise :
le cerveau est un modèle informatique.
16:48
And that oughtdevrait to be unsurprisingsans surprise;
the braincerveau is computationalcalcul.
356
996264
3328
Et finalement,
16:51
And finallyenfin,
357
999616
1657
l'informatique a commencé
comme un exercice
16:53
computingl'informatique begana commencé as an exerciseexercice
in designingconception intelligentintelligent machinerymachinerie.
358
1001297
4668
pour créer une machine intelligente.
16:57
It was very much modeledmodélisé after the ideaidée
359
1005989
2462
Elle a été modélisée selon l'idée
que nous pouvions rendre
des machines intelligentes.
17:00
of how could we make machinesmachines intelligentintelligent.
360
1008475
3013
17:03
And we finallyenfin are startingdépart to fulfillremplir now
361
1011512
2162
Aujourd'hui, nous commençons
enfin à accomplir
17:05
some of the promisespromesses
of those earlyde bonne heure pioneerspionniers,
362
1013698
2406
certaines des promesses de ces pionniers :
17:08
of TuringTuring and vonvon NeumannNeumann
363
1016128
1713
de Turing à von Neumann
17:09
and McCullochMcCulloch and PittsPitts.
364
1017865
2265
et McCulloch et Pitts.
17:12
And I think that computingl'informatique
is not just about accountingcomptabilité
365
1020154
4098
Et je crois que l'informatique
n'est pas simplement compter
17:16
or playingen jouant CandyCandy CrushBéguin or something.
366
1024276
2147
ou jouer à Candy Crush et autres.
Dès le début, nous l'avons modélisée
selon nos cerveaux.
17:18
From the beginningdébut,
we modeledmodélisé them after our mindsesprits.
367
1026447
2578
17:21
And they give us bothtous les deux the abilitycapacité
to understandcomprendre our ownposséder mindsesprits better
368
1029049
3269
Et elle nous donne la capacité
de mieux comprendre nos cerveaux
et de les étendre.
17:24
and to extendétendre them.
369
1032342
1529
17:26
Thank you very much.
370
1034627
1167
Merci beaucoup.
17:27
(ApplauseApplaudissements)
371
1035818
5939
(Applaudissements)
Translated by Morgane Quilfen
Reviewed by Juliet Vdt

▲Back to top

ABOUT THE SPEAKER
Blaise Agüera y Arcas - Software architect
Blaise Agüera y Arcas works on machine learning at Google. Previously a Distinguished Engineer at Microsoft, he has worked on augmented reality, mapping, wearable computing and natural user interfaces.

Why you should listen

Blaise Agüera y Arcas is principal scientist at Google, where he leads a team working on machine intelligence for mobile devices. His group works extensively with deep neural nets for machine perception and distributed learning, and it also investigates so-called "connectomics" research, assessing maps of connections within the brain.

Agüera y Arcas' background is as multidimensional as the visions he helps create. In the 1990s, he authored patents on both video compression and 3D visualization techniques, and in 2001, he made an influential computational discovery that cast doubt on Gutenberg's role as the father of movable type.

He also created Seadragon (acquired by Microsoft in 2006), the visualization technology that gives Photosynth its amazingly smooth digital rendering and zoom capabilities. Photosynth itself is a vastly powerful piece of software capable of taking a wide variety of images, analyzing them for similarities, and grafting them together into an interactive three-dimensional space. This seamless patchwork of images can be viewed via multiple angles and magnifications, allowing us to look around corners or “fly” in for a (much) closer look. Simply put, it could utterly transform the way we experience digital images.

He joined Microsoft when Seadragon was acquired by Live Labs in 2006. Shortly after the acquisition of Seadragon, Agüera y Arcas directed his team in a collaboration with Microsoft Research and the University of Washington, leading to the first public previews of Photosynth several months later. His TED Talk on Seadragon and Photosynth in 2007 is rated one of TED's "most jaw-dropping." He returned to TED in 2010 to demo Bing’s augmented reality maps.

Fun fact: According to the author, Agüera y Arcas is the inspiration for the character Elgin in the 2012 best-selling novel Where'd You Go, Bernadette?

More profile about the speaker
Blaise Agüera y Arcas | Speaker | TED.com