ABOUT THE SPEAKER
Blaise Agüera y Arcas - Software architect
Blaise Agüera y Arcas works on machine learning at Google. Previously a Distinguished Engineer at Microsoft, he has worked on augmented reality, mapping, wearable computing and natural user interfaces.

Why you should listen

Blaise Agüera y Arcas is principal scientist at Google, where he leads a team working on machine intelligence for mobile devices. His group works extensively with deep neural nets for machine perception and distributed learning, and it also investigates so-called "connectomics" research, assessing maps of connections within the brain.

Agüera y Arcas' background is as multidimensional as the visions he helps create. In the 1990s, he authored patents on both video compression and 3D visualization techniques, and in 2001, he made an influential computational discovery that cast doubt on Gutenberg's role as the father of movable type.

He also created Seadragon (acquired by Microsoft in 2006), the visualization technology that gives Photosynth its amazingly smooth digital rendering and zoom capabilities. Photosynth itself is a vastly powerful piece of software capable of taking a wide variety of images, analyzing them for similarities, and grafting them together into an interactive three-dimensional space. This seamless patchwork of images can be viewed via multiple angles and magnifications, allowing us to look around corners or “fly” in for a (much) closer look. Simply put, it could utterly transform the way we experience digital images.

He joined Microsoft when Seadragon was acquired by Live Labs in 2006. Shortly after the acquisition of Seadragon, Agüera y Arcas directed his team in a collaboration with Microsoft Research and the University of Washington, leading to the first public previews of Photosynth several months later. His TED Talk on Seadragon and Photosynth in 2007 is rated one of TED's "most jaw-dropping." He returned to TED in 2010 to demo Bing’s augmented reality maps.

Fun fact: According to the author, Agüera y Arcas is the inspiration for the character Elgin in the 2012 best-selling novel Where'd You Go, Bernadette?

More profile about the speaker
Blaise Agüera y Arcas | Speaker | TED.com
TED@BCG Paris

Blaise Agüera y Arcas: How computers are learning to be creative

Blaise Agüera y Arcas: Cum învaţă calculatoarele să fie creative

Filmed:
1,934,067 views

Suntem în faţa unei noi frontiere în arta şi creativitate, care nu este umană. Blaise Agüera y Arcas, cercetător principal la Google, lucrează cu reţele neuronale profunde pentru percepţie artificială şi învăţare distribuitivă. În această demonstraţie captivantă, el arată cum reţelele neuronale programate să recunoască imagini pot fi acţionate în sens invers, pentru a le crea. Rezultatele sunt nişte colaje (şi poeme!) spectaculoase, halucinante care sfidează catalogarea. „Percepţia şi creativitatea sunt conectate foarte profund'' susţine Agüera y Arcas. „Orice creatură, orice fiinţă care este capabilă de acte de percepţie, este de asemenea capabilă să creeze.”
- Software architect
Blaise Agüera y Arcas works on machine learning at Google. Previously a Distinguished Engineer at Microsoft, he has worked on augmented reality, mapping, wearable computing and natural user interfaces. Full bio

Double-click the English transcript below to play the video.

00:12
So, I leadconduce a teamechipă at GoogleGoogle
that workslucrări on machinemaşină intelligenceinteligență;
0
800
3124
Conduc o echipă Google care
se ocupa de inteligenţa artificială;
00:15
in other wordscuvinte, the engineeringInginerie disciplinedisciplina
of makingluare computerscalculatoare and devicesdispozitive
1
3948
4650
adică disciplina inginerească
a creării de computere şi dispozitive
00:20
ablecapabil to do some of the things
that brainscreier do.
2
8622
2419
ce pot face câteva
din lucrurile făcute de creier.
00:23
And this makesmărci us
interestedinteresat in realreal brainscreier
3
11439
3099
Asta ne face să fim interesaţi
de creierele reale şi de neurostiinţă,
00:26
and neuroscienceneurostiintele as well,
4
14562
1289
00:27
and especiallyin mod deosebit interestedinteresat
in the things that our brainscreier do
5
15875
4172
dar mai ales de lucrurile
pe care creierele noastre le fac
00:32
that are still fardeparte superiorsuperior
to the performanceperformanţă of computerscalculatoare.
6
20071
4042
la niveluri mult superioare
performanţelor computerelor.
00:37
HistoricallyIstoric, one of those areaszone
has been perceptionpercepţie,
7
25209
3609
Cronologic, unul din aceste domenii
a fost percepţia:
00:40
the processproces by whichcare things
out there in the worldlume --
8
28842
3039
procesul prin care
lucruri din lumea reală
00:43
soundssunete and imagesimagini --
9
31905
1584
– sunete şi imagini –
00:45
can turnviraj into conceptsconcepte in the mindminte.
10
33513
2178
se pot transforma în concepte ale minţii.
00:48
This is essentialesenţial for our ownpropriu brainscreier,
11
36235
2517
Asta e esenţial pentru creierul nostru
00:50
and it's alsode asemenea prettyfrumos usefulutil on a computercomputer.
12
38776
2464
şi e destul de util şi pentru un computer.
00:53
The machinemaşină perceptionpercepţie algorithmsalgoritmi,
for exampleexemplu, that our teamechipă makesmărci,
13
41636
3350
De exemplu, algoritmii
de percepţie artificială creaţi de noi,
00:57
are what enablepermite your picturespoze
on GoogleGoogle PhotosFotografii to becomedeveni searchablecăutate,
14
45010
3874
sunt cei ce permit ca fotografiile voastre
din Google Photos să poată fi căutate,
01:00
basedbazat on what's in them.
15
48908
1397
în funcţie de ce conţin.
01:03
The flipflip- sidelatură of perceptionpercepţie is creativitycreativitate:
16
51594
3493
Reversul percepţiei e creativitatea:
01:07
turningcotitură a conceptconcept into something
out there into the worldlume.
17
55111
3038
transformarea unui concept
în ceva real, concret.
01:10
So over the pasttrecut yearan,
our work on machinemaşină perceptionpercepţie
18
58173
3555
În ultimul an, munca noastră
în domeniul percepţiei artificiale
01:13
has alsode asemenea unexpectedlyneasteptat connectedconectat
with the worldlume of machinemaşină creativitycreativitate
19
61752
4859
s-a conectat în mod surprinzător
şi cu lumea creativităţii artificiale
01:18
and machinemaşină artartă.
20
66635
1160
şi a artei artificiale.
01:20
I think MichelangeloMichelangelo
had a penetratingpenetrant insightînțelegere
21
68556
3284
Cred că Michelangelo
a avut o intuiţie profundă
01:23
into to this dualdual relationshiprelaţie
betweenîntre perceptionpercepţie and creativitycreativitate.
22
71864
3656
privind această relaţie duală
dintre percepţie şi creativitate.
01:28
This is a famouscelebru quotecitat of his:
23
76023
2006
Iată un citat faimos al lui:
01:30
"EveryFiecare blockbloc of stonepiatră
has a statuestatuie insideinterior of it,
24
78053
3323
„Fiecare bucată de piatră
are o statuie în interiorul său,
01:34
and the jobloc de munca of the sculptorsculptorul
is to discoverdescoperi it."
25
82036
3002
iar rolul sculptorului
e să o descopere”.
01:38
So I think that what
MichelangeloMichelangelo was gettingobtinerea at
26
86029
3216
Cred că ce intuia Michelangelo
01:41
is that we createcrea by perceivingperceperea,
27
89269
3180
e că noi creăm prin percepţie
01:44
and that perceptionpercepţie itselfîn sine
is an actact of imaginationimaginație
28
92473
3023
şi că percepţia însăşi
e un act de imaginaţie
01:47
and is the stuffchestie of creativitycreativitate.
29
95520
2461
şi ţine de creativitate.
01:50
The organorgan that does all the thinkinggândire
and perceivingperceperea and imaginingimaginarea,
30
98691
3925
Organul ce se ocupă de gândire, percepţie
şi imaginaţie e, desigur, creierul.
01:54
of coursecurs, is the braincreier.
31
102640
1588
01:57
And I'd like to beginÎNCEPE
with a briefscurt bitpic of historyistorie
32
105089
2545
Aş vrea să încep cu puţină istorie
01:59
about what we know about brainscreier.
33
107658
2302
despre ce ştim despre creier.
02:02
Because unlikespre deosebire de, say,
the heartinimă or the intestinesintestinele,
34
110496
2446
Spre deosebire de inimă sau intestine
02:04
you really can't say very much
about a braincreier by just looking at it,
35
112966
3144
nu poţi spune prea multe
despre un creier doar uitându-te la el,
02:08
at leastcel mai puţin with the nakedgol eyeochi.
36
116134
1412
cel puţin nu cu ochiul liber.
02:09
The earlydin timp anatomistsAnatomists who lookedprivit at brainscreier
37
117983
2416
Primii anatomişti
care se uitau la creierul uman
02:12
gavea dat the superficialsuperficial structuresstructuri
of this thing all kindstipuri of fancifulfanteziste namesnumele,
38
120423
3807
au dat structurilor superficiale
ale acestuia tot felul de nume fanteziste,
02:16
like hippocampuscal de mare, meaningsens "little shrimpcreveţi."
39
124254
2433
ca hipocamp, care înseamnă „crevete mic”.
02:18
But of coursecurs that sortfel of thing
doesn't tell us very much
40
126711
2764
Lucruri de genul ăsta
nu ne spun mare lucru
02:21
about what's actuallyde fapt going on insideinterior.
41
129499
2318
despre ce se petrece de fapt în interior.
02:24
The first personpersoană who, I think, really
developeddezvoltat some kinddrăguț of insightînțelegere
42
132780
3613
Prima persoană care
cred că a înţeles oarecum
02:28
into what was going on in the braincreier
43
136417
1930
ce se petrece în creier,
02:30
was the great SpanishSpaniolă neuroanatomistneuroanatomist,
SantiagoSantiago RamRAMón y CajalCajal,
44
138371
3920
a fost marele neuroanatonomist spaniol
din secolul 19, Santiago Ramón y Cajal,
02:34
in the 19thlea centurysecol,
45
142315
1544
02:35
who used microscopymicroscopie and specialspecial stainsPete
46
143883
3755
care a folosit microscopia
şi coloraţii speciale
02:39
that could selectivelyselectiv fillcompletati in
or renderface in very highînalt contrastcontrast
47
147662
4170
ce puteau umple selectiv,
să redea în contrast foarte înalt
02:43
the individualindividual cellscelulele in the braincreier,
48
151856
2008
celulele individuale ale creierului,
02:45
in orderOrdin to startstart to understanda intelege
theiral lor morphologiesmorfologii.
49
153888
3154
ca să poată începe
să le înţeleagă morfologia.
02:49
And these are the kindstipuri of drawingsdesene
that he madefăcut of neuronsneuroni
50
157972
2891
Iată desenele neuronilor
făcute de el în secolul 19.
02:52
in the 19thlea centurysecol.
51
160887
1209
02:54
This is from a birdpasăre braincreier.
52
162120
1884
Ăsta e de la creierul unei păsări.
02:56
And you see this incredibleincredibil varietyvarietate
of differentdiferit sortsfelul of cellscelulele,
53
164028
3057
Vedeţi aceasta varietate incredibilă
de diverse tipuri de celule,
02:59
even the cellularcelular theoryteorie itselfîn sine
was quitedestul de newnou at this pointpunct.
54
167109
3435
chiar şi teoria celulară era
destul de nouă la acel moment.
03:02
And these structuresstructuri,
55
170568
1278
Iar aceste structuri,
03:03
these cellscelulele that have these arborizationsarborizations,
56
171870
2259
aceste celule ce au aceste ramificaţii,
03:06
these branchessucursale that can go
very, very long distancesdistanțe --
57
174153
2608
aceste ramuri ce pot ajunge
la distanţe foarte mari...
03:08
this was very novelroman at the time.
58
176785
1616
asta era o mare noutate atunci.
03:10
They're reminiscentAminteşte, of coursecurs, of wiresfire.
59
178779
2903
Seamănă, desigur, cu firele.
03:13
That mightar putea have been obviousevident
to some people in the 19thlea centurysecol;
60
181706
3457
E posibil ca asta să fi fost evident
pentru unii din secolul 19;
03:17
the revolutionsrevoluții of wiringcabluri and electricityelectricitate
were just gettingobtinerea underwayîn curs de desfășurare.
61
185187
4314
revoluţia tehnologică a cablurilor
şi electricităţii tocmai începea.
03:21
But in manymulți waysmoduri,
62
189964
1178
Dar în multe sensuri,
03:23
these microanatomicalmicroanatomical drawingsdesene
of RamRAMón y Cajal'sCajal pe, like this one,
63
191166
3313
desenele de microanatomie ale lui
Ramón y Cajal, precum acesta,
03:26
they're still in some waysmoduri unsurpassedde neegalat.
64
194503
2332
sunt încă, într-un fel, inegalabile.
03:28
We're still more than a centurysecol latermai tarziu,
65
196859
1854
După mai mult de un secol,
03:30
tryingîncercat to finishfinalizarea the jobloc de munca
that RamRAMón y CajalCajal starteda început.
66
198737
2825
încă încercăm să terminăm opera
începută de Ramón y Cajal.
03:33
These are rawbrut datadate from our collaboratorscolaboratori
67
201586
3134
Astea sunt datele brute
de la colaboratorii noştri
03:36
at the MaxMax PlanckPlanck InstituteInstitutul
of NeuroscienceNeuroştiinţe.
68
204744
2881
de la Institutul
de Neuroştiintă Max Planck.
03:39
And what our collaboratorscolaboratori have doneTerminat
69
207649
1790
Colaboratorii noştri
03:41
is to imageimagine little piecesbucăți of braincreier tissuețesut.
70
209463
5001
au scanat mici părţi de ţesut cerebral.
03:46
The entireîntreg sampleprobă here
is about one cubiccubi millimetermilimetru in sizemărimea,
71
214488
3326
Întreaga mostră de aici
are cam un milimetru cub,
03:49
and I'm showingarătând you a very,
very smallmic piecebucată of it here.
72
217838
2621
iar eu vă arăt aici
doar o foarte mică parte din ea.
03:52
That barbar on the left is about one micronMicron.
73
220483
2346
Acea linie din stânga
are aproape un micron.
03:54
The structuresstructuri you see are mitochondriamitocondriile
74
222853
2409
Structurile pe care le vedeţi
sunt mitocondrii,
03:57
that are the sizemărimea of bacteriabacterii.
75
225286
2044
ce au dimensiunile unei bacterii.
03:59
And these are consecutiveconsecutiv slicesfelii
76
227354
1551
Astea sunt secţiuni consecutive
04:00
throughprin this very, very
tinyminuscul blockbloc of tissuețesut.
77
228929
3148
prin aceasta foarte mică bucată de ţesut.
04:04
Just for comparison'sde comparație sakedragul,
78
232101
2403
Doar de dragul comparaţiei,
04:06
the diameterdiametru of an averagein medie strandStrand
of hairpăr is about 100 micronsmicroni.
79
234528
3792
diametrul mediu al unui fir de păr
e de aproximativ 100 de microni.
04:10
So we're looking at something
much, much smallermai mic
80
238344
2274
Deci ne uităm la ceva mult, mult mai mic
04:12
than a singlesingur strandStrand of hairpăr.
81
240642
1398
decât un singur fir de par.
04:14
And from these kindstipuri of serialserial
electronde electroni microscopymicroscopie slicesfelii,
82
242064
4031
Din aceste tipuri de felii consecutive
de microscopie electronică,
04:18
one can startstart to make reconstructionsreconstructii
in 3D of neuronsneuroni that look like these.
83
246119
5008
se pot face reconstrucţii 3D
ale neuronilor care arată aşa.
04:23
So these are sortfel of in the samela fel
stylestil as RamRAMón y CajalCajal.
84
251151
3157
Sunt cam în acelaşi stil ca cele
ale lui Ramón y Cajal.
04:26
Only a fewpuțini neuronsneuroni litluminat up,
85
254332
1492
Doar caţiva neuroni se aprind,
04:27
because otherwisein caz contrar we wouldn'tnu ar fi
be ablecapabil to see anything here.
86
255848
2781
deoarece altfel nu am putea
distinge nimic aici.
04:30
It would be so crowdedaglomerat,
87
258653
1312
Ar fi atât de aglomerat,
04:31
so fulldeplin of structurestructura,
88
259989
1330
atât de plin de structuri,
04:33
of wiringcabluri all connectingconectarea
one neuronneuron to anothero alta.
89
261343
2724
de fire care conectează un
neuron de celălalt.
04:37
So RamRAMón y CajalCajal was a little bitpic
aheadînainte of his time,
90
265293
2804
Ramón y Cajal a fost
cu un pas înaintea epocii sale,
04:40
and progressprogres on understandingînţelegere the braincreier
91
268121
2555
iar dezvoltarea înţelegerii creierului
04:42
proceededa procedat slowlyîncet
over the nextUrmător → fewpuțini decadesdecenii.
92
270700
2271
a continuat încet în următoarele decenii.
04:45
But we knewștiut that neuronsneuroni used electricityelectricitate,
93
273455
2853
Dar ştiam că neuronii
folosesc electricitate
şi prin 1940, tehnologia
era destul de avansată
04:48
and by WorldLumea WarRăzboi IIAL II-LEA, our technologytehnologie
was advancedavansat enoughdestul
94
276332
2936
04:51
to startstart doing realreal electricalelectric
experimentsexperimente on livetrăi neuronsneuroni
95
279292
2806
ca să facem experimente
electrice pe neuroni vii
04:54
to better understanda intelege how they workeda lucrat.
96
282122
2106
pentru a înţelege mai bine
cum funcţionează.
04:56
This was the very samela fel time
when computerscalculatoare were beingfiind inventedinventat,
97
284631
4356
În exact aceeaşi perioadă
erau inventate computerele,
05:01
very much basedbazat on the ideaidee
of modelingmodelare the braincreier --
98
289011
3100
care se bazau pe ideea
modelării creierului
05:04
of "intelligentinteligent machinerymașini,"
as AlanAlan TuringTuring calleddenumit it,
99
292135
3085
– a „maşinăriei inteligente”,
cum a numit-o Alan Turing,
05:07
one of the fatherstați of computercomputer scienceştiinţă.
100
295244
1991
unul dintre părinţii informaticii.
05:09
WarrenWarren McCullochMcCulloch and WalterWalter PittsPitts
lookedprivit at RamRAMón y Cajal'sCajal pe drawingdesen
101
297923
4632
Warren McCulloch şi Walter Pitts
s-au uitat la desenul lui Ramón y Cajal
05:14
of visualvizual cortexcortex,
102
302579
1317
cu cortexul vizual
– pe care îl vedeţi aici.
05:15
whichcare I'm showingarătând here.
103
303920
1562
05:17
This is the cortexcortex that processesprocese
imageryimagini that comesvine from the eyeochi.
104
305506
4442
Acesta este cortexul care procesează
imaginile venite de la ochi.
05:22
And for them, this lookedprivit
like a circuitcircuit diagramdiagramă.
105
310424
3508
Pentru ei, asta arată
ca diagrama unui circuit electric.
05:26
So there are a lot of detailsDetalii
in McCullochMcCulloch and Pitts'sPitts pe circuitcircuit diagramdiagramă
106
314353
3835
Sunt multe detalii din diagrama
lui McCulloch şi Pitts
05:30
that are not quitedestul de right.
107
318212
1352
care nu sunt tocmai corecte.
05:31
But this basicde bază ideaidee
108
319588
1235
Dar ideea de bază,
05:32
that visualvizual cortexcortex workslucrări like a seriesserie
of computationalcomputațională elementselement
109
320847
3992
că acest cortex vizual funcţionează
ca o serie de elemente computaţionale
05:36
that passtrece informationinformație
one to the nextUrmător → in a cascadecascadă,
110
324863
2746
care transmit informaţia
unul către altul în cascadă,
05:39
is essentiallyin esenta correctcorect.
111
327633
1602
e în esenţă corectă.
05:41
Let's talk for a momentmoment
112
329259
2350
Hai să vorbim puţin
05:43
about what a modelmodel for processingprelucrare
visualvizual informationinformație would need to do.
113
331633
4032
despre ce ar trebui să facă un model
al procesării informaţiei vizuale.
05:48
The basicde bază tasksarcină of perceptionpercepţie
114
336228
2741
Sarcina principală a percepţiei
05:50
is to take an imageimagine like this one and say,
115
338993
4194
e să ia o imagine ca aceasta şi să zică,
05:55
"That's a birdpasăre,"
116
343211
1176
„Aia e o pasăre”,
05:56
whichcare is a very simplesimplu thing
for us to do with our brainscreier.
117
344411
2874
un lucru simplu
pentru creierul nostru.
05:59
But you should all understanda intelege
that for a computercomputer,
118
347309
3421
Trebuie să înţelegeţi
că pentru un computer,
06:02
this was prettyfrumos much impossibleimposibil
just a fewpuțini yearsani agoîn urmă.
119
350754
3087
asta era imposibil acum câţiva ani.
06:05
The classicalclasice computingtehnica de calcul paradigmparadigmă
120
353865
1916
Paradigma computaţională clasică,
06:07
is not one in whichcare
this tasksarcină is easyuşor to do.
121
355805
2507
nu e una în care sarcina asta
e uşor de îndeplinit.
06:11
So what's going on betweenîntre the pixelspixeli,
122
359366
2552
Deci ce se întâmplă între pixeli,
06:13
betweenîntre the imageimagine of the birdpasăre
and the wordcuvânt "birdpasăre,"
123
361942
4028
între imaginea păsării
şi cuvântul „pasăre”,
06:17
is essentiallyin esenta a seta stabilit of neuronsneuroni
connectedconectat to eachfiecare other
124
365994
2814
e de fapt un set de neuroni interconectaţi
într-o reţea neuronală,
06:20
in a neuralneural networkreţea,
125
368832
1155
06:22
as I'm diagrammingdiagramelor here.
126
370011
1223
ca în această diagramă.
06:23
This neuralneural networkreţea could be biologicalbiologic,
insideinterior our visualvizual corticescortexuri,
127
371258
3272
Această reţea neuronală
poate fi biologică, în cortexul vizual,
sau, acum începem să avem
capacitatea să modelăm
06:26
or, nowadaysin zilele de azi, we startstart
to have the capabilitycapacitate
128
374554
2162
06:28
to modelmodel suchastfel de neuralneural networksrețele
on the computercomputer.
129
376740
2454
astfel de reţele neuronale
pe calculator.
06:31
And I'll showspectacol you what
that actuallyde fapt looksarată like.
130
379834
2353
Iată cum arată asta de fapt.
06:34
So the pixelspixeli you can think
about as a first layerstrat of neuronsneuroni,
131
382211
3416
Vă puteţi imagina pixelii
ca primul strat de neuroni,
06:37
and that's, in factfapt,
how it workslucrări in the eyeochi --
132
385651
2239
de fapt, aşa funcţionează ochiul
06:39
that's the neuronsneuroni in the retinaretină.
133
387914
1663
– sunt neuronii din retină.
06:41
And those feeda hrani forwardredirecţiona
134
389601
1500
Ei transmit semnalul
mai departe
06:43
into one layerstrat after anothero alta layerstrat,
after anothero alta layerstrat of neuronsneuroni,
135
391125
3403
prin straturi de neuroni consecutive,
06:46
all connectedconectat by synapsessinapse
of differentdiferit weightsgreutăţi.
136
394552
3033
conectate prin sinapse
de diferite dimensiuni.
06:49
The behaviorcomportament of this networkreţea
137
397609
1335
Comportarea acestei reţele
06:50
is characterizedcaracterizat by the strengthspunctele forte
of all of those synapsessinapse.
138
398968
3284
e caracterizată de puterile
tuturor sinapselor.
06:54
Those characterizecaracterizează the computationalcomputațională
propertiesproprietăţi of this networkreţea.
139
402276
3288
Ele caracterizează trăsăturile
computaţionale ale acestei reţele.
06:57
And at the endSfârşit of the day,
140
405588
1470
Iar la final
06:59
you have a neuronneuron
or a smallmic groupgrup of neuronsneuroni
141
407082
2447
veţi avea un neuron
sau un grup mic de neuroni
07:01
that lightușoară up, sayingzicală, "birdpasăre."
142
409553
1647
care se aprind zicând „pasăre”.
07:03
Now I'm going to representreprezinta
those threeTrei things --
143
411824
3132
Voi reprezenta acum acele trei lucruri:
07:06
the inputintrare pixelspixeli and the synapsessinapse
in the neuralneural networkreţea,
144
414980
4696
pixelii de intrare şi sinapsele
din reţeaua neuronală,
07:11
and birdpasăre, the outputproducție --
145
419700
1585
şi pasărea – rezultatul –
07:13
by threeTrei variablesvariabile: x, w and y.
146
421309
3057
prin trei variabile: x, w, şi y.
07:16
There are maybe a millionmilion or so x'sx --
147
424853
1811
Pot fi aproximativ un milion de x,
07:18
a millionmilion pixelspixeli in that imageimagine.
148
426688
1953
un milion de pixeli în acea imagine.
07:20
There are billionsmiliarde or trillionstrilioane of w'sw's,
149
428665
2446
Sunt miliarde sau un trilioane de w,
07:23
whichcare representreprezinta the weightsgreutăţi of all
these synapsessinapse in the neuralneural networkreţea.
150
431135
3421
care reprezintă puterea tuturor
sinapselor din reţeaua neuronală.
07:26
And there's a very smallmic numbernumăr of y'sy,
151
434580
1875
Mai exista un număr foarte mic de y,
07:28
of outputsiesiri that that networkreţea has.
152
436479
1858
de rezultate ale reţelei.
07:30
"BirdPasăre" is only fourpatru lettersscrisori, right?
153
438361
1749
„Pasăre” are doar 6 litere, corect?
07:33
So let's pretendpretinde that this
is just a simplesimplu formulaformulă,
154
441088
3426
Să spunem că asta e doar o formulă simplă
07:36
x "x" w = y.
155
444538
2163
x "x" w = y.
07:38
I'm puttingpunând the timesori in scarea speria quotescitate
156
446725
2036
Pun înmulţirea între ghilimele
07:40
because what's really
going on there, of coursecurs,
157
448785
2280
pentru că acolo se petrece, de fapt,
07:43
is a very complicatedcomplicat seriesserie
of mathematicalmatematic operationsoperațiuni.
158
451089
3046
o serie foarte complicată
de operaţii matematice,
07:47
That's one equationecuaţie.
159
455172
1221
avem o ecuaţie.
07:48
There are threeTrei variablesvariabile.
160
456417
1672
Avem trei variabile.
07:50
And we all know
that if you have one equationecuaţie,
161
458113
2726
Cu toţii ştim că dacă ai o ecuaţie
07:52
you can solverezolva one variablevariabila
by knowingcunoaștere the other two things.
162
460863
3642
poţi afla o variabilă
dacă le ştii pe celelalte două.
07:57
So the problemproblemă of inferencededucție,
163
465158
3380
Deci problema deducţiei,
08:00
that is, figuringimaginind out
that the pictureimagine of a birdpasăre is a birdpasăre,
164
468562
2873
adică să descoperi
că imaginea unei păsări e o pasăre
08:03
is this one:
165
471459
1274
e aceasta:
08:04
it's where y is the unknownnecunoscut
and w and x are knowncunoscut.
166
472757
3459
y e necunoscut în timp ce
w şi x sunt cunoscute.
08:08
You know the neuralneural networkreţea,
you know the pixelspixeli.
167
476240
2459
Cunoaştem reţeaua neuronală,
cunoaştem pixelii.
08:10
As you can see, that's actuallyde fapt
a relativelyrelativ straightforwardsimplu problemproblemă.
168
478723
3327
Cum puteţi vedea,
e o problemă relativ simplă.
08:14
You multiplymultiplica two timesori threeTrei
and you're doneTerminat.
169
482074
2186
Înmulţim 2 ori 3 şi am rezolvat.
08:16
I'll showspectacol you an artificialartificial neuralneural networkreţea
170
484862
2123
Vă voi arăta o reţea
neuronală artificială
08:19
that we'vene-am builtconstruit recentlyrecent,
doing exactlyexact that.
171
487009
2296
pe care am creat-o recent.
08:21
This is runningalergare in realreal time
on a mobilemobil phonetelefon,
172
489634
2860
Aceasta rulează în timp real
pe un telefon mobil,
08:24
and that's, of coursecurs,
amazinguimitor in its ownpropriu right,
173
492518
3313
şi deja acest lucru e uimitor,
08:27
that mobilemobil phonestelefoane can do so manymulți
billionsmiliarde and trillionstrilioane of operationsoperațiuni
174
495855
3468
că telefoanele pot face aşa multe
miliarde şi trilioane de operaţii/secundă.
08:31
perpe secondal doilea.
175
499347
1248
08:32
What you're looking at is a phonetelefon
176
500619
1615
Acesta e un telefon
08:34
looking at one after anothero alta
pictureimagine of a birdpasăre,
177
502258
3547
care se uită la o serie de imagini
ale unei păsări,
08:37
and actuallyde fapt not only sayingzicală,
"Yes, it's a birdpasăre,"
178
505829
2715
şi nu zice doar „da, e o pasăre”,
08:40
but identifyingidentificarea the speciesspecie of birdpasăre
with a networkreţea of this sortfel.
179
508568
3411
dar identifică şi specia păsării,
folosind o reţea de acest tip.
08:44
So in that pictureimagine,
180
512890
1826
Deci în acea poză,
08:46
the x and the w are knowncunoscut,
and the y is the unknownnecunoscut.
181
514740
3802
x şi w sunt cunoscute
iar y e necunoscut.
08:50
I'm glossingGlossing over the very
difficultdificil partparte, of coursecurs,
182
518566
2508
Sar peste partea foarte dificilă,
08:53
whichcare is how on earthPământ
do we figurefigura out the w,
183
521098
3861
anume, cum reuşim să-l descoperim w,
08:56
the braincreier that can do suchastfel de a thing?
184
524983
2187
care e creierul care poate face asta?
08:59
How would we ever learnînvăța suchastfel de a modelmodel?
185
527194
1834
Cum am putea găsi un astfel de model?
09:01
So this processproces of learningînvăţare,
of solvingrezolvarea for w,
186
529418
3233
Acest proces al învăţării,
al aflării lui w,
09:04
if we were doing this
with the simplesimplu equationecuaţie
187
532675
2647
dacă am face asta cu ecuaţia simplă
09:07
in whichcare we think about these as numbersnumerele,
188
535346
2000
în care gândim variabilele ca numere,
09:09
we know exactlyexact how to do that: 6 = 2 x w,
189
537370
2687
ştim exact cum s-o rezolvăm: 6 = 2 x w,
09:12
well, we dividedivide by two and we're doneTerminat.
190
540081
3312
împărţim la 2 şi am terminat.
09:16
The problemproblemă is with this operatoroperatorul.
191
544001
2220
Problema e cu acest operator.
09:18
So, divisiondiviziune --
192
546823
1151
Împărţirea
09:19
we'vene-am used divisiondiviziune because
it's the inverseinvers to multiplicationmultiplicare,
193
547998
3121
– folosim împărţirea deoarece
e inversul înmulţirii,
09:23
but as I've just said,
194
551143
1440
dar, aşa cum am spus,
09:24
the multiplicationmultiplicare is a bitpic of a lieminciună here.
195
552607
2449
înmulţirea e o mică minciună aici –
09:27
This is a very, very complicatedcomplicat,
very non-linearnon-liniar operationoperație;
196
555080
3326
e o operaţie foarte complicată,
foarte non-lineară,
09:30
it has no inverseinvers.
197
558430
1704
nu are un invers.
09:32
So we have to figurefigura out a way
to solverezolva the equationecuaţie
198
560158
3150
Deci trebuie să găsim un mod
de a rezolva ecuaţia
09:35
withoutfără a divisiondiviziune operatoroperatorul.
199
563332
2024
fără a folosi împărţirea.
09:37
And the way to do that
is fairlydestul de straightforwardsimplu.
200
565380
2343
Iar soluţia e destul de simplă.
09:39
You just say, let's playa juca
a little algebraalgebră tricktruc,
201
567747
2671
Să zicem că facem un truc aritmetic
09:42
and movemișcare the sixşase over
to the right-handmana dreapta sidelatură of the equationecuaţie.
202
570442
2906
şi mutăm cifra 6
în partea dreapta a ecuaţiei.
09:45
Now, we're still usingutilizând multiplicationmultiplicare.
203
573372
1826
Astfel încă folosim înmulţirea.
09:47
And that zerozero -- let's think
about it as an erroreroare.
204
575675
3580
Iar acel zero, să-l privim
ca pe o eroare.
09:51
In other wordscuvinte, if we'vene-am solvedrezolvat
for w the right way,
205
579279
2515
Altfel spus, dacă am aflat w
în modul corect,
09:53
then the erroreroare will be zerozero.
206
581818
1656
atunci eroarea va fi zero.
09:55
And if we haven'tnu au gottenajuns it quitedestul de right,
207
583498
1938
Dacă am greşit,
09:57
the erroreroare will be greatermai mare than zerozero.
208
585460
1749
eroarea va fi mai mare decât zero.
09:59
So now we can just take guessesGhiceste
to minimizeminimaliza the erroreroare,
209
587233
3366
Acum putem încerca să ghicim,
pentru a reduce eroarea.
10:02
and that's the sortfel of thing
computerscalculatoare are very good at.
210
590623
2687
Ăsta e unul din lucrurile
la care computerele excelează.
10:05
So you've takenluate an initialiniţială guessghici:
211
593334
1593
Deci iniţial am presupus:
10:06
what if w = 0?
212
594951
1156
dacă w = 0? Eroarea ar fi 6.
10:08
Well, then the erroreroare is 6.
213
596131
1240
10:09
What if w = 1? The erroreroare is 4.
214
597395
1446
Dacă w = 1? Eroarea e 4.
10:10
And then the computercomputer can
sortfel of playa juca MarcoMarco PoloPolo,
215
598865
2367
Atunci computerul
ar putea să o ia pe bâjbâite,
10:13
and driveconduce down the erroreroare closeînchide to zerozero.
216
601256
2367
şi ar reduce eroarea până aproape de zero.
10:15
As it does that, it's gettingobtinerea
successivesuccesiv approximationsaproximări to w.
217
603647
3374
Pe măsură ce face asta,
obţine aproximări succesive ale lui w.
10:19
TypicallyDe obicei, it never quitedestul de getsdevine there,
but after about a dozenduzină stepspași,
218
607045
3656
Normal, nu ajunge la rezultatul exact,
dar cam după o duzină de paşi,
10:22
we're up to w = 2.999,
whichcare is closeînchide enoughdestul.
219
610725
4624
ajungem la w = 2,999,
ceea ce e destul de aproape.
10:28
And this is the learningînvăţare processproces.
220
616302
1814
Acesta e procesul de învăţare.
10:30
So remembertine minte that what's been going on here
221
618140
2730
Recapitulând, ce facem aici
10:32
is that we'vene-am been takingluare
a lot of knowncunoscut x'sx and knowncunoscut y'sy
222
620894
4378
e să luăm o groază
de x şi y cunoscuţi
10:37
and solvingrezolvarea for the w in the middlemijloc
throughprin an iterativeiterativ processproces.
223
625296
3454
ca să-l descoperim w
printr-un proces iterativ.
10:40
It's exactlyexact the samela fel way
that we do our ownpropriu learningînvăţare.
224
628774
3556
E exact aşa cum facem noi când învăţăm.
10:44
We have manymulți, manymulți imagesimagini as babiescopii
225
632354
2230
Ca bebeluşi vedem multe, multe imagini
10:46
and we get told, "This is a birdpasăre;
this is not a birdpasăre."
226
634608
2633
şi ni se spune „asta e o pasăre,
asta nu e o pasăre”.
10:49
And over time, throughprin iterationRepetare,
227
637714
2098
Cu timpul, prin repetiţie,
10:51
we solverezolva for w, we solverezolva
for those neuralneural connectionsconexiuni.
228
639836
2928
îl aflăm pe w, descoperim
conexiunile neuronale.
10:55
So now, we'vene-am helda avut loc
x and w fixedfix to solverezolva for y;
229
643460
4086
Acum am păstrat constante x şi w
pentru a-l afla pe y;
10:59
that's everydayin fiecare zi, fastrapid perceptionpercepţie.
230
647570
1847
asta e percepţia rapidă, de zi cu zi.
11:01
We figurefigura out how we can solverezolva for w,
231
649441
1763
Ne dăm seama cum putem descoperi w,
11:03
that's learningînvăţare, whichcare is a lot harderMai tare,
232
651228
1903
asta e învăţarea, care e mult mai grea,
11:05
because we need to do erroreroare minimizationminimizarea,
233
653155
1985
deoarece trebuie să minimizăm eroarea
prin multe încercări de învăţare.
11:07
usingutilizând a lot of trainingpregătire examplesexemple.
234
655164
1687
11:08
And about a yearan agoîn urmă,
AlexAlex MordvintsevMordvintsev, on our teamechipă,
235
656875
3187
Cam acum un an, Alex Mordvintsev
din echipa noastră,
11:12
decideda decis to experimentexperiment
with what happensse întâmplă if we try solvingrezolvarea for x,
236
660086
3550
a hotărât să vadă ce se întâmplă
dacă încercăm să descoperim x,
11:15
givendat a knowncunoscut w and a knowncunoscut y.
237
663660
2037
când sunt date w şi y.
11:18
In other wordscuvinte,
238
666124
1151
Cu alte cuvinte,
11:19
you know that it's a birdpasăre,
239
667299
1352
ştiţi că e o pasăre
11:20
and you alreadydeja have your neuralneural networkreţea
that you've traineddresat on birdspăsări,
240
668675
3303
şi aveţi deja reţeaua neuronală
care a fost pregătită pe păsări,
11:24
but what is the pictureimagine of a birdpasăre?
241
672002
2344
dar ce este imaginea unei păsări?
11:27
It turnstransformă out that by usingutilizând exactlyexact
the samela fel error-minimizationeroare-minimizarea procedureprocedură,
242
675034
5024
Folosind aceeaşi procedură
de minimizare a erorii,
11:32
one can do that with the networkreţea
traineddresat to recognizerecunoaşte birdspăsări,
243
680082
3430
se poate face asta cu reţeaua pregătită
să recunoască păsări,
11:35
and the resultrezultat turnstransformă out to be ...
244
683536
3388
iar rezultatul va fi...
11:42
a pictureimagine of birdspăsări.
245
690400
1305
o imagine cu păsări.
11:44
So this is a pictureimagine of birdspăsări
generatedgenerate entirelyîn întregime by a neuralneural networkreţea
246
692814
3737
Asta e o imagine cu păsări
generată integral de o reţea neuronală
11:48
that was traineddresat to recognizerecunoaşte birdspăsări,
247
696575
1826
pregătită să recunoască păsări,
11:50
just by solvingrezolvarea for x
rathermai degraba than solvingrezolvarea for y,
248
698425
3538
doar cerându-i să-l afle pe x
în loc să-l afle pe y
11:53
and doing that iterativelyiterativ.
249
701987
1288
şi făcând asta iterativ.
11:55
Here'sAici este anothero alta fundistracţie exampleexemplu.
250
703732
1847
Iată un alt exemplu distractiv.
11:57
This was a work madefăcut
by MikeMike TykaTyka in our groupgrup,
251
705603
3437
E o lucrare făcută de Mike Tyka
în grupul nostru,
12:01
whichcare he callsapeluri "AnimalAnimale ParadeParada."
252
709064
2308
intitulată „Parada animalelor”.
12:03
It remindsreamintește me a little bitpic
of WilliamWilliam Kentridge'sKentridge pe artworkslucrari,
253
711396
2876
Seamănă puţin cu operele de artă
ale lui William Kentridge,
12:06
in whichcare he makesmărci sketchesschite, rubsfreacă them out,
254
714296
2489
în care face schiţe, le şterge,
12:08
makesmărci sketchesschite, rubsfreacă them out,
255
716809
1460
face schiţe, le sterge,
12:10
and createscreează a moviefilm this way.
256
718293
1398
şi aşa face un film.
12:11
In this casecaz,
257
719715
1151
În acest caz,
12:12
what MikeMike is doing is varyingdiferite y
over the spacespaţiu of differentdiferit animalsanimale,
258
720890
3277
Mike îl modifică pe y
în funcţie de diferite animale,
12:16
in a networkreţea designedproiectat
to recognizerecunoaşte and distinguishdistinge
259
724191
2382
într-o reţea creată să recunoască
şi să distingă diferite animale,
12:18
differentdiferit animalsanimale from eachfiecare other.
260
726597
1810
12:20
And you get this strangeciudat, Escher-likeEscher-ca
morphMorph from one animalanimal to anothero alta.
261
728431
3751
iar rezultatul e o metamorfoză ciudată
de tip Escher, de la un animal la altul.
12:26
Here he and AlexAlex togetherîmpreună
have triedîncercat reducingreduce
262
734221
4614
Aici el şi Alex
au încercat să-l reducă pe y
12:30
the y'sy to a spacespaţiu of only two dimensionsdimensiuni,
263
738859
2759
la un spaţiu cu două dimensiuni,
12:33
therebyastfel makingluare a mapHartă
out of the spacespaţiu of all things
264
741642
3438
făcând astfel o hartă
din spaţiul tuturor lucrurilor
12:37
recognizedrecunoscut by this networkreţea.
265
745104
1719
recunoscute de această reţea..
12:38
Doing this kinddrăguț of synthesissinteză
266
746847
2023
Făcând acest tip de sinteză
12:40
or generationgeneraţie of imageryimagini
over that entireîntreg surfacesuprafaţă,
267
748894
2382
sau generare a imaginilor
pe întreaga suprafaţă,
12:43
varyingdiferite y over the surfacesuprafaţă,
you make a kinddrăguț of mapHartă --
268
751300
2846
schimbându-l pe y pe suprafaţă,
faci un fel de hartă,
12:46
a visualvizual mapHartă of all the things
the networkreţea knowsștie how to recognizerecunoaşte.
269
754170
3141
o hartă vizuală a tuturor lucrurilor
pe care reţeaua le recunoaşte.
12:49
The animalsanimale are all here;
"armadilloArmadillo" is right in that spotloc.
270
757335
2865
Animalele sunt aici;
Tatuul (armadillo) e în punctul ăla.
12:52
You can do this with other kindstipuri
of networksrețele as well.
271
760919
2479
Se poate face asta
şi cu alte tipuri de reţele.
12:55
This is a networkreţea designedproiectat
to recognizerecunoaşte facesfețe,
272
763422
2874
Asta e o reţea creată să recunoască feţe,
12:58
to distinguishdistinge one facefață from anothero alta.
273
766320
2000
sa distingă un chip de altul.
13:00
And here, we're puttingpunând
in a y that saysspune, "me,"
274
768344
3249
Aici introducem un y numit „eu”,
13:03
my ownpropriu facefață parametersparametrii.
275
771617
1575
parametrii chipului meu.
13:05
And when this thing solvesrezolvă for x,
276
773216
1706
Iar când îl află pe x,
13:06
it generatesgenerează this rathermai degraba crazynebun,
277
774946
2618
generează această imagine a mea
13:09
kinddrăguț of cubistcubist, surrealireal,
psychedelicpsihedelică pictureimagine of me
278
777588
4428
nebuneasca, cubista,
suprarealista, psihedelică
13:14
from multiplemultiplu pointspuncte of viewvedere at onceo singura data.
279
782040
1806
combinând mai multe puncte de vedere.
13:15
The reasonmotiv it looksarată like
multiplemultiplu pointspuncte of viewvedere at onceo singura data
280
783870
2734
Pare că sunt mai multe
puncte de vedere simultan
13:18
is because that networkreţea is designedproiectat
to get ridscăpa of the ambiguityambiguitate
281
786628
3687
pentru că reţeaua e creată
ca să elimine ambiguitatea
13:22
of a facefață beingfiind in one posepune
or anothero alta posepune,
282
790339
2476
unui chip pus într-o postură sau alta,
13:24
beingfiind lookedprivit at with one kinddrăguț of lightingiluminat,
anothero alta kinddrăguț of lightingiluminat.
283
792839
3376
văzut într-o lumină sau alta.
13:28
So when you do
this sortfel of reconstructionreconstrucţie,
284
796239
2085
Când faci acest tip de reconstrucţie,
13:30
if you don't use some sortfel of guideghid imageimagine
285
798348
2304
dacă nu foloseşti o imagine de control
sau statistici de control,
13:32
or guideghid statisticsstatistici,
286
800676
1211
13:33
then you'llveți get a sortfel of confusionconfuzie
of differentdiferit pointspuncte of viewvedere,
287
801911
3765
atunci vei avea un fel de confuzie
a mai multor puncte de vedere
13:37
because it's ambiguousambiguu.
288
805700
1368
deoarece e ambiguu.
13:39
This is what happensse întâmplă if AlexAlex usesutilizări
his ownpropriu facefață as a guideghid imageimagine
289
807786
4223
Asta se întâmplă dacă Alex foloseşte
chipul său ca imagine de control
13:44
duringpe parcursul that optimizationoptimizare processproces
to reconstructreconstrui my ownpropriu facefață.
290
812033
3321
în timpul procesului de optimizare
pentru reconstrucţia feţei mele.
13:48
So you can see it's not perfectperfect.
291
816284
2328
Puteţi vedea că nu e perfect.
13:50
There's still quitedestul de a lot of work to do
292
818636
1874
E încă destul de multă muncă
13:52
on how we optimizeoptimiza
that optimizationoptimizare processproces.
293
820534
2453
pentru optimizarea
acestui proces de optimizare,
13:55
But you startstart to get something
more like a coherentcoerent facefață,
294
823011
2827
dar începem să obţinem
ceva ce aduce mai mult cu o faţă,
13:57
renderedprestate usingutilizând my ownpropriu facefață as a guideghid.
295
825862
2014
Când folosim ca referinţă chipul meu.
14:00
You don't have to startstart
with a blankgol canvaspânză
296
828892
2501
Nu trebuie început cu o pânză goală
14:03
or with whitealb noisezgomot.
297
831417
1156
sau cu zgomot alb.
14:04
When you're solvingrezolvarea for x,
298
832597
1304
Când vrei să-l afli pe x,
14:05
you can beginÎNCEPE with an x,
that is itselfîn sine alreadydeja some other imageimagine.
299
833925
3889
poţi începe cu un x care deja
e el însuşi o altă imagine.
14:09
That's what this little demonstrationdemonstrație is.
300
837838
2556
Asta reprezintă aceasta mică demonstraţie.
14:12
This is a networkreţea
that is designedproiectat to categorizeclasifica
301
840418
4122
Asta e o reţea creată să clasifice
14:16
all sortsfelul of differentdiferit objectsobiecte --
man-madeartificiale structuresstructuri, animalsanimale ...
302
844564
3119
tot felul de obiecte diferite –
structuri create de om, animale...
14:19
Here we're startingpornire
with just a pictureimagine of cloudsnori,
303
847707
2593
Aici începem cu imaginea unor nori,
14:22
and as we optimizeoptimiza,
304
850324
1671
şi pe măsură ce optimizăm,
14:24
basicallype scurt, this networkreţea is figuringimaginind out
what it seesvede in the cloudsnori.
305
852019
4486
această reţea îşi imaginează
ce vede în nori.
14:28
And the more time
you spendpetrece looking at this,
306
856931
2320
Cu cât priviţi asta mai mult,
14:31
the more things you alsode asemenea
will see in the cloudsnori.
307
859275
2753
cu atât mai multe lucruri
veţi vedea şi voi în nori.
14:35
You could alsode asemenea use the facefață networkreţea
to hallucinatehalucinant into this,
308
863004
3375
Am putea folosi şi reţeaua chipurilor
pentru a halucina astfel,
14:38
and you get some prettyfrumos crazynebun stuffchestie.
309
866403
1812
şi obţii lucruri destul de nebuneşti.
14:40
(LaughterRâs)
310
868239
1150
(Râsete)
14:42
Or, MikeMike has doneTerminat some other experimentsexperimente
311
870401
2744
Mike a făcut şi alte experimente
14:45
in whichcare he takes that cloudnor imageimagine,
312
873169
3905
în care ia acea imagine a norilor,
14:49
hallucinateshallucinates, zoomszoom-uri, hallucinateshallucinates,
zoomszoom-uri hallucinateshallucinates, zoomszoom-uri.
313
877098
3507
halucinează, măreşte, halucinează,
măreşte, halucinează, măreşte.
14:52
And in this way,
314
880629
1151
Şi în felul ăsta,
14:53
you can get a sortfel of fuguefuga statestat
of the networkreţea, I supposepresupune,
315
881804
3675
poţi obţine un fel de fugă disociativă
a reţelei, presupun,
14:57
or a sortfel of freegratuit associationasociere,
316
885503
3680
sau un fel de asociere liberă,
15:01
in whichcare the networkreţea
is eatingmâncare its ownpropriu tailcoadă.
317
889207
2227
în care reţeaua îşi mănâncă propria coada.
15:03
So everyfiecare imageimagine is now the basisbază for,
318
891458
3421
Deci acum fiecare imagine e baza pentru:
15:06
"What do I think I see nextUrmător →?
319
894903
1421
„Ce cred că văd acum?
15:08
What do I think I see nextUrmător →?
What do I think I see nextUrmător →?"
320
896348
2803
Ce cred că văd acum?
Ce cred că văd acum?”
15:11
I showeda arătat this for the first time in publicpublic
321
899487
2936
Prima dată, am prezentat
asta în public
15:14
to a groupgrup at a lecturelectura in SeattleSeattle
calleddenumit "HigherMai mare EducationEducaţie" --
322
902447
5437
unui grup la un curs din Seattle,
intitulat „Educaţia Superioară”.
15:19
this was right after
marijuanamarijuană was legalizedlegalizat.
323
907908
2437
Asta se petrecea chiar
după legalizarea marijuanei.
15:22
(LaughterRâs)
324
910369
2415
(Râsete)
15:26
So I'd like to finishfinalizarea up quicklyrepede
325
914627
2104
Vreau să închei repede
15:28
by just notingnotând that this technologytehnologie
is not constrainedconstrâns.
326
916755
4255
menţionând că această tehnologie
nu e restricţionată.
15:33
I've shownafișate you purelypur visualvizual examplesexemple
because they're really fundistracţie to look at.
327
921034
3665
V-am arătat doar exemple vizuale
deoarece sunt distractive.
15:36
It's not a purelypur visualvizual technologytehnologie.
328
924723
2451
Nu e doar tehnologie vizuală.
15:39
Our artistartist collaboratorcolaborator, RossRoss GoodwinGoodwin,
329
927198
1993
Colaboratorul nostru,
artistul Ross Godwin,
15:41
has doneTerminat experimentsexperimente involvingimplicând
a cameraaparat foto that takes a pictureimagine,
330
929215
3671
a făcut experimente cu o cameră
care face o fotografie
15:44
and then a computercomputer in his backpackrucsac
writesscrie a poempoem usingutilizând neuralneural networksrețele,
331
932910
4234
şi apoi un computer din rucsacul lui scrie
o poezie folosind reţelele neuronale,
15:49
basedbazat on the contentsconținut of the imageimagine.
332
937168
1944
pornind de la conţinutul imaginii.
15:51
And that poetrypoezie neuralneural networkreţea
has been traineddresat
333
939136
2947
Acea reţea neuronală de poezie
a fost antrenată
15:54
on a largemare corpuscorp of 20th-centurylea-lea poetrypoezie.
334
942107
2234
cu o colecţie mare
de poezii al secolului 20.
15:56
And the poetrypoezie is, you know,
335
944365
1499
Iar poezia nu e deloc rea
după părerea mea.
15:57
I think, kinddrăguț of not badrău, actuallyde fapt.
336
945888
1914
15:59
(LaughterRâs)
337
947826
1384
(Râsete).
16:01
In closingînchidere,
338
949234
1159
În încheiere,
16:02
I think that perpe MichelangeloMichelangelo,
339
950417
2132
în privinţa lui Michelangelo
16:04
I think he was right;
340
952573
1234
cred că avea dreptate;
16:05
perceptionpercepţie and creativitycreativitate
are very intimatelyintim connectedconectat.
341
953831
3436
percepţia şi creativitatea
sunt puternic conectate.
16:09
What we'vene-am just seenvăzut are neuralneural networksrețele
342
957611
2634
Tocmai am văzut reţele neuronale
pregătite să distingă
16:12
that are entirelyîn întregime traineddresat to discriminatediscriminare,
343
960269
2303
16:14
or to recognizerecunoaşte differentdiferit
things in the worldlume,
344
962596
2242
sau să recunoască
diferite lucruri din lume,
16:16
ablecapabil to be runalerga in reverseverso, to generateGenera.
345
964862
3161
ce pot fi rulate în sens invers,
ca să genereze.
16:20
One of the things that suggestssugerează to me
346
968047
1783
Unul din lucrurile sugerate de asta
16:21
is not only that
MichelangeloMichelangelo really did see
347
969854
2398
e nu numai că Michelangelo chiar a văzut
16:24
the sculpturesculptură in the blocksblocuri of stonepiatră,
348
972276
2452
sculptura din interiorul
blocului de piatră,
16:26
but that any creaturecreatură,
any beingfiind, any alienstrăin
349
974752
3638
dar că orice creatură, orice fiinţă,
orice extraterestru
16:30
that is ablecapabil to do
perceptualperceptive actsacte of that sortfel
350
978414
3657
care e capabil
de acte perceptive de acel gen
16:34
is alsode asemenea ablecapabil to createcrea
351
982095
1375
e capabil şi să creeze
16:35
because it's exactlyexact the samela fel
machinerymașini that's used in bothambii casescazuri.
352
983494
3224
deoarece acelaşi mecanism
e folosit în ambele cazuri.
16:38
AlsoDe asemenea, I think that perceptionpercepţie
and creativitycreativitate are by no meansmijloace
353
986742
4532
Cred de asemenea că percepţia şi
creativitatea nu sunt exclusiv umane.
16:43
uniquelyunic humanuman.
354
991298
1210
16:44
We startstart to have computercomputer modelsmodele
that can do exactlyexact these sortsfelul of things.
355
992532
3708
Începem să avem modele informatice
care fac exact genul ăsta de lucruri.
16:48
And that oughttrebui to be unsurprisingdeloc surprinzătoare;
the braincreier is computationalcomputațională.
356
996264
3328
Asta nu ar trebui să ne surprindă:
creierul e computaţional.
16:51
And finallyin sfarsit,
357
999616
1657
Şi în sfârşit,
16:53
computingtehnica de calcul begana început as an exerciseexercițiu
in designingproiect intelligentinteligent machinerymașini.
358
1001297
4668
informatica început ca un exerciţiu
de creare a inteligenţei artificiale.
16:57
It was very much modeledmodelat after the ideaidee
359
1005989
2462
A fost modelată după ideea
17:00
of how could we make machinesmaşini intelligentinteligent.
360
1008475
3013
„cum putem face maşinăriile inteligente”.
17:03
And we finallyin sfarsit are startingpornire to fulfillîndeplini now
361
1011512
2162
Acum începem să împlinim
17:05
some of the promisespromisiuni
of those earlydin timp pioneerspionierii,
362
1013698
2406
câteva dintre promisiunile
primilor pioneri,
17:08
of TuringTuring and vonvon NeumannNeumann
363
1016128
1713
ale lui Turing şi von Neumann
17:09
and McCullochMcCulloch and PittsPitts.
364
1017865
2265
şi McCulloch şi Pitts.
17:12
And I think that computingtehnica de calcul
is not just about accountingcontabilitate
365
1020154
4098
Cred că informatica
nu mai însemnă doar contabilitate,
17:16
or playingjoc CandyBomboane CrushZdrobi or something.
366
1024276
2147
sau să joci Candy Crush sau altceva.
17:18
From the beginningînceput,
we modeledmodelat them after our mindsminți.
367
1026447
2578
Încă de la început, le-am creat
după minţile noastre.
17:21
And they give us bothambii the abilityabilitate
to understanda intelege our ownpropriu mindsminți better
368
1029049
3269
Şi ne-au dat capacitatea să ne înţelegem
mai bine propriile minţi
17:24
and to extendextinde them.
369
1032342
1529
şi să le extindem.
17:26
Thank you very much.
370
1034627
1167
Vă mulţumesc foarte mult.
17:27
(ApplauseAplauze)
371
1035818
5939
(Aplauze)

▲Back to top

ABOUT THE SPEAKER
Blaise Agüera y Arcas - Software architect
Blaise Agüera y Arcas works on machine learning at Google. Previously a Distinguished Engineer at Microsoft, he has worked on augmented reality, mapping, wearable computing and natural user interfaces.

Why you should listen

Blaise Agüera y Arcas is principal scientist at Google, where he leads a team working on machine intelligence for mobile devices. His group works extensively with deep neural nets for machine perception and distributed learning, and it also investigates so-called "connectomics" research, assessing maps of connections within the brain.

Agüera y Arcas' background is as multidimensional as the visions he helps create. In the 1990s, he authored patents on both video compression and 3D visualization techniques, and in 2001, he made an influential computational discovery that cast doubt on Gutenberg's role as the father of movable type.

He also created Seadragon (acquired by Microsoft in 2006), the visualization technology that gives Photosynth its amazingly smooth digital rendering and zoom capabilities. Photosynth itself is a vastly powerful piece of software capable of taking a wide variety of images, analyzing them for similarities, and grafting them together into an interactive three-dimensional space. This seamless patchwork of images can be viewed via multiple angles and magnifications, allowing us to look around corners or “fly” in for a (much) closer look. Simply put, it could utterly transform the way we experience digital images.

He joined Microsoft when Seadragon was acquired by Live Labs in 2006. Shortly after the acquisition of Seadragon, Agüera y Arcas directed his team in a collaboration with Microsoft Research and the University of Washington, leading to the first public previews of Photosynth several months later. His TED Talk on Seadragon and Photosynth in 2007 is rated one of TED's "most jaw-dropping." He returned to TED in 2010 to demo Bing’s augmented reality maps.

Fun fact: According to the author, Agüera y Arcas is the inspiration for the character Elgin in the 2012 best-selling novel Where'd You Go, Bernadette?

More profile about the speaker
Blaise Agüera y Arcas | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee