ABOUT THE SPEAKER
Jeremy Howard - Data scientist
Jeremy Howard imagines how advanced machine learning can improve our lives.

Why you should listen

Jeremy Howard is the CEO of Enlitic, an advanced machine learning company in San Francisco. Previously, he was the president and chief scientist at Kaggle, a community and competition platform of over 200,000 data scientists. Howard is a faculty member at Singularity University, where he teaches data science. He is also a Young Global Leader with the World Economic Forum, and spoke at the World Economic Forum Annual Meeting 2014 on "Jobs for the Machines."

Howard advised Khosla Ventures as their Data Strategist, identifying opportunities for investing in data-driven startups and mentoring portfolio companies to build data-driven businesses. He was the founding CEO of two successful Australian startups, FastMail and Optimal Decisions Group.

More profile about the speaker
Jeremy Howard | Speaker | TED.com
TEDxBrussels

Jeremy Howard: The wonderful and terrifying implications of computers that can learn

Jeremy Howard: Las maravillosas y pavorosas consecuencias de los computadores que pueden aprender

Filmed:
2,532,971 views

¿Qué ocurre cuando le enseñamos a aprender a un computador? El experto Jeremy Howard comparte algunas novedades técnicas sorprendentes del imparable campo del aprendizaje profundo. Muestra una técnica que puede dar a los computadores la capacidad de aprender chino, o de reconocer objetos en fotos, o de ayudar a reconocer diagnósticos médicos.(Una herramienta autodidacta de aprendizaje profundo, que después de ver horas de vídeos en YouTube, aprendió por sí sola el concepto de "gatos".) Sumérgete en el campo que va a cambiar el comportamiento de los computadores que nos rodean... antes de lo que piensas.
- Data scientist
Jeremy Howard imagines how advanced machine learning can improve our lives. Full bio

Double-click the English transcript below to play the video.

00:12
It used to be that if you wanted
to get a computercomputadora to do something newnuevo,
0
880
4013
Antes, si querías que un computador
hiciera algo nuevo
tenías, normalmente, que programarlo.
00:16
you would have to programprograma it.
1
4893
1554
00:18
Now, programmingprogramación, for those of you here
that haven'tno tiene donehecho it yourselftú mismo,
2
6447
3411
La programación, para quienes
no la han practicado,
requiere especificar
con el más mínimo detalle
00:21
requiresrequiere layingtendido out in excruciatingagudísimo detaildetalle
3
9858
3502
cada paso que uno quiere
que haga su computador
00:25
everycada singlesoltero steppaso that you want
the computercomputadora to do
4
13360
3367
para alcanzar el objetivo.
00:28
in orderorden to achievelograr your goalGol.
5
16727
2362
Si quieren hacer algo que
no saben hacer por sí mismos
00:31
Now, if you want to do something
that you don't know how to do yourselftú mismo,
6
19089
3496
entonces están ante un gran reto.
00:34
then this is going
to be a great challengereto.
7
22585
2063
Ese fue el reto al que se enfrentó
este hombre, Arthur Samuel.
00:36
So this was the challengereto facedenfrentado
by this man, ArthurArturo SamuelSamuel.
8
24648
3483
En 1956, quería hacer que su computador
pudiera ganarle a las damas.
00:40
In 1956, he wanted to get this computercomputadora
9
28131
4077
00:44
to be ablepoder to beatgolpear him at checkersjuego de damas.
10
32208
2340
¿Cómo se puede diseñar un programa,
00:46
How can you writeescribir a programprograma,
11
34548
2040
teniendo en cuenta el más mínimo detalle
que sea mejor que sí mismo a las damas?
00:48
laylaico out in excruciatingagudísimo detaildetalle,
how to be better than you at checkersjuego de damas?
12
36588
3806
Y se le ocurrió una idea:
00:52
So he camevino up with an ideaidea:
13
40394
1722
hizo jugar al computador
contra sí mismo miles de veces
00:54
he had the computercomputadora playjugar
againsten contra itselfsí mismo thousandsmiles of timesveces
14
42116
3724
y le hizo aprender
a jugar a las damas.
00:57
and learnaprender how to playjugar checkersjuego de damas.
15
45840
2524
De hecho funcionó, ya en 1962,
01:00
And indeeden efecto it workedtrabajó,
and in facthecho, by 1962,
16
48364
3180
este computador había ganado
la competición estatal de Connecticut.
01:03
this computercomputadora had beatenvencido
the ConnecticutConnecticut stateestado championcampeón.
17
51544
4017
Arthur Samuel fue el padre
del aprendizaje automático,
01:07
So ArthurArturo SamuelSamuel was
the fatherpadre of machinemáquina learningaprendizaje,
18
55561
2973
y tengo una deuda con él,
01:10
and I have a great debtdeuda to him,
19
58534
1717
porque soy un profesional
del aprendizaje automático.
01:12
because I am a machinemáquina
learningaprendizaje practitionerfacultativo.
20
60251
2763
Fui presidente de Kaggle,
01:15
I was the presidentpresidente of KaggleKaggle,
21
63014
1465
una comunidad de unos 200 000
01:16
a communitycomunidad of over 200,000
machinemáquina learningaprendizaje practictionerspracticantes.
22
64479
3388
profesionales del
aprendizaje automático.
Kaggle contribuye con competiciones
01:19
KaggleKaggle putspone up competitionscompeticiones
23
67867
2058
para tratar de resolver problemas
anteriores no resueltos,
01:21
to try and get them to solveresolver
previouslypreviamente unsolvedno resuelto problemsproblemas,
24
69925
3708
y tuvo éxito cientos de veces.
01:25
and it's been successfulexitoso
hundredscientos of timesveces.
25
73633
3837
Así que desde esa perspectiva,
pude descubrir
01:29
So from this vantageventaja pointpunto,
I was ablepoder to find out
26
77470
2470
mucho sobre lo que el aprendizaje
automático hizo, puede hacer hoy
01:31
a lot about what machinemáquina learningaprendizaje
can do in the pastpasado, can do todayhoy,
27
79940
3950
y lo que podrá hacer en el futuro.
01:35
and what it could do in the futurefuturo.
28
83890
2362
Quizás el primer gran éxito
01:38
PerhapsQuizás the first biggrande successéxito of
machinemáquina learningaprendizaje commerciallycomercialmente was GoogleGoogle.
29
86252
4423
del aprendizaje automático
en el mercado fue Google.
Google demostró que era posible
encontrar información
01:42
GoogleGoogle showedmostró that it is
possibleposible to find informationinformación
30
90675
3109
01:45
by usingutilizando a computercomputadora algorithmalgoritmo,
31
93784
1752
usando un algoritmo informático
y ese algoritmo se basa en
el aprendizaje automático.
01:47
and this algorithmalgoritmo is basedbasado
on machinemáquina learningaprendizaje.
32
95536
2901
01:50
SinceYa que that time, there have been manymuchos
commercialcomercial successeséxitos of machinemáquina learningaprendizaje.
33
98437
3886
Desde entonces, ha habido muchos éxitos
comerciales del aprendizaje automático.
01:54
CompaniesCompañías like AmazonAmazonas and NetflixNetflix
34
102323
1837
Compañías como Amazon y Netflix
usan el aprendizaje automático
01:56
use machinemáquina learningaprendizaje to suggestsugerir
productsproductos that you mightpodría like to buycomprar,
35
104160
3716
para sugerir artículos
que les puedan interesar comprar,
películas que les puedan interesar ver
01:59
moviespelículas that you mightpodría like to watch.
36
107876
2020
A veces, es casi escalofriante.
02:01
SometimesA veces, it's almostcasi creepyhorripilante.
37
109896
1807
Compañías como
LinkedIn y Facebook
02:03
CompaniesCompañías like LinkedInLinkedIn and FacebookFacebook
38
111703
1954
dicen, en ocasiones, cuáles
pueden ser sus amigos
02:05
sometimesa veces will tell you about
who your friendsamigos mightpodría be
39
113657
2594
y uno no tiene ni idea
de cómo lo han hecho,
02:08
and you have no ideaidea how it did it,
40
116251
1977
y es porque hace uso del poder
del aprendizaje automático.
02:10
and this is because it's usingutilizando
the powerpoder of machinemáquina learningaprendizaje.
41
118228
2967
Estos son algoritmos que han aprendido
como hacerlo a partir de los datos
02:13
These are algorithmsAlgoritmos that have
learnedaprendido how to do this from datadatos
42
121195
2957
en lugar de ser programados a mano.
02:16
rathermás bien than beingsiendo programmedprogramado by handmano.
43
124152
3247
Así es también como IBM tuvo éxito
02:19
This is alsoademás how IBMIBM was successfulexitoso
44
127399
2478
en conseguir que Watson ganara
dos campeonatos mundiales de "Jeopardy"
02:21
in gettingconsiguiendo WatsonWatson to beatgolpear
the two worldmundo championscampeones at "JeopardyPeligro,"
45
129877
3862
02:25
answeringrespondiendo incrediblyincreíblemente subtlesutil
and complexcomplejo questionspreguntas like this one.
46
133739
3225
respondiendo preguntas increíblemente
ingeniosas, como esta.
[El antiguo "León de Nimrud" se perdió
del Museo Nacional de esta ciudad en 2003]
02:28
["The ancientantiguo 'Lion'León of Nimrud'Nimrud ' wentfuimos missingdesaparecido
from this city'sde la ciudad nationalnacional museummuseo in 2003
(alonga lo largo with a lot of other stuffcosas)"]
47
136964
2835
02:31
This is alsoademás why we are now ablepoder
to see the first self-drivingconducción autónoma carscarros.
48
139799
3235
También es por eso, que podemos ver
los primeros autos sin piloto.
02:35
If you want to be ablepoder to tell
the differencediferencia betweenEntre, say,
49
143034
2822
Si pueden diferenciar
entre, por ejemplo
02:37
a treeárbol and a pedestrianpeatonal,
well, that's prettybonita importantimportante.
50
145856
2632
un árbol y un peatón,
es algo muy importante.
02:40
We don't know how to writeescribir
those programsprogramas by handmano,
51
148488
2587
No sabemos diseñar
estos programas manualmente,
02:43
but with machinemáquina learningaprendizaje,
this is now possibleposible.
52
151075
2997
pero con el aprendizaje
automático es posible.
02:46
And in facthecho, this carcoche has drivenimpulsado
over a millionmillón milesmillas
53
154072
2608
De hecho, este auto ha conducido
más de un millón y medio de kilómetros
02:48
withoutsin any accidentsaccidentes on regularregular roadscarreteras.
54
156680
3506
sin tener accidentes en carretera.
Así, sabemos que los computadores
pueden aprender
02:52
So we now know that computersordenadores can learnaprender,
55
160196
3914
y pueden aprender a hacer cosas
02:56
and computersordenadores can learnaprender to do things
56
164110
1900
que de hecho nosotros, a veces,
no sabemos hacer,
02:58
that we actuallyactualmente sometimesa veces
don't know how to do ourselvesNosotros mismos,
57
166010
2838
o las pueden hacer mejor que nosotros.
03:00
or maybe can do them better than us.
58
168848
2885
Uno de los ejemplos más sorprendentes
que he visto en aprendizaje automático
03:03
One of the mostmás amazingasombroso examplesejemplos
I've seenvisto of machinemáquina learningaprendizaje
59
171733
4195
ocurrió en un proyecto
que dirigía en Kaggle
03:07
happenedsucedió on a projectproyecto that I rancorrió at KaggleKaggle
60
175928
2392
donde un equipo dirigido por un chico
llamado Geoffrey Hinton
03:10
where a teamequipo runcorrer by a guy
calledllamado GeoffreyGeoffrey HintonHinton
61
178320
3591
de la Universidad de Toronto
03:13
from the UniversityUniversidad of TorontoToronto
62
181911
1552
ganó un concurso para el descubrimiento
automático de medicamentos.
03:15
wonwon a competitioncompetencia for
automaticautomático drugdroga discoverydescubrimiento.
63
183463
2677
Lo extraordinario fue no solo que batiera
03:18
Now, what was extraordinaryextraordinario here
is not just that they beatgolpear
64
186140
2847
a todos los algoritmos
desarrollados por Merck
03:20
all of the algorithmsAlgoritmos developeddesarrollado by MerckMerck
or the internationalinternacional academicacadémico communitycomunidad,
65
188987
4013
o la comunidad académica internacional,
03:25
but nobodynadie on the teamequipo had any backgroundfondo
in chemistryquímica or biologybiología or life sciencesciencias,
66
193000
5061
sino que nadie del equipo
tenía experiencia en química
o biología o ciencias biológicas
y lo hicieron en dos semanas.
03:30
and they did it in two weekssemanas.
67
198061
2169
¿Cómo lo hicieron?
03:32
How did they do this?
68
200230
1381
Usaron un algoritmo extraordinario
llamado aprendizaje profundo.
03:34
They used an extraordinaryextraordinario algorithmalgoritmo
calledllamado deepprofundo learningaprendizaje.
69
202421
2921
Fue tan exitoso que tuvo cobertura
03:37
So importantimportante was this that in facthecho
the successéxito was coveredcubierto
70
205342
2949
03:40
in The NewNuevo YorkYork TimesVeces in a frontfrente pagepágina
articleartículo a fewpocos weekssemanas laterluego.
71
208291
3121
en The New York Times en un artículo
de portada unas semanas después.
Este es Geoffrey Hinton
a la izquierda.
03:43
This is GeoffreyGeoffrey HintonHinton
here on the left-handmano izquierda sidelado.
72
211412
2735
El aprendizaje profundo es un algoritmo
inspirado en el cerebro humano
03:46
DeepProfundo learningaprendizaje is an algorithmalgoritmo
inspiredinspirado by how the humanhumano braincerebro workstrabajos,
73
214147
4341
y como resultado
03:50
and as a resultresultado it's an algorithmalgoritmo
74
218488
1812
no tiene limitaciones teóricas
en lo que puede hacer.
03:52
whichcual has no theoreticalteórico limitationslimitaciones
on what it can do.
75
220300
3841
Cuantos más datos
y tiempo de cálculo uno le dé
03:56
The more datadatos you give it and the more
computationcálculo time you give it,
76
224141
2823
mejor funciona.
03:58
the better it getsse pone.
77
226964
1312
The New York Times mostró,
también en su artículo
04:00
The NewNuevo YorkYork TimesVeces alsoademás
showedmostró in this articleartículo
78
228276
2339
otro resultado extraordinario
del aprendizaje profundo
04:02
anotherotro extraordinaryextraordinario
resultresultado of deepprofundo learningaprendizaje
79
230615
2242
04:04
whichcual I'm going to showespectáculo you now.
80
232857
2712
que mostraré ahora.
Demuestra que los computadores
pueden escuchar y comprender.
04:07
It showsmuestra that computersordenadores
can listen and understandentender.
81
235569
4941
04:12
(VideoVídeo) RichardRicardo RashidRashid: Now, the last steppaso
82
240510
2711
(Vídeo) Richard Rashid:
El último paso
04:15
that I want to be ablepoder
to take in this processproceso
83
243221
3025
que quiero dar en este proceso
04:18
is to actuallyactualmente speakhablar to you in Chinesechino.
84
246246
4715
es hablar en chino.
04:22
Now the keyllave thing there is,
85
250961
2635
La clave es,
hemos recopilado una gran información
de hablantes de chino
04:25
we'venosotros tenemos been ablepoder to take a largegrande amountcantidad
of informationinformación from manymuchos Chinesechino speakersparlantes
86
253596
5002
y producido un sistema de conversión
de texto a voz
04:30
and produceProduce a text-to-speechtexto a voz systemsistema
87
258598
2530
que toma el texto en chino
y lo convierte en lengua oral,
04:33
that takes Chinesechino texttexto
and convertsconversos it into Chinesechino languageidioma,
88
261128
4673
04:37
and then we'venosotros tenemos takentomado
an hourhora or so of my ownpropio voicevoz
89
265801
4128
luego hemos grabado
una hora de mi voz
04:41
and we'venosotros tenemos used that to modulatemodular
90
269929
1891
que usamos para modular
04:43
the standardestándar text-to-speechtexto a voz systemsistema
so that it would soundsonar like me.
91
271820
4544
el texto estándar de conversión
de texto a voz para que suene como yo.
04:48
Again, the result'sresultado not perfectPerfecto.
92
276364
2540
De nuevo, el resultado no es perfecto.
04:50
There are in facthecho quitebastante a fewpocos errorserrores.
93
278904
2648
De hecho, hay unos cuantos errores.
04:53
(In Chinesechino)
94
281552
2484
結果並不完美
(los resultados no son perfectos)
04:56
(ApplauseAplausos)
95
284036
3367
(Aplausos)
Hay mucho que hacer en esta área.
05:01
There's much work to be donehecho in this areazona.
96
289446
3576
在這方面有很多工作要做 (hay mucho
trabajo que hacer en esta área)
05:05
(In Chinesechino)
97
293022
3645
(Aplausos)
05:08
(ApplauseAplausos)
98
296667
3433
05:13
JeremyJeremy HowardHoward: Well, that was at
a machinemáquina learningaprendizaje conferenceconferencia in ChinaChina.
99
301345
3399
Jeremy Howard: Esto era una conferencia
de aprendizaje automático en China.
05:16
It's not oftena menudo, actuallyactualmente,
at academicacadémico conferencesconferencias
100
304744
2370
No es usual, en conferencias académicas
05:19
that you do hearoír spontaneousespontáneo applauseaplausos,
101
307114
1897
oír aplausos espontáneos,
05:21
althougha pesar de que of coursecurso sometimesa veces
at TEDxTEDx conferencesconferencias, feel freegratis.
102
309011
3676
aunque en las conferencias
de TEDx siéntanse libres.
05:24
Everything you saw there
was happeningsucediendo with deepprofundo learningaprendizaje.
103
312687
2795
Todo lo que han visto es gracias
al aprendizaje profundo.
(Aplausos) Gracias.
05:27
(ApplauseAplausos) Thank you.
104
315482
1525
La transcripción en inglés
es aprendizaje profundo.
05:29
The transcriptiontranscripción in EnglishInglés
was deepprofundo learningaprendizaje.
105
317007
2282
05:31
The translationtraducción to Chinesechino and the texttexto
in the topparte superior right, deepprofundo learningaprendizaje,
106
319289
3412
La traducción al chino y el texto arriba
a la derecha, es aprendizaje profundo,
05:34
and the constructionconstrucción of the voicevoz
was deepprofundo learningaprendizaje as well.
107
322701
3307
y la construcción de la voz también
es aprendizaje profundo.
05:38
So deepprofundo learningaprendizaje is
this extraordinaryextraordinario thing.
108
326008
3234
Eso es lo extraordinario
del aprendizaje profundo.
05:41
It's a singlesoltero algorithmalgoritmo that
can seemparecer to do almostcasi anything,
109
329242
3099
Es un solo algoritmo que parece
hacer casi cualquier cosa,
05:44
and I discovereddescubierto that a yearaño earliermás temprano,
it had alsoademás learnedaprendido to see.
110
332341
3111
y descubrí que un año antes,
aprendió a ver.
05:47
In this obscureoscuro competitioncompetencia from GermanyAlemania
111
335452
2176
En esta extraña competición en Alemania
05:49
calledllamado the Germanalemán TrafficTráfico SignFirmar
RecognitionReconocimiento BenchmarkPunto de referencia,
112
337628
2597
llamada Banco de Prueba de
Reconocimiento de Señales de Tránsito
05:52
deepprofundo learningaprendizaje had learnedaprendido
to recognizereconocer traffictráfico signsseñales like this one.
113
340225
3393
el aprendizaje profundo ha aprendido
a reconocer señales de tránsito como esta.
05:55
Not only could it
recognizereconocer the traffictráfico signsseñales
114
343618
2094
No solo reconoce señales de tránsito
05:57
better than any other algorithmalgoritmo,
115
345712
1758
mejor que cualquier otro algoritmo,
05:59
the leaderboardtabla de clasificación actuallyactualmente showedmostró
it was better than people,
116
347470
2719
la clasificación mostró
que era mejor que las personas,
06:02
about twicedos veces as good as people.
117
350189
1852
dos veces más bueno que las personas.
06:04
So by 2011, we had the first exampleejemplo
118
352041
1996
Para 2011, se da el primer ejemplo
06:06
of computersordenadores that can see
better than people.
119
354037
3405
de computadores que pueden ver
mejor que las personas.
06:09
SinceYa que that time, a lot has happenedsucedió.
120
357442
2049
Desde entonces, han ocurrido muchas cosas.
06:11
In 2012, GoogleGoogle announcedAnunciado that
they had a deepprofundo learningaprendizaje algorithmalgoritmo
121
359491
3514
En 2012, Google anunció que había hecho
que un algoritmo de aprendizaje profundo
06:15
watch YouTubeYoutube videosvideos
122
363005
1415
viera vídeos en YouTube
06:16
and crunchedaplastado the datadatos
on 16,000 computersordenadores for a monthmes,
123
364420
3437
y procesaron la información
en 16 000 computadores al mes
06:19
and the computercomputadora independentlyindependientemente learnedaprendido
about conceptsconceptos suchtal as people and catsgatos
124
367857
4361
y el computador aprendió
de manera independiente
conceptos como personas y gatos
solo viendo los vídeos.
06:24
just by watchingacecho the videosvideos.
125
372218
1809
06:26
This is much like the way
that humanshumanos learnaprender.
126
374027
2352
Esto se parece mucho
al aprendizaje humano.
06:28
HumansHumanos don't learnaprender
by beingsiendo told what they see,
127
376379
2740
Los humanos no aprendemos
porque nos cuenten lo que vemos,
06:31
but by learningaprendizaje for themselvessí mismos
what these things are.
128
379119
3331
sino que aprendemos solos
qué son esas cosas.
06:34
Alsotambién in 2012, GeoffreyGeoffrey HintonHinton,
who we saw earliermás temprano,
129
382450
3369
También en 2012, Geoffrey Hinton,
que vimos anteriormente,
06:37
wonwon the very popularpopular ImageNetImageNet competitioncompetencia,
130
385819
2858
ganó la famosa competición de ImageNet,
06:40
looking to try to figurefigura out
from one and a halfmitad millionmillón imagesimágenes
131
388677
4141
tratando de averiguar, mirando
un millón y medio de imágenes,
06:44
what they're picturesimágenes of.
132
392818
1438
sobre qué eran estas imágenes.
06:46
As of 2014, we're now down
to a sixseis percentpor ciento errorerror ratetarifa
133
394256
3533
A partir de 2014, tenemos un porcentaje
de error por debajo del 6 %
06:49
in imageimagen recognitionreconocimiento.
134
397789
1453
en reconocimiento de imágenes.
06:51
This is better than people, again.
135
399242
2026
De nuevo, mejor que las personas.
06:53
So machinesmáquinas really are doing
an extraordinarilyextraordinariamente good jobtrabajo of this,
136
401268
3769
Las máquinas están haciendo
un trabajo increíble aquí,
06:57
and it is now beingsiendo used in industryindustria.
137
405037
2269
y está siendo usadas en la industria.
06:59
For exampleejemplo, GoogleGoogle announcedAnunciado last yearaño
138
407306
3042
Por ejemplo, Google anunció el año pasado
07:02
that they had mappedmapeado everycada singlesoltero
locationubicación in FranceFrancia in two hourshoras,
139
410348
4585
que había cartografiado cada sitio
de Francia en dos horas,
07:06
and the way they did it was
that they fedalimentado streetcalle viewver imagesimágenes
140
414933
3447
y lo hizo alimentando
con imágenes de las calles,
07:10
into a deepprofundo learningaprendizaje algorithmalgoritmo
to recognizereconocer and readleer streetcalle numbersnúmeros.
141
418380
4319
al algoritmo de aprendizaje profundo
para reconocer y leer los números.
07:14
ImagineImagina how long
it would have takentomado before:
142
422699
2220
Imaginen lo que se habría tardado antes:
07:16
dozensdocenas of people, manymuchos yearsaños.
143
424919
3355
docenas de personas, muchos años.
07:20
This is alsoademás happeningsucediendo in ChinaChina.
144
428274
1911
Esto también está pasando en China.
07:22
BaiduBaidu is kindtipo of
the Chinesechino GoogleGoogle, I guessadivinar,
145
430185
4036
Baidu es como el Google chino, creo,
07:26
and what you see here in the topparte superior left
146
434221
2283
y lo que ven arriba a la izquierda
es un ejemplo de una imagen que subí
07:28
is an exampleejemplo of a pictureimagen that I uploadedcargado
to Baidu'sBaidu deepprofundo learningaprendizaje systemsistema,
147
436504
3974
al sistema de aprendizaje profundo
de Baidu,
07:32
and underneathdebajo you can see that the systemsistema
has understoodentendido what that pictureimagen is
148
440478
3769
y debajo se puede ver que el sistema
ha entendido lo que es esa imagen
07:36
and foundencontró similarsimilar imagesimágenes.
149
444247
2236
y encuentra imágenes similares.
07:38
The similarsimilar imagesimágenes actuallyactualmente
have similarsimilar backgroundsantecedentes,
150
446483
2736
Las imágenes similares
tienen fondos similares
07:41
similarsimilar directionsdirecciones of the facescaras,
151
449219
1658
similares de las caras,
incluso algunos con la lengua afuera.
07:42
even some with theirsu tonguelengua out.
152
450877
1788
07:44
This is not clearlyclaramente looking
at the texttexto of a webweb pagepágina.
153
452665
3030
Esto no es claramente mirar
el texto de una página web.
07:47
All I uploadedcargado was an imageimagen.
154
455695
1412
Todo lo que descargué eran imágenes.
07:49
So we now have computersordenadores whichcual
really understandentender what they see
155
457107
4021
Por lo que ahora tenemos computadores
que entienden lo que ven
07:53
and can thereforepor lo tanto searchbuscar databasesbases de
156
461128
1624
y por ello pueden buscar bases de datos
07:54
of hundredscientos of millionsmillones
of imagesimágenes in realreal time.
157
462752
3554
de cientos de millones
de imágenes en tiempo real.
¿Qué significado tiene que
los computadores puedan ver?
07:58
So what does it mean
now that computersordenadores can see?
158
466306
3230
Bueno, no es solo que
los computadores puedan ver.
08:01
Well, it's not just
that computersordenadores can see.
159
469536
2017
08:03
In facthecho, deepprofundo learningaprendizaje
has donehecho more than that.
160
471553
2069
De hecho, el aprendizaje profundo
ha hecho más que eso.
08:05
ComplexComplejo, nuancedmatizado sentencesfrases like this one
161
473622
2948
Frases complejas y llenas
de matices como esta
son ahora comprensibles con
algoritmos del aprendizaje profundo.
08:08
are now understandablecomprensible
with deepprofundo learningaprendizaje algorithmsAlgoritmos.
162
476570
2824
Como pueden ver aquí,
08:11
As you can see here,
163
479394
1303
este sistema basado en el de Stanford que
muestra el punto rojo en la parte superior
08:12
this Stanford-basedBasado en Stanford systemsistema
showingdemostración the redrojo dotpunto at the topparte superior
164
480697
2768
08:15
has figuredfigurado out that this sentencefrase
is expressingexpresando negativenegativo sentimentsentimiento.
165
483465
3919
ha comprendido que esta frase
expresa sentimientos negativos.
08:19
DeepProfundo learningaprendizaje now in facthecho
is nearcerca humanhumano performanceactuación
166
487384
3406
El aprendizaje profundo está cercano
a la conducta humana al comprender
lo que significan las frases y lo que
se está diciendo sobre esas cosas.
08:22
at understandingcomprensión what sentencesfrases are about
and what it is sayingdiciendo about those things.
167
490802
5121
08:27
Alsotambién, deepprofundo learningaprendizaje has
been used to readleer Chinesechino,
168
495923
2728
El aprendizaje profundo se ha usado
también para leer chino,
08:30
again at about nativenativo
Chinesechino speakeraltavoz levelnivel.
169
498651
3156
de nuevo, a un nivel
casi de hablante nativo.
08:33
This algorithmalgoritmo developeddesarrollado
out of SwitzerlandSuiza
170
501807
2168
Este algoritmo, desarrollado en Suiza
08:35
by people, noneninguna of whomquién speakhablar
or understandentender any Chinesechino.
171
503975
3356
por gente que no hablaba
ni entendía chino.
08:39
As I say, usingutilizando deepprofundo learningaprendizaje
172
507331
2051
Como dije, usar el aprendizaje profundo
08:41
is about the bestmejor systemsistema
in the worldmundo for this,
173
509382
2219
es el mejor sistema del mundo para esto,
08:43
even comparedcomparado to nativenativo
humanhumano understandingcomprensión.
174
511601
5117
hasta comparándolo
con el conocimiento humano.
08:48
This is a systemsistema that we
put togetherjuntos at my companyempresa
175
516718
2964
Este es un sistema que
formamos en mi empresa
08:51
whichcual showsmuestra puttingponiendo
all this stuffcosas togetherjuntos.
176
519682
2046
que demuestra todas estas cosas juntas.
08:53
These are picturesimágenes whichcual
have no texttexto attachedadjunto,
177
521728
2461
Estas son imágenes sin texto adjunto,
08:56
and as I'm typingmecanografía in here sentencesfrases,
178
524189
2352
y cuando tecleo aquí frases,
08:58
in realreal time it's understandingcomprensión
these picturesimágenes
179
526541
2969
entiende, en tiempo real, estas imágenes
09:01
and figuringfigurando out what they're about
180
529510
1679
y comprende de qué se tratan
09:03
and findinghallazgo picturesimágenes that are similarsimilar
to the texttexto that I'm writingescritura.
181
531189
3163
y encuentra imágenes similares
al texto que estoy escribiendo.
09:06
So you can see, it's actuallyactualmente
understandingcomprensión my sentencesfrases
182
534352
2756
Como pueden ver, entiende mis frases
09:09
and actuallyactualmente understandingcomprensión these picturesimágenes.
183
537108
2224
y de hecho entiende estas imágenes.
09:11
I know that you've seenvisto
something like this on GoogleGoogle,
184
539332
2559
Se que han visto algo como esto en Google,
donde puede escribir algo
09:13
where you can typetipo in things
and it will showespectáculo you picturesimágenes,
185
541891
2775
y te lo muestra en imágenes,
pero lo que realmente está haciendo
09:16
but actuallyactualmente what it's doing is it's
searchingbuscando the webpagepágina web for the texttexto.
186
544666
3424
es buscar la página web
a través del texto.
09:20
This is very differentdiferente from actuallyactualmente
understandingcomprensión the imagesimágenes.
187
548090
3001
Esto es muy diferente
a comprender las imágenes.
09:23
This is something that computersordenadores
have only been ablepoder to do
188
551091
2752
Esto es algo que los computadores
solo han podido hacer
09:25
for the first time in the last fewpocos monthsmeses.
189
553843
3248
por primera vez hace unos pocos meses.
09:29
So we can see now that computersordenadores
can not only see but they can alsoademás readleer,
190
557091
4091
Así que ahora podemos ver
que los computadores no solo ven
sino que pueden leer,
09:33
and, of coursecurso, we'venosotros tenemos shownmostrado that they
can understandentender what they hearoír.
191
561182
3765
y, por supuesto, hemos demostrado
que pueden entender lo que oyen.
09:36
PerhapsQuizás not surprisingsorprendente now that
I'm going to tell you they can writeescribir.
192
564947
3442
Quizá no sea sorprendente ahora
lo que voy a decir, pueden escribir.
09:40
Here is some texttexto that I generatedgenerado
usingutilizando a deepprofundo learningaprendizaje algorithmalgoritmo yesterdayayer.
193
568389
4783
Aquí hay parte de un texto que generé ayer
usando el algoritmo
de aprendizaje profundo.
09:45
And here is some texttexto that an algorithmalgoritmo
out of StanfordStanford generatedgenerado.
194
573172
3924
Y aquí hay parte de un texto que generó
un algoritmo de Stanford.
09:49
EachCada of these sentencesfrases was generatedgenerado
195
577096
1764
Cada una de estas frases fue generada
09:50
by a deepprofundo learningaprendizaje algorithmalgoritmo
to describedescribir eachcada of those picturesimágenes.
196
578860
4249
por un algoritmo de aprendizaje profundo
para describir estas imágenes.
09:55
This algorithmalgoritmo before has never seenvisto
a man in a blacknegro shirtcamisa playingjugando a guitarguitarra.
197
583109
4472
Este algoritmo nunca había visto
a un hombre con camisa negra
tocando la guitarra.
09:59
It's seenvisto a man before,
it's seenvisto blacknegro before,
198
587581
2220
Ha visto a un hombre antes,
ha visto el negro antes
10:01
it's seenvisto a guitarguitarra before,
199
589801
1599
ha visto una guitarra antes,
pero ha generado
10:03
but it has independentlyindependientemente generatedgenerado
this novelnovela descriptiondescripción of this pictureimagen.
200
591400
4294
de manera independiente esta innovadora
descripción de esta imagen.
10:07
We're still not quitebastante at humanhumano
performanceactuación here, but we're closecerca.
201
595694
3502
Aquí no estamos ante un comportamiento
humano, pero estamos cerca.
10:11
In testspruebas, humanshumanos preferpreferir
the computer-generatedgenerado por computadora captionsubtítulo
202
599196
4068
En las pruebas, las personas prefieren
las leyendas generadas por el computador
10:15
one out of fourlas cuatro timesveces.
203
603264
1527
1 de cada 4 veces.
10:16
Now this systemsistema is now only two weekssemanas oldantiguo,
204
604791
2064
Este sistema tiene ahora solo
dos semanas de edad,
10:18
so probablyprobablemente withindentro the nextsiguiente yearaño,
205
606855
1846
por lo que posiblemente
antes del año que viene,
10:20
the computercomputadora algorithmalgoritmo will be
well pastpasado humanhumano performanceactuación
206
608701
2801
el algoritmo del computador irá
más allá del comportamiento humano
10:23
at the ratetarifa things are going.
207
611502
1862
al paso que van las cosas.
10:25
So computersordenadores can alsoademás writeescribir.
208
613364
3049
Así que los computadores pueden escribir.
10:28
So we put all this togetherjuntos and it leadsconduce
to very excitingemocionante opportunitiesoportunidades.
209
616413
3475
Juntamos todo esto y lleva
a oportunidades apasionantes.
10:31
For exampleejemplo, in medicinemedicina,
210
619888
1492
Por ejemplo, en medicina,
10:33
a teamequipo in BostonBostón announcedAnunciado
that they had discovereddescubierto
211
621380
2525
un equipo de Boston anunció
que habían descubierto
10:35
dozensdocenas of newnuevo clinicallyclínicamente relevantpertinente featurescaracteristicas
212
623905
2949
decenas de características
clínicas relevantes
10:38
of tumorstumores whichcual help doctorsdoctores
make a prognosispronóstico of a cancercáncer.
213
626854
4266
sobre tumores que ayudan a los médicos
a hacer un diagnóstico de un cáncer.
10:44
Very similarlysimilar, in StanfordStanford,
214
632220
2296
Algo similar, en Stanford,
10:46
a groupgrupo there announcedAnunciado that,
looking at tissuestejidos underdebajo magnificationaumento,
215
634516
3663
un grupo anunció que,
mirando un tejido con aumento,
habían desarrollado una máquina
basada en el sistema de aprendizaje
10:50
they'veellos tienen developeddesarrollado
a machinemáquina learning-basedbasado en el aprendizaje systemsistema
216
638179
2381
10:52
whichcual in facthecho is better
than humanhumano pathologistspatólogos
217
640560
2582
que de hecho es mejor
que los patólogos humanos
10:55
at predictingprediciendo survivalsupervivencia ratestasas
for cancercáncer sufferersenfermos.
218
643142
4377
prediciendo las tasas de supervivencia
de los enfermos de cáncer.
10:59
In bothambos of these casescasos, not only
were the predictionspredicciones more accuratepreciso,
219
647519
3245
En ambos casos, no solo fueron
las predicciones más precisas,
11:02
but they generatedgenerado newnuevo insightfulperspicaz scienceciencia.
220
650764
2502
sino que generaron una
nueva ciencia reveladora.
11:05
In the radiologyradiología casecaso,
221
653276
1505
En el caso de la radiología,
11:06
they were newnuevo clinicalclínico indicatorsindicadores
that humanshumanos can understandentender.
222
654781
3095
hubo nuevos indicadores clínicos
que las personas pueden entender.
11:09
In this pathologypatología casecaso,
223
657876
1792
En este caso de patología,
11:11
the computercomputadora systemsistema actuallyactualmente discovereddescubierto
that the cellsCélulas around the cancercáncer
224
659668
4500
el sistema informático descubrió
que las células alrededor del cáncer
11:16
are as importantimportante as
the cancercáncer cellsCélulas themselvessí mismos
225
664168
3340
son tan importantes como
las células del cáncer mismo
11:19
in makingfabricación a diagnosisdiagnóstico.
226
667508
1752
al hacer un diagnóstico.
11:21
This is the oppositeopuesto of what pathologistspatólogos
had been taughtenseñó for decadesdécadas.
227
669260
5361
Esto es lo contrario de lo que
los patólogos han pensado por décadas.
11:26
In eachcada of those two casescasos,
they were systemssistemas developeddesarrollado
228
674621
3292
En cada uno de estos casos,
fueron sistemas desarrollados
11:29
by a combinationcombinación of medicalmédico expertsexpertos
and machinemáquina learningaprendizaje expertsexpertos,
229
677913
3621
por una combinación de expertos médicos
y expertos del aprendizaje profundo,
11:33
but as of last yearaño,
we're now beyondmás allá that too.
230
681534
2741
pero a partir del año pasado,
dimos un paso más allá.
11:36
This is an exampleejemplo of
identifyingidentificando cancerouscanceroso areasáreas
231
684275
3549
Este es un caso de identificación
de áreas cancerígenas
11:39
of humanhumano tissuetejido underdebajo a microscopemicroscopio.
232
687824
2530
del tejido humano por microscopio.
11:42
The systemsistema beingsiendo shownmostrado here
can identifyidentificar those areasáreas more accuratelyprecisamente,
233
690354
4613
El sistema que se muestra aquí
puede identificar esas áreas
de formar más precisa o casi tan precisa
como los patólogos humanos,
11:46
or about as accuratelyprecisamente,
as humanhumano pathologistspatólogos,
234
694967
2775
11:49
but was builtconstruido entirelyenteramente with deepprofundo learningaprendizaje
usingutilizando no medicalmédico expertisepericia
235
697742
3392
construido completamente
con aprendizaje profundo
sin usar experiencia médica
11:53
by people who have
no backgroundfondo in the fieldcampo.
236
701134
2526
por gente que no tenía
experiencia en este campo.
11:56
Similarlysimilar, here, this neuronneurona segmentationsegmentación.
237
704730
2555
De manera similar,
esta segmentación neuronal.
11:59
We can now segmentsegmento neuronsneuronas
about as accuratelyprecisamente as humanshumanos can,
238
707285
3668
Ahora, podemos segmentar neuronas de forma
casi tan precisa como las personas,
12:02
but this systemsistema was developeddesarrollado
with deepprofundo learningaprendizaje
239
710953
2717
y este sistema fue desarrollado
por aprendizaje profundo
12:05
usingutilizando people with no previousanterior
backgroundfondo in medicinemedicina.
240
713670
3251
usando a gente sin experiencia
previa en medicina.
12:08
So myselfmí mismo, as somebodyalguien with
no previousanterior backgroundfondo in medicinemedicina,
241
716921
3227
Como yo, alguien sin experiencia
previa en medicina,
12:12
I seemparecer to be entirelyenteramente well qualifiedcalificado
to startcomienzo a newnuevo medicalmédico companyempresa,
242
720148
3727
parezco completamente calificado
para empezar una empresa médica,
12:15
whichcual I did.
243
723875
2146
y lo hice.
12:18
I was kindtipo of terrifiedaterrorizado of doing it,
244
726021
1740
Estaba aterrorizado de hacerlo,
12:19
but the theoryteoría seemedparecía to suggestsugerir
that it oughtdebería to be possibleposible
245
727761
2889
pero la teoría parecía sugerir
que podía ser posible
12:22
to do very usefulútil medicinemedicina
usingutilizando just these datadatos analyticanalítico techniquestécnicas.
246
730650
5492
hacer medicina muy útil usando solo
estas técnicas de información analítica.
12:28
And thankfullyagradecidamente, the feedbackrealimentación
has been fantasticfantástico,
247
736142
2480
Afortunadamente, la recompensa
ha sido fantástica,
12:30
not just from the mediamedios de comunicación
but from the medicalmédico communitycomunidad,
248
738622
2356
no solo por parte de los medios
sino de la comunidad médica,
12:32
who have been very supportiveapoyo.
249
740978
2344
que nos ha apoyado mucho.
La teoría es que podemos tomar
media parte del proceso médico
12:35
The theoryteoría is that we can take
the middlemedio partparte of the medicalmédico processproceso
250
743322
4149
12:39
and turngiro that into datadatos analysisanálisis
as much as possibleposible,
251
747471
2893
y convertirlo todo lo posible
en análisis de datos,
12:42
leavingdejando doctorsdoctores to do
what they're bestmejor at.
252
750364
3065
dejando a los médicos
en lo que son mejores.
12:45
I want to give you an exampleejemplo.
253
753429
1602
Quiero dar un ejemplo.
12:47
It now takes us about 15 minutesminutos
to generategenerar a newnuevo medicalmédico diagnosticdiagnóstico testprueba
254
755031
4944
Nos lleva unos 15 minutos crear
una nueva prueba de diagnóstico médico
12:51
and I'll showespectáculo you that in realreal time now,
255
759975
1954
y ahora lo demostraré
en tiempo real,
12:53
but I've compressedcomprimido it down to
threeTres minutesminutos by cuttingcorte some piecespiezas out.
256
761929
3487
pero lo he comprimido a 3 minutos
cortando algunas partes.
12:57
RatherMás bien than showingdemostración you
creatingcreando a medicalmédico diagnosticdiagnóstico testprueba,
257
765416
3061
En vez de mostrar cómo crear
una prueba de diagnóstico médico,
13:00
I'm going to showespectáculo you
a diagnosticdiagnóstico testprueba of carcoche imagesimágenes,
258
768477
3369
mostraré una prueba de diagnóstico
de imágenes de autos,
13:03
because that's something
we can all understandentender.
259
771846
2222
porque es algo que
todos podemos entender.
13:06
So here we're startingcomenzando with
about 1.5 millionmillón carcoche imagesimágenes,
260
774068
3201
Así que, empezamos con un millón
y medio de imágenes de autos,
13:09
and I want to createcrear something
that can splitdivisión them into the angleángulo
261
777269
3206
y quiero crear algo que
pueda dividirlas en el ángulo
13:12
of the photofoto that's beingsiendo takentomado.
262
780475
2223
en el que la foto fue tomada.
13:14
So these imagesimágenes are entirelyenteramente unlabeledsin etiqueta,
so I have to startcomienzo from scratchrasguño.
263
782698
3888
Estas imágenes están sin etiquetar,
así que tengo que empezar desde cero.
13:18
With our deepprofundo learningaprendizaje algorithmalgoritmo,
264
786586
1865
Con nuestro algoritmo
de aprendizaje profundo,
13:20
it can automaticallyautomáticamente identifyidentificar
areasáreas of structureestructura in these imagesimágenes.
265
788451
3707
se pueden identificar automáticamente
áreas de la estructura en estas imágenes.
13:24
So the nicebonito thing is that the humanhumano
and the computercomputadora can now work togetherjuntos.
266
792158
3620
Lo bueno es que la persona y el computador
pueden trabajar juntos.
13:27
So the humanhumano, as you can see here,
267
795778
2178
Así que la persona,
como pueden ver aquí,
13:29
is tellingnarración the computercomputadora
about areasáreas of interestinteresar
268
797956
2675
le está indicando al computador
áreas de interés
13:32
whichcual it wants the computercomputadora then
to try and use to improvemejorar its algorithmalgoritmo.
269
800631
4650
que quiere que el computador pruebe
y use para mejorar su algoritmo.
13:37
Now, these deepprofundo learningaprendizaje systemssistemas actuallyactualmente
are in 16,000-dimensional-dimensional spaceespacio,
270
805281
4296
Estos sistemas de aprendizaje profundo
están en un espacio de 16 000 dimensiones,
13:41
so you can see here the computercomputadora
rotatinggiratorio this throughmediante that spaceespacio,
271
809577
3432
así, pueden ver aquí cómo el computador
rota esto en ese espacio,
13:45
tryingmolesto to find newnuevo areasáreas of structureestructura.
272
813009
1992
intentando encontrar
nuevas áreas de estructura.
13:47
And when it does so successfullyexitosamente,
273
815001
1781
Y cuando lo hace con éxito,
13:48
the humanhumano who is drivingconducción it can then
pointpunto out the areasáreas that are interestinginteresante.
274
816782
4004
la persona que lo maneja puede, entonces,
señalar las áreas de interés.
13:52
So here, the computercomputadora has
successfullyexitosamente foundencontró areasáreas,
275
820786
2422
Aquí, el computador ha encontrado,
con éxito, áreas,
13:55
for exampleejemplo, anglesanglos.
276
823208
2562
por ejemplo, ángulos.
13:57
So as we go throughmediante this processproceso,
277
825770
1606
Conforme avanzamos en este proceso,
13:59
we're graduallygradualmente tellingnarración
the computercomputadora more and more
278
827376
2340
vamos diciendo, gradualmente,
al computador más y más
14:01
about the kindsclases of structuresestructuras
we're looking for.
279
829716
2428
sobre los tipos de estructuras
que estamos buscando.
14:04
You can imagineimagina in a diagnosticdiagnóstico testprueba
280
832144
1772
Pueden imaginar en una prueba diagnóstica
que esto debería ser
14:05
this would be a pathologistpatólogo identifyingidentificando
areasáreas of pathosispathosis, for exampleejemplo,
281
833916
3350
un patólogo identificando
áreas patológicas, por ejemplo,
14:09
or a radiologistradiólogo indicatingindicando
potentiallypotencialmente troublesomemolesto nodulesnódulos.
282
837266
5026
o un radiólogo indicando nódulos
potencialmente problemáticos.
14:14
And sometimesa veces it can be
difficultdifícil for the algorithmalgoritmo.
283
842292
2559
A veces puede ser difícil
para el algoritmo.
14:16
In this casecaso, it got kindtipo of confusedconfuso.
284
844851
1964
En este caso, queda algo confuso.
Las partes delanteras y traseras
de los autos están todas mezcladas.
14:18
The frontsfrentes and the backsespaldas
of the carscarros are all mixedmezclado up.
285
846815
2550
14:21
So here we have to be a bitpoco more carefulcuidadoso,
286
849365
2072
Así que tenemos que ser
un poco más cuidadosos,
14:23
manuallya mano selectingseleccionando these frontsfrentes
as opposedopuesto to the backsespaldas,
287
851437
3232
seleccionando manualmente
las partes delanteras
en contraposición a las traseras,
14:26
then tellingnarración the computercomputadora
that this is a typetipo of groupgrupo
288
854669
5506
para luego decir al computador
que este es una especie de grupo
14:32
that we're interestedinteresado in.
289
860175
1348
es en el que estamos interesados.
14:33
So we do that for a while,
we skipomitir over a little bitpoco,
290
861523
2677
Hacemos esto por un tiempo,
nos saltamos un poco,
y luego probamos el algoritmo
de aprendizaje automático
14:36
and then we traintren the
machinemáquina learningaprendizaje algorithmalgoritmo
291
864200
2246
14:38
basedbasado on these couplePareja of hundredcien things,
292
866446
1974
basado en un par de cientos de cosas,
14:40
and we hopeesperanza that it's gottenconseguido a lot better.
293
868420
2025
y esperamos que haya mejorado mucho.
14:42
You can see, it's now startedempezado to fadedescolorarse
some of these picturesimágenes out,
294
870445
3073
Se puede ver, que han empezado
a desvanecerse algunas de estas imágenes,
14:45
showingdemostración us that it alreadyya is recognizingreconociendo
how to understandentender some of these itselfsí mismo.
295
873518
4708
mostrándonos que ya está reconociendo
cómo entender por sí mismo
algunas de ellas.
Entonces podemos usar este concepto
en imágenes similares,
14:50
We can then use this conceptconcepto
of similarsimilar imagesimágenes,
296
878226
2902
14:53
and usingutilizando similarsimilar imagesimágenes, you can now see,
297
881128
2094
y usando imágenes similares,
como pueden ver, en este punto,
14:55
the computercomputadora at this pointpunto is ablepoder to
entirelyenteramente find just the frontsfrentes of carscarros.
298
883222
4019
el computador puede encontrar
solo la parte delantera de los autos.
14:59
So at this pointpunto, the humanhumano
can tell the computercomputadora,
299
887241
2948
En este punto, la persona
puede decir al computador,
15:02
okay, yes, you've donehecho
a good jobtrabajo of that.
300
890189
2293
de acuerdo, sí, has hecho
un buen trabajo.
15:05
SometimesA veces, of coursecurso, even at this pointpunto
301
893652
2185
En ocasiones, por supuesto,
incluso en este punto
15:07
it's still difficultdifícil
to separateseparar out groupsgrupos.
302
895837
3674
sigue siendo difícil
separar los grupos.
15:11
In this casecaso, even after we let the
computercomputadora try to rotategirar this for a while,
303
899511
3884
En este caso, incluso
después de que dejamos
al computador que intente girar
esto por un momento,
15:15
we still find that the left sideslados
and the right sideslados picturesimágenes
304
903399
3345
seguimos encontrando
que la parte izquierda
y derecha de las imágenes
están mezcladas.
15:18
are all mixedmezclado up togetherjuntos.
305
906744
1478
15:20
So we can again give
the computercomputadora some hintsconsejos,
306
908222
2140
Así que podemos dar, de nuevo,
al computador algunas pistas,
15:22
and we say, okay, try and find
a projectionproyección that separatescoordinados out
307
910362
2976
y decimos, bien, intenta encontrar
una proyección que separe
15:25
the left sideslados and the right sideslados
as much as possibleposible
308
913338
2607
los lados izquierdos de los derechos
de la manera más precisa
15:27
usingutilizando this deepprofundo learningaprendizaje algorithmalgoritmo.
309
915945
2122
usando este algoritmo
de aprendizaje profundo.
15:30
And givingdando it that hintinsinuación --
ahah, okay, it's been successfulexitoso.
310
918067
2942
Y dándole esta pista...
ah, bien, ha tenido éxito.
15:33
It's managedmanejado to find a way
of thinkingpensando about these objectsobjetos
311
921009
2882
Consiguió encontrar la manera
de pensar estos objetos
15:35
that's separatedapartado out these togetherjuntos.
312
923891
2380
que está separando
estos que están juntos.
15:38
So you get the ideaidea here.
313
926271
2438
Así se entiende la idea aquí.
15:40
This is a casecaso not where the humanhumano
is beingsiendo replacedreemplazado by a computercomputadora,
314
928709
8197
Este es un caso en el que la persona
no es reemplazada por un computador,
15:48
but where they're workingtrabajando togetherjuntos.
315
936906
2640
sino que trabajan juntos.
15:51
What we're doing here is we're replacingreemplazando
something that used to take a teamequipo
316
939546
3550
Estamos reemplazando algo que
solía necesitar de un equipo
15:55
of fivecinco or sixseis people about sevensiete yearsaños
317
943096
2002
de 5 o 6 personas durante 7 años
15:57
and replacingreemplazando it with something
that takes 15 minutesminutos
318
945098
2605
por algo que lleva 15 minutos
15:59
for one personpersona actinginterino alonesolo.
319
947703
2505
a una sola persona.
16:02
So this processproceso takes about
fourlas cuatro or fivecinco iterationsiteraciones.
320
950208
3950
Este proceso lleva
unas 4 o 5 iteraciones.
16:06
You can see we now have 62 percentpor ciento
321
954158
1859
Ahora pueden ver que tenemos un 62 %
16:08
of our 1.5 millionmillón imagesimágenes
classifiedclasificado correctlycorrectamente.
322
956017
2959
de nuestro millón y medio de imágenes
clasificadas correctamente.
16:10
And at this pointpunto, we
can startcomienzo to quitebastante quicklycon rapidez
323
958976
2472
En este punto, podemos empezar,
con bastante rapidez,
16:13
grabagarrar wholetodo biggrande sectionssecciones,
324
961448
1297
a tomar grandes secciones completas,
16:14
checkcomprobar throughmediante them to make sure
that there's no mistakeserrores.
325
962745
2919
comprobándolas para asegurarse
que no hay errores.
16:17
Where there are mistakeserrores, we can
let the computercomputadora know about them.
326
965664
3952
Cuando hay errores,
podemos hacérselo saber al computador.
16:21
And usingutilizando this kindtipo of processproceso
for eachcada of the differentdiferente groupsgrupos,
327
969616
3045
Usando este tipo de proceso
para cada uno de los diferentes grupos,
16:24
we are now up to
an 80 percentpor ciento successéxito ratetarifa
328
972661
2487
nos colocamos en un índice
del 80 % de éxito
16:27
in classifyingclasificando the 1.5 millionmillón imagesimágenes.
329
975148
2415
en la clasificación de un millón
y medio de imágenes.
16:29
And at this pointpunto, it's just a casecaso
330
977563
2078
En este punto, es solo cuestión
16:31
of findinghallazgo the smallpequeña numbernúmero
that aren'tno son classifiedclasificado correctlycorrectamente,
331
979641
3579
de encontrar el pequeño número
que no está clasificado correctamente,
16:35
and tryingmolesto to understandentender why.
332
983220
2888
e intentar comprender el porqué.
16:38
And usingutilizando that approachenfoque,
333
986108
1743
Usando este enfoque,
16:39
by 15 minutesminutos we get
to 97 percentpor ciento classificationclasificación ratestasas.
334
987851
4121
en 15 minutos alcanza un índice
de clasificación del 97 %.
16:43
So this kindtipo of techniquetécnica
could allowpermitir us to fixfijar a majormayor problemproblema,
335
991972
4600
Este tipo de técnica nos permite
arreglar un problema mayor,
16:48
whichcual is that there's a lackausencia
of medicalmédico expertisepericia in the worldmundo.
336
996578
3036
que es que hay una falta de
conocimientos médicos en el mundo.
16:51
The WorldMundo EconomicEconómico ForumForo saysdice
that there's betweenEntre a 10x and a 20x
337
999614
3489
El Foro Económico Mundial
dice que hay entre 10 y 20 veces
16:55
shortageescasez of physiciansmédicos
in the developingdesarrollando worldmundo,
338
1003103
2624
de escasez de físicos
en el mundo desarrollado,
16:57
and it would take about 300 yearsaños
339
1005727
2113
y llevará unos 300 años
16:59
to traintren enoughsuficiente people
to fixfijar that problemproblema.
340
1007840
2894
entrenar a gente suficiente
para arreglar el problema.
17:02
So imagineimagina if we can help
enhancemejorar theirsu efficiencyeficiencia
341
1010734
2885
Imaginen que pudiésemos ayudar
a aumentar su eficiencia
17:05
usingutilizando these deepprofundo learningaprendizaje approachesenfoques?
342
1013619
2839
usando estos métodos
de aprendizaje profundo.
17:08
So I'm very excitedemocionado
about the opportunitiesoportunidades.
343
1016458
2232
Estoy muy entusiasmado
con las oportunidades.
17:10
I'm alsoademás concernedpreocupado about the problemsproblemas.
344
1018690
2589
También estoy preocupado
por los problemas.
17:13
The problemproblema here is that
everycada areazona in blueazul on this mapmapa
345
1021279
3124
El problema aquí es que
cada área azul de este mapa
17:16
is somewherealgun lado where servicesservicios
are over 80 percentpor ciento of employmentempleo.
346
1024403
3769
es algún sitio donde el empleo,
de servicios es mayor del 80 %.
17:20
What are servicesservicios?
347
1028172
1787
¿Qué son los servicios?
17:21
These are servicesservicios.
348
1029959
1514
Los servicios son estos.
17:23
These are alsoademás the exactexacto things that
computersordenadores have just learnedaprendido how to do.
349
1031473
4154
Estas son también las mismas cosas
que los computadores acaban
de aprender a hacer.
17:27
So 80 percentpor ciento of the world'smundo employmentempleo
in the developeddesarrollado worldmundo
350
1035627
3804
Así que el 80 % del empleo mundial
en el mundo desarrollado
17:31
is stuffcosas that computersordenadores
have just learnedaprendido how to do.
351
1039431
2532
son cosas que los computadores
acaban de aprender a hacer.
17:33
What does that mean?
352
1041963
1440
¿Qué significa esto?
17:35
Well, it'llva a be fine.
They'llEllos van a be replacedreemplazado by other jobstrabajos.
353
1043403
2583
Bueno, no habrá problema,
lo reemplazarán por otros trabajos.
17:37
For exampleejemplo, there will be
more jobstrabajos for datadatos scientistscientíficos.
354
1045986
2707
Por ejemplo, habrá más trabajos
para los científicos de datos.
17:40
Well, not really.
355
1048693
817
Bueno, realmente no.
17:41
It doesn't take datadatos scientistscientíficos
very long to buildconstruir these things.
356
1049510
3118
A los científicos de datos no les lleva
mucho tiempo construir estas cosas.
17:44
For exampleejemplo, these fourlas cuatro algorithmsAlgoritmos
were all builtconstruido by the samemismo guy.
357
1052628
3252
Por ejemplo, estos 4 algoritmos
fueron creados por el mismo chico.
17:47
So if you think, oh,
it's all happenedsucedió before,
358
1055880
2438
Así que si piensan,
todo ha pasado ya antes,
17:50
we'venosotros tenemos seenvisto the resultsresultados in the pastpasado
of when newnuevo things come alonga lo largo
359
1058318
3808
hemos visto los resultados en el pasado
de cuando surgen cosas nuevas
17:54
and they get replacedreemplazado by newnuevo jobstrabajos,
360
1062126
2252
y son reemplazadas por nuevos trabajos.
17:56
what are these newnuevo jobstrabajos going to be?
361
1064378
2116
¿Qué trabajos van a ser?
17:58
It's very harddifícil for us to estimateestimar this,
362
1066494
1871
Es muy difícil para nosotros
hacer una estimación
18:00
because humanhumano performanceactuación
growscrece at this gradualgradual ratetarifa,
363
1068365
2739
ya que el comportamiento humano
crece a un ritmo gradual,
18:03
but we now have a systemsistema, deepprofundo learningaprendizaje,
364
1071104
2562
pero ahora tenemos un sistema,
aprendizaje profundo,
18:05
that we know actuallyactualmente growscrece
in capabilitycapacidad exponentiallyexponencialmente.
365
1073666
3227
que sabemos que crece en capacidad,
exponencialmente.
18:08
And we're here.
366
1076893
1605
Y aquí estamos.
18:10
So currentlyactualmente, we see the things around us
367
1078498
2061
Actualmente, vemos las cosas
a nuestro alrededor
18:12
and we say, "Oh, computersordenadores
are still prettybonita dumbtonto." Right?
368
1080559
2676
y decimos: "Los computadores siguen
siendo un poco estúpidos". ¿Verdad?
18:15
But in fivecinco years'años' time,
computersordenadores will be off this chartgráfico.
369
1083235
3429
Pero en 5 años, los computadores
estarán fuera de esta gráfica.
18:18
So we need to be startingcomenzando to think
about this capabilitycapacidad right now.
370
1086664
3865
Así que necesitamos empezar a pensar
sobre esta capacidad ahora mismo.
18:22
We have seenvisto this onceuna vez before, of coursecurso.
371
1090529
2050
Lo hemos visto anteriormente,
por supuesto.
18:24
In the IndustrialIndustrial RevolutionRevolución,
372
1092579
1387
En la Revolución Industrial,
18:25
we saw a steppaso changecambio
in capabilitycapacidad thanksGracias to enginesmotores.
373
1093966
2851
vimos un cambio en la capacidad
gracias a los motores.
18:29
The thing is, thoughaunque,
that after a while, things flattenedaplanado out.
374
1097667
3138
El asunto es, sin embargo, que tras
un tiempo, las cosas se nivelan.
18:32
There was socialsocial disruptionruptura,
375
1100805
1702
Hubo una alteración social,
pero una vez que
18:34
but onceuna vez enginesmotores were used
to generategenerar powerpoder in all the situationssituaciones,
376
1102507
3439
los motores se usaron
para generar energía
en todas las situaciones,
18:37
things really settledcolocado down.
377
1105946
2354
las cosas realmente se establecieron.
18:40
The MachineMáquina LearningAprendizaje RevolutionRevolución
378
1108300
1473
La Revolución del Aprendizaje Automático
18:41
is going to be very differentdiferente
from the IndustrialIndustrial RevolutionRevolución,
379
1109773
2909
va a ser diferente
a la Revolución Industrial porque
18:44
because the MachineMáquina LearningAprendizaje RevolutionRevolución,
it never settlessedimenta down.
380
1112682
2950
la Revolución del Aprendizaje Automático,
nunca se asienta.
18:47
The better computersordenadores get
at intellectualintelectual activitiesocupaciones,
381
1115632
2982
Cuanto mejores son los computadores
en actividades intelectuales,
18:50
the more they can buildconstruir better computersordenadores
to be better at intellectualintelectual capabilitiescapacidades,
382
1118614
4248
mejores computadores se crearán para
que mejoren su capacidad intelectual,
18:54
so this is going to be a kindtipo of changecambio
383
1122862
1908
así que esto va a ser
una especie de cambio
18:56
that the worldmundo has actuallyactualmente
never experiencedexperimentado before,
384
1124770
2478
que nunca antes había
experimentado el mundo,
18:59
so your previousanterior understandingcomprensión
of what's possibleposible is differentdiferente.
385
1127248
3306
por lo que el entendimiento previo
de lo posible, es diferente.
19:02
This is alreadyya impactingimpactando us.
386
1130974
1780
Esto nos impacta.
19:04
In the last 25 yearsaños,
as capitalcapital productivityproductividad has increasedaumentado,
387
1132754
3630
En los últimos 25 años, la productividad
del capital se ha incrementado,
19:08
laborlabor productivityproductividad has been flatplano,
in facthecho even a little bitpoco down.
388
1136400
4188
la productividad laboral se ha mantenido,
incluso ha descendido.
19:13
So I want us to startcomienzo
havingteniendo this discussiondiscusión now.
389
1141408
2741
Por lo que quiero que empecemos
a discutir esto ahora.
19:16
I know that when I oftena menudo tell people
about this situationsituación,
390
1144149
3027
Sé que cuando hablo
sobre esta situación
19:19
people can be quitebastante dismissivedesdeñoso.
391
1147176
1490
la gente puede ser despectiva.
19:20
Well, computersordenadores can't really think,
392
1148666
1673
Bueno, los computadores
no pueden realmente pensar,
19:22
they don't emoteser emocionado,
they don't understandentender poetrypoesía,
393
1150339
3028
no tienen sentimientos,
no entienden poesía,
19:25
we don't really understandentender how they work.
394
1153367
2521
no entendemos realmente cómo funcionan.
19:27
So what?
395
1155888
1486
Y, ¿qué?
Actualmente los computadores
pueden hacer cosas
19:29
ComputersOrdenadores right now can do the things
396
1157374
1804
19:31
that humanshumanos spendgastar mostmás
of theirsu time beingsiendo paidpagado to do,
397
1159178
2719
en las que las personas gastan su tiempo
y les pagan por ello
19:33
so now'sahora es the time to startcomienzo thinkingpensando
398
1161897
1731
así pues ahora tenemos
que empezar a pensar
19:35
about how we're going to adjustajustar our
socialsocial structuresestructuras and economiceconómico structuresestructuras
399
1163628
4387
sobre cómo vamos a ajustar
nuestras estructuras sociales y económicas
19:40
to be awareconsciente of this newnuevo realityrealidad.
400
1168015
1840
para ser conscientes de
esta nueva realidad.
19:41
Thank you.
401
1169855
1533
Gracias.
19:43
(ApplauseAplausos)
402
1171388
802
(Aplausos)
Translated by Sebastian Betti
Reviewed by Silvia Rivera

▲Back to top

ABOUT THE SPEAKER
Jeremy Howard - Data scientist
Jeremy Howard imagines how advanced machine learning can improve our lives.

Why you should listen

Jeremy Howard is the CEO of Enlitic, an advanced machine learning company in San Francisco. Previously, he was the president and chief scientist at Kaggle, a community and competition platform of over 200,000 data scientists. Howard is a faculty member at Singularity University, where he teaches data science. He is also a Young Global Leader with the World Economic Forum, and spoke at the World Economic Forum Annual Meeting 2014 on "Jobs for the Machines."

Howard advised Khosla Ventures as their Data Strategist, identifying opportunities for investing in data-driven startups and mentoring portfolio companies to build data-driven businesses. He was the founding CEO of two successful Australian startups, FastMail and Optimal Decisions Group.

More profile about the speaker
Jeremy Howard | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee