ABOUT THE SPEAKER
Jeremy Howard - Data scientist
Jeremy Howard imagines how advanced machine learning can improve our lives.

Why you should listen

Jeremy Howard is the CEO of Enlitic, an advanced machine learning company in San Francisco. Previously, he was the president and chief scientist at Kaggle, a community and competition platform of over 200,000 data scientists. Howard is a faculty member at Singularity University, where he teaches data science. He is also a Young Global Leader with the World Economic Forum, and spoke at the World Economic Forum Annual Meeting 2014 on "Jobs for the Machines."

Howard advised Khosla Ventures as their Data Strategist, identifying opportunities for investing in data-driven startups and mentoring portfolio companies to build data-driven businesses. He was the founding CEO of two successful Australian startups, FastMail and Optimal Decisions Group.

More profile about the speaker
Jeremy Howard | Speaker | TED.com
TEDxBrussels

Jeremy Howard: The wonderful and terrifying implications of computers that can learn

Jeremy Howard: Les conséquences à la fois merveilleuses et effrayantes des machines qui apprennent.

Filmed:
2,532,971 views

Que se passe-t-il lorsque l'on apprend à un ordinateur à apprendre ? Le technologue Jeremy Howard nous fait part des derniers développements dans le domaine, en plein essor, de l'apprentissage profond, une technique qui donne aux ordinateurs la capacité à apprendre le chinois, à reconnaître des objets sur une photo ou encore à faciliter un diagnostic médical (un outil d'apprentissage profond a été capable, après des heures de visionnage de vidéos sur YouTube, de s'enseigner à lui-même le concept de « chat »). Mettez vos connaissances à jour dans un domaine qui va changer la façon dont les ordinateurs autour de vous se comportent... plus vite que vous ne le pensez.
- Data scientist
Jeremy Howard imagines how advanced machine learning can improve our lives. Full bio

Double-click the English transcript below to play the video.

00:12
It used to be that if you wanted
to get a computerordinateur to do something newNouveau,
0
880
4013
Avant, si vous vouliez qu'un ordinateur
fasse quelque chose de nouveau,
00:16
you would have to programprogramme it.
1
4893
1554
vous deviez le programmer.
00:18
Now, programmingla programmation, for those of you here
that haven'tn'a pas doneterminé it yourselftoi même,
2
6447
3411
La programmation, pour ceux
d'entre vous qui n'en ont jamais fait,
00:21
requiresa besoin layingportant out in excruciatingatroce detaildétail
3
9858
3502
nécessite de décrire,
à un niveau de détail effrayant,
00:25
everychaque singleunique stepétape that you want
the computerordinateur to do
4
13360
3367
chaque étape que vous voulez
que l'ordinateur fasse
00:28
in ordercommande to achieveatteindre your goalobjectif.
5
16727
2362
pour atteindre votre but.
00:31
Now, if you want to do something
that you don't know how to do yourselftoi même,
6
19089
3496
Mais si ce que vous voulez,
vous ne savez pas le faire vous-même,
00:34
then this is going
to be a great challengedéfi.
7
22585
2063
la programmation devient un immense défi.
00:36
So this was the challengedéfi facedface à
by this man, ArthurArthur SamuelSamuel.
8
24648
3483
C'est à ce défi que se confronta
cet homme, Arthur Samuel.
00:40
In 1956, he wanted to get this computerordinateur
9
28131
4077
En 1956, il voulut que cet ordinateur
00:44
to be ablecapable to beatbattre him at checkersjeu de dames.
10
32208
2340
soit capable de le battre au jeu de dames.
00:46
How can you writeécrire a programprogramme,
11
34548
2040
Comment écrire un programme,
00:48
layallonger out in excruciatingatroce detaildétail,
how to be better than you at checkersjeu de dames?
12
36588
3806
décrire, en d'effrayants détails, comment
être meilleur que vous aux dames ?
00:52
So he camevenu up with an ideaidée:
13
40394
1722
Il eut une idée :
00:54
he had the computerordinateur playjouer
againstcontre itselfse thousandsmilliers of timesfois
14
42116
3724
faire jouer l'ordinateur contre
lui-même des milliers de fois
00:57
and learnapprendre how to playjouer checkersjeu de dames.
15
45840
2524
et lui faire apprendre à jouer aux dames.
Ça a si bien fonctionné que dès 1962
01:00
And indeedeffectivement it workedtravaillé,
and in factfait, by 1962,
16
48364
3180
01:03
this computerordinateur had beatenbattu
the ConnecticutConnecticut stateEtat championchampion.
17
51544
4017
l'ordinateur avait battu
le champion du Connecticut.
01:07
So ArthurArthur SamuelSamuel was
the fatherpère of machinemachine learningapprentissage,
18
55561
2973
Arthur Samuel est le père
de la machine apprenante,
01:10
and I have a great debtdette to him,
19
58534
1717
et j'ai une grande dette envers lui,
01:12
because I am a machinemachine
learningapprentissage practitionerpraticien.
20
60251
2763
parce que je travaille dans ce secteur.
01:15
I was the presidentPrésident of KaggleKaggle,
21
63014
1465
J'ai été président de Kaggle,
01:16
a communitycommunauté of over 200,000
machinemachine learningapprentissage practictionerspractictioners.
22
64479
3388
une communauté de 200 000 praticiens
de l'apprentissage automatique.
01:19
KaggleKaggle putsmet up competitionscompétitions
23
67867
2058
Kaggle met en place des compétitions
01:21
to try and get them to solverésoudre
previouslyprécédemment unsolvednon résolus problemsproblèmes,
24
69925
3708
pour les amener à résoudre
des problèmes jusque là non résolus,
01:25
and it's been successfulréussi
hundredsdes centaines of timesfois.
25
73633
3837
et ça a été un succès
des centaines de fois.
01:29
So from this vantageVantage pointpoint,
I was ablecapable to find out
26
77470
2470
De ce point de vue privilégié,
j'ai pu découvrir
01:31
a lot about what machinemachine learningapprentissage
can do in the pastpassé, can do todayaujourd'hui,
27
79940
3950
beaucoup sur ce que l'apprentissage
automatique pouvait et peut faire,
01:35
and what it could do in the futureavenir.
28
83890
2362
et sur ce qu'il pourra faire demain.
01:38
PerhapsPeut-être the first biggros successSuccès of
machinemachine learningapprentissage commerciallycommercialement was GoogleGoogle.
29
86252
4423
Le premier grand succès commercial,
c'est peut-être Google.
01:42
GoogleGoogle showedmontré that it is
possiblepossible to find informationinformation
30
90675
3109
Google a montré qu'il était possible
de trouver des informations
01:45
by usingen utilisant a computerordinateur algorithmalgorithme de,
31
93784
1752
en utilisant un algorithme,
01:47
and this algorithmalgorithme de is basedbasé
on machinemachine learningapprentissage.
32
95536
2901
et cet algorithme est basé
sur l'apprentissage automatique.
01:50
SinceDepuis that time, there have been manybeaucoup
commercialcommercial successessuccès of machinemachine learningapprentissage.
33
98437
3886
L'apprentissage automatique a depuis connu
beaucoup d'autres succès commerciaux
01:54
CompaniesEntreprises like AmazonAmazon and NetflixNetflix
34
102323
1837
Des sociétés comme Amazon ou Netflix
01:56
use machinemachine learningapprentissage to suggestsuggérer
productsdes produits that you mightpourrait like to buyacheter,
35
104160
3716
l'utilisent pour suggérer des produits
que vous pourriez vouloir acheter,
01:59
moviesfilms that you mightpourrait like to watch.
36
107876
2020
des films que vous pourriez aimer voir.
02:01
SometimesParfois, it's almostpresque creepychair de poule.
37
109896
1807
Parfois, c'en est presque effrayant.
Des entreprises comme LinkedIn et Facebook
02:03
CompaniesEntreprises like LinkedInLinkedIn and FacebookFacebook
38
111703
1954
02:05
sometimesparfois will tell you about
who your friendscopains mightpourrait be
39
113657
2594
vous disent parfois qui
pourraient être vos amis
02:08
and you have no ideaidée how it did it,
40
116251
1977
et vous ne savez pas comment elles font,
02:10
and this is because it's usingen utilisant
the powerPuissance of machinemachine learningapprentissage.
41
118228
2967
car elles utilisent le pouvoir
de l'apprentissage automatique.
02:13
These are algorithmsalgorithmes that have
learnedappris how to do this from dataLes données
42
121195
2957
Ces algorithmes ont appris à le faire
à partir de données
02:16
ratherplutôt than beingétant programmedprogrammé by handmain.
43
124152
3247
plutôt que d'être programmés manuellement.
02:19
This is alsoaussi how IBMIBM was successfulréussi
44
127399
2478
De la même manière,
IBM a pu faire en sorte
02:21
in gettingobtenir WatsonWatson to beatbattre
the two worldmonde championsChampions at "JeopardyJeopardy,"
45
129877
3862
que Watson batte les champions du monde
de « Jeopardy »,
en répondant à des questions
très difficiles comme :
02:25
answeringrépondant incrediblyincroyablement subtlesubtil
and complexcomplexe questionsdes questions like this one.
46
133739
3225
« Le "Lion de Nimrud" a disparu
en 2003 du musée de cette ville »
02:28
["The ancientancien 'Lion"Lion of Nimrud'Nimrud' wentest allé missingmanquant
from this city'sla ville nationalnationale museummusée in 2003
(alongle long de with a lot of other stuffdes trucs)"]
47
136964
2835
02:31
This is alsoaussi why we are now ablecapable
to see the first self-drivingSelf-driving carsdes voitures.
48
139799
3235
C'est aussi pourquoi nous voyons
les premières voitures autonomes.
02:35
If you want to be ablecapable to tell
the differencedifférence betweenentre, say,
49
143034
2822
Être capable de faire
la différence entre, disons,
02:37
a treearbre and a pedestrianpiéton,
well, that's prettyjoli importantimportant.
50
145856
2632
un arbre et un piéton,
est plutôt important.
Nous ne savons pas écrire
de tels programmes manuellement,
02:40
We don't know how to writeécrire
those programsprogrammes by handmain,
51
148488
2587
02:43
but with machinemachine learningapprentissage,
this is now possiblepossible.
52
151075
2997
mais l'apprentissage automatique
rend la chose possible.
02:46
And in factfait, this carvoiture has drivenentraîné
over a millionmillion milesmiles
53
154072
2608
Cette voiture a roulé
plus de 1,6 millions de km
02:48
withoutsans pour autant any accidentsles accidents on regularordinaire roadsroutes.
54
156680
3506
sur des routes ordinaires,
sans le moindre accident.
02:52
So we now know that computersdes ordinateurs can learnapprendre,
55
160196
3914
Nous savons maintenant que les ordinateurs
peuvent apprendre,
02:56
and computersdes ordinateurs can learnapprendre to do things
56
164110
1900
et apprendre à faire des choses
02:58
that we actuallyréellement sometimesparfois
don't know how to do ourselvesnous-mêmes,
57
166010
2838
que nous ne savons pas
toujours faire nous-mêmes,
03:00
or maybe can do them better than us.
58
168848
2885
ou qu'ils peuvent peut-être
faire mieux que nous.
03:03
One of the mostles plus amazingincroyable examplesexemples
I've seenvu of machinemachine learningapprentissage
59
171733
4195
Un des cas les plus étonnants
d'apprentissage automatique que j'ai vu
03:07
happenedarrivé on a projectprojet that I rancouru at KaggleKaggle
60
175928
2392
s'est produit lors d'un projet de Kaggle,
03:10
where a teaméquipe runcourir by a guy
calledappelé GeoffreyGeoffrey HintonHinton
61
178320
3591
où une équipe dirigée par Geoffrey Hinton,
03:13
from the UniversityUniversité of TorontoToronto
62
181911
1552
de l'Université de Toronto,
03:15
wona gagné a competitioncompétition for
automaticAutomatique drugdrogue discoveryDécouverte.
63
183463
2677
a gagné un concours de
découverte de la drogue.
03:18
Now, what was extraordinaryextraordinaire here
is not just that they beatbattre
64
186140
2847
Ce qui est extraordinaire n'est
pas juste qu'ils aient battu
03:20
all of the algorithmsalgorithmes developeddéveloppé by MerckMerck
or the internationalinternational academicacadémique communitycommunauté,
65
188987
4013
tous les algorithmes de Merck ou de la
communauté universitaire internationale,
03:25
but nobodypersonne on the teaméquipe had any backgroundContexte
in chemistrychimie or biologyla biologie or life sciencesles sciences,
66
193000
5061
mais que personne de l'équipe n'ait de
formation en chimie ou biologie,
et qu'ils l'aient fait en deux semaines.
03:30
and they did it in two weekssemaines.
67
198061
2169
03:32
How did they do this?
68
200230
1381
Comment ont-ils fait ?
03:34
They used an extraordinaryextraordinaire algorithmalgorithme de
calledappelé deepProfond learningapprentissage.
69
202421
2921
Avec un algorithme génial
appelé apprentissage profond.
03:37
So importantimportant was this that in factfait
the successSuccès was coveredcouvert
70
205342
2949
Ça a été si important
que leur succès donna lieu
03:40
in The NewNouveau YorkYork TimesFois in a frontde face pagepage
articlearticle a fewpeu weekssemaines laterplus tard.
71
208291
3121
à un article en une du New York Times
quelques semaines plus tard.
03:43
This is GeoffreyGeoffrey HintonHinton
here on the left-handmain gauche sidecôté.
72
211412
2735
Il s'agit de Geoffrey Hinton,
là, à gauche, sur l'écran.
03:46
DeepProfond learningapprentissage is an algorithmalgorithme de
inspiredinspiré by how the humanHumain braincerveau workstravaux,
73
214147
4341
L'apprentissage profond s'inspire
du fonctionnement du cerveau :
03:50
and as a resultrésultat it's an algorithmalgorithme de
74
218488
1812
c'est un algorithme qui n'a donc
aucune limite théorique.
03:52
whichlequel has no theoreticalthéorique limitationslimites
on what it can do.
75
220300
3841
03:56
The more dataLes données you give it and the more
computationcalcul time you give it,
76
224141
2823
Plus vous lui donnez de données,
et de temps de calcul,
03:58
the better it getsobtient.
77
226964
1312
plus il devient meilleur.
04:00
The NewNouveau YorkYork TimesFois alsoaussi
showedmontré in this articlearticle
78
228276
2339
Le New York Times montra
aussi dans son article
04:02
anotherun autre extraordinaryextraordinaire
resultrésultat of deepProfond learningapprentissage
79
230615
2242
un autre résultat inouï
de l'apprentissage profond,
04:04
whichlequel I'm going to showmontrer you now.
80
232857
2712
que je vais maintenant vous montrer.
04:07
It showsmontre that computersdes ordinateurs
can listen and understandcomprendre.
81
235569
4941
Il montre que les ordinateurs
sont capables d'écouter et comprendre.
04:12
(VideoVidéo) RichardRichard RashidRashid: Now, the last stepétape
82
240510
2711
(Vidéo) Richard Rashid:
La dernière étape
04:15
that I want to be ablecapable
to take in this processprocessus
83
243221
3025
que je voudrais pouvoir atteindre,
04:18
is to actuallyréellement speakparler to you in ChineseChinois.
84
246246
4715
c'est de vous parler en chinois.
L'élément-clé ici, c'est
04:22
Now the keyclé thing there is,
85
250961
2635
04:25
we'venous avons been ablecapable to take a largegrand amountmontant
of informationinformation from manybeaucoup ChineseChinois speakershaut-parleurs
86
253596
5002
que nous avons pu collecter beaucoup
de données auprès de nombreux sinophones
et produire un système de vocalisation
04:30
and produceproduire a text-to-speechsynthèse vocale systemsystème
87
258598
2530
04:33
that takes ChineseChinois texttexte
and convertsConvertit it into ChineseChinois languagela langue,
88
261128
4673
qui convertit du texte chinois
en parole chinoise,
04:37
and then we'venous avons takenpris
an hourheure or so of my ownposséder voicevoix
89
265801
4128
puis nous avons pris environ une heure
d'enregistrement de ma propre voix,
04:41
and we'venous avons used that to modulatemoduler
90
269929
1891
et nous l'avons utilisé pour moduler
04:43
the standardla norme text-to-speechsynthèse vocale systemsystème
so that it would sounddu son like me.
91
271820
4544
le système de vocalisation,
afin que la voix ressemble à la mienne.
04:48
Again, the result'sde résultat not perfectparfait.
92
276364
2540
Le résultat n'est pas parfait.
04:50
There are in factfait quiteassez a fewpeu errorsles erreurs.
93
278904
2648
Il y a un certain nombre d'erreurs.
04:53
(In ChineseChinois)
94
281552
2484
(En chinois)
04:56
(ApplauseApplaudissements)
95
284036
3367
(Applaudissements)
05:01
There's much work to be doneterminé in this arearégion.
96
289446
3576
Il y a encore beaucoup de travail à faire
05:05
(In ChineseChinois)
97
293022
3645
(En chinois)
05:08
(ApplauseApplaudissements)
98
296667
3433
(Applaudissements)
05:13
JeremyJeremy HowardHoward: Well, that was at
a machinemachine learningapprentissage conferenceconférence in ChinaLa Chine.
99
301345
3399
J. H. : C'était une conférence en
Chine sur l'apprentissage automatique.
05:16
It's not oftensouvent, actuallyréellement,
at academicacadémique conferencesconférences
100
304744
2370
Il est rare,
lors de conférences universitaires,
d'entendre des applaudissements spontanés,
05:19
that you do hearentendre spontaneousspontané applauseapplaudissements,
101
307114
1897
05:21
althoughbien que of coursecours sometimesparfois
at TEDxTEDx conferencesconférences, feel freegratuit.
102
309011
3676
quoique cela arrive parfois aux
conférences TEDx. N'hésitez pas.
L'apprentissage profond était
derrière tout ça.
05:24
Everything you saw there
was happeningévénement with deepProfond learningapprentissage.
103
312687
2795
05:27
(ApplauseApplaudissements) Thank you.
104
315482
1525
(Applaudissements)
Merci.
05:29
The transcriptiontranscription in EnglishAnglais
was deepProfond learningapprentissage.
105
317007
2282
La transcription en anglais,
05:31
The translationTraduction to ChineseChinois and the texttexte
in the topHaut right, deepProfond learningapprentissage,
106
319289
3412
la traduction en chinois
et la construction de la voix étaient
tous de l'apprentissage profond.
05:34
and the constructionconstruction of the voicevoix
was deepProfond learningapprentissage as well.
107
322701
3307
05:38
So deepProfond learningapprentissage is
this extraordinaryextraordinaire thing.
108
326008
3234
L'apprentissage profond est
cette chose extraordinaire.
05:41
It's a singleunique algorithmalgorithme de that
can seemsembler to do almostpresque anything,
109
329242
3099
C'est un seul algorithme qui semble
pouvoir presque tout faire,
05:44
and I discovereddécouvert that a yearan earlierplus tôt,
it had alsoaussi learnedappris to see.
110
332341
3111
et j'ai découvert qu'un an plus tôt,
il avait aussi appris à voir.
05:47
In this obscureobscure competitioncompétition from GermanyAllemagne
111
335452
2176
Dans une obscure compétition en Allemagne,
05:49
calledappelé the GermanAllemand TrafficTrafic SignSigne
RecognitionReconnaissance BenchmarkIndice de référence,
112
337628
2597
le « Test de Reconnaissance
de Panneaux Routiers »,
05:52
deepProfond learningapprentissage had learnedappris
to recognizereconnaître trafficcirculation signssignes like this one.
113
340225
3393
l'apprentissage profond a appris à
reconnaître des panneaux,
05:55
Not only could it
recognizereconnaître the trafficcirculation signssignes
114
343618
2094
non seulement mieux
que tous les autres algorithmes,
05:57
better than any other algorithmalgorithme de,
115
345712
1758
05:59
the leaderboardLeaderboard actuallyréellement showedmontré
it was better than people,
116
347470
2719
mais également mieux
que les humains -
06:02
about twicedeux fois as good as people.
117
350189
1852
environ deux fois mieux :
06:04
So by 2011, we had the first exampleExemple
118
352041
1996
dès 2011, nous avions un exemple
06:06
of computersdes ordinateurs that can see
better than people.
119
354037
3405
d'ordinateurs pouvant voir
mieux qu'un être humain.
06:09
SinceDepuis that time, a lot has happenedarrivé.
120
357442
2049
Depuis, beaucoup de choses
se sont passées.
06:11
In 2012, GoogleGoogle announcedannoncé that
they had a deepProfond learningapprentissage algorithmalgorithme de
121
359491
3514
En 2012, Google a annoncé qu'un
algorithme d'apprentissage profond,
06:15
watch YouTubeYouTube videosvidéos
122
363005
1415
regardant des vidéos YouTube
06:16
and crunchedcroqué the dataLes données
on 16,000 computersdes ordinateurs for a monthmois,
123
364420
3437
et analysant les données sur
16 000 ordinateurs pendant un mois,
06:19
and the computerordinateur independentlyindépendamment learnedappris
about conceptsconcepts suchtel as people and catschats
124
367857
4361
a pu apprendre, de lui-même, les concepts
de « chat » ou encore d'« être humain »,
06:24
just by watchingen train de regarder the videosvidéos.
125
372218
1809
juste en regardant ces vidéos.
06:26
This is much like the way
that humanshumains learnapprendre.
126
374027
2352
Les êtres humains apprennent
de la même manière :
06:28
HumansÊtres humains don't learnapprendre
by beingétant told what they see,
127
376379
2740
on n'apprend pas une chose
par explication,
06:31
but by learningapprentissage for themselvesse
what these things are.
128
379119
3331
mais on l'apprend par
les perceptions individuelles.
06:34
AlsoAussi in 2012, GeoffreyGeoffrey HintonHinton,
who we saw earlierplus tôt,
129
382450
3369
En 2012 également, Geoffrey Hinton,
dont nous avons déjà parlé,
06:37
wona gagné the very popularpopulaire ImageNetImageNet competitioncompétition,
130
385819
2858
a gagné le très réputé
concours « ImageNet »,
06:40
looking to try to figurefigure out
from one and a halfmoitié millionmillion imagesimages
131
388677
4141
où il s'agit d'identifier,
au sein d'un million et demi d'images,
06:44
what they're picturesdes photos of.
132
392818
1438
les images en question.
06:46
As of 2014, we're now down
to a sixsix percentpour cent errorErreur ratetaux
133
394256
3533
En 2014, nous sommes tombés
à un taux d'erreur de 6%
06:49
in imageimage recognitionreconnaissance.
134
397789
1453
en reconnaissance visuelle.
06:51
This is better than people, again.
135
399242
2026
C'est, de nouveau,
mieux qu'un être humain.
06:53
So machinesmachines really are doing
an extraordinarilyextraordinairement good jobemploi of this,
136
401268
3769
Les machines font vraiment
ici un travail extraordinaire,
06:57
and it is now beingétant used in industryindustrie.
137
405037
2269
avec, désormais, des
applications industrielles.
06:59
For exampleExemple, GoogleGoogle announcedannoncé last yearan
138
407306
3042
Par exemple, Google a annoncé l'an dernier
07:02
that they had mappedmappé everychaque singleunique
locationemplacement in FranceFrance in two hoursheures,
139
410348
4585
qu'ils avaient cartographié l'ensemble
des lieux de France en deux heures,
07:06
and the way they did it was
that they fednourris streetrue viewvue imagesimages
140
414933
3447
en fournissant des images
de Street View
07:10
into a deepProfond learningapprentissage algorithmalgorithme de
to recognizereconnaître and readlis streetrue numbersNombres.
141
418380
4319
à un algorithme d'apprentissage profond,
pour qu'il reconnaisse les numéros de rue.
07:14
ImagineImaginez how long
it would have takenpris before:
142
422699
2220
Imaginez le temps
qu'il aurait fallu avant :
07:16
dozensdouzaines of people, manybeaucoup yearsannées.
143
424919
3355
des dizaines de personnes,
plusieurs années.
07:20
This is alsoaussi happeningévénement in ChinaLa Chine.
144
428274
1911
C'est la même histoire en Chine.
07:22
BaiduBaidu is kindgentil of
the ChineseChinois GoogleGoogle, I guessdeviner,
145
430185
4036
Baidu est, on peut dire,
une sorte de Google chinois.
07:26
and what you see here in the topHaut left
146
434221
2283
Ce que vous voyez en haut à gauche,
07:28
is an exampleExemple of a picturephoto that I uploadedtéléchargé
to Baidu'sBaidu deepProfond learningapprentissage systemsystème,
147
436504
3974
est une photo que j'ai chargée sur le
système d'apprentissage profond de Baidu,
07:32
and underneathsous you can see that the systemsystème
has understoodcompris what that picturephoto is
148
440478
3769
et, dessous, vous voyez que le système
a compris ce qui était sur la photo,
07:36
and founda trouvé similarsimilaire imagesimages.
149
444247
2236
et trouvé des images similaires.
07:38
The similarsimilaire imagesimages actuallyréellement
have similarsimilaire backgroundsarrière-plans,
150
446483
2736
Les images similaires ont le
même arrière-plan,
07:41
similarsimilaire directionsdirections of the facesvisages,
151
449219
1658
la tête dans le même sens,
07:42
even some with theirleur tonguelangue out.
152
450877
1788
certaines même avec la langue sortie.
07:44
This is not clearlyclairement looking
at the texttexte of a webweb pagepage.
153
452665
3030
Ce n'est pas une recherche
sur le texte d'une page web.
07:47
All I uploadedtéléchargé was an imageimage.
154
455695
1412
Je n'ai chargé qu'une image.
07:49
So we now have computersdes ordinateurs whichlequel
really understandcomprendre what they see
155
457107
4021
Les ordinateurs peuvent donc désormais
vraiment comprendre ce qu'ils voient,
07:53
and can thereforedonc searchchercher databasesbases de données
156
461128
1624
et consulter une base de données
07:54
of hundredsdes centaines of millionsdes millions
of imagesimages in realréal time.
157
462752
3554
de centaines de millions d'images
en temps réel.
07:58
So what does it mean
now that computersdes ordinateurs can see?
158
466306
3230
Quelles conséquences, maintenant que
les ordinateurs peuvent voir ?
08:01
Well, it's not just
that computersdes ordinateurs can see.
159
469536
2017
Les machines ne savent pas seulement voir.
08:03
In factfait, deepProfond learningapprentissage
has doneterminé more than that.
160
471553
2069
L'apprentissage profond va plus loin.
08:05
ComplexComplexe, nuancednuancée sentencesphrases like this one
161
473622
2948
Une phrase complexe et
nuancée comme celle-ci,
08:08
are now understandablecompréhensible
with deepProfond learningapprentissage algorithmsalgorithmes.
162
476570
2824
est maintenant compréhensible
par ces algorithmes.
08:11
As you can see here,
163
479394
1303
Comme vous pouvez le voir,
08:12
this Stanford-basedStanford-basé systemsystème
showingmontrer the redrouge dotpoint at the topHaut
164
480697
2768
ce système de Stanford,
avec le point rouge en haut,
08:15
has figuredfiguré out that this sentencephrase
is expressingexprimer negativenégatif sentimentsentiment.
165
483465
3919
a compris que la phrase
comportait un jugement négatif.
08:19
DeepProfond learningapprentissage now in factfait
is nearprès humanHumain performanceperformance
166
487384
3406
L'apprentissage profond est désormais
proche des performances humaines
08:22
at understandingcompréhension what sentencesphrases are about
and what it is sayingen disant about those things.
167
490802
5121
pour comprendre le sujet d'une phrase,
et le jugement qui y est exprimé.
08:27
AlsoAussi, deepProfond learningapprentissage has
been used to readlis ChineseChinois,
168
495923
2728
Il a aussi été utilisé
pour lire le chinois,
08:30
again at about nativeoriginaire de
ChineseChinois speakerorateur levelniveau.
169
498651
3156
à un niveau proche de
celui d'un locuteur natif.
08:33
This algorithmalgorithme de developeddéveloppé
out of SwitzerlandSuisse
170
501807
2168
Cet algorithme a été développé en Suisse
08:35
by people, noneaucun of whomqui speakparler
or understandcomprendre any ChineseChinois.
171
503975
3356
par des personnes dont aucune ne parlait
ni ne comprenait le chinois.
08:39
As I say, usingen utilisant deepProfond learningapprentissage
172
507331
2051
Utiliser l'apprentissage profond
08:41
is about the bestmeilleur systemsystème
in the worldmonde for this,
173
509382
2219
constitue le meilleur système
dans ce cas,
08:43
even comparedpar rapport to nativeoriginaire de
humanHumain understandingcompréhension.
174
511601
5117
même comparé
à la compréhension humaine.
08:48
This is a systemsystème that we
put togetherensemble at my companycompagnie
175
516718
2964
Il s'agit ici d'un système
mis en place dans mon entreprise,
08:51
whichlequel showsmontre puttingen mettant
all this stuffdes trucs togetherensemble.
176
519682
2046
qui regroupe tout ça.
08:53
These are picturesdes photos whichlequel
have no texttexte attachedattaché,
177
521728
2461
Ce sont des images qui ne sont
pas liées à du texte,
08:56
and as I'm typingdactylographie in here sentencesphrases,
178
524189
2352
et, alors que j'écris ici des phrases,
08:58
in realréal time it's understandingcompréhension
these picturesdes photos
179
526541
2969
en temps réel, le système comprend
les images,
09:01
and figuringfigurer out what they're about
180
529510
1679
identifie leur sujet,
09:03
and findingdécouverte picturesdes photos that are similarsimilaire
to the texttexte that I'm writingl'écriture.
181
531189
3163
et trouve des images correspondant au
texte que j'écris.
09:06
So you can see, it's actuallyréellement
understandingcompréhension my sentencesphrases
182
534352
2756
Il comprend véritablement mes phrases,
09:09
and actuallyréellement understandingcompréhension these picturesdes photos.
183
537108
2224
et comprend véritablement ces images.
09:11
I know that you've seenvu
something like this on GoogleGoogle,
184
539332
2559
Je sais que vous voyez
ça sur Google,
09:13
where you can typetype in things
and it will showmontrer you picturesdes photos,
185
541891
2775
où l'on peut trouver des images
en tapant un texte,
09:16
but actuallyréellement what it's doing is it's
searchingrecherche the webpagepage Web for the texttexte.
186
544666
3424
mais ce n'est qu'une recherche
dans le texte de la page web.
09:20
This is very differentdifférent from actuallyréellement
understandingcompréhension the imagesimages.
187
548090
3001
C'est très différent de comprendre
vraiment les images.
09:23
This is something that computersdes ordinateurs
have only been ablecapable to do
188
551091
2752
C'est quelque chose que
les ordinateurs n'ont pu faire
09:25
for the first time in the last fewpeu monthsmois.
189
553843
3248
pour la première fois
que très récemment.
09:29
So we can see now that computersdes ordinateurs
can not only see but they can alsoaussi readlis,
190
557091
4091
Les ordinateurs peuvent donc
non seulement voir, mais aussi lire,
09:33
and, of coursecours, we'venous avons shownmontré that they
can understandcomprendre what they hearentendre.
191
561182
3765
et, bien sûr, nous avons montré qu'ils
peuvent comprendre ce qu'ils entendent.
09:36
PerhapsPeut-être not surprisingsurprenant now that
I'm going to tell you they can writeécrire.
192
564947
3442
Pas très surprenant si je vous
dis maintenant qu'ils peuvent écrire.
09:40
Here is some texttexte that I generatedgénéré
usingen utilisant a deepProfond learningapprentissage algorithmalgorithme de yesterdayhier.
193
568389
4783
A partir d'un algorithme d'apprentissage
profond, j'ai généré ce texte hier.
09:45
And here is some texttexte that an algorithmalgorithme de
out of StanfordStanford generatedgénéré.
194
573172
3924
Ici, ce sont des textes générés par un
algorithme de Stanford.
09:49
EachChaque of these sentencesphrases was generatedgénéré
195
577096
1764
Chacune de ces phrases a été générée
09:50
by a deepProfond learningapprentissage algorithmalgorithme de
to describedécrire eachchaque of those picturesdes photos.
196
578860
4249
par un algorithme d'apprentissage profond
décrivant l'image au-dessus.
09:55
This algorithmalgorithme de before has never seenvu
a man in a blacknoir shirtchemise playingen jouant a guitarguitare.
197
583109
4472
Cet algorithme n'avait jamais vu un homme
habillé en noir jouant de la guitare.
09:59
It's seenvu a man before,
it's seenvu blacknoir before,
198
587581
2220
Il avait vu déjà vu un homme,
déjà vu du noir,
10:01
it's seenvu a guitarguitare before,
199
589801
1599
déjà vu une guitare,
10:03
but it has independentlyindépendamment generatedgénéré
this novelroman descriptionla description of this picturephoto.
200
591400
4294
mais a généré de manière autonome
cette nouvelle description de cette photo.
10:07
We're still not quiteassez at humanHumain
performanceperformance here, but we're closeFermer.
201
595694
3502
Nous n'atteignons pas encore
les performances humaines, mais presque.
10:11
In teststests, humanshumains preferpréférer
the computer-generatedgénérées par ordinateur captionlégende
202
599196
4068
Dans les tests réalisés, les personnes
préfèrent la légende de l'ordinateur
10:15
one out of fourquatre timesfois.
203
603264
1527
une fois sur quatre.
10:16
Now this systemsystème is now only two weekssemaines oldvieux,
204
604791
2064
Ce système n'a que deux semaines,
10:18
so probablyProbablement withindans the nextprochain yearan,
205
606855
1846
et l'on peut supposer que d'ici un an,
10:20
the computerordinateur algorithmalgorithme de will be
well pastpassé humanHumain performanceperformance
206
608701
2801
l'algorithme aurait surpassé
les performances humaines
10:23
at the ratetaux things are going.
207
611502
1862
- au rythme où ça va.
10:25
So computersdes ordinateurs can alsoaussi writeécrire.
208
613364
3049
Les ordinateurs peuvent donc aussi écrire.
10:28
So we put all this togetherensemble and it leadspistes
to very excitingpassionnant opportunitiesopportunités.
209
616413
3475
Si l'on rassemble tout ça, les
perspectives deviennent prometteuses.
10:31
For exampleExemple, in medicinemédicament,
210
619888
1492
Par exemple, en médecine,
10:33
a teaméquipe in BostonBoston announcedannoncé
that they had discovereddécouvert
211
621380
2525
une équipe de Boston a annoncé
qu'elle avait découvert
10:35
dozensdouzaines of newNouveau clinicallysur le plan clinique relevantpertinent featuresfonctionnalités
212
623905
2949
des dizaines de nouveaux signes cliniques
10:38
of tumorstumeurs whichlequel help doctorsmédecins
make a prognosispronostic of a cancercancer.
213
626854
4266
de tumeurs, qui aident les docteurs
à diagnostiquer un cancer.
10:44
Very similarlyDe même, in StanfordStanford,
214
632220
2296
De façon très proche, à Stanford,
10:46
a groupgroupe there announcedannoncé that,
looking at tissuestissus underen dessous de magnificationgrossissement,
215
634516
3663
une équipe a annoncé qu'en
observant des tissus au microscope,
10:50
they'veils ont developeddéveloppé
a machinemachine learning-basedaxée sur l’apprentissage systemsystème
216
638179
2381
ils ont développé un système
de machine apprenante
10:52
whichlequel in factfait is better
than humanHumain pathologistspathologistes
217
640560
2582
qui est vraiment meilleur
qu'un pathologiste
10:55
at predictingprédire survivalsurvie ratesles taux
for cancercancer suffererspersonnes souffrant de.
218
643142
4377
pour prédire les taux de survie
de personnes atteintes de cancer.
10:59
In bothtous les deux of these casescas, not only
were the predictionsprédictions more accurateprécis,
219
647519
3245
Dans ces deux cas, non seulement
les prévisions étaient meilleures,
11:02
but they generatedgénéré newNouveau insightfulperspicace sciencescience.
220
650764
2502
mais elles ont aussi permis
des découvertes majeures.
11:05
In the radiologyradiologie caseCas,
221
653276
1505
Dans l'exemple en radiologie,
11:06
they were newNouveau clinicalclinique indicatorsindicateurs
that humanshumains can understandcomprendre.
222
654781
3095
de nouveaux signes cliniques
compréhensibles par l'homme.
11:09
In this pathologypathologie caseCas,
223
657876
1792
Dans l'exemple en pathologie,
11:11
the computerordinateur systemsystème actuallyréellement discovereddécouvert
that the cellscellules around the cancercancer
224
659668
4500
le système informatique a découvert
que les cellules autour du cancer
11:16
are as importantimportant as
the cancercancer cellscellules themselvesse
225
664168
3340
étaient aussi importantes que les cellules
cancéreuses elles-mêmes
11:19
in makingfabrication a diagnosisdiagnostic.
226
667508
1752
pour porter un diagnostic,
11:21
This is the oppositecontraire of what pathologistspathologistes
had been taughtenseigné for decadesdécennies.
227
669260
5361
à rebours de ce qui a été enseigné
aux pathologistes pendant des décennies.
11:26
In eachchaque of those two casescas,
they were systemssystèmes developeddéveloppé
228
674621
3292
Dans ces deux cas, les systèmes
ont été développés
11:29
by a combinationcombinaison of medicalmédical expertsexperts
and machinemachine learningapprentissage expertsexperts,
229
677913
3621
en associant experts médicaux et
experts de l'apprentissage automatique,
11:33
but as of last yearan,
we're now beyondau-delà that too.
230
681534
2741
mais, depuis l'an dernier,
un nouveau cap a été franchi.
11:36
This is an exampleExemple of
identifyingidentifier les cancerouscancéreuses areaszones
231
684275
3549
Il s'agit ici d'un exemple
d'identification de zones cancéreuses
11:39
of humanHumain tissuetissu underen dessous de a microscopemicroscope.
232
687824
2530
d'un tissu humain au microscope.
11:42
The systemsystème beingétant shownmontré here
can identifyidentifier those areaszones more accuratelyavec précision,
233
690354
4613
Ce système peut identifier ces zones
avec plus de précisions,
11:46
or about as accuratelyavec précision,
as humanHumain pathologistspathologistes,
234
694967
2775
ou, du moins, avec autant de précision
qu'un pathologiste,
11:49
but was builtconstruit entirelyentièrement with deepProfond learningapprentissage
usingen utilisant no medicalmédical expertisecompétence
235
697742
3392
mais a été entièrement créé par
l'apprentissage profond créé
11:53
by people who have
no backgroundContexte in the fieldchamp.
236
701134
2526
par des personnes n'ayant
pas de formation médicale.
11:56
SimilarlyDe la même façon, here, this neuronneurone segmentationsegmentation.
237
704730
2555
De même, pour cette
classification de neurones.
11:59
We can now segmentsegment neuronsneurones
about as accuratelyavec précision as humanshumains can,
238
707285
3668
On peut désormais classer les neurones
avec autant de précisions qu'un humain,
12:02
but this systemsystème was developeddéveloppé
with deepProfond learningapprentissage
239
710953
2717
et ce système a été créé
avec l'apprentissage profond,
12:05
usingen utilisant people with no previousprécédent
backgroundContexte in medicinemédicament.
240
713670
3251
par des gens n'ayant pas de
connaissance médicale antérieure.
12:08
So myselfmoi même, as somebodyquelqu'un with
no previousprécédent backgroundContexte in medicinemédicament,
241
716921
3227
Moi-même, sans connaissance
médicale antérieure,
12:12
I seemsembler to be entirelyentièrement well qualifiedqualifié
to startdébut a newNouveau medicalmédical companycompagnie,
242
720148
3727
je semble être pleinement qualifié
pour créer une entreprise dans la santé
12:15
whichlequel I did.
243
723875
2146
- ce que j'ai fait.
12:18
I was kindgentil of terrifiedterrifié of doing it,
244
726021
1740
J'étais terrifié à cette idée,
12:19
but the theorythéorie seemedsemblait to suggestsuggérer
that it oughtdevrait to be possiblepossible
245
727761
2889
mais, la théorie suggérait
qu'il devait être possible
12:22
to do very usefulutile medicinemédicament
usingen utilisant just these dataLes données analyticanalytique techniquestechniques.
246
730650
5492
d'être utile dans ce secteur en ne maniant
que ces moyens d'analyse de données.
12:28
And thankfullyheureusement, the feedbackretour d'information
has been fantasticfantastique,
247
736142
2480
Et, heureusement, les retours
ont été fabuleux,
12:30
not just from the mediamédias
but from the medicalmédical communitycommunauté,
248
738622
2356
ceux des médias,
mais aussi ceux du corps médical,
12:32
who have been very supportivefavorable.
249
740978
2344
qui a été d'un grand soutien.
12:35
The theorythéorie is that we can take
the middlemilieu partpartie of the medicalmédical processprocessus
250
743322
4149
La théorie, c'est que l'on peut isoler
la partie centrale du processus médical,
12:39
and turntour that into dataLes données analysisune analyse
as much as possiblepossible,
251
747471
2893
pour procéder, autant que possible,
à des analyses de données,
12:42
leavingen quittant doctorsmédecins to do
what they're bestmeilleur at.
252
750364
3065
et laisser les médecins se consacrer
sur leurs forces.
12:45
I want to give you an exampleExemple.
253
753429
1602
Je veux vous donner un exemple.
12:47
It now takes us about 15 minutesminutes
to generateGénérer a newNouveau medicalmédical diagnosticdiagnostique testtester
254
755031
4944
Il nous faut désormais environ 15 minutes
pour faire un nouveau diagnostic médical,
12:51
and I'll showmontrer you that in realréal time now,
255
759975
1954
et je vais vous le montrer en temps réel,
12:53
but I've compressedcomprimé it down to
threeTrois minutesminutes by cuttingCoupe some piecesdes morceaux out.
256
761929
3487
même si je l'ai réduit à trois minutes
en supprimant certaines parties.
12:57
RatherPlutôt than showingmontrer you
creatingcréer a medicalmédical diagnosticdiagnostique testtester,
257
765416
3061
Plutôt que de vous montrer la création
d'un diagnostic médical,
13:00
I'm going to showmontrer you
a diagnosticdiagnostique testtester of carvoiture imagesimages,
258
768477
3369
je vais vous montrer un diagnostic
d'images de voitures :
13:03
because that's something
we can all understandcomprendre.
259
771846
2222
c'est quelque chose que
tout le monde comprend.
13:06
So here we're startingdépart with
about 1.5 millionmillion carvoiture imagesimages,
260
774068
3201
Nous commençons avec environ
1,5 million d'images de voitures,
13:09
and I want to createcréer something
that can splitDivisé them into the angleangle
261
777269
3206
et ce que je veux, c'est les organiser
selon l'angle selon lequel
13:12
of the photophoto that's beingétant takenpris.
262
780475
2223
la photo a été prise.
13:14
So these imagesimages are entirelyentièrement unlabeledsans étiquette,
so I have to startdébut from scratchrayure.
263
782698
3888
Ces images ne sont pas cataloguées :
je dois partir de zéro.
13:18
With our deepProfond learningapprentissage algorithmalgorithme de,
264
786586
1865
Notre algorithme
d'apprentissage profond
13:20
it can automaticallyautomatiquement identifyidentifier
areaszones of structurestructure in these imagesimages.
265
788451
3707
permet d'identifier les structures
dans ces images.
13:24
So the niceagréable thing is that the humanHumain
and the computerordinateur can now work togetherensemble.
266
792158
3620
L'être humain et l'ordinateur peuvent
maintenant travailler ensemble.
13:27
So the humanHumain, as you can see here,
267
795778
2178
L'être humain, comme vous le voyez ici,
13:29
is tellingrécit the computerordinateur
about areaszones of interestintérêt
268
797956
2675
indique à la machine
les zones d'intérêt,
13:32
whichlequel it wants the computerordinateur then
to try and use to improveaméliorer its algorithmalgorithme de.
269
800631
4650
celles à lesquelles il veut qu'elle
s'intéresse pour améliorer son algorithme.
13:37
Now, these deepProfond learningapprentissage systemssystèmes actuallyréellement
are in 16,000-dimensional-Dimensions spaceespace,
270
805281
4296
Les systèmes d'apprentissage profond sont
des espaces à 16 000 dimensions [sic],
13:41
so you can see here the computerordinateur
rotatingtournantes this throughpar that spaceespace,
271
809577
3432
et vous pouvez voir ici l'ordinateur qui
pivote au sein de cet espace,
13:45
tryingen essayant to find newNouveau areaszones of structurestructure.
272
813009
1992
pour trouver de nouvelles structures.
13:47
And when it does so successfullyavec succès,
273
815001
1781
Quand il y arrive,
13:48
the humanHumain who is drivingau volant it can then
pointpoint out the areaszones that are interestingintéressant.
274
816782
4004
l'être humain peut ensuite lui signaler
les zones intéressantes.
13:52
So here, the computerordinateur has
successfullyavec succès founda trouvé areaszones,
275
820786
2422
Ici, l'ordinateur a pu trouver
une zone avec,
13:55
for exampleExemple, anglesangles.
276
823208
2562
par exemple, des angles.
13:57
So as we go throughpar this processprocessus,
277
825770
1606
Au fur et à mesure,
13:59
we're graduallyprogressivement tellingrécit
the computerordinateur more and more
278
827376
2340
nous en disons de plus en plus
à l'ordinateur
14:01
about the kindssortes of structuresles structures
we're looking for.
279
829716
2428
sur le type de structures
que l'on recherche.
14:04
You can imagineimaginer in a diagnosticdiagnostique testtester
280
832144
1772
Imaginez un diagnostic médical,
14:05
this would be a pathologistpathologiste identifyingidentifier les
areaszones of pathosispathosis, for exampleExemple,
281
833916
3350
par exemple un pathologiste identifiant
des zones malades,
14:09
or a radiologistradiologue indicatingindiquant
potentiallypotentiellement troublesomegênants nodulesnodules.
282
837266
5026
ou un radiologue montrant
des nodules potentiellement inquiétants.
14:14
And sometimesparfois it can be
difficultdifficile for the algorithmalgorithme de.
283
842292
2559
Parfois, cela devient difficile
pour l'algorithme.
14:16
In this caseCas, it got kindgentil of confusedconfus.
284
844851
1964
Ici, il s'est un peu emmêlé les pinceaux.
14:18
The frontsles fronts and the backsdos
of the carsdes voitures are all mixedmixte up.
285
846815
2550
L'avant et l'arrière des voitures
sont mêlés.
14:21
So here we have to be a bitbit more carefulprudent,
286
849365
2072
Nous devons faire
un peu plus attention,
14:23
manuallymanuellement selectingen sélectionnant these frontsles fronts
as opposedopposé to the backsdos,
287
851437
3232
et dissocier manuellement les avants
des arrières,
14:26
then tellingrécit the computerordinateur
that this is a typetype of groupgroupe
288
854669
5506
puis dire à l'ordinateur que
cette classification nous importe.
14:32
that we're interestedintéressé in.
289
860175
1348
14:33
So we do that for a while,
we skipsauter over a little bitbit,
290
861523
2677
Nous continuons comme ça,
et, un peu plus tard,
14:36
and then we traintrain the
machinemachine learningapprentissage algorithmalgorithme de
291
864200
2246
nous allons former l'algorithme
14:38
basedbasé on these couplecouple of hundredcent things,
292
866446
1974
sur la base de ces classifications,
14:40
and we hopeespérer that it's gottenobtenu a lot better.
293
868420
2025
et espérer qu'il s'est amélioré.
14:42
You can see, it's now startedcommencé to fadefondu
some of these picturesdes photos out,
294
870445
3073
Comme vous le voyez, il a commencé à
estomper certaines photos,
14:45
showingmontrer us that it alreadydéjà is recognizingreconnaissant
how to understandcomprendre some of these itselfse.
295
873518
4708
montrant qu'il sait déjà comment
comprendre certaines d'entre elles.
14:50
We can then use this conceptconcept
of similarsimilaire imagesimages,
296
878226
2902
Nous pouvons ensuite utiliser ce
concept d'images similaires,
14:53
and usingen utilisant similarsimilaire imagesimages, you can now see,
297
881128
2094
et, voir que, en s'en servant,
14:55
the computerordinateur at this pointpoint is ablecapable to
entirelyentièrement find just the frontsles fronts of carsdes voitures.
298
883222
4019
l'ordinateur est désormais capable de
trouver seulement les avants de voiture.
14:59
So at this pointpoint, the humanHumain
can tell the computerordinateur,
299
887241
2948
A ce stade, l'être humain
peut dire à l'ordinateur :
«Ok, tu t'en es bien sorti. »
15:02
okay, yes, you've doneterminé
a good jobemploi of that.
300
890189
2293
Bien sûr, parfois, même à ce stade,
15:05
SometimesParfois, of coursecours, even at this pointpoint
301
893652
2185
15:07
it's still difficultdifficile
to separateséparé out groupsgroupes.
302
895837
3674
il est encore difficile
de faire des groupes.
15:11
In this caseCas, even after we let the
computerordinateur try to rotatetourner this for a while,
303
899511
3884
Ici, même après avoir laissé l'ordinateur
pivoter pendant un moment,
15:15
we still find that the left sidescôtés
and the right sidescôtés picturesdes photos
304
903399
3345
les photos de voitures vues de droite
et celles vues de gauche sont
15:18
are all mixedmixte up togetherensemble.
305
906744
1478
encore toutes mêlées.
Nous lui donnons de nouveau
des indications,
15:20
So we can again give
the computerordinateur some hintsconseils,
306
908222
2140
15:22
and we say, okay, try and find
a projectionprojection that separatessépare les out
307
910362
2976
puis lui disons de chercher
une projection qui fait le tri
15:25
the left sidescôtés and the right sidescôtés
as much as possiblepossible
308
913338
2607
entre les photos de droite et de gauche -
15:27
usingen utilisant this deepProfond learningapprentissage algorithmalgorithme de.
309
915945
2122
avec l'algorithme d'apprentissage profond.
15:30
And givingdonnant it that hintallusion --
ahah, okay, it's been successfulréussi.
310
918067
2942
Avec ces indications, nous avons réussi.
15:33
It's managedgéré to find a way
of thinkingen pensant about these objectsobjets
311
921009
2882
Il a trouvé une manière de considérer
ces objets qui en permet le tri.
15:35
that's separatedséparé out these togetherensemble.
312
923891
2380
15:38
So you get the ideaidée here.
313
926271
2438
Vous avez saisi l'idée.
15:40
This is a caseCas not where the humanHumain
is beingétant replacedremplacé by a computerordinateur,
314
928709
8197
Nous ne somme pas ici dans une
substitution de l'homme par la machine,
15:48
but where they're workingtravail togetherensemble.
315
936906
2640
mais dans un travail conjoint.
15:51
What we're doing here is we're replacingremplacer
something that used to take a teaméquipe
316
939546
3550
Ce que nous faisons, c'est prendre
quelque chose qui mobilisait une équipe
15:55
of fivecinq or sixsix people about sevenSept yearsannées
317
943096
2002
de cinq ou six personnes pendant sept ans
15:57
and replacingremplacer it with something
that takes 15 minutesminutes
318
945098
2605
et y substituer quelque chose qui
prend 15 minutes à une seule personne.
15:59
for one personla personne actingagissant aloneseul.
319
947703
2505
16:02
So this processprocessus takes about
fourquatre or fivecinq iterationsitérations.
320
950208
3950
Cette méthode nécessite quatre
ou cinq itérations,
16:06
You can see we now have 62 percentpour cent
321
954158
1859
et nous avons maintenant 62%
16:08
of our 1.5 millionmillion imagesimages
classifiedclassés correctlycorrectement.
322
956017
2959
de nos 1,5 million d'images
classifiées correctement.
16:10
And at this pointpoint, we
can startdébut to quiteassez quicklyrapidement
323
958976
2472
A ce stade, nous pouvons
commencer à prendre
16:13
grabsaisir wholeentier biggros sectionssections,
324
961448
1297
des parties entières,
16:14
checkvérifier throughpar them to make sure
that there's no mistakeserreurs.
325
962745
2919
et vérifier rapidement
qu'il n'y a pas d'erreurs.
16:17
Where there are mistakeserreurs, we can
let the computerordinateur know about them.
326
965664
3952
Quand il y a des erreurs, nous en
informons l'ordinateur,
16:21
And usingen utilisant this kindgentil of processprocessus
for eachchaque of the differentdifférent groupsgroupes,
327
969616
3045
et, en utilisant cette méthode
pour tous les groupes,
16:24
we are now up to
an 80 percentpour cent successSuccès ratetaux
328
972661
2487
nous en arrivons à un
taux de réussite de 80%
16:27
in classifyingclassement the 1.5 millionmillion imagesimages.
329
975148
2415
dans la classification de ces images.
16:29
And at this pointpoint, it's just a caseCas
330
977563
2078
A partir de là, il s'agit juste
16:31
of findingdécouverte the smallpetit numbernombre
that aren'tne sont pas classifiedclassés correctlycorrectement,
331
979641
3579
de trouver le petit nombre d'images
mal classées,
16:35
and tryingen essayant to understandcomprendre why.
332
983220
2888
et à essayer de comprendre pourquoi.
16:38
And usingen utilisant that approachapproche,
333
986108
1743
Avec cette approche,
16:39
by 15 minutesminutes we get
to 97 percentpour cent classificationclassement ratesles taux.
334
987851
4121
en 15 minutes, nous parvenons à un
taux de classification de 97%.
16:43
So this kindgentil of techniquetechnique
could allowpermettre us to fixréparer a majorMajeur problemproblème,
335
991972
4600
Ce type de méthode pourrait nous
permettre de régler un problème majeur :
16:48
whichlequel is that there's a lackmanquer de
of medicalmédical expertisecompétence in the worldmonde.
336
996578
3036
le manque d'expertise médicale
dans le monde.
16:51
The WorldMonde EconomicÉconomique ForumForum saysdit
that there's betweenentre a 10x and a 20x
337
999614
3489
Le Forum économique mondial estime
qu'il faudrait 10 à 20 fois plus
16:55
shortagepénurie de of physiciansmédecins
in the developingdéveloppement worldmonde,
338
1003103
2624
de médecins dans les pays
en voie de développement
16:57
and it would take about 300 yearsannées
339
1005727
2113
et qu'il faudrait 300 ans
16:59
to traintrain enoughassez people
to fixréparer that problemproblème.
340
1007840
2894
pour former suffisamment de personnes
et régler ce problème.
17:02
So imagineimaginer if we can help
enhanceaméliorer theirleur efficiencyEfficacité
341
1010734
2885
Imaginez alors que nous puissions
accroître leur productivité
17:05
usingen utilisant these deepProfond learningapprentissage approachesapproches?
342
1013619
2839
avec ces méthodes d'apprentissage profond.
17:08
So I'm very excitedexcité
about the opportunitiesopportunités.
343
1016458
2232
Les opportunités m'enchantent.
17:10
I'm alsoaussi concernedconcerné about the problemsproblèmes.
344
1018690
2589
Mais les dangers m’inquiètent.
17:13
The problemproblème here is that
everychaque arearégion in bluebleu on this mapcarte
345
1021279
3124
Le problème, c'est que dans tous les pays
en bleu sur la carte,
17:16
is somewherequelque part where servicesprestations de service
are over 80 percentpour cent of employmentemploi.
346
1024403
3769
le secteur tertiaire représente
plus de 80% de l'emploi.
17:20
What are servicesprestations de service?
347
1028172
1787
C'est quoi le secteur tertiaire ?
17:21
These are servicesprestations de service.
348
1029959
1514
C'est ça.
17:23
These are alsoaussi the exactexact things that
computersdes ordinateurs have just learnedappris how to do.
349
1031473
4154
Ce sont exactement ces choses que les
ordinateurs viennent d'apprendre à faire.
17:27
So 80 percentpour cent of the world'smonde employmentemploi
in the developeddéveloppé worldmonde
350
1035627
3804
80% des emplois dans les pays développés
17:31
is stuffdes trucs that computersdes ordinateurs
have just learnedappris how to do.
351
1039431
2532
consiste en ce qu'une machine
sait désormais faire.
17:33
What does that mean?
352
1041963
1440
Qu'est-ce que cela veut dire ?
17:35
Well, it'llça va be fine.
They'llIls vont be replacedremplacé by other jobsemplois.
353
1043403
2583
Tout ira bien.
D'autres emplois les remplaceront,
17:37
For exampleExemple, there will be
more jobsemplois for dataLes données scientistsscientifiques.
354
1045986
2707
par exemple, dans l'analyse de données.
17:40
Well, not really.
355
1048693
817
Pas vraiment.
Ce n'est pas long pour un analyste de
données de construire ça.
17:41
It doesn't take dataLes données scientistsscientifiques
very long to buildconstruire these things.
356
1049510
3118
17:44
For exampleExemple, these fourquatre algorithmsalgorithmes
were all builtconstruit by the sameMême guy.
357
1052628
3252
Par exemple, ces quatre algorithmes
sont tous de la même personne.
17:47
So if you think, oh,
it's all happenedarrivé before,
358
1055880
2438
Vous pensez peut-être
que c'est du déjà-vu,
17:50
we'venous avons seenvu the resultsrésultats in the pastpassé
of when newNouveau things come alongle long de
359
1058318
3808
que nous connaissons les conséquences
de l'arrivée de nouvelles choses,
17:54
and they get replacedremplacé by newNouveau jobsemplois,
360
1062126
2252
de nouveaux emplois qui
remplacent les anciens.
17:56
what are these newNouveau jobsemplois going to be?
361
1064378
2116
Que seront ces nouveaux emplois ?
17:58
It's very harddifficile for us to estimateestimation this,
362
1066494
1871
C'est très dur à estimer :
18:00
because humanHumain performanceperformance
growsgrandit at this gradualgraduel ratetaux,
363
1068365
2739
l'amélioration des performances
humaines est graduelle,
18:03
but we now have a systemsystème, deepProfond learningapprentissage,
364
1071104
2562
tandis que ce système,
l'apprentissage profond,
18:05
that we know actuallyréellement growsgrandit
in capabilityaptitude exponentiallyexponentiellement.
365
1073666
3227
s'améliore de façon exponentielle.
18:08
And we're here.
366
1076893
1605
Et nous en sommes là.
18:10
So currentlyactuellement, we see the things around us
367
1078498
2061
En regardant autour de nous,
nous pensons :
18:12
and we say, "Oh, computersdes ordinateurs
are still prettyjoli dumbstupide." Right?
368
1080559
2676
« Les machines sont
toujours idiotes ». Pas vrai ?
18:15
But in fivecinq years'années' time,
computersdes ordinateurs will be off this chartgraphique.
369
1083235
3429
Mais d'ici cinq ans, elles seront
bien plus haut dans la courbe.
18:18
So we need to be startingdépart to think
about this capabilityaptitude right now.
370
1086664
3865
Nous devons commencer à penser
dès maintenant à ces capacités futures.
18:22
We have seenvu this onceune fois que before, of coursecours.
371
1090529
2050
Ce n'est pas la première fois, bien sûr.
18:24
In the IndustrialIndustriel RevolutionRevolution,
372
1092579
1387
Les machines de la Révolution Industrielle
augmentèrent nos capacités.
18:25
we saw a stepétape changechangement
in capabilityaptitude thanksMerci to enginesles moteurs.
373
1093966
2851
Mais, au bout d'un moment,
les choses se calmèrent.
18:29
The thing is, thoughbien que,
that after a while, things flattenedaplati out.
374
1097667
3138
18:32
There was socialsocial disruptionperturbation,
375
1100805
1702
Il y eut des troubles sociaux, mais
18:34
but onceune fois que enginesles moteurs were used
to generateGénérer powerPuissance in all the situationssituations,
376
1102507
3439
une fois les machines utilisées
pour la plupart des cas utiles,
18:37
things really settledcolonisé down.
377
1105946
2354
les choses s'apaisèrent.
18:40
The MachineMachine LearningD’apprentissage RevolutionRevolution
378
1108300
1473
La Révolution des Machines Apprenantes
18:41
is going to be very differentdifférent
from the IndustrialIndustriel RevolutionRevolution,
379
1109773
2909
sera très différente
de la Révolution Industrielle,
18:44
because the MachineMachine LearningD’apprentissage RevolutionRevolution,
it never settless’installe down.
380
1112682
2950
parce que dans son cas, les choses
ne se calmeront pas.
18:47
The better computersdes ordinateurs get
at intellectualintellectuel activitiesActivités,
381
1115632
2982
Plus les ordinateurs progressent
dans les activités cérébrales,
18:50
the more they can buildconstruire better computersdes ordinateurs
to be better at intellectualintellectuel capabilitiescapacités,
382
1118614
4248
plus ils peuvent créer de meilleurs
ordinateurs, et progresser encore.
18:54
so this is going to be a kindgentil of changechangement
383
1122862
1908
Nous sommes devant un type d'évolution
18:56
that the worldmonde has actuallyréellement
never experiencedexpérimenté before,
384
1124770
2478
que le monde n'a jamais
expérimentée auparavant :
18:59
so your previousprécédent understandingcompréhension
of what's possiblepossible is differentdifférent.
385
1127248
3306
notre compréhension antérieure
des possibles n'est pas adaptée.
19:02
This is alreadydéjà impactingun impact us.
386
1130974
1780
Nous en subissons déjà les impacts.
19:04
In the last 25 yearsannées,
as capitalCapitale productivityproductivité has increasedaugmenté,
387
1132754
3630
Ces 25 dernières années, alors que
la productivité du capital augmentait,
19:08
laborla main d'oeuvre productivityproductivité has been flatappartement,
in factfait even a little bitbit down.
388
1136400
4188
la productivité du travail restait stable,
était même légèrement en baisse.
19:13
So I want us to startdébut
havingayant this discussiondiscussion now.
389
1141408
2741
Je voudrais lancer
ce débat dès maintenant.
19:16
I know that when I oftensouvent tell people
about this situationsituation,
390
1144149
3027
Je sais d'expérience que lorsque
je parle de ça aux gens,
19:19
people can be quiteassez dismissivedédaigneux.
391
1147176
1490
ils peuvent être sceptiques.
19:20
Well, computersdes ordinateurs can't really think,
392
1148666
1673
Les machines ne peuvent pas penser,
19:22
they don't emoteemote,
they don't understandcomprendre poetrypoésie,
393
1150339
3028
elles n'ont pas d'émotions,
ne comprennent pas la poésie.
19:25
we don't really understandcomprendre how they work.
394
1153367
2521
Nous ne comprenons pas
comment elles fonctionnent.
19:27
So what?
395
1155888
1486
Et alors ?
19:29
ComputersOrdinateurs right now can do the things
396
1157374
1804
Elles peuvent dès maintenant faire
ce pour quoi les hommes sont payés.
19:31
that humanshumains spenddépenser mostles plus
of theirleur time beingétant paidpayé to do,
397
1159178
2719
19:33
so now'sIl est maintenant the time to startdébut thinkingen pensant
398
1161897
1731
C'est le moment de commencer
19:35
about how we're going to adjustrégler our
socialsocial structuresles structures and economicéconomique structuresles structures
399
1163628
4387
à réfléchir à la façon d'ajuster nos
structures sociales et économiques,
19:40
to be awareconscient of this newNouveau realityréalité.
400
1168015
1840
d'être au fait de cette nouvelle réalité.
19:41
Thank you.
401
1169855
1533
Merci.
(Applaudissements)
19:43
(ApplauseApplaudissements)
402
1171388
802
Translated by Erwan Baconnier
Reviewed by Hong Khanh LE

▲Back to top

ABOUT THE SPEAKER
Jeremy Howard - Data scientist
Jeremy Howard imagines how advanced machine learning can improve our lives.

Why you should listen

Jeremy Howard is the CEO of Enlitic, an advanced machine learning company in San Francisco. Previously, he was the president and chief scientist at Kaggle, a community and competition platform of over 200,000 data scientists. Howard is a faculty member at Singularity University, where he teaches data science. He is also a Young Global Leader with the World Economic Forum, and spoke at the World Economic Forum Annual Meeting 2014 on "Jobs for the Machines."

Howard advised Khosla Ventures as their Data Strategist, identifying opportunities for investing in data-driven startups and mentoring portfolio companies to build data-driven businesses. He was the founding CEO of two successful Australian startups, FastMail and Optimal Decisions Group.

More profile about the speaker
Jeremy Howard | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee