ABOUT THE SPEAKER
Jeremy Howard - Data scientist
Jeremy Howard imagines how advanced machine learning can improve our lives.

Why you should listen

Jeremy Howard is the CEO of Enlitic, an advanced machine learning company in San Francisco. Previously, he was the president and chief scientist at Kaggle, a community and competition platform of over 200,000 data scientists. Howard is a faculty member at Singularity University, where he teaches data science. He is also a Young Global Leader with the World Economic Forum, and spoke at the World Economic Forum Annual Meeting 2014 on "Jobs for the Machines."

Howard advised Khosla Ventures as their Data Strategist, identifying opportunities for investing in data-driven startups and mentoring portfolio companies to build data-driven businesses. He was the founding CEO of two successful Australian startups, FastMail and Optimal Decisions Group.

More profile about the speaker
Jeremy Howard | Speaker | TED.com
TEDxBrussels

Jeremy Howard: The wonderful and terrifying implications of computers that can learn

Jeremy Howard: Cudowne i przerażające implikacje tego, że komputer potrafi się uczyć

Filmed:
2,532,971 views

Co się stanie, kiedy komputery opanują umiejętność uczenia się? Technolog Jeremy Howard przedstawia kilka zaskakujących wyników z szybko ewoluującej dziedziny uczenia głębokiego, techniki, która umożliwia komputerom nauczenie się języka chińskiego, rozpoznawanie obiektów na fotografiach lub pomoc w analizie diagnozy medycznej. (Jedno z narzędzi wykorzystujących uczenie głębokie, obejrzawszy wiele godzin filmów na YouTube, nauczyło się koncepcji "kota"). Zapoznaj się z dziedziną, która zmieni sposób, w jaki działają komputery ... szybciej niż to sobie wyobrażasz.
- Data scientist
Jeremy Howard imagines how advanced machine learning can improve our lives. Full bio

Double-click the English transcript below to play the video.

00:12
It used to be that if you wanted
to get a computerkomputer to do something newNowy,
0
880
4013
Kiedyś było tak,
że aby komputer coś zrobił,
trzeba go było zaprogramować.
00:16
you would have to programprogram it.
1
4893
1554
00:18
Now, programmingprogramowanie, for those of you here
that haven'tnie mam doneGotowe it yourselfsiebie,
2
6447
3411
Dla tych, którzy tego nie robili:
programowanie wymaga
drobiazgowego zdefiniowania
00:21
requireswymaga layingUkładanie out in excruciatingrozdzierający detailSzczegół
3
9858
3502
00:25
everykażdy singlepojedynczy stepkrok that you want
the computerkomputer to do
4
13360
3367
każdego kroku, który komputer ma wykonać,
00:28
in orderzamówienie to achieveosiągać your goalcel.
5
16727
2362
by osiągnąć cel.
Jeżeli chcemy,
by komputer wykonał czynność,
00:31
Now, if you want to do something
that you don't know how to do yourselfsiebie,
6
19089
3496
której sami nie potrafimy wykonać,
00:34
then this is going
to be a great challengewyzwanie.
7
22585
2063
stajemy przed dużym wyzwaniem.
00:36
So this was the challengewyzwanie facedw obliczu
by this man, ArthurArthur SamuelSamuel.
8
24648
3483
Stanął przed nim Artur Samuel.
00:40
In 1956, he wanted to get this computerkomputer
9
28131
4077
W 1956 roku stwierdził, że chciałby,
aby komputer wygrał z nim w warcaby.
00:44
to be ablezdolny to beatbić him at checkersWarcaby.
10
32208
2340
00:46
How can you writepisać a programprogram,
11
34548
2040
Jak napisać program,
drobiazgowo wyrazić,
jak być lepszym w warcaby
00:48
laykłaść out in excruciatingrozdzierający detailSzczegół,
how to be better than you at checkersWarcaby?
12
36588
3806
niż jest się samemu?
Artur wpadł na następujący pomysł:
00:52
So he cameoprawa ołowiana witrażu up with an ideapomysł:
13
40394
1722
00:54
he had the computerkomputer playgrać
againstprzeciwko itselfsamo thousandstysiące of timesczasy
14
42116
3724
kazał komputerowi
grać z samym sobą tysiące razy
00:57
and learnuczyć się how to playgrać checkersWarcaby.
15
45840
2524
i w ten sposób nauczyć się gry.
01:00
And indeedw rzeczy samej it workedpracował,
and in factfakt, by 1962,
16
48364
3180
Rzeczywiście się udało.
W 1962 roku komputer pokonał
mistrza stanu Connecticut.
01:03
this computerkomputer had beatenbity
the ConnecticutConnecticut statestan championmistrz.
17
51544
4017
01:07
So ArthurArthur SamuelSamuel was
the fatherojciec of machinemaszyna learninguczenie się,
18
55561
2973
Artur Samuel był ojcem
uczenia maszynowego.
01:10
and I have a great debtdług to him,
19
58534
1717
Mam wobec niego duży dług,
01:12
because I am a machinemaszyna
learninguczenie się practitionerpraktykujący.
20
60251
2763
bo sam zajmuję się
uczeniem maszynowym.
Byłem przewodniczącym Kaggle,
01:15
I was the presidentprezydent of KaggleKaggle,
21
63014
1465
społeczności zrzeszającej
200 tys. specjalistów
01:16
a communityspołeczność of over 200,000
machinemaszyna learninguczenie się practictionerspractictioners.
22
64479
3388
od programowania maszynowego.
01:19
KaggleKaggle putsstawia up competitionszawody
23
67867
2058
Kaggle organizuje konkursy,
01:21
to try and get them to solverozwiązać
previouslypoprzednio unsolvednierozwiązane problemsproblemy,
24
69925
3708
podczas których członkowie próbują
rozwiązać dotąd nierozwiązane problemy.
01:25
and it's been successfuludany
hundredssetki of timesczasy.
25
73633
3837
Udało się to już setki razy.
01:29
So from this vantageVantage pointpunkt,
I was ablezdolny to find out
26
77470
2470
Z tej perspektywy wiele się dowiedziałem
01:31
a lot about what machinemaszyna learninguczenie się
can do in the pastprzeszłość, can do todaydzisiaj,
27
79940
3950
o dawnych i obecnych
możliwościach uczenia maszynowego,
01:35
and what it could do in the futureprzyszłość.
28
83890
2362
i co będzie możliwe w przyszłości.
01:38
PerhapsByć może the first bigduży successpowodzenie of
machinemaszyna learninguczenie się commerciallykomercyjnie was GoogleGoogle.
29
86252
4423
Chyba pierwszym dużym sukcesem
w komercyjnym zastosowaniu
uczenia maszynowego
był Google, który udowodnił,
że da się szukać informacji
01:42
GoogleGoogle showedpokazał that it is
possiblemożliwy to find informationInformacja
30
90675
3109
01:45
by usingza pomocą a computerkomputer algorithmalgorytm,
31
93784
1752
przy pomocy algorytmu komputerowego,
01:47
and this algorithmalgorytm is basedna podstawie
on machinemaszyna learninguczenie się.
32
95536
2901
opartego o uczenie maszynowe.
Odtąd było wiele udanych
komercyjnych zastosowań.
01:50
SinceOd that time, there have been manywiele
commercialReklama w telewizji successessukcesy of machinemaszyna learninguczenie się.
33
98437
3886
Firmy takie jak Amazon czy Netflix
01:54
CompaniesFirm like AmazonAmazon and NetflixNetflix
34
102323
1837
używają uczenia maszynowego
do proponowania produktów
01:56
use machinemaszyna learninguczenie się to suggestsugerować
productsprodukty that you mightmoc like to buykupować,
35
104160
3716
lub filmów, które nas zaciekawią.
01:59
movieskino that you mightmoc like to watch.
36
107876
2020
Czasem przyprawia to o gęsią skórkę.
02:01
SometimesCzasami, it's almostprawie creepyCreepy.
37
109896
1807
02:03
CompaniesFirm like LinkedInLinkedIn and FacebookFacebook
38
111703
1954
Firmy jak LinkedIn czy Facebook
mówią nam czasem, kogo znamy,
02:05
sometimesczasami will tell you about
who your friendsprzyjaciele mightmoc be
39
113657
2594
i nie mamy pojęcia, jak to robią.
02:08
and you have no ideapomysł how it did it,
40
116251
1977
Wykorzystują moc uczenia maszynowego.
02:10
and this is because it's usingza pomocą
the powermoc of machinemaszyna learninguczenie się.
41
118228
2967
02:13
These are algorithmsalgorytmy that have
learnednauczyli how to do this from datadane
42
121195
2957
To algorytmy, które uczą się z danych,
02:16
ratherraczej than beingistota programmedzaprogramowany by handdłoń.
43
124152
3247
nie zaś przez ręczne programowanie.
02:19
This is alsorównież how IBMIBM was successfuludany
44
127399
2478
To również dlatego
komputer Watson firmy IBM
02:21
in gettinguzyskiwanie WatsonWatson to beatbić
the two worldświat championsMistrzów at "JeopardyZagrożona,"
45
129877
3862
potrafił pokonać dwóch
mistrzów świata w grze "Va Banque",
02:25
answeringodpowiadając incrediblyniewiarygodnie subtlesubtelny
and complexzłożony questionspytania like this one.
46
133739
3225
odpowiadając na niezwykle subtelne
i skomplikowane pytania takie jak to:
02:28
["The ancientstarożytny 'Lion"Lion of Nimrud'Nimrud' wentposzedł missingbrakujący
from this city'smiasto nationalkrajowy museummuzeum in 2003
(alongwzdłuż with a lot of other stuffrzeczy)"]
47
136964
2835
Antyczny "Lew z Kalchu" zginął z muzeum
w tym mieście w 2003 roku.
02:31
This is alsorównież why we are now ablezdolny
to see the first self-drivingSelf-jazdy carssamochody.
48
139799
3235
Także dlatego mamy pierwsze
samokierujące samochody.
02:35
If you want to be ablezdolny to tell
the differenceróżnica betweenpomiędzy, say,
49
143034
2822
Możliwość odróżnienia, powiedzmy,
drzewa i przechodnia,
02:37
a treedrzewo and a pedestrianpieszy,
well, that's prettyładny importantważny.
50
145856
2632
jest dosyć istotna.
02:40
We don't know how to writepisać
those programsprogramy by handdłoń,
51
148488
2587
Nie wiemy, jak zaprogramować to ręcznie,
02:43
but with machinemaszyna learninguczenie się,
this is now possiblemożliwy.
52
151075
2997
ale potrafimy to zrobić
przez uczenie maszynowe.
02:46
And in factfakt, this carsamochód has drivennapędzany
over a millionmilion milesmile
53
154072
2608
Ten samochód przejechał już
ponad 2 mln kilometrów
02:48
withoutbez any accidentsWypadki on regularregularny roadsdrogi.
54
156680
3506
po zwykłych drogach, bez wypadków.
02:52
So we now know that computerskomputery can learnuczyć się,
55
160196
3914
Czyli komputery potrafią się uczyć
02:56
and computerskomputery can learnuczyć się to do things
56
164110
1900
i potrafią uczyć się rzeczy,
02:58
that we actuallytak właściwie sometimesczasami
don't know how to do ourselvesmy sami,
57
166010
2838
których czasem sami nie potrafimy robić,
03:00
or maybe can do them better than us.
58
168848
2885
lub potrafią je robić lepiej niż my.
03:03
One of the mostwiększość amazingniesamowity examplesprzykłady
I've seenwidziany of machinemaszyna learninguczenie się
59
171733
4195
Jeden z niezwykłych przykładów
uczenia maszynowego
zdarzył się w projekcie,
który prowadziłem w Kaggle.
03:07
happenedstało się on a projectprojekt that I ranpobiegł at KaggleKaggle
60
175928
2392
03:10
where a teamzespół runbiegać by a guy
callednazywa GeoffreyGeoffrey HintonHinton
61
178320
3591
Zespół, którym kierował Geoffrey Hinton
03:13
from the UniversityUniwersytet of TorontoToronto
62
181911
1552
z Uniwersytetu w Toronto,
03:15
wonwygrał a competitionzawody for
automaticAutomatyczne drugnarkotyk discoveryodkrycie.
63
183463
2677
wygrał konkurs na automatyczne
odkrywanie leków.
03:18
Now, what was extraordinaryniezwykły here
is not just that they beatbić
64
186140
2847
Co niezwykłe,
nie tylko przebili wszystkie algorytmy
03:20
all of the algorithmsalgorytmy developedrozwinięty by MerckMerck
or the internationalmiędzynarodowy academicakademicki communityspołeczność,
65
188987
4013
firmy Merck i międzynarodowej
społeczności akademickiej,
03:25
but nobodynikt on the teamzespół had any backgroundtło
in chemistrychemia or biologybiologia or life sciencesnauki,
66
193000
5061
ale też nikt w zespole nie miał
żadnej wiedzy z chemii, biologii
czy nauki o organizmach żywych,
a zrobili to w dwa tygodnie.
03:30
and they did it in two weekstygodnie.
67
198061
2169
03:32
How did they do this?
68
200230
1381
Jak im się to udało?
Użyli niezwykłego algorytmu,
zwanego uczeniem głębokim.
03:34
They used an extraordinaryniezwykły algorithmalgorytm
callednazywa deepgłęboki learninguczenie się.
69
202421
2921
03:37
So importantważny was this that in factfakt
the successpowodzenie was coveredpokryty
70
205342
2949
To wydarzenie było tak ważne,
że kilka tygodni później
New York Times pisał o nim
na stronie głównej.
03:40
in The NewNowy YorkYork TimesRazy in a frontz przodu pagestrona
articleartykuł a fewkilka weekstygodnie laterpóźniej.
71
208291
3121
03:43
This is GeoffreyGeoffrey HintonHinton
here on the left-handlewa ręka sidebok.
72
211412
2735
Po lewej stronie widoczny
jest Geoffrey Hinton.
03:46
DeepGłębokie learninguczenie się is an algorithmalgorytm
inspirednatchniony by how the humanczłowiek brainmózg worksPrace,
73
214147
4341
Uczenie głębokie to algorytm zainspirowany
sposobem działania ludzkiego mózgu,
03:50
and as a resultwynik it's an algorithmalgorytm
74
218488
1812
przez co nie ma żadnych
teoretycznych ograniczeń.
03:52
whichktóry has no theoreticalteoretyczny limitationsograniczenia
on what it can do.
75
220300
3841
Im więcej dostaje danych,
im więcej czasu obliczeniowego,
03:56
The more datadane you give it and the more
computationobliczenie time you give it,
76
224141
2823
tym staje się lepszy.
03:58
the better it getsdostaje.
77
226964
1312
04:00
The NewNowy YorkYork TimesRazy alsorównież
showedpokazał in this articleartykuł
78
228276
2339
New York Times przedstawił też w artykule
04:02
anotherinne extraordinaryniezwykły
resultwynik of deepgłęboki learninguczenie się
79
230615
2242
inne niezwykłe osiągniecie
uczenia głębokiego,
04:04
whichktóry I'm going to showpokazać you now.
80
232857
2712
które teraz zaprezentuję.
04:07
It showsprzedstawia that computerskomputery
can listen and understandzrozumieć.
81
235569
4941
Udowadnia ono, że komputery
potrafią słuchać i rozumieć.
04:12
(VideoWideo) RichardRichard RashidRashid: Now, the last stepkrok
82
240510
2711
(Wideo) Richard Rashid: Ostatni krok,
04:15
that I want to be ablezdolny
to take in this processproces
83
243221
3025
który chciałbym wykonać w tym procesie,
04:18
is to actuallytak właściwie speakmówić to you in ChineseChiński.
84
246246
4715
to przemówić do was po chińsku.
04:22
Now the keyklawisz thing there is,
85
250961
2635
Chodzi o to, że udało nam się
04:25
we'vemamy been ablezdolny to take a largeduży amountilość
of informationInformacja from manywiele ChineseChiński speakersgłośniki
86
253596
5002
wziąć dużą ilość informacji
od osób mówiących po chińsku
04:30
and produceprodukować a text-to-speechtekst na mowę systemsystem
87
258598
2530
i stworzyć system syntezy mowy,
04:33
that takes ChineseChiński texttekst
and convertsKonwertuje it into ChineseChiński languagejęzyk,
88
261128
4673
który konwertuje chiński tekst na mowę.
04:37
and then we'vemamy takenwzięty
an hourgodzina or so of my ownwłasny voicegłos
89
265801
4128
Potem wzięliśmy godzinne
nagranie mojego głosu
04:41
and we'vemamy used that to modulatemodulować
90
269929
1891
i użyliśmy go do zmodulowania
standardowego systemu syntezy mowy,
04:43
the standardstandard text-to-speechtekst na mowę systemsystem
so that it would sounddźwięk like me.
91
271820
4544
żeby brzmiał jak ja.
Efekt nie jest bezbłędny.
04:48
Again, the result'swyniku not perfectidealny.
92
276364
2540
04:50
There are in factfakt quitecałkiem a fewkilka errorsbłędy.
93
278904
2648
W sumie jest nawet sporo błędów.
04:53
(In ChineseChiński)
94
281552
2484
(Po chińsku)
04:56
(ApplauseAplauz)
95
284036
3367
(Oklaski)
05:01
There's much work to be doneGotowe in this areapowierzchnia.
96
289446
3576
Ta dziedzina wymaga jeszcze dużo pracy.
05:05
(In ChineseChiński)
97
293022
3645
(Po chińsku)
05:08
(ApplauseAplauz)
98
296667
3433
(Oklaski)
JH: To był fragment konferencji
na temat uczenia maszynowego w Chinach.
05:13
JeremyJeremy HowardHoward: Well, that was at
a machinemaszyna learninguczenie się conferencekonferencja in ChinaChiny.
99
301345
3399
05:16
It's not oftenczęsto, actuallytak właściwie,
at academicakademicki conferenceskonferencje
100
304744
2370
Na akademickich konferencjach
rzadko słyszy się spontaniczny aplauz.
05:19
that you do hearsłyszeć spontaneousspontaniczny applauseoklaski,
101
307114
1897
05:21
althoughmimo że of coursekurs sometimesczasami
at TEDxTEDx conferenceskonferencje, feel freewolny.
102
309011
3676
Na konferencjach TEDx
zdarza się to częściej,
więc proszę się nie krępować.
Wszystko, co tu widzieliście,
osiągnięto przez uczenie głębokie.
05:24
Everything you saw there
was happeningwydarzenie with deepgłęboki learninguczenie się.
103
312687
2795
05:27
(ApplauseAplauz) Thank you.
104
315482
1525
(Oklaski) Dziękuję.
05:29
The transcriptionTranskrypcja in EnglishAngielski
was deepgłęboki learninguczenie się.
105
317007
2282
Transkrypcja na angielski
to uczenie głębokie.
05:31
The translationtłumaczenie to ChineseChiński and the texttekst
in the topTop right, deepgłęboki learninguczenie się,
106
319289
3412
Tłumaczenie na chiński i tekst
w prawym górnym rogu - uczenie głębokie,
05:34
and the constructionbudowa of the voicegłos
was deepgłęboki learninguczenie się as well.
107
322701
3307
synteza mowy to również uczenie głębokie.
05:38
So deepgłęboki learninguczenie się is
this extraordinaryniezwykły thing.
108
326008
3234
Uczenie głębokie jest niezwykłe.
05:41
It's a singlepojedynczy algorithmalgorytm that
can seemwydać się to do almostprawie anything,
109
329242
3099
To pojedynczy algorytm,
który jakby umie wszystko.
05:44
and I discoveredodkryty that a yearrok earlierwcześniej,
it had alsorównież learnednauczyli to see.
110
332341
3111
Odkryłem, że rok wcześniej
nauczył się również widzieć.
05:47
In this obscurezasłaniać competitionzawody from GermanyNiemcy
111
335452
2176
W mało znanym konkursie w Niemczech
na rozpoznawanie znaków drogowych
05:49
callednazywa the GermanNiemiecki TrafficRuchu SignZnak
RecognitionUznanie BenchmarkBenchmark,
112
337628
2597
05:52
deepgłęboki learninguczenie się had learnednauczyli
to recognizerozpoznać trafficruch drogowy signsznaki like this one.
113
340225
3393
uczenie głębokie nauczyło się
rozpoznawać takie znaki drogowe.
05:55
Not only could it
recognizerozpoznać the trafficruch drogowy signsznaki
114
343618
2094
Nie tylko rozpoznawało znaki
lepiej niż inne algorytmy,
05:57
better than any other algorithmalgorytm,
115
345712
1758
ale nawet lepiej niż ludzie,
05:59
the leaderboardliderów actuallytak właściwie showedpokazał
it was better than people,
116
347470
2719
mniej więcej dwa razy lepiej.
06:02
about twicedwa razy as good as people.
117
350189
1852
Czyli w 2011 r. mieliśmy pierwszy przykład
06:04
So by 2011, we had the first exampleprzykład
118
352041
1996
06:06
of computerskomputery that can see
better than people.
119
354037
3405
komputerów widzących lepiej niż ludzie.
06:09
SinceOd that time, a lot has happenedstało się.
120
357442
2049
Od tego czasu bardzo dużo się wydarzyło.
06:11
In 2012, GoogleGoogle announcedogłosił that
they had a deepgłęboki learninguczenie się algorithmalgorytm
121
359491
3514
W 2012 r. Google ogłosił,
że ich algorytm uczenia głębokiego
06:15
watch YouTubeYouTube videosfilmy wideo
122
363005
1415
oglądał filmy na YouTube
06:16
and crunchednawał the datadane
on 16,000 computerskomputery for a monthmiesiąc,
123
364420
3437
i przez miesiąc przetwarzał dane
na 16 tysiącach serwerów,
06:19
and the computerkomputer independentlyniezależnie learnednauczyli
about conceptskoncepcje suchtaki as people and catskoty
124
367857
4361
po czym samodzielnie nauczył się pojęć
takich jak ludzie czy koty,
tylko przez oglądanie filmów.
06:24
just by watchingoglądanie the videosfilmy wideo.
125
372218
1809
W bardzo podobny sposób uczą się ludzie.
06:26
This is much like the way
that humansludzie learnuczyć się.
126
374027
2352
06:28
HumansLudzie don't learnuczyć się
by beingistota told what they see,
127
376379
2740
Nie trzeba im mówić, na co patrzą,
06:31
but by learninguczenie się for themselvessami
what these things are.
128
379119
3331
tylko sami się uczą się,
czym są widziane obiekty.
06:34
AlsoRównież in 2012, GeoffreyGeoffrey HintonHinton,
who we saw earlierwcześniej,
129
382450
3369
W 2012 roku Geoffrey Hinton,
którego widzieliśmy wcześniej,
06:37
wonwygrał the very popularpopularny ImageNetImageNet competitionzawody,
130
385819
2858
wygrał bardzo popularny konkurs ImageNet,
06:40
looking to try to figurepostać out
from one and a halfpół millionmilion imagesobrazy
131
388677
4141
gdzie dla 1,5 miliona obrazków
trzeba określić,
06:44
what they're pictureskino of.
132
392818
1438
co się na nich znajduje.
06:46
As of 2014, we're now down
to a sixsześć percentprocent errorbłąd rateoceniać
133
394256
3533
Do 2014 r. proporcja błędów spadła do 6%.
06:49
in imageobraz recognitionuznanie.
134
397789
1453
To znowu lepiej, niż ludzie.
06:51
This is better than people, again.
135
399242
2026
06:53
So machinesmaszyny really are doing
an extraordinarilyniezwykle good jobpraca of this,
136
401268
3769
Maszyny są tu niesamowicie skuteczne
06:57
and it is now beingistota used in industryprzemysł.
137
405037
2269
i wykorzystuje się to już komercyjnie.
06:59
For exampleprzykład, GoogleGoogle announcedogłosił last yearrok
138
407306
3042
Na przykład Google ogłosił w zeszłym roku,
07:02
that they had mappedmapowane everykażdy singlepojedynczy
locationLokalizacja in FranceFrancja in two hoursgodziny,
139
410348
4585
że znaleźli na mapie wszystkie adresy
we Francji w dwie godziny
07:06
and the way they did it was
that they fedkarmiony streetulica viewwidok imagesobrazy
140
414933
3447
przez dostarczenie zdjęć Street View
07:10
into a deepgłęboki learninguczenie się algorithmalgorytm
to recognizerozpoznać and readczytać streetulica numbersliczby.
141
418380
4319
algorytmowi uczenia głębokiego,
który rozpoznał i odczytał numery domów.
07:14
ImagineWyobraź sobie how long
it would have takenwzięty before:
142
422699
2220
Wyobraźcie sobie,
ile czasu zajęłoby to kiedyś:
07:16
dozensdziesiątki of people, manywiele yearslat.
143
424919
3355
dziesiątki ludzi, wiele lat.
07:20
This is alsorównież happeningwydarzenie in ChinaChiny.
144
428274
1911
To samo dzieje się w Chinach.
07:22
BaiduBaidu is kinduprzejmy of
the ChineseChiński GoogleGoogle, I guessodgadnąć,
145
430185
4036
Baidu jest czymś w rodzaju
chińskiego Google.
07:26
and what you see here in the topTop left
146
434221
2283
W lewym górnym rogu
widać przykładowe zdjęcie,
07:28
is an exampleprzykład of a pictureobrazek that I uploadedprzesłane
to Baidu'sBaidu w deepgłęboki learninguczenie się systemsystem,
147
436504
3974
które wczytałem do systemu
uczenia głębokiego Baidu,
07:32
and underneathpod spodem you can see that the systemsystem
has understoodzrozumiany what that pictureobrazek is
148
440478
3769
poniżej widać, że system zrozumiał,
co jest na zdjęciu
07:36
and founduznany similarpodobny imagesobrazy.
149
444247
2236
i znalazł podobne zdjęcia.
07:38
The similarpodobny imagesobrazy actuallytak właściwie
have similarpodobny backgroundstła,
150
446483
2736
Te zdjęcia mają podobne tło,
07:41
similarpodobny directionswskazówki of the facestwarze,
151
449219
1658
podobny kierunek pysków,
07:42
even some with theirich tonguejęzyk out.
152
450877
1788
niektórym nawet wystają języki.
07:44
This is not clearlywyraźnie looking
at the texttekst of a websieć pagestrona.
153
452665
3030
Ten algorytm na pewno nie patrzy
na tekst na stronie,
07:47
All I uploadedprzesłane was an imageobraz.
154
455695
1412
wgrałem tylko zdjęcie.
07:49
So we now have computerskomputery whichktóry
really understandzrozumieć what they see
155
457107
4021
Czyli dzisiejsze komputery
naprawdę rozumieją, co widzą,
07:53
and can thereforew związku z tym searchszukanie databasesbaz danych
156
461128
1624
i na żywo umieją przeszukiwać bazy danych
07:54
of hundredssetki of millionsmiliony
of imagesobrazy in realreal time.
157
462752
3554
setek milionów zdjęć.
07:58
So what does it mean
now that computerskomputery can see?
158
466306
3230
Co to właściwie znaczy,
że komputery mogą widzieć?
Nie chodzi o samo widzenie.
08:01
Well, it's not just
that computerskomputery can see.
159
469536
2017
08:03
In factfakt, deepgłęboki learninguczenie się
has doneGotowe more than that.
160
471553
2069
Uczenie głębokie dało znacznie więcej.
08:05
ComplexKompleks, nuanceddopracowany sentenceszdań like this one
161
473622
2948
Złożone i pełne niuansów zdania, jak to,
08:08
are now understandablezrozumiale
with deepgłęboki learninguczenie się algorithmsalgorytmy.
162
476570
2824
są już zrozumiałe
dla algorytmów uczenia głębokiego.
08:11
As you can see here,
163
479394
1303
Jak widać tutaj,
08:12
this Stanford-basedOparte na Stanford systemsystem
showingseans the redczerwony dotkropka at the topTop
164
480697
2768
system z Uniwersytetu Stanforda
zaznaczył czerwoną kropką na górze,
08:15
has figuredwzorzysty out that this sentencezdanie
is expressingwyrażający negativenegatywny sentimentsentyment.
165
483465
3919
że to zdanie wyraża negację.
08:19
DeepGłębokie learninguczenie się now in factfakt
is nearBlisko humanczłowiek performancewydajność
166
487384
3406
Efektywność uczenia głębokiego
jest zbliżona do ludzkiej
08:22
at understandingzrozumienie what sentenceszdań are about
and what it is sayingpowiedzenie about those things.
167
490802
5121
w rozumieniu sensu zdania i analizie.
08:27
AlsoRównież, deepgłęboki learninguczenie się has
been used to readczytać ChineseChiński,
168
495923
2728
Uczenie głębokie zastosowano
do czytania chińskiego
08:30
again at about nativeojczysty
ChineseChiński speakergłośnik levelpoziom.
169
498651
3156
na poziomie zbliżonym
do rodzimych użytkowników.
08:33
This algorithmalgorytm developedrozwinięty
out of SwitzerlandSzwajcaria
170
501807
2168
Ten algorytm opracował szwajcarski zespół,
08:35
by people, noneŻaden of whomkogo speakmówić
or understandzrozumieć any ChineseChiński.
171
503975
3356
którego członkowie nie znają chińskiego.
08:39
As I say, usingza pomocą deepgłęboki learninguczenie się
172
507331
2051
Jak wspomniałem, uczenie głębokie
08:41
is about the bestNajlepiej systemsystem
in the worldświat for this,
173
509382
2219
jest w tym najlepsze,
08:43
even comparedporównywane to nativeojczysty
humanczłowiek understandingzrozumienie.
174
511601
5117
nawet w porównaniu z rozumieniem
przez rodzimych użytkowników języka.
08:48
This is a systemsystem that we
put togetherRazem at my companyfirma
175
516718
2964
Ten system zbudowaliśmy w mojej firmie.
Pokazuje, jak można to wszystko
połączyć w całość.
08:51
whichktóry showsprzedstawia puttingwprowadzenie
all this stuffrzeczy togetherRazem.
176
519682
2046
08:53
These are pictureskino whichktóry
have no texttekst attachedprzywiązany,
177
521728
2461
To są zdjęcia bez żadnego opisu
08:56
and as I'm typingpisanie na maszynie in here sentenceszdań,
178
524189
2352
i w trakcie wpisywania zdań
08:58
in realreal time it's understandingzrozumienie
these pictureskino
179
526541
2969
system na żywo rozpoznaje zdjęcia,
09:01
and figuringzastanawianie się out what they're about
180
529510
1679
ustala, co na nich jest,
09:03
and findingodkrycie pictureskino that are similarpodobny
to the texttekst that I'm writingpisanie.
181
531189
3163
i znajduje zdjęcia podobne do opisu.
09:06
So you can see, it's actuallytak właściwie
understandingzrozumienie my sentenceszdań
182
534352
2756
Rzeczywiście rozumie, o czym piszę,
09:09
and actuallytak właściwie understandingzrozumienie these pictureskino.
183
537108
2224
i rozumie, co jest na zdjęciach.
09:11
I know that you've seenwidziany
something like this on GoogleGoogle,
184
539332
2559
Pewnie znacie to z Google'a,
który znajduje zdjęcia
według wpisywanych słów,
09:13
where you can typerodzaj in things
and it will showpokazać you pictureskino,
185
541891
2775
09:16
but actuallytak właściwie what it's doing is it's
searchingbadawczy the webpagestrony sieci Web for the texttekst.
186
544666
3424
choć w rzeczywistości wyszukuje
strony internetowe w oparciu o tekst.
09:20
This is very differentróżne from actuallytak właściwie
understandingzrozumienie the imagesobrazy.
187
548090
3001
To co innego niż rozumienie samych zdjęć.
09:23
This is something that computerskomputery
have only been ablezdolny to do
188
551091
2752
Komputery potrafią to robić
dopiero od kilku miesięcy.
09:25
for the first time in the last fewkilka monthsmiesiące.
189
553843
3248
09:29
So we can see now that computerskomputery
can not only see but they can alsorównież readczytać,
190
557091
4091
Czyli komputery potrafią
nie tylko widzieć, ale też czytać,
09:33
and, of coursekurs, we'vemamy shownpokazane that they
can understandzrozumieć what they hearsłyszeć.
191
561182
3765
i potrafią też rozumieć, co słyszą.
09:36
PerhapsByć może not surprisingzaskakujący now that
I'm going to tell you they can writepisać.
192
564947
3442
Pewnie was nie zaskoczy,
że potrafią też pisać.
Ten tekst wygenerowałem wczoraj
przy pomocy uczenia głębokiego.
09:40
Here is some texttekst that I generatedwygenerowany
usingza pomocą a deepgłęboki learninguczenie się algorithmalgorytm yesterdaywczoraj.
193
568389
4783
"Miło mi być tu z wami w Brukseli!"
09:45
And here is some texttekst that an algorithmalgorytm
out of StanfordStanford generatedwygenerowany.
194
573172
3924
Tę próbkę tekstu
wygenerował algorytm ze Stanford.
Uczenie głębokie wygenerowało te zdania,
09:49
EachKażdy of these sentenceszdań was generatedwygenerowany
195
577096
1764
09:50
by a deepgłęboki learninguczenie się algorithmalgorytm
to describeopisać eachkażdy of those pictureskino.
196
578860
4249
aby opisać każde z tych zdjęć.
Ten algorytm nigdy przedtem nie widział
09:55
This algorithmalgorytm before has never seenwidziany
a man in a blackczarny shirtkoszula playinggra a guitargitara.
197
583109
4472
mężczyzny w czarnej koszulce,
grającego na gitarze.
09:59
It's seenwidziany a man before,
it's seenwidziany blackczarny before,
198
587581
2220
Widział mężczyznę,
widział czerń lub gitarę,
10:01
it's seenwidziany a guitargitara before,
199
589801
1599
10:03
but it has independentlyniezależnie generatedwygenerowany
this novelpowieść descriptionopis of this pictureobrazek.
200
591400
4294
ale sam stworzył oryginalny opis zdjęcia.
10:07
We're still not quitecałkiem at humanczłowiek
performancewydajność here, but we're closeblisko.
201
595694
3502
Nadal nie dorównuje ludziom,
ale mało mu brakuje.
10:11
In teststesty, humansludzie preferwoleć
the computer-generatedwygenerowane komputerowo captionpodpis
202
599196
4068
W testach ludzie preferują opisy
generowane przez komputer
10:15
one out of fourcztery timesczasy.
203
603264
1527
w co czwartym przypadku.
10:16
Now this systemsystem is now only two weekstygodnie oldstary,
204
604791
2064
Ten system powstał dwa tygodnie temu,
więc w tym tempie
10:18
so probablyprawdopodobnie withinw ciągu the nextNastępny yearrok,
205
606855
1846
10:20
the computerkomputer algorithmalgorytm will be
well pastprzeszłość humanczłowiek performancewydajność
206
608701
2801
algorytm komputerowy
prześcignie człowieka,
10:23
at the rateoceniać things are going.
207
611502
1862
pewnie w ciągu kolejnego roku.
10:25
So computerskomputery can alsorównież writepisać.
208
613364
3049
Czyli komputery potrafią też pisać.
10:28
So we put all this togetherRazem and it leadswskazówki
to very excitingekscytujący opportunitiesmożliwości.
209
616413
3475
Połączyliśmy to wszystko,
co daje ekscytujące możliwości.
10:31
For exampleprzykład, in medicinelekarstwo,
210
619888
1492
Na przykład w medycynie:
10:33
a teamzespół in BostonBoston announcedogłosił
that they had discoveredodkryty
211
621380
2525
zespół z Bostonu ogłosił odkrycie
10:35
dozensdziesiątki of newNowy clinicallyklinicznie relevantistotnych featurescechy
212
623905
2949
dziesiątek nowych,
istotnych klinicznie cech nowotworów,
10:38
of tumorsguzy whichktóry help doctorslekarze
make a prognosisRokowanie of a cancernowotwór.
213
626854
4266
co pomoże lekarzom
w prognozowaniu postępów raka.
10:44
Very similarlypodobnie, in StanfordStanford,
214
632220
2296
Grupa badaczy ze Stanford ogłosiła,
10:46
a groupGrupa there announcedogłosił that,
looking at tissuestkanki underpod magnificationpowiększenie,
215
634516
3663
że badając tkanki w powiększeniu,
10:50
they'veoni developedrozwinięty
a machinemaszyna learning-basedoparte na uczeniu systemsystem
216
638179
2381
opracowali system
wykorzystujący uczenie maszynowe,
10:52
whichktóry in factfakt is better
than humanczłowiek pathologistspatolodzy
217
640560
2582
który lepiej niż patolodzy przewiduje
10:55
at predictingprzewidywanie survivalprzetrwanie ratesstawki
for cancernowotwór sufferersosób cierpiących na.
218
643142
4377
przeżywalność chorych na raka.
Prognozy były nie tylko trafniejsze,
10:59
In bothobie of these casesprzypadki, not only
were the predictionsprognozy more accuratedokładny,
219
647519
3245
ale dostarczyły nowej, wnikliwej wiedzy.
11:02
but they generatedwygenerowany newNowy insightfulwnikliwe sciencenauka.
220
650764
2502
11:05
In the radiologyradiologii casewalizka,
221
653276
1505
W przypadku radiologii
11:06
they were newNowy clinicalkliniczny indicatorswskaźniki
that humansludzie can understandzrozumieć.
222
654781
3095
były to nowe wskaźniki kliniczne,
zrozumiałe dla ludzi.
11:09
In this pathologypatologia casewalizka,
223
657876
1792
W przypadku patologii
11:11
the computerkomputer systemsystem actuallytak właściwie discoveredodkryty
that the cellskomórki around the cancernowotwór
224
659668
4500
system komputerowy odkrył,
że komórki otaczające nowotwór
11:16
are as importantważny as
the cancernowotwór cellskomórki themselvessami
225
664168
3340
są tak samo istotne,
jak komórki nowotworowe
11:19
in makingzrobienie a diagnosisDiagnostyka.
226
667508
1752
w postawieniu diagnozy.
11:21
This is the oppositenaprzeciwko of what pathologistspatolodzy
had been taughtnauczony for decadesdziesiątki lat.
227
669260
5361
To całkowicie przeczy
dotychczasowej wiedzy o patologii.
11:26
In eachkażdy of those two casesprzypadki,
they were systemssystemy developedrozwinięty
228
674621
3292
Oba te systemy
opracowali eksperci medyczni
11:29
by a combinationpołączenie of medicalmedyczny expertseksperci
and machinemaszyna learninguczenie się expertseksperci,
229
677913
3621
we współpracy z ekspertami
od uczenia maszynowego.
W zeszłym roku
przekroczyliśmy i ten próg.
11:33
but as of last yearrok,
we're now beyondpoza that too.
230
681534
2741
To jest przykład identyfikacji
zmian nowotworowych
11:36
This is an exampleprzykład of
identifyingidentyfikacji cancerousnowotworowych areasobszary
231
684275
3549
11:39
of humanczłowiek tissuetkanka underpod a microscopemikroskopu.
232
687824
2530
w ludzkiej tkance badanej pod mikroskopem.
11:42
The systemsystem beingistota shownpokazane here
can identifyzidentyfikować those areasobszary more accuratelydokładnie,
233
690354
4613
Prezentowany tu system potrafi
rozpoznawać te zmiany dokładniej
11:46
or about as accuratelydokładnie,
as humanczłowiek pathologistspatolodzy,
234
694967
2775
lub równie dokładnie, co patolog,
11:49
but was builtwybudowany entirelycałkowicie with deepgłęboki learninguczenie się
usingza pomocą no medicalmedyczny expertiseekspertyza
235
697742
3392
ale został zbudowany
przy użyciu uczenia głębokiego
bez żadnej wiedzy medycznej,
11:53
by people who have
no backgroundtło in the fieldpole.
236
701134
2526
przez ludzi nie związanych z medycyną.
Podobnie z segmentacją neuronów.
11:56
SimilarlyPodobnie, here, this neuronneuron segmentationsegmentacja.
237
704730
2555
Możemy segmentować neurony
równie dokładnie, jak ludzie,
11:59
We can now segmentczłon neuronsneurony
about as accuratelydokładnie as humansludzie can,
238
707285
3668
przy użyciu systemu uczenia głębokiego,
12:02
but this systemsystem was developedrozwinięty
with deepgłęboki learninguczenie się
239
710953
2717
opracowanego przez ludzi
bez wiedzy medycznej.
12:05
usingza pomocą people with no previouspoprzedni
backgroundtło in medicinelekarstwo.
240
713670
3251
12:08
So myselfsiebie, as somebodyktoś with
no previouspoprzedni backgroundtło in medicinelekarstwo,
241
716921
3227
Zatem ja, jako osoba
bez żadnej wiedzy medycznej,
mam dostateczne kwalifikacje,
by założyć firmę medyczną,
12:12
I seemwydać się to be entirelycałkowicie well qualifiedkwalifikacje
to startpoczątek a newNowy medicalmedyczny companyfirma,
242
720148
3727
co też zrobiłem.
12:15
whichktóry I did.
243
723875
2146
12:18
I was kinduprzejmy of terrifiedprzerażony of doing it,
244
726021
1740
Byłem tym dosyć przerażony,
12:19
but the theoryteoria seemedwydawało się to suggestsugerować
that it oughtpowinni to be possiblemożliwy
245
727761
2889
ale teoria wskazywała, że w medycynie
można przydać się
samą techniką analizy danych.
12:22
to do very usefulprzydatny medicinelekarstwo
usingza pomocą just these datadane analyticanalityczny techniquestechniki.
246
730650
5492
12:28
And thankfullyna szczęście, the feedbackinformacje zwrotne
has been fantasticfantastyczny,
247
736142
2480
Szczęśliwie, przyjęto nas fantastycznie,
12:30
not just from the mediagłoska bezdźwięczna
but from the medicalmedyczny communityspołeczność,
248
738622
2356
zarówno media, jak i społeczność medyczna,
12:32
who have been very supportivewspierający.
249
740978
2344
która bardzo wspierała ten projekt.
12:35
The theoryteoria is that we can take
the middleśrodkowy partczęść of the medicalmedyczny processproces
250
743322
4149
W teorii możemy przejąć
środkową część procesu medycznego
12:39
and turnskręcać that into datadane analysisanaliza
as much as possiblemożliwy,
251
747471
2893
i zastąpić ją daleko idącą analizą danych,
12:42
leavingodejście doctorslekarze to do
what they're bestNajlepiej at.
252
750364
3065
pozwalając lekarzom zająć się tym,
w czym są najlepsi.
12:45
I want to give you an exampleprzykład.
253
753429
1602
Pokażę państwu przykład.
12:47
It now takes us about 15 minutesminuty
to generateGenerować a newNowy medicalmedyczny diagnosticdiagnostyczny testtest
254
755031
4944
Generacja nowego testu diagnostycznego
zajmuje 15 minut.
12:51
and I'll showpokazać you that in realreal time now,
255
759975
1954
Pokażę to teraz na żywo.
12:53
but I've compressedsprężony it down to
threetrzy minutesminuty by cuttingtnący some piecessztuk out.
256
761929
3487
Skompresowałem to do trzech minut,
omijając pewne czynności.
12:57
RatherRaczej than showingseans you
creatingtworzenie a medicalmedyczny diagnosticdiagnostyczny testtest,
257
765416
3061
Zamiast nowego testu diagnostycznego
w medycynie,
13:00
I'm going to showpokazać you
a diagnosticdiagnostyczny testtest of carsamochód imagesobrazy,
258
768477
3369
pokażę test diagnostyczny samochodów,
13:03
because that's something
we can all understandzrozumieć.
259
771846
2222
bo jest to coś, co wszyscy rozumiemy.
13:06
So here we're startingstartowy with
about 1.5 millionmilion carsamochód imagesobrazy,
260
774068
3201
Na początek mamy 1,5 mln zdjęć samochodów.
13:09
and I want to createStwórz something
that can splitrozdzielać them into the anglekąt
261
777269
3206
Chcę stworzyć coś,
co je pogrupuje według kąta,
13:12
of the photozdjęcie that's beingistota takenwzięty.
262
780475
2223
z jakiego zostały sfotografowane.
13:14
So these imagesobrazy are entirelycałkowicie unlabeledbez etykiety,
so I have to startpoczątek from scratchzadraśnięcie.
263
782698
3888
To zdjęcia bez opisów,
więc trzeba zacząć od zera.
13:18
With our deepgłęboki learninguczenie się algorithmalgorytm,
264
786586
1865
Nasz algorytm uczenia głębokiego
13:20
it can automaticallyautomatycznie identifyzidentyfikować
areasobszary of structureStruktura in these imagesobrazy.
265
788451
3707
potrafi automatycznie rozpoznawać
struktury na zdjęciach.
13:24
So the nicemiły thing is that the humanczłowiek
and the computerkomputer can now work togetherRazem.
266
792158
3620
Człowiek i komputer mogą współpracować.
13:27
So the humanczłowiek, as you can see here,
267
795778
2178
Jak tu widać,
13:29
is tellingwymowny the computerkomputer
about areasobszary of interestzainteresowanie
268
797956
2675
człowiek mówi komputerowi
o obszarach zainteresowań,
13:32
whichktóry it wants the computerkomputer then
to try and use to improveulepszać its algorithmalgorytm.
269
800631
4650
których komputer ma użyć
do ulepszenia swojego algorytmu.
13:37
Now, these deepgłęboki learninguczenie się systemssystemy actuallytak właściwie
are in 16,000-dimensional-wymiarowe spaceprzestrzeń,
270
805281
4296
Ten system uczenia głębokiego
operuje w przestrzeni
o 16 tysiącach wymiarów.
13:41
so you can see here the computerkomputer
rotatingobrotowe this throughprzez that spaceprzestrzeń,
271
809577
3432
Widać, jak komputer obraca obiekty,
13:45
tryingpróbować to find newNowy areasobszary of structureStruktura.
272
813009
1992
próbując znaleźć nowe obszary struktur.
13:47
And when it does so successfullyz powodzeniem,
273
815001
1781
Kiedy mu się to uda,
13:48
the humanczłowiek who is drivingnapędowy it can then
pointpunkt out the areasobszary that are interestingciekawy.
274
816782
4004
operator może wskazać
interesujące obszary.
13:52
So here, the computerkomputer has
successfullyz powodzeniem founduznany areasobszary,
275
820786
2422
W tym przypadku komputer
znalazł pewne obszary,
13:55
for exampleprzykład, angleskąty.
276
823208
2562
na przykład kąt zdjęcia.
13:57
So as we go throughprzez this processproces,
277
825770
1606
Z biegiem tego procesu
13:59
we're graduallystopniowo tellingwymowny
the computerkomputer more and more
278
827376
2340
stopniowo mówimy komputerowi coraz więcej
14:01
about the kindsrodzaje of structuresStruktury
we're looking for.
279
829716
2428
na temat rodzaju szukanych struktur.
Można sobie wyobrazić,
że w przypadku testu diagnostycznego
14:04
You can imaginewyobrażać sobie in a diagnosticdiagnostyczny testtest
280
832144
1772
14:05
this would be a pathologistpatolog identifyingidentyfikacji
areasobszary of pathosispathosis, for exampleprzykład,
281
833916
3350
patolog identyfikowałby
obszary patologiczne,
14:09
or a radiologistradiolog indicatingwskazujące
potentiallypotencjalnie troublesomekłopotliwe nodulesguzki.
282
837266
5026
a radiolog wskazywałby
na potencjalnie uciążliwe guzki.
14:14
And sometimesczasami it can be
difficulttrudny for the algorithmalgorytm.
283
842292
2559
Czasami może być to trudne dla algorytmu.
14:16
In this casewalizka, it got kinduprzejmy of confusedzmieszany.
284
844851
1964
W tym przypadku, algorytm się zgubił.
14:18
The frontsfronty and the backsplecy
of the carssamochody are all mixedmieszany up.
285
846815
2550
Przednie i tylne części samochodów
są wymieszane.
14:21
So here we have to be a bitkawałek more carefulostrożny,
286
849365
2072
Musimy być trochę ostrożniejsi
14:23
manuallyręcznie selectingwybierając these frontsfronty
as opposedprzeciwny to the backsplecy,
287
851437
3232
i ręcznie zaznaczyć przednie części,
14:26
then tellingwymowny the computerkomputer
that this is a typerodzaj of groupGrupa
288
854669
5506
wskazując potem komputerowi,
że o taką grupę chodzi.
14:32
that we're interestedzainteresowany in.
289
860175
1348
14:33
So we do that for a while,
we skippominąć over a little bitkawałek,
290
861523
2677
Robimy to przez jakiś czas,
tu coś pominiemy,
teraz uczymy algorytm uczenia maszynowego
14:36
and then we trainpociąg the
machinemaszyna learninguczenie się algorithmalgorytm
291
864200
2246
14:38
basedna podstawie on these couplepara of hundredsto things,
292
866446
1974
na podstawie tych kilkuset rzeczy
14:40
and we hopenadzieja that it's gottenzdobyć a lot better.
293
868420
2025
mając nadzieję, że się udoskonali.
14:42
You can see, it's now startedRozpoczęty to fadeblaknąć
some of these pictureskino out,
294
870445
3073
Widać, że algorytm
zaczął wygaszać niektóre zdjęcia,
14:45
showingseans us that it alreadyjuż is recognizingrozpoznawanie
how to understandzrozumieć some of these itselfsamo.
295
873518
4708
pokazując w ten sposób,
że potrafi je już rozpoznawać.
14:50
We can then use this conceptpojęcie
of similarpodobny imagesobrazy,
296
878226
2902
Możemy użyć koncepcji podobnych zdjęć
14:53
and usingza pomocą similarpodobny imagesobrazy, you can now see,
297
881128
2094
i teraz widać,
14:55
the computerkomputer at this pointpunkt is ablezdolny to
entirelycałkowicie find just the frontsfronty of carssamochody.
298
883222
4019
że komputer potrafi już
znajdować maski samochodów.
14:59
So at this pointpunkt, the humanczłowiek
can tell the computerkomputer,
299
887241
2948
Teraz człowiek może powiedzieć komputerowi
15:02
okay, yes, you've doneGotowe
a good jobpraca of that.
300
890189
2293
"Tak, świetnie się spisałeś".
15:05
SometimesCzasami, of coursekurs, even at this pointpunkt
301
893652
2185
Czasem, oczywiście, nawet w tym momencie
15:07
it's still difficulttrudny
to separateoddzielny out groupsgrupy.
302
895837
3674
jest jeszcze trudno rozpoznawać grupy.
15:11
In this casewalizka, even after we let the
computerkomputer try to rotateobracać się this for a while,
303
899511
3884
W tym przypadku nawet jeżeli pozwolimy
komputerowi obracać tym przez chwilę,
15:15
we still find that the left sidesboki
and the right sidesboki pictureskino
304
903399
3345
widać, że zdjęcia z prawej i lewej strony
są nadal wymieszane.
15:18
are all mixedmieszany up togetherRazem.
305
906744
1478
Można dać komputerowi kolejne wskazówki
15:20
So we can again give
the computerkomputer some hintswskazówki,
306
908222
2140
i kazać mu znaleźć rzut,
15:22
and we say, okay, try and find
a projectionwystęp that separatesoddziela out
307
910362
2976
który najwyraźniej oddziela
lewe i prawe boki,
15:25
the left sidesboki and the right sidesboki
as much as possiblemożliwy
308
913338
2607
15:27
usingza pomocą this deepgłęboki learninguczenie się algorithmalgorytm.
309
915945
2122
przy pomocy uczenia głębokiego.
15:30
And givingdający it that hintWskazówka --
ahah, okay, it's been successfuludany.
310
918067
2942
Po tej wskazówce - udało się.
15:33
It's managedzarządzane to find a way
of thinkingmyślący about these objectsobiekty
311
921009
2882
Potrafi już myśleć o obiektach w sposób,
15:35
that's separatedrozdzielony out these togetherRazem.
312
923891
2380
który oddziela te grupy.
15:38
So you get the ideapomysł here.
313
926271
2438
Rozumiecie koncepcję.
15:40
This is a casewalizka not where the humanczłowiek
is beingistota replacedzastąpiony by a computerkomputer,
314
928709
8197
Tutaj komputer współpracuje z człowiekiem,
15:48
but where they're workingpracujący togetherRazem.
315
936906
2640
zamiast go zastępować.
15:51
What we're doing here is we're replacingzastępowanie
something that used to take a teamzespół
316
939546
3550
Udało się zastąpić proces,
który kiedyś wymagał zespołu
15:55
of fivepięć or sixsześć people about sevensiedem yearslat
317
943096
2002
pięciu czy sześciu ludzi przez siedem lat
15:57
and replacingzastępowanie it with something
that takes 15 minutesminuty
318
945098
2605
procesem, który zajmuje 15 minut
15:59
for one personosoba actinggra aktorska alonesam.
319
947703
2505
i wymaga jednej osoby.
16:02
So this processproces takes about
fourcztery or fivepięć iterationsiteracji.
320
950208
3950
Ten proces wymaga
czterech czy pięciu iteracji.
16:06
You can see we now have 62 percentprocent
321
954158
1859
Widać, że teraz 62% z 1,5 miliona zdjęć
16:08
of our 1.5 millionmilion imagesobrazy
classifiedsklasyfikowane correctlyprawidłowo.
322
956017
2959
jest zaklasyfikowanych poprawnie.
16:10
And at this pointpunkt, we
can startpoczątek to quitecałkiem quicklyszybko
323
958976
2472
Teraz można szybko wziąć większe sekcje
16:13
grabchwycić wholecały bigduży sectionsSekcje,
324
961448
1297
16:14
checkczek throughprzez them to make sure
that there's no mistakesbłędy.
325
962745
2919
i sprawdzić, czy nie ma błędów.
16:17
Where there are mistakesbłędy, we can
let the computerkomputer know about them.
326
965664
3952
Jeżeli są błędy,
można o nich powiedzieć komputerowi.
16:21
And usingza pomocą this kinduprzejmy of processproces
for eachkażdy of the differentróżne groupsgrupy,
327
969616
3045
Powtarzając tę czynność dla różnych grup,
16:24
we are now up to
an 80 percentprocent successpowodzenie rateoceniać
328
972661
2487
mamy już teraz 80% skuteczności
16:27
in classifyingklasyfikacji the 1.5 millionmilion imagesobrazy.
329
975148
2415
w klasyfikowaniu 1,5 miliona zdjęć.
16:29
And at this pointpunkt, it's just a casewalizka
330
977563
2078
Teraz trzeba już tylko znaleźć tych kilka,
16:31
of findingodkrycie the smallmały numbernumer
that aren'tnie są classifiedsklasyfikowane correctlyprawidłowo,
331
979641
3579
które nie są klasyfikowane poprawnie
16:35
and tryingpróbować to understandzrozumieć why.
332
983220
2888
i zrozumieć przyczynę.
W 15 minut można osiągnąć skuteczność 97%.
16:38
And usingza pomocą that approachpodejście,
333
986108
1743
16:39
by 15 minutesminuty we get
to 97 percentprocent classificationKlasyfikacja ratesstawki.
334
987851
4121
16:43
So this kinduprzejmy of techniquetechnika
could allowdopuszczać us to fixnaprawić a majorpoważny problemproblem,
335
991972
4600
Ta technika pozwoli być może
rozwiązać poważny problem
światowego niedoboru
kompetencji medycznych.
16:48
whichktóry is that there's a lackbrak
of medicalmedyczny expertiseekspertyza in the worldświat.
336
996578
3036
Światowe Forum Ekonomiczne szacuje
10- lub 20-krotny niedobór lekarzy
16:51
The WorldŚwiat EconomicGospodarczej ForumForum saysmówi
that there's betweenpomiędzy a 10x and a 20x
337
999614
3489
w krajach rozwijających się,
16:55
shortageniedobór of physicianslekarze
in the developingrozwijanie worldświat,
338
1003103
2624
a wyszkolenie odpowiedniej liczby ludzi
16:57
and it would take about 300 yearslat
339
1005727
2113
16:59
to trainpociąg enoughdość people
to fixnaprawić that problemproblem.
340
1007840
2894
zajęłoby około 300 lat.
17:02
So imaginewyobrażać sobie if we can help
enhancewzmacniać theirich efficiencywydajność
341
1010734
2885
A gdyby można było
zwiększyć ich efektywność
17:05
usingza pomocą these deepgłęboki learninguczenie się approachesawanse?
342
1013619
2839
przy pomocy metod uczenia głębokiego?
17:08
So I'm very excitedpodekscytowany
about the opportunitiesmożliwości.
343
1016458
2232
Bardzo mnie pociągają takie możliwości.
17:10
I'm alsorównież concernedzaniepokojony about the problemsproblemy.
344
1018690
2589
Niepokoją mnie też problemy.
17:13
The problemproblem here is that
everykażdy areapowierzchnia in blueniebieski on this mapmapa
345
1021279
3124
Otóż każdy niebieski obszar na tej mapie
17:16
is somewheregdzieś where servicesusługi
are over 80 percentprocent of employmentzatrudnienie.
346
1024403
3769
to ponad 80% osób
zatrudnionych w usługach.
Co to są usługi?
17:20
What are servicesusługi?
347
1028172
1787
Oto usługi. [Kierowcy, kucharze,
diagnostycy, prawnicy]
17:21
These are servicesusługi.
348
1029959
1514
17:23
These are alsorównież the exactdokładny things that
computerskomputery have just learnednauczyli how to do.
349
1031473
4154
Tak się składa,
że właśnie to opanowały komputery.
17:27
So 80 percentprocent of the world'srecyrodycyjstwo diecystwo recyrodycyjstwo diecystwo recy sektorcy employmentzatrudnienie
in the developedrozwinięty worldświat
350
1035627
3804
Zatem 80% zatrudnionych
w krajach rozwiniętych
robi rzeczy, których właśnie
nauczyły się komputery.
17:31
is stuffrzeczy that computerskomputery
have just learnednauczyli how to do.
351
1039431
2532
Co to oznacza?
17:33
What does that mean?
352
1041963
1440
Nie szkodzi. Będą inne stanowiska.
17:35
Well, it'llbędzie be fine.
They'llBędą be replacedzastąpiony by other jobsOferty pracy.
353
1043403
2583
Na przykład przybędzie naukowców
od analizy danych.
17:37
For exampleprzykład, there will be
more jobsOferty pracy for datadane scientistsnaukowcy.
354
1045986
2707
Nie do końca.
17:40
Well, not really.
355
1048693
817
Analitykom danych nie trzeba dużo czasu
17:41
It doesn't take datadane scientistsnaukowcy
very long to buildbudować these things.
356
1049510
3118
na budowę takich systemów.
17:44
For exampleprzykład, these fourcztery algorithmsalgorytmy
were all builtwybudowany by the samepodobnie guy.
357
1052628
3252
Na przykład te cztery algorytmy
opracował jeden człowiek.
17:47
So if you think, oh,
it's all happenedstało się before,
358
1055880
2438
Myślicie, że to już było,
17:50
we'vemamy seenwidziany the resultswyniki in the pastprzeszłość
of when newNowy things come alongwzdłuż
359
1058318
3808
widzieliśmy już w przeszłości,
jak stare zawody ustępują nowym.
17:54
and they get replacedzastąpiony by newNowy jobsOferty pracy,
360
1062126
2252
17:56
what are these newNowy jobsOferty pracy going to be?
361
1064378
2116
Jakie będą te nowe zawody?
17:58
It's very hardciężko for us to estimateoszacowanie this,
362
1066494
1871
Bardzo ciężko jest to oszacować,
18:00
because humanczłowiek performancewydajność
growsrośnie at this gradualstopniowy rateoceniać,
363
1068365
2739
bo ludzkie osiągnięcia rosną stopniowo,
18:03
but we now have a systemsystem, deepgłęboki learninguczenie się,
364
1071104
2562
a teraz mamy system, uczenie głębokie,
18:05
that we know actuallytak właściwie growsrośnie
in capabilityzdolność exponentiallywykładniczo.
365
1073666
3227
którego zdolności rosną wykładniczo.
18:08
And we're here.
366
1076893
1605
A my jesteśmy tutaj.
18:10
So currentlyobecnie, we see the things around us
367
1078498
2061
Widząc dzisiejsze realia mówimy:
18:12
and we say, "Oh, computerskomputery
are still prettyładny dumbgłupi." Right?
368
1080559
2676
"Komputery są nadal dosyć głupie".
18:15
But in fivepięć years'lata time,
computerskomputery will be off this chartwykres.
369
1083235
3429
Ale za pięć lat komputery będą poza skalą.
18:18
So we need to be startingstartowy to think
about this capabilityzdolność right now.
370
1086664
3865
Musimy zacząć myśleć
o tych możliwościach już teraz.
18:22
We have seenwidziany this oncepewnego razu before, of coursekurs.
371
1090529
2050
Oczywiście widzieliśmy to już kiedyś.
18:24
In the IndustrialPrzemysłowe RevolutionRewolucja,
372
1092579
1387
Podczas rewolucji przemysłowej
18:25
we saw a stepkrok changezmiana
in capabilityzdolność thanksdzięki to enginessilniki.
373
1093966
2851
mieliśmy skokową zmianę możliwości
dzięki silnikom.
18:29
The thing is, thoughchociaż,
that after a while, things flattenedspłaszczony out.
374
1097667
3138
Tyle tylko, że po pewnym czasie
rezultaty uległy spłaszczeniu.
18:32
There was socialspołeczny disruptionzakłócenie,
375
1100805
1702
Nastąpiły zakłócenia społeczne,
18:34
but oncepewnego razu enginessilniki were used
to generateGenerować powermoc in all the situationssytuacje,
376
1102507
3439
ale kiedy silnik zaczęto stosować
do każdego rodzaju wytwarzania energii,
18:37
things really settledosiadły down.
377
1105946
2354
wszystko się ustabilizowało.
18:40
The MachineMaszyny LearningUczenia się RevolutionRewolucja
378
1108300
1473
Rewolucja uczenia maszynowego
18:41
is going to be very differentróżne
from the IndustrialPrzemysłowe RevolutionRewolucja,
379
1109773
2909
będzie bardzo różna
od rewolucji przemysłowej,
bo rewolucja uczenia maszynowego
nie ustabilizuje się nigdy.
18:44
because the MachineMaszyny LearningUczenia się RevolutionRewolucja,
it never settlesrozlicza down.
380
1112682
2950
18:47
The better computerskomputery get
at intellectualintelektualny activitieszajęcia,
381
1115632
2982
Im lepsza będzie
aktywność intelektualna komputerów,
18:50
the more they can buildbudować better computerskomputery
to be better at intellectualintelektualny capabilitiesmożliwości,
382
1118614
4248
tym lepsze zbudują komputery,
o jeszcze większych
zdolnościach intelektualnych.
18:54
so this is going to be a kinduprzejmy of changezmiana
383
1122862
1908
Będzie to zmiana,
jakiej świat nigdy dotąd nie doświadczył,
18:56
that the worldświat has actuallytak właściwie
never experienceddoświadczony before,
384
1124770
2478
18:59
so your previouspoprzedni understandingzrozumienie
of what's possiblemożliwy is differentróżne.
385
1127248
3306
więc zmieniło się nasze wcześniejsze
zrozumienie możliwości.
19:02
This is alreadyjuż impactingwpływ us.
386
1130974
1780
Już odczuwamy ten wpływ.
19:04
In the last 25 yearslat,
as capitalkapitał productivitywydajność has increasedzwiększony,
387
1132754
3630
Przez ostatnie 25 lat
produktywność kapitału wzrastała,
19:08
laborpraca productivitywydajność has been flatmieszkanie,
in factfakt even a little bitkawałek down.
388
1136400
4188
wydajność pracy pozostała bez zmian,
a nawet trochę spadła.
19:13
So I want us to startpoczątek
havingmający this discussiondyskusja now.
389
1141408
2741
Chcę więc już teraz zacząć tę dyskusję.
19:16
I know that when I oftenczęsto tell people
about this situationsytuacja,
390
1144149
3027
Zwykle gdy opowiadam o tym problemie,
19:19
people can be quitecałkiem dismissivelekceważąco.
391
1147176
1490
napotykam lekceważenie.
19:20
Well, computerskomputery can't really think,
392
1148666
1673
Przecież komputery nie potrafią
naprawdę myśleć,
19:22
they don't emoteEmot,
they don't understandzrozumieć poetrypoezja,
393
1150339
3028
nie mają uczuć,
nie rozumieją poezji,
19:25
we don't really understandzrozumieć how they work.
394
1153367
2521
nie do końca wiemy, jak działają.
19:27
So what?
395
1155888
1486
I co z tego?
Komputery już teraz potrafią
wykonywać czynności,
19:29
ComputersKomputery right now can do the things
396
1157374
1804
19:31
that humansludzie spendwydać mostwiększość
of theirich time beingistota paidpłatny to do,
397
1159178
2719
z których utrzymują się ludzie,
19:33
so now'steraz jest the time to startpoczątek thinkingmyślący
398
1161897
1731
więc trzeba zacząć się zastanawiać,
19:35
about how we're going to adjustdostosować our
socialspołeczny structuresStruktury and economicgospodarczy structuresStruktury
399
1163628
4387
jak dostosujemy
społeczne i gospodarcze struktury
19:40
to be awareświadomy of this newNowy realityrzeczywistość.
400
1168015
1840
do tej nowej rzeczywistości.
19:41
Thank you.
401
1169855
1533
Dziękuję.
19:43
(ApplauseAplauz)
402
1171388
802
(Oklaski)
Translated by Jerzy Papiorek
Reviewed by Rysia Wand

▲Back to top

ABOUT THE SPEAKER
Jeremy Howard - Data scientist
Jeremy Howard imagines how advanced machine learning can improve our lives.

Why you should listen

Jeremy Howard is the CEO of Enlitic, an advanced machine learning company in San Francisco. Previously, he was the president and chief scientist at Kaggle, a community and competition platform of over 200,000 data scientists. Howard is a faculty member at Singularity University, where he teaches data science. He is also a Young Global Leader with the World Economic Forum, and spoke at the World Economic Forum Annual Meeting 2014 on "Jobs for the Machines."

Howard advised Khosla Ventures as their Data Strategist, identifying opportunities for investing in data-driven startups and mentoring portfolio companies to build data-driven businesses. He was the founding CEO of two successful Australian startups, FastMail and Optimal Decisions Group.

More profile about the speaker
Jeremy Howard | Speaker | TED.com