TEDSalon Berlin 2014
Kenneth Cukier: Big data is better data
Kenneth Cukier: Velká data jsou lepší data
Filmed:
Readability: 4.1
1,663,038 views
Samořídící se auta jsou jen začátek. Jaká je budoucnost technologie a designu, poháněných velkými daty? Ve fascinující vědecké přednášce se Kenneth Cukier věnuje tomu, co dalšího nás čeká v oblasti strojového učení a lidského vědění.
Kenneth Cukier - Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio
Double-click the English transcript below to play the video.
00:12
America's favorite pie is?
0
787
3845
Který koláč je v Americe nejoblíbenější?
00:16
Audience: Apple.
Kenneth Cukier: Apple. Of course it is.
Kenneth Cukier: Apple. Of course it is.
1
4632
3506
Publikum: Jablečný
Kenneth Cukier: Jablečný, samozřejmě.
Kenneth Cukier: Jablečný, samozřejmě.
00:20
How do we know it?
2
8138
1231
Jak to víme?
00:21
Because of data.
3
9369
2753
Díky datům.
00:24
You look at supermarket sales.
4
12122
2066
Podíváte se na prodej v obchodech.
00:26
You look at supermarket
sales of 30-centimeter pies
sales of 30-centimeter pies
5
14188
2866
Když se podíváte na 30 cm velké
mražené koláče,
mražené koláče,
00:29
that are frozen, and apple wins, no contest.
6
17054
4075
jablečné jednoznačně vítězí. Bezpochyby.
00:33
The majority of the sales are apple.
7
21129
5180
Nejvíc se prodá jablečných koláčů.
00:38
But then supermarkets started selling
8
26309
2964
Jenže pak supermarkety začaly prodávat
00:41
smaller, 11-centimeter pies,
9
29273
2583
menší 11cm koláče
00:43
and suddenly, apple fell to fourth or fifth place.
10
31856
4174
a najednou se jablečné propadly
na čtvrté nebo páté místo.
na čtvrté nebo páté místo.
00:48
Why? What happened?
11
36030
2875
Proč? Co se stalo?
00:50
Okay, think about it.
12
38905
2818
Zamysleme se.
00:53
When you buy a 30-centimeter pie,
13
41723
3848
Když kupujete třiceticentimetrový koláč,
00:57
the whole family has to agree,
14
45571
2261
celá rodina se musí shodnout
00:59
and apple is everyone's second favorite.
15
47832
3791
a jablko je u všech druhé nejoblíbenější.
01:03
(Laughter)
16
51623
1935
(smích)
01:05
But when you buy an individual 11-centimeter pie,
17
53558
3615
Ale když si kupujete vlastní 11cm koláč,
01:09
you can buy the one that you want.
18
57173
3745
můžete si koupit ten, který chcete vy.
01:12
You can get your first choice.
19
60918
4015
Můžete mít váš nejoblíbenější.
01:16
You have more data.
20
64933
1641
Získáváte více dat.
01:18
You can see something
21
66574
1554
Zjistíte věci,
01:20
that you couldn't see
22
68128
1132
které nejsou patrné
01:21
when you only had smaller amounts of it.
23
69260
3953
s menším množstvím dat.
01:25
Now, the point here is that more data
24
73213
2475
Jde o to, že s více daty,
01:27
doesn't just let us see more,
25
75688
2283
nejenže vyzkoumáme víc z toho,
01:29
more of the same thing we were looking at.
26
77971
1854
co už sledujeme,
01:31
More data allows us to see new.
27
79825
3613
více dat nám umožní spatřit věci nově.
01:35
It allows us to see better.
28
83438
3094
Umožňuje nám to vidět věci lépe.
01:38
It allows us to see different.
29
86532
3656
Vidět věci jinak.
01:42
In this case, it allows us to see
30
90188
3173
V tomto případě nám umožňují zjistit,
01:45
what America's favorite pie is:
31
93361
2913
že nejoblíbenější koláč v Americe
01:48
not apple.
32
96274
2542
není jablečný.
01:50
Now, you probably all have heard the term big data.
33
98816
3614
Už jste asi slyšeli pojem velká data.
01:54
In fact, you're probably sick of hearing the term
34
102430
2057
Spíš se vám už dělá špatně,
když slyšíte termín velká data.
01:56
big data.
35
104487
1630
01:58
It is true that there is a lot of hype around the term,
36
106117
3330
Mluvit o velkých datech je v kurzu,
02:01
and that is very unfortunate,
37
109447
2332
což je velmi nešťastné,
02:03
because big data is an extremely important tool
38
111779
3046
protože velká data jsou
extrémně důležitým nástrojem,
extrémně důležitým nástrojem,
02:06
by which society is going to advance.
39
114825
3734
díky kterému společnost postoupí dál.
02:10
In the past, we used to look at small data
40
118559
3561
V minulosti jsme zkoumali malá data
02:14
and think about what it would mean
41
122120
1704
a přemýšleli, co znamenají
02:15
to try to understand the world,
42
123824
1496
pro naše porozumění světu
02:17
and now we have a lot more of it,
43
125320
1991
Teď jich máme mnohem více,
02:19
more than we ever could before.
44
127311
2722
více než kdykoli předtím.
02:22
What we find is that when we have
45
130033
1877
Když máme velké množství dat,
02:23
a large body of data, we can fundamentally do things
46
131910
2724
můžeme s nimi dělat věci,
02:26
that we couldn't do when we
only had smaller amounts.
only had smaller amounts.
47
134634
3276
které jsme s menším množstvím
nemohli dělat.
nemohli dělat.
02:29
Big data is important, and big data is new,
48
137910
2641
Velká data jsou důležitá a nová.
02:32
and when you think about it,
49
140551
1777
A když se nad tím zamyslíte,
02:34
the only way this planet is going to deal
50
142328
2216
jediný způsob, jak se planeta vypořádá
02:36
with its global challenges —
51
144544
1789
se svými globálními problémy -
02:38
to feed people, supply them with medical care,
52
146333
3537
nakrmit lidi, dát jim zdravotní péči,
02:41
supply them with energy, electricity,
53
149870
2810
dát jim energii, elektřinu,
zajistit, abychom se nespálili na uhel
02:44
and to make sure they're not burnt to a crisp
54
152680
1789
02:46
because of global warming —
55
154469
1238
vlivem globálního oteplování -
02:47
is because of the effective use of data.
56
155707
4195
je efektivním využitím dat.
02:51
So what is new about big
data? What is the big deal?
data? What is the big deal?
57
159902
3870
Co nového přináší velká data?
Proč ten poprask?
Proč ten poprask?
02:55
Well, to answer that question, let's think about
58
163772
2517
Pro odpověď se zamysleme nad tím,
02:58
what information looked like,
59
166289
1896
jak informace v minulosti
03:00
physically looked like in the past.
60
168185
3034
vypadaly fyzicky.
03:03
In 1908, on the island of Crete,
61
171219
3611
V roce 1908 na ostrově Kréta
03:06
archaeologists discovered a clay disc.
62
174830
4735
archeologové objevili hliněný disk.
03:11
They dated it from 2000 B.C., so it's 4,000 years old.
63
179565
4059
Byl vyroben 2 tisíce let před Kristem,
je 4 tisíce let starý.
je 4 tisíce let starý.
03:15
Now, there's inscriptions on this disc,
64
183624
2004
Na tom disku jsou nápisy,
o kterých nevíme co znamenají.
03:17
but we actually don't know what it means.
65
185628
1327
03:18
It's a complete mystery, but the point is that
66
186955
2098
Je to záhada.
Podstatné ale je to,
Podstatné ale je to,
03:21
this is what information used to look like
67
189053
1928
jak informace vypadaly
03:22
4,000 years ago.
68
190981
2089
před 4 tisíci lety.
03:25
This is how society stored
69
193070
2548
Tak společnost uchovávala
03:27
and transmitted information.
70
195618
3524
a přenášela informace.
03:31
Now, society hasn't advanced all that much.
71
199142
4160
Současná společnost
zase tak moc nepokročila.
zase tak moc nepokročila.
03:35
We still store information on discs,
72
203302
3474
Pořád skladujeme informace na discích,
03:38
but now we can store a lot more information,
73
206776
3184
ale můžeme informací uchovat
mnohem více než kdy dříve.
03:41
more than ever before.
74
209960
1260
03:43
Searching it is easier. Copying it easier.
75
211220
3093
Je snazší jejich hledání, kopírování,
03:46
Sharing it is easier. Processing it is easier.
76
214313
3500
sdílení i zpracování - vše je jednodušší.
03:49
And what we can do is we can reuse this information
77
217813
2766
Také můžeme tyto informace využít
03:52
for uses that we never even imagined
78
220579
1834
způsoby nepředstavitelnými v době,
03:54
when we first collected the data.
79
222413
3195
kdy jsme data začali sbírat.
03:57
In this respect, the data has gone
80
225608
2252
V tomto ohledu se data proměnila
03:59
from a stock to a flow,
81
227860
3532
ze soupisu na tok,
04:03
from something that is stationary and static
82
231392
3938
z něčeho, co je nehybné a stálé,
04:07
to something that is fluid and dynamic.
83
235330
3609
na něco tekutého a dynamického.
04:10
There is, if you will, a liquidity to information.
84
238939
4023
Mají tak trochu tekutou povahu.
04:14
The disc that was discovered off of Crete
85
242962
3474
Disk, který byl objeven na Krétě,
04:18
that's 4,000 years old, is heavy,
86
246436
3764
starý 4 tisíce let, je těžký,
04:22
it doesn't store a lot of information,
87
250200
1962
neobsahuje mnoho informací
04:24
and that information is unchangeable.
88
252162
3116
a tyto informace jsou neměnné.
04:27
By contrast, all of the files
89
255278
4011
Naproti tomu všechny soubory,
které vzal Edward Snowden
04:31
that Edward Snowden took
90
259289
1861
z Národní bezpečnostní agentury
Spojených států,
Spojených států,
04:33
from the National Security
Agency in the United States
Agency in the United States
91
261150
2621
04:35
fits on a memory stick
92
263771
2419
se vejdou na flash disk
velikosti nehtu.
04:38
the size of a fingernail,
93
266190
3010
04:41
and it can be shared at the speed of light.
94
269200
4745
A mohou být sdílena rychlostí světla.
04:45
More data. More.
95
273945
5255
Více dat. Více.
Jedním z důvodů, proč máme
dnes na světě tolik dat,
dnes na světě tolik dat,
04:51
Now, one reason why we have
so much data in the world today
so much data in the world today
96
279200
1974
04:53
is we are collecting things
97
281174
1432
je to, že sledujeme věci,
04:54
that we've always collected information on,
98
282606
3280
o kterých jsme vždy informace měli,
04:57
but another reason why is we're taking things
99
285886
2656
ale druhým důvodem je,
že sledujeme věci,
že sledujeme věci,
05:00
that have always been informational
100
288542
2812
které vždy nesly informace,
ale nebyly převedeny do datového formátu
05:03
but have never been rendered into a data format
101
291354
2486
05:05
and we are putting it into data.
102
293840
2419
ale teď o nich data ukládáme.
Například taková poloha.
05:08
Think, for example, the question of location.
103
296259
3308
Vezměte si třeba Martina Luthera.
05:11
Take, for example, Martin Luther.
104
299567
2249
Kdybychom kolem roku 1500 chtěli vědět,
05:13
If we wanted to know in the 1500s
105
301816
1597
05:15
where Martin Luther was,
106
303413
2667
kde se Martin Luther nachází,
museli bychom jej stále sledovat,
05:18
we would have to follow him at all times,
107
306080
2092
05:20
maybe with a feathery quill and an inkwell,
108
308172
2137
možná s brkem a kalamářem
a zapisovat to.
05:22
and record it,
109
310309
1676
Ale zamyslete se, jak to funguje dnes.
05:23
but now think about what it looks like today.
110
311985
2183
Víte, že někde,
05:26
You know that somewhere,
111
314168
2122
05:28
probably in a telecommunications carrier's database,
112
316290
2446
pravděpodobně v databázi operátora,
je tabulka nebo alespoň záznam v databázi,
05:30
there is a spreadsheet or at least a database entry
113
318736
3036
který zaznamenávaná informace o tom,
kde jste kdy byli.
kde jste kdy byli.
05:33
that records your information
114
321772
2088
05:35
of where you've been at all times.
115
323860
2063
Máte-li mobilní telefon,
který má GPS,
který má GPS,
05:37
If you have a cell phone,
116
325923
1360
05:39
and that cell phone has GPS,
but even if it doesn't have GPS,
but even if it doesn't have GPS,
117
327283
2847
- ale i když GPS nemá -
může zaznamenávat polohu.
může zaznamenávat polohu.
05:42
it can record your information.
118
330130
2385
V tomto ohledu byla poloha
převedena do formy dat.
převedena do formy dat.
05:44
In this respect, location has been datafied.
119
332515
4084
Teď si vezměte třeba takové držení těla,
05:48
Now think, for example, of the issue of posture,
120
336599
4601
způsob, jakým teď všichni sedíte,
05:53
the way that you are all sitting right now,
121
341200
1285
05:54
the way that you sit,
122
342485
2030
jak sedíte vy,
05:56
the way that you sit, the way that you sit.
123
344515
2771
vy a vy.
Liší se to vlivem délky vašich nohou,
05:59
It's all different, and it's a function of your leg length
124
347286
2077
06:01
and your back and the contours of your back,
125
349363
2093
vašich zad a jejich tvaru.
06:03
and if I were to put sensors,
maybe 100 sensors
maybe 100 sensors
126
351456
2531
Kdybych do všech vašich židlí
06:05
into all of your chairs right now,
127
353987
1766
nyní dal třeba 100 senzorů,
06:07
I could create an index that's fairly unique to you,
128
355753
3600
mohl bych vytvořit záznam
unikátní pro každého z vás,
unikátní pro každého z vás,
06:11
sort of like a fingerprint, but it's not your finger.
129
359353
4409
něco jako otisk prstu,
ale nejde o váš prst.
ale nejde o váš prst.
06:15
So what could we do with this?
130
363762
2969
Co bychom s tím mohli udělat?
06:18
Researchers in Tokyo are using it
131
366731
2397
Vědci v Tokiu jej využívají
jako možné opatření proti krádeži aut.
06:21
as a potential anti-theft device in cars.
132
369128
4388
Jde o to, že zloděj usedne za volant,
06:25
The idea is that the carjacker sits behind the wheel,
133
373516
2924
snaží se odjet, ale auto pozná,
06:28
tries to stream off, but the car recognizes
134
376440
2104
že za volantem sedí neoprávněný řidič
06:30
that a non-approved driver is behind the wheel,
135
378544
2362
06:32
and maybe the engine just stops, unless you
136
380906
2164
a auto třeba vypne motor,
06:35
type in a password into the dashboard
137
383070
3177
dokud na palubní desce nezadáte
správné heslo,
správné heslo,
06:38
to say, "Hey, I have authorization to drive." Great.
138
386247
4658
čímž řeknete:
„Hele, jsem oprávněný to řídit.“ Paráda.
„Hele, jsem oprávněný to řídit.“ Paráda.
Co kdyby každé auto v Evropě
06:42
What if every single car in Europe
139
390905
2553
06:45
had this technology in it?
140
393458
1457
mělo takovou technologii?
06:46
What could we do then?
141
394915
3165
Co bychom dělali pak?
06:50
Maybe, if we aggregated the data,
142
398080
2240
Možná, kdybychom dali data dohromady,
06:52
maybe we could identify telltale signs
143
400320
3814
možná bychom mohli rozpoznat signály,
které by předvídaly,
06:56
that best predict that a car accident
144
404134
2709
že se v příštích 5 sekundách
stane dopravní nehoda.
stane dopravní nehoda.
06:58
is going to take place in the next five seconds.
145
406843
5893
07:04
And then what we will have datafied
146
412736
2557
Tak bychom mohli pomocí dat
07:07
is driver fatigue,
147
415293
1783
odhalit únavu řidiče
07:09
and the service would be when the car senses
148
417076
2334
a když by auto poznalo,
že se řidič sune do určité pozice,
07:11
that the person slumps into that position,
149
419410
3437
automaticky to rozezná
a spustí uvnitř poplach,
a spustí uvnitř poplach,
07:14
automatically knows, hey, set an internal alarm
150
422847
3994
může to být vibrace volantu
nebo klakson v autě,
nebo klakson v autě,
07:18
that would vibrate the steering wheel, honk inside
151
426841
2025
07:20
to say, "Hey, wake up,
152
428866
1721
a tím řekne: „Hele, vzbuď se,
07:22
pay more attention to the road."
153
430587
1904
dávej pozor na cestu!“
07:24
These are the sorts of things we can do
154
432491
1853
Tyhle věci můžeme udělat,
07:26
when we datafy more aspects of our lives.
155
434344
2821
když převedeme na data
více aspektů našeho života.
více aspektů našeho života.
07:29
So what is the value of big data?
156
437165
3675
Jaká je tedy hodnota velkých dat?
07:32
Well, think about it.
157
440840
2190
Inu, zamysleme se.
Máte více informací.
07:35
You have more information.
158
443030
2412
Můžete dělat věci,
které jste předtím nemohli.
které jste předtím nemohli.
07:37
You can do things that you couldn't do before.
159
445442
3341
Jednou z nejpůsobivějších oblastí,
07:40
One of the most impressive areas
160
448783
1676
07:42
where this concept is taking place
161
450459
1729
kde se tento koncept uplatňuje
07:44
is in the area of machine learning.
162
452188
3307
je v oblasti strojového učení.
Strojové učení je
odvětví umělé inteligence,
odvětví umělé inteligence,
07:47
Machine learning is a branch of artificial intelligence,
163
455495
3077
07:50
which itself is a branch of computer science.
164
458572
3378
které patří do počítačových věd.
Hlavní myšlenkou je, že místo toho,
07:53
The general idea is that instead of
165
461950
1543
07:55
instructing a computer what do do,
166
463493
2117
že řekneme počítači, co má dělat,
07:57
we are going to simply throw data at the problem
167
465610
2620
jednoduše mu dáme všechna data
související s problémem
související s problémem
08:00
and tell the computer to figure it out for itself.
168
468230
3206
a řekneme mu,
aby problém vyřešil sám.
aby problém vyřešil sám.
08:03
And it will help you understand it
169
471436
1777
Lépe to pochopíte,
08:05
by seeing its origins.
170
473213
3552
když víte, jak to vzniklo.
V 50. letech Arthur Samuel,
počítačový vědec v IBM,
počítačový vědec v IBM,
08:08
In the 1950s, a computer scientist
171
476765
2388
08:11
at IBM named Arthur Samuel liked to play checkers,
172
479153
3592
rád hrál piškvorky,
takže napsal počítačový program,
08:14
so he wrote a computer program
173
482745
1402
08:16
so he could play against the computer.
174
484147
2813
aby mohl hrát s počítačem.
Hrál.
08:18
He played. He won.
175
486960
2711
A vyhrál.
08:21
He played. He won.
176
489671
2103
Hrál.
A vyhrál.
Hrál a vyhrál.
08:23
He played. He won,
177
491774
3015
Protože počítač uměl jen tahy,
08:26
because the computer only knew
178
494789
1778
08:28
what a legal move was.
179
496567
2227
které ho naučil.
Arthur Samuel uměl něco jiného.
08:30
Arthur Samuel knew something else.
180
498794
2087
08:32
Arthur Samuel knew strategy.
181
500881
4629
Arthur Samuel znal strategii.
Takže napsal podprogram,
08:37
So he wrote a small sub-program alongside it
182
505510
2396
08:39
operating in the background, and all it did
183
507906
1974
který běžel na pozadí
08:41
was score the probability
184
509880
1817
a po každém tahu
počítal pravděpodobnost,
08:43
that a given board configuration would likely lead
185
511697
2563
s jakou uspořádání na hracím poli
08:46
to a winning board versus a losing board
186
514260
2910
povede k vítěznému tahu nebo prohře.
08:49
after every move.
187
517170
2508
08:51
He plays the computer. He wins.
188
519678
3150
Takže hraje s počítačem. A vyhrává.
08:54
He plays the computer. He wins.
189
522828
2508
Hraje s počítačem a vyhrává.
Hraje s počítačem a vyhrává.
08:57
He plays the computer. He wins.
190
525336
3731
Pak Arthur Samuel nechá počítač,
09:01
And then Arthur Samuel leaves the computer
191
529067
2277
aby si hrál sám.
09:03
to play itself.
192
531344
2227
09:05
It plays itself. It collects more data.
193
533571
3509
Hraje si sám. Sbírá více dat.
Sbírá informace.
Zvýší spolehlivost svého odhadu.
Zvýší spolehlivost svého odhadu.
09:09
It collects more data. It increases
the accuracy of its prediction.
the accuracy of its prediction.
194
537080
4309
09:13
And then Arthur Samuel goes back to the computer
195
541389
2104
Pak se Arthur Samuel vrátí k počítači
09:15
and he plays it, and he loses,
196
543493
2318
a hraje s ním. A prohraje.
Hraje s ním a prohraje,
09:17
and he plays it, and he loses,
197
545811
2069
09:19
and he plays it, and he loses,
198
547880
2047
hraje s ním a prohraje.
09:21
and Arthur Samuel has created a machine
199
549927
2599
A tak Arthur Samuel vytvořil stroj,
09:24
that surpasses his ability in a task that he taught it.
200
552526
6288
který překonal jeho schopnosti v úloze,
kterou jej naučil.
kterou jej naučil.
09:30
And this idea of machine learning
201
558814
2498
Myšlenka strojového učení
je přítomná všude.
09:33
is going everywhere.
202
561312
3927
09:37
How do you think we have self-driving cars?
203
565239
3149
Odkud myslíte, že máme auta,
která se sama řídí?
která se sama řídí?
09:40
Are we any better off as a society
204
568388
2137
Vede si naše společnost lépe díky tomu,
09:42
enshrining all the rules of the road into software?
205
570525
3285
že všechna pravidla silničního provozu
nasypeme do softwaru? Ne.
nasypeme do softwaru? Ne.
09:45
No. Memory is cheaper. No.
206
573810
2598
Paměť je levnější? Ne.
Algoritmy jsou rychlejší? Ne.
Procesory jsou lepší? Ne.
Procesory jsou lepší? Ne.
09:48
Algorithms are faster. No. Processors are better. No.
207
576408
3994
Na tom vše záleží, ale to není ten důvod.
09:52
All of those things matter, but that's not why.
208
580402
2772
Je to proto,
že jsme změnili povahu problému.
že jsme změnili povahu problému.
09:55
It's because we changed the nature of the problem.
209
583174
3141
09:58
We changed the nature of the problem from one
210
586315
1530
Z problému, kde jsme se zevrubně
09:59
in which we tried to overtly and explicitly
211
587845
2245
a doslovně snažili
vysvětlit počítači jak má jezdit,
10:02
explain to the computer how to drive
212
590090
2581
na úkol, kdy mu řekneme:
10:04
to one in which we say,
213
592671
1316
„Tady máš spoustu dat z okolí vozu.
10:05
"Here's a lot of data around the vehicle.
214
593987
1876
10:07
You figure it out.
215
595863
1533
Vyřeš to.
Uvědom si, že toto je semafor,
10:09
You figure it out that that is a traffic light,
216
597396
1867
na tom semaforu je červená
a ne zelená,
a ne zelená,
10:11
that that traffic light is red and not green,
217
599263
2081
že to znamená, že bys měl zastavit
10:13
that that means that you need to stop
218
601344
2014
a nepokračovat dál.“
10:15
and not go forward."
219
603358
3083
Strojové učení je základem mnoha věcí,
10:18
Machine learning is at the basis
220
606441
1518
které využíváme online:
10:19
of many of the things that we do online:
221
607959
1991
vyhledávače,
10:21
search engines,
222
609950
1857
algoritmus personalizace v Amazonu,
10:23
Amazon's personalization algorithm,
223
611807
3801
počítačový překlad,
10:27
computer translation,
224
615608
2212
10:29
voice recognition systems.
225
617820
4290
systém rozpoznání hlasu.
10:34
Researchers recently have looked at
226
622110
2835
Vědci nyní řeší otázky biopsií,
10:36
the question of biopsies,
227
624945
3195
rakovinových biopsií.
10:40
cancerous biopsies,
228
628140
2767
Požádali počítač,
10:42
and they've asked the computer to identify
229
630907
2315
aby zjistil z dat a statistik o přežití,
10:45
by looking at the data and survival rates
230
633222
2471
10:47
to determine whether cells are actually
231
635693
4667
jestli jsou buňky skutečně
zhoubné nebo ne.
zhoubné nebo ne.
10:52
cancerous or not,
232
640360
2544
Když dostal data pomocí
algoritmu strojového učení,
algoritmu strojového učení,
10:54
and sure enough, when you throw the data at it,
233
642904
1778
10:56
through a machine-learning algorithm,
234
644682
2047
počítač byl schopný identifikovat
12 znaků nejlépe určujících,
12 znaků nejlépe určujících,
10:58
the machine was able to identify
235
646729
1877
11:00
the 12 telltale signs that best predict
236
648606
2262
zda buňky z biopsie rakoviny prsu
jsou skutečně zhoubné.
jsou skutečně zhoubné.
11:02
that this biopsy of the breast cancer cells
237
650868
3299
11:06
are indeed cancerous.
238
654167
3218
Problém byl, že odborná lékařská
literatura uváděla jenom 9 z nich.
literatura uváděla jenom 9 z nich.
11:09
The problem: The medical literature
239
657385
2498
11:11
only knew nine of them.
240
659883
2789
Tři z těchto znaků lidé nehledali,
ale stroj je našel.
ale stroj je našel.
11:14
Three of the traits were ones
241
662672
1800
11:16
that people didn't need to look for,
242
664472
2975
11:19
but that the machine spotted.
243
667447
5531
11:24
Now, there are dark sides to big data as well.
244
672978
5925
Velká data mají i své stinné stránky.
Mohou zlepšit naše životy,
ale jsou zde věci, o kterých musíme vědět.
ale jsou zde věci, o kterých musíme vědět.
11:30
It will improve our lives, but there are problems
245
678903
2074
11:32
that we need to be conscious of,
246
680977
2640
11:35
and the first one is the idea
247
683617
2623
První je možnost,
že můžeme být potrestáni za předpovědi;
že můžeme být potrestáni za předpovědi;
11:38
that we may be punished for predictions,
248
686240
2686
11:40
that the police may use big data for their purposes,
249
688926
3870
že policie může využít
velká data pro své účely
velká data pro své účely
tak trochu jako ve filmu Minority report.
11:44
a little bit like "Minority Report."
250
692796
2351
11:47
Now, it's a term called predictive policing,
251
695147
2441
Říká se tomu prediktivní kontrola
nebo algoritmová kriminologie
nebo algoritmová kriminologie
11:49
or algorithmic criminology,
252
697588
2363
a základem je, že když vezmeme hodně dat,
11:51
and the idea is that if we take a lot of data,
253
699951
2036
11:53
for example where past crimes have been,
254
701987
2159
třeba kde se staly zločiny v minulosti,
víte, kam poslat hlídky.
víte, kam poslat hlídky.
11:56
we know where to send the patrols.
255
704146
2543
To dává smysl, ale problémem je,
že se to nezastaví u údajů o poloze,
že se to nezastaví u údajů o poloze,
11:58
That makes sense, but the problem, of course,
256
706689
2115
12:00
is that it's not simply going to stop on location data,
257
708804
4544
12:05
it's going to go down to the level of the individual.
258
713348
2959
ale dojde i na údaje o osobách.
Proč nevyužít údaje
o výsledcích ze střední školy?
o výsledcích ze střední školy?
12:08
Why don't we use data about the person's
259
716307
2250
12:10
high school transcript?
260
718557
2228
Možná bychom měli využít data o tom,
zda lidé mají práci, data o dluzích
zda lidé mají práci, data o dluzích
12:12
Maybe we should use the fact that
261
720785
1561
12:14
they're unemployed or not, their credit score,
262
722346
2028
nebo co dělají na internetu;
zda ponocují.
zda ponocují.
12:16
their web-surfing behavior,
263
724374
1552
12:17
whether they're up late at night.
264
725926
1878
Jejich fitness náramky (fitbit),
přečtou jejich biochemické údaje
přečtou jejich biochemické údaje
12:19
Their Fitbit, when it's able
to identify biochemistries,
to identify biochemistries,
265
727804
3161
a zjistí, zda mají agresivní myšlenky.
12:22
will show that they have aggressive thoughts.
266
730965
4236
Můžeme mít algoritmy,
které jsou schopny předpovědět,
které jsou schopny předpovědět,
12:27
We may have algorithms that are likely to predict
267
735201
2221
12:29
what we are about to do,
268
737422
1633
co se chystáme udělat
12:31
and we may be held accountable
269
739055
1244
a my můžeme být zodpovědní už před tím,
než začneme jednat.
než začneme jednat.
12:32
before we've actually acted.
270
740299
2590
Soukromí bylo výzvou v éře malých dat.
12:34
Privacy was the central challenge
271
742889
1732
12:36
in a small data era.
272
744621
2880
12:39
In the big data age,
273
747501
2149
V éře velkých dat bude výzvou
ochrana svobodné vůle,
ochrana svobodné vůle,
12:41
the challenge will be safeguarding free will,
274
749650
4523
12:46
moral choice, human volition,
275
754173
3779
ochrana morální volby, lidské vůle,
lidského jednání.
lidského jednání.
12:49
human agency.
276
757952
3068
12:54
There is another problem:
277
762540
2225
Pak je zde další problém.
12:56
Big data is going to steal our jobs.
278
764765
3556
Velká data nám vezmou práci.
13:00
Big data and algorithms are going to challenge
279
768321
3512
V 21. století velká data a algoritmy
13:03
white collar, professional knowledge work
280
771833
3061
vyzvou na souboj
bílé límečky a odbornou práci,
bílé límečky a odbornou práci,
13:06
in the 21st century
281
774894
1653
13:08
in the same way that factory automation
282
776547
2434
stejně jako automatizace ve výrobě
a výrobní linky
a výrobní linky
13:10
and the assembly line
283
778981
2189
změnily práci modrých límečků
ve 20. století.
ve 20. století.
13:13
challenged blue collar labor in the 20th century.
284
781170
3026
Vezměte si laboratorního technika,
13:16
Think about a lab technician
285
784196
2092
který v mikroskopu
zkoumá biopsii a určuje,
zkoumá biopsii a určuje,
13:18
who is looking through a microscope
286
786288
1409
13:19
at a cancer biopsy
287
787697
1624
zda jde o rakovinu nebo ne.
13:21
and determining whether it's cancerous or not.
288
789321
2637
Ten člověk chodil na univerzitu,
koupil si dům,
koupil si dům,
13:23
The person went to university.
289
791958
1972
13:25
The person buys property.
290
793930
1430
13:27
He or she votes.
291
795360
1741
chodí k volbám,
je platným členem společnosti.
je platným členem společnosti.
13:29
He or she is a stakeholder in society.
292
797101
3666
Ale práce tohoto člověka,
stejně jako celé řady
stejně jako celé řady
13:32
And that person's job,
293
800767
1394
13:34
as well as an entire fleet
294
802161
1609
13:35
of professionals like that person,
295
803770
1969
jemu podobných odborníků,
se radikálně změní
se radikálně změní
13:37
is going to find that their jobs are radically changed
296
805739
3150
13:40
or actually completely eliminated.
297
808889
2357
nebo dokonce přestane být vůbec potřeba.
13:43
Now, we like to think
298
811246
1284
Rádi bychom si mysleli,
13:44
that technology creates jobs over a period of time
299
812530
3187
že technologie vytvoří
jiná pracovní místa,
jiná pracovní místa,
13:47
after a short, temporary period of dislocation,
300
815717
3465
po krátkém, dočasném období změn
a pro období, ve kterém žijeme,
je to pravda,
je to pravda,
13:51
and that is true for the frame of reference
301
819182
1941
13:53
with which we all live, the Industrial Revolution,
302
821123
2142
v průmyslové revoluci se přesně to stalo.
13:55
because that's precisely what happened.
303
823265
2328
Ale zapomínáme na to,
13:57
But we forget something in that analysis:
304
825593
2333
že některé typy prací
13:59
There are some categories of jobs
305
827926
1830
jednoduše zmizely a nikdy se nevrátily.
14:01
that simply get eliminated and never come back.
306
829756
3420
Průmyslová revoluce nebyla moc dobrá,
14:05
The Industrial Revolution wasn't very good
307
833176
2004
14:07
if you were a horse.
308
835180
4002
když jste byli kůň.
Takže musíme být opatrní
14:11
So we're going to need to be careful
309
839182
2055
a využívat velká data pro naše potřeby,
14:13
and take big data and adjust it for our needs,
310
841237
3514
14:16
our very human needs.
311
844751
3185
naše lidské potřeby.
Musíme technologii vládnout,
ne jí sloužit.
ne jí sloužit.
14:19
We have to be the master of this technology,
312
847936
1954
14:21
not its servant.
313
849890
1656
Jsme právě na prahu éry velkých dat
a upřímně,
a upřímně,
14:23
We are just at the outset of the big data era,
314
851546
2958
14:26
and honestly, we are not very good
315
854504
3150
zacházení se všemi údaji,
které nyní sbíráme, nám moc nejde.
které nyní sbíráme, nám moc nejde.
14:29
at handling all the data that we can now collect.
316
857654
4207
Není to jen problém NSA.
(Národní bezpečnostní agentury)
(Národní bezpečnostní agentury)
14:33
It's not just a problem for
the National Security Agency.
the National Security Agency.
317
861861
3330
14:37
Businesses collect lots of
data, and they misuse it too,
data, and they misuse it too,
318
865191
3038
I firmy sbírají mnoho údajů
a také je zneužívají,
a také je zneužívají,
14:40
and we need to get better at
this, and this will take time.
this, and this will take time.
319
868229
3667
musíme se s tím naučit zacházet,
což zabere nějaký čas.
což zabere nějaký čas.
14:43
It's a little bit like the challenge that was faced
320
871896
1822
Je to trochu jako výzva,
14:45
by primitive man and fire.
321
873718
2407
které čelili pralidé s ohněm.
14:48
This is a tool, but this is a tool that,
322
876125
1885
Je to užitečný nástroj,
14:50
unless we're careful, will burn us.
323
878010
3559
ale když si nedáme pozor, popálí nás.
14:56
Big data is going to transform how we live,
324
884008
3120
Velká data změní to, jak žijeme,
jak pracujeme a jak myslíme.
14:59
how we work and how we think.
325
887128
2801
Pomohou nám lépe řídit naše kariéry
15:01
It is going to help us manage our careers
326
889929
1889
15:03
and lead lives of satisfaction and hope
327
891818
3634
a žít spokojený život
v naději, štěstí a zdraví.
15:07
and happiness and health,
328
895452
2992
Ale v minulosti jsme se často dívali
na informační technologie
na informační technologie
15:10
but in the past, we've often
looked at information technology
looked at information technology
329
898444
3306
15:13
and our eyes have only seen the T,
330
901750
2208
a viděli jsme jen to T
- technologii, hardware,
15:15
the technology, the hardware,
331
903958
1686
protože to bylo fyzické.
15:17
because that's what was physical.
332
905644
2262
Nyní zaostříme na I
15:19
We now need to recast our gaze at the I,
333
907906
2924
- informace,
15:22
the information,
334
910830
1380
které jsou méně zjevné,
15:24
which is less apparent,
335
912210
1373
ale v řadě věcí důležitější.
15:25
but in some ways a lot more important.
336
913583
4109
15:29
Humanity can finally learn from the information
337
917692
3465
Lidstvo se konečně může učit z informací,
15:33
that it can collect,
338
921157
2418
které může sbírat
na nekonečné cestě
15:35
as part of our timeless quest
339
923575
2115
k porozumění světu a našemu místu v něm.
15:37
to understand the world and our place in it,
340
925690
3159
15:40
and that's why big data is a big deal.
341
928849
5631
Proto jsou velká data tak důležitá.
(potlesk)
15:46
(Applause)
342
934480
3568
ABOUT THE SPEAKER
Kenneth Cukier - Data Editor of The EconomistKenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages.
Why you should listen
As Data Editor of The Economist and co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think, Kenneth Cukier has spent years immersed in big data, machine learning -- and the impact of both. What's the future of big data-driven technology and design? To find out, watch this talk.
Kenneth Cukier | Speaker | TED.com