TEDSalon Berlin 2014
Kenneth Cukier: Big data is better data
Kenneth Cukier: A big data — jobb adat
Filmed:
Readability: 4.1
1,663,038 views
Az önvezető autók csak a kezdet. Milyen lesz a big data segítségével működő technológia és dizájn jövője? Izgalmas tudományos előadásában Kenneth Cukier a gépi tanulás és az emberi tudás jövőjével foglalkozik.
Kenneth Cukier - Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio
Double-click the English transcript below to play the video.
00:12
America's favorite pie is?
0
787
3845
Az USA legnépszerűbb pitéje a...
00:16
Audience: Apple.
Kenneth Cukier: Apple. Of course it is.
Kenneth Cukier: Apple. Of course it is.
1
4632
3506
Nézők: ...az almás!
KC: Az almás. Hát, persze, hogy az!
KC: Az almás. Hát, persze, hogy az!
00:20
How do we know it?
2
8138
1231
Honnan tudjuk?
00:21
Because of data.
3
9369
2753
Az adatokból.
00:24
You look at supermarket sales.
4
12122
2066
A szupermarketek eladási adataiból.
00:26
You look at supermarket
sales of 30-centimeter pies
sales of 30-centimeter pies
5
14188
2866
A 30 cm-es mélyhűtött piték
eladási adataiból.
eladási adataiból.
00:29
that are frozen, and apple wins, no contest.
6
17054
4075
Az almás a nyerő, semmi kétség.
00:33
The majority of the sales are apple.
7
21129
5180
Az eladások többségét az almás teszi ki.
00:38
But then supermarkets started selling
8
26309
2964
De a szupermarketek kezdték árulni
00:41
smaller, 11-centimeter pies,
9
29273
2583
a kisebb, 11-centis pitéket,
00:43
and suddenly, apple fell to fourth or fifth place.
10
31856
4174
és hirtelen az almás
visszaesett a 4-5. helyre.
visszaesett a 4-5. helyre.
00:48
Why? What happened?
11
36030
2875
Miért? Mi történt?
00:50
Okay, think about it.
12
38905
2818
OK, gondoljuk csak át.
00:53
When you buy a 30-centimeter pie,
13
41723
3848
Amikor 30-centis pitét veszünk,
00:57
the whole family has to agree,
14
45571
2261
az egész családnak
egy véleményen kell lennie,
egy véleményen kell lennie,
00:59
and apple is everyone's second favorite.
15
47832
3791
de az almás mindenkinél
csak a második befutó.
csak a második befutó.
01:03
(Laughter)
16
51623
1935
(Nevetés)
01:05
But when you buy an individual 11-centimeter pie,
17
53558
3615
De amikor magunknak választjuk
a 11-centis pitét,
a 11-centis pitét,
01:09
you can buy the one that you want.
18
57173
3745
azt vehetjük, amelyiket szeretnénk.
01:12
You can get your first choice.
19
60918
4015
Megvehetjük a kedvencünket.
01:16
You have more data.
20
64933
1641
Több adatunk van.
01:18
You can see something
21
66574
1554
Most olyat látunk,
01:20
that you couldn't see
22
68128
1132
amit nem láthattunk,
01:21
when you only had smaller amounts of it.
23
69260
3953
amikor kevesebb adatunk volt.
01:25
Now, the point here is that more data
24
73213
2475
A lényeg: a több adat birtokában
01:27
doesn't just let us see more,
25
75688
2283
nemcsak többet tudunk
01:29
more of the same thing we were looking at.
26
77971
1854
a vizsgált dologról,
01:31
More data allows us to see new.
27
79825
3613
hanem a több adat új dolgokat is megmutat.
01:35
It allows us to see better.
28
83438
3094
Jobban látjuk a dolgokat.
01:38
It allows us to see different.
29
86532
3656
Másként látjuk a dolgokat.
01:42
In this case, it allows us to see
30
90188
3173
Esetünkben megmutatja,
01:45
what America's favorite pie is:
31
93361
2913
melyik Amerika kedvenc pitéje:
01:48
not apple.
32
96274
2542
nem az almás!
01:50
Now, you probably all have heard the term big data.
33
98816
3614
Valószínűleg hallották már
a "big data" szakkifejezést.
a "big data" szakkifejezést.
01:54
In fact, you're probably sick of hearing the term
34
102430
2057
Valószínű, hogy a könyökükön jön ki
01:56
big data.
35
104487
1630
a big data kifejezés.
01:58
It is true that there is a lot of hype around the term,
36
106117
3330
Tény, hogy óriási a felhajtás
a kifejezés körül,
a kifejezés körül,
02:01
and that is very unfortunate,
37
109447
2332
és ez nagyon sajnálatos,
02:03
because big data is an extremely important tool
38
111779
3046
hiszen a big data rendkívül fontos eszköz,
02:06
by which society is going to advance.
39
114825
3734
amellyel a társadalom fejlődik.
02:10
In the past, we used to look at small data
40
118559
3561
A múltban "small data"
elemzéseket használtunk,
elemzéseket használtunk,
02:14
and think about what it would mean
41
122120
1704
és ezekből próbáltuk értelmezni,
02:15
to try to understand the world,
42
123824
1496
hogyan fogjuk fel a világot.
02:17
and now we have a lot more of it,
43
125320
1991
Ma sokkal nagyobb adattömeggel dolgozunk,
02:19
more than we ever could before.
44
127311
2722
amekkorával korábban nem volt módunk.
02:22
What we find is that when we have
45
130033
1877
Ha nagy tömegű adatunk van,
02:23
a large body of data, we can fundamentally do things
46
131910
2724
olyanokat is megtehetünk vele,
02:26
that we couldn't do when we
only had smaller amounts.
only had smaller amounts.
47
134634
3276
melyeket a kevés adattal nem.
02:29
Big data is important, and big data is new,
48
137910
2641
A big data fontos, a big data újdonság,
02:32
and when you think about it,
49
140551
1777
és ha utánagondolunk,
az egyetlen lehetőség,
ahogyan a bolygó a maga
ahogyan a bolygó a maga
02:34
the only way this planet is going to deal
50
142328
2216
globális kihívásait a jövőben kezelheti
02:36
with its global challenges —
51
144544
1789
02:38
to feed people, supply them with medical care,
52
146333
3537
— miként élelmezzük a népességet,
nyújtsunk egészségügyi ellátást számukra,
nyújtsunk egészségügyi ellátást számukra,
02:41
supply them with energy, electricity,
53
149870
2810
lássuk el energiával, villanyárammal;
hogyan biztosítsuk,
hogyan biztosítsuk,
02:44
and to make sure they're not burnt to a crisp
54
152680
1789
hogy ne süljön meg senki
02:46
because of global warming —
55
154469
1238
a Föld fölmelegedése miatt --
02:47
is because of the effective use of data.
56
155707
4195
mert így tudjuk az adatokat
hatékonyan felhasználni.
hatékonyan felhasználni.
02:51
So what is new about big
data? What is the big deal?
data? What is the big deal?
57
159902
3870
Mi az újdonság a big datában?
Mi a jelentősége?
Mi a jelentősége?
02:55
Well, to answer that question, let's think about
58
163772
2517
A válasz érdekében nézzük meg,
02:58
what information looked like,
59
166289
1896
mi jellemezte az információt
03:00
physically looked like in the past.
60
168185
3034
a múltban — fizikailag?
03:03
In 1908, on the island of Crete,
61
171219
3611
1908-ban Kréta szigetén
03:06
archaeologists discovered a clay disc.
62
174830
4735
a régészek felfedeztek egy agyagkorongot,
03:11
They dated it from 2000 B.C., so it's 4,000 years old.
63
179565
4059
a korát Kr. e. 2000-re tették,
úgyhogy négyezer éves.
úgyhogy négyezer éves.
03:15
Now, there's inscriptions on this disc,
64
183624
2004
A korongon feliratok vannak,
03:17
but we actually don't know what it means.
65
185628
1327
jelentésük mindmáig ismeretlen.
03:18
It's a complete mystery, but the point is that
66
186955
2098
Teljes a rejtély, de a lényeg,
03:21
this is what information used to look like
67
189053
1928
hogy így nézett ki az információ
03:22
4,000 years ago.
68
190981
2089
négyezer évvel ezelőtt.
03:25
This is how society stored
69
193070
2548
A társadalom így tárolta
03:27
and transmitted information.
70
195618
3524
és adta tovább az információt.
03:31
Now, society hasn't advanced all that much.
71
199142
4160
A társadalom nem túl sokat haladt.
03:35
We still store information on discs,
72
203302
3474
Még mindig diszken tároljuk az infót,
03:38
but now we can store a lot more information,
73
206776
3184
de a korábbinál már sokkal több
információt tudunk tárolni,
információt tudunk tárolni,
03:41
more than ever before.
74
209960
1260
többet, mint bármikor.
03:43
Searching it is easier. Copying it easier.
75
211220
3093
A keresés könnyebbé vált.
A másolás könnyebbé vált.
A másolás könnyebbé vált.
03:46
Sharing it is easier. Processing it is easier.
76
214313
3500
A megosztás könnyebbé vált.
A feldolgozás könnyebbé vált.
A feldolgozás könnyebbé vált.
03:49
And what we can do is we can reuse this information
77
217813
2766
Amit még tudunk,
fölhasználhatjuk újra az információt
fölhasználhatjuk újra az információt
03:52
for uses that we never even imagined
78
220579
1834
olyan célra, amit nem is sejtettünk,
03:54
when we first collected the data.
79
222413
3195
mikor első ízben begyűjtöttük az adatokat.
03:57
In this respect, the data has gone
80
225608
2252
Ebből a szempontból az adatok
03:59
from a stock to a flow,
81
227860
3532
állományból áramlattá váltak,
04:03
from something that is stationary and static
82
231392
3938
változatlan—statikusból
04:07
to something that is fluid and dynamic.
83
235330
3609
folyékony—dinamikussá.
04:10
There is, if you will, a liquidity to information.
84
238939
4023
Kimondhatjuk: az információ likviddé vált.
04:14
The disc that was discovered off of Crete
85
242962
3474
A Krétán felfedezett korong
04:18
that's 4,000 years old, is heavy,
86
246436
3764
négyezer éves és súlyos,
04:22
it doesn't store a lot of information,
87
250200
1962
nem sok információt tárol,
04:24
and that information is unchangeable.
88
252162
3116
és az az infó megváltoztathatatlan.
04:27
By contrast, all of the files
89
255278
4011
Ezzel szemben az összes fájl,
04:31
that Edward Snowden took
90
259289
1861
melyet Edward Snowden kihozott
04:33
from the National Security
Agency in the United States
Agency in the United States
91
261150
2621
az USA Nemzetbiztonsági Hivatalából,
04:35
fits on a memory stick
92
263771
2419
egy körömnyi memóriakártyára
04:38
the size of a fingernail,
93
266190
3010
ráfér,
04:41
and it can be shared at the speed of light.
94
269200
4745
és fénysebességgel megosztható.
04:45
More data. More.
95
273945
5255
Több adat. Több.
04:51
Now, one reason why we have
so much data in the world today
so much data in the world today
96
279200
1974
Az egyik oka, miért van ma a világon
04:53
is we are collecting things
97
281174
1432
olyan sok adatunk, mert gyűjtjük,
04:54
that we've always collected information on,
98
282606
3280
amiről mindig is gyűjtöttük az infót.
04:57
but another reason why is we're taking things
99
285886
2656
A másik oka, mert gyűjtjük
azokat a dolgokat,
azokat a dolgokat,
05:00
that have always been informational
100
288542
2812
melyek mindig is
tájékoztató jellegűek voltak,
tájékoztató jellegűek voltak,
05:03
but have never been rendered into a data format
101
291354
2486
de eddig soha nem szervezték
adatformába őket,
adatformába őket,
05:05
and we are putting it into data.
102
293840
2419
de mi most adatokká rendezzük őket.
05:08
Think, for example, the question of location.
103
296259
3308
Gondoljunk pl. a hely kérdésére.
05:11
Take, for example, Martin Luther.
104
299567
2249
Vegyük pl. Luther Mártont.
Ha meg szerettük volna tudni
a XVI. században,
a XVI. században,
05:13
If we wanted to know in the 1500s
105
301816
1597
05:15
where Martin Luther was,
106
303413
2667
hogy hol van Luther,
05:18
we would have to follow him at all times,
107
306080
2092
állandóan követnünk kellett volna
05:20
maybe with a feathery quill and an inkwell,
108
308172
2137
lúdtollal és tintatartóval a kezünkben,
05:22
and record it,
109
310309
1676
és jegyzetelnünk kellett volna.
05:23
but now think about what it looks like today.
110
311985
2183
Gondoljunk bele, hogyan történik ez ma.
05:26
You know that somewhere,
111
314168
2122
Tudjuk, hogy valahol, valószínűleg
05:28
probably in a telecommunications carrier's database,
112
316290
2446
a telekommunikációs szolgáltató
adatbázisában
adatbázisában
05:30
there is a spreadsheet or at least a database entry
113
318736
3036
van egy táblázat vagy adatbázis bemenet,
05:33
that records your information
114
321772
2088
amely rögzíti az információt arról,
05:35
of where you've been at all times.
115
323860
2063
mikor merre járunk.
05:37
If you have a cell phone,
116
325923
1360
Ha mobiltelefonunk van,
05:39
and that cell phone has GPS,
but even if it doesn't have GPS,
but even if it doesn't have GPS,
117
327283
2847
és a mobilban van GPS,
de még ha nincs is benne GPS,
de még ha nincs is benne GPS,
05:42
it can record your information.
118
330130
2385
rögzíteni tudja ezt az információt.
05:44
In this respect, location has been datafied.
119
332515
4084
Ebből a szempontból
a hely adattá változott.
a hely adattá változott.
05:48
Now think, for example, of the issue of posture,
120
336599
4601
Most gondoljunk pl. a testtartásra,
05:53
the way that you are all sitting right now,
121
341200
1285
ahogy most ülnek,
05:54
the way that you sit,
122
342485
2030
ahogy ön ül,
05:56
the way that you sit, the way that you sit.
123
344515
2771
meg ön ül, meg ahogy ön ül.
05:59
It's all different, and it's a function of your leg length
124
347286
2077
Mindenki másként ül a lábhosszúságától
06:01
and your back and the contours of your back,
125
349363
2093
és háta méretétől függően,
06:03
and if I were to put sensors,
maybe 100 sensors
maybe 100 sensors
126
351456
2531
ha mondjuk 100 érzékelőt helyeznék
06:05
into all of your chairs right now,
127
353987
1766
mindnyájuk székébe,
06:07
I could create an index that's fairly unique to you,
128
355753
3600
létrehozhatnék egy mutatószámot,
amely elég egyedi lenne,
amely elég egyedi lenne,
06:11
sort of like a fingerprint, but it's not your finger.
129
359353
4409
mint az ujjlenyomatuk. De ez nem az ujjuk.
06:15
So what could we do with this?
130
363762
2969
Mit kezdhetnénk vele?
06:18
Researchers in Tokyo are using it
131
366731
2397
Tokiói kutatók kocsikban mint
06:21
as a potential anti-theft device in cars.
132
369128
4388
potenciális lopásgátlót használják.
06:25
The idea is that the carjacker sits behind the wheel,
133
373516
2924
Az ötlet, hogy ha a rabló beül a kocsiba,
06:28
tries to stream off, but the car recognizes
134
376440
2104
megpróbál lelépni, de a kocsi fölismeri,
06:30
that a non-approved driver is behind the wheel,
135
378544
2362
hogy nem a jogosult ül benne,
06:32
and maybe the engine just stops, unless you
136
380906
2164
és lehet, hogy leáll a motor,
06:35
type in a password into the dashboard
137
383070
3177
ha nem írjuk be a jelszót a műszerfalba,
06:38
to say, "Hey, I have authorization to drive." Great.
138
386247
4658
mintha azt mondanánk:
"Szia, vezethetem a kocsit." Remek.
"Szia, vezethetem a kocsit." Remek.
06:42
What if every single car in Europe
139
390905
2553
Mi lenne, ha minden európai kocsiba
06:45
had this technology in it?
140
393458
1457
be lenne építve ez a technika?
06:46
What could we do then?
141
394915
3165
Mit kezdhetnénk ezzel?
06:50
Maybe, if we aggregated the data,
142
398080
2240
Lehet, ha az adatokat összegyűjtenénk,
06:52
maybe we could identify telltale signs
143
400320
3814
ezzel kimutathatnánk
06:56
that best predict that a car accident
144
404134
2709
az öt másodpercen belül esetleg
bekövetkező autóbaleset
bekövetkező autóbaleset
06:58
is going to take place in the next five seconds.
145
406843
5893
árulkodó előjeleit
07:04
And then what we will have datafied
146
412736
2557
Azután adattá alakíthatjuk
07:07
is driver fatigue,
147
415293
1783
a sofőr kimerültségét,
07:09
and the service would be when the car senses
148
417076
2334
így a kocsi érzékelné,
07:11
that the person slumps into that position,
149
419410
3437
amikor a sofőr belerogy az ülésbe,
07:14
automatically knows, hey, set an internal alarm
150
422847
3994
önműködően bekapcsolná a belső riasztót,
07:18
that would vibrate the steering wheel, honk inside
151
426841
2025
az meg rezegtetné a kormányt, tülkölne,
07:20
to say, "Hey, wake up,
152
428866
1721
hogy: "Hé, ébresztő,
07:22
pay more attention to the road."
153
430587
1904
jobban figyelj az útra."
07:24
These are the sorts of things we can do
154
432491
1853
Ezek olyan dolgok, amiket megtehetünk,
07:26
when we datafy more aspects of our lives.
155
434344
2821
ha adattá alakítjuk
életünk egyes tényezőit.
életünk egyes tényezőit.
07:29
So what is the value of big data?
156
437165
3675
Mitől értékes a big data?
07:32
Well, think about it.
157
440840
2190
Gondolkozzunk csak el rajta.
07:35
You have more information.
158
443030
2412
Több információnk van.
07:37
You can do things that you couldn't do before.
159
445442
3341
Megtehetünk olyat is, amit korábban nem.
07:40
One of the most impressive areas
160
448783
1676
Az egyik ilyen lenyűgöző terület,
07:42
where this concept is taking place
161
450459
1729
ahol az elmélet fölhasználható,
07:44
is in the area of machine learning.
162
452188
3307
a gépi tanulás.
07:47
Machine learning is a branch of artificial intelligence,
163
455495
3077
A gépi tanulás része
a mesterséges intelligenciának,
a mesterséges intelligenciának,
07:50
which itself is a branch of computer science.
164
458572
3378
mely maga is a számítástechnika egyik ága.
07:53
The general idea is that instead of
165
461950
1543
Az ötlet lényege: ahelyett,
07:55
instructing a computer what do do,
166
463493
2117
hogy utasítanánk a gépet, mi a teendője,
07:57
we are going to simply throw data at the problem
167
465610
2620
egyszerűen rázúdítjuk
a probléma adatait,
a probléma adatait,
08:00
and tell the computer to figure it out for itself.
168
468230
3206
és megmondjuk a gépnek,
önállóan hozzon ki belőlük valamit.
önállóan hozzon ki belőlük valamit.
08:03
And it will help you understand it
169
471436
1777
Könnyebb lesz ezt megérteniük,
08:05
by seeing its origins.
170
473213
3552
ha visszanyúlunk az alapokhoz.
08:08
In the 1950s, a computer scientist
171
476765
2388
Az 50-es években az IBM informatikusa,
08:11
at IBM named Arthur Samuel liked to play checkers,
172
479153
3592
Arthur Samuel, szerette a dámajátékot,
08:14
so he wrote a computer program
173
482745
1402
ezért programot írt a gépre,
08:16
so he could play against the computer.
174
484147
2813
hogy játszhasson a gép ellen.
08:18
He played. He won.
175
486960
2711
Játszott. Nyert.
08:21
He played. He won.
176
489671
2103
Játszott. Nyert.
08:23
He played. He won,
177
491774
3015
Játszott. Nyert,
08:26
because the computer only knew
178
494789
1778
mert a gép csak
08:28
what a legal move was.
179
496567
2227
a lépések szabályait ismerte.
08:30
Arthur Samuel knew something else.
180
498794
2087
De Samuel mást is tudott.
08:32
Arthur Samuel knew strategy.
181
500881
4629
Arthur Samuel ismerte a stratégiát.
08:37
So he wrote a small sub-program alongside it
182
505510
2396
Hozzáírt egy kis alprogramot,
08:39
operating in the background, and all it did
183
507906
1974
amely a háttérben működött,
08:41
was score the probability
184
509880
1817
és minden lépésnél kiszámolta,
08:43
that a given board configuration would likely lead
185
511697
2563
hogy egy adott állás
08:46
to a winning board versus a losing board
186
514260
2910
mekkora a valószínűséggel eredményez
08:49
after every move.
187
517170
2508
nyerő vagy vesztő állást.
08:51
He plays the computer. He wins.
188
519678
3150
Játszott a géppel. Nyert.
08:54
He plays the computer. He wins.
189
522828
2508
Játszott a géppel. Nyert.
08:57
He plays the computer. He wins.
190
525336
3731
Játszott a géppel. Nyert.
09:01
And then Arthur Samuel leaves the computer
191
529067
2277
Azután Arthur Samuel hagyta,
09:03
to play itself.
192
531344
2227
hogy a gép magával játsszon.
09:05
It plays itself. It collects more data.
193
533571
3509
Magával játszik. Több adatot gyűjt.
09:09
It collects more data. It increases
the accuracy of its prediction.
the accuracy of its prediction.
194
537080
4309
Több adatot gyűjt.
Javítja az előrejelzései pontosságát.
Javítja az előrejelzései pontosságát.
09:13
And then Arthur Samuel goes back to the computer
195
541389
2104
Azután Samuel újra leül a géppel játszani;
09:15
and he plays it, and he loses,
196
543493
2318
játszik — és veszít,
09:17
and he plays it, and he loses,
197
545811
2069
újból játszik és veszít,
09:19
and he plays it, and he loses,
198
547880
2047
játszik és veszít,
09:21
and Arthur Samuel has created a machine
199
549927
2599
s Samuel megteremtette a gépet,
09:24
that surpasses his ability in a task that he taught it.
200
552526
6288
mely abban, amire tanította,
felülmúlja a tanár képességeit.
felülmúlja a tanár képességeit.
09:30
And this idea of machine learning
201
558814
2498
A gépi tanulás elve ma már
09:33
is going everywhere.
202
561312
3927
mindenhol teret nyert.
09:37
How do you think we have self-driving cars?
203
565239
3149
Mit gondolnak, miért vannak már
önvezető autók?
önvezető autók?
09:40
Are we any better off as a society
204
568388
2137
A társadalom jobb helyzetben van,
09:42
enshrining all the rules of the road into software?
205
570525
3285
ha a KRESZT-t szoftverbe foglaljuk?
09:45
No. Memory is cheaper. No.
206
573810
2598
Nem. A memória olcsóbb? Nem.
09:48
Algorithms are faster. No. Processors are better. No.
207
576408
3994
Az algoritmus gyorsabb? Nem.
A processzorok jobbak? Nem.
A processzorok jobbak? Nem.
09:52
All of those things matter, but that's not why.
208
580402
2772
Persze, ezek számítanak, de nem ez az oka.
09:55
It's because we changed the nature of the problem.
209
583174
3141
Hanem, mert megváltoztattuk
a probléma természetét.
a probléma természetét.
09:58
We changed the nature of the problem from one
210
586315
1530
Megváltoztattuk, mert ahelyett,
09:59
in which we tried to overtly and explicitly
211
587845
2245
hogy részletekbe menően
10:02
explain to the computer how to drive
212
590090
2581
elmagyaráznánk a gépnek, miként vezessen,
10:04
to one in which we say,
213
592671
1316
csak annyit mondunk neki:
10:05
"Here's a lot of data around the vehicle.
214
593987
1876
"Itt egy sereg adat a jármű körül.
10:07
You figure it out.
215
595863
1533
Hozz ki belőle valamit!
Vedd észre, hogy ez egy közlekedési lámpa,
10:09
You figure it out that that is a traffic light,
216
597396
1867
10:11
that that traffic light is red and not green,
217
599263
2081
tilosat mutat, nem zöldet,
10:13
that that means that you need to stop
218
601344
2014
azt jelenti, hogy meg kell állnod,
10:15
and not go forward."
219
603358
3083
most nem mehetsz."
10:18
Machine learning is at the basis
220
606441
1518
A gépi tanulás
sok mindennek alapja, amit online végzünk:
10:19
of many of the things that we do online:
221
607959
1991
10:21
search engines,
222
609950
1857
keresőmotorok,
10:23
Amazon's personalization algorithm,
223
611807
3801
az Amazon személyre szabott algoritmusa,
10:27
computer translation,
224
615608
2212
számítógépes fordítók,
10:29
voice recognition systems.
225
617820
4290
hangfelismerő rendszerek.
10:34
Researchers recently have looked at
226
622110
2835
A kutatók az utóbbi időben
10:36
the question of biopsies,
227
624945
3195
a biopsziával,
10:40
cancerous biopsies,
228
628140
2767
a rákos sejtek biopsziájával foglalkoznak,
10:42
and they've asked the computer to identify
229
630907
2315
és azt kérték, hogy a gép az adatokat
10:45
by looking at the data and survival rates
230
633222
2471
és a túlélési arányt összevetve
10:47
to determine whether cells are actually
231
635693
4667
döntse el a sejtekről,
10:52
cancerous or not,
232
640360
2544
hogy rákosak-e vagy sem.
10:54
and sure enough, when you throw the data at it,
233
642904
1778
Elegendő adat esetén a gép
10:56
through a machine-learning algorithm,
234
644682
2047
gépi tanulási algoritmussal
10:58
the machine was able to identify
235
646729
1877
meg tudta határozni a 12 jellemzőt,
11:00
the 12 telltale signs that best predict
236
648606
2262
amely a legbiztosabban jelzi,
11:02
that this biopsy of the breast cancer cells
237
650868
3299
hogy a biopsziából nyert emlőráksejtek
11:06
are indeed cancerous.
238
654167
3218
tényleg rákosak-e.
11:09
The problem: The medical literature
239
657385
2498
A bökkenő: az orvosi szakirodalom
11:11
only knew nine of them.
240
659883
2789
közülük csak kilencet ismert.
11:14
Three of the traits were ones
241
662672
1800
Három jellemzőt
11:16
that people didn't need to look for,
242
664472
2975
a szakértők nem tartottak lényegesnek,
11:19
but that the machine spotted.
243
667447
5531
ezt a hármat a gép ismerte föl.
11:24
Now, there are dark sides to big data as well.
244
672978
5925
A big datának vannak sötét oldalai is.
11:30
It will improve our lives, but there are problems
245
678903
2074
Jobbá teszi életünket,
11:32
that we need to be conscious of,
246
680977
2640
de figyelnünk kell néhány dologra.
11:35
and the first one is the idea
247
683617
2623
Az első:
11:38
that we may be punished for predictions,
248
686240
2686
pórul is járhatumk az előrejelzéssel,
11:40
that the police may use big data for their purposes,
249
688926
3870
hogy a rendőrség saját céljaira
használhatja a big datát,
használhatja a big datát,
11:44
a little bit like "Minority Report."
250
692796
2351
mint a Különvélemény c. filmben.
11:47
Now, it's a term called predictive policing,
251
695147
2441
Létezik a prediktív rendfenntartás
11:49
or algorithmic criminology,
252
697588
2363
avagy az algoritmus-kriminológia
szakkifejezés.
szakkifejezés.
11:51
and the idea is that if we take a lot of data,
253
699951
2036
Eszerint, ha elég sok adatunk van,
11:53
for example where past crimes have been,
254
701987
2159
pl. hol történtek bűnesetek,
11:56
we know where to send the patrols.
255
704146
2543
ebből tudni fogjuk,
hova küldjünk járőröket.
hova küldjünk járőröket.
11:58
That makes sense, but the problem, of course,
256
706689
2115
Ebben van logika, de a bökkenő,
12:00
is that it's not simply going to stop on location data,
257
708804
4544
hogy a dolog nem korlátozódik
a hely-adatokra,
a hely-adatokra,
12:05
it's going to go down to the level of the individual.
258
713348
2959
hanem elér az egyénig.
12:08
Why don't we use data about the person's
259
716307
2250
Miért ne használnánk föl
12:10
high school transcript?
260
718557
2228
az érettségi bizonyítvány adatait?
12:12
Maybe we should use the fact that
261
720785
1561
Vagy használhatnánk,
hogy az illető munkanélküli-e,
hitelképes-e,
hitelképes-e,
12:14
they're unemployed or not, their credit score,
262
722346
2028
12:16
their web-surfing behavior,
263
724374
1552
hol szörföl a világhálón,
12:17
whether they're up late at night.
264
725926
1878
fönn van-e éjszakánként?
12:19
Their Fitbit, when it's able
to identify biochemistries,
to identify biochemistries,
265
727804
3161
Ha a Fitbit okosóra képes mérni
a biokémiai adatokat,
a biokémiai adatokat,
12:22
will show that they have aggressive thoughts.
266
730965
4236
kimutathatja az agresszív gondolatokat.
Lehetnek olyan algoritmusok,
melyek jelezhetik,
melyek jelezhetik,
12:27
We may have algorithms that are likely to predict
267
735201
2221
12:29
what we are about to do,
268
737422
1633
mit szándékozunk tenni,
12:31
and we may be held accountable
269
739055
1244
és felelősségre vonhatnak minket,
12:32
before we've actually acted.
270
740299
2590
mielőtt még a kisujjunkat mozdítanánk.
12:34
Privacy was the central challenge
271
742889
1732
A magánélet központi kérdés volt
12:36
in a small data era.
272
744621
2880
a small data időszakában.
12:39
In the big data age,
273
747501
2149
A big data időszakában a kérdés
12:41
the challenge will be safeguarding free will,
274
749650
4523
a szabad akarat, az erkölcsös választás,
12:46
moral choice, human volition,
275
754173
3779
az emberi akarat
12:49
human agency.
276
757952
3068
és az emberi cselekvő erő oltalma.
12:54
There is another problem:
277
762540
2225
Van még egy másik gond is:
12:56
Big data is going to steal our jobs.
278
764765
3556
a big data megfoszt az állásunktól.
13:00
Big data and algorithms are going to challenge
279
768321
3512
A big data és az algoritmusok
veszélyeztetik
veszélyeztetik
13:03
white collar, professional knowledge work
280
771833
3061
a fehérgalléros értelmiségiek munkáját
13:06
in the 21st century
281
774894
1653
a XXI. században.
13:08
in the same way that factory automation
282
776547
2434
Ugyanúgy, mint a gyárak automatizálása
13:10
and the assembly line
283
778981
2189
és a futószalag
13:13
challenged blue collar labor in the 20th century.
284
781170
3026
fenyegette a kékgallérosokat
a XX. században.
a XX. században.
13:16
Think about a lab technician
285
784196
2092
Gondoljunk a laboránsra,
aki mikroszkópon keresztül figyeli
13:18
who is looking through a microscope
286
786288
1409
13:19
at a cancer biopsy
287
787697
1624
a biopsziás sejteket,
13:21
and determining whether it's cancerous or not.
288
789321
2637
és próbálja eldönteni, rákosak-e.
13:23
The person went to university.
289
791958
1972
A laboráns egyetemet végzett,
13:25
The person buys property.
290
793930
1430
ingatlant vett,
13:27
He or she votes.
291
795360
1741
szavaz,
13:29
He or she is a stakeholder in society.
292
797101
3666
a társadalom tagja.
Azután kiderül, hogy az illető állása,
13:32
And that person's job,
293
800767
1394
13:34
as well as an entire fleet
294
802161
1609
csakúgy mint sok-sok értelmiségé,
13:35
of professionals like that person,
295
803770
1969
a hozzá hasonlóké
13:37
is going to find that their jobs are radically changed
296
805739
3150
gyökeresen megváltozott,
13:40
or actually completely eliminated.
297
808889
2357
vagy teljesen fölöslegessé vált.
13:43
Now, we like to think
298
811246
1284
Szeretjük azt hinni,,
13:44
that technology creates jobs over a period of time
299
812530
3187
hogy hosszabb távon
a technika állásokat teremt
a technika állásokat teremt
13:47
after a short, temporary period of dislocation,
300
815717
3465
egy rövid kaotikus időszak után,
13:51
and that is true for the frame of reference
301
819182
1941
s ez jelen életünkre igaz,
13:53
with which we all live, the Industrial Revolution,
302
821123
2142
az ipari forradalom idején
13:55
because that's precisely what happened.
303
823265
2328
pont ez történt.
13:57
But we forget something in that analysis:
304
825593
2333
De az elemzésből valamit kihagytunk:
13:59
There are some categories of jobs
305
827926
1830
vannak olyan munkakörök,
14:01
that simply get eliminated and never come back.
306
829756
3420
amelyek eltűnnek,
és soha nem térnek vissza.
és soha nem térnek vissza.
14:05
The Industrial Revolution wasn't very good
307
833176
2004
Ha lovak lettünk volna, nem örültünk volna
14:07
if you were a horse.
308
835180
4002
az ipari forradalomnak.
14:11
So we're going to need to be careful
309
839182
2055
Szóval óvatosnak kell lennünk,
14:13
and take big data and adjust it for our needs,
310
841237
3514
és a big datát a szükségleteinkhez,
14:16
our very human needs.
311
844751
3185
az emberi szükségletekhez
kell igazítanunk.
kell igazítanunk.
14:19
We have to be the master of this technology,
312
847936
1954
Gazdái legyünk a technológiának,
14:21
not its servant.
313
849890
1656
ne szolgái.
14:23
We are just at the outset of the big data era,
314
851546
2958
Jelenleg a big data korszaknak
a kezdetén vagyunk,
a kezdetén vagyunk,
14:26
and honestly, we are not very good
315
854504
3150
és bevallhatjuk,
hogy még nem vagyunk elég jók
hogy még nem vagyunk elég jók
14:29
at handling all the data that we can now collect.
316
857654
4207
a begyűjthető adatok kezelésében.
Ez nem csak a Nemzetbiztonsági
Hivatal gondja.
Hivatal gondja.
14:33
It's not just a problem for
the National Security Agency.
the National Security Agency.
317
861861
3330
14:37
Businesses collect lots of
data, and they misuse it too,
data, and they misuse it too,
318
865191
3038
A vállalatok rengeteg adatot
gyűjtenek, vissza is élnek velük.
gyűjtenek, vissza is élnek velük.
14:40
and we need to get better at
this, and this will take time.
this, and this will take time.
319
868229
3667
Ezen van mit javítani,
ami nem megy máról holnapra.
ami nem megy máról holnapra.
14:43
It's a little bit like the challenge that was faced
320
871896
1822
Egy kicsit olyan ez,
14:45
by primitive man and fire.
321
873718
2407
mint az ősember és a tűz esete.
14:48
This is a tool, but this is a tool that,
322
876125
1885
Ez egy eszköz, de olyan eszköz,
14:50
unless we're careful, will burn us.
323
878010
3559
amellyel ha gondatlanul bánunk,
megéget bennünket.
megéget bennünket.
14:56
Big data is going to transform how we live,
324
884008
3120
A big data átformálja az életünket,
14:59
how we work and how we think.
325
887128
2801
munkánkat és gondolkodásunkat.
15:01
It is going to help us manage our careers
326
889929
1889
Segít életpályánk alakításában,
15:03
and lead lives of satisfaction and hope
327
891818
3634
és hogy örömteli, reményteljes,
15:07
and happiness and health,
328
895452
2992
boldog és egészséges életet élhessünk.
15:10
but in the past, we've often
looked at information technology
looked at information technology
329
898444
3306
A múltban gyakran úgy tekintettünk
az információ-technológiára,
az információ-technológiára,
15:13
and our eyes have only seen the T,
330
901750
2208
hogy csak a T-t vettük észre,
15:15
the technology, the hardware,
331
903958
1686
a technológiát, a hardvert,
15:17
because that's what was physical.
332
905644
2262
mert az fizikailag megragadható.
15:19
We now need to recast our gaze at the I,
333
907906
2924
Most pillantásunkat
az I-re is rá kell vetnünk,
az I-re is rá kell vetnünk,
15:22
the information,
334
910830
1380
az információra,
15:24
which is less apparent,
335
912210
1373
ami kevésbé kézzelfogható,
15:25
but in some ways a lot more important.
336
913583
4109
de bizonyos szempontból fontosabb.
15:29
Humanity can finally learn from the information
337
917692
3465
Az emberiség a begyűjtött információból
15:33
that it can collect,
338
921157
2418
végül tudást meríthet,
15:35
as part of our timeless quest
339
923575
2115
ami választ adhat az örök kérdésre:
15:37
to understand the world and our place in it,
340
925690
3159
mi is a világ, és mi a helyünk benne,
15:40
and that's why big data is a big deal.
341
928849
5631
és ezért a big data azt is jelenti:
nagy a tét.
nagy a tét.
15:46
(Applause)
342
934480
3568
(Taps)
ABOUT THE SPEAKER
Kenneth Cukier - Data Editor of The EconomistKenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages.
Why you should listen
As Data Editor of The Economist and co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think, Kenneth Cukier has spent years immersed in big data, machine learning -- and the impact of both. What's the future of big data-driven technology and design? To find out, watch this talk.
Kenneth Cukier | Speaker | TED.com