TEDSalon Berlin 2014
Kenneth Cukier: Big data is better data
Кеннет Кук'єр: Більші дані - кращі дані
Filmed:
Readability: 4.1
1,663,038 views
Самокеровані автомобілі були лише початком. Яке майбутнє технологій і дизайну за участю великих об'ємів даних? У своїй захопливій науковій промові Кеннет Кук'єр аналізує, що ж чекає на машинне навчання і знання людства загалом.
Kenneth Cukier - Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio
Double-click the English transcript below to play the video.
00:12
America's favorite pie is?
0
787
3845
Улюблений пиріг американців?
00:16
Audience: Apple.
Kenneth Cukier: Apple. Of course it is.
Kenneth Cukier: Apple. Of course it is.
1
4632
3506
Аудиторія: Яблучний.
Кеннет Кук'єр: Яблучний. Звісно ж.
Кеннет Кук'єр: Яблучний. Звісно ж.
00:20
How do we know it?
2
8138
1231
Звідки нам про це відомо?
00:21
Because of data.
3
9369
2753
Завдяки даним.
00:24
You look at supermarket sales.
4
12122
2066
Дивимось на розпродаж в супермаркеті.
00:26
You look at supermarket
sales of 30-centimeter pies
sales of 30-centimeter pies
5
14188
2866
На торгівлю 30-сантиметровими замороженими
00:29
that are frozen, and apple wins, no contest.
6
17054
4075
пирогами, і яблучний, без сумніву, виграє.
00:33
The majority of the sales are apple.
7
21129
5180
Більшість продаж - пироги з яблуками.
00:38
But then supermarkets started selling
8
26309
2964
Проте згодом супермаркети почали продавати
00:41
smaller, 11-centimeter pies,
9
29273
2583
менші, 11-сантиметрові пироги,
00:43
and suddenly, apple fell to fourth or fifth place.
10
31856
4174
і раптово рейтинг яблучних знизився до
четвертого чи п'ятого місця.
четвертого чи п'ятого місця.
00:48
Why? What happened?
11
36030
2875
Чому? Що трапилось?
00:50
Okay, think about it.
12
38905
2818
Гаразд, поміркуйте про це.
00:53
When you buy a 30-centimeter pie,
13
41723
3848
Коли ви купуєте 30-сантиметровий пиріг,
00:57
the whole family has to agree,
14
45571
2261
уся сім'я змушена погодитись,
00:59
and apple is everyone's second favorite.
15
47832
3791
і пиріг з яблуками виявляється улюбленим
кожного другого.
кожного другого.
01:03
(Laughter)
16
51623
1935
(Сміх)
01:05
But when you buy an individual 11-centimeter pie,
17
53558
3615
Проте якщо ви купуєте 11-сантиметровий
пиріг,
пиріг,
01:09
you can buy the one that you want.
18
57173
3745
ви можете придбати той, який бажаєте.
01:12
You can get your first choice.
19
60918
4015
Ви можете повернутись до першого вибору.
01:16
You have more data.
20
64933
1641
У вас більше інформації.
01:18
You can see something
21
66574
1554
Ви можете помітити щось,
01:20
that you couldn't see
22
68128
1132
що не помічали тоді,
01:21
when you only had smaller amounts of it.
23
69260
3953
коли у вас були лише окремі факти.
01:25
Now, the point here is that more data
24
73213
2475
І ось, ключовим моментом є те, що
додаткові дані
додаткові дані
01:27
doesn't just let us see more,
25
75688
2283
не тільки дають можливість бачити
01:29
more of the same thing we were looking at.
26
77971
1854
інші аспекти аналізованого об'єкта.
01:31
More data allows us to see new.
27
79825
3613
Більше даних дозволяють бачити нове.
01:35
It allows us to see better.
28
83438
3094
Бачити краще.
01:38
It allows us to see different.
29
86532
3656
Бачити інакше.
01:42
In this case, it allows us to see
30
90188
3173
У цьому випадку, дані дозволяють побачити
01:45
what America's favorite pie is:
31
93361
2913
який же з пирогів є улюбленим серед
американців:
американців:
01:48
not apple.
32
96274
2542
не з яблуками.
01:50
Now, you probably all have heard the term big data.
33
98816
3614
Так от, ви всі, напевне, чули визначення
"великі дані".
"великі дані".
01:54
In fact, you're probably sick of hearing the term
34
102430
2057
Власне, ви, мабуть, втомилися чути про
01:56
big data.
35
104487
1630
великий об'єм даних.
01:58
It is true that there is a lot of hype around the term,
36
106117
3330
Термін є дійсно дуже розрекламованим,
02:01
and that is very unfortunate,
37
109447
2332
і це дуже сумно,
02:03
because big data is an extremely important tool
38
111779
3046
тому що велика кількість даних є важливим
інструментом,
інструментом,
02:06
by which society is going to advance.
39
114825
3734
за допомогою якого суспільство
розвиватиметься.
розвиватиметься.
02:10
In the past, we used to look at small data
40
118559
3561
В минулому ми брали до уваги невеликі
об'єми інформації
об'єми інформації
02:14
and think about what it would mean
41
122120
1704
і думали, що б вони могли означати
02:15
to try to understand the world,
42
123824
1496
для спроби розуміння світу,
02:17
and now we have a lot more of it,
43
125320
1991
а тепер у нас набагато більше даних -
02:19
more than we ever could before.
44
127311
2722
більше, ніж могло б коли-небудь бути.
02:22
What we find is that when we have
45
130033
1877
Отож, коли ми маємо
02:23
a large body of data, we can fundamentally do things
46
131910
2724
велику масу даних, ми маємо можливість
робити те,
робити те,
02:26
that we couldn't do when we
only had smaller amounts.
only had smaller amounts.
47
134634
3276
чого не могли, коли даних було значно
менше.
менше.
02:29
Big data is important, and big data is new,
48
137910
2641
Великі дані важливі, великі дані
інноваційні,
інноваційні,
02:32
and when you think about it,
49
140551
1777
і якщо задуматись,
02:34
the only way this planet is going to deal
50
142328
2216
для нашої планети єдиним шляхом подолати
02:36
with its global challenges —
51
144544
1789
виклики світового значення є
02:38
to feed people, supply them with medical care,
52
146333
3537
нагодувати людей, забезпечити їх медичною
допомогою,
допомогою,
02:41
supply them with energy, electricity,
53
149870
2810
енергією, електрикою,
02:44
and to make sure they're not burnt to a crisp
54
152680
1789
впевнитись, що вони не згоріли дотла
02:46
because of global warming —
55
154469
1238
через глобальне
потепління
потепління
02:47
is because of the effective use of data.
56
155707
4195
за допомогою ефективного використання
інформації.
інформації.
02:51
So what is new about big
data? What is the big deal?
data? What is the big deal?
57
159902
3870
Що ж нового у великих даних?
В чому ж суть?
В чому ж суть?
02:55
Well, to answer that question, let's think about
58
163772
2517
Щоб дати відповідь на запитання,
подумаймо
подумаймо
02:58
what information looked like,
59
166289
1896
про те, який вигляд мала інформація,
03:00
physically looked like in the past.
60
168185
3034
як вона фізично виглядала в минулому.
03:03
In 1908, on the island of Crete,
61
171219
3611
У 1908 на острові Крит
03:06
archaeologists discovered a clay disc.
62
174830
4735
археологи знайшли глиняний диск.
03:11
They dated it from 2000 B.C., so it's 4,000 years old.
63
179565
4059
Він датувався 2000 роком до н.е., отже
йому приблизно 4000 років.
йому приблизно 4000 років.
03:15
Now, there's inscriptions on this disc,
64
183624
2004
На диску є надписи,
03:17
but we actually don't know what it means.
65
185628
1327
але їхнє значення невідоме.
03:18
It's a complete mystery, but the point is that
66
186955
2098
Повна таємниця, але суть в тому, що
03:21
this is what information used to look like
67
189053
1928
таким чином інформація виглядала
03:22
4,000 years ago.
68
190981
2089
4000 років тому.
03:25
This is how society stored
69
193070
2548
Отак суспільство накопичувало
03:27
and transmitted information.
70
195618
3524
і передавало дані.
03:31
Now, society hasn't advanced all that much.
71
199142
4160
Відтоді суспільство не дуже розвинулось.
03:35
We still store information on discs,
72
203302
3474
Ми все ще накопичуємо
інформацію на дисках,
інформацію на дисках,
03:38
but now we can store a lot more information,
73
206776
3184
проте сьогодні можна зберігати набагато
більше даних
більше даних
03:41
more than ever before.
74
209960
1260
ніж коли-небудь раніше.
03:43
Searching it is easier. Copying it easier.
75
211220
3093
Пошук даних спростився. Спростилося й
копіювання.
копіювання.
03:46
Sharing it is easier. Processing it is easier.
76
214313
3500
А також обмін та обробка.
03:49
And what we can do is we can reuse this information
77
217813
2766
І ми можемо повторно використовувати
інформацію
інформацію
03:52
for uses that we never even imagined
78
220579
1834
для цілей, яких не могли навіть уявити
03:54
when we first collected the data.
79
222413
3195
під час первинного збору даних.
03:57
In this respect, the data has gone
80
225608
2252
В цьому плані дані пройшли шлях
03:59
from a stock to a flow,
81
227860
3532
від запасів до потоку,
04:03
from something that is stationary and static
82
231392
3938
від стаціонарного і статичного
04:07
to something that is fluid and dynamic.
83
235330
3609
до чогось швидкоплинного і
динамічного.
динамічного.
04:10
There is, if you will, a liquidity to information.
84
238939
4023
Плинність інформації, якщо
бажаєте.
бажаєте.
04:14
The disc that was discovered off of Crete
85
242962
3474
Диск, знайдений на Криті
04:18
that's 4,000 years old, is heavy,
86
246436
3764
і якому 4000 років, досить важкий,
04:22
it doesn't store a lot of information,
87
250200
1962
не зберігає багато інформації,
04:24
and that information is unchangeable.
88
252162
3116
і ця інформація незмінна.
04:27
By contrast, all of the files
89
255278
4011
Для порівняння, усі файли,
04:31
that Edward Snowden took
90
259289
1861
взяті Едвардом Сноуденом
04:33
from the National Security
Agency in the United States
Agency in the United States
91
261150
2621
з Агентства національної безпеки США,
04:35
fits on a memory stick
92
263771
2419
вміщуються на карті пам'яті,
04:38
the size of a fingernail,
93
266190
3010
завбільшки з ніготь,
04:41
and it can be shared at the speed of light.
94
269200
4745
і її можна поширити зі швидкістю світла.
04:45
More data. More.
95
273945
5255
Більше даних. Більше.
04:51
Now, one reason why we have
so much data in the world today
so much data in the world today
96
279200
1974
Однією з причин, чому нині
ми маємо стільки
ми маємо стільки
04:53
is we are collecting things
97
281174
1432
даних є те, що ми збираємо пристрої,
04:54
that we've always collected information on,
98
282606
3280
на яких досі збирали інформацію,
04:57
but another reason why is we're taking things
99
285886
2656
а ще те, що ми
зберігаємо матеріали,
зберігаємо матеріали,
05:00
that have always been informational
100
288542
2812
які завжди були інформаційними,
05:03
but have never been rendered into a data format
101
291354
2486
але ніколи не трансформувалися у формат
даних,
даних,
05:05
and we are putting it into data.
102
293840
2419
а зараз ми це їх переводимо
в цифровий формат.
в цифровий формат.
05:08
Think, for example, the question of location.
103
296259
3308
Тепер подумаймо, наприклад, про
місцезнаходження.
місцезнаходження.
05:11
Take, for example, Martin Luther.
104
299567
2249
Візьмемо для прикладу Мартіна Лютера.
05:13
If we wanted to know in the 1500s
105
301816
1597
Якщо б у 1500-ті ми захотіли
05:15
where Martin Luther was,
106
303413
2667
дізнатись, де був Мартін Лютер,
05:18
we would have to follow him at all times,
107
306080
2092
ми б мусили слідкувати за ним весь час,
05:20
maybe with a feathery quill and an inkwell,
108
308172
2137
можливо, навіть з пером і чорнильницею,
05:22
and record it,
109
310309
1676
і занотовувати,
05:23
but now think about what it looks like today.
110
311985
2183
проте подумаймо, як все це виглядає тепер.
05:26
You know that somewhere,
111
314168
2122
Вам відомо, що десь,
05:28
probably in a telecommunications carrier's database,
112
316290
2446
мабуть, в базі даних постачальника
телекомунікацій
телекомунікацій
05:30
there is a spreadsheet or at least a database entry
113
318736
3036
є таблиця чи, принаймні, запис
05:33
that records your information
114
321772
2088
з інформацією про те,
05:35
of where you've been at all times.
115
323860
2063
де ви весь час бували.
05:37
If you have a cell phone,
116
325923
1360
Якщо у вас є мобільний
телефон,
телефон,
05:39
and that cell phone has GPS,
but even if it doesn't have GPS,
but even if it doesn't have GPS,
117
327283
2847
і в ньому є GPS, і навіть якщо GPS немає,
05:42
it can record your information.
118
330130
2385
він все одно може записувати інформацію
про вас.
про вас.
05:44
In this respect, location has been datafied.
119
332515
4084
В цьому відношенні місцезнаходження
задокументовано.
задокументовано.
05:48
Now think, for example, of the issue of posture,
120
336599
4601
Тепер візьмемо до уваги, наприклад,
позу,
позу,
05:53
the way that you are all sitting right now,
121
341200
1285
те, як ми зараз сидимо,
05:54
the way that you sit,
122
342485
2030
те, як ви сидите,
05:56
the way that you sit, the way that you sit.
123
344515
2771
те, як сидите ви, чи ви.
05:59
It's all different, and it's a function of your leg length
124
347286
2077
Всі сидять по-різному залежно від
06:01
and your back and the contours of your back,
125
349363
2093
довжини ніг, спини і форми спини,
06:03
and if I were to put sensors,
maybe 100 sensors
maybe 100 sensors
126
351456
2531
а якщо б я зараз встановив сенсори, десь
100 сенсорів
100 сенсорів
06:05
into all of your chairs right now,
127
353987
1766
у ваші сидіння,
06:07
I could create an index that's fairly unique to you,
128
355753
3600
я б зміг вивести індивідуальний індекс для
кожного з вас,
кожного з вас,
06:11
sort of like a fingerprint, but it's not your finger.
129
359353
4409
щось на кшталт відбитка пальця, але це не
пальці.
пальці.
06:15
So what could we do with this?
130
363762
2969
Що ж можна з усім цим зробити?
06:18
Researchers in Tokyo are using it
131
366731
2397
Дослідники з Токіо використовують це
06:21
as a potential anti-theft device in cars.
132
369128
4388
як потенційний протиугінний пристрій
в автомобілях.
в автомобілях.
06:25
The idea is that the carjacker sits behind the wheel,
133
373516
2924
Суть в тому, що водій сідає за кермо,
06:28
tries to stream off, but the car recognizes
134
376440
2104
намагається втекти, але машина розпізнає
06:30
that a non-approved driver is behind the wheel,
135
378544
2362
водія без належного доступу за кермом,
06:32
and maybe the engine just stops, unless you
136
380906
2164
і мабуть, двигун затихне, аж поки не
06:35
type in a password into the dashboard
137
383070
3177
ввести пароль на приборній панелі,
06:38
to say, "Hey, I have authorization to drive." Great.
138
386247
4658
щоб прозвучало, "Агов, у мене є доступ до
водіння". Чудово.
водіння". Чудово.
06:42
What if every single car in Europe
139
390905
2553
Що якщо б кожне авто Європи було
06:45
had this technology in it?
140
393458
1457
обладнане цією технологією?
06:46
What could we do then?
141
394915
3165
Що б ми змогли зробити?
06:50
Maybe, if we aggregated the data,
142
398080
2240
Мабуть, якщо б зібрати усі дані,
06:52
maybe we could identify telltale signs
143
400320
3814
ми б могли розпізнати індикатори
приборної панелі,
приборної панелі,
06:56
that best predict that a car accident
144
404134
2709
які найкраще сповіщають про можливе
зіткнення
зіткнення
06:58
is going to take place in the next five seconds.
145
406843
5893
у наступні п'ять секунд.
07:04
And then what we will have datafied
146
412736
2557
І тоді б була задокументована
07:07
is driver fatigue,
147
415293
1783
втома водія,
07:09
and the service would be when the car senses
148
417076
2334
а машина б розпізнавала,
07:11
that the person slumps into that position,
149
419410
3437
що водій безпосередньо провалюється в ту
позу,
позу,
07:14
automatically knows, hey, set an internal alarm
150
422847
3994
автоматично визначала й посилала
внутрішній сигнал:
внутрішній сигнал:
07:18
that would vibrate the steering wheel, honk inside
151
426841
2025
вібрація керма, салонний гудок,
07:20
to say, "Hey, wake up,
152
428866
1721
і сповіщала: "Агов, прокидайся,
07:22
pay more attention to the road."
153
430587
1904
сконцентруйся на дорозі".
07:24
These are the sorts of things we can do
154
432491
1853
Ось такого типу речі ми можемо робити,
07:26
when we datafy more aspects of our lives.
155
434344
2821
документуючи й інші аспекти
нашого життя.
нашого життя.
07:29
So what is the value of big data?
156
437165
3675
В чому цінність великих даних?
07:32
Well, think about it.
157
440840
2190
Що ж, подумайте про це.
07:35
You have more information.
158
443030
2412
У вас більше інформації.
07:37
You can do things that you couldn't do before.
159
445442
3341
Ви можете робити речі, які перед тим
робити не доводилось.
робити не доводилось.
07:40
One of the most impressive areas
160
448783
1676
Однією з вражаючих сфер
їхнього використання
07:42
where this concept is taking place
161
450459
1729
є машинне навчання.
07:44
is in the area of machine learning.
162
452188
3307
Машинне навчання є частиною штучного
інтелекту,
інтелекту,
07:47
Machine learning is a branch of artificial intelligence,
163
455495
3077
який, своєю чергою, належить до
інформатики.
інформатики.
07:50
which itself is a branch of computer science.
164
458572
3378
Ідея в тому, що замість
07:53
The general idea is that instead of
165
461950
1543
того, щоб задати певний алгоритм дій,
07:55
instructing a computer what do do,
166
463493
2117
ми просто спрямуємо дані на проблему
07:57
we are going to simply throw data at the problem
167
465610
2620
і дамо можливість комп'ютеру розібратись
самому.
самому.
08:00
and tell the computer to figure it out for itself.
168
468230
3206
Зрозуміти це допоможе
08:03
And it will help you understand it
169
471436
1777
розгляд походження.
08:05
by seeing its origins.
170
473213
3552
У 1950-х вчений-інформатик
08:08
In the 1950s, a computer scientist
171
476765
2388
компанії IBM Артур Семюел полюбляв грати
в шашки,
в шашки,
08:11
at IBM named Arthur Samuel liked to play checkers,
172
479153
3592
отож він створив програму,
08:14
so he wrote a computer program
173
482745
1402
щоб грати проти комп'ютера.
08:16
so he could play against the computer.
174
484147
2813
Він грав. Він перемагав.
08:18
He played. He won.
175
486960
2711
Грав. Перемагав.
08:21
He played. He won.
176
489671
2103
Грав. Перемагав,
08:23
He played. He won,
177
491774
3015
тому що комп'ютеру було відомо тільки
08:26
because the computer only knew
178
494789
1778
правильні ходи.
08:28
what a legal move was.
179
496567
2227
Артур Семюел знав дещо інше.
08:30
Arthur Samuel knew something else.
180
498794
2087
Артур Семюел знав стратегію.
08:32
Arthur Samuel knew strategy.
181
500881
4629
Тому він написав невелику під-програму,
08:37
So he wrote a small sub-program alongside it
182
505510
2396
яка працювала у фоновому режимі
08:39
operating in the background, and all it did
183
507906
1974
і вираховувала ймовірність
08:41
was score the probability
184
509880
1817
того, що задана конфігурація призведе
08:43
that a given board configuration would likely lead
185
511697
2563
до перемоги, а не зазнає поразки
08:46
to a winning board versus a losing board
186
514260
2910
після кожного ходу.
08:49
after every move.
187
517170
2508
Він грає проти комп'ютера. Він перемагає.
08:51
He plays the computer. He wins.
188
519678
3150
Грає проти комп'ютера. Перемагає.
08:54
He plays the computer. He wins.
189
522828
2508
Грає проти комп'ютера. Перемагає.
08:57
He plays the computer. He wins.
190
525336
3731
А потім Артур Семюел залишає комп'ютер
09:01
And then Arthur Samuel leaves the computer
191
529067
2277
грати із самим собою.
09:03
to play itself.
192
531344
2227
Він грає сам з собою. Збирає більше даних.
09:05
It plays itself. It collects more data.
193
533571
3509
Зберігає більше даних. Підвищує точність
передбачення.
передбачення.
09:09
It collects more data. It increases
the accuracy of its prediction.
the accuracy of its prediction.
194
537080
4309
І ось Артур Семюел повертається до
комп' ютера,
комп' ютера,
09:13
And then Arthur Samuel goes back to the computer
195
541389
2104
і грає, і програє,
09:15
and he plays it, and he loses,
196
543493
2318
грає, і програє,
09:17
and he plays it, and he loses,
197
545811
2069
грає, і програє,
09:19
and he plays it, and he loses,
198
547880
2047
і от Артур Семюел створює пристрій,
09:21
and Arthur Samuel has created a machine
199
549927
2599
що випереджує його здатність виконувати
певні завдання.
певні завдання.
09:24
that surpasses his ability in a task that he taught it.
200
552526
6288
Ця ідея машинного навчання
09:30
And this idea of machine learning
201
558814
2498
поширюється усюди.
09:33
is going everywhere.
202
561312
3927
Як, на вашу думку, з'явились самокеровані
авто?
авто?
09:37
How do you think we have self-driving cars?
203
565239
3149
Стали б ми розвиненішим суспільством,
довіряючи
довіряючи
09:40
Are we any better off as a society
204
568388
2137
правила дорожнього руху
комп'ютерам?
комп'ютерам?
09:42
enshrining all the rules of the road into software?
205
570525
3285
Ні. Пам'ять дешевша? Ні.
09:45
No. Memory is cheaper. No.
206
573810
2598
Алгоритми швидші? Ні. Процесори кращі? Ні.
09:48
Algorithms are faster. No. Processors are better. No.
207
576408
3994
Усі ці речі мають значення, але суть не в
тому.
тому.
09:52
All of those things matter, but that's not why.
208
580402
2772
Все тому, що ми змінили саму проблему.
09:55
It's because we changed the nature of the problem.
209
583174
3141
Ми змінили проблему з однієї,
09:58
We changed the nature of the problem from one
210
586315
1530
у якій намагалися чітко і ясно
09:59
in which we tried to overtly and explicitly
211
587845
2245
пояснити комп'ютеру як керувати,
10:02
explain to the computer how to drive
212
590090
2581
до такої, де кажемо:
10:04
to one in which we say,
213
592671
1316
"Ось багато даних про авто.
10:05
"Here's a lot of data around the vehicle.
214
593987
1876
З'ясовуй.
10:07
You figure it out.
215
595863
1533
Зрозумій, що таке світлофор,
10:09
You figure it out that that is a traffic light,
216
597396
1867
що він червоний, а не зелений,
10:11
that that traffic light is red and not green,
217
599263
2081
що він означає зупинитись,
10:13
that that means that you need to stop
218
601344
2014
а не рухатись далі".
10:15
and not go forward."
219
603358
3083
Машинне навчання є основою
10:18
Machine learning is at the basis
220
606441
1518
багатьох речей онлайн:
10:19
of many of the things that we do online:
221
607959
1991
пошукових систем,
10:21
search engines,
222
609950
1857
алгоритму персоналізації Amazon,
10:23
Amazon's personalization algorithm,
223
611807
3801
комп'ютерного перекладу,
10:27
computer translation,
224
615608
2212
систем голосового розпізнавання.
10:29
voice recognition systems.
225
617820
4290
Дослідники недавно зосередились на
10:34
Researchers recently have looked at
226
622110
2835
проблемі біопсії,
10:36
the question of biopsies,
227
624945
3195
біопсії ракових клітин,
10:40
cancerous biopsies,
228
628140
2767
вони дали завдання комп'ютеру
ідентифікувати
ідентифікувати
10:42
and they've asked the computer to identify
229
630907
2315
за допомогою даних і процентів виживання,
10:45
by looking at the data and survival rates
230
633222
2471
чи клітини дійсно
10:47
to determine whether cells are actually
231
635693
4667
уражені раком чи ні,
10:52
cancerous or not,
232
640360
2544
і справді, коли ви спрямовуєте на це дані,
10:54
and sure enough, when you throw the data at it,
233
642904
1778
через алгоритм машинного навчання,
10:56
through a machine-learning algorithm,
234
644682
2047
пристрій може ідентифікувати
10:58
the machine was able to identify
235
646729
1877
12 ознак, які найкраще визначають,
11:00
the 12 telltale signs that best predict
236
648606
2262
що біоптат ракових клітин
11:02
that this biopsy of the breast cancer cells
237
650868
3299
дійсно раковий.
11:06
are indeed cancerous.
238
654167
3218
Проблема: медичній літературі
11:09
The problem: The medical literature
239
657385
2498
відомо тільки 9 з них.
11:11
only knew nine of them.
240
659883
2789
Три з ознак раніше
11:14
Three of the traits were ones
241
662672
1800
не були взагалі відомі,
11:16
that people didn't need to look for,
242
664472
2975
проте машина їх знайшла.
11:19
but that the machine spotted.
243
667447
5531
Так от, у великих даних є й вади.
11:24
Now, there are dark sides to big data as well.
244
672978
5925
Вони покращують наше життя, але існують
й проблеми,
й проблеми,
11:30
It will improve our lives, but there are problems
245
678903
2074
про які ми мусимо знати,
11:32
that we need to be conscious of,
246
680977
2640
і найпершою є ідея того,
11:35
and the first one is the idea
247
683617
2623
що нас можуть покарати за передбачення,
11:38
that we may be punished for predictions,
248
686240
2686
що поліція використовуватиме дані на
власний розсуд,
власний розсуд,
11:40
that the police may use big data for their purposes,
249
688926
3870
щось на кшталт "Особливої думки."
11:44
a little bit like "Minority Report."
250
692796
2351
Термін має назву прогностичної
11:47
Now, it's a term called predictive policing,
251
695147
2441
політики або алгоритмічної кримінології,
11:49
or algorithmic criminology,
252
697588
2363
і якщо ми візьмемо до уваги багато
відомостей,
відомостей,
11:51
and the idea is that if we take a lot of data,
253
699951
2036
наприклад, колишні місця злочинів,
11:53
for example where past crimes have been,
254
701987
2159
ми б знали, куди посилати патрулі.
11:56
we know where to send the patrols.
255
704146
2543
Логічно, але, звісно ж, проблема
11:58
That makes sense, but the problem, of course,
256
706689
2115
в тому, що все не зупиниться на даних
про локацію,
про локацію,
12:00
is that it's not simply going to stop on location data,
257
708804
4544
а пошириться й на приватний рівень.
12:05
it's going to go down to the level of the individual.
258
713348
2959
Чому б не використати інформацію
12:08
Why don't we use data about the person's
259
716307
2250
про чийсь атестат?
12:10
high school transcript?
260
718557
2228
Можливо, нам згодяться факти про
12:12
Maybe we should use the fact that
261
720785
1561
роботу, кредитний рейтинг,
12:14
they're unemployed or not, their credit score,
262
722346
2028
поведінку в глобальній мережі,
12:16
their web-surfing behavior,
263
724374
1552
чи хтось не спить допізна.
12:17
whether they're up late at night.
264
725926
1878
Прилади, які вимірюють біологічні дані,
12:19
Their Fitbit, when it's able
to identify biochemistries,
to identify biochemistries,
265
727804
3161
покажуть наявність агресивних думок.
12:22
will show that they have aggressive thoughts.
266
730965
4236
Ми можемо виробити алгоритми, які зможуть
12:27
We may have algorithms that are likely to predict
267
735201
2221
передбачити наші дії, але є ймовірність
12:29
what we are about to do,
268
737422
1633
притягнення до відповідальності
12:31
and we may be held accountable
269
739055
1244
ще перед самою спробою.
12:32
before we've actually acted.
270
740299
2590
Конфіденційність була основним викликом
12:34
Privacy was the central challenge
271
742889
1732
епохи невеликих даних.
12:36
in a small data era.
272
744621
2880
У періоді великого об'єму даних
12:39
In the big data age,
273
747501
2149
проблемою є безпека свободи волі,
12:41
the challenge will be safeguarding free will,
274
749650
4523
морального вибору, бажань,
12:46
moral choice, human volition,
275
754173
3779
свободи дій.
12:49
human agency.
276
757952
3068
Існує й інша проблема:
12:54
There is another problem:
277
762540
2225
великі дані скоротять робочі місця.
12:56
Big data is going to steal our jobs.
278
764765
3556
Вони разом з алгоритмами поставлять
під сумнів роботу
під сумнів роботу
13:00
Big data and algorithms are going to challenge
279
768321
3512
"білих комірців", професійні знання
13:03
white collar, professional knowledge work
280
771833
3061
21-го століття
13:06
in the 21st century
281
774894
1653
таким же чином, як автоматизація
13:08
in the same way that factory automation
282
776547
2434
і конвеєризація кинули виклик
13:10
and the assembly line
283
778981
2189
"синім комірцям" у 20-му столітті.
13:13
challenged blue collar labor in the 20th century.
284
781170
3026
Подумайте про лаборанта,
13:16
Think about a lab technician
285
784196
2092
що розглядає у мікроскоп
13:18
who is looking through a microscope
286
786288
1409
раковий біоптат
13:19
at a cancer biopsy
287
787697
1624
і визначає, чи він дійсно раковий.
13:21
and determining whether it's cancerous or not.
288
789321
2637
Ця людина закінчила університет.
13:23
The person went to university.
289
791958
1972
Ця людина купує речі.
13:25
The person buys property.
290
793930
1430
Він або вона голосує.
13:27
He or she votes.
291
795360
1741
Він або вона змінює суспільство.
13:29
He or she is a stakeholder in society.
292
797101
3666
І робота цієї людини,
13:32
And that person's job,
293
800767
1394
як і цілої флотилії таких же
13:34
as well as an entire fleet
294
802161
1609
професіоналів,
13:35
of professionals like that person,
295
803770
1969
радикально зміниться
13:37
is going to find that their jobs are radically changed
296
805739
3150
або й взагалі зникне.
13:40
or actually completely eliminated.
297
808889
2357
Так от, ми звикли думати, що технології
створюють
створюють
13:43
Now, we like to think
298
811246
1284
місця на довгий час
13:44
that technology creates jobs over a period of time
299
812530
3187
після короткого, тимчасового періоду
дезорганізації,
дезорганізації,
13:47
after a short, temporary period of dislocation,
300
815717
3465
і дійсно, таке відбувається в умовах,
13:51
and that is true for the frame of reference
301
819182
1941
в яких ми живемо, Індустріальній
13:53
with which we all live, the Industrial Revolution,
302
821123
2142
Революції, тому що саме так трапилось.
13:55
because that's precisely what happened.
303
823265
2328
Проче чогось бракує в цьому аналізі:
13:57
But we forget something in that analysis:
304
825593
2333
є деякі категорії праці, що просто
13:59
There are some categories of jobs
305
827926
1830
нівелюються і з часом зникають.
14:01
that simply get eliminated and never come back.
306
829756
3420
Індустріальна Революція мала б негативне
значення,
значення,
14:05
The Industrial Revolution wasn't very good
307
833176
2004
якщо ви були б конем.
14:07
if you were a horse.
308
835180
4002
Отже, нам варто бути обережними
14:11
So we're going to need to be careful
309
839182
2055
і регулювати дані лише для певних
потреб,
потреб,
14:13
and take big data and adjust it for our needs,
310
841237
3514
головних людських потреб.
14:16
our very human needs.
311
844751
3185
Ми мусимо стати господарями
цієї технології,
цієї технології,
14:19
We have to be the master of this technology,
312
847936
1954
а не її рабами.
14:21
not its servant.
313
849890
1656
Ми на початку епохи великих даних,
14:23
We are just at the outset of the big data era,
314
851546
2958
і чесно кажучи, нам не вдається оперувати
14:26
and honestly, we are not very good
315
854504
3150
усіма даними, які можемо зібрати.
14:29
at handling all the data that we can now collect.
316
857654
4207
Це проблема не тільки АНБ.
14:33
It's not just a problem for
the National Security Agency.
the National Security Agency.
317
861861
3330
Підприємства володіють багатьма даними,
проте зложивають ними,
проте зложивають ними,
14:37
Businesses collect lots of
data, and they misuse it too,
data, and they misuse it too,
318
865191
3038
тому ми повинні покращити становище, хоч
це й забере час.
це й забере час.
14:40
and we need to get better at
this, and this will take time.
this, and this will take time.
319
868229
3667
Трохи схоже на виклик
14:43
It's a little bit like the challenge that was faced
320
871896
1822
перших людей і вогню.
14:45
by primitive man and fire.
321
873718
2407
Це не тільки інструмент, але й те, що,
14:48
This is a tool, but this is a tool that,
322
876125
1885
доки ми не обережні, знищить нас.
14:50
unless we're careful, will burn us.
323
878010
3559
Великі дані змінять наше життя,
14:56
Big data is going to transform how we live,
324
884008
3120
працю і мислення.
14:59
how we work and how we think.
325
887128
2801
Вони допоможуть управляти працею
15:01
It is going to help us manage our careers
326
889929
1889
і бути задоволеним, повним сподівань,
15:03
and lead lives of satisfaction and hope
327
891818
3634
щасливим і здоровим,
15:07
and happiness and health,
328
895452
2992
але в минулому ми дивились на
інформаційні технології
інформаційні технології
15:10
but in the past, we've often
looked at information technology
looked at information technology
329
898444
3306
і бачили лише Т,
15:13
and our eyes have only seen the T,
330
901750
2208
технології, пристрої,
15:15
the technology, the hardware,
331
903958
1686
тому що все це було матеріальним.
15:17
because that's what was physical.
332
905644
2262
Тепер ж потрібно зосередитись на І,
15:19
We now need to recast our gaze at the I,
333
907906
2924
інформації,
15:22
the information,
334
910830
1380
яка, певно, є менш очевидною,
15:24
which is less apparent,
335
912210
1373
проте набагато важливішою.
15:25
but in some ways a lot more important.
336
913583
4109
Людство нарешті мати вигоду
15:29
Humanity can finally learn from the information
337
917692
3465
із зібраних відомостей,
15:33
that it can collect,
338
921157
2418
як частини наших вічних пошуків
15:35
as part of our timeless quest
339
923575
2115
розуміння світу і місця в ньому,
15:37
to understand the world and our place in it,
340
925690
3159
і ось тому великі дані мають велике
значення.
значення.
15:40
and that's why big data is a big deal.
341
928849
5631
15:46
(Applause)
342
934480
3568
ABOUT THE SPEAKER
Kenneth Cukier - Data Editor of The EconomistKenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages.
Why you should listen
As Data Editor of The Economist and co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think, Kenneth Cukier has spent years immersed in big data, machine learning -- and the impact of both. What's the future of big data-driven technology and design? To find out, watch this talk.
Kenneth Cukier | Speaker | TED.com