ABOUT THE SPEAKER
Kenneth Cukier - Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages.

Why you should listen

As Data Editor of The Economist and co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think, Kenneth Cukier has spent years immersed in big data, machine learning -- and the impact of both. What's the future of big data-driven technology and design? To find out, watch this talk.

More profile about the speaker
Kenneth Cukier | Speaker | TED.com
TEDSalon Berlin 2014

Kenneth Cukier: Big data is better data

Кеннет Кукьер: Большие данные — лучшие данные

Filmed:
1,663,038 views

Беспилотные машины были лишь началом. Каково будущее технологий, движимых большими данными, и как эти технологии будут выглядеть? В этом захватывающем научном выступлении, Кеннет Кукьер задаётся вопросом: что будет следующим в развитии машинного обучения и человеческих знаний.
- Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio

Double-click the English transcript below to play the video.

00:12
America'sАмерика favoriteлюбимый pieпирог is?
0
787
3845
Излюбленный пирог американцев?
00:16
AudienceАудитория: Appleяблоко.
KennethКеннет CukierCukier: Appleяблоко. Of courseкурс it is.
1
4632
3506
Аудитория: Яблочный.
Кеннет Кукьер: Яблочный. Конечно же.
00:20
How do we know it?
2
8138
1231
Как мы это знаем?
00:21
Because of dataданные.
3
9369
2753
Благодаря данным.
00:24
You look at supermarketсупермаркет salesпродажи.
4
12122
2066
Смотрим на продажи супермаркетов.
00:26
You look at supermarketсупермаркет
salesпродажи of 30-centimeter-centimeter piesпирогов
5
14188
2866
Смотрим на продажи
30-сантиметровых замороженных пирогов,
00:29
that are frozenзамороженный, and appleяблоко winsпобеды, no contestконкурс.
6
17054
4075
и яблочный пирог лидирует,
вне конкуренции.
00:33
The majorityбольшинство of the salesпродажи are appleяблоко.
7
21129
5180
Большинство продаж — яблочный пирог.
00:38
But then supermarketsсупермаркеты startedначал sellingпродажа
8
26309
2964
Но потом супермаркеты стали продавать
00:41
smallerменьше, 11-centimeter-centimeter piesпирогов,
9
29273
2583
пироги поменьше, 11-сантиметровые,
00:43
and suddenlyвдруг, внезапно, appleяблоко fellупал to fourthчетвертый or fifthпятый placeместо.
10
31856
4174
и внезапно яблочный пирог переместился
на 4 или 5 место.
00:48
Why? What happenedполучилось?
11
36030
2875
Почему? Что случилось?
00:50
Okay, think about it.
12
38905
2818
Хорошо, задумайтесь.
00:53
When you buyкупить a 30-centimeter-centimeter pieпирог,
13
41723
3848
При покупке 30-сантиметрового пирога
00:57
the wholeвсе familyсемья has to agreeдать согласие,
14
45571
2261
вся семья должна прийти к согласию,
00:59
and appleяблоко is everyone'sвсе это secondвторой favoriteлюбимый.
15
47832
3791
и яблочный пирог второй по предпочтению
каждого человека.
01:03
(LaughterСмех)
16
51623
1935
(Смех)
01:05
But when you buyкупить an individualиндивидуальный 11-centimeter-centimeter pieпирог,
17
53558
3615
Но при покупке отдельного
11-сантиметрового пирога
01:09
you can buyкупить the one that you want.
18
57173
3745
вы можете купить то, чего вы желаете.
01:12
You can get your first choiceвыбор.
19
60918
4015
Ваш первый выбор.
01:16
You have more dataданные.
20
64933
1641
У вас больше данных.
01:18
You can see something
21
66574
1554
Вы можете увидеть то,
01:20
that you couldn'tне может see
22
68128
1132
чего не могли раньше,
01:21
when you only had smallerменьше amountsсуммы of it.
23
69260
3953
когда у вас были
лишь маленькие части этого.
01:25
Now, the pointточка here is that more dataданные
24
73213
2475
Здесь важно то, что больше данных
01:27
doesn't just let us see more,
25
75688
2283
не только позволяет нам
01:29
more of the sameодна и та же thing we were looking at.
26
77971
1854
видеть больше в самом обозреваемом.
01:31
More dataданные allowsпозволяет us to see newновый.
27
79825
3613
Больше данных позволяет нам
видеть новое.
01:35
It allowsпозволяет us to see better.
28
83438
3094
Позволяет видеть лучше.
01:38
It allowsпозволяет us to see differentдругой.
29
86532
3656
Позволяет видеть по-другому.
01:42
In this caseдело, it allowsпозволяет us to see
30
90188
3173
В данном случае, позволяет понять
01:45
what America'sАмерика favoriteлюбимый pieпирог is:
31
93361
2913
какой пирог излюбленный у американцев:
01:48
not appleяблоко.
32
96274
2542
не яблочный.
01:50
Now, you probablyвероятно all have heardуслышанным the termсрок bigбольшой dataданные.
33
98816
3614
Вы, вероятно, слышали термин
«большие данные».
01:54
In factфакт, you're probablyвероятно sickбольной of hearingслух the termсрок
34
102430
2057
Вы, вероятно, уже устали слышать термин
01:56
bigбольшой dataданные.
35
104487
1630
«большие данные».
01:58
It is trueправда that there is a lot of hypeобман around the termсрок,
36
106117
3330
Действительно, термин разрекламирован,
02:01
and that is very unfortunateнесчастный,
37
109447
2332
что очень печально,
02:03
because bigбольшой dataданные is an extremelyочень importantважный toolинструмент
38
111779
3046
потому что большие данные —
это очень важный инструмент,
02:06
by whichкоторый societyобщество is going to advanceпродвижение.
39
114825
3734
благодаря которому
общество прогрессирует.
02:10
In the pastмимо, we used to look at smallмаленький dataданные
40
118559
3561
Раньше мы смотрели на малые данные
02:14
and think about what it would mean
41
122120
1704
и думали о том, что бы это значило:
02:15
to try to understandПонимаю the worldМир,
42
123824
1496
попробовать понять мир;
02:17
and now we have a lot more of it,
43
125320
1991
а сейчас у нас намного больше данных,
02:19
more than we ever could before.
44
127311
2722
больше, чем мы могли добыть раньше.
02:22
What we find is that when we have
45
130033
1877
И когда у нас
02:23
a largeбольшой bodyтело of dataданные, we can fundamentallyв корне do things
46
131910
2724
большой корпус данных,
мы можем делать то,
02:26
that we couldn'tне может do when we
only had smallerменьше amountsсуммы.
47
134634
3276
чего не могли делать,
когда данные были меньше.
02:29
Bigбольшой dataданные is importantважный, and bigбольшой dataданные is newновый,
48
137910
2641
Большие данные важны,
и большие данные — новинка,
02:32
and when you think about it,
49
140551
1777
и если задуматься,
02:34
the only way this planetпланета is going to dealпо рукам
50
142328
2216
для нашей планеты
единственным путём справиться
02:36
with its globalГлобальный challengesпроблемы
51
144544
1789
с мировыми проблемами:
02:38
to feedкорм people, supplyпоставка them with medicalмедицинская careзабота,
52
146333
3537
накормить людей,
предоставить им медицинскую помощь,
02:41
supplyпоставка them with energyэнергия, electricityэлектричество,
53
149870
2810
снабдить их энергией, электричеством,
02:44
and to make sure they're not burntсожжен to a crispхрустящий
54
152680
1789
да чтобы не поджарились до корочки
02:46
because of globalГлобальный warmingсогревание
55
154469
1238
с глобальным потеплением, —
02:47
is because of the effectiveэффективный use of dataданные.
56
155707
4195
является результативное
использование данных.
02:51
So what is newновый about bigбольшой
dataданные? What is the bigбольшой dealпо рукам?
57
159902
3870
Так что же ново в больших данных?
Что же в них так важно?
02:55
Well, to answerответ that questionвопрос, let's think about
58
163772
2517
Чтобы ответить на этот вопрос,
давайте подумаем о том,
02:58
what informationИнформация lookedсмотрел like,
59
166289
1896
как информация выглядела,
03:00
physicallyфизически lookedсмотрел like in the pastмимо.
60
168185
3034
физически выглядела в прошлом.
03:03
In 1908, on the islandостров of CreteКрит,
61
171219
3611
В 1908 году на острове Крит
03:06
archaeologistsархеологи discoveredобнаруженный a clayглина discдиск.
62
174830
4735
археологи нашли глиняный диск.
03:11
They datedдатированный it from 2000 B.C., so it's 4,000 yearsлет oldстарый.
63
179565
4059
Он датировался 2000 годом до н.э.,
то есть ему 4000 лет.
03:15
Now, there's inscriptionsнадписи on this discдиск,
64
183624
2004
На диске есть надписи,
03:17
but we actuallyна самом деле don't know what it meansозначает.
65
185628
1327
но нам неизвестно их значение.
03:18
It's a completeполный mysteryтайна, but the pointточка is that
66
186955
2098
Полная загадка, но главное то,
03:21
this is what informationИнформация used to look like
67
189053
1928
что так раньше выглядела информация,
03:22
4,000 yearsлет agoтому назад.
68
190981
2089
4000 лет назад.
03:25
This is how societyобщество storedхранится
69
193070
2548
Так общество хранило
03:27
and transmittedпередаваемое informationИнформация.
70
195618
3524
и передавало информацию.
03:31
Now, societyобщество hasn'tне имеет advancedпередовой all that much.
71
199142
4160
Общество не так уж и продвинулось
с тех пор.
03:35
We still storeмагазин informationИнформация on discsдиски,
72
203302
3474
Мы до сих пор
храним информацию на дисках,
03:38
but now we can storeмагазин a lot more informationИнформация,
73
206776
3184
только теперь мы можем хранить
намного больше информации,
03:41
more than ever before.
74
209960
1260
больше, чем когда-либо.
03:43
Searchingпоиск it is easierПолегче. Copyingкопирование it easierПолегче.
75
211220
3093
Её поиск легче. Копирование легче.
03:46
Sharingразделение it is easierПолегче. Processingобработка it is easierПолегче.
76
214313
3500
Обмен ею легче. Её обработка легче.
03:49
And what we can do is we can reuseповторное использование this informationИнформация
77
217813
2766
И мы можем использовать её повторно
03:52
for usesиспользования that we never even imaginedвообразил
78
220579
1834
для целей, которых и не представляли,
03:54
when we first collectedсобранный the dataданные.
79
222413
3195
при первоначальном сборе информации.
03:57
In this respectуважение, the dataданные has goneпрошло
80
225608
2252
В этом отношении информация прошла путь
03:59
from a stockакции to a flowтечь,
81
227860
3532
от залежи до сели,
04:03
from something that is stationaryстационарный and staticстатический
82
231392
3938
от чего-то стационарного, статичного
04:07
to something that is fluidжидкость and dynamicдинамический.
83
235330
3609
до чего-то текучего и динамичного.
04:10
There is, if you will, a liquidityликвидность to informationИнформация.
84
238939
4023
Свойство ликвидности информации,
если хотите.
04:14
The discдиск that was discoveredобнаруженный off of CreteКрит
85
242962
3474
Диск, найденный на Крите,
04:18
that's 4,000 yearsлет oldстарый, is heavyтяжелый,
86
246436
3764
которому 4000 лет, тяжёлый,
04:22
it doesn't storeмагазин a lot of informationИнформация,
87
250200
1962
не хранит много информации,
04:24
and that informationИнформация is unchangeableнеизменяемый.
88
252162
3116
и эта информация неизменяема.
04:27
By contrastконтрастировать, all of the filesфайлы
89
255278
4011
Напротив, все файлы,
04:31
that EdwardЭдвард SnowdenСноуден tookвзял
90
259289
1861
которые Эдвард Сноуден взял
04:33
from the Nationalнациональный SecurityБезопасность
AgencyАгентство in the Unitedобъединенный Statesсостояния
91
261150
2621
из Агентства национальной безопасности США
04:35
fitsприпадки on a memoryПамять stickпридерживаться
92
263771
2419
умещаются на карте памяти
04:38
the sizeразмер of a fingernailноготь,
93
266190
3010
размером с ноготь,
04:41
and it can be sharedобщий at the speedскорость of lightлегкий.
94
269200
4745
и она может быть распространена
со скоростью света.
04:45
More dataданные. More.
95
273945
5255
Больше информации. Больше.
04:51
Now, one reasonпричина why we have
so much dataданные in the worldМир todayCегодня
96
279200
1974
Одна из причин
такого большого объёма данных —
04:53
is we are collectingсбор things
97
281174
1432
это сбор информации о том,
04:54
that we'veмы в always collectedсобранный informationИнформация on,
98
282606
3280
о чём мы всегда её собирали;
04:57
but anotherдругой reasonпричина why is we're takingпринятие things
99
285886
2656
но другой причиной является то,
что мы собираем данные,
05:00
that have always been informationalинформационный
100
288542
2812
которые всегда были информационны,
05:03
but have never been renderedоказываемых into a dataданные formatформат
101
291354
2486
но никогда не были переведены
в информационный формат,
05:05
and we are puttingсдачи it into dataданные.
102
293840
2419
а сейчас мы это документируем.
05:08
Think, for exampleпример, the questionвопрос of locationместо нахождения.
103
296259
3308
Подумайте, например,
о проблеме местоположения.
05:11
Take, for exampleпример, MartinМартин LutherЛютер.
104
299567
2249
Возьмём, например, Мартина Лютера.
05:13
If we wanted to know in the 1500s
105
301816
1597
Если вы, будучи в 1500-х хотели узнать,
05:15
where MartinМартин LutherЛютер was,
106
303413
2667
где находится Мартин Лютер,
05:18
we would have to followследовать him at all timesраз,
107
306080
2092
вам пришлось бы ходить за ним всё время,
05:20
maybe with a featheryпернатый quillполый вал and an inkwellчернильница,
108
308172
2137
может с пером и чернильницей,
05:22
and recordзапись it,
109
310309
1676
и записывать;
05:23
but now think about what it looksвыглядит like todayCегодня.
110
311985
2183
а теперь, подумайте
как это выглядит сегодня.
05:26
You know that somewhereгде-то,
111
314168
2122
Вы понимаете, что где-то
05:28
probablyвероятно in a telecommunicationsсвязь carrier'sперевозчика databaseбаза данных,
112
316290
2446
в базе данных поставщика
телекоммуникационных услуг
05:30
there is a spreadsheetтаблица or at leastнаименее a databaseбаза данных entryзапись
113
318736
3036
есть таблица или, по крайней мере,
запись в базе данных
05:33
that recordsучет your informationИнформация
114
321772
2088
с информацией о том,
05:35
of where you've been at all timesраз.
115
323860
2063
где вы бываете.
05:37
If you have a cellклетка phoneТелефон,
116
325923
1360
Если у вас есть мобильный телефон,
05:39
and that cellклетка phoneТелефон has GPSGPS,
but even if it doesn't have GPSGPS,
117
327283
2847
и в телефоне есть система GPS,
да даже если нет,
05:42
it can recordзапись your informationИнформация.
118
330130
2385
он может записывать информацию о вас.
05:44
In this respectуважение, locationместо нахождения has been datafieddatafied.
119
332515
4084
В этом отношении, местоположение
стало документировано.
05:48
Now think, for exampleпример, of the issueвопрос of postureпоза,
120
336599
4601
Теперь подумайте, например,
о проблеме осанки,
05:53
the way that you are all sittingсидящий right now,
121
341200
1285
о том, как вы сейчас сидите:
05:54
the way that you sitсидеть,
122
342485
2030
как сидите вы,
05:56
the way that you sitсидеть, the way that you sitсидеть.
123
344515
2771
как сидите вы, как сидите вы.
05:59
It's all differentдругой, and it's a functionфункция of your legножка lengthдлина
124
347286
2077
Все сидят по-разному в зависимости
от длины ног,
06:01
and your back and the contoursконтуры of your back,
125
349363
2093
спины и формы спины;
06:03
and if I were to put sensorsдатчиков,
maybe 100 sensorsдатчиков
126
351456
2531
и если бы я установил сотни сенсоров
06:05
into all of your chairsстулья right now,
127
353987
1766
во все сиденья,
06:07
I could createСоздайте an indexиндекс that's fairlyдовольно uniqueуникальный to you,
128
355753
3600
я бы смог вывести индивидуальный индекс
для каждого из вас,
06:11
sortСортировать of like a fingerprintотпечаток пальца, but it's not your fingerПалец.
129
359353
4409
что-то вроде отпечатков пальцев,
только это не пальцы.
06:15
So what could we do with this?
130
363762
2969
Так что же мы с этим можем сделать?
06:18
ResearchersИсследователи in TokyoТокио are usingс помощью it
131
366731
2397
Учёные в Токио используют это
06:21
as a potentialпотенциал anti-theftАнти-вор deviceустройство in carsлегковые автомобили.
132
369128
4388
как потенциальную противоугонную
систему для машин.
06:25
The ideaидея is that the carjackercarjacker sitsсидит behindза the wheelколесо,
133
373516
2924
Идея в том, что угонщик садится за руль,
06:28
triesпытается to streamпоток off, but the carавтомобиль recognizesпризнает
134
376440
2104
пытается удрать, но машина опознает,
06:30
that a non-approvedне утвержден driverВодитель is behindза the wheelколесо,
135
378544
2362
что за рулём водитель без доступа,
06:32
and maybe the engineдвигатель just stopsупоры, unlessесли you
136
380906
2164
и, может, двигатель не заработает,
06:35
typeтип in a passwordпароль into the dashboardпанель приборов
137
383070
3177
пока вы не введёте пароль
на приборной панели и скажете:
06:38
to say, "Hey, I have authorizationавторизация to driveводить машину." Great.
138
386247
4658
«Привет, у меня есть доступ
к вождению данного автомобиля». Прекрасно.
06:42
What if everyкаждый singleОдин carавтомобиль in EuropeЕвропа
139
390905
2553
Что если бы в каждой машине в Европе
06:45
had this technologyтехнологии in it?
140
393458
1457
была такая технология?
06:46
What could we do then?
141
394915
3165
Что бы мы тогда могли сделать?
06:50
Maybe, if we aggregatedсовокупный the dataданные,
142
398080
2240
Может, если бы мы собрали данные,
06:52
maybe we could identifyидентифицировать telltaleпредательский signsзнаки
143
400320
3814
может, мы бы смогли определить
индикаторы приборной панели,
06:56
that bestЛучший predictпрогнозировать that a carавтомобиль accidentавария
144
404134
2709
лучше всего оповещающие
06:58
is going to take placeместо in the nextследующий five5 secondsсекунд.
145
406843
5893
о возможной аварии в следующие 5 секунд.
07:04
And then what we will have datafieddatafied
146
412736
2557
И тогда у нас была бы задокументирована
07:07
is driverВодитель fatigueусталость,
147
415293
1783
усталость водителя,
07:09
and the serviceоказание услуг would be when the carавтомобиль sensesчувств
148
417076
2334
и тогда машина смогла бы опознавать,
07:11
that the personчеловек slumpsспады into that positionдолжность,
149
419410
3437
когда водитель проваливается
в эту позу,
07:14
automaticallyавтоматически knowsзнает, hey, setзадавать an internalвнутренний alarmаварийная сигнализация
150
422847
3994
автоматически определять
и посылать внутренний сигнал:
07:18
that would vibrateвибрировать the steeringрулевое управление wheelколесо, honkсигналить insideвнутри
151
426841
2025
вибрация руля, салонный гудок,
07:20
to say, "Hey, wakeбудить up,
152
428866
1721
и говорить: «Эй, просыпайся,
07:22
payплатить more attentionвнимание to the roadДорога."
153
430587
1904
внимательней следи за дорогой».
07:24
These are the sortsвиды of things we can do
154
432491
1853
Такого типа вещи мы сможем делать,
07:26
when we datafydatafy more aspectsаспекты of our livesжизни.
155
434344
2821
при документировании
всё больших аспектов нашей жизни.
07:29
So what is the valueстоимость of bigбольшой dataданные?
156
437165
3675
Так в чём же ценность больших данных?
07:32
Well, think about it.
157
440840
2190
Что ж, подумайте.
07:35
You have more informationИнформация.
158
443030
2412
У вас больше информации.
07:37
You can do things that you couldn'tне может do before.
159
445442
3341
Вы можете делать то,
чего раньше не могли.
07:40
One of the mostбольшинство impressiveвпечатляющий areasрайоны
160
448783
1676
Одной из самых впечатляющих областей,
07:42
where this conceptконцепция is takingпринятие placeместо
161
450459
1729
использующих этот концепт,
07:44
is in the areaплощадь of machineмашина learningобучение.
162
452188
3307
это область машинного обучения.
07:47
MachineМашина learningобучение is a branchфилиал of artificialискусственный intelligenceинтеллект,
163
455495
3077
Машинное обучение —
это подвид искусственного интеллекта,
07:50
whichкоторый itselfсам is a branchфилиал of computerкомпьютер scienceнаука.
164
458572
3378
который сам является
подвидом информатики.
07:53
The generalГенеральная ideaидея is that insteadвместо of
165
461950
1543
Основная идея состоит в том,
07:55
instructingинструктаж a computerкомпьютер what do do,
166
463493
2117
что вместо задания алгоритма действий
07:57
we are going to simplyпросто throwбросать dataданные at the problemпроблема
167
465610
2620
мы просто закидываем проблему данными
08:00
and tell the computerкомпьютер to figureфигура it out for itselfсам.
168
468230
3206
и даём компьютеру додуматься самому.
08:03
And it will help you understandПонимаю it
169
471436
1777
Понять это поможет
08:05
by seeingвидя its originsпроисхождения.
170
473213
3552
взгляд на истоки.
08:08
In the 1950s, a computerкомпьютер scientistученый
171
476765
2388
В 1950-х учёный-информатик
08:11
at IBMIBM namedназванный ArthurАртур SamuelСамуил likedпонравилось to playиграть checkersшашки,
172
479153
3592
компании IBM, Артур Самуэль,
любил играть в шашки,
08:14
so he wroteписал a computerкомпьютер programпрограмма
173
482745
1402
и он написал программу,
08:16
so he could playиграть againstпротив the computerкомпьютер.
174
484147
2813
чтобы играть против компьютера.
08:18
He playedиграл. He wonвыиграл.
175
486960
2711
Он играл. Он выигрывал.
08:21
He playedиграл. He wonвыиграл.
176
489671
2103
Играл. Выигрывал.
08:23
He playedиграл. He wonвыиграл,
177
491774
3015
Играл. Выигрывал,
08:26
because the computerкомпьютер only knewзнал
178
494789
1778
потому что компьютер знал
08:28
what a legalправовой moveпереехать was.
179
496567
2227
лишь правильные ходы.
08:30
ArthurАртур SamuelСамуил knewзнал something elseеще.
180
498794
2087
Артур Самуэль знал кое-что ещё.
08:32
ArthurАртур SamuelСамуил knewзнал strategyстратегия.
181
500881
4629
Артур Самуэль знал стратегию.
08:37
So he wroteписал a smallмаленький sub-programподпрограмма alongsideрядом it
182
505510
2396
Поэтому он написал
маленькую под-программу,
08:39
operatingоперационная in the backgroundзадний план, and all it did
183
507906
1974
работающую в фоновом режиме,
08:41
was scoreГол the probabilityвероятность
184
509880
1817
и она лишь высчитывала вероятность
08:43
that a givenданный boardдоска configurationконфигурация would likelyвероятно leadвести
185
511697
2563
победы при данной ситуации
08:46
to a winningвыигрыш boardдоска versusпротив a losingпроигрыш boardдоска
186
514260
2910
на доске
08:49
after everyкаждый moveпереехать.
187
517170
2508
после каждого хода.
08:51
He playsигры the computerкомпьютер. He winsпобеды.
188
519678
3150
Он играет против компьютера.
Он выигрывает.
08:54
He playsигры the computerкомпьютер. He winsпобеды.
189
522828
2508
Играет против компьютера.
Выигрывает.
08:57
He playsигры the computerкомпьютер. He winsпобеды.
190
525336
3731
Играет против компьютера.
Выигрывает.
09:01
And then ArthurАртур SamuelСамуил leavesлистья the computerкомпьютер
191
529067
2277
А потом Артур Самуэль
даёт компьютеру
09:03
to playиграть itselfсам.
192
531344
2227
играть с самим собой.
09:05
It playsигры itselfсам. It collectsулавливается more dataданные.
193
533571
3509
Он играет сам с собой.
Собирает больше данных.
09:09
It collectsулавливается more dataданные. It increasesувеличивается
the accuracyточность of its predictionпрогнозирование.
194
537080
4309
Собирает больше данных.
Увеличивает точность прогнозов.
09:13
And then ArthurАртур SamuelСамуил goesидет back to the computerкомпьютер
195
541389
2104
А потом Артур Самуэль
снова садится за компьютер.
09:15
and he playsигры it, and he losesтеряет,
196
543493
2318
Он играет и проигрывает.
09:17
and he playsигры it, and he losesтеряет,
197
545811
2069
Играет и проигрывает,
09:19
and he playsигры it, and he losesтеряет,
198
547880
2047
играет и проигрывает.
09:21
and ArthurАртур SamuelСамуил has createdсозданный a machineмашина
199
549927
2599
Артур Самуэль создал механизм,
09:24
that surpassesпревосходит his abilityспособность in a taskзадача that he taughtучил it.
200
552526
6288
превосходящий его собственные возможности
в упражнении, которому он его обучил.
09:30
And this ideaидея of machineмашина learningобучение
201
558814
2498
И эта идея машинного обучения
09:33
is going everywhereвезде.
202
561312
3927
теперь проникает всюду.
09:37
How do you think we have self-drivingсамостоятельное вождение carsлегковые автомобили?
203
565239
3149
Как вы думаете, как появились
беспилотные машины?
09:40
Are we any better off as a societyобщество
204
568388
2137
Стали ли мы более продвинутым обществом,
09:42
enshriningхранящий all the rulesправила of the roadДорога into softwareпрограммного обеспечения?
205
570525
3285
доверяя все правила дорожного движения
программному обеспечению?
09:45
No. MemoryПамять is cheaperболее дешевый. No.
206
573810
2598
Нет. Дешевле память? Нет.
09:48
AlgorithmsАлгоритмы are fasterБыстрее. No. Processorsпроцессоры are better. No.
207
576408
3994
Алгоритмы быстрее? Нет.
Лучше процессоры? Нет.
09:52
All of those things matterдело, but that's not why.
208
580402
2772
Все эти вещи важны, но не главны.
09:55
It's because we changedизменено the natureприрода of the problemпроблема.
209
583174
3141
Всё потому,
что мы поменяли подход к проблеме.
09:58
We changedизменено the natureприрода of the problemпроблема from one
210
586315
1530
Мы перешли от проблемы,
09:59
in whichкоторый we triedпытался to overtlyоткрыто and explicitlyэксплицитно
211
587845
2245
где вы пытались ясно и чётко
10:02
explainобъяснять to the computerкомпьютер how to driveводить машину
212
590090
2581
объяснить компьютеру как водить машину,
10:04
to one in whichкоторый we say,
213
592671
1316
к проблеме, где мы говорим:
10:05
"Here'sВот a lot of dataданные around the vehicleсредство передвижения.
214
593987
1876
«Вот кипа данных про автомобиль.
10:07
You figureфигура it out.
215
595863
1533
Думай сам.
10:09
You figureфигура it out that that is a trafficтрафик lightлегкий,
216
597396
1867
Пойми сам, что это светофор,
10:11
that that trafficтрафик lightлегкий is redкрасный and not greenзеленый,
217
599263
2081
что он красный, а не зелёный,
10:13
that that meansозначает that you need to stop
218
601344
2014
что это значит, что нужно остановиться,
10:15
and not go forwardвперед."
219
603358
3083
а не проезжать».
10:18
MachineМашина learningобучение is at the basisоснова
220
606441
1518
Машинное обучение лежит в основе
10:19
of manyмногие of the things that we do onlineонлайн:
221
607959
1991
многих действий,
совершаемых нами в сети:
10:21
searchпоиск enginesдвигатели,
222
609950
1857
поисковые системы,
10:23
Amazon'sАмазонки personalizationвоплощение algorithmалгоритм,
223
611807
3801
алгоритм персонализации Amazon,
10:27
computerкомпьютер translationперевод,
224
615608
2212
машинный перевод,
10:29
voiceголос recognitionпризнание systemsсистемы.
225
617820
4290
системы распознавания речи.
10:34
ResearchersИсследователи recentlyв последнее время have lookedсмотрел at
226
622110
2835
Исследователи недавно
10:36
the questionвопрос of biopsiesбиопсий,
227
624945
3195
задались вопросом биопсий,
10:40
cancerousзлокачественный biopsiesбиопсий,
228
628140
2767
биопсий раковых образований,
10:42
and they'veони имеют askedспросил the computerкомпьютер to identifyидентифицировать
229
630907
2315
и задали компьютеру определить,
10:45
by looking at the dataданные and survivalвыживание ratesставки
230
633222
2471
анализируя данные
и процент выживаемости,
10:47
to determineопределить whetherбудь то cellsячейки are actuallyна самом деле
231
635693
4667
клетки раковые
10:52
cancerousзлокачественный or not,
232
640360
2544
или нет.
10:54
and sure enoughдостаточно, when you throwбросать the dataданные at it,
233
642904
1778
И, конечно же, при наличии
достаточного количества данных,
10:56
throughчерез a machine-learningмашинное обучение algorithmалгоритм,
234
644682
2047
посредством алгоритма машинного обучения
10:58
the machineмашина was ableв состоянии to identifyидентифицировать
235
646729
1877
машина смогла определить
11:00
the 12 telltaleпредательский signsзнаки that bestЛучший predictпрогнозировать
236
648606
2262
12 признаков,
лучше всего прогнозирующих,
11:02
that this biopsyбиопсия of the breastгрудь cancerрак cellsячейки
237
650868
3299
что данный биоптат клеток рака груди
11:06
are indeedв самом деле cancerousзлокачественный.
238
654167
3218
действительно раковый.
11:09
The problemпроблема: The medicalмедицинская literatureлитература
239
657385
2498
Проблема — в медицинской литературе
11:11
only knewзнал nine9 of them.
240
659883
2789
упоминалось лишь о 9 из них.
11:14
ThreeТри of the traitsчерты were onesте,
241
662672
1800
3 признака
11:16
that people didn't need to look for,
242
664472
2975
не были известны ранее,
11:19
but that the machineмашина spottedпятнистый.
243
667447
5531
но машина их нашла.
11:24
Now, there are darkтемно sidesстороны to bigбольшой dataданные as well.
244
672978
5925
Но есть и тёмные стороны больших данных.
11:30
It will improveулучшать our livesжизни, but there are problemsпроблемы
245
678903
2074
Они сделают нашу жизнь лучше,
но есть и проблемы,
11:32
that we need to be consciousсознательный of,
246
680977
2640
о которых не стоит забывать,
11:35
and the first one is the ideaидея
247
683617
2623
и первая из них — это идея того,
11:38
that we mayмай be punishedнаказали for predictionsпрогнозы,
248
686240
2686
что мы можем быть наказаны за прогнозы,
11:40
that the policeполиция mayмай use bigбольшой dataданные for theirих purposesцели,
249
688926
3870
что полиция может использовать информацию
в своих интересах,
11:44
a little bitнемного like "Minorityменьшинство Reportотчет."
250
692796
2351
примерно как в «Особом мнении».
11:47
Now, it's a termсрок calledназывается predictiveпрогностическое policingполицейская,
251
695147
2441
Есть термин «предиктивная безопасность»
11:49
or algorithmicалгоритмический criminologyкриминология,
252
697588
2363
или «алгоритмическая криминология»,
11:51
and the ideaидея is that if we take a lot of dataданные,
253
699951
2036
и идея в том, что если взять много данных,
11:53
for exampleпример where pastмимо crimesпреступления have been,
254
701987
2159
например, места совершения преступлений,
11:56
we know where to sendОтправить the patrolsпатрули.
255
704146
2543
мы будем знать, куда посылать патрули.
11:58
That makesмарки senseсмысл, but the problemпроблема, of courseкурс,
256
706689
2115
Это логично, но проблема,
конечно же, в том,
12:00
is that it's not simplyпросто going to stop on locationместо нахождения dataданные,
257
708804
4544
что дело не закончится лишь
данными местоположения,
12:05
it's going to go down to the levelуровень of the individualиндивидуальный.
258
713348
2959
это пойдёт до уровня частного лица.
12:08
Why don't we use dataданные about the person'sИндивидуальность человека
259
716307
2250
Почему бы не использовать информацию
12:10
highвысокая schoolшкола transcriptрасшифровка?
260
718557
2228
об аттестате?
12:12
Maybe we should use the factфакт that
261
720785
1561
Может, нам пригодится информация
12:14
they're unemployedбезработные or not, theirих creditкредит scoreГол,
262
722346
2028
о наличии работы, кредитоспособности,
12:16
theirих web-surfingвеб-серфинг behaviorповедение,
263
724374
1552
что человек смотрит в интернете,
12:17
whetherбудь то they're up lateпоздно at night.
264
725926
1878
бодрствует ли поздно ночью.
12:19
TheirИх FitbitFitbit, when it's ableв состоянии
to identifyидентифицировать biochemistriesбиохимии,
265
727804
3161
Устройства,
измеряющие биологические данные
12:22
will showпоказать that they have aggressiveагрессивный thoughtsмысли.
266
730965
4236
покажут присутствие агрессивных мыслей.
12:27
We mayмай have algorithmsалгоритмы that are likelyвероятно to predictпрогнозировать
267
735201
2221
Мы можем выработать алгоритмы,
прогнозирующие
12:29
what we are about to do,
268
737422
1633
что мы собираемся сделать,
12:31
and we mayмай be heldРучной accountableподотчетный
269
739055
1244
и нас могут
12:32
before we'veмы в actuallyна самом деле actedдействовал.
270
740299
2590
привлечь к ответственности
ещё до момента действия.
12:34
PrivacyКонфиденциальность was the centralцентральный challengeвызов
271
742889
1732
Конфиденциальность
12:36
in a smallмаленький dataданные eraэпоха.
272
744621
2880
была главной проблемой
во времена малых данных.
12:39
In the bigбольшой dataданные ageвозраст,
273
747501
2149
В эпоху больших данных
12:41
the challengeвызов will be safeguardingохрана freeсвободно will,
274
749650
4523
проблемой будет охрана свободы воли,
12:46
moralморальный choiceвыбор, humanчеловек volitionхотение,
275
754173
3779
свободы выбора, желаний,
12:49
humanчеловек agencyагентство.
276
757952
3068
свободы действий.
12:54
There is anotherдругой problemпроблема:
277
762540
2225
Есть ещё одна проблема.
12:56
Bigбольшой dataданные is going to stealукрасть our jobsработы.
278
764765
3556
Большие данные сократят
количество рабочих мест.
13:00
Bigбольшой dataданные and algorithmsалгоритмы are going to challengeвызов
279
768321
3512
Большие данные и алгоритмы изменят
13:03
whiteбелый collarворотник, professionalпрофессиональный knowledgeзнание work
280
771833
3061
работу белых воротничков,
профессиональные знания
13:06
in the 21stулица centuryвека
281
774894
1653
в 21 веке
13:08
in the sameодна и та же way that factoryзавод automationавтоматизация
282
776547
2434
так же, как автоматизация фабрик
13:10
and the assemblyсборка lineлиния
283
778981
2189
и конвейеризация
13:13
challengedвызов blueсиний collarворотник laborтруд, работа in the 20thго centuryвека.
284
781170
3026
бросили вызов синим воротничкам
в 20 веке.
13:16
Think about a labлаборатория technicianтехник
285
784196
2092
Подумайте о лаборанте,
13:18
who is looking throughчерез a microscopeмикроскоп
286
786288
1409
смотрящем через микроскоп
13:19
at a cancerрак biopsyбиопсия
287
787697
1624
на биоптат ракового новообразования
13:21
and determiningопределения whetherбудь то it's cancerousзлокачественный or not.
288
789321
2637
и определяющем, рак это или нет.
13:23
The personчеловек wentотправился to universityУниверситет.
289
791958
1972
Этот человек окончил университет.
13:25
The personчеловек buysпокупает propertyимущество.
290
793930
1430
Этот человек покупает вещи.
13:27
He or she votesголосов.
291
795360
1741
Он или она голосует.
13:29
He or she is a stakeholderакционер in societyобщество.
292
797101
3666
Он или она участвует
в деятельности общества.
13:32
And that person'sИндивидуальность человека jobработа,
293
800767
1394
И работа этого человека,
13:34
as well as an entireвсе fleetфлот
294
802161
1609
так же как и целая флотилия
13:35
of professionalsпрофессионалов like that personчеловек,
295
803770
1969
таких же профессионалов,
13:37
is going to find that theirих jobsработы are radicallyрадикально changedизменено
296
805739
3150
столкнётся с радикальными изменениями
в их работе
13:40
or actuallyна самом деле completelyполностью eliminatedустранен.
297
808889
2357
или даже полным её устранением.
13:43
Now, we like to think
298
811246
1284
Нам нравится думать,
13:44
that technologyтехнологии createsсоздает jobsработы over a periodпериод of time
299
812530
3187
что технологии создают рабочие места
в долгосрочной перспективе
13:47
after a shortкороткая, temporaryвременный periodпериод of dislocationвывих,
300
815717
3465
после короткого временного периода
дезорганизации,
13:51
and that is trueправда for the frameРамка of referenceСправка
301
819182
1941
и это имеет место быть в реалиях,
13:53
with whichкоторый we all liveжить, the Industrialпромышленные RevolutionРеволюция,
302
821123
2142
в которых мы живём,
Индустриальной революции,
13:55
because that's preciselyточно what happenedполучилось.
303
823265
2328
потому что так как раз и случилось.
13:57
But we forgetзабывать something in that analysisанализ:
304
825593
2333
Но мы кое-что забываем, анализируя это:
13:59
There are some categoriesкатегории of jobsработы
305
827926
1830
есть некоторые категории деятельности,
14:01
that simplyпросто get eliminatedустранен and never come back.
306
829756
3420
которые просто исчезают
и никогда не возвращаются.
14:05
The Industrialпромышленные RevolutionРеволюция wasn'tне было very good
307
833176
2004
Индустриальная революция
вам не посодействовала,
14:07
if you were a horseлошадь.
308
835180
4002
если вы были лошадью.
14:11
So we're going to need to be carefulосторожный
309
839182
2055
Так что нам нужно быть внимательными
14:13
and take bigбольшой dataданные and adjustрегулировать it for our needsпотребности,
310
841237
3514
и использовать большие данные
14:16
our very humanчеловек needsпотребности.
311
844751
3185
для социальных целей.
14:19
We have to be the masterмастер of this technologyтехнологии,
312
847936
1954
Нам нужно быть хозяевами
этой технологии,
14:21
not its servantслужащий.
313
849890
1656
а не её прислугой.
14:23
We are just at the outsetбоковик of the bigбольшой dataданные eraэпоха,
314
851546
2958
Мы лишь на подступах
к эре больших данных,
14:26
and honestlyчестно говоря, we are not very good
315
854504
3150
и, честно говоря,
у нас не очень получается
14:29
at handlingобращение all the dataданные that we can now collectсобирать.
316
857654
4207
управлять всей получаемой информацией.
14:33
It's not just a problemпроблема for
the Nationalнациональный SecurityБезопасность AgencyАгентство.
317
861861
3330
Это проблема не только
для Агентства национальной безопасности.
14:37
BusinessesКомпании collectсобирать lots of
dataданные, and they misuseзлоупотребление it too,
318
865191
3038
Коммерция собирает много информации
и ею также злоупотребляет,
14:40
and we need to get better at
this, and this will take time.
319
868229
3667
и нам нужно стать более умелыми в этом,
и это займёт какое-то время.
14:43
It's a little bitнемного like the challengeвызов that was facedсталкиваются
320
871896
1822
Это, примерно, как проблема огня
14:45
by primitiveпримитивный man and fireОгонь.
321
873718
2407
для первобытного человека.
14:48
This is a toolинструмент, but this is a toolинструмент that,
322
876125
1885
Это орудие, но это орудие, которое,
14:50
unlessесли we're carefulосторожный, will burnжечь us.
323
878010
3559
если мы не будем осторожны,
нас обожжёт.
14:56
Bigбольшой dataданные is going to transformпреобразование how we liveжить,
324
884008
3120
Большие данные преобразуют нашу жизнь,
14:59
how we work and how we think.
325
887128
2801
нашу работу и наше мышление.
15:01
It is going to help us manageуправлять our careersкарьера
326
889929
1889
Они помогут нам развивать карьеру
15:03
and leadвести livesжизни of satisfactionудовлетворение and hopeнадежда
327
891818
3634
и вести жизнь, полную радости и надежд,
15:07
and happinessсчастье and healthздоровье,
328
895452
2992
счастья и благополучия;
15:10
but in the pastмимо, we'veмы в oftenдовольно часто
lookedсмотрел at informationИнформация technologyтехнологии
329
898444
3306
но в прошлом мы часто,
смотря на информационные технологии,
15:13
and our eyesглаза have only seenвидели the T,
330
901750
2208
видели только «Т»,
15:15
the technologyтехнологии, the hardwareаппаратные средства,
331
903958
1686
технологии, технику,
15:17
because that's what was physicalфизическое.
332
905644
2262
потому что это вещественно.
15:19
We now need to recastпеределка our gazeпосмотреть at the I,
333
907906
2924
Сейчас нам нужно устремить взор на «И»,
15:22
the informationИнформация,
334
910830
1380
информацию,
15:24
whichкоторый is lessМеньше apparentочевидный,
335
912210
1373
которая менее видима,
15:25
but in some waysпути a lot more importantважный.
336
913583
4109
но в какой-то мере намного более важна.
15:29
Humanityчеловечество can finallyв конце концов learnучить from the informationИнформация
337
917692
3465
Человечество, наконец-то,
может извлекать знания
15:33
that it can collectсобирать,
338
921157
2418
из собираемой информации,
15:35
as partчасть of our timelessвневременный questпоиск
339
923575
2115
как часть наших вечных поисков
15:37
to understandПонимаю the worldМир and our placeместо in it,
340
925690
3159
в понимании мира и нашего места в нём,
15:40
and that's why bigбольшой dataданные is a bigбольшой dealпо рукам.
341
928849
5631
и поэтому большие данные — дело большое.
15:46
(ApplauseАплодисменты)
342
934480
3568
(Аплодисменты)
Translated by Andrea Wang
Reviewed by Aliaksandr Autayeu

▲Back to top

ABOUT THE SPEAKER
Kenneth Cukier - Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages.

Why you should listen

As Data Editor of The Economist and co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think, Kenneth Cukier has spent years immersed in big data, machine learning -- and the impact of both. What's the future of big data-driven technology and design? To find out, watch this talk.

More profile about the speaker
Kenneth Cukier | Speaker | TED.com