TEDSalon Berlin 2014
Kenneth Cukier: Big data is better data
ケネス・ツーケル: ビックデータはより良いデータ
Filmed:
Readability: 4.1
1,663,038 views
自動運転車は始まったばかりです。ビックデータが牽引する技術やデザインの未来はどうなるのでしょうか?ワクワクする科学的なトークで、ケネス・ツーケルは機械学習や人間の知識などの今後を検証します。
Kenneth Cukier - Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio
Double-click the English transcript below to play the video.
00:12
America's favorite pie is?
0
787
3845
アメリカで人気のパイと言えば?
00:16
Audience: Apple.
Kenneth Cukier: Apple. Of course it is.
Kenneth Cukier: Apple. Of course it is.
1
4632
3506
聴衆:「アップルパイ」
もちろん アップルパイですよね
もちろん アップルパイですよね
00:20
How do we know it?
2
8138
1231
どうして分かるのでしょうか?
00:21
Because of data.
3
9369
2753
データがあるからです
00:24
You look at supermarket sales.
4
12122
2066
スーパーの売上げを考えてみましょう
00:26
You look at supermarket
sales of 30-centimeter pies
sales of 30-centimeter pies
5
14188
2866
30cmの冷凍パイの売上げについてです
00:29
that are frozen, and apple wins, no contest.
6
17054
4075
アップルパイが断トツ1位です
00:33
The majority of the sales are apple.
7
21129
5180
売上げの大部分がアップルパイです
00:38
But then supermarkets started selling
8
26309
2964
ところが スーパーが小さな
00:41
smaller, 11-centimeter pies,
9
29273
2583
11cmセンチのパイを売り始めると
00:43
and suddenly, apple fell to fourth or fifth place.
10
31856
4174
突然 アップルパイは
4、5番目に転落しまいました
4、5番目に転落しまいました
00:48
Why? What happened?
11
36030
2875
なぜでしょうか?
何が起こったのでしょうか?
何が起こったのでしょうか?
00:50
Okay, think about it.
12
38905
2818
考えてみてください
00:53
When you buy a 30-centimeter pie,
13
41723
3848
30cmのパイを買う時は
00:57
the whole family has to agree,
14
45571
2261
家族全員の希望に沿うパイを選びます
00:59
and apple is everyone's second favorite.
15
47832
3791
アップルパイは家族の第二希望なのです
01:03
(Laughter)
16
51623
1935
(笑)
01:05
But when you buy an individual 11-centimeter pie,
17
53558
3615
でも 個人用の11cmのパイを買う時は
01:09
you can buy the one that you want.
18
57173
3745
自分が欲しいパイを買います
01:12
You can get your first choice.
19
60918
4015
自分の第一希望を買えるのです
01:16
You have more data.
20
64933
1641
データがたくさんあると
01:18
You can see something
21
66574
1554
データが少ない時には
01:20
that you couldn't see
22
68128
1132
分からなかったことが
01:21
when you only had smaller amounts of it.
23
69260
3953
分かってくるのです
01:25
Now, the point here is that more data
24
73213
2475
つまり より多くのデータがあると
01:27
doesn't just let us see more,
25
75688
2283
多くが見えるだけでなく
01:29
more of the same thing we were looking at.
26
77971
1854
見ていたことからも多くが分かるのです
01:31
More data allows us to see new.
27
79825
3613
データが多いほど
新しいことが分かってきます
新しいことが分かってきます
01:35
It allows us to see better.
28
83438
3094
より良い見方や
01:38
It allows us to see different.
29
86532
3656
違う見方ができるようになります
01:42
In this case, it allows us to see
30
90188
3173
この例で 分かることは
01:45
what America's favorite pie is:
31
93361
2913
「アメリカで人気のパイは
01:48
not apple.
32
96274
2542
アップルパイではない」ということです
01:50
Now, you probably all have heard the term big data.
33
98816
3614
皆さんは「ビッグデータ」という言葉を
お聞きになられたことがあるでしょう
お聞きになられたことがあるでしょう
01:54
In fact, you're probably sick of hearing the term
34
102430
2057
もしかしたら 耳にタコがでくるくらい
01:56
big data.
35
104487
1630
お聞きになっているかもしれません
01:58
It is true that there is a lot of hype around the term,
36
106117
3330
ビッグデータは
誇大宣伝されている部分もあり
誇大宣伝されている部分もあり
02:01
and that is very unfortunate,
37
109447
2332
非常に残念なことです
02:03
because big data is an extremely important tool
38
111779
3046
なぜなら ビッグデータは
社会の進歩に欠かせない
社会の進歩に欠かせない
02:06
by which society is going to advance.
39
114825
3734
非常に重要なツールだからです
02:10
In the past, we used to look at small data
40
118559
3561
昔は 少ないデータから
02:14
and think about what it would mean
41
122120
1704
世界を理解しようと
02:15
to try to understand the world,
42
123824
1496
考えてきました
02:17
and now we have a lot more of it,
43
125320
1991
現在は 以前では考えられなかった程の
02:19
more than we ever could before.
44
127311
2722
大量のデータがあるのです
大量のデータがあると
02:22
What we find is that when we have
45
130033
1877
02:23
a large body of data, we can fundamentally do things
46
131910
2724
データ量が少なかった時に
不可能だったことが
不可能だったことが
02:26
that we couldn't do when we
only had smaller amounts.
only had smaller amounts.
47
134634
3276
根本的に可能になる
ということが分かってきました
ということが分かってきました
02:29
Big data is important, and big data is new,
48
137910
2641
ビッグデータは重要で 新しいものです
02:32
and when you think about it,
49
140551
1777
ビックデータについて考えてみると
02:34
the only way this planet is going to deal
50
142328
2216
地球規模の課題について-
02:36
with its global challenges —
51
144544
1789
食糧問題や医療の供給
02:38
to feed people, supply them with medical care,
52
146333
3537
エネルギーや電力の供給などに
02:41
supply them with energy, electricity,
53
149870
2810
対処する唯一の方法であり
02:44
and to make sure they're not burnt to a crisp
54
152680
1789
地球温暖化の影響で
02:46
because of global warming —
55
154469
1238
カリカリに焼けることがないように
02:47
is because of the effective use of data.
56
155707
4195
データを効率的に使うことが必要なのです
02:51
So what is new about big
data? What is the big deal?
data? What is the big deal?
57
159902
3870
ビッグデータの新しいモノとは何で
重大事とは何でしょうか?
重大事とは何でしょうか?
02:55
Well, to answer that question, let's think about
58
163772
2517
その問いに答えるために
02:58
what information looked like,
59
166289
1896
情報がどのようなもので
03:00
physically looked like in the past.
60
168185
3034
過去には 物理的にどう映っていたのかを
考えてみましょう
考えてみましょう
03:03
In 1908, on the island of Crete,
61
171219
3611
1908年 クレタ島で
03:06
archaeologists discovered a clay disc.
62
174830
4735
考古学者が粘土の円盤を発見しました
03:11
They dated it from 2000 B.C., so it's 4,000 years old.
63
179565
4059
4.000年前の紀元前2,000年のものです
03:15
Now, there's inscriptions on this disc,
64
183624
2004
この円盤には文字が書かれていますが
03:17
but we actually don't know what it means.
65
185628
1327
実質的には 解読できません
03:18
It's a complete mystery, but the point is that
66
186955
2098
完全に謎なのですが
03:21
this is what information used to look like
67
189053
1928
4,000年前の情報がどんなもの
03:22
4,000 years ago.
68
190981
2089
だったのかを言いたいのです
03:25
This is how society stored
69
193070
2548
これが 社会が情報を保管して
03:27
and transmitted information.
70
195618
3524
伝えたやり方です
03:31
Now, society hasn't advanced all that much.
71
199142
4160
さて 社会はそれほど進歩しませんでした
03:35
We still store information on discs,
72
203302
3474
今でもディスクに情報を保管しています
03:38
but now we can store a lot more information,
73
206776
3184
でも 以前よりもずっと大量の情報を
03:41
more than ever before.
74
209960
1260
保管できるのです
03:43
Searching it is easier. Copying it easier.
75
211220
3093
検索やコピーも より簡単です
03:46
Sharing it is easier. Processing it is easier.
76
214313
3500
共有や処理も より簡単です
03:49
And what we can do is we can reuse this information
77
217813
2766
情報を収集する時
03:52
for uses that we never even imagined
78
220579
1834
かつては想像だにしなかった
03:54
when we first collected the data.
79
222413
3195
情報の再利用もできるのです
03:57
In this respect, the data has gone
80
225608
2252
この点において データは
03:59
from a stock to a flow,
81
227860
3532
固定的なモノから流動的なモノへ
04:03
from something that is stationary and static
82
231392
3938
変化のない静的なモノから
04:07
to something that is fluid and dynamic.
83
235330
3609
変わりやすくダイナミックスなモノへと
変化しているのです
変化しているのです
04:10
There is, if you will, a liquidity to information.
84
238939
4023
いうなれば
情報には流動性があります
情報には流動性があります
04:14
The disc that was discovered off of Crete
85
242962
3474
クレタ島で発見された
04:18
that's 4,000 years old, is heavy,
86
246436
3764
4,000年前の円盤は重く
04:22
it doesn't store a lot of information,
87
250200
1962
情報はたくさん書かれていませんし
04:24
and that information is unchangeable.
88
252162
3116
書き変えることはできないのです
04:27
By contrast, all of the files
89
255278
4011
対照的に エドワード・スノーデンが
04:31
that Edward Snowden took
90
259289
1861
アメリカの国家安全保障局から
持ち出したファイルはすべて
04:33
from the National Security
Agency in the United States
Agency in the United States
91
261150
2621
04:35
fits on a memory stick
92
263771
2419
指の爪サイズの
04:38
the size of a fingernail,
93
266190
3010
USBに保存でき
04:41
and it can be shared at the speed of light.
94
269200
4745
光速で共有できるのです
04:45
More data. More.
95
273945
5255
データは膨れ上がっています
04:51
Now, one reason why we have
so much data in the world today
so much data in the world today
96
279200
1974
さて 今日の世界に大量のデータがあるのは
04:53
is we are collecting things
97
281174
1432
常時 情報を集めているモノを
04:54
that we've always collected information on,
98
282606
3280
収集しているからです
04:57
but another reason why is we're taking things
99
285886
2656
別の理由は 常に情報を含みつつも
05:00
that have always been informational
100
288542
2812
データ形式にレンダレングされていない
05:03
but have never been rendered into a data format
101
291354
2486
ものを集めているからです
05:05
and we are putting it into data.
102
293840
2419
そしてデータに置き換えます
05:08
Think, for example, the question of location.
103
296259
3308
例として 場所について考えてみましょう
05:11
Take, for example, Martin Luther.
104
299567
2249
マーティン・ルターを例に挙げます
05:13
If we wanted to know in the 1500s
105
301816
1597
1,500年代に
05:15
where Martin Luther was,
106
303413
2667
マーティン・ルターの居場所を知りたいのなら
05:18
we would have to follow him at all times,
107
306080
2092
常に彼の後をついて行き
05:20
maybe with a feathery quill and an inkwell,
108
308172
2137
羽ペンとインク入れを持ち運び
05:22
and record it,
109
310309
1676
居場所を記録しなければなりません
05:23
but now think about what it looks like today.
110
311985
2183
でも 今日ではどうでしょうか
05:26
You know that somewhere,
111
314168
2122
電気通信業者のデータペースにより
05:28
probably in a telecommunications carrier's database,
112
316290
2446
居場所が分かります
05:30
there is a spreadsheet or at least a database entry
113
318736
3036
常に あなたの居場所に関する情報を
05:33
that records your information
114
321772
2088
記録するスプレッドシートや
05:35
of where you've been at all times.
115
323860
2063
データベースへの登録などがあります
05:37
If you have a cell phone,
116
325923
1360
携帯電話を持っているなら
05:39
and that cell phone has GPS,
but even if it doesn't have GPS,
but even if it doesn't have GPS,
117
327283
2847
GPS機能があります
GPS機能のない機種でも
GPS機能のない機種でも
05:42
it can record your information.
118
330130
2385
あなたの情報を記録できるのです
05:44
In this respect, location has been datafied.
119
332515
4084
つまり 場所はデータ化されるのです
05:48
Now think, for example, of the issue of posture,
120
336599
4601
別の例として 姿勢について考えてみましょう
05:53
the way that you are all sitting right now,
121
341200
1285
今皆さん全員座っておられますが
05:54
the way that you sit,
122
342485
2030
あなたの座り方
05:56
the way that you sit, the way that you sit.
123
344515
2771
あなたの座り方 あなたの座り方
05:59
It's all different, and it's a function of your leg length
124
347286
2077
全て異なります
足の長さや
足の長さや
06:01
and your back and the contours of your back,
125
349363
2093
背中や背中の曲線などが違います
06:03
and if I were to put sensors,
maybe 100 sensors
maybe 100 sensors
126
351456
2531
今皆さんが座られている椅子に
06:05
into all of your chairs right now,
127
353987
1766
100個のセンサーを付けるなら
06:07
I could create an index that's fairly unique to you,
128
355753
3600
あなた独自の座り方の特徴を
06:11
sort of like a fingerprint, but it's not your finger.
129
359353
4409
指ではないですが 指紋のように
分類できるのです
分類できるのです
06:15
So what could we do with this?
130
363762
2969
これで何ができるのでしょうか?
06:18
Researchers in Tokyo are using it
131
366731
2397
東京の研究者は
06:21
as a potential anti-theft device in cars.
132
369128
4388
これを車の盗難防止装置
として使えると考えています
として使えると考えています
06:25
The idea is that the carjacker sits behind the wheel,
133
373516
2924
運転席に車泥棒が座るという発想により
06:28
tries to stream off, but the car recognizes
134
376440
2104
防犯につなげようとしています
06:30
that a non-approved driver is behind the wheel,
135
378544
2362
認証されていないドライバーが
運転席に座ると
運転席に座ると
06:32
and maybe the engine just stops, unless you
136
380906
2164
「自分は認証されたドライバーである」
06:35
type in a password into the dashboard
137
383070
3177
と伝えるために
ダッシュボードにパスワードを入力しないと
ダッシュボードにパスワードを入力しないと
06:38
to say, "Hey, I have authorization to drive." Great.
138
386247
4658
エンジンが始動しないかもしれません
素晴らしいですね
素晴らしいですね
06:42
What if every single car in Europe
139
390905
2553
ヨーロッパで全ての車が
この技術を搭載すると
この技術を搭載すると
06:45
had this technology in it?
140
393458
1457
どうなるのでしょうか?
06:46
What could we do then?
141
394915
3165
その時 何ができるのでしょうか?
06:50
Maybe, if we aggregated the data,
142
398080
2240
おそらく データを収集すると
06:52
maybe we could identify telltale signs
143
400320
3814
車の事故が 次の5秒で起こることを
06:56
that best predict that a car accident
144
404134
2709
ピタリと言い当てることが
06:58
is going to take place in the next five seconds.
145
406843
5893
できるかもしれません
07:04
And then what we will have datafied
146
412736
2557
そして ドライバーの疲労を
07:07
is driver fatigue,
147
415293
1783
データ化し
07:09
and the service would be when the car senses
148
417076
2334
車がドライバーの姿勢が悪くなってきたと
07:11
that the person slumps into that position,
149
419410
3437
感じたら 自動的に
内部アラームを設定します
内部アラームを設定します
07:14
automatically knows, hey, set an internal alarm
150
422847
3994
ハンドルを振動させたり
07:18
that would vibrate the steering wheel, honk inside
151
426841
2025
「起きてください
07:20
to say, "Hey, wake up,
152
428866
1721
道路にもっと注意を向けましょう」と
07:22
pay more attention to the road."
153
430587
1904
言葉で教えてくれます
07:24
These are the sorts of things we can do
154
432491
1853
暮らしの様々な側面をデータ化すると
07:26
when we datafy more aspects of our lives.
155
434344
2821
私たちのできることを分類できます
07:29
So what is the value of big data?
156
437165
3675
つまり ビックデータの価値とは
何でしょうか?
何でしょうか?
07:32
Well, think about it.
157
440840
2190
考えてみてください
07:35
You have more information.
158
443030
2412
あなたは より多くの情報を持っており
07:37
You can do things that you couldn't do before.
159
445442
3341
以前にはできなかったことが
できるのです
できるのです
07:40
One of the most impressive areas
160
448783
1676
このコンセプトが生じる
07:42
where this concept is taking place
161
450459
1729
最も印象的な領域の1つが
07:44
is in the area of machine learning.
162
452188
3307
機械学習の領域です
07:47
Machine learning is a branch of artificial intelligence,
163
455495
3077
機械学習とは 人口知能に含まれ
07:50
which itself is a branch of computer science.
164
458572
3378
コンピュータ・サイエンスの1つです
07:53
The general idea is that instead of
165
461950
1543
その概念は コンピュータに
07:55
instructing a computer what do do,
166
463493
2117
何をするかを教える代わりに
07:57
we are going to simply throw data at the problem
167
465610
2620
単純に問題となるデータを投げると
08:00
and tell the computer to figure it out for itself.
168
468230
3206
コンピュータが独自に解明してくれるのです
08:03
And it will help you understand it
169
471436
1777
その起源を辿ると
08:05
by seeing its origins.
170
473213
3552
分かりやすいでしょう
08:08
In the 1950s, a computer scientist
171
476765
2388
1950年代 アーサー・サミュエルという
08:11
at IBM named Arthur Samuel liked to play checkers,
172
479153
3592
IBMのコンピュータ科学者は
チェッカーが好きでした
チェッカーが好きでした
08:14
so he wrote a computer program
173
482745
1402
コンピュータ・プログラムを書き
08:16
so he could play against the computer.
174
484147
2813
彼はコンピュータと対戦しました
08:18
He played. He won.
175
486960
2711
彼は対戦して 勝ちました
08:21
He played. He won.
176
489671
2103
彼は対戦して 勝ちました
08:23
He played. He won,
177
491774
3015
彼は対戦して 勝ちました
08:26
because the computer only knew
178
494789
1778
コンピュータが正式なルールしか
08:28
what a legal move was.
179
496567
2227
知らなかったからです
08:30
Arthur Samuel knew something else.
180
498794
2087
アーサー・サミュエルは
すごいことを知っていました
すごいことを知っていました
08:32
Arthur Samuel knew strategy.
181
500881
4629
彼は 戦略を知っていました
08:37
So he wrote a small sub-program alongside it
182
505510
2396
彼はサブプログラムを作成して
08:39
operating in the background, and all it did
183
507906
1974
バックグラウンドで走らせました
08:41
was score the probability
184
509880
1817
サブプログラムは 一手ごとに
08:43
that a given board configuration would likely lead
185
511697
2563
その盤面の配置から
08:46
to a winning board versus a losing board
186
514260
2910
勝つ確率と負ける確率を
記録したのです
08:49
after every move.
187
517170
2508
08:51
He plays the computer. He wins.
188
519678
3150
彼はコンピュータと対戦して 勝ちました
08:54
He plays the computer. He wins.
189
522828
2508
彼はコンピュータと対戦して 勝ちました
08:57
He plays the computer. He wins.
190
525336
3731
彼はコンピュータと対戦して 勝ちました
09:01
And then Arthur Samuel leaves the computer
191
529067
2277
そして アーサー・サミュエルは
09:03
to play itself.
192
531344
2227
コンピュータ自体が
ゲームをするようにしました
ゲームをするようにしました
09:05
It plays itself. It collects more data.
193
533571
3509
コンピュータは独自にゲームをし
より多くのデータを集めました
より多くのデータを集めました
09:09
It collects more data. It increases
the accuracy of its prediction.
the accuracy of its prediction.
194
537080
4309
より多くのデータを集めると
予測の精度も上がります
予測の精度も上がります
09:13
And then Arthur Samuel goes back to the computer
195
541389
2104
そしてアーサー・サミュエルは
09:15
and he plays it, and he loses,
196
543493
2318
コンピュータの所へ戻り
対戦して 負けました
対戦して 負けました
09:17
and he plays it, and he loses,
197
545811
2069
彼は対戦して 負けました
09:19
and he plays it, and he loses,
198
547880
2047
彼は対戦して 負けました
09:21
and Arthur Samuel has created a machine
199
549927
2599
アーサー・サミュエルは
教えたタスクで
教えたタスクで
09:24
that surpasses his ability in a task that he taught it.
200
552526
6288
彼の能力を凌ぐ
コンピュータを作りあげました
コンピュータを作りあげました
09:30
And this idea of machine learning
201
558814
2498
機械学習という発想は
09:33
is going everywhere.
202
561312
3927
どこにでもあります
09:37
How do you think we have self-driving cars?
203
565239
3149
自動運転車はどのように
作られたと思いますか?
作られたと思いますか?
09:40
Are we any better off as a society
204
568388
2137
ソフトウェアに
全道路法規を記入すると
全道路法規を記入すると
09:42
enshrining all the rules of the road into software?
205
570525
3285
より豊かな社会なのでしょうか?
09:45
No. Memory is cheaper. No.
206
573810
2598
いいえ 記憶装置は安価?
いいえ
いいえ
09:48
Algorithms are faster. No. Processors are better. No.
207
576408
3994
アルゴリズムがより速い? いいえ
プロセッサがより良い? いいえ
プロセッサがより良い? いいえ
09:52
All of those things matter, but that's not why.
208
580402
2772
それらはすべて重要ですが
それが理由ではありません
それが理由ではありません
09:55
It's because we changed the nature of the problem.
209
583174
3141
問題の性質を変えているからです
09:58
We changed the nature of the problem from one
210
586315
1530
私たちの言わんとすることを-
09:59
in which we tried to overtly and explicitly
211
587845
2245
例えば
「自動車の周辺には多くの情報があり
「自動車の周辺には多くの情報があり
10:02
explain to the computer how to drive
212
590090
2581
皆さんは それを理解しています
10:04
to one in which we say,
213
592671
1316
信号機についても理解しています
10:05
"Here's a lot of data around the vehicle.
214
593987
1876
信号機は赤で青ではないので
10:07
You figure it out.
215
595863
1533
停止する必要があり
10:09
You figure it out that that is a traffic light,
216
597396
1867
前進できません」ということを
10:11
that that traffic light is red and not green,
217
599263
2081
コンピュータに明確に
10:13
that that means that you need to stop
218
601344
2014
説明しようと試みていた
10:15
and not go forward."
219
603358
3083
問題の性質を変えてしまいました
10:18
Machine learning is at the basis
220
606441
1518
機械学習は 私たちが
10:19
of many of the things that we do online:
221
607959
1991
ネット上で行う多くの事の
根底となっています
根底となっています
10:21
search engines,
222
609950
1857
例えば 検索エンジン
10:23
Amazon's personalization algorithm,
223
611807
3801
Amazonのパーソナライズ・アルゴリズム
10:27
computer translation,
224
615608
2212
自動翻訳
10:29
voice recognition systems.
225
617820
4290
音声認識などです
10:34
Researchers recently have looked at
226
622110
2835
最近 研究者は生検や
10:36
the question of biopsies,
227
624945
3195
ガンの生検について
10:40
cancerous biopsies,
228
628140
2767
研究しており
10:42
and they've asked the computer to identify
229
630907
2315
細胞が実際ガンに冒されているか
10:45
by looking at the data and survival rates
230
633222
2471
どうかを調べるために
10:47
to determine whether cells are actually
231
635693
4667
データや生存率を使って
10:52
cancerous or not,
232
640360
2544
コンピュータに
特定させようとしています
特定させようとしています
10:54
and sure enough, when you throw the data at it,
233
642904
1778
案の定 データを入力すると
10:56
through a machine-learning algorithm,
234
644682
2047
機会学習のアルゴリズム経由で
10:58
the machine was able to identify
235
646729
1877
コンピュータは12個の兆候を
11:00
the 12 telltale signs that best predict
236
648606
2262
特定することで
11:02
that this biopsy of the breast cancer cells
237
650868
3299
乳ガン細胞の生検結果はガンであると
11:06
are indeed cancerous.
238
654167
3218
ビタリと予測します
11:09
The problem: The medical literature
239
657385
2498
問題は 医学文献が
11:11
only knew nine of them.
240
659883
2789
9個しか兆候を知らなかったことです
11:14
Three of the traits were ones
241
662672
1800
特性のうち 3個は
11:16
that people didn't need to look for,
242
664472
2975
探す必要がないものでしたが
11:19
but that the machine spotted.
243
667447
5531
コンピュータは見つけました
11:24
Now, there are dark sides to big data as well.
244
672978
5925
さて ビックデータにも負の側面があります
11:30
It will improve our lives, but there are problems
245
678903
2074
私たちの暮らしを向上させますが
11:32
that we need to be conscious of,
246
680977
2640
意識しなければならない
問題もあります
問題もあります
11:35
and the first one is the idea
247
683617
2623
最初の問題は
11:38
that we may be punished for predictions,
248
686240
2686
『マイノリティ・リポート』のように
11:40
that the police may use big data for their purposes,
249
688926
3870
警察が目的のためにビックデータを使って
11:44
a little bit like "Minority Report."
250
692796
2351
予測に基づいて
罰するかもしれないということです
罰するかもしれないということです
11:47
Now, it's a term called predictive policing,
251
695147
2441
さて 予測警備とか
11:49
or algorithmic criminology,
252
697588
2363
アルゴリズム的犯罪学
という用語です
という用語です
11:51
and the idea is that if we take a lot of data,
253
699951
2036
例えば 過去の犯罪がどこで起こったか
11:53
for example where past crimes have been,
254
701987
2159
というデータがたくさんあると
11:56
we know where to send the patrols.
255
704146
2543
パトロールすべき所が分かる
という考え方です
という考え方です
11:58
That makes sense, but the problem, of course,
256
706689
2115
その通りですが もちろん問題もあります
12:00
is that it's not simply going to stop on location data,
257
708804
4544
場所のデータだけで止まらず
12:05
it's going to go down to the level of the individual.
258
713348
2959
個人レベルにまで下りていってしまうことです
12:08
Why don't we use data about the person's
259
716307
2250
個人の高校の成績証明書のデータを
12:10
high school transcript?
260
718557
2228
使うのはどうでしょうか?
12:12
Maybe we should use the fact that
261
720785
1561
失業しているのかどうか
12:14
they're unemployed or not, their credit score,
262
722346
2028
信用情報
ネットサーフィンの行動パターン
ネットサーフィンの行動パターン
12:16
their web-surfing behavior,
263
724374
1552
夜更かしするのかどうか などを
12:17
whether they're up late at night.
264
725926
1878
使うかもしれません
12:19
Their Fitbit, when it's able
to identify biochemistries,
to identify biochemistries,
265
727804
3161
Fitbit による生化学情報を得れば
12:22
will show that they have aggressive thoughts.
266
730965
4236
使用者が積極的な考え方をしていることさえ分かります
12:27
We may have algorithms that are likely to predict
267
735201
2221
私たちの行動を予測し得る
12:29
what we are about to do,
268
737422
1633
アルゴリズムがあり
12:31
and we may be held accountable
269
739055
1244
実際に私たちが行動する前に
12:32
before we've actually acted.
270
740299
2590
責任を負うことになるかもしれません
12:34
Privacy was the central challenge
271
742889
1732
スモールデータの時代では
12:36
in a small data era.
272
744621
2880
プライバシーが中心的な課題でしたが
12:39
In the big data age,
273
747501
2149
ビックデータの時代では
12:41
the challenge will be safeguarding free will,
274
749650
4523
課題は 自由意思や道徳基準の選択
12:46
moral choice, human volition,
275
754173
3779
人間の決断力や行為主体性などを
12:49
human agency.
276
757952
3068
保護することです
12:54
There is another problem:
277
762540
2225
ビックデータに職を奪われるという
12:56
Big data is going to steal our jobs.
278
764765
3556
別の問題もあります
13:00
Big data and algorithms are going to challenge
279
768321
3512
ビックデータやアルゴリズムは
13:03
white collar, professional knowledge work
280
771833
3061
20世紀に 工場の自動化や
13:06
in the 21st century
281
774894
1653
組立ラインが
13:08
in the same way that factory automation
282
776547
2434
ブルーカラーに対抗したように
13:10
and the assembly line
283
778981
2189
21世紀には
ホワイトカラーや専門職に
ホワイトカラーや専門職に
13:13
challenged blue collar labor in the 20th century.
284
781170
3026
対抗することになるでしょう
13:16
Think about a lab technician
285
784196
2092
顕微鏡を使って
13:18
who is looking through a microscope
286
786288
1409
ガン生検を調べて
13:19
at a cancer biopsy
287
787697
1624
ガンであるかどうかを決める
13:21
and determining whether it's cancerous or not.
288
789321
2637
検査技師について考えてみましょう
13:23
The person went to university.
289
791958
1972
その検査技師は大学教育を受けました
13:25
The person buys property.
290
793930
1430
不動産物件を買ったり
13:27
He or she votes.
291
795360
1741
投票したり
13:29
He or she is a stakeholder in society.
292
797101
3666
社会への出資者でもあります
13:32
And that person's job,
293
800767
1394
そして 検査技師の仕事とは
13:34
as well as an entire fleet
294
802161
1609
同じような専門職の一群と同様に
13:35
of professionals like that person,
295
803770
1969
同じような専門職の一群と同様に
13:37
is going to find that their jobs are radically changed
296
805739
3150
仕事内容が根本的に変わったり
13:40
or actually completely eliminated.
297
808889
2357
完全に無くなったりします
13:43
Now, we like to think
298
811246
1284
短い一時的な混乱の後
13:44
that technology creates jobs over a period of time
299
812530
3187
長年に渡って
テクノロジーが仕事を作ってきた
テクノロジーが仕事を作ってきた
13:47
after a short, temporary period of dislocation,
300
815717
3465
ことについて考えてください
13:51
and that is true for the frame of reference
301
819182
1941
私たちが暮らす枠組み
13:53
with which we all live, the Industrial Revolution,
302
821123
2142
産業革命-は真実で
13:55
because that's precisely what happened.
303
823265
2328
まさに起こったことです
13:57
But we forget something in that analysis:
304
825593
2333
しかし その分析で
忘れていることがあります
忘れていることがあります
13:59
There are some categories of jobs
305
827926
1830
それはなくなり
二度と戻ってこなかった
二度と戻ってこなかった
14:01
that simply get eliminated and never come back.
306
829756
3420
職種があるということです
14:05
The Industrial Revolution wasn't very good
307
833176
2004
産業革命は あまり有難くないものでした
14:07
if you were a horse.
308
835180
4002
あなたが馬であれば
14:11
So we're going to need to be careful
309
839182
2055
ですから 注意深く ビックデータを取扱い
14:13
and take big data and adjust it for our needs,
310
841237
3514
私たちのニーズ
非常に人間的なニーズのために
非常に人間的なニーズのために
14:16
our very human needs.
311
844751
3185
調整していく必要があります
14:19
We have to be the master of this technology,
312
847936
1954
私たちは この技術の召使ではなく
14:21
not its servant.
313
849890
1656
所有者にならなければなりません
14:23
We are just at the outset of the big data era,
314
851546
2958
ビックデータの時代は
始まったばかりなので
始まったばかりなので
14:26
and honestly, we are not very good
315
854504
3150
正直言って 今集められた全データに
14:29
at handling all the data that we can now collect.
316
857654
4207
私たちは あまりうまく対処できていません
14:33
It's not just a problem for
the National Security Agency.
the National Security Agency.
317
861861
3330
国家安全保障局だけの
問題ではありません
問題ではありません
14:37
Businesses collect lots of
data, and they misuse it too,
data, and they misuse it too,
318
865191
3038
企業も多くのデータを集め
乱用しています
乱用しています
14:40
and we need to get better at
this, and this will take time.
this, and this will take time.
319
868229
3667
うまく使えるようになるには 時間がかかります
14:43
It's a little bit like the challenge that was faced
320
871896
1822
原始人と火が直面していた課題に
14:45
by primitive man and fire.
321
873718
2407
ちょっと似ています
14:48
This is a tool, but this is a tool that,
322
876125
1885
これはツールですが
14:50
unless we're careful, will burn us.
323
878010
3559
注意しないと
私たちを焼いてしまうツールなのです
私たちを焼いてしまうツールなのです
14:56
Big data is going to transform how we live,
324
884008
3120
ビックデータは
生き方や働き方や考え方を
生き方や働き方や考え方を
14:59
how we work and how we think.
325
887128
2801
変えていくことでしょう
15:01
It is going to help us manage our careers
326
889929
1889
私たちのキャリアを管理して
15:03
and lead lives of satisfaction and hope
327
891818
3634
満足して希望が持て
幸福で健康な暮らしに
幸福で健康な暮らしに
15:07
and happiness and health,
328
895452
2992
導くことでしょう
15:10
but in the past, we've often
looked at information technology
looked at information technology
329
898444
3306
しかし 過去に
情報技術でよくあったように
情報技術でよくあったように
15:13
and our eyes have only seen the T,
330
901750
2208
物理的なものであるT-
15:15
the technology, the hardware,
331
903958
1686
技術やハードウェアに
15:17
because that's what was physical.
332
905644
2262
目が行きがちになります
15:19
We now need to recast our gaze at the I,
333
907906
2924
明確でない部分があるものの
15:22
the information,
334
910830
1380
いくつかの点において
15:24
which is less apparent,
335
912210
1373
かなり重要である I-
15:25
but in some ways a lot more important.
336
913583
4109
情報に再び着目する必要があります
15:29
Humanity can finally learn from the information
337
917692
3465
世界や私たちの居場所を理解するために
15:33
that it can collect,
338
921157
2418
時代を超えた冒険の一端として
15:35
as part of our timeless quest
339
923575
2115
集めた情報から
15:37
to understand the world and our place in it,
340
925690
3159
人間性がついに学べるのです
15:40
and that's why big data is a big deal.
341
928849
5631
そのことがビックデータが
重大事な理由なのです
重大事な理由なのです
15:46
(Applause)
342
934480
3568
(拍手)
ABOUT THE SPEAKER
Kenneth Cukier - Data Editor of The EconomistKenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages.
Why you should listen
As Data Editor of The Economist and co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think, Kenneth Cukier has spent years immersed in big data, machine learning -- and the impact of both. What's the future of big data-driven technology and design? To find out, watch this talk.
Kenneth Cukier | Speaker | TED.com