ABOUT THE SPEAKER
Kenneth Cukier - Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages.

Why you should listen

As Data Editor of The Economist and co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think, Kenneth Cukier has spent years immersed in big data, machine learning -- and the impact of both. What's the future of big data-driven technology and design? To find out, watch this talk.

More profile about the speaker
Kenneth Cukier | Speaker | TED.com
TEDSalon Berlin 2014

Kenneth Cukier: Big data is better data

ケネス・ツーケル: ビックデータはより良いデータ

Filmed:
1,663,038 views

自動運転車は始まったばかりです。ビックデータが牽引する技術やデザインの未来はどうなるのでしょうか?ワクワクする科学的なトークで、ケネス・ツーケルは機械学習や人間の知識などの今後を検証します。
- Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio

Double-click the English transcript below to play the video.

00:12
America'sアメリカの favoriteお気に入り pieパイ is?
0
787
3845
アメリカで人気のパイと言えば?
00:16
Audienceオーディエンス: Apple林檎.
Kennethケネス Cukierクッキー: Apple林檎. Of courseコース it is.
1
4632
3506
聴衆:「アップルパイ」
もちろん アップルパイですよね
00:20
How do we know it?
2
8138
1231
どうして分かるのでしょうか?
00:21
Because of dataデータ.
3
9369
2753
データがあるからです
00:24
You look at supermarketスーパーマーケット sales販売.
4
12122
2066
スーパーの売上げを考えてみましょう
00:26
You look at supermarketスーパーマーケット
sales販売 of 30-centimeter-センチメートル piesパイ
5
14188
2866
30cmの冷凍パイの売上げについてです
00:29
that are frozenフローズン, and apple林檎 wins勝つ, no contestコンテスト.
6
17054
4075
アップルパイが断トツ1位です
00:33
The majority多数 of the sales販売 are apple林檎.
7
21129
5180
売上げの大部分がアップルパイです
00:38
But then supermarketsスーパーマーケット started開始した selling販売
8
26309
2964
ところが スーパーが小さな
00:41
smaller小さい, 11-centimeter-センチメートル piesパイ,
9
29273
2583
11cmセンチのパイを売り始めると
00:43
and suddenly突然, apple林檎 fell落ちた to fourth第4 or fifth五番目 place場所.
10
31856
4174
突然 アップルパイは
4、5番目に転落しまいました
00:48
Why? What happened起こった?
11
36030
2875
なぜでしょうか?
何が起こったのでしょうか?
00:50
Okay, think about it.
12
38905
2818
考えてみてください
00:53
When you buy購入 a 30-centimeter-センチメートル pieパイ,
13
41723
3848
30cmのパイを買う時は
00:57
the whole全体 family家族 has to agree同意する,
14
45571
2261
家族全員の希望に沿うパイを選びます
00:59
and apple林檎 is everyone's誰もが second二番 favoriteお気に入り.
15
47832
3791
アップルパイは家族の第二希望なのです
01:03
(Laughter笑い)
16
51623
1935
(笑)
01:05
But when you buy購入 an individual個人 11-centimeter-センチメートル pieパイ,
17
53558
3615
でも 個人用の11cmのパイを買う時は
01:09
you can buy購入 the one that you want.
18
57173
3745
自分が欲しいパイを買います
01:12
You can get your first choice選択.
19
60918
4015
自分の第一希望を買えるのです
01:16
You have more dataデータ.
20
64933
1641
データがたくさんあると
01:18
You can see something
21
66574
1554
データが少ない時には
01:20
that you couldn'tできなかった see
22
68128
1132
分からなかったことが
01:21
when you only had smaller小さい amounts金額 of it.
23
69260
3953
分かってくるのです
01:25
Now, the pointポイント here is that more dataデータ
24
73213
2475
つまり より多くのデータがあると
01:27
doesn't just let us see more,
25
75688
2283
多くが見えるだけでなく
01:29
more of the same同じ thing we were looking at.
26
77971
1854
見ていたことからも多くが分かるのです
01:31
More dataデータ allows許す us to see new新しい.
27
79825
3613
データが多いほど
新しいことが分かってきます
01:35
It allows許す us to see better.
28
83438
3094
より良い見方や
01:38
It allows許す us to see different異なる.
29
86532
3656
違う見方ができるようになります
01:42
In this case場合, it allows許す us to see
30
90188
3173
この例で 分かることは
01:45
what America'sアメリカの favoriteお気に入り pieパイ is:
31
93361
2913
「アメリカで人気のパイは
01:48
not apple林檎.
32
96274
2542
アップルパイではない」ということです
01:50
Now, you probably多分 all have heard聞いた the term期間 big大きい dataデータ.
33
98816
3614
皆さんは「ビッグデータ」という言葉を
お聞きになられたことがあるでしょう
01:54
In fact事実, you're probably多分 sick病気 of hearing聴覚 the term期間
34
102430
2057
もしかしたら 耳にタコがでくるくらい
01:56
big大きい dataデータ.
35
104487
1630
お聞きになっているかもしれません
01:58
It is true真実 that there is a lot of hype誇大宣伝 around the term期間,
36
106117
3330
ビッグデータは
誇大宣伝されている部分もあり
02:01
and that is very unfortunate残念な,
37
109447
2332
非常に残念なことです
02:03
because big大きい dataデータ is an extremely極端な important重要 toolツール
38
111779
3046
なぜなら ビッグデータは
社会の進歩に欠かせない
02:06
by whichどの society社会 is going to advance前進.
39
114825
3734
非常に重要なツールだからです
02:10
In the past過去, we used to look at small小さい dataデータ
40
118559
3561
昔は 少ないデータから
02:14
and think about what it would mean
41
122120
1704
世界を理解しようと
02:15
to try to understandわかる the world世界,
42
123824
1496
考えてきました
02:17
and now we have a lot more of it,
43
125320
1991
現在は 以前では考えられなかった程の
02:19
more than we ever could before.
44
127311
2722
大量のデータがあるのです
大量のデータがあると
02:22
What we find is that when we have
45
130033
1877
02:23
a large body of dataデータ, we can fundamentally根本的に do things
46
131910
2724
データ量が少なかった時に
不可能だったことが
02:26
that we couldn'tできなかった do when we
only had smaller小さい amounts金額.
47
134634
3276
根本的に可能になる
ということが分かってきました
02:29
Big大きい dataデータ is important重要, and big大きい dataデータ is new新しい,
48
137910
2641
ビッグデータは重要で 新しいものです
02:32
and when you think about it,
49
140551
1777
ビックデータについて考えてみると
02:34
the only way this planet惑星 is going to deal対処
50
142328
2216
地球規模の課題について-
02:36
with its globalグローバル challenges挑戦
51
144544
1789
食糧問題や医療の供給
02:38
to feedフィード people, supply供給 them with medical医療 careお手入れ,
52
146333
3537
エネルギーや電力の供給などに
02:41
supply供給 them with energyエネルギー, electricity電気,
53
149870
2810
対処する唯一の方法であり
02:44
and to make sure they're not burnt焼けた to a crisp鮮明
54
152680
1789
地球温暖化の影響で
02:46
because of globalグローバル warming温暖化
55
154469
1238
カリカリに焼けることがないように
02:47
is because of the effective効果的な use of dataデータ.
56
155707
4195
データを効率的に使うことが必要なのです
02:51
So what is new新しい about big大きい
dataデータ? What is the big大きい deal対処?
57
159902
3870
ビッグデータの新しいモノとは何で
重大事とは何でしょうか?
02:55
Well, to answer回答 that question質問, let's think about
58
163772
2517
その問いに答えるために
02:58
what information情報 looked見た like,
59
166289
1896
情報がどのようなもので
03:00
physically物理的に looked見た like in the past過去.
60
168185
3034
過去には 物理的にどう映っていたのかを
考えてみましょう
03:03
In 1908, on the island of Creteクレタ島,
61
171219
3611
1908年 クレタ島で
03:06
archaeologists考古学者 discovered発見された a clay粘土 discディスク.
62
174830
4735
考古学者が粘土の円盤を発見しました
03:11
They dated日付 it from 2000 B.C., so it's 4,000 years old古い.
63
179565
4059
4.000年前の紀元前2,000年のものです
03:15
Now, there's inscriptions碑文 on this discディスク,
64
183624
2004
この円盤には文字が書かれていますが
03:17
but we actually実際に don't know what it means手段.
65
185628
1327
実質的には 解読できません
03:18
It's a completeコンプリート mystery神秘, but the pointポイント is that
66
186955
2098
完全に謎なのですが
03:21
this is what information情報 used to look like
67
189053
1928
4,000年前の情報がどんなもの
03:22
4,000 years ago.
68
190981
2089
だったのかを言いたいのです
03:25
This is how society社会 stored保存された
69
193070
2548
これが 社会が情報を保管して
03:27
and transmitted送信された information情報.
70
195618
3524
伝えたやり方です
03:31
Now, society社会 hasn't持っていない advanced高度な all that much.
71
199142
4160
さて 社会はそれほど進歩しませんでした
03:35
We still store格納 information情報 on discsディスク,
72
203302
3474
今でもディスクに情報を保管しています
03:38
but now we can store格納 a lot more information情報,
73
206776
3184
でも 以前よりもずっと大量の情報を
03:41
more than ever before.
74
209960
1260
保管できるのです
03:43
Searching検索 it is easierより簡単に. Copyingコピー it easierより簡単に.
75
211220
3093
検索やコピーも より簡単です
03:46
Sharing共有 it is easierより簡単に. Processing処理 it is easierより簡単に.
76
214313
3500
共有や処理も より簡単です
03:49
And what we can do is we can reuse再利用 this information情報
77
217813
2766
情報を収集する時
03:52
for uses用途 that we never even imagined想像した
78
220579
1834
かつては想像だにしなかった
03:54
when we first collected集めました the dataデータ.
79
222413
3195
情報の再利用もできるのです
03:57
In this respect尊敬, the dataデータ has gone行った
80
225608
2252
この点において データは
03:59
from a stock株式 to a flowフロー,
81
227860
3532
固定的なモノから流動的なモノへ
04:03
from something that is stationary定常 and static静的
82
231392
3938
変化のない静的なモノから
04:07
to something that is fluid流体 and dynamic動的.
83
235330
3609
変わりやすくダイナミックスなモノへと
変化しているのです
04:10
There is, if you will, a liquidity流動性 to information情報.
84
238939
4023
いうなれば
情報には流動性があります
04:14
The discディスク that was discovered発見された off of Creteクレタ島
85
242962
3474
クレタ島で発見された
04:18
that's 4,000 years old古い, is heavyヘビー,
86
246436
3764
4,000年前の円盤は重く
04:22
it doesn't store格納 a lot of information情報,
87
250200
1962
情報はたくさん書かれていませんし
04:24
and that information情報 is unchangeable変更不可能な.
88
252162
3116
書き変えることはできないのです
04:27
By contrastコントラスト, all of the filesファイル
89
255278
4011
対照的に エドワード・スノーデンが
04:31
that Edwardエドワード Snowdenスノーデン took取った
90
259289
1861
アメリカの国家安全保障局から
持ち出したファイルはすべて
04:33
from the Nationalナショナル Securityセキュリティ
Agency代理店 in the Unitedユナイテッド States
91
261150
2621
04:35
fitsフィット on a memory記憶 stickスティック
92
263771
2419
指の爪サイズの
04:38
the sizeサイズ of a fingernail,
93
266190
3010
USBに保存でき
04:41
and it can be shared共有 at the speed速度 of light.
94
269200
4745
光速で共有できるのです
04:45
More dataデータ. More.
95
273945
5255
データは膨れ上がっています
04:51
Now, one reason理由 why we have
so much dataデータ in the world世界 today今日
96
279200
1974
さて 今日の世界に大量のデータがあるのは
04:53
is we are collecting収集する things
97
281174
1432
常時 情報を集めているモノを
04:54
that we've私たちは always collected集めました information情報 on,
98
282606
3280
収集しているからです
04:57
but another別の reason理由 why is we're taking取る things
99
285886
2656
別の理由は 常に情報を含みつつも
05:00
that have always been informational情報提供
100
288542
2812
データ形式にレンダレングされていない
05:03
but have never been renderedレンダリング into a dataデータ formatフォーマット
101
291354
2486
ものを集めているからです
05:05
and we are puttingパッティング it into dataデータ.
102
293840
2419
そしてデータに置き換えます
05:08
Think, for example, the question質問 of locationロケーション.
103
296259
3308
例として 場所について考えてみましょう
05:11
Take, for example, Martinマーティン Lutherルーサー.
104
299567
2249
マーティン・ルターを例に挙げます
05:13
If we wanted to know in the 1500s
105
301816
1597
1,500年代に
05:15
where Martinマーティン Lutherルーサー was,
106
303413
2667
マーティン・ルターの居場所を知りたいのなら
05:18
we would have to followフォローする him at all times,
107
306080
2092
常に彼の後をついて行き
05:20
maybe with a feathery羽毛 quill羽毛 and an inkwellインクウェル,
108
308172
2137
羽ペンとインク入れを持ち運び
05:22
and record記録 it,
109
310309
1676
居場所を記録しなければなりません
05:23
but now think about what it looks外見 like today今日.
110
311985
2183
でも 今日ではどうでしょうか
05:26
You know that somewhereどこかで,
111
314168
2122
電気通信業者のデータペースにより
05:28
probably多分 in a telecommunications電気通信 carrier's運送業者 databaseデータベース,
112
316290
2446
居場所が分かります
05:30
there is a spreadsheetスプレッドシート or at least少なくとも a databaseデータベース entryエントリ
113
318736
3036
常に あなたの居場所に関する情報を
05:33
that records記録 your information情報
114
321772
2088
記録するスプレッドシートや
05:35
of where you've been at all times.
115
323860
2063
データベースへの登録などがあります
05:37
If you have a cell細胞 phone電話,
116
325923
1360
携帯電話を持っているなら
05:39
and that cell細胞 phone電話 has GPSGPS,
but even if it doesn't have GPSGPS,
117
327283
2847
GPS機能があります
GPS機能のない機種でも
05:42
it can record記録 your information情報.
118
330130
2385
あなたの情報を記録できるのです
05:44
In this respect尊敬, locationロケーション has been datafiedデータ.
119
332515
4084
つまり 場所はデータ化されるのです
05:48
Now think, for example, of the issue問題 of posture姿勢,
120
336599
4601
別の例として 姿勢について考えてみましょう
05:53
the way that you are all sitting座っている right now,
121
341200
1285
今皆さん全員座っておられますが
05:54
the way that you sit座る,
122
342485
2030
あなたの座り方
05:56
the way that you sit座る, the way that you sit座る.
123
344515
2771
あなたの座り方 あなたの座り方
05:59
It's all different異なる, and it's a function関数 of your leg length長さ
124
347286
2077
全て異なります
足の長さや
06:01
and your back and the contours輪郭 of your back,
125
349363
2093
背中や背中の曲線などが違います
06:03
and if I were to put sensorsセンサ,
maybe 100 sensorsセンサ
126
351456
2531
今皆さんが座られている椅子に
06:05
into all of your chairs椅子 right now,
127
353987
1766
100個のセンサーを付けるなら
06:07
I could create作成する an index索引 that's fairlyかなり uniqueユニークな to you,
128
355753
3600
あなた独自の座り方の特徴を
06:11
sortソート of like a fingerprint指紋, but it's not your finger.
129
359353
4409
指ではないですが 指紋のように
分類できるのです
06:15
So what could we do with this?
130
363762
2969
これで何ができるのでしょうか?
06:18
Researchers研究者 in Tokyo東京 are usingを使用して it
131
366731
2397
東京の研究者は
06:21
as a potential潜在的な anti-theft盗難防止 deviceデバイス in cars.
132
369128
4388
これを車の盗難防止装置
として使えると考えています
06:25
The ideaアイディア is that the carjackerカージャッカー sits座る behind後ろに the wheelホイール,
133
373516
2924
運転席に車泥棒が座るという発想により
06:28
tries試行する to streamストリーム off, but the car recognizes認識する
134
376440
2104
防犯につなげようとしています
06:30
that a non-approved未承認 driverドライバ is behind後ろに the wheelホイール,
135
378544
2362
認証されていないドライバーが
運転席に座ると
06:32
and maybe the engineエンジン just stops停止, unless限り you
136
380906
2164
「自分は認証されたドライバーである」
06:35
typeタイプ in a passwordパスワード into the dashboardダッシュボード
137
383070
3177
と伝えるために
ダッシュボードにパスワードを入力しないと
06:38
to say, "Hey, I have authorization承認 to driveドライブ." Great.
138
386247
4658
エンジンが始動しないかもしれません
素晴らしいですね
06:42
What if everyすべて singleシングル car in Europeヨーロッパ
139
390905
2553
ヨーロッパで全ての車が
この技術を搭載すると
06:45
had this technology技術 in it?
140
393458
1457
どうなるのでしょうか?
06:46
What could we do then?
141
394915
3165
その時 何ができるのでしょうか?
06:50
Maybe, if we aggregated集約された the dataデータ,
142
398080
2240
おそらく データを収集すると
06:52
maybe we could identify識別する telltale伝える signs兆候
143
400320
3814
車の事故が 次の5秒で起こることを
06:56
that bestベスト predict予測する that a car accident事故
144
404134
2709
ピタリと言い当てることが
06:58
is going to take place場所 in the next five seconds.
145
406843
5893
できるかもしれません
07:04
And then what we will have datafiedデータ
146
412736
2557
そして ドライバーの疲労を
07:07
is driverドライバ fatigue疲労,
147
415293
1783
データ化し
07:09
and the serviceサービス would be when the car senses感覚
148
417076
2334
車がドライバーの姿勢が悪くなってきたと
07:11
that the person slumpsスランプ into that positionポジション,
149
419410
3437
感じたら 自動的に
内部アラームを設定します
07:14
automatically自動的に knows知っている, hey, setセット an internal内部 alarm警報
150
422847
3994
ハンドルを振動させたり
07:18
that would vibrate振動する the steering操舵 wheelホイール, honkホーク inside内部
151
426841
2025
「起きてください
07:20
to say, "Hey, wake目覚め up,
152
428866
1721
道路にもっと注意を向けましょう」と
07:22
pay支払う more attention注意 to the road道路."
153
430587
1904
言葉で教えてくれます
07:24
These are the sortsソート of things we can do
154
432491
1853
暮らしの様々な側面をデータ化すると
07:26
when we datafyデータ more aspects側面 of our lives人生.
155
434344
2821
私たちのできることを分類できます
07:29
So what is the value of big大きい dataデータ?
156
437165
3675
つまり ビックデータの価値とは
何でしょうか?
07:32
Well, think about it.
157
440840
2190
考えてみてください
07:35
You have more information情報.
158
443030
2412
あなたは より多くの情報を持っており
07:37
You can do things that you couldn'tできなかった do before.
159
445442
3341
以前にはできなかったことが
できるのです
07:40
One of the most最も impressive印象的な areasエリア
160
448783
1676
このコンセプトが生じる
07:42
where this concept概念 is taking取る place場所
161
450459
1729
最も印象的な領域の1つが
07:44
is in the areaエリア of machine機械 learning学習.
162
452188
3307
機械学習の領域です
07:47
Machine機械 learning学習 is a branchブランチ of artificial人工的な intelligenceインテリジェンス,
163
455495
3077
機械学習とは 人口知能に含まれ
07:50
whichどの itself自体 is a branchブランチ of computerコンピューター science科学.
164
458572
3378
コンピュータ・サイエンスの1つです
07:53
The general一般 ideaアイディア is that instead代わりに of
165
461950
1543
その概念は コンピュータに
07:55
instructing指導する a computerコンピューター what do do,
166
463493
2117
何をするかを教える代わりに
07:57
we are going to simply単に throwスロー dataデータ at the problem問題
167
465610
2620
単純に問題となるデータを投げると
08:00
and tell the computerコンピューター to figure数字 it out for itself自体.
168
468230
3206
コンピュータが独自に解明してくれるのです
08:03
And it will help you understandわかる it
169
471436
1777
その起源を辿ると
08:05
by seeing見る its origins起源.
170
473213
3552
分かりやすいでしょう
08:08
In the 1950s, a computerコンピューター scientist科学者
171
476765
2388
1950年代 アーサー・サミュエルという
08:11
at IBMIBM named名前 Arthurアーサー Samuelサミュエル liked好き to play遊びます checkersチェッカーズ,
172
479153
3592
IBMのコンピュータ科学者は
チェッカーが好きでした
08:14
so he wrote書きました a computerコンピューター programプログラム
173
482745
1402
コンピュータ・プログラムを書き
08:16
so he could play遊びます againstに対して the computerコンピューター.
174
484147
2813
彼はコンピュータと対戦しました
08:18
He playedプレーした. He won勝った.
175
486960
2711
彼は対戦して 勝ちました
08:21
He playedプレーした. He won勝った.
176
489671
2103
彼は対戦して 勝ちました
08:23
He playedプレーした. He won勝った,
177
491774
3015
彼は対戦して 勝ちました
08:26
because the computerコンピューター only knew知っていた
178
494789
1778
コンピュータが正式なルールしか
08:28
what a legal法的 move動く was.
179
496567
2227
知らなかったからです
08:30
Arthurアーサー Samuelサミュエル knew知っていた something elseelse.
180
498794
2087
アーサー・サミュエルは
すごいことを知っていました
08:32
Arthurアーサー Samuelサミュエル knew知っていた strategy戦略.
181
500881
4629
彼は 戦略を知っていました
08:37
So he wrote書きました a small小さい sub-programサブプログラム alongside一緒に it
182
505510
2396
彼はサブプログラムを作成して
08:39
operatingオペレーティング in the backgroundバックグラウンド, and all it did
183
507906
1974
バックグラウンドで走らせました
08:41
was scoreスコア the probability確率
184
509880
1817
サブプログラムは 一手ごとに
08:43
that a given与えられた boardボード configuration設定 would likelyおそらく lead
185
511697
2563
その盤面の配置から
08:46
to a winning勝つ boardボード versus a losing負け boardボード
186
514260
2910
勝つ確率と負ける確率を
記録したのです
08:49
after everyすべて move動く.
187
517170
2508
08:51
He plays演劇 the computerコンピューター. He wins勝つ.
188
519678
3150
彼はコンピュータと対戦して 勝ちました
08:54
He plays演劇 the computerコンピューター. He wins勝つ.
189
522828
2508
彼はコンピュータと対戦して 勝ちました
08:57
He plays演劇 the computerコンピューター. He wins勝つ.
190
525336
3731
彼はコンピュータと対戦して 勝ちました
09:01
And then Arthurアーサー Samuelサミュエル leaves the computerコンピューター
191
529067
2277
そして アーサー・サミュエルは
09:03
to play遊びます itself自体.
192
531344
2227
コンピュータ自体が
ゲームをするようにしました
09:05
It plays演劇 itself自体. It collects集める more dataデータ.
193
533571
3509
コンピュータは独自にゲームをし
より多くのデータを集めました
09:09
It collects集める more dataデータ. It increases増加する
the accuracy正確さ of its prediction予測.
194
537080
4309
より多くのデータを集めると
予測の精度も上がります
09:13
And then Arthurアーサー Samuelサミュエル goes行く back to the computerコンピューター
195
541389
2104
そしてアーサー・サミュエルは
09:15
and he plays演劇 it, and he loses敗れる,
196
543493
2318
コンピュータの所へ戻り
対戦して 負けました
09:17
and he plays演劇 it, and he loses敗れる,
197
545811
2069
彼は対戦して 負けました
09:19
and he plays演劇 it, and he loses敗れる,
198
547880
2047
彼は対戦して 負けました
09:21
and Arthurアーサー Samuelサミュエル has created作成した a machine機械
199
549927
2599
アーサー・サミュエルは
教えたタスクで
09:24
that surpasses凌駕する his ability能力 in a task仕事 that he taught教えた it.
200
552526
6288
彼の能力を凌ぐ
コンピュータを作りあげました
09:30
And this ideaアイディア of machine機械 learning学習
201
558814
2498
機械学習という発想は
09:33
is going everywhereどこにでも.
202
561312
3927
どこにでもあります
09:37
How do you think we have self-driving自己運転 cars?
203
565239
3149
自動運転車はどのように
作られたと思いますか?
09:40
Are we any better off as a society社会
204
568388
2137
ソフトウェアに
全道路法規を記入すると
09:42
enshrining all the rulesルール of the road道路 into softwareソフトウェア?
205
570525
3285
より豊かな社会なのでしょうか?
09:45
No. Memoryメモリ is cheaper安い. No.
206
573810
2598
いいえ  記憶装置は安価?
いいえ
09:48
Algorithmsアルゴリズム are fasterもっと早く. No. Processorsプロセッサー are better. No.
207
576408
3994
アルゴリズムがより速い? いいえ
プロセッサがより良い? いいえ
09:52
All of those things matter問題, but that's not why.
208
580402
2772
それらはすべて重要ですが
それが理由ではありません
09:55
It's because we changedかわった the nature自然 of the problem問題.
209
583174
3141
問題の性質を変えているからです
09:58
We changedかわった the nature自然 of the problem問題 from one
210
586315
1530
私たちの言わんとすることを-
09:59
in whichどの we tried試した to overtly明白に and explicitly明示的
211
587845
2245
例えば
「自動車の周辺には多くの情報があり
10:02
explain説明する to the computerコンピューター how to driveドライブ
212
590090
2581
皆さんは それを理解しています
10:04
to one in whichどの we say,
213
592671
1316
信号機についても理解しています
10:05
"Here'sここにいる a lot of dataデータ around the vehicle車両.
214
593987
1876
信号機は赤で青ではないので
10:07
You figure数字 it out.
215
595863
1533
停止する必要があり
10:09
You figure数字 it out that that is a trafficトラフィック light,
216
597396
1867
前進できません」ということを
10:11
that that trafficトラフィック light is red and not green,
217
599263
2081
コンピュータに明確に
10:13
that that means手段 that you need to stop
218
601344
2014
説明しようと試みていた
10:15
and not go forward前進."
219
603358
3083
問題の性質を変えてしまいました
10:18
Machine機械 learning学習 is at the basis基礎
220
606441
1518
機械学習は 私たちが
10:19
of manyたくさんの of the things that we do onlineオンライン:
221
607959
1991
ネット上で行う多くの事の
根底となっています
10:21
searchサーチ enginesエンジン,
222
609950
1857
例えば 検索エンジン
10:23
Amazon'sAmazonの personalizationパーソナライゼーション algorithmアルゴリズム,
223
611807
3801
Amazonのパーソナライズ・アルゴリズム
10:27
computerコンピューター translation翻訳,
224
615608
2212
自動翻訳
10:29
voice音声 recognition認識 systemsシステム.
225
617820
4290
音声認識などです
10:34
Researchers研究者 recently最近 have looked見た at
226
622110
2835
最近 研究者は生検や
10:36
the question質問 of biopsies生検,
227
624945
3195
ガンの生検について
10:40
cancerous癌性の biopsies生検,
228
628140
2767
研究しており
10:42
and they've彼らは asked尋ねた the computerコンピューター to identify識別する
229
630907
2315
細胞が実際ガンに冒されているか
10:45
by looking at the dataデータ and survival生存 rates料金
230
633222
2471
どうかを調べるために
10:47
to determine決定する whetherかどうか cells細胞 are actually実際に
231
635693
4667
データや生存率を使って
10:52
cancerous癌性の or not,
232
640360
2544
コンピュータに
特定させようとしています
10:54
and sure enough十分な, when you throwスロー the dataデータ at it,
233
642904
1778
案の定 データを入力すると
10:56
throughを通して a machine-learning機械学習 algorithmアルゴリズム,
234
644682
2047
機会学習のアルゴリズム経由で
10:58
the machine機械 was ableできる to identify識別する
235
646729
1877
コンピュータは12個の兆候を
11:00
the 12 telltale伝える signs兆候 that bestベスト predict予測する
236
648606
2262
特定することで
11:02
that this biopsy生検 of the breast cancer cells細胞
237
650868
3299
乳ガン細胞の生検結果はガンであると
11:06
are indeed確かに cancerous癌性の.
238
654167
3218
ビタリと予測します
11:09
The problem問題: The medical医療 literature文献
239
657385
2498
問題は 医学文献が
11:11
only knew知っていた nine9人 of them.
240
659883
2789
9個しか兆候を知らなかったことです
11:14
Three of the traits形質 were onesもの
241
662672
1800
特性のうち 3個は
11:16
that people didn't need to look for,
242
664472
2975
探す必要がないものでしたが
11:19
but that the machine機械 spotted見つかった.
243
667447
5531
コンピュータは見つけました
11:24
Now, there are darkダーク sides両側 to big大きい dataデータ as well.
244
672978
5925
さて ビックデータにも負の側面があります
11:30
It will improve改善する our lives人生, but there are problems問題
245
678903
2074
私たちの暮らしを向上させますが
11:32
that we need to be conscious意識的な of,
246
680977
2640
意識しなければならない
問題もあります
11:35
and the first one is the ideaアイディア
247
683617
2623
最初の問題は
11:38
that we mayかもしれない be punished処罰された for predictions予測,
248
686240
2686
『マイノリティ・リポート』のように
11:40
that the police警察 mayかもしれない use big大きい dataデータ for their彼らの purposes目的,
249
688926
3870
警察が目的のためにビックデータを使って
11:44
a little bitビット like "Minority少数 Report報告する."
250
692796
2351
予測に基づいて
罰するかもしれないということです
11:47
Now, it's a term期間 calledと呼ばれる predictive予測的 policingポリシング,
251
695147
2441
さて 予測警備とか
11:49
or algorithmicアルゴリズム的 criminology犯罪学,
252
697588
2363
アルゴリズム的犯罪学
という用語です
11:51
and the ideaアイディア is that if we take a lot of dataデータ,
253
699951
2036
例えば 過去の犯罪がどこで起こったか
11:53
for example where past過去 crimes犯罪 have been,
254
701987
2159
というデータがたくさんあると
11:56
we know where to send送信する the patrolsパトロール.
255
704146
2543
パトロールすべき所が分かる
という考え方です
11:58
That makes作る senseセンス, but the problem問題, of courseコース,
256
706689
2115
その通りですが もちろん問題もあります
12:00
is that it's not simply単に going to stop on locationロケーション dataデータ,
257
708804
4544
場所のデータだけで止まらず
12:05
it's going to go down to the levelレベル of the individual個人.
258
713348
2959
個人レベルにまで下りていってしまうことです
12:08
Why don't we use dataデータ about the person's
259
716307
2250
個人の高校の成績証明書のデータを
12:10
high高い school学校 transcriptトランスクリプト?
260
718557
2228
使うのはどうでしょうか?
12:12
Maybe we should use the fact事実 that
261
720785
1561
失業しているのかどうか
12:14
they're unemployed失業者 or not, their彼らの creditクレジット scoreスコア,
262
722346
2028
信用情報
ネットサーフィンの行動パターン
12:16
their彼らの web-surfingウェブサーフィン behavior動作,
263
724374
1552
夜更かしするのかどうか などを
12:17
whetherかどうか they're up late遅く at night.
264
725926
1878
使うかもしれません
12:19
Their彼らの FitbitFitbit, when it's ableできる
to identify識別する biochemistries生化学,
265
727804
3161
Fitbit による生化学情報を得れば
12:22
will showショー that they have aggressive積極的な thoughts思考.
266
730965
4236
使用者が積極的な考え方をしていることさえ分かります
12:27
We mayかもしれない have algorithmsアルゴリズム that are likelyおそらく to predict予測する
267
735201
2221
私たちの行動を予測し得る
12:29
what we are about to do,
268
737422
1633
アルゴリズムがあり
12:31
and we mayかもしれない be held開催 accountable説明責任
269
739055
1244
実際に私たちが行動する前に
12:32
before we've私たちは actually実際に acted行動した.
270
740299
2590
責任を負うことになるかもしれません
12:34
Privacyプライバシー was the central中央 challengeチャレンジ
271
742889
1732
スモールデータの時代では
12:36
in a small小さい dataデータ era時代.
272
744621
2880
プライバシーが中心的な課題でしたが
12:39
In the big大きい dataデータ age年齢,
273
747501
2149
ビックデータの時代では
12:41
the challengeチャレンジ will be safeguarding保護 free無料 will,
274
749650
4523
課題は 自由意思や道徳基準の選択
12:46
moral道徳 choice選択, human人間 volition意志,
275
754173
3779
人間の決断力や行為主体性などを
12:49
human人間 agency代理店.
276
757952
3068
保護することです
12:54
There is another別の problem問題:
277
762540
2225
ビックデータに職を奪われるという
12:56
Big大きい dataデータ is going to stealスチール our jobsジョブ.
278
764765
3556
別の問題もあります
13:00
Big大きい dataデータ and algorithmsアルゴリズム are going to challengeチャレンジ
279
768321
3512
ビックデータやアルゴリズムは
13:03
white collar, professional専門家 knowledge知識 work
280
771833
3061
20世紀に 工場の自動化や
13:06
in the 21stセント century世紀
281
774894
1653
組立ラインが
13:08
in the same同じ way that factory工場 automationオートメーション
282
776547
2434
ブルーカラーに対抗したように
13:10
and the assemblyアセンブリ lineライン
283
778981
2189
21世紀には
ホワイトカラーや専門職に
13:13
challenged挑戦した blue collar labor労働 in the 20thth century世紀.
284
781170
3026
対抗することになるでしょう
13:16
Think about a lab研究室 technician技術者
285
784196
2092
顕微鏡を使って
13:18
who is looking throughを通して a microscope顕微鏡
286
786288
1409
ガン生検を調べて
13:19
at a cancer biopsy生検
287
787697
1624
ガンであるかどうかを決める
13:21
and determining決定する whetherかどうか it's cancerous癌性の or not.
288
789321
2637
検査技師について考えてみましょう
13:23
The person went行った to university大学.
289
791958
1972
その検査技師は大学教育を受けました
13:25
The person buys買う propertyプロパティ.
290
793930
1430
不動産物件を買ったり
13:27
He or she votes投票する.
291
795360
1741
投票したり
13:29
He or she is a stakeholderステークホルダー in society社会.
292
797101
3666
社会への出資者でもあります
13:32
And that person's jobジョブ,
293
800767
1394
そして 検査技師の仕事とは
13:34
as well as an entire全体 fleet艦隊
294
802161
1609
同じような専門職の一群と同様に
13:35
of professionals専門家 like that person,
295
803770
1969
同じような専門職の一群と同様に
13:37
is going to find that their彼らの jobsジョブ are radically根本的に changedかわった
296
805739
3150
仕事内容が根本的に変わったり
13:40
or actually実際に completely完全に eliminated除去された.
297
808889
2357
完全に無くなったりします
13:43
Now, we like to think
298
811246
1284
短い一時的な混乱の後
13:44
that technology技術 creates作成する jobsジョブ over a period期間 of time
299
812530
3187
長年に渡って
テクノロジーが仕事を作ってきた
13:47
after a shortショート, temporary一時的 period期間 of dislocation転位,
300
815717
3465
ことについて考えてください
13:51
and that is true真実 for the frameフレーム of reference参照
301
819182
1941
私たちが暮らす枠組み
13:53
with whichどの we all liveライブ, the Industrial産業 Revolution革命,
302
821123
2142
産業革命-は真実で
13:55
because that's precisely正確に what happened起こった.
303
823265
2328
まさに起こったことです
13:57
But we forget忘れる something in that analysis分析:
304
825593
2333
しかし その分析で
忘れていることがあります
13:59
There are some categoriesカテゴリ of jobsジョブ
305
827926
1830
それはなくなり  
二度と戻ってこなかった
14:01
that simply単に get eliminated除去された and never come back.
306
829756
3420
職種があるということです
14:05
The Industrial産業 Revolution革命 wasn'tなかった very good
307
833176
2004
産業革命は あまり有難くないものでした
14:07
if you were a horseうま.
308
835180
4002
あなたが馬であれば
14:11
So we're going to need to be careful慎重に
309
839182
2055
ですから 注意深く ビックデータを取扱い
14:13
and take big大きい dataデータ and adjust調整する it for our needsニーズ,
310
841237
3514
私たちのニーズ
非常に人間的なニーズのために
14:16
our very human人間 needsニーズ.
311
844751
3185
調整していく必要があります
14:19
We have to be the masterマスター of this technology技術,
312
847936
1954
私たちは この技術の召使ではなく
14:21
not its servantサーバント.
313
849890
1656
所有者にならなければなりません
14:23
We are just at the outset最初 of the big大きい dataデータ era時代,
314
851546
2958
ビックデータの時代は
始まったばかりなので
14:26
and honestly正直, we are not very good
315
854504
3150
正直言って 今集められた全データに
14:29
at handling取り扱い all the dataデータ that we can now collect集める.
316
857654
4207
私たちは あまりうまく対処できていません
14:33
It's not just a problem問題 for
the Nationalナショナル Securityセキュリティ Agency代理店.
317
861861
3330
国家安全保障局だけの
問題ではありません
14:37
Businessesビジネス collect集める lots of
dataデータ, and they misuse悪用 it too,
318
865191
3038
企業も多くのデータを集め
乱用しています
14:40
and we need to get better at
this, and this will take time.
319
868229
3667
うまく使えるようになるには 時間がかかります
14:43
It's a little bitビット like the challengeチャレンジ that was faced直面する
320
871896
1822
原始人と火が直面していた課題に
14:45
by primitiveプリミティブ man and fire火災.
321
873718
2407
ちょっと似ています
14:48
This is a toolツール, but this is a toolツール that,
322
876125
1885
これはツールですが
14:50
unless限り we're careful慎重に, will burn燃やす us.
323
878010
3559
注意しないと
私たちを焼いてしまうツールなのです
14:56
Big大きい dataデータ is going to transform変換する how we liveライブ,
324
884008
3120
ビックデータは
生き方や働き方や考え方を
14:59
how we work and how we think.
325
887128
2801
変えていくことでしょう
15:01
It is going to help us manage管理する our careersキャリア
326
889929
1889
私たちのキャリアを管理して
15:03
and lead lives人生 of satisfaction満足 and hope希望
327
891818
3634
満足して希望が持て
幸福で健康な暮らしに
15:07
and happiness幸福 and health健康,
328
895452
2992
導くことでしょう
15:10
but in the past過去, we've私たちは oftenしばしば
looked見た at information情報 technology技術
329
898444
3306
しかし 過去に
情報技術でよくあったように
15:13
and our eyes have only seen見た the T,
330
901750
2208
物理的なものであるT-
15:15
the technology技術, the hardwareハードウェア,
331
903958
1686
技術やハードウェアに
15:17
because that's what was physical物理的.
332
905644
2262
目が行きがちになります
15:19
We now need to recast再構築 our gaze視線 at the I,
333
907906
2924
明確でない部分があるものの
15:22
the information情報,
334
910830
1380
いくつかの点において
15:24
whichどの is lessもっと少なく apparent見かけ上,
335
912210
1373
かなり重要である I-
15:25
but in some ways方法 a lot more important重要.
336
913583
4109
情報に再び着目する必要があります
15:29
Humanity人類 can finally最後に learn学ぶ from the information情報
337
917692
3465
世界や私たちの居場所を理解するために
15:33
that it can collect集める,
338
921157
2418
時代を超えた冒険の一端として
15:35
as part of our timeless時を超えた questクエスト
339
923575
2115
集めた情報から
15:37
to understandわかる the world世界 and our place場所 in it,
340
925690
3159
人間性がついに学べるのです
15:40
and that's why big大きい dataデータ is a big大きい deal対処.
341
928849
5631
そのことがビックデータが
重大事な理由なのです
15:46
(Applause拍手)
342
934480
3568
(拍手)
Translated by Masako Kigami
Reviewed by Micky Hida

▲Back to top

ABOUT THE SPEAKER
Kenneth Cukier - Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages.

Why you should listen

As Data Editor of The Economist and co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think, Kenneth Cukier has spent years immersed in big data, machine learning -- and the impact of both. What's the future of big data-driven technology and design? To find out, watch this talk.

More profile about the speaker
Kenneth Cukier | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee