ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com
TEDGlobal 2011

Kevin Slavin: How algorithms shape our world

ケヴィン・スラヴィン 「アルゴリズムが形作る世界」

Filmed:
4,199,898 views

ケヴィン・スラヴィンは、アルゴリズムのためにデザインされ、コンピュータプログラムによるコントロールが広がり続ける世界に我々は生きていると言います。TEDGlobalで行われたこの魅惑的な講演で、彼は複雑なコンピュータプログラムがいかに多くのことを決しているかを示しています。諜報戦略、株価、映画の脚本、建築デザイン。そして私たちがもはや読めもしなければ結果をコントロールすることもできないコードを書いていることに警鐘を鳴らしています。
- Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms. Full bio

Double-click the English transcript below to play the video.

00:15
This is a photograph写真
0
0
2000
この写真は
00:17
by the artistアーティスト Michaelマイケル Najjarナジャール,
1
2000
2000
マイケル・ナジャーによるものです
00:19
and it's realリアル,
2
4000
2000
実際アルゼンチンに行って
00:21
in the senseセンス that he went行った there to Argentinaアルゼンチン
3
6000
2000
撮ってきたという意味で
00:23
to take the photo写真.
4
8000
2000
本物の写真ですが
00:25
But it's alsoまた、 a fictionフィクション. There's a lot of work that went行った into it after that.
5
10000
3000
フィクションでもあります 後でいろいろ手が加えられているからです
00:28
And what he's done完了
6
13000
2000
何をしたかというと
00:30
is he's actually実際に reshaped再形成された, digitallyデジタル的に,
7
15000
2000
デジタル加工をして
00:32
all of the contours輪郭 of the mountains山々
8
17000
2000
山の稜線の形を
00:34
to followフォローする the vicissitudes変遷 of the Dowダウ Jonesジョーンズ index索引.
9
19000
3000
ダウジョーンズのグラフにしたのです
00:37
So what you see,
10
22000
2000
だからご覧いただいている
00:39
that precipice絶壁, that high高い precipice絶壁 with the valley,
11
24000
2000
谷に落ち込んでいる絶壁は
00:41
is the 2008 financial金融 crisis危機.
12
26000
2000
2008年の金融危機です
00:43
The photo写真 was made
13
28000
2000
この写真は 私たちが
00:45
when we were deep深い in the valley over there.
14
30000
2000
谷の深みにいたときに作られました
00:47
I don't know where we are now.
15
32000
2000
今はどこにいるのか分かりません
00:49
This is the Hangハング Sengセン index索引
16
34000
2000
こちらは香港の
00:51
for Hong香港 Kong香港.
17
36000
2000
ハンセン指数です
00:53
And similar類似 topography地形.
18
38000
2000
似たような地形ですね
00:55
I wonderワンダー why.
19
40000
2000
どうしてなんでしょう?
00:57
And this is artアート. This is metaphor隠喩.
20
42000
3000
これはアートであり メタファーです
01:00
But I think the pointポイント is
21
45000
2000
でも重要なのは
01:02
that this is metaphor隠喩 with teeth,
22
47000
2000
これが牙のあるメタファーだということです
01:04
and it's with those teeth that I want to propose提案する today今日
23
49000
3000
その牙のために 今日はひとつ
01:07
that we rethink再考する a little bitビット
24
52000
2000
現代数学の役割を
01:09
about the role役割 of contemporaryコンテンポラリー math数学 --
25
54000
3000
再考したいと思います
01:12
not just financial金融 math数学, but math数学 in general一般.
26
57000
3000
金融数学でなく もっと一般的な数学です
01:15
That its transition遷移
27
60000
2000
ここにあるのは
01:17
from beingであること something that we extractエキス and derive派生する from the world世界
28
62000
3000
世界から何かを ただ引き出していたものが
01:20
to something that actually実際に starts開始する to shape形状 it --
29
65000
3000
世界を形作り始めるようになる という変化です
01:23
the world世界 around us and the world世界 inside内部 us.
30
68000
3000
私たちの周りの世界にせよ 私たちの中の世界にせよ
01:26
And it's specifically具体的に algorithmsアルゴリズム,
31
71000
2000
具体的に言うと それはアルゴリズムです
01:28
whichどの are basically基本的に the math数学
32
73000
2000
アルゴリズムというのは
01:30
that computersコンピュータ use to decide決めます stuffもの.
33
75000
3000
コンピュータが判断をするときに使う ある種数学的なものです
01:33
They acquire獲得する the sensibility感性 of truth真実
34
78000
2000
繰り返しの中で アルゴリズムは
01:35
because they repeat繰り返す over and over again,
35
80000
2000
真実への感覚を備えるようになり
01:37
and they ossify骨化する and calcify石灰化する,
36
82000
3000
そして骨化し 石灰化して
01:40
and they become〜になる realリアル.
37
85000
2000
現実になるのです
01:42
And I was thinking考え about this, of all places場所,
38
87000
3000
このことを考えるようになったのは
01:45
on a transatlantic大西洋横断 flightフライト a coupleカップル of years ago,
39
90000
3000
2、3年前に大西洋を渡る飛行機の中で
01:48
because I happened起こった to be seated座った
40
93000
2000
私と同年代のハンガリー出身の
01:50
next to a Hungarianハンガリー語 physicist物理学者 about my age年齢
41
95000
2000
物理学者と隣り合わせ
01:52
and we were talking話す
42
97000
2000
言葉を交わした時でした
01:54
about what life was like during the Coldコールド War戦争
43
99000
2000
冷戦時代のハンガリーの物理学者たちが
01:56
for physicists物理学者 in Hungaryハンガリー.
44
101000
2000
どんなものだったのか聞いてみました
01:58
And I said, "So what were you doing?"
45
103000
2000
「どんなことをしていたんでしょう?」
02:00
And he said, "Well we were mostly主に breaking壊す stealthステルス."
46
105000
2000
「もっぱらステルスを見破るということです」
02:02
And I said, "That's a good jobジョブ. That's interesting面白い.
47
107000
2000
「いい仕事ですね 面白そうです
02:04
How does that work?"
48
109000
2000
どういう仕組みなんですか?」
02:06
And to understandわかる that,
49
111000
2000
これを理解するためには
02:08
you have to understandわかる a little bitビット about how stealthステルス works作品.
50
113000
3000
ステルスの仕組みを知る必要があります
02:11
And so -- this is an over-simplification過度の単純化 --
51
116000
3000
ものすごく単純化して説明しますが
02:14
but basically基本的に, it's not like
52
119000
2000
空中の156トンの鋼鉄の塊が
02:16
you can just passパス a radarレーダー signal信号
53
121000
2000
単にレーダーをくぐり抜けるというのは
02:18
right throughを通して 156 tonsトン of steel in the sky.
54
123000
3000
基本的にできません
02:21
It's not just going to disappear姿を消す.
55
126000
3000
消すことはできないのです
02:24
But if you can take this big大きい, massive大規模 thing,
56
129000
3000
しかし巨大なものを
02:27
and you could turn順番 it into
57
132000
3000
何百万という小さなものに
02:30
a million百万 little things --
58
135000
2000
何か鳥の大群のようなものに
02:32
something like a flock群れ of birds --
59
137000
2000
変えることはできます
02:34
well then the radarレーダー that's looking for that
60
139000
2000
するとそれを見たレーダーは
02:36
has to be ableできる to see
61
141000
2000
鳥の群れだと
02:38
everyすべて flock群れ of birds in the sky.
62
143000
2000
勘違いします
02:40
And if you're a radarレーダー, that's a really bad悪い jobジョブ.
63
145000
4000
この点でレーダーというのは あまり有能ではないのです
02:44
And he said, "Yeah." He said, "But that's if you're a radarレーダー.
64
149000
3000
それで彼は言いました 「ええ でもそれはレーダーの話です
02:47
So we didn't use a radarレーダー;
65
152000
2000
だからレーダーは当てにしませんでした
02:49
we built建てられた a black boxボックス that was looking for electrical電気 signalsシグナル,
66
154000
3000
電気的な信号 電子通信を見る
02:52
electronic電子 communicationコミュニケーション.
67
157000
3000
ブラックボックスを作ったのです
02:55
And wheneverいつでも we saw a flock群れ of birds that had electronic電子 communicationコミュニケーション,
68
160000
3000
そして電子通信をしている鳥の群れを見たら
02:58
we thought, 'Probably'多分 has something to do with the Americansアメリカ人.'"
69
163000
3000
これはアメリカ人がかんでいるなと考えたわけです」
03:01
And I said, "Yeah.
70
166000
2000
私は言いました
03:03
That's good.
71
168000
2000
「そりゃいい
03:05
So you've effectively効果的に negated否定された
72
170000
2000
60年の航空学研究を
03:07
60 years of aeronautic航空学 research研究.
73
172000
2000
打ち消していたわけですね
03:09
What's your act行為 two?
74
174000
2000
それで第二幕は何ですか?
03:11
What do you do when you grow成長する up?"
75
176000
2000
その後はどんなことをしているんですか?」
03:13
And he said,
76
178000
2000
彼は「金融業界です」
03:15
"Well, financial金融 servicesサービス."
77
180000
2000
と答えました
03:17
And I said, "Oh."
78
182000
2000
「なるほど」
03:19
Because those had been in the newsニュース lately最近.
79
184000
3000
最近ニュースでよく耳にしていたからです
03:22
And I said, "How does that work?"
80
187000
2000
「どんな具合になっているんですか?」と聞くと
03:24
And he said, "Well there's 2,000 physicists物理学者 on Wall Street通り now,
81
189000
2000
「ウォールストリートには物理学者が2千人います
03:26
and I'm one of them."
82
191000
2000
私はその1人です」ということでした
03:28
And I said, "What's the black boxボックス for Wall Street通り?"
83
193000
3000
「ウォールストリートのブラックボックスは何なんでしょう?」
03:31
And he said, "It's funny面白い you ask尋ねる that,
84
196000
2000
「そう聞かれたのは面白いですね
03:33
because it's actually実際に calledと呼ばれる black boxボックス tradingトレーディング.
85
198000
3000
実際それはブラックボックス・トレーディングと呼ばれているからです
03:36
And it's alsoまた、 sometimes時々 calledと呼ばれる algoアルゴ tradingトレーディング,
86
201000
2000
アルゴ・トレーディングとか
03:38
algorithmicアルゴリズム的 tradingトレーディング."
87
203000
3000
アルゴリズム・トレーディングと言うこともあります」
03:41
And algorithmicアルゴリズム的 tradingトレーディング evolved進化した in part
88
206000
3000
アルゴリズム・トレーディングが発展したのは
03:44
because institutional制度的 tradersトレーダー have the same同じ problems問題
89
209000
3000
ある部分 金融機関のトレーダーたちが
03:47
that the Unitedユナイテッド States Air空気 Force had,
90
212000
3000
米国空軍と同じ問題を抱えていたからです
03:50
whichどの is that they're moving動く these positionsポジション --
91
215000
3000
動く点がたくさんあって
03:53
whetherかどうか it's Proctorプロクター & Gambleギャンブル or Accentureアクセンチュア, whateverなんでも --
92
218000
2000
P&Gであれ アクセンチュアであれ
03:55
they're moving動く a million百万 shares株式 of something
93
220000
2000
マーケットで百万という株を
03:57
throughを通して the market市場.
94
222000
2000
動かしています
03:59
And if they do that all at once一度,
95
224000
2000
それを全部同時にやるのは
04:01
it's like playing遊ぶ pokerポーカー and going all in right away.
96
226000
2000
ポーカーですぐに全財産賭けるようなものです
04:03
You just tip先端 your handハンド.
97
228000
2000
手の内を明かすことになります
04:05
And so they have to find a way --
98
230000
2000
だから彼らはその大きなものを
04:07
and they use algorithmsアルゴリズム to do this --
99
232000
2000
・・・アルゴリズムがここで出てくるのですが
04:09
to breakブレーク up that big大きい thing
100
234000
2000
百万という小さなトランザクションに
04:11
into a million百万 little transactions取引.
101
236000
2000
分割する必要があります
04:13
And the magicマジック and the horrorホラー of that
102
238000
2000
そしてその魔術的で怖いところは
04:15
is that the same同じ math数学
103
240000
2000
大きなものを
04:17
that you use to breakブレーク up the big大きい thing
104
242000
2000
百万の小さなものへと
04:19
into a million百万 little things
105
244000
2000
分割するのと同じ数学が
04:21
can be used to find a million百万 little things
106
246000
2000
百万の小さなものを見つけてまとめ
04:23
and sew縫う them back together一緒に
107
248000
2000
マーケットで実際何が起きているのか
04:25
and figure数字 out what's actually実際に happeningハプニング in the market市場.
108
250000
2000
見極めるためにも使えるということです
04:27
So if you need to have some image画像
109
252000
2000
だから今株式市場で
04:29
of what's happeningハプニング in the stock株式 market市場 right now,
110
254000
3000
何が起きているのかのイメージがほしいなら
04:32
what you can picture画像 is a bunch of algorithmsアルゴリズム
111
257000
2000
それは隠そうとするたくさんのプログラムと
04:34
that are basically基本的に programmedプログラムされた to hide隠す,
112
259000
3000
それを解き明かし 出し抜こうとする
04:37
and a bunch of algorithmsアルゴリズム that are programmedプログラムされた to go find them and act行為.
113
262000
3000
たくさんのプログラムのせめぎ合いということです
04:40
And all of that's great, and it's fine.
114
265000
3000
これは大変結構なことです
04:43
And that's 70 percentパーセント
115
268000
2000
米国株式市場の
04:45
of the Unitedユナイテッド States stock株式 market市場,
116
270000
2000
70%がそうなのです
04:47
70 percentパーセント of the operatingオペレーティング systemシステム
117
272000
2000
皆さんの年金とか
04:49
formerly以前 known既知の as your pension年金,
118
274000
3000
ローンといったものの
04:52
your mortgageモーゲージ.
119
277000
3000
70%がそうやって動いているのです
04:55
And what could go wrong違う?
120
280000
2000
それで何か悪いことがあるのでしょうか?
04:57
What could go wrong違う
121
282000
2000
一年前のことですが
04:59
is that a year ago,
122
284000
2000
株式市場全体の9%が
05:01
nine9人 percentパーセント of the entire全体 market市場 just disappears消える in five minutes,
123
286000
3000
5分間で消えてなくなりました
05:04
and they calledと呼ばれる it the Flashフラッシュ Crashクラッシュ of 2:45.
124
289000
3000
「2時45分のフラッシュ・クラッシュ」と呼ばれています
05:07
All of a sudden突然, nine9人 percentパーセント just goes行く away,
125
292000
3000
9%が突如消えてなくなり
05:10
and nobody誰も to this day
126
295000
2000
今日に至るまで誰も
05:12
can even agree同意する on what happened起こった
127
297000
2000
本当のところ何が起きたのか分からないのです
05:14
because nobody誰も ordered順序付けられました it, nobody誰も asked尋ねた for it.
128
299000
3000
誰が仕組んだことでもありません
05:17
Nobody誰も had any controlコントロール over what was actually実際に happeningハプニング.
129
302000
3000
誰かがコントロールしていたわけでもありません
05:20
All they had
130
305000
2000
彼らが持っていたのは
05:22
was just a monitorモニター in frontフロント of them
131
307000
2000
数字が表示されている
05:24
that had the numbers数字 on it
132
309000
2000
モニタと
05:26
and just a red buttonボタン
133
311000
2000
「停止」と書かれた
05:28
that said, "Stop."
134
313000
2000
赤いボタンだけです
05:30
And that's the thing,
135
315000
2000
私たちがやっているのは
05:32
is that we're writing書き込み things,
136
317000
2000
もはや自分では読めないものを
05:34
we're writing書き込み these things that we can no longerより長いです read読む.
137
319000
3000
書くということです
05:37
And we've私たちは renderedレンダリング something
138
322000
2000
判読できないものを
05:39
illegible判読不能な,
139
324000
2000
書いているのです
05:41
and we've私たちは lost失われた the senseセンス
140
326000
3000
自分たちの作った世界で
05:44
of what's actually実際に happeningハプニング
141
329000
2000
実際何が起きているのか
05:46
in this world世界 that we've私たちは made.
142
331000
2000
私たちは感覚を失っており
05:48
And we're starting起動 to make our way.
143
333000
2000
それでも前に進み続けています
05:50
There's a company会社 in Bostonボストン calledと呼ばれる NanexNanex,
144
335000
3000
ボストンにNanexという会社があって
05:53
and they use math数学 and magicマジック
145
338000
2000
数学や魔法や
05:55
and I don't know what,
146
340000
2000
そのほかよく分からないものを使って
05:57
and they reachリーチ into all the market市場 dataデータ
147
342000
2000
あらゆるマーケットデータを見て
05:59
and they find, actually実際に sometimes時々, some of these algorithmsアルゴリズム.
148
344000
3000
そこから実際アルゴリズムを見つけ出しており
06:02
And when they find them they pull引く them out
149
347000
3000
そして彼らが見つけ出したときには
06:05
and they pinピン them to the wall like butterflies.
150
350000
3000
引っ張り出して 蝶のように標本にするのです
06:08
And they do what we've私たちは always done完了
151
353000
2000
彼らがしているのは
06:10
when confronted直面した with huge巨大 amounts金額 of dataデータ that we don't understandわかる --
152
355000
3000
私たちが理解していない巨大なデータに直面したときにすることです
06:13
whichどの is that they give them a name
153
358000
2000
つまり 名前とストーリーを
06:15
and a storyストーリー.
154
360000
2000
与えるのです
06:17
So this is one that they found見つけた,
155
362000
2000
これは彼らが見つけたものの例です
06:19
they calledと呼ばれる the Knifeナイフ,
156
364000
4000
「ナイフ」に
06:23
the Carnivalカーニバル,
157
368000
2000
「カーニバル」に
06:25
the Bostonボストン Shufflerシャッフラー,
158
370000
4000
「ボストンシャフラー」に
06:29
Twilightトワイライト.
159
374000
2000
「トワイライト」
06:31
And the gagギャグ is
160
376000
2000
可笑しいのは もちろん
06:33
that, of courseコース, these aren'tない just runningランニング throughを通して the market市場.
161
378000
3000
そういったことはマーケットに限った話ではないということです
06:36
You can find these kinds種類 of things whereverどこにでも you look,
162
381000
3000
そういった類のことは 一度見方を覚えると
06:39
once一度 you learn学ぶ how to look for them.
163
384000
2000
至る所で目にするようになります
06:41
You can find it here: this book about flies飛行機
164
386000
3000
たとえばこれ あるハエに関する本を
06:44
that you mayかもしれない have been looking at on Amazonアマゾン.
165
389000
2000
Amazonで見ていると
06:46
You mayかもしれない have noticed気づいた it
166
391000
2000
値段が170万ドルだということに
06:48
when its price価格 started開始した at 1.7 million百万 dollarsドル.
167
393000
2000
気づくかもしれません
06:50
It's out of print印刷する -- still ...
168
395000
2000
絶版になっています 今でも
06:52
(Laughter笑い)
169
397000
2000
(笑)
06:54
If you had bought買った it at 1.7, it would have been a bargainバーゲン.
170
399000
3000
170万ドルで買っていたらお買い得でした
06:57
A few少数 hours時間 later後で, it had gone行った up
171
402000
2000
数時間後には2,360万ドルまで
06:59
to 23.6 million百万 dollarsドル,
172
404000
2000
上がったからです
07:01
plusプラス shipping運送 and handling取り扱い.
173
406000
2000
送料別で
07:03
And the question質問 is:
174
408000
2000
疑問は 誰も買いもしなければ
07:05
Nobody誰も was buying買う or selling販売 anything; what was happeningハプニング?
175
410000
2000
売りもしていなかったということです
07:07
And you see this behavior動作 on Amazonアマゾン
176
412000
2000
このAmazonで起きた現象は
07:09
as surely確かに as you see it on Wall Street通り.
177
414000
2000
ウォールストリートで起きたのと同じ現象です
07:11
And when you see this kind種類 of behavior動作,
178
416000
2000
そしてこのような挙動を見て分かるのは
07:13
what you see is the evidence証拠
179
418000
2000
それがアルゴリズムの衝突から
07:15
of algorithmsアルゴリズム in conflict紛争,
180
420000
2000
生じたということです
07:17
algorithmsアルゴリズム lockedロックされた in loopsループ with each other,
181
422000
2000
アルゴリズムが互いにループの中に捕らわれ
07:19
withoutなし any human人間 oversight見落とし,
182
424000
2000
常識的な観点でそれを監視する
07:21
withoutなし any adult大人 supervision監督
183
426000
3000
人間の目がなかったということです
07:24
to say, "Actually実際に, 1.7 million百万 is plentyたくさん."
184
429000
3000
「170万ドルはちと高くないか?」
07:27
(Laughter笑い)
185
432000
3000
(笑)
07:30
And as with Amazonアマゾン, so it is with NetflixNetflix.
186
435000
3000
Amazonでのことは Netflixでも同じです
07:33
And so NetflixNetflix has gone行った throughを通して
187
438000
2000
Netflixはこれまでに何度となく
07:35
severalいくつかの different異なる algorithmsアルゴリズム over the years.
188
440000
2000
アルゴリズムを変えてきました
07:37
They started開始した with Cinematch映画館, and they've彼らは tried試した a bunch of othersその他 --
189
442000
3000
最初は「シネマッチ」で その後たくさんのアルゴリズムを試しています
07:40
there's Dinosaur恐竜 Planet惑星; there's Gravity重力.
190
445000
2000
「ダイナソー・プラネット」に「グラビティ」
07:42
They're usingを使用して Pragmatic実践的 Chaos混沌 now.
191
447000
2000
現在使っているのは「プラグマティック・ケイオス」です
07:44
Pragmatic実践的 Chaos混沌 is, like all of NetflixNetflix algorithmsアルゴリズム,
192
449000
2000
プラグマティック・ケイオスがしようとするのは
07:46
trying試す to do the same同じ thing.
193
451000
2000
他のNetflixのアルゴリズムと同じことです
07:48
It's trying試す to get a grasp把握 on you,
194
453000
2000
ユーザの頭の中のファームウェアを
07:50
on the firmwareファームウェア inside内部 the human人間 skull頭蓋骨,
195
455000
2000
把握しようとするのです
07:52
so that it can recommendお勧めする what movie映画
196
457000
2000
ユーザが次に見たいであろう映画を
07:54
you mightかもしれない want to watch next --
197
459000
2000
おすすめできるように
07:56
whichどの is a very, very difficult難しい problem問題.
198
461000
3000
これはとても難しい問題です
07:59
But the difficulty困難 of the problem問題
199
464000
2000
しかし問題の難しさや
08:01
and the fact事実 that we don't really quiteかなり have it down,
200
466000
3000
私たちによく分かっていないという事実が
08:04
it doesn't take away
201
469000
2000
プラグマティック・ケイオスの効果を
08:06
from the effects効果 Pragmatic実践的 Chaos混沌 has.
202
471000
2000
弱めることはありません
08:08
Pragmatic実践的 Chaos混沌, like all NetflixNetflix algorithmsアルゴリズム,
203
473000
3000
プラグマティック・ケイオスは
08:11
determines決定する, in the end終わり,
204
476000
2000
他のNetflixのアルゴリズム同様
08:13
60 percentパーセント
205
478000
2000
最終的には借りられる映画の
08:15
of what movies映画 end終わり up beingであること rented借りた.
206
480000
2000
60%を言い当てています
08:17
So one pieceピース of codeコード
207
482000
2000
ユーザについての1つの考えを表す
08:19
with one ideaアイディア about you
208
484000
3000
一片のコードが
08:22
is responsible責任ある for 60 percentパーセント of those movies映画.
209
487000
3000
映画レンタルの60%をもたらしているのです
08:25
But what if you could rateレート those movies映画
210
490000
2000
もし映画の評価を
08:27
before they get made?
211
492000
2000
作る前にできたとしたらどうでしょう?
08:29
Wouldn'tしないだろう that be handyハンディ?
212
494000
2000
便利ではないでしょうか?
08:31
Well, a few少数 dataデータ scientists科学者 from the U.K. are in Hollywoodハリウッド,
213
496000
3000
イギリスのデータ分析専門家がハリウッドにいて
08:34
and they have "storyストーリー algorithmsアルゴリズム" --
214
499000
2000
ストーリーを評価するアルゴリズムを作っています
08:36
a company会社 calledと呼ばれる EpagogixEpagogix.
215
501000
2000
Epagogixという会社です
08:38
And you can run走る your scriptスクリプト throughを通して there,
216
503000
3000
脚本をそのアルゴリズムにかけると
08:41
and they can tell you, quantifiably定量的に,
217
506000
2000
数値として
08:43
that that's a 30 million百万 dollarドル movie映画
218
508000
2000
3千万ドルの映画だとか
08:45
or a 200 million百万 dollarドル movie映画.
219
510000
2000
2億ドルの映画だと言い当てるのです
08:47
And the thing is, is that this isn't GoogleGoogle.
220
512000
2000
問題はこれはGoogleではないということ
08:49
This isn't information情報.
221
514000
2000
情報でも 金融統計でもなく
08:51
These aren'tない financial金融 stats統計; this is culture文化.
222
516000
2000
文化なんです
08:53
And what you see here,
223
518000
2000
ここで目にしているのは
08:55
or what you don't really see normally通常は,
224
520000
2000
・・・ まあ普通は目にしないかもしれませんが
08:57
is that these are the physics物理 of culture文化.
225
522000
4000
文化の物理学だということです
09:01
And if these algorithmsアルゴリズム,
226
526000
2000
もしそれがある日
09:03
like the algorithmsアルゴリズム on Wall Street通り,
227
528000
2000
ウォールストリートのアルゴリズムのように
09:05
just crashedクラッシュした one day and went行った awry失敗,
228
530000
3000
クラッシュしておかしくなったとしたら
09:08
how would we know?
229
533000
2000
どうやってそれが分かるのか?
09:10
What would it look like?
230
535000
2000
どんな風に見えるのか?
09:12
And they're in your house. They're in your house.
231
537000
3000
そしてこれは家庭の中にもあります
09:15
These are two algorithmsアルゴリズム competing競合する for your living生活 roomルーム.
232
540000
2000
これはリビングで競い合っている2つのアルゴリズムです
09:17
These are two different異なる cleaningクリーニング robotsロボット
233
542000
2000
この2つのロボットは
09:19
that have very different異なる ideasアイデア about what cleanクリーン means手段.
234
544000
3000
「きれい」ということについて随分違った考えを持っています
09:22
And you can see it
235
547000
2000
スローダウンして
09:24
if you slowスロー it down and attach付ける lightsライト to them,
236
549000
3000
電球をつけてやればそれがわかります
09:27
and they're sortソート of like secret秘密 architects建築家 in your bedroom寝室.
237
552000
3000
寝室の隠れた建築家のようなものです
09:30
And the ideaアイディア that architecture建築 itself自体
238
555000
3000
そして建築自体が
09:33
is somehow何とか subject主題 to algorithmicアルゴリズム的 optimization最適化
239
558000
2000
アルゴリズムによる最適化の対象となるという考えも
09:35
is not far-fetched遠く離れた.
240
560000
2000
突飛というわけではありません
09:37
It's super-real超リアル and it's happeningハプニング around you.
241
562000
3000
非常に現実的なことで 身の回りで起きていることなのです
09:40
You feel it most最も
242
565000
2000
一番よく分かるのは
09:42
when you're in a sealedシールされた metal金属 boxボックス,
243
567000
2000
密閉された金属の箱の中にいるときです
09:44
a new-style新しいスタイル elevatorエレベーター;
244
569000
2000
行先制御エレベータと呼ばれる
09:46
they're calledと呼ばれる destination-control宛先制御 elevatorsエレベーター.
245
571000
2000
新式のエレベータです
09:48
These are the onesもの where you have to press押す what floor you're going to go to
246
573000
3000
どの階に行きたいのか エレベータに乗る前に
09:51
before you get in the elevatorエレベーター.
247
576000
2000
指定する必要があります
09:53
And it uses用途 what's calledと呼ばれる a bin-packingビンパッキング algorithmアルゴリズム.
248
578000
2000
ビンパッキングアルゴリズムが使われています
09:55
So noneなし of this mishegas誤ったガス
249
580000
2000
みんなにエレベータを好き勝手に選ばせるような
09:57
of letting〜する everybodyみんな go into whateverなんでも car they want.
250
582000
2000
馬鹿なことはしません
09:59
Everybodyみんな who wants to go to the 10thth floor goes行く into car two,
251
584000
2000
10階に行きたい人は2番エレベータに
10:01
and everybodyみんな who wants to go to the third三番 floor goes行く into car five.
252
586000
3000
3階に行きたい人は5番エレベータにという具合にやります
10:04
And the problem問題 with that
253
589000
2000
これの問題は
10:06
is that people freakフリーク out.
254
591000
2000
みんながパニックを
10:08
People panicパニック.
255
593000
2000
起こすということです
10:10
And you see why. You see why.
256
595000
2000
なぜか分かりますか?
10:12
It's because the elevatorエレベーター
257
597000
2000
このエレベータは
10:14
is missing行方不明 some important重要 instrumentation計装, like the buttonsボタン.
258
599000
3000
大事なものを欠いているからです ボタンみたいな
10:17
(Laughter笑い)
259
602000
2000
(笑)
10:19
Like the things that people use.
260
604000
2000
みんなが使い慣れているものです
10:21
All it has
261
606000
2000
このエレベータにあるのは
10:23
is just the number that moves動き up or down
262
608000
3000
増えたり減ったりする数字と
10:26
and that red buttonボタン that says言う, "Stop."
263
611000
3000
「停止」と書かれた赤いボタンだけです
10:29
And this is what we're designing設計 for.
264
614000
3000
これが私たちのデザインしようとしているものです
10:32
We're designing設計
265
617000
2000
私たちはこの機械の言葉に合わせて
10:34
for this machine機械 dialect方言.
266
619000
2000
デザインしているのです
10:36
And how far遠い can you take that? How far遠い can you take it?
267
621000
3000
そうやってどこまで行けるのでしょう?
10:39
You can take it really, really far遠い.
268
624000
2000
すごく遠くまで行けるのです
10:41
So let me take it back to Wall Street通り.
269
626000
3000
ウォールストリートの話に戻りましょう
10:45
Because the algorithmsアルゴリズム of Wall Street通り
270
630000
2000
ウォールストリートのアルゴリズムは
10:47
are dependent依存 on one quality品質 above上の all elseelse,
271
632000
3000
何よりも1つのこと
10:50
whichどの is speed速度.
272
635000
2000
スピードに依存しています
10:52
And they operate操作する on millisecondsミリ秒 and microsecondsマイクロ秒.
273
637000
3000
ミリ秒とかマイクロ秒という単位で動いています
10:55
And just to give you a senseセンス of what microsecondsマイクロ秒 are,
274
640000
2000
マイクロ秒というのがどんなものかというと
10:57
it takes you 500,000 microsecondsマイクロ秒
275
642000
2000
マウスクリックには50万マイクロ秒かかる
10:59
just to clickクリック a mouseマウス.
276
644000
2000
と言えば 感覚としてわかるでしょう
11:01
But if you're a Wall Street通り algorithmアルゴリズム
277
646000
2000
しかしウォールストリートのアルゴリズムでは
11:03
and you're five microsecondsマイクロ秒 behind後ろに,
278
648000
2000
5マイクロ秒遅れたら
11:05
you're a loser敗者.
279
650000
2000
負けるのです
11:07
So if you were an algorithmアルゴリズム,
280
652000
2000
だから皆さんがアルゴリズムなら
11:09
you'dあなたは look for an architect建築家 like the one that I met会った in Frankfurtフランクフルト
281
654000
3000
私がフランクフルトで出会った建築家のような人間を探すことでしょう
11:12
who was hollowing空洞化 out a skyscraper超高層ビル --
282
657000
2000
彼は高層ビルを空洞にしています
11:14
throwing投げ out all the furniture家具, all the infrastructureインフラ for human人間 use,
283
659000
3000
家具のような人間が使うためのインフラはすべて取り去って
11:17
and just runningランニング steel on the floors
284
662000
3000
床を鉄骨で補強し
11:20
to get ready準備完了 for the stacksスタック of serversサーバー to go in --
285
665000
3000
サーバの山を積み上げられるようにするのです
11:23
all so an algorithmアルゴリズム
286
668000
2000
それもすべて アルゴリズムが
11:25
could get close閉じる to the Internetインターネット.
287
670000
3000
インターネットに近づけるようにするためです
11:28
And you think of the Internetインターネット as this kind種類 of distributed配布された systemシステム.
288
673000
3000
インターネットは分散システムだと皆さんお考えでしょう
11:31
And of courseコース, it is, but it's distributed配布された from places場所.
289
676000
3000
もちろんそうですが それは場所として分散しています
11:34
In New新しい Yorkヨーク, this is where it's distributed配布された from:
290
679000
2000
ニューヨークでは これが分散の元です
11:36
the Carrierキャリア Hotelホテル
291
681000
2000
コロケーションセンターが
11:38
located所在地 on Hudsonハドソン Street通り.
292
683000
2000
ハドソン通りにあります
11:40
And this is really where the wiresワイヤー come right up into the cityシティ.
293
685000
3000
ここはまさにケーブルがこの都市に出てくる場所です
11:43
And the reality現実 is that the furtherさらに away you are from that,
294
688000
4000
この場所から離れるたびに
11:47
you're a few少数 microsecondsマイクロ秒 behind後ろに everyすべて time.
295
692000
2000
何マイクロ秒かずつ遅れることになります
11:49
These guys down on Wall Street通り,
296
694000
2000
ウォールストリートのこの辺にいる
11:51
Marcoマルコ Poloポロ and Cherokeeチェロキー Nationネーション,
297
696000
2000
「マルコポーロ」とか「チェロキーネーション」といった連中は
11:53
they're eight8 microsecondsマイクロ秒
298
698000
2000
コロケーションセンターのまわりの
11:55
behind後ろに all these guys
299
700000
2000
空洞化されたビルに入り込んだ
11:57
going into the empty空の buildings建物 beingであること hollowed中空の out
300
702000
4000
この連中に対して
12:01
up around the Carrierキャリア Hotelホテル.
301
706000
2000
8マイクロ秒遅れをとることになります
12:03
And that's going to keep happeningハプニング.
302
708000
3000
そういうことが起き続けているのです
12:06
We're going to keep hollowing空洞化 them out,
303
711000
2000
ビルが空洞にされています
12:08
because you, inchインチ for inchインチ
304
713000
3000
なぜなら
12:11
and poundポンド for poundポンド and dollarドル for dollarドル,
305
716000
3000
どのような見地から見ても
12:14
noneなし of you could squeeze絞る revenue収入 out of that spaceスペース
306
719000
3000
その場所から「ボストンシャフラー」みたいに
12:17
like the Bostonボストン Shufflerシャッフラー could.
307
722000
3000
利益を絞り出せる者は他にいないからです
12:20
But if you zoomズーム out,
308
725000
2000
しかし
12:22
if you zoomズーム out,
309
727000
2000
ズームアウトしてみると
12:24
you would see an 825-mile-マイル trench
310
729000
4000
ニューヨークとシカゴの間に
12:28
betweenの間に New新しい Yorkヨーク Cityシティ and Chicagoシカゴ
311
733000
2000
825マイルのトンネルがあるのが分かります
12:30
that's been built建てられた over the last few少数 years
312
735000
2000
Spread Networksという会社によって
12:32
by a company会社 calledと呼ばれる Spreadスプレッド Networksネットワーク.
313
737000
3000
この何年かの間に作られたものです
12:35
This is a fiberファイバ optic視覚 cableケーブル
314
740000
2000
この2つの都市を結ぶ
12:37
that was laid敷かれた betweenの間に those two cities都市
315
742000
2000
光ケーブルで
12:39
to just be ableできる to trafficトラフィック one signal信号
316
744000
3000
マウスクリックの37倍の速さで
12:42
37 times fasterもっと早く than you can clickクリック a mouseマウス --
317
747000
3000
信号を伝えることができます
12:45
just for these algorithmsアルゴリズム,
318
750000
3000
それがすべてアルゴリズムのため
12:48
just for the Carnivalカーニバル and the Knifeナイフ.
319
753000
3000
カーニバルやナイフのためのものなのです
12:51
And when you think about this,
320
756000
2000
考えてみてください
12:53
that we're runningランニング throughを通して the Unitedユナイテッド States
321
758000
2000
私たちはアメリカ中を
12:55
with dynamiteダイナマイト and rock sawsソー
322
760000
3000
ダイナマイトとロックソーで切り進んでいるのです
12:58
so that an algorithmアルゴリズム can close閉じる the deal対処
323
763000
2000
アルゴリズムが3マイクロ秒
13:00
three microsecondsマイクロ秒 fasterもっと早く,
324
765000
3000
早く売買できるようにするために
13:03
all for a communicationsコミュニケーション frameworkフレームワーク
325
768000
2000
人の知ることのない
13:05
that no human人間 will ever know,
326
770000
4000
コミュニケーションフレームワークのために
13:09
that's a kind種類 of manifest目録 destiny運命;
327
774000
3000
それが「明白なる使命」であるかのように
13:12
and we'll私たちは always look for a new新しい frontierフロンティア.
328
777000
3000
常に新たなフロンティアを求めているのです
13:15
Unfortunately残念ながら, we have our work cutカット out for us.
329
780000
3000
あいにくと 私たちには難しい仕事が待ち構えています
13:18
This is just theoretical理論的.
330
783000
2000
これは単なる理論ですが
13:20
This is some mathematicians数学者 at MITMIT.
331
785000
2000
MITの数学者によるもので
13:22
And the truth真実 is I don't really understandわかる
332
787000
2000
正直なところ 彼らの言うことの
13:24
a lot of what they're talking話す about.
333
789000
2000
多くは理解できません
13:26
It involves関係する light conesコーン and quantum量子 entanglementエンタングルメント,
334
791000
3000
何か光円錐とか量子もつれがどうのという話で
13:29
and I don't really understandわかる any of that.
335
794000
2000
どれも私にはよくわかりません
13:31
But I can read読む this map地図,
336
796000
2000
しかしこの地図ならわかります
13:33
and what this map地図 says言う
337
798000
2000
この地図が表しているのは
13:35
is that, if you're trying試す to make moneyお金 on the markets市場 where the red dotsドット are,
338
800000
3000
赤い点で示される市場で儲けようと思ったら
13:38
that's where people are, where the cities都市 are,
339
803000
2000
そこは人のいる所 都市ですが
13:40
you're going to have to put the serversサーバー where the blue dotsドット are
340
805000
3000
最大の効率を得るためにサーバを
13:43
to do that most最も effectively効果的に.
341
808000
2000
青い点のところに置く必要があるということです
13:45
And the thing that you mightかもしれない have noticed気づいた about those blue dotsドット
342
810000
3000
お気づきかもしれませんが
13:48
is that a lot of them are in the middle中間 of the ocean海洋.
343
813000
3000
青い点の多くは海の真ん中にあります
13:51
So that's what we'll私たちは do: we'll私たちは buildビルドする bubbles or something,
344
816000
3000
それが私たちのするであろうことです
13:54
or platformsプラットフォーム.
345
819000
2000
泡かプラットフォームでも作るのでしょう
13:56
We'll私たちは actually実際に part the water
346
821000
2000
水をどけて
13:58
to pull引く moneyお金 out of the air空気,
347
823000
2000
無からお金を引き出すのです
14:00
because it's a bright明るい future未来
348
825000
2000
輝かしい未来です
14:02
if you're an algorithmアルゴリズム.
349
827000
2000
アルゴリズムにとっては
14:04
(Laughter笑い)
350
829000
2000
(笑)
14:06
And it's not the moneyお金 that's so interesting面白い actually実際に.
351
831000
3000
実際に興味深い部分はお金ではなく
14:09
It's what the moneyお金 motivates動機づける,
352
834000
2000
お金が動機付けるものです
14:11
that we're actually実際に terraformingテラフォーミング
353
836000
2000
私たちは
14:13
the Earth地球 itself自体
354
838000
2000
アルゴリズム的な効率で
14:15
with this kind種類 of algorithmicアルゴリズム的 efficiency効率.
355
840000
2000
地球を変えつつあります
14:17
And in that light,
356
842000
2000
そういう観点で
14:19
you go back
357
844000
2000
前に戻って
14:21
and you look at Michaelマイケル Najjar'sナジャール photographs写真,
358
846000
2000
マイケル・ナジャーの写真を見れば
14:23
and you realize実現する that they're not metaphor隠喩, they're prophecy預言.
359
848000
3000
あれはメタファーではなく 予言だということに気づくでしょう
14:26
They're prophecy預言
360
851000
2000
私たちが起こしている
14:28
for the kind種類 of seismic地震の, terrestrial地上の effects効果
361
853000
4000
地殻変動的な
14:32
of the math数学 that we're making作る.
362
857000
2000
数学の影響に対する予言です
14:34
And the landscape風景 was always made
363
859000
3000
地形はいつもこのような
14:37
by this sortソート of weird奇妙な, uneasy不安 collaborationコラボレーション
364
862000
3000
奇妙で不安定な人間と自然の
14:40
betweenの間に nature自然 and man.
365
865000
3000
コラボレーションによって作られてきました
14:43
But now there's this third三番 co-evolutionary共進化的 force: algorithmsアルゴリズム --
366
868000
3000
しかし今では第三の共進化の勢力があります アルゴリズムです
14:46
the Bostonボストン Shufflerシャッフラー, the Carnivalカーニバル.
367
871000
3000
ボストンシャフラーに カーニバル
14:49
And we will have to understandわかる those as nature自然,
368
874000
3000
そういったものを自然の一部として理解する必要があるでしょう
14:52
and in a way, they are.
369
877000
2000
ある意味では実際そうなのですから
14:54
Thank you.
370
879000
2000
どうもありがとうございました
14:56
(Applause拍手)
371
881000
20000
(拍手)
Translated by Yasushi Aoki
Reviewed by Yuki Okada

▲Back to top

ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com