15:23
TEDGlobal 2011

Kevin Slavin: How algorithms shape our world

ケヴィン・スラヴィン 「アルゴリズムが形作る世界」

Filmed:

ケヴィン・スラヴィンは、アルゴリズムのためにデザインされ、コンピュータプログラムによるコントロールが広がり続ける世界に我々は生きていると言います。TEDGlobalで行われたこの魅惑的な講演で、彼は複雑なコンピュータプログラムがいかに多くのことを決しているかを示しています。諜報戦略、株価、映画の脚本、建築デザイン。そして私たちがもはや読めもしなければ結果をコントロールすることもできないコードを書いていることに警鐘を鳴らしています。

- Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms. Full bio

This is a photograph
この写真は
00:15
by the artist Michael Najjar,
マイケル・ナジャーによるものです
00:17
and it's real,
実際アルゼンチンに行って
00:19
in the sense that he went there to Argentina
撮ってきたという意味で
00:21
to take the photo.
本物の写真ですが
00:23
But it's also a fiction. There's a lot of work that went into it after that.
フィクションでもあります 後でいろいろ手が加えられているからです
00:25
And what he's done
何をしたかというと
00:28
is he's actually reshaped, digitally,
デジタル加工をして
00:30
all of the contours of the mountains
山の稜線の形を
00:32
to follow the vicissitudes of the Dow Jones index.
ダウジョーンズのグラフにしたのです
00:34
So what you see,
だからご覧いただいている
00:37
that precipice, that high precipice with the valley,
谷に落ち込んでいる絶壁は
00:39
is the 2008 financial crisis.
2008年の金融危機です
00:41
The photo was made
この写真は 私たちが
00:43
when we were deep in the valley over there.
谷の深みにいたときに作られました
00:45
I don't know where we are now.
今はどこにいるのか分かりません
00:47
This is the Hang Seng index
こちらは香港の
00:49
for Hong Kong.
ハンセン指数です
00:51
And similar topography.
似たような地形ですね
00:53
I wonder why.
どうしてなんでしょう?
00:55
And this is art. This is metaphor.
これはアートであり メタファーです
00:57
But I think the point is
でも重要なのは
01:00
that this is metaphor with teeth,
これが牙のあるメタファーだということです
01:02
and it's with those teeth that I want to propose today
その牙のために 今日はひとつ
01:04
that we rethink a little bit
現代数学の役割を
01:07
about the role of contemporary math --
再考したいと思います
01:09
not just financial math, but math in general.
金融数学でなく もっと一般的な数学です
01:12
That its transition
ここにあるのは
01:15
from being something that we extract and derive from the world
世界から何かを ただ引き出していたものが
01:17
to something that actually starts to shape it --
世界を形作り始めるようになる という変化です
01:20
the world around us and the world inside us.
私たちの周りの世界にせよ 私たちの中の世界にせよ
01:23
And it's specifically algorithms,
具体的に言うと それはアルゴリズムです
01:26
which are basically the math
アルゴリズムというのは
01:28
that computers use to decide stuff.
コンピュータが判断をするときに使う ある種数学的なものです
01:30
They acquire the sensibility of truth
繰り返しの中で アルゴリズムは
01:33
because they repeat over and over again,
真実への感覚を備えるようになり
01:35
and they ossify and calcify,
そして骨化し 石灰化して
01:37
and they become real.
現実になるのです
01:40
And I was thinking about this, of all places,
このことを考えるようになったのは
01:42
on a transatlantic flight a couple of years ago,
2、3年前に大西洋を渡る飛行機の中で
01:45
because I happened to be seated
私と同年代のハンガリー出身の
01:48
next to a Hungarian physicist about my age
物理学者と隣り合わせ
01:50
and we were talking
言葉を交わした時でした
01:52
about what life was like during the Cold War
冷戦時代のハンガリーの物理学者たちが
01:54
for physicists in Hungary.
どんなものだったのか聞いてみました
01:56
And I said, "So what were you doing?"
「どんなことをしていたんでしょう?」
01:58
And he said, "Well we were mostly breaking stealth."
「もっぱらステルスを見破るということです」
02:00
And I said, "That's a good job. That's interesting.
「いい仕事ですね 面白そうです
02:02
How does that work?"
どういう仕組みなんですか?」
02:04
And to understand that,
これを理解するためには
02:06
you have to understand a little bit about how stealth works.
ステルスの仕組みを知る必要があります
02:08
And so -- this is an over-simplification --
ものすごく単純化して説明しますが
02:11
but basically, it's not like
空中の156トンの鋼鉄の塊が
02:14
you can just pass a radar signal
単にレーダーをくぐり抜けるというのは
02:16
right through 156 tons of steel in the sky.
基本的にできません
02:18
It's not just going to disappear.
消すことはできないのです
02:21
But if you can take this big, massive thing,
しかし巨大なものを
02:24
and you could turn it into
何百万という小さなものに
02:27
a million little things --
何か鳥の大群のようなものに
02:30
something like a flock of birds --
変えることはできます
02:32
well then the radar that's looking for that
するとそれを見たレーダーは
02:34
has to be able to see
鳥の群れだと
02:36
every flock of birds in the sky.
勘違いします
02:38
And if you're a radar, that's a really bad job.
この点でレーダーというのは あまり有能ではないのです
02:40
And he said, "Yeah." He said, "But that's if you're a radar.
それで彼は言いました 「ええ でもそれはレーダーの話です
02:44
So we didn't use a radar;
だからレーダーは当てにしませんでした
02:47
we built a black box that was looking for electrical signals,
電気的な信号 電子通信を見る
02:49
electronic communication.
ブラックボックスを作ったのです
02:52
And whenever we saw a flock of birds that had electronic communication,
そして電子通信をしている鳥の群れを見たら
02:55
we thought, 'Probably has something to do with the Americans.'"
これはアメリカ人がかんでいるなと考えたわけです」
02:58
And I said, "Yeah.
私は言いました
03:01
That's good.
「そりゃいい
03:03
So you've effectively negated
60年の航空学研究を
03:05
60 years of aeronautic research.
打ち消していたわけですね
03:07
What's your act two?
それで第二幕は何ですか?
03:09
What do you do when you grow up?"
その後はどんなことをしているんですか?」
03:11
And he said,
彼は「金融業界です」
03:13
"Well, financial services."
と答えました
03:15
And I said, "Oh."
「なるほど」
03:17
Because those had been in the news lately.
最近ニュースでよく耳にしていたからです
03:19
And I said, "How does that work?"
「どんな具合になっているんですか?」と聞くと
03:22
And he said, "Well there's 2,000 physicists on Wall Street now,
「ウォールストリートには物理学者が2千人います
03:24
and I'm one of them."
私はその1人です」ということでした
03:26
And I said, "What's the black box for Wall Street?"
「ウォールストリートのブラックボックスは何なんでしょう?」
03:28
And he said, "It's funny you ask that,
「そう聞かれたのは面白いですね
03:31
because it's actually called black box trading.
実際それはブラックボックス・トレーディングと呼ばれているからです
03:33
And it's also sometimes called algo trading,
アルゴ・トレーディングとか
03:36
algorithmic trading."
アルゴリズム・トレーディングと言うこともあります」
03:38
And algorithmic trading evolved in part
アルゴリズム・トレーディングが発展したのは
03:41
because institutional traders have the same problems
ある部分 金融機関のトレーダーたちが
03:44
that the United States Air Force had,
米国空軍と同じ問題を抱えていたからです
03:47
which is that they're moving these positions --
動く点がたくさんあって
03:50
whether it's Proctor & Gamble or Accenture, whatever --
P&Gであれ アクセンチュアであれ
03:53
they're moving a million shares of something
マーケットで百万という株を
03:55
through the market.
動かしています
03:57
And if they do that all at once,
それを全部同時にやるのは
03:59
it's like playing poker and going all in right away.
ポーカーですぐに全財産賭けるようなものです
04:01
You just tip your hand.
手の内を明かすことになります
04:03
And so they have to find a way --
だから彼らはその大きなものを
04:05
and they use algorithms to do this --
・・・アルゴリズムがここで出てくるのですが
04:07
to break up that big thing
百万という小さなトランザクションに
04:09
into a million little transactions.
分割する必要があります
04:11
And the magic and the horror of that
そしてその魔術的で怖いところは
04:13
is that the same math
大きなものを
04:15
that you use to break up the big thing
百万の小さなものへと
04:17
into a million little things
分割するのと同じ数学が
04:19
can be used to find a million little things
百万の小さなものを見つけてまとめ
04:21
and sew them back together
マーケットで実際何が起きているのか
04:23
and figure out what's actually happening in the market.
見極めるためにも使えるということです
04:25
So if you need to have some image
だから今株式市場で
04:27
of what's happening in the stock market right now,
何が起きているのかのイメージがほしいなら
04:29
what you can picture is a bunch of algorithms
それは隠そうとするたくさんのプログラムと
04:32
that are basically programmed to hide,
それを解き明かし 出し抜こうとする
04:34
and a bunch of algorithms that are programmed to go find them and act.
たくさんのプログラムのせめぎ合いということです
04:37
And all of that's great, and it's fine.
これは大変結構なことです
04:40
And that's 70 percent
米国株式市場の
04:43
of the United States stock market,
70%がそうなのです
04:45
70 percent of the operating system
皆さんの年金とか
04:47
formerly known as your pension,
ローンといったものの
04:49
your mortgage.
70%がそうやって動いているのです
04:52
And what could go wrong?
それで何か悪いことがあるのでしょうか?
04:55
What could go wrong
一年前のことですが
04:57
is that a year ago,
株式市場全体の9%が
04:59
nine percent of the entire market just disappears in five minutes,
5分間で消えてなくなりました
05:01
and they called it the Flash Crash of 2:45.
「2時45分のフラッシュ・クラッシュ」と呼ばれています
05:04
All of a sudden, nine percent just goes away,
9%が突如消えてなくなり
05:07
and nobody to this day
今日に至るまで誰も
05:10
can even agree on what happened
本当のところ何が起きたのか分からないのです
05:12
because nobody ordered it, nobody asked for it.
誰が仕組んだことでもありません
05:14
Nobody had any control over what was actually happening.
誰かがコントロールしていたわけでもありません
05:17
All they had
彼らが持っていたのは
05:20
was just a monitor in front of them
数字が表示されている
05:22
that had the numbers on it
モニタと
05:24
and just a red button
「停止」と書かれた
05:26
that said, "Stop."
赤いボタンだけです
05:28
And that's the thing,
私たちがやっているのは
05:30
is that we're writing things,
もはや自分では読めないものを
05:32
we're writing these things that we can no longer read.
書くということです
05:34
And we've rendered something
判読できないものを
05:37
illegible,
書いているのです
05:39
and we've lost the sense
自分たちの作った世界で
05:41
of what's actually happening
実際何が起きているのか
05:44
in this world that we've made.
私たちは感覚を失っており
05:46
And we're starting to make our way.
それでも前に進み続けています
05:48
There's a company in Boston called Nanex,
ボストンにNanexという会社があって
05:50
and they use math and magic
数学や魔法や
05:53
and I don't know what,
そのほかよく分からないものを使って
05:55
and they reach into all the market data
あらゆるマーケットデータを見て
05:57
and they find, actually sometimes, some of these algorithms.
そこから実際アルゴリズムを見つけ出しており
05:59
And when they find them they pull them out
そして彼らが見つけ出したときには
06:02
and they pin them to the wall like butterflies.
引っ張り出して 蝶のように標本にするのです
06:05
And they do what we've always done
彼らがしているのは
06:08
when confronted with huge amounts of data that we don't understand --
私たちが理解していない巨大なデータに直面したときにすることです
06:10
which is that they give them a name
つまり 名前とストーリーを
06:13
and a story.
与えるのです
06:15
So this is one that they found,
これは彼らが見つけたものの例です
06:17
they called the Knife,
「ナイフ」に
06:19
the Carnival,
「カーニバル」に
06:23
the Boston Shuffler,
「ボストンシャフラー」に
06:25
Twilight.
「トワイライト」
06:29
And the gag is
可笑しいのは もちろん
06:31
that, of course, these aren't just running through the market.
そういったことはマーケットに限った話ではないということです
06:33
You can find these kinds of things wherever you look,
そういった類のことは 一度見方を覚えると
06:36
once you learn how to look for them.
至る所で目にするようになります
06:39
You can find it here: this book about flies
たとえばこれ あるハエに関する本を
06:41
that you may have been looking at on Amazon.
Amazonで見ていると
06:44
You may have noticed it
値段が170万ドルだということに
06:46
when its price started at 1.7 million dollars.
気づくかもしれません
06:48
It's out of print -- still ...
絶版になっています 今でも
06:50
(Laughter)
(笑)
06:52
If you had bought it at 1.7, it would have been a bargain.
170万ドルで買っていたらお買い得でした
06:54
A few hours later, it had gone up
数時間後には2,360万ドルまで
06:57
to 23.6 million dollars,
上がったからです
06:59
plus shipping and handling.
送料別で
07:01
And the question is:
疑問は 誰も買いもしなければ
07:03
Nobody was buying or selling anything; what was happening?
売りもしていなかったということです
07:05
And you see this behavior on Amazon
このAmazonで起きた現象は
07:07
as surely as you see it on Wall Street.
ウォールストリートで起きたのと同じ現象です
07:09
And when you see this kind of behavior,
そしてこのような挙動を見て分かるのは
07:11
what you see is the evidence
それがアルゴリズムの衝突から
07:13
of algorithms in conflict,
生じたということです
07:15
algorithms locked in loops with each other,
アルゴリズムが互いにループの中に捕らわれ
07:17
without any human oversight,
常識的な観点でそれを監視する
07:19
without any adult supervision
人間の目がなかったということです
07:21
to say, "Actually, 1.7 million is plenty."
「170万ドルはちと高くないか?」
07:24
(Laughter)
(笑)
07:27
And as with Amazon, so it is with Netflix.
Amazonでのことは Netflixでも同じです
07:30
And so Netflix has gone through
Netflixはこれまでに何度となく
07:33
several different algorithms over the years.
アルゴリズムを変えてきました
07:35
They started with Cinematch, and they've tried a bunch of others --
最初は「シネマッチ」で その後たくさんのアルゴリズムを試しています
07:37
there's Dinosaur Planet; there's Gravity.
「ダイナソー・プラネット」に「グラビティ」
07:40
They're using Pragmatic Chaos now.
現在使っているのは「プラグマティック・ケイオス」です
07:42
Pragmatic Chaos is, like all of Netflix algorithms,
プラグマティック・ケイオスがしようとするのは
07:44
trying to do the same thing.
他のNetflixのアルゴリズムと同じことです
07:46
It's trying to get a grasp on you,
ユーザの頭の中のファームウェアを
07:48
on the firmware inside the human skull,
把握しようとするのです
07:50
so that it can recommend what movie
ユーザが次に見たいであろう映画を
07:52
you might want to watch next --
おすすめできるように
07:54
which is a very, very difficult problem.
これはとても難しい問題です
07:56
But the difficulty of the problem
しかし問題の難しさや
07:59
and the fact that we don't really quite have it down,
私たちによく分かっていないという事実が
08:01
it doesn't take away
プラグマティック・ケイオスの効果を
08:04
from the effects Pragmatic Chaos has.
弱めることはありません
08:06
Pragmatic Chaos, like all Netflix algorithms,
プラグマティック・ケイオスは
08:08
determines, in the end,
他のNetflixのアルゴリズム同様
08:11
60 percent
最終的には借りられる映画の
08:13
of what movies end up being rented.
60%を言い当てています
08:15
So one piece of code
ユーザについての1つの考えを表す
08:17
with one idea about you
一片のコードが
08:19
is responsible for 60 percent of those movies.
映画レンタルの60%をもたらしているのです
08:22
But what if you could rate those movies
もし映画の評価を
08:25
before they get made?
作る前にできたとしたらどうでしょう?
08:27
Wouldn't that be handy?
便利ではないでしょうか?
08:29
Well, a few data scientists from the U.K. are in Hollywood,
イギリスのデータ分析専門家がハリウッドにいて
08:31
and they have "story algorithms" --
ストーリーを評価するアルゴリズムを作っています
08:34
a company called Epagogix.
Epagogixという会社です
08:36
And you can run your script through there,
脚本をそのアルゴリズムにかけると
08:38
and they can tell you, quantifiably,
数値として
08:41
that that's a 30 million dollar movie
3千万ドルの映画だとか
08:43
or a 200 million dollar movie.
2億ドルの映画だと言い当てるのです
08:45
And the thing is, is that this isn't Google.
問題はこれはGoogleではないということ
08:47
This isn't information.
情報でも 金融統計でもなく
08:49
These aren't financial stats; this is culture.
文化なんです
08:51
And what you see here,
ここで目にしているのは
08:53
or what you don't really see normally,
・・・ まあ普通は目にしないかもしれませんが
08:55
is that these are the physics of culture.
文化の物理学だということです
08:57
And if these algorithms,
もしそれがある日
09:01
like the algorithms on Wall Street,
ウォールストリートのアルゴリズムのように
09:03
just crashed one day and went awry,
クラッシュしておかしくなったとしたら
09:05
how would we know?
どうやってそれが分かるのか?
09:08
What would it look like?
どんな風に見えるのか?
09:10
And they're in your house. They're in your house.
そしてこれは家庭の中にもあります
09:12
These are two algorithms competing for your living room.
これはリビングで競い合っている2つのアルゴリズムです
09:15
These are two different cleaning robots
この2つのロボットは
09:17
that have very different ideas about what clean means.
「きれい」ということについて随分違った考えを持っています
09:19
And you can see it
スローダウンして
09:22
if you slow it down and attach lights to them,
電球をつけてやればそれがわかります
09:24
and they're sort of like secret architects in your bedroom.
寝室の隠れた建築家のようなものです
09:27
And the idea that architecture itself
そして建築自体が
09:30
is somehow subject to algorithmic optimization
アルゴリズムによる最適化の対象となるという考えも
09:33
is not far-fetched.
突飛というわけではありません
09:35
It's super-real and it's happening around you.
非常に現実的なことで 身の回りで起きていることなのです
09:37
You feel it most
一番よく分かるのは
09:40
when you're in a sealed metal box,
密閉された金属の箱の中にいるときです
09:42
a new-style elevator;
行先制御エレベータと呼ばれる
09:44
they're called destination-control elevators.
新式のエレベータです
09:46
These are the ones where you have to press what floor you're going to go to
どの階に行きたいのか エレベータに乗る前に
09:48
before you get in the elevator.
指定する必要があります
09:51
And it uses what's called a bin-packing algorithm.
ビンパッキングアルゴリズムが使われています
09:53
So none of this mishegas
みんなにエレベータを好き勝手に選ばせるような
09:55
of letting everybody go into whatever car they want.
馬鹿なことはしません
09:57
Everybody who wants to go to the 10th floor goes into car two,
10階に行きたい人は2番エレベータに
09:59
and everybody who wants to go to the third floor goes into car five.
3階に行きたい人は5番エレベータにという具合にやります
10:01
And the problem with that
これの問題は
10:04
is that people freak out.
みんながパニックを
10:06
People panic.
起こすということです
10:08
And you see why. You see why.
なぜか分かりますか?
10:10
It's because the elevator
このエレベータは
10:12
is missing some important instrumentation, like the buttons.
大事なものを欠いているからです ボタンみたいな
10:14
(Laughter)
(笑)
10:17
Like the things that people use.
みんなが使い慣れているものです
10:19
All it has
このエレベータにあるのは
10:21
is just the number that moves up or down
増えたり減ったりする数字と
10:23
and that red button that says, "Stop."
「停止」と書かれた赤いボタンだけです
10:26
And this is what we're designing for.
これが私たちのデザインしようとしているものです
10:29
We're designing
私たちはこの機械の言葉に合わせて
10:32
for this machine dialect.
デザインしているのです
10:34
And how far can you take that? How far can you take it?
そうやってどこまで行けるのでしょう?
10:36
You can take it really, really far.
すごく遠くまで行けるのです
10:39
So let me take it back to Wall Street.
ウォールストリートの話に戻りましょう
10:41
Because the algorithms of Wall Street
ウォールストリートのアルゴリズムは
10:45
are dependent on one quality above all else,
何よりも1つのこと
10:47
which is speed.
スピードに依存しています
10:50
And they operate on milliseconds and microseconds.
ミリ秒とかマイクロ秒という単位で動いています
10:52
And just to give you a sense of what microseconds are,
マイクロ秒というのがどんなものかというと
10:55
it takes you 500,000 microseconds
マウスクリックには50万マイクロ秒かかる
10:57
just to click a mouse.
と言えば 感覚としてわかるでしょう
10:59
But if you're a Wall Street algorithm
しかしウォールストリートのアルゴリズムでは
11:01
and you're five microseconds behind,
5マイクロ秒遅れたら
11:03
you're a loser.
負けるのです
11:05
So if you were an algorithm,
だから皆さんがアルゴリズムなら
11:07
you'd look for an architect like the one that I met in Frankfurt
私がフランクフルトで出会った建築家のような人間を探すことでしょう
11:09
who was hollowing out a skyscraper --
彼は高層ビルを空洞にしています
11:12
throwing out all the furniture, all the infrastructure for human use,
家具のような人間が使うためのインフラはすべて取り去って
11:14
and just running steel on the floors
床を鉄骨で補強し
11:17
to get ready for the stacks of servers to go in --
サーバの山を積み上げられるようにするのです
11:20
all so an algorithm
それもすべて アルゴリズムが
11:23
could get close to the Internet.
インターネットに近づけるようにするためです
11:25
And you think of the Internet as this kind of distributed system.
インターネットは分散システムだと皆さんお考えでしょう
11:28
And of course, it is, but it's distributed from places.
もちろんそうですが それは場所として分散しています
11:31
In New York, this is where it's distributed from:
ニューヨークでは これが分散の元です
11:34
the Carrier Hotel
コロケーションセンターが
11:36
located on Hudson Street.
ハドソン通りにあります
11:38
And this is really where the wires come right up into the city.
ここはまさにケーブルがこの都市に出てくる場所です
11:40
And the reality is that the further away you are from that,
この場所から離れるたびに
11:43
you're a few microseconds behind every time.
何マイクロ秒かずつ遅れることになります
11:47
These guys down on Wall Street,
ウォールストリートのこの辺にいる
11:49
Marco Polo and Cherokee Nation,
「マルコポーロ」とか「チェロキーネーション」といった連中は
11:51
they're eight microseconds
コロケーションセンターのまわりの
11:53
behind all these guys
空洞化されたビルに入り込んだ
11:55
going into the empty buildings being hollowed out
この連中に対して
11:57
up around the Carrier Hotel.
8マイクロ秒遅れをとることになります
12:01
And that's going to keep happening.
そういうことが起き続けているのです
12:03
We're going to keep hollowing them out,
ビルが空洞にされています
12:06
because you, inch for inch
なぜなら
12:08
and pound for pound and dollar for dollar,
どのような見地から見ても
12:11
none of you could squeeze revenue out of that space
その場所から「ボストンシャフラー」みたいに
12:14
like the Boston Shuffler could.
利益を絞り出せる者は他にいないからです
12:17
But if you zoom out,
しかし
12:20
if you zoom out,
ズームアウトしてみると
12:22
you would see an 825-mile trench
ニューヨークとシカゴの間に
12:24
between New York City and Chicago
825マイルのトンネルがあるのが分かります
12:28
that's been built over the last few years
Spread Networksという会社によって
12:30
by a company called Spread Networks.
この何年かの間に作られたものです
12:32
This is a fiber optic cable
この2つの都市を結ぶ
12:35
that was laid between those two cities
光ケーブルで
12:37
to just be able to traffic one signal
マウスクリックの37倍の速さで
12:39
37 times faster than you can click a mouse --
信号を伝えることができます
12:42
just for these algorithms,
それがすべてアルゴリズムのため
12:45
just for the Carnival and the Knife.
カーニバルやナイフのためのものなのです
12:48
And when you think about this,
考えてみてください
12:51
that we're running through the United States
私たちはアメリカ中を
12:53
with dynamite and rock saws
ダイナマイトとロックソーで切り進んでいるのです
12:55
so that an algorithm can close the deal
アルゴリズムが3マイクロ秒
12:58
three microseconds faster,
早く売買できるようにするために
13:00
all for a communications framework
人の知ることのない
13:03
that no human will ever know,
コミュニケーションフレームワークのために
13:05
that's a kind of manifest destiny;
それが「明白なる使命」であるかのように
13:09
and we'll always look for a new frontier.
常に新たなフロンティアを求めているのです
13:12
Unfortunately, we have our work cut out for us.
あいにくと 私たちには難しい仕事が待ち構えています
13:15
This is just theoretical.
これは単なる理論ですが
13:18
This is some mathematicians at MIT.
MITの数学者によるもので
13:20
And the truth is I don't really understand
正直なところ 彼らの言うことの
13:22
a lot of what they're talking about.
多くは理解できません
13:24
It involves light cones and quantum entanglement,
何か光円錐とか量子もつれがどうのという話で
13:26
and I don't really understand any of that.
どれも私にはよくわかりません
13:29
But I can read this map,
しかしこの地図ならわかります
13:31
and what this map says
この地図が表しているのは
13:33
is that, if you're trying to make money on the markets where the red dots are,
赤い点で示される市場で儲けようと思ったら
13:35
that's where people are, where the cities are,
そこは人のいる所 都市ですが
13:38
you're going to have to put the servers where the blue dots are
最大の効率を得るためにサーバを
13:40
to do that most effectively.
青い点のところに置く必要があるということです
13:43
And the thing that you might have noticed about those blue dots
お気づきかもしれませんが
13:45
is that a lot of them are in the middle of the ocean.
青い点の多くは海の真ん中にあります
13:48
So that's what we'll do: we'll build bubbles or something,
それが私たちのするであろうことです
13:51
or platforms.
泡かプラットフォームでも作るのでしょう
13:54
We'll actually part the water
水をどけて
13:56
to pull money out of the air,
無からお金を引き出すのです
13:58
because it's a bright future
輝かしい未来です
14:00
if you're an algorithm.
アルゴリズムにとっては
14:02
(Laughter)
(笑)
14:04
And it's not the money that's so interesting actually.
実際に興味深い部分はお金ではなく
14:06
It's what the money motivates,
お金が動機付けるものです
14:09
that we're actually terraforming
私たちは
14:11
the Earth itself
アルゴリズム的な効率で
14:13
with this kind of algorithmic efficiency.
地球を変えつつあります
14:15
And in that light,
そういう観点で
14:17
you go back
前に戻って
14:19
and you look at Michael Najjar's photographs,
マイケル・ナジャーの写真を見れば
14:21
and you realize that they're not metaphor, they're prophecy.
あれはメタファーではなく 予言だということに気づくでしょう
14:23
They're prophecy
私たちが起こしている
14:26
for the kind of seismic, terrestrial effects
地殻変動的な
14:28
of the math that we're making.
数学の影響に対する予言です
14:32
And the landscape was always made
地形はいつもこのような
14:34
by this sort of weird, uneasy collaboration
奇妙で不安定な人間と自然の
14:37
between nature and man.
コラボレーションによって作られてきました
14:40
But now there's this third co-evolutionary force: algorithms --
しかし今では第三の共進化の勢力があります アルゴリズムです
14:43
the Boston Shuffler, the Carnival.
ボストンシャフラーに カーニバル
14:46
And we will have to understand those as nature,
そういったものを自然の一部として理解する必要があるでしょう
14:49
and in a way, they are.
ある意味では実際そうなのですから
14:52
Thank you.
どうもありがとうございました
14:54
(Applause)
(拍手)
14:56
Translated by Yasushi Aoki
Reviewed by Yuki Okada

▲Back to top

About the Speaker:

Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com