ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com
TEDGlobal 2011

Kevin Slavin: How algorithms shape our world

Kevin Slavin: Como algoritmos moldam nosso mundo

Filmed:
4,199,898 views

Kevin Slavin argumenta que vivemos em um mundo criado para – e cada vez mais controlado por – algoritmos. Nesta instigante palestra em TEDGlobal, ele nos mostra como complexos programas de computadores determinam: táticas de espionagem, preços das ações, roteiros de filmes e arquitetura. E ele nos adverte que nós estamos escrevendo códigos que não entendemos com implicações que não podemos controlar.
- Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms. Full bio

Double-click the English transcript below to play the video.

00:15
This is a photograph
0
0
2000
Esta é uma fotografia
00:17
by the artist Michael Najjar,
1
2000
2000
do artista Michael Najjar,
00:19
and it's real,
2
4000
2000
e é real,
00:21
in the sense that he went there to Argentina
3
6000
2000
no sentido de que ele foi à Argentina
00:23
to take the photo.
4
8000
2000
para tirar esta foto.
00:25
But it's also a fiction. There's a lot of work that went into it after that.
5
10000
3000
Mas isso também é ficção. Muito foi feito nesta foto depois disso.
00:28
And what he's done
6
13000
2000
E o que ele fez
00:30
is he's actually reshaped, digitally,
7
15000
2000
foi realmente reformar, digitalmente,
00:32
all of the contours of the mountains
8
17000
2000
todos os contornos das montanhas
00:34
to follow the vicissitudes of the Dow Jones index.
9
19000
3000
para acompanhar as vicissitudes do índice Dow Jones.
00:37
So what you see,
10
22000
2000
Então o que vemos,
00:39
that precipice, that high precipice with the valley,
11
24000
2000
aquele precipício, aquele profundo precipício e o vale,
00:41
is the 2008 financial crisis.
12
26000
2000
é a crise financeira de 2008.
00:43
The photo was made
13
28000
2000
A foto foi feita
00:45
when we were deep in the valley over there.
14
30000
2000
quando estávamos no fundo do vale, ali.
00:47
I don't know where we are now.
15
32000
2000
Não sei onde estamos atualmente.
00:49
This is the Hang Seng index
16
34000
2000
Este é o índice Hang Seng
00:51
for Hong Kong.
17
36000
2000
de Hong Kong.
00:53
And similar topography.
18
38000
2000
E semelhante topografia.
00:55
I wonder why.
19
40000
2000
Eu me pergunto por quê.
00:57
And this is art. This is metaphor.
20
42000
3000
E isto é arte. Isto é metáfora.
01:00
But I think the point is
21
45000
2000
Mas eu acho que o detalhe é
01:02
that this is metaphor with teeth,
22
47000
2000
que esta é uma metáfora convincente.
01:04
and it's with those teeth that I want to propose today
23
49000
3000
E é com esta convicção que quero propor hoje
01:07
that we rethink a little bit
24
52000
2000
que repensemos um pouco
01:09
about the role of contemporary math --
25
54000
3000
na função da matemática contemporânea –
01:12
not just financial math, but math in general.
26
57000
3000
não somente matemática financeira, mas matemática em geral.
01:15
That its transition
27
60000
2000
Que a sua transição
01:17
from being something that we extract and derive from the world
28
62000
3000
de ser algo que extraímos e derivamos do mundo
01:20
to something that actually starts to shape it --
29
65000
3000
para algo que realmente começa a dar forma a ele –
01:23
the world around us and the world inside us.
30
68000
3000
o mundo à nossa volta e nosso mundo interno.
01:26
And it's specifically algorithms,
31
71000
2000
E são especificamente os algoritmos,
01:28
which are basically the math
32
73000
2000
que são, fundamentalmente, a matemática
01:30
that computers use to decide stuff.
33
75000
3000
que computadores usam para decidir coisas.
01:33
They acquire the sensibility of truth
34
78000
2000
Eles adquirem a sensibilidade da verdade,
01:35
because they repeat over and over again,
35
80000
2000
porque se repetem muitas vezes.
01:37
and they ossify and calcify,
36
82000
3000
E eles se ossificam e se calcificam,
01:40
and they become real.
37
85000
2000
e tornam-se reais.
01:42
And I was thinking about this, of all places,
38
87000
3000
E eu pensei sobre isso, por incrível que pareça,
01:45
on a transatlantic flight a couple of years ago,
39
90000
3000
em um vôo transatlântico uns anos atrás,
01:48
because I happened to be seated
40
93000
2000
porque eu, por acaso, estava sentado
01:50
next to a Hungarian physicist about my age
41
95000
2000
ao lado de um físico húngaro da minha idade
01:52
and we were talking
42
97000
2000
e estávamos conversando
01:54
about what life was like during the Cold War
43
99000
2000
sobre como era a vida na época da Guerra Fria
01:56
for physicists in Hungary.
44
101000
2000
para os físicos na Hungria.
01:58
And I said, "So what were you doing?"
45
103000
2000
E eu disse: “Então, o que você fazia?”
02:00
And he said, "Well we were mostly breaking stealth."
46
105000
2000
Ele disse: “Bem, normalmente nós quebrávamos sigilo.”
02:02
And I said, "That's a good job. That's interesting.
47
107000
2000
Eu disse: “Um bom emprego. É interessante.
02:04
How does that work?"
48
109000
2000
Como isso funciona?”
02:06
And to understand that,
49
111000
2000
E para compreendermos isso,
02:08
you have to understand a little bit about how stealth works.
50
113000
3000
precisamos compreender um pouco como o sigilo funciona.
02:11
And so -- this is an over-simplification --
51
116000
3000
E, então – isto é uma simplificação excessiva –
02:14
but basically, it's not like
52
119000
2000
basicamente, não é como
02:16
you can just pass a radar signal
53
121000
2000
se você pudesse passar um sinal de radar
02:18
right through 156 tons of steel in the sky.
54
123000
3000
através de 156 toneladas de aço no céu.
02:21
It's not just going to disappear.
55
126000
3000
Não vai simplesmente desaparecer.
02:24
But if you can take this big, massive thing,
56
129000
3000
Mas se você pode pegar esta coisa grande, enorme,
02:27
and you could turn it into
57
132000
3000
e a converter em
02:30
a million little things --
58
135000
2000
um milhão de coisinhas –
02:32
something like a flock of birds --
59
137000
2000
algo como um bando de pássaros –
02:34
well then the radar that's looking for that
60
139000
2000
bem, aí o radar que está à procura daquilo
02:36
has to be able to see
61
141000
2000
tem que ter capacidade de ver
02:38
every flock of birds in the sky.
62
143000
2000
todos os bandos de pássaros no céu.
02:40
And if you're a radar, that's a really bad job.
63
145000
4000
E se você é um radar, realmente este é um emprego ruim.
02:44
And he said, "Yeah." He said, "But that's if you're a radar.
64
149000
3000
Ele disse: “Sim.” Disse: ‘Mas isto se você for um radar.
02:47
So we didn't use a radar;
65
152000
2000
Nós não usávamos um radar;
02:49
we built a black box that was looking for electrical signals,
66
154000
3000
nós construímos uma caixa-preta que procurava por sinais elétricos,
02:52
electronic communication.
67
157000
3000
comunicação eletrônica.
02:55
And whenever we saw a flock of birds that had electronic communication,
68
160000
3000
E toda vez que víamos um bando de pássaros com comunicação eletrônica,
02:58
we thought, 'Probably has something to do with the Americans.'"
69
163000
3000
pensávamos que provavelmente tinha algo a haver com os americanos.”
03:01
And I said, "Yeah.
70
166000
2000
Eu disse: “Sim.
03:03
That's good.
71
168000
2000
É bom.
03:05
So you've effectively negated
72
170000
2000
Então, efetivamente, negaram-lhe
03:07
60 years of aeronautic research.
73
172000
2000
60 anos de pesquisa aeronáutica.
03:09
What's your act two?
74
174000
2000
Qual é o seu segundo ato?
03:11
What do you do when you grow up?"
75
176000
2000
O que você faz quando você cresce?”
03:13
And he said,
76
178000
2000
Ele disse,
03:15
"Well, financial services."
77
180000
2000
“Bem, serviços de finanças.”
03:17
And I said, "Oh."
78
182000
2000
Eu disse: “Ah.”
03:19
Because those had been in the news lately.
79
184000
3000
Porque esses tinham sido notícia recentemente.
03:22
And I said, "How does that work?"
80
187000
2000
Eu disse: “Como isto funciona?
03:24
And he said, "Well there's 2,000 physicists on Wall Street now,
81
189000
2000
Ele disse: “Bem, atualmente há 2.000 físicos em Wall Street,
03:26
and I'm one of them."
82
191000
2000
e eu sou um deles.”
03:28
And I said, "What's the black box for Wall Street?"
83
193000
3000
Eu disse: “O que é a caixa preta para Wall Street?”
03:31
And he said, "It's funny you ask that,
84
196000
2000
Ele disse, “É engraçado você me fazer esta pergunta,
03:33
because it's actually called black box trading.
85
198000
3000
porque ela, na verdade, se chama caixa preta das negociações
03:36
And it's also sometimes called algo trading,
86
201000
2000
E é também, às vezes, chamada de negociações algo,
03:38
algorithmic trading."
87
203000
3000
negociações algorítmicas.”
03:41
And algorithmic trading evolved in part
88
206000
3000
E as negociações algorítmicas evoluíram em parte
03:44
because institutional traders have the same problems
89
209000
3000
porque os negociadores institucionais têm os mesmos problemas
03:47
that the United States Air Force had,
90
212000
3000
que a Força Aérea dos EUA teve,
03:50
which is that they're moving these positions --
91
215000
3000
que é o fato de estarem movimentando essas posições –
03:53
whether it's Proctor & Gamble or Accenture, whatever --
92
218000
2000
seja a Proctor & Gamble ou a Accenture –
03:55
they're moving a million shares of something
93
220000
2000
estão movimentando um milhão de ações de algo
03:57
through the market.
94
222000
2000
através do mercado.
03:59
And if they do that all at once,
95
224000
2000
E se eles fazem isto tudo ao mesmo tempo,
04:01
it's like playing poker and going all in right away.
96
226000
2000
é como jogar pôquer e apostar tudo de uma vez só.
04:03
You just tip your hand.
97
228000
2000
Você apenas mostra sua mão.
04:05
And so they have to find a way --
98
230000
2000
E então eles têm que encontrar uma forma –
04:07
and they use algorithms to do this --
99
232000
2000
e o que fazem é usar algoritmos –
04:09
to break up that big thing
100
234000
2000
para partir aquela coisa grande
04:11
into a million little transactions.
101
236000
2000
em um milhão de pequenas transações.
04:13
And the magic and the horror of that
102
238000
2000
E a mágica e o horror disso
04:15
is that the same math
103
240000
2000
é que a mesma matemática
04:17
that you use to break up the big thing
104
242000
2000
que se usa para partir a coisa grande
04:19
into a million little things
105
244000
2000
em milhões de coisinhas
04:21
can be used to find a million little things
106
246000
2000
pode ser usada para encontrar um milhão de coisinhas
04:23
and sew them back together
107
248000
2000
e as emendar, todas juntas novamente
04:25
and figure out what's actually happening in the market.
108
250000
2000
e entender o que realmente está acontecendo no mercado.
04:27
So if you need to have some image
109
252000
2000
Então, se você precisa de uma imagem
04:29
of what's happening in the stock market right now,
110
254000
3000
do que está acontecendo no mercado de ações neste momento,
04:32
what you can picture is a bunch of algorithms
111
257000
2000
o que você pode visualizar é um monte de algoritmos
04:34
that are basically programmed to hide,
112
259000
3000
que basicamente são programados para esconder,
04:37
and a bunch of algorithms that are programmed to go find them and act.
113
262000
3000
e um monte de algoritmos que são programados para ir, achar e agir.
04:40
And all of that's great, and it's fine.
114
265000
3000
E tudo isto é ótimo e está tudo bem.
04:43
And that's 70 percent
115
268000
2000
E isso é 70 por cento
04:45
of the United States stock market,
116
270000
2000
do mercado de ações dos Estados Unidos,
04:47
70 percent of the operating system
117
272000
2000
70 por cento do sistema operacional
04:49
formerly known as your pension,
118
274000
3000
antigamente conhecido como sua pensão,
04:52
your mortgage.
119
277000
3000
sua hipoteca.
04:55
And what could go wrong?
120
280000
2000
E o que poderia dar errado?
04:57
What could go wrong
121
282000
2000
O que poderia dar errado
04:59
is that a year ago,
122
284000
2000
é que um ano atrás,
05:01
nine percent of the entire market just disappears in five minutes,
123
286000
3000
9 por cento do mercado inteiro simplesmente desapareceu por 5 minutos,
05:04
and they called it the Flash Crash of 2:45.
124
289000
3000
chamaram isto de 'flash crash' (quebra relâmpago) das 2:45.
05:07
All of a sudden, nine percent just goes away,
125
292000
3000
De repente, 9 por cento simplesmente desaparecem,
05:10
and nobody to this day
126
295000
2000
e ninguém até hoje
05:12
can even agree on what happened
127
297000
2000
pode concordar sobre o que aconteceu,
05:14
because nobody ordered it, nobody asked for it.
128
299000
3000
porque ninguém encomendou, pediu isto.
05:17
Nobody had any control over what was actually happening.
129
302000
3000
Ninguém tinha nenhum controle sobre o que realmente estava acontecendo.
05:20
All they had
130
305000
2000
Tudo que tinham
05:22
was just a monitor in front of them
131
307000
2000
era um monitor à frente deles
05:24
that had the numbers on it
132
309000
2000
com números
05:26
and just a red button
133
311000
2000
e somente um botão vermelho
05:28
that said, "Stop."
134
313000
2000
que dizia, “Pare”.
05:30
And that's the thing,
135
315000
2000
E é isso,
05:32
is that we're writing things,
136
317000
2000
nós estamos escrevendo coisas,
05:34
we're writing these things that we can no longer read.
137
319000
3000
estamos escrevendo estas coisas que não mais podemos ler.
05:37
And we've rendered something
138
322000
2000
E apresentamos algo
05:39
illegible,
139
324000
2000
ilegível
05:41
and we've lost the sense
140
326000
3000
E perdemos a noção
05:44
of what's actually happening
141
329000
2000
do que realmente está acontecendo
05:46
in this world that we've made.
142
331000
2000
nesse mundo que criamos
05:48
And we're starting to make our way.
143
333000
2000
E estamos começando a avançar.
05:50
There's a company in Boston called Nanex,
144
335000
3000
Há uma empresa em Boston, a Nanex,
05:53
and they use math and magic
145
338000
2000
onde usam matemática e mágica
05:55
and I don't know what,
146
340000
2000
e sei lá o que,
05:57
and they reach into all the market data
147
342000
2000
e eles entram em todos os dados de mercado
05:59
and they find, actually sometimes, some of these algorithms.
148
344000
3000
e, às vezes, encontram alguns desses algoritmos.
06:02
And when they find them they pull them out
149
347000
3000
E quando os encontram eles os levantam
06:05
and they pin them to the wall like butterflies.
150
350000
3000
e os prendem na parede como borboletas.
06:08
And they do what we've always done
151
353000
2000
E eles fazem o que sempre fizeram
06:10
when confronted with huge amounts of data that we don't understand --
152
355000
3000
quando confrontados com enormes quantidades de dados que não entendemos –
06:13
which is that they give them a name
153
358000
2000
eles lhes dão um nome
06:15
and a story.
154
360000
2000
e uma história.
06:17
So this is one that they found,
155
362000
2000
Então, este é um que encontraram,
06:19
they called the Knife,
156
364000
4000
e o chamaram de ‘Knife’,
06:23
the Carnival,
157
368000
2000
o ‘Carnival’,
06:25
the Boston Shuffler,
158
370000
4000
o ‘Boston Shuffler’,
06:29
Twilight.
159
374000
2000
‘Twilight’.
06:31
And the gag is
160
376000
2000
E a piada é
06:33
that, of course, these aren't just running through the market.
161
378000
3000
que, claro, eles não estão somente passando pelo mercado.
06:36
You can find these kinds of things wherever you look,
162
381000
3000
Encontramos esses tipos de coisas em toda parte,
06:39
once you learn how to look for them.
163
384000
2000
uma vez que aprendemos como buscá-los.
06:41
You can find it here: this book about flies
164
386000
3000
Você pode ver isso aqui: este livro sobre moscas
06:44
that you may have been looking at on Amazon.
165
389000
2000
que talvez você esteja procurando na Amazon.
06:46
You may have noticed it
166
391000
2000
Você talvez tenha notado,
06:48
when its price started at 1.7 million dollars.
167
393000
2000
quando o preço dele era 1,7 milhões de dólares.
06:50
It's out of print -- still ...
168
395000
2000
Está esgotado – mesmo assim ...
06:52
(Laughter)
169
397000
2000
(Risos)
06:54
If you had bought it at 1.7, it would have been a bargain.
170
399000
3000
Se você o tivesse comprado por 1,7, teria sido uma pechincha.
06:57
A few hours later, it had gone up
171
402000
2000
Algumas horas mais tarde, aumentou
06:59
to 23.6 million dollars,
172
404000
2000
para 23,6 milhões de dólares,
07:01
plus shipping and handling.
173
406000
2000
mais transporte e manuseio.
07:03
And the question is:
174
408000
2000
E a questão é:
07:05
Nobody was buying or selling anything; what was happening?
175
410000
2000
ninguém estava comprando ou vendendo nada; o que acontecia?
07:07
And you see this behavior on Amazon
176
412000
2000
E vemos este comportamento na Amazon
07:09
as surely as you see it on Wall Street.
177
414000
2000
tão certo quanto o vemos na Wall Street.
07:11
And when you see this kind of behavior,
178
416000
2000
E quando se observa este tipo de comportamento,
07:13
what you see is the evidence
179
418000
2000
o que se vê é a evidência
07:15
of algorithms in conflict,
180
420000
2000
dos algoritmos em conflito,
07:17
algorithms locked in loops with each other,
181
422000
2000
algoritmos trancados em 'loops' um com o outro,
07:19
without any human oversight,
182
424000
2000
sem nenhum erro humano,
07:21
without any adult supervision
183
426000
3000
sem nenhuma supervisão adulta
07:24
to say, "Actually, 1.7 million is plenty."
184
429000
3000
dizendo: “Na verdade, 1,7 milhões é muito dinheiro.”
07:27
(Laughter)
185
432000
3000
(Risos)
07:30
And as with Amazon, so it is with Netflix.
186
435000
3000
E como na Amazon, a empresa Netflix faz o mesmo.
07:33
And so Netflix has gone through
187
438000
2000
A Netflix analisou,
07:35
several different algorithms over the years.
188
440000
2000
ao longo dos anos, vários algoritmos diferentes.
07:37
They started with Cinematch, and they've tried a bunch of others --
189
442000
3000
Eles começaram com o 'Cinematch' e tentaram muitos outros.
07:40
there's Dinosaur Planet; there's Gravity.
190
445000
2000
Há o ‘Dinosaur Planet’, o ‘Gravity’.
07:42
They're using Pragmatic Chaos now.
191
447000
2000
Eles agora usam ‘Pragmatic Chaos’.
07:44
Pragmatic Chaos is, like all of Netflix algorithms,
192
449000
2000
‘Pragmatic Chaos’ está, como todos os algoritmos da Netflix,
07:46
trying to do the same thing.
193
451000
2000
tentando fazer a mesma coisa.
07:48
It's trying to get a grasp on you,
194
453000
2000
Tenta ter uma idéia a seu respeito,
07:50
on the firmware inside the human skull,
195
455000
2000
sobre o 'firmware' dentro do crânio humano,
07:52
so that it can recommend what movie
196
457000
2000
assim pode recomendar qual o filme
07:54
you might want to watch next --
197
459000
2000
que você possa querer assistir na próxima vez –
07:56
which is a very, very difficult problem.
198
461000
3000
o que é um problema muito, muito difícil.
07:59
But the difficulty of the problem
199
464000
2000
Mas a dificuldade do problema
08:01
and the fact that we don't really quite have it down,
200
466000
3000
e o fato que realmente nós não o resolvemos completamente,
08:04
it doesn't take away
201
469000
2000
não eliminam
08:06
from the effects Pragmatic Chaos has.
202
471000
2000
os efeitos que o 'Pragmatic Chaos' tem.
08:08
Pragmatic Chaos, like all Netflix algorithms,
203
473000
3000
O 'Pragmatic Chaos', como todos os algoritmos da Netflix,
08:11
determines, in the end,
204
476000
2000
determina, no final,
08:13
60 percent
205
478000
2000
60 por cento
08:15
of what movies end up being rented.
206
480000
2000
dos filmes que acabam sendo alugados.
08:17
So one piece of code
207
482000
2000
Então, uma parte do código
08:19
with one idea about you
208
484000
3000
com uma ideia a seu respeito
08:22
is responsible for 60 percent of those movies.
209
487000
3000
é responsável por 60 por cento desses filmes.
08:25
But what if you could rate those movies
210
490000
2000
Mas, e se você pudesse classificar esses filmes
08:27
before they get made?
211
492000
2000
antes de serem filmados?
08:29
Wouldn't that be handy?
212
494000
2000
Não seria conveniente?
08:31
Well, a few data scientists from the U.K. are in Hollywood,
213
496000
3000
Bem, alguns cientistas de dados do Reino Unido estão em Hollywood,
08:34
and they have "story algorithms" --
214
499000
2000
e eles tem história de algoritmos –
08:36
a company called Epagogix.
215
501000
2000
com a empresa Epagogix.
08:38
And you can run your script through there,
216
503000
3000
Você pode executar o seu roteiro através dela,
08:41
and they can tell you, quantifiably,
217
506000
2000
e eles podem lhe informar, quantitativamente,
08:43
that that's a 30 million dollar movie
218
508000
2000
que esse é um filme de 30 milhões de dólares
08:45
or a 200 million dollar movie.
219
510000
2000
ou de 200 milhões de dólares.
08:47
And the thing is, is that this isn't Google.
220
512000
2000
E o negócio é que isto não é Google.
08:49
This isn't information.
221
514000
2000
Isto não é informação.
08:51
These aren't financial stats; this is culture.
222
516000
2000
Não são estatísticas financeiras. Isto é cultura.
08:53
And what you see here,
223
518000
2000
E o que vemos aqui,
08:55
or what you don't really see normally,
224
520000
2000
ou o que realmente não vemos normalmente,
08:57
is that these are the physics of culture.
225
522000
4000
é que estes são a física da cultura.
09:01
And if these algorithms,
226
526000
2000
E, se esses algoritmos,
09:03
like the algorithms on Wall Street,
227
528000
2000
como os algoritmos na Wall Street,
09:05
just crashed one day and went awry,
228
530000
3000
que um dia erraram e deixaram de funcionar,
09:08
how would we know?
229
533000
2000
como saberíamos,
09:10
What would it look like?
230
535000
2000
como eles se pareceriam?
09:12
And they're in your house. They're in your house.
231
537000
3000
E eles estão em sua casa.
09:15
These are two algorithms competing for your living room.
232
540000
2000
Aqui estão dois algoritmos competindo na sua sala.
09:17
These are two different cleaning robots
233
542000
2000
Aqui estão dois robôs de limpeza diferentes,
09:19
that have very different ideas about what clean means.
234
544000
3000
com conceitos bem diferentes de limpeza.
09:22
And you can see it
235
547000
2000
E podemos ver isto
09:24
if you slow it down and attach lights to them,
236
549000
3000
se baixarmos a velocidade e afixarmos luzes à eles.
09:27
and they're sort of like secret architects in your bedroom.
237
552000
3000
Eles são um tipo de arquitetos secretos no seu quarto.
09:30
And the idea that architecture itself
238
555000
3000
E a ideia de que arquitetura em si
09:33
is somehow subject to algorithmic optimization
239
558000
2000
é, de certa maneira, sujeita à otimização algorítmica
09:35
is not far-fetched.
240
560000
2000
não é exagero.
09:37
It's super-real and it's happening around you.
241
562000
3000
É super real e está acontecendo à sua volta.
09:40
You feel it most
242
565000
2000
Sentimos isto mais
09:42
when you're in a sealed metal box,
243
567000
2000
quando estamos em uma caixa de metal lacrada,
09:44
a new-style elevator;
244
569000
2000
um elevador novo estilo,
09:46
they're called destination-control elevators.
245
571000
2000
chamados de elevadores com controle de destino.
09:48
These are the ones where you have to press what floor you're going to go to
246
573000
3000
Estes são aqueles que você precisa apertar o botão do andar a que quer ir
09:51
before you get in the elevator.
247
576000
2000
antes de entrar no elevador.
09:53
And it uses what's called a bin-packing algorithm.
248
578000
2000
Ele usa aquilo que chamamos de algoritmo de embalagem.
09:55
So none of this mishegas
249
580000
2000
Então, nada dessas loucuras
09:57
of letting everybody go into whatever car they want.
250
582000
2000
de deixar todo mundo entrar em qualquer elevador.
09:59
Everybody who wants to go to the 10th floor goes into car two,
251
584000
2000
Os que querem ir para o 10º andar dirigem-se ao elevador 2,
10:01
and everybody who wants to go to the third floor goes into car five.
252
586000
3000
e os que queiram ir para o 3º andar dirigem-se ao elevador 5,
10:04
And the problem with that
253
589000
2000
E o problema disso
10:06
is that people freak out.
254
591000
2000
é que a pessoas ficam perturbadas.
10:08
People panic.
255
593000
2000
Entram em pânico.
10:10
And you see why. You see why.
256
595000
2000
E você vê o porquê.
10:12
It's because the elevator
257
597000
2000
É porque no elevador está
10:14
is missing some important instrumentation, like the buttons.
258
599000
3000
faltando uma instrumentação importante, como os botões.
10:17
(Laughter)
259
602000
2000
(Risos)
10:19
Like the things that people use.
260
604000
2000
Como as coisas que as pessoas usam.
10:21
All it has
261
606000
2000
Tudo que tem
10:23
is just the number that moves up or down
262
608000
3000
é um número indo para cima e para baixo
10:26
and that red button that says, "Stop."
263
611000
3000
e aquele botão vermelho que diz: “Pare”.
10:29
And this is what we're designing for.
264
614000
3000
E é para isso que é o design.
10:32
We're designing
265
617000
2000
Estamos projetando
10:34
for this machine dialect.
266
619000
2000
para o dialeto desta máquina.
10:36
And how far can you take that? How far can you take it?
267
621000
3000
E até que ponto você pode aguentar isso?
10:39
You can take it really, really far.
268
624000
2000
Você pode realmente aguentar, muito.
10:41
So let me take it back to Wall Street.
269
626000
3000
Voltando à Wall Street.
10:45
Because the algorithms of Wall Street
270
630000
2000
Porque os algoritmos da Wall Street
10:47
are dependent on one quality above all else,
271
632000
3000
dependem de uma qualidade acima de tudo,
10:50
which is speed.
272
635000
2000
que é a rapidez.
10:52
And they operate on milliseconds and microseconds.
273
637000
3000
Eles operam em milissegundos e microssegundos.
10:55
And just to give you a sense of what microseconds are,
274
640000
2000
E só para lhe dar uma noção do que são microssegundos,
10:57
it takes you 500,000 microseconds
275
642000
2000
você leva 500.000 microssegundos
10:59
just to click a mouse.
276
644000
2000
para clicar um mouse.
11:01
But if you're a Wall Street algorithm
277
646000
2000
Mas, se você é um algoritmo da Wall Street
11:03
and you're five microseconds behind,
278
648000
2000
e está 5 microssegundos atrasado,
11:05
you're a loser.
279
650000
2000
você é um fracassado.
11:07
So if you were an algorithm,
280
652000
2000
Então, se você fosse um algoritmo,
11:09
you'd look for an architect like the one that I met in Frankfurt
281
654000
3000
você iria procurar um arquiteto como o que conheci em Frankfurt
11:12
who was hollowing out a skyscraper --
282
657000
2000
que esvaziou um arranha-céu –
11:14
throwing out all the furniture, all the infrastructure for human use,
283
659000
3000
jogou fora todos os móveis, toda a infraestrutura para uso humano,
11:17
and just running steel on the floors
284
662000
3000
e deixou somente laminados de aço no piso
11:20
to get ready for the stacks of servers to go in --
285
665000
3000
para se preparar para as pilhas de servidores –
11:23
all so an algorithm
286
668000
2000
tudo para que um algoritmo
11:25
could get close to the Internet.
287
670000
3000
pudesse ficar próximo da Internet.
11:28
And you think of the Internet as this kind of distributed system.
288
673000
3000
E você pensa na Internet como esse tipo de sistema distribuído.
11:31
And of course, it is, but it's distributed from places.
289
676000
3000
E é claro que é, mas é distribuído de lugares.
11:34
In New York, this is where it's distributed from:
290
679000
2000
Em Nova York, é distribuído do
11:36
the Carrier Hotel
291
681000
2000
Hotel Carrier
11:38
located on Hudson Street.
292
683000
2000
na Rua Hudson.
11:40
And this is really where the wires come right up into the city.
293
685000
3000
E é realmente dali que os cabos vão até a cidade.
11:43
And the reality is that the further away you are from that,
294
688000
4000
A realidade é que quanto mais distantes dali estamos,
11:47
you're a few microseconds behind every time.
295
692000
2000
ficamos atrasados alguns microssegundos todas as vezes.
11:49
These guys down on Wall Street,
296
694000
2000
Esses caras na Wall Street,
11:51
Marco Polo and Cherokee Nation,
297
696000
2000
Marco Polo e Cherokee Nation,
11:53
they're eight microseconds
298
698000
2000
estão 8 microssegundos
11:55
behind all these guys
299
700000
2000
mais atrasados do que todos esses caras
11:57
going into the empty buildings being hollowed out
300
702000
4000
que vão para prédios desocupados, sendo esvaziados
12:01
up around the Carrier Hotel.
301
706000
2000
no entorno do Hotel Carrier.
12:03
And that's going to keep happening.
302
708000
3000
O que vai continuar acontecendo.
12:06
We're going to keep hollowing them out,
303
711000
2000
Continuaremos esvaziando.
12:08
because you, inch for inch
304
713000
3000
porque, centímetro por centímetro,
12:11
and pound for pound and dollar for dollar,
305
716000
3000
quilo por quilo e dólar por dólar,
12:14
none of you could squeeze revenue out of that space
306
719000
3000
nenhum de vocês poderia extrair rendimento daquele espaço,
12:17
like the Boston Shuffler could.
307
722000
3000
como pode o 'Boston Shuffler'.
12:20
But if you zoom out,
308
725000
2000
Mas se você diminuísse o zum,
12:22
if you zoom out,
309
727000
2000
se você diminuísse o zum,
12:24
you would see an 825-mile trench
310
729000
4000
veria uma trincheira de 1,330 quilômetros
12:28
between New York City and Chicago
311
733000
2000
entre Nova York e Chicago
12:30
that's been built over the last few years
312
735000
2000
que foi construída nos últimos anos
12:32
by a company called Spread Networks.
313
737000
3000
pela empresa Spread Networks.
12:35
This is a fiber optic cable
314
740000
2000
Isto é um cabo de fibra óptica
12:37
that was laid between those two cities
315
742000
2000
que foi colocado entre estas duas cidades
12:39
to just be able to traffic one signal
316
744000
3000
para apenas um sinal poder trafegar
12:42
37 times faster than you can click a mouse --
317
747000
3000
37 vezes mais rápido do que um clique de mouse –
12:45
just for these algorithms,
318
750000
3000
só para esses algoritmos,
12:48
just for the Carnival and the Knife.
319
753000
3000
só para o 'Carnival' e o 'Knife'.
12:51
And when you think about this,
320
756000
2000
E quando pensamos nisso,
12:53
that we're running through the United States
321
758000
2000
que estamos correndo pelos EUA
12:55
with dynamite and rock saws
322
760000
3000
com dinamite e serras para cortar pedras
12:58
so that an algorithm can close the deal
323
763000
2000
para que um algoritmo possa fechar o negócio
13:00
three microseconds faster,
324
765000
3000
três microssegundos mais rápido,
13:03
all for a communications framework
325
768000
2000
tudo para uma estrutura de comunicações
13:05
that no human will ever know,
326
770000
4000
que nenhum humano jamais saberá,
13:09
that's a kind of manifest destiny;
327
774000
3000
este é o tipo de Destino Manifesto
13:12
and we'll always look for a new frontier.
328
777000
3000
e estará sempre à procura de uma nova fronteira.
13:15
Unfortunately, we have our work cut out for us.
329
780000
3000
Infelizmente, temos nosso trabalho retirado de nós.
13:18
This is just theoretical.
330
783000
2000
Isto é apenas teórico.
13:20
This is some mathematicians at MIT.
331
785000
2000
Estes são alguns matemáticos do MIT.
13:22
And the truth is I don't really understand
332
787000
2000
E a verdade é que não entendo realmente
13:24
a lot of what they're talking about.
333
789000
2000
muito sobre o que estão falando.
13:26
It involves light cones and quantum entanglement,
334
791000
3000
Trata-se de cones de luz e entrelaçamento quântico,
13:29
and I don't really understand any of that.
335
794000
2000
e eu realmente não entendo nada disso.
13:31
But I can read this map,
336
796000
2000
Mas, eu posso ler esse mapa.
13:33
and what this map says
337
798000
2000
E o que ele diz
13:35
is that, if you're trying to make money on the markets where the red dots are,
338
800000
3000
é que, se você está tentando ganhar dinheiro nos mercados nos pontos vermelhos,
13:38
that's where people are, where the cities are,
339
803000
2000
é lá que estão as pessoas, onde estão as cidades,
13:40
you're going to have to put the servers where the blue dots are
340
805000
3000
você terá que colocar os servidores nos pontos azuis
13:43
to do that most effectively.
341
808000
2000
para ser mais eficaz.
13:45
And the thing that you might have noticed about those blue dots
342
810000
3000
E algo que talvez tenham notado sobre estes pontos azuis
13:48
is that a lot of them are in the middle of the ocean.
343
813000
3000
é que muitos deles estão no meio do oceano.
13:51
So that's what we'll do: we'll build bubbles or something,
344
816000
3000
Então, é isso que faremos, construiremos bolhas ou algo assim,
13:54
or platforms.
345
819000
2000
ou plataformas.
13:56
We'll actually part the water
346
821000
2000
Vamos partir as águas
13:58
to pull money out of the air,
347
823000
2000
para extrair dinheiro do ar,
14:00
because it's a bright future
348
825000
2000
porque é um futuro promissor
14:02
if you're an algorithm.
349
827000
2000
se você é um algoritmo.
14:04
(Laughter)
350
829000
2000
(Risos)
14:06
And it's not the money that's so interesting actually.
351
831000
3000
E, realmente, não é o dinheiro que é tão interessante.
14:09
It's what the money motivates,
352
834000
2000
É o que o dinheiro motiva.
14:11
that we're actually terraforming
353
836000
2000
É que estamos realmente terraformando
14:13
the Earth itself
354
838000
2000
a própria Terra
14:15
with this kind of algorithmic efficiency.
355
840000
2000
com esse tipo de eficiência algorítmica.
14:17
And in that light,
356
842000
2000
E neste contexto,
14:19
you go back
357
844000
2000
você volta
14:21
and you look at Michael Najjar's photographs,
358
846000
2000
e observa as fotografias de Michael Najjar,
14:23
and you realize that they're not metaphor, they're prophecy.
359
848000
3000
e percebe que elas não são metáforas, mas profecias.
14:26
They're prophecy
360
851000
2000
Elas são profecias
14:28
for the kind of seismic, terrestrial effects
361
853000
4000
para o tipo de efeitos sísmicos, terrestres,
14:32
of the math that we're making.
362
857000
2000
da matemática que estamos usando.
14:34
And the landscape was always made
363
859000
3000
E a paisagem foi sempre feita
14:37
by this sort of weird, uneasy collaboration
364
862000
3000
com esse tipo de colaboração esquisita, inquieta
14:40
between nature and man.
365
865000
3000
entre a natureza e o homem.
14:43
But now there's this third co-evolutionary force: algorithms --
366
868000
3000
Mas agora existe essa terceira força coevolucionária: os algoritmos –
14:46
the Boston Shuffler, the Carnival.
367
871000
3000
o 'Boston Shuffler', o 'Carnival'.
14:49
And we will have to understand those as nature,
368
874000
3000
E teremos que entendê-los como sendo natureza.
14:52
and in a way, they are.
369
877000
2000
E, de certo modo, eles são.
14:54
Thank you.
370
879000
2000
Obrigado.
14:56
(Applause)
371
881000
20000
(Aplausos)
Translated by Nadja Nathan
Reviewed by Isabel Villan

▲Back to top

ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee