ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com
TEDGlobal 2011

Kevin Slavin: How algorithms shape our world

Kevin Slavin: Cómo los algoritmos configuran nuestro mundo

Filmed:
4,199,898 views

Kevin Slavin afirma que estamos viviendo en un mundo diseñado para - y cada vez más controlado por - algoritmos. En esta fascinante charla de TEDGlobal, nos muestra cómo estos complejos programas informáticos determinan: las tácticas de espionaje, los precios de las acciones, los guiones de cine y la arquitectura. Y nos advierte que estamos escribiendo en un código que no entendemos, con consecuencias que no podemos controlar.
- Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms. Full bio

Double-click the English transcript below to play the video.

00:15
This is a photographfotografía
0
0
2000
Esta es una fotografía
00:17
by the artistartista MichaelMiguel NajjarNajjar,
1
2000
2000
tomada por el artista Michael Najjar,
00:19
and it's realreal,
2
4000
2000
y es real
00:21
in the sensesentido that he wentfuimos there to ArgentinaArgentina
3
6000
2000
porque él fue a Argentina
00:23
to take the photofoto.
4
8000
2000
para tomarla.
00:25
But it's alsoademás a fictionficción. There's a lot of work that wentfuimos into it after that.
5
10000
3000
Pero también es ficción. Hay bastante trabajo en ella después de eso.
00:28
And what he's donehecho
6
13000
2000
Y lo que ha hecho
00:30
is he's actuallyactualmente reshapedreformado, digitallydigitalmente,
7
15000
2000
es que prácticamente ha rediseñado, digitalmente,
00:32
all of the contourscontornos of the mountainsmontañas
8
17000
2000
todos los contornos de las montañas
00:34
to followseguir the vicissitudesvicisitudes of the DowDow JonesJones indexíndice.
9
19000
3000
para seguir las vicisitudes del índice Dow Jones.
00:37
So what you see,
10
22000
2000
Así que lo que se ve,
00:39
that precipiceprecipicio, that highalto precipiceprecipicio with the valleyValle,
11
24000
2000
ese precipicio, lo alto del precipicio que se abre con el valle,
00:41
is the 2008 financialfinanciero crisiscrisis.
12
26000
2000
es la crisis financiera del 2008.
00:43
The photofoto was madehecho
13
28000
2000
La foto fue tomada
00:45
when we were deepprofundo in the valleyValle over there.
14
30000
2000
cuando estábamos muy en el fondo de aquel valle.
00:47
I don't know where we are now.
15
32000
2000
No sé dónde estamos ahora.
00:49
This is the HangColgar SengSeng indexíndice
16
34000
2000
Este es el índice Hang Seng
00:51
for HongHong KongKong.
17
36000
2000
de la Bolsa de Hong Kong.
00:53
And similarsimilar topographytopografía.
18
38000
2000
Y la topografía es similar.
00:55
I wonderpreguntarse why.
19
40000
2000
Me pregunto por qué.
00:57
And this is artart. This is metaphormetáfora.
20
42000
3000
Y esto es arte y también es una metáfora.
01:00
But I think the pointpunto is
21
45000
2000
Pero creo que lo importante es
01:02
that this is metaphormetáfora with teethdientes,
22
47000
2000
que es una metáfora con dientes.
01:04
and it's with those teethdientes that I want to proposeproponer todayhoy
23
49000
3000
Y es con esos dientes que hoy quiero proponer
01:07
that we rethinkrepensar a little bitpoco
24
52000
2000
que reconsideremos un poco
01:09
about the rolepapel of contemporarycontemporáneo mathmates --
25
54000
3000
el rol de las matemáticas contemporáneas,
01:12
not just financialfinanciero mathmates, but mathmates in generalgeneral.
26
57000
3000
no solo las financieras, sino las matemáticas en general.
01:15
That its transitiontransición
27
60000
2000
Reconsideremos que han pasado
01:17
from beingsiendo something that we extractextraer and derivederivar from the worldmundo
28
62000
3000
de ser algo que se extrae y se deriva del mundo
01:20
to something that actuallyactualmente startsempieza to shapeforma it --
29
65000
3000
a algo que realmente empieza a darle forma,
01:23
the worldmundo around us and the worldmundo insidedentro us.
30
68000
3000
al mundo que nos rodea y al mundo dentro de nosotros.
01:26
And it's specificallyespecíficamente algorithmsAlgoritmos,
31
71000
2000
Y es específicamente con algoritmos,
01:28
whichcual are basicallybásicamente the mathmates
32
73000
2000
que son básicamente las matemáticas
01:30
that computersordenadores use to decidedecidir stuffcosas.
33
75000
3000
que utilizan los computadores para tomar decisiones.
01:33
They acquireadquirir the sensibilitysensibilidad of truthverdad
34
78000
2000
Adquieren el sentido de la verdad,
01:35
because they repeatrepetir over and over again,
35
80000
2000
porque se repiten una y otra vez
01:37
and they ossifyosificarse and calcifycalcificarse,
36
82000
3000
y se osifican y se calcifican
01:40
and they becomevolverse realreal.
37
85000
2000
y se vuelven reales.
01:42
And I was thinkingpensando about this, of all placeslugares,
38
87000
3000
Y estaba pensando en esto, en un lugar improbable,
01:45
on a transatlantictransatlántico flightvuelo a couplePareja of yearsaños agohace,
39
90000
3000
en un vuelo transatlántico hace un par de años,
01:48
because I happenedsucedió to be seatedsentado
40
93000
2000
porque me encontraba sentado
01:50
nextsiguiente to a Hungarianhúngaro physicistfísico about my ageaños
41
95000
2000
al lado de un físico húngaro como de mi edad
01:52
and we were talkinghablando
42
97000
2000
y hablábamos
01:54
about what life was like duringdurante the ColdFrío WarGuerra
43
99000
2000
de cómo era la vida de los físicos en Hungría
01:56
for physicistsfísicos in HungaryHungría.
44
101000
2000
durante la guerra fría.
01:58
And I said, "So what were you doing?"
45
103000
2000
Y le pregunté: "¿Qué hacían ustedes?"
02:00
And he said, "Well we were mostlyprincipalmente breakingrotura stealthsigilo."
46
105000
2000
Y dijo: "Mayormente, destruíamos escudos furtivos".
02:02
And I said, "That's a good jobtrabajo. That's interestinginteresante.
47
107000
2000
A lo que le dije: "Ese es un buen trabajo. Es interesante.
02:04
How does that work?"
48
109000
2000
¿Cómo funciona?"
02:06
And to understandentender that,
49
111000
2000
Y para entender eso,
02:08
you have to understandentender a little bitpoco about how stealthsigilo workstrabajos.
50
113000
3000
hay que entender primero cómo funciona la tecnología furtiva.
02:11
And so -- this is an over-simplificationsobre simplificación --
51
116000
3000
Y para esto, voy a simplificar al extremo,
02:14
but basicallybásicamente, it's not like
52
119000
2000
en el fondo no se trata
02:16
you can just passpasar a radarRadar signalseñal
53
121000
2000
de pasar una señal de radar
02:18
right throughmediante 156 tonsmontones of steelacero in the skycielo.
54
123000
3000
a través de 156 toneladas de acero en el cielo.
02:21
It's not just going to disappeardesaparecer.
55
126000
3000
Eso no va a desaparecer.
02:24
But if you can take this biggrande, massivemasivo thing,
56
129000
3000
Pero se puede tomar esta cosa enorme
02:27
and you could turngiro it into
57
132000
3000
y transformarla
02:30
a millionmillón little things --
58
135000
2000
en un millón de cosas pequeñas,
02:32
something like a flockrebaño of birdsaves --
59
137000
2000
como una bandada de pájaros, por ejemplo,
02:34
well then the radarRadar that's looking for that
60
139000
2000
y luego el radar que la está buscando
02:36
has to be ablepoder to see
61
141000
2000
tiene que ser capaz de ver
02:38
everycada flockrebaño of birdsaves in the skycielo.
62
143000
2000
todas las bandadas de pájaros en el cielo.
02:40
And if you're a radarRadar, that's a really badmalo jobtrabajo.
63
145000
4000
Y si usted es un radar, ese es un trabajo muy duro.
02:44
And he said, "Yeah." He said, "But that's if you're a radarRadar.
64
149000
3000
Y él dijo: "Sí, pero eso es solo si usted es un radar.
02:47
So we didn't use a radarRadar;
65
152000
2000
Pero, no usábamos radares;
02:49
we builtconstruido a blacknegro boxcaja that was looking for electricaleléctrico signalsseñales,
66
154000
3000
construíamos una caja negra que buscaba señales eléctricas,
02:52
electronicelectrónico communicationcomunicación.
67
157000
3000
de comunicación electrónica.
02:55
And whenevercuando we saw a flockrebaño of birdsaves that had electronicelectrónico communicationcomunicación,
68
160000
3000
Y cuando veíamos una bandada de pájaros que tenía comunicación electrónica,
02:58
we thought, 'Probably'Probablemente has something to do with the AmericansAmericanos.'"
69
163000
3000
pensábamos que probablemente tenía algo que ver con los estadounidenses".
03:01
And I said, "Yeah.
70
166000
2000
Y le dije: "Sí.
03:03
That's good.
71
168000
2000
Está bien.
03:05
So you've effectivelyeficazmente negatednegado
72
170000
2000
Ud. ha reducido a la nada
03:07
60 yearsaños of aeronauticaeronáutico researchinvestigación.
73
172000
2000
60 años de investigación aeronáutica.
03:09
What's your actacto two?
74
174000
2000
Y luego, ¿qué va a hacer?
03:11
What do you do when you growcrecer up?"
75
176000
2000
¿Qué va a hacer cuando sea mayor?"
03:13
And he said,
76
178000
2000
Y respondió:
03:15
"Well, financialfinanciero servicesservicios."
77
180000
2000
"Trabajar en servicios financieros".
03:17
And I said, "Oh."
78
182000
2000
Y le dije: "¡Oh!".
03:19
Because those had been in the newsNoticias latelyúltimamente.
79
184000
3000
Porque se había hablado de ellos en las noticias últimamente.
03:22
And I said, "How does that work?"
80
187000
2000
Le pregunté: "¿Cómo funciona eso?"
03:24
And he said, "Well there's 2,000 physicistsfísicos on Wallpared StreetCalle now,
81
189000
2000
Y dijo: "Bueno, actualmente, hay 2 000 físicos en Wall Street,
03:26
and I'm one of them."
82
191000
2000
y soy uno de ellos".
03:28
And I said, "What's the blacknegro boxcaja for Wallpared StreetCalle?"
83
193000
3000
Y le pregunté: "¿Cuál es la caja negra de Wall Street?"
03:31
And he said, "It's funnygracioso you askpedir that,
84
196000
2000
Y él dijo: "Es curioso que lo pregunte,
03:33
because it's actuallyactualmente calledllamado blacknegro boxcaja tradingcomercio.
85
198000
3000
porque, en efecto, se llama comercio de caja negra.
03:36
And it's alsoademás sometimesa veces calledllamado algoalgo tradingcomercio,
86
201000
2000
Y a veces también se le llama comercio algo,
03:38
algorithmicalgorítmico tradingcomercio."
87
203000
3000
comercio algorítmico".
03:41
And algorithmicalgorítmico tradingcomercio evolvedevolucionado in partparte
88
206000
3000
Y el comercio algorítmico se ha desarrollado en parte
03:44
because institutionalinstitucional traderscomerciantes have the samemismo problemsproblemas
89
209000
3000
porque los inversores institucionales tienen los mismos problemas
03:47
that the UnitedUnido StatesEstados AirAire ForceFuerza had,
90
212000
3000
que tenía la Fuerza Aérea de los Estados Unidos,
03:50
whichcual is that they're movingemocionante these positionsposiciones --
91
215000
3000
es decir, que mueven sus posiciones
03:53
whethersi it's ProctorProcurador & GambleJugar or AccentureAccenture, whateverlo que sea --
92
218000
2000
–que se trate de Procter & Gamble, Accenture u otra compañía–
03:55
they're movingemocionante a millionmillón sharesComparte of something
93
220000
2000
y transfieren un millón de acciones de algo
03:57
throughmediante the marketmercado.
94
222000
2000
a través del mercado.
03:59
And if they do that all at onceuna vez,
95
224000
2000
Y si lo hacen todo a la vez,
04:01
it's like playingjugando pokerpóker and going all in right away.
96
226000
2000
es como jugar al póker y apostar todo inmediatamente.
04:03
You just tippropina your handmano.
97
228000
2000
Están mostrando su jugada.
04:05
And so they have to find a way --
98
230000
2000
De manera que tienen que encontrar una solución
04:07
and they use algorithmsAlgoritmos to do this --
99
232000
2000
–y para eso usan algoritmos–
04:09
to breakdescanso up that biggrande thing
100
234000
2000
para dividir ese gran paquete
04:11
into a millionmillón little transactionsactas.
101
236000
2000
en un millón de transacciones pequeñas.
04:13
And the magicmagia and the horrorhorror of that
102
238000
2000
Y la magia y el horror de eso
04:15
is that the samemismo mathmates
103
240000
2000
es que las mismas matemáticas
04:17
that you use to breakdescanso up the biggrande thing
104
242000
2000
que se usan para dividir ese gran paquete
04:19
into a millionmillón little things
105
244000
2000
en un millón de pequeñas cosas
04:21
can be used to find a millionmillón little things
106
246000
2000
pueden usarse para encontrar ese millón de pequeñas cosas,
04:23
and sewcoser them back togetherjuntos
107
248000
2000
unirlas nuevamente
04:25
and figurefigura out what's actuallyactualmente happeningsucediendo in the marketmercado.
108
250000
2000
y averiguar lo que sucede realmente en el mercado.
04:27
So if you need to have some imageimagen
109
252000
2000
Así que para que tengan una idea
04:29
of what's happeningsucediendo in the stockvalores marketmercado right now,
110
254000
3000
de lo que pasa en la bolsa en este momento,
04:32
what you can pictureimagen is a bunchmanojo of algorithmsAlgoritmos
111
257000
2000
pueden imaginarse un montón de algoritmos
04:34
that are basicallybásicamente programmedprogramado to hideesconder,
112
259000
3000
programados básicamente para esconderse,
04:37
and a bunchmanojo of algorithmsAlgoritmos that are programmedprogramado to go find them and actacto.
113
262000
3000
y otro montón de algoritmos programados para ir a buscarlos y actuar.
04:40
And all of that's great, and it's fine.
114
265000
3000
Y todo eso es genial, está muy bien.
04:43
And that's 70 percentpor ciento
115
268000
2000
Representa el 70 %
04:45
of the UnitedUnido StatesEstados stockvalores marketmercado,
116
270000
2000
de la bolsa de los Estados Unidos,
04:47
70 percentpor ciento of the operatingoperando systemsistema
117
272000
2000
el 70 % del sistema operativo
04:49
formerlyantes knownconocido as your pensionpensión,
118
274000
3000
antes conocido como nuestras pensiones
04:52
your mortgagehipoteca.
119
277000
3000
e hipotecas.
04:55
And what could go wrongincorrecto?
120
280000
2000
Y ¿qué podría fallar?
04:57
What could go wrongincorrecto
121
282000
2000
Podría pasar algo
04:59
is that a yearaño agohace,
122
284000
2000
como lo de hace un año,
05:01
ninenueve percentpor ciento of the entiretodo marketmercado just disappearsdesaparece in fivecinco minutesminutos,
123
286000
3000
cuando el 9 % del total del mercado desapareció en 5 minutos
05:04
and they calledllamado it the FlashDestello CrashChoque of 2:45.
124
289000
3000
y lo llamaron el “flash crash” de las 2.45.
05:07
All of a suddenrepentino, ninenueve percentpor ciento just goesva away,
125
292000
3000
De repente, 9 % simplemente desapareció,
05:10
and nobodynadie to this day
126
295000
2000
y nadie hasta hoy
05:12
can even agreede acuerdo on what happenedsucedió
127
297000
2000
se pone de acuerdo sobre lo que pasó,
05:14
because nobodynadie orderedordenado it, nobodynadie askedpreguntó for it.
128
299000
3000
porque nadie dio la orden, nadie quería eso.
05:17
NobodyNadie had any controlcontrolar over what was actuallyactualmente happeningsucediendo.
129
302000
3000
Nadie tenía ningún control sobre lo que realmente pasaba.
05:20
All they had
130
305000
2000
Lo único que tenían
05:22
was just a monitormonitor in frontfrente of them
131
307000
2000
era un monitor delante de ellos
05:24
that had the numbersnúmeros on it
132
309000
2000
que tenía unos números
05:26
and just a redrojo buttonbotón
133
311000
2000
y un botón rojo
05:28
that said, "Stop."
134
313000
2000
que decía: "Pare".
05:30
And that's the thing,
135
315000
2000
Y ese es el problema,
05:32
is that we're writingescritura things,
136
317000
2000
que estamos escribiendo cosas,
05:34
we're writingescritura these things that we can no longermás readleer.
137
319000
3000
que ya no podemos leer.
05:37
And we'venosotros tenemos renderedprestado something
138
322000
2000
Hemos dejado algo
05:39
illegibleilegible,
139
324000
2000
ilegible.
05:41
and we'venosotros tenemos lostperdió the sensesentido
140
326000
3000
Y en este mundo que hemos fabricado,
05:44
of what's actuallyactualmente happeningsucediendo
141
329000
2000
hemos perdido el sentido
05:46
in this worldmundo that we'venosotros tenemos madehecho.
142
331000
2000
de lo que realmente está sucediendo.
05:48
And we're startingcomenzando to make our way.
143
333000
2000
Y hemos empezando a hacer nuestro camino.
05:50
There's a companyempresa in BostonBostón calledllamado NanexNanex,
144
335000
3000
Hay una compañía en Boston llamada Nanex,
05:53
and they use mathmates and magicmagia
145
338000
2000
que usa las matemáticas y la magia
05:55
and I don't know what,
146
340000
2000
y no sé qué más,
05:57
and they reachalcanzar into all the marketmercado datadatos
147
342000
2000
que consigue todos los datos del mercado
05:59
and they find, actuallyactualmente sometimesa veces, some of these algorithmsAlgoritmos.
148
344000
3000
y, a veces encuentra algunos de estos algoritmos.
06:02
And when they find them they pullHalar them out
149
347000
3000
Y cuando los encuentra, los extrae
06:05
and they pinalfiler them to the wallpared like butterfliesmariposas.
150
350000
3000
y los sujeta contra la pared como si fueran mariposas.
06:08
And they do what we'venosotros tenemos always donehecho
151
353000
2000
Y hace lo que siempre hemos hecho
06:10
when confrontedconfrontado with hugeenorme amountscantidades of datadatos that we don't understandentender --
152
355000
3000
cuando nos enfrentamos a grandes cantidades de datos que no entendemos,
06:13
whichcual is that they give them a namenombre
153
358000
2000
les da un nombre
06:15
and a storyhistoria.
154
360000
2000
y una historia.
06:17
So this is one that they foundencontró,
155
362000
2000
Aquí hay unos que encontró.
06:19
they calledllamado the KnifeCuchillo,
156
364000
4000
A este lo llamó el Cuchillo,
06:23
the CarnivalCarnaval,
157
368000
2000
el Carnaval,
06:25
the BostonBostón ShufflerBarajador,
158
370000
4000
la Mezcla de Boston,
06:29
TwilightCrepúsculo.
159
374000
2000
el Crepúsculo.
06:31
And the gagmordaza is
160
376000
2000
Y el chiste es
06:33
that, of coursecurso, these aren'tno son just runningcorriendo throughmediante the marketmercado.
161
378000
3000
que, por supuesto, no se trata solo del mercado.
06:36
You can find these kindsclases of things whereverdonde quiera you look,
162
381000
3000
Podemos encontrar este tipo de cosas donde miremos,
06:39
onceuna vez you learnaprender how to look for them.
163
384000
2000
una vez que aprendemos cómo buscarlos.
06:41
You can find it here: this booklibro about fliesmoscas
164
386000
3000
Podemos encontrarlos aquí: en este libro sobre las moscas
06:44
that you maymayo have been looking at on AmazonAmazonas.
165
389000
2000
que tal vez hemos estado buscando en Amazon.
06:46
You maymayo have noticednotado it
166
391000
2000
Puede que lo hayamos notado,
06:48
when its priceprecio startedempezado at 1.7 millionmillón dollarsdólares.
167
393000
2000
cuando su precio subió a 1,7 millones de dólares.
06:50
It's out of printimpresión -- still ...
168
395000
2000
Está agotado, aún...
06:52
(LaughterRisa)
169
397000
2000
(Risas)
06:54
If you had boughtcompró it at 1.7, it would have been a bargainnegociar.
170
399000
3000
Si lo hubiésemos comprado a 1,7, habría sido una ganga.
06:57
A fewpocos hourshoras laterluego, it had goneido up
171
402000
2000
Unas horas más tarde, subió
06:59
to 23.6 millionmillón dollarsdólares,
172
404000
2000
a 23,6 millones de dólares,
07:01
plusmás shippingEnvío and handlingmanejo.
173
406000
2000
más gastos de envío.
07:03
And the questionpregunta is:
174
408000
2000
Y la pregunta es:
07:05
NobodyNadie was buyingcomprando or sellingde venta anything; what was happeningsucediendo?
175
410000
2000
Nadie compraba ni vendía nada; ¿qué pasaba?
07:07
And you see this behaviorcomportamiento on AmazonAmazonas
176
412000
2000
Y esto se ve tanto en Amazon
07:09
as surelyseguramente as you see it on Wallpared StreetCalle.
177
414000
2000
como en Wall Street.
07:11
And when you see this kindtipo of behaviorcomportamiento,
178
416000
2000
Y cuando uno ve este tipo de comportamiento,
07:13
what you see is the evidenceevidencia
179
418000
2000
lo que ve es la evidencia
07:15
of algorithmsAlgoritmos in conflictconflicto,
180
420000
2000
de los algoritmos en conflicto,
07:17
algorithmsAlgoritmos lockedbloqueado in loopsbucles with eachcada other,
181
422000
2000
trabados entre sí en bucles,
07:19
withoutsin any humanhumano oversightvigilancia,
182
424000
2000
sin ninguna supervisión humana,
07:21
withoutsin any adultadulto supervisionsupervisión
183
426000
3000
sin ningún tipo de supervisión de un adulto
07:24
to say, "ActuallyActualmente, 1.7 millionmillón is plentymucho."
184
429000
3000
para decir: "En realidad, 1,7 millones es bastante".
07:27
(LaughterRisa)
185
432000
3000
(Risas)
07:30
And as with AmazonAmazonas, so it is with NetflixNetflix.
186
435000
3000
A Netflix le ha sucedido lo mismo que a Amazon.
07:33
And so NetflixNetflix has goneido throughmediante
187
438000
2000
Netflix ha pasado
07:35
severalvarios differentdiferente algorithmsAlgoritmos over the yearsaños.
188
440000
2000
por varios algoritmos diferentes a través del tiempo.
07:37
They startedempezado with CinematchCinematch, and they'veellos tienen triedintentó a bunchmanojo of othersotros --
189
442000
3000
Comenzó con Cinematch, y ha probado muchos otros,
07:40
there's DinosaurDinosaurio PlanetPlaneta; there's GravityGravedad.
190
445000
2000
pasando por Dinosaur Planet y Gravity.
07:42
They're usingutilizando PragmaticPragmático ChaosCaos now.
191
447000
2000
Ahora está usando Pragmatic Chaos
07:44
PragmaticPragmático ChaosCaos is, like all of NetflixNetflix algorithmsAlgoritmos,
192
449000
2000
que, al igual que todos los algoritmos de Netflix,
07:46
tryingmolesto to do the samemismo thing.
193
451000
2000
trata de hacer lo mismo:
07:48
It's tryingmolesto to get a graspagarrar on you,
194
453000
2000
conseguir un asidero en nosotros,
07:50
on the firmwarefirmware insidedentro the humanhumano skullcráneo,
195
455000
2000
en el “firmware” dentro del cráneo humano,
07:52
so that it can recommendrecomendar what moviepelícula
196
457000
2000
para que pueda recomendar qué película
07:54
you mightpodría want to watch nextsiguiente --
197
459000
2000
podríamos tener ganas de ver próximamente,
07:56
whichcual is a very, very difficultdifícil problemproblema.
198
461000
3000
lo cual es un problema muy, muy difícil.
07:59
But the difficultydificultad of the problemproblema
199
464000
2000
Pero la dificultad del problema
08:01
and the facthecho that we don't really quitebastante have it down,
200
466000
3000
y el hecho de que en realidad no lo tengamos resuelto,
08:04
it doesn't take away
201
469000
2000
no le quita
08:06
from the effectsefectos PragmaticPragmático ChaosCaos has.
202
471000
2000
los efectos que el Pragmatic Chaos tiene.
08:08
PragmaticPragmático ChaosCaos, like all NetflixNetflix algorithmsAlgoritmos,
203
473000
3000
Este, al igual que todos los algoritmos de Netflix,
08:11
determinesdetermina, in the endfin,
204
476000
2000
determina, en última instancia,
08:13
60 percentpor ciento
205
478000
2000
el 60 %
08:15
of what moviespelículas endfin up beingsiendo rentedalquilado.
206
480000
2000
de las películas que terminan siendo alquiladas.
08:17
So one piecepieza of codecódigo
207
482000
2000
De manera que un segmento de código
08:19
with one ideaidea about you
208
484000
3000
con una idea acerca de nosotros
08:22
is responsibleresponsable for 60 percentpor ciento of those moviespelículas.
209
487000
3000
es responsable del 60 % de esas películas.
08:25
But what if you could ratetarifa those moviespelículas
210
490000
2000
¿Qué pasaría si pudiésemos evaluar esas películas
08:27
before they get madehecho?
211
492000
2000
antes de que se hiciesen?
08:29
Wouldn'tNo lo haría that be handypráctico?
212
494000
2000
¿No sería útil?
08:31
Well, a fewpocos datadatos scientistscientíficos from the U.K. are in HollywoodHollywood,
213
496000
3000
Bien, hay unos especialistas de datos del Reino Unido en Hollywood
08:34
and they have "storyhistoria algorithmsAlgoritmos" --
214
499000
2000
que tienen algoritmos de historias,
08:36
a companyempresa calledllamado EpagogixEpagogix.
215
501000
2000
son una empresa llamada Epagogix.
08:38
And you can runcorrer your scriptguión throughmediante there,
216
503000
3000
Pueden probar un guion cinematográfico,
08:41
and they can tell you, quantifiablycuantificable,
217
506000
2000
y decirnos, de manera cuantificable,
08:43
that that's a 30 millionmillón dollardólar moviepelícula
218
508000
2000
si será una película de 30 millones de dólares
08:45
or a 200 millionmillón dollardólar moviepelícula.
219
510000
2000
o una de 200 millones de dólares.
08:47
And the thing is, is that this isn't GoogleGoogle.
220
512000
2000
Y el caso es que esto no es Google.
08:49
This isn't informationinformación.
221
514000
2000
No es información.
08:51
These aren'tno son financialfinanciero statsestadísticas; this is culturecultura.
222
516000
2000
No se trata de estadísticas financieras; es cultura.
08:53
And what you see here,
223
518000
2000
Y lo que vemos aquí,
08:55
or what you don't really see normallynormalmente,
224
520000
2000
o más bien, lo que no vemos normalmente,
08:57
is that these are the physicsfísica of culturecultura.
225
522000
4000
es que se trata de la física de la cultura.
09:01
And if these algorithmsAlgoritmos,
226
526000
2000
Y si estos algoritmos,
09:03
like the algorithmsAlgoritmos on Wallpared StreetCalle,
227
528000
2000
como los de Wall Street,
09:05
just crashedestrellado one day and wentfuimos awrytorcido,
228
530000
3000
acaban estrellándose un día y todo falla,
09:08
how would we know?
229
533000
2000
¿cómo podríamos saber
09:10
What would it look like?
230
535000
2000
lo que se vería?
09:12
And they're in your housecasa. They're in your housecasa.
231
537000
3000
Y están en nuestras casas.
09:15
These are two algorithmsAlgoritmos competingcompitiendo for your livingvivo roomhabitación.
232
540000
2000
Hay dos algoritmos que compiten por la sala de estar.
09:17
These are two differentdiferente cleaninglimpieza robotsrobots
233
542000
2000
Son dos tipos diferentes de robots de limpieza
09:19
that have very differentdiferente ideasideas about what cleanlimpiar meansmedio.
234
544000
3000
que tienen ideas muy distintas de lo que significa limpio.
09:22
And you can see it
235
547000
2000
Y se pueden ver
09:24
if you slowlento it down and attachadjuntar lightsluces to them,
236
549000
3000
si les bajamos la velocidad y les fijamos luces.
09:27
and they're sortordenar of like secretsecreto architectsarquitectos in your bedroomCuarto.
237
552000
3000
Son algo así como los arquitectos secretos del dormitorio.
09:30
And the ideaidea that architecturearquitectura itselfsí mismo
238
555000
3000
Y la idea de que la propia arquitectura
09:33
is somehowde algun modo subjecttema to algorithmicalgorítmico optimizationmejoramiento
239
558000
2000
esté sujeta de alguna manera a la optimización algorítmica
09:35
is not far-fetchedexagerado.
240
560000
2000
no es descabellada.
09:37
It's super-realsúper real and it's happeningsucediendo around you.
241
562000
3000
Es muy real y está ocurriendo a nuestro alrededor.
09:40
You feel it mostmás
242
565000
2000
Es más evidente
09:42
when you're in a sealedsellado metalmetal boxcaja,
243
567000
2000
cuando estamos en una caja metálica sellada,
09:44
a new-stylenuevo estilo elevatorascensor;
244
569000
2000
en un ascensor moderno
09:46
they're calledllamado destination-controlcontrol de destino elevatorsascensores.
245
571000
2000
llamado ascensor de control de destino.
09:48
These are the onesunos where you have to pressprensa what floorpiso you're going to go to
246
573000
3000
Es de aquellos en los que hay que presionar el piso al que vamos a ir
09:51
before you get in the elevatorascensor.
247
576000
2000
antes de entrar en el ascensor.
09:53
And it usesusos what's calledllamado a bin-packingbin-packing algorithmalgoritmo.
248
578000
2000
Utiliza lo que se llama un algoritmo de embalaje de cajas.
09:55
So noneninguna of this mishegasMishegas
249
580000
2000
Así que nada de esas locuras
09:57
of lettingdejar everybodytodos go into whateverlo que sea carcoche they want.
250
582000
2000
de dejar que todo el mundo suba a cualquier cabina que quiera.
09:59
EverybodyTodos who wants to go to the 10thth floorpiso goesva into carcoche two,
251
584000
2000
Todos los que quieran ir al décimo piso suben a la cabina 2,
10:01
and everybodytodos who wants to go to the thirdtercero floorpiso goesva into carcoche fivecinco.
252
586000
3000
y los que quieran ir al tercer piso suben a la cabina 5.
10:04
And the problemproblema with that
253
589000
2000
Y el problema con esto
10:06
is that people freakmonstruo out.
254
591000
2000
es que la gente enloquezca,
10:08
People panicpánico.
255
593000
2000
que entre en pánico.
10:10
And you see why. You see why.
256
595000
2000
Y es claro por qué.
10:12
It's because the elevatorascensor
257
597000
2000
Porque al ascensor
10:14
is missingdesaparecido some importantimportante instrumentationinstrumentación, like the buttonsbotones.
258
599000
3000
le faltan algunos instrumentos importantes, como los botones.
10:17
(LaughterRisa)
259
602000
2000
(Risas)
10:19
Like the things that people use.
260
604000
2000
Como las cosas que la gente usa.
10:21
All it has
261
606000
2000
Lo único que tiene
10:23
is just the numbernúmero that movesmovimientos up or down
262
608000
3000
es el número que cambia cuando sube o baja
10:26
and that redrojo buttonbotón that saysdice, "Stop."
263
611000
3000
y ese botón rojo que dice "Pare".
10:29
And this is what we're designingdiseño for.
264
614000
3000
Y eso es lo que estamos diseñando.
10:32
We're designingdiseño
265
617000
2000
Estamos trabajando
10:34
for this machinemáquina dialectdialecto.
266
619000
2000
en el dialecto de esa máquina.
10:36
And how farlejos can you take that? How farlejos can you take it?
267
621000
3000
Y ¿hasta dónde podemos ir?, ¿hasta qué punto?
10:39
You can take it really, really farlejos.
268
624000
2000
Podemos ir muy, muy lejos.
10:41
So let me take it back to Wallpared StreetCalle.
269
626000
3000
Volvamos al tema de Wall Street.
10:45
Because the algorithmsAlgoritmos of Wallpared StreetCalle
270
630000
2000
Los algoritmos de Wall Street
10:47
are dependentdependiente on one qualitycalidad aboveencima all elsemás,
271
632000
3000
dependen de una cualidad por encima de todo,
10:50
whichcual is speedvelocidad.
272
635000
2000
la velocidad.
10:52
And they operatefuncionar on millisecondsmilisegundos and microsecondsmicrosegundos.
273
637000
3000
Operan en milisegundos y microsegundos.
10:55
And just to give you a sensesentido of what microsecondsmicrosegundos are,
274
640000
2000
Y para que tengan una idea de lo que es un microsegundo,
10:57
it takes you 500,000 microsecondsmicrosegundos
275
642000
2000
piensen que se necesitan 500 000 microsegundos
10:59
just to clickhacer clic a mouseratón.
276
644000
2000
solo para hacer un clic con un mouse.
11:01
But if you're a Wallpared StreetCalle algorithmalgoritmo
277
646000
2000
Pero si un algoritmo de Wall Street
11:03
and you're fivecinco microsecondsmicrosegundos behinddetrás,
278
648000
2000
tiene cinco microsegundos de tardanza,
11:05
you're a loserperdedor.
279
650000
2000
es un perdedor.
11:07
So if you were an algorithmalgoritmo,
280
652000
2000
Así que si fuésemos algoritmos,
11:09
you'dtu hubieras look for an architectarquitecto like the one that I metreunió in FrankfurtFrankfurt
281
654000
3000
buscaríamos un arquitecto como el que me encontré en Frankfurt
11:12
who was hollowingahuecando out a skyscraperrascacielos --
282
657000
2000
que vaciaba un rascacielos,
11:14
throwinglanzamiento out all the furnituremueble, all the infrastructureinfraestructura for humanhumano use,
283
659000
3000
tiraba todos los muebles, toda la infraestructura de uso humano,
11:17
and just runningcorriendo steelacero on the floorspisos
284
662000
3000
y solo dejaba acero en los pisos
11:20
to get readyListo for the stackspilas of serversservidores to go in --
285
665000
3000
para prepararse para recibir pilas de servidores,
11:23
all so an algorithmalgoritmo
286
668000
2000
todo para que un algoritmo
11:25
could get closecerca to the InternetInternet.
287
670000
3000
pueda acercarse al internet.
11:28
And you think of the InternetInternet as this kindtipo of distributedrepartido systemsistema.
288
673000
3000
Creemos que el internet es un tipo de sistema descentralizado.
11:31
And of coursecurso, it is, but it's distributedrepartido from placeslugares.
289
676000
3000
Y, por supuesto, lo es, pero se descentraliza desde ciertos lugares.
11:34
In NewNuevo YorkYork, this is where it's distributedrepartido from:
290
679000
2000
Aquí es desde donde se descentraliza en Nueva York:
11:36
the CarrierPortador HotelHotel
291
681000
2000
el hotel Carrier
11:38
locatedsituado on HudsonHudson StreetCalle.
292
683000
2000
ubicado en la calle Hudson.
11:40
And this is really where the wiresalambres come right up into the cityciudad.
293
685000
3000
Es realmente desde allí que los cables llegan hasta la ciudad.
11:43
And the realityrealidad is that the furtherpromover away you are from that,
294
688000
4000
Y la realidad es que cuanto más nos alejamos de allí,
11:47
you're a fewpocos microsecondsmicrosegundos behinddetrás everycada time.
295
692000
2000
más nos atrasamos en microsegundos.
11:49
These guys down on Wallpared StreetCalle,
296
694000
2000
Estos tipos en Wall Street,
11:51
MarcoMarco PoloPolo and CherokeeCherokee NationNación,
297
696000
2000
Marco Polo y la nación Cherokee,
11:53
they're eightocho microsecondsmicrosegundos
298
698000
2000
están 8 microsegundos
11:55
behinddetrás all these guys
299
700000
2000
detrás de todos estos tipos
11:57
going into the emptyvacío buildingsedificios beingsiendo hollowedahuecado out
300
702000
4000
que van a los edificios que se desocupan
12:01
up around the CarrierPortador HotelHotel.
301
706000
2000
en los alrededores del hotel Carrier.
12:03
And that's going to keep happeningsucediendo.
302
708000
3000
Y esto va a seguir sucediendo.
12:06
We're going to keep hollowingahuecando them out,
303
711000
2000
Vamos a seguir vaciando edificios,
12:08
because you, inchpulgada for inchpulgada
304
713000
3000
ya que, centímetro a centímetro,
12:11
and poundlibra for poundlibra and dollardólar for dollardólar,
305
716000
3000
libra por libra y dólar por dólar,
12:14
noneninguna of you could squeezeexprimir revenueingresos out of that spaceespacio
306
719000
3000
ninguno de nosotros podría sacar más provecho de ese espacio
12:17
like the BostonBostón ShufflerBarajador could.
307
722000
3000
que la Mezcla de Boston.
12:20
But if you zoomenfocar out,
308
725000
2000
Pero si nos alejamos,
12:22
if you zoomenfocar out,
309
727000
2000
si nos alejamos,
12:24
you would see an 825-mile-milla trenchzanja
310
729000
4000
veremos una zanja de 1 300 kilómetros
12:28
betweenEntre NewNuevo YorkYork CityCiudad and ChicagoChicago
311
733000
2000
entre Nueva York y Chicago
12:30
that's been builtconstruido over the last fewpocos yearsaños
312
735000
2000
construida en los últimos años
12:32
by a companyempresa calledllamado SpreadUntado NetworksRedes.
313
737000
3000
por una compañía llamada Spread Networks.
12:35
This is a fiberfibra opticóptico cablecable
314
740000
2000
Este es un cable de fibra óptica
12:37
that was laidpuesto betweenEntre those two citiesciudades
315
742000
2000
colocado entre las dos ciudades
12:39
to just be ablepoder to traffictráfico one signalseñal
316
744000
3000
solamente para hacer pasar una señal
12:42
37 timesveces fasterMás rápido than you can clickhacer clic a mouseratón --
317
747000
3000
37 veces más rápido que el clic de un mouse,
12:45
just for these algorithmsAlgoritmos,
318
750000
3000
solo para estos algoritmos,
12:48
just for the CarnivalCarnaval and the KnifeCuchillo.
319
753000
3000
el Carnaval y el Cuchillo.
12:51
And when you think about this,
320
756000
2000
Y cuando pensamos en esto,
12:53
that we're runningcorriendo throughmediante the UnitedUnido StatesEstados
321
758000
2000
que estamos atravesando los Estados Unidos
12:55
with dynamitedinamita and rockrock sawssierras
322
760000
3000
con dinamita y sierras de roca
12:58
so that an algorithmalgoritmo can closecerca the dealacuerdo
323
763000
2000
para que un algoritmo pueda cerrar un contrato
13:00
threeTres microsecondsmicrosegundos fasterMás rápido,
324
765000
3000
3 microsegundos más rápido,
13:03
all for a communicationsComunicaciones frameworkmarco de referencia
325
768000
2000
todo en un marco de comunicaciones
13:05
that no humanhumano will ever know,
326
770000
4000
que ningún ser humano sabrá nunca,
13:09
that's a kindtipo of manifestmanifiesto destinydestino;
327
774000
3000
es una especie de destino manifiesto
13:12
and we'llbien always look for a newnuevo frontierfrontera.
328
777000
3000
que siempre buscará una nueva frontera.
13:15
UnfortunatelyDesafortunadamente, we have our work cutcortar out for us.
329
780000
3000
Pero aún tenemos mucho trabajo por hacer.
13:18
This is just theoreticalteórico.
330
783000
2000
Todo eso es solo teoría
13:20
This is some mathematiciansmatemáticos at MITMIT.
331
785000
2000
de unos matemáticos del MIT.
13:22
And the truthverdad is I don't really understandentender
332
787000
2000
Y la verdad es que no entiendo
13:24
a lot of what they're talkinghablando about.
333
789000
2000
mucho de lo que hablan.
13:26
It involvesinvolucra lightligero conesconos and quantumcuántico entanglementenredo,
334
791000
3000
Se trata de conos luminosos y conexiones cuánticas,
13:29
and I don't really understandentender any of that.
335
794000
2000
y realmente no entiendo nada de eso.
13:31
But I can readleer this mapmapa,
336
796000
2000
Pero puedo leer este mapa
13:33
and what this mapmapa saysdice
337
798000
2000
que dice
13:35
is that, if you're tryingmolesto to make moneydinero on the marketsmercados where the redrojo dotspuntos are,
338
800000
3000
que si tratamos de hacer dinero en los mercados donde están los puntos rojos,
13:38
that's where people are, where the citiesciudades are,
339
803000
2000
que es donde está la gente, donde están las ciudades,
13:40
you're going to have to put the serversservidores where the blueazul dotspuntos are
340
805000
3000
vamos a tener que poner los servidores en los puntos azules
13:43
to do that mostmás effectivelyeficazmente.
341
808000
2000
para tener el máximo de eficiencia.
13:45
And the thing that you mightpodría have noticednotado about those blueazul dotspuntos
342
810000
3000
Y habrán notado que los puntos azules
13:48
is that a lot of them are in the middlemedio of the oceanOceano.
343
813000
3000
están mayormente en medio del océano.
13:51
So that's what we'llbien do: we'llbien buildconstruir bubblesburbujas or something,
344
816000
3000
Así que vamos a tener que crear burbujas
13:54
or platformsplataformas.
345
819000
2000
o plataformas.
13:56
We'llBien actuallyactualmente partparte the wateragua
346
821000
2000
En realidad, vamos a compartir el agua
13:58
to pullHalar moneydinero out of the airaire,
347
823000
2000
para sacar dinero del aire
14:00
because it's a brightbrillante futurefuturo
348
825000
2000
porque allí hay un futuro brillante
14:02
if you're an algorithmalgoritmo.
349
827000
2000
si somos algoritmos.
14:04
(LaughterRisa)
350
829000
2000
(Risas)
14:06
And it's not the moneydinero that's so interestinginteresante actuallyactualmente.
351
831000
3000
Y en realidad, el dinero no es lo que más nos interesa,
14:09
It's what the moneydinero motivatesmotiva,
352
834000
2000
sino la motivación que trae el dinero.
14:11
that we're actuallyactualmente terraformingterraformación
353
836000
2000
El hecho de transformar
14:13
the EarthTierra itselfsí mismo
354
838000
2000
el planeta mismo
14:15
with this kindtipo of algorithmicalgorítmico efficiencyeficiencia.
355
840000
2000
con este tipo de eficiencia algorítmica.
14:17
And in that lightligero,
356
842000
2000
A la luz de esto,
14:19
you go back
357
844000
2000
volvemos a ver
14:21
and you look at MichaelMiguel Najjar'sNajjar photographsfotografías,
358
846000
2000
las fotografías de Michael Najjar
14:23
and you realizedarse cuenta de that they're not metaphormetáfora, they're prophecyprofecía.
359
848000
3000
y nos damos cuenta de que no son metafóricas, son proféticas.
14:26
They're prophecyprofecía
360
851000
2000
Se anticipan
14:28
for the kindtipo of seismicsísmico, terrestrialterrestre effectsefectos
361
853000
4000
a los efectos sísmicos, terrestres
14:32
of the mathmates that we're makingfabricación.
362
857000
2000
de las matemáticas que hacemos.
14:34
And the landscapepaisaje was always madehecho
363
859000
3000
Y el paisaje siempre ha estado configurado
14:37
by this sortordenar of weirdextraño, uneasydifícil collaborationcolaboración
364
862000
3000
por este tipo de colaboración extraña y difícil
14:40
betweenEntre naturenaturaleza and man.
365
865000
3000
entre la naturaleza y el hombre.
14:43
But now there's this thirdtercero co-evolutionaryco-evolutivo forcefuerza: algorithmsAlgoritmos --
366
868000
3000
Pero ahora existe esta tercera fuerza coevolutiva: los algoritmos;
14:46
the BostonBostón ShufflerBarajador, the CarnivalCarnaval.
367
871000
3000
la Mezcla de Boston, el Carnaval.
14:49
And we will have to understandentender those as naturenaturaleza,
368
874000
3000
Y vamos a tener que entenderlos como parte de la naturaleza.
14:52
and in a way, they are.
369
877000
2000
Y de una manera, lo son.
14:54
Thank you.
370
879000
2000
Gracias.
14:56
(ApplauseAplausos)
371
881000
20000
(Aplausos)

▲Back to top

ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com