ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com
TEDGlobal 2011

Kevin Slavin: How algorithms shape our world

Kevin Slavin : Comment les algorithmes façonnent notre monde

Filmed:
4,199,898 views

Kevin Slavin affirme que nous vivons dans un monde conçu pour (et de plus en plus contrôlé par) les algorithmes. Dans cette conférence fascinante qu'il a donnée à TEDGlobal, il montre comment ces programmes complexes déterminent les tactiques d'espionnage, le prix des actions, les scénarios de films et l'architecture.. Et il nous met en garde contre le fait que nous écrivons du code que nous ne comprenons pas, avec des implications que nous ne pouvons pas contrôler.
- Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms. Full bio

Double-click the English transcript below to play the video.

00:15
This is a photographphotographier
0
0
2000
Voici une photo
00:17
by the artistartiste MichaelMichael NajjarNajjar,
1
2000
2000
prise par l'artiste Michael Najjar,
00:19
and it's realréal,
2
4000
2000
et elle est vraie,
00:21
in the sensesens that he wentest allé there to ArgentinaArgentine
3
6000
2000
dans le sens où il est allé en Argentine
00:23
to take the photophoto.
4
8000
2000
pour prendre cette photo.
00:25
But it's alsoaussi a fictionfiction. There's a lot of work that wentest allé into it after that.
5
10000
3000
Mais c'est aussi de la fiction. Il y a eu beaucoup de travail sur cette photo ensuite.
00:28
And what he's doneterminé
6
13000
2000
Et ce qu'il a fait
00:30
is he's actuallyréellement reshapedremodelé, digitallynumériquement,
7
15000
2000
c'est qu'il a en fait redessiné, numériquement,
00:32
all of the contourspérimètre de rayonnement of the mountainsles montagnes
8
17000
2000
tous les contours des montagnes
00:34
to followsuivre the vicissitudesvicissitudes of the DowDow JonesJones indexindice.
9
19000
3000
pour suivre les vicissitudes du Dow Jones.
00:37
So what you see,
10
22000
2000
Alors ce que vous voyez,
00:39
that precipicegrande rafle, that highhaute precipicegrande rafle with the valleyvallée,
11
24000
2000
ce précipice, ce précipice profond avec la vallée,
00:41
is the 2008 financialfinancier crisiscrise.
12
26000
2000
c'est la crise financière de 2008.
00:43
The photophoto was madefabriqué
13
28000
2000
La photo a été faite
00:45
when we were deepProfond in the valleyvallée over there.
14
30000
2000
quand nous étions tout au fond de la vallée là-bas.
00:47
I don't know where we are now.
15
32000
2000
Je ne sais pas où nous sommes maintenant.
00:49
This is the HangHang SengSeng indexindice
16
34000
2000
Voici l'indice Hang Seng
00:51
for HongHong KongKong.
17
36000
2000
de la bourse de Hong Kong.
00:53
And similarsimilaire topographytopographie.
18
38000
2000
Et une topographie similaire.
00:55
I wondermerveille why.
19
40000
2000
Je me demande pourquoi
00:57
And this is artart. This is metaphormétaphore.
20
42000
3000
Et c'est de l'art. C'est une métaphore.
01:00
But I think the pointpoint is
21
45000
2000
Mais je pense que l'important, c'est
01:02
that this is metaphormétaphore with teethles dents,
22
47000
2000
que c'est une métaphore qui a des dents.
01:04
and it's with those teethles dents that I want to proposeproposer todayaujourd'hui
23
49000
3000
Et c'est avec ces dents que je veux vous proposer aujourd'hui
01:07
that we rethinkrepenser a little bitbit
24
52000
2000
de repenser un peu ensemble
01:09
about the rolerôle of contemporarycontemporain mathmath --
25
54000
3000
au rôle des mathématiques contemporaines,
01:12
not just financialfinancier mathmath, but mathmath in generalgénéral.
26
57000
3000
pas seulement les maths financières, mais les maths en général.
01:15
That its transitiontransition
27
60000
2000
Repenser au fait que les maths sont passées
01:17
from beingétant something that we extractextrait and derivedériver from the worldmonde
28
62000
3000
de quelque chose qu'on extrait et qu'on dérive du monde
01:20
to something that actuallyréellement startsdéparts to shapeforme it --
29
65000
3000
à quelque chose qui en fait commence à le façonner,
01:23
the worldmonde around us and the worldmonde insideà l'intérieur us.
30
68000
3000
ce monde qui nous entoure et ce monde qui est en nous.
01:26
And it's specificallyPlus précisément algorithmsalgorithmes,
31
71000
2000
Et il s'agit en particulier des algorithmes,
01:28
whichlequel are basicallyen gros the mathmath
32
73000
2000
qui sont essentiellement les maths
01:30
that computersdes ordinateurs use to decidedécider stuffdes trucs.
33
75000
3000
que les ordinateurs utilisent pour prendre des décisions.
01:33
They acquireacquérir the sensibilitysensibilité of truthvérité
34
78000
2000
Ils acquièrent le sens de la vérité
01:35
because they repeatrépéter over and over again,
35
80000
2000
parce qu'ils recommencent sans cesse.
01:37
and they ossifyfossiliser and calcifyse calcifier,
36
82000
3000
Et il se sclérosent et se calcifient
01:40
and they becomedevenir realréal.
37
85000
2000
et deviennent réels.
01:42
And I was thinkingen pensant about this, of all placesdes endroits,
38
87000
3000
Je réfléchissais à ça dans un endroit improbable,
01:45
on a transatlantictransatlantique flightvol a couplecouple of yearsannées agodepuis,
39
90000
3000
à bord d'un vol transatlantique il y a deux ans,
01:48
because I happenedarrivé to be seatedassise
40
93000
2000
parce que je m'étais retrouvé assis à côté
01:50
nextprochain to a HungarianHongrois physicistphysicien about my ageâge
41
95000
2000
d'un physicien hongrois qui avait à peu près mon âge,
01:52
and we were talkingparlant
42
97000
2000
et nous discutions
01:54
about what life was like duringpendant the ColdFroide WarGuerre
43
99000
2000
de ce qu'était la vie des physiciens en Hongrie
01:56
for physicistsphysiciens in HungaryHongrie.
44
101000
2000
pendant la guerre froide.
01:58
And I said, "So what were you doing?"
45
103000
2000
Et j'ai dit, "Alors que faisiez-vous ?"
02:00
And he said, "Well we were mostlyla plupart breakingrupture stealthStealth."
46
105000
2000
Et il a dit, "Et bien la plupart du temps on détruisait les boucliers furtifs.
02:02
And I said, "That's a good jobemploi. That's interestingintéressant.
47
107000
2000
Et j'ai dit, "C'est bien. C'est intéressant.
02:04
How does that work?"
48
109000
2000
Comment ça marche ?"
02:06
And to understandcomprendre that,
49
111000
2000
Et pour comprendre ça,
02:08
you have to understandcomprendre a little bitbit about how stealthStealth workstravaux.
50
113000
3000
il faut comprendre un peu comment fonctionne un bouclier furtif.
02:11
And so -- this is an over-simplificationsimplification exagérée --
51
116000
3000
Et donc, je simplifie à l'extrême,
02:14
but basicallyen gros, it's not like
52
119000
2000
mais en gros, ce n'est pas
02:16
you can just passpasser a radarradar signalsignal
53
121000
2000
comme de faire passer un signal radar
02:18
right throughpar 156 tonstonnes of steelacier in the skyciel.
54
123000
3000
à travers 156 tonnes d'acier dans le ciel.
02:21
It's not just going to disappeardisparaître.
55
126000
3000
Ça ne va pas disparaitre.
02:24
But if you can take this biggros, massivemassif thing,
56
129000
3000
Mais si on peut prendre cette chose énorme,
02:27
and you could turntour it into
57
132000
3000
et la transformer
02:30
a millionmillion little things --
58
135000
2000
en un million de petites choses,
02:32
something like a flocktroupeau of birdsdes oiseaux --
59
137000
2000
comme un vol d'oiseaux par exemple,
02:34
well then the radarradar that's looking for that
60
139000
2000
alors le radar qui cherche ça
02:36
has to be ablecapable to see
61
141000
2000
doit être capable de voir
02:38
everychaque flocktroupeau of birdsdes oiseaux in the skyciel.
62
143000
2000
tous les vols d'oiseaux dans le ciel.
02:40
And if you're a radarradar, that's a really badmal jobemploi.
63
145000
4000
Et si vous êtes un radar, c'est vraiment un sacré boulot.
02:44
And he said, "Yeah." He said, "But that's if you're a radarradar.
64
149000
3000
Et il a dit, "Oui, mais c'est si vous êtes un radar.
02:47
So we didn't use a radarradar;
65
152000
2000
Alors nous n'avons pas utilisé un radar ;
02:49
we builtconstruit a blacknoir boxboîte that was looking for electricalélectrique signalssignaux,
66
154000
3000
nous avons construit une boite noire qui cherchait des signaux électriques,
02:52
electronicélectronique communicationla communication.
67
157000
3000
des communications électroniques.
02:55
And whenevern'importe quand we saw a flocktroupeau of birdsdes oiseaux that had electronicélectronique communicationla communication,
68
160000
3000
Et chaque fois que nous voyions un vol d'oiseaux qui avait des communications électroniques,
02:58
we thought, 'Probably« Probablement has something to do with the AmericansAméricains.'"
69
163000
3000
on se disait que ça avait un rapport avec les américains."
03:01
And I said, "Yeah.
70
166000
2000
Et j'ai dit, "Oui.
03:03
That's good.
71
168000
2000
C'est bien.
03:05
So you've effectivelyefficacement negatedniée
72
170000
2000
Vous avez donc en réalité réduit à néant
03:07
60 yearsannées of aeronauticAeronautic researchrecherche.
73
172000
2000
60 ans de recherches aéronautiques.
03:09
What's your actacte two?
74
174000
2000
Et ensuite, que faites-vous ?
03:11
What do you do when you growcroître up?"
75
176000
2000
Et quand vous serez grand, vous ferez quoi ?"
03:13
And he said,
76
178000
2000
Il a répondu,
03:15
"Well, financialfinancier servicesprestations de service."
77
180000
2000
'Des services financiers."
03:17
And I said, "Oh."
78
182000
2000
J'ai dit, "Oh"
03:19
Because those had been in the newsnouvelles latelydernièrement.
79
184000
3000
Parce qu'on en avait parlé dans les infos récemment.
03:22
And I said, "How does that work?"
80
187000
2000
Et j'ai dit, Comment ça marche?
03:24
And he said, "Well there's 2,000 physicistsphysiciens on WallMur StreetRue now,
81
189000
2000
Et il a répondu "Eh bien, il y a actuellement 2000 physiciens à Wall Street"
03:26
and I'm one of them."
82
191000
2000
et j'en fait partie."
03:28
And I said, "What's the blacknoir boxboîte for WallMur StreetRue?"
83
193000
3000
Et j'ai dit, "C'est quoi la boite noire pour Wall Street?"
03:31
And he said, "It's funnydrôle you askdemander that,
84
196000
2000
Et il a répondu, "C'est drôle que vous demandiez ça,
03:33
because it's actuallyréellement calledappelé blacknoir boxboîte tradingcommerce.
85
198000
3000
parce que en fait on appelle ça le trading automatique ou black box trading.
03:36
And it's alsoaussi sometimesparfois calledappelé algoAlgo tradingcommerce,
86
201000
2000
On l'appelle aussi parfois algo trading,
03:38
algorithmicalgorithmique tradingcommerce."
87
203000
3000
trading algorithmique."
03:41
And algorithmicalgorithmique tradingcommerce evolvedévolué in partpartie
88
206000
3000
Et le trading algorithmique a évolué en partie
03:44
because institutionalinstitutionnel traderscommerçants have the sameMême problemsproblèmes
89
209000
3000
parce que les traders institutionnels ont les mêmes problèmes
03:47
that the UnitedUnie StatesÉtats AirAir ForceForce had,
90
212000
3000
qu'avait l'US Air Force,
03:50
whichlequel is that they're movingen mouvement these positionspositions --
91
215000
3000
c'est-à-dire qu'ils changent leur positions,
03:53
whetherqu'il s'agisse it's ProctorProctor & GambleGamble or AccentureAccenture, whateverpeu importe --
92
218000
2000
que ce soit Proctor & Gamble ou Accenture, peu importe,
03:55
they're movingen mouvement a millionmillion sharesactions of something
93
220000
2000
ils transfèrent un million d'actions de quelque chose
03:57
throughpar the marketmarché.
94
222000
2000
dans le marché.
03:59
And if they do that all at onceune fois que,
95
224000
2000
Et s'ils font ça d'un seul coup,
04:01
it's like playingen jouant pokerPoker and going all in right away.
96
226000
2000
c'est comme jouer au poker et tout miser tout de suite.
04:03
You just tippointe your handmain.
97
228000
2000
Vous dévoilez votre jeu.
04:05
And so they have to find a way --
98
230000
2000
Et donc ils doivent trouver une solution,
04:07
and they use algorithmsalgorithmes to do this --
99
232000
2000
et pour ça ils utilisent des algoritmes,
04:09
to breakPause up that biggros thing
100
234000
2000
pour diviser ce gros paquet
04:11
into a millionmillion little transactionstransactions.
101
236000
2000
en un million de petites transactions.
04:13
And the magicla magie and the horrorhorreur of that
102
238000
2000
Et ce qui est magique et horrible là-dedans
04:15
is that the sameMême mathmath
103
240000
2000
c'est que les mêmes maths
04:17
that you use to breakPause up the biggros thing
104
242000
2000
qu'on utilise pour diviser le gros truc
04:19
into a millionmillion little things
105
244000
2000
en un million de petits trucs
04:21
can be used to find a millionmillion little things
106
246000
2000
peut être utilisé pour trouver un million de petits trucs
04:23
and sewCoudre them back togetherensemble
107
248000
2000
et les réassembler
04:25
and figurefigure out what's actuallyréellement happeningévénement in the marketmarché.
108
250000
2000
et comprendre ce qui se passe vraiment dans le marché.
04:27
So if you need to have some imageimage
109
252000
2000
Alors si vous devez vous faire une image
04:29
of what's happeningévénement in the stockStock marketmarché right now,
110
254000
3000
de ce qui se passe à la bourse en ce moment,
04:32
what you can picturephoto is a bunchbouquet of algorithmsalgorithmes
111
257000
2000
ce que vous pouvez visualiser c'est un tas d'algoritmes
04:34
that are basicallyen gros programmedprogrammé to hidecacher,
112
259000
3000
essentiellement programmés pour se cacher,
04:37
and a bunchbouquet of algorithmsalgorithmes that are programmedprogrammé to go find them and actacte.
113
262000
3000
et un tas algorithmes qui sont programmés pour les trouver et agir.
04:40
And all of that's great, and it's fine.
114
265000
3000
Et tout ça c'est super, et c'est bien.
04:43
And that's 70 percentpour cent
115
268000
2000
Et ça représente 70%
04:45
of the UnitedUnie StatesÉtats stockStock marketmarché,
116
270000
2000
de la bourse aux Etats-Unis,
04:47
70 percentpour cent of the operatingen fonctionnement systemsystème
117
272000
2000
70% du système opérateur
04:49
formerlyanciennement knownconnu as your pensionpension,
118
274000
3000
qu'on appelait auparavant votre retraite,
04:52
your mortgagehypothèque.
119
277000
3000
votre hypothèque.
04:55
And what could go wrongfaux?
120
280000
2000
Et qu'est-ce qui pourrait aller de travers?
04:57
What could go wrongfaux
121
282000
2000
Ce qui pourrait aller de travers
04:59
is that a yearan agodepuis,
122
284000
2000
c'est qu'il y a un an,
05:01
nineneuf percentpour cent of the entiretout marketmarché just disappearsdisparaît in fivecinq minutesminutes,
123
286000
3000
9% de la totalité du marché a disparu en 5 minutes,
05:04
and they calledappelé it the FlashFlash CrashCrash of 2:45.
124
289000
3000
et on a appelé ça le crash flash de 2:45.
05:07
All of a suddensoudain, nineneuf percentpour cent just goesva away,
125
292000
3000
Tout à coup, 9% disparaissent,
05:10
and nobodypersonne to this day
126
295000
2000
et à ce jour personne
05:12
can even agreese mettre d'accord on what happenedarrivé
127
297000
2000
n'est d'accord sur ce qui s'est apssé,
05:14
because nobodypersonne orderedcommandé it, nobodypersonne askeda demandé for it.
128
299000
3000
parce que personne n'en a donné l'ordre, personne n'a voulu ça.
05:17
NobodyPersonne ne had any controlcontrôle over what was actuallyréellement happeningévénement.
129
302000
3000
Personne n'avait le moindre contrôle sur ce qui se passait vraiment.
05:20
All they had
130
305000
2000
Tout ce qu'ils avaient
05:22
was just a monitormoniteur in frontde face of them
131
307000
2000
c'était un écran devant eux
05:24
that had the numbersNombres on it
132
309000
2000
qui affichait des chiffres
05:26
and just a redrouge buttonbouton
133
311000
2000
et un unique bouton rouge
05:28
that said, "Stop."
134
313000
2000
qui disait, "Stop."
05:30
And that's the thing,
135
315000
2000
Et c'est ça le truc,
05:32
is that we're writingl'écriture things,
136
317000
2000
c'est que nous écrivons des trucs,
05:34
we're writingl'écriture these things that we can no longerplus long readlis.
137
319000
3000
nous écrivons ces trucs que nous ne savons plus lire.
05:37
And we'venous avons renderedrendus something
138
322000
2000
Et nous avons rendu quelque chose
05:39
illegibleillisible,
139
324000
2000
illisible.
05:41
and we'venous avons lostperdu the sensesens
140
326000
3000
Nous avons perdu le sens
05:44
of what's actuallyréellement happeningévénement
141
329000
2000
de ce qui se passe vraiment
05:46
in this worldmonde that we'venous avons madefabriqué.
142
331000
2000
dans le monde que nous avons fabriqué.
05:48
And we're startingdépart to make our way.
143
333000
2000
Et nous commençons à faire notre chemin.
05:50
There's a companycompagnie in BostonBoston calledappelé NanexNanex,
144
335000
3000
Il y a une compagnie à Boston qui s'appelle Nanex,
05:53
and they use mathmath and magicla magie
145
338000
2000
et ils utilisent les maths et la magie
05:55
and I don't know what,
146
340000
2000
et je ne sais pas quoi d'autre,
05:57
and they reachatteindre into all the marketmarché dataLes données
147
342000
2000
et ils vont chercher toutes les données du marché
05:59
and they find, actuallyréellement sometimesparfois, some of these algorithmsalgorithmes.
148
344000
3000
et ils trouvent, parfois, certains de ces algorithmes.
06:02
And when they find them they pulltirer them out
149
347000
3000
Et quand ils les trouvent, ils les extraient,
06:05
and they pinépingle them to the wallmur like butterfliespapillons.
150
350000
3000
et les épinglent au mur comme des papillons.
06:08
And they do what we'venous avons always doneterminé
151
353000
2000
Et ils font ce que nous avons toujours fait
06:10
when confrontedconfronté with hugeénorme amountsles montants of dataLes données that we don't understandcomprendre --
152
355000
3000
quand nous sommes confrontés à d'énormes quantités de données
06:13
whichlequel is that they give them a nameprénom
153
358000
2000
que nous ne comprenons pas, nous leur donnons un nom
06:15
and a storyrécit.
154
360000
2000
et une histoire.
06:17
So this is one that they founda trouvé,
155
362000
2000
En voici un qu'ils ont trouvé,
06:19
they calledappelé the KnifeCouteau,
156
364000
4000
ils l'ont appelé le Couteau,
06:23
the CarnivalCarnaval,
157
368000
2000
le Carnaval,
06:25
the BostonBoston ShufflerMélangeur de cartes,
158
370000
4000
le Jongleur,
06:29
TwilightTwilight.
159
374000
2000
Twilight.
06:31
And the gagGAG is
160
376000
2000
Et le gag c'est que
06:33
that, of coursecours, these aren'tne sont pas just runningfonctionnement throughpar the marketmarché.
161
378000
3000
bien sûr, ils ne se contentent pas de fonctionner pour le marché.
06:36
You can find these kindssortes of things whereverpartout où you look,
162
381000
3000
On trouve ce genre de trucs où qu'on regarde
06:39
onceune fois que you learnapprendre how to look for them.
163
384000
2000
une fois que vous savez comment les trouver.
06:41
You can find it here: this booklivre about fliesmouches
164
386000
3000
Vous voyez ça ici : ce livre sur les mouches
06:44
that you maymai have been looking at on AmazonAmazon.
165
389000
2000
que vous avez peut-être cherché sur Amazon.
06:46
You maymai have noticedremarqué it
166
391000
2000
Vous l'avez peut-être remarqué
06:48
when its priceprix startedcommencé at 1.7 millionmillion dollarsdollars.
167
393000
2000
quand son prix est monté à 1,7 millions de dollars.
06:50
It's out of printimpression -- still ...
168
395000
2000
Il est épuisé, pourtant ...
06:52
(LaughterRires)
169
397000
2000
(Rires)
06:54
If you had boughtacheté it at 1.7, it would have been a bargainbonne affaire.
170
399000
3000
Si vous l'aviez acheté à 1,7 millions, vous auriez fait une affaire.
06:57
A fewpeu hoursheures laterplus tard, it had gonedisparu up
171
402000
2000
Quelques heures plus tard, il était monté
06:59
to 23.6 millionmillion dollarsdollars,
172
404000
2000
à 23,6 millions de dollars,
07:01
plusplus shippinglivraison and handlingmanipulation.
173
406000
2000
plus le port et l'emballage.
07:03
And the questionquestion is:
174
408000
2000
Et la question est :
07:05
NobodyPersonne ne was buyingachat or sellingvente anything; what was happeningévénement?
175
410000
2000
Personne n'achetait ni ne vendait rien ; que se passait-il?
07:07
And you see this behaviorcomportement on AmazonAmazon
176
412000
2000
Et vous voyez ce comportement sur AMazon
07:09
as surelysûrement as you see it on WallMur StreetRue.
177
414000
2000
tout aussi surement que vous le voyez à Wall Street.
07:11
And when you see this kindgentil of behaviorcomportement,
178
416000
2000
Et quand vous voyez ce genre de comportement,
07:13
what you see is the evidencepreuve
179
418000
2000
ce que vous voyez c'est la preuve
07:15
of algorithmsalgorithmes in conflictconflit,
180
420000
2000
que des algorithmes sont en conflit,
07:17
algorithmsalgorithmes lockedfermé à clef in loopsboucles with eachchaque other,
181
422000
2000
des algorithmes pris mutuellement dans des boucles
07:19
withoutsans pour autant any humanHumain oversightcontrôle,
182
424000
2000
sans surveillance humaine,
07:21
withoutsans pour autant any adultadulte supervisionsupervision
183
426000
3000
sans supervision humaine,
07:24
to say, "ActuallyEn fait, 1.7 millionmillion is plentybeaucoup."
184
429000
3000
pour dire, "En fait, 1,7 million c'est beaucoup."
07:27
(LaughterRires)
185
432000
3000
(rires)
07:30
And as with AmazonAmazon, so it is with NetflixNetflix.
186
435000
3000
Il il est arrivé la même chose à Netflix qu'à Amazon.
07:33
And so NetflixNetflix has gonedisparu throughpar
187
438000
2000
Netflix a eu
07:35
severalnombreuses differentdifférent algorithmsalgorithmes over the yearsannées.
188
440000
2000
plusieurs algorithmes différents au fil du temps.
07:37
They startedcommencé with CinematchCinematch, and they'veils ont trieda essayé a bunchbouquet of othersautres --
189
442000
3000
Ils ont commencé avec Cinematch, et ils en ont essayé un tas d'autres.
07:40
there's DinosaurDinosaure PlanetPlanète; there's GravityGravité.
190
445000
2000
Dinausaur Planet, Gravity.
07:42
They're usingen utilisant PragmaticPragmatique ChaosChaos now.
191
447000
2000
A présent ils utilisent Pragmatic Chaos.
07:44
PragmaticPragmatique ChaosChaos is, like all of NetflixNetflix algorithmsalgorithmes,
192
449000
2000
Pragmatic Chaos, comme tous les algorithmes de Netflix,
07:46
tryingen essayant to do the sameMême thing.
193
451000
2000
essaye de faire la même chose :
07:48
It's tryingen essayant to get a graspsaisir on you,
194
453000
2000
Il essaye de vous mettre le grappin dessus,
07:50
on the firmwarefirmware insideà l'intérieur the humanHumain skullcrâne,
195
455000
2000
sur le firmware à l'intérieur du crâne humain,
07:52
so that it can recommendrecommander what moviefilm
196
457000
2000
pour vous recommander quel film
07:54
you mightpourrait want to watch nextprochain --
197
459000
2000
vous pourriez avoir envie de voir ensuite,
07:56
whichlequel is a very, very difficultdifficile problemproblème.
198
461000
3000
ce qui est un problème très, très difficile.
07:59
But the difficultydifficulté of the problemproblème
199
464000
2000
Mais la difficulté du problème
08:01
and the factfait that we don't really quiteassez have it down,
200
466000
3000
et le fait que nous ne nous ne l'avons pas vraiment cerné,
08:04
it doesn't take away
201
469000
2000
c'est qu'il n'enlève rien
08:06
from the effectseffets PragmaticPragmatique ChaosChaos has.
202
471000
2000
aux effets du Chaos Pragmatique
08:08
PragmaticPragmatique ChaosChaos, like all NetflixNetflix algorithmsalgorithmes,
203
473000
3000
Le Chaos Pragmatique, comme tous les algorithmes de Netflix,
08:11
determinesdétermine, in the endfin,
204
476000
2000
détermine, en fin de compte,
08:13
60 percentpour cent
205
478000
2000
60%
08:15
of what moviesfilms endfin up beingétant rentedloué.
206
480000
2000
des films qui seront effectivement loués.
08:17
So one piecepièce of codecode
207
482000
2000
Donc un bout de code
08:19
with one ideaidée about you
208
484000
3000
qui a une idée sur vous
08:22
is responsibleresponsable for 60 percentpour cent of those moviesfilms.
209
487000
3000
est responsable de 60 % de ces films.
08:25
But what if you could ratetaux those moviesfilms
210
490000
2000
Mais si vous pouviez évaluer ces films
08:27
before they get madefabriqué?
211
492000
2000
avant qu'ils ne soient tournés?
08:29
Wouldn'tNe serait pas that be handyportée de main?
212
494000
2000
Ce serait pratique, non?
08:31
Well, a fewpeu dataLes données scientistsscientifiques from the U.K. are in HollywoodHollywood,
213
496000
3000
Et bien, quelques spécialistes britanniques des données sont à Hollywood,
08:34
and they have "storyrécit algorithmsalgorithmes" --
214
499000
2000
et ils ont des algorithmes d'histoires,
08:36
a companycompagnie calledappelé EpagogixEpagogix.
215
501000
2000
une compagnie du nom d'Epagogix.
08:38
And you can runcourir your scriptscript throughpar there,
216
503000
3000
Et vous pouvez leur soumettre votre scénario,
08:41
and they can tell you, quantifiablyintelligible,
217
506000
2000
et ils peuvent vous dire,de façon quantifiable,
08:43
that that's a 30 millionmillion dollardollar moviefilm
218
508000
2000
que c'est un film à 30 millions de dollars
08:45
or a 200 millionmillion dollardollar moviefilm.
219
510000
2000
ou un film à 200 millions de dollars.
08:47
And the thing is, is that this isn't GoogleGoogle.
220
512000
2000
Et le truc, c'est que ce n'est pas Google.
08:49
This isn't informationinformation.
221
514000
2000
Ce n'est pas de l'information.
08:51
These aren'tne sont pas financialfinancier statsses stats; this is cultureCulture.
222
516000
2000
Ce ne sont pas des statistiques financières ; c'est de la culture.
08:53
And what you see here,
223
518000
2000
Et ce que vous voyez ici,
08:55
or what you don't really see normallynormalement,
224
520000
2000
ou, plutôt, ce que normalement vous ne voyez pas,
08:57
is that these are the physicsla physique of cultureCulture.
225
522000
4000
c'est qu'il s'agit de la physique de la culture.
09:01
And if these algorithmsalgorithmes,
226
526000
2000
Et si ces algorithmes,
09:03
like the algorithmsalgorithmes on WallMur StreetRue,
227
528000
2000
comme ceux de Wall Street,
09:05
just crashedécrasé one day and wentest allé awrymal tourné,
228
530000
3000
plantent un jour ou deviennent défaillants,
09:08
how would we know?
229
533000
2000
comment le saurons-nous,
09:10
What would it look like?
230
535000
2000
à quoi cela ressemblera-t-il?
09:12
And they're in your housemaison. They're in your housemaison.
231
537000
3000
Et ils sont dans vos maisons.
09:15
These are two algorithmsalgorithmes competingen compétition for your livingvivant roomchambre.
232
540000
2000
Voici deux algorithmes se disputant votre salon.
09:17
These are two differentdifférent cleaningnettoyage robotsdes robots
233
542000
2000
Ce sont deux robots nettoyeurs différents
09:19
that have very differentdifférent ideasidées about what cleannettoyer meansveux dire.
234
544000
3000
qui ont des idées différentes quant au nettoyage.
09:22
And you can see it
235
547000
2000
Et vous pouvez le voir
09:24
if you slowlent it down and attachattacher lightslumières to them,
236
549000
3000
si vous filmez en ralenti et que vous fixez des lumières dessus.
09:27
and they're sortTrier of like secretsecret architectsarchitectes in your bedroomchambre.
237
552000
3000
Ils sont en quelque sorte les architectes secrets de votre chambre à coucher.
09:30
And the ideaidée that architecturearchitecture itselfse
238
555000
3000
Et l'idée que l'architecture même
09:33
is somehowen quelque sorte subjectassujettir to algorithmicalgorithmique optimizationoptimisation
239
558000
2000
est d'une certaine façon sujette à optimisation algorithmique
09:35
is not far-fetchedfarfelu.
240
560000
2000
n'est pas si exagérée.
09:37
It's super-realSuper-real and it's happeningévénement around you.
241
562000
3000
Elle est très réelle et ça se passe autour de vous.
09:40
You feel it mostles plus
242
565000
2000
Vous le ressentez le plus
09:42
when you're in a sealedscellé metalmétal boxboîte,
243
567000
2000
quand vous êtes dans une boite en métal scellée,
09:44
a new-stylenouveau style elevatorascenseur;
244
569000
2000
un ascenseur moderne,
09:46
they're calledappelé destination-controldestination-contrôle elevatorsascenseurs.
245
571000
2000
on appelle ça des ascenseurs à système de contrôle de destination.
09:48
These are the onesceux where you have to presspresse what floorsol you're going to go to
246
573000
3000
Ce sont ceux où vous devez appuyer sur l'étage où vous allez
09:51
before you get in the elevatorascenseur.
247
576000
2000
avant d'entrer dans l'ascenseur.
09:53
And it usesles usages what's calledappelé a bin-packingemballage de casier algorithmalgorithme de.
248
578000
2000
Il utilise ce qu'on appelle un algorithme de conditionnement de boîtes.
09:55
So noneaucun of this mishegasmishegas
249
580000
2000
Donc rien d'insensé
09:57
of lettinglocation everybodyTout le monde go into whateverpeu importe carvoiture they want.
250
582000
2000
comme de laisser chacun entrer dans la cabine de son choix.
09:59
EverybodyTout le monde who wants to go to the 10thth floorsol goesva into carvoiture two,
251
584000
2000
Tous ceux qui veulent aller au 10ème étage montent dans la cabine numéro 2,
10:01
and everybodyTout le monde who wants to go to the thirdtroisième floorsol goesva into carvoiture fivecinq.
252
586000
3000
et tous ceux qui veulent aller au 3ème étage montent dans la cabine 5.
10:04
And the problemproblème with that
253
589000
2000
Et là, le problème est que
10:06
is that people freakFreak out.
254
591000
2000
les gens flippent.
10:08
People panicpanique.
255
593000
2000
Les gens paniquent.
10:10
And you see why. You see why.
256
595000
2000
Et vous voyez pourquoi.
10:12
It's because the elevatorascenseur
257
597000
2000
C'est parce qu'il manque à l'ascenseur
10:14
is missingmanquant some importantimportant instrumentationInstrumentation, like the buttonsboutons.
258
599000
3000
un équipement important, les boutons.
10:17
(LaughterRires)
259
602000
2000
(Rires)
10:19
Like the things that people use.
260
604000
2000
Le truc que les gens utilisent.
10:21
All it has
261
606000
2000
Tout ce qu'il possède,
10:23
is just the numbernombre that movesse déplace up or down
262
608000
3000
c'est le chiffre qui monte et qui descend
10:26
and that redrouge buttonbouton that saysdit, "Stop."
263
611000
3000
et ce bouton rouge marqué "Stop."
10:29
And this is what we're designingconception for.
264
614000
3000
Et c'est le but de notre travail de conception.
10:32
We're designingconception
265
617000
2000
Nous concevons
10:34
for this machinemachine dialectdialecte.
266
619000
2000
pour ce dialecte de machine.
10:36
And how farloin can you take that? How farloin can you take it?
267
621000
3000
Et jusqu'où peut-on aller? Jusqu'où peut-on pousser ça?
10:39
You can take it really, really farloin.
268
624000
2000
On peut aller très, très loin.
10:41
So let me take it back to WallMur StreetRue.
269
626000
3000
Alors permettez-moi de revenir à Wall Street.
10:45
Because the algorithmsalgorithmes of WallMur StreetRue
270
630000
2000
Parce que les algorithmes de Wall Street
10:47
are dependentdépendant on one qualityqualité aboveau dessus all elseautre,
271
632000
3000
dépendent d'une qualité par dessus tout,
10:50
whichlequel is speedla vitesse.
272
635000
2000
et c'est la vitesse.
10:52
And they operatefonctionner on millisecondsmillisecondes and microsecondsmicrosecondes.
273
637000
3000
Et ils opèrent à la milliseconde et à la microseconde.
10:55
And just to give you a sensesens of what microsecondsmicrosecondes are,
274
640000
2000
Et pour vous donner une idée de ce qu'est une microseconde,
10:57
it takes you 500,000 microsecondsmicrosecondes
275
642000
2000
il vous faut 500 000 microsecondes
10:59
just to clickCliquez a mouseSouris.
276
644000
2000
rien que pour cliquer sur une souris.
11:01
But if you're a WallMur StreetRue algorithmalgorithme de
277
646000
2000
Mais si vous êtes un algorithme de Wall Street
11:03
and you're fivecinq microsecondsmicrosecondes behindderrière,
278
648000
2000
et que vous avez 5 microsecondes de retard,
11:05
you're a loserperdant.
279
650000
2000
Vous êtes fini.
11:07
So if you were an algorithmalgorithme de,
280
652000
2000
Donc si vous étiez un algorithme,
11:09
you'dtu aurais look for an architectarchitecte like the one that I metrencontré in FrankfurtFrankfurt
281
654000
3000
vous chercheriez un architecte comme celui que j'ai rencontré à Francfort
11:12
who was hollowingévidement out a skyscrapergratte-ciel --
282
657000
2000
qui vidait un gratte-ciel,
11:14
throwinglancement out all the furnituremeubles, all the infrastructureInfrastructure for humanHumain use,
283
659000
3000
il jetait tous les meubles, toute l'infrastructure destinée à l'usage humain,
11:17
and just runningfonctionnement steelacier on the floorsétages
284
662000
3000
et ne mettait que de l'acier dans les étages
11:20
to get readyprêt for the stackspiles of serversles serveurs to go in --
285
665000
3000
pour préparer l'arrivée des serveurs à installer,
11:23
all so an algorithmalgorithme de
286
668000
2000
tout ça pour qu'un algorithme
11:25
could get closeFermer to the InternetInternet.
287
670000
3000
puisse se rapprocher d'internet.
11:28
And you think of the InternetInternet as this kindgentil of distributeddistribué systemsystème.
288
673000
3000
Et vous pensez qu'internet est une sorte de système décentralisé.
11:31
And of coursecours, it is, but it's distributeddistribué from placesdes endroits.
289
676000
3000
Et bien sûr, c'est le cas, mais il est décentralisé depuis des endroits précis.
11:34
In NewNouveau YorkYork, this is where it's distributeddistribué from:
290
679000
2000
A New York, voici d'où il est décentralisé :
11:36
the CarrierTransporteur HotelHôtel
291
681000
2000
le Carrier Hotel
11:38
locatedsitué on HudsonHudson StreetRue.
292
683000
2000
sur Hudson Street.
11:40
And this is really where the wiresfils come right up into the cityville.
293
685000
3000
Et c'est vraiment de là que les cables partent vers la ville.
11:43
And the realityréalité is that the furtherplus loin away you are from that,
294
688000
4000
Et la réalité est que plus vous vous en éloignez,
11:47
you're a fewpeu microsecondsmicrosecondes behindderrière everychaque time.
295
692000
2000
plus vous prenez des microsecondes de retard
11:49
These guys down on WallMur StreetRue,
296
694000
2000
Ces gars à Wall street,
11:51
MarcoMarco PoloPolo and CherokeeCherokee NationNation,
297
696000
2000
Marco Polo and Cherokee Nation,
11:53
they're eighthuit microsecondsmicrosecondes
298
698000
2000
ont 8 microsecondes de retard
11:55
behindderrière all these guys
299
700000
2000
sur tous ces gars-là
11:57
going into the emptyvide buildingsbâtiments beingétant hollowedévidés out
300
702000
4000
qui vont dans des immeubles qu'on vide
12:01
up around the CarrierTransporteur HotelHôtel.
301
706000
2000
autour du Carrier Hotel.
12:03
And that's going to keep happeningévénement.
302
708000
3000
Et ça va continuer comme ça.
12:06
We're going to keep hollowingévidement them out,
303
711000
2000
Nous allons continuer à les vider,
12:08
because you, inchpouce for inchpouce
304
713000
3000
parce que vous, centimètre pour centimètre,
12:11
and poundlivre for poundlivre and dollardollar for dollardollar,
305
716000
3000
livre pour livre, dollar pour dollar,
12:14
noneaucun of you could squeezeécraser revenuerevenu out of that spaceespace
306
719000
3000
aucun d'entre vous ne pourrait tirer un profit de cet espace
12:17
like the BostonBoston ShufflerMélangeur de cartes could.
307
722000
3000
comme le Jongleur peut le faire.
12:20
But if you zoomZoom out,
308
725000
2000
Mais si vous prenez du recul,
12:22
if you zoomZoom out,
309
727000
2000
si vous prenez du recul,
12:24
you would see an 825-mile-mile trenchtranchée
310
729000
4000
vous verrez une tranchée de 1 300 kilomètres
12:28
betweenentre NewNouveau YorkYork CityVille and ChicagoChicago
311
733000
2000
entre New York et Chicago
12:30
that's been builtconstruit over the last fewpeu yearsannées
312
735000
2000
construite ces dernières années
12:32
by a companycompagnie calledappelé SpreadPropagation NetworksRéseaux.
313
737000
3000
par une compagnie appelée Spread Networks.
12:35
This is a fiberfibre opticoptique cablecâble
314
740000
2000
C'est un câble de fibre optique
12:37
that was laidposé betweenentre those two citiesvilles
315
742000
2000
qui a été posé entre ces deux villes
12:39
to just be ablecapable to trafficcirculation one signalsignal
316
744000
3000
dans le seul but de faire passer un signal
12:42
37 timesfois fasterPlus vite than you can clickCliquez a mouseSouris --
317
747000
3000
37 fois plus vite qu'un clic de souris,
12:45
just for these algorithmsalgorithmes,
318
750000
3000
rien que pour ces algorithmes,
12:48
just for the CarnivalCarnaval and the KnifeCouteau.
319
753000
3000
Rien que pour le Carnaval et le Couteau.
12:51
And when you think about this,
320
756000
2000
Et quand vous y réfléchissez,
12:53
that we're runningfonctionnement throughpar the UnitedUnie StatesÉtats
321
758000
2000
que nous traversons les Etats-Unis
12:55
with dynamitedynamiter and rockRoche sawsscies
322
760000
3000
avec de la dynamite et des scies à roches
12:58
so that an algorithmalgorithme de can closeFermer the dealtraiter
323
763000
2000
pour qu'un algorithme puisse conclure un marché
13:00
threeTrois microsecondsmicrosecondes fasterPlus vite,
324
765000
3000
trois microseconde plus vite,
13:03
all for a communicationscommunications frameworkcadre
325
768000
2000
tout ça pour une structure de communication
13:05
that no humanHumain will ever know,
326
770000
4000
qu'aucun humain ne connaitra jamais,
13:09
that's a kindgentil of manifestmanifeste destinydestin;
327
774000
3000
qui est une sorte de destin manifeste
13:12
and we'llbien always look for a newNouveau frontierFrontier.
328
777000
3000
et qui cherchera toujours une nouvelle frontière.
13:15
UnfortunatelyMalheureusement, we have our work cutCouper out for us.
329
780000
3000
Malheureusement, nous avons du pain sur la planche.
13:18
This is just theoreticalthéorique.
330
783000
2000
Tout ça est théorique.
13:20
This is some mathematiciansmathématiciens at MITMIT.
331
785000
2000
Voici des mathématiciens du MIT.
13:22
And the truthvérité is I don't really understandcomprendre
332
787000
2000
Et la vérité est que une grande partie de ce qu'ils disent
13:24
a lot of what they're talkingparlant about.
333
789000
2000
est incompréhensible pour moi.
13:26
It involvesimplique lightlumière conescônes and quantumquantum entanglementintrication,
334
791000
3000
Ils parlent de cônes lumineux, de liaisons quantiques,
13:29
and I don't really understandcomprendre any of that.
335
794000
2000
et ce sont des choses que je ne comprend pas vraiment.
13:31
But I can readlis this mapcarte,
336
796000
2000
Mais je peux lire cette carte.
13:33
and what this mapcarte saysdit
337
798000
2000
Et ce que cette carte dit
13:35
is that, if you're tryingen essayant to make moneyargent on the marketsles marchés where the redrouge dotspoints are,
338
800000
3000
c'est que, si vous essayez de faire de l'argent sur ces marchés représentés par des points rouges,
13:38
that's where people are, where the citiesvilles are,
339
803000
2000
c'est là que sont les gens, que sont les villes,
13:40
you're going to have to put the serversles serveurs where the bluebleu dotspoints are
340
805000
3000
vous allez devoir mettre les serveurs là où il y a des points bleus
13:43
to do that mostles plus effectivelyefficacement.
341
808000
2000
pour avoir le maximum d'efficacité.
13:45
And the thing that you mightpourrait have noticedremarqué about those bluebleu dotspoints
342
810000
3000
Et ce que vous avez peut-être remarqué à propos de ces points bleus
13:48
is that a lot of them are in the middlemilieu of the oceanocéan.
343
813000
3000
c'est qu'il y en a beaucoup en plein océan.
13:51
So that's what we'llbien do: we'llbien buildconstruire bubblesbulles or something,
344
816000
3000
Alors voilà ce que nous allons faire, nous allons construire des bulles,
13:54
or platformsplateformes.
345
819000
2000
ou des plateformes,
13:56
We'llNous allons actuallyréellement partpartie the watereau
346
821000
2000
nous allons partager les eaux pour de bon
13:58
to pulltirer moneyargent out of the airair,
347
823000
2000
pour tirer de l'argent depuis l'air,
14:00
because it's a brightbrillant futureavenir
348
825000
2000
parce qu'il y a un avenir radieux
14:02
if you're an algorithmalgorithme de.
349
827000
2000
si vous êtes un algorithme.
14:04
(LaughterRires)
350
829000
2000
(Rires)
14:06
And it's not the moneyargent that's so interestingintéressant actuallyréellement.
351
831000
3000
Et ce n'est pas l'argent qui est si intéressant en fait.
14:09
It's what the moneyargent motivatesmotive,
352
834000
2000
C'est la motivation que l'argent amène.
14:11
that we're actuallyréellement terraformingterraformation
353
836000
2000
Le fait que nous transformons
14:13
the EarthTerre itselfse
354
838000
2000
la planète-même
14:15
with this kindgentil of algorithmicalgorithmique efficiencyEfficacité.
355
840000
2000
avec ce genre d'efficacité algorithmique.
14:17
And in that lightlumière,
356
842000
2000
Et sous cet éclairage,
14:19
you go back
357
844000
2000
vous retournez voir
14:21
and you look at MichaelMichael Najjar'sDe Najjar photographsphotographies,
358
846000
2000
les photos de Michael Najjar,
14:23
and you realizeprendre conscience de that they're not metaphormétaphore, they're prophecyprophétie.
359
848000
3000
et vous vous rendez compte qu'elles ne sont pas métaphoriques, elles sont prophétiques.
14:26
They're prophecyprophétie
360
851000
2000
Elles annoncent
14:28
for the kindgentil of seismicsismique, terrestrialterrestres effectseffets
361
853000
4000
les effets sismiques, les effets terrestres
14:32
of the mathmath that we're makingfabrication.
362
857000
2000
des mathématiques que nous construisons.
14:34
And the landscapepaysage was always madefabriqué
363
859000
3000
Et le paysage a toujours été façonné par
14:37
by this sortTrier of weirdbizarre, uneasymal à l’aise collaborationcollaboration
364
862000
3000
cette collaboration étrange et malaisée
14:40
betweenentre naturela nature and man.
365
865000
3000
entre la nature et l'homme.
14:43
But now there's this thirdtroisième co-evolutionaryCo-évolutionnaire forceObliger: algorithmsalgorithmes --
366
868000
3000
Mais maintenant il y a une troisième force co-évoutionnaire : les algorithmes,
14:46
the BostonBoston ShufflerMélangeur de cartes, the CarnivalCarnaval.
367
871000
3000
le Jongleur, le Carnaval.
14:49
And we will have to understandcomprendre those as naturela nature,
368
874000
3000
Et nous allons devoir les comprendre comme faisant partie de la nature.
14:52
and in a way, they are.
369
877000
2000
Et dans un sens, c'est vrai.
14:54
Thank you.
370
879000
2000
Merci.
14:56
(ApplauseApplaudissements)
371
881000
20000
(Applaudissements)
Translated by Elisabeth Buffard
Reviewed by Pascal Delamaire

▲Back to top

ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com