ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com
TEDGlobal 2011

Kevin Slavin: How algorithms shape our world

Kevin Slavin: Jak algorytmy kształtują nasz świat

Filmed:
4,199,898 views

Kevin Slavin uważa, że żyjemy w świecie zaprojektowanym i coraz bardziej kontrolowanym przez algorytmy. W tym fascynującym wykładzie z TEDGlobal, Slavin pokazuje w jakim stopniu te złożone programy komputerowe decydują o: szpiegostwie, kursie aukcji, scenariuszach filmowych i architekturze. Ostrzega też, że sami tworzymy kod, którego nie umiemy zrozumieć, wraz z następstwami, których nie możemy kontrolować.
- Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms. Full bio

Double-click the English transcript below to play the video.

00:15
This is a photographfotografia
0
0
2000
To jest zdjęcie
00:17
by the artistartysta MichaelMichael NajjarNajjar,
1
2000
2000
autorstwa Michaela Najjara
00:19
and it's realreal,
2
4000
2000
i jest prawdziwe
00:21
in the sensesens that he wentposzedł there to ArgentinaArgentyna
3
6000
2000
dlatego, że pojechał tam, do Argentyny
00:23
to take the photozdjęcie.
4
8000
2000
żeby je zrobić.
00:25
But it's alsorównież a fictionfikcja. There's a lot of work that wentposzedł into it after that.
5
10000
3000
Jednak jest to również fikcja. Zaraz po sesji, w to zdjęcie został włożony duży nakład pracy.
00:28
And what he's doneGotowe
6
13000
2000
On tak właściwie
00:30
is he's actuallytak właściwie reshapedzmiany kształtu, digitallycyfrowo,
7
15000
2000
przekształcił, cyfrowo,
00:32
all of the contourskontury of the mountainsgóry
8
17000
2000
wszystkie zarysy gór,
00:34
to followśledzić the vicissitudeskoleje losu of the DowDow JonesJones indexindeks.
9
19000
3000
by trzymać się zmiennych ze wskaźnika Dow Jonesa.
00:37
So what you see,
10
22000
2000
Tak więc to, co widzicie,
00:39
that precipiceprzepaść, that highwysoki precipiceprzepaść with the valleydolina,
11
24000
2000
to urwisko, to kolosalne urwisko z doliną
00:41
is the 2008 financialbudżetowy crisiskryzys.
12
26000
2000
to kryzys finansowy 2008 roku.
00:43
The photozdjęcie was madezrobiony
13
28000
2000
Zdjęcie zrobiono,
00:45
when we were deepgłęboki in the valleydolina over there.
14
30000
2000
kiedy byliśmy głęboko tam, w tej dolinie.
00:47
I don't know where we are now.
15
32000
2000
Nie wiem, gdzie jesteśmy teraz.
00:49
This is the HangZawiesić się SengSeng indexindeks
16
34000
2000
To jest indeks Hang Senga
00:51
for HongHong KongKong.
17
36000
2000
dla Hong Kongu.
00:53
And similarpodobny topographyTopografia.
18
38000
2000
Topografia jest podobna.
00:55
I wondercud why.
19
40000
2000
Zastanawiam się, dlaczego.
00:57
And this is artsztuka. This is metaphormetafora.
20
42000
3000
I to jest sztuka. To jest metafora.
01:00
But I think the pointpunkt is
21
45000
2000
Uważam jednak, że
01:02
that this is metaphormetafora with teethzęby,
22
47000
2000
jest to metafora z pazurem.
01:04
and it's with those teethzęby that I want to proposezaproponować todaydzisiaj
23
49000
3000
W związku z tym chciałbym zaproponować dzisiaj
01:07
that we rethinkprzemyśleć ponownie a little bitkawałek
24
52000
2000
żebyśmy choć trochę przemyśleli
01:09
about the rolerola of contemporarywspółczesny mathmatematyka --
25
54000
3000
rolę współczesnej matematyki -
01:12
not just financialbudżetowy mathmatematyka, but mathmatematyka in generalgenerał.
26
57000
3000
nie tylko tej finansowej, ale matematyki w ogóle.
01:15
That its transitionprzejście
27
60000
2000
To jest przejście
01:17
from beingistota something that we extractwyciąg and deriveczerpać from the worldświat
28
62000
3000
od bycia czymś, co wyciągamy i czerpiemy ze świata
01:20
to something that actuallytak właściwie startszaczyna się to shapekształt it --
29
65000
3000
do czegoś, co tak właściwie go kształtuje -
01:23
the worldświat around us and the worldświat insidewewnątrz us.
30
68000
3000
ten świat wokół nas i ten wewnątrz nas.
01:26
And it's specificallykonkretnie algorithmsalgorytmy,
31
71000
2000
I to właśnie algorytmy,
01:28
whichktóry are basicallygruntownie the mathmatematyka
32
73000
2000
które są w zasadzie matematyką,
01:30
that computerskomputery use to decidedecydować się stuffrzeczy.
33
75000
3000
używaną przez komputery do różnych rzeczy.
01:33
They acquirenabyć the sensibilitywrażliwość of truthprawda
34
78000
2000
Zdobywają możliwość wykrycia prawdy,
01:35
because they repeatpowtarzać over and over again,
35
80000
2000
bo powtarzają te czynności bezustannie.
01:37
and they ossifyskostnieć and calcifyzwapnieniu,
36
82000
3000
W końcu zastygają i wapnieją
01:40
and they becomestają się realreal.
37
85000
2000
i stają się prawdziwe.
01:42
And I was thinkingmyślący about this, of all placesmiejsca,
38
87000
3000
Myślałem o tym akurat
01:45
on a transatlantictransatlantyckie flightlot a couplepara of yearslat agotemu,
39
90000
3000
parę lat temu podczas lotu przez Atlantyk,
01:48
because I happenedstało się to be seatedsiedzi
40
93000
2000
ponieważ miałem okazję wtedy siedzieć
01:50
nextNastępny to a HungarianWęgierski physicistfizyk about my agewiek
41
95000
2000
obok węgierskiego fizyka mniej więcej w moim wieku;
01:52
and we were talkingmówić
42
97000
2000
i rozmawialiśmy o tym,
01:54
about what life was like duringpodczas the ColdZimno WarWojny
43
99000
2000
jak podczas Zimnej Wojny wyglądało życie
01:56
for physicistsfizycy in HungaryWęgry.
44
101000
2000
dla fizyków z Węgier.
01:58
And I said, "So what were you doing?"
45
103000
2000
No i spytałem: "Co wtedy robiłeś?"
02:00
And he said, "Well we were mostlyprzeważnie breakingłamanie stealthStealth."
46
105000
2000
A on odpowiedział: "Cóż, głównie łamaliśmy technikę stealth."
02:02
And I said, "That's a good jobpraca. That's interestingciekawy.
47
107000
2000
Odrzekłem: "To dobra praca. Interesująca.
02:04
How does that work?"
48
109000
2000
Jak to działa?"
02:06
And to understandzrozumieć that,
49
111000
2000
I żeby to zrozumieć,
02:08
you have to understandzrozumieć a little bitkawałek about how stealthStealth worksPrace.
50
113000
3000
najpierw trzeba pojąć, jak działa ta technika.
02:11
And so -- this is an over-simplificationzbytnie uproszczenie --
51
116000
3000
Tak więc, to jest znaczne uproszczenie,
02:14
but basicallygruntownie, it's not like
52
119000
2000
ale generalnie: to nie jest tak,
02:16
you can just passprzechodzić a radarradar signalsygnał
53
121000
2000
że sygnał radaru zostaje przepuszczony
02:18
right throughprzez 156 tonsmnóstwo of steelstal in the skyniebo.
54
123000
3000
przez 156 ton latającej stali.
02:21
It's not just going to disappearznikać.
55
126000
3000
Nie może zniknąć od tak.
02:24
But if you can take this bigduży, massivemasywny thing,
56
129000
3000
Ale jeśliby wziąć ten wielki, masywny obiekt
02:27
and you could turnskręcać it into
57
132000
3000
i zamienić go w
02:30
a millionmilion little things --
58
135000
2000
tysiące małych obiektów,
02:32
something like a flockstado of birdsptaki --
59
137000
2000
w coś na kształt stada ptaków,
02:34
well then the radarradar that's looking for that
60
139000
2000
to wtedy ten radar, szukający dużego obiektu
02:36
has to be ablezdolny to see
61
141000
2000
musiałby posiadać zdolność wykrycia
02:38
everykażdy flockstado of birdsptaki in the skyniebo.
62
143000
2000
każdego wędrującego stada ptaków.
02:40
And if you're a radarradar, that's a really badzły jobpraca.
63
145000
4000
I jeśli jesteś radarem, to bardzo niefortunne zajęcie,.
02:44
And he said, "Yeah." He said, "But that's if you're a radarradar.
64
149000
3000
On na to: "Tak." Po czym dodał: "Ale tylko jeśli jesteś radarem.
02:47
So we didn't use a radarradar;
65
152000
2000
Tak więc nie użyliśmy radaru;
02:49
we builtwybudowany a blackczarny boxpudełko that was looking for electricalelektryczny signalssygnały,
66
154000
3000
skonstruowaliśmy czarną skrzynkę, która miała wyszukiwać sygnały elektryczne,
02:52
electronicelektroniczny communicationkomunikacja.
67
157000
3000
elektroniczną komunikację.
02:55
And wheneverkiedy tylko we saw a flockstado of birdsptaki that had electronicelektroniczny communicationkomunikacja,
68
160000
3000
I za każdym razem, kiedy widzieliśmy stado ptaków, które posługiwało się taką komunikacją,
02:58
we thought, 'Probably' Chyba has something to do with the AmericansAmerykanie.'"
69
163000
3000
myśleliśmy, że ma to coś wspólnego z Amerykanami."
03:01
And I said, "Yeah.
70
166000
2000
Odpowiedziałem: "Tak.
03:03
That's good.
71
168000
2000
To dobrze.
03:05
So you've effectivelyfaktycznie negatedzanegowane
72
170000
2000
Udało się wam skutecznie podważyć
03:07
60 yearslat of aeronauticAeronautic researchBadania.
73
172000
2000
60 lat spędzonych na badaniach aeronautycznych.
03:09
What's your actdziałać two?
74
174000
2000
A co dalej?
03:11
What do you do when you growrosnąć up?"
75
176000
2000
Co robisz teraz?"
03:13
And he said,
76
178000
2000
Odpowiedział:
03:15
"Well, financialbudżetowy servicesusługi."
77
180000
2000
"Pracuję w usługach finansowych."
03:17
And I said, "Oh."
78
182000
2000
A ja na to: 'O!"
03:19
Because those had been in the newsAktualności latelyostatnio.
79
184000
3000
Ostatnio w mediach było o nich głośno.
03:22
And I said, "How does that work?"
80
187000
2000
Spytałem więc: "A jak to działa?"
03:24
And he said, "Well there's 2,000 physicistsfizycy on WallŚciana StreetUlica now,
81
189000
2000
Odpowiedział: "No więc, na Wall Street jest teraz 2000 fizyków,
03:26
and I'm one of them."
82
191000
2000
i ja jestem jednym z nich."
03:28
And I said, "What's the blackczarny boxpudełko for WallŚciana StreetUlica?"
83
193000
3000
Spytałem: "Po co czarna skrzynka na Wall Street?"
03:31
And he said, "It's funnyzabawny you askzapytać that,
84
196000
2000
A on odpowiedział: "Zabawne, że o to pytasz,
03:33
because it's actuallytak właściwie callednazywa blackczarny boxpudełko tradinghandlowy.
85
198000
3000
bo tak właściwie to się nazywa "handel czarnymi skrzynkami".
03:36
And it's alsorównież sometimesczasami callednazywa algoAlgo tradinghandlowy,
86
201000
2000
Czasem mówi się na to "handel algo"
03:38
algorithmicalgorytmicznych tradinghandlowy."
87
203000
3000
lub "handel algorytmiczny".
03:41
And algorithmicalgorytmicznych tradinghandlowy evolvedewoluował in partczęść
88
206000
3000
Handel algorytmiczny rozwinął się tylko po części,
03:44
because institutionalinstytucjonalny tradershandlowcy have the samepodobnie problemsproblemy
89
209000
3000
ponieważ inwestorzy instytucjonalni borykają się z tymi samymi problemami,
03:47
that the UnitedStany Zjednoczone StatesPaństwa AirPowietrza ForceŻycie had,
90
212000
3000
z którymi kiedyś borykały się Siły Powietrze Stanów Zjednoczonych,
03:50
whichktóry is that they're movingw ruchu these positionspozycje --
91
215000
3000
czyli - przesuwają one swoje pozycje,
03:53
whetherczy it's ProctorProctor & GambleGamble or AccentureAccenture, whatevercokolwiek --
92
218000
2000
bez znaczenia, czy dotyczy to przedsiębiorstwa P&G czy Accenture,
03:55
they're movingw ruchu a millionmilion sharesAkcje of something
93
220000
2000
wprowadzają oni tysiące części czegoś
03:57
throughprzez the marketrynek.
94
222000
2000
poprzez rynek.
03:59
And if they do that all at oncepewnego razu,
95
224000
2000
I jeśli robią to wszystko naraz,
04:01
it's like playinggra pokerPoker and going all in right away.
96
226000
2000
to tak jakby już na samym początku gry w pokera szli na całość.
04:03
You just tipWskazówka your handdłoń.
97
228000
2000
Jakby dokładnie pokazywali, co zamierzają.
04:05
And so they have to find a way --
98
230000
2000
Tak więc muszą znaleźć jakiś sposób --
04:07
and they use algorithmsalgorytmy to do this --
99
232000
2000
używają do tego algorytmów --
04:09
to breakprzerwa up that bigduży thing
100
234000
2000
do tego, by tą jedną, wielką rzecz
04:11
into a millionmilion little transactionstransakcje.
101
236000
2000
rozbić na tysiące małych transakcji.
04:13
And the magicmagia and the horrorprzerażenie of that
102
238000
2000
Przeraża i fascynuje jednak fakt, że
04:15
is that the samepodobnie mathmatematyka
103
240000
2000
to ta sama matematyka, która
04:17
that you use to breakprzerwa up the bigduży thing
104
242000
2000
może rozbić jedną wielką rzecz
04:19
into a millionmilion little things
105
244000
2000
na tysiące małych rzeczy,
04:21
can be used to find a millionmilion little things
106
246000
2000
może być wykorzystana do odnalezienia tych małych rzeczy
04:23
and sewszyć them back togetherRazem
107
248000
2000
i poskładania ich z powrotem
04:25
and figurepostać out what's actuallytak właściwie happeningwydarzenie in the marketrynek.
108
250000
2000
w celu odkrycia tego, co tak właściwie dzieje się na rynku.
04:27
So if you need to have some imageobraz
109
252000
2000
Więc jeśliby zobrazować to,
04:29
of what's happeningwydarzenie in the stockZbiory marketrynek right now,
110
254000
3000
co właśnie dzieje się na giełdzie papierów wartościowych,
04:32
what you can pictureobrazek is a bunchwiązka of algorithmsalgorytmy
111
257000
2000
to zobaczy się grupę algorytmów,
04:34
that are basicallygruntownie programmedzaprogramowany to hideukryć,
112
259000
3000
które tak właściwie zaprogramowano do tego, by się chowały
04:37
and a bunchwiązka of algorithmsalgorytmy that are programmedzaprogramowany to go find them and actdziałać.
113
262000
3000
oraz grupę algorytmów zaprogramowanych do znalezienia tamtych i do podjęcia działań.
04:40
And all of that's great, and it's fine.
114
265000
3000
I wszystko jest fajne i super.
04:43
And that's 70 percentprocent
115
268000
2000
To jest właśnie 70 procent
04:45
of the UnitedStany Zjednoczone StatesPaństwa stockZbiory marketrynek,
116
270000
2000
giełdy Stanów Zjednoczonych,
04:47
70 percentprocent of the operatingoperacyjny systemsystem
117
272000
2000
70 procent system operacyjnego,
04:49
formerlydawniej knownznany as your pensionPension,
118
274000
3000
wcześniej znanego jako wasza renta,
04:52
your mortgagehipoteka.
119
277000
3000
wasza emerytura.
04:55
And what could go wrongźle?
120
280000
2000
I co mogło pójść źle?
04:57
What could go wrongźle
121
282000
2000
A to, że
04:59
is that a yearrok agotemu,
122
284000
2000
rok temu
05:01
ninedziewięć percentprocent of the entireCały marketrynek just disappearsznika in fivepięć minutesminuty,
123
286000
3000
dziewięć procent całego rynku po prostu zniknęło w ciągu pięciu minut,
05:04
and they callednazywa it the FlashFlash CrashAwaria of 2:45.
124
289000
3000
i to pięć minut przeszło do historii jako flash crash 14.45.
05:07
All of a suddennagły, ninedziewięć percentprocent just goesidzie away,
125
292000
3000
Ni stąd, ni zowąd, dziewięć procent po prostu sobie znika
05:10
and nobodynikt to this day
126
295000
2000
i nikt po dziś dzień
05:12
can even agreeZgodzić się on what happenedstało się
127
297000
2000
nie może ustalić, co się stało,
05:14
because nobodynikt orderedzamówione it, nobodynikt askedspytał for it.
128
299000
3000
ponieważ nikt tego nie zlecił, nikt o to nie prosił.
05:17
NobodyNikt nie had any controlkontrola over what was actuallytak właściwie happeningwydarzenie.
129
302000
3000
Nikt nie miał kontroli nad tym, co się działo.
05:20
All they had
130
305000
2000
Jedyne, co było do dyspozycji
05:22
was just a monitormonitor in frontz przodu of them
131
307000
2000
to monitor,
05:24
that had the numbersliczby on it
132
309000
2000
pełen cyfr
05:26
and just a redczerwony buttonprzycisk
133
311000
2000
i do tego czerwony guzik
05:28
that said, "Stop."
134
313000
2000
z napisem "Stop".
05:30
And that's the thing,
135
315000
2000
I o to chodzi;
05:32
is that we're writingpisanie things,
136
317000
2000
piszemy różne rzeczy,
05:34
we're writingpisanie these things that we can no longerdłużej readczytać.
137
319000
3000
rzeczy, których nie jesteśmy w stanie odczytać.
05:37
And we'vemamy renderedrenderowane something
138
322000
2000
Stworzyliśmy coś
05:39
illegiblenieczytelne,
139
324000
2000
niezrozumiałego.
05:41
and we'vemamy lostStracony the sensesens
140
326000
3000
I straciliśmy poczucie,
05:44
of what's actuallytak właściwie happeningwydarzenie
141
329000
2000
co się dzieje
05:46
in this worldświat that we'vemamy madezrobiony.
142
331000
2000
w świecie, który sami stworzyliśmy.
05:48
And we're startingstartowy to make our way.
143
333000
2000
Ale zaczynamy odnosić sukces.
05:50
There's a companyfirma in BostonBoston callednazywa NanexNanex,
144
335000
3000
W Bostonie jest taka firma, Nanex,
05:53
and they use mathmatematyka and magicmagia
145
338000
2000
w której, przy użyciu matematyki i magii,
05:55
and I don't know what,
146
340000
2000
i nie wiem, czego jeszcze,
05:57
and they reachdosięgnąć into all the marketrynek datadane
147
342000
2000
można dostać się do wszystkich danych rynkowych
05:59
and they find, actuallytak właściwie sometimesczasami, some of these algorithmsalgorytmy.
148
344000
3000
i czasem nawet znaleźć część tych algorytmów.
06:02
And when they find them they pullCiągnąć them out
149
347000
3000
Po ich znalezieniu, są one wyciągane
06:05
and they pinkołek them to the wallŚciana like butterfliesmotyle.
150
350000
3000
i przypinane do ściany, zupełnie jak motyle.
06:08
And they do what we'vemamy always doneGotowe
151
353000
2000
I robi się z nimi to, co my zawsze robiliśmy,
06:10
when confrontedkonfrontowany with hugeolbrzymi amountskwoty of datadane that we don't understandzrozumieć --
152
355000
3000
kiedy natykaliśmy się na ogromne ilości danych, których nie rozumieliśmy --
06:13
whichktóry is that they give them a nameNazwa
153
358000
2000
czyli nadaje się im imiona
06:15
and a storyfabuła.
154
360000
2000
i tworzy historię.
06:17
So this is one that they founduznany,
155
362000
2000
Tak więc tego tutaj
06:19
they callednazywa the KnifeNóż,
156
364000
4000
nazwali "Nożem",
06:23
the CarnivalKarnawał,
157
368000
2000
"Maskaradą",
06:25
the BostonBoston ShufflerKrętacz,
158
370000
4000
"Żonglerem Bostońskim",
06:29
TwilightZmierzch.
159
374000
2000
"Zmierzchem".
06:31
And the gaggag is
160
376000
2000
I najlepsze jest to, że
06:33
that, of coursekurs, these aren'tnie są just runningbieganie throughprzez the marketrynek.
161
378000
3000
one od tak nie śmigają sobie po rynku.
06:36
You can find these kindsrodzaje of things wherevergdziekolwiek you look,
162
381000
3000
Można je znaleźć wszędzie, gdzie się spojrzy,
06:39
oncepewnego razu you learnuczyć się how to look for them.
163
384000
2000
jeśli tylko wie się, w jaki sposób ich szukać.
06:41
You can find it here: this bookksiążka about fliesmuchy
164
386000
3000
Na przykład tutaj: w tej książce o muchach,
06:44
that you maymoże have been looking at on AmazonAmazon.
165
389000
2000
którą mogliście przeglądać na Amazonie.
06:46
You maymoże have noticedzauważyłem it
166
391000
2000
Może i zauważyliście,
06:48
when its pricecena startedRozpoczęty at 1.7 millionmilion dollarsdolarów.
167
393000
2000
że jej cena wynosiła około 1,7 miliona dolarów.
06:50
It's out of printwydrukować -- still ...
168
395000
2000
Nakład się wyczerpał, jednak wciąż…
06:52
(LaughterŚmiech)
169
397000
2000
(Śmiech)
06:54
If you had boughtkupiony it at 1.7, it would have been a bargainokazja.
170
399000
3000
Jeśli kupilibyście ją, kiedy kosztowała 1,7, to byłby to niezły utarg.
06:57
A fewkilka hoursgodziny laterpóźniej, it had goneodszedł up
171
402000
2000
Parę godzin później, jej cena wzrosła
06:59
to 23.6 millionmilion dollarsdolarów,
172
404000
2000
do 23,6 milionów dolarów,
07:01
plusplus shippingWysyłka  and handlingobsługa.
173
406000
2000
łącznie z dostawami.
07:03
And the questionpytanie is:
174
408000
2000
I pytanie jest takie:
07:05
NobodyNikt nie was buyingkupowanie or sellingsprzedawanie anything; what was happeningwydarzenie?
175
410000
2000
Nikt niczego nie sprzedawał ani nie kupował; więc co się stało?
07:07
And you see this behaviorzachowanie on AmazonAmazon
176
412000
2000
Z takimi sytuacjami można się spotkać na Amazonie,
07:09
as surelypewno as you see it on WallŚciana StreetUlica.
177
414000
2000
jak i również na Wall Street.
07:11
And when you see this kinduprzejmy of behaviorzachowanie,
178
416000
2000
A kiedy spotykamy się z taką sytuacją,
07:13
what you see is the evidencedowód
179
418000
2000
kiedy spotykamy się z dowodem
07:15
of algorithmsalgorytmy in conflictkonflikt,
180
420000
2000
na walkę algorytmów,
07:17
algorithmsalgorytmy lockedzablokowany in loopspętle with eachkażdy other,
181
422000
2000
uwięzionych i splątanych ze sobą,
07:19
withoutbez any humanczłowiek oversightnadzoru,
182
424000
2000
pozbawionych jakiegokolwiek nadzoru człowieka,
07:21
withoutbez any adultdorosły supervisionnadzoru
183
426000
3000
bez jakiejkolwiek kontroli dorosłych,
07:24
to say, "ActuallyFaktycznie, 1.7 millionmilion is plentydużo."
184
429000
3000
którzy mogliby stwierdzić: "Właściwie, 1.7 wystarczy".
07:27
(LaughterŚmiech)
185
432000
3000
(Śmiech)
07:30
And as with AmazonAmazon, so it is with NetflixNetflix.
186
435000
3000
Podobnie jak z Amazonem, było i z Netflixem.
07:33
And so NetflixNetflix has goneodszedł throughprzez
187
438000
2000
Netflix przeczesał
07:35
severalkilka differentróżne algorithmsalgorytmy over the yearslat.
188
440000
2000
kilka różnych algorytmów w ciągu paru lat.
07:37
They startedRozpoczęty with CinematchCinematch, and they'veoni triedwypróbowany a bunchwiązka of othersinni --
189
442000
3000
Zaczęło się od Cinematch'u, potem przyszła kolej na resztę.
07:40
there's DinosaurDinozaur PlanetPlaneta; there's GravityGrawitacja.
190
445000
2000
Jest przecież Dinosaur Planet i Gravity.
07:42
They're usingza pomocą PragmaticPragmatyczne ChaosChaos now.
191
447000
2000
Teraz używają Pragmatic Chaos.
07:44
PragmaticPragmatyczne ChaosChaos is, like all of NetflixNetflix algorithmsalgorytmy,
192
449000
2000
Pragmatic Chaos, tak jak wszystkie algorytmy Netflixu,
07:46
tryingpróbować to do the samepodobnie thing.
193
451000
2000
stara się zrobić to samo.
07:48
It's tryingpróbować to get a graspchwycić on you,
194
453000
2000
Chce wami zawładnąć
07:50
on the firmwareoprogramowanie układowe insidewewnątrz the humanczłowiek skullczaszka,
195
455000
2000
objąć panowanie nad oprogramowaniem sterującym człowiekiem,
07:52
so that it can recommendpolecić what moviefilm
196
457000
2000
by w ten sposób polecić jaki film
07:54
you mightmoc want to watch nextNastępny --
197
459000
2000
chcielibyście znów obejrzeć--
07:56
whichktóry is a very, very difficulttrudny problemproblem.
198
461000
3000
co stanowi naprawdę, naprawdę poważny problem.
07:59
But the difficultytrudność of the problemproblem
199
464000
2000
Jednak powaga problemu
08:01
and the factfakt that we don't really quitecałkiem have it down,
200
466000
3000
i fakt, że jeszcze go nie rozgryźliśmy,
08:04
it doesn't take away
201
469000
2000
nie może zmienić
08:06
from the effectsruchomości PragmaticPragmatyczne ChaosChaos has.
202
471000
2000
skutków, jakie Pragmatic Chaos powoduje.
08:08
PragmaticPragmatyczne ChaosChaos, like all NetflixNetflix algorithmsalgorytmy,
203
473000
3000
Pragmatic Chaos, tak jak wszystkie algorytmy Netflixu
08:11
determinesokreśla, in the endkoniec,
204
476000
2000
w końcu określa
08:13
60 percentprocent
205
478000
2000
60 procent
08:15
of what movieskino endkoniec up beingistota rentedwynajęty.
206
480000
2000
filmów, które mają zostać wypożyczone.
08:17
So one piecekawałek of codekod
207
482000
2000
Tak więc jedna część kodu
08:19
with one ideapomysł about you
208
484000
3000
połączona z jedną informacją na temat was,
08:22
is responsibleodpowiedzialny for 60 percentprocent of those movieskino.
209
487000
3000
jest odpowiedzialna za 60 procent tych filmów.
08:25
But what if you could rateoceniać those movieskino
210
490000
2000
Jednak co by było, gdyby można było ocenić te filmy,
08:27
before they get madezrobiony?
211
492000
2000
przed ich realizacją?
08:29
Wouldn'tNie that be handypod ręką?
212
494000
2000
Nie byłoby to na rękę?
08:31
Well, a fewkilka datadane scientistsnaukowcy from the U.K. are in HollywoodHollywood,
213
496000
3000
Cóż, kilka naukowców z Wielkiej Brytanii, którzy są teraz w Hollywood
08:34
and they have "storyfabuła algorithmsalgorytmy" --
214
499000
2000
ma swoje bajkowe algorytmy -
08:36
a companyfirma callednazywa EpagogixEpagogix.
215
501000
2000
firmę nazwaną Epagogix.
08:38
And you can runbiegać your scriptskrypt throughprzez there,
216
503000
3000
Można tam posłać skrypt filmu,
08:41
and they can tell you, quantifiablyzawierać,
217
506000
2000
i dowiedzieć się, czy
08:43
that that's a 30 millionmilion dollardolar moviefilm
218
508000
2000
czy będzie to film wart 30 milionów dolarów
08:45
or a 200 millionmilion dollardolar moviefilm.
219
510000
2000
czy 200 milionów.
08:47
And the thing is, is that this isn't GoogleGoogle.
220
512000
2000
A chodzi o to, że to nie Google.
08:49
This isn't informationInformacja.
221
514000
2000
To nie informacje.
08:51
These aren'tnie są financialbudżetowy statsStatystyki; this is culturekultura.
222
516000
2000
Nie są to też statystyki finansowe; to jest kultura.
08:53
And what you see here,
223
518000
2000
Tym, co można tu zauważyć,
08:55
or what you don't really see normallynormalnie,
224
520000
2000
albo to, czego normalnie nie można,
08:57
is that these are the physicsfizyka of culturekultura.
225
522000
4000
to fakt że jest to fizyka kultury.
09:01
And if these algorithmsalgorytmy,
226
526000
2000
A jeśli te algorytmy,
09:03
like the algorithmsalgorytmy on WallŚciana StreetUlica,
227
528000
2000
tak jak algorytmy na Wall Street
09:05
just crashedrozbił się one day and wentposzedł awrykrzywo,
228
530000
3000
pewnego dnia po prostu zderzą się ze sobą i oszaleją,
09:08
how would we know?
229
533000
2000
skąd będziemy wiedzieć,
09:10
What would it look like?
230
535000
2000
jak to będzie wyglądało?
09:12
And they're in your housedom. They're in your housedom.
231
537000
3000
A one są w waszych domach. Są w waszych domach.
09:15
These are two algorithmsalgorytmy competingkonkurowanie for your livingżycie roompokój.
232
540000
2000
To są dwa algorytmy, które biją się o miejsce w waszych salonach.
09:17
These are two differentróżne cleaningczyszczenie robotsroboty
233
542000
2000
To są dwa różne roboty sprzątające,
09:19
that have very differentróżne ideaspomysły about what cleanczysty meansznaczy.
234
544000
3000
które mają zupełnie odmienne pojęcia czystości.
09:22
And you can see it
235
547000
2000
Można to zaobserwować,
09:24
if you slowpowolny it down and attachdołączać lightsświatła to them,
236
549000
3000
jeśli się je zwolni i przyczepi się do nich światło.
09:27
and they're sortsortować of like secretsekret architectsarchitekci in your bedroomsypialnia.
237
552000
3000
Są czymś w rodzaju ukrytych architektów w waszych sypialniach.
09:30
And the ideapomysł that architecturearchitektura itselfsamo
238
555000
3000
A pomysł, że sama architektura
09:33
is somehowjakoś subjectPrzedmiot to algorithmicalgorytmicznych optimizationOptymalizacja
239
558000
2000
w jakimś stopniu podlega algorytmicznej optymalizacji
09:35
is not far-fetcheddaleko idące.
240
560000
2000
nie jest naciągany.
09:37
It's super-realSuper-real and it's happeningwydarzenie around you.
241
562000
3000
Jest bardzo realny i do tego jest wokół was.
09:40
You feel it mostwiększość
242
565000
2000
Czujecie to najmocniej,
09:42
when you're in a sealeduszczelnione metalmetal boxpudełko,
243
567000
2000
kiedy znajdujecie się w zapieczętowanym metalowym pudle,
09:44
a new-styleNowy styl elevatorwinda;
244
569000
2000
czyli w nowoczesnej windzie,
09:46
they're callednazywa destination-controlcel control elevatorswindy.
245
571000
2000
którą nazywa się windami docelowymi.
09:48
These are the oneste where you have to pressnaciśnij what floorpiętro you're going to go to
246
573000
3000
To taki typ windy, w którym trzeba wybrać piętro, na które się wybiera
09:51
before you get in the elevatorwinda.
247
576000
2000
jeszcze zanim wsiądzie się do windy.
09:53
And it usesużywa what's callednazywa a bin-packingbin pakowanie algorithmalgorytm.
248
578000
2000
System używa algorytmu pakowania.
09:55
So noneŻaden of this mishegasmishegas
249
580000
2000
Tak więc nie ma wariactw
09:57
of lettingpuszczanie everybodywszyscy go into whatevercokolwiek carsamochód they want.
250
582000
2000
z wchodzeniem pasażerów do jakiejkolwiek windy by chcieli.
09:59
EverybodyKażdy who wants to go to the 10thth floorpiętro goesidzie into carsamochód two,
251
584000
2000
Wszyscy, którzy chcą dojechać na 10. piętro korzystają z windy nr 2,
10:01
and everybodywszyscy who wants to go to the thirdtrzeci floorpiętro goesidzie into carsamochód fivepięć.
252
586000
3000
a wszyscy, którzy chcą się dostać na piętro 3. jadą windą nr 5.
10:04
And the problemproblem with that
253
589000
2000
Problem w tym,
10:06
is that people freakwybryk out.
254
591000
2000
że ludzie wariują.
10:08
People panicpaniki.
255
593000
2000
Ludzie panikują.
10:10
And you see why. You see why.
256
595000
2000
I widzicie dlaczego. Widzicie dlaczego.
10:12
It's because the elevatorwinda
257
597000
2000
To dlatego, że w windzie
10:14
is missingbrakujący some importantważny instrumentationInstrumentacja, like the buttonsguziki.
258
599000
3000
brakuje pewnych ważnych instrumentów, na przykład przycisków.
10:17
(LaughterŚmiech)
259
602000
2000
(Śmiech)
10:19
Like the things that people use.
260
604000
2000
Czyli rzeczy, których ludzie używają.
10:21
All it has
261
606000
2000
Jest tu jedynie
10:23
is just the numbernumer that movesporusza się up or down
262
608000
3000
liczba, która przesuwa się w górę lub w dół
10:26
and that redczerwony buttonprzycisk that saysmówi, "Stop."
263
611000
3000
i czerwony guzik z napisem “Stop”.
10:29
And this is what we're designingprojektowanie for.
264
614000
3000
My projektujemy właśnie w tym celu.
10:32
We're designingprojektowanie
265
617000
2000
Projektujemy
10:34
for this machinemaszyna dialectdialekt.
266
619000
2000
zgodnie z językiem maszyny.
10:36
And how fardaleko can you take that? How fardaleko can you take it?
267
621000
3000
I jak daleko można z tym dojść? Jak daleko?
10:39
You can take it really, really fardaleko.
268
624000
2000
Można dojść bardzo, bardzo daleko.
10:41
So let me take it back to WallŚciana StreetUlica.
269
626000
3000
Wróćmy więc na Wall Street.
10:45
Because the algorithmsalgorytmy of WallŚciana StreetUlica
270
630000
2000
Z tego względu, że algorytmy na Wall Street
10:47
are dependentzależny on one qualityjakość abovepowyżej all elsejeszcze,
271
632000
3000
podlegają przede wszystkim jednej właściwości -
10:50
whichktóry is speedprędkość.
272
635000
2000
czyli szybkości.
10:52
And they operatedziałać on millisecondsmilisekund and microsecondsmikrosekundach.
273
637000
3000
Działają w ciągu milisekund i mikrosekund.
10:55
And just to give you a sensesens of what microsecondsmikrosekundach are,
274
640000
2000
A żeby przybliżyć pojęcie mikrosekundy,
10:57
it takes you 500,000 microsecondsmikrosekundach
275
642000
2000
500 tysięcy mikrosekund
10:59
just to clickKliknij a mousemysz.
276
644000
2000
równa się jednemu kliknięciu myszą.
11:01
But if you're a WallŚciana StreetUlica algorithmalgorytm
277
646000
2000
Jednak jeśli jest się algorytmem na Wall Street
11:03
and you're fivepięć microsecondsmikrosekundach behindza,
278
648000
2000
który jest pięć mikrosekund w tyle,
11:05
you're a loserprzegrany.
279
650000
2000
to znaczy, że jest się przegranym.
11:07
So if you were an algorithmalgorytm,
280
652000
2000
Więc jeśli bylibyście algorytmem,
11:09
you'dty byś look for an architectarchitekt like the one that I metspotkał in FrankfurtWe Frankfurcie
281
654000
3000
to szukalibyście takiego architekta, jakiego miałem okazję spotkać we Frankfurcie,
11:12
who was hollowingżłobienia out a skyscraperdrapacz chmur --
282
657000
2000
który opróżniał cały wieżowiec ---
11:14
throwingrzucanie out all the furnituremeble, all the infrastructureinfrastruktura for humanczłowiek use,
283
659000
3000
wyrzucał wszystkie meble, całe zaplecze rzeczy używanych przez człowieka
11:17
and just runningbieganie steelstal on the floorspodłogi
284
662000
3000
i, biegając szalenie po piętrach,
11:20
to get readygotowy for the stacksstosy of serversserwery to go in --
285
665000
3000
przygotowywał masę serwerów do wejścia -
11:23
all so an algorithmalgorytm
286
668000
2000
a wszystko po to, żeby algorytm
11:25
could get closeblisko to the InternetInternet.
287
670000
3000
mógł zbliżyć się do internetu.
11:28
And you think of the InternetInternet as this kinduprzejmy of distributedRozpowszechniane systemsystem.
288
673000
3000
Mówi się, że internet jest czymś w rodzaju podzielonego systemu.
11:31
And of coursekurs, it is, but it's distributedRozpowszechniane from placesmiejsca.
289
676000
3000
I oczywiście jest on podzielony, ale w różnych miejscach.
11:34
In NewNowy YorkYork, this is where it's distributedRozpowszechniane from:
290
679000
2000
W Nowym Jorku pochodzi on
11:36
the CarrierPrzewoźnik HotelHotel
291
681000
2000
z kolokacji serwerów,
11:38
locatedusytuowany on HudsonHudson StreetUlica.
292
683000
2000
położonej na Hudson Street.
11:40
And this is really where the wiresprzewody come right up into the cityMiasto.
293
685000
3000
I to właśnie stamtąd wszystkie kable łączą się z miastem.
11:43
And the realityrzeczywistość is that the furtherdalej away you are from that,
294
688000
4000
W rzeczywistości, im dalej jest się od tego miejsca,
11:47
you're a fewkilka microsecondsmikrosekundach behindza everykażdy time.
295
692000
2000
tym mniej mikrosekund jest się w tyle za każdym razem.
11:49
These guys down on WallŚciana StreetUlica,
296
694000
2000
Ci z Wall Street,
11:51
MarcoMarco PoloPolo and CherokeeCherokee NationNaród,
297
696000
2000
Marco Polo i Cherokee Nation,
11:53
they're eightosiem microsecondsmikrosekundach
298
698000
2000
są osiem mikrosekund
11:55
behindza all these guys
299
700000
2000
w tyle za tymi,
11:57
going into the emptypusty buildingsBudynki beingistota hollowedwydrążonych out
300
702000
4000
którzy znajdują się w pustych, opróżnianych budynkach
12:01
up around the CarrierPrzewoźnik HotelHotel.
301
706000
2000
wokół kolokacji serwerów.
12:03
And that's going to keep happeningwydarzenie.
302
708000
3000
I tak będzie w kółko.
12:06
We're going to keep hollowingżłobienia them out,
303
711000
2000
Nieustannie będziemy je opróżniać,
12:08
because you, inchcal for inchcal
304
713000
3000
dlatego że nikt z was, cal za calem,
12:11
and poundfunt for poundfunt and dollardolar for dollardolar,
305
716000
3000
funt za funtem, dolar za dolarem,
12:14
noneŻaden of you could squeeześciskać revenuedochód out of that spaceprzestrzeń
306
719000
3000
nikt z was nie mógłby zgarnąć zysków z tej przestrzeni
12:17
like the BostonBoston ShufflerKrętacz could.
307
722000
3000
tak jak mógł to zrobić "Żongler Bostoński".
12:20
But if you zoomPowiększenie out,
308
725000
2000
Ale jeśli oddalimy obraz,
12:22
if you zoomPowiększenie out,
309
727000
2000
jeśli go oddalimy,
12:24
you would see an 825-mile-mile trenchrów
310
729000
4000
to zobaczymy okop o długości 825. mil
12:28
betweenpomiędzy NewNowy YorkYork CityMiasto and ChicagoChicago
311
733000
2000
pomiędzy Nowym Jorkiem i Chicago,
12:30
that's been builtwybudowany over the last fewkilka yearslat
312
735000
2000
który został wzniesiony podczas ostatnich lat
12:32
by a companyfirma callednazywa SpreadRozprzestrzeniania się NetworksSieci.
313
737000
3000
przez firmę Spread Networks.
12:35
This is a fiberwłókno opticoptyczny cablekabel
314
740000
2000
To jest światłowód,
12:37
that was laidpołożony betweenpomiędzy those two citiesmiasta
315
742000
2000
który przeciągnięto pomiędzy tymi dwoma miastami,
12:39
to just be ablezdolny to trafficruch drogowy one signalsygnał
316
744000
3000
by móc zmieniać światła drogowe
12:42
37 timesczasy fasterszybciej than you can clickKliknij a mousemysz --
317
747000
3000
37 razy szybciej niż raz kliknąć myszą --
12:45
just for these algorithmsalgorytmy,
318
750000
3000
tylko dla tych algorytmów,
12:48
just for the CarnivalKarnawał and the KnifeNóż.
319
753000
3000
tylko dla "Karnawału" i dla “Noża”.
12:51
And when you think about this,
320
756000
2000
I jeśliby tak o tym pomyśleć,
12:53
that we're runningbieganie throughprzez the UnitedStany Zjednoczone StatesPaństwa
321
758000
2000
o tym, że biegamy po Stanach Zjednoczonych
12:55
with dynamitedynamit and rockskała sawsPiły
322
760000
3000
z dynamitem i piłami mechanicznymi,
12:58
so that an algorithmalgorytm can closeblisko the dealsprawa
323
763000
2000
żeby algorytm mógł skończyć sprawę
13:00
threetrzy microsecondsmikrosekundach fasterszybciej,
324
765000
3000
trzy mikrosekundy wcześniej,
13:03
all for a communicationskomunikacja frameworkstruktura
325
768000
2000
dla zarysowania kształtu komunikacji
13:05
that no humanczłowiek will ever know,
326
770000
4000
którego żaden człowiek nigdy nie pozna,
13:09
that's a kinduprzejmy of manifestoczywisty destinyprzeznaczenie;
327
774000
3000
to rodzaj ewidentnego przeznaczenia,
13:12
and we'lldobrze always look for a newNowy frontiergranica.
328
777000
3000
który ciągle będzie szukał nowej granicy.
13:15
UnfortunatelyNiestety, we have our work cutciąć out for us.
329
780000
3000
Niestety, jesteśmy wprost stworzeni do naszej pracy.
13:18
This is just theoreticalteoretyczny.
330
783000
2000
To tylko teoria.
13:20
This is some mathematiciansmatematycy at MITMIT.
331
785000
2000
To jacyś tam matematycy z MIT.
13:22
And the truthprawda is I don't really understandzrozumieć
332
787000
2000
A prawda jest taka, że nie rozumiem
13:24
a lot of what they're talkingmówić about.
333
789000
2000
większości, o której ci panowie mówią.
13:26
It involvesobejmuje lightlekki conesszyszki and quantumkwant entanglementuwikłanie,
334
791000
3000
To się łączy ze stożkami czasoprzestrzennymi i ze stanem splątanym,
13:29
and I don't really understandzrozumieć any of that.
335
794000
2000
a ja naprawdę nic z tego nie rozumiem.
13:31
But I can readczytać this mapmapa,
336
796000
2000
Ale tę mapę potrafię odczytać.
13:33
and what this mapmapa saysmówi
337
798000
2000
Ta mapa mówi, że
13:35
is that, if you're tryingpróbować to make moneypieniądze on the marketsrynki where the redczerwony dotskropki are,
338
800000
3000
jeśli ktoś próbuje zarobić pieniądze na rynkach oznaczonych czerwonym punktem,
13:38
that's where people are, where the citiesmiasta are,
339
803000
2000
czyli tam gdzie są ludzie i miasta,
13:40
you're going to have to put the serversserwery where the blueniebieski dotskropki are
340
805000
3000
to musi postawić serwery w miejscach oznaczonych kropką niebieską,
13:43
to do that mostwiększość effectivelyfaktycznie.
341
808000
2000
żeby efekt był jak najlepszy.
13:45
And the thing that you mightmoc have noticedzauważyłem about those blueniebieski dotskropki
342
810000
3000
A jeśli chodzi o te niebieskie kropki, to może i dostrzegliście, że
13:48
is that a lot of them are in the middleśrodkowy of the oceanocean.
343
813000
3000
wiele z nich znajduje się pośrodku oceanu.
13:51
So that's what we'lldobrze do: we'lldobrze buildbudować bubblesbąbelki or something,
344
816000
3000
No więc to jest to, co zrobimy - zbudujemy bańki czy coś,
13:54
or platformsplatformy.
345
819000
2000
a może platformy.
13:56
We'llMy będziemy actuallytak właściwie partczęść the waterwoda
346
821000
2000
Podzielimy wodę,
13:58
to pullCiągnąć moneypieniądze out of the airpowietrze,
347
823000
2000
żeby z powietrza wyciagnąć pieniądze
14:00
because it's a brightjasny futureprzyszłość
348
825000
2000
bo to świetlana przyszłość,
14:02
if you're an algorithmalgorytm.
349
827000
2000
jeśli tylko jesteś algorytmem.
14:04
(LaughterŚmiech)
350
829000
2000
(Śmiech)
14:06
And it's not the moneypieniądze that's so interestingciekawy actuallytak właściwie.
351
831000
3000
I tak właściwie, to nie pieniądze są intrygujące.
14:09
It's what the moneypieniądze motivatesmotywuje,
352
834000
2000
Intrygujące jest to, co one pobudzają.
14:11
that we're actuallytak właściwie terraformingTerraformowanie
353
836000
2000
To, że my właściwie tworzymy kolonię
14:13
the EarthZiemia itselfsamo
354
838000
2000
na samej Ziemi
14:15
with this kinduprzejmy of algorithmicalgorytmicznych efficiencywydajność.
355
840000
2000
przy pomocy algorytmicznej wydajności.
14:17
And in that lightlekki,
356
842000
2000
Z tą myślą
14:19
you go back
357
844000
2000
można się cofnąć
14:21
and you look at MichaelMichael Najjar'sNajjar jest photographsfotografie,
358
846000
2000
do fotografii Michaela Najjara
14:23
and you realizerealizować that they're not metaphormetafora, they're prophecyproroctwo.
359
848000
3000
po to, żeby zdać sobie sprawę, że nie one są metaforą, tylko zapowiedzią.
14:26
They're prophecyproroctwo
360
851000
2000
Są zapowiedzią
14:28
for the kinduprzejmy of seismicsejsmiczny, terrestrialnaziemnej effectsruchomości
361
853000
4000
pewnych sejsmicznych, lądowych efektów
14:32
of the mathmatematyka that we're makingzrobienie.
362
857000
2000
matematyki, którą tworzymy.
14:34
And the landscapekrajobraz was always madezrobiony
363
859000
3000
Krajobraz zawsze składał się
14:37
by this sortsortować of weirddziwne, uneasyniełatwe collaborationwspółpraca
364
862000
3000
z takiej dziwnej, niestabilnej współpracy
14:40
betweenpomiędzy natureNatura and man.
365
865000
3000
pomiędzy naturą a człowiekiem.
14:43
But now there's this thirdtrzeci co-evolutionaryco ewolucyjny forcesiła: algorithmsalgorytmy --
366
868000
3000
Jednak teraz jest ta trzecia siła współzależnej koewolucji: algorytmy -
14:46
the BostonBoston ShufflerKrętacz, the CarnivalKarnawał.
367
871000
3000
"Żongler Bostoński", "Maskarada".
14:49
And we will have to understandzrozumieć those as natureNatura,
368
874000
3000
A my będziemy musieli pojąć je jako naturę.
14:52
and in a way, they are.
369
877000
2000
W swojej osobliwej postaci.
14:54
Thank you.
370
879000
2000
Dziękuję.
14:56
(ApplauseAplauz)
371
881000
20000
(Aplauz)
Translated by Paulina Brańka
Reviewed by Anna Gaidzik

▲Back to top

ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com