ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com
TEDGlobal 2011

Kevin Slavin: How algorithms shape our world

Kevin Slavin: Jak algorytmy kształtują nasz świat

Filmed:
4,199,898 views

Kevin Slavin uważa, że żyjemy w świecie zaprojektowanym i coraz bardziej kontrolowanym przez algorytmy. W tym fascynującym wykładzie z TEDGlobal, Slavin pokazuje w jakim stopniu te złożone programy komputerowe decydują o: szpiegostwie, kursie aukcji, scenariuszach filmowych i architekturze. Ostrzega też, że sami tworzymy kod, którego nie umiemy zrozumieć, wraz z następstwami, których nie możemy kontrolować.
- Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms. Full bio

Double-click the English transcript below to play the video.

00:15
This is a photographfotografia
0
0
2000
To jest zdjęcie
00:17
by the artistartysta MichaelMichael NajjarNajjar,
1
2000
2000
autorstwa Michaela Najjara
00:19
and it's realreal,
2
4000
2000
i jest prawdziwe
00:21
in the sensesens that he wentposzedł there to ArgentinaArgentyna
3
6000
2000
dlatego, że pojechał tam, do Argentyny
00:23
to take the photozdjęcie.
4
8000
2000
żeby je zrobić.
00:25
But it's alsorównież a fictionfikcja. There's a lot of work that wentposzedł into it after that.
5
10000
3000
Jednak jest to również fikcja. Zaraz po sesji, w to zdjęcie został włożony duży nakład pracy.
00:28
And what he's doneGotowe
6
13000
2000
On tak właściwie
00:30
is he's actuallytak właściwie reshapedzmiany kształtu, digitallycyfrowo,
7
15000
2000
przekształcił, cyfrowo,
00:32
all of the contourskontury of the mountainsgóry
8
17000
2000
wszystkie zarysy gór,
00:34
to followśledzić the vicissitudeskoleje losu of the DowDow JonesJones indexindeks.
9
19000
3000
by trzymać się zmiennych ze wskaźnika Dow Jonesa.
00:37
So what you see,
10
22000
2000
Tak więc to, co widzicie,
00:39
that precipiceprzepaść, that highwysoki precipiceprzepaść with the valleydolina,
11
24000
2000
to urwisko, to kolosalne urwisko z doliną
00:41
is the 2008 financialbudżetowy crisiskryzys.
12
26000
2000
to kryzys finansowy 2008 roku.
00:43
The photozdjęcie was madezrobiony
13
28000
2000
Zdjęcie zrobiono,
00:45
when we were deepgłęboki in the valleydolina over there.
14
30000
2000
kiedy byliśmy głęboko tam, w tej dolinie.
00:47
I don't know where we are now.
15
32000
2000
Nie wiem, gdzie jesteśmy teraz.
00:49
This is the HangZawiesić się SengSeng indexindeks
16
34000
2000
To jest indeks Hang Senga
00:51
for HongHong KongKong.
17
36000
2000
dla Hong Kongu.
00:53
And similarpodobny topographyTopografia.
18
38000
2000
Topografia jest podobna.
00:55
I wondercud why.
19
40000
2000
Zastanawiam się, dlaczego.
00:57
And this is artsztuka. This is metaphormetafora.
20
42000
3000
I to jest sztuka. To jest metafora.
01:00
But I think the pointpunkt is
21
45000
2000
Uważam jednak, że
01:02
that this is metaphormetafora with teethzęby,
22
47000
2000
jest to metafora z pazurem.
01:04
and it's with those teethzęby that I want to proposezaproponować todaydzisiaj
23
49000
3000
W związku z tym chciałbym zaproponować dzisiaj
01:07
that we rethinkprzemyśleć ponownie a little bitkawałek
24
52000
2000
żebyśmy choć trochę przemyśleli
01:09
about the rolerola of contemporarywspółczesny mathmatematyka --
25
54000
3000
rolę współczesnej matematyki -
01:12
not just financialbudżetowy mathmatematyka, but mathmatematyka in generalgenerał.
26
57000
3000
nie tylko tej finansowej, ale matematyki w ogóle.
01:15
That its transitionprzejście
27
60000
2000
To jest przejście
01:17
from beingistota something that we extractwyciąg and deriveczerpać from the worldświat
28
62000
3000
od bycia czymś, co wyciągamy i czerpiemy ze świata
01:20
to something that actuallytak właściwie startszaczyna się to shapekształt it --
29
65000
3000
do czegoś, co tak właściwie go kształtuje -
01:23
the worldświat around us and the worldświat insidewewnątrz us.
30
68000
3000
ten świat wokół nas i ten wewnątrz nas.
01:26
And it's specificallykonkretnie algorithmsalgorytmy,
31
71000
2000
I to właśnie algorytmy,
01:28
whichktóry are basicallygruntownie the mathmatematyka
32
73000
2000
które są w zasadzie matematyką,
01:30
that computerskomputery use to decidedecydować się stuffrzeczy.
33
75000
3000
używaną przez komputery do różnych rzeczy.
01:33
They acquirenabyć the sensibilitywrażliwość of truthprawda
34
78000
2000
Zdobywają możliwość wykrycia prawdy,
01:35
because they repeatpowtarzać over and over again,
35
80000
2000
bo powtarzają te czynności bezustannie.
01:37
and they ossifyskostnieć and calcifyzwapnieniu,
36
82000
3000
W końcu zastygają i wapnieją
01:40
and they becomestają się realreal.
37
85000
2000
i stają się prawdziwe.
01:42
And I was thinkingmyślący about this, of all placesmiejsca,
38
87000
3000
Myślałem o tym akurat
01:45
on a transatlantictransatlantyckie flightlot a couplepara of yearslat agotemu,
39
90000
3000
parę lat temu podczas lotu przez Atlantyk,
01:48
because I happenedstało się to be seatedsiedzi
40
93000
2000
ponieważ miałem okazję wtedy siedzieć
01:50
nextNastępny to a HungarianWęgierski physicistfizyk about my agewiek
41
95000
2000
obok węgierskiego fizyka mniej więcej w moim wieku;
01:52
and we were talkingmówić
42
97000
2000
i rozmawialiśmy o tym,
01:54
about what life was like duringpodczas the ColdZimno WarWojny
43
99000
2000
jak podczas Zimnej Wojny wyglądało życie
01:56
for physicistsfizycy in HungaryWęgry.
44
101000
2000
dla fizyków z Węgier.
01:58
And I said, "So what were you doing?"
45
103000
2000
No i spytałem: "Co wtedy robiłeś?"
02:00
And he said, "Well we were mostlyprzeważnie breakingłamanie stealthStealth."
46
105000
2000
A on odpowiedział: "Cóż, głównie łamaliśmy technikę stealth."
02:02
And I said, "That's a good jobpraca. That's interestingciekawy.
47
107000
2000
Odrzekłem: "To dobra praca. Interesująca.
02:04
How does that work?"
48
109000
2000
Jak to działa?"
02:06
And to understandzrozumieć that,
49
111000
2000
I żeby to zrozumieć,
02:08
you have to understandzrozumieć a little bitkawałek about how stealthStealth worksPrace.
50
113000
3000
najpierw trzeba pojąć, jak działa ta technika.
02:11
And so -- this is an over-simplificationzbytnie uproszczenie --
51
116000
3000
Tak więc, to jest znaczne uproszczenie,
02:14
but basicallygruntownie, it's not like
52
119000
2000
ale generalnie: to nie jest tak,
02:16
you can just passprzechodzić a radarradar signalsygnał
53
121000
2000
że sygnał radaru zostaje przepuszczony
02:18
right throughprzez 156 tonsmnóstwo of steelstal in the skyniebo.
54
123000
3000
przez 156 ton latającej stali.
02:21
It's not just going to disappearznikać.
55
126000
3000
Nie może zniknąć od tak.
02:24
But if you can take this bigduży, massivemasywny thing,
56
129000
3000
Ale jeśliby wziąć ten wielki, masywny obiekt
02:27
and you could turnskręcać it into
57
132000
3000
i zamienić go w
02:30
a millionmilion little things --
58
135000
2000
tysiące małych obiektów,
02:32
something like a flockstado of birdsptaki --
59
137000
2000
w coś na kształt stada ptaków,
02:34
well then the radarradar that's looking for that
60
139000
2000
to wtedy ten radar, szukający dużego obiektu
02:36
has to be ablezdolny to see
61
141000
2000
musiałby posiadać zdolność wykrycia
02:38
everykażdy flockstado of birdsptaki in the skyniebo.
62
143000
2000
każdego wędrującego stada ptaków.
02:40
And if you're a radarradar, that's a really badzły jobpraca.
63
145000
4000
I jeśli jesteś radarem, to bardzo niefortunne zajęcie,.
02:44
And he said, "Yeah." He said, "But that's if you're a radarradar.
64
149000
3000
On na to: "Tak." Po czym dodał: "Ale tylko jeśli jesteś radarem.
02:47
So we didn't use a radarradar;
65
152000
2000
Tak więc nie użyliśmy radaru;
02:49
we builtwybudowany a blackczarny boxpudełko that was looking for electricalelektryczny signalssygnały,
66
154000
3000
skonstruowaliśmy czarną skrzynkę, która miała wyszukiwać sygnały elektryczne,
02:52
electronicelektroniczny communicationkomunikacja.
67
157000
3000
elektroniczną komunikację.
02:55
And wheneverkiedy tylko we saw a flockstado of birdsptaki that had electronicelektroniczny communicationkomunikacja,
68
160000
3000
I za każdym razem, kiedy widzieliśmy stado ptaków, które posługiwało się taką komunikacją,
02:58
we thought, 'Probably' Chyba has something to do with the AmericansAmerykanie.'"
69
163000
3000
myśleliśmy, że ma to coś wspólnego z Amerykanami."
03:01
And I said, "Yeah.
70
166000
2000
Odpowiedziałem: "Tak.
03:03
That's good.
71
168000
2000
To dobrze.
03:05
So you've effectivelyfaktycznie negatedzanegowane
72
170000
2000
Udało się wam skutecznie podważyć
03:07
60 yearslat of aeronauticAeronautic researchBadania.
73
172000
2000
60 lat spędzonych na badaniach aeronautycznych.
03:09
What's your actdziałać two?
74
174000
2000
A co dalej?
03:11
What do you do when you growrosnąć up?"
75
176000
2000
Co robisz teraz?"
03:13
And he said,
76
178000
2000
Odpowiedział:
03:15
"Well, financialbudżetowy servicesusługi."
77
180000
2000
"Pracuję w usługach finansowych."
03:17
And I said, "Oh."
78
182000
2000
A ja na to: 'O!"
03:19
Because those had been in the newsAktualności latelyostatnio.
79
184000
3000
Ostatnio w mediach było o nich głośno.
03:22
And I said, "How does that work?"
80
187000
2000
Spytałem więc: "A jak to działa?"
03:24
And he said, "Well there's 2,000 physicistsfizycy on WallŚciana StreetUlica now,
81
189000
2000
Odpowiedział: "No więc, na Wall Street jest teraz 2000 fizyków,
03:26
and I'm one of them."
82
191000
2000
i ja jestem jednym z nich."
03:28
And I said, "What's the blackczarny boxpudełko for WallŚciana StreetUlica?"
83
193000
3000
Spytałem: "Po co czarna skrzynka na Wall Street?"
03:31
And he said, "It's funnyzabawny you askzapytać that,
84
196000
2000
A on odpowiedział: "Zabawne, że o to pytasz,
03:33
because it's actuallytak właściwie callednazywa blackczarny boxpudełko tradinghandlowy.
85
198000
3000
bo tak właściwie to się nazywa "handel czarnymi skrzynkami".
03:36
And it's alsorównież sometimesczasami callednazywa algoAlgo tradinghandlowy,
86
201000
2000
Czasem mówi się na to "handel algo"
03:38
algorithmicalgorytmicznych tradinghandlowy."
87
203000
3000
lub "handel algorytmiczny".
03:41
And algorithmicalgorytmicznych tradinghandlowy evolvedewoluował in partczęść
88
206000
3000
Handel algorytmiczny rozwinął się tylko po części,
03:44
because institutionalinstytucjonalny tradershandlowcy have the samepodobnie problemsproblemy
89
209000
3000
ponieważ inwestorzy instytucjonalni borykają się z tymi samymi problemami,
03:47
that the UnitedStany Zjednoczone StatesPaństwa AirPowietrza ForceŻycie had,
90
212000
3000
z którymi kiedyś borykały się Siły Powietrze Stanów Zjednoczonych,
03:50
whichktóry is that they're movingw ruchu these positionspozycje --
91
215000
3000
czyli - przesuwają one swoje pozycje,
03:53
whetherczy it's ProctorProctor & GambleGamble or AccentureAccenture, whatevercokolwiek --
92
218000
2000
bez znaczenia, czy dotyczy to przedsiębiorstwa P&G czy Accenture,
03:55
they're movingw ruchu a millionmilion sharesAkcje of something
93
220000
2000
wprowadzają oni tysiące części czegoś
03:57
throughprzez the marketrynek.
94
222000
2000
poprzez rynek.
03:59
And if they do that all at oncepewnego razu,
95
224000
2000
I jeśli robią to wszystko naraz,
04:01
it's like playinggra pokerPoker and going all in right away.
96
226000
2000
to tak jakby już na samym początku gry w pokera szli na całość.
04:03
You just tipWskazówka your handdłoń.
97
228000
2000
Jakby dokładnie pokazywali, co zamierzają.
04:05
And so they have to find a way --
98
230000
2000
Tak więc muszą znaleźć jakiś sposób --
04:07
and they use algorithmsalgorytmy to do this --
99
232000
2000
używają do tego algorytmów --
04:09
to breakprzerwa up that bigduży thing
100
234000
2000
do tego, by tą jedną, wielką rzecz
04:11
into a millionmilion little transactionstransakcje.
101
236000
2000
rozbić na tysiące małych transakcji.
04:13
And the magicmagia and the horrorprzerażenie of that
102
238000
2000
Przeraża i fascynuje jednak fakt, że
04:15
is that the samepodobnie mathmatematyka
103
240000
2000
to ta sama matematyka, która
04:17
that you use to breakprzerwa up the bigduży thing
104
242000
2000
może rozbić jedną wielką rzecz
04:19
into a millionmilion little things
105
244000
2000
na tysiące małych rzeczy,
04:21
can be used to find a millionmilion little things
106
246000
2000
może być wykorzystana do odnalezienia tych małych rzeczy
04:23
and sewszyć them back togetherRazem
107
248000
2000
i poskładania ich z powrotem
04:25
and figurepostać out what's actuallytak właściwie happeningwydarzenie in the marketrynek.
108
250000
2000
w celu odkrycia tego, co tak właściwie dzieje się na rynku.
04:27
So if you need to have some imageobraz
109
252000
2000
Więc jeśliby zobrazować to,
04:29
of what's happeningwydarzenie in the stockZbiory marketrynek right now,
110
254000
3000
co właśnie dzieje się na giełdzie papierów wartościowych,
04:32
what you can pictureobrazek is a bunchwiązka of algorithmsalgorytmy
111
257000
2000
to zobaczy się grupę algorytmów,
04:34
that are basicallygruntownie programmedzaprogramowany to hideukryć,
112
259000
3000
które tak właściwie zaprogramowano do tego, by się chowały
04:37
and a bunchwiązka of algorithmsalgorytmy that are programmedzaprogramowany to go find them and actdziałać.
113
262000
3000
oraz grupę algorytmów zaprogramowanych do znalezienia tamtych i do podjęcia działań.
04:40
And all of that's great, and it's fine.
114
265000
3000
I wszystko jest fajne i super.
04:43
And that's 70 percentprocent
115
268000
2000
To jest właśnie 70 procent
04:45
of the UnitedStany Zjednoczone StatesPaństwa stockZbiory marketrynek,
116
270000
2000
giełdy Stanów Zjednoczonych,
04:47
70 percentprocent of the operatingoperacyjny systemsystem
117
272000
2000
70 procent system operacyjnego,
04:49
formerlydawniej knownznany as your pensionPension,
118
274000
3000
wcześniej znanego jako wasza renta,
04:52
your mortgagehipoteka.
119
277000
3000
wasza emerytura.
04:55
And what could go wrongźle?
120
280000
2000
I co mogło pójść źle?
04:57
What could go wrongźle
121
282000
2000
A to, że
04:59
is that a yearrok agotemu,
122
284000
2000
rok temu
05:01
ninedziewięć percentprocent of the entireCały marketrynek just disappearsznika in fivepięć minutesminuty,
123
286000
3000
dziewięć procent całego rynku po prostu zniknęło w ciągu pięciu minut,
05:04
and they callednazywa it the FlashFlash CrashAwaria of 2:45.
124
289000
3000
i to pięć minut przeszło do historii jako flash crash 14.45.
05:07
All of a suddennagły, ninedziewięć percentprocent just goesidzie away,
125
292000
3000
Ni stąd, ni zowąd, dziewięć procent po prostu sobie znika
05:10
and nobodynikt to this day
126
295000
2000
i nikt po dziś dzień
05:12
can even agreeZgodzić się on what happenedstało się
127
297000
2000
nie może ustalić, co się stało,
05:14
because nobodynikt orderedzamówione it, nobodynikt askedspytał for it.
128
299000
3000
ponieważ nikt tego nie zlecił, nikt o to nie prosił.
05:17
NobodyNikt nie had any controlkontrola over what was actuallytak właściwie happeningwydarzenie.
129
302000
3000
Nikt nie miał kontroli nad tym, co się działo.
05:20
All they had
130
305000
2000
Jedyne, co było do dyspozycji
05:22
was just a monitormonitor in frontz przodu of them
131
307000
2000
to monitor,
05:24
that had the numbersliczby on it
132
309000
2000
pełen cyfr
05:26
and just a redczerwony buttonprzycisk
133
311000
2000
i do tego czerwony guzik
05:28
that said, "Stop."
134
313000
2000
z napisem "Stop".
05:30
And that's the thing,
135
315000
2000
I o to chodzi;
05:32
is that we're writingpisanie things,
136
317000
2000
piszemy różne rzeczy,
05:34
we're writingpisanie these things that we can no longerdłużej readczytać.
137
319000
3000
rzeczy, których nie jesteśmy w stanie odczytać.
05:37
And we'vemamy renderedrenderowane something
138
322000
2000
Stworzyliśmy coś
05:39
illegiblenieczytelne,
139
324000
2000
niezrozumiałego.
05:41
and we'vemamy lostStracony the sensesens
140
326000
3000
I straciliśmy poczucie,
05:44
of what's actuallytak właściwie happeningwydarzenie
141
329000
2000
co się dzieje
05:46
in this worldświat that we'vemamy madezrobiony.
142
331000
2000
w świecie, który sami stworzyliśmy.
05:48
And we're startingstartowy to make our way.
143
333000
2000
Ale zaczynamy odnosić sukces.
05:50
There's a companyfirma in BostonBoston callednazywa NanexNanex,
144
335000
3000
W Bostonie jest taka firma, Nanex,
05:53
and they use mathmatematyka and magicmagia
145
338000
2000
w której, przy użyciu matematyki i magii,
05:55
and I don't know what,
146
340000
2000
i nie wiem, czego jeszcze,
05:57
and they reachdosięgnąć into all the marketrynek datadane
147
342000
2000
można dostać się do wszystkich danych rynkowych
05:59
and they find, actuallytak właściwie sometimesczasami, some of these algorithmsalgorytmy.
148
344000
3000
i czasem nawet znaleźć część tych algorytmów.
06:02
And when they find them they pullCiągnąć them out
149
347000
3000
Po ich znalezieniu, są one wyciągane
06:05
and they pinkołek them to the wallŚciana like butterfliesmotyle.
150
350000
3000
i przypinane do ściany, zupełnie jak motyle.
06:08
And they do what we'vemamy always doneGotowe
151
353000
2000
I robi się z nimi to, co my zawsze robiliśmy,
06:10
when confrontedkonfrontowany with hugeolbrzymi amountskwoty of datadane that we don't understandzrozumieć --
152
355000
3000
kiedy natykaliśmy się na ogromne ilości danych, których nie rozumieliśmy --
06:13
whichktóry is that they give them a nameNazwa
153
358000
2000
czyli nadaje się im imiona
06:15
and a storyfabuła.
154
360000
2000
i tworzy historię.
06:17
So this is one that they founduznany,
155
362000
2000
Tak więc tego tutaj
06:19
they callednazywa the KnifeNóż,
156
364000
4000
nazwali "Nożem",
06:23
the CarnivalKarnawał,
157
368000
2000
"Maskaradą",
06:25
the BostonBoston ShufflerKrętacz,
158
370000
4000
"Żonglerem Bostońskim",
06:29
TwilightZmierzch.
159
374000
2000
"Zmierzchem".
06:31
And the gaggag is
160
376000
2000
I najlepsze jest to, że
06:33
that, of coursekurs, these aren'tnie są just runningbieganie throughprzez the marketrynek.
161
378000
3000
one od tak nie śmigają sobie po rynku.
06:36
You can find these kindsrodzaje of things wherevergdziekolwiek you look,
162
381000
3000
Można je znaleźć wszędzie, gdzie się spojrzy,
06:39
oncepewnego razu you learnuczyć się how to look for them.
163
384000
2000
jeśli tylko wie się, w jaki sposób ich szukać.
06:41
You can find it here: this bookksiążka about fliesmuchy
164
386000
3000
Na przykład tutaj: w tej książce o muchach,
06:44
that you maymoże have been looking at on AmazonAmazon.
165
389000
2000
którą mogliście przeglądać na Amazonie.
06:46
You maymoże have noticedzauważyłem it
166
391000
2000
Może i zauważyliście,
06:48
when its pricecena startedRozpoczęty at 1.7 millionmilion dollarsdolarów.
167
393000
2000
że jej cena wynosiła około 1,7 miliona dolarów.
06:50
It's out of printwydrukować -- still ...
168
395000
2000
Nakład się wyczerpał, jednak wciąż…
06:52
(LaughterŚmiech)
169
397000
2000
(Śmiech)
06:54
If you had boughtkupiony it at 1.7, it would have been a bargainokazja.
170
399000
3000
Jeśli kupilibyście ją, kiedy kosztowała 1,7, to byłby to niezły utarg.
06:57
A fewkilka hoursgodziny laterpóźniej, it had goneodszedł up
171
402000
2000
Parę godzin później, jej cena wzrosła
06:59
to 23.6 millionmilion dollarsdolarów,
172
404000
2000
do 23,6 milionów dolarów,
07:01
plusplus shippingWysyłka  and handlingobsługa.
173
406000
2000
łącznie z dostawami.
07:03
And the questionpytanie is:
174
408000
2000
I pytanie jest takie:
07:05
NobodyNikt nie was buyingkupowanie or sellingsprzedawanie anything; what was happeningwydarzenie?
175
410000
2000
Nikt niczego nie sprzedawał ani nie kupował; więc co się stało?
07:07
And you see this behaviorzachowanie on AmazonAmazon
176
412000
2000
Z takimi sytuacjami można się spotkać na Amazonie,
07:09
as surelypewno as you see it on WallŚciana StreetUlica.
177
414000
2000
jak i również na Wall Street.
07:11
And when you see this kinduprzejmy of behaviorzachowanie,
178
416000
2000
A kiedy spotykamy się z taką sytuacją,
07:13
what you see is the evidencedowód
179
418000
2000
kiedy spotykamy się z dowodem
07:15
of algorithmsalgorytmy in conflictkonflikt,
180
420000
2000
na walkę algorytmów,
07:17
algorithmsalgorytmy lockedzablokowany in loopspętle with eachkażdy other,
181
422000
2000
uwięzionych i splątanych ze sobą,
07:19
withoutbez any humanczłowiek oversightnadzoru,
182
424000
2000
pozbawionych jakiegokolwiek nadzoru człowieka,
07:21
withoutbez any adultdorosły supervisionnadzoru
183
426000
3000
bez jakiejkolwiek kontroli dorosłych,
07:24
to say, "ActuallyFaktycznie, 1.7 millionmilion is plentydużo."
184
429000
3000
którzy mogliby stwierdzić: "Właściwie, 1.7 wystarczy".
07:27
(LaughterŚmiech)
185
432000
3000
(Śmiech)
07:30
And as with AmazonAmazon, so it is with NetflixNetflix.
186
435000
3000
Podobnie jak z Amazonem, było i z Netflixem.
07:33
And so NetflixNetflix has goneodszedł throughprzez
187
438000
2000
Netflix przeczesał
07:35
severalkilka differentróżne algorithmsalgorytmy over the yearslat.
188
440000
2000
kilka różnych algorytmów w ciągu paru lat.
07:37
They startedRozpoczęty with CinematchCinematch, and they'veoni triedwypróbowany a bunchwiązka of othersinni --
189
442000
3000
Zaczęło się od Cinematch'u, potem przyszła kolej na resztę.
07:40
there's DinosaurDinozaur PlanetPlaneta; there's GravityGrawitacja.
190
445000
2000
Jest przecież Dinosaur Planet i Gravity.
07:42
They're usingza pomocą PragmaticPragmatyczne ChaosChaos now.
191
447000
2000
Teraz używają Pragmatic Chaos.
07:44
PragmaticPragmatyczne ChaosChaos is, like all of NetflixNetflix algorithmsalgorytmy,
192
449000
2000
Pragmatic Chaos, tak jak wszystkie algorytmy Netflixu,
07:46
tryingpróbować to do the samepodobnie thing.
193
451000
2000
stara się zrobić to samo.
07:48
It's tryingpróbować to get a graspchwycić on you,
194
453000
2000
Chce wami zawładnąć
07:50
on the firmwareoprogramowanie układowe insidewewnątrz the humanczłowiek skullczaszka,
195
455000
2000
objąć panowanie nad oprogramowaniem sterującym człowiekiem,
07:52
so that it can recommendpolecić what moviefilm
196
457000
2000
by w ten sposób polecić jaki film
07:54
you mightmoc want to watch nextNastępny --
197
459000
2000
chcielibyście znów obejrzeć--
07:56
whichktóry is a very, very difficulttrudny problemproblem.
198
461000
3000
co stanowi naprawdę, naprawdę poważny problem.
07:59
But the difficultytrudność of the problemproblem
199
464000
2000
Jednak powaga problemu
08:01
and the factfakt that we don't really quitecałkiem have it down,
200
466000
3000
i fakt, że jeszcze go nie rozgryźliśmy,
08:04
it doesn't take away
201
469000
2000
nie może zmienić
08:06
from the effectsruchomości PragmaticPragmatyczne ChaosChaos has.
202
471000
2000
skutków, jakie Pragmatic Chaos powoduje.
08:08
PragmaticPragmatyczne ChaosChaos, like all NetflixNetflix algorithmsalgorytmy,
203
473000
3000
Pragmatic Chaos, tak jak wszystkie algorytmy Netflixu
08:11
determinesokreśla, in the endkoniec,
204
476000
2000
w końcu określa
08:13
60 percentprocent
205
478000
2000
60 procent
08:15
of what movieskino endkoniec up beingistota rentedwynajęty.
206
480000
2000
filmów, które mają zostać wypożyczone.
08:17
So one piecekawałek of codekod
207
482000
2000
Tak więc jedna część kodu
08:19
with one ideapomysł about you
208
484000
3000
połączona z jedną informacją na temat was,
08:22
is responsibleodpowiedzialny for 60 percentprocent of those movieskino.
209
487000
3000
jest odpowiedzialna za 60 procent tych filmów.
08:25
But what if you could rateoceniać those movieskino
210
490000
2000
Jednak co by było, gdyby można było ocenić te filmy,
08:27
before they get madezrobiony?
211
492000
2000
przed ich realizacją?
08:29
Wouldn'tNie that be handypod ręką?
212
494000
2000
Nie byłoby to na rękę?
08:31
Well, a fewkilka datadane scientistsnaukowcy from the U.K. are in HollywoodHollywood,
213
496000
3000
Cóż, kilka naukowców z Wielkiej Brytanii, którzy są teraz w Hollywood
08:34
and they have "storyfabuła algorithmsalgorytmy" --
214
499000
2000
ma swoje bajkowe algorytmy -
08:36
a companyfirma callednazywa EpagogixEpagogix.
215
501000
2000
firmę nazwaną Epagogix.
08:38
And you can runbiegać your scriptskrypt throughprzez there,
216
503000
3000
Można tam posłać skrypt filmu,
08:41
and they can tell you, quantifiablyzawierać,
217
506000
2000
i dowiedzieć się, czy
08:43
that that's a 30 millionmilion dollardolar moviefilm
218
508000
2000
czy będzie to film wart 30 milionów dolarów
08:45
or a 200 millionmilion dollardolar moviefilm.
219
510000
2000
czy 200 milionów.
08:47
And the thing is, is that this isn't GoogleGoogle.
220
512000
2000
A chodzi o to, że to nie Google.
08:49
This isn't informationInformacja.
221
514000
2000
To nie informacje.
08:51
These aren'tnie są financialbudżetowy statsStatystyki; this is culturekultura.
222
516000
2000
Nie są to też statystyki finansowe; to jest kultura.
08:53
And what you see here,
223
518000
2000
Tym, co można tu zauważyć,
08:55
or what you don't really see normallynormalnie,
224
520000
2000
albo to, czego normalnie nie można,
08:57
is that these are the physicsfizyka of culturekultura.
225
522000
4000
to fakt że jest to fizyka kultury.
09:01
And if these algorithmsalgorytmy,
226
526000
2000
A jeśli te algorytmy,
09:03
like the algorithmsalgorytmy on WallŚciana StreetUlica,
227
528000
2000
tak jak algorytmy na Wall Street
09:05
just crashedrozbił się one day and wentposzedł awrykrzywo,
228
530000
3000
pewnego dnia po prostu zderzą się ze sobą i oszaleją,
09:08
how would we know?
229
533000
2000
skąd będziemy wiedzieć,
09:10
What would it look like?
230
535000
2000
jak to będzie wyglądało?
09:12
And they're in your housedom. They're in your housedom.
231
537000
3000
A one są w waszych domach. Są w waszych domach.
09:15
These are two algorithmsalgorytmy competingkonkurowanie for your livingżycie roompokój.
232
540000
2000
To są dwa algorytmy, które biją się o miejsce w waszych salonach.
09:17
These are two differentróżne cleaningczyszczenie robotsroboty
233
542000
2000
To są dwa różne roboty sprzątające,
09:19
that have very differentróżne ideaspomysły about what cleanczysty meansznaczy.
234
544000
3000
które mają zupełnie odmienne pojęcia czystości.
09:22
And you can see it
235
547000
2000
Można to zaobserwować,
09:24
if you slowpowolny it down and attachdołączać lightsświatła to them,
236
549000
3000
jeśli się je zwolni i przyczepi się do nich światło.
09:27
and they're sortsortować of like secretsekret architectsarchitekci in your bedroomsypialnia.
237
552000
3000
Są czymś w rodzaju ukrytych architektów w waszych sypialniach.
09:30
And the ideapomysł that architecturearchitektura itselfsamo
238
555000
3000
A pomysł, że sama architektura
09:33
is somehowjakoś subjectPrzedmiot to algorithmicalgorytmicznych optimizationOptymalizacja
239
558000
2000
w jakimś stopniu podlega algorytmicznej optymalizacji
09:35
is not far-fetcheddaleko idące.
240
560000
2000
nie jest naciągany.
09:37
It's super-realSuper-real and it's happeningwydarzenie around you.
241
562000
3000
Jest bardzo realny i do tego jest wokół was.
09:40
You feel it mostwiększość
242
565000
2000
Czujecie to najmocniej,
09:42
when you're in a sealeduszczelnione metalmetal boxpudełko,
243
567000
2000
kiedy znajdujecie się w zapieczętowanym metalowym pudle,
09:44
a new-styleNowy styl elevatorwinda;
244
569000
2000
czyli w nowoczesnej windzie,
09:46
they're callednazywa destination-controlcel control elevatorswindy.
245
571000
2000
którą nazywa się windami docelowymi.
09:48
These are the oneste where you have to pressnaciśnij what floorpiętro you're going to go to
246
573000
3000
To taki typ windy, w którym trzeba wybrać piętro, na które się wybiera
09:51
before you get in the elevatorwinda.
247
576000
2000
jeszcze zanim wsiądzie się do windy.
09:53
And it usesużywa what's callednazywa a bin-packingbin pakowanie algorithmalgorytm.
248
578000
2000
System używa algorytmu pakowania.
09:55
So noneŻaden of this mishegasmishegas
249
580000
2000
Tak więc nie ma wariactw
09:57
of lettingpuszczanie everybodywszyscy go into whatevercokolwiek carsamochód they want.
250
582000
2000
z wchodzeniem pasażerów do jakiejkolwiek windy by chcieli.
09:59
EverybodyKażdy who wants to go to the 10thth floorpiętro goesidzie into carsamochód two,
251
584000
2000
Wszyscy, którzy chcą dojechać na 10. piętro korzystają z windy nr 2,
10:01
and everybodywszyscy who wants to go to the thirdtrzeci floorpiętro goesidzie into carsamochód fivepięć.
252
586000
3000
a wszyscy, którzy chcą się dostać na piętro 3. jadą windą nr 5.
10:04
And the problemproblem with that
253
589000
2000
Problem w tym,
10:06
is that people freakwybryk out.
254
591000
2000
że ludzie wariują.
10:08
People panicpaniki.
255
593000
2000
Ludzie panikują.
10:10
And you see why. You see why.
256
595000
2000
I widzicie dlaczego. Widzicie dlaczego.
10:12
It's because the elevatorwinda
257
597000
2000
To dlatego, że w windzie
10:14
is missingbrakujący some importantważny instrumentationInstrumentacja, like the buttonsguziki.
258
599000
3000
brakuje pewnych ważnych instrumentów, na przykład przycisków.
10:17
(LaughterŚmiech)
259
602000
2000
(Śmiech)
10:19
Like the things that people use.
260
604000
2000
Czyli rzeczy, których ludzie używają.
10:21
All it has
261
606000
2000
Jest tu jedynie
10:23
is just the numbernumer that movesporusza się up or down
262
608000
3000
liczba, która przesuwa się w górę lub w dół
10:26
and that redczerwony buttonprzycisk that saysmówi, "Stop."
263
611000
3000
i czerwony guzik z napisem “Stop”.
10:29
And this is what we're designingprojektowanie for.
264
614000
3000
My projektujemy właśnie w tym celu.
10:32
We're designingprojektowanie
265
617000
2000
Projektujemy
10:34
for this machinemaszyna dialectdialekt.
266
619000
2000
zgodnie z językiem maszyny.
10:36
And how fardaleko can you take that? How fardaleko can you take it?
267
621000
3000
I jak daleko można z tym dojść? Jak daleko?
10:39
You can take it really, really fardaleko.
268
624000
2000
Można dojść bardzo, bardzo daleko.
10:41
So let me take it back to WallŚciana StreetUlica.
269
626000
3000
Wróćmy więc na Wall Street.
10:45
Because the algorithmsalgorytmy of WallŚciana StreetUlica
270
630000
2000
Z tego względu, że algorytmy na Wall Street
10:47
are dependentzależny on one qualityjakość abovepowyżej all elsejeszcze,
271
632000
3000
podlegają przede wszystkim jednej właściwości -
10:50
whichktóry is speedprędkość.
272
635000
2000
czyli szybkości.
10:52
And they operatedziałać on millisecondsmilisekund and microsecondsmikrosekundach.
273
637000
3000
Działają w ciągu milisekund i mikrosekund.
10:55
And just to give you a sensesens of what microsecondsmikrosekundach are,
274
640000
2000
A żeby przybliżyć pojęcie mikrosekundy,
10:57
it takes you 500,000 microsecondsmikrosekundach
275
642000
2000
500 tysięcy mikrosekund
10:59
just to clickKliknij a mousemysz.
276
644000
2000
równa się jednemu kliknięciu myszą.
11:01
But if you're a WallŚciana StreetUlica algorithmalgorytm
277
646000
2000
Jednak jeśli jest się algorytmem na Wall Street
11:03
and you're fivepięć microsecondsmikrosekundach behindza,
278
648000
2000
który jest pięć mikrosekund w tyle,
11:05
you're a loserprzegrany.
279
650000
2000
to znaczy, że jest się przegranym.
11:07
So if you were an algorithmalgorytm,
280
652000
2000
Więc jeśli bylibyście algorytmem,
11:09
you'dty byś look for an architectarchitekt like the one that I metspotkał in FrankfurtWe Frankfurcie
281
654000
3000
to szukalibyście takiego architekta, jakiego miałem okazję spotkać we Frankfurcie,
11:12
who was hollowingżłobienia out a skyscraperdrapacz chmur --
282
657000
2000
który opróżniał cały wieżowiec ---
11:14
throwingrzucanie out all the furnituremeble, all the infrastructureinfrastruktura for humanczłowiek use,
283
659000
3000
wyrzucał wszystkie meble, całe zaplecze rzeczy używanych przez człowieka
11:17
and just runningbieganie steelstal on the floorspodłogi
284
662000
3000
i, biegając szalenie po piętrach,
11:20
to get readygotowy for the stacksstosy of serversserwery to go in --
285
665000
3000
przygotowywał masę serwerów do wejścia -
11:23
all so an algorithmalgorytm
286
668000
2000
a wszystko po to, żeby algorytm
11:25
could get closeblisko to the InternetInternet.
287
670000
3000
mógł zbliżyć się do internetu.
11:28
And you think of the InternetInternet as this kinduprzejmy of distributedRozpowszechniane systemsystem.
288
673000
3000
Mówi się, że internet jest czymś w rodzaju podzielonego systemu.
11:31
And of coursekurs, it is, but it's distributedRozpowszechniane from placesmiejsca.
289
676000
3000
I oczywiście jest on podzielony, ale w różnych miejscach.
11:34
In NewNowy YorkYork, this is where it's distributedRozpowszechniane from:
290
679000
2000
W Nowym Jorku pochodzi on
11:36
the CarrierPrzewoźnik HotelHotel
291
681000
2000
z kolokacji serwerów,
11:38
locatedusytuowany on HudsonHudson StreetUlica.
292
683000
2000
położonej na Hudson Street.
11:40
And this is really where the wiresprzewody come right up into the cityMiasto.
293
685000
3000
I to właśnie stamtąd wszystkie kable łączą się z miastem.
11:43
And the realityrzeczywistość is that the furtherdalej away you are from that,
294
688000
4000
W rzeczywistości, im dalej jest się od tego miejsca,
11:47
you're a fewkilka microsecondsmikrosekundach behindza everykażdy time.
295
692000
2000
tym mniej mikrosekund jest się w tyle za każdym razem.
11:49
These guys down on WallŚciana StreetUlica,
296
694000
2000
Ci z Wall Street,
11:51
MarcoMarco PoloPolo and CherokeeCherokee NationNaród,
297
696000
2000
Marco Polo i Cherokee Nation,
11:53
they're eightosiem microsecondsmikrosekundach
298
698000
2000
są osiem mikrosekund
11:55
behindza all these guys
299
700000
2000
w tyle za tymi,
11:57
going into the emptypusty buildingsBudynki beingistota hollowedwydrążonych out
300
702000
4000
którzy znajdują się w pustych, opróżnianych budynkach
12:01
up around the CarrierPrzewoźnik HotelHotel.
301
706000
2000
wokół kolokacji serwerów.
12:03
And that's going to keep happeningwydarzenie.
302
708000
3000
I tak będzie w kółko.
12:06
We're going to keep hollowingżłobienia them out,
303
711000
2000
Nieustannie będziemy je opróżniać,
12:08
because you, inchcal for inchcal
304
713000
3000
dlatego że nikt z was, cal za calem,
12:11
and poundfunt for poundfunt and dollardolar for dollardolar,
305
716000
3000
funt za funtem, dolar za dolarem,
12:14
noneŻaden of you could squeeześciskać revenuedochód out of that spaceprzestrzeń
306
719000
3000
nikt z was nie mógłby zgarnąć zysków z tej przestrzeni
12:17
like the BostonBoston ShufflerKrętacz could.
307
722000
3000
tak jak mógł to zrobić "Żongler Bostoński".
12:20
But if you zoomPowiększenie out,
308
725000
2000
Ale jeśli oddalimy obraz,
12:22
if you zoomPowiększenie out,
309
727000
2000
jeśli go oddalimy,
12:24
you would see an 825-mile-mile trenchrów
310
729000
4000
to zobaczymy okop o długości 825. mil
12:28
betweenpomiędzy NewNowy YorkYork CityMiasto and ChicagoChicago
311
733000
2000
pomiędzy Nowym Jorkiem i Chicago,
12:30
that's been builtwybudowany over the last fewkilka yearslat
312
735000
2000
który został wzniesiony podczas ostatnich lat
12:32
by a companyfirma callednazywa SpreadRozprzestrzeniania się NetworksSieci.
313
737000
3000
przez firmę Spread Networks.
12:35
This is a fiberwłókno opticoptyczny cablekabel
314
740000
2000
To jest światłowód,
12:37
that was laidpołożony betweenpomiędzy those two citiesmiasta
315
742000
2000
który przeciągnięto pomiędzy tymi dwoma miastami,
12:39
to just be ablezdolny to trafficruch drogowy one signalsygnał
316
744000
3000
by móc zmieniać światła drogowe
12:42
37 timesczasy fasterszybciej than you can clickKliknij a mousemysz --
317
747000
3000
37 razy szybciej niż raz kliknąć myszą --
12:45
just for these algorithmsalgorytmy,
318
750000
3000
tylko dla tych algorytmów,
12:48
just for the CarnivalKarnawał and the KnifeNóż.
319
753000
3000
tylko dla "Karnawału" i dla “Noża”.
12:51
And when you think about this,
320
756000
2000
I jeśliby tak o tym pomyśleć,
12:53
that we're runningbieganie throughprzez the UnitedStany Zjednoczone StatesPaństwa
321
758000
2000
o tym, że biegamy po Stanach Zjednoczonych
12:55
with dynamitedynamit and rockskała sawsPiły
322
760000
3000
z dynamitem i piłami mechanicznymi,
12:58
so that an algorithmalgorytm can closeblisko the dealsprawa
323
763000
2000
żeby algorytm mógł skończyć sprawę
13:00
threetrzy microsecondsmikrosekundach fasterszybciej,
324
765000
3000
trzy mikrosekundy wcześniej,
13:03
all for a communicationskomunikacja frameworkstruktura
325
768000
2000
dla zarysowania kształtu komunikacji
13:05
that no humanczłowiek will ever know,
326
770000
4000
którego żaden człowiek nigdy nie pozna,
13:09
that's a kinduprzejmy of manifestoczywisty destinyprzeznaczenie;
327
774000
3000
to rodzaj ewidentnego przeznaczenia,
13:12
and we'lldobrze always look for a newNowy frontiergranica.
328
777000
3000
który ciągle będzie szukał nowej granicy.
13:15
UnfortunatelyNiestety, we have our work cutciąć out for us.
329
780000
3000
Niestety, jesteśmy wprost stworzeni do naszej pracy.
13:18
This is just theoreticalteoretyczny.
330
783000
2000
To tylko teoria.
13:20
This is some mathematiciansmatematycy at MITMIT.
331
785000
2000
To jacyś tam matematycy z MIT.
13:22
And the truthprawda is I don't really understandzrozumieć
332
787000
2000
A prawda jest taka, że nie rozumiem
13:24
a lot of what they're talkingmówić about.
333
789000
2000
większości, o której ci panowie mówią.
13:26
It involvesobejmuje lightlekki conesszyszki and quantumkwant entanglementuwikłanie,
334
791000
3000
To się łączy ze stożkami czasoprzestrzennymi i ze stanem splątanym,
13:29
and I don't really understandzrozumieć any of that.
335
794000
2000
a ja naprawdę nic z tego nie rozumiem.
13:31
But I can readczytać this mapmapa,
336
796000
2000
Ale tę mapę potrafię odczytać.
13:33
and what this mapmapa saysmówi
337
798000
2000
Ta mapa mówi, że
13:35
is that, if you're tryingpróbować to make moneypieniądze on the marketsrynki where the redczerwony dotskropki are,
338
800000
3000
jeśli ktoś próbuje zarobić pieniądze na rynkach oznaczonych czerwonym punktem,
13:38
that's where people are, where the citiesmiasta are,
339
803000
2000
czyli tam gdzie są ludzie i miasta,
13:40
you're going to have to put the serversserwery where the blueniebieski dotskropki are
340
805000
3000
to musi postawić serwery w miejscach oznaczonych kropką niebieską,
13:43
to do that mostwiększość effectivelyfaktycznie.
341
808000
2000
żeby efekt był jak najlepszy.
13:45
And the thing that you mightmoc have noticedzauważyłem about those blueniebieski dotskropki
342
810000
3000
A jeśli chodzi o te niebieskie kropki, to może i dostrzegliście, że
13:48
is that a lot of them are in the middleśrodkowy of the oceanocean.
343
813000
3000
wiele z nich znajduje się pośrodku oceanu.
13:51
So that's what we'lldobrze do: we'lldobrze buildbudować bubblesbąbelki or something,
344
816000
3000
No więc to jest to, co zrobimy - zbudujemy bańki czy coś,
13:54
or platformsplatformy.
345
819000
2000
a może platformy.
13:56
We'llMy będziemy actuallytak właściwie partczęść the waterwoda
346
821000
2000
Podzielimy wodę,
13:58
to pullCiągnąć moneypieniądze out of the airpowietrze,
347
823000
2000
żeby z powietrza wyciagnąć pieniądze
14:00
because it's a brightjasny futureprzyszłość
348
825000
2000
bo to świetlana przyszłość,
14:02
if you're an algorithmalgorytm.
349
827000
2000
jeśli tylko jesteś algorytmem.
14:04
(LaughterŚmiech)
350
829000
2000
(Śmiech)
14:06
And it's not the moneypieniądze that's so interestingciekawy actuallytak właściwie.
351
831000
3000
I tak właściwie, to nie pieniądze są intrygujące.
14:09
It's what the moneypieniądze motivatesmotywuje,
352
834000
2000
Intrygujące jest to, co one pobudzają.
14:11
that we're actuallytak właściwie terraformingTerraformowanie
353
836000
2000
To, że my właściwie tworzymy kolonię
14:13
the EarthZiemia itselfsamo
354
838000
2000
na samej Ziemi
14:15
with this kinduprzejmy of algorithmicalgorytmicznych efficiencywydajność.
355
840000
2000
przy pomocy algorytmicznej wydajności.
14:17
And in that lightlekki,
356
842000
2000
Z tą myślą
14:19
you go back
357
844000
2000
można się cofnąć
14:21
and you look at MichaelMichael Najjar'sNajjar jest photographsfotografie,
358
846000
2000
do fotografii Michaela Najjara
14:23
and you realizerealizować that they're not metaphormetafora, they're prophecyproroctwo.
359
848000
3000
po to, żeby zdać sobie sprawę, że nie one są metaforą, tylko zapowiedzią.
14:26
They're prophecyproroctwo
360
851000
2000
Są zapowiedzią
14:28
for the kinduprzejmy of seismicsejsmiczny, terrestrialnaziemnej effectsruchomości
361
853000
4000
pewnych sejsmicznych, lądowych efektów
14:32
of the mathmatematyka that we're makingzrobienie.
362
857000
2000
matematyki, którą tworzymy.
14:34
And the landscapekrajobraz was always madezrobiony
363
859000
3000
Krajobraz zawsze składał się
14:37
by this sortsortować of weirddziwne, uneasyniełatwe collaborationwspółpraca
364
862000
3000
z takiej dziwnej, niestabilnej współpracy
14:40
betweenpomiędzy natureNatura and man.
365
865000
3000
pomiędzy naturą a człowiekiem.
14:43
But now there's this thirdtrzeci co-evolutionaryco ewolucyjny forcesiła: algorithmsalgorytmy --
366
868000
3000
Jednak teraz jest ta trzecia siła współzależnej koewolucji: algorytmy -
14:46
the BostonBoston ShufflerKrętacz, the CarnivalKarnawał.
367
871000
3000
"Żongler Bostoński", "Maskarada".
14:49
And we will have to understandzrozumieć those as natureNatura,
368
874000
3000
A my będziemy musieli pojąć je jako naturę.
14:52
and in a way, they are.
369
877000
2000
W swojej osobliwej postaci.
14:54
Thank you.
370
879000
2000
Dziękuję.
14:56
(ApplauseAplauz)
371
881000
20000
(Aplauz)
Translated by Paulina Brańka
Reviewed by Anna Gaidzik

▲Back to top

ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee