ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com
TEDGlobal 2011

Kevin Slavin: How algorithms shape our world

Кевин Славин. Как алгоритмите оформят света ни.

Filmed:
4,199,898 views

Кевин Славин твърди, че живеем в свят оформен и нарастващо контролиран от алгоритми. В тази вълнуваща лекция от TEDGlobal, той показва как тези сложни компютърни програми определят неща като: шпионски тактики, цените на борсите, сценарии на филми и архитекура. Той предупреждава, че ние пишем код, който не разбираме, с последици, които не можем да контролираме.
- Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms. Full bio

Double-click the English transcript below to play the video.

00:15
This is a photographснимка
0
0
2000
Това е снимка
00:17
by the artistхудожник MichaelМайкъл NajjarНаджар,
1
2000
2000
от фотографа Майкъл Нажар
00:19
and it's realреален,
2
4000
2000
и тя е истинска
00:21
in the senseсмисъл that he wentотидох there to ArgentinaАржентина
3
6000
2000
в смисъл, че той отишъл до Аржентина
00:23
to take the photoснимка.
4
8000
2000
за да направи снимката.
00:25
But it's alsoсъщо a fictionизмислица. There's a lot of work that wentотидох into it after that.
5
10000
3000
Но тя също така е и фикция. Много работа е била вложена в нея след това.
00:28
And what he's doneСвършен
6
13000
2000
И това, което той е направил е
00:30
is he's actuallyвсъщност reshapedпреструктурира, digitallyцифрово,
7
15000
2000
да я промени дигитално,
00:32
all of the contoursконтурите of the mountainsпланини
8
17000
2000
така че контурите на планините
00:34
to followпоследвам the vicissitudesпревратностите of the DowДау JonesДжоунс indexиндекс.
9
19000
3000
да следват промените на индекса Dow Jones.
00:37
So what you see,
10
22000
2000
Това което виждате
00:39
that precipiceпропастта, that highВисоко precipiceпропастта with the valleyдолина,
11
24000
2000
стръмния скат и долината,
00:41
is the 2008 financialфинансов crisisкриза.
12
26000
2000
е финансовата криза от 2008.
00:43
The photoснимка was madeизработен
13
28000
2000
Снимката е била направена,
00:45
when we were deepДълбок in the valleyдолина over there.
14
30000
2000
когато ние сме били дълбоко в "долината".
00:47
I don't know where we are now.
15
32000
2000
Не знам къде сме сега.
00:49
This is the HangВися SengSeng indexиндекс
16
34000
2000
Това е Hang Seng индекса
00:51
for HongХонг KongХонконг.
17
36000
2000
за Хонг Конг.
00:53
And similarподобен topographyтопография.
18
38000
2000
И топографията е сходна.
00:55
I wonderчудя се why.
19
40000
2000
Чудя се защо.
00:57
And this is artизкуство. This is metaphorметафора.
20
42000
3000
И това е изкуство. Това е метафора.
01:00
But I think the pointточка is
21
45000
2000
Но мисля, че смисълът е,
01:02
that this is metaphorметафора with teethзъби,
22
47000
2000
че това е силна метафора.
01:04
and it's with those teethзъби that I want to proposeпредлагам todayднес
23
49000
3000
И със силата на тази метафора искам да предложа
01:07
that we rethinkпреосмислят a little bitмалко
24
52000
2000
да преосмислим
01:09
about the roleроля of contemporaryсъвременен mathматематика --
25
54000
3000
ролята на съвременната математика --
01:12
not just financialфинансов mathматематика, but mathматематика in generalобщ.
26
57000
3000
не само финансовата математика, но математиката изцяло.
01:15
That its transitionпреход
27
60000
2000
Това е трансформация
01:17
from beingсъщество something that we extractекстракт and deriveизвлече from the worldсвят
28
62000
3000
от нещо което ние извличаме от света
01:20
to something that actuallyвсъщност startsзапочва to shapeформа it --
29
65000
3000
към нещо което започва да го оформя.
01:23
the worldсвят around us and the worldсвят insideвътре us.
30
68000
3000
от нещо, което е в нас и нещо, което е извън нас.
01:26
And it's specificallyконкретно algorithmsалгоритми,
31
71000
2000
И това са специфични алгоритми,
01:28
whichкойто are basicallyв основата си the mathматематика
32
73000
2000
които са в основата си математиката,
01:30
that computersкомпютри use to decideреши stuffматерия.
33
75000
3000
която компютрите използват, за да взимат решения.
01:33
They acquireпридобивам the sensibilityчувствителност of truthистина
34
78000
2000
Те придобиват чувствителност за истината,
01:35
because they repeatповторение over and over again,
35
80000
2000
защото повтарят отново и отново нещата.
01:37
and they ossifyпревръщам в кост and calcifyкалцирам,
36
82000
3000
Превръщат нещата в кокали, калцифицират ги
01:40
and they becomeда стане realреален.
37
85000
2000
и така те се превръщат в истински.
01:42
And I was thinkingмислене about this, of all placesместа,
38
87000
3000
Така се случи, че мислех за всичко това
01:45
on a transatlanticТрансатлантически flightполет a coupleдвойка of yearsгодини agoпреди,
39
90000
3000
по време на презокеански полет преди няколко години,
01:48
because I happenedсе случи to be seatedседнал
40
93000
2000
защото се оказа че седях
01:50
nextследващия to a HungarianУнгарски physicistфизик about my ageвъзраст
41
95000
2000
до унгарски физик на моята възраст
01:52
and we were talkingговорим
42
97000
2000
и разговаряхме
01:54
about what life was like duringпо време на the ColdСтудено WarВойна
43
99000
2000
за това как е бил животът по време на Студената война
01:56
for physicistsфизици in HungaryУнгария.
44
101000
2000
за физиците в Унгария.
01:58
And I said, "So what were you doing?"
45
103000
2000
И така аз го попитах "И с какво се занимавахте ?"
02:00
And he said, "Well we were mostlyв повечето случаи breakingскъсване stealthСтелт."
46
105000
2000
И той отговори, че основно е разкривал невидимите самолети (стелт).
02:02
And I said, "That's a good jobработа. That's interestingинтересен.
47
107000
2000
И аз отбелязах: " Това е интересна работа.
02:04
How does that work?"
48
109000
2000
Как функционира?"
02:06
And to understandразбирам that,
49
111000
2000
За да разберете това,
02:08
you have to understandразбирам a little bitмалко about how stealthСтелт worksвърши работа.
50
113000
3000
трябва да научите малко повече как работи стелт технологията.
02:11
And so -- this is an over-simplificationпрекалено опростяване --
51
116000
3000
И така този пример е прекалено опростен,
02:14
but basicallyв основата си, it's not like
52
119000
2000
но принципно не е така,
02:16
you can just passминавам a radarрадар signalсигнал
53
121000
2000
че просто може да пуснете радарен сигнал
02:18
right throughпрез 156 tonsт of steelстомана in the skyнебе.
54
123000
3000
през 156 тона стомана в небето.
02:21
It's not just going to disappearизчезва.
55
126000
3000
Той няма просто да изчезне.
02:24
But if you can take this bigголям, massiveмасов thing,
56
129000
3000
Но ако вземете това голямо, масивно нещо
02:27
and you could turnзавой it into
57
132000
3000
и го превърнете в
02:30
a millionмилион little things --
58
135000
2000
милиони малки неща
02:32
something like a flockстадо of birdsптици --
59
137000
2000
- нещо като ято птици -
02:34
well then the radarрадар that's looking for that
60
139000
2000
тогава радарът, който го търси,
02:36
has to be ableспособен to see
61
141000
2000
ще бъде в състояние да открие
02:38
everyвсеки flockстадо of birdsптици in the skyнебе.
62
143000
2000
всяко ято птици в небето.
02:40
And if you're a radarрадар, that's a really badлошо jobработа.
63
145000
4000
И ако сте радар, това е наистина гадна работа.
02:44
And he said, "Yeah." He said, "But that's if you're a radarрадар.
64
149000
3000
И той отговори: "Да. Но това е само ако си радар.
02:47
So we didn't use a radarрадар;
65
152000
2000
Ние не използвахме радар;
02:49
we builtпостроен a blackчерно boxкутия that was looking for electricalелектрически signalsсигнали,
66
154000
3000
ние направихме черна кутия, която търсеше електрични сигнали,
02:52
electronicелектронен communicationобщуване.
67
157000
3000
електронна комуникация.
02:55
And wheneverкогато и да е we saw a flockстадо of birdsптици that had electronicелектронен communicationобщуване,
68
160000
3000
И където и да видехме ято птици, които имаха електронна комуникация,
02:58
we thought, 'Probably"Вероятно has something to do with the AmericansАмериканците.'"
69
163000
3000
мислехме, че те имат някаква връзка с американците.
03:01
And I said, "Yeah.
70
166000
2000
"Да." казах аз.
03:03
That's good.
71
168000
2000
"Това е добре.
03:05
So you've effectivelyефективно negatedотрича
72
170000
2000
Така вие сте неутрализирали
03:07
60 yearsгодини of aeronauticавиационния researchизследване.
73
172000
2000
60 години астронавски изследвания.
03:09
What's your actакт two?
74
174000
2000
И какво стана след това?
03:11
What do you do when you growрастат up?"
75
176000
2000
Какво направихте, когато порастнахте?"
03:13
And he said,
76
178000
2000
И той каза:
03:15
"Well, financialфинансов servicesуслуги."
77
180000
2000
" Ами заех се с финансови услуги."
03:17
And I said, "Oh."
78
182000
2000
Аз възкликнах.
03:19
Because those had been in the newsНовини latelyнапоследък.
79
184000
3000
Защото това беше в новините в последно време.
03:22
And I said, "How does that work?"
80
187000
2000
И го попитах как функционира това?
03:24
And he said, "Well there's 2,000 physicistsфизици on WallСтена StreetУлица now,
81
189000
2000
Той отговори: " В момента има около 2.000 физика на Wall Street
03:26
and I'm one of them."
82
191000
2000
и аз съм един от тях."
03:28
And I said, "What's the blackчерно boxкутия for WallСтена StreetУлица?"
83
193000
3000
Попитах го каква е черната кутия на Wall Street.
03:31
And he said, "It's funnyзабавен you askпитам that,
84
196000
2000
Доста е забавно, че задавате този въпрос,
03:33
because it's actuallyвсъщност calledНаречен blackчерно boxкутия tradingтъргуване.
85
198000
3000
защото това се нарича точно търговията на черната кутия.
03:36
And it's alsoсъщо sometimesпонякога calledНаречен algoалго tradingтъргуване,
86
201000
2000
Нарича се също и алго търговия -
03:38
algorithmicалгоритмични tradingтъргуване."
87
203000
3000
идва от алгоритмична търговия."
03:41
And algorithmicалгоритмични tradingтъргуване evolvedеволюира in partчаст
88
206000
3000
И тази алгоритмична търговия се развива отчасти,
03:44
because institutionalинституционална tradersтърговци have the sameедин и същ problemsпроблеми
89
209000
3000
защото брокерите имат същите проблеми,
03:47
that the UnitedЮнайтед StatesДържавите AirВъздух ForceСила had,
90
212000
3000
които са имали американски военновъздушни сили,
03:50
whichкойто is that they're movingдвижещ these positionsпозиции --
91
215000
3000
те движат тези позиции -
03:53
whetherдали it's ProctorПроктър & GambleGamble or AccentureAccenture, whateverкакто и да е --
92
218000
2000
все едно е дали ще бъдат Proctor & Gamble или Accenture -
03:55
they're movingдвижещ a millionмилион sharesакции of something
93
220000
2000
те движат милиони акции от нещо
03:57
throughпрез the marketпазар.
94
222000
2000
през пазара.
03:59
And if they do that all at onceведнъж,
95
224000
2000
И ако го правят едновременно,
04:01
it's like playingиграете pokerпокер and going all in right away.
96
226000
2000
това е като да влезеш с всичко вътре.
04:03
You just tipбакшиш your handръка.
97
228000
2000
Просто играеш "ръка".
04:05
And so they have to find a way --
98
230000
2000
И така брокерите трябва да намерят начин -
04:07
and they use algorithmsалгоритми to do this --
99
232000
2000
и те използват алгоритми, за да го направят -
04:09
to breakпочивка up that bigголям thing
100
234000
2000
за да разчупят това голямо нещо
04:11
into a millionмилион little transactionsтранзакции.
101
236000
2000
на милиони малки транзакции.
04:13
And the magicмагия and the horrorужас of that
102
238000
2000
И магията и кошмарът тук е, че
04:15
is that the sameедин и същ mathматематика
103
240000
2000
това е същата математика,
04:17
that you use to breakпочивка up the bigголям thing
104
242000
2000
която използваш, за да разбиеш голямото нещо
04:19
into a millionмилион little things
105
244000
2000
на милиони малки неща,
04:21
can be used to find a millionмилион little things
106
246000
2000
може да бъде използвана, за да намериш милиони малки неща
04:23
and sewшия them back togetherзаедно
107
248000
2000
и да ги зашие едно за друго
04:25
and figureфигура out what's actuallyвсъщност happeningслучва in the marketпазар.
108
250000
2000
и така да разбере какво всъщност се случва на пазара.
04:27
So if you need to have some imageизображение
109
252000
2000
И така ако трябва да придобиете картина
04:29
of what's happeningслучва in the stockналичност marketпазар right now,
110
254000
3000
какво се случва в момента на борсата,
04:32
what you can pictureснимка is a bunchкуп of algorithmsалгоритми
111
257000
2000
може да изобразите купчина алгоритми,
04:34
that are basicallyв основата си programmedпрограмиран to hideКрия,
112
259000
3000
които са програмирани да крият
04:37
and a bunchкуп of algorithmsалгоритми that are programmedпрограмиран to go find them and actакт.
113
262000
3000
и друга купчина алгоритми, които имат задачата да ги открият и да действат.
04:40
And all of that's great, and it's fine.
114
265000
3000
И всичко това е страхотно и е добре.
04:43
And that's 70 percentна сто
115
268000
2000
И това са 70 процента
04:45
of the UnitedЮнайтед StatesДържавите stockналичност marketпазар,
116
270000
2000
от борсата на Съединените Щати,
04:47
70 percentна сто of the operatingексплоатационен systemсистема
117
272000
2000
70 процента от оперативната система
04:49
formerlyпо-рано knownизвестен as your pensionпенсия,
118
274000
3000
формално наречена твоята пенсия,
04:52
your mortgageипотека.
119
277000
3000
твоята ипотека.
04:55
And what could go wrongпогрешно?
120
280000
2000
И какво може да се обърка тук?
04:57
What could go wrongпогрешно
121
282000
2000
Хм, ами това което може да се обърка
04:59
is that a yearгодина agoпреди,
122
284000
2000
е че преди година
05:01
nineдевет percentна сто of the entireцял marketпазар just disappearsизчезва in fiveпет minutesминути,
123
286000
3000
9 процента от целия пазар просто изчезнаха в рамките на 5 минути
05:04
and they calledНаречен it the FlashСветкавица CrashКатастрофа of 2:45.
124
289000
3000
и това се нарича светкавичния краш от 2:45.
05:07
All of a suddenвнезапен, nineдевет percentна сто just goesотива away,
125
292000
3000
Изведнъж 9 процента от пазарната стойност просто изчезна
05:10
and nobodyНикой to this day
126
295000
2000
и никой до ден днешен
05:12
can even agreeСъгласен on what happenedсе случи
127
297000
2000
не може да постигне консенсус какво точно се е случило,
05:14
because nobodyНикой orderedпоръчан it, nobodyНикой askedпопитах for it.
128
299000
3000
защото никой не го е поръчвал, никой не е питал за него.
05:17
NobodyНикой не had any controlконтрол over what was actuallyвсъщност happeningслучва.
129
302000
3000
Никой нямаше реален контрол над това, което се случва.
05:20
All they had
130
305000
2000
Всичко, което те имаха
05:22
was just a monitorмонитор in frontпреден of them
131
307000
2000
беше просто монитор,
05:24
that had the numbersчисленост on it
132
309000
2000
който имаше числа по него
05:26
and just a redчервен buttonбутон
133
311000
2000
и един червен бутон,
05:28
that said, "Stop."
134
313000
2000
който казваше "Стоп".
05:30
And that's the thing,
135
315000
2000
И точно това е проблемът,
05:32
is that we're writingписане things,
136
317000
2000
пишем неща,
05:34
we're writingписане these things that we can no longerповече време readПрочети.
137
319000
3000
пишем неща, които вече не можем да прочетем.
05:37
And we'veние имаме renderedизвършени something
138
322000
2000
И изоставяме нещо, което
05:39
illegibleнечетливи,
139
324000
2000
е нечетливо.
05:41
and we'veние имаме lostзагубен the senseсмисъл
140
326000
3000
Вече сме загубили чувството
05:44
of what's actuallyвсъщност happeningслучва
141
329000
2000
какво се случва вдействителност
05:46
in this worldсвят that we'veние имаме madeизработен.
142
331000
2000
в света, който самите ние сме създали.
05:48
And we're startingстартиране to make our way.
143
333000
2000
И започваме да създаваме нашия начин за тълкуването на нещата.
05:50
There's a companyкомпания in BostonБостън calledНаречен NanexNanex,
144
335000
3000
Има една компания в Бостън наречена Nanex
05:53
and they use mathматематика and magicмагия
145
338000
2000
и те използват точно математика и магия
05:55
and I don't know what,
146
340000
2000
и аз не знам точно какво
05:57
and they reachдостигнат into all the marketпазар dataданни
147
342000
2000
и те достигат до всички пазарни данни
05:59
and they find, actuallyвсъщност sometimesпонякога, some of these algorithmsалгоритми.
148
344000
3000
и намират понякога някои от онези алгоритми.
06:02
And when they find them they pullдърпам them out
149
347000
3000
И когато ги откриват, ги "издърпват от системата"
06:05
and they pinщифт them to the wallстена like butterfliesпеперуди.
150
350000
3000
и ги забождат на стената като пеперуди.
06:08
And they do what we'veние имаме always doneСвършен
151
353000
2000
И те правят това, което ние винаги правим,
06:10
when confrontedизправен with hugeогромен amountsсуми of dataданни that we don't understandразбирам --
152
355000
3000
когато се конфронтираме с голям брой данни, които не разбираме -
06:13
whichкойто is that they give them a nameиме
153
358000
2000
дават им имена
06:15
and a storyистория.
154
360000
2000
и история.
06:17
So this is one that they foundнамерено,
155
362000
2000
И така това е един от алгоритмите, които те са открили,
06:19
they calledНаречен the KnifeНож,
156
364000
4000
наричат го Нож,
06:23
the CarnivalКарнавал,
157
368000
2000
Карнавал,
06:25
the BostonБостън ShufflerБъркач,
158
370000
4000
Бостънският Картоиграч,
06:29
TwilightЗдрач.
159
374000
2000
Сумрач.
06:31
And the gagGAG is
160
376000
2000
И номерът е,
06:33
that, of courseкурс, these aren'tне са just runningбягане throughпрез the marketпазар.
161
378000
3000
че те разбира се не тичат просто през пазара.
06:36
You can find these kindsвидове of things whereverкъдето you look,
162
381000
3000
Вие можете да откриете това навсякъде, където и да погледнете
06:39
onceведнъж you learnуча how to look for them.
163
384000
2000
само трябва да се научите къде да гледате за тях.
06:41
You can find it here: this bookКнига about fliesмухи
164
386000
3000
Ето ви един пример: тази книга за мухи,
06:44
that you mayможе have been looking at on AmazonАмазонка.
165
389000
2000
която може би сте търсили в Амазон.
06:46
You mayможе have noticedзабелязах it
166
391000
2000
Може би сте я забелязали,
06:48
when its priceцена startedзапочна at 1.7 millionмилион dollarsдолара.
167
393000
2000
когато цената и доближи 1,7 милиона долара.
06:50
It's out of printпечат -- still ...
168
395000
2000
Тогава тиражът и е изчерпан.
06:52
(LaughterСмях)
169
397000
2000
Смях в залата
06:54
If you had boughtкупих it at 1.7, it would have been a bargainсделка.
170
399000
3000
Ако си я бяхте купили по това време, щеше да бъде изгодно.
06:57
A fewмалцина hoursчаса laterпо късно, it had goneси отиде up
171
402000
2000
След няколко часа цената се качи и
06:59
to 23.6 millionмилион dollarsдолара,
172
404000
2000
стигна 23,6 милиона долара
07:01
plusплюс shippingдоставка and handlingборавене.
173
406000
2000
плюс транспорт и комисионна.
07:03
And the questionвъпрос is:
174
408000
2000
И така въпросът е:
07:05
NobodyНикой не was buyingкупуване or sellingпродажна anything; what was happeningслучва?
175
410000
2000
Никой не купуваше или продаваше - и така какво се случи?
07:07
And you see this behaviorповедение on AmazonАмазонка
176
412000
2000
И така вие може да видите това поведение в Amazon
07:09
as surelyсигурно as you see it on WallСтена StreetУлица.
177
414000
2000
по същия начин, по който може да го видите на Wall Street.
07:11
And when you see this kindмил of behaviorповедение,
178
416000
2000
И когато видите това поведени,
07:13
what you see is the evidenceдоказателства
179
418000
2000
това което виждате е доказателство
07:15
of algorithmsалгоритми in conflictконфликт,
180
420000
2000
на алгоритми в конфликт,
07:17
algorithmsалгоритми lockedзаключен in loopsелектрически вериги with eachвсеки other,
181
422000
2000
алгоритми свързани взаимно в цикъл,
07:19
withoutбез any humanчовек oversightнадзор,
182
424000
2000
без човешка намеса,
07:21
withoutбез any adultвъзрастен supervisionнадзор
183
426000
3000
без наблюдение на възръстен,
07:24
to say, "ActuallyВсъщност, 1.7 millionмилион is plentyмного."
184
429000
3000
който да каже " Всъщност 1.7 милиона са много."
07:27
(LaughterСмях)
185
432000
3000
Смях в залата.
07:30
And as with AmazonАмазонка, so it is with NetflixNetflix.
186
435000
3000
Както е с Amazon, така е и с Netflix.
07:33
And so NetflixNetflix has goneси отиде throughпрез
187
438000
2000
И така Netflix преминава през
07:35
severalняколко differentразличен algorithmsалгоритми over the yearsгодини.
188
440000
2000
няколко различни алгоритма през годините.
07:37
They startedзапочна with CinematchCinematch, and they'veте имат triedопитах a bunchкуп of othersдруги --
189
442000
3000
Започнаха със Cinematch и след това опитаха още няколко.
07:40
there's DinosaurДинозавър PlanetПланета; there's GravityТежестта.
190
445000
2000
Използваха Планетата на Динозаврите, след това Гравитация.
07:42
They're usingизползвайки PragmaticПрагматичен ChaosХаос now.
191
447000
2000
Сега използват Парагматичен хаос.
07:44
PragmaticПрагматичен ChaosХаос is, like all of NetflixNetflix algorithmsалгоритми,
192
449000
2000
Прагматичен хаос е като всички други алгоритми на Netflix,
07:46
tryingопитвайки to do the sameедин и същ thing.
193
451000
2000
опитващи се да правят едно и също нещо.
07:48
It's tryingопитвайки to get a graspсхващане on you,
194
453000
2000
Опитва се да те сграбчи,
07:50
on the firmwareфърмуер insideвътре the humanчовек skullчереп,
195
455000
2000
да сграбчи фините части в мозъка ти,
07:52
so that it can recommendПрепоръчвам what movieфилм
196
457000
2000
така че да ти препоръча филм,
07:54
you mightбиха могли, може want to watch nextследващия --
197
459000
2000
който може би ще ти се прииска да гледаш следващия път -
07:56
whichкойто is a very, very difficultтруден problemпроблем.
198
461000
3000
което от своя страна е много труден проблем.
07:59
But the difficultyзатруднение of the problemпроблем
199
464000
2000
Но трудността на проблема
08:01
and the factфакт that we don't really quiteсъвсем have it down,
200
466000
3000
и фактът, че ние не винаги го разбираме
08:04
it doesn't take away
201
469000
2000
не променя
08:06
from the effectsвещи PragmaticПрагматичен ChaosХаос has.
202
471000
2000
ефекта на Прагматичния Хаос.
08:08
PragmaticПрагматичен ChaosХаос, like all NetflixNetflix algorithmsалгоритми,
203
473000
3000
Прагматичният хаос, подобно на всички алгоритми на Netflix
08:11
determinesопределя, in the endкрай,
204
476000
2000
решава накрая, че
08:13
60 percentна сто
205
478000
2000
60 процента
08:15
of what moviesкино endкрай up beingсъщество rentedотдават под наем.
206
480000
2000
от всички филми в края на краищата ще бъдат взети под наем.
08:17
So one pieceпарче of codeкод
207
482000
2000
И така едно парче код
08:19
with one ideaидея about you
208
484000
3000
с една идея относно теб
08:22
is responsibleотговорен for 60 percentна сто of those moviesкино.
209
487000
3000
е отговорно за 60 процента от тези филми.
08:25
But what if you could rateскорост those moviesкино
210
490000
2000
Но какво ще стане, ако можете да давате оценка на тези филми,
08:27
before they get madeизработен?
211
492000
2000
още преди да бъдат направени?
08:29
Wouldn'tНяма да that be handyудобен?
212
494000
2000
Това няма ли да бъде доста удобно?
08:31
Well, a fewмалцина dataданни scientistsучени from the U.K. are in HollywoodХоливуд,
213
496000
3000
И така, няколко учени, занимаващи се с оценка на данни от Великобритания са в Холивуд
08:34
and they have "storyистория algorithmsалгоритми" --
214
499000
2000
и те са развили тези алгоритми -
08:36
a companyкомпания calledНаречен EpagogixEpagogix.
215
501000
2000
компанията им се казва Epagogix.
08:38
And you can runтичам your scriptскрипт throughпрез there,
216
503000
3000
Можете да пуснеш сценария си през техните алгоритми,
08:41
and they can tell you, quantifiablyколичествено,
217
506000
2000
и те ще ви дадат количествен отговор,
08:43
that that's a 30 millionмилион dollarдолар movieфилм
218
508000
2000
дали това е филм, който ще ти донесе 30
08:45
or a 200 millionмилион dollarдолар movieфилм.
219
510000
2000
или 200 милиона.
08:47
And the thing is, is that this isn't GoogleGoogle.
220
512000
2000
И работата е в това, че това не е Google.
08:49
This isn't informationинформация.
221
514000
2000
Не е информация.
08:51
These aren'tне са financialфинансов statsстатистика; this is cultureкултура.
222
516000
2000
Това не е и финансова статистика, това е култура.
08:53
And what you see here,
223
518000
2000
И това, което виждате тук
08:55
or what you don't really see normallyнормално,
224
520000
2000
или по-скоро това, което не виждате обикновено
08:57
is that these are the physicsфизика of cultureкултура.
225
522000
4000
е че това е физиката на културата.
09:01
And if these algorithmsалгоритми,
226
526000
2000
И така ако тези алгоритми,
09:03
like the algorithmsалгоритми on WallСтена StreetУлица,
227
528000
2000
подобно на алгоритмите на Wall Street,
09:05
just crashedразби one day and wentотидох awryкриво,
228
530000
3000
един ден просто се сринат и увредят
09:08
how would we know?
229
533000
2000
как ще разберем
09:10
What would it look like?
230
535000
2000
как би изглеждало?
09:12
And they're in your houseкъща. They're in your houseкъща.
231
537000
3000
И така те са в твоята къща. Те са в къщата ти.
09:15
These are two algorithmsалгоритми competingконкуриращи for your livingжив roomстая.
232
540000
2000
Това са два алгоритма борещи се за хола ви.
09:17
These are two differentразличен cleaningпочистване robotsроботи
233
542000
2000
Това са два почистващи робота,
09:19
that have very differentразличен ideasидеи about what cleanчист meansсредства.
234
544000
3000
имащи различна идея какво значи чистота.
09:22
And you can see it
235
547000
2000
И можете да го видите,
09:24
if you slowбавен it down and attachприкрепете lightsсветлини to them,
236
549000
3000
ако ги забавите или им монтирате светлини.
09:27
and they're sortвид of like secretтайна architectsархитекти in your bedroomспалня.
237
552000
3000
И те са нещо като тайни архитекти в спалнята ви.
09:30
And the ideaидея that architectureархитектура itselfсебе си
238
555000
3000
И така идеята, че архитектурата сама по себе си
09:33
is somehowнякак си subjectпредмет to algorithmicалгоритмични optimizationоптимизация
239
558000
2000
е обект на оптимизиране на алгоритми
09:35
is not far-fetchedпресилен.
240
560000
2000
не е толкова нереална.
09:37
It's super-realсупер-реално and it's happeningслучва around you.
241
562000
3000
Всъщност тя е супер реална и тя се случва около вас.
09:40
You feel it mostнай-много
242
565000
2000
Най-ясно я чувствате,
09:42
when you're in a sealedзапечатани metalметал boxкутия,
243
567000
2000
когато се намирате в запечатана метална кутия,
09:44
a new-styleнов стил elevatorАсансьор;
244
569000
2000
тези модерни асансьори,
09:46
they're calledНаречен destination-controlместоназначение-контрол elevatorsасансьори.
245
571000
2000
които се наричат асансьори контролиращи посоката.
09:48
These are the onesтакива where you have to pressНатиснете what floorетаж you're going to go to
246
573000
3000
Това са тези асансьори, в които трябва да натиснеш етажа,
09:51
before you get in the elevatorАсансьор.
247
576000
2000
преди да се качиш на асансьора.
09:53
And it usesупотреби what's calledНаречен a bin-packingСК опаковане algorithmалгоритъм.
248
578000
2000
И те използват алгоритъм за сортиране на контейнери.
09:55
So noneнито един of this mishegasmishegas
249
580000
2000
Това не са онези безумия
09:57
of lettingотдаване под наем everybodyвсички go into whateverкакто и да е carкола they want.
250
582000
2000
да позволиш на всеки да се качи, в която кола би му се приискало.
09:59
EverybodyВсеки who wants to go to the 10thтата floorетаж goesотива into carкола two,
251
584000
2000
Всеки, който иска да се качи на 10 етаж се качва на втората кола
10:01
and everybodyвсички who wants to go to the thirdтрета floorетаж goesотива into carкола fiveпет.
252
586000
3000
и всеки, който иска да се качи на третия етаж отива в кола пет.
10:04
And the problemпроблем with that
253
589000
2000
И проблемът с това е,
10:06
is that people freakкаприз out.
254
591000
2000
че хората се побъркват.
10:08
People panicпаника.
255
593000
2000
Хората се паникьосват.
10:10
And you see why. You see why.
256
595000
2000
И вие разбирате защо.
10:12
It's because the elevatorАсансьор
257
597000
2000
Защото в асансьора
10:14
is missingлипсващ some importantважно instrumentationизмервателна апаратура, like the buttonsбутони.
258
599000
3000
липсва нещо важно като копчетата.
10:17
(LaughterСмях)
259
602000
2000
Смях в залата.
10:19
Like the things that people use.
260
604000
2000
Това са нещата, които хората използват.
10:21
All it has
261
606000
2000
Всичко, което има такъв асансьор
10:23
is just the numberномер that movesходове up or down
262
608000
3000
е просто номерът, който показва дали асансьорът се качва или слиза
10:26
and that redчервен buttonбутон that saysказва, "Stop."
263
611000
3000
и червеният бутон, на който пише "Стоп".
10:29
And this is what we're designingпроектиране for.
264
614000
3000
И затова сме създали дизайна.
10:32
We're designingпроектиране
265
617000
2000
Направили сме дизайна
10:34
for this machineмашина dialectдиалект.
266
619000
2000
за диалекта на тази машина.
10:36
And how farдалече can you take that? How farдалече can you take it?
267
621000
3000
И колко далече можете да стигнете така?
10:39
You can take it really, really farдалече.
268
624000
2000
Можете да стигнете наистина много далече.
10:41
So let me take it back to WallСтена StreetУлица.
269
626000
3000
И така нека се върнем към Wall Street.
10:45
Because the algorithmsалгоритми of WallСтена StreetУлица
270
630000
2000
Защото алгоритмите на Wall Street
10:47
are dependentзависим on one qualityкачество aboveпо-горе all elseоще,
271
632000
3000
зависят от едно много важно условие,
10:50
whichкойто is speedскорост.
272
635000
2000
което е скоростта.
10:52
And they operateработи on millisecondsмилисекунди and microsecondsмикросекунди.
273
637000
3000
И те работят в рамките на мили и микросекунди.
10:55
And just to give you a senseсмисъл of what microsecondsмикросекунди are,
274
640000
2000
Тук просто искам да ви дам усещането какво са микросекунди,
10:57
it takes you 500,000 microsecondsмикросекунди
275
642000
2000
отнема 500,000 микоросекунди,
10:59
just to clickкликване a mouseмишка.
276
644000
2000
само за да натиснете мишката.
11:01
But if you're a WallСтена StreetУлица algorithmалгоритъм
277
646000
2000
Но ако си алгоритъм на Wall Street
11:03
and you're fiveпет microsecondsмикросекунди behindзад,
278
648000
2000
и имаш 5 микросекунди закъснение,
11:05
you're a loserзагубеняк.
279
650000
2000
то ти си загубеняк.
11:07
So if you were an algorithmалгоритъм,
280
652000
2000
И така ако си алгоритъм,
11:09
you'dти можеш look for an architectархитект like the one that I metсрещнах in FrankfurtФранкфурт на Майн
281
654000
3000
ще се оглеждате за архитект, като онзи, когото срещнах във Франкфурт.
11:12
who was hollowingдълбене out a skyscraperнебостъргач --
282
657000
2000
Той изпразваше небостъргачите -
11:14
throwingхвърляне out all the furnitureмебели, all the infrastructureинфраструктура for humanчовек use,
283
659000
3000
всички мебели, цялата инфраструктура важна за човешките нужди
11:17
and just runningбягане steelстомана on the floorsподове
284
662000
3000
и просто полагаше стомана на пода,
11:20
to get readyготов for the stacksкупища of serversсървъри to go in --
285
665000
3000
за да приготви небостъргача за сървърите, които трябваше да бъдат положени там -
11:23
all so an algorithmалгоритъм
286
668000
2000
също и алгоритъм,
11:25
could get closeблизо to the InternetИнтернет.
287
670000
3000
с който може да се стигне по-близо до интернет.
11:28
And you think of the InternetИнтернет as this kindмил of distributedразпределена systemсистема.
288
673000
3000
И вие възприематe интернет като вид дистрибуторска система.
11:31
And of courseкурс, it is, but it's distributedразпределена from placesместа.
289
676000
3000
И разбира се това е така, но дистрибуцията става отнякъде.
11:34
In NewНов YorkЙорк, this is where it's distributedразпределена from:
290
679000
2000
В Ню Йорк това става от това място:
11:36
the CarrierПревозвач HotelХотел
291
681000
2000
Carrier Hotel
11:38
locatedразположен on HudsonХъдсън StreetУлица.
292
683000
2000
намиращ се на Hudson Street.
11:40
And this is really where the wiresпроводници come right up into the cityград.
293
685000
3000
И това е мястото, от което кабелите идват в града.
11:43
And the realityреалност is that the furtherоще away you are from that,
294
688000
4000
И реалността е, че колкото по-далече сте от това място,
11:47
you're a fewмалцина microsecondsмикросекунди behindзад everyвсеки time.
295
692000
2000
толкова по-далече сте от времето.
11:49
These guys down on WallСтена StreetУлица,
296
694000
2000
Момчетата на Wall Street,
11:51
MarcoМарко PoloПоло and CherokeeЧероки NationНация,
297
696000
2000
Marco Polo и Cherokee Nation,
11:53
they're eightосем microsecondsмикросекунди
298
698000
2000
те са осем микросекунди
11:55
behindзад all these guys
299
700000
2000
след другите момчета,
11:57
going into the emptyпразен buildingsсгради beingсъщество hollowedВдлъбнати out
300
702000
4000
които влизат в онази изпразнена сграда
12:01
up around the CarrierПревозвач HotelХотел.
301
706000
2000
на Carrier Hotel.
12:03
And that's going to keep happeningслучва.
302
708000
3000
И това ще продължи да се случва.
12:06
We're going to keep hollowingдълбене them out,
303
711000
2000
И ние ще продължим да ги изпразваме,
12:08
because you, inchинч for inchинч
304
713000
3000
защото инч по инч
12:11
and poundпаунд for poundпаунд and dollarдолар for dollarдолар,
305
716000
3000
и паунд по паунд и долар по долар,
12:14
noneнито един of you could squeezeстискане revenueприход out of that spaceпространство
306
719000
3000
никой няма да може да изстиска печалба от това място
12:17
like the BostonБостън ShufflerБъркач could.
307
722000
3000
по начина , по който Бостънския картоиграч би успял.
12:20
But if you zoomмащабиране out,
308
725000
2000
Но ако намалите мащаба,
12:22
if you zoomмащабиране out,
309
727000
2000
ако намалите мащаба,
12:24
you would see an 825-mile-мили trenchпадина
310
729000
4000
вие ще видите 825 мили канавка
12:28
betweenмежду NewНов YorkЙорк CityГрад and ChicagoЧикаго
311
733000
2000
между Ню Йорк и Чикаго,
12:30
that's been builtпостроен over the last fewмалцина yearsгодини
312
735000
2000
която беше построена през последните няколко години
12:32
by a companyкомпания calledНаречен SpreadРазпространение NetworksМрежи.
313
737000
3000
от компания наречена Spread Networks.
12:35
This is a fiberвлакно opticоптичен cableкабел
314
740000
2000
Това е оптичен кабел,
12:37
that was laidположени betweenмежду those two citiesградове
315
742000
2000
който е поставен между тези два града,
12:39
to just be ableспособен to trafficтрафик one signalсигнал
316
744000
3000
просто за да бъде в състояние да предаде един сигнал
12:42
37 timesпъти fasterпо-бързо than you can clickкликване a mouseмишка --
317
747000
3000
37 пъти по-бързо от скоростта, с която можете да кликнете мишката -
12:45
just for these algorithmsалгоритми,
318
750000
3000
просто заради тези алгоритми,
12:48
just for the CarnivalКарнавал and the KnifeНож.
319
753000
3000
само заради Карнавала и Ножа.
12:51
And when you think about this,
320
756000
2000
И когато се замислите,
12:53
that we're runningбягане throughпрез the UnitedЮнайтед StatesДържавите
321
758000
2000
че ние тичаме през Съединените Щати
12:55
with dynamiteдинамит and rockрок sawsТриони
322
760000
3000
с динамит и трион за скали,
12:58
so that an algorithmалгоритъм can closeблизо the dealсделка
323
763000
2000
така че един алгоритъм да може да затвори сделката
13:00
threeтри microsecondsмикросекунди fasterпо-бързо,
324
765000
3000
три милисекунди по-бързо,
13:03
all for a communicationsкомуникации frameworkрамка
325
768000
2000
и всичко това заради някаква комуникационна рамка,
13:05
that no humanчовек will ever know,
326
770000
4000
която никой човек няма никога да разбере,
13:09
that's a kindмил of manifestманифест destinyсъдба;
327
774000
3000
това е нещо като демонстративна съдба
13:12
and we'llдобре always look for a newнов frontierграница.
328
777000
3000
и винаги ще търси нови граници.
13:15
UnfortunatelyЗа съжаление, we have our work cutразрез out for us.
329
780000
3000
За нещастие ние си имаме нашата работа вече подготвена за нас.
13:18
This is just theoreticalтеоретичен.
330
783000
2000
Това е просто теория.
13:20
This is some mathematiciansматематици at MITMIT.
331
785000
2000
Това е просто математици от MIT.
13:22
And the truthистина is I don't really understandразбирам
332
787000
2000
И истината е, че аз не разбирам наистина
13:24
a lot of what they're talkingговорим about.
333
789000
2000
много от нещата, за които те говорят.
13:26
It involvesвключва lightсветлина conesконуси and quantumквант entanglementзаплитане,
334
791000
3000
Тя включва снопове светлина и квантови оплитания,
13:29
and I don't really understandразбирам any of that.
335
794000
2000
и аз не разбирам нито един от тях.
13:31
But I can readПрочети this mapкарта,
336
796000
2000
Но аз мога да чета тази карта.
13:33
and what this mapкарта saysказва
337
798000
2000
И това, което тя казва
13:35
is that, if you're tryingопитвайки to make moneyпари on the marketsпазари where the redчервен dotsточки are,
338
800000
3000
е че, ако се опитваш да правиш пари на пазарите, отбелязани с червени точки,
13:38
that's where people are, where the citiesградове are,
339
803000
2000
това са където са хората, където са градовете,
13:40
you're going to have to put the serversсървъри where the blueсин dotsточки are
340
805000
3000
тоест трябва да поставиш сървърите на местата със сините точки,
13:43
to do that mostнай-много effectivelyефективно.
341
808000
2000
за да изпълниш плана си по-ефективно.
13:45
And the thing that you mightбиха могли, може have noticedзабелязах about those blueсин dotsточки
342
810000
3000
И може би забелязвате,
13:48
is that a lot of them are in the middleсреден of the oceanокеан.
343
813000
3000
че повечето точки са насред океана.
13:51
So that's what we'llдобре do: we'llдобре buildпострои bubblesмехурчета or something,
344
816000
3000
И така това е нещото, което ще направим - ще направим балончета или нещо друго,
13:54
or platformsплатформи.
345
819000
2000
или платформи,
13:56
We'llНие ще actuallyвсъщност partчаст the waterвода
346
821000
2000
които всъщност ще са част от водата
13:58
to pullдърпам moneyпари out of the airвъздух,
347
823000
2000
и ще дърпат пари от въздуха,
14:00
because it's a brightярък futureбъдеще
348
825000
2000
защото бъдещето е светло,
14:02
if you're an algorithmалгоритъм.
349
827000
2000
ако си алгоритъм.
14:04
(LaughterСмях)
350
829000
2000
Смях в залата.
14:06
And it's not the moneyпари that's so interestingинтересен actuallyвсъщност.
351
831000
3000
И всъщност не са парите, нещото, което е толкова интересно.
14:09
It's what the moneyпари motivatesмотивира,
352
834000
2000
Става въпрос за това, което парите мотивират.
14:11
that we're actuallyвсъщност terraformingтераформирането
353
836000
2000
Това, че ние всъщност оформяме
14:13
the EarthЗемята itselfсебе си
354
838000
2000
самата Земя
14:15
with this kindмил of algorithmicалгоритмични efficiencyефективност.
355
840000
2000
с нещо като алгоритмична ефективност.
14:17
And in that lightсветлина,
356
842000
2000
И в тази светлина
14:19
you go back
357
844000
2000
ви се връщате назад
14:21
and you look at MichaelМайкъл Najjar'sНа Наджар в photographsфотографии,
358
846000
2000
и поглеждате фотографиите на Мишел Нажар
14:23
and you realizeосъзнавам that they're not metaphorметафора, they're prophecyпророчеството.
359
848000
3000
и осъзнавате, че те не са просто метафора, а че те са пророчество.
14:26
They're prophecyпророчеството
360
851000
2000
Те са пророчество
14:28
for the kindмил of seismicсеизмичен, terrestrialсухоземни effectsвещи
361
853000
4000
за вида на сеизмичните, земни ефекти
14:32
of the mathматематика that we're makingприготвяне.
362
857000
2000
на математиката, която правим.
14:34
And the landscapeпейзаж was always madeизработен
363
859000
3000
И пейзажът беше винаги оформян
14:37
by this sortвид of weirdстранен, uneasyпритеснен collaborationсътрудничество
364
862000
3000
от онзи вид странно, неудобно сътрудничество
14:40
betweenмежду natureприрода and man.
365
865000
3000
между природата и хората.
14:43
But now there's this thirdтрета co-evolutionaryКо еволюционно forceсила: algorithmsалгоритми --
366
868000
3000
Но вече имаме онази трета ко-еволюционна сила: алгоритмите -
14:46
the BostonБостън ShufflerБъркач, the CarnivalКарнавал.
367
871000
3000
Бостънския картоиграч, Карнавала.
14:49
And we will have to understandразбирам those as natureприрода,
368
874000
3000
И ще се наложи да ги разберем като природата.
14:52
and in a way, they are.
369
877000
2000
И по някакъв начин те са.
14:54
Thank you.
370
879000
2000
Благодаря ви.
14:56
(ApplauseАплодисменти)
371
881000
20000
(Аплодисменти)
Translated by Denitza Toteva
Reviewed by Darina Stoyanova

▲Back to top

ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com