ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com
TEDGlobal 2011

Kevin Slavin: How algorithms shape our world

Кевин Славин: Как алгоритмы формируют наш мир

Filmed:
4,199,898 views

Кевин Славин утверждает, что мы живём в мире, построенном и во всё большей степени управляемым алгоритмами. В этом захватывающем выступлении на TEDGlobal, он демонстрирует, как сложные компьютерные программы определяют тактики шпионажа, цены акций, сценарии фильмов, и архитектуру. Он предупреждает, что мы пишем код, который не можем понять, с последствиями, которые не можем контролировать.
- Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms. Full bio

Double-click the English transcript below to play the video.

00:15
This is a photographфотография
0
0
2000
Это — фотография
00:17
by the artistхудожник MichaelМайкл Najjarнайяр,
1
2000
2000
Майкла Найджара,
00:19
and it's realреальный,
2
4000
2000
и она настоящая,
00:21
in the senseсмысл that he wentотправился there to ArgentinaАргентина
3
6000
2000
в том смысле, что он поехал в Аргентину,
00:23
to take the photoФото.
4
8000
2000
чтобы сделать фотографию.
00:25
But it's alsoтакже a fictionфантастика. There's a lot of work that wentотправился into it after that.
5
10000
3000
Но она также и выдумка. После этого
в неё было вложено много работы.
00:28
And what he's doneсделанный
6
13000
2000
Он взял и переделал её
00:30
is he's actuallyна самом деле reshapedвидоизмененных, digitallyв цифровом виде,
7
15000
2000
на компьютере так,
00:32
all of the contoursконтуры of the mountainsгоры
8
17000
2000
чтобы все очертания гор
00:34
to followследовать the vicissitudesпревратности of the DowДоу JonesДжонс indexиндекс.
9
19000
3000
следовали превратностям
индекса Доу-Джонса.
00:37
So what you see,
10
22000
2000
Что вы видите,
00:39
that precipiceпропасть, that highвысокая precipiceпропасть with the valleyдолина,
11
24000
2000
вот тот обрыв, высокий обрыв с долиной,
00:41
is the 2008 financialфинансовый crisisкризис.
12
26000
2000
это финансовый кризис 2008-го года.
00:43
The photoФото was madeсделал
13
28000
2000
Эта фотография была сделана,
00:45
when we were deepглубоко in the valleyдолина over there.
14
30000
2000
когда мы были глубоко вот там в долине.
00:47
I don't know where we are now.
15
32000
2000
Я не знаю, где мы находимся сейчас.
00:49
This is the Hangвешать SengСенг indexиндекс
16
34000
2000
Это индекс Хан-Сенга,
00:51
for HongHong KongKong.
17
36000
2000
из Гонконга.
00:53
And similarаналогичный topographyтопография.
18
38000
2000
Схожая топография.
00:55
I wonderзадаваться вопросом why.
19
40000
2000
Я в догадках, почему.
00:57
And this is artИзобразительное искусство. This is metaphorметафора.
20
42000
3000
Это искусство. Это метафора.
01:00
But I think the pointточка is
21
45000
2000
Я думаю, дело в том,
01:02
that this is metaphorметафора with teethзубы,
22
47000
2000
что это зубастая метафора.
01:04
and it's with those teethзубы that I want to proposeпредложить todayCегодня
23
49000
3000
С мыслями об этих зубах
я хочу предложить, чтобы мы сегодня
01:07
that we rethinkпересмотреть a little bitнемного
24
52000
2000
немного переосмыслили
01:09
about the roleроль of contemporaryсовременный mathматематический --
25
54000
3000
роль современной математики —
01:12
not just financialфинансовый mathматематический, but mathматематический in generalГенеральная.
26
57000
3000
не только финансовой математики,
а математики в общем.
01:15
That its transitionпереход
27
60000
2000
Её переход от того,
01:17
from beingявляющийся something that we extractэкстракт and deriveвыводить from the worldМир
28
62000
3000
что мы извлекаем и выводим
из наблюдений за миром,
01:20
to something that actuallyна самом деле startsначинается to shapeформа it --
29
65000
3000
к тому, что начинает формировать —
01:23
the worldМир around us and the worldМир insideвнутри us.
30
68000
3000
мир вокруг нас и наш внутренний мир.
01:26
And it's specificallyконкретно algorithmsалгоритмы,
31
71000
2000
Именно алгоритмы,
01:28
whichкоторый are basicallyв основном the mathматематический
32
73000
2000
та самая математика,
01:30
that computersкомпьютеры use to decideпринимать решение stuffматериал.
33
75000
3000
которую компьютеры
используют для принятия решений.
01:33
They acquireприобретать the sensibilityобидчивость of truthправда
34
78000
2000
Они становятся правдоподобными,
01:35
because they repeatповторение over and over again,
35
80000
2000
из-за многократного повторения.
01:37
and they ossifyоссифицировать and calcifyобызвествляться,
36
82000
3000
Они костенеют и твердеют
01:40
and they becomeстали realреальный.
37
85000
2000
и становятся реальностью.
01:42
And I was thinkingмышление about this, of all placesмест,
38
87000
3000
Я думал об этом, подумать только,
01:45
on a transatlanticтрансатлантический flightрейс a coupleпара of yearsлет agoтому назад,
39
90000
3000
во время трансатлантического
перелёта много лет назад,
01:48
because I happenedполучилось to be seatedсидящий
40
93000
2000
потому что по случайности меня посадили
01:50
nextследующий to a HungarianВенгерский physicistфизик about my ageвозраст
41
95000
2000
с венгерским физиком примерно моего возраста,
01:52
and we were talkingговорящий
42
97000
2000
и мы разговаривали о том,
01:54
about what life was like duringв течение the ColdХолодно Warвойна
43
99000
2000
какой была жизнь физиков
01:56
for physicistsфизики in HungaryВенгрия.
44
101000
2000
во время холодной войны в Венгрии.
01:58
And I said, "So what were you doing?"
45
103000
2000
Я спросил: «Так чем же вы занимались?»
02:00
And he said, "Well we were mostlyв основном breakingломка stealthхитрость."
46
105000
2000
Он ответил: «По большей части,
ломали защиту самолётов-невидимок».
02:02
And I said, "That's a good jobработа. That's interestingинтересно.
47
107000
2000
«Хорошая работа, — сказал я, —
интересная тема.
02:04
How does that work?"
48
109000
2000
А как это работает?»
02:06
And to understandПонимаю that,
49
111000
2000
Чтобы это понять, нужно понимать,
02:08
you have to understandПонимаю a little bitнемного about how stealthхитрость worksработает.
50
113000
3000
как работают самолёты-невидимки.
02:11
And so -- this is an over-simplificationупрощение --
51
116000
3000
Вот — и это сильное упрощение —
02:14
but basicallyв основном, it's not like
52
119000
2000
по-простому, нельзя
02:16
you can just passпроходить a radarрадиолокационный signalсигнал
53
121000
2000
взять и пропустить сигнал радара
02:18
right throughчерез 156 tonsтонны of steelстали in the skyнебо.
54
123000
3000
сквозь 156 тонн стали в небесах.
02:21
It's not just going to disappearисчезать.
55
126000
3000
Никуда они не денутся.
02:24
But if you can take this bigбольшой, massiveмассивный thing,
56
129000
3000
Но если взять эту огромную,
массивную штуку,
02:27
and you could turnочередь it into
57
132000
3000
и если сделать из неё
02:30
a millionмиллиона little things --
58
135000
2000
миллион маленьких —
02:32
something like a flockстадо of birdsптицы --
59
137000
2000
примерно как стая птиц —
02:34
well then the radarрадиолокационный that's looking for that
60
139000
2000
тогда наблюдающий радар
02:36
has to be ableв состоянии to see
61
141000
2000
должен уметь видеть
02:38
everyкаждый flockстадо of birdsптицы in the skyнебо.
62
143000
2000
каждую стаю птиц в небе.
02:40
And if you're a radarрадиолокационный, that's a really badПлохо jobработа.
63
145000
4000
И для радара это не самая лёгкая работа.
02:44
And he said, "Yeah." He said, "But that's if you're a radarрадиолокационный.
64
149000
3000
«Да, — сказал он, — это так,
если использовать радар.
02:47
So we didn't use a radarрадиолокационный;
65
152000
2000
Поэтому радар мы не использовали.
02:49
we builtпостроен a blackчерный boxкоробка that was looking for electricalэлектрический signalsсигналы,
66
154000
3000
Мы сделали чёрный ящик,
который искал электронные сигналы,
02:52
electronicэлектронный communicationсвязь.
67
157000
3000
электронные сообщения.
02:55
And wheneverвсякий раз, когда we saw a flockстадо of birdsптицы that had electronicэлектронный communicationсвязь,
68
160000
3000
И каждый раз, когда была замечена
стая птиц, ведущая электронные разговоры,
02:58
we thought, 'Probably'Вероятно has something to do with the Americansамериканцы.'"
69
163000
3000
мы знали, что, наверное,
это что-то американское».
03:01
And I said, "Yeah.
70
166000
2000
«Да, — ответил я, —
03:03
That's good.
71
168000
2000
неплохо.
03:05
So you've effectivelyфактически negatedотрицается
72
170000
2000
Вы практически взяли
03:07
60 yearsлет of aeronauticвоздухоплавательный researchисследование.
73
172000
2000
и перечеркнули 60 лет
аэронавигационных исследований.
03:09
What's your actакт two?
74
174000
2000
А чем вы сейчас занимаетесь?
03:11
What do you do when you growрасти up?"
75
176000
2000
Чем вы занимаетесь во взрослой жизни?»
03:13
And he said,
76
178000
2000
Он ответил:
03:15
"Well, financialфинансовый servicesСервисы."
77
180000
2000
«Финансовые услуги».
03:17
And I said, "Oh."
78
182000
2000
«Ого» — удивился я.
03:19
Because those had been in the newsНовости latelyв последнее время.
79
184000
3000
Потому что про них недавно
говорили в новостях.
03:22
And I said, "How does that work?"
80
187000
2000
«А это как работает?» — спросил я.
03:24
And he said, "Well there's 2,000 physicistsфизики on Wallстена Streetулица now,
81
189000
2000
Он ответил: «На Уолл-стрит
сейчас работает две тысячи физиков,
03:26
and I'm one of them."
82
191000
2000
и я один из них».
03:28
And I said, "What's the blackчерный boxкоробка for Wallстена Streetулица?"
83
193000
3000
Я спросил: «И каков же
чёрный ящик для Уолл-стрит?»
03:31
And he said, "It's funnyвеселая you askпросить that,
84
196000
2000
Он удивился: «Надо же, как вы спросили,
03:33
because it's actuallyна самом деле calledназывается blackчерный boxкоробка tradingторговый.
85
198000
3000
потому что он действительно называется
торговля чёрными ящиками.
03:36
And it's alsoтакже sometimesиногда calledназывается algoалго tradingторговый,
86
201000
2000
Иногда это называется алготорговля,
03:38
algorithmicалгоритмический tradingторговый."
87
203000
3000
алгоритмическая торговля».
03:41
And algorithmicалгоритмический tradingторговый evolvedэволюционировали in partчасть
88
206000
3000
Алгоритмическая торговля
развилась отчасти
03:44
because institutionalинституциональных tradersторговцы have the sameодна и та же problemsпроблемы
89
209000
3000
потому что у профессиональных торговцев
были те же проблемы,
03:47
that the Unitedобъединенный Statesсостояния AirВоздух Forceсила had,
90
212000
3000
что и у Военно-воздушных сил США,
03:50
whichкоторый is that they're movingперемещение these positionsпозиции --
91
215000
3000
а именно, когда они торгуют акциями —
03:53
whetherбудь то it's Proctorпроктор & Gambleавантюра or AccentureAccenture, whateverбез разницы --
92
218000
2000
будь то Proctor & Gamble
или Accenture, что угодно —
03:55
they're movingперемещение a millionмиллиона sharesакции of something
93
220000
2000
они проводят миллионы акций
03:57
throughчерез the marketрынок.
94
222000
2000
сквозь рынок.
03:59
And if they do that all at onceодин раз,
95
224000
2000
Если сделать это одним махом,
04:01
it's like playingиграть pokerпокер and going all in right away.
96
226000
2000
то это, как в покере, поставить всё сразу.
04:03
You just tipнаконечник your handрука.
97
228000
2000
Все поймут, что у вас на руках.
04:05
And so they have to find a way --
98
230000
2000
Итак, им нужно найти способ —
04:07
and they use algorithmsалгоритмы to do this --
99
232000
2000
и для этого они используют алгоритмы —
04:09
to breakломать up that bigбольшой thing
100
234000
2000
разбить эту огромную штуку
04:11
into a millionмиллиона little transactionsоперации.
101
236000
2000
на миллион маленьких транзакций.
04:13
And the magicмагия and the horrorужастик of that
102
238000
2000
Магия и ужас в том,
04:15
is that the sameодна и та же mathматематический
103
240000
2000
что та самая математика,
04:17
that you use to breakломать up the bigбольшой thing
104
242000
2000
использованная для разбивки большой вещи
04:19
into a millionмиллиона little things
105
244000
2000
на миллион маленьких вещей,
04:21
can be used to find a millionмиллиона little things
106
246000
2000
может быть использована
для поиска миллиона маленьких вещей,
04:23
and sewшить them back togetherвместе
107
248000
2000
сборки их обратно, и выяснения,
04:25
and figureфигура out what's actuallyна самом деле happeningпроисходит in the marketрынок.
108
250000
2000
что же действительно происходит на рынке.
04:27
So if you need to have some imageобраз
109
252000
2000
В качестве представления,
04:29
of what's happeningпроисходит in the stockакции marketрынок right now,
110
254000
3000
что сейчас происходит
на рынке акций прямо сейчас,
04:32
what you can pictureкартина is a bunchгроздь of algorithmsалгоритмы
111
257000
2000
можете представить группу алгоритмов,
04:34
that are basicallyв основном programmedзапрограммированный to hideскрывать,
112
259000
3000
которые запрограммированы прятать,
04:37
and a bunchгроздь of algorithmsалгоритмы that are programmedзапрограммированный to go find them and actакт.
113
262000
3000
и группу алгоритмов, которые
запрограммированы искать и действовать.
04:40
And all of that's great, and it's fine.
114
265000
3000
Конечно, всё это классно.
04:43
And that's 70 percentпроцент
115
268000
2000
И это составляет 70%
04:45
of the Unitedобъединенный Statesсостояния stockакции marketрынок,
116
270000
2000
рынка акций США,
04:47
70 percentпроцент of the operatingоперационная systemсистема
117
272000
2000
70% того,
04:49
formerlyраньше knownизвестен as your pensionпенсия,
118
274000
3000
что раньше было известно как ваша пенсия,
04:52
your mortgageипотека.
119
277000
3000
как ваша ипотека.
04:55
And what could go wrongнеправильно?
120
280000
2000
Что же плохого может случиться?
04:57
What could go wrongнеправильно
121
282000
2000
А то,
04:59
is that a yearгод agoтому назад,
122
284000
2000
что год назад,
05:01
nine9 percentпроцент of the entireвсе marketрынок just disappearsисчезает in five5 minutesминут,
123
286000
3000
9% рынка просто исчезло за пять минут,
05:04
and they calledназывается it the Flashвспышка Crashавария of 2:45.
124
289000
3000
и это было названо
мгновенное падение 2:45.
05:07
All of a suddenвнезапно, nine9 percentпроцент just goesидет away,
125
292000
3000
Вдруг, 9% просто исчезает,
05:10
and nobodyникто to this day
126
295000
2000
и по сей день,
05:12
can even agreeдать согласие on what happenedполучилось
127
297000
2000
никто не может понять, что случилось,
05:14
because nobodyникто orderedприказал it, nobodyникто askedспросил for it.
128
299000
3000
потому что никто это не заказывал,
никто об этом не просил.
05:17
NobodyНикто had any controlконтроль over what was actuallyна самом деле happeningпроисходит.
129
302000
3000
Никто не контролировал происходящее.
05:20
All they had
130
305000
2000
Всё, что было доступно —
05:22
was just a monitorмонитор in frontфронт of them
131
307000
2000
монитор перед глазами,
05:24
that had the numbersчисел on it
132
309000
2000
с цифрами на нём,
05:26
and just a redкрасный buttonкнопка
133
311000
2000
и красная кнопка
05:28
that said, "Stop."
134
313000
2000
с надписью «Стоп».
05:30
And that's the thing,
135
315000
2000
Дело в том,
05:32
is that we're writingписьмо things,
136
317000
2000
что мы пишем вещи,
05:34
we're writingписьмо these things that we can no longerдольше readчитать.
137
319000
3000
мы пишем такие вещи,
которые сами не в состоянии прочесть.
05:37
And we'veмы в renderedоказываемых something
138
322000
2000
Мы сделали что-то
05:39
illegibleнеразборчивый,
139
324000
2000
нечитаемое.
05:41
and we'veмы в lostпотерял the senseсмысл
140
326000
3000
Мы потеряли ощущение того,
05:44
of what's actuallyна самом деле happeningпроисходит
141
329000
2000
что происходит в мире,
05:46
in this worldМир that we'veмы в madeсделал.
142
331000
2000
который мы построили.
05:48
And we're startingначало to make our way.
143
333000
2000
Но мы начинаем понимать.
05:50
There's a companyКомпания in BostonБостон calledназывается NanexNanex,
144
335000
3000
В Бостоне есть компания Nanex,
05:53
and they use mathматематический and magicмагия
145
338000
2000
они используют математику и магию
05:55
and I don't know what,
146
340000
2000
и что-то ещё,
05:57
and they reachдостичь into all the marketрынок dataданные
147
342000
2000
получают доступ к данным рынка,
05:59
and they find, actuallyна самом деле sometimesиногда, some of these algorithmsалгоритмы.
148
344000
3000
и находят, иногда,
некоторые из этих алгоритмов.
06:02
And when they find them they pullвытащить them out
149
347000
3000
Когда они их находят,
они их вытаскивают,
06:05
and they pinштырь them to the wallстена like butterfliesбабочки.
150
350000
3000
и прикалывают на стену как бабочек.
06:08
And they do what we'veмы в always doneсделанный
151
353000
2000
Они делают то, что мы всегда делали,
06:10
when confrontedстолкнувшись with hugeогромный amountsсуммы of dataданные that we don't understandПонимаю --
152
355000
3000
сталкиваясь с огромным количеством
данных, которые мы не понимаем —
06:13
whichкоторый is that they give them a nameимя
153
358000
2000
они дают им
06:15
and a storyистория.
154
360000
2000
имя и историю.
06:17
So this is one that they foundнайденный,
155
362000
2000
Вот кое-что из найденного,
06:19
they calledназывается the KnifeНож,
156
364000
4000
названное Нож,
06:23
the CarnivalКарнавал,
157
368000
2000
Карнавал,
06:25
the BostonБостон Shufflerсдающий,
158
370000
4000
Бостонский пройдоха,
06:29
Twilightсумеречный.
159
374000
2000
Сумерки.
06:31
And the gagкляп is
160
376000
2000
Прикол в том,
06:33
that, of courseкурс, these aren'tне just runningБег throughчерез the marketрынок.
161
378000
3000
что это не только на рынке.
06:36
You can find these kindsвиды of things whereverгде бы you look,
162
381000
3000
Эти вещи можно найти везде,
где ни посмотри,
06:39
onceодин раз you learnучить how to look for them.
163
384000
2000
как только научишься их искать.
06:41
You can find it here: this bookкнига about fliesлетит
164
386000
3000
Их можно найти здесь: это книга о мухах,
06:44
that you mayмай have been looking at on AmazonАмазонка.
165
389000
2000
которую можно было заметить на Amazon.
06:46
You mayмай have noticedзаметил it
166
391000
2000
На неё можно было обратить внимание,
06:48
when its priceцена startedначал at 1.7 millionмиллиона dollarsдолларов.
167
393000
2000
когда она стоила 1,7 миллиона долларов.
06:50
It's out of printРаспечатать -- still ...
168
395000
2000
Она больше не издается — но всё же...
06:52
(LaughterСмех)
169
397000
2000
(Смех)
06:54
If you had boughtкупил it at 1.7, it would have been a bargainсделка.
170
399000
3000
И если бы вы купили её за 1,7,
это была бы выгодная сделка.
06:57
A fewмало hoursчасов laterпозже, it had goneпрошло up
171
402000
2000
Несколько часов позже,
она выросла в цене
06:59
to 23.6 millionмиллиона dollarsдолларов,
172
404000
2000
до 23,6 миллиона долларов,
07:01
plusплюс shippingПеревозка and handlingобращение.
173
406000
2000
плюс доставка и упаковка.
07:03
And the questionвопрос is:
174
408000
2000
Вопрос:
07:05
NobodyНикто was buyingпокупка or sellingпродажа anything; what was happeningпроисходит?
175
410000
2000
Никто ничего не продавал
и не покупал, что происходило?
07:07
And you see this behaviorповедение on AmazonАмазонка
176
412000
2000
Такое поведение можно заметить на Amazon
07:09
as surelyконечно as you see it on Wallстена Streetулица.
177
414000
2000
точно так же, как и на Уолл-стрит.
07:11
And when you see this kindсвоего рода of behaviorповедение,
178
416000
2000
При наблюдении такого поведения,
07:13
what you see is the evidenceдоказательства
179
418000
2000
вы видите свидетельство
07:15
of algorithmsалгоритмы in conflictконфликт,
180
420000
2000
конфликтующих алгоритмов,
07:17
algorithmsалгоритмы lockedзапертый in loopsпетли with eachкаждый other,
181
422000
2000
алгоритмов, зажавших друг друга
мёртвой хваткой,
07:19
withoutбез any humanчеловек oversightнадзор,
182
424000
2000
без человеческого контроля,
07:21
withoutбез any adultдля взрослых supervisionнадзор
183
426000
3000
без надзора взрослых,
07:24
to say, "ActuallyНа самом деле, 1.7 millionмиллиона is plentyмного."
184
429000
3000
которые бы сказали: «Ну, хватит,
1,7 миллиона вполне достаточно».
07:27
(LaughterСмех)
185
432000
3000
(Смех)
07:30
And as with AmazonАмазонка, so it is with NetflixNetflix.
186
435000
3000
Это не только на Amazon, но и на Netflix.
07:33
And so NetflixNetflix has goneпрошло throughчерез
187
438000
2000
За годы, Netflix поменял
07:35
severalнесколько differentдругой algorithmsалгоритмы over the yearsлет.
188
440000
2000
несколько разных алгоритмов.
07:37
They startedначал with CinematchCinematch, and they'veони имеют triedпытался a bunchгроздь of othersдругие --
189
442000
3000
Они начали с Cinematch,
и попробовали группу других.
07:40
there's Dinosaurдинозавр Planetпланета; there's GravityСила тяжести.
190
445000
2000
Планета Динозавров, Гравитация.
07:42
They're usingс помощью Pragmaticпрагматический ChaosХаос now.
191
447000
2000
Сейчас они используют
Прагматический Хаос.
07:44
Pragmaticпрагматический ChaosХаос is, like all of NetflixNetflix algorithmsалгоритмы,
192
449000
2000
Прагматический Хаос,
как и все другие алгоритмы Netflix,
07:46
tryingпытаясь to do the sameодна и та же thing.
193
451000
2000
пытается решить ту же задачу.
07:48
It's tryingпытаясь to get a graspсхватывание on you,
194
453000
2000
Он пытается разобраться в вас,
07:50
on the firmwareпрошивка insideвнутри the humanчеловек skullчереп,
195
455000
2000
в прошивке внутри черепа,
07:52
so that it can recommendрекомендовать what movieкино
196
457000
2000
для того чтобы рекомендовать фильм,
07:54
you mightмог бы want to watch nextследующий --
197
459000
2000
который вы можете захотеть
посмотреть следующим —
07:56
whichкоторый is a very, very difficultсложно problemпроблема.
198
461000
3000
а это очень, очень трудная проблема.
07:59
But the difficultyтрудность of the problemпроблема
199
464000
2000
Трудность проблемы,
08:01
and the factфакт that we don't really quiteдовольно have it down,
200
466000
3000
и факт того, что она до сих пор не решена,
08:04
it doesn't take away
201
469000
2000
не отменяет последствий,
08:06
from the effectsпоследствия Pragmaticпрагматический ChaosХаос has.
202
471000
2000
создаваемых Прагматическим Хаосом.
08:08
Pragmaticпрагматический ChaosХаос, like all NetflixNetflix algorithmsалгоритмы,
203
473000
3000
Прагматический Хаос,
как и все алгоритмы Netflix,
08:11
determinesопределяет, in the endконец,
204
476000
2000
в итоге определяет
08:13
60 percentпроцент
205
478000
2000
60%
08:15
of what moviesкино endконец up beingявляющийся rentedарендованный.
206
480000
2000
всех взятых напрокат фильмов.
08:17
So one pieceкусок of codeкод
207
482000
2000
Единственный участок кода,
08:19
with one ideaидея about you
208
484000
3000
с единственным представлением о вас,
08:22
is responsibleответственность for 60 percentпроцент of those moviesкино.
209
487000
3000
отвечает за 60% фильмов.
08:25
But what if you could rateставка those moviesкино
210
490000
2000
А как насчёт оценки фильмов
08:27
before they get madeсделал?
211
492000
2000
ещё до того, как они сделаны?
08:29
Wouldn'tне было бы that be handyудобный?
212
494000
2000
Было бы это здорово?
08:31
Well, a fewмало dataданные scientistsученые from the U.K. are in HollywoodГолливуд,
213
496000
3000
Некоторые учёные из Великобритании
сейчас в Голливуде,
08:34
and they have "storyистория algorithmsалгоритмы" --
214
499000
2000
и у них есть сценарные алгоритмы —
08:36
a companyКомпания calledназывается EpagogixEpagogix.
215
501000
2000
компания называется Epagogix.
08:38
And you can runбег your scriptскрипт throughчерез there,
216
503000
3000
Она может обработать ваш сценарий,
08:41
and they can tell you, quantifiablyколичественно,
217
506000
2000
и сказать, количественно,
08:43
that that's a 30 millionмиллиона dollarдоллар movieкино
218
508000
2000
что это кино на 30 миллионов долларов,
08:45
or a 200 millionмиллиона dollarдоллар movieкино.
219
510000
2000
или на 200 миллионов долларов.
08:47
And the thing is, is that this isn't GoogleGoogle.
220
512000
2000
Суть в том, что это не Google.
08:49
This isn't informationИнформация.
221
514000
2000
Это не информация.
08:51
These aren'tне financialфинансовый statsстатистика; this is cultureкультура.
222
516000
2000
Это не финансовая статистика,
это культура.
08:53
And what you see here,
223
518000
2000
То, что вы здесь видите,
08:55
or what you don't really see normallyкак обычно,
224
520000
2000
или же то, что обычно не видно,
08:57
is that these are the physicsфизика of cultureкультура.
225
522000
4000
это физика культуры.
09:01
And if these algorithmsалгоритмы,
226
526000
2000
Если эти алгоритмы,
09:03
like the algorithmsалгоритмы on Wallстена Streetулица,
227
528000
2000
как алгоритмы на Уолл-стрит,
09:05
just crashedразбившийся one day and wentотправился awryкосо,
228
530000
3000
в один прекрасный день
просто сломаются и сойдут с ума,
09:08
how would we know?
229
533000
2000
как мы об этом узнаем,
09:10
What would it look like?
230
535000
2000
как это будет выглядеть?
09:12
And they're in your houseдом. They're in your houseдом.
231
537000
3000
А они уже в доме.
В вашем доме.
09:15
These are two algorithmsалгоритмы competingконкурирующий for your livingживой roomкомната.
232
540000
2000
Это два алгоритма,
сражающиеся за вашу гостиную.
09:17
These are two differentдругой cleaningуборка robotsроботы
233
542000
2000
Это два разных робота-уборщика,
09:19
that have very differentдругой ideasидеи about what cleanчистый meansозначает.
234
544000
3000
с совершенно разными
представлениями о чистоте.
09:22
And you can see it
235
547000
2000
Это можно увидеть,
09:24
if you slowмедленный it down and attachприкреплять lightsогни to them,
236
549000
3000
если замедлить
и прикрепить к ним огоньки.
09:27
and they're sortСортировать of like secretсекрет architectsархитекторы in your bedroomСпальня.
237
552000
3000
Они как тайные архитекторы
в вашей спальне.
09:30
And the ideaидея that architectureархитектура itselfсам
238
555000
3000
Идея о том, что сама архитектура
09:33
is somehowкак-то subjectпредмет to algorithmicалгоритмический optimizationоптимизация
239
558000
2000
является объектом
алгоритмической оптимизации
09:35
is not far-fetchedнадуманный.
240
560000
2000
не притянута за уши.
09:37
It's super-realсупер-реальное and it's happeningпроисходит around you.
241
562000
3000
Это абсолютно реально
и уже происходит вокруг нас.
09:40
You feel it mostбольшинство
242
565000
2000
Больше всего это ощущается
09:42
when you're in a sealedзапечатанный metalметалл boxкоробка,
243
567000
2000
в закрытом металлическом ящике,
09:44
a new-styleновый стиль elevatorлифт;
244
569000
2000
лифте нового поколения,
09:46
they're calledназывается destination-controlназначения-контроль elevatorsлифты.
245
571000
2000
который называется лифтом
с регистрацией места назначения.
09:48
These are the onesте, where you have to pressНажмите what floorпол you're going to go to
246
573000
3000
Это те самые,
где нужно нажать кнопку этажа
09:51
before you get in the elevatorлифт.
247
576000
2000
ещё до входа в лифт.
09:53
And it usesиспользования what's calledназывается a bin-packingбен-упаковка algorithmалгоритм.
248
578000
2000
Он использует так называемый
алгоритм об упаковке в контейнеры.
09:55
So noneникто of this mishegasmishegas
249
580000
2000
И никакого вольнодумства,
09:57
of lettingсдача в аренду everybodyвсе go into whateverбез разницы carавтомобиль they want.
250
582000
2000
чтобы каждый выбирал лифт сам.
09:59
Everybodyвсе who wants to go to the 10thго floorпол goesидет into carавтомобиль two,
251
584000
2000
Все, кто едут на десятый этаж,
идут в лифт номер два,
10:01
and everybodyвсе who wants to go to the thirdв третьих floorпол goesидет into carавтомобиль five5.
252
586000
3000
и все, кто едут на третий этаж, идут в лифт номер пять.
10:04
And the problemпроблема with that
253
589000
2000
Проблема в том,
10:06
is that people freakурод out.
254
591000
2000
что люди волнуются.
10:08
People panicпаника.
255
593000
2000
Люди паникуют.
10:10
And you see why. You see why.
256
595000
2000
И понятно почему.
10:12
It's because the elevatorлифт
257
597000
2000
Потому что в лифте нет
10:14
is missingотсутствует some importantважный instrumentationизмерительные приборы, like the buttonsкнопки.
258
599000
3000
очень важных деталей, таких как кнопки.
10:17
(LaughterСмех)
259
602000
2000
(Смех)
10:19
Like the things that people use.
260
604000
2000
Детали, которые люди используют.
10:21
All it has
261
606000
2000
Всё, что есть,
10:23
is just the numberномер that movesдвижется up or down
262
608000
3000
это номер, который двигается вверх и вниз,
10:26
and that redкрасный buttonкнопка that saysговорит, "Stop."
263
611000
3000
и та самая красная кнопка
с надписью «Стоп».
10:29
And this is what we're designingпроектирование for.
264
614000
3000
Вот для чего мы это делаем.
10:32
We're designingпроектирование
265
617000
2000
Мы это делаем
10:34
for this machineмашина dialectдиалект.
266
619000
2000
удобным для машин.
10:36
And how farдалеко can you take that? How farдалеко can you take it?
267
621000
3000
Сколько это можно терпеть?
Как далеко можно зайти?
10:39
You can take it really, really farдалеко.
268
624000
2000
Очень, очень далеко.
10:41
So let me take it back to Wallстена Streetулица.
269
626000
3000
Давайте вернёмся на Уолл-стрит.
10:45
Because the algorithmsалгоритмы of Wallстена Streetулица
270
630000
2000
Алгоритмы Уолл-стрит зависят,
10:47
are dependentзависимый on one qualityкачественный aboveвыше all elseеще,
271
632000
3000
прежде всего, от одной вещи,
10:50
whichкоторый is speedскорость.
272
635000
2000
и это скорость.
10:52
And they operateработать on millisecondsмиллисекунды and microsecondsмикросекунд.
273
637000
3000
Они работают с милли- и микросекундами.
10:55
And just to give you a senseсмысл of what microsecondsмикросекунд are,
274
640000
2000
Чтобы дать понять,
что такое микросекунда —
10:57
it takes you 500,000 microsecondsмикросекунд
275
642000
2000
щелчок мышью
10:59
just to clickщелчок a mouseмышь.
276
644000
2000
занимает полмиллиона микросекунд.
11:01
But if you're a Wallстена Streetулица algorithmалгоритм
277
646000
2000
Но, если алгоритм с Уолл-стрит
11:03
and you're five5 microsecondsмикросекунд behindза,
278
648000
2000
опоздал на пять микросекунд,
11:05
you're a loserнеудачник.
279
650000
2000
он проиграл.
11:07
So if you were an algorithmалгоритм,
280
652000
2000
Так что если вы — алгоритм,
11:09
you'dвы бы look for an architectархитектор like the one that I metвстретил in FrankfurtФранкфурт
281
654000
3000
вы бы искали такого архитектора,
какого я встретил во Франкфурте.
11:12
who was hollowingвыдалбливать out a skyscraperнебоскреб --
282
657000
2000
Он опустошал небоскрёб —
11:14
throwingбросание out all the furnitureмебель, all the infrastructureинфраструктура for humanчеловек use,
283
659000
3000
выкидывал всю мебель,
всю инфраструктуру для людей,
11:17
and just runningБег steelстали on the floorsэтажей
284
662000
3000
покрывал полы сталью,
11:20
to get readyготов for the stacksстеки of serversсерверы to go in --
285
665000
3000
подготавливая их для серверных стоек —
11:23
all so an algorithmалгоритм
286
668000
2000
всё для того,
11:25
could get closeЗакрыть to the Internetинтернет.
287
670000
3000
чтобы алгоритм мог подобраться
поближе к интернету.
11:28
And you think of the Internetинтернет as this kindсвоего рода of distributedраспределенный systemсистема.
288
673000
3000
Вы думаете, что интернет —
это такая распределённая система.
11:31
And of courseкурс, it is, but it's distributedраспределенный from placesмест.
289
676000
3000
Конечно, так и есть,
но она откуда-то начинается.
11:34
In Newновый YorkЙорк, this is where it's distributedраспределенный from:
290
679000
2000
В Нью-Йорке, она начинается отсюда:
11:36
the CarrierПеревозчик HotelГостиница
291
681000
2000
Carrier Hotel,
11:38
locatedрасполагается on HudsonГудзон Streetулица.
292
683000
2000
расположенный на Гудзон-стрит.
11:40
And this is really where the wiresпровода come right up into the cityгород.
293
685000
3000
Вот, где провода приходят в город.
11:43
And the realityреальность is that the furtherв дальнейшем away you are from that,
294
688000
4000
Дело в том, что с каждым удалением отсюда
11:47
you're a fewмало microsecondsмикросекунд behindза everyкаждый time.
295
692000
2000
теряются несколько микросекунд.
11:49
These guys down on Wallстена Streetулица,
296
694000
2000
Вот эти парни на Уолл-стрит,
11:51
MarcoMarco PoloПоло and CherokeeCherokee Nationнарод,
297
696000
2000
Марко Поло и Чероки Нэйшн,
11:53
they're eight8 microsecondsмикросекунд
298
698000
2000
они восемь микросекунд
11:55
behindза all these guys
299
700000
2000
позади всех парней,
11:57
going into the emptyпустой buildingsздания beingявляющийся hollowedвыдолбленные out
300
702000
4000
заселяющихся в здания,
12:01
up around the CarrierПеревозчик HotelГостиница.
301
706000
2000
опустошаемые вокруг Carrier Hotel.
12:03
And that's going to keep happeningпроисходит.
302
708000
3000
И это будет продолжаться.
12:06
We're going to keep hollowingвыдалбливать them out,
303
711000
2000
Здания будут опустошаться,
12:08
because you, inchдюймовый for inchдюймовый
304
713000
3000
потому никто из вас,
12:11
and poundфунт for poundфунт and dollarдоллар for dollarдоллар,
305
716000
3000
сантиметр за сантиметром,
доллар за долларом,
12:14
noneникто of you could squeezeвыжимать revenueдоход out of that spaceпространство
306
719000
3000
вы никогда не сможете
выжать столько прибыли
12:17
like the BostonБостон Shufflerсдающий could.
307
722000
3000
из этого пространства,
сколько смог выжать Бостонский пройдоха.
12:20
But if you zoomзум out,
308
725000
2000
Но если подняться,
12:22
if you zoomзум out,
309
727000
2000
подняться высоко,
12:24
you would see an 825-mile-mile trenchтраншея
310
729000
4000
можно увидеть ров
длиной 1300 километров
12:28
betweenмежду Newновый YorkЙорк Cityгород and ChicagoЧикаго
311
733000
2000
между Нью-Йорком и Чикаго,
12:30
that's been builtпостроен over the last fewмало yearsлет
312
735000
2000
построенный за последние несколько лет
12:32
by a companyКомпания calledназывается Spreadраспространение Networksсети.
313
737000
3000
компанией Spread Networks.
12:35
This is a fiberволокно opticоптический cableкабель
314
740000
2000
Это оптоволоконный кабель,
12:37
that was laidпроложенный betweenмежду those two citiesгорода
315
742000
2000
проложенный между двумя городами
12:39
to just be ableв состоянии to trafficтрафик one signalсигнал
316
744000
3000
для передачи одного сигнала
12:42
37 timesраз fasterБыстрее than you can clickщелчок a mouseмышь --
317
747000
3000
в 37 раз быстрее, чем щелчок мышью —
12:45
just for these algorithmsалгоритмы,
318
750000
3000
только для этих алгоритмов,
12:48
just for the CarnivalКарнавал and the KnifeНож.
319
753000
3000
только для Карнавала и для Ножа.
12:51
And when you think about this,
320
756000
2000
Подумать только,
12:53
that we're runningБег throughчерез the Unitedобъединенный Statesсостояния
321
758000
2000
мы прогрызаем США насквозь,
12:55
with dynamiteдинамит and rockкамень sawsпилы
322
760000
3000
динамитом и землеройками,
12:58
so that an algorithmалгоритм can closeЗакрыть the dealпо рукам
323
763000
2000
чтобы алгоритм смог закрыть сделку
13:00
threeтри microsecondsмикросекунд fasterБыстрее,
324
765000
3000
микросекундой раньше,
13:03
all for a communicationsсвязь frameworkфреймворк
325
768000
2000
всё ради каналов связи,
13:05
that no humanчеловек will ever know,
326
770000
4000
которые никогда не использует человек.
13:09
that's a kindсвоего рода of manifestманифест destinyсудьба;
327
774000
3000
Это предсказание судьбы,
13:12
and we'llЧто ж always look for a newновый frontierграница.
328
777000
3000
всегда продвигаться дальше.
13:15
UnfortunatelyК сожалению, we have our work cutпорез out for us.
329
780000
3000
К сожалению,
наша работа уже предопределена.
13:18
This is just theoreticalтеоретический.
330
783000
2000
Всё это только теория.
13:20
This is some mathematiciansматематики at MITMIT.
331
785000
2000
Это математики из MIT.
13:22
And the truthправда is I don't really understandПонимаю
332
787000
2000
Правда в том, что я не понимаю
13:24
a lot of what they're talkingговорящий about.
333
789000
2000
практически ничего, о чём они говорят.
13:26
It involvesвключает в себя lightлегкий conesконусы and quantumквант entanglementзапутывание,
334
791000
3000
Это что-то о световых конусах
и квантовом связывании,
13:29
and I don't really understandПонимаю any of that.
335
794000
2000
и я в этом не разбираюсь.
13:31
But I can readчитать this mapкарта,
336
796000
2000
Но я понимаю эту карту.
13:33
and what this mapкарта saysговорит
337
798000
2000
Она говорит,
13:35
is that, if you're tryingпытаясь to make moneyДеньги on the marketsрынки where the redкрасный dotsточек are,
338
800000
3000
что, если вы пытаетесь зарабатывать
на рынках, обозначенных красными точками,
13:38
that's where people are, where the citiesгорода are,
339
803000
2000
это где люди и города,
13:40
you're going to have to put the serversсерверы where the blueсиний dotsточек are
340
805000
3000
нужно помещать сервера в места,
обозначенные голубыми точками,
13:43
to do that mostбольшинство effectivelyфактически.
341
808000
2000
для наибольшей эффективности.
13:45
And the thing that you mightмог бы have noticedзаметил about those blueсиний dotsточек
342
810000
3000
Как можно заметить, большая часть
13:48
is that a lot of them are in the middleсредний of the oceanокеан.
343
813000
3000
этих голубых точек
находится посреди океана.
13:51
So that's what we'llЧто ж do: we'llЧто ж buildстроить bubblesпузырьки or something,
344
816000
3000
Вот этим и займёмся,
постройкой пузырей,
13:54
or platformsплатформы.
345
819000
2000
или платформ.
13:56
We'llЧто ж actuallyна самом деле partчасть the waterводы
346
821000
2000
Чтобы делать деньги из воздуха,
13:58
to pullвытащить moneyДеньги out of the airвоздух,
347
823000
2000
надо лезть в воду,
14:00
because it's a brightяркий futureбудущее
348
825000
2000
потому что это мудрое решение,
14:02
if you're an algorithmалгоритм.
349
827000
2000
если ты — алгоритм.
14:04
(LaughterСмех)
350
829000
2000
(Смех)
14:06
And it's not the moneyДеньги that's so interestingинтересно actuallyна самом деле.
351
831000
3000
Деньги сами по себе не так интересны.
14:09
It's what the moneyДеньги motivatesмотивирует,
352
834000
2000
Интересно, что деньги мотивируют.
14:11
that we're actuallyна самом деле terraformingтерраформирование
353
836000
2000
Мы изменяем
14:13
the EarthЗемля itselfсам
354
838000
2000
саму Землю
14:15
with this kindсвоего рода of algorithmicалгоритмический efficiencyэффективность.
355
840000
2000
вот такой алгоритмической оптимизацией.
14:17
And in that lightлегкий,
356
842000
2000
Если вернуться,
14:19
you go back
357
844000
2000
и посмотреть на фото Майкла Найджара
14:21
and you look at MichaelМайкл Najjar'sНаджар-х photographsфотографии,
358
846000
2000
в этом свете, можно понять,
14:23
and you realizeпонимать that they're not metaphorметафора, they're prophecyпророчество.
359
848000
3000
что они не метафора, а пророчество.
14:26
They're prophecyпророчество
360
851000
2000
Они — пророчество
14:28
for the kindсвоего рода of seismicсейсмический, terrestrialземной effectsпоследствия
361
853000
4000
эффектов сейсмического, земного масштаба,
14:32
of the mathматематический that we're makingизготовление.
362
857000
2000
которые имеет наша математика.
14:34
And the landscapeпейзаж was always madeсделал
363
859000
3000
Ландшафт всегда формировался
14:37
by this sortСортировать of weirdстранный, uneasyбеспокойный collaborationсотрудничество
364
862000
3000
подобным образом,
нелёгким сотрудничеством
14:40
betweenмежду natureприрода and man.
365
865000
3000
человека и природы.
14:43
But now there's this thirdв третьих co-evolutionaryкоэволюционный forceсила: algorithmsалгоритмы --
366
868000
3000
Но сейчас появилась
третья эволюционная сила: алгоритмы —
14:46
the BostonБостон Shufflerсдающий, the CarnivalКарнавал.
367
871000
3000
Бостонский пройдоха, Карнавал.
14:49
And we will have to understandПонимаю those as natureприрода,
368
874000
3000
И нам нужно их понять, как и природу.
14:52
and in a way, they are.
369
877000
2000
В каком-то смысле, они и есть природа.
14:54
Thank you.
370
879000
2000
Спасибо.
14:56
(ApplauseАплодисменты)
371
881000
20000
(Аплодисменты)
Translated by Aliaksandr Autayeu
Reviewed by Irene Loginova

▲Back to top

ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee