ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com
TEDGlobal 2011

Kevin Slavin: How algorithms shape our world

Կեվին Սլավին. ինչպես են ալգորիթմերը ձևավորում մեր աշխարհը

Filmed:
4,199,898 views

Կեվին Սլավինը պնդում է, որ մենք ապրում ենք մի աշխարհում, որը ստեղծված է, և լայնորեն կառավարվում է ալգորիթմներով: TEDGlobal-ի այս գրավիչ զրույցում նա ցույց է տալիս, թե ինչպես են այս համակարգչային համալիր ծրագրերը որոշում. հետախուզական տակտիկան, շուկայական գները, կինոնկարների սցենարները և ճարտարապետությունը: Եվ նա զգուշացնում է, որ մենք գրում ենք կոդ, որը չենք կարող հասկանալ, ուստի և չենք կարող կառավարել:
- Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms. Full bio

Double-click the English transcript below to play the video.

00:15
This is a photograph
0
0
2000
Սա մի լուսանկար է
00:17
by the artist Michael Najjar,
1
2000
2000
ստեղծված արվեստագետ Մայքլ Նաջարի կողմից,
00:19
and it's real,
2
4000
2000
և այն իրական է,
00:21
in the sense that he went there to Argentina
3
6000
2000
այն իմաստով, որ նա ուղևորվեց Արգենտինա
00:23
to take the photo.
4
8000
2000
որպեսզի լուսանկարի այն:
00:25
But it's also a fiction. There's a lot of work that went into it after that.
5
10000
3000
Բայց այն նաև հորինված է: Շատ աշխատանք է տարվել դրա վրա լուսանկարելուց հետո:
00:28
And what he's done
6
13000
2000
Նա իրականում
00:30
is he's actually reshaped, digitally,
7
15000
2000
թվայնորեն վերաձևավորել է
00:32
all of the contours of the mountains
8
17000
2000
բոլոր լեռների կոնտուրները
00:34
to follow the vicissitudes of the Dow Jones index.
9
19000
3000
որպեսզի դրանք նմանվեն Դոու Ջոնսի ինդեքսին:
00:37
So what you see,
10
22000
2000
Այսպիսով, դուք տեսնում եք,
00:39
that precipice, that high precipice with the valley,
11
24000
2000
որ այն անդունդը, հովտի այն խորը անդունդը
00:41
is the 2008 financial crisis.
12
26000
2000
2008թ. ֆինանսական ճգնաժամն է:
00:43
The photo was made
13
28000
2000
Լուսանկարը արվել է
00:45
when we were deep in the valley over there.
14
30000
2000
այն ժամանակ, երբ մենք ուղիղ այն հովտում էինք:
00:47
I don't know where we are now.
15
32000
2000
Չգիտեմ, որտեղ ենք մենք հիմա:
00:49
This is the Hang Seng index
16
34000
2000
Սա Հոնգ Կոնգի Հանգ Սենգ
00:51
for Hong Kong.
17
36000
2000
ինդեքսն է:
00:53
And similar topography.
18
38000
2000
Եվ համանման տոպոգրաֆիան:
00:55
I wonder why.
19
40000
2000
Ես զարմանում եմ, ինչու՞:
00:57
And this is art. This is metaphor.
20
42000
3000
Սա արվեստ է: Սա փոխաբերական իմաստ է կրում:
01:00
But I think the point is
21
45000
2000
Բայց, կարծում եմ այս
01:02
that this is metaphor with teeth,
22
47000
2000
փոխաբերությունն ատամներ ունի:
01:04
and it's with those teeth that I want to propose today
23
49000
3000
Եվ այդ ատամներն են պատճառը, որ այսօր ես առաջարկում եմ
01:07
that we rethink a little bit
24
52000
2000
մի փոքր մտածել
01:09
about the role of contemporary math --
25
54000
3000
ժամանակակից մաթեմատիկայի դերի մասին --
01:12
not just financial math, but math in general.
26
57000
3000
ոչ միայն ֆինանսական մաթեմատիկայի, այլ ընդհանուր մաթեմատիկայի:
01:15
That its transition
27
60000
2000
Այն վերափոխվել է
01:17
from being something that we extract and derive from the world
28
62000
3000
մի բանից, որ մենք ստանում ու ածանցում էինք մեր շրջակա աշխարհից
01:20
to something that actually starts to shape it --
29
65000
3000
մի բանի, որն իրականում սկսում է ձևավորել
01:23
the world around us and the world inside us.
30
68000
3000
մեզ շրջապատող աշխարհն ու մեր բոլորիս ներքին աշխարհները:
01:26
And it's specifically algorithms,
31
71000
2000
Եվ հատկապես ալգորիթմներն են
01:28
which are basically the math
32
73000
2000
հիմնականում այն մաթեմատիկան,
01:30
that computers use to decide stuff.
33
75000
3000
որով համակարգիչները որոշում են ինչպես աշխատել:
01:33
They acquire the sensibility of truth
34
78000
2000
Նրանք ձեռք են բերում ճիշտը ճանաչելու զգացողությունը,
01:35
because they repeat over and over again,
35
80000
2000
որովհետև անընդհատ ու անընդհատ կրկնվում են:
01:37
and they ossify and calcify,
36
82000
3000
Նրանք փայտանում ու կարծրանում են,
01:40
and they become real.
37
85000
2000
և ի վերջո դառնում իրականություն:
01:42
And I was thinking about this, of all places,
38
87000
3000
Ես այս մասին սկսեցի մտածել, հատկապես
01:45
on a transatlantic flight a couple of years ago,
39
90000
3000
երբ տրանսատլանտիկ չվերթի էի մեկնել մի քանի տարի առաջ,
01:48
because I happened to be seated
40
93000
2000
պարզվեց, որ նստած եմ
01:50
next to a Hungarian physicist about my age
41
95000
2000
իմ հասակակից, մի հունգարացի ֆիզիկոսի հարևանությամբ
01:52
and we were talking
42
97000
2000
և մենք քննարկում էինք,
01:54
about what life was like during the Cold War
43
99000
2000
թե ինչպիսին էր կյանքը Հունգարիայի ֆիզիկոսների համար
01:56
for physicists in Hungary.
44
101000
2000
Սառը պատերազմի տարիներին:
01:58
And I said, "So what were you doing?"
45
103000
2000
Եվ ես նրան հարցրեցի. «Ինչո՞վ էիք դուք զբաղվում»:
02:00
And he said, "Well we were mostly breaking stealth."
46
105000
2000
Նա ասաց. «Հիմնականում մենք գաղտնազերծում էինք անտեսանելի ինքնաթիռները»:
02:02
And I said, "That's a good job. That's interesting.
47
107000
2000
Իսկ ես ասացի. «Լավ աշխատանք է: Հետաքրքիր է:
02:04
How does that work?"
48
109000
2000
Ինչպե՞ս էիք դա անում»:
02:06
And to understand that,
49
111000
2000
Որպեսզի դա հասկանաք,
02:08
you have to understand a little bit about how stealth works.
50
113000
3000
պետք է մի փոքր պատկերացում ունենաք, թե ինչպես են աշխատում անտեսանելի ինքնաթոռները:
02:11
And so -- this is an over-simplification --
51
116000
3000
Այսպիսով -- սա պարզեցված բացատրություն է --
02:14
but basically, it's not like
52
119000
2000
կարճ ասած, դու չես կարող
02:16
you can just pass a radar signal
53
121000
2000
պարզապես անցկացնել ռադարի սիգնալը
02:18
right through 156 tons of steel in the sky.
54
123000
3000
օդում սավառնող 156 տոննա պողպատի միջով:
02:21
It's not just going to disappear.
55
126000
3000
Այն չի անհետանալու:
02:24
But if you can take this big, massive thing,
56
129000
3000
Բայց եթե վերցնենք այս մեծ, ծանր ինքնաթիռը,
02:27
and you could turn it into
57
132000
3000
և վերածենք այն միլիոնավոր
02:30
a million little things --
58
135000
2000
մանր բաների --
02:32
something like a flock of birds --
59
137000
2000
ինչպես օրինակ թռչունների երամը --
02:34
well then the radar that's looking for that
60
139000
2000
այդ դեպքում դրան նայող ռադարը
02:36
has to be able to see
61
141000
2000
պետք է կարողանա օդում տեսնել
02:38
every flock of birds in the sky.
62
143000
2000
թռչունների ամեն մի երամ:
02:40
And if you're a radar, that's a really bad job.
63
145000
4000
Եվ եթե դու ռադար ես, դա շատ դժվար աշխատանք է:
02:44
And he said, "Yeah." He said, "But that's if you're a radar.
64
149000
3000
Եվ նա ասաց. «Այո, բայց միայն եթե դու ռադար ես:
02:47
So we didn't use a radar;
65
152000
2000
Մենք չենք օգտագործել ռադարը,
02:49
we built a black box that was looking for electrical signals,
66
154000
3000
փոխարենը կառուցեցինք մի «սև արկղ», որը որսում էր էլեկտրական սիգնալները,
02:52
electronic communication.
67
157000
3000
էլեկտրոնային հաղորդակցությունը:
02:55
And whenever we saw a flock of birds that had electronic communication,
68
160000
3000
Եվ երբ տեսնում էինք թռչունների երամ, որը էլեկտրոնային հաղորդակցություն էր վարում,
02:58
we thought, 'Probably has something to do with the Americans.'"
69
163000
3000
մենք ենթադրում էինք, որ ամերիկացիների մատը խառն է»:
03:01
And I said, "Yeah.
70
166000
2000
Եվ ես ասացի. «Այո:
03:03
That's good.
71
168000
2000
Լավ միտք է:
03:05
So you've effectively negated
72
170000
2000
Այսպիսով դուք «ջուրը գցեցիք»
03:07
60 years of aeronautic research.
73
172000
2000
օդագնացության 60 տարվա ուսումնասիրությունները:
03:09
What's your act two?
74
174000
2000
Իսկ հիմա ի՞նչի վրա եք աշխատում:
03:11
What do you do when you grow up?"
75
176000
2000
Ինչո՞վ սկսեցիք զբաղվել տարիներ անց»:
03:13
And he said,
76
178000
2000
Եվ նա ասաց,
03:15
"Well, financial services."
77
180000
2000
«Ֆինանսական ծառայություններով»:
03:17
And I said, "Oh."
78
182000
2000
Ես ասացի. «Օ՜»:
03:19
Because those had been in the news lately.
79
184000
3000
Վերջերս կարդացել էի այս մասին նորություններում:
03:22
And I said, "How does that work?"
80
187000
2000
Եվ ես ասացի, «Ավելի կոնկրե՞տ»:
03:24
And he said, "Well there's 2,000 physicists on Wall Street now,
81
189000
2000
Նա ասաց. «Ուոլ Սթրիթում այժմ 2000 ֆիզիկոս է աշխատում,
03:26
and I'm one of them."
82
191000
2000
և ես նրանցից մեկն եմ»:
03:28
And I said, "What's the black box for Wall Street?"
83
193000
3000
Եվ ես հարցրեցի. «Իսկ ո՞րն է Ուոլ Սթրիթի «սև արկղ»-ը»:
03:31
And he said, "It's funny you ask that,
84
196000
2000
Նա ինձ ասաց. «Հետաքրքիր է, որ հարցնում ես,
03:33
because it's actually called black box trading.
85
198000
3000
որովհետև իրականում այն կոչվում է սև արկղով առևտուր:
03:36
And it's also sometimes called algo trading,
86
201000
2000
Ավելի հազվադեպ՝ ալգո առևտուր,
03:38
algorithmic trading."
87
203000
3000
ալգորիթմային առևտուր»:
03:41
And algorithmic trading evolved in part
88
206000
3000
Եվ ալգորիթմային առևտուրը զարգացում է ապրել, մասամբ
03:44
because institutional traders have the same problems
89
209000
3000
քանզի ինստիտուցիոնալ առևտրականները ունեն նույն խնդիրը,
03:47
that the United States Air Force had,
90
212000
3000
ինչն ունեին Միացյալ Նահանգների օդային ուժերը,
03:50
which is that they're moving these positions --
91
215000
3000
այն է. երբ նրանք վերադիրքավորվում են --
03:53
whether it's Proctor & Gamble or Accenture, whatever --
92
218000
2000
անկախ նրանից թե խոսքը գնում է Պրոկտեր ընդ Գեմբլի մասին թե Աքսենչրի, --
03:55
they're moving a million shares of something
93
220000
2000
նրանք տեղափոխում են ինչ-որ բանի միլիոնավոր բաժնետոմսեր
03:57
through the market.
94
222000
2000
շուկայի միջով:
03:59
And if they do that all at once,
95
224000
2000
Եվ եթե նրանք դա անեն միանգամից,
04:01
it's like playing poker and going all in right away.
96
226000
2000
դա նման կլինի պոկերում բոլոր քարտերը բացելուն:
04:03
You just tip your hand.
97
228000
2000
Բոլորը տեսնում են ձեր քարտերը։
04:05
And so they have to find a way --
98
230000
2000
Այսպիսով, նրանք պետք է դա անելու եղանակ գտնեն --
04:07
and they use algorithms to do this --
99
232000
2000
և նրանք օգտագործում են ալգորիթմներ սա անելու համար --
04:09
to break up that big thing
100
234000
2000
որպեսզի բաժանեն այդ մեծ բանը
04:11
into a million little transactions.
101
236000
2000
միլիոնավոր փոքր գործարքների:
04:13
And the magic and the horror of that
102
238000
2000
Սրանում թաքնված հմայքը և միաժամանակ ահավորն այն է,
04:15
is that the same math
103
240000
2000
որ նույն մաթեմատիկան,
04:17
that you use to break up the big thing
104
242000
2000
որն օգտագործվում է մեծ կտորը
04:19
into a million little things
105
244000
2000
միլիոնավոր մասերի բաժանելու համար,
04:21
can be used to find a million little things
106
246000
2000
կարելի է օգտագործել միլիոնավոր մանր կտորները գտնելու
04:23
and sew them back together
107
248000
2000
և դրանք կրկին իրար կարելու համար,
04:25
and figure out what's actually happening in the market.
108
250000
2000
և դա օգնում է հասկանալ, թե ինչ է կատարվում շուկայում:
04:27
So if you need to have some image
109
252000
2000
Այսպիսով, եթե ցանկանում եք պատկերացում կազմել,
04:29
of what's happening in the stock market right now,
110
254000
3000
թե ինչ է տվյալ պահին կատարվում ֆոնդային շուկայում,
04:32
what you can picture is a bunch of algorithms
111
257000
2000
պետք է նկարագրեք ալգորիթմների մի խումբ,
04:34
that are basically programmed to hide,
112
259000
3000
որոնք պարզապես ծրագրավորած են թաքցնելու,
04:37
and a bunch of algorithms that are programmed to go find them and act.
113
262000
3000
և մի այլ ալգորիթմների խումբ, որոնք ծրագրավորած են դրանք գտնելու և մշակելու:
04:40
And all of that's great, and it's fine.
114
265000
3000
Եվ այս ամենը հրաշալի է։
04:43
And that's 70 percent
115
268000
2000
Այսպես է աշխատում
04:45
of the United States stock market,
116
270000
2000
Միացյալ Նահանգների ֆոնդային շուկայի 70 տոկոսը:
04:47
70 percent of the operating system
117
272000
2000
Օպերացիոն համակարգի 70 տոկոսը,
04:49
formerly known as your pension,
118
274000
3000
որը նախկինում հայնտի էր որպես ձեր թոշակը
04:52
your mortgage.
119
277000
3000
կամ գրավ դրած գումարը:
04:55
And what could go wrong?
120
280000
2000
Եվ ինչը՞ կարող է սխալ ուղղությամբ գնալ:
04:57
What could go wrong
121
282000
2000
Սխալ ընթացավ այն,
04:59
is that a year ago,
122
284000
2000
որ մի տարի առաջ,
05:01
nine percent of the entire market just disappears in five minutes,
123
286000
3000
ամբողջ շուկայի ինը տոկոսը հինգ րոպեում չքացավ,
05:04
and they called it the Flash Crash of 2:45.
124
289000
3000
նրանք դա անվանեցին 2:45-ի ակնթարթային խափանում:
05:07
All of a sudden, nine percent just goes away,
125
292000
3000
Հանկարծակի, ինը տոկոսը պարզապես կորում է,
05:10
and nobody to this day
126
295000
2000
և մինչ օրս ոչ ոք
05:12
can even agree on what happened
127
297000
2000
չի կարող հասկանալ, թե ինչ է պատահել,
05:14
because nobody ordered it, nobody asked for it.
128
299000
3000
որովհետև ոչ ոք դա չէր սպասում, ոչ ոք չէր պատվիրել դա:
05:17
Nobody had any control over what was actually happening.
129
302000
3000
Ոչ ոք որևէ կերպ չէր կառավարում գործընթացը:
05:20
All they had
130
305000
2000
Այն ամենը, ինչ նրանք ունեին
05:22
was just a monitor in front of them
131
307000
2000
պարզապես իրենց առջև դրված մոնիտորն էր,
05:24
that had the numbers on it
132
309000
2000
որը ցույց էր տալիս թվեր
05:26
and just a red button
133
311000
2000
և պարզապես մի կարմիր կոճակ,
05:28
that said, "Stop."
134
313000
2000
վրան գրված. «Կասեցնել»:
05:30
And that's the thing,
135
315000
2000
Ահա թե ինչումն է բանը,
05:32
is that we're writing things,
136
317000
2000
մենք գրում ենք ծրագրեր,
05:34
we're writing these things that we can no longer read.
137
319000
3000
գրում ենք ծրագրեր, որոնք այլևս չենք կարող կարդալ:
05:37
And we've rendered something
138
322000
2000
Եվ մենք վերարտադրում ենք մի բան,
05:39
illegible,
139
324000
2000
որն ընթեռնելի չէ:
05:41
and we've lost the sense
140
326000
3000
Եվ մենք այլևս չենք կարողանում հասկանալ,
05:44
of what's actually happening
141
329000
2000
թե ինչ է տեղի ունենում
05:46
in this world that we've made.
142
331000
2000
մեր կառուցած աշխարհում:
05:48
And we're starting to make our way.
143
333000
2000
Մենք սկսում ենք ճանապարհ հարթել:
05:50
There's a company in Boston called Nanex,
144
335000
3000
Բոստոնում կա մի ընկերություն Nanex անունով,
05:53
and they use math and magic
145
338000
2000
նրանք օգտագործում են մաթեմատիկա, կախարդանքներ
05:55
and I don't know what,
146
340000
2000
և չգիտեմ էլ ինչեր,
05:57
and they reach into all the market data
147
342000
2000
և նրանք հասնում են շուկայական բոլոր տվյալներին
05:59
and they find, actually sometimes, some of these algorithms.
148
344000
3000
և նրանք գտնում են, երբեմն, ալգորիթմներից մի քանիսը:
06:02
And when they find them they pull them out
149
347000
3000
Եվ երբ նրանք գտնում են դրանք, դուրս են հանում,
06:05
and they pin them to the wall like butterflies.
150
350000
3000
փակցնում են պատին, թիթեռների պես:
06:08
And they do what we've always done
151
353000
2000
Եվ նրանք անում են այն, ինչ միշտ մարդիկ անում են.
06:10
when confronted with huge amounts of data that we don't understand --
152
355000
3000
երբ հանդիպում են տվյալների հսկայական կտորի, որն անհնար է հասկանալ --
06:13
which is that they give them a name
153
358000
2000
նրանք դրան անուն են վերագրում
06:15
and a story.
154
360000
2000
և պատմություն:
06:17
So this is one that they found,
155
362000
2000
Ահա դրանցից մեկը,
06:19
they called the Knife,
156
364000
4000
որն անվանվել է «Դանակ»,
06:23
the Carnival,
157
368000
2000
«Պարահանդես»,
06:25
the Boston Shuffler,
158
370000
4000
«Բոստոնցի խաղամոլ»,
06:29
Twilight.
159
374000
2000
«Մթնշաղ»:
06:31
And the gag is
160
376000
2000
Հետաքրքիրն այն է,
06:33
that, of course, these aren't just running through the market.
161
378000
3000
որ, իհարկե, սրանք միայն շուկայով չէ, որ անցնում են:
06:36
You can find these kinds of things wherever you look,
162
381000
3000
Կարող եք գտնել նման բաներ ամենուր,
06:39
once you learn how to look for them.
163
384000
2000
բավական է իմանալ, ինչպես փնտրել դրանք:
06:41
You can find it here: this book about flies
164
386000
3000
Կարող ես գտնել այն այստեղ. այս ճանճերի մասին գիրքը,
06:44
that you may have been looking at on Amazon.
165
389000
2000
որը դուք որոնել և դիտել եք Amazon-ում:
06:46
You may have noticed it
166
391000
2000
Հնարավոր է նկատած լինեք,
06:48
when its price started at 1.7 million dollars.
167
393000
2000
որ դրա գինը սկսվում է 1.7 միլիոն դոլարից:
06:50
It's out of print -- still ...
168
395000
2000
Այն չի տպագրվում -- համենայն դեպս...
06:52
(Laughter)
169
397000
2000
(Ծիծաղ)
06:54
If you had bought it at 1.7, it would have been a bargain.
170
399000
3000
Եթե դուք գնեիք այն 1,7 միլիոնով, շահավետ գնում կլիներ:
06:57
A few hours later, it had gone up
171
402000
2000
Մի քանի ժամ անց, գինը կբարձրանար
06:59
to 23.6 million dollars,
172
404000
2000
մինչև 23,6 միլիոն դոլար,
07:01
plus shipping and handling.
173
406000
2000
գումարած փոխադրման գինը:
07:03
And the question is:
174
408000
2000
Հարցը հետևյալն է:
07:05
Nobody was buying or selling anything; what was happening?
175
410000
2000
Ոչ ոք ոչինչ չի գնել կամ վաճառել. ի՞նչ է տեղի ունենում:
07:07
And you see this behavior on Amazon
176
412000
2000
Դուք կարող եք տեսնել նման պահվածքը Amazon-ում,
07:09
as surely as you see it on Wall Street.
177
414000
2000
համոզված եղեք, որ նույնը կարող եք տեսնել և Ուոլ Սթրիթում:
07:11
And when you see this kind of behavior,
178
416000
2000
Եվ երբ տեսնում եք նման պահվածք,
07:13
what you see is the evidence
179
418000
2000
իրականում ականատես եք լինում
07:15
of algorithms in conflict,
180
420000
2000
կոնֆլիկտի մեջ գտնվող ալգորիթմների,
07:17
algorithms locked in loops with each other,
181
422000
2000
ալգորիթմների, որոնք կողպված են ցիկլերում մեկը մյուսի հետ,
07:19
without any human oversight,
182
424000
2000
առանց որևէ մարդկային միջամտության,
07:21
without any adult supervision
183
426000
3000
առանց մեծահասակների հսկողության,
07:24
to say, "Actually, 1.7 million is plenty."
184
429000
3000
մեկը չկա, որ ասի. «Իրականում, 1,7 միլիոնը շատ է»:
07:27
(Laughter)
185
432000
3000
(Ծիծաղ)
07:30
And as with Amazon, so it is with Netflix.
186
435000
3000
Եվ ինչպես Amazon-ում, նույնը տեղի է ունենում Netflix-ում:
07:33
And so Netflix has gone through
187
438000
2000
Netflix-ը կիրառել է
07:35
several different algorithms over the years.
188
440000
2000
մի քանի տարբեր ալգորիթմներ տարիների ընթացքում:
07:37
They started with Cinematch, and they've tried a bunch of others --
189
442000
3000
Նրանք սկսեցին Cinematch-ից, և ապա փորձեցին մի շարք այլ ալգորիթմներ:
07:40
there's Dinosaur Planet; there's Gravity.
190
445000
2000
Փորձեցին «Դինոզավրերի մոլորակը», ապա «Ձգողությունը»:
07:42
They're using Pragmatic Chaos now.
191
447000
2000
Այժմ նրանք օգտագործում են «Պրագմատիկ քաոսը»:
07:44
Pragmatic Chaos is, like all of Netflix algorithms,
192
449000
2000
Պրագմատիկ քաոսը նման է Netflix-ի բոլոր ալգորիթմներին,
07:46
trying to do the same thing.
193
451000
2000
այն փորձում է անել նույն բանը:
07:48
It's trying to get a grasp on you,
194
453000
2000
Այն փորձում է հասկանալ քեզ,
07:50
on the firmware inside the human skull,
195
455000
2000
վերահսկել մարդու գանգի մեջ տեղադրված սարքավորումները,
07:52
so that it can recommend what movie
196
457000
2000
այնպես, որ կարողանա խորհուրդ տալ, թե ինչ ֆիլմ
07:54
you might want to watch next --
197
459000
2000
կուզենաս դիտել հաջորդ անգամ --
07:56
which is a very, very difficult problem.
198
461000
3000
ինչը շատ, շատ դժվար խնդիր է:
07:59
But the difficulty of the problem
199
464000
2000
Բայց խնդրի բարդությունը
08:01
and the fact that we don't really quite have it down,
200
466000
3000
և փաստը, որ մենք դեռ չունենք դրա ճշգրիտ լուծումը,
08:04
it doesn't take away
201
469000
2000
չեն վերացնում
08:06
from the effects Pragmatic Chaos has.
202
471000
2000
«Պրագմատիկ քաոս»-ի ազդեցությունը:
08:08
Pragmatic Chaos, like all Netflix algorithms,
203
473000
3000
«Պրագմատիկ քաոսը», ինչպես մնացած Netflix-ի ալգորիթմները,
08:11
determines, in the end,
204
476000
2000
ի վերջո, գուշակում է
08:13
60 percent
205
478000
2000
վարձվող ֆիլմերի
08:15
of what movies end up being rented.
206
480000
2000
60 տոկոսը:
08:17
So one piece of code
207
482000
2000
Այսպիսով, կոդի մի կտորը
08:19
with one idea about you
208
484000
3000
որի կենտրոնում քո մասին գաղափարն է,
08:22
is responsible for 60 percent of those movies.
209
487000
3000
պատասխանատու է այդ ֆիլմերի 60 տոկոսի համար:
08:25
But what if you could rate those movies
210
490000
2000
Բայց ի՞նչ կլիներ, եթե հնարավոր լիներ գնահատել այդ ֆիլմերը
08:27
before they get made?
211
492000
2000
նույնիսկ նախքան նրանց նկարահանելը:
08:29
Wouldn't that be handy?
212
494000
2000
Դա հարմար կլիներ, այդպես չէ՞:
08:31
Well, a few data scientists from the U.K. are in Hollywood,
213
496000
3000
Միացյալ Թագավորությունից Հոլիվուդ են եկել որոշ գիտնականներ
08:34
and they have "story algorithms" --
214
499000
2000
և նրանք ունեն պատմվածքներ հորինող ալգորիթմներ --
08:36
a company called Epagogix.
215
501000
2000
Epagogix անունով ընկերությունում:
08:38
And you can run your script through there,
216
503000
3000
Եվ դու կարող ես քո սցենարը անցկացնել նրանց ծրագրի մեջ
08:41
and they can tell you, quantifiably,
217
506000
2000
և տեսնել, ինչ արժե քո ֆիլմը՝
08:43
that that's a 30 million dollar movie
218
508000
2000
այն 30 միլիոն դոլարի ծախս է պահանջում,
08:45
or a 200 million dollar movie.
219
510000
2000
թե 200 միլիոնի:
08:47
And the thing is, is that this isn't Google.
220
512000
2000
Եվ բանը նրանում է, որ սա Google-ը չէ:
08:49
This isn't information.
221
514000
2000
Սա տեղեկատվություն չէ:
08:51
These aren't financial stats; this is culture.
222
516000
2000
Սրանք ֆինանսական վիճակագրություններ չեն. սա մշակույթ է:
08:53
And what you see here,
223
518000
2000
Եվ այն, ինչ դուք այստեղ տեսնում եք,
08:55
or what you don't really see normally,
224
520000
2000
կամ այն ինչ սովորաբար չեք տեսնում,
08:57
is that these are the physics of culture.
225
522000
4000
դա այն է, որ սրանք մշակույթի ֆիզիկան են:
09:01
And if these algorithms,
226
526000
2000
Եվ եթե այս ալգորիթմները,
09:03
like the algorithms on Wall Street,
227
528000
2000
ինչպես Ուոլ Սթրիթի ալգորիթմները,
09:05
just crashed one day and went awry,
228
530000
3000
մի գեղեցիկ օր խափանվեն ու շեղումներ տան,
09:08
how would we know?
229
533000
2000
ինչպե՞ս կարող ենք իմանալ,
09:10
What would it look like?
230
535000
2000
թե դա ինչի նման կլինի:
09:12
And they're in your house. They're in your house.
231
537000
3000
Եվ դրանք նաև ձեր տանն են: Դրանք ձեր տանն են:
09:15
These are two algorithms competing for your living room.
232
540000
2000
Ահա երկու ալգորիթմ, որոնք մրցակցում են ձեր հյուրասենյակի համար:
09:17
These are two different cleaning robots
233
542000
2000
Սրանք երկու տարբեր մաքրող ռոբոտներ են,
09:19
that have very different ideas about what clean means.
234
544000
3000
որոնք բոլորովին տարբեր կերպ են ընկալում «մաքրել» գաղափարը:
09:22
And you can see it
235
547000
2000
Կարելի է համոզվել դրանում,
09:24
if you slow it down and attach lights to them,
236
549000
3000
եթե դանդաղեցնել դրանց և լույսեր փակցնել դրանց վրա:
09:27
and they're sort of like secret architects in your bedroom.
237
552000
3000
Եվ նրանք ասես քո ննջասենյակի գաղտնի ճարտարապետները լինեն:
09:30
And the idea that architecture itself
238
555000
3000
Իսկ այն գաղափարը, որ ճարտարապետությունն ինքնին
09:33
is somehow subject to algorithmic optimization
239
558000
2000
ինչ-որ ձևով ենթակա է ալգորիթմային պարզեցման
09:35
is not far-fetched.
240
560000
2000
այնքան էլ չափազանցված չէ:
09:37
It's super-real and it's happening around you.
241
562000
3000
Դա լիովին իրական է և տեղի է ունենում ձեր շուրջը:
09:40
You feel it most
242
565000
2000
Դու զգում ես դա,
09:42
when you're in a sealed metal box,
243
567000
2000
երբ փակված ես մետաղյա տուփի մեջ,
09:44
a new-style elevator;
244
569000
2000
նորաձև վերելակի,
09:46
they're called destination-control elevators.
245
571000
2000
դրանց անվանում են նշանակակետի ղեկավարումով վերելակներ:
09:48
These are the ones where you have to press what floor you're going to go to
246
573000
3000
Դրանք այն վերելակներն են, որտեղ դու պետք է սեղմես այն հարկի կոճակը, որն ուզում ես գնալ,
09:51
before you get in the elevator.
247
576000
2000
նախքան վերելակ նստելը:
09:53
And it uses what's called a bin-packing algorithm.
248
578000
2000
Այն օգտագործում է ալգորիթմ, որին անվանում են տուփը փաթեթավորող ալգորիթմ:
09:55
So none of this mishegas
249
580000
2000
Այսպիսով, սա թույլ չի տալիս,
09:57
of letting everybody go into whatever car they want.
250
582000
2000
որ ով ուր ասես կարողանա գնալ:
09:59
Everybody who wants to go to the 10th floor goes into car two,
251
584000
2000
Բոլոր նրանք, ովքեր բարձրանում են 10-րդ հարկ, պետք է նստեն երկրորդ մեքենան,
10:01
and everybody who wants to go to the third floor goes into car five.
252
586000
3000
իսկ նրանք, ովքեր երրորդ հարկ են գնում, պետք է նստեն հինգերորդ մեքենան:
10:04
And the problem with that
253
589000
2000
Եվ խնդիրն այն է,
10:06
is that people freak out.
254
591000
2000
որ մարդիկ վախենում են:
10:08
People panic.
255
593000
2000
Մարդիկ խուճապի են մատնվում:
10:10
And you see why. You see why.
256
595000
2000
Եվ կարելի է հասկանալ, թե ինչու:
10:12
It's because the elevator
257
597000
2000
Որովհետև վերելակը
10:14
is missing some important instrumentation, like the buttons.
258
599000
3000
չունի մի շարք կարևոր մասեր, ինչպես օրինակ կոճակներ:
10:17
(Laughter)
259
602000
2000
(Ծիծաղ)
10:19
Like the things that people use.
260
604000
2000
Մարդիկ սովոր են դրանք օգտագործել:
10:21
All it has
261
606000
2000
Այն միայն ունի
10:23
is just the number that moves up or down
262
608000
3000
մեկ թիվ, որը բարձրանում կամ իջնում է
10:26
and that red button that says, "Stop."
263
611000
3000
և մի կարմիր կոճակ, վրան գրված. «Կասեցնել»:
10:29
And this is what we're designing for.
264
614000
3000
Ահա թե ինչի համար ենք մենք դա անում։
10:32
We're designing
265
617000
2000
Մենք դա անում ենք
10:34
for this machine dialect.
266
619000
2000
մեքենայի դիալեկտի համար:
10:36
And how far can you take that? How far can you take it?
267
621000
3000
Ինչքա՞ն հեռու կարելի է գնալ։
10:39
You can take it really, really far.
268
624000
2000
Կարող ենք շատ ու շատ հեռու գնալ:
10:41
So let me take it back to Wall Street.
269
626000
3000
Եկեք վերադառնանք Ուոլ Սթրիթ:
10:45
Because the algorithms of Wall Street
270
630000
2000
Որովհետև Ուոլ Սթրիթի ալգորիթմները,
10:47
are dependent on one quality above all else,
271
632000
3000
առավել, քան մնացած բոլորը, կախված են մի որակական հատկանիշից.
10:50
which is speed.
272
635000
2000
այն է՝ արագությունը:
10:52
And they operate on milliseconds and microseconds.
273
637000
3000
Եվ նրանք աշխատում են միլիվայրկյաններով և միկրովայրկյաններով:
10:55
And just to give you a sense of what microseconds are,
274
640000
2000
Իսկ եթե ուզում եք պատկերացնել, թե ինչ է միկրովայրկյանը.
10:57
it takes you 500,000 microseconds
275
642000
2000
ձեզանից պահանջվում է 500,000 միկրովայրկյան,
10:59
just to click a mouse.
276
644000
2000
որպեսզի միայն մկնիկի կոճակը սեղմեք:
11:01
But if you're a Wall Street algorithm
277
646000
2000
Բայց եթե դուք Ուոլ Սթրիթի ալգորիթմ եք
11:03
and you're five microseconds behind,
278
648000
2000
և հետ եք մնում հինգ միկրովայրկյանով,
11:05
you're a loser.
279
650000
2000
դուք ձախողակ եք:
11:07
So if you were an algorithm,
280
652000
2000
Այսպիսով, եթե դուք լինեիք ալգորիթմ,
11:09
you'd look for an architect like the one that I met in Frankfurt
281
654000
3000
դուք կփնտրեիք ճարտարապետի, ում ես հանդիպեցի Ֆրանկֆուրտում,
11:12
who was hollowing out a skyscraper --
282
657000
2000
ով դատարկում էր մի երկնաքեր --
11:14
throwing out all the furniture, all the infrastructure for human use,
283
659000
3000
դուրս էր նետում ամբողջ կահույքը, մարդկային օգտագործման ինֆրակառուցվածքը,
11:17
and just running steel on the floors
284
662000
3000
թողնելով միայն հատակի պողպատը,
11:20
to get ready for the stacks of servers to go in --
285
665000
3000
որ տեղ ազատի տեղադրվելիք սերվերների համար --
11:23
all so an algorithm
286
668000
2000
և այս ամենը նրա համար,
11:25
could get close to the Internet.
287
670000
3000
որ ալգորիթմը կարողանա ինտերնետին ավելի մոտ լինել:
11:28
And you think of the Internet as this kind of distributed system.
288
673000
3000
Եվ կարելի է մտածել ինտերնետի մասին, որպես մի բաշխված համակարգի:
11:31
And of course, it is, but it's distributed from places.
289
676000
3000
Եվ, իհարկե, այդպես էլ կա, բայց այն բաշխվում է ինչ-որ վայրերից:
11:34
In New York, this is where it's distributed from:
290
679000
2000
Ահա թե որտեղից է բաշխվում այն Նյու Յորքում՝
11:36
the Carrier Hotel
291
681000
2000
Կարիեր հյուրանոցից,
11:38
located on Hudson Street.
292
683000
2000
որը տեղակայված է Հադսոն փողոցում:
11:40
And this is really where the wires come right up into the city.
293
685000
3000
Ահա թե իրականում որտեղից են լարերը տարածվում դեպի քաղաք:
11:43
And the reality is that the further away you are from that,
294
688000
4000
Ինչքան հեռու լինես դրանից,
11:47
you're a few microseconds behind every time.
295
692000
2000
ամեն անգամ մի քանի միկրովայրկյան ժամանակ ես կորցնելու:
11:49
These guys down on Wall Street,
296
694000
2000
Ուոլ Սթրիթի այս տղերքը՝
11:51
Marco Polo and Cherokee Nation,
297
696000
2000
Մարկո Պոլոն և Չերոկի Նեյշնը,
11:53
they're eight microseconds
298
698000
2000
հետ են մնում ութ միկրովայրկյանով
11:55
behind all these guys
299
700000
2000
բոլոր այն տղերքից,
11:57
going into the empty buildings being hollowed out
300
702000
4000
ովքեր տեղափոխվում են Կարիեր հյուրանոցի մոտակայքում
12:01
up around the Carrier Hotel.
301
706000
2000
տեղավորված դատարկվող շենքերը:
12:03
And that's going to keep happening.
302
708000
3000
Եվ սա անընդհատ տեղի է ունենալու:
12:06
We're going to keep hollowing them out,
303
711000
2000
Անընդհատ մենք դատարկելու ենք դրանք,
12:08
because you, inch for inch
304
713000
3000
քանզի դուք, սանտիմետր առ սանտիմետր
12:11
and pound for pound and dollar for dollar,
305
716000
3000
կիլոգրամ առ կիլոգրամ և դոլար առ դոլար,
12:14
none of you could squeeze revenue out of that space
306
719000
3000
ձեզանից ոչ ոք այդքան շահույթ չի կարող ստանալ այդ տարածքից,
12:17
like the Boston Shuffler could.
307
722000
3000
որքան «Բոստոնցի խաղամոլը» կարողացավ անել:
12:20
But if you zoom out,
308
725000
2000
Բայց եթե տեսադաշտը հեռացնենք,
12:22
if you zoom out,
309
727000
2000
եթե հեռացնենք պատկերը,
12:24
you would see an 825-mile trench
310
729000
4000
կարող ենք տեսնել 1,300 կիլոմետրանոց խրամատ
12:28
between New York City and Chicago
311
733000
2000
Նյու Յորքի և Չիկագոյի միջև,
12:30
that's been built over the last few years
312
735000
2000
այն արվել է վերջին մի քանի տարիների ընթացքում,
12:32
by a company called Spread Networks.
313
737000
3000
Spread Networks կոչվող ընկերության կողմից:
12:35
This is a fiber optic cable
314
740000
2000
Սա օպտիկամանրաթելային մալուխ է
12:37
that was laid between those two cities
315
742000
2000
անցկացված այս երկու քաղաքների միջև
12:39
to just be able to traffic one signal
316
744000
3000
որպեսզի կարելի լինի տրաֆիկի սիգնալը
12:42
37 times faster than you can click a mouse --
317
747000
3000
37 անգամ ավելի արագ տեղափոխել, քան մկնիկի սեղմումը --
12:45
just for these algorithms,
318
750000
3000
այս ամենը հանուն ալգորիթմների է,
12:48
just for the Carnival and the Knife.
319
753000
3000
հանուն «Պարահանդեսի» և «Դանակի»:
12:51
And when you think about this,
320
756000
2000
Եվ երբ մտածում ես սրա մասին,
12:53
that we're running through the United States
321
758000
2000
թե ինչպես ենք քար-կտրիչով ու դինամիտով ընկել
12:55
with dynamite and rock saws
322
760000
3000
Միացյալ Նահանգներով,
12:58
so that an algorithm can close the deal
323
763000
2000
որպեսզի ալգորիթմը կարողանա ավարտել գործարքը
13:00
three microseconds faster,
324
765000
3000
երեք միկրովայրկյան ավելի արագ,
13:03
all for a communications framework
325
768000
2000
ամենը հաղորդակցական հենքի համար,
13:05
that no human will ever know,
326
770000
4000
որի մասին մարդիկ երբեք չեն իմանա,
13:09
that's a kind of manifest destiny;
327
774000
3000
սա ասես ճակատագրի կանչ է,
13:12
and we'll always look for a new frontier.
328
777000
3000
անընդհատ նորանոր հորիզոններ փնտրել:
13:15
Unfortunately, we have our work cut out for us.
329
780000
3000
Ցավոք, մեր գործը կանխորոշված է:
13:18
This is just theoretical.
330
783000
2000
Սա լոկ տեսականորեն...
13:20
This is some mathematicians at MIT.
331
785000
2000
Սրանք որոշ մաթեմատիկոսներ են Մասաչուսեթսի տեխնոլոգիայի ինստիտուտից:
13:22
And the truth is I don't really understand
332
787000
2000
Ճիշտն ասած ես գրեթե չեմ հասկանում,
13:24
a lot of what they're talking about.
333
789000
2000
թե ինչ են նրանք խոսում:
13:26
It involves light cones and quantum entanglement,
334
791000
3000
Խոսում են լուսային կոների և քվանտային խճճվածության մասին,
13:29
and I don't really understand any of that.
335
794000
2000
և իրականում ես դրանից ընդհանրապես գլուխ չեմ հանում:
13:31
But I can read this map,
336
796000
2000
Բայց ես կարող եմ կարդալ այս քարտեզը:
13:33
and what this map says
337
798000
2000
Եվ այս քարտեզը մեզ ասում է,
13:35
is that, if you're trying to make money on the markets where the red dots are,
338
800000
3000
որ եթե փորձում եք շահույթ ստանալ շուկայում, որտեղ կարմիր կետերն են,
13:38
that's where people are, where the cities are,
339
803000
2000
դրանք քաղաքներ են, որտեղ կան մարդիկ,
13:40
you're going to have to put the servers where the blue dots are
340
805000
3000
դուք պետք է տեղադրեք սերվերները այնտեղ, որտեղ կապույտ կետերն են,
13:43
to do that most effectively.
341
808000
2000
որպեսզի առավել արդյունավետ աշխատեք:
13:45
And the thing that you might have noticed about those blue dots
342
810000
3000
Եվ բանն այն է, որ, նկատած կլինեք, կապույտ կետերի
13:48
is that a lot of them are in the middle of the ocean.
343
813000
3000
մեծ մասը տեղադրված է ուղիղ օվկիանոսի կենտրոնում:
13:51
So that's what we'll do: we'll build bubbles or something,
344
816000
3000
Ուրեմն ահա թե ինչ պետք է անենք, պետք է կառուցենք փուչիկ, կամ
13:54
or platforms.
345
819000
2000
հենահարթակի նման բան:
13:56
We'll actually part the water
346
821000
2000
Մենք կառանձնացնենք ջուրը,
13:58
to pull money out of the air,
347
823000
2000
որպեսզի օդից գումար ստեղծենք,
14:00
because it's a bright future
348
825000
2000
որովհետև դա տանում է դեպի պայծառ ապագա,
14:02
if you're an algorithm.
349
827000
2000
եթե դու ալգորիթմ ես:
14:04
(Laughter)
350
829000
2000
(Ծիծաղ)
14:06
And it's not the money that's so interesting actually.
351
831000
3000
Եվ գումարը չէ, որ առավել հետաքրքում է մեզ այստեղ:
14:09
It's what the money motivates,
352
834000
2000
Դա այն է, ինչը գումարը թելադրում է:
14:11
that we're actually terraforming
353
836000
2000
Այն, որ մենք փաստորեն ձևափոխում ենք
14:13
the Earth itself
354
838000
2000
Երկիր մոլորակը
14:15
with this kind of algorithmic efficiency.
355
840000
2000
որպեսզի հասնենք ալգորիթմի արդյունավետությանը:
14:17
And in that light,
356
842000
2000
Եվ այս լույսի ներքո,
14:19
you go back
357
844000
2000
դուք հետ եք գնում
14:21
and you look at Michael Najjar's photographs,
358
846000
2000
և նայում եք Մայքլ Նաջարի լուսանկարներին,
14:23
and you realize that they're not metaphor, they're prophecy.
359
848000
3000
և հասկանում ես, որ դրանք փոխաբերական իմաստ չունեն, դրանք գուշակություններ են:
14:26
They're prophecy
360
851000
2000
Դրանք գուշակություններ են
14:28
for the kind of seismic, terrestrial effects
361
853000
4000
սեյսմիկ, ցամաքային փոփոխության մասին,
14:32
of the math that we're making.
362
857000
2000
որի պատճառը մաթեմատիկան է, որով մենք զբաղվում ենք:
14:34
And the landscape was always made
363
859000
3000
Լանդշաֆտը միշտ էլ ձևավորվել է
14:37
by this sort of weird, uneasy collaboration
364
862000
3000
մարդու և բնության միջև նման տարօրինակ,
14:40
between nature and man.
365
865000
3000
դժվար համագործակցության արդյունքում:
14:43
But now there's this third co-evolutionary force: algorithms --
366
868000
3000
Բայց հիմա ունենք այս երրորդ համա-էվոլյուցիոն ուժը՝ ալգորիթմները --
14:46
the Boston Shuffler, the Carnival.
367
871000
3000
«Բոստոնցի խաղամոլը», «Պարահանդեսը»:
14:49
And we will have to understand those as nature,
368
874000
3000
Ժամանակ է պետք, որ ընդունենք դրանց որպես բնություն:
14:52
and in a way, they are.
369
877000
2000
Եվ ինչ որ իմաստով, դրանք իրոք բնություն են:
14:54
Thank you.
370
879000
2000
Շնորհակալ եմ:
14:56
(Applause)
371
881000
20000
(Ծափահարություններ)
Translated by Jhora Zakaryan
Reviewed by Gohar Khachatryan

▲Back to top

ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com