ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com
TEDGlobal 2011

Kevin Slavin: How algorithms shape our world

Կեվին Սլավին. ինչպես են ալգորիթմերը ձևավորում մեր աշխարհը

Filmed:
4,199,898 views

Կեվին Սլավինը պնդում է, որ մենք ապրում ենք մի աշխարհում, որը ստեղծված է, և լայնորեն կառավարվում է ալգորիթմներով: TEDGlobal-ի այս գրավիչ զրույցում նա ցույց է տալիս, թե ինչպես են այս համակարգչային համալիր ծրագրերը որոշում. հետախուզական տակտիկան, շուկայական գները, կինոնկարների սցենարները և ճարտարապետությունը: Եվ նա զգուշացնում է, որ մենք գրում ենք կոդ, որը չենք կարող հասկանալ, ուստի և չենք կարող կառավարել:
- Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms. Full bio

Double-click the English transcript below to play the video.

00:15
This is a photograph
0
0
2000
Սա մի լուսանկար է
00:17
by the artist Michael Najjar,
1
2000
2000
ստեղծված արվեստագետ Մայքլ Նաջարի կողմից,
00:19
and it's real,
2
4000
2000
և այն իրական է,
00:21
in the sense that he went there to Argentina
3
6000
2000
այն իմաստով, որ նա ուղևորվեց Արգենտինա
00:23
to take the photo.
4
8000
2000
որպեսզի լուսանկարի այն:
00:25
But it's also a fiction. There's a lot of work that went into it after that.
5
10000
3000
Բայց այն նաև հորինված է: Շատ աշխատանք է տարվել դրա վրա լուսանկարելուց հետո:
00:28
And what he's done
6
13000
2000
Նա իրականում
00:30
is he's actually reshaped, digitally,
7
15000
2000
թվայնորեն վերաձևավորել է
00:32
all of the contours of the mountains
8
17000
2000
բոլոր լեռների կոնտուրները
00:34
to follow the vicissitudes of the Dow Jones index.
9
19000
3000
որպեսզի դրանք նմանվեն Դոու Ջոնսի ինդեքսին:
00:37
So what you see,
10
22000
2000
Այսպիսով, դուք տեսնում եք,
00:39
that precipice, that high precipice with the valley,
11
24000
2000
որ այն անդունդը, հովտի այն խորը անդունդը
00:41
is the 2008 financial crisis.
12
26000
2000
2008թ. ֆինանսական ճգնաժամն է:
00:43
The photo was made
13
28000
2000
Լուսանկարը արվել է
00:45
when we were deep in the valley over there.
14
30000
2000
այն ժամանակ, երբ մենք ուղիղ այն հովտում էինք:
00:47
I don't know where we are now.
15
32000
2000
Չգիտեմ, որտեղ ենք մենք հիմա:
00:49
This is the Hang Seng index
16
34000
2000
Սա Հոնգ Կոնգի Հանգ Սենգ
00:51
for Hong Kong.
17
36000
2000
ինդեքսն է:
00:53
And similar topography.
18
38000
2000
Եվ համանման տոպոգրաֆիան:
00:55
I wonder why.
19
40000
2000
Ես զարմանում եմ, ինչու՞:
00:57
And this is art. This is metaphor.
20
42000
3000
Սա արվեստ է: Սա փոխաբերական իմաստ է կրում:
01:00
But I think the point is
21
45000
2000
Բայց, կարծում եմ այս
01:02
that this is metaphor with teeth,
22
47000
2000
փոխաբերությունն ատամներ ունի:
01:04
and it's with those teeth that I want to propose today
23
49000
3000
Եվ այդ ատամներն են պատճառը, որ այսօր ես առաջարկում եմ
01:07
that we rethink a little bit
24
52000
2000
մի փոքր մտածել
01:09
about the role of contemporary math --
25
54000
3000
ժամանակակից մաթեմատիկայի դերի մասին --
01:12
not just financial math, but math in general.
26
57000
3000
ոչ միայն ֆինանսական մաթեմատիկայի, այլ ընդհանուր մաթեմատիկայի:
01:15
That its transition
27
60000
2000
Այն վերափոխվել է
01:17
from being something that we extract and derive from the world
28
62000
3000
մի բանից, որ մենք ստանում ու ածանցում էինք մեր շրջակա աշխարհից
01:20
to something that actually starts to shape it --
29
65000
3000
մի բանի, որն իրականում սկսում է ձևավորել
01:23
the world around us and the world inside us.
30
68000
3000
մեզ շրջապատող աշխարհն ու մեր բոլորիս ներքին աշխարհները:
01:26
And it's specifically algorithms,
31
71000
2000
Եվ հատկապես ալգորիթմներն են
01:28
which are basically the math
32
73000
2000
հիմնականում այն մաթեմատիկան,
01:30
that computers use to decide stuff.
33
75000
3000
որով համակարգիչները որոշում են ինչպես աշխատել:
01:33
They acquire the sensibility of truth
34
78000
2000
Նրանք ձեռք են բերում ճիշտը ճանաչելու զգացողությունը,
01:35
because they repeat over and over again,
35
80000
2000
որովհետև անընդհատ ու անընդհատ կրկնվում են:
01:37
and they ossify and calcify,
36
82000
3000
Նրանք փայտանում ու կարծրանում են,
01:40
and they become real.
37
85000
2000
և ի վերջո դառնում իրականություն:
01:42
And I was thinking about this, of all places,
38
87000
3000
Ես այս մասին սկսեցի մտածել, հատկապես
01:45
on a transatlantic flight a couple of years ago,
39
90000
3000
երբ տրանսատլանտիկ չվերթի էի մեկնել մի քանի տարի առաջ,
01:48
because I happened to be seated
40
93000
2000
պարզվեց, որ նստած եմ
01:50
next to a Hungarian physicist about my age
41
95000
2000
իմ հասակակից, մի հունգարացի ֆիզիկոսի հարևանությամբ
01:52
and we were talking
42
97000
2000
և մենք քննարկում էինք,
01:54
about what life was like during the Cold War
43
99000
2000
թե ինչպիսին էր կյանքը Հունգարիայի ֆիզիկոսների համար
01:56
for physicists in Hungary.
44
101000
2000
Սառը պատերազմի տարիներին:
01:58
And I said, "So what were you doing?"
45
103000
2000
Եվ ես նրան հարցրեցի. «Ինչո՞վ էիք դուք զբաղվում»:
02:00
And he said, "Well we were mostly breaking stealth."
46
105000
2000
Նա ասաց. «Հիմնականում մենք գաղտնազերծում էինք անտեսանելի ինքնաթիռները»:
02:02
And I said, "That's a good job. That's interesting.
47
107000
2000
Իսկ ես ասացի. «Լավ աշխատանք է: Հետաքրքիր է:
02:04
How does that work?"
48
109000
2000
Ինչպե՞ս էիք դա անում»:
02:06
And to understand that,
49
111000
2000
Որպեսզի դա հասկանաք,
02:08
you have to understand a little bit about how stealth works.
50
113000
3000
պետք է մի փոքր պատկերացում ունենաք, թե ինչպես են աշխատում անտեսանելի ինքնաթոռները:
02:11
And so -- this is an over-simplification --
51
116000
3000
Այսպիսով -- սա պարզեցված բացատրություն է --
02:14
but basically, it's not like
52
119000
2000
կարճ ասած, դու չես կարող
02:16
you can just pass a radar signal
53
121000
2000
պարզապես անցկացնել ռադարի սիգնալը
02:18
right through 156 tons of steel in the sky.
54
123000
3000
օդում սավառնող 156 տոննա պողպատի միջով:
02:21
It's not just going to disappear.
55
126000
3000
Այն չի անհետանալու:
02:24
But if you can take this big, massive thing,
56
129000
3000
Բայց եթե վերցնենք այս մեծ, ծանր ինքնաթիռը,
02:27
and you could turn it into
57
132000
3000
և վերածենք այն միլիոնավոր
02:30
a million little things --
58
135000
2000
մանր բաների --
02:32
something like a flock of birds --
59
137000
2000
ինչպես օրինակ թռչունների երամը --
02:34
well then the radar that's looking for that
60
139000
2000
այդ դեպքում դրան նայող ռադարը
02:36
has to be able to see
61
141000
2000
պետք է կարողանա օդում տեսնել
02:38
every flock of birds in the sky.
62
143000
2000
թռչունների ամեն մի երամ:
02:40
And if you're a radar, that's a really bad job.
63
145000
4000
Եվ եթե դու ռադար ես, դա շատ դժվար աշխատանք է:
02:44
And he said, "Yeah." He said, "But that's if you're a radar.
64
149000
3000
Եվ նա ասաց. «Այո, բայց միայն եթե դու ռադար ես:
02:47
So we didn't use a radar;
65
152000
2000
Մենք չենք օգտագործել ռադարը,
02:49
we built a black box that was looking for electrical signals,
66
154000
3000
փոխարենը կառուցեցինք մի «սև արկղ», որը որսում էր էլեկտրական սիգնալները,
02:52
electronic communication.
67
157000
3000
էլեկտրոնային հաղորդակցությունը:
02:55
And whenever we saw a flock of birds that had electronic communication,
68
160000
3000
Եվ երբ տեսնում էինք թռչունների երամ, որը էլեկտրոնային հաղորդակցություն էր վարում,
02:58
we thought, 'Probably has something to do with the Americans.'"
69
163000
3000
մենք ենթադրում էինք, որ ամերիկացիների մատը խառն է»:
03:01
And I said, "Yeah.
70
166000
2000
Եվ ես ասացի. «Այո:
03:03
That's good.
71
168000
2000
Լավ միտք է:
03:05
So you've effectively negated
72
170000
2000
Այսպիսով դուք «ջուրը գցեցիք»
03:07
60 years of aeronautic research.
73
172000
2000
օդագնացության 60 տարվա ուսումնասիրությունները:
03:09
What's your act two?
74
174000
2000
Իսկ հիմա ի՞նչի վրա եք աշխատում:
03:11
What do you do when you grow up?"
75
176000
2000
Ինչո՞վ սկսեցիք զբաղվել տարիներ անց»:
03:13
And he said,
76
178000
2000
Եվ նա ասաց,
03:15
"Well, financial services."
77
180000
2000
«Ֆինանսական ծառայություններով»:
03:17
And I said, "Oh."
78
182000
2000
Ես ասացի. «Օ՜»:
03:19
Because those had been in the news lately.
79
184000
3000
Վերջերս կարդացել էի այս մասին նորություններում:
03:22
And I said, "How does that work?"
80
187000
2000
Եվ ես ասացի, «Ավելի կոնկրե՞տ»:
03:24
And he said, "Well there's 2,000 physicists on Wall Street now,
81
189000
2000
Նա ասաց. «Ուոլ Սթրիթում այժմ 2000 ֆիզիկոս է աշխատում,
03:26
and I'm one of them."
82
191000
2000
և ես նրանցից մեկն եմ»:
03:28
And I said, "What's the black box for Wall Street?"
83
193000
3000
Եվ ես հարցրեցի. «Իսկ ո՞րն է Ուոլ Սթրիթի «սև արկղ»-ը»:
03:31
And he said, "It's funny you ask that,
84
196000
2000
Նա ինձ ասաց. «Հետաքրքիր է, որ հարցնում ես,
03:33
because it's actually called black box trading.
85
198000
3000
որովհետև իրականում այն կոչվում է սև արկղով առևտուր:
03:36
And it's also sometimes called algo trading,
86
201000
2000
Ավելի հազվադեպ՝ ալգո առևտուր,
03:38
algorithmic trading."
87
203000
3000
ալգորիթմային առևտուր»:
03:41
And algorithmic trading evolved in part
88
206000
3000
Եվ ալգորիթմային առևտուրը զարգացում է ապրել, մասամբ
03:44
because institutional traders have the same problems
89
209000
3000
քանզի ինստիտուցիոնալ առևտրականները ունեն նույն խնդիրը,
03:47
that the United States Air Force had,
90
212000
3000
ինչն ունեին Միացյալ Նահանգների օդային ուժերը,
03:50
which is that they're moving these positions --
91
215000
3000
այն է. երբ նրանք վերադիրքավորվում են --
03:53
whether it's Proctor & Gamble or Accenture, whatever --
92
218000
2000
անկախ նրանից թե խոսքը գնում է Պրոկտեր ընդ Գեմբլի մասին թե Աքսենչրի, --
03:55
they're moving a million shares of something
93
220000
2000
նրանք տեղափոխում են ինչ-որ բանի միլիոնավոր բաժնետոմսեր
03:57
through the market.
94
222000
2000
շուկայի միջով:
03:59
And if they do that all at once,
95
224000
2000
Եվ եթե նրանք դա անեն միանգամից,
04:01
it's like playing poker and going all in right away.
96
226000
2000
դա նման կլինի պոկերում բոլոր քարտերը բացելուն:
04:03
You just tip your hand.
97
228000
2000
Բոլորը տեսնում են ձեր քարտերը։
04:05
And so they have to find a way --
98
230000
2000
Այսպիսով, նրանք պետք է դա անելու եղանակ գտնեն --
04:07
and they use algorithms to do this --
99
232000
2000
և նրանք օգտագործում են ալգորիթմներ սա անելու համար --
04:09
to break up that big thing
100
234000
2000
որպեսզի բաժանեն այդ մեծ բանը
04:11
into a million little transactions.
101
236000
2000
միլիոնավոր փոքր գործարքների:
04:13
And the magic and the horror of that
102
238000
2000
Սրանում թաքնված հմայքը և միաժամանակ ահավորն այն է,
04:15
is that the same math
103
240000
2000
որ նույն մաթեմատիկան,
04:17
that you use to break up the big thing
104
242000
2000
որն օգտագործվում է մեծ կտորը
04:19
into a million little things
105
244000
2000
միլիոնավոր մասերի բաժանելու համար,
04:21
can be used to find a million little things
106
246000
2000
կարելի է օգտագործել միլիոնավոր մանր կտորները գտնելու
04:23
and sew them back together
107
248000
2000
և դրանք կրկին իրար կարելու համար,
04:25
and figure out what's actually happening in the market.
108
250000
2000
և դա օգնում է հասկանալ, թե ինչ է կատարվում շուկայում:
04:27
So if you need to have some image
109
252000
2000
Այսպիսով, եթե ցանկանում եք պատկերացում կազմել,
04:29
of what's happening in the stock market right now,
110
254000
3000
թե ինչ է տվյալ պահին կատարվում ֆոնդային շուկայում,
04:32
what you can picture is a bunch of algorithms
111
257000
2000
պետք է նկարագրեք ալգորիթմների մի խումբ,
04:34
that are basically programmed to hide,
112
259000
3000
որոնք պարզապես ծրագրավորած են թաքցնելու,
04:37
and a bunch of algorithms that are programmed to go find them and act.
113
262000
3000
և մի այլ ալգորիթմների խումբ, որոնք ծրագրավորած են դրանք գտնելու և մշակելու:
04:40
And all of that's great, and it's fine.
114
265000
3000
Եվ այս ամենը հրաշալի է։
04:43
And that's 70 percent
115
268000
2000
Այսպես է աշխատում
04:45
of the United States stock market,
116
270000
2000
Միացյալ Նահանգների ֆոնդային շուկայի 70 տոկոսը:
04:47
70 percent of the operating system
117
272000
2000
Օպերացիոն համակարգի 70 տոկոսը,
04:49
formerly known as your pension,
118
274000
3000
որը նախկինում հայնտի էր որպես ձեր թոշակը
04:52
your mortgage.
119
277000
3000
կամ գրավ դրած գումարը:
04:55
And what could go wrong?
120
280000
2000
Եվ ինչը՞ կարող է սխալ ուղղությամբ գնալ:
04:57
What could go wrong
121
282000
2000
Սխալ ընթացավ այն,
04:59
is that a year ago,
122
284000
2000
որ մի տարի առաջ,
05:01
nine percent of the entire market just disappears in five minutes,
123
286000
3000
ամբողջ շուկայի ինը տոկոսը հինգ րոպեում չքացավ,
05:04
and they called it the Flash Crash of 2:45.
124
289000
3000
նրանք դա անվանեցին 2:45-ի ակնթարթային խափանում:
05:07
All of a sudden, nine percent just goes away,
125
292000
3000
Հանկարծակի, ինը տոկոսը պարզապես կորում է,
05:10
and nobody to this day
126
295000
2000
և մինչ օրս ոչ ոք
05:12
can even agree on what happened
127
297000
2000
չի կարող հասկանալ, թե ինչ է պատահել,
05:14
because nobody ordered it, nobody asked for it.
128
299000
3000
որովհետև ոչ ոք դա չէր սպասում, ոչ ոք չէր պատվիրել դա:
05:17
Nobody had any control over what was actually happening.
129
302000
3000
Ոչ ոք որևէ կերպ չէր կառավարում գործընթացը:
05:20
All they had
130
305000
2000
Այն ամենը, ինչ նրանք ունեին
05:22
was just a monitor in front of them
131
307000
2000
պարզապես իրենց առջև դրված մոնիտորն էր,
05:24
that had the numbers on it
132
309000
2000
որը ցույց էր տալիս թվեր
05:26
and just a red button
133
311000
2000
և պարզապես մի կարմիր կոճակ,
05:28
that said, "Stop."
134
313000
2000
վրան գրված. «Կասեցնել»:
05:30
And that's the thing,
135
315000
2000
Ահա թե ինչումն է բանը,
05:32
is that we're writing things,
136
317000
2000
մենք գրում ենք ծրագրեր,
05:34
we're writing these things that we can no longer read.
137
319000
3000
գրում ենք ծրագրեր, որոնք այլևս չենք կարող կարդալ:
05:37
And we've rendered something
138
322000
2000
Եվ մենք վերարտադրում ենք մի բան,
05:39
illegible,
139
324000
2000
որն ընթեռնելի չէ:
05:41
and we've lost the sense
140
326000
3000
Եվ մենք այլևս չենք կարողանում հասկանալ,
05:44
of what's actually happening
141
329000
2000
թե ինչ է տեղի ունենում
05:46
in this world that we've made.
142
331000
2000
մեր կառուցած աշխարհում:
05:48
And we're starting to make our way.
143
333000
2000
Մենք սկսում ենք ճանապարհ հարթել:
05:50
There's a company in Boston called Nanex,
144
335000
3000
Բոստոնում կա մի ընկերություն Nanex անունով,
05:53
and they use math and magic
145
338000
2000
նրանք օգտագործում են մաթեմատիկա, կախարդանքներ
05:55
and I don't know what,
146
340000
2000
և չգիտեմ էլ ինչեր,
05:57
and they reach into all the market data
147
342000
2000
և նրանք հասնում են շուկայական բոլոր տվյալներին
05:59
and they find, actually sometimes, some of these algorithms.
148
344000
3000
և նրանք գտնում են, երբեմն, ալգորիթմներից մի քանիսը:
06:02
And when they find them they pull them out
149
347000
3000
Եվ երբ նրանք գտնում են դրանք, դուրս են հանում,
06:05
and they pin them to the wall like butterflies.
150
350000
3000
փակցնում են պատին, թիթեռների պես:
06:08
And they do what we've always done
151
353000
2000
Եվ նրանք անում են այն, ինչ միշտ մարդիկ անում են.
06:10
when confronted with huge amounts of data that we don't understand --
152
355000
3000
երբ հանդիպում են տվյալների հսկայական կտորի, որն անհնար է հասկանալ --
06:13
which is that they give them a name
153
358000
2000
նրանք դրան անուն են վերագրում
06:15
and a story.
154
360000
2000
և պատմություն:
06:17
So this is one that they found,
155
362000
2000
Ահա դրանցից մեկը,
06:19
they called the Knife,
156
364000
4000
որն անվանվել է «Դանակ»,
06:23
the Carnival,
157
368000
2000
«Պարահանդես»,
06:25
the Boston Shuffler,
158
370000
4000
«Բոստոնցի խաղամոլ»,
06:29
Twilight.
159
374000
2000
«Մթնշաղ»:
06:31
And the gag is
160
376000
2000
Հետաքրքիրն այն է,
06:33
that, of course, these aren't just running through the market.
161
378000
3000
որ, իհարկե, սրանք միայն շուկայով չէ, որ անցնում են:
06:36
You can find these kinds of things wherever you look,
162
381000
3000
Կարող եք գտնել նման բաներ ամենուր,
06:39
once you learn how to look for them.
163
384000
2000
բավական է իմանալ, ինչպես փնտրել դրանք:
06:41
You can find it here: this book about flies
164
386000
3000
Կարող ես գտնել այն այստեղ. այս ճանճերի մասին գիրքը,
06:44
that you may have been looking at on Amazon.
165
389000
2000
որը դուք որոնել և դիտել եք Amazon-ում:
06:46
You may have noticed it
166
391000
2000
Հնարավոր է նկատած լինեք,
06:48
when its price started at 1.7 million dollars.
167
393000
2000
որ դրա գինը սկսվում է 1.7 միլիոն դոլարից:
06:50
It's out of print -- still ...
168
395000
2000
Այն չի տպագրվում -- համենայն դեպս...
06:52
(Laughter)
169
397000
2000
(Ծիծաղ)
06:54
If you had bought it at 1.7, it would have been a bargain.
170
399000
3000
Եթե դուք գնեիք այն 1,7 միլիոնով, շահավետ գնում կլիներ:
06:57
A few hours later, it had gone up
171
402000
2000
Մի քանի ժամ անց, գինը կբարձրանար
06:59
to 23.6 million dollars,
172
404000
2000
մինչև 23,6 միլիոն դոլար,
07:01
plus shipping and handling.
173
406000
2000
գումարած փոխադրման գինը:
07:03
And the question is:
174
408000
2000
Հարցը հետևյալն է:
07:05
Nobody was buying or selling anything; what was happening?
175
410000
2000
Ոչ ոք ոչինչ չի գնել կամ վաճառել. ի՞նչ է տեղի ունենում:
07:07
And you see this behavior on Amazon
176
412000
2000
Դուք կարող եք տեսնել նման պահվածքը Amazon-ում,
07:09
as surely as you see it on Wall Street.
177
414000
2000
համոզված եղեք, որ նույնը կարող եք տեսնել և Ուոլ Սթրիթում:
07:11
And when you see this kind of behavior,
178
416000
2000
Եվ երբ տեսնում եք նման պահվածք,
07:13
what you see is the evidence
179
418000
2000
իրականում ականատես եք լինում
07:15
of algorithms in conflict,
180
420000
2000
կոնֆլիկտի մեջ գտնվող ալգորիթմների,
07:17
algorithms locked in loops with each other,
181
422000
2000
ալգորիթմների, որոնք կողպված են ցիկլերում մեկը մյուսի հետ,
07:19
without any human oversight,
182
424000
2000
առանց որևէ մարդկային միջամտության,
07:21
without any adult supervision
183
426000
3000
առանց մեծահասակների հսկողության,
07:24
to say, "Actually, 1.7 million is plenty."
184
429000
3000
մեկը չկա, որ ասի. «Իրականում, 1,7 միլիոնը շատ է»:
07:27
(Laughter)
185
432000
3000
(Ծիծաղ)
07:30
And as with Amazon, so it is with Netflix.
186
435000
3000
Եվ ինչպես Amazon-ում, նույնը տեղի է ունենում Netflix-ում:
07:33
And so Netflix has gone through
187
438000
2000
Netflix-ը կիրառել է
07:35
several different algorithms over the years.
188
440000
2000
մի քանի տարբեր ալգորիթմներ տարիների ընթացքում:
07:37
They started with Cinematch, and they've tried a bunch of others --
189
442000
3000
Նրանք սկսեցին Cinematch-ից, և ապա փորձեցին մի շարք այլ ալգորիթմներ:
07:40
there's Dinosaur Planet; there's Gravity.
190
445000
2000
Փորձեցին «Դինոզավրերի մոլորակը», ապա «Ձգողությունը»:
07:42
They're using Pragmatic Chaos now.
191
447000
2000
Այժմ նրանք օգտագործում են «Պրագմատիկ քաոսը»:
07:44
Pragmatic Chaos is, like all of Netflix algorithms,
192
449000
2000
Պրագմատիկ քաոսը նման է Netflix-ի բոլոր ալգորիթմներին,
07:46
trying to do the same thing.
193
451000
2000
այն փորձում է անել նույն բանը:
07:48
It's trying to get a grasp on you,
194
453000
2000
Այն փորձում է հասկանալ քեզ,
07:50
on the firmware inside the human skull,
195
455000
2000
վերահսկել մարդու գանգի մեջ տեղադրված սարքավորումները,
07:52
so that it can recommend what movie
196
457000
2000
այնպես, որ կարողանա խորհուրդ տալ, թե ինչ ֆիլմ
07:54
you might want to watch next --
197
459000
2000
կուզենաս դիտել հաջորդ անգամ --
07:56
which is a very, very difficult problem.
198
461000
3000
ինչը շատ, շատ դժվար խնդիր է:
07:59
But the difficulty of the problem
199
464000
2000
Բայց խնդրի բարդությունը
08:01
and the fact that we don't really quite have it down,
200
466000
3000
և փաստը, որ մենք դեռ չունենք դրա ճշգրիտ լուծումը,
08:04
it doesn't take away
201
469000
2000
չեն վերացնում
08:06
from the effects Pragmatic Chaos has.
202
471000
2000
«Պրագմատիկ քաոս»-ի ազդեցությունը:
08:08
Pragmatic Chaos, like all Netflix algorithms,
203
473000
3000
«Պրագմատիկ քաոսը», ինչպես մնացած Netflix-ի ալգորիթմները,
08:11
determines, in the end,
204
476000
2000
ի վերջո, գուշակում է
08:13
60 percent
205
478000
2000
վարձվող ֆիլմերի
08:15
of what movies end up being rented.
206
480000
2000
60 տոկոսը:
08:17
So one piece of code
207
482000
2000
Այսպիսով, կոդի մի կտորը
08:19
with one idea about you
208
484000
3000
որի կենտրոնում քո մասին գաղափարն է,
08:22
is responsible for 60 percent of those movies.
209
487000
3000
պատասխանատու է այդ ֆիլմերի 60 տոկոսի համար:
08:25
But what if you could rate those movies
210
490000
2000
Բայց ի՞նչ կլիներ, եթե հնարավոր լիներ գնահատել այդ ֆիլմերը
08:27
before they get made?
211
492000
2000
նույնիսկ նախքան նրանց նկարահանելը:
08:29
Wouldn't that be handy?
212
494000
2000
Դա հարմար կլիներ, այդպես չէ՞:
08:31
Well, a few data scientists from the U.K. are in Hollywood,
213
496000
3000
Միացյալ Թագավորությունից Հոլիվուդ են եկել որոշ գիտնականներ
08:34
and they have "story algorithms" --
214
499000
2000
և նրանք ունեն պատմվածքներ հորինող ալգորիթմներ --
08:36
a company called Epagogix.
215
501000
2000
Epagogix անունով ընկերությունում:
08:38
And you can run your script through there,
216
503000
3000
Եվ դու կարող ես քո սցենարը անցկացնել նրանց ծրագրի մեջ
08:41
and they can tell you, quantifiably,
217
506000
2000
և տեսնել, ինչ արժե քո ֆիլմը՝
08:43
that that's a 30 million dollar movie
218
508000
2000
այն 30 միլիոն դոլարի ծախս է պահանջում,
08:45
or a 200 million dollar movie.
219
510000
2000
թե 200 միլիոնի:
08:47
And the thing is, is that this isn't Google.
220
512000
2000
Եվ բանը նրանում է, որ սա Google-ը չէ:
08:49
This isn't information.
221
514000
2000
Սա տեղեկատվություն չէ:
08:51
These aren't financial stats; this is culture.
222
516000
2000
Սրանք ֆինանսական վիճակագրություններ չեն. սա մշակույթ է:
08:53
And what you see here,
223
518000
2000
Եվ այն, ինչ դուք այստեղ տեսնում եք,
08:55
or what you don't really see normally,
224
520000
2000
կամ այն ինչ սովորաբար չեք տեսնում,
08:57
is that these are the physics of culture.
225
522000
4000
դա այն է, որ սրանք մշակույթի ֆիզիկան են:
09:01
And if these algorithms,
226
526000
2000
Եվ եթե այս ալգորիթմները,
09:03
like the algorithms on Wall Street,
227
528000
2000
ինչպես Ուոլ Սթրիթի ալգորիթմները,
09:05
just crashed one day and went awry,
228
530000
3000
մի գեղեցիկ օր խափանվեն ու շեղումներ տան,
09:08
how would we know?
229
533000
2000
ինչպե՞ս կարող ենք իմանալ,
09:10
What would it look like?
230
535000
2000
թե դա ինչի նման կլինի:
09:12
And they're in your house. They're in your house.
231
537000
3000
Եվ դրանք նաև ձեր տանն են: Դրանք ձեր տանն են:
09:15
These are two algorithms competing for your living room.
232
540000
2000
Ահա երկու ալգորիթմ, որոնք մրցակցում են ձեր հյուրասենյակի համար:
09:17
These are two different cleaning robots
233
542000
2000
Սրանք երկու տարբեր մաքրող ռոբոտներ են,
09:19
that have very different ideas about what clean means.
234
544000
3000
որոնք բոլորովին տարբեր կերպ են ընկալում «մաքրել» գաղափարը:
09:22
And you can see it
235
547000
2000
Կարելի է համոզվել դրանում,
09:24
if you slow it down and attach lights to them,
236
549000
3000
եթե դանդաղեցնել դրանց և լույսեր փակցնել դրանց վրա:
09:27
and they're sort of like secret architects in your bedroom.
237
552000
3000
Եվ նրանք ասես քո ննջասենյակի գաղտնի ճարտարապետները լինեն:
09:30
And the idea that architecture itself
238
555000
3000
Իսկ այն գաղափարը, որ ճարտարապետությունն ինքնին
09:33
is somehow subject to algorithmic optimization
239
558000
2000
ինչ-որ ձևով ենթակա է ալգորիթմային պարզեցման
09:35
is not far-fetched.
240
560000
2000
այնքան էլ չափազանցված չէ:
09:37
It's super-real and it's happening around you.
241
562000
3000
Դա լիովին իրական է և տեղի է ունենում ձեր շուրջը:
09:40
You feel it most
242
565000
2000
Դու զգում ես դա,
09:42
when you're in a sealed metal box,
243
567000
2000
երբ փակված ես մետաղյա տուփի մեջ,
09:44
a new-style elevator;
244
569000
2000
նորաձև վերելակի,
09:46
they're called destination-control elevators.
245
571000
2000
դրանց անվանում են նշանակակետի ղեկավարումով վերելակներ:
09:48
These are the ones where you have to press what floor you're going to go to
246
573000
3000
Դրանք այն վերելակներն են, որտեղ դու պետք է սեղմես այն հարկի կոճակը, որն ուզում ես գնալ,
09:51
before you get in the elevator.
247
576000
2000
նախքան վերելակ նստելը:
09:53
And it uses what's called a bin-packing algorithm.
248
578000
2000
Այն օգտագործում է ալգորիթմ, որին անվանում են տուփը փաթեթավորող ալգորիթմ:
09:55
So none of this mishegas
249
580000
2000
Այսպիսով, սա թույլ չի տալիս,
09:57
of letting everybody go into whatever car they want.
250
582000
2000
որ ով ուր ասես կարողանա գնալ:
09:59
Everybody who wants to go to the 10th floor goes into car two,
251
584000
2000
Բոլոր նրանք, ովքեր բարձրանում են 10-րդ հարկ, պետք է նստեն երկրորդ մեքենան,
10:01
and everybody who wants to go to the third floor goes into car five.
252
586000
3000
իսկ նրանք, ովքեր երրորդ հարկ են գնում, պետք է նստեն հինգերորդ մեքենան:
10:04
And the problem with that
253
589000
2000
Եվ խնդիրն այն է,
10:06
is that people freak out.
254
591000
2000
որ մարդիկ վախենում են:
10:08
People panic.
255
593000
2000
Մարդիկ խուճապի են մատնվում:
10:10
And you see why. You see why.
256
595000
2000
Եվ կարելի է հասկանալ, թե ինչու:
10:12
It's because the elevator
257
597000
2000
Որովհետև վերելակը
10:14
is missing some important instrumentation, like the buttons.
258
599000
3000
չունի մի շարք կարևոր մասեր, ինչպես օրինակ կոճակներ:
10:17
(Laughter)
259
602000
2000
(Ծիծաղ)
10:19
Like the things that people use.
260
604000
2000
Մարդիկ սովոր են դրանք օգտագործել:
10:21
All it has
261
606000
2000
Այն միայն ունի
10:23
is just the number that moves up or down
262
608000
3000
մեկ թիվ, որը բարձրանում կամ իջնում է
10:26
and that red button that says, "Stop."
263
611000
3000
և մի կարմիր կոճակ, վրան գրված. «Կասեցնել»:
10:29
And this is what we're designing for.
264
614000
3000
Ահա թե ինչի համար ենք մենք դա անում։
10:32
We're designing
265
617000
2000
Մենք դա անում ենք
10:34
for this machine dialect.
266
619000
2000
մեքենայի դիալեկտի համար:
10:36
And how far can you take that? How far can you take it?
267
621000
3000
Ինչքա՞ն հեռու կարելի է գնալ։
10:39
You can take it really, really far.
268
624000
2000
Կարող ենք շատ ու շատ հեռու գնալ:
10:41
So let me take it back to Wall Street.
269
626000
3000
Եկեք վերադառնանք Ուոլ Սթրիթ:
10:45
Because the algorithms of Wall Street
270
630000
2000
Որովհետև Ուոլ Սթրիթի ալգորիթմները,
10:47
are dependent on one quality above all else,
271
632000
3000
առավել, քան մնացած բոլորը, կախված են մի որակական հատկանիշից.
10:50
which is speed.
272
635000
2000
այն է՝ արագությունը:
10:52
And they operate on milliseconds and microseconds.
273
637000
3000
Եվ նրանք աշխատում են միլիվայրկյաններով և միկրովայրկյաններով:
10:55
And just to give you a sense of what microseconds are,
274
640000
2000
Իսկ եթե ուզում եք պատկերացնել, թե ինչ է միկրովայրկյանը.
10:57
it takes you 500,000 microseconds
275
642000
2000
ձեզանից պահանջվում է 500,000 միկրովայրկյան,
10:59
just to click a mouse.
276
644000
2000
որպեսզի միայն մկնիկի կոճակը սեղմեք:
11:01
But if you're a Wall Street algorithm
277
646000
2000
Բայց եթե դուք Ուոլ Սթրիթի ալգորիթմ եք
11:03
and you're five microseconds behind,
278
648000
2000
և հետ եք մնում հինգ միկրովայրկյանով,
11:05
you're a loser.
279
650000
2000
դուք ձախողակ եք:
11:07
So if you were an algorithm,
280
652000
2000
Այսպիսով, եթե դուք լինեիք ալգորիթմ,
11:09
you'd look for an architect like the one that I met in Frankfurt
281
654000
3000
դուք կփնտրեիք ճարտարապետի, ում ես հանդիպեցի Ֆրանկֆուրտում,
11:12
who was hollowing out a skyscraper --
282
657000
2000
ով դատարկում էր մի երկնաքեր --
11:14
throwing out all the furniture, all the infrastructure for human use,
283
659000
3000
դուրս էր նետում ամբողջ կահույքը, մարդկային օգտագործման ինֆրակառուցվածքը,
11:17
and just running steel on the floors
284
662000
3000
թողնելով միայն հատակի պողպատը,
11:20
to get ready for the stacks of servers to go in --
285
665000
3000
որ տեղ ազատի տեղադրվելիք սերվերների համար --
11:23
all so an algorithm
286
668000
2000
և այս ամենը նրա համար,
11:25
could get close to the Internet.
287
670000
3000
որ ալգորիթմը կարողանա ինտերնետին ավելի մոտ լինել:
11:28
And you think of the Internet as this kind of distributed system.
288
673000
3000
Եվ կարելի է մտածել ինտերնետի մասին, որպես մի բաշխված համակարգի:
11:31
And of course, it is, but it's distributed from places.
289
676000
3000
Եվ, իհարկե, այդպես էլ կա, բայց այն բաշխվում է ինչ-որ վայրերից:
11:34
In New York, this is where it's distributed from:
290
679000
2000
Ահա թե որտեղից է բաշխվում այն Նյու Յորքում՝
11:36
the Carrier Hotel
291
681000
2000
Կարիեր հյուրանոցից,
11:38
located on Hudson Street.
292
683000
2000
որը տեղակայված է Հադսոն փողոցում:
11:40
And this is really where the wires come right up into the city.
293
685000
3000
Ահա թե իրականում որտեղից են լարերը տարածվում դեպի քաղաք:
11:43
And the reality is that the further away you are from that,
294
688000
4000
Ինչքան հեռու լինես դրանից,
11:47
you're a few microseconds behind every time.
295
692000
2000
ամեն անգամ մի քանի միկրովայրկյան ժամանակ ես կորցնելու:
11:49
These guys down on Wall Street,
296
694000
2000
Ուոլ Սթրիթի այս տղերքը՝
11:51
Marco Polo and Cherokee Nation,
297
696000
2000
Մարկո Պոլոն և Չերոկի Նեյշնը,
11:53
they're eight microseconds
298
698000
2000
հետ են մնում ութ միկրովայրկյանով
11:55
behind all these guys
299
700000
2000
բոլոր այն տղերքից,
11:57
going into the empty buildings being hollowed out
300
702000
4000
ովքեր տեղափոխվում են Կարիեր հյուրանոցի մոտակայքում
12:01
up around the Carrier Hotel.
301
706000
2000
տեղավորված դատարկվող շենքերը:
12:03
And that's going to keep happening.
302
708000
3000
Եվ սա անընդհատ տեղի է ունենալու:
12:06
We're going to keep hollowing them out,
303
711000
2000
Անընդհատ մենք դատարկելու ենք դրանք,
12:08
because you, inch for inch
304
713000
3000
քանզի դուք, սանտիմետր առ սանտիմետր
12:11
and pound for pound and dollar for dollar,
305
716000
3000
կիլոգրամ առ կիլոգրամ և դոլար առ դոլար,
12:14
none of you could squeeze revenue out of that space
306
719000
3000
ձեզանից ոչ ոք այդքան շահույթ չի կարող ստանալ այդ տարածքից,
12:17
like the Boston Shuffler could.
307
722000
3000
որքան «Բոստոնցի խաղամոլը» կարողացավ անել:
12:20
But if you zoom out,
308
725000
2000
Բայց եթե տեսադաշտը հեռացնենք,
12:22
if you zoom out,
309
727000
2000
եթե հեռացնենք պատկերը,
12:24
you would see an 825-mile trench
310
729000
4000
կարող ենք տեսնել 1,300 կիլոմետրանոց խրամատ
12:28
between New York City and Chicago
311
733000
2000
Նյու Յորքի և Չիկագոյի միջև,
12:30
that's been built over the last few years
312
735000
2000
այն արվել է վերջին մի քանի տարիների ընթացքում,
12:32
by a company called Spread Networks.
313
737000
3000
Spread Networks կոչվող ընկերության կողմից:
12:35
This is a fiber optic cable
314
740000
2000
Սա օպտիկամանրաթելային մալուխ է
12:37
that was laid between those two cities
315
742000
2000
անցկացված այս երկու քաղաքների միջև
12:39
to just be able to traffic one signal
316
744000
3000
որպեսզի կարելի լինի տրաֆիկի սիգնալը
12:42
37 times faster than you can click a mouse --
317
747000
3000
37 անգամ ավելի արագ տեղափոխել, քան մկնիկի սեղմումը --
12:45
just for these algorithms,
318
750000
3000
այս ամենը հանուն ալգորիթմների է,
12:48
just for the Carnival and the Knife.
319
753000
3000
հանուն «Պարահանդեսի» և «Դանակի»:
12:51
And when you think about this,
320
756000
2000
Եվ երբ մտածում ես սրա մասին,
12:53
that we're running through the United States
321
758000
2000
թե ինչպես ենք քար-կտրիչով ու դինամիտով ընկել
12:55
with dynamite and rock saws
322
760000
3000
Միացյալ Նահանգներով,
12:58
so that an algorithm can close the deal
323
763000
2000
որպեսզի ալգորիթմը կարողանա ավարտել գործարքը
13:00
three microseconds faster,
324
765000
3000
երեք միկրովայրկյան ավելի արագ,
13:03
all for a communications framework
325
768000
2000
ամենը հաղորդակցական հենքի համար,
13:05
that no human will ever know,
326
770000
4000
որի մասին մարդիկ երբեք չեն իմանա,
13:09
that's a kind of manifest destiny;
327
774000
3000
սա ասես ճակատագրի կանչ է,
13:12
and we'll always look for a new frontier.
328
777000
3000
անընդհատ նորանոր հորիզոններ փնտրել:
13:15
Unfortunately, we have our work cut out for us.
329
780000
3000
Ցավոք, մեր գործը կանխորոշված է:
13:18
This is just theoretical.
330
783000
2000
Սա լոկ տեսականորեն...
13:20
This is some mathematicians at MIT.
331
785000
2000
Սրանք որոշ մաթեմատիկոսներ են Մասաչուսեթսի տեխնոլոգիայի ինստիտուտից:
13:22
And the truth is I don't really understand
332
787000
2000
Ճիշտն ասած ես գրեթե չեմ հասկանում,
13:24
a lot of what they're talking about.
333
789000
2000
թե ինչ են նրանք խոսում:
13:26
It involves light cones and quantum entanglement,
334
791000
3000
Խոսում են լուսային կոների և քվանտային խճճվածության մասին,
13:29
and I don't really understand any of that.
335
794000
2000
և իրականում ես դրանից ընդհանրապես գլուխ չեմ հանում:
13:31
But I can read this map,
336
796000
2000
Բայց ես կարող եմ կարդալ այս քարտեզը:
13:33
and what this map says
337
798000
2000
Եվ այս քարտեզը մեզ ասում է,
13:35
is that, if you're trying to make money on the markets where the red dots are,
338
800000
3000
որ եթե փորձում եք շահույթ ստանալ շուկայում, որտեղ կարմիր կետերն են,
13:38
that's where people are, where the cities are,
339
803000
2000
դրանք քաղաքներ են, որտեղ կան մարդիկ,
13:40
you're going to have to put the servers where the blue dots are
340
805000
3000
դուք պետք է տեղադրեք սերվերները այնտեղ, որտեղ կապույտ կետերն են,
13:43
to do that most effectively.
341
808000
2000
որպեսզի առավել արդյունավետ աշխատեք:
13:45
And the thing that you might have noticed about those blue dots
342
810000
3000
Եվ բանն այն է, որ, նկատած կլինեք, կապույտ կետերի
13:48
is that a lot of them are in the middle of the ocean.
343
813000
3000
մեծ մասը տեղադրված է ուղիղ օվկիանոսի կենտրոնում:
13:51
So that's what we'll do: we'll build bubbles or something,
344
816000
3000
Ուրեմն ահա թե ինչ պետք է անենք, պետք է կառուցենք փուչիկ, կամ
13:54
or platforms.
345
819000
2000
հենահարթակի նման բան:
13:56
We'll actually part the water
346
821000
2000
Մենք կառանձնացնենք ջուրը,
13:58
to pull money out of the air,
347
823000
2000
որպեսզի օդից գումար ստեղծենք,
14:00
because it's a bright future
348
825000
2000
որովհետև դա տանում է դեպի պայծառ ապագա,
14:02
if you're an algorithm.
349
827000
2000
եթե դու ալգորիթմ ես:
14:04
(Laughter)
350
829000
2000
(Ծիծաղ)
14:06
And it's not the money that's so interesting actually.
351
831000
3000
Եվ գումարը չէ, որ առավել հետաքրքում է մեզ այստեղ:
14:09
It's what the money motivates,
352
834000
2000
Դա այն է, ինչը գումարը թելադրում է:
14:11
that we're actually terraforming
353
836000
2000
Այն, որ մենք փաստորեն ձևափոխում ենք
14:13
the Earth itself
354
838000
2000
Երկիր մոլորակը
14:15
with this kind of algorithmic efficiency.
355
840000
2000
որպեսզի հասնենք ալգորիթմի արդյունավետությանը:
14:17
And in that light,
356
842000
2000
Եվ այս լույսի ներքո,
14:19
you go back
357
844000
2000
դուք հետ եք գնում
14:21
and you look at Michael Najjar's photographs,
358
846000
2000
և նայում եք Մայքլ Նաջարի լուսանկարներին,
14:23
and you realize that they're not metaphor, they're prophecy.
359
848000
3000
և հասկանում ես, որ դրանք փոխաբերական իմաստ չունեն, դրանք գուշակություններ են:
14:26
They're prophecy
360
851000
2000
Դրանք գուշակություններ են
14:28
for the kind of seismic, terrestrial effects
361
853000
4000
սեյսմիկ, ցամաքային փոփոխության մասին,
14:32
of the math that we're making.
362
857000
2000
որի պատճառը մաթեմատիկան է, որով մենք զբաղվում ենք:
14:34
And the landscape was always made
363
859000
3000
Լանդշաֆտը միշտ էլ ձևավորվել է
14:37
by this sort of weird, uneasy collaboration
364
862000
3000
մարդու և բնության միջև նման տարօրինակ,
14:40
between nature and man.
365
865000
3000
դժվար համագործակցության արդյունքում:
14:43
But now there's this third co-evolutionary force: algorithms --
366
868000
3000
Բայց հիմա ունենք այս երրորդ համա-էվոլյուցիոն ուժը՝ ալգորիթմները --
14:46
the Boston Shuffler, the Carnival.
367
871000
3000
«Բոստոնցի խաղամոլը», «Պարահանդեսը»:
14:49
And we will have to understand those as nature,
368
874000
3000
Ժամանակ է պետք, որ ընդունենք դրանց որպես բնություն:
14:52
and in a way, they are.
369
877000
2000
Եվ ինչ որ իմաստով, դրանք իրոք բնություն են:
14:54
Thank you.
370
879000
2000
Շնորհակալ եմ:
14:56
(Applause)
371
881000
20000
(Ծափահարություններ)
Translated by Jhora Zakaryan
Reviewed by Gohar Khachatryan

▲Back to top

ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee