ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com
TEDGlobal 2011

Kevin Slavin: How algorithms shape our world

Kevin Slavin: Cum modelează algoritmii lumea

Filmed:
4,199,898 views

Kevin Slavin susţine că trăim într-o lume proiectată pentru - şi din ce în ce mai mult controlată de - algoritmi. În acest discurs captivant de la TEDGlobal, el arată modul în care aceste programe complexe de calculator determină: tactici de spionaj, preţurile de vânzare ale acțiunilor, scenarii de film şi de arhitectură. Şi el ne avertizează că noi scriem cod pe care nu îl putem înțelege, cu implicaţii pe care nu le putem controla.
- Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms. Full bio

Double-click the English transcript below to play the video.

00:15
This is a photographfotografie
0
0
2000
Aceasta este o fotografie
00:17
by the artistartist MichaelMichael NajjarNajjar,
1
2000
2000
făcută de artistul Michael Najjar
00:19
and it's realreal,
2
4000
2000
și este reală
00:21
in the sensesens that he wenta mers there to ArgentinaArgentina
3
6000
2000
în sensul că el a fost în Argentina
00:23
to take the photofotografie.
4
8000
2000
pentru a face această fotografie.
00:25
But it's alsode asemenea a fictionfictiune. There's a lot of work that wenta mers into it after that.
5
10000
3000
Dar este, de alfel, și ficțiune. S-a lucrat mult la ea după aceea.
00:28
And what he's doneTerminat
6
13000
2000
Și ceea ce a realizat
00:30
is he's actuallyde fapt reshapedremodelat, digitallydigital,
7
15000
2000
este că a remodelat digital
00:32
all of the contourscontururi of the mountainsmunţi
8
17000
2000
toate contururile munților
00:34
to followurma the vicissitudesvicisitudinile of the DowDow JonesJones indexindex.
9
19000
3000
pentru a indica fluctuațiile indexului Dow Jones.
00:37
So what you see,
10
22000
2000
Astfel că ceea ce vedeți aici,
00:39
that precipiceprăpastie, that highînalt precipiceprăpastie with the valleyvale,
11
24000
2000
acea prăpastie, acea prăpastie mare cu valea ei,
00:41
is the 2008 financialfinanciar crisiscriză.
12
26000
2000
este criza financiară din 2008.
00:43
The photofotografie was madefăcut
13
28000
2000
Poza a fost făcută
00:45
when we were deepadâncime in the valleyvale over there.
14
30000
2000
când noi eram chiar la baza văii aceea.
00:47
I don't know where we are now.
15
32000
2000
Nu știu unde suntem noi acum.
00:49
This is the HangStea SengDiana ioana indexindex
16
34000
2000
Acesta este indexul Hang Seng
00:51
for HongHong KongKong.
17
36000
2000
pentru Hong Kong.
00:53
And similarasemănător topographytopografie.
18
38000
2000
Și topografie similară.
00:55
I wondermirare why.
19
40000
2000
Mă întreb de ce?
00:57
And this is artartă. This is metaphormetaforă.
20
42000
3000
Și aceasta este artă. Este o metaforă.
01:00
But I think the pointpunct is
21
45000
2000
Dar ideea este că avem de-a face
01:02
that this is metaphormetaforă with teethdantură,
22
47000
2000
cu o metaforă cu dinți.
01:04
and it's with those teethdantură that I want to proposepropune todayastăzi
23
49000
3000
Legându-mă de acei dinți vreau să propun azi
01:07
that we rethinkregândească a little bitpic
24
52000
2000
ca noi să regândim puțin
01:09
about the rolerol of contemporarycontemporan mathmatematica --
25
54000
3000
rolul matematicii contemporane --
01:12
not just financialfinanciar mathmatematica, but mathmatematica in generalgeneral.
26
57000
3000
nu doar matematica financiară, ci matematica în general.
01:15
That its transitiontranziție
27
60000
2000
Că tranziția sa
01:17
from beingfiind something that we extractextrage and derivederiva from the worldlume
28
62000
3000
de la ceva care este extras și derivă din lume
01:20
to something that actuallyde fapt startsîncepe to shapeformă it --
29
65000
3000
la ceva care chiar începe să modeleze --
01:23
the worldlume around us and the worldlume insideinterior us.
30
68000
3000
lumea din jurul nostru și lumea dinăuntrul nostru.
01:26
And it's specificallyspecific algorithmsalgoritmi,
31
71000
2000
Și este vorba aici de algoritmi,
01:28
whichcare are basicallype scurt the mathmatematica
32
73000
2000
care reprezintă, la bază, chiar matematica
01:30
that computerscalculatoare use to decidea decide stuffchestie.
33
75000
3000
folosită de calculatoare pentru a lua decizii.
01:33
They acquiredobândi the sensibilitysensibilitate of truthadevăr
34
78000
2000
Ei dobândesc înțelepciunea adevărului
01:35
because they repeatrepeta over and over again,
35
80000
2000
pentru că se repetă de foarte multe ori.
01:37
and they ossifyosifica and calcifypietrifica,
36
82000
3000
Ei se osifică și se calcifică,
01:40
and they becomedeveni realreal.
37
85000
2000
și devin reali.
01:42
And I was thinkinggândire about this, of all placeslocuri,
38
87000
3000
Și mă gândeam la acest lucru, unde altundeva,
01:45
on a transatlantictrans- flightzbor a couplecuplu of yearsani agoîn urmă,
39
90000
3000
într-un zbor transatlantic în urmă cu câțiva ani
01:48
because I happeneds-a întâmplat to be seatedaşezat
40
93000
2000
pentru că întâmplarea a făcut să stau
01:50
nextUrmător → to a HungarianMaghiară physicistfizician about my agevârstă
41
95000
2000
lângă un fizician maghiar de-o vârstă cu mine
01:52
and we were talkingvorbind
42
97000
2000
și vorbeam
01:54
about what life was like duringpe parcursul the ColdRece WarRăzboi
43
99000
2000
despre cum era viața în timpul Războiului Rece
01:56
for physicistsfizicienii in HungaryUngaria.
44
101000
2000
pentru fizicienii din Ungaria.
01:58
And I said, "So what were you doing?"
45
103000
2000
Și i-am zis: ''Cu ce te ocupai?''
02:00
And he said, "Well we were mostlyMai ales breakingspargere stealthStealth."
46
105000
2000
El a răspuns: ''Ei bine, noi ne ocupam, în general, de detectoare radar!''
02:02
And I said, "That's a good jobloc de munca. That's interestinginteresant.
47
107000
2000
Și am zis: ''Este o muncă bună. Chiar interesantă.'
02:04
How does that work?"
48
109000
2000
Cum funcționează?''
02:06
And to understanda intelege that,
49
111000
2000
Și, pentru a înțelege aceasta,
02:08
you have to understanda intelege a little bitpic about how stealthStealth workslucrări.
50
113000
3000
trebuie să înțelegeți puțin modul în care camuflajul funcționează.
02:11
And so -- this is an over-simplificationsupra-simplificare --
51
116000
3000
Astfel - și aceasta este o simplificare -
02:14
but basicallype scurt, it's not like
52
119000
2000
de fapt, nu este ca și cum
02:16
you can just passtrece a radarradar signalsemnal
53
121000
2000
ai putea trece un semnal radar
02:18
right throughprin 156 tonstone of steeloţel in the skycer.
54
123000
3000
tocmai prin 156 de tone de oțel în mijlocul cerului.
02:21
It's not just going to disappeardispărea.
55
126000
3000
Nu va dispărea.
02:24
But if you can take this bigmare, massivemasiv thing,
56
129000
3000
Dar, dacă iei acest lucru foarte mare
02:27
and you could turnviraj it into
57
132000
3000
și îl transformi într-un
02:30
a millionmilion little things --
58
135000
2000
milion de lucruri mici -
02:32
something like a flockturma of birdspăsări --
59
137000
2000
ceva asemănător unui stol de păsări -
02:34
well then the radarradar that's looking for that
60
139000
2000
ei bine, radarul care caută acest lucru
02:36
has to be ablecapabil to see
61
141000
2000
trebuie să poată vedea
02:38
everyfiecare flockturma of birdspăsări in the skycer.
62
143000
2000
fiecare stol de păsări de pe cer.
02:40
And if you're a radarradar, that's a really badrău jobloc de munca.
63
145000
4000
Și, dacă ești un radar, aceasta este o muncă foarte neplăcută.
02:44
And he said, "Yeah." He said, "But that's if you're a radarradar.
64
149000
3000
Și el a replicat: ''Da, dar este valabil doar dacă ești un radar.
02:47
So we didn't use a radarradar;
65
152000
2000
Așa că noi nu am folosit un radar,
02:49
we builtconstruit a blacknegru boxcutie that was looking for electricalelectric signalssemnalele,
66
154000
3000
ci am construit o cutie neagră care căuta semnale electrice,
02:52
electronicelectronic communicationcomunicare.
67
157000
3000
comunicare electronică.
02:55
And wheneveroricând we saw a flockturma of birdspăsări that had electronicelectronic communicationcomunicare,
68
160000
3000
Și, de fiecare dată când vedeam un stol de păsări care avea comunicare electronică,
02:58
we thought, 'Probably' Probabil has something to do with the AmericansAmericanii.'"
69
163000
3000
ne gândeam că, probabil, are ceva de-a face cu americanii.''
03:01
And I said, "Yeah.
70
166000
2000
Și am zis: ''Da.
03:03
That's good.
71
168000
2000
Este bine.
03:05
So you've effectivelyîn mod eficient negatednegată
72
170000
2000
Deci, ai anulat pur și simplu
03:07
60 yearsani of aeronauticAeronautică researchcercetare.
73
172000
2000
60 de ani de cercetări aeronautice.
03:09
What's your actact two?
74
174000
2000
Ce vei face mai departe?
03:11
What do you do when you growcrește up?"
75
176000
2000
Ce vei face când vei crește mare? ''
03:13
And he said,
76
178000
2000
Și el a zis:
03:15
"Well, financialfinanciar servicesServicii."
77
180000
2000
'' Ei bine, servicii financiare.''
03:17
And I said, "Oh."
78
182000
2000
Și am replicat: ''Oh.''
03:19
Because those had been in the newsștiri latelyîn ultimul timp.
79
184000
3000
Pentru că ele erau în atenția știrilor în ultima perioadă.
03:22
And I said, "How does that work?"
80
187000
2000
Și l-am întrebat: ''Cum functionează treaba aceasta?''
03:24
And he said, "Well there's 2,000 physicistsfizicienii on WallPerete StreetStrada now,
81
189000
2000
Mi-a răspuns:''Ei bine, sunt peste 2000 de fizicieni acum pe Wall Street,
03:26
and I'm one of them."
82
191000
2000
iar eu sunt unul dintre ei.''
03:28
And I said, "What's the blacknegru boxcutie for WallPerete StreetStrada?"
83
193000
3000
Apoi, l-am întrebat: ''Care este cutia neagră pentru Wall Street?''
03:31
And he said, "It's funnyamuzant you askcere that,
84
196000
2000
El a răspuns:''Este ciudat că întrebi acest lucru,
03:33
because it's actuallyde fapt calleddenumit blacknegru boxcutie tradingcomercial.
85
198000
3000
pentru că, de fapt, se numește comerțul cutiei negre.
03:36
And it's alsode asemenea sometimesuneori calleddenumit algoAlgo tradingcomercial,
86
201000
2000
Iar uneori i se mai zice și algo-comerț,
03:38
algorithmicalgoritmice tradingcomercial."
87
203000
3000
comerț algoritmic.''
03:41
And algorithmicalgoritmice tradingcomercial evolvedevoluat in partparte
88
206000
3000
Iar comerțul algoritmic a evoluat în parte
03:44
because institutionalinstituţional traderscomercianţii have the samela fel problemsProbleme
89
209000
3000
datorită comercianților instituționali aveau aceleași probleme
03:47
that the UnitedMarea StatesStatele AirAer ForceVigoare had,
90
212000
3000
cu care s-au confruntat și Forțele Aeriene ale Statelor Unite,
03:50
whichcare is that they're movingin miscare these positionspozițiile --
91
215000
3000
și anume este vorba de faptul că ei mutau aceste poziții --
03:53
whetherdacă it's ProctorProctor & GambleGraur or AccentureAccenture, whateverindiferent de --
92
218000
2000
fie că este vorba de Proctor & Gamble sau Accenture, orice -
03:55
they're movingin miscare a millionmilion sharesacțiuni of something
93
220000
2000
ei mută un milion de acțiuni de ceva anume
03:57
throughprin the marketpiaţă.
94
222000
2000
prin piață.
03:59
And if they do that all at onceo singura data,
95
224000
2000
Și, dacă ei fac acest lucru dintr-o dată
04:01
it's like playingjoc pokerPoker and going all in right away.
96
226000
2000
este ca și cum ar juca poker și mizează totul de la inceput.
04:03
You just tipbacsis your handmână.
97
228000
2000
Tu doar îți înclini mâna.
04:05
And so they have to find a way --
98
230000
2000
Si deci trebuie să găsească o cale -
04:07
and they use algorithmsalgoritmi to do this --
99
232000
2000
și folosesc algoritmii pentru a face aceasta --
04:09
to breakpauză up that bigmare thing
100
234000
2000
pentru a rupe acel lucru mare
04:11
into a millionmilion little transactionstranzacţii.
101
236000
2000
într-un milion de tranzacții mici.
04:13
And the magicmagie and the horrorgroază of that
102
238000
2000
Iar magia și problema mare în aceasta
04:15
is that the samela fel mathmatematica
103
240000
2000
este că aceeași matematică
04:17
that you use to breakpauză up the bigmare thing
104
242000
2000
folosită pentru a rupe acel lucru mare
04:19
into a millionmilion little things
105
244000
2000
într-un milion de lucruri mici
04:21
can be used to find a millionmilion little things
106
246000
2000
poate fi folosită pentru a găsi un milion de lucruri mici
04:23
and sewa coase them back togetherîmpreună
107
248000
2000
și a le suda înapoi impreuna
04:25
and figurefigura out what's actuallyde fapt happeninglucru in the marketpiaţă.
108
250000
2000
și pentru a afla ce se petrece, de fapt, în piață.
04:27
So if you need to have some imageimagine
109
252000
2000
Așadar, dacă vreți să aveți o imagine
04:29
of what's happeninglucru in the stockstoc marketpiaţă right now,
110
254000
3000
asupra a ceea ce se petrece pe piața de acțiuni acum
04:32
what you can pictureimagine is a bunchbuchet of algorithmsalgoritmi
111
257000
2000
vă puteți imagina o serie de algoritmi
04:34
that are basicallype scurt programmedprogramate to hideascunde,
112
259000
3000
care sunt programați să ascundă
04:37
and a bunchbuchet of algorithmsalgoritmi that are programmedprogramate to go find them and actact.
113
262000
3000
și o serie de algoritmi programați să îi găsească și să acționeze.
04:40
And all of that's great, and it's fine.
114
265000
3000
Și toate aceste lucruri sunt minunate, sunt bune.
04:43
And that's 70 percentla sută
115
268000
2000
Și este vorba de 70%
04:45
of the UnitedMarea StatesStatele stockstoc marketpiaţă,
116
270000
2000
din piața de acțiuni al Statelor Unite
04:47
70 percentla sută of the operatingoperare systemsistem
117
272000
2000
70% al sistemului de operare
04:49
formerlyanterior knowncunoscut as your pensionPensiunea,
118
274000
3000
cunoscut sub numele de pensia voastră,
04:52
your mortgagecredit ipotecar.
119
277000
3000
ipoteca voastră.
04:55
And what could go wronggresit?
120
280000
2000
Și ce ar putea să meargă prost?
04:57
What could go wronggresit
121
282000
2000
Ce ar putea să meargă prost
04:59
is that a yearan agoîn urmă,
122
284000
2000
este că în urmă cu un an
05:01
ninenouă percentla sută of the entireîntreg marketpiaţă just disappearsdispare in fivecinci minutesminute,
123
286000
3000
9% din întreaga piață a dispărut în cinci minute,
05:04
and they calleddenumit it the FlashFlash CrashAccident of 2:45.
124
289000
3000
și ei au numit aceasta Căderea Fulger a lui 2:45.
05:07
All of a suddenbrusc, ninenouă percentla sută just goesmerge away,
125
292000
3000
Dintr-o dată, 9% se duce pur și simplu
05:10
and nobodynimeni to this day
126
295000
2000
și nimeni, până în această zi,
05:12
can even agreede acord on what happeneds-a întâmplat
127
297000
2000
nu poate cădea de acord legat de ce s-a întâmplat,
05:14
because nobodynimeni orderedordonat it, nobodynimeni askedîntrebă for it.
128
299000
3000
pentru că nimeni nu a dat comanda, nimeni nu a cerut asta.
05:17
NobodyNimeni nu had any controlControl over what was actuallyde fapt happeninglucru.
129
302000
3000
Nimeni nu avea control asupra ceea ce se petrecea de fapt.
05:20
All they had
130
305000
2000
Tot ce aveau
05:22
was just a monitorMonitor in frontfață of them
131
307000
2000
era doar un monitor în fața lor
05:24
that had the numbersnumerele on it
132
309000
2000
care avea numere pe el
05:26
and just a redroșu buttonbuton
133
311000
2000
și doar un buton roșu
05:28
that said, "Stop."
134
313000
2000
care spunea: ''Stop.''
05:30
And that's the thing,
135
315000
2000
Și despre asta este vorba,
05:32
is that we're writingscris things,
136
317000
2000
că noi scriem lucruri,
05:34
we're writingscris these things that we can no longermai lung readcitit.
137
319000
3000
noi scriem lucruri pe care nu le mai putem citi.
05:37
And we'vene-am renderedprestate something
138
322000
2000
Și am creat ceva
05:39
illegibledevenit ilizibile,
139
324000
2000
ilizibil.
05:41
and we'vene-am lostpierdut the sensesens
140
326000
3000
Și am pierdut șirul
05:44
of what's actuallyde fapt happeninglucru
141
329000
2000
a ceea ce se petrece în fapt
05:46
in this worldlume that we'vene-am madefăcut.
142
331000
2000
în această lume pe care ne-am construit-o.
05:48
And we're startingpornire to make our way.
143
333000
2000
Și abia am început să ne creăm drumul.
05:50
There's a companycompanie in BostonBoston calleddenumit NanexNanex,
144
335000
3000
Există o companie în Boston numită Nanex,
05:53
and they use mathmatematica and magicmagie
145
338000
2000
și ei folosesc matematica și magia
05:55
and I don't know what,
146
340000
2000
și încă ceva pe lângă,
05:57
and they reacha ajunge into all the marketpiaţă datadate
147
342000
2000
și ei au acces la toate datele din piață
05:59
and they find, actuallyde fapt sometimesuneori, some of these algorithmsalgoritmi.
148
344000
3000
și ei chiar găsesc, uneori, unii dintre acești algoritmi.
06:02
And when they find them they pullTrage them out
149
347000
3000
Și, atunci când îi găsesc îi extrag
06:05
and they pinbolț them to the wallperete like butterfliesfluturi.
150
350000
3000
și îi lipesc pe perete ca pe fluturi.
06:08
And they do what we'vene-am always doneTerminat
151
353000
2000
Și ei fac ceea ce am făcut noi dintotdeauna
06:10
when confrontedconfruntat with hugeimens amountssume of datadate that we don't understanda intelege --
152
355000
3000
când suntem confruntați cu o mulțime de informații pe care nu le înțelegem --
06:13
whichcare is that they give them a nameNume
153
358000
2000
și anume, le dă un nume
06:15
and a storypoveste.
154
360000
2000
și o poveste.
06:17
So this is one that they foundgăsite,
155
362000
2000
Deci, acesta este unul pe care l-au găsit
06:19
they calleddenumit the KnifeCutit,
156
364000
4000
și l-au numit Cuțitul
06:23
the CarnivalCarnaval,
157
368000
2000
Carnavalul,
06:25
the BostonBoston ShufflerShuffler,
158
370000
4000
Cartoforul din Boston,
06:29
TwilightAmurg.
159
374000
2000
Amurgul.
06:31
And the gaggheorghe is
160
376000
2000
Și surpriza este
06:33
that, of coursecurs, these aren'tnu sunt just runningalergare throughprin the marketpiaţă.
161
378000
3000
ca, desigur, acestea nu rulează doar în piață.
06:36
You can find these kindstipuri of things whereveroriunde you look,
162
381000
3000
Poți da de aceste lucruri oriunde te uiti,
06:39
onceo singura data you learnînvăța how to look for them.
163
384000
2000
odată ce ai învățat cum să te uiți după ele.
06:41
You can find it here: this bookcarte about fliesmuste
164
386000
3000
Poți da de ele aici: în această carte despre muște
06:44
that you mayMai have been looking at on AmazonAmazon.
165
389000
2000
pe care s-ar putea să o fi căutat pe pagina de internet a Amazon.
06:46
You mayMai have noticeda observat it
166
391000
2000
Poate că le-ai remarcat
06:48
when its pricePreț starteda început at 1.7 millionmilion dollarsdolari.
167
393000
2000
când prețul său a început de la 1,7 milioane de dolari.
06:50
It's out of printimprimare -- still ...
168
395000
2000
Este epuizată -- încă
06:52
(LaughterRâs)
169
397000
2000
.....
06:54
If you had boughtcumparat it at 1.7, it would have been a bargainafacere.
170
399000
3000
Dacă ați fi cumpărat-o la 1,7 milioane ar fi fost un târg bun.
06:57
A fewpuțini hoursore latermai tarziu, it had goneplecat up
171
402000
2000
După câteva ore prețul a crescut
06:59
to 23.6 millionmilion dollarsdolari,
172
404000
2000
la 23,6 milioane de dolari,
07:01
plusla care se adauga shippinglivrare and handlingmanipulare.
173
406000
2000
plus expedierea și coletul.
07:03
And the questionîntrebare is:
174
408000
2000
Și întrebarea este:
07:05
NobodyNimeni nu was buyingcumpărare or sellingde vânzare anything; what was happeninglucru?
175
410000
2000
Nimeni nu a cumpărat nimic, ce s-a petrecut?
07:07
And you see this behaviorcomportament on AmazonAmazon
176
412000
2000
Și vezi acest comportament pe Amazon
07:09
as surelycu siguranţă as you see it on WallPerete StreetStrada.
177
414000
2000
la fel cu îl poți vedea pe Wall Street.
07:11
And when you see this kinddrăguț of behaviorcomportament,
178
416000
2000
Și când vezi acest tip de comportament
07:13
what you see is the evidenceevidență
179
418000
2000
ceea ce vezi este dovada
07:15
of algorithmsalgoritmi in conflictconflict,
180
420000
2000
unor algoritmi în conflict,
07:17
algorithmsalgoritmi lockedblocat in loopsbucle with eachfiecare other,
181
422000
2000
algoritmi prinși în cicluri între ei
07:19
withoutfără any humanuman oversightsupraveghere,
182
424000
2000
fără nici un fel de control uman,
07:21
withoutfără any adultadult supervisionsupravegherea
183
426000
3000
fără nici o supraveghere a unui adult,
07:24
to say, "ActuallyDe fapt, 1.7 millionmilion is plentymulțime."
184
429000
3000
care să zică: ''De fapt, 1,7 milioane este deajuns.''
07:27
(LaughterRâs)
185
432000
3000
...
07:30
And as with AmazonAmazon, so it is with NetflixNetflix.
186
435000
3000
Și, așa cum este cu Amazon, așa este și cu Netflix.
07:33
And so NetflixNetflix has goneplecat throughprin
187
438000
2000
Și deci Netflix a folosit
07:35
severalmai mulți differentdiferit algorithmsalgoritmi over the yearsani.
188
440000
2000
mai mulți algoritmi de-a lungul anilor.
07:37
They starteda început with CinematchCinematch, and they'vele-au triedîncercat a bunchbuchet of othersalții --
189
442000
3000
Ei au început cu Cinematch și au încercat și câțiva alții.
07:40
there's DinosaurDinozaur PlanetPlaneta; there's GravityGravitatea.
190
445000
2000
Au folosit Dinosaur Planet, și Gravity.
07:42
They're usingutilizând PragmaticPragmatică ChaosHaos now.
191
447000
2000
Ei folosesc acum Haos Pragmatic.
07:44
PragmaticPragmatică ChaosHaos is, like all of NetflixNetflix algorithmsalgoritmi,
192
449000
2000
Haos Pragmatic, asemeni tuturor celorlalți algoritmi ai Netflix,
07:46
tryingîncercat to do the samela fel thing.
193
451000
2000
încearcă să facă același lucru.
07:48
It's tryingîncercat to get a graspînţelege on you,
194
453000
2000
Încearcă să te înțeleagă,
07:50
on the firmwarefirmware-ul insideinterior the humanuman skullcraniu,
195
455000
2000
să pătrundă în creierul tău,
07:52
so that it can recommendrecomanda what moviefilm
196
457000
2000
ca mai apoi să îți recomande ce film
07:54
you mightar putea want to watch nextUrmător → --
197
459000
2000
ai dori să vezi în continuare --
07:56
whichcare is a very, very difficultdificil problemproblemă.
198
461000
3000
lucru care este foarte, foarte dificil.
07:59
But the difficultydificultate of the problemproblemă
199
464000
2000
Dar dificultatea problemei
08:01
and the factfapt that we don't really quitedestul de have it down,
200
466000
3000
și a faptului că algoritmul nu reușește pe deplin
08:04
it doesn't take away
201
469000
2000
nu șterge
08:06
from the effectsefecte PragmaticPragmatică ChaosHaos has.
202
471000
2000
efectele pe care Haos Pragmatic le determină.
08:08
PragmaticPragmatică ChaosHaos, like all NetflixNetflix algorithmsalgoritmi,
203
473000
3000
Haos Pragmatic, asemeni tuturor algoritmilor Netflix,
08:11
determinesdetermină, in the endSfârşit,
204
476000
2000
are ca rezultat final
08:13
60 percentla sută
205
478000
2000
60%
08:15
of what moviesfilme endSfârşit up beingfiind rentedînchiriate.
206
480000
2000
din filmele care ajung să fie împrumutate.
08:17
So one piecebucată of codecod
207
482000
2000
Așadar, o bucată de cod
08:19
with one ideaidee about you
208
484000
3000
cu o idee despre tine
08:22
is responsibleresponsabil for 60 percentla sută of those moviesfilme.
209
487000
3000
este responsabilă pentru 60% din acele filme.
08:25
But what if you could raterată those moviesfilme
210
490000
2000
Dar dacă ai putea da o notă acelor filme
08:27
before they get madefăcut?
211
492000
2000
înainte de a fi create?
08:29
Wouldn'tNu s-ar that be handyla îndemână?
212
494000
2000
Nu ar fi util acest lucru?
08:31
Well, a fewpuțini datadate scientistsoamenii de știință from the U.K. are in HollywoodHollywood,
213
496000
3000
Ei bine, câțiva cercetători de date din Marea Britanie sunt la Hollywood
08:34
and they have "storypoveste algorithmsalgoritmi" --
214
499000
2000
și ei au algoritmi pentru scenarii --
08:36
a companycompanie calleddenumit EpagogixEpagogix.
215
501000
2000
o companie numită Epagogix.
08:38
And you can runalerga your scriptscript-ul throughprin there,
216
503000
3000
Și poți rula un cod de acolo
08:41
and they can tell you, quantifiablycuantificabil,
217
506000
2000
iar ei îți pot spune, cuantificabil,
08:43
that that's a 30 millionmilion dollardolar moviefilm
218
508000
2000
că acesta este un film de 30 de milioane de dolari
08:45
or a 200 millionmilion dollardolar moviefilm.
219
510000
2000
sau un film de 200 de milioane de dolari.
08:47
And the thing is, is that this isn't GoogleGoogle.
220
512000
2000
aici nu este vorba de Google.
08:49
This isn't informationinformație.
221
514000
2000
Aceasta nu este informație.
08:51
These aren'tnu sunt financialfinanciar statsStatistici; this is culturecultură.
222
516000
2000
Acestea nu sunt statistici financiare, aceasta este cultură.
08:53
And what you see here,
223
518000
2000
Și ceea ce vedeți aici
08:55
or what you don't really see normallyîn mod normal,
224
520000
2000
sau ceea ce nu vedeți de fapt
08:57
is that these are the physicsfizică of culturecultură.
225
522000
4000
este că avem de-a face cu o fizică a culturii.
09:01
And if these algorithmsalgoritmi,
226
526000
2000
Și dacă acești algoritmi,
09:03
like the algorithmsalgoritmi on WallPerete StreetStrada,
227
528000
2000
asemeni algoritmilor de pe Wall Street,
09:05
just crashedprăbușit one day and wenta mers awryîntr-o parte,
228
530000
3000
nu ar mai funcționa la un moment dat și ar lua-o razna,
09:08
how would we know?
229
533000
2000
cum am putea știi,
09:10
What would it look like?
230
535000
2000
cum ar arăta situația?
09:12
And they're in your housecasă. They're in your housecasă.
231
537000
3000
Și ei sunt în casele voastre. Sunt în casele voastre.
09:15
These are two algorithmsalgoritmi competingconcurent for your livingviaţă roomcameră.
232
540000
2000
Iată doi algoritmi în competiție pentru camera voastră.
09:17
These are two differentdiferit cleaningcurățenie robotsroboți
233
542000
2000
Aceștia sunt doi roboți de curățenie diferiți
09:19
that have very differentdiferit ideasidei about what cleancurat meansmijloace.
234
544000
3000
care au idei diferite legat ceea ce înseamnă curat.
09:22
And you can see it
235
547000
2000
Și poți vedea acesta
09:24
if you slowîncet it down and attachatașa lightslumini to them,
236
549000
3000
dacă îi încetinești și le atașezi lumini.
09:27
and they're sortfel of like secretsecret architectsarhitecți in your bedroomdormitor.
237
552000
3000
Iar ei sunt un fel de arhitecți secreți în dormitorul vostru.
09:30
And the ideaidee that architecturearhitectură itselfîn sine
238
555000
3000
Iar ideea că arhitectura însăși
09:33
is somehowoarecum subjectsubiect to algorithmicalgoritmice optimizationoptimizare
239
558000
2000
este oarecum obiectul optimizării algoritmice
09:35
is not far-fetchedpedant.
240
560000
2000
nu este exagerată.
09:37
It's super-realSuper-real and it's happeninglucru around you.
241
562000
3000
Este cât se poate de reală și se petrece în jurul tău.
09:40
You feel it mostcel mai
242
565000
2000
Simți acest lucru mai mult
09:42
when you're in a sealedsigilate metalmetal boxcutie,
243
567000
2000
atunci când ești închis într-o cutie de metal,
09:44
a new-stylestil nou elevatorLift;
244
569000
2000
un lift de model nou,
09:46
they're calleddenumit destination-controldestinaţie de control elevatorslifturi.
245
571000
2000
numit lift cu controlul destinației.
09:48
These are the onescele where you have to presspresa what floorpodea you're going to go to
246
573000
3000
Sunt acele lifturi la care trebuie să apeși la ce etaj vrei să ajungi
09:51
before you get in the elevatorLift.
247
576000
2000
înainte de a te urca în ele.
09:53
And it usesutilizări what's calleddenumit a bin-packingBin-ambalare algorithmAlgoritmul.
248
578000
2000
Iar acestea folosesc ceea ce se numește un algoritm bin packing.
09:55
So nonenici unul of this mishegasmishegas
249
580000
2000
Deci, nu se permite nebunia
09:57
of lettingînchiriere everybodytoata lumea go into whateverindiferent de carmașină they want.
250
582000
2000
de a da voie tuturor sa intre în orice lift vor.
09:59
EverybodyToata lumea who wants to go to the 10thlea floorpodea goesmerge into carmașină two,
251
584000
2000
Toți cei care vor să ajungă la etajul 10 intră în liftul 2,
10:01
and everybodytoata lumea who wants to go to the thirdal treilea floorpodea goesmerge into carmașină fivecinci.
252
586000
3000
și toți cei care vor să ajungă la etajul trei intră în liftul 5.
10:04
And the problemproblemă with that
253
589000
2000
Problema cu aceasta
10:06
is that people freakciudățenie out.
254
591000
2000
este că oamenii se sperie.
10:08
People panicpanica.
255
593000
2000
Oamenii intră în panică.
10:10
And you see why. You see why.
256
595000
2000
Și poți vedea de ce. Poți vedea de ce.
10:12
It's because the elevatorLift
257
597000
2000
Asta pentru că liftului
10:14
is missingdispărut some importantimportant instrumentationinstrumentaţie, like the buttonsbutoane.
258
599000
3000
îi lipsesc niște instrumente importante, adică butoanele.
10:17
(LaughterRâs)
259
602000
2000
...
10:19
Like the things that people use.
260
604000
2000
Lucruri pe care oamenii le folosesc.
10:21
All it has
261
606000
2000
Tot ceea ce are
10:23
is just the numbernumăr that movesmișcări up or down
262
608000
3000
este doar un numărul care crește sau scade
10:26
and that redroșu buttonbuton that saysspune, "Stop."
263
611000
3000
și acel buton roșu care spune :''Stop.''
10:29
And this is what we're designingproiect for.
264
614000
3000
Iată pentru ce facem noi proiectele..
10:32
We're designingproiect
265
617000
2000
Noi proiectăm
10:34
for this machinemaşină dialectdialectul.
266
619000
2000
pentru acest dialect al mașinilor.
10:36
And how fardeparte can you take that? How fardeparte can you take it?
267
621000
3000
Și cât de departe poți duce asta? Cât de departe?
10:39
You can take it really, really fardeparte.
268
624000
2000
Poți să ajungi chiar foarte, foarte departe.
10:41
So let me take it back to WallPerete StreetStrada.
269
626000
3000
Așadar, hai să ne întoarcem la Wall Street.
10:45
Because the algorithmsalgoritmi of WallPerete StreetStrada
270
630000
2000
Pentru că algoritmii de pe Wall Street
10:47
are dependentdependent on one qualitycalitate abovede mai sus all elsealtfel,
271
632000
3000
depind cel mai mult de o calitate,
10:50
whichcare is speedviteză.
272
635000
2000
și aceasta este viteza.
10:52
And they operatea functiona on millisecondsmilisecunde and microsecondsmicrosecunde.
273
637000
3000
Iar ei funcționează la milisecundă sau microsecundă.
10:55
And just to give you a sensesens of what microsecondsmicrosecunde are,
274
640000
2000
Ca să vă creez o idee legată de ceea ce sunt microsecundele,
10:57
it takes you 500,000 microsecondsmicrosecunde
275
642000
2000
aveți nevoie de 500 000 de microsecunde
10:59
just to clickclic a mousemouse.
276
644000
2000
doar pentru a da clic cu mouse-ul.
11:01
But if you're a WallPerete StreetStrada algorithmAlgoritmul
277
646000
2000
Dar, dacă tu ești un algoritm de pe Wall Street
11:03
and you're fivecinci microsecondsmicrosecunde behindin spate,
278
648000
2000
și ești cu cinci microsecunde în urmă,
11:05
you're a loserpierzător.
279
650000
2000
atunci ai pierdut.
11:07
So if you were an algorithmAlgoritmul,
280
652000
2000
Deci, dacă ai fi un algoritm
11:09
you'dte-ai look for an architectarhitect like the one that I metîntâlnit in FrankfurtFrankfurt
281
654000
3000
tu ai căuta un arhitect ca cel pe care l-am întâlnit în Frankfurt
11:12
who was hollowingcioplire out a skyscraperzgârie-nori --
282
657000
2000
care golea un zgârie-nor
11:14
throwingaruncare out all the furnituremobila, all the infrastructureinfrastructură for humanuman use,
283
659000
3000
aruncând mobila, toată infrastructura folosită de oameni
11:17
and just runningalergare steeloţel on the floorsetaje
284
662000
3000
lăsând doar oțelul podelelor,
11:20
to get readygata for the stacksstive of serversservere to go in --
285
665000
3000
pregătind locul pentru stivele de servere --
11:23
all so an algorithmAlgoritmul
286
668000
2000
toate doar ca un algoritm
11:25
could get closeînchide to the InternetInternet.
287
670000
3000
să ajungă aproape de internet.
11:28
And you think of the InternetInternet as this kinddrăguț of distributeddistribuite systemsistem.
288
673000
3000
Te gândești la internet ca la acel model de sistem distribuit.
11:31
And of coursecurs, it is, but it's distributeddistribuite from placeslocuri.
289
676000
3000
Este, desigur, distribuit, dar este distribuit din anumite locuri.
11:34
In NewNoi YorkYork, this is where it's distributeddistribuite from:
290
679000
2000
În New York este distribuit de aici:
11:36
the CarrierOperator de transport HotelHotel
291
681000
2000
Hotelul Carrier
11:38
locatedsituat on HudsonHudson StreetStrada.
292
683000
2000
localizat pe Hudson Street.
11:40
And this is really where the wiresfire come right up into the cityoraș.
293
685000
3000
Acesta este locul de unde vin firele în oraș.
11:43
And the realityrealitate is that the furthermai departe away you are from that,
294
688000
4000
Adevărul este că distanța tot mai mare față de acest loc
11:47
you're a fewpuțini microsecondsmicrosecunde behindin spate everyfiecare time.
295
692000
2000
duce la pierderea a cât mai multor microseunde.
11:49
These guys down on WallPerete StreetStrada,
296
694000
2000
Băieții aceștia de pe Wall Street,
11:51
MarcoMarco PoloPolo and CherokeeCherokee NationNaţiune,
297
696000
2000
generația Marco Polo și Cherokee ,
11:53
they're eightopt microsecondsmicrosecunde
298
698000
2000
sunt cu opt microsecunde
11:55
behindin spate all these guys
299
700000
2000
în urma acestor băieți
11:57
going into the emptygol buildingsclădiri beingfiind hollowedadancit out
300
702000
4000
care sunt în spatele clădirilor golite
12:01
up around the CarrierOperator de transport HotelHotel.
301
706000
2000
din jurul Hotelului Carrier.
12:03
And that's going to keep happeninglucru.
302
708000
3000
Iar acesta se va întâmpla încontinuu.
12:06
We're going to keep hollowingcioplire them out,
303
711000
2000
Noi vom continua să le golim
12:08
because you, inchinch for inchinch
304
713000
3000
pentru că voi, centimetru cu centimetru,
12:11
and poundlivră for poundlivră and dollardolar for dollardolar,
305
716000
3000
și kilogram cu kilogram și dolar cu dolar,
12:14
nonenici unul of you could squeezestoarce revenuevenituri out of that spacespaţiu
306
719000
3000
niciunul dintre voi nu ați putea obține venit din acel spațiu
12:17
like the BostonBoston ShufflerShuffler could.
307
722000
3000
așa cum a făcut Boston Shuffler.
12:20
But if you zoomzoom out,
308
725000
2000
Dar, dacă mărim harta,
12:22
if you zoomzoom out,
309
727000
2000
dacă mărim harta,
12:24
you would see an 825-mile-milă trenchtrenci
310
729000
4000
veți vedea un șanț de 825 de mile
12:28
betweenîntre NewNoi YorkYork CityCity and ChicagoChicago
311
733000
2000
între New York și Chicago
12:30
that's been builtconstruit over the last fewpuțini yearsani
312
735000
2000
care a fost construit în ultimii ani
12:32
by a companycompanie calleddenumit SpreadRăspândirea NetworksReţele.
313
737000
3000
de către o companie numită Spread Networks.
12:35
This is a fiberfibră opticoptic cablecablu
314
740000
2000
Acesta este un cablu din fibră optică
12:37
that was laidcablare betweenîntre those two citiesorase
315
742000
2000
care a fost pus între cele două orașe
12:39
to just be ablecapabil to traffictrafic one signalsemnal
316
744000
3000
pentru a fi capabil să transmită un semnal
12:42
37 timesori fastermai repede than you can clickclic a mousemouse --
317
747000
3000
de 37 de ori mai repede decât poți da tu clic pe un mouse -
12:45
just for these algorithmsalgoritmi,
318
750000
3000
doar pentru acești algoritmi,
12:48
just for the CarnivalCarnaval and the KnifeCutit.
319
753000
3000
doar pentru Carnaval și Cuțitul.
12:51
And when you think about this,
320
756000
2000
Și când te gândești la acest lucru
12:53
that we're runningalergare throughprin the UnitedMarea StatesStatele
321
758000
2000
că noi umblăm prin State Unite
12:55
with dynamitedinamită and rockstâncă sawsferestrău
322
760000
3000
cu dinamită și spărgătoare de pietre,
12:58
so that an algorithmAlgoritmul can closeînchide the dealafacere
323
763000
2000
pentru ca un algoritm să poată încheia o tranzacție
13:00
threeTrei microsecondsmicrosecunde fastermai repede,
324
765000
3000
cu trei microsecunde mai repede,
13:03
all for a communicationscomunicații frameworkcadru
325
768000
2000
totul pentru un cadru al comunicării
13:05
that no humanuman will ever know,
326
770000
4000
pe care nici un om nu îl va știi vreodată,
13:09
that's a kinddrăguț of manifestmanifesta destinydestin;
327
774000
3000
care este ca un fel de destin manifest
13:12
and we'llbine always look for a newnou frontierfrontiera.
328
777000
3000
și care se va uita mereu după noi granițe.
13:15
UnfortunatelyDin păcate, we have our work cuta taia out for us.
329
780000
3000
Din nefericire, ne-am găsit munca potrivită.
13:18
This is just theoreticalteoretic.
330
783000
2000
Aceasta este doar teorie.
13:20
This is some mathematiciansmatematicieni at MITMIT.
331
785000
2000
Iată niște matematicieni de la MIT.
13:22
And the truthadevăr is I don't really understanda intelege
332
787000
2000
Și adevărul este că nu înțeleg pe deplin
13:24
a lot of what they're talkingvorbind about.
333
789000
2000
tot ceea ce zic ei acolo.
13:26
It involvesimplică lightușoară conesconuri and quantumcuantic entanglementreţea de sârmă ghimpată,
334
791000
3000
Este ceva legat de conuri de lumină și încurcătură cuantică,
13:29
and I don't really understanda intelege any of that.
335
794000
2000
și nu prea înțeleg nimic din acestea.
13:31
But I can readcitit this mapHartă,
336
796000
2000
Dar pot citi această hartă.
13:33
and what this mapHartă saysspune
337
798000
2000
Și ceea ce zice acestă hartă
13:35
is that, if you're tryingîncercat to make moneybani on the marketspiețe where the redroșu dotspuncte are,
338
800000
3000
este că, dacă vrei să faci bani în piețele indicate de punctele roșii,
13:38
that's where people are, where the citiesorase are,
339
803000
2000
acolo sunt oamenii, acolo unde sunt orașele,
13:40
you're going to have to put the serversservere where the bluealbastru dotspuncte are
340
805000
3000
trebuie să îți pui serverele în punctele albastre
13:43
to do that mostcel mai effectivelyîn mod eficient.
341
808000
2000
pentru a face acest lucru în cel mai eficient mod.
13:45
And the thing that you mightar putea have noticeda observat about those bluealbastru dotspuncte
342
810000
3000
Și ceea ce poate ai remarcat la aceste puncte albastre
13:48
is that a lot of them are in the middlemijloc of the oceanocean.
343
813000
3000
este că o mulțime sunt în mijlocul oceanului.
13:51
So that's what we'llbine do: we'llbine buildconstrui bubblesbule or something,
344
816000
3000
Deci, iată ce vom face: vom construi baloane sau ceva în genul
13:54
or platformsplatforme.
345
819000
2000
sau platforme.
13:56
We'llVom actuallyde fapt partparte the waterapă
346
821000
2000
De fapt, vom despărți apele
13:58
to pullTrage moneybani out of the airaer,
347
823000
2000
pentru a scoate bani din aer
14:00
because it's a brightluminos futureviitor
348
825000
2000
pentru că este un viitor strălucit
14:02
if you're an algorithmAlgoritmul.
349
827000
2000
dacă ești un algoritm.
14:04
(LaughterRâs)
350
829000
2000
...
14:06
And it's not the moneybani that's so interestinginteresant actuallyde fapt.
351
831000
3000
De fapt, nu banii sunt obiectul interesului aici.
14:09
It's what the moneybani motivatesmotivează,
352
834000
2000
Este motivația din spatele banilor.
14:11
that we're actuallyde fapt terraformingteraformarea
353
836000
2000
Faptul că noi ”terraformăm”
14:13
the EarthPământ itselfîn sine
354
838000
2000
Pământul însuși
14:15
with this kinddrăguț of algorithmicalgoritmice efficiencyeficienţă.
355
840000
2000
cu acest gen de eficiență algoritmică.
14:17
And in that lightușoară,
356
842000
2000
Și, în lumina acestui fapt,
14:19
you go back
357
844000
2000
te întorci în timp
14:21
and you look at MichaelMichael Najjar'sNajjar pe photographsfotografii,
358
846000
2000
și te uiți la fotografiile lui Michael Najjar
14:23
and you realizerealiza that they're not metaphormetaforă, they're prophecyProfeţia.
359
848000
3000
și îți dai seama că ele nu sunt o metaforă, ele sunt o profeție.
14:26
They're prophecyProfeţia
360
851000
2000
Ele sunt profeția
14:28
for the kinddrăguț of seismicseismic, terrestrialterestre effectsefecte
361
853000
4000
efectelor seismice, terestre,
14:32
of the mathmatematica that we're makingluare.
362
857000
2000
determinate de matematica făcută de noi.
14:34
And the landscapepeisaj was always madefăcut
363
859000
3000
Iar peisajul a fost format întotdeauna din
14:37
by this sortfel of weirdciudat, uneasyincomod collaborationcolaborare
364
862000
3000
acest fel ciudat și neliniștitor de colaborări
14:40
betweenîntre naturenatură and man.
365
865000
3000
între natură și om.
14:43
But now there's this thirdal treilea co-evolutionaryco-evolutive forceforta: algorithmsalgoritmi --
366
868000
3000
Dar acum există a treia forță co-evoluționară: algoritmii --
14:46
the BostonBoston ShufflerShuffler, the CarnivalCarnaval.
367
871000
3000
Cartoforul din Boston, Carnavalul.
14:49
And we will have to understanda intelege those as naturenatură,
368
874000
3000
Și trebuie să îi înțelegem ca parte a naturii.
14:52
and in a way, they are.
369
877000
2000
Și, într-un fel, chiar sunt.
14:54
Thank you.
370
879000
2000
Mulțumesc.
14:56
(ApplauseAplauze)
371
881000
20000
(Aplauze)
Translated by Cheta Manuel
Reviewed by Maria Tancu

▲Back to top

ABOUT THE SPEAKER
Kevin Slavin - Algoworld expert
Kevin Slavin navigates in the algoworld, the expanding space in our lives that’s determined and run by algorithms.

Why you should listen

Are you addicted to the dead-simple numbers game Drop 7 or Facebook’s Parking Wars? Blame Kevin Slavin and the game development company he co-founded in 2005, Area/Code, which makes clever game entertainments that enter the fabric of reality.

All this fun is powered by algorithms -- as, increasingly, is our daily life. From the Google algorithms to the algos that give you “recommendations” online to those that automatically play the stock markets (and sometimes crash them): we may not realize it, but we live in the algoworld.

He says: "The quickest way to find out what the boundaries of reality are is to figure where they break."

More profile about the speaker
Kevin Slavin | Speaker | TED.com