ABOUT THE SPEAKER
Douglas Rushkoff - Media theorist, author
Douglas Rushkoff promotes human autonomy in the digital age.

Why you should listen

Douglas Rushkoff coined such expressions as "viral media," "digital natives" and "social currency," and advises governments, communities and businesses on the impact of technology on society's future. Named one of "the world’s ten most influential thinkers" by MIT, Rushkoff won the Marshal McLuhan Award for media writing and the Neil Postman award for Public Intellectual Activity.

Rushkoff hosts the Team Human podcast, made four PBS Frontline documentaries including Generation Like and The Merchants of Cool, and wrote many bestselling books including Team Human, Present Shock, Program or Be Programmed and Throwing Rocks at the Google Bus. He founded the Laboratory for Digital Humanism at CUNY/Queens College, where he is professor of media theory and digital economics.

More profile about the speaker
Douglas Rushkoff | Speaker | TED.com
TED Salon Samsung

Douglas Rushkoff: How to be "Team Human" in the digital future

Daglas Raškof (Douglas Rushkoff): Kako da budete u „Ekipi ljudi“ u digitalnoj budućnosti

Filmed:
1,652,468 views

Ljude više ne cene zbog naše kreativnosti, kaže teoretičar medija Daglas Raškof - u svetu kojim dominira digitalna tehnologija, trenutno nas jedino cene zbog naših podataka. U strastvenom govoru, Raškof nas podstiče da prestanemo da koristimo tehnologiju kako bismo optimizovali ljude za tržište i da počnemo da je koristimo kako bismo izgradili budućnost usredsređenu na naše predigitalne vrednosti povezanosti, kreativnosti i poštovanja. „Pridružite se "Ekipi ljudi". Pronađite druge“, kaže on. „Hajde da zajedno izgradimo budućnost kakvu smo oduvek želeli.“
- Media theorist, author
Douglas Rushkoff promotes human autonomy in the digital age. Full bio

Double-click the English transcript below to play the video.

00:13
I got invitedпозвани to an exclusiveексклузивно resortресорт
0
1520
3880
Pozvan sam u ekskluzivno odmaralište
00:17
to deliverиспоручи a talk about the digitalдигитални futureбудућност
1
5440
2456
da održim govor o digitalnoj budućnosti
00:19
to what I assumedPretpostavio would be
a coupleпар of hundredсто techтецх executivesrukovodioci.
2
7920
3576
pred, kako sam pretpostavio,
nekoliko stotina tehnoloških direktora.
00:23
And I was there in the greenзелен roomсоба,
waitingчекајући to go on,
3
11520
2696
Bio sam u zelenoj sobi,
čekajući da nastupim,
00:26
and insteadуместо тога of bringingдоносећи me to the stageфаза,
they broughtдоведен fiveпет menмушкарци into the greenзелен roomсоба
4
14240
5176
i umesto da me izvedu na scenu,
doveli su pet muškaraca u zelenu sobu
00:31
who satсат around this little tableсто with me.
5
19440
2056
koji su seli za jedan manji sto sa mnom.
00:33
They were techтецх billionairesмилијардери.
6
21520
2096
Radilo se o tehnološkim milijarderima.
00:35
And they startedпочела pepperingpeppering me
with these really binaryбинарно questionsпитања,
7
23640
4536
A počeli su da me saleću
sa tim krajnje binarnim pitanjima,
00:40
like: BitcoinBitcoin or EtheriumEtherium?
8
28200
2000
poput: bitkoin ili eterijum?
00:43
VirtualVirtualna realityреалност or augmentedувећан realityреалност?
9
31120
2656
Virtuelna stvarnost
ili proširena stvarnost?
00:45
I don't know if they were
takingузимајући betsuloge or what.
10
33800
2496
Ne znam da li su se kladili ili šta već.
00:48
And as they got more comfortableудобан with me,
11
36320
2816
I kako su postajali opušteniji sa mnom,
00:51
they edgedkoristi towardsка
theirњихова realправи questionпитање of concernзабринутост.
12
39160
3216
počeli su da naginju
ka pitanju koje ih zaista brine.
00:54
AlaskaNa Aljasci or NewNovi ZealandZeland?
13
42400
2240
Aljaska ili Novi Zeland?
00:57
That's right.
14
45760
1216
Tako je.
Ovi tehnološki milijarderi
su tražili savet od teoretičara medija
00:59
These techтецх billionairesмилијардери
were askingпитајући a mediaмедији theoristteoretiиar for adviceсавет
15
47000
2976
01:02
on where to put theirњихова doomsdaySudnji dan bunkersbunkeri.
16
50000
1880
gde da postave bunkere za sudnji dan.
01:04
We spentпотрошено the restодмор of the hourсат
on the singleједно questionпитање:
17
52600
3136
Proveli smo ostatak sata
na samo jednom pitanju:
01:07
"How do I maintainуспоставити controlконтрола
of my securityсигурност staffособље
18
55760
3616
„Kako da održim kontrolu nad obezbeđenjem
01:11
after the eventдогађај?"
19
59400
1320
nakon događaja?“
01:13
By "the eventдогађај" they mean
the thermonucleartermonuklearni warрат
20
61920
2736
Pod „događajem“ smatraju
termonuklearni rat,
01:16
or climateклима catastropheкатастрофа or socialсоцијално unrestnemiri
that endsКрајеви the worldсвет as we know it,
21
64680
4656
klimatsku katastrofu ili društvene nemire
koji će da dokrajče nama poznati svet,
01:21
and more importantlyважно,
makesчини theirњихова moneyновац obsoleteзастарело.
22
69360
3280
i što je još važnije, koji će njihov novac
da učine prevaziđenim.
01:26
And I couldn'tније могао help but think:
23
74200
2216
I nisam mogao da se oduprem utisku:
01:28
these are the wealthiestnajbogatiji,
mostнајвише powerfulмоћан menмушкарци in the worldсвет,
24
76440
4736
ovo su najimućniji,
najmoćniji ljudi na svetu,
01:33
yetјош увек they see themselvesсами as utterlyпотпуно
powerlessнемоћан to influenceутицај the futureбудућност.
25
81200
4656
a ipak na sebe gledaju
kao krajnje nemoćne da utiču na budućnost.
01:37
The bestнајбоље they can do is hangвиси on
for the inevitableнеизбежан catastropheкатастрофа
26
85880
4456
Najbolje što mogu je da sačekaju
neizbežnu katastrofu
01:42
and then use theirњихова technologyтехнологија and moneyновац
to get away from the restодмор of us.
27
90360
3680
i da onda iskoriste svoju tehnologiju
i novac da pobegnu od nas ostalih.
01:47
And these are the winnersпобедници
of the digitalдигитални economyекономија.
28
95520
2536
A ovo su pobednici digitalne ekonomije.
01:50
(LaughterSmeh)
29
98080
3416
(Smeh)
01:53
The digitalдигитални renaissanceренесанса
30
101520
2776
Kod digitalne renesanse
01:56
was about the unbridledнеограничено potentialпотенцијал
31
104320
4256
se radilo o neograničenom potencijalu
02:00
of the collectiveколектив humanљудско imaginationмашту.
32
108600
2416
kolektivne ljudske imaginacije.
02:03
It spannedRašireni everything
from chaosхаос mathматематика and quantumквант physicsфизика
33
111040
5136
Obuhvatala je sve od teorije haosa,
preko kvantne fizike,
02:08
to fantasyфантазија role-playingsa ulogama
and the GaiaGaia hypothesisхипотеза, right?
34
116200
4176
do fantazijskog igranja uloga
i Gejine hipoteze, zar ne?
02:12
We believedверовали that humanљудско beingsбића connectedповезан
could createстворити any futureбудућност we could imagineзамислити.
35
120400
6720
Verovali smo da ljudska bića,
kad su povezana,
mogu da stvore bilo koju budućnost
koju možemo da zamislimo.
02:20
And then cameДошао the dotтачка comцом boomбум.
36
128840
2199
A onda je usledio internet procvat.
02:24
And the digitalдигитални futureбудућност
becameпостао stockакција futuresFutures.
37
132600
3616
I digitalna budućnost
je postala berzanska budućnost.
02:28
And we used all that energyенергија
of the digitalдигитални ageстарост
38
136240
3016
I koristili smo svu tu energiju
digitalnog doba
02:31
to pumpпумпа steroidsстероиди into the alreadyвећ dyingумирање
NASDAQNASDAQ stockакција exchangeразмена.
39
139280
4256
da bi upumpavali steroide
u berzu NASDAQ koja je već na izdisaju.
02:35
The techтецх magazinesчасописи told us
a tsunamiцунами was comingдолазе.
40
143560
3616
Tehnološki časopisi su nam rekli
kako je cunami na pomolu.
02:39
And only the investorsинвеститори who hiredангажован
the bestнајбоље scenario-plannersscenario-planeri and futuristsfuturists
41
147200
4456
I da će jedino investitori koji zaposle
najbolje planere scenarija i futuriste
02:43
would be ableу могуцности to surviveпреживети the waveталас.
42
151680
2520
biti u stanju da prežive talas.
02:47
And so the futureбудућност changedпромењено from this thing
we createстворити togetherзаједно in the presentпоклон
43
155160
5896
Pa se budućnost izmenila iz nečega
što stvaramo zajedno u sadašnjosti,
02:53
to something we betопклада on
44
161080
1496
u nešto na šta se kladimo
02:54
in some kindкинд of a zero-sumнула-сум
winner-takes-allpobednik uzima sve competitionконкуренција.
45
162600
3200
u nekakvom takmičenju nulta suma
u kome pobednik uzima sve.
Kada sve postane toliko takmičarski
nastrojeno po pitanju budućnosti,
03:00
And when things get that competitiveконкурентно
about the futureбудућност,
46
168120
3136
03:03
humansљуди are no longerдуже valuedвреднован
for our creativityкреативност.
47
171280
3296
ljude više ne cene zbog naše kreativnosti.
03:06
No, now we're just valuedвреднован for our dataподаци.
48
174600
3136
Ne, tada nas cene
samo zbog naših podataka.
03:09
Because they can use the dataподаци
to make predictionsprognoze.
49
177760
2376
Jer mogu da koriste podatke
za predviđanja.
03:12
CreativityKreativnost, if anything,
that createsствара noiseбука.
50
180160
2576
Kreativnost, ako ništa drugo, stvara buku.
03:14
That makesчини it harderтеже to predictпредвидети.
51
182760
2216
To otežava predviđanje.
03:17
So we endedзавршио up with a digitalдигитални landscapeпејзаж
52
185000
2416
Pa smo završili sa digitalnim pejzažom
03:19
that really repressedpotisnuta creativityкреативност,
repressedpotisnuta noveltyновост,
53
187440
3256
koji zaista potiskuje kreativnost,
potiskuje novine,
03:22
it repressedpotisnuta what makesчини us mostнајвише humanљудско.
54
190720
2840
potiskuje ono što nas
najviše čini ljudima.
Završili smo sa društvenim mrežama.
03:26
We endedзавршио up with socialсоцијално mediaмедији.
55
194760
1456
03:28
Does socialсоцијално mediaмедији really connectцоннецт people
in newново, interestingзанимљиво waysначини?
56
196240
3456
Da li društvene mreže zaista povezuju
ljude na nove, zanimljive načine?
03:31
No, socialсоцијално mediaмедији is about usingКористећи our dataподаци
to predictпредвидети our futureбудућност behaviorпонашање.
57
199720
5016
Ne, društvene mreže se svode
na korišćenje naših podataka
radi predviđanja našeg budućeg ponašanja.
03:36
Or when necessaryнеопходно,
to influenceутицај our futureбудућност behaviorпонашање
58
204760
2896
Ili, ako je neophodno,
radi uticanja na naše buduće ponašanje
03:39
so that we actчинити more in accordancesaglasnosti
with our statisticalстатистички profilesProfili.
59
207680
4040
kako bismo se ponašali više u skladu
sa našim statističkim profilima.
Digitalna ekonomija -
da li je naklonjena ljudima?
03:45
The digitalдигитални economyекономија --
does it like people?
60
213200
2216
03:47
No, if you have a businessбизнис planплан,
what are you supposedпретпостављено to do?
61
215440
2896
Ne, ako imate poslovni plan,
šta bi trebalo da radite?
Da se rešite svih ljudi.
03:50
Get ridрид of all the people.
62
218360
1256
Ljudska bića žele zdravstvo,
žele novac, žele smisao.
03:51
HumanLjudski beingsбића, they want healthздравље careнега,
they want moneyновац, they want meaningзначење.
63
219640
3400
03:56
You can't scaleСкала with people.
64
224360
1880
Ne možete da rastete s ljudima.
(Smeh)
03:59
(LaughterSmeh)
65
227360
1456
Ni naše digitalne aplikacije -
04:00
Even our digitalдигитални appsаппс --
66
228840
1216
04:02
they don't help us
formобразац any rapportodnos or solidarityсолидарност.
67
230080
3216
ne pomažu nam da stvorimo
bilo kakvu prisnost ili solidarnost.
Mislim, gde je tipka
na aplikaciji za prevoz putnika
04:05
I mean, where'sгде је the buttonдугме
on the rideвози hailingPozdravljajući appапликација
68
233320
2416
04:07
for the driversupravljački programi to talk to one anotherдруги
about theirњихова workingрад conditionsуслови
69
235760
3496
za vozače da međusobno razgovaraju
o svojim uslovima rada
04:11
or to unionizeimaju sindikat?
70
239280
1200
ili da osnuju sindikat?
04:13
Even our videoconferencingDobro sam toolsалати,
71
241600
2016
Čak i naša oruđa za video-konferencije
nam ne omogućavaju
da postignemo istinsku prisnost.
04:15
they don't allowдозволите us
to establishуспоставити realправи rapportodnos.
72
243640
2376
04:18
HoweverMeđutim good the resolutionрезолуција of the videoвидео,
73
246040
3336
Koliko god bila dobra rezolucija snimka,
i dalje ne možete da vidite
04:21
you still can't see if somebody'sНеко је irisesirisa
are openingотварање to really take you in.
74
249400
4016
da li se nečije dužice šire
u znak istinskog prihvatanja.
04:25
All of the things that we'veми смо doneГотово
to establishуспоставити rapportodnos
75
253440
2576
Sve što smo uradili
kako bismo ostvarili prisnost,
04:28
that we'veми смо developedразвијен over hundredsстотине
of thousandsхиљаде of yearsгодине of evolutionеволуција,
76
256040
3335
što smo razvijali stotinama
hiljada godina evolucije,
04:31
they don't work,
77
259399
1217
ne deluje,
04:32
you can't see if someone'sНеко је breathдах
is syncingSinhronizovanje up with yoursтвоје.
78
260640
3016
ne možete da vidite da li se nečiji dah
sinhronizuje sa vašim.
Stoga se neuroni ogledala ne pokreću,
oksitocin nikad ne projuri kroz vaše telo,
04:35
So the mirrorогледало neuronsнеурона never fireватра,
the oxytocinокситоцин never goesиде throughкроз your bodyтело,
79
263680
3656
04:39
you never have that experienceискуство
of bondingvezivanje with the other humanљудско beingбиће.
80
267360
3240
nikad nemate iskustvo
povezivanja sa drugim ljudskim bićem.
04:43
And insteadуместо тога, you're left like,
81
271360
1456
Umesto toga, ostajete u fazonu:
04:44
"Well, they agreedсложио се with me,
but did they really,
82
272840
2256
„Pa, složili su se sa mnom,
ali da li su zaista,
04:47
did they really get me?"
83
275120
1696
da li su me zaista shvatili?“
04:48
And we don't blameкривицу the technologyтехнологија
for that lackнедостатак of fidelitytačnost.
84
276840
3376
A ne krivimo tehnologiju
zbog tog odsustva vernosti.
04:52
We blameкривицу the other personособа.
85
280240
1480
Krivimo drugu osobu.
04:55
You know, even the technologiesтехнологије
and the digitalдигитални initiativesиницијативе that we have
86
283320
4056
Znate, čak su i tehnologije
i digitalne inicijative koje imamo
04:59
to promoteпромовисати humansљуди,
87
287400
2176
da bi promovisali ljude
05:01
are intenselyintenzivno anti-humananti-ljudima at the coreјезгро.
88
289600
2760
u srži izrazito neljudske.
05:05
Think about the blockchainblockchain.
89
293600
2000
Razmislite o blokčejnu.
05:08
The blockchainblockchain is here to help us
have a great humanizedoиovekoliиena economyекономија? No.
90
296520
3616
Blokčejn je tu da nam pomogne
da imamo sjajnu humanu ekonomiju? Ne.
05:12
The blockchainblockchain does not engenderpobuditi
trustповерење betweenизмеђу usersкорисници,
91
300160
2696
Blokčejn ne izaziva
poverenje među korisnicima,
05:14
the blockchainblockchain simplyједноставно
substituteszamene for trustповерење in a newново,
92
302880
3536
blokčejn je prosto zamena
za poverenje na nov,
05:18
even lessмање transparentтранспарентно way.
93
306440
2000
čak i manje transparentan način.
05:21
Or the codeкод movementпокрет.
94
309600
1816
Ili pokret kodiranja.
Mislim, obrazovanje je sjajno,
volimo obrazovanje
05:23
I mean, educationобразовање is great,
we love educationобразовање,
95
311440
2176
05:25
and it's a wonderfulДивно ideaидеја
96
313640
1456
i radi se o divnoj ideji:
05:27
that we want kidsклинци to be ableу могуцности
to get jobsпосао in the digitalдигитални futureбудућност,
97
315120
3136
želimo da deca mogu da nađu
poslove u digitalnoj budućnosti,
05:30
so we'llдобро teachнаучити them codeкод now.
98
318280
1600
pa ćemo ih sad podučavati kodiranju.
05:32
But sinceОд when is educationобразовање
about gettingдобијања jobsпосао?
99
320640
2480
Međutim, otkad se obrazovanje
svodi na pronalaženje poslova?
Nije se radilo o pronalaženju poslova.
05:35
EducationObrazovanje wasn'tније about gettingдобијања jobsпосао.
100
323920
1736
05:37
EducationObrazovanje was compensationкомпензација
for a jobпосао well doneГотово.
101
325680
3976
Obrazovanje je bilo nadoknada
za dobro obavljen posao.
05:41
The ideaидеја of publicјавно educationобразовање
102
329680
1576
Ideja javnog obrazovanja
05:43
was for coalугља minersRudari,
who would work in the coalугља minesмине all day,
103
331280
3376
je bila da rudari uglja, koji su radili
u rudnicima uglja čitav dan,
05:46
then they'dони би come home
and they should have the dignityдостојанство
104
334680
2576
potom bi došli kući
i trebalo je da imaju dostojanstvo
05:49
to be ableу могуцности to readчитати a novelРоман
and understandРазумем it.
105
337280
2136
da mogu da čitaju roman i da ga razumeju.
05:51
Or the intelligenceинтелигенција to be ableу могуцности
to participateучествовати in democracyдемократија.
106
339440
2960
Ili da budu inteligentni i u stanju
da učestvuju u demokratiji.
05:55
When we make it an extensionпродужење of the jobпосао,
what are we really doing?
107
343200
3216
Kada ga pretvorimo u produženu
ruku posla, šta zaista radimo?
05:58
We're just lettingизнајмљивање corporationsкорпорације really
108
346440
2536
Prosto dozvoljavamo
korporacijama da zaista
06:01
externalizeizvuku the costтрошак
of trainingобука theirњихова workersрадници.
109
349000
3120
prebace na druge
cenu obuke za svoje radnike.
06:05
And the worstнајгоре of all really
is the humaneхумано technologyтехнологија movementпокрет.
110
353520
4096
A najgore od svega zaista
je pokret humane tehnologije.
06:09
I mean, I love these guys,
the formerбивши guys who used to take
111
357640
2816
Mislim, volim te momke,
bivši momci koji bi uzeli
06:12
the algorithmsалгоритми from
LasLas VegasVegas slotkonektor machinesмашине
112
360480
2936
algoritme iz slot mašina iz Las Vegasa
06:15
and put them in our socialсоцијално mediaмедији feedнапајање
so that we get addictedзавистан.
113
363440
2936
i stavili bi ih u naše društvene mreže
kako bismo se navukli.
Sada su uvideli greške u svojim postupcima
06:18
Now they'veони су seenвиђено the errorгрешка of theirњихова waysначини
114
366400
1936
06:20
and they want to make
technologyтехнологија more humaneхумано.
115
368360
2456
i žele da učine tehnologiju humanijom.
06:22
But when I hearчујеш the expressionизраз
"humaneхумано technologyтехнологија,"
116
370840
2416
Ali kad čujem izraz „humana tehnologija“,
06:25
I think about cage-freeDozvoli meni
chickensпилићи or something.
117
373280
2856
pomislim na kokoške
van kaveza ili nešto slično.
06:28
We're going to be as humaneхумано
as possibleмогуће to them,
118
376160
2256
Bićemo što je moguće humaniji prema njima,
06:30
untilсве док we take them to the slaughterpokolj.
119
378440
1720
dok ih ne povedemo u klanicu.
06:33
So now they're going to let these
technologiesтехнологије be as humaneхумано as possibleмогуће,
120
381200
3416
Sada će da dozvole tim tehnologijama
da budu što je moguće humanije,
06:36
as long as they extractекстракт enoughдовољно dataподаци
and extractекстракт enoughдовољно moneyновац from us
121
384640
3216
sve dok izvlače dovoljno podataka
i dok izvlače dovoljno novca iz nas
06:39
to please theirњихова shareholdersakcionari.
122
387880
1400
kako bi zadovoljili svoje akcionare.
06:42
MeanwhileU medjuvremenu, the shareholdersakcionari,
for theirњихова partдео, they're just thinkingразмишљање,
123
390520
3176
Istovremeno, akcionari
sa svoje strane, oni prosto misle:
„Moram da zaradim dovoljno novca sad,
kako bih mogao da se izolujem
06:45
"I need to earnzaradi enoughдовољно moneyновац now,
so I can insulateizoluju myselfЈа сам
124
393720
2976
06:48
from the worldсвет I'm creatingстварање
by earningзарада moneyновац in this way."
125
396720
3056
od sveta koji stvaram
zarađujući novac na ovaj način.“
06:51
(LaughterSmeh)
126
399800
2376
(Smeh)
06:54
No matterматерија how manyмноги VRVR gogglesdvogled
they slapшамар on theirњихова facesлица
127
402200
4056
Koliko god naočara
za virtuelnu stvarnost da stave na lica
06:58
and whateverшта год fantasyфантазија worldсвет they go into,
128
406280
2256
i u kakav god fantastični svet da uđu,
07:00
they can't externalizeizvuku the slaveryропство
and pollutionзагађење that was causedизазвана
129
408560
3536
ne mogu da prebace na druge
ropstvo i zagađenje koje je uzrokovano
07:04
throughкроз the manufactureпроизводња
of the very deviceуређај.
130
412120
2976
prilikom proizvodnje baš tih naočara.
07:07
It remindsподсећа me of
ThomasTomas Jefferson'sJeffersonova dumbwaitermali lift.
131
415120
3176
Podseća me na mali lift Tomasa Džefersona.
07:10
Now, we like to think
that he madeмаде the dumbwaitermali lift
132
418320
2336
Sad, volimo da mislimo
kako je napravio mali lift
07:12
in orderнаручи to spareрезервни his slavesробови
all that laborрад of carryingношење the foodхрана
133
420680
3656
ne bi li poštedeo svoje robove
svog tog rada kod iznošenja hrane
07:16
up to the diningTrpezarija roomсоба
for the people to eatјести.
134
424360
2776
gore u trpezariju kako bi ljudi jeli.
07:19
That's not what it was for,
it wasn'tније for the slavesробови,
135
427160
2496
Nije služio tome,
nije postojao zbog robova,
već zbog Tomasa Džefersona
i njegovih prijatelja za večerom
07:21
it was for ThomasTomas JeffersonJefferson
and his dinnerвечера guestsгостима,
136
429680
2336
kako ne bi morali da gledaju
roba kako im donosi hranu.
07:24
so they didn't have to see the slaveРоб
bringingдоносећи the foodхрана up.
137
432040
3096
07:27
The foodхрана just arrivedстигао magicallyмагично,
138
435160
1576
Hrana je prosto magično stizala,
07:28
like it was comingдолазе out
of a "StartPočetak TrekZvezdane staze" replicatorreplikator.
139
436760
3000
kao da izlazi iz replikatora
iz „Zvezdanih staza“.
07:32
It's partдео of an ethosetos that saysкаже,
140
440720
2096
Deo je uverenja koje kaže:
07:34
humanљудско beingsбића are the problemпроблем
and technologyтехнологија is the solutionрешење.
141
442840
4280
ljudska bića su problem,
a tehnologija je rešenje.
07:40
We can't think that way anymoreвише.
142
448680
2056
Ne možemo više
da razmišljamo na taj način.
07:42
We have to stop usingКористећи technologyтехнологија
to optimizeоптимизира humanљудско beingsбића for the marketтржиште
143
450760
5296
Moramo prestati da koristimo tehnologiju
zarad optimizovanja ljudi za tržište
07:48
and startпочетак optimizingOptimizacija technologyтехнологија
for the humanљудско futureбудућност.
144
456080
5040
i da počnemo da optimizujemo tehnologiju
za ljudsku budućnost.
07:55
But that's a really hardтешко argumentрасправа
to make these daysдана,
145
463080
2656
Međutim, taj argument
je veoma teško izneti ovih dana
07:57
because humansљуди are not popularпопуларно beingsбића.
146
465760
4056
jer ljudi nisu popularna bića.
08:01
I talkedпричао about this in frontфронт
of an environmentalistзаштитник животне средине just the other day,
147
469840
3376
Razgovarao sam o ovome
pred jednom ekološkinjom pre neki dan,
a ona je rekla: „Zašto braniš ljude?
08:05
and she said, "Why are you
defendingbraneći humansљуди?
148
473240
2096
Ljudi su uništili planetu.
Zaslužuju da izumru.“
08:07
HumansLjudi destroyedуништено the planetПланета.
They deserveзаслужују to go extinctизумрла."
149
475360
2696
08:10
(LaughterSmeh)
150
478080
3456
(Smeh)
08:13
Even our popularпопуларно mediaмедији hatesмрзи humansљуди.
151
481560
2576
Čak i naši popularni mediji mrze ljude.
08:16
Watch televisionтелевизија,
152
484160
1256
Pogledajte televiziju,
08:17
all the sci-fiSci-Fi showsпоказује are about how robotsроботи
are better and nicerfiniji than people.
153
485440
3736
sve naučnofantastične serije su o tome
kako su roboti bolji i draži od ljudi.
Pa i serije o zombijima - o čemu se radi
u svakoj seriji o zombijima?
08:21
Even zombiezombi showsпоказује --
what is everyсваки zombiezombi showсхов about?
154
489200
2976
08:24
Some personособа, looking at the horizonХоризонт
at some zombiezombi going by,
155
492200
3256
O nekoj osobi koja posmatra horizont
kuda prolazi nekakav zombi
08:27
and they zoomзоом in on the personособа
and you see the person'sособа faceлице,
156
495480
2896
i onda zumiraju osobu
i vidite ljudsko lice
08:30
and you know what they're thinkingразмишљање:
157
498400
1736
i znate o čemu razmišlja:
„U čemu je zaista razlika
između zombija i mene?
08:32
"What's really the differenceразлика
betweenизмеђу that zombiezombi and me?
158
500160
2736
On hoda, ja hodam.
08:34
He walksшетње, I walkходати.
159
502920
1536
08:36
He eatsjede, I eatјести.
160
504480
2016
On jede, ja jedem.
08:38
He killsубија, I killубиј."
161
506520
2280
On ubija, ja ubijam.“
08:42
But he's a zombiezombi.
162
510360
1536
Međutim, on je zombi.
08:43
At leastнајмање you're awareсвесна of it.
163
511920
1416
Vi ste bar svesni toga.
08:45
If we are actuallyзаправо havingимати troubleневоље
distinguishingprepoznatljive ourselvesсами from zombiesзомбији,
164
513360
3696
Ako se zapravo mučimo
da razlikujemo sebe od zombija,
08:49
we have a prettyприлично bigвелики problemпроблем going on.
165
517080
2176
u prilično smo velikom problemu.
08:51
(LaughterSmeh)
166
519280
1216
(Smeh)
08:52
And don't even get me startedпочела
on the transhumaniststranshumanists.
167
520520
2936
Nemojte ni da mi pominjete transhumaniste.
08:55
I was on a panelпанел with a transhumanisttranshumanist,
and he's going on about the singularityсингуларност.
168
523480
3816
Bio sam na panelu sa transhumanistom
i on je raspredao o singularnosti.
08:59
"Oh, the day is going to come really soonускоро
when computersрачунари are smarterпаметнији than people.
169
527320
3856
„Oh, sve je bliži dan kada će kompjuteri
da budu pametniji od ljudi.
09:03
And the only optionопција
for people at that pointтачка
170
531200
2136
I jedina opcija za ljude će tada da bude
09:05
is to passпасс the evolutionaryеволуционарни torchбакља
to our successorнаследник
171
533360
3336
da predaju evolutivnu baklju
našim naslednicima
09:08
and fadeзбледи into the backgroundбацкгроунд.
172
536720
1616
i da nestanemo u pozadini.
09:10
Maybe at bestнајбоље, uploadотпремити
your consciousnessсвесност to a siliconсилицијум chipчип.
173
538360
3456
U najboljem slučaju, pak, prebacićemo
našu svesnost na silicijumski čip.
09:13
And acceptприхватити your extinctionизумирање."
174
541840
1840
I prihvatićemo naše izumiranje.“
09:16
(LaughterSmeh)
175
544640
1456
(Smeh)
09:18
And I said, "No, humanљудско beingsбића are specialпосебан.
176
546120
3376
A ja sam rekao:
„Ne, ljudska bića su posebna.
09:21
We can embraceзагрли ambiguityдвосмисленост,
we understandРазумем paradoxпарадокс,
177
549520
3536
Možemo da prigrlimo dvosmislenost,
razumemo paradoks,
09:25
we're consciousсвесна,
we're weirdчудан, we're quirkyvrcava.
178
553080
2616
svesni smo, čudni smo, ekscentrični smo.
09:27
There should be a placeместо for humansљуди
in the digitalдигитални futureбудућност."
179
555720
3336
Trebalo bi da postoji mesto
za ljude u digitalnoj budućnosti.“
09:31
And he said, "Oh, RushkoffRushkoff,
180
559080
1536
A on je rekao: „Ah, Raškofe,
09:32
you're just sayingговорећи that
because you're a humanљудско."
181
560640
2296
ti samo tako govoriš jer si čovek.“
09:34
(LaughterSmeh)
182
562960
1776
(Smeh)
09:36
As if it's hubrisoholost.
183
564760
1600
Kao da se radi o aroganciji.
09:39
OK, I'm on "TeamTim HumanLjudski."
184
567280
2800
U redu, ja sam u „Ekipi ljudi“.
09:43
That was the originalоригинал insightна видику
of the digitalдигитални ageстарост.
185
571200
3856
To je bilo prvobitno zapažanje
digitalnog doba.
09:47
That beingбиће humanљудско is a teamтим sportспорт,
186
575080
2216
Da je biti čovek ekipni sport,
09:49
evolution'sEvolucija je a collaborativeсарадња actчинити.
187
577320
2736
evolucija je čin saradnje.
09:52
Even the treesдрвеће in the forestшума,
188
580080
1416
Čak se ni drveće u šumi
09:53
they're not all in competitionконкуренција
with eachсваки other,
189
581520
2216
međusobno ne takmiči,
09:55
they're connectedповезан with the vastогромно
networkмрежа of rootsкорени and mushroomsпечурке
190
583760
3216
povezani su ogromnom
mrežom korenja i gljiva
09:59
that let them communicateкомуницирајте with one anotherдруги
and passпасс nutrientsхранљиве материје back and forthнапред.
191
587000
4536
koja im omogućava da međusobno
komuniciraju i prenose hranljive stvari.
10:03
If humanљудско beingsбића
are the mostнајвише evolvedеволуирао speciesврсте,
192
591560
2136
Ako su ljudska bića najevoluiranija vrsta,
10:05
it's because we have the mostнајвише evolvedеволуирао
waysначини of collaboratingsaradnja and communicatingкомуницирање.
193
593720
4136
to je zato što imamo najevoluiranije
načine saradnje i komunikacije.
10:09
We have languageЈезик.
194
597880
1496
Imamo jezik.
10:11
We have technologyтехнологија.
195
599400
1240
Imamo tehnologiju.
10:14
It's funnyсмешно, I used to be the guy
who talkedпричао about the digitalдигитални futureбудућност
196
602120
4576
Smešno je, nekad sam bio lik
koji je govorio o digitalnoj budućnosti
10:18
for people who hadn'tније yetјош увек
experiencedИскусан anything digitalдигитални.
197
606720
2680
ljudima bez bilo kakvog
iskustva sa digitalnim.
10:22
And now I feel like I'm the last guy
198
610200
1816
A sada se osećam kao poslednji čovek
10:24
who rememberspamti what life was like
before digitalдигитални technologyтехнологија.
199
612040
2920
koji se seća kako je bilo
pre digitalnih tehnologija.
10:28
It's not a matterматерија of rejectingодбијање the digitalдигитални
or rejectingодбијање the technologicalтехнолошки.
200
616680
4216
Ne radi se o odbacivanju digitalnog
ili odbacivanju tehnologije.
10:32
It's a matterматерија of retrievingpreuzimanje the valuesвредности
that we're in dangerопасност of leavingодлазак behindиза
201
620920
4096
Radi se o vraćanju vrednosti
koje smo u opasnosti da izgubimo,
10:37
and then embeddingуградња them in the digitalдигитални
infrastructureинфраструктуре for the futureбудућност.
202
625040
3600
i da ih zatim ugradimo
u digitalnu infrastrukturu budućnosti.
10:41
And that's not rocketракета scienceНаука.
203
629880
2296
A ne radi se o nuklearnoj fizici.
10:44
It's as simpleједноставно as makingстварање a socialсоцијално networkмрежа
204
632200
2096
Prosto je kao izgradnja društvene mreže
10:46
that insteadуместо тога of teachingУчити us
to see people as adversariesprotivnici,
205
634320
3536
koja umesto da nas uči
da gledamo na ljude kao na dušmane,
10:49
it teachesпредаје us to see
our adversariesprotivnici as people.
206
637880
3000
uči nas da gledamo
na naše dušmane kao na ljude.
10:54
It meansзначи creatingстварање an economyекономија
that doesn't favorфавор a platformплатформа monopolyмонопол
207
642240
4296
To znači stvaranje ekonomije
koja ne favorizuje platformski monopol
10:58
that wants to extractекстракт all the valueвредност
out of people and placesместа,
208
646560
3336
koji želi da izvuče svu vrednost
iz ljudi i mesta,
11:01
but one that promotespromoviše the circulationциркулација
of valueвредност throughкроз a communityзаједница
209
649920
3936
već one koja promoviše kruženje
vrednosti u zajednici
11:05
and allowsомогућава us to establishуспоставити
platformплатформа cooperativesZADRUGA
210
653880
2416
i omogućuje nam da stvaramo
platformsku saradnju
11:08
that distributeдистрибуирати ownershipвласништво
as wideшироко as possibleмогуће.
211
656320
3816
koja raspodeljuje vlasništvo
što je šire moguće.
11:12
It meansзначи buildingзграде platformsплатформе
212
660160
1656
To znači izgradnju platformi
11:13
that don't repressMoram da savladam our creativityкреативност
and noveltyновост in the nameиме of predictionпредвиђање
213
661840
4656
koje ne potiskuju našu kreativnost
i novine u ime predviđanja,
11:18
but actuallyзаправо promoteпромовисати
creativityкреативност and noveltyновост,
214
666520
2576
već zapravo promovišu kreativnost i novine
11:21
so that we can come up
with some of the solutionsрешења
215
669120
2336
kako bismo mogli da smislimo
nekakva rešenja
11:23
to actuallyзаправо get ourselvesсами
out of the messнеред that we're in.
216
671480
2680
da se izvučemo iz nereda u kome smo.
Ne, umesto što pokušavamo da zaradimo
dovoljno novca da bismo se izolovali
11:27
No, insteadуместо тога of tryingпокушавајући to earnzaradi
enoughдовољно moneyновац to insulateizoluju ourselvesсами
217
675440
3056
11:30
from the worldсвет we're creatingстварање,
218
678520
1496
od sveta koga stvaramo,
11:32
why don't we spendпотрошити that time and energyенергија
makingстварање the worldсвет a placeместо
219
680040
3056
zašto ne bismo potrošili
to vreme i energiju
da pretvorimo svet u mesto
iz koga nemamo potrebu da bežimo.
11:35
that we don't feel
the need to escapeпобјећи from.
220
683120
2040
11:38
There is no escapeпобјећи,
there is only one thing going on here.
221
686000
3200
Nema izlaza, ovde se radi o samo jednom.
11:42
Please, don't leaveодлази.
222
690680
2120
Molim vas, ne idite.
11:45
JoinSpoj us.
223
693640
1360
Pridružite nam se.
11:47
We mayможе not be perfectсавршен,
224
695800
1296
Možda nismo savršeni,
ali šta god da se desi,
bar nećete da budete usamljeni.
11:49
but whateverшта год happensсе дешава,
at leastнајмање you won'tнеће be aloneсами.
225
697120
2440
11:52
JoinSpoj "TeamTim HumanLjudski."
226
700640
1520
Pridružite se „Ekipi ljudi“.
11:55
Find the othersдруги.
227
703160
2096
Pronađite druge.
11:57
TogetherZajedno, let's make the futureбудућност
that we always wanted.
228
705280
2960
Hajde da zajedno izgradimo budućnost
kakvu smo oduvek želeli.
12:01
Oh, and those techтецх billionairesмилијардери
who wanted to know
229
709560
2496
Eh da, a tim milijarderima
koji su želeli da znaju
kako da održe kontrolu
nad bezbednosnim snagama nakon apokalipse,
12:04
how to maintainуспоставити controlконтрола of theirњихова
securityсигурност forceсила after the apocalypseапокалипсе,
230
712080
3256
12:07
you know what I told them?
231
715360
1896
znate šta sam im rekao?
12:09
"StartPočetak treatingлечење those people
with love and respectпоштовање right now.
232
717280
4216
„Počnite da se odnosite prema tim ljudima
sa ljubavlju i poštovanjem odmah.
12:13
Maybe you won'tнеће have
an apocalypseапокалипсе to worryзабринути about."
233
721520
2440
Možda nećete morati
da brinete zbog apokalipse.“
12:16
Thank you.
234
724840
1216
Hvala vam.
12:18
(ApplauseAplauz)
235
726080
4440
(Aplauz)
Translated by Milenka Okuka
Reviewed by Ivana Krivokuća

▲Back to top

ABOUT THE SPEAKER
Douglas Rushkoff - Media theorist, author
Douglas Rushkoff promotes human autonomy in the digital age.

Why you should listen

Douglas Rushkoff coined such expressions as "viral media," "digital natives" and "social currency," and advises governments, communities and businesses on the impact of technology on society's future. Named one of "the world’s ten most influential thinkers" by MIT, Rushkoff won the Marshal McLuhan Award for media writing and the Neil Postman award for Public Intellectual Activity.

Rushkoff hosts the Team Human podcast, made four PBS Frontline documentaries including Generation Like and The Merchants of Cool, and wrote many bestselling books including Team Human, Present Shock, Program or Be Programmed and Throwing Rocks at the Google Bus. He founded the Laboratory for Digital Humanism at CUNY/Queens College, where he is professor of media theory and digital economics.

More profile about the speaker
Douglas Rushkoff | Speaker | TED.com