ABOUT THE SPEAKER
Daniel Suarez - Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios.

Why you should listen

While working as a software developer, Daniel Suarez self-published Daemon, a cyber-thriller depicting a future where society is radically reshaped by disruptive technologies. It struck a chord -- and so did the sequel, Freedom (TM) -- rocketing Suarez into the pantheon of sci-fi prophets.

In his 2012 novel Kill Decision, Suarez digs into the consequences of technology that’s here to stay: autonomous bots and drones programmed to be lethal. Suarez argues that as we cede more control to software, we gamble with the very essence of democracy itself. How can we establish sane guidelines for technology that could easily outstrip our control?

More profile about the speaker
Daniel Suarez | Speaker | TED.com
TEDGlobal 2013

Daniel Suarez: The kill decision shouldn't belong to a robot

Danijel Suarez (Daniel Suarez): Odluku o ubistvu ne treba da donosi robot

Filmed:
1,946,706 views

Kao romanopisac, Danijel Suarez priča distopijske priče o budućnosti. Ali na TEDGlobal pozornici, on nas vodi kroz realan scenario o kome svi treba više da znamo: razvoj autonomnih robotskih ratnih oružja. Napredne bespilotne letelice, automatizovano oružje i alati koje pokreće veštačka inteligencija mogli bi, kako kaže, da preuzmu iz ljudskih ruku donošenje odluka o ratu.
- Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios. Full bio

Double-click the English transcript below to play the video.

00:12
I writeпиши fictionфикција sci-fiSci-Fi thrillerstrilere,
0
691
3158
Ja pišem naučno fantastične trilere
00:15
so if I say "killerубица robotsроботи,"
1
3849
2193
i ako kažem "roboti ubice"
00:18
you'dти би probablyвероватно think something like this.
2
6042
2361
verovatno ćete pomisliti
na ovako nešto.
00:20
But I'm actuallyзаправо not here to talk about fictionфикција.
3
8403
2555
Ali nisam ovde
da bih pričao o fikciji.
00:22
I'm here to talk about very realправи killerубица robotsроботи,
4
10958
2948
Ovde sam da bih pričao
o vrlo stvarnim robotima ubicama,
00:25
autonomousаутономно combatборба dronesradilice.
5
13906
3122
autonomnim bespilotnim
letelicama za borbu.
00:29
Now, I'm not referringреферринг to PredatorPredator and ReaperReaper dronesradilice,
6
17028
3627
Ne mislim pritom na bespilotne letelice
"Predator i "Riper"
00:32
whichкоја have a humanљудско makingстварање targetingциљање decisionsОдлуке.
7
20655
3260
gde odluke o ciljanju
donose ljudi.
00:35
I'm talkingпричају about fullyпотпуно autonomousаутономно roboticроботски weaponsоружје
8
23915
3129
Govorim o potpuno nezavisnom
robotskom oružju
00:39
that make lethalсмртоносно decisionsОдлуке about humanљудско beingsбића
9
27044
2654
koje donosi odluke o smrti
ljudskih bića
00:41
all on theirњихова ownвластити.
10
29698
2417
potpuno samostalno.
00:44
There's actuallyзаправо a technicalтехнички termтермина for this: lethalсмртоносно autonomyautonomija.
11
32115
4000
Postoji i tehnički izraz za to:
smrtonosna autonomija.
00:48
Now, lethallyplotna autonomousаутономно killerубица robotsроботи
12
36115
2856
Smrtonosno autonomni roboti ubice
00:50
would take manyмноги formsобразаца -- flyingлети, drivingвожња,
13
38971
3069
mogu imati više oblika -
leteći, na točkovima
00:54
or just lyingлажи in wait.
14
42040
2746
ili samo u zasedi.
00:56
And actuallyзаправо, they're very quicklyбрзо becomingпостаје a realityреалност.
15
44786
3109
U stvari, oni vrlo brzo
postaju realnost.
00:59
These are two automaticAutomatsko snipersnajper stationsстанице
16
47895
2484
Ovo su dve automatske
snajperske stanice
01:02
currentlyтренутно deployedраспоређено in the DMZDMZ betweenизмеђу NorthSever and SouthJug KoreaKoreja.
17
50379
4137
trenutno postavljene u demilitarizovanoj
zoni između Severne i Južne Koreje.
01:06
BothOboje of these machinesмашине are capableспособан of automaticallyаутоматски
18
54516
2171
Obe ove mašine su sposobne
za automatsko
01:08
identifyingidentifikovanje a humanљудско targetциљ and firingpucanje on it,
19
56687
3524
identifikovanje ljudskih meta
i pucanje na njih,
01:12
the one on the left at a distanceрастојање of over a kilometerкилометар.
20
60211
4324
ona s leve strane, na razdaljini
od preko jednog kilometra.
01:16
Now, in bothи једно и друго casesслучајева, there's still a humanљудско in the loopпетља
21
64535
3589
U oba slučaja
još uvek je čovek uključen
01:20
to make that lethalсмртоносно firingpucanje decisionодлука,
22
68124
2372
da donese odluku
o smrtonosnoj paljbi,
01:22
but it's not a technologicalтехнолошки requirementуслов. It's a choiceизбор.
23
70496
5413
ali to nije zahtev tehnologije.
To je izbor.
01:27
And it's that choiceизбор that I want to focusфокусирати on,
24
75909
3093
I taj izbor je ono na šta
želim da se fokusiram,
01:31
because as we migrateмигрирати lethalсмртоносно decision-makingодлучивати
25
79002
2641
jer kako prenosimo
donošenje smrtonosne odluke
01:33
from humansљуди to softwareсофтвер,
26
81643
3109
sa ljudi na softver,
01:36
we riskризик not only takingузимајући the humanityчовечанство out of warрат,
27
84752
3476
rizikujemo ne samo to
da izbacimo ljudskost iz rata,
01:40
but alsoтакође changingпромена our socialсоцијално landscapeпејзаж entirelyу потпуности,
28
88228
3526
nego i da potpuno promenimo
sliku našeg društva
01:43
farдалеко from the battlefieldbojno polje.
29
91754
2224
daleko od bojnog polja.
01:45
That's because the way humansљуди resolveрешити conflictконфликт
30
93978
4509
To je zbog toga što način
na koji ljudi razrešavaju sukob
01:50
shapesоблике our socialсоцијално landscapeпејзаж.
31
98487
1733
oblikuje sliku našeg društva.
01:52
And this has always been the caseслучај, throughoutтоком historyисторија.
32
100220
2633
Ovo je uvek bio slučaj
tokom istorije.
01:54
For exampleпример, these were state-of-the-artПоследња реч технологије weaponsоружје systemsсистема
33
102853
2661
Na primer, ovo su bili
moderni sistemi naoružanja
01:57
in 1400 A.D.
34
105514
2079
1400. godine.
01:59
Now they were bothи једно и друго very expensiveскупо to buildизградити and maintainуспоставити,
35
107593
3144
Oba su bila skupa
za izgradnju i održavanje,
02:02
but with these you could dominateдоминирати the populacepopulaciju,
36
110737
3240
ali njima ste mogli
da vladate narodom
02:05
and the distributionдистрибуција of politicalполитички powerмоћ in feudalfeudalni societyдруштво reflectedodraz that.
37
113977
3889
i to se ogledalo u raspodeli
političke moći u feudalnom društvu.
02:09
PowerNapajanje was focusedфокусиран at the very topврх.
38
117866
2687
Moć je bila koncentrisana
u samom vrhu.
02:12
And what changedпромењено? TechnologicalTehnološki innovationиновације.
39
120553
3528
Šta se promenilo?
Tehnološka inovacija.
02:16
GunpowderBarut, cannonTop.
40
124081
1871
Barut, top.
02:17
And prettyприлично soonускоро, armorоклоп and castlesDvorci were obsoleteзастарело,
41
125952
3817
I uskoro, oklopi i tvrđave
su postali beskorisni
02:21
and it matteredbilo bitno lessмање who you broughtдоведен to the battlefieldbojno polje
42
129769
2533
i bilo je manje važno
koga ste doveli na bojno polje
02:24
versusнаспрам how manyмноги people you broughtдоведен to the battlefieldbojno polje.
43
132302
3779
od toga koliko ste ljudi doveli
na bojno polje.
02:28
And as armiesarmije grewрастао in sizeвеличине, the nation-stateNacionalna država aroseнастао
44
136081
3638
I kako su vojske rasle,
nastajala je nacionalna država
02:31
as a politicalполитички and logisticallogističke requirementуслов of defenseодбрана.
45
139719
3680
kao politički i logistički
zahtev odbrane.
02:35
And as leadersлидери had to relyослонити on more of theirњихова populacepopulaciju,
46
143399
2376
I kako su lideri morali
da se oslanjaju više na svoj narod,
02:37
they beganпочела to shareОбјави powerмоћ.
47
145775
1833
počeli su da dele moć.
02:39
RepresentativePredstavnik governmentвлада beganпочела to formобразац.
48
147608
2599
Počela je da se formira vlada.
02:42
So again, the toolsалати we use to resolveрешити conflictконфликт
49
150207
3288
I opet, sredstva koja koristimo
da razrešimo sukob
02:45
shapeоблик our socialсоцијално landscapeпејзаж.
50
153495
3304
oblikuju sliku našeg društva.
02:48
AutonomousAutonomni roboticроботски weaponsоружје are suchтаква a toolоруђе,
51
156799
4064
Autonomna robotička oružja
su takvo sredstvo,
02:52
exceptосим that, by requiringkoji zahteva very fewнеколико people to go to warрат,
52
160863
5168
koje osim što zahteva
da vrlo malo ljudi pođe u rat,
02:58
they riskризик re-centralizingponovo sakupljanje powerмоћ into very fewнеколико handsруке,
53
166031
4840
rizikuje ponovno centralizovanje moći
u mali broj ruku
03:02
possiblyмогуће reversingреверсинг a five-century5-og veka trendтренд towardпрема democracyдемократија.
54
170871
6515
što bi verovatno obrnulo
petovekovni trend ka demokratiji.
03:09
Now, I think, knowingзнајући this,
55
177386
1757
Znajući ovo, mislim da možemo
03:11
we can take decisiveodlučujuća stepsкораци to preserveсачувати our democraticдемократски institutionsинституције,
56
179143
4352
preduzeti odlučne korake da sačuvamo
naše demokratske institucije,
03:15
to do what humansљуди do bestнајбоље, whichкоја is adaptприлагодити.
57
183495
3979
da uradimo ono što ljudi rade najbolje,
a to je da se adaptiramo.
03:19
But time is a factorфактор.
58
187474
2005
Ali vreme je faktor.
03:21
SeventySedamdeset nationsнације are developingразвој remotely-piloteddaljinski pilotirali
59
189479
2851
Sedamdeset nacija razvija
sopstvene daljinski upravljane
03:24
combatборба dronesradilice of theirњихова ownвластити,
60
192330
2157
bespilotne letelice
03:26
and as you'llти ћеш see, remotely-piloteddaljinski pilotirali combatборба dronesradilice
61
194487
2593
i kao što ćete videti, daljinski
upravljane bespilotne letelice
03:29
are the precursorsпрекурсори to autonomousаутономно roboticроботски weaponsоружје.
62
197080
4472
su preteče autonomnih
robotskih letelica.
03:33
That's because onceједном you've deployedраспоређено remotely-piloteddaljinski pilotirali dronesradilice,
63
201552
2767
To je zato što, kad ste razmestili
daljinske bespilotne letelice,
03:36
there are threeтри powerfulмоћан factorsФактори pushinggura decision-makingодлучивати
64
204319
3384
postoje tri moćna faktora koji podstiču
premeštanje donošenja odluke
03:39
away from humansљуди and on to the weaponоружје platformплатформа itselfсам.
65
207703
4600
sa ljudi na sama oružja.
03:44
The first of these is the delugepotop of videoвидео that dronesradilice produceпроизвести.
66
212303
5259
Prvi od njih je poplava video snimaka
koje prave bespilotne letelice.
03:49
For exampleпример, in 2004, the U.S. droneTrut fleetflota producedпроизведено
67
217562
3853
Na primer 2004., flota bespilotnih
letelica SAD-a je proizvela
03:53
a grandгранд totalукупно of 71 hoursсати of videoвидео surveillanceнадзор for analysisанализа.
68
221415
5312
ukupno 71 sat
video nadzora za analizu.
03:58
By 2011, this had goneотишла up to 300,000 hoursсати,
69
226727
4499
Do 2011., taj broj se popeo
na 300.000 sati,
04:03
outstrippingnadmašen humanљудско abilityспособност to reviewпреглед it all,
70
231226
3149
prevazilazeći ljudsku sposobnost
da sve to pregleda
04:06
but even that numberброј is about to go up drasticallydrastično.
71
234375
3664
i taj broj će se drastično povećavati.
04:10
The Pentagon'sPentagon je GorgonGorgon StareBulji and ArgusArgus programsпрограме
72
238039
2575
Programi Pentagona
"Gorgonin pogled" i "Argus"
04:12
will put up to 65 independentlynezavisno operatedуправља cameraКамера eyesочи
73
240614
3164
će postaviti do 65 nezavisnih
objektiva kamere
04:15
on eachсваки droneTrut platformплатформа,
74
243778
2038
na svaku bespilotnu letelicu
04:17
and this would vastlyогромно outstrippreveliki humanљудско abilityспособност to reviewпреглед it.
75
245816
3303
i ovo će uveliko prevazići
ljudsku sposobnost da sve to pregleda.
04:21
And that meansзначи visualвизуелно intelligenceинтелигенција softwareсофтвер will need
76
249119
2160
To znači da će
vizuelno inteligentni softver morati
04:23
to scanскенирање it for itemsставке of interestинтерес.
77
251279
4048
da to skenira da bi izdvojio
ono što je značajno.
04:27
And that meansзначи very soonускоро
78
255327
1348
A to znači da će uskoro
04:28
dronesradilice will tell humansљуди what to look at,
79
256675
2747
bespilotne letelice
govoriti ljudima šta da pogledaju,
04:31
not the other way around.
80
259422
2497
a ne obratno.
04:33
But there's a secondдруго powerfulмоћан incentiveподстицај pushinggura
81
261919
2473
Ali tu je i drugi moćni podsticaj
04:36
decision-makingодлучивати away from humansљуди and ontoна machinesмашине,
82
264392
3383
za prenošenje donošenja odluka
sa ljudi na mašine
04:39
and that's electromagneticelektromagnetske jammingometanje,
83
267775
2872
i to je elektromagnetno
ometanje
04:42
severingPresecanje the connectionвеза betweenизмеђу the droneTrut
84
270647
2236
koje prekida vezu između
bespilotne letelice
04:44
and its operatoroperater.
85
272883
2814
i onoga ko njom upravlja.
04:47
Now we saw an exampleпример of this in 2011
86
275697
2618
Videli smo primer ovoga 2011.
04:50
when an AmericanAmerikanac RQ-RQ-170 SentinelSentinel droneTrut
87
278315
2956
kada se američka bespilotna letelica
RQ-170 "Sentinel"
04:53
got a bitмало confusedзбуњено over IranIran dueдуе to a GPSGPS spoofinglažno predstavljanje attackнапад,
88
281271
4307
malo zbunila iznad Irana
usled napada pomoću GPS obmane,
04:57
but any remotely-piloteddaljinski pilotirali droneTrut is susceptibleосетљив to this typeтип of attackнапад,
89
285578
5114
ali bilo koja daljinska bespilotna letelica
bila bi podložna ovom tipu napada,
05:02
and that meansзначи dronesradilice
90
290692
2052
a to znači da će bespilotne letelice
05:04
will have to shoulderраме more decision-makingодлучивати.
91
292744
3620
morati u većoj meri
da preuzmu donošenje odluke.
05:08
They'llOni ce know theirњихова missionмисија objectiveобјективан,
92
296364
3043
One će znati cilj svoje misije
05:11
and they'llони ће reactреаговати to newново circumstancesоколности withoutбез humanљудско guidanceVodič.
93
299407
4845
i reagovaće na nove okolnosti
bez ljudskog vođstva.
05:16
They'llOni ce ignoreигнорисати externalекстерно radioрадио signalsсигналима
94
304252
2581
One će ignorisati
spoljne radio signale
05:18
and sendпошаљи very fewнеколико of theirњихова ownвластити.
95
306833
2330
i slati vrlo malo sopstvenih.
05:21
WhichŠto bringsдоноси us to, really, the thirdтрећи
96
309163
2006
I to nas dovodi do trećeg
05:23
and mostнајвише powerfulмоћан incentiveподстицај pushinggura decision-makingодлучивати
97
311169
3862
i najmoćnijeg podsticaja
za prenošenje donošenja odluka
05:27
away from humansљуди and ontoна weaponsоружје:
98
315031
3342
sa ljudi na oružje:
05:30
plausibleverodostojno deniabilityporicanje.
99
318373
3293
uverljivo negiranje.
05:33
Now we liveживи in a globalглобално economyекономија.
100
321666
2887
Živimo u globalnoj ekonomiji.
05:36
High-techVisoka tehnologija manufacturingпроизводња is occurringнаступајуће on mostнајвише continentsконтинената.
101
324553
4334
Proizvodnja visoke tehnologije
se dešava na uglavnom svim kontinentima.
05:40
CyberSajber espionagešpijunažu is spiritingspiriting away advancedнапредни designsдизајн
102
328887
2914
Sajber špijunaža krijumčari
napredne dizajne
05:43
to partsделови unknownnepoznat,
103
331801
1886
na nepoznate destinacije
05:45
and in that environmentЖивотна средина, it is very likelyвероватно
104
333687
2014
i u takvom okruženju je vrlo verovatno
05:47
that a successfulуспјешно droneTrut designдизајн will be knockedударила off in contractуговор factoriesфабрике,
105
335701
4734
da će uspešan dizajn bespilotne letelice
stati u fabrikama
05:52
proliferateparije in the grayсива marketтржиште.
106
340435
2170
i umnožiti se na crnom tržištu.
05:54
And in that situationситуација, siftingipitivanje throughкроз the wreckageolupina
107
342605
2460
I u toj situaciji,
pretraživanjem olupine
05:57
of a suicideсамоубиство droneTrut attackнапад, it will be very difficultтешко to say
108
345065
2960
posle samoubilačkog napada
bespilotne letelice, biće vrlo teško reći
06:00
who sentпослат that weaponоружје.
109
348025
4400
ko je poslao to oružje.
06:04
This raisesподигне the very realправи possibilityмогућност
110
352425
2800
Ovo predstavlja
realnu mogućnost
06:07
of anonymousанонимно warрат.
111
355225
2935
anonimnog rata.
06:10
This could tiltнагиб the geopoliticalгеополитички balanceбаланс on its headглава,
112
358160
2614
Ovo bi moglo okrenuti
geopolitičku ravnotežu naglavce
06:12
make it very difficultтешко for a nationнација to turnред its firepowervatrenu
113
360774
3491
i vrlo otežati naciji
da upotrebi svoju oružanu moć
06:16
againstпротив an attackernapadač, and that could shiftсмена the balanceбаланс
114
364265
2848
protiv napadača i to može
da promeni ravnotežu
06:19
in the 21stст centuryвек away from defenseодбрана and towardпрема offenseuvrede.
115
367113
3764
u 21. veku sa odbrane na napad.
06:22
It could make militaryвојска actionпоступак a viableодржив optionопција
116
370877
3124
Može da učini vojnu akciju
izvodljivom opcijom
06:26
not just for smallмали nationsнације,
117
374001
2288
ne samo za male narode,
06:28
but criminalкриминал organizationsорганизације, privateприватни enterpriseEnterprise,
118
376289
2545
nego i za kriminalne organizacije,
privatne poduhvate,
06:30
even powerfulмоћан individualsпојединци.
119
378834
2479
pa čak i za moćne pojedince.
06:33
It could createстворити a landscapeпејзаж of rivalсупарник warlordsgospodarima rata
120
381313
3328
Može da kreira sliku
u kojoj rivalski gospodari rata
06:36
underminingpodrivanje ruleправило of lawзакон and civilцивилно societyдруштво.
121
384641
3680
podrivaju zakon prava
i civilnog društva.
06:40
Now if responsibilityодговорност and transparencyтранспарентност
122
388321
3616
Ako su odgovornost
i transparentnost
06:43
are two of the cornerstonestemeljem of representativeпредставник governmentвлада,
123
391937
2384
dva stuba vlade,
06:46
autonomousаутономно roboticроботски weaponsоружје could undermineпоткопати bothи једно и друго.
124
394321
4320
autonomna robotska oružja
bi mogla da ih potkopaju.
06:50
Now you mightМожда be thinkingразмишљање that
125
398641
1546
Možda mislite da bi građani
06:52
citizensГрађани of high-techвисока технологија nationsнације
126
400187
2246
visoko tehnoloških nacija
06:54
would have the advantageprednost in any roboticроботски warрат,
127
402433
2703
imali prednost
u bilo kom robotskom ratu,
06:57
that citizensГрађани of those nationsнације would be lessмање vulnerableрањив,
128
405136
3633
da bi građani ovih nacija
bili manje ranjivi,
07:00
particularlyпосебно againstпротив developingразвој nationsнације.
129
408769
4288
posebno u poređenju
sa nacijama u razvoju.
07:05
But I think the truthистина is the exactтачно oppositeсупротно.
130
413057
3524
Ali mislim da je istina
potpuno suprotna.
07:08
I think citizensГрађани of high-techвисока технологија societiesдруштва
131
416581
2251
Mislim da su građani
visoko tehnoloških društava
07:10
are more vulnerableрањив to roboticроботски weaponsоружје,
132
418832
3729
ranjiviji za robotska oružja
07:14
and the reasonразлог can be summedсумирао up in one wordреч: dataподаци.
133
422561
4465
i razlog za to može
da se sumira u jednoj reči: podaci.
07:19
DataPodaci powersмоћи high-techвисока технологија societiesдруштва.
134
427026
3481
Podaci vladaju
visoko tehnološkim društvima.
07:22
CellĆelije phoneтелефон geolocationgeolocation, telecomTelekom metadataMetapodaci,
135
430507
3190
Geolokacija mobilnih telefona,
telekomunikacioni metapodaci,
07:25
socialсоцијално mediaмедији, emailемаил, textтекст, financialфинансијски transactiontransakcije dataподаци,
136
433697
3472
društveni mediji, e-mail, SMS,
podaci finansijskih transakcija
07:29
transportationтранспорт dataподаци, it's a wealthбогатство of real-timeреалном времену dataподаци
137
437169
3532
saobraćajni podaci, to je bogatstvo
podataka u realnom vremenu
07:32
on the movementsпокрета and socialсоцијално interactionsинтеракције of people.
138
440701
3373
o potezima
i društvenim interakcijama ljudi.
07:36
In shortкратак, we are more visibleвидљив to machinesмашине
139
444074
3775
Ukratko, vidljiviji smo mašinama
07:39
than any people in historyисторија,
140
447849
2242
od bilo kojih drugih ljudi u istoriji
07:42
and this perfectlyсавршено suitsodgovara the targetingциљање needsпотребе of autonomousаутономно weaponsоружје.
141
450091
5616
i ovo savršeno odgovara
ciljanim potrebama autonomnog oružja.
07:47
What you're looking at here
142
455707
1738
Ono što vidite ovde
07:49
is a linkлинк analysisанализа mapМапа of a socialсоцијално groupгрупа.
143
457445
3246
je mapa analize veza
društvene grupe.
07:52
LinesRedovi indicateиндицирајте socialсоцијално connectednesspovezanosti betweenизмеђу individualsпојединци.
144
460691
3634
Linije označavaju društvenu povezanost
između osoba.
07:56
And these typesврсте of mapsмапе can be automaticallyаутоматски generatedгенерисан
145
464325
2880
Ova vrsta mapa
može se generisati automatski
07:59
basedзаснован on the dataподаци trailстаза modernмодеран people leaveодлази behindиза.
146
467205
4715
na osnovu tragova podataka
koje moderni ljudi ostavljaju za sobom.
08:03
Now it's typicallyобично used to marketтржиште goodsроба and servicesуслуге
147
471920
2477
Obično se koristi
u tržištu robe i usluga
08:06
to targetedциљани demographicsдемографски подаци, but it's a dual-usedvostruku upotrebu technologyтехнологија,
148
474397
4416
za ciljanu demografiju,
ali to je tehnologija za obe strane
08:10
because targetingциљање is used in anotherдруги contextконтекст.
149
478813
3360
jer je "ciljanje" upotrebljeno
u drugom kontekstu.
08:14
NoticeNajave that certainизвестан individualsпојединци are highlightedистакнут.
150
482173
2560
Vidite da su određene osobe
istaknute.
08:16
These are the hubsčvorišta of socialсоцијално networksмреже.
151
484733
3280
Reč je o centrima društvenih mreža.
08:20
These are organizersOrganizatori, opinion-makersuticajne ličnosti, leadersлидери,
152
488013
3590
To su organizatori, oni utiču
na formiranje mišljenja, vođe
08:23
and these people alsoтакође can be automaticallyаутоматски identifiedидентификовани
153
491603
2682
i ti ljudi takođe mogu biti
automatski identifikovani
08:26
from theirњихова communicationкомуникација patternsобрасци.
154
494285
2382
pomoću svojih obrazaca komunikacije.
08:28
Now, if you're a marketerтржиште, you mightМожда then targetциљ them
155
496667
2146
Ako ste prodavac,
onda ih možete naciljati
08:30
with productпроизвод samplesУзорци, try to spreadширити your brandМарка
156
498813
2543
pomoću uzoraka proizvoda
i pokušati da proširite svoj brend
08:33
throughкроз theirњихова socialсоцијално groupгрупа.
157
501356
2829
u njihovoj društvenoj grupi.
08:36
But if you're a repressiveрепресивно governmentвлада
158
504185
1953
Ali, ako ste represivna vlada
08:38
searchingпретраживање for politicalполитички enemiesнепријатељи, you mightМожда insteadуместо тога removeуклонити them,
159
506138
4810
koja traži političke protivnike,
mogli biste umesto toga da ih uklonite,
08:42
eliminateелиминирати them, disruptпореметити theirњихова socialсоцијално groupгрупа,
160
510948
2760
eliminišete, poremetite
njihovu društvenu grupu
08:45
and those who remainостају behindиза loseизгубити socialсоцијално cohesionkohezije
161
513708
3169
i one koji stoje
u labavoj društvenoj koheziji
08:48
and organizationорганизација.
162
516877
2621
i organizaciji.
08:51
Now in a worldсвет of cheapјефтино, proliferatingproliferaciju roboticроботски weaponsоружје,
163
519498
3324
U svetu jeftinih robotskih oružja
koja se sve više umnožavaju
08:54
bordersгранице would offerпонуда very little protectionзаштита
164
522822
2635
granice bi pružale
vrlo malu zaštitu
08:57
to criticsкритичари of distantдалеко governmentsвлада
165
525457
1946
kritičarima udaljenih vlada
08:59
or trans-nationaltrans-nacionalni criminalкриминал organizationsорганизације.
166
527403
3646
ili međunarodnim
kriminalnim organizacijama.
09:03
PopularPopularni movementsпокрета agitatingузнемирујуће for changeпромена
167
531049
3493
Narodni pokreti
koji agituju za promenu
09:06
could be detectedotkriven je earlyрано and theirњихова leadersлидери eliminatedелиминисан
168
534542
3609
mogli bi biti otkriveni rano
i njihovi lideri eliminisani
09:10
before theirњихова ideasидеје achieveпостићи criticalкритичан massмаса.
169
538151
2911
pre neko što njihove ideje
usvoji kritična masa.
09:13
And ideasидеје achievingostvarivanje criticalкритичан massмаса
170
541062
2591
A ideje koje dostižu
kritičnu masu
09:15
is what politicalполитички activismaktivizam in popularпопуларно governmentвлада is all about.
171
543653
3936
su ono čime se politički aktivizam
u narodnoj vladi bavi.
09:19
AnonymousAnonimno lethalсмртоносно weaponsоружје could make lethalсмртоносно actionпоступак
172
547589
3997
Anonimna smrtonosna oružja
mogu preduzeti smrtonosnu akciju,
09:23
an easyлако choiceизбор for all sortsсортс of competingтакмичење interestsинтереса.
173
551586
3782
lak izbor za sve vrste
takmičarskih interesa.
09:27
And this would put a chillSmiri se on freeбесплатно speechговор
174
555368
3734
I ovo bi stavilo tačku
na slobodu govora
09:31
and popularпопуларно politicalполитички actionпоступак, the very heartсрце of democracyдемократија.
175
559102
5308
i političku aktivnost naroda,
samu srž demokratije.
09:36
And this is why we need an internationalмеђународни treatysporazum
176
564410
2914
To je ono zbog čega nam treba
međunarodni sporazum
09:39
on roboticроботски weaponsоружје, and in particularпосебно a globalглобално banзабрана
177
567324
3540
o robotskom oružju
i posebno globalna zabrana
09:42
on the developmentразвој and deploymentza raspoređivanje of killerубица robotsроботи.
178
570864
3908
razvoja i razmeštanja
robota ubica.
09:46
Now we alreadyвећ have internationalмеђународни treatiesugovorima
179
574772
3254
Već imamo međunarodne sporazume
09:50
on nuclearнуклеарна and biologicalбиолошки weaponsоружје, and, while imperfectнесавршен,
180
578026
3386
o nuklearnom i biološkom oružju
koji su uglavnom funkcionisali,
09:53
these have largelyу великој мери workedрадио је.
181
581412
2288
iako nisu savršeni.
09:55
But roboticроботски weaponsоружје mightМожда be everyсваки bitмало as dangerousопасно,
182
583700
3768
Ali robotska oružja mogu biti
isto tako opasna
09:59
because they will almostскоро certainlyсигурно be used,
183
587468
3288
jer će ona skoro sigurno
biti upotrebljena
10:02
and they would alsoтакође be corrosivekorozivna to our democraticдемократски institutionsинституције.
184
590756
5027
i bila bi isto tako nagrizajuća
za naše demokratske institucije.
10:07
Now in NovemberNovembra 2012 the U.S. DepartmentMinistarstvo of DefenseOdbrana
185
595783
3468
U novembru 2012. Ministarstvo odbrane
Sjedinjenih Država
10:11
issuedиздата a directivedirektiva requiringkoji zahteva
186
599251
2458
izdalo je direktivu
koja zahteva
10:13
a humanљудско beingбиће be presentпоклон in all lethalсмртоносно decisionsОдлуке.
187
601709
4519
da čovek bude prisutan
kod svih smrtonosnih odluka.
10:18
This temporarilyprivremeno effectivelyефикасно bannedзабрањено autonomousаутономно weaponsоружје in the U.S. militaryвојска,
188
606228
4776
Ovim su u stvari zabranjena
autonomna oružja u američkoj vojsci,
10:23
but that directivedirektiva needsпотребе to be madeмаде permanentстални.
189
611004
3753
ali ta direktiva bi trebalo
da postane trajna.
10:26
And it could setкомплет the stageфаза for globalглобално actionпоступак.
190
614757
4376
To bi moglo da pripremi pozornicu
za globalnu akciju.
10:31
Because we need an internationalмеђународни legalправни frameworkоквир
191
619133
3845
Zato što nam treba
međunarodni zakonski okvir
10:34
for roboticроботски weaponsоружје.
192
622978
2138
za robotska oružja.
10:37
And we need it now, before there's a devastatingразарајуће attackнапад
193
625116
2928
I potreban nam je odmah,
pre nego što se desi razoran napad
10:40
or a terroristterorista incidentинцидент that causesузроке nationsнације of the worldсвет
194
628044
3152
ili teroristički incident
koji uzrokuje da nacije sveta
10:43
to rushжурба to adoptусвојити these weaponsоружје
195
631196
1924
požure da usvoje ova oružja
10:45
before thinkingразмишљање throughкроз the consequencesпоследице.
196
633120
3771
pre nego što razmisle
o posledicama.
10:48
AutonomousAutonomni roboticроботски weaponsоружје concentrateконцентрат too much powerмоћ
197
636891
2981
Autonomna robotska oružja
koncentrišu previše moći
10:51
in too fewнеколико handsруке, and they would imperilugroziti democracyдемократија itselfсам.
198
639872
6283
u suviše malom broju ruku
i to bi ugrozilo samu demokratiju.
10:58
Now, don't get me wrongпогрешно, I think there are tonsтоне
199
646155
2686
Nemojte me shvatiti pogrešno,
mislim da ima mnogo
11:00
of great usesкористи for unarmednenaoružani civilianцивилни dronesradilice:
200
648841
2618
sjajnih načina za upotrebu nenaoružanih
civilnih bespilotnih letelica:
11:03
environmentalеколошки monitoringмониторинг, searchПретрага and rescueспасавање, logisticslogistika.
201
651459
3939
nadgledanje okoline,
potraga i spasavanje, logistika.
11:07
If we have an internationalмеђународни treatysporazum on roboticроботски weaponsоружје,
202
655398
2826
Ako bismo imali međunarodni
sporazum o robotskom oružju,
11:10
how do we gainдобит the benefitsПредности of autonomousаутономно dronesradilice
203
658224
3587
kako bismo onda dobili koristi
od autonomnih bespilotnih letelica
11:13
and vehiclesвозила while still protectingзаштита ourselvesсами
204
661811
2648
i vozila,
dok se u isto vreme čuvamo
11:16
againstпротив illegalилегално roboticроботски weaponsоружје?
205
664459
3980
od ilegalnog robotskog oružja?
11:20
I think the secretтајна will be transparencyтранспарентност.
206
668439
4741
Mislim da će tajna
biti u transparentnosti.
11:25
No robotробот should have an expectationočekivanje of privacyprivatnost
207
673180
3013
Nijedan robot ne bi trebalo
da očekuje da ima privatnost
11:28
in a publicјавно placeместо.
208
676193
3451
u javnom prostoru.
11:31
(ApplauseAplauz)
209
679644
5048
(Aplauz)
11:36
EachSvaki robotробот and droneTrut should have
210
684692
2045
Svaki robot i bespilotna letelica
bi trebalo da ima
11:38
a cryptographicallyKriptografski signedпотписан I.D. burnedзапаљен in at the factoryфабрика
211
686737
2883
kriptografsku identifikaciju
utisnutu u fabrici
11:41
that can be used to trackтрацк its movementпокрет throughкроз publicјавно spacesпросторе.
212
689620
2923
koja može da se iskoristi za praćenje
njegovog kretanja kroz javne prostore.
11:44
We have licenseлиценца platestablice on carsаутомобили, tailРеп numbersбројеви on aircraftавиона.
213
692543
3381
Imamo tablice na kolima,
brojeve na repovima aviona.
11:47
This is no differentразличит.
214
695924
1841
Ovo nije ništa drugačije.
11:49
And everyсваки citizenграђанин should be ableу могуцности to downloadпреузимање an appапликација
215
697765
2012
Svaki građanin bi trebalo
da može da skine aplikaciju
11:51
that showsпоказује the populationпопулација of dronesradilice and autonomousаутономно vehiclesвозила
216
699777
3125
koja prikazuje populaciju
bespilotnih letelica i autonomnih vozila
11:54
movingкретање throughкроз publicјавно spacesпросторе around them,
217
702902
2429
koja se kreće
u javnim prostorima oko njih
11:57
bothи једно и друго right now and historicallyПостако што што што што Пост Имагес иии29.
218
705331
2733
i u sadašnjem trenutku
i u prošlosti.
12:00
And civicграђански leadersлидери should deployraspoređivanje sensorsсензори and civicграђански dronesradilice
219
708064
3548
I gradske vođe bi trebalo da postave
senzore i gradske bespilotne letelice
12:03
to detectоткрити rogueodmetnuti dronesradilice,
220
711612
2344
da otkrivaju nezakonite letelice
12:05
and insteadуместо тога of sendingслање killerубица dronesradilice of theirњихова ownвластити up to shootпуцај them down,
221
713956
3176
i umesto da šalju same letelice ubice
da ih obore,
12:09
they should notifyObavijesti humansљуди to theirњихова presenceприсуство.
222
717132
2992
trebalo bi da obaveste ljude
o njihovom prisustvu.
12:12
And in certainизвестан very high-securityvisoke bezbednosti areasобласти,
223
720124
2606
I u određenim oblastima
visoke bezbednosti
12:14
perhapsможда civicграђански dronesradilice would snarezamke them
224
722730
1909
možda bi gradske bespilotne letelice
mogle da ih uhvate
12:16
and dragпревуците them off to a bombбомба disposalrashoda facilityобјекат.
225
724639
2841
i odvuku ih do mesta
za odlaganje bombi.
12:19
But noticeобјава, this is more an immuneимуно systemсистем
226
727480
3027
Ali vidite,
ovo je otporniji sistem
12:22
than a weaponsоружје systemсистем.
227
730507
1321
od sistema oružja.
12:23
It would allowдозволите us to availискористити ourselvesсами of the use
228
731828
2592
To bi nam omogućilo
da iskoristimo upotrebu
12:26
of autonomousаутономно vehiclesвозила and dronesradilice
229
734420
2032
autonomnih vozila i bespilotnih letelica
12:28
while still preservingočuvanje our openотворен, civilцивилно societyдруштво.
230
736452
4295
dok u isto vreme čuvamo
naše otvoreno, građansko društvo.
12:32
We mustмора banзабрана the deploymentza raspoređivanje and developmentразвој
231
740747
2999
Moramo zabraniti
razmeštanje i razvoj
12:35
of killerубица robotsроботи.
232
743746
1862
robota ubica.
12:37
Let's not succumbpodlegne to the temptationiskušenje to automateAutomatizovanje warрат.
233
745608
4850
Nemojmo da podlegnemo iskušenju
da automatizujemo rat.
12:42
AutocraticAutokratski governmentsвлада and criminalкриминал organizationsорганизације
234
750458
2718
Apsolutističke vlade
i kriminalne organizacije
12:45
undoubtedlybez sumnje will, but let's not joinпридружити them.
235
753176
2956
bez sumnje hoće,
ali nemojmo da im se pridružimo.
12:48
AutonomousAutonomni roboticроботски weaponsоружје
236
756132
1891
Autonomna robotska oružja
12:50
would concentrateконцентрат too much powerмоћ
237
758023
2051
bi koncentrisala suviše moći
12:52
in too fewнеколико unseennevidljiva handsруке,
238
760074
2482
u suviše mali broj
nevidljivih ruku
12:54
and that would be corrosivekorozivna to representativeпредставник governmentвлада.
239
762556
3255
i to bi bilo nagrizajuće
za predstavnike vlasti.
12:57
Let's make sure, for democraciesdemokratijama at leastнајмање,
240
765811
2961
Osigurajmo da,
barem za demokratije,
13:00
killerубица robotsроботи remainостају fictionфикција.
241
768772
2604
roboti ubice ostanu fikcija.
13:03
Thank you.
242
771376
1110
Hvala vam.
13:04
(ApplauseAplauz)
243
772486
4565
(Aplauz)
13:09
Thank you. (ApplauseAplauz)
244
777051
4616
Hvala vam.
(Aplauz)
Translated by Milos Milosavljevic
Reviewed by Tatjana Jevdjic

▲Back to top

ABOUT THE SPEAKER
Daniel Suarez - Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios.

Why you should listen

While working as a software developer, Daniel Suarez self-published Daemon, a cyber-thriller depicting a future where society is radically reshaped by disruptive technologies. It struck a chord -- and so did the sequel, Freedom (TM) -- rocketing Suarez into the pantheon of sci-fi prophets.

In his 2012 novel Kill Decision, Suarez digs into the consequences of technology that’s here to stay: autonomous bots and drones programmed to be lethal. Suarez argues that as we cede more control to software, we gamble with the very essence of democracy itself. How can we establish sane guidelines for technology that could easily outstrip our control?

More profile about the speaker
Daniel Suarez | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee