ABOUT THE SPEAKER
Daniel Suarez - Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios.

Why you should listen

While working as a software developer, Daniel Suarez self-published Daemon, a cyber-thriller depicting a future where society is radically reshaped by disruptive technologies. It struck a chord -- and so did the sequel, Freedom (TM) -- rocketing Suarez into the pantheon of sci-fi prophets.

In his 2012 novel Kill Decision, Suarez digs into the consequences of technology that’s here to stay: autonomous bots and drones programmed to be lethal. Suarez argues that as we cede more control to software, we gamble with the very essence of democracy itself. How can we establish sane guidelines for technology that could easily outstrip our control?

More profile about the speaker
Daniel Suarez | Speaker | TED.com
TEDGlobal 2013

Daniel Suarez: The kill decision shouldn't belong to a robot

Daniel Suarez: Decizia de a ucide nu trebuie să aparțină unui robot

Filmed:
1,946,706 views

Fiind romancier, Daniel Suarez creează povestiri distopice despre viitor. Dar, pe scena TEDGlobal ne vorbește despre un scenariu real, despre care ar trebui să știm cu toții mai multe: apariția armelor robotice autonome. Dronele și armele automate și uneltele de spionaj cu inteligență artificială, ar putea răpi decizia de a crea un război din mâinile oamenilor.
- Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios. Full bio

Double-click the English transcript below to play the video.

00:12
I writescrie fictionfictiune sci-fiSci-fi thrillersThriller,
0
691
3158
Scriu romane științifico-fantastice.
00:15
so if I say "killerucigaş robotsroboți,"
1
3849
2193
Dacă spun „roboți ucigași"
00:18
you'dte-ai probablyprobabil think something like this.
2
6042
2361
probabil vă gândiți la ceva de genul ăsta.
00:20
But I'm actuallyde fapt not here to talk about fictionfictiune.
3
8403
2555
Dar nu sunt aici să vorbesc despre ficțiune.
00:22
I'm here to talk about very realreal killerucigaş robotsroboți,
4
10958
2948
Vreau să vă vorbesc despre roboți ucigași adevărați,
00:25
autonomousautonom combatluptă dronesdrone.
5
13906
3122
dronele de luptă autonome.
00:29
Now, I'm not referringreferire to PredatorPrădător and ReaperReaper dronesdrone,
6
17028
3627
Nu drone precum Predator sau Reaper,
00:32
whichcare have a humanuman makingluare targetingdirecționare decisionsdeciziile.
7
20655
3260
unde oamenii iau deciziile.
00:35
I'm talkingvorbind about fullycomplet autonomousautonom roboticrobotizate weaponsarme
8
23915
3129
E vorba de arme robotice complet autonome
00:39
that make lethalmortal decisionsdeciziile about humanuman beingsființe
9
27044
2654
care iau decizii letale pentru ființele umane
00:41
all on theiral lor ownpropriu.
10
29698
2417
de unele singure.
00:44
There's actuallyde fapt a technicaltehnic termtermen for this: lethalmortal autonomyautonomie.
11
32115
4000
Există un termen tehnic pentru asta:
autonomie letală.
00:48
Now, lethallyterminală autonomousautonom killerucigaş robotsroboți
12
36115
2856
Roboții ucigași autonomi
00:50
would take manymulți formsformulare -- flyingzbor, drivingconducere,
13
38971
3069
pot avea multe forme -- pot zbura, conduce,
00:54
or just lyingminciună in wait.
14
42040
2746
sau doar rămâne în așteptare.
00:56
And actuallyde fapt, they're very quicklyrepede becomingdevenire a realityrealitate.
15
44786
3109
De fapt, încep să devină realitate.
00:59
These are two automaticautomată sniperlunetist stationsstații
16
47895
2484
Astea sunt două stații-lunetist automate
01:02
currentlyîn prezent deployeddesfășurată in the DMZDMZ betweenîntre NorthNord and SouthSud KoreaCoreea.
17
50379
4137
trimise în zona demilitarizată dintre Coreea de Nord și de Sud.
01:06
BothAmbele of these machinesmaşini are capablecapabil of automaticallyautomat
18
54516
2171
Ambele pot identifica automat
01:08
identifyingidentificarea a humanuman targetţintă and firingardere on it,
19
56687
3524
și trage în ținte umane,
01:12
the one on the left at a distancedistanţă of over a kilometerkilometru.
20
60211
4324
cea din stânga până la un kilometru distanță.
01:16
Now, in bothambii casescazuri, there's still a humanuman in the loopbuclă
21
64535
3589
În ambele cazuri mai avem un om în ecuație,
01:20
to make that lethalmortal firingardere decisiondecizie,
22
68124
2372
care ia decizia deschiderii focului,
01:22
but it's not a technologicaltehnologic requirementcerinţă. It's a choicealegere.
23
70496
5413
dar nu e o constrângere tehnologică.
E o opțiune.
01:27
And it's that choicealegere that I want to focusconcentra on,
24
75909
3093
Despre această opțiune vreau să discut,
01:31
because as we migratemigra lethalmortal decision-makingluarea deciziilor
25
79002
2641
pentru că prin transferarea deciziei letale
01:33
from humansoameni to softwaresoftware-ul,
26
81643
3109
de la oameni la software,
01:36
we riskrisc not only takingluare the humanityumanitate out of warrăzboi,
27
84752
3476
nu riscăm doar dispariția oricărei umanități din război,
01:40
but alsode asemenea changingschimbare our socialsocial landscapepeisaj entirelyîn întregime,
28
88228
3526
ci și modificarea integrală a peisajului social,
01:43
fardeparte from the battlefieldcâmp de luptă.
29
91754
2224
departe de câmpul de luptă.
01:45
That's because the way humansoameni resolverezolva conflictconflict
30
93978
4509
Felul în care oamenii rezolvă conflictele
01:50
shapesforme our socialsocial landscapepeisaj.
31
98487
1733
dă formă peisajului social.
01:52
And this has always been the casecaz, throughoutde-a lungul historyistorie.
32
100220
2633
Așa a fost întotdeauna în istorie.
01:54
For exampleexemplu, these were state-of-the-artde ultimă oră weaponsarme systemssisteme
33
102853
2661
De ex., acestea erau sisteme de arme ultramoderne
01:57
in 1400 A.D.
34
105514
2079
în 1400 d.H.
01:59
Now they were bothambii very expensivescump to buildconstrui and maintainmenţine,
35
107593
3144
Construirea și întreținerea lor erau foarte scumpe,
02:02
but with these you could dominatedomina the populacepopulaţia,
36
110737
3240
dar prin ele puteai domina mulțimile,
02:05
and the distributiondistribuire of politicalpolitic powerputere in feudalfeudale societysocietate reflectedreflectate that.
37
113977
3889
și distribuirea puterii politice în societatea feudală.
02:09
PowerPutere was focusedconcentrat at the very toptop.
38
117866
2687
Puterea era concentrată la vârf.
02:12
And what changedschimbat? TechnologicalTehnologice innovationinovaţie.
39
120553
3528
Ce s-a schimbat? Inovația tehnologică.
02:16
GunpowderPraf de puşcă, cannontun.
40
124081
1871
Praf de pușcă, tunuri.
02:17
And prettyfrumos sooncurând, armorarmură and castlescastele were obsoleteînvechit,
41
125952
3817
Armurile și castelele au devenit inutile,
02:21
and it mattereda contat lessMai puțin who you broughtadus to the battlefieldcâmp de luptă
42
129769
2533
iar pe cine aduceai pe câmpul de luptă conta mai puțin
02:24
versusimpotriva how manymulți people you broughtadus to the battlefieldcâmp de luptă.
43
132302
3779
decât câți oameni aduceai.
02:28
And as armiesarmatele grewcrescut in sizemărimea, the nation-statestat național aroseUn trandafir
44
136081
3638
În timp ce armatele creșteau, a apărut statul național,
02:31
as a politicalpolitic and logisticallogistice requirementcerinţă of defenseapărare.
45
139719
3680
ca cerință politică și logistică a apărării.
02:35
And as leadersliderii had to relyse bazează on more of theiral lor populacepopulaţia,
46
143399
2376
Pentru că liderii se bazau din ce în ce mai mult pe populație,
02:37
they begana început to shareacțiune powerputere.
47
145775
1833
au început să împartă puterea.
02:39
RepresentativeReprezentantul governmentGuvern begana început to formformă.
48
147608
2599
A început formarea guvernului reprezentativ.
02:42
So again, the toolsunelte we use to resolverezolva conflictconflict
49
150207
3288
Armele folosite în rezolvarea conflictelor
02:45
shapeformă our socialsocial landscapepeisaj.
50
153495
3304
dau formă peisajului social.
02:48
AutonomousAutonome roboticrobotizate weaponsarme are suchastfel de a toolinstrument,
51
156799
4064
Armele robotice autonome sunt o astfel de unealtă,
02:52
exceptcu exceptia that, by requiringcare necesită very fewpuțini people to go to warrăzboi,
52
160863
5168
dar, incluzând puțini oameni în război,
02:58
they riskrisc re-centralizingRe-centralizarea powerputere into very fewpuțini handsmâini,
53
166031
4840
prezintă riscul recentralizării puterii în mâna câtorva,
03:02
possiblyeventual reversingde mers înapoi a five-centuryal 5-lea trendtendinţă towardspre democracydemocraţie.
54
170871
6515
punând capăt unei tendințe de cinci secole spre democrație.
03:09
Now, I think, knowingcunoaștere this,
55
177386
1757
Știind asta, putem lua pași decisivi
03:11
we can take decisivedecisiv stepspași to preserveconserva our democraticdemocratic institutionsinstituții,
56
179143
4352
pentru a ne păstra instituțiile democratice,
03:15
to do what humansoameni do bestCel mai bun, whichcare is adaptadapta.
57
183495
3979
prin ceea ce oamenii fac cel mai bine, adaptându-se.
03:19
But time is a factorfactor.
58
187474
2005
Dar timpul e un factor.
03:21
SeventyŞaptezeci nationsnațiuni are developingîn curs de dezvoltare remotely-pilotedla distanţă de pilotat
59
189479
2851
Șaptezeci de țări construiesc
03:24
combatluptă dronesdrone of theiral lor ownpropriu,
60
192330
2157
drone de război autonome,
03:26
and as you'llveți see, remotely-pilotedla distanţă de pilotat combatluptă dronesdrone
61
194487
2593
iar dronele pilotate de la distanță, veți vedea,
03:29
are the precursorsprecursori to autonomousautonom roboticrobotizate weaponsarme.
62
197080
4472
sunt precursorii armelor robotice indepedente.
03:33
That's because onceo singura data you've deployeddesfășurată remotely-pilotedla distanţă de pilotat dronesdrone,
63
201552
2767
Odată ce ai trimis în luptă drone pilotate de la distanță,
03:36
there are threeTrei powerfulputernic factorsfactori pushingîmpingerea decision-makingluarea deciziilor
64
204319
3384
există trei factori ce transmit luarea de decizii
03:39
away from humansoameni and on to the weaponarmă platformplatformă itselfîn sine.
65
207703
4600
de la oameni către platforma armată însăși.
03:44
The first of these is the delugepotopul of videovideo that dronesdrone producelegume şi fructe.
66
212303
5259
Primul este mulțimea de video înregistrări colectate.
03:49
For exampleexemplu, in 2004, the U.S. dronetrântor fleetFlota producedprodus
67
217562
3853
În 2004, flota de drone a SUA a capturat pentru analiză
03:53
a grandmare totaltotal of 71 hoursore of videovideo surveillancesupraveghere for analysisanaliză.
68
221415
5312
71 de ore de material video de supraveghere.
03:58
By 2011, this had goneplecat up to 300,000 hoursore,
69
226727
4499
Până în 2011, ajunsese la 300,000 de ore,
04:03
outstrippingmai mare decât humanuman abilityabilitate to reviewrevizuire it all,
70
231226
3149
depășind capacitatea omului de a le urmări,
04:06
but even that numbernumăr is about to go up drasticallydrastic.
71
234375
3664
dar și acest număr e pe cale să crească alarmant.
04:10
The Pentagon'sPentagonului GorgonGorgone StareStare and ArgusArgus programsprograme
72
238039
2575
Programele Gorgon Stare și Argus ale Pentagonului
04:12
will put up to 65 independentlyîn mod independent operatedoperat cameraaparat foto eyesochi
73
240614
3164
vor monta 65 de camere independente
04:15
on eachfiecare dronetrântor platformplatformă,
74
243778
2038
pe fiecare platformă de drone,
04:17
and this would vastlygrozav outstripdepăşi humanuman abilityabilitate to reviewrevizuire it.
75
245816
3303
ceea ce ar depăși cu mult capacitatea umană de a le analiza.
04:21
And that meansmijloace visualvizual intelligenceinteligență softwaresoftware-ul will need
76
249119
2160
Va fi nevoie, deci, de software de urmărire vizuală
04:23
to scanscanda it for itemsarticole of interestinteres.
77
251279
4048
pentru a scana obiectele de interes.
04:27
And that meansmijloace very sooncurând
78
255327
1348
În curând,
04:28
dronesdrone will tell humansoameni what to look at,
79
256675
2747
dronele le vor spune oamenilor ce să privească,
04:31
not the other way around.
80
259422
2497
nu invers.
04:33
But there's a secondal doilea powerfulputernic incentivestimulent pushingîmpingerea
81
261919
2473
Mai există un motiv
04:36
decision-makingluarea deciziilor away from humansoameni and ontope machinesmaşini,
82
264392
3383
pentru cedarea deciziei către mașini,
04:39
and that's electromagneticelectromagnetice jammingbruiaj,
83
267775
2872
și anume blocajul electromagnetic,
04:42
severingruperea the connectionconexiune betweenîntre the dronetrântor
84
270647
2236
ce distruge legătura dintre dronă
04:44
and its operatoroperatorul.
85
272883
2814
și operatorul ei.
04:47
Now we saw an exampleexemplu of this in 2011
86
275697
2618
Avem un astfel de exemplu din 2011
04:50
when an AmericanAmerican RQ-RQ-170 SentinelSantinelă dronetrântor
87
278315
2956
când o dronă American RQ-170 Sentinel
04:53
got a bitpic confusedconfuz over IranIran duedatorat to a GPSGPS spoofingfalsificarea attackatac,
88
281271
4307
a fost derutată din cauza unui atac GPS în Iran,
04:57
but any remotely-pilotedla distanţă de pilotat dronetrântor is susceptiblesusceptibil to this typetip of attackatac,
89
285578
5114
dar orice dronă pilotată teleghidat e susceptibilă,
05:02
and that meansmijloace dronesdrone
90
290692
2052
ceea ce face necesar ca dronele
05:04
will have to shoulderumăr more decision-makingluarea deciziilor.
91
292744
3620
să aibă mai multă putere de a lua decizii.
05:08
They'llEle vor know theiral lor missionmisiune objectiveobiectiv,
92
296364
3043
Vor ști obiectivul misiunii
05:11
and they'llei vor reactreacţiona to newnou circumstancesîmprejurări withoutfără humanuman guidanceorientare.
93
299407
4845
și vor reacționa la împrejurări noi fără ajutor uman.
05:16
They'llEle vor ignoreignora externalextern radioradio signalssemnalele
94
304252
2581
Vor ignora semnalele radio externe
05:18
and sendtrimite very fewpuțini of theiral lor ownpropriu.
95
306833
2330
și vor trimite puține semnale, la rândul lor.
05:21
WhichCare bringsaduce us to, really, the thirdal treilea
96
309163
2006
Asta ne aduce la al treilea
05:23
and mostcel mai powerfulputernic incentivestimulent pushingîmpingerea decision-makingluarea deciziilor
97
311169
3862
și cel mai puternic motiv de transferare
05:27
away from humansoameni and ontope weaponsarme:
98
315031
3342
a deciziei către arme:
05:30
plausibleplauzibil deniabilitynegare.
99
318373
3293
posibilitatea de a nega plauzibil.
05:33
Now we livetrăi in a globalglobal economyeconomie.
100
321666
2887
Trăim într-o economie globală.
05:36
High-techHigh-tech manufacturingde fabricație is occurringcare apar on mostcel mai continentscontinente.
101
324553
4334
Fabricarea de înaltă tehnologie are loc pe mai toate continentele.
05:40
CyberCyber espionagespionaj is spiritingspiriting away advancedavansat designsmodele
102
328887
2914
Spionajul cibernetic duce designuri avansate
05:43
to partspărți unknownnecunoscut,
103
331801
1886
în locuri necunoscute,
05:45
and in that environmentmediu inconjurator, it is very likelyprobabil
104
333687
2014
iar în acest cadru, e foarte probabil
05:47
that a successfulde succes dronetrântor designproiecta will be knockedbătut off in contractcontracta factoriesfabrici,
105
335701
4734
ca un design de succes pentru o dronă să fie furat dintr-o fabrică
05:52
proliferateproliferează in the graygri marketpiaţă.
106
340435
2170
și să fie larg folosit pe piața neagră.
05:54
And in that situationsituatie, siftingcernerea throughprin the wreckageepava
107
342605
2460
Astfel, analizând rămășițele unui atac
05:57
of a suicidesinucidere dronetrântor attackatac, it will be very difficultdificil to say
108
345065
2960
sinucigaș cu dronă, va fi greu
06:00
who senttrimis that weaponarmă.
109
348025
4400
să determini cine a trimis arma.
06:04
This raisesridică the very realreal possibilityposibilitate
110
352425
2800
Devine astfel realitate posibilitatea
06:07
of anonymousanonim warrăzboi.
111
355225
2935
războiului anonim.
06:10
This could tiltînclinare the geopoliticalgeopolitică balanceechilibru on its headcap,
112
358160
2614
Asta ar putea da peste cap echilibrul geopolitic,
06:12
make it very difficultdificil for a nationnaţiune to turnviraj its firepowerputere de foc
113
360774
3491
ar putea crea greutăți unei națiuni
în cazul unui răspuns armat
06:16
againstîmpotriva an attackerAtacatorul, and that could shiftschimb the balanceechilibru
114
364265
2848
împotriva unui atacator, înclinând balanța
06:19
in the 21stSf centurysecol away from defenseapărare and towardspre offensesupărare.
115
367113
3764
către ofensivă și nu defensivă în secolul XXI.
06:22
It could make militarymilitar actionacțiune a viableviabil optionopțiune
116
370877
3124
Ar putea transforma acțiunea militară într-o opțiune viabilă
06:26
not just for smallmic nationsnațiuni,
117
374001
2288
nu doar pentru micile state,
06:28
but criminalpenal organizationsorganizații, privateprivat enterpriseIntreprindere,
118
376289
2545
dar și pentru organizații criminale, afaceri private,
06:30
even powerfulputernic individualspersoane fizice.
119
378834
2479
chiar pentru indivizi puternici.
06:33
It could createcrea a landscapepeisaj of rivalrival warlordsWarlords
120
381313
3328
Ar putea crea o lume a dictatorilor militari rivali,
06:36
underminingsubminarea ruleregulă of lawlege and civilcivil societysocietate.
121
384641
3680
subminând statul de drept și societatea civilă.
06:40
Now if responsibilityresponsabilitate and transparencytransparenţă
122
388321
3616
Dacă responsabilitatea și transparența
06:43
are two of the cornerstonespietrele de temelie of representativereprezentant governmentGuvern,
123
391937
2384
sunt baza guvernului reprezentativ,
06:46
autonomousautonom roboticrobotizate weaponsarme could underminesubmina bothambii.
124
394321
4320
armele robotice autonome le-ar putea submina.
06:50
Now you mightar putea be thinkinggândire that
125
398641
1546
Puteți crede
06:52
citizenscetățeni of high-techhigh tech nationsnațiuni
126
400187
2246
că cetățenii națiunilor cu înaltă tehnologie
06:54
would have the advantageavantaj in any roboticrobotizate warrăzboi,
127
402433
2703
ar deține avantajul în orice război robotic,
06:57
that citizenscetățeni of those nationsnațiuni would be lessMai puțin vulnerablevulnerabil,
128
405136
3633
că cetățenii acestor state ar fi mai puțin vulnerabili,
07:00
particularlyîn special againstîmpotriva developingîn curs de dezvoltare nationsnațiuni.
129
408769
4288
în special împotriva țărilor în curs de dezvoltare.
07:05
But I think the truthadevăr is the exactcorect oppositeopus.
130
413057
3524
Este exact invers, însă.
07:08
I think citizenscetățeni of high-techhigh tech societiessocietățile
131
416581
2251
Cred că cetățenii societăților cu înaltă tehnologie
07:10
are more vulnerablevulnerabil to roboticrobotizate weaponsarme,
132
418832
3729
sunt mai vulnerabili armelor robotice
07:14
and the reasonmotiv can be summedînsumate up in one wordcuvânt: datadate.
133
422561
4465
pentru un singur motiv: informația.
07:19
DataDate powersputeri high-techhigh tech societiessocietățile.
134
427026
3481
Informația stă la baza societățlor de înaltă tehnologie.
07:22
CellCelulă phonetelefon geolocationLocalizare geografică, telecomTelecom metadatametadate,
135
430507
3190
Geolocația telefoanelor mobile, metadata din telecomunicații,
07:25
socialsocial mediamass-media, emaile-mail, texttext, financialfinanciar transactiontranzacţie datadate,
136
433697
3472
social media, email, SMS, date ale tranzacțiilor financiare,
07:29
transportationtransport datadate, it's a wealthbogatie of real-timetimp real datadate
137
437169
3532
date despre transport, o grămadă de informații în timp real
07:32
on the movementsmișcări and socialsocial interactionsinteracțiuni of people.
138
440701
3373
despre mișcările și interacțiunile sociale ale oamenilor.
07:36
In shortmic de statura, we are more visiblevizibil to machinesmaşini
139
444074
3775
Pe scurt, suntem mai vizibili pentru mașini
07:39
than any people in historyistorie,
140
447849
2242
decât orice alți oameni din istorie,
07:42
and this perfectlyperfect suitsti se potriveste the targetingdirecționare needsare nevoie of autonomousautonom weaponsarme.
141
450091
5616
ceea ce se potrivește perfect stabilirii țintei armelor independente.
07:47
What you're looking at here
142
455707
1738
Ceea ce vedeți
07:49
is a linklegătură analysisanaliză mapHartă of a socialsocial groupgrup.
143
457445
3246
e o hartă a legăturilor dintr-un grup social.
07:52
LinesLinii indicateindica socialsocial connectednessconectare betweenîntre individualspersoane fizice.
144
460691
3634
Liniile reprezintă conexiunea dintre indivizi.
07:56
And these typestipuri of mapshărţi can be automaticallyautomat generatedgenerate
145
464325
2880
Astfel de hărți pot fi generate automat
07:59
basedbazat on the datadate trailtraseu modernmodern people leavepărăsi behindin spate.
146
467205
4715
pe baza amprentelor informaționale lăsate de omul modern.
08:03
Now it's typicallytipic used to marketpiaţă goodsbunuri and servicesServicii
147
471920
2477
Se folosește, de obicei, pentru a vinde bunuri și servicii
08:06
to targetedvizate demographicsdemografice, but it's a dual-useproduse cu dublă utilizare technologytehnologie,
148
474397
4416
către grupuri-țintă, dar e o tehnologie cu dublă folosință,
08:10
because targetingdirecționare is used in anothero alta contextcontext.
149
478813
3360
pentru că stabilirea de ținte se face în alt context.
08:14
NoticeNotificare that certainanumit individualspersoane fizice are highlightedevidențiat.
150
482173
2560
Observați că anumiți oameni sunt marcați.
08:16
These are the hubshub-uri of socialsocial networksrețele.
151
484733
3280
Aceștia sunt portaluri ale rețelelor de socializare.
08:20
These are organizersOrganizatorii, opinion-makersFormatorii de opinie, leadersliderii,
152
488013
3590
Sunt organizatori, formatori de opinie, lideri
08:23
and these people alsode asemenea can be automaticallyautomat identifiedidentificat
153
491603
2682
și pot fi identificați automat
08:26
from theiral lor communicationcomunicare patternsmodele.
154
494285
2382
prin modelul lor de comunicare.
08:28
Now, if you're a marketermarketing, you mightar putea then targetţintă them
155
496667
2146
Dacă lucrezi în marketing, le-ai putea oferi mostre
08:30
with productprodus sampleseșantioane, try to spreadrăspândire your brandmarca
156
498813
2543
pentru a lărgi renumele firmei
08:33
throughprin theiral lor socialsocial groupgrup.
157
501356
2829
în grupul lor social.
08:36
But if you're a repressiverepresiv governmentGuvern
158
504185
1953
Dar, dacă ești un guvern represiv ce caută
08:38
searchingin cautarea for politicalpolitic enemiesinamici, you mightar putea insteadin schimb removeelimina them,
159
506138
4810
inamici politici, ai putea încerca să îi elimini.
08:42
eliminateînlătura them, disruptdistruge theiral lor socialsocial groupgrup,
160
510948
2760
Elimină-i pe ei, distruge-le grupul social,
08:45
and those who remainrămâne behindin spate losepierde socialsocial cohesioncoeziune
161
513708
3169
iar cei ce rămân își pierd coeziunea socială
08:48
and organizationorganizare.
162
516877
2621
și organizarea.
08:51
Now in a worldlume of cheapieftin, proliferatingproliferative roboticrobotizate weaponsarme,
163
519498
3324
Într-o lume în care armele robotice ieftine se înmulțesc,
08:54
bordersfrontiere would offeroferi very little protectionprotecţie
164
522822
2635
granițele oferă foarte puțină protecție
08:57
to criticscritici of distantîndepărtat governmentsguvernele
165
525457
1946
criticilor guvernelor din străinătate
08:59
or trans-nationaltrans-naţionale criminalpenal organizationsorganizații.
166
527403
3646
sau organizațiilor criminale transnaționale.
09:03
PopularPopulare movementsmișcări agitatingtulburând for changeSchimbare
167
531049
3493
Mișcările populare pentru schimbare
09:06
could be detecteddetectat earlydin timp and theiral lor leadersliderii eliminatedeliminat
168
534542
3609
ar fi identificate rapide, iar liderul lor eliminat,
09:10
before theiral lor ideasidei achieveobține criticalcritic massmasa.
169
538151
2911
înainte ca ideile lor să devină cunoscute larg.
09:13
And ideasidei achievingrealizarea criticalcritic massmasa
170
541062
2591
Iar un public larg pentru idei
09:15
is what politicalpolitic activismActivism in popularpopular governmentGuvern is all about.
171
543653
3936
e elementul central al activismului politic în guvernul popular.
09:19
AnonymousAnonim lethalmortal weaponsarme could make lethalmortal actionacțiune
172
547589
3997
Armele letale anonime ar putea face ca acțiuni letale
09:23
an easyuşor choicealegere for all sortsfelul of competingconcurent interestsinterese.
173
551586
3782
să devină o alegere ușoară în orice conflict de interese.
09:27
And this would put a chillChill on freegratuit speechvorbire
174
555368
3734
Iar asta ar îngheța libertatea de exprimare
09:31
and popularpopular politicalpolitic actionacțiune, the very heartinimă of democracydemocraţie.
175
559102
5308
și acțiunea politică populară, însăși inima democrației.
09:36
And this is why we need an internationalinternaţional treatyTratatul
176
564410
2914
De aceea e nevoie de un tratat internațional
09:39
on roboticrobotizate weaponsarme, and in particularspecial a globalglobal baninterzice
177
567324
3540
asupra armelor robotice și, mai ales, o interdicție globală
09:42
on the developmentdezvoltare and deploymentimplementare of killerucigaş robotsroboți.
178
570864
3908
asupra dezvoltării și folosirii roboților ucigași.
09:46
Now we alreadydeja have internationalinternaţional treatiestratatele
179
574772
3254
Avem deja tratate internaționale despre
09:50
on nuclearnuclear and biologicalbiologic weaponsarme, and, while imperfectimperfect,
180
578026
3386
arme nucleare și biologice care, deși imperfecte,
09:53
these have largelyîn mare măsură workeda lucrat.
181
581412
2288
funcționează, în mare parte.
09:55
But roboticrobotizate weaponsarme mightar putea be everyfiecare bitpic as dangerouspericulos,
182
583700
3768
Armele robotice pot fi la fel de periculoase,
09:59
because they will almostaproape certainlycu siguranță be used,
183
587468
3288
pentru că folosirea lor e aproape certă
10:02
and they would alsode asemenea be corrosivecorozive to our democraticdemocratic institutionsinstituții.
184
590756
5027
și ar fi dăunătoare instituțiilor noastre democratice.
10:07
Now in NovemberNoiembrie 2012 the U.S. DepartmentDepartamentul of DefenseApărare
185
595783
3468
În noiembrie 2012, Departamentul de Apărare SUA
10:11
issuedemis a directiveDirectiva requiringcare necesită
186
599251
2458
a lansat o directivă care cere
10:13
a humanuman beingfiind be presentprezent in all lethalmortal decisionsdeciziile.
187
601709
4519
prezența unui om la luarea oricărei decizii letale.
10:18
This temporarilytemporar effectivelyîn mod eficient bannedinterzis autonomousautonom weaponsarme in the U.S. militarymilitar,
188
606228
4776
Asta a dus la blocarea temporară a armelor autonome în armata SUA,
10:23
but that directiveDirectiva needsare nevoie to be madefăcut permanentpermanent.
189
611004
3753
dar directiva trebuie să devină permanentă.
10:26
And it could seta stabilit the stageetapă for globalglobal actionacțiune.
190
614757
4376
În plus, ar putea să dea startul unei acțiuni globale.
10:31
Because we need an internationalinternaţional legallegal frameworkcadru
191
619133
3845
Pentru că avem nevoie de un cadru legal internațional
10:34
for roboticrobotizate weaponsarme.
192
622978
2138
pentru arme robotice.
10:37
And we need it now, before there's a devastatingdevastator attackatac
193
625116
2928
E nevoie de el acum, înaintea unui atac devastator
10:40
or a terroristteroriste incidentincident that causescauze nationsnațiuni of the worldlume
194
628044
3152
sau a unui incident terorist care să facă întreaga lume
10:43
to rushte grabesti to adoptadopta these weaponsarme
195
631196
1924
să adopte rapid aceste arme
10:45
before thinkinggândire throughprin the consequencesconsecințe.
196
633120
3771
înainte de a se gândi la consecințe.
10:48
AutonomousAutonome roboticrobotizate weaponsarme concentrateconcentra too much powerputere
197
636891
2981
Armele robotice autonome concentrează prea multă putere
10:51
in too fewpuțini handsmâini, and they would imperilpune în pericol democracydemocraţie itselfîn sine.
198
639872
6283
în mâinile a prea puținor oameni,
periclitând democrația.
10:58
Now, don't get me wronggresit, I think there are tonstone
199
646155
2686
Nu mă înțelegeți greșit, cred că-s o groază
11:00
of great usesutilizări for unarmedneînarmat civiliancivil dronesdrone:
200
648841
2618
de utilizări minunate pentru dronele civile neînarmate:
11:03
environmentalde mediu monitoringmonitorizarea, searchcăutare and rescuesalvare, logisticsLogistica.
201
651459
3939
monitorizarea mediului, căutări și operațiuni de salvare, logistică.
11:07
If we have an internationalinternaţional treatyTratatul on roboticrobotizate weaponsarme,
202
655398
2826
Cu un tratat internațional asupra armelor robotice,
11:10
how do we gaincâştig the benefitsbeneficii of autonomousautonom dronesdrone
203
658224
3587
cum exploatăm beneficiile dronelor și a vehiculelor
11:13
and vehiclesvehicule while still protectingprotectoare ourselvesnoi insine
204
661811
2648
autonome, protejându-ne în același timp
11:16
againstîmpotriva illegalilegal roboticrobotizate weaponsarme?
205
664459
3980
de armele robotice ilegale?
11:20
I think the secretsecret will be transparencytransparenţă.
206
668439
4741
Cred că secretul e transparența.
11:25
No robotrobot should have an expectationaşteptări of privacyConfidentialitate
207
673180
3013
Niciun robot nu ar trebui să fie privat
11:28
in a publicpublic placeloc.
208
676193
3451
într-un loc public.
11:31
(ApplauseAplauze)
209
679644
5048
(Aplauze)
11:36
EachFiecare robotrobot and dronetrântor should have
210
684692
2045
Fiecare robot și fiecare dronă ar trebui să aibă
11:38
a cryptographicallycriptografic signedsemnat I.D. burnedars in at the factoryfabrică
211
686737
2883
o identificare semnată criptografic încă din fabrică,
11:41
that can be used to trackurmări its movementcirculaţie throughprin publicpublic spacesspații.
212
689620
2923
folosită pentru a-i urmări mișcările în spațiul public.
11:44
We have licenselicență platesplăci on carsautoturisme, tailcoadă numbersnumerele on aircraftavioane.
213
692543
3381
Avem plăcuțe de înmatriculare pe mașini, pe avioane.
11:47
This is no differentdiferit.
214
695924
1841
Nu e nicio diferență.
11:49
And everyfiecare citizencetăţean should be ablecapabil to downloadDescarca an appaplicaţia
215
697765
2012
Fiecare cetățean ar trebui să poată descărca o aplicație
11:51
that showsspectacole the populationpopulație of dronesdrone and autonomousautonom vehiclesvehicule
216
699777
3125
care să îi arate populația de drone și vehicule autonome
11:54
movingin miscare throughprin publicpublic spacesspații around them,
217
702902
2429
deplasându-se în spații publice în jurul lor,
11:57
bothambii right now and historicallyistoricește.
218
705331
2733
acum și în viitor.
12:00
And civiccivic leadersliderii should deployimplementa sensorssenzori and civiccivic dronesdrone
219
708064
3548
Iar liderii municipali ar trebui să trimită senzori și drone civice
12:03
to detectdetecta rogueRogue dronesdrone,
220
711612
2344
pentru detectarea dronelor ilegale,
12:05
and insteadin schimb of sendingtrimitere killerucigaş dronesdrone of theiral lor ownpropriu up to shoottrage them down,
221
713956
3176
dar nu să trimită drone ucigașe să le distrugă,
12:09
they should notifynotifica humansoameni to theiral lor presenceprezenţă.
222
717132
2992
ci să anunțe oamenii despre prezența lor.
12:12
And in certainanumit very high-securityînaltă securitate areaszone,
223
720124
2606
Iar în zone de înaltă securitate,
12:14
perhapspoate civiccivic dronesdrone would snarecursă them
224
722730
1909
poate că dronele civile le-ar prinde
12:16
and dragtrage them off to a bombbombă disposaleliminare facilityfacilitate.
225
724639
2841
și le-ar duce către o locație de dezactivare a bombelor.
12:19
But noticeînștiințare, this is more an immuneimun systemsistem
226
727480
3027
Observați, e mai mult un sistem de imunitate,
12:22
than a weaponsarme systemsistem.
227
730507
1321
decât unul armat.
12:23
It would allowpermite us to availfolos ourselvesnoi insine of the use
228
731828
2592
Ne-ar permite să ne folosim de
12:26
of autonomousautonom vehiclesvehicule and dronesdrone
229
734420
2032
vehiculele și dronele autonome,
12:28
while still preservingconservarea our opendeschis, civilcivil societysocietate.
230
736452
4295
fără a ne pierde societatea civilă transparentă.
12:32
We musttrebuie sa baninterzice the deploymentimplementare and developmentdezvoltare
231
740747
2999
Trebuie interzisă folosirea și crearea
12:35
of killerucigaş robotsroboți.
232
743746
1862
de roboți ucigași.
12:37
Let's not succumbceda to the temptationispita to automateautomatiza warrăzboi.
233
745608
4850
Să nu cedăm tentației de a automatiza războiul.
12:42
AutocraticAutocrat governmentsguvernele and criminalpenal organizationsorganizații
234
750458
2718
Guvernele autocrate și organizațiile criminale
12:45
undoubtedlyfără îndoială will, but let's not joina adera them.
235
753176
2956
o vor face, dar noi să nu ne alăturăm.
12:48
AutonomousAutonome roboticrobotizate weaponsarme
236
756132
1891
Armele robotice autonome
12:50
would concentrateconcentra too much powerputere
237
758023
2051
ar concentra prea multă putere
12:52
in too fewpuțini unseennevăzut handsmâini,
238
760074
2482
în mâinile a prea puțini oameni,
12:54
and that would be corrosivecorozive to representativereprezentant governmentGuvern.
239
762556
3255
iar asta ar degrada guvernul reprezentativ.
12:57
Let's make sure, for democraciesdemocraţiile at leastcel mai puţin,
240
765811
2961
Să ne asigurăm, măcar de dragul democrației,
13:00
killerucigaş robotsroboți remainrămâne fictionfictiune.
241
768772
2604
că roboții ucigași vor rămâne ficțiune.
13:03
Thank you.
242
771376
1110
Mulțumesc.
13:04
(ApplauseAplauze)
243
772486
4565
(Aplauze)
13:09
Thank you. (ApplauseAplauze)
244
777051
4616
Mulțumesc. (Aplauze)
Translated by Andra Zamosteanu
Reviewed by Ariana Bleau Lugo

▲Back to top

ABOUT THE SPEAKER
Daniel Suarez - Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios.

Why you should listen

While working as a software developer, Daniel Suarez self-published Daemon, a cyber-thriller depicting a future where society is radically reshaped by disruptive technologies. It struck a chord -- and so did the sequel, Freedom (TM) -- rocketing Suarez into the pantheon of sci-fi prophets.

In his 2012 novel Kill Decision, Suarez digs into the consequences of technology that’s here to stay: autonomous bots and drones programmed to be lethal. Suarez argues that as we cede more control to software, we gamble with the very essence of democracy itself. How can we establish sane guidelines for technology that could easily outstrip our control?

More profile about the speaker
Daniel Suarez | Speaker | TED.com