ABOUT THE SPEAKER
Daniel Suarez - Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios.

Why you should listen

While working as a software developer, Daniel Suarez self-published Daemon, a cyber-thriller depicting a future where society is radically reshaped by disruptive technologies. It struck a chord -- and so did the sequel, Freedom (TM) -- rocketing Suarez into the pantheon of sci-fi prophets.

In his 2012 novel Kill Decision, Suarez digs into the consequences of technology that’s here to stay: autonomous bots and drones programmed to be lethal. Suarez argues that as we cede more control to software, we gamble with the very essence of democracy itself. How can we establish sane guidelines for technology that could easily outstrip our control?

More profile about the speaker
Daniel Suarez | Speaker | TED.com
TEDGlobal 2013

Daniel Suarez: The kill decision shouldn't belong to a robot

Daniel Suarez: La decisión de matar no la debe tomar un robot

Filmed:
1,946,706 views

Como novelista, Daniel Suarez cuenta distopías del futuro. Pero en el escenario de TED Global, nos habla de una situación de la vida real de la que todos necesitamos saber más: el aumento de las armas robóticas autónomas de guerra. Los aviones no tripulados avanzados o 'drones', las armas automáticas y las herramientas de inteligencia artificial, sugiere, podrían tomar la decisión de hacer la guerra sin la intervención de los seres humanos.
- Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios. Full bio

Double-click the English transcript below to play the video.

00:12
I writeescribir fictionficción sci-ficiencia ficción thrillersthrillers,
0
691
3158
Escribo novelas de suspenso
de ciencia ficción,
00:15
so if I say "killerasesino robotsrobots,"
1
3849
2193
así que si digo
"robots asesinos",
00:18
you'dtu hubieras probablyprobablemente think something like this.
2
6042
2361
probablemente podrían
pensar en algo así.
00:20
But I'm actuallyactualmente not here to talk about fictionficción.
3
8403
2555
Pero en realidad no estoy
aquí para hablar de ficción.
00:22
I'm here to talk about very realreal killerasesino robotsrobots,
4
10958
2948
Estoy aquí para hablar de
robots asesinos muy reales,
00:25
autonomousautónomo combatcombate dronesdrones.
5
13906
3122
"drones" de combate autónomos.
00:29
Now, I'm not referringreferente to PredatorDepredador and Reapersegador dronesdrones,
6
17028
3627
Y no me refiero a robots
depredadores ni exterminadores,
00:32
whichcual have a humanhumano makingfabricación targetingtargeting decisionsdecisiones.
7
20655
3260
que tienen a un humano tomando
decisiones de sus objetivos.
00:35
I'm talkinghablando about fullycompletamente autonomousautónomo roboticrobótico weaponsarmas
8
23915
3129
Estoy hablando de armas
robóticas totalmente autónomas
00:39
that make lethalletal decisionsdecisiones about humanhumano beingsseres
9
27044
2654
que toman decisiones
letales sobre seres humanos
00:41
all on theirsu ownpropio.
10
29698
2417
por su propia cuenta.
00:44
There's actuallyactualmente a technicaltécnico termtérmino for this: lethalletal autonomyautonomía.
11
32115
4000
De hecho existe un término
técnico para esto: autonomía letal.
00:48
Now, lethallyletalmente autonomousautónomo killerasesino robotsrobots
12
36115
2856
Ahora, los robots asesinos
letales autónomos
00:50
would take manymuchos formsformularios -- flyingvolador, drivingconducción,
13
38971
3069
pueden actuar de muchas
formas: volando, conduciendo,
00:54
or just lyingacostado in wait.
14
42040
2746
o simplemente esperando al acecho.
00:56
And actuallyactualmente, they're very quicklycon rapidez becomingdevenir a realityrealidad.
15
44786
3109
Y la verdad es que se están convirtiendo
rápidamente en una realidad.
00:59
These are two automaticautomático sniperfrancotirador stationsestaciones
16
47895
2484
Estas son dos estaciones
automáticas de disparo
01:02
currentlyactualmente deployeddesplegada in the DMZDMZ betweenEntre Northnorte and SouthSur KoreaCorea.
17
50379
4137
desplegadas actualmente en la zona
desmilitarizada entre Corea del Norte y del Sur
01:06
BothAmbos of these machinesmáquinas are capablecapaz of automaticallyautomáticamente
18
54516
2171
Ambas máquinas son
capaces de identificar
01:08
identifyingidentificando a humanhumano targetobjetivo and firingdisparo on it,
19
56687
3524
automáticamente un objetivo
humano y disparar contra él,
01:12
the one on the left at a distancedistancia of over a kilometerkilómetro.
20
60211
4324
la de la izquierda a una distancia
de más de un kilómetro.
01:16
Now, in bothambos casescasos, there's still a humanhumano in the looplazo
21
64535
3589
En ambos casos, todavía hay
un ser humano en el proceso
01:20
to make that lethalletal firingdisparo decisiondecisión,
22
68124
2372
para tomar esa decisión
de disparo letal
01:22
but it's not a technologicaltecnológico requirementrequisito. It's a choiceelección.
23
70496
5413
pero no es un requisito
tecnológico, es una opción.
01:27
And it's that choiceelección that I want to focusatención on,
24
75909
3093
Y es en esa opción en
la que quiero centrarme,
01:31
because as we migrateemigrar lethalletal decision-makingToma de decisiones
25
79002
2641
porque cuando desplazamos
la toma de decisiones letales
01:33
from humanshumanos to softwaresoftware,
26
81643
3109
de los humanos al software,
01:36
we riskriesgo not only takingtomando the humanityhumanidad out of warguerra,
27
84752
3476
corremos el riesgo no sólo de
sacar a la humanidad de la guerra,
01:40
but alsoademás changingcambiando our socialsocial landscapepaisaje entirelyenteramente,
28
88228
3526
sino también el de cambiar
nuestro panorama social completamente,
01:43
farlejos from the battlefieldcampo de batalla.
29
91754
2224
lejos del campo de batalla.
01:45
That's because the way humanshumanos resolveresolver conflictconflicto
30
93978
4509
Eso es porque la manera en que
los humanos resolvemos los conflictos
01:50
shapesformas our socialsocial landscapepaisaje.
31
98487
1733
moldea nuestro panorama social.
01:52
And this has always been the casecaso, throughouten todo historyhistoria.
32
100220
2633
Y así ha sido siempre
a lo largo de la historia.
01:54
For exampleejemplo, these were state-of-the-artlo último weaponsarmas systemssistemas
33
102853
2661
Por ejemplo, estos eran los sistemas
de armamento más avanzados
01:57
in 1400 A.D.
34
105514
2079
en 1400 D.C.
01:59
Now they were bothambos very expensivecostoso to buildconstruir and maintainmantener,
35
107593
3144
El costo de la construcción y el mantenimiento
de ambos era muy elevados,
02:02
but with these you could dominatedominar the populacepopulacho,
36
110737
3240
pero con ellos se podía
dominar a la población,
02:05
and the distributiondistribución of politicalpolítico powerpoder in feudalfeudal societysociedad reflectedreflejado that.
37
113977
3889
y eso se reflejaba en la distribución
del poder político en la sociedad feudal.
02:09
PowerPoder was focusedcentrado at the very topparte superior.
38
117866
2687
El poder ocupó un lugar primordial.
02:12
And what changedcambiado? TechnologicalTecnológico innovationinnovación.
39
120553
3528
Y ¿qué cambió?
La innovación tecnológica.
02:16
GunpowderPólvora, cannoncañón.
40
124081
1871
Pólvora, cañón.
02:17
And prettybonita soonpronto, armorarmadura and castlescastillos were obsoleteobsoleto,
41
125952
3817
Y muy pronto, la armadura y
los castillos fueron obsoletos,
02:21
and it matteredimportado lessMenos who you broughttrajo to the battlefieldcampo de batalla
42
129769
2533
e importó menos a quién
se traía al campo de batalla
02:24
versusversus how manymuchos people you broughttrajo to the battlefieldcampo de batalla.
43
132302
3779
versus cuánta gente se traía
al campo de batalla.
02:28
And as armiesejércitos grewcreció in sizetamaño, the nation-stateEstado nacional arosesurgió
44
136081
3638
Y conforme los ejércitos crecieron
en tamaño, los Estado-naciones surgieron
02:31
as a politicalpolítico and logisticallogístico requirementrequisito of defensedefensa.
45
139719
3680
como un requisito político
y logístico de defensa.
02:35
And as leaderslíderes had to relyconfiar on more of theirsu populacepopulacho,
46
143399
2376
Y conforme los líderes tuvieron
que depender más de su población,
02:37
they beganempezó to sharecompartir powerpoder.
47
145775
1833
empezaron a compartir el poder.
02:39
RepresentativeRepresentante governmentgobierno beganempezó to formformar.
48
147608
2599
Se comenzó a formar
el gobierno representativo.
02:42
So again, the toolsherramientas we use to resolveresolver conflictconflicto
49
150207
3288
Repito, las herramientas que
utilizamos para resolver conflictos
02:45
shapeforma our socialsocial landscapepaisaje.
50
153495
3304
dan forma a nuestro panorama social.
02:48
AutonomousAutónomo roboticrobótico weaponsarmas are suchtal a toolherramienta,
51
156799
4064
Las armas robóticas autónomas
son esas herramientas,
02:52
exceptexcepto that, by requiringrequerir very fewpocos people to go to warguerra,
52
160863
5168
salvo que, al exigir que muy pocas
personas vayan a la guerra,
02:58
they riskriesgo re-centralizingvolver a centralizar powerpoder into very fewpocos handsmanos,
53
166031
4840
se corre el riesgo de re-centralizar
el poder en muy pocas manos,
03:02
possiblyposiblemente reversingrevertir a five-centurycinco siglos trendtendencia towardhacia democracydemocracia.
54
170871
6515
posiblemente revirtiendo una tendencia
de cinco siglos hacia la democracia.
03:09
Now, I think, knowingconocimiento this,
55
177386
1757
Creo que, sabiendo esto,
03:11
we can take decisivedecisivo stepspasos to preservepreservar our democraticdemocrático institutionsinstituciones,
56
179143
4352
podemos tomar medidas decisivas para
preservar nuestras instituciones democráticas,
03:15
to do what humanshumanos do bestmejor, whichcual is adaptadaptar.
57
183495
3979
para hacer lo que los seres humanos
saben hacer mejor, que es adaptarse.
03:19
But time is a factorfactor.
58
187474
2005
Pero el tiempo es un factor.
03:21
SeventySetenta nationsnaciones are developingdesarrollando remotely-pilotedremotamente piloteado
59
189479
2851
Setenta naciones están
desarrollando sus propios robots
03:24
combatcombate dronesdrones of theirsu ownpropio,
60
192330
2157
de combate controlados a distancia
03:26
and as you'lltu vas a see, remotely-pilotedremotamente piloteado combatcombate dronesdrones
61
194487
2593
y como veremos, los drones de
combate controlados remotamente
03:29
are the precursorsprecursores to autonomousautónomo roboticrobótico weaponsarmas.
62
197080
4472
son los precursores de
las armas robóticas autónomas.
03:33
That's because onceuna vez you've deployeddesplegada remotely-pilotedremotamente piloteado dronesdrones,
63
201552
2767
Eso es porque una vez se han desplegado
drones piloteados remotamente
03:36
there are threeTres powerfulpoderoso factorsfactores pushingemprendedor decision-makingToma de decisiones
64
204319
3384
hay tres factores poderosos que
influyen en la toma de decisiones
03:39
away from humanshumanos and on to the weaponarma platformplataforma itselfsí mismo.
65
207703
4600
lejos de los humanos y en
la misma plataforma del arma.
03:44
The first of these is the delugediluvio of videovídeo that dronesdrones produceProduce.
66
212303
5259
El primero de ellos es el diluvio
de vídeos que producen los robots.
03:49
For exampleejemplo, in 2004, the U.S. dronezumbido fleetflota producedproducido
67
217562
3853
Por ejemplo, en 2004, la flota de
drones de los Estados Unidos produjo
03:53
a grandgrandioso totaltotal of 71 hourshoras of videovídeo surveillancevigilancia for analysisanálisis.
68
221415
5312
un total de 71 horas de vigilancia
con video para el análisis.
03:58
By 2011, this had goneido up to 300,000 hourshoras,
69
226727
4499
En el 2011, ésta se había
elevado a 300 mil horas,
04:03
outstrippingsuperando humanhumano abilitycapacidad to reviewrevisión it all,
70
231226
3149
superando la capacidad
humana para revisarla toda,
04:06
but even that numbernúmero is about to go up drasticallydrásticamente.
71
234375
3664
y aun ese número está a punto
de subir drásticamente.
04:10
The Pentagon'sPentágono GorgonGorgona StareMirar fijamente and ArgusArgos programsprogramas
72
238039
2575
El Gorgon Stare y los programas
Argus del Pentágono
04:12
will put up to 65 independentlyindependientemente operatedoperado cameracámara eyesojos
73
240614
3164
pondrán hasta 65 cámaras que
operan independientemente
04:15
on eachcada dronezumbido platformplataforma,
74
243778
2038
en cada plataforma de los drones,
04:17
and this would vastlyvastamente outstripsuperar humanhumano abilitycapacidad to reviewrevisión it.
75
245816
3303
y esto superaría enormemente
la capacidad humana para revisarlas.
04:21
And that meansmedio visualvisual intelligenceinteligencia softwaresoftware will need
76
249119
2160
Y eso significa que se necesitará
software de inteligencia visual
04:23
to scanescanear it for itemsartículos of interestinteresar.
77
251279
4048
para escanear elementos de interés.
04:27
And that meansmedio very soonpronto
78
255327
1348
Y eso significa que muy pronto
04:28
dronesdrones will tell humanshumanos what to look at,
79
256675
2747
los drones dirán a
los humanos qué mirar,
04:31
not the other way around.
80
259422
2497
y no al revés.
04:33
But there's a secondsegundo powerfulpoderoso incentiveincentivo pushingemprendedor
81
261919
2473
Pero hay un segundo incentivo
poderoso que aleja
04:36
decision-makingToma de decisiones away from humanshumanos and ontosobre machinesmáquinas,
82
264392
3383
la toma de decisiones de los humanos
y la acerca a las máquinas,
04:39
and that's electromagneticelectromagnético jamminginterferencia,
83
267775
2872
y es la interferencia electromagnética,
04:42
severingcortar the connectionconexión betweenEntre the dronezumbido
84
270647
2236
cortando la conexión entre el robot
04:44
and its operatoroperador.
85
272883
2814
y su operador.
04:47
Now we saw an exampleejemplo of this in 2011
86
275697
2618
Vimos un ejemplo
de esto en 2011
04:50
when an Americanamericano RQ-RQ-170 SentinelCentinela dronezumbido
87
278315
2956
Cuando un dron RQ-170
Sentinel norteamericano
04:53
got a bitpoco confusedconfuso over IranCorrí duedebido to a GPSGPS spoofingspoofing attackataque,
88
281271
4307
se confundió en Irán debido a
un ataque de "suplantación" de GPS,
04:57
but any remotely-pilotedremotamente piloteado dronezumbido is susceptiblesusceptible to this typetipo of attackataque,
89
285578
5114
pero cualquier robot controlado remotamente
es susceptible a este tipo de ataques,
05:02
and that meansmedio dronesdrones
90
290692
2052
y eso significa que los drones
05:04
will have to shoulderhombro more decision-makingToma de decisiones.
91
292744
3620
tendrán que asumir
más la toma de decisiones.
05:08
They'llEllos van a know theirsu missionmisión objectiveobjetivo,
92
296364
3043
Sabrán el objetivo de la misión,
05:11
and they'llellos van a reactreaccionar to newnuevo circumstancescircunstancias withoutsin humanhumano guidancedirección.
93
299407
4845
y reaccionarán a nuevas
circunstancias sin ayuda humana.
05:16
They'llEllos van a ignoreignorar externalexterno radioradio signalsseñales
94
304252
2581
Ignorarán las señales de radio externas
05:18
and sendenviar very fewpocos of theirsu ownpropio.
95
306833
2330
y enviarán muy pocas suyas.
05:21
WhichCual bringstrae us to, really, the thirdtercero
96
309163
2006
Lo que nos lleva,
realmente, al tercer
05:23
and mostmás powerfulpoderoso incentiveincentivo pushingemprendedor decision-makingToma de decisiones
97
311169
3862
y más poderoso incentivo
de llevar la toma de decisiones
05:27
away from humanshumanos and ontosobre weaponsarmas:
98
315031
3342
de los seres humanos a las armas:
05:30
plausibleplausible deniabilitynegación.
99
318373
3293
negación plausible.
05:33
Now we livevivir in a globalglobal economyeconomía.
100
321666
2887
Vivimos en una economía global.
05:36
High-techAlta tecnología manufacturingfabricación is occurringocurriendo on mostmás continentscontinentes.
101
324553
4334
La fabricación de alta tecnología ocurre
en la mayoría de los continentes.
05:40
CyberCyber espionageespionaje is spiritingespíritu away advancedavanzado designsdiseños
102
328887
2914
El ciberespionaje está impulsando
diseños muy avanzados
05:43
to partspartes unknowndesconocido,
103
331801
1886
a lugares desconocidos,
05:45
and in that environmentambiente, it is very likelyprobable
104
333687
2014
y en ese ambiente,
es muy probable
05:47
that a successfulexitoso dronezumbido designdiseño will be knockedgolpeado off in contractcontrato factoriessuerte,
105
335701
4734
que un diseño exitoso de drones
se reproduzca en fábricas contratadas,
05:52
proliferateproliferar in the graygris marketmercado.
106
340435
2170
y prolifere en el mercado negro.
05:54
And in that situationsituación, siftingcernido throughmediante the wreckagedestrucción
107
342605
2460
Y en esa situación,
al investigar en los restos
05:57
of a suicidesuicidio dronezumbido attackataque, it will be very difficultdifícil to say
108
345065
2960
de un ataque suicida de drone,
será muy difícil decir
06:00
who sentexpedido that weaponarma.
109
348025
4400
quién envió esa arma.
06:04
This raisesplantea the very realreal possibilityposibilidad
110
352425
2800
Esto plantea la posibilidad muy real
06:07
of anonymousanónimo warguerra.
111
355225
2935
de una guerra anónima.
06:10
This could tiltinclinación the geopoliticalgeopolítico balanceequilibrar on its headcabeza,
112
358160
2614
Esto podría poner el equilibrio
geopolítico de cabeza,
06:12
make it very difficultdifícil for a nationnación to turngiro its firepowerpotencia de fuego
113
360774
3491
y que a una nación le resulte
muy difícil activar su potencia de ataque
06:16
againsten contra an attackeragresor, and that could shiftcambio the balanceequilibrar
114
364265
2848
contra un atacante, lo cual
podría inclinar la balanza
06:19
in the 21stst centurysiglo away from defensedefensa and towardhacia offenseofensa.
115
367113
3764
en el siglo XXI de
la defensa hacia la ofensiva.
06:22
It could make militarymilitar actionacción a viableviable optionopción
116
370877
3124
Podría hacer de la acción
militar una opción viable
06:26
not just for smallpequeña nationsnaciones,
117
374001
2288
no sólo para las naciones pequeñas,
06:28
but criminalcriminal organizationsorganizaciones, privateprivado enterpriseempresa,
118
376289
2545
sino para las organizaciones
criminales, las empresas privadas,
06:30
even powerfulpoderoso individualsindividuos.
119
378834
2479
e incluso para individuos poderosos.
06:33
It could createcrear a landscapepaisaje of rivalrival warlordsseñores de la guerra
120
381313
3328
Podría crear un paisaje
de caudillos rivales
06:36
underminingsocavar ruleregla of lawley and civilcivil societysociedad.
121
384641
3680
socavando el estado de
derecho y la sociedad civil.
06:40
Now if responsibilityresponsabilidad and transparencytransparencia
122
388321
3616
Si la responsabilidad y la transparencia
06:43
are two of the cornerstonespiedras angulares of representativerepresentante governmentgobierno,
123
391937
2384
son dos de los pilares
del gobierno representativo,
06:46
autonomousautónomo roboticrobótico weaponsarmas could underminesocavar bothambos.
124
394321
4320
las armas robóticas autónomas
podrían socavar a ambos.
06:50
Now you mightpodría be thinkingpensando that
125
398641
1546
Pueden estar pensando que
06:52
citizenslos ciudadanos of high-techalta tecnología nationsnaciones
126
400187
2246
los ciudadanos de naciones
con alta tecnología
06:54
would have the advantageventaja in any roboticrobótico warguerra,
127
402433
2703
tendrían la ventaja en
cualquier guerra robótica,
06:57
that citizenslos ciudadanos of those nationsnaciones would be lessMenos vulnerablevulnerable,
128
405136
3633
que los ciudadanos de esas naciones
serían menos vulnerables,
07:00
particularlyparticularmente againsten contra developingdesarrollando nationsnaciones.
129
408769
4288
particularmente contra
los países en desarrollo.
07:05
But I think the truthverdad is the exactexacto oppositeopuesto.
130
413057
3524
Pero creo que en realidad
es exactamente lo contrario.
07:08
I think citizenslos ciudadanos of high-techalta tecnología societiessociedades
131
416581
2251
Creo que los ciudadanos de
las sociedades de alta tecnología
07:10
are more vulnerablevulnerable to roboticrobótico weaponsarmas,
132
418832
3729
son más vulnerables
a las armas robóticas,
07:14
and the reasonrazón can be summedsumado up in one wordpalabra: datadatos.
133
422561
4465
y la razón puede resumirse
en una palabra: datos.
07:19
DataDatos powerspotestades high-techalta tecnología societiessociedades.
134
427026
3481
Los datos empoderan a las
sociedades de alta tecnología.
07:22
CellCelda phoneteléfono geolocationgeolocalización, telecomtelecom metadatametadata,
135
430507
3190
Geolocalización por teléfono celular,
metadatos de telecomunicaciones,
07:25
socialsocial mediamedios de comunicación, emailcorreo electrónico, texttexto, financialfinanciero transactiontransacción datadatos,
136
433697
3472
redes sociales, correo electrónico, mensajes
de texto, datos de transacciones financieras,
07:29
transportationtransporte datadatos, it's a wealthriqueza of real-timetiempo real datadatos
137
437169
3532
datos de transporte, es una riqueza
de datos en tiempo real
07:32
on the movementsmovimientos and socialsocial interactionsinteracciones of people.
138
440701
3373
sobre los movimientos y las interacciones
sociales de las personas.
07:36
In shortcorto, we are more visiblevisible to machinesmáquinas
139
444074
3775
En resumen, somos
más visibles para las máquinas
07:39
than any people in historyhistoria,
140
447849
2242
que ninguna otra persona
en la historia, y esto se adapta
07:42
and this perfectlyperfectamente suitstrajes the targetingtargeting needsnecesariamente of autonomousautónomo weaponsarmas.
141
450091
5616
perfectamente a las necesidades
de selección de las armas autónomas.
07:47
What you're looking at here
142
455707
1738
Lo que están viendo aquí
07:49
is a linkenlazar analysisanálisis mapmapa of a socialsocial groupgrupo.
143
457445
3246
es un mapa de análisis de
los vínculos de un grupo social.
07:52
LinesLíneas indicateindicar socialsocial connectednessconectividad betweenEntre individualsindividuos.
144
460691
3634
Las líneas indican la conectividad
social entre individuos.
07:56
And these typestipos of mapsmapas can be automaticallyautomáticamente generatedgenerado
145
464325
2880
Y estos tipos de mapas se pueden
generar automáticamente
07:59
basedbasado on the datadatos trailsendero modernmoderno people leavesalir behinddetrás.
146
467205
4715
basados en la la estela de datos
que la gente moderna deja.
08:03
Now it's typicallytípicamente used to marketmercado goodsbienes and servicesservicios
147
471920
2477
Esto se utiliza normalmente para
el mercadeo de bienes y servicios
08:06
to targetedapuntado demographicsdatos demográficos, but it's a dual-useuso dual technologytecnología,
148
474397
4416
a un grupo objetivo específico,
pero esta es una tecnología de doble uso,
08:10
because targetingtargeting is used in anotherotro contextcontexto.
149
478813
3360
porque se define un grupo
objetivo en otro contexto.
08:14
Noticedarse cuenta that certaincierto individualsindividuos are highlightedresaltado.
150
482173
2560
Tenga en cuenta que
ciertos individuos sobresalen.
08:16
These are the hubscubos of socialsocial networksredes.
151
484733
3280
Estos son los ejes de las redes sociales.
08:20
These are organizersorganizadores, opinion-makerscreadores de opinión, leaderslíderes,
152
488013
3590
Estos son los organizadores,
los creadores de opinión, los líderes,
08:23
and these people alsoademás can be automaticallyautomáticamente identifiedidentificado
153
491603
2682
y a estas personas también
se les puede identificar automáticamente
08:26
from theirsu communicationcomunicación patternspatrones.
154
494285
2382
por sus patrones de comunicación.
08:28
Now, if you're a marketercomercializador, you mightpodría then targetobjetivo them
155
496667
2146
En el caso de un vendedor,
este podría seleccionarlos
08:30
with productproducto samplesmuestras, try to spreaduntado your brandmarca
156
498813
2543
con muestras de productos,
intentando difundir su marca
08:33
throughmediante theirsu socialsocial groupgrupo.
157
501356
2829
a través de su grupo social.
08:36
But if you're a repressiverepresivo governmentgobierno
158
504185
1953
Pero un gobierno represivo
08:38
searchingbuscando for politicalpolítico enemiesenemigos, you mightpodría insteaden lugar removeretirar them,
159
506138
4810
buscando enemigos políticos
podría en cambio removerlos,
08:42
eliminateeliminar them, disruptinterrumpir theirsu socialsocial groupgrupo,
160
510948
2760
eliminarlos, destruir
su grupo social,
08:45
and those who remainpermanecer behinddetrás loseperder socialsocial cohesioncohesión
161
513708
3169
y aquellos que queden
perderían cohesión social
08:48
and organizationorganización.
162
516877
2621
y organización.
08:51
Now in a worldmundo of cheapbarato, proliferatingproliferando roboticrobótico weaponsarmas,
163
519498
3324
En un mundo en que proliferan
las armas robóticas baratas,
08:54
bordersfronteras would offeroferta very little protectionproteccion
164
522822
2635
las fronteras ofrecerían
muy poca protección
08:57
to criticscríticos of distantdistante governmentsgobiernos
165
525457
1946
a los críticos de
los gobiernos distantes
08:59
or trans-nationaltransnacional criminalcriminal organizationsorganizaciones.
166
527403
3646
o de organizaciones
criminales transnacionales.
09:03
PopularPopular movementsmovimientos agitatingagitando for changecambio
167
531049
3493
Los movimientos populares
que buscan el cambio
09:06
could be detecteddetectado earlytemprano and theirsu leaderslíderes eliminatedeliminado
168
534542
3609
puede detectarse tempranamente
para eliminar a sus líderes
09:10
before theirsu ideasideas achievelograr criticalcrítico massmasa.
169
538151
2911
antes de que sus ideas
adquieran masa crítica.
09:13
And ideasideas achievinglograr criticalcrítico massmasa
170
541062
2591
Y de lo que se trata en
un gobierno popular es
09:15
is what politicalpolítico activismactivismo in popularpopular governmentgobierno is all about.
171
543653
3936
que las ideas alcancen masa critica.
09:19
AnonymousAnónimo lethalletal weaponsarmas could make lethalletal actionacción
172
547589
3997
Las armas letales anónimas
podrían hacer de la acción letal
09:23
an easyfácil choiceelección for all sortstipo of competingcompitiendo interestsintereses.
173
551586
3782
una opción fácil para todo
tipo de intereses en juego.
09:27
And this would put a chillfrío on freegratis speechhabla
174
555368
3734
Y esto pondría en jaque
a la libertad de expresión
09:31
and popularpopular politicalpolítico actionacción, the very heartcorazón of democracydemocracia.
175
559102
5308
y a la acción política popular,
la esencia de la democracia.
09:36
And this is why we need an internationalinternacional treatytratado
176
564410
2914
Y por esta razón necesitamos
un tratado internacional
09:39
on roboticrobótico weaponsarmas, and in particularespecial a globalglobal banprohibición
177
567324
3540
sobre las armas robóticas y en
particular una prohibición mundial
09:42
on the developmentdesarrollo and deploymentdespliegue of killerasesino robotsrobots.
178
570864
3908
sobre el desarrollo y
el despliegue de robots asesinos.
09:46
Now we alreadyya have internationalinternacional treatiestratados
179
574772
3254
Ya tenemos tratados internacionales
09:50
on nuclearnuclear and biologicalbiológico weaponsarmas, and, while imperfectimperfecto,
180
578026
3386
sobre armas nucleares y biológicas,
que aunque imperfectos,
09:53
these have largelyen gran parte workedtrabajó.
181
581412
2288
han funcionado en gran medida.
09:55
But roboticrobótico weaponsarmas mightpodría be everycada bitpoco as dangerouspeligroso,
182
583700
3768
Pero las armas robóticas
pueden ser igual de peligrosas,
09:59
because they will almostcasi certainlyciertamente be used,
183
587468
3288
porque muy seguramente se utilizarán,
10:02
and they would alsoademás be corrosivecorrosivo to our democraticdemocrático institutionsinstituciones.
184
590756
5027
y también serían dañinas para
nuestras instituciones democráticas.
10:07
Now in Novembernoviembre 2012 the U.S. DepartmentDepartamento of DefenseDefensa
185
595783
3468
En noviembre de 2012, el Departamento
de Defensa de los Estados Unidos
10:11
issuedemitido a directivedirectiva requiringrequerir
186
599251
2458
emitió una directiva que exige
10:13
a humanhumano beingsiendo be presentpresente in all lethalletal decisionsdecisiones.
187
601709
4519
que un ser humano esté presente
en todas las decisiones letales.
10:18
This temporarilytemporalmente effectivelyeficazmente bannedprohibido autonomousautónomo weaponsarmas in the U.S. militarymilitar,
188
606228
4776
Esto prohibió efectiva aunque temporalmente
las armas autónomas en el ejército estadounidense,
10:23
but that directivedirectiva needsnecesariamente to be madehecho permanentpermanente.
189
611004
3753
pero dicha directiva
debe hacerse permanente.
10:26
And it could setconjunto the stageescenario for globalglobal actionacción.
190
614757
4376
Y podría sentar las bases
para la acción global.
10:31
Because we need an internationalinternacional legallegal frameworkmarco de referencia
191
619133
3845
Porque necesitamos un
marco jurídico internacional
10:34
for roboticrobótico weaponsarmas.
192
622978
2138
sobre armas robóticas.
10:37
And we need it now, before there's a devastatingdevastador attackataque
193
625116
2928
Y lo necesitamos ahora,
antes de un ataque devastador
10:40
or a terroristterrorista incidentincidente that causescausas nationsnaciones of the worldmundo
194
628044
3152
o un incidente terrorista que
haga que las naciones del mundo
10:43
to rushprisa to adoptadoptar these weaponsarmas
195
631196
1924
se vean obligadas
a adoptar estas armas
10:45
before thinkingpensando throughmediante the consequencesConsecuencias.
196
633120
3771
antes de pensar
en las consecuencias.
10:48
AutonomousAutónomo roboticrobótico weaponsarmas concentrateconcentrado too much powerpoder
197
636891
2981
Las armas robóticas autónomas
concentran demasiado poder
10:51
in too fewpocos handsmanos, and they would imperilponer en peligro democracydemocracia itselfsí mismo.
198
639872
6283
en muy pocas manos y pondría
en peligro la propia democracia.
10:58
Now, don't get me wrongincorrecto, I think there are tonsmontones
199
646155
2686
No me malinterpreten,
creo que hay toneladas
11:00
of great usesusos for unarmeddesarmado civiliancivil dronesdrones:
200
648841
2618
de aplicaciones geniales para
los drones civiles desarmados:
11:03
environmentalambiental monitoringsupervisión, searchbuscar and rescuerescate, logisticslogística.
201
651459
3939
control ambiental, búsqueda
y rescate, logística.
11:07
If we have an internationalinternacional treatytratado on roboticrobótico weaponsarmas,
202
655398
2826
Si tenemos un tratado internacional
sobre armas robóticas,
11:10
how do we gainganancia the benefitsbeneficios of autonomousautónomo dronesdrones
203
658224
3587
¿cómo obtenemos los beneficios
de los drones y vehículos
11:13
and vehiclesvehículos while still protectingprotector ourselvesNosotros mismos
204
661811
2648
autónomos y al mismo
tiempo nos protegernos
11:16
againsten contra illegalilegal roboticrobótico weaponsarmas?
205
664459
3980
contra las armas robóticas ilegales?
11:20
I think the secretsecreto will be transparencytransparencia.
206
668439
4741
Creo que el secreto
será la transparencia.
11:25
No robotrobot should have an expectationexpectativa of privacyintimidad
207
673180
3013
No debería existir una expectativa
de privacidad de un robot
11:28
in a publicpúblico placelugar.
208
676193
3451
en un lugar público.
11:31
(ApplauseAplausos)
209
679644
5048
(Aplausos)
11:36
EachCada robotrobot and dronezumbido should have
210
684692
2045
Cada robot y drone deben tener
11:38
a cryptographicallycriptográficamente signedfirmado I.D. burnedquemado in at the factoryfábrica
211
686737
2883
una identificación de fábrica
firmada criptográficamente
11:41
that can be used to trackpista its movementmovimiento throughmediante publicpúblico spacesespacios.
212
689620
2923
que pueda utilizarse para seguir
sus movimientos en los espacios públicos.
11:44
We have licenselicencia platesplatos on carscarros, tailcola numbersnúmeros on aircraftaeronave.
213
692543
3381
Tenemos placas en los coches,
números de matricula en los aviones.
11:47
This is no differentdiferente.
214
695924
1841
Esto no es diferente.
11:49
And everycada citizenciudadano should be ablepoder to downloaddescargar an appaplicación
215
697765
2012
Y todos los ciudadanos deberían
poder descargar una aplicación
11:51
that showsmuestra the populationpoblación of dronesdrones and autonomousautónomo vehiclesvehículos
216
699777
3125
que muestre la población de
drones y vehículos autónomos
11:54
movingemocionante throughmediante publicpúblico spacesespacios around them,
217
702902
2429
moviéndose a través de espacios
públicos alrededor de ellos,
11:57
bothambos right now and historicallyhistóricamente.
218
705331
2733
tanto en ese momento
como en un histórico.
12:00
And civiccívico leaderslíderes should deploydesplegar sensorssensores and civiccívico dronesdrones
219
708064
3548
Y los líderes civiles deben
desplegar sensores y drones civiles
12:03
to detectdetectar roguepícaro dronesdrones,
220
711612
2344
para detectar los drones no autorizados,
12:05
and insteaden lugar of sendingenviando killerasesino dronesdrones of theirsu ownpropio up to shootdisparar them down,
221
713956
3176
y en lugar de enviar drones
asesinos propios para derribarlos,
12:09
they should notifynotificar humanshumanos to theirsu presencepresencia.
222
717132
2992
deben notificar a
los humanos de su presencia.
12:12
And in certaincierto very high-securityalta seguridad areasáreas,
223
720124
2606
Y en ciertas áreas
de muy alta seguridad,
12:14
perhapsquizás civiccívico dronesdrones would snaretrampa them
224
722730
1909
tal vez los drones
civiles deban capturarlos
12:16
and dragarrastrar them off to a bombbomba disposaldisposición facilityinstalaciones.
225
724639
2841
y arrastrarlos a una instalación
de eliminación de explosivos.
12:19
But noticedarse cuenta, this is more an immuneinmune systemsistema
226
727480
3027
Pero tengan en cuenta que esto
es más un sistema inmunológico
12:22
than a weaponsarmas systemsistema.
227
730507
1321
que un sistema de armas.
12:23
It would allowpermitir us to availaprovechar ourselvesNosotros mismos of the use
228
731828
2592
Esto nos permitiría
valernos del uso
12:26
of autonomousautónomo vehiclesvehículos and dronesdrones
229
734420
2032
de drones y vehículos autónomos
12:28
while still preservingconservación our openabierto, civilcivil societysociedad.
230
736452
4295
y al mismo tiempo salvaguardar
nuestra abierta sociedad civil.
12:32
We mustdebe banprohibición the deploymentdespliegue and developmentdesarrollo
231
740747
2999
Hay que prohibir
el despliegue y desarrollo
12:35
of killerasesino robotsrobots.
232
743746
1862
de robots asesinos.
12:37
Let's not succumbsucumbir to the temptationtentación to automateautomatizar warguerra.
233
745608
4850
No caigamos en la tentación
de automatizar la guerra.
12:42
AutocraticAutocrático governmentsgobiernos and criminalcriminal organizationsorganizaciones
234
750458
2718
Los gobiernos autocráticos y
las organizaciones criminales
12:45
undoubtedlyindudablemente will, but let's not joinunirse them.
235
753176
2956
sin duda lo harán, pero nosotros no.
12:48
AutonomousAutónomo roboticrobótico weaponsarmas
236
756132
1891
Las armas robóticas autónomas
12:50
would concentrateconcentrado too much powerpoder
237
758023
2051
concentrarían demasiado poder
12:52
in too fewpocos unseeninvisible handsmanos,
238
760074
2482
en muy pocas manos invisibles,
12:54
and that would be corrosivecorrosivo to representativerepresentante governmentgobierno.
239
762556
3255
y eso sería corrosivo para
un gobierno representativo.
12:57
Let's make sure, for democraciesdemocracias at leastmenos,
240
765811
2961
Asegurémonos de que al
menos para las democracias,
13:00
killerasesino robotsrobots remainpermanecer fictionficción.
241
768772
2604
los robots asesinos
sigan siendo ficción.
13:03
Thank you.
242
771376
1110
Gracias.
13:04
(ApplauseAplausos)
243
772486
4565
(Aplausos)
13:09
Thank you. (ApplauseAplausos)
244
777051
4616
Gracias. (Aplausos)

▲Back to top

ABOUT THE SPEAKER
Daniel Suarez - Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios.

Why you should listen

While working as a software developer, Daniel Suarez self-published Daemon, a cyber-thriller depicting a future where society is radically reshaped by disruptive technologies. It struck a chord -- and so did the sequel, Freedom (TM) -- rocketing Suarez into the pantheon of sci-fi prophets.

In his 2012 novel Kill Decision, Suarez digs into the consequences of technology that’s here to stay: autonomous bots and drones programmed to be lethal. Suarez argues that as we cede more control to software, we gamble with the very essence of democracy itself. How can we establish sane guidelines for technology that could easily outstrip our control?

More profile about the speaker
Daniel Suarez | Speaker | TED.com