ABOUT THE SPEAKER
Daniel Suarez - Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios.

Why you should listen

While working as a software developer, Daniel Suarez self-published Daemon, a cyber-thriller depicting a future where society is radically reshaped by disruptive technologies. It struck a chord -- and so did the sequel, Freedom (TM) -- rocketing Suarez into the pantheon of sci-fi prophets.

In his 2012 novel Kill Decision, Suarez digs into the consequences of technology that’s here to stay: autonomous bots and drones programmed to be lethal. Suarez argues that as we cede more control to software, we gamble with the very essence of democracy itself. How can we establish sane guidelines for technology that could easily outstrip our control?

More profile about the speaker
Daniel Suarez | Speaker | TED.com
TEDGlobal 2013

Daniel Suarez: The kill decision shouldn't belong to a robot

Daniel Suarez : La décision de tuer ne devrait pas appartenir à un robot

Filmed:
1,946,706 views

En tant que romancier, Daniel Suarez raconte des histoires dystopiques sur le futur. Mais sur la scène de TEDGlobal, il nous parle d'une situation concrète sur laquelle nous devons savoir plus de choses : la montée d'armes de guerre robotisées autonomes. Les drones avancés, les armes automatisées et les outils de récupération d'informations gérés par une Intelligence Artificielle, pourraient, selon lui, enlever aux hommes le choix de faire la guerre.
- Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios. Full bio

Double-click the English transcript below to play the video.

00:12
I writeécrire fictionfiction sci-fiSci-Fi thrillersthrillers,
0
691
3158
J'écris des thrillers de science fiction,
00:15
so if I say "killertueur robotsdes robots,"
1
3849
2193
donc si je dis "robots tueurs",
00:18
you'dtu aurais probablyProbablement think something like this.
2
6042
2361
vous pensez sûrement à quelque chose de ce style.
00:20
But I'm actuallyréellement not here to talk about fictionfiction.
3
8403
2555
Mais je ne suis pas vraiment là pour parler fiction.
00:22
I'm here to talk about very realréal killertueur robotsdes robots,
4
10958
2948
Je suis ici pour parler de robots tueurs bien réels,
00:25
autonomousautonome combatcombat dronesdrones.
5
13906
3122
des drones de combat autonomes.
00:29
Now, I'm not referringréférant to PredatorPredator and ReaperReaper dronesdrones,
6
17028
3627
Là, je ne me réfère pas aux drones Predator et Reaper,
00:32
whichlequel have a humanHumain makingfabrication targetingciblage decisionsles décisions.
7
20655
3260
où il y a un humain aux commandes.
00:35
I'm talkingparlant about fullypleinement autonomousautonome roboticrobotique weaponsarmes
8
23915
3129
Je parle d'armes robotisées pleinement autonomes
00:39
that make lethalmortel decisionsles décisions about humanHumain beingsêtres
9
27044
2654
qui prennent des décisions létales envers des êtres humains
00:41
all on theirleur ownposséder.
10
29698
2417
de leur propre chef.
00:44
There's actuallyréellement a technicaltechnique termterme for this: lethalmortel autonomyautonomie.
11
32115
4000
A vrai dire, il y a un terme technique pour cela : autonomie létale.
00:48
Now, lethallylétal autonomousautonome killertueur robotsdes robots
12
36115
2856
Ainsi, les robots tueurs autonomes
00:50
would take manybeaucoup formsformes -- flyingen volant, drivingau volant,
13
38971
3069
pourraient prendre de multiples formes,
aérienne, mobile,
00:54
or just lyingmensonge in wait.
14
42040
2746
ou juste statique.
00:56
And actuallyréellement, they're very quicklyrapidement becomingdevenir a realityréalité.
15
44786
3109
Et très rapidement, ils deviennent vraiment une réalité.
00:59
These are two automaticAutomatique snipertireur d’élite stationsstations
16
47895
2484
Voici deux sentinelles automatiques de tireur d'élite
01:02
currentlyactuellement deployeddéployé in the DMZDMZ betweenentre NorthNord and SouthSud KoreaCorée.
17
50379
4137
actuellement déployée dans la Zone Démilitarisée
entre les Corée du Nord et du Sud.
01:06
BothTous les deux of these machinesmachines are capablecapable of automaticallyautomatiquement
18
54516
2171
Ces deux machines sont capables de manière automatisée
01:08
identifyingidentifier les a humanHumain targetcible and firingmise à feu on it,
19
56687
3524
d'identifier une cible humaine et d'y ouvrir le feu,
01:12
the one on the left at a distancedistance of over a kilometerkilomètre.
20
60211
4324
la machine à gauche possède
une portée supérieur à un kilomètre.
01:16
Now, in bothtous les deux casescas, there's still a humanHumain in the loopboucle
21
64535
3589
Maintenant, dans ces deux cas, il y a toujours un humain
01:20
to make that lethalmortel firingmise à feu decisiondécision,
22
68124
2372
dans la chaîne de commandement
pour faire le létal choix de faire feu,
01:22
but it's not a technologicaltechnologique requirementexigence. It's a choicechoix.
23
70496
5413
Mais ce n'est pas une contrainte technologique.
C'est un choix.
01:27
And it's that choicechoix that I want to focusconcentrer on,
24
75909
3093
Et c'est sur ce choix que je veux me concentrer,
01:31
because as we migrateémigrer lethalmortel decision-makingla prise de décision
25
79002
2641
car en même temps que nous transférons,
de l'homme vers le programme,
01:33
from humanshumains to softwareLogiciel,
26
81643
3109
la prise de décisions mortelles,
01:36
we riskrisque not only takingprise the humanityhumanité out of warguerre,
27
84752
3476
nous ne risquons pas seulement
d'enlever l'humanité à la guerre,
01:40
but alsoaussi changingen changeant our socialsocial landscapepaysage entirelyentièrement,
28
88228
3526
mais aussi de modifier
l'environnement social dans sa totalité,
01:43
farloin from the battlefieldchamp de bataille.
29
91754
2224
loin du champ de bataille.
01:45
That's because the way humanshumains resolverésoudre conflictconflit
30
93978
4509
Ceci parce que la manière des humains
de résoudre des conflits
01:50
shapesformes our socialsocial landscapepaysage.
31
98487
1733
façonne notre environnement social.
01:52
And this has always been the caseCas, throughouttout au long de historyhistoire.
32
100220
2633
Et à travers l'Histoire, cela a toujours été le cas.
01:54
For exampleExemple, these were state-of-the-artl'état de l'art weaponsarmes systemssystèmes
33
102853
2661
Par exemple, il y avait ces systèmes d'armement de pointe
01:57
in 1400 A.D.
34
105514
2079
en 1400 avant J.-C. .
01:59
Now they were bothtous les deux very expensivecoûteux to buildconstruire and maintainmaintenir,
35
107593
3144
Ils sont tous deux très chers à construire et à entretenir,
02:02
but with these you could dominatedominer the populacepopulace,
36
110737
3240
mais avec eux vous pouviez dominer la population,
02:05
and the distributionDistribution of politicalpolitique powerPuissance in feudalféodal societysociété reflectedreflété that.
37
113977
3889
et l'organisation du pouvoir politique
dans la société féodale reflète cela.
02:09
PowerPuissance was focusedconcentré at the very topHaut.
38
117866
2687
Le pouvoir était concentré au sommet.
02:12
And what changedmodifié? TechnologicalTechnologique innovationinnovation.
39
120553
3528
Et qu'est-ce qui a changé ? L'innovation technologique.
02:16
GunpowderPoudre à Canon, cannonCannon.
40
124081
1871
Poudre noire, canon.
02:17
And prettyjoli soonbientôt, armorarmure and castlesChâteaux were obsoleteobsolète,
41
125952
3817
Et très vite, les armures et les châteaux
sont devenus obsolètes,
02:21
and it matteredimportait lessMoins who you broughtapporté to the battlefieldchamp de bataille
42
129769
2533
et il était moins important de savoir
qui vous ameniez sur le champ de bataille
02:24
versuscontre how manybeaucoup people you broughtapporté to the battlefieldchamp de bataille.
43
132302
3779
que le nombre de personnes que vous ameniez.
02:28
And as armiesarmées grewgrandi in sizeTaille, the nation-stateÉtat-nation aroses'est levé
44
136081
3638
Et alors que les armées grossissaient en effectif,
l'Etat-Nation naissait
02:31
as a politicalpolitique and logisticallogistique requirementexigence of defensela défense.
45
139719
3680
en tant que besoin politique et logistique de défense.
02:35
And as leadersdirigeants had to relycompter on more of theirleur populacepopulace,
46
143399
2376
Et alors que les dirigeants devaient compter
sur plus de population,
02:37
they begana commencé to sharepartager powerPuissance.
47
145775
1833
ils commencèrent à partager le pouvoir.
02:39
RepresentativeReprésentant governmentgouvernement begana commencé to formforme.
48
147608
2599
Des gouvernement représentatifs commencèrent à se former.
02:42
So again, the toolsoutils we use to resolverésoudre conflictconflit
49
150207
3288
Une fois encore, les outils utilisés pour résoudre un conflit
02:45
shapeforme our socialsocial landscapepaysage.
50
153495
3304
structurent notre environnement social.
02:48
AutonomousAutonome roboticrobotique weaponsarmes are suchtel a tooloutil,
51
156799
4064
Les armes robotisées autonomes sont de tels outils,
02:52
exceptsauf that, by requiringnécessitant une very fewpeu people to go to warguerre,
52
160863
5168
sauf que, en nécessitant très peu de personnes
pour rentrer en guerre,
02:58
they riskrisque re-centralizingre-centralisation powerPuissance into very fewpeu handsmains,
53
166031
4840
ils risquent de reconcentrer le pouvoir dans très peu de mains,
03:02
possiblypeut-être reversinginverser a five-centurycinq siècles trendtendance towardvers democracyla démocratie.
54
170871
6515
potentiellement renversant une tendance
de cinq cents ans en faveur de la démocratie.
03:09
Now, I think, knowingconnaissance this,
55
177386
1757
Maintenant, je pense, sachant ça,
03:11
we can take decisivedécisive stepspas to preservepréserver our democraticdémocratique institutionsinstitutions,
56
179143
4352
que nous pouvons mener des actions décisives
pour préserver nos institutions démocratiques,
03:15
to do what humanshumains do bestmeilleur, whichlequel is adaptadapter.
57
183495
3979
pour faire ce que les hommes font le mieux,
c'est-à-dire s'adapter.
03:19
But time is a factorfacteur.
58
187474
2005
Mais le temps est un facteur.
03:21
SeventySoixante-dix nationsnations are developingdéveloppement remotely-pilotedpilotés à distance
59
189479
2851
Soixante-dix nations développent en interne
03:24
combatcombat dronesdrones of theirleur ownposséder,
60
192330
2157
des drones de combat télécommandés,
03:26
and as you'lltu vas see, remotely-pilotedpilotés à distance combatcombat dronesdrones
61
194487
2593
et comme vous le verrez,
les drones de combat télécommandés
03:29
are the precursorsprécurseurs to autonomousautonome roboticrobotique weaponsarmes.
62
197080
4472
sont les précurseurs des armes robotisées autonomes.
03:33
That's because onceune fois que you've deployeddéployé remotely-pilotedpilotés à distance dronesdrones,
63
201552
2767
Cela est dû au fait qu'une fois
que vous avez déployé vos drones télécommandés,
03:36
there are threeTrois powerfulpuissant factorsfacteurs pushingen poussant decision-makingla prise de décision
64
204319
3384
trois facteurs déterminants entraînent la prise de choix
03:39
away from humanshumains and on to the weaponarme platformPlate-forme itselfse.
65
207703
4600
loin des hommes et vers l'unité armée elle-même.
03:44
The first of these is the delugedéluge of videovidéo that dronesdrones produceproduire.
66
212303
5259
La première des raisons est le déluge de vidéos que les drones produisent.
03:49
For exampleExemple, in 2004, the U.S. dronedrone fleetflotte producedproduit
67
217562
3853
Par exemple, en 2004,
la flotte de drones américains a produit
03:53
a grandgrandiose totaltotal of 71 hoursheures of videovidéo surveillancesurveillance for analysisune analyse.
68
221415
5312
une somme totale de 71 heures de vidéo-surveillance à analyser.
03:58
By 2011, this had gonedisparu up to 300,000 hoursheures,
69
226727
4499
En 2011, cela a atteint les 300 000 heures,
04:03
outstrippingdevançant humanHumain abilitycapacité to reviewla revue it all,
70
231226
3149
dépassant la capacité humaine à tout voir,
04:06
but even that numbernombre is about to go up drasticallyradicalement.
71
234375
3664
et même ce nombre est sur le point d'exploser.
04:10
The Pentagon'sPentagone GorgonGorgone StareStare and ArgusArgus programsprogrammes
72
238039
2575
Les programmes Gorgon Stare et Argus du Pentagone
04:12
will put up to 65 independentlyindépendamment operatedopéré cameracaméra eyesles yeux
73
240614
3164
vont porter à 65 caméras indépendamment contrôlées
04:15
on eachchaque dronedrone platformPlate-forme,
74
243778
2038
sur chaque drone,
04:17
and this would vastlyénormément outstripdépasser humanHumain abilitycapacité to reviewla revue it.
75
245816
3303
et cela va grandement dépasser la capacité humaine
à voir ces vidéos.
04:21
And that meansveux dire visualvisuel intelligenceintelligence softwareLogiciel will need
76
249119
2160
Cela signifie qu'il va falloir des programmes de recueil
d'informations visuelles
04:23
to scanbalayage it for itemsarticles of interestintérêt.
77
251279
4048
pour scanner les vidéos pour trouver du matériel intéressant.
04:27
And that meansveux dire very soonbientôt
78
255327
1348
Et cela signifie que très bientôt
04:28
dronesdrones will tell humanshumains what to look at,
79
256675
2747
les drones vont dire aux hommes ce qu'il faut regarder,
04:31
not the other way around.
80
259422
2497
et non l'inverse.
04:33
But there's a secondseconde powerfulpuissant incentivemotivation pushingen poussant
81
261919
2473
Mais il y a une seconde motivation importante
04:36
decision-makingla prise de décision away from humanshumains and ontosur machinesmachines,
82
264392
3383
pour déporter le rôle décisionnel des hommes vers les machines,
04:39
and that's electromagneticélectromagnétique jammingbrouillage,
83
267775
2872
et c'est le brouillage électromagnétique,
04:42
severingsectionnement the connectionconnexion betweenentre the dronedrone
84
270647
2236
bloquant la connexion entre le drone
04:44
and its operatoropérateur.
85
272883
2814
et son opérateur.
04:47
Now we saw an exampleExemple of this in 2011
86
275697
2618
Nous avons vu un exemple de cela en 2011
04:50
when an AmericanAméricain RQ-RQ-170 SentinelSentinel dronedrone
87
278315
2956
lorsqu'un drone RQ-170 Sentinel américain
04:53
got a bitbit confusedconfus over IranIran due to a GPSGPS spoofingusurpation d’identité attackattaque,
88
281271
4307
a été embrouillé au dessus de l'Iran à cause d'une attaque
de modification du GPS,
04:57
but any remotely-pilotedpilotés à distance dronedrone is susceptiblesensible to this typetype of attackattaque,
89
285578
5114
mais tout drone télécommandé est sensible à ce type d'attaque,
05:02
and that meansveux dire dronesdrones
90
290692
2052
et cela signifie que les drones
05:04
will have to shoulderépaule more decision-makingla prise de décision.
91
292744
3620
vont devoir endosser plus de prises de décision.
05:08
They'llIls vont know theirleur missionmission objectiveobjectif,
92
296364
3043
Ils connaîtront les objectifs de mission,
05:11
and they'llils vont reactréagir to newNouveau circumstancesconditions withoutsans pour autant humanHumain guidanceconseils.
93
299407
4845
et ils feront face aux nouvelles conditions sans intervention humaine.
05:16
They'llIls vont ignoreignorer externalexterne radioradio signalssignaux
94
304252
2581
Ils vont ignorer les signaux radio externes
05:18
and sendenvoyer very fewpeu of theirleur ownposséder.
95
306833
2330
et en émettre très peu de leur côté.
05:21
WhichQui bringsapporte us to, really, the thirdtroisième
96
309163
2006
Ce qui nous mène, vraiment, à la troisième
05:23
and mostles plus powerfulpuissant incentivemotivation pushingen poussant decision-makingla prise de décision
97
311169
3862
et plus importante motivation pour enlever
05:27
away from humanshumains and ontosur weaponsarmes:
98
315031
3342
la décision aux hommes et la mettre dans les armes :
05:30
plausibleplausible deniabilitypossibilité de démenti.
99
318373
3293
possibilité de nier de façon plausible.
05:33
Now we livevivre in a globalglobal economyéconomie.
100
321666
2887
Aujourd'hui nous vivons dans une économie généralisée.
05:36
High-techHi-tech manufacturingfabrication is occurringse produire on mostles plus continentscontinents.
101
324553
4334
La production de haute technologie a lieu sur la plupart des continents.
05:40
CyberCyber espionageespionnage is spiritingspiriting away advancedAvancée designsconceptions
102
328887
2914
Le cyber-espionnage exporte les conceptions avancées
05:43
to partsles pièces unknowninconnu,
103
331801
1886
vers des tiers inconnus,
05:45
and in that environmentenvironnement, it is very likelyprobable
104
333687
2014
et dans cet environnement, il est très probable
05:47
that a successfulréussi dronedrone designconception will be knockedfrappé off in contractContrat factoriesdes usines,
105
335701
4734
qu'un concept réussi de drone soit volé dans les entreprises contractées,
05:52
proliferateprolifèrent in the graygris marketmarché.
106
340435
2170
se répandent sur le marché parallèle.
05:54
And in that situationsituation, siftingtamisage throughpar the wreckageépave
107
342605
2460
Et dans ce cas, en fouillant les débris
05:57
of a suicidesuicide dronedrone attackattaque, it will be very difficultdifficile to say
108
345065
2960
d'une attaque suicide de drone,
il sera très difficile de dire
06:00
who sentenvoyé that weaponarme.
109
348025
4400
qui a envoyé cette arme.
06:04
This raisessoulève the very realréal possibilitypossibilité
110
352425
2800
Cela ouvre la réelle possibilité
06:07
of anonymousanonyme warguerre.
111
355225
2935
de la guerre anonyme.
06:10
This could tiltinclinaison the geopoliticalgéopolitique balanceéquilibre on its headtête,
112
358160
2614
Cela pourrait déstabiliser la balance géopolitique,
06:12
make it very difficultdifficile for a nationnation to turntour its firepowerpuissance de feu
113
360774
3491
rendre très difficile pour un pays d'utiliser sa puissance de feu
06:16
againstcontre an attackerattaquant, and that could shiftdécalage the balanceéquilibre
114
364265
2848
contre un attaquant, cela pourrait,
au 21ème siècle,
06:19
in the 21stst centurysiècle away from defensela défense and towardvers offenseinfraction.
115
367113
3764
faire pencher la balance en faveur de l'attaque
au détriment de la défense.
06:22
It could make militarymilitaire actionaction a viableviable optionoption
116
370877
3124
Cela pourrait rendre envisageable des actions militaires
06:26
not just for smallpetit nationsnations,
117
374001
2288
non juste pour de petits pays,
06:28
but criminalcriminel organizationsorganisations, privateprivé enterpriseentreprise,
118
376289
2545
mais pour des organisations criminelles,
des entreprises privées
06:30
even powerfulpuissant individualspersonnes.
119
378834
2479
et même des puissants individus.
06:33
It could createcréer a landscapepaysage of rivalrival warlordsseigneurs de la guerre
120
381313
3328
Cela pourrait créer un paysage de seigneurs de guerre rivaux
06:36
underminingsaper ruleRègle of lawloi and civilcivil societysociété.
121
384641
3680
sabotant le règne de la loi et de la société civile.
06:40
Now if responsibilityresponsabilité and transparencytransparence
122
388321
3616
Si la responsabilité et la transparence
06:43
are two of the cornerstonespierres angulaires of representativereprésentant governmentgouvernement,
123
391937
2384
sont deux éléments clefs
des gouvernements représentatifs de leur nation,
06:46
autonomousautonome roboticrobotique weaponsarmes could underminesaper bothtous les deux.
124
394321
4320
les armes robotisées autonomes pourraient les saboter tous deux.
06:50
Now you mightpourrait be thinkingen pensant that
125
398641
1546
Là vous pourriez penser que
06:52
citizenscitoyens of high-techhaute technologie nationsnations
126
400187
2246
les citoyens de pays high-techs
06:54
would have the advantageavantage in any roboticrobotique warguerre,
127
402433
2703
auraient l'avantage dans n'importe quelle guerre robotique,
06:57
that citizenscitoyens of those nationsnations would be lessMoins vulnerablevulnérable,
128
405136
3633
que les citoyens de ces nations seraient moins vulnérables,
07:00
particularlyparticulièrement againstcontre developingdéveloppement nationsnations.
129
408769
4288
en particulier contre les pays en développement.
07:05
But I think the truthvérité is the exactexact oppositecontraire.
130
413057
3524
Mais je pense que la vérité est l'exacte opposé.
07:08
I think citizenscitoyens of high-techhaute technologie societiessociétés
131
416581
2251
Je pense que les citoyens des sociétés high-techs
07:10
are more vulnerablevulnérable to roboticrobotique weaponsarmes,
132
418832
3729
sont plus vulnérables aux armes robotisées,
07:14
and the reasonraison can be summedsommé up in one wordmot: dataLes données.
133
422561
4465
et la raison peut être résumée en un mot : l'information.
07:19
DataDonnées powerspouvoirs high-techhaute technologie societiessociétés.
134
427026
3481
L'information alimente les sociétés informatisées.
07:22
CellCellule phonetéléphone geolocationgéolocalisation, telecomTelecom metadatamétadonnées,
135
430507
3190
Géolocalisation des téléphones, métadonnées de télécommunications,
07:25
socialsocial mediamédias, emailemail, texttexte, financialfinancier transactiontransaction dataLes données,
136
433697
3472
médias sociaux, e-mails, textos, informations sur des transactions financières,
07:29
transportationtransport dataLes données, it's a wealthrichesse of real-timetemps réél dataLes données
137
437169
3532
informations sur des transports, c'est une richesse
de données en temps réel
07:32
on the movementsmouvements and socialsocial interactionsinteractions of people.
138
440701
3373
sur les mouvements et les échanges sociaux des gens.
07:36
In shortcourt, we are more visiblevisible to machinesmachines
139
444074
3775
En résumé, nous sommes plus visibles aux machines
07:39
than any people in historyhistoire,
140
447849
2242
que quiconque dans l'Histoire,
07:42
and this perfectlyà la perfection suitsconvient à the targetingciblage needsBesoins of autonomousautonome weaponsarmes.
141
450091
5616
et cela correspond parfaitement
aux besoins de ciblage des armes autonomes.
07:47
What you're looking at here
142
455707
1738
Ce que vous regardez ici
07:49
is a linklien analysisune analyse mapcarte of a socialsocial groupgroupe.
143
457445
3246
est une carte d'analyse de connexion d'un groupe social.
07:52
LinesLignes indicateindiquer socialsocial connectednessconnexité betweenentre individualspersonnes.
144
460691
3634
Les lignes indiquent une connexité social entre individus.
07:56
And these typesles types of mapscartes can be automaticallyautomatiquement generatedgénéré
145
464325
2880
Et ce type de carte peut être automatiquement générée
07:59
basedbasé on the dataLes données trailPiste modernmoderne people leavelaisser behindderrière.
146
467205
4715
en se basant sur les traces d'informations
que les gens modernes laissent derrière eux.
08:03
Now it's typicallytypiquement used to marketmarché goodsdes biens and servicesprestations de service
147
471920
2477
On l'utilise généralement pour promouvoir des biens ou des services
08:06
to targetedciblé demographicsdémographie, but it's a dual-usedouble usage technologyLa technologie,
148
474397
4416
à des populations ciblées, mais c'est une technologie à double tranchant,
08:10
because targetingciblage is used in anotherun autre contextle contexte.
149
478813
3360
car le ciblage est utilisé dans un autre contexte.
08:14
NoticeAvis that certaincertain individualspersonnes are highlighteda souligné.
150
482173
2560
Remarquez que certains individus sont surlignés.
08:16
These are the hubsmoyeux of socialsocial networksréseaux.
151
484733
3280
Ce sont des centres de réseaux sociaux.
08:20
These are organizersorganisateurs, opinion-makersfaiseurs d’opinion, leadersdirigeants,
152
488013
3590
Ce sont des organisateurs, des façonneurs d'opinion, chefs,
08:23
and these people alsoaussi can be automaticallyautomatiquement identifiedidentifié
153
491603
2682
et ces personnes peuvent être automatiquement identifiées
08:26
from theirleur communicationla communication patternsmodèles.
154
494285
2382
à partir du schéma de leurs communications.
08:28
Now, if you're a marketerdistributeur, you mightpourrait then targetcible them
155
496667
2146
Si vous êtes un commerçant, vous pourrez alors les cibler
08:30
with productproduit sampleséchantillons, try to spreadpropager your brandmarque
156
498813
2543
avec des échantillons de produits,
essayer de diffuser votre marque
08:33
throughpar theirleur socialsocial groupgroupe.
157
501356
2829
dans leur groupe social.
08:36
But if you're a repressiverépressif governmentgouvernement
158
504185
1953
Mais si vous êtes un gouvernement répressif
08:38
searchingrecherche for politicalpolitique enemiesennemis, you mightpourrait insteadau lieu removeretirer them,
159
506138
4810
en quête d'ennemis politiques,
vous pourriez au contraire les évincer,
08:42
eliminateéliminer them, disruptperturber theirleur socialsocial groupgroupe,
160
510948
2760
les éliminer, désorganiser leur groupe social,
08:45
and those who remainrester behindderrière loseperdre socialsocial cohesioncohésion
161
513708
3169
et ceux qui restent perdent la cohésion sociale
08:48
and organizationorganisation.
162
516877
2621
et l'organisation.
08:51
Now in a worldmonde of cheappas cher, proliferatingprolifèrent roboticrobotique weaponsarmes,
163
519498
3324
Ainsi dans un monde où prolifèrent
les armes robotisées à bas coûts,
08:54
bordersles frontières would offeroffre very little protectionprotection
164
522822
2635
les frontières vont offrir très peu de protection
08:57
to criticscritiques of distantloin governmentsGouvernements
165
525457
1946
face aux critiques de gouvernements éloignés
08:59
or trans-nationaltransnationaux criminalcriminel organizationsorganisations.
166
527403
3646
ou à des organisations criminelles internationales.
09:03
PopularPopulaires movementsmouvements agitatingagitation for changechangement
167
531049
3493
Des mouvements populaires pour le changement
09:06
could be detecteddétecté earlyde bonne heure and theirleur leadersdirigeants eliminatedéliminé
168
534542
3609
pourraient être détectés tôt et voir leurs chefs éliminés
09:10
before theirleur ideasidées achieveatteindre criticalcritique massMasse.
169
538151
2911
avant que leurs idées n'atteignent une masse critique.
09:13
And ideasidées achievingréalisation de criticalcritique massMasse
170
541062
2591
Et des idées atteignant une masse critique
09:15
is what politicalpolitique activismactivisme in popularpopulaire governmentgouvernement is all about.
171
543653
3936
est exactement cet activisme politique dans les gouvernements populaires.
09:19
AnonymousAnonyme lethalmortel weaponsarmes could make lethalmortel actionaction
172
547589
3997
Des armes mortelles anonymes pourraient
faire des actes meurtriers
09:23
an easyfacile choicechoix for all sortssortes of competingen compétition interestsintérêts.
173
551586
3782
un choix facile pour toute sorte de conflits d'intérêts.
09:27
And this would put a chillChill on freegratuit speechdiscours
174
555368
3734
Et cela porterait atteinte à la liberté d'expression
09:31
and popularpopulaire politicalpolitique actionaction, the very heartcœur of democracyla démocratie.
175
559102
5308
et à l'action politique populaire,
le cœur même de la démocratie.
09:36
And this is why we need an internationalinternational treatytraité
176
564410
2914
Voilà pourquoi nous avons besoin d'un traité international
09:39
on roboticrobotique weaponsarmes, and in particularparticulier a globalglobal baninterdire
177
567324
3540
sur les armes robotisées, et en particulier d'un ban
09:42
on the developmentdéveloppement and deploymentdéploiement of killertueur robotsdes robots.
178
570864
3908
du développement et du déploiement de robots tueurs.
09:46
Now we alreadydéjà have internationalinternational treatiestraités
179
574772
3254
Aujourd'hui nous avons des traités internationaux
09:50
on nuclearnucléaire and biologicalbiologique weaponsarmes, and, while imperfectimparfait,
180
578026
3386
sur les armes nucléaires et biologiques,
et bien qu'imparfaites
09:53
these have largelyen grande partie workedtravaillé.
181
581412
2288
elles ont largement fonctionné.
09:55
But roboticrobotique weaponsarmes mightpourrait be everychaque bitbit as dangerousdangereux,
182
583700
3768
Mais les armes robotisées pourraient
se révéler tout autant dangeureuses
09:59
because they will almostpresque certainlycertainement be used,
183
587468
3288
car elles seront presque certainement utilisées
10:02
and they would alsoaussi be corrosivecorrosifs to our democraticdémocratique institutionsinstitutions.
184
590756
5027
et elles seront aussi néfastes pour nos institutions démocratiques.
10:07
Now in NovemberNovembre 2012 the U.S. DepartmentDépartement of DefenseDéfense
185
595783
3468
En novembre 2012, le Département de la Défense américain
10:11
issuedPublié a directivedirective requiringnécessitant une
186
599251
2458
a émis une directive exigeant
10:13
a humanHumain beingétant be presentprésent in all lethalmortel decisionsles décisions.
187
601709
4519
qu'un humain soit présent dans toute décision létale.
10:18
This temporarilytemporairement effectivelyefficacement bannedbanni autonomousautonome weaponsarmes in the U.S. militarymilitaire,
188
606228
4776
Cela a efficacement banni les armes autonomes dans l'armée américaine,
10:23
but that directivedirective needsBesoins to be madefabriqué permanentpermanent.
189
611004
3753
mais cette directive doit être rendue permanente.
10:26
And it could setensemble the stageétape for globalglobal actionaction.
190
614757
4376
Cela pourrait poser les bases à une action généralisée.
10:31
Because we need an internationalinternational legallégal frameworkcadre
191
619133
3845
Car nous avons besoin d'un cadre juridique international
10:34
for roboticrobotique weaponsarmes.
192
622978
2138
pour les armes robotisées.
10:37
And we need it now, before there's a devastatingdévastateur attackattaque
193
625116
2928
Et nous en avons besoin maintenant,
avant qu'il n'y ait une attaque dévastatrice
10:40
or a terroristactivités terroristes incidentincident that causescauses nationsnations of the worldmonde
194
628044
3152
ou un incident terroriste qui
entraînerait les nations du monde
10:43
to rushse ruer to adoptadopter these weaponsarmes
195
631196
1924
à se précipiter pour acquérir ces armes
10:45
before thinkingen pensant throughpar the consequencesconséquences.
196
633120
3771
avant de songer aux conséquences.
10:48
AutonomousAutonome roboticrobotique weaponsarmes concentrateconcentrer too much powerPuissance
197
636891
2981
Les armes robotisées autonomes concentre trop de pouvoir
10:51
in too fewpeu handsmains, and they would imperilmettre en péril democracyla démocratie itselfse.
198
639872
6283
dans trop peu de mains,
et elles mettraient en péril la démocratie elle-même.
10:58
Now, don't get me wrongfaux, I think there are tonstonnes
199
646155
2686
Mais comprenez moi bien, je pense qu'il y a énormément
11:00
of great usesles usages for unarmednon armés civiliancivil dronesdrones:
200
648841
2618
d'utilisation bénéfiques pour des drones civils non armés :
11:03
environmentalenvironnement monitoringsurveillance, searchchercher and rescueporter secours, logisticslogistique.
201
651459
3939
gestion environnementale, recherche et sauvetage, logistique.
11:07
If we have an internationalinternational treatytraité on roboticrobotique weaponsarmes,
202
655398
2826
Si nous avons un traité international sur les armes robotisées,
11:10
how do we gainGain the benefitsavantages of autonomousautonome dronesdrones
203
658224
3587
comme pouvons-nous profiter des gains des drones
11:13
and vehiclesVéhicules while still protectingprotéger ourselvesnous-mêmes
204
661811
2648
et véhicules autonomes tout en nous protégeant
11:16
againstcontre illegalillégal roboticrobotique weaponsarmes?
205
664459
3980
des armes robotisées illégales ?
11:20
I think the secretsecret will be transparencytransparence.
206
668439
4741
Je pense que le secret est la transparence.
11:25
No robotrobot should have an expectationattente of privacyvie privée
207
673180
3013
Aucun robot ne devrait avoir un but privé
11:28
in a publicpublic placeendroit.
208
676193
3451
dans un espace public.
11:31
(ApplauseApplaudissements)
209
679644
5048
( Applaudissements )
11:36
EachChaque robotrobot and dronedrone should have
210
684692
2045
Chaque robot et drone devrait avoir
11:38
a cryptographicallypoint de vue cryptographique signedsigné I.D. burnedbrûlé in at the factoryusine
211
686737
2883
une carte d'identité à signature cryptographique
incrustée à l'usine
11:41
that can be used to trackPiste its movementmouvement throughpar publicpublic spacesles espaces.
212
689620
2923
qui puisse être utilisée pour suivre ses mouvements dans les espaces publics.
11:44
We have licenseLicence platesplaques on carsdes voitures, tailqueue numbersNombres on aircraftavion.
213
692543
3381
Nous avons des plaques d'immatriculation sur les voitures, des immatriculations sur les avions.
11:47
This is no differentdifférent.
214
695924
1841
Ceci n'est aucunement différent.
11:49
And everychaque citizencitoyen should be ablecapable to downloadTélécharger an appapplication
215
697765
2012
Et chaque citoyen devrait pouvoir télécharger une application
11:51
that showsmontre the populationpopulation of dronesdrones and autonomousautonome vehiclesVéhicules
216
699777
3125
qui montre la population de drones et de véhicules autonomes
11:54
movingen mouvement throughpar publicpublic spacesles espaces around them,
217
702902
2429
se déplaçant dans les espaces publics autour d'eux,
11:57
bothtous les deux right now and historicallyhistoriquement.
218
705331
2733
en tant réel et historiquement.
12:00
And civiccivique leadersdirigeants should deploydéployer sensorscapteurs and civiccivique dronesdrones
219
708064
3548
Et les responsables publics devraient déployer des détecteurs et des drones officiels
12:03
to detectdétecter roguevoyous dronesdrones,
220
711612
2344
pour détecter des drones illégaux,
12:05
and insteadau lieu of sendingenvoi killertueur dronesdrones of theirleur ownposséder up to shoottirer them down,
221
713956
3176
et à la place de choisir d'envoyer
des robots tueurs pour les neutraliser
12:09
they should notifynotifier humanshumains to theirleur presenceprésence.
222
717132
2992
ils devraient avertir les humains de leur présence.
12:12
And in certaincertain very high-securityhaute sécurité areaszones,
223
720124
2606
Et dans certaines zones de très haute sécurité,
12:14
perhapspeut être civiccivique dronesdrones would snarecaisse claire them
224
722730
1909
peut-être ces drones les piégreraient
12:16
and dragtraîne them off to a bombbombe disposalélimination facilityétablissement.
225
724639
2841
et les traîneraient dans une installation de déminage.
12:19
But noticeremarquer, this is more an immuneimmunitaire systemsystème
226
727480
3027
Mais notez que ceci est plus un système immunitaire
12:22
than a weaponsarmes systemsystème.
227
730507
1321
qu'un système armé.
12:23
It would allowpermettre us to availprofiter ourselvesnous-mêmes of the use
228
731828
2592
Cela nous autoriserait à utiliser personnellement
12:26
of autonomousautonome vehiclesVéhicules and dronesdrones
229
734420
2032
des véhicules et drones autonomes
12:28
while still preservingpréservant our openouvrir, civilcivil societysociété.
230
736452
4295
tout en préservant notre société ouverte et civile.
12:32
We mustdoit baninterdire the deploymentdéploiement and developmentdéveloppement
231
740747
2999
Nous devons interdire le déploiement et le développement
12:35
of killertueur robotsdes robots.
232
743746
1862
de robots tueurs.
12:37
Let's not succumbSuccombez to the temptationtentation to automateautomatiser warguerre.
233
745608
4850
Ne cédons pas à la tentation d'automatiser la guerre.
12:42
AutocraticAutocratique governmentsGouvernements and criminalcriminel organizationsorganisations
234
750458
2718
Les gouvernements autocratiques
et les organisations criminelles
12:45
undoubtedlysans aucun doute will, but let's not joinjoindre them.
235
753176
2956
céderont à coup sûr, mais ne les rejoignons pas.
12:48
AutonomousAutonome roboticrobotique weaponsarmes
236
756132
1891
Les armes robotisées autonomes
12:50
would concentrateconcentrer too much powerPuissance
237
758023
2051
concentreraient trop de pouvoir
12:52
in too fewpeu unseeninvisible handsmains,
238
760074
2482
dans trop peu de mains invisibles,
12:54
and that would be corrosivecorrosifs to representativereprésentant governmentgouvernement.
239
762556
3255
et cela serait néfaste aux gouvernements représentatifs.
12:57
Let's make sure, for democraciesdémocraties at leastmoins,
240
765811
2961
Soyons certains, au moins pour les démocraties,
13:00
killertueur robotsdes robots remainrester fictionfiction.
241
768772
2604
que les robots tueurs restent une fiction.
13:03
Thank you.
242
771376
1110
Merci
13:04
(ApplauseApplaudissements)
243
772486
4565
(Applaudissements)
13:09
Thank you. (ApplauseApplaudissements)
244
777051
4616
Merci.
(Applaudissements)
Translated by Gabriel Tallineau
Reviewed by Veronica Perez

▲Back to top

ABOUT THE SPEAKER
Daniel Suarez - Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios.

Why you should listen

While working as a software developer, Daniel Suarez self-published Daemon, a cyber-thriller depicting a future where society is radically reshaped by disruptive technologies. It struck a chord -- and so did the sequel, Freedom (TM) -- rocketing Suarez into the pantheon of sci-fi prophets.

In his 2012 novel Kill Decision, Suarez digs into the consequences of technology that’s here to stay: autonomous bots and drones programmed to be lethal. Suarez argues that as we cede more control to software, we gamble with the very essence of democracy itself. How can we establish sane guidelines for technology that could easily outstrip our control?

More profile about the speaker
Daniel Suarez | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee