ABOUT THE SPEAKER
Daniel Suarez - Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios.

Why you should listen

While working as a software developer, Daniel Suarez self-published Daemon, a cyber-thriller depicting a future where society is radically reshaped by disruptive technologies. It struck a chord -- and so did the sequel, Freedom (TM) -- rocketing Suarez into the pantheon of sci-fi prophets.

In his 2012 novel Kill Decision, Suarez digs into the consequences of technology that’s here to stay: autonomous bots and drones programmed to be lethal. Suarez argues that as we cede more control to software, we gamble with the very essence of democracy itself. How can we establish sane guidelines for technology that could easily outstrip our control?

More profile about the speaker
Daniel Suarez | Speaker | TED.com
TEDGlobal 2013

Daniel Suarez: The kill decision shouldn't belong to a robot

Daniel Suarez: Robots mogen niet beslissen over leven en dood

Filmed:
1,946,706 views

Als schrijver verzint Daniel Suarez dystopische toekomstverhalen. Maar op het TED-podium doorloopt hij met ons een echt scenario waar we allemaal meer over moeten weten: het risico op autonome oorlogsrobots. Geavanceerde drones, automatische wapens en spionagetools op basis van artificiële intelligentie zouden volgens hem de mens de beslissing om oorlog te voeren, uit handen kunnen nemen.
- Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios. Full bio

Double-click the English transcript below to play the video.

00:12
I writeschrijven fictionfictie sci-fiSci-Fi thrillersthrillers,
0
691
3158
Ik schrijf sciencefictionthrillers.
00:15
so if I say "killermoordenaar robotsrobots,"
1
3849
2193
Als ik 'killerrobots' zeg,
00:18
you'dje zou probablywaarschijnlijk think something like this.
2
6042
2361
dan denk je waarschijnlijk zoiets.
00:20
But I'm actuallywerkelijk not here to talk about fictionfictie.
3
8403
2555
Maar ik ga het hier niet over fictie hebben.
00:22
I'm here to talk about very realecht killermoordenaar robotsrobots,
4
10958
2948
Ik ga het hebben over echte killerrobots,
00:25
autonomousautonoom combatgevecht dronesDrones.
5
13906
3122
autonome gevechtsdrones.
00:29
Now, I'm not referringverwijzend to PredatorPredator and ReaperReaper dronesDrones,
6
17028
3627
Ik heb het niet over Predators of Reapers,
00:32
whichwelke have a humanmenselijk makingmaking targetinggericht op decisionsbeslissingen.
7
20655
3260
waar een mens beslist welk doel ze kiezen.
00:35
I'm talkingpratend about fullygeheel autonomousautonoom roboticrobot weaponswapens
8
23915
3129
Ik heb het over volledig autonome robotwapens
00:39
that make lethaldodelijk decisionsbeslissingen about humanmenselijk beingswezens
9
27044
2654
die dodelijke beslissingen nemen over mensen,
00:41
all on theirhun owneigen.
10
29698
2417
helemaal alleen.
00:44
There's actuallywerkelijk a technicaltechnisch termtermijn for this: lethaldodelijk autonomyautonomie.
11
32115
4000
Daar bestaat een technische term voor:
dodelijke autonomie.
00:48
Now, lethallydodelijk autonomousautonoom killermoordenaar robotsrobots
12
36115
2856
Dodelijk autonome killerrobots
00:50
would take manyveel formsvormen -- flyingvliegend, drivinghet rijden,
13
38971
3069
hebben vele vormen:
ze vliegen, rijden,
00:54
or just lyingaan het liegen in wait.
14
42040
2746
of liggen gewoon op de loer.
00:56
And actuallywerkelijk, they're very quicklysnel becomingworden a realityrealiteit.
15
44786
3109
Ze worden heel snel een realiteit.
00:59
These are two automaticAutomatisch sniperSniper stationsstations
16
47895
2484
Momenteel zijn er twee automatische
sluipschuttersstations
01:02
currentlymomenteel deployedingezet in the DMZDMZ betweentussen NorthNoord and SouthSouth KoreaKorea.
17
50379
4137
in de gedemilitariseerde zone
tussen Noord- en Zuid-Korea.
01:06
BothBeide of these machinesmachines are capablein staat of automaticallyautomatisch
18
54516
2171
Beide machines kunnen automatisch
01:08
identifyingidentificeren a humanmenselijk targetdoel and firingvuren on it,
19
56687
3524
een menselijk doelwit identificeren en beschieten,
01:12
the one on the left at a distanceafstand of over a kilometerkilometer.
20
60211
4324
de linkse op een afstand
van meer dan een kilometer.
01:16
Now, in bothbeide casesgevallen, there's still a humanmenselijk in the looplus
21
64535
3589
In beide gevallen komt er nog een mens tussen
01:20
to make that lethaldodelijk firingvuren decisionbesluit,
22
68124
2372
om de beslissing tot schieten om te doden te nemen,
01:22
but it's not a technologicaltechnologisch requirementeis. It's a choicekeuze.
23
70496
5413
maar het is geen technologische vereiste.
Het is een keuze.
01:27
And it's that choicekeuze that I want to focusfocus on,
24
75909
3093
Op die keuze wil ik me richten,
01:31
because as we migratetrekken lethaldodelijk decision-makingbesluitvorming
25
79002
2641
want als we dodelijke beslissingen laten verhuizen
01:33
from humansmensen to softwaresoftware,
26
81643
3109
van de mens naar software,
01:36
we riskrisico not only takingnemen the humanityde mensheid out of waroorlog,
27
84752
3476
is het risico niet alleen dat we
het menselijke uit de oorlog verwijderen,
01:40
but alsoook changingveranderen our socialsociaal landscapelandschap entirelygeheel,
28
88228
3526
maar ook dat we ons sociale landschap
volledig wijzigen,
01:43
farver from the battlefieldslagveld.
29
91754
2224
ver van het slagveld.
01:45
That's because the way humansmensen resolveoplossen conflictconflict
30
93978
4509
Want de manier waarop mensen
conflicten oplossen,
01:50
shapesvormen our socialsociaal landscapelandschap.
31
98487
1733
bepaalt ons sociale landschap.
01:52
And this has always been the casegeval, throughoutoveral historygeschiedenis.
32
100220
2633
Dat is in de geschiedenis altijd zo geweest.
01:54
For examplevoorbeeld, these were state-of-the-arthet nieuwste van het nieuwste weaponswapens systemssystemen
33
102853
2661
Er waren bijvoorbeeld moderne wapensystemen
01:57
in 1400 A.D.
34
105514
2079
in 1400 voor Christus.
01:59
Now they were bothbeide very expensiveduur to buildbouwen and maintainin stand houden,
35
107593
3144
Ze waren duur om te bouwen
en te onderhouden,
02:02
but with these you could dominateheersen the populacebevolking,
36
110737
3240
maar je hield er het gepeupel
mee onder de duim
02:05
and the distributiondistributie of politicalpolitiek powermacht in feudalfeodale societymaatschappij reflectedweerspiegeld that.
37
113977
3889
en de verdeling van de politieke macht
in de feodale maatschappij weerspiegelde dat.
02:09
PowerMacht was focusedgefocust at the very toptop.
38
117866
2687
De macht was geconcentreerd aan de top.
02:12
And what changedveranderd? TechnologicalTechnologische innovationinnovatie.
39
120553
3528
Wat veranderde er?
Technologische innovatie.
02:16
GunpowderBuskruit, cannonkanon.
40
124081
1871
Buskruit, het kanon.
02:17
And prettymooi soonspoedig, armorschild and castleskastelen were obsoleteverouderd,
41
125952
3817
Al snel waren harnas en kasteel verouderd.
02:21
and it matteredtelde lessminder who you broughtbracht to the battlefieldslagveld
42
129769
2533
Het maakte minder uit
wie je opstelde op het slagveld
02:24
versusversus how manyveel people you broughtbracht to the battlefieldslagveld.
43
132302
3779
dan hoeveel mensen
je opstelde op het slagveld.
02:28
And as armieslegers grewgroeide in sizegrootte, the nation-statenatiestaat aroseontstonden
44
136081
3638
Naarmate de legers groter werden,
ontstond de natiestaat
02:31
as a politicalpolitiek and logisticallogistieke requirementeis of defenseverdediging.
45
139719
3680
als politieke en logistieke
defensievereiste.
02:35
And as leadersleiders had to relyvertrouwen on more of theirhun populacebevolking,
46
143399
2376
Toen de leiders meer op het gepeupel
moesten rekenen, gingen ze de macht delen.
02:37
they beganbegon to sharedelen powermacht.
47
145775
1833
Toen de leiders meer op het gepeupel
moesten rekenen, gingen ze de macht delen.
02:39
RepresentativeVertegenwoordiger governmentregering beganbegon to formformulier.
48
147608
2599
De representatieve overheid kreeg vorm.
02:42
So again, the toolsgereedschap we use to resolveoplossen conflictconflict
49
150207
3288
De middelen die we gebruiken
om conflicten op te lossen,
02:45
shapevorm our socialsociaal landscapelandschap.
50
153495
3304
geven ons sociale landschap vorm.
02:48
AutonomousAutonome roboticrobot weaponswapens are suchzodanig a toolgereedschap,
51
156799
4064
Autonome robotwapens zijn zo'n middel,
02:52
exceptbehalve that, by requiringvereisen very fewweinig people to go to waroorlog,
52
160863
5168
behalve dat ze, doordat heel weinig mensen
ten oorlog moeten trekken,
02:58
they riskrisico re-centralizingopnieuw centraliseren powermacht into very fewweinig handshanden,
53
166031
4840
het risico inhouden dat de macht weer
in weinig handen wordt geconcentreerd,
03:02
possiblymogelijk reversingomkeren a five-centuryvijf-eeuw trendneiging towardin de richting van democracydemocratie.
54
170871
6515
waardoor een 5 eeuwen lange trend
richting democratie wordt omgekeerd.
03:09
Now, I think, knowingwetende this,
55
177386
1757
Als we dat weten,
03:11
we can take decisivebeslissende stepsstappen to preservebehouden our democraticdemocratisch institutionsinstellingen,
56
179143
4352
kunnen we beslissende stappen zetten
voor het behoud van democratische instellingen
03:15
to do what humansmensen do bestbeste, whichwelke is adaptzich aanpassen.
57
183495
3979
om te doen wat mensen best kunnen:
zich aanpassen.
03:19
But time is a factorfactor.
58
187474
2005
Maar de tijd dringt.
03:21
SeventyZeventig nationslanden are developingontwikkelen remotely-pilotedop afstand bestuurde
59
189479
2851
70 landen ontwikkelen hun eigen
telegeleide gevechtsdrones,
03:24
combatgevecht dronesDrones of theirhun owneigen,
60
192330
2157
70 landen ontwikkelen hun eigen
telegeleide gevechtsdrones,
03:26
and as you'llje zult see, remotely-pilotedop afstand bestuurde combatgevecht dronesDrones
61
194487
2593
Je zal zien dat telegeleide gevechtsdrones
03:29
are the precursorsvoorlopers to autonomousautonoom roboticrobot weaponswapens.
62
197080
4472
de voorlopers zijn van autonome
robotwapens.
03:33
That's because onceeen keer you've deployedingezet remotely-pilotedop afstand bestuurde dronesDrones,
63
201552
2767
Zodra je telegeleide pilootdrones hebt opgesteld,
03:36
there are threedrie powerfulkrachtig factorsfactoren pushingduwen decision-makingbesluitvorming
64
204319
3384
zijn er drie krachtige factoren
die de beslissing wegduwen
03:39
away from humansmensen and on to the weaponwapen platformplatform itselfzelf.
65
207703
4600
van de mens naar het wapensysteem zelf.
03:44
The first of these is the delugedeluge of videovideo- that dronesDrones produceproduceren.
66
212303
5259
De eerste is de overvloed aan beelden
die drones produceren.
03:49
For examplevoorbeeld, in 2004, the U.S. droneDrone fleetvloot producedgeproduceerd
67
217562
3853
In 2004 produceerde de dronevloot van de VS
03:53
a grandgroots totaltotaal of 71 hoursuur of videovideo- surveillancetoezicht for analysisanalyse.
68
221415
5312
samen 71 uur bewakingsfilm voor analyse.
03:58
By 2011, this had goneweg up to 300,000 hoursuur,
69
226727
4499
Tegen 2011 was dat al 300.000 uur geworden,
04:03
outstrippingovertreft humanmenselijk abilityvermogen to reviewbeoordeling it all,
70
231226
3149
meer dan de mens kan nakijken,
04:06
but even that numberaantal is about to go up drasticallydrastisch.
71
234375
3664
maar zelfs dat aantal
zal nog drastisch stijgen.
04:10
The Pentagon'sPentagon GorgonGorgonen (mythologie) StareStare and ArgusArgus programsprogramma's
72
238039
2575
De defensieprogramma's 'Gorgonenblik' en 'Argus'
zetten tot 65 onafhankelijke camera-ogen
04:12
will put up to 65 independentlyonafhankelijk operatedbediend cameracamera eyesogen
73
240614
3164
De defensieprogramma's 'Gorgonenblik' en 'Argus'
zetten tot 65 onafhankelijke camera-ogen
04:15
on eachelk droneDrone platformplatform,
74
243778
2038
op elk droneplatform.
04:17
and this would vastlyenorm outstripovertreffen humanmenselijk abilityvermogen to reviewbeoordeling it.
75
245816
3303
Dat zou veel meer zijn
dan de mens kan nakijken.
04:21
And that meansmiddelen visualzichtbaar intelligenceintelligentie- softwaresoftware will need
76
249119
2160
Dat betekent dat visuele inlichtingensoftware
04:23
to scanscannen it for itemsitems of interestinteresseren.
77
251279
4048
ze zal moeten doorzoeken
naar interessante dingen.
04:27
And that meansmiddelen very soonspoedig
78
255327
1348
Dat betekent dat binnenkort
04:28
dronesDrones will tell humansmensen what to look at,
79
256675
2747
de drones de mensen zullen zeggen
waar ze naar moeten kijken,
04:31
not the other way around.
80
259422
2497
niet omgekeerd.
04:33
But there's a secondtweede powerfulkrachtig incentiveaansporing pushingduwen
81
261919
2473
Maar er is een tweede krachtige stimulans
04:36
decision-makingbesluitvorming away from humansmensen and ontonaar machinesmachines,
82
264392
3383
om de beslissing van de mens
naar de machine te verplaatsen:
04:39
and that's electromagneticelektromagnetische jammingJamming,
83
267775
2872
elektromagnetische stoorzenders,
04:42
severingversnijden the connectionverbinding betweentussen the droneDrone
84
270647
2236
die de verbinding tussen de drone
04:44
and its operatoroperator.
85
272883
2814
en zijn bestuurder verbreken.
04:47
Now we saw an examplevoorbeeld of this in 2011
86
275697
2618
We zagen er een voorbeeld van in 2011
04:50
when an AmericanAmerikaanse RQ-RQ-170 SentinelSentinel droneDrone
87
278315
2956
toen een Amerikaanse RQ-170 Sentinel
04:53
got a bitbeetje confusedverward over IranIran dueten gevolge to a GPSGPS spoofingSpoofing attackaanval,
88
281271
4307
in de war raakte boven Iran
door een moedwillige verstoring van zijn gps.
04:57
but any remotely-pilotedop afstand bestuurde droneDrone is susceptiblevatbaar to this typetype of attackaanval,
89
285578
5114
Elke telegeleide drone is kwetsbaar
voor dat soort aanvallen.
05:02
and that meansmiddelen dronesDrones
90
290692
2052
Dat betekent dat drones
05:04
will have to shoulderschouder more decision-makingbesluitvorming.
91
292744
3620
meer beslissingen zullen moeten nemen.
05:08
They'llZij zullen know theirhun missionmissie objectivedoelstelling,
92
296364
3043
Ze zullen het doel van hun missie kennen
05:11
and they'llzullen ze reactReageer to newnieuwe circumstancessituatie withoutzonder humanmenselijk guidancebegeleiding.
93
299407
4845
en reageren op nieuwe omstandigheden
zonder menselijke hulp.
05:16
They'llZij zullen ignorenegeren externalextern radioradio- signalssignalen
94
304252
2581
Ze zullen externe radiosignalen negeren
05:18
and sendsturen very fewweinig of theirhun owneigen.
95
306833
2330
en er zelf niet veel uitzenden.
05:21
WhichDie bringsbrengt us to, really, the thirdderde
96
309163
2006
Dat brengt ons tot de derde
05:23
and mostmeest powerfulkrachtig incentiveaansporing pushingduwen decision-makingbesluitvorming
97
311169
3862
en krachtigste stimulans
om beslissingen te verplaatsen
05:27
away from humansmensen and ontonaar weaponswapens:
98
315031
3342
van de mens naar de wapens:
05:30
plausibleplausibel deniabilityontkenbaarheid.
99
318373
3293
plausibele ontkenbaarheid.
05:33
Now we liveleven in a globalglobaal economyeconomie.
100
321666
2887
We leven in een globale economie.
05:36
High-techHigh-tech manufacturingfabricage is occurringvoorkomend on mostmeest continentscontinenten.
101
324553
4334
Er is hoogtechnologische productie
op de meeste continenten.
05:40
CyberCyber espionagespionage is spiritingverdwijnen away advancedgevorderd designsontwerpen
102
328887
2914
Cyberspionage moffelt
geavanceerde ontwerpen weg
05:43
to partsonderdelen unknownonbekend,
103
331801
1886
in onbekende onderdelen.
05:45
and in that environmentmilieu, it is very likelywaarschijnlijk
104
333687
2014
In die omgeving is het heel waarschijnlijk
05:47
that a successfulgeslaagd droneDrone designontwerp will be knockedklopte off in contractcontract factoriesfabrieken,
105
335701
4734
dat succesvolle droneontwerpen
zullen worden gemaakt in fabrieken van onderaannemers
05:52
proliferatevermenigvuldigen in the graygrijs marketmarkt.
106
340435
2170
en vandaar richting grijze markt gaan.
05:54
And in that situationsituatie, siftingzeven throughdoor the wreckagewrak
107
342605
2460
In die situatie zal het,
als je het wrak
05:57
of a suicidezelfmoord droneDrone attackaanval, it will be very difficultmoeilijk to say
108
345065
2960
van een zelfmoorddrone doorzoekt,
heel moeilijk te zeggen zijn
06:00
who sentverzonden that weaponwapen.
109
348025
4400
wie dat wapen heeft gestuurd.
06:04
This raisesraises the very realecht possibilitymogelijkheid
110
352425
2800
Daardoor wordt de mogelijkheid
van anoniem oorlogvoeren heel reëel.
06:07
of anonymousanoniem waroorlog.
111
355225
2935
Daardoor wordt de mogelijkheid
van anoniem oorlogvoeren heel reëel.
06:10
This could tiltkantelen the geopoliticalgeopolitiek balancebalans on its headhoofd,
112
358160
2614
Dat zou het geopolitieke evenwicht
op zijn kop kunnen zetten,
06:12
make it very difficultmoeilijk for a nationnatie to turnbeurt its firepowervuurkracht
113
360774
3491
waardoor het voor een natie moeilijk wordt
om zijn vuurkracht in te zetten
06:16
againsttegen an attackeraanvaller, and that could shiftverschuiving the balancebalans
114
364265
2848
tegen een aanvaller.
Dat zou de balans kunnen doen overhellen
06:19
in the 21stst centuryeeuw away from defenseverdediging and towardin de richting van offenseovertreding.
115
367113
3764
van verdediging naar aanval
in de 21e eeuw.
06:22
It could make militaryleger actionactie a viablerendabel optionkeuze
116
370877
3124
Het zou van militaire actie
een haalbare kaart maken,
06:26
not just for smallklein nationslanden,
117
374001
2288
niet alleen voor kleine landen,
06:28
but criminalcrimineel organizationsorganisaties, privateprivaat enterpriseonderneming,
118
376289
2545
maar voor criminele organisaties,
privébedrijven,
06:30
even powerfulkrachtig individualsindividuen.
119
378834
2479
zelfs machtige individuen.
06:33
It could createcreëren a landscapelandschap of rivalconcurrent warlordskrijgsheren
120
381313
3328
Het zou een landschap
van rivaliserende krijgsheren creëren
06:36
underminingondermijnen ruleregel of lawwet and civilciviel societymaatschappij.
121
384641
3680
die de rechtsstaat en de burgerlijke
maatschappij ondermijnen.
06:40
Now if responsibilityverantwoordelijkheid and transparencytransparantie
122
388321
3616
Als verantwoordelijkheid en transparantie
06:43
are two of the cornerstoneshoekstenen of representativevertegenwoordiger governmentregering,
123
391937
2384
twee hoekstenen zijn van de representatieve democratie,
06:46
autonomousautonoom roboticrobot weaponswapens could undermineondermijnen bothbeide.
124
394321
4320
dan kunnen autonome robotwapens
ze beide ondermijnen.
06:50
Now you mightmacht be thinkinghet denken that
125
398641
1546
Misschien denk je
06:52
citizensburgers of high-techhigh Tech nationslanden
126
400187
2246
dat burgers van hoogtechnologische naties
06:54
would have the advantagevoordeel in any roboticrobot waroorlog,
127
402433
2703
voordeel hebben bij elke robotoorlog,
06:57
that citizensburgers of those nationslanden would be lessminder vulnerablekwetsbaar,
128
405136
3633
dat burgers van die naties
minder kwetsbaar zouden zijn,
07:00
particularlyvooral againsttegen developingontwikkelen nationslanden.
129
408769
4288
vooral tegen ontwikkelingslanden.
07:05
But I think the truthwaarheid is the exactexact oppositetegenover.
130
413057
3524
Volgens mij is het net andersom.
07:08
I think citizensburgers of high-techhigh Tech societiessamenlevingen
131
416581
2251
Ik denk dat burgers
van hoogtechnologische maatschappijen
07:10
are more vulnerablekwetsbaar to roboticrobot weaponswapens,
132
418832
3729
kwetsbaarder zijn voor robotwapens.
07:14
and the reasonreden can be summedopgeteld up in one wordwoord: datagegevens.
133
422561
4465
Dat ligt aan één enkel ding: gegevens.
07:19
DataGegevens powersbevoegdheden high-techhigh Tech societiessamenlevingen.
134
427026
3481
Gegevens zijn de motor van hightech-maatschappijen.
07:22
CellCel phonetelefoon geolocationGeolocation, telecomTelecom metadatametagegevens,
135
430507
3190
Gsm-geolocatie, metagegevens van telecommunicatie,
07:25
socialsociaal mediamedia, emaile-mail, texttekst, financialfinancieel transactiontransactie datagegevens,
136
433697
3472
sociale media, email, sms, financiële transactiegegevens,
07:29
transportationvervoer datagegevens, it's a wealthrijkdom of real-timeechte tijd datagegevens
137
437169
3532
transportgegegeven, een overvloed
aan realtime-gegevens
07:32
on the movementsbewegingen and socialsociaal interactionsinteracties of people.
138
440701
3373
over de bewegingen en sociale interactie van mensen.
07:36
In shortkort, we are more visiblezichtbaar to machinesmachines
139
444074
3775
Kortom, we zijn zichtbaarder voor machines
07:39
than any people in historygeschiedenis,
140
447849
2242
dan wie dan ook in de geschiedenis.
07:42
and this perfectlyvolmaakt suitspast bij the targetinggericht op needsbehoefte aan of autonomousautonoom weaponswapens.
141
450091
5616
Dat is perfect voor een autonoom wapen
dat een doel in het vizier moet krijgen.
07:47
What you're looking at here
142
455707
1738
Wat je hier ziet,
07:49
is a linklink analysisanalyse mapkaart of a socialsociaal groupgroep.
143
457445
3246
is een linkanalyse van een sociale groep.
07:52
LinesLijnen indicateaangeven socialsociaal connectednessverbondenheid betweentussen individualsindividuen.
144
460691
3634
Links wijzen op sociale verbondenheid
tussen individuen.
07:56
And these typestypes of mapskaarten can be automaticallyautomatisch generatedgegenereerd
145
464325
2880
Dit soort kaarten kan automatisch gemaakt worden
07:59
basedgebaseerde on the datagegevens trailspoor modernmodern people leavehet verlof behindachter.
146
467205
4715
op basis van het spoor van gegevens
dat moderne mensen achterlaten.
08:03
Now it's typicallytypisch used to marketmarkt goodsgoederen and servicesdiensten
147
471920
2477
Ze worden meestal gebruikt
om goederen en diensten te verkopen
08:06
to targeteddoelgerichte demographicsdemografie, but it's a dual-useproducten voor tweeërlei gebruik technologytechnologie,
148
474397
4416
aan doelgroepen, maar het is
een tweesnijdende technologie,
08:10
because targetinggericht op is used in anothereen ander contextcontext.
149
478813
3360
als 'doelen' in een andere context worden gebruikt.
08:14
NoticeAankondiging that certainzeker individualsindividuen are highlightedgemarkeerd.
150
482173
2560
Je ziet dat bepaalde individuen gemarkeerd zijn.
08:16
These are the hubshubs of socialsociaal networksnetwerken.
151
484733
3280
Dit zijn de knooppunten van de sociale netwerken:
08:20
These are organizersorganisatoren, opinion-makersopiniemakers, leadersleiders,
152
488013
3590
organisatoren, opiniemakers, leiders.
08:23
and these people alsoook can be automaticallyautomatisch identifiedgeïdentificeerd
153
491603
2682
Deze mensen kan je automatisch identificeren
08:26
from theirhun communicationcommunicatie patternspatronen.
154
494285
2382
op basis van hun communicatiepatroon.
08:28
Now, if you're a marketermarketeer, you mightmacht then targetdoel them
155
496667
2146
Als marketeer kan je je op hen richten
08:30
with productartikel samplessamples, try to spreadverspreiding your brandmerk
156
498813
2543
met productstalen, als je je merk wil verspreiden
08:33
throughdoor theirhun socialsociaal groupgroep.
157
501356
2829
in hun sociale groep.
08:36
But if you're a repressiveonderdrukkend governmentregering
158
504185
1953
Maar als je een repressieve overheid bent,
08:38
searchingzoeken for politicalpolitiek enemiesvijanden, you mightmacht insteadin plaats daarvan removeverwijderen them,
159
506138
4810
op zoek naar politieke vijanden,
kan je ze ook verwijderen,
08:42
eliminateelimineren them, disruptontwrichten theirhun socialsociaal groupgroep,
160
510948
2760
uitschakelen, hun sociale groep verstoren.
08:45
and those who remainblijven behindachter loseverliezen socialsociaal cohesionsamenhang
161
513708
3169
De achterblijvers verliezen sociale samenhang
08:48
and organizationorganisatie.
162
516877
2621
en organisatie.
08:51
Now in a worldwereld- of cheapgoedkoop, proliferatingprolifererende roboticrobot weaponswapens,
163
519498
3324
In een wereld van goedkope, uitdijende robotwapens,
08:54
bordersborders would offeraanbod very little protectionbescherming
164
522822
2635
zouden grenzen heel weinig bescherming bieden
08:57
to criticscritici of distantafgelegen governmentsoverheden
165
525457
1946
aan de critici van verre overheden
08:59
or trans-nationaltrans-nationale criminalcrimineel organizationsorganisaties.
166
527403
3646
of transnationale criminele organisaties.
09:03
PopularPopulaire movementsbewegingen agitatingagerende for changeverandering
167
531049
3493
Volksbewegingen die op verandering aansturen,
09:06
could be detectedgedetecteerd earlyvroeg and theirhun leadersleiders eliminatedgeëlimineerd
168
534542
3609
zouden vroeg ontdekt kunnen worden
en hun leiders uitgeschakeld
09:10
before theirhun ideasideeën achievebereiken criticalkritisch massmassa-.
169
538151
2911
nog voor hun ideeën kritische massa bereiken.
09:13
And ideasideeën achievingverwezenlijking van criticalkritisch massmassa-
170
541062
2591
Ideeën die kritische massa bereiken,
09:15
is what politicalpolitiek activismactivisme in popularpopulair governmentregering is all about.
171
543653
3936
daar draait elk politiek activisme om in een democratie.
09:19
AnonymousAnonieme lethaldodelijk weaponswapens could make lethaldodelijk actionactie
172
547589
3997
Anonieme dodelijke wapens
kunnen van dodelijke actie
09:23
an easygemakkelijk choicekeuze for all sortssoorten of competingconcurrerende interestsbelangen.
173
551586
3782
een gemakkelijke keuze maken
voor allerlei concurrerende belangen.
09:27
And this would put a chillChill on freegratis speechtoespraak
174
555368
3734
Dat zou de vrije meningsuiting belemmeren
09:31
and popularpopulair politicalpolitiek actionactie, the very hearthart- of democracydemocratie.
175
559102
5308
en politieke actie van het volk,
het hart van de democratie.
09:36
And this is why we need an internationalInternationale treatyVerdrag
176
564410
2914
Daarom hebben we nood aan
een internationaal verdrag
09:39
on roboticrobot weaponswapens, and in particularbijzonder a globalglobaal banban
177
567324
3540
over robotwapens, en meer bepaald
een wereldwijd verbod
09:42
on the developmentontwikkeling and deploymentimplementatie of killermoordenaar robotsrobots.
178
570864
3908
op het ontwikkelen en inzetten
van killerrobots.
09:46
Now we alreadynu al have internationalInternationale treatiesverdragen
179
574772
3254
We hebben al internationale verdragen
09:50
on nuclearnucleair and biologicalbiologisch weaponswapens, and, while imperfectonvolmaakt,
180
578026
3386
over nucleaire en biologische wapens.
Die zijn niet perfect,
09:53
these have largelygrotendeels workedwerkte.
181
581412
2288
maar ze hebben wel grotendeels gewerkt.
09:55
But roboticrobot weaponswapens mightmacht be everyelk bitbeetje as dangerousgevaarlijk,
182
583700
3768
Robotwapens zouden even gevaarlijk
kunnen zijn,
09:59
because they will almostbijna certainlyzeker be used,
183
587468
3288
want ze zullen bijna zeker worden ingezet
10:02
and they would alsoook be corrosivebijtende to our democraticdemocratisch institutionsinstellingen.
184
590756
5027
en ze zouden onze democratische instellingen ondermijnen.
10:07
Now in NovemberNovember 2012 the U.S. DepartmentDepartement of DefenseDefensie
185
595783
3468
In november 2012 verplichtte
het Ministerie van Defensie van de VS
10:11
issueduitgegeven a directiverichtlijn requiringvereisen
186
599251
2458
In november 2012 verplichtte
het Ministerie van Defensie van de VS
10:13
a humanmenselijk beingwezen be presentaanwezig in all lethaldodelijk decisionsbeslissingen.
187
601709
4519
de aanwezigheid van een mens
bij alle beslissingen over leven en dood.
10:18
This temporarilytijdelijk effectivelyeffectief bannedverboden autonomousautonoom weaponswapens in the U.S. militaryleger,
188
606228
4776
Daardoor werden automatische wapens
tijdelijk effectief verboden in het leger van de VS,
10:23
but that directiverichtlijn needsbehoefte aan to be madegemaakt permanentblijvend.
189
611004
3753
maar die richtlijn moet permanent worden.
10:26
And it could setreeks the stagestadium for globalglobaal actionactie.
190
614757
4376
Dat zou de voorbereiding kunnen zijn
van wereldwijde actie.
10:31
Because we need an internationalInternationale legalwettelijk frameworkkader
191
619133
3845
We hebben een internationaal wettelijk kader nodig
10:34
for roboticrobot weaponswapens.
192
622978
2138
voor robotwapens,
10:37
And we need it now, before there's a devastatingverwoestende attackaanval
193
625116
2928
en wel meteen, voor er een verwoestende aanval is
10:40
or a terroristterrorist incidentincident that causesoorzaken nationslanden of the worldwereld-
194
628044
3152
of een terroristische aanslag waardoor landen
10:43
to rushstormloop to adoptadopteren these weaponswapens
195
631196
1924
snel-snel deze wapens inzetten
zonder over de gevolgen na te denken.
10:45
before thinkinghet denken throughdoor the consequencesgevolgen.
196
633120
3771
snel-snel deze wapens inzetten
zonder over de gevolgen na te denken.
10:48
AutonomousAutonome roboticrobot weaponswapens concentrateconcentreren too much powermacht
197
636891
2981
Automatische robotwapens concentreren teveel macht
10:51
in too fewweinig handshanden, and they would imperilin gevaar brengen democracydemocratie itselfzelf.
198
639872
6283
in te weinig handen, en ze zouden de democratie zelf
in gevaar brengen.
10:58
Now, don't get me wrongfout, I think there are tonstons
199
646155
2686
Begrijp me niet verkeerd,
ik denk dat er massa's
11:00
of great usestoepassingen for unarmedongewapende civilianciviel dronesDrones:
200
648841
2618
toepassingen zijn voor onbewapende civiele drones:
11:03
environmentalmilieu monitoringtoezicht houden, searchzoeken and rescueredden, logisticslogistiek.
201
651459
3939
milieubewaking, reddingsoperaties, logistiek.
11:07
If we have an internationalInternationale treatyVerdrag on roboticrobot weaponswapens,
202
655398
2826
Als we een internationaal verdrag op robotwapens hebben,
11:10
how do we gainkrijgen the benefitsvoordelen of autonomousautonoom dronesDrones
203
658224
3587
hoe kunnen we dan de voordelen van autonome drones
11:13
and vehiclesvoertuigen while still protectingbescherming ourselvesonszelf
204
661811
2648
en voertuigen combineren met bescherming
11:16
againsttegen illegalonwettig roboticrobot weaponswapens?
205
664459
3980
tegen illegale robotwapens?
11:20
I think the secretgeheim will be transparencytransparantie.
206
668439
4741
Ik denk dat het geheim transparantie zal zijn.
11:25
No robotrobot should have an expectationverwachting of privacyprivacy
207
673180
3013
Geen enkele robot mag zich aan privacy verwachten
11:28
in a publicopenbaar placeplaats.
208
676193
3451
op een openbare plaats.
11:31
(ApplauseApplaus)
209
679644
5048
(Applaus)
11:36
EachElke robotrobot and droneDrone should have
210
684692
2045
In elke robot en drone zou een cryptografisch ondertekend
identiteitsbewijs moeten gegraveerd zijn
11:38
a cryptographicallycryptografisch signedondertekend I.D. burnedverbrand in at the factoryfabriek
211
686737
2883
In elke robot en drone zou een cryptografisch ondertekend
identiteitsbewijs moeten gegraveerd zijn
11:41
that can be used to trackspoor its movementbeweging throughdoor publicopenbaar spacesruimten.
212
689620
2923
dat kan worden gebruikt om zijn beweging
door publieke ruimtes te volgen.
11:44
We have licenselicentie platesplaten on carsauto's, tailstaart numbersgetallen on aircraftvliegtuig.
213
692543
3381
We hebben nummerplaten op auto's
en staartnummers op vliegtuigen.
11:47
This is no differentverschillend.
214
695924
1841
Dit is niet anders.
11:49
And everyelk citizeninwoner should be ablein staat to downloaddownloaden an appapp
215
697765
2012
Elke burger zou een app moeten kunnen downloaden
11:51
that showsshows the populationbevolking of dronesDrones and autonomousautonoom vehiclesvoertuigen
216
699777
3125
die de populatie van drones en autonome voertuigen toont
11:54
movingin beweging throughdoor publicopenbaar spacesruimten around them,
217
702902
2429
die zich door de publieke ruimte om hem heen beweegt,
11:57
bothbeide right now and historicallyhistorisch.
218
705331
2733
nu meteen en in het verleden.
12:00
And civicburgerlijk leadersleiders should deployimplementeren sensorssensors and civicburgerlijk dronesDrones
219
708064
3548
Burgerleiders zouden sensoren
en burgerlijke drones moeten inzetten
12:03
to detectopsporen rogueRogue dronesDrones,
220
711612
2344
om schurkendrones te detecteren.
12:05
and insteadin plaats daarvan of sendingBezig met verzenden killermoordenaar dronesDrones of theirhun owneigen up to shootschieten them down,
221
713956
3176
In plaats van eigen killerdrones te sturen
om ze af te maken,
12:09
they should notifyHoud op de hoogte humansmensen to theirhun presenceaanwezigheid.
222
717132
2992
zouden ze mensen
op hun aanwezigheid moeten wijzen.
12:12
And in certainzeker very high-securitystrenge beveiliging areasgebieden,
223
720124
2606
In bepaalde strenge veiligheidszones
12:14
perhapsmisschien civicburgerlijk dronesDrones would snaresnare them
224
722730
1909
zouden burgerlijke drones ze kunnen strikken
12:16
and dragslepen them off to a bombbom disposalverwijdering facilityfaciliteit.
225
724639
2841
en wegslepen naar een ontmijningsinstallatie.
12:19
But noticekennisgeving, this is more an immuneimmuun systemsysteem
226
727480
3027
Maar dit is veeleer een immuunsysteem
12:22
than a weaponswapens systemsysteem.
227
730507
1321
dan een wapensysteem.
12:23
It would allowtoestaan us to availbaten ourselvesonszelf of the use
228
731828
2592
Het zou ons toelaten om
12:26
of autonomousautonoom vehiclesvoertuigen and dronesDrones
229
734420
2032
autonome voertuigen en drones te gebruiken
12:28
while still preservingbehoud van our openOpen, civilciviel societymaatschappij.
230
736452
4295
zonder onze open, burgerlijke maatschappij op te geven.
12:32
We mustmoet banban the deploymentimplementatie and developmentontwikkeling
231
740747
2999
We moeten de inzet en ontwikkeling
12:35
of killermoordenaar robotsrobots.
232
743746
1862
van killerrobots verbieden.
12:37
Let's not succumbbezwijken to the temptationverleiding to automateautomatiseren waroorlog.
233
745608
4850
Laten we niet zwichten voor de verleiding
om oorlog te automatiseren.
12:42
AutocraticAutocratische governmentsoverheden and criminalcrimineel organizationsorganisaties
234
750458
2718
Autocratische regeringen
en criminele organisaties
12:45
undoubtedlyongetwijfeld will, but let's not jointoetreden them.
235
753176
2956
zullen dat zeker doen.
Laten we ze niet volgen.
12:48
AutonomousAutonome roboticrobot weaponswapens
236
756132
1891
Autonome robotwapens
12:50
would concentrateconcentreren too much powermacht
237
758023
2051
zouden te veel macht concentreren
12:52
in too fewweinig unseenongezien handshanden,
238
760074
2482
in te weinig onzichtbare handen.
12:54
and that would be corrosivebijtende to representativevertegenwoordiger governmentregering.
239
762556
3255
Dat zou de representatieve democratie ondermijnen.
12:57
Let's make sure, for democraciesdemocratieën at leastminst,
240
765811
2961
Laten we ervoor zorgen dat,
tenminste voor democratieën,
13:00
killermoordenaar robotsrobots remainblijven fictionfictie.
241
768772
2604
killerrobots fictie blijven.
13:03
Thank you.
242
771376
1110
Dankuwel.
13:04
(ApplauseApplaus)
243
772486
4565
(Applaus)
13:09
Thank you. (ApplauseApplaus)
244
777051
4616
Dankuwel. (Applaus)
Translated by Els De Keyser
Reviewed by Rik Delaet

▲Back to top

ABOUT THE SPEAKER
Daniel Suarez - Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios.

Why you should listen

While working as a software developer, Daniel Suarez self-published Daemon, a cyber-thriller depicting a future where society is radically reshaped by disruptive technologies. It struck a chord -- and so did the sequel, Freedom (TM) -- rocketing Suarez into the pantheon of sci-fi prophets.

In his 2012 novel Kill Decision, Suarez digs into the consequences of technology that’s here to stay: autonomous bots and drones programmed to be lethal. Suarez argues that as we cede more control to software, we gamble with the very essence of democracy itself. How can we establish sane guidelines for technology that could easily outstrip our control?

More profile about the speaker
Daniel Suarez | Speaker | TED.com