ABOUT THE SPEAKER
Daniel Suarez - Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios.

Why you should listen

While working as a software developer, Daniel Suarez self-published Daemon, a cyber-thriller depicting a future where society is radically reshaped by disruptive technologies. It struck a chord -- and so did the sequel, Freedom (TM) -- rocketing Suarez into the pantheon of sci-fi prophets.

In his 2012 novel Kill Decision, Suarez digs into the consequences of technology that’s here to stay: autonomous bots and drones programmed to be lethal. Suarez argues that as we cede more control to software, we gamble with the very essence of democracy itself. How can we establish sane guidelines for technology that could easily outstrip our control?

More profile about the speaker
Daniel Suarez | Speaker | TED.com
TEDGlobal 2013

Daniel Suarez: The kill decision shouldn't belong to a robot

Daniel Suarez: Roboter sollten keine tödlichen Entscheidungen treffen

Filmed:
1,946,706 views

Als Science-Fiction-Autor schreibt Daniel Suarez katastrophale Geschichten über die Zukunft. Auf der TEDGlobal-Bühne erzählt er jedoch von einem realen Szenario, über das wir alle mehr wissen sollten: der Aufstieg der autonomen Roboter-Waffen im Krieg. Fortgeschrittene Drohnen, automatisierte Waffen und mit künstlicher Intelligenz betriebene und Daten sammelnde Werkzeuge, sagt er, könnten die Entscheidung, einen Krieg zu führen, aus den Händen der Menschen rauben.
- Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios. Full bio

Double-click the English transcript below to play the video.

00:12
I writeschreiben fictionFiktion sci-fiSci-Fi thrillersThriller,
0
691
3158
Ich schreibe Sci-Fi Thriller,
00:15
so if I say "killerMörder robotsRoboter,"
1
3849
2193
wenn ich also "Killer-Roboter" sage,
00:18
you'ddu würdest probablywahrscheinlich think something like this.
2
6042
2361
dann denken Sie wahrscheinlich
an einen wie diesen.
00:20
But I'm actuallytatsächlich not here to talk about fictionFiktion.
3
8403
2555
Aber ich bin nicht hier,
um über Fiktion zu sprechen.
00:22
I'm here to talk about very realecht killerMörder robotsRoboter,
4
10958
2948
Ich bin hier, um über echte
Killer-Roboter zu sprechen,
00:25
autonomousautonom combatKampf dronesDrohnen.
5
13906
3122
eigenständige Kampfdrohnen.
Nicht die ferngesteuerten Kampfdrohnen,
00:29
Now, I'm not referringBezugnahme to PredatorPredator and ReaperSchnitter dronesDrohnen,
6
17028
3627
00:32
whichwelche have a humanMensch makingHerstellung targetingTargeting decisionsEntscheidungen.
7
20655
3260
bei denen über das Ziel
ein Mensch entscheidet,
00:35
I'm talkingim Gespräch about fullyvöllig autonomousautonom roboticRoboter weaponsWaffen
8
23915
3129
Ich rede über völlig automatische Roboterwaffen,
00:39
that make lethaltödlich decisionsEntscheidungen about humanMensch beingsWesen
9
27044
2654
die tödliche Entscheidungen über
Menschenleben treffen können,
00:41
all on theirihr ownbesitzen.
10
29698
2417
völlig ohne menschliche Hilfe.
00:44
There's actuallytatsächlich a technicaltechnisch termBegriff for this: lethaltödlich autonomyAutonomie.
11
32115
4000
Es gibt tatsächlich einen technischen
Ausdruck dafür: "tödliche Autonomie".
00:48
Now, lethallyletal autonomousautonom killerMörder robotsRoboter
12
36115
2856
Tödlich autonome Killer-Roboter
00:50
would take manyviele formsFormen -- flyingfliegend, drivingFahren,
13
38971
3069
könnten viele Formen annehmen
– sie könnten fliegen, fahren,
00:54
or just lyingliegend in wait.
14
42040
2746
oder einfach nur lauern.
00:56
And actuallytatsächlich, they're very quicklyschnell becomingWerden a realityWirklichkeit.
15
44786
3109
Und sie werden sehr schnell
zur Realität werden.
00:59
These are two automaticAutomatisch sniperScharfschützen stationsStationen
16
47895
2484
Das sind zwei automatische
Scharfschuss-Stationen,
01:02
currentlyzur Zeit deployedbereitgestellt in the DMZDMZ betweenzwischen NorthNorden and SouthSüden KoreaKorea.
17
50379
4137
die aktuell in der DMZ
zwischen Nord- und Süd-Korea liegen.
01:06
BothBeide of these machinesMaschinen are capablefähig of automaticallyautomatisch
18
54516
2171
Beide dieser Maschinen sind fähig,
automatisch
01:08
identifyingIdentifizierung von a humanMensch targetZiel and firingfeuern on it,
19
56687
3524
menschliche Ziele zu erfassen
und auf sie zu feuern.
01:12
the one on the left at a distanceEntfernung of over a kilometerKilometer.
20
60211
4324
Die linke auf eine Distanz
von über einem Kilometer.
01:16
Now, in bothbeide casesFälle, there's still a humanMensch in the loopSchleife
21
64535
3589
Es sind in beiden Fällen jedoch
immer noch Menschen im System,
01:20
to make that lethaltödlich firingfeuern decisionEntscheidung,
22
68124
2372
um diesen tödlichen Entschluss
zu feuern zu treffen.
01:22
but it's not a technologicaltechnologisch requirementAnforderung. It's a choiceWahl.
23
70496
5413
Es ist technologisch jedoch
nicht notwendig. Es ist eine Wahl.
01:27
And it's that choiceWahl that I want to focusFokus on,
24
75909
3093
Und auf diese Wahl möchte ich
mich konzentrieren,
01:31
because as we migratewandern lethaltödlich decision-makingEntscheidung fällen
25
79002
2641
denn wenn wir das Treffen
todbringender Entscheidungen
01:33
from humansMenschen to softwareSoftware,
26
81643
3109
von Menschen auf Software übertragen,
01:36
we riskRisiko not only takingunter the humanityMenschheit out of warKrieg,
27
84752
3476
riskieren wir nicht nur,
die Menschlichkeit aus dem Krieg zu entfernen,
01:40
but alsoebenfalls changingÄndern our socialSozial landscapeLandschaft entirelyvollständig,
28
88228
3526
sondern auch die gesellschaftliche Lage
grundlegend zu verändern.
01:43
farweit from the battlefieldSchlachtfeld.
29
91754
2224
Weit entfernt vom Schlachtfeld.
01:45
That's because the way humansMenschen resolveEntschlossenheit conflictKonflikt
30
93978
4509
Das erfolgt daraus, dass die Art,
wie Menschen Konflikte lösen,
01:50
shapesFormen our socialSozial landscapeLandschaft.
31
98487
1733
unsere soziale Landschaft formt.
01:52
And this has always been the caseFall, throughoutwährend historyGeschichte.
32
100220
2633
Und das war schon immer
in der Geschichte.
01:54
For exampleBeispiel, these were state-of-the-artDer letzte Stand der Technik weaponsWaffen systemsSysteme
33
102853
2661
Das waren beispielsweise
die besten Waffensysteme
01:57
in 1400 A.D.
34
105514
2079
im Jahre 1400.
01:59
Now they were bothbeide very expensiveteuer to buildbauen and maintainpflegen,
35
107593
3144
Sie waren beide sehr teuer
in der Herstellung und der Aufrechterhaltung.
02:02
but with these you could dominatedominieren the populaceBevölkerung,
36
110737
3240
Mit ihnen konnte man jedoch
die Bevölkerung dominieren
02:05
and the distributionVerteilung of politicalpolitisch powerLeistung in feudalfeudale societyGesellschaft reflectedreflektiert that.
37
113977
3889
und die Verteilung der politischen Macht in einer Feudalgesellschaft spiegelt das wider.
02:09
PowerMacht was focusedfokussiert at the very topoben.
38
117866
2687
Macht war an der Spitze konzentriert.
02:12
And what changedgeändert? TechnologicalTechnologische innovationInnovation.
39
120553
3528
Und was hat sich verändert?
Technologische Neuerung.
02:16
GunpowderSchießpulver, cannonKanone.
40
124081
1871
Schießpulver, Kanonen.
02:17
And prettyziemlich soonbald, armorRüstung and castlesBurgen were obsoleteobsolet,
41
125952
3817
Und ziemlich schnell waren Rüstungen
und Festungen veraltet
02:21
and it matteredwichtig lessWeniger who you broughtgebracht to the battlefieldSchlachtfeld
42
129769
2533
und es zählte nicht mehr,
wen du auf's Schlachtfeld brachtest,
02:24
versusgegen how manyviele people you broughtgebracht to the battlefieldSchlachtfeld.
43
132302
3779
sondern wie viele.
02:28
And as armiesArmeen grewwuchs in sizeGröße, the nation-stateNationalstaat aroseentstand
44
136081
3638
Und als Armeen in der Größe zunahmen,
entstand der Nationalstaat
02:31
as a politicalpolitisch and logisticallogistische requirementAnforderung of defenseVerteidigung.
45
139719
3680
als politische und logistische Voraussetzung
von Verteidigung.
02:35
And as leadersFührer had to relyverlassen on more of theirihr populaceBevölkerung,
46
143399
2376
Und als Führer sich mehr
auf ihr Volk verlassen mussten,
02:37
they beganbegann to shareAktie powerLeistung.
47
145775
1833
fingen sie an, die Macht zu teilen.
02:39
RepresentativeVertreter governmentRegierung beganbegann to formbilden.
48
147608
2599
Repräsentative Regierungen entstanden.
02:42
So again, the toolsWerkzeuge we use to resolveEntschlossenheit conflictKonflikt
49
150207
3288
Und so formen die Werkzeuge,
die wir zur Konfliktlösung einsetzen,
02:45
shapegestalten our socialSozial landscapeLandschaft.
50
153495
3304
unsere Gesellschaft.
02:48
AutonomousAutonome roboticRoboter weaponsWaffen are sucheine solche a toolWerkzeug,
51
156799
4064
Autonome robotische Waffen
sind so ein Werkzeug,
02:52
exceptaußer that, by requiringerfordern very fewwenige people to go to warKrieg,
52
160863
5168
außer dass sie, da sie zum Krieg führen
sehr wenige Menschen benötigen,
02:58
they riskRisiko re-centralizingRe-Zentralisierung powerLeistung into very fewwenige handsHände,
53
166031
4840
riskieren, dass die Macht wieder
konzentriert in einige wenige Hände fällt.
03:02
possiblymöglicherweise reversingrückgängig machen a five-centuryfünf Jahrhunderte trendTrend towardzu democracyDemokratie.
54
170871
6515
Und möglicherweise einen fünf Jahrhunderte
langen Trend zur Demokratie umkehren.
03:09
Now, I think, knowingzu wissen this,
55
177386
1757
Ich denke, wenn wir das wissen,
03:11
we can take decisiveentscheidend stepsSchritte to preserveerhalten our democraticdemokratisch institutionsInstitutionen,
56
179143
4352
können wir entscheidende Schritte zum Bewahren
unserer demokratischen Einrichtungen unternehmen,
03:15
to do what humansMenschen do bestBeste, whichwelche is adaptanpassen.
57
183495
3979
um das zu tun, was Menschen
am besten können: sich anpassen.
03:19
But time is a factorFaktor.
58
187474
2005
Zeit ist hierbei jedoch auch ein Faktor.
03:21
SeventySiebzig nationsNationen are developingEntwicklung remotely-pilotedaus der Ferne gesteuert
59
189479
2851
Siebzig Nationen entwickeln
ihre eigenen ferngesteuerten
03:24
combatKampf dronesDrohnen of theirihr ownbesitzen,
60
192330
2157
Kampfdrohnen.
03:26
and as you'lldu wirst see, remotely-pilotedaus der Ferne gesteuert combatKampf dronesDrohnen
61
194487
2593
Und wie Sie sehen werden,
sind ferngesteuerte Kampfdrohnen
03:29
are the precursorsVorläufer to autonomousautonom roboticRoboter weaponsWaffen.
62
197080
4472
die Vorläufer der autonomen Roboterwaffen.
03:33
That's because onceEinmal you've deployedbereitgestellt remotely-pilotedaus der Ferne gesteuert dronesDrohnen,
63
201552
2767
Wenn man nämlich einmal
ferngesteuerte Drohnen im Einsatz hat,
03:36
there are threedrei powerfulmächtig factorsFaktoren pushingDrücken decision-makingEntscheidung fällen
64
204319
3384
verlagern drei mächtige Faktoren
die Entscheidungsfindung
03:39
away from humansMenschen and on to the weaponWaffe platformPlattform itselfselbst.
65
207703
4600
weg vom Menschen,
hin zur Waffenplattform an sich.
03:44
The first of these is the delugeSintflut of videoVideo that dronesDrohnen produceproduzieren.
66
212303
5259
Der erste Faktor ist die Sintflut an Videos,
die Drohnen produzieren.
03:49
For exampleBeispiel, in 2004, the U.S. droneDrohne fleetFlotte producedhergestellt
67
217562
3853
2004 beispielsweise produzierte
die amerikanische Drohnenflotte
03:53
a grandgroßartig totalgesamt of 71 hoursStd. of videoVideo surveillanceÜberwachung for analysisAnalyse.
68
221415
5312
insgesamt 71 Stunden
von Videoüberwachung zur Analyse.
03:58
By 2011, this had goneWeg up to 300,000 hoursStd.,
69
226727
4499
Bis 2011 sind es 300.000 Stunden,
04:03
outstrippingübersteigt die humanMensch abilityFähigkeit to reviewÜberprüfung it all,
70
231226
3149
das übersteigt die menschlichen
Fähigkeiten, alles zu überprüfen.
04:06
but even that numberNummer is about to go up drasticallydrastisch.
71
234375
3664
Aber die Zahlen stehen kurz vor
einem drastischen Anstieg.
04:10
The Pentagon'sPentagon GorgonGorgon StareStarren and ArgusARGUS programsProgramme
72
238039
2575
Die Programme des Pentagons
"Gorgon Stare" und "Argus"
04:12
will put up to 65 independentlyunabhängig operatedbetrieben cameraKamera eyesAugen
73
240614
3164
werden bis zu 65 eigenständig
betriebene Kameras
04:15
on eachjede einzelne droneDrohne platformPlattform,
74
243778
2038
auf jeder Drohnenplatform haben.
04:17
and this would vastlyerheblich outstripden Rang ablaufen humanMensch abilityFähigkeit to reviewÜberprüfung it.
75
245816
3303
Und das würde die menschlichen Möglichkeiten
der Kontrolle weit übertreffen.
04:21
And that meansmeint visualvisuell intelligenceIntelligenz softwareSoftware will need
76
249119
2160
Das bedeutet, dass
visuelle Aufklärungssoftware
04:23
to scanScan it for itemsArtikel of interestinteressieren.
77
251279
4048
es nach interessanten Dingen
abscannen müsste.
04:27
And that meansmeint very soonbald
78
255327
1348
Das bedeutet wiederum, dass
04:28
dronesDrohnen will tell humansMenschen what to look at,
79
256675
2747
Drohnen in Zukunft den Menschen sagen werden,
worauf sie schauen sollen,
04:31
not the other way around.
80
259422
2497
und nicht mehr andersherum.
Aber es gibt einen zweiten
mächtigen Anreiz dafür,
04:33
But there's a secondzweite powerfulmächtig incentiveAnreiz pushingDrücken
81
261919
2473
das Entscheidungentreffen von Menschen
auf Maschinen zu übertragen
04:36
decision-makingEntscheidung fällen away from humansMenschen and ontoauf zu machinesMaschinen,
82
264392
3383
04:39
and that's electromagneticelektromagnetischen jammingVerklemmen,
83
267775
2872
und das sind elektromagnetische Störungen,
die die Verbindungen zwischen der Drohne
und ihrem Führer unterbrechen.
04:42
severingSevering the connectionVerbindung betweenzwischen the droneDrohne
84
270647
2236
04:44
and its operatorOperator.
85
272883
2814
04:47
Now we saw an exampleBeispiel of this in 2011
86
275697
2618
2011 haben wir ein Beispiel hierfür gesehen,
als eine amerikanische Wächterdrohne
vom Typ RQ-170 über dem Iran
04:50
when an AmericanAmerikanische RQ-RQ-170 SentinelSentinel droneDrohne
87
278315
2956
04:53
got a bitBit confusedverwirrt over IranIran duefällig to a GPSGPS spoofingSpoofing attackAttacke,
88
281271
4307
durch "GPS-Spoofing" manipuliert wurde.
04:57
but any remotely-pilotedaus der Ferne gesteuert droneDrohne is susceptibleanfällig to this typeArt of attackAttacke,
89
285578
5114
Jede ferngesteuerte Drohne
ist anfällig für diese Attacken
05:02
and that meansmeint dronesDrohnen
90
290692
2052
und das bedeutet, dass Drohnen
05:04
will have to shoulderSchulter more decision-makingEntscheidung fällen.
91
292744
3620
mehr Entscheidungsfindungen
auf sich nehmen müssen.
05:08
They'llSie werden know theirihr missionMission objectiveZielsetzung,
92
296364
3043
Sie kennen ihre Mission
05:11
and they'llsie werden reactreagieren to newneu circumstancesUmstände withoutohne humanMensch guidanceAnleitung.
93
299407
4845
und sie werden auf neue Umstände
ohne menschliche Hilfe reagieren.
05:16
They'llSie werden ignoreignorieren externalextern radioRadio signalsSignale
94
304252
2581
Sie werden fremde Funksignale ignorieren
05:18
and sendsenden very fewwenige of theirihr ownbesitzen.
95
306833
2330
und nur sehr wenige selbst schicken.
05:21
WhichDie bringsbringt us to, really, the thirddritte
96
309163
2006
Das bringt uns zum dritten
und mächtigsten Anreiz,
um das Entscheidungentreffen
05:23
and mostdie meisten powerfulmächtig incentiveAnreiz pushingDrücken decision-makingEntscheidung fällen
97
311169
3862
von Menschen auf Waffen zu übertragen:
05:27
away from humansMenschen and ontoauf zu weaponsWaffen:
98
315031
3342
glaubhafte Leugnung.
05:30
plausibleplausible deniabilityAbstreitbarkeit.
99
318373
3293
05:33
Now we liveLeben in a globalglobal economyWirtschaft.
100
321666
2887
Wir leben in einer globalen Wirtschaft.
05:36
High-techHigh-Tech- manufacturingHerstellung is occurringauftreten on mostdie meisten continentsKontinente.
101
324553
4334
High-Tech Fabrikationen kommen
auf den meisten Kontinenten vor.
05:40
CyberCyber espionageSpionage is spiritingDieses away advancedfortgeschritten designsEntwürfe
102
328887
2914
Cyber-Spionage verbreitet fortgeschrittene
Konstruktionen ins Unbekannte,
05:43
to partsTeile unknownunbekannt,
103
331801
1886
05:45
and in that environmentUmwelt, it is very likelywahrscheinlich
104
333687
2014
und in diesen Gebieten ist es
sehr wahrscheinlich, dass
05:47
that a successfulerfolgreich droneDrohne designEntwurf will be knockedklopfte off in contractVertrag factoriesFabriken,
105
335701
4734
ein funktionierender Entwurf einer Drohne
in einer Vertragsfabrik entsteht
und sich auf dem Graumarkt vermehrt.
05:52
proliferatevermehren sich in the graygrau marketMarkt.
106
340435
2170
Und in dieser Situation ist es
beim Durchwühlen des Wracks
05:54
And in that situationLage, siftingSichten throughdurch the wreckageWrack
107
342605
2460
05:57
of a suicideSelbstmord droneDrohne attackAttacke, it will be very difficultschwer to say
108
345065
2960
nach einer "Selbstmord"-Drohnenattacke
schwer zu sagen,
06:00
who sentgesendet that weaponWaffe.
109
348025
4400
wer diese Waffe geschickt hat.
06:04
This raiseswirft the very realecht possibilityMöglichkeit
110
352425
2800
Das steigert die reale Möglichkeit
eines anonymen Krieges.
06:07
of anonymousanonym warKrieg.
111
355225
2935
Es könnte die geopolitische Balance
auf dem Gleichgewicht werfen,
06:10
This could tiltNeigung the geopoliticalgeopolitisch balanceBalance on its headKopf,
112
358160
2614
06:12
make it very difficultschwer for a nationNation to turnWende its firepowerFeuerkraft
113
360774
3491
und es einer Nation erschweren,
ihre Feuerkraft auf einen Angreifer zu richten.
06:16
againstgegen an attackerAngreifer, and that could shiftVerschiebung the balanceBalance
114
364265
2848
Und das könnte die Balance des 21. Jahrhunderts
weg von Verteidigung und auf Angriff bringen.
06:19
in the 21stst centuryJahrhundert away from defenseVerteidigung and towardzu offenseStraftat.
115
367113
3764
06:22
It could make militaryMilitär- actionAktion a viablelebensfähig optionMöglichkeit
116
370877
3124
Es könnte militärisches Eingreifen
zu einer brauchbaren Option machen.
06:26
not just for smallklein nationsNationen,
117
374001
2288
Nicht nur für kleine Nationen,
aber auch für kriminelle Organisationen,
Privatunternehmen,
06:28
but criminalKriminelle organizationsOrganisationen, privatePrivatgelände enterpriseUnternehmen,
118
376289
2545
06:30
even powerfulmächtig individualsIndividuen.
119
378834
2479
und sogar mächtige Individuen.
06:33
It could createerstellen a landscapeLandschaft of rivalRivale warlordsKriegsherren
120
381313
3328
Das könnte eine Landschaft
von rivalisierenden Warlords schaffen
und die Regeln des Gesetzes
und der zivilen Gesellschaft untergraben.
06:36
undermininguntergraben ruleRegel of lawRecht and civilbürgerlich societyGesellschaft.
121
384641
3680
06:40
Now if responsibilityVerantwortung and transparencyTransparenz
122
388321
3616
Wenn Verantwortung und
Durchschaubarkeit
zwei der Grundpfeiler der
repräsentativen Regierung sind,
06:43
are two of the cornerstonesEckpfeiler of representativeVertreter governmentRegierung,
123
391937
2384
06:46
autonomousautonom roboticRoboter weaponsWaffen could undermineuntergraben bothbeide.
124
394321
4320
könnten autonome robotische Waffen
beides umwerfen.
Sie denken jetzt vielleicht, dass Bürger
einer "High-Tech Nation" einen Vorteil
06:50
Now you mightMacht be thinkingDenken that
125
398641
1546
06:52
citizensBürger of high-techHightech nationsNationen
126
400187
2246
06:54
would have the advantageVorteil in any roboticRoboter warKrieg,
127
402433
2703
in einem "automatischen" Krieg hätten,
06:57
that citizensBürger of those nationsNationen would be lessWeniger vulnerableverwundbar,
128
405136
3633
und dass die Bürger dieser Nationen
weniger anfällig und verletzlich wären,
07:00
particularlyinsbesondere againstgegen developingEntwicklung nationsNationen.
129
408769
4288
besonders gegenüber
Entwicklungsländern.
07:05
But I think the truthWahrheit is the exactgenau oppositeGegenteil.
130
413057
3524
Aber ich glaube, genau
das Gegenteil wäre der Fall.
07:08
I think citizensBürger of high-techHightech societiesGesellschaften
131
416581
2251
Ich denke, dass Bürger in weit
entwickelten Gesellschaften
07:10
are more vulnerableverwundbar to roboticRoboter weaponsWaffen,
132
418832
3729
ungeschützter gegen
robotische Waffen sind.
07:14
and the reasonGrund can be summedsummiert up in one wordWort: dataDaten.
133
422561
4465
Und der Grund dafür ist
ein einziges Wort: Daten.
07:19
DataDaten powersKräfte high-techHightech societiesGesellschaften.
134
427026
3481
Daten ermöglichen
High-Tech-Gesellschaften.
07:22
CellZelle phoneTelefon geolocationGeolocation, telecomTelecom metadataMetadaten,
135
430507
3190
Handy-Geolokalisierung,
Telekom-Metadaten,
07:25
socialSozial mediaMedien, emailEmail, textText, financialfinanziell transactionTransaktion dataDaten,
136
433697
3472
soziale Medien, E-Mails,
Texte, Finanztransaktionen,
07:29
transportationTransport dataDaten, it's a wealthReichtum of real-timeEchtzeit dataDaten
137
437169
3532
Transportdaten –
eine Fülle an Echtzeit-Daten
in den Bewegungen und sozialen
Interaktionen der Menschen.
07:32
on the movementsBewegungen and socialSozial interactionsWechselwirkungen of people.
138
440701
3373
07:36
In shortkurz, we are more visiblesichtbar to machinesMaschinen
139
444074
3775
Kurz gesagt: Wir sind sichtbarer für Maschinen
als alle Menschen in der Geschichte.
07:39
than any people in historyGeschichte,
140
447849
2242
07:42
and this perfectlyperfekt suitsAnzüge the targetingTargeting needsBedürfnisse of autonomousautonom weaponsWaffen.
141
450091
5616
Und das ist perfekt für die Ziel-Anforderungen
von autonomen Waffen.
07:47
What you're looking at here
142
455707
1738
Hier sehen Sie eine eine Verbindungsanalyse
einer sozialen Gruppe.
07:49
is a linkVerknüpfung analysisAnalyse mapKarte of a socialSozial groupGruppe.
143
457445
3246
07:52
LinesLinien indicatezeigen socialSozial connectednessVerbundenheit betweenzwischen individualsIndividuen.
144
460691
3634
Die Linien zeigen soziale Verbundenheit
zwischen einzelnen Individuen.
07:56
And these typesTypen of mapsKarten can be automaticallyautomatisch generatedgeneriert
145
464325
2880
Diese Kartenart kann durch die Datenspur,
die moderne Menschen hinterlassen,
07:59
basedbasierend on the dataDaten trailWeg modernmodern people leaveverlassen behindhinter.
146
467205
4715
automatisch generiert werden.
Normalerweise wird es genutzt,
um Waren und Dienstleistungen
08:03
Now it's typicallytypischerweise used to marketMarkt goodsWaren and servicesDienstleistungen
147
471920
2477
08:06
to targetedgezielt demographicsDemografie, but it's a dual-useGüter mit doppeltem Verwendungszweck technologyTechnologie,
148
474397
4416
an Zielgruppen zu verkaufen,
hat aber zwei Verwendungszwecke,
08:10
because targetingTargeting is used in anotherein anderer contextKontext.
149
478813
3360
denn dieses spezielle Ausrichten wird
in einem anderen Kontext verwendet.
08:14
NoticeBekanntmachung that certainsicher individualsIndividuen are highlightedhervorgehoben.
150
482173
2560
Achten Sie auf die
hervorgehobenen Individuen.
08:16
These are the hubsNaben of socialSozial networksNetzwerke.
151
484733
3280
Das sind die Zentren sozialer Netzwerke.
08:20
These are organizersOrganisatoren, opinion-makersMeinungsbildner, leadersFührer,
152
488013
3590
Das sind Veranstalter, Trendsetter und Anführer.
08:23
and these people alsoebenfalls can be automaticallyautomatisch identifiedidentifiziert
153
491603
2682
Und diese Leute können
automatisch identifiziert werden,
08:26
from theirihr communicationKommunikation patternsMuster.
154
494285
2382
aufgrund ihrer Kommunikationsmuster.
Wenn Sie nun ein Vermarkter sind,
dann richten Sie Ihre Warenproben auf sie aus,
08:28
Now, if you're a marketerVermarkter, you mightMacht then targetZiel them
155
496667
2146
08:30
with productProdukt samplesProben, try to spreadVerbreitung your brandMarke
156
498813
2543
um Ihre Marke durch deren
soziale Gruppe zu verbreiten.
08:33
throughdurch theirihr socialSozial groupGruppe.
157
501356
2829
Wenn Sie nun aber eine repressive
Regierung sind,
08:36
But if you're a repressiverepressiv governmentRegierung
158
504185
1953
die nach politischen Bedrohungen sucht,
dann werden Sie sie vielleicht beseitigen,
08:38
searchingSuche for politicalpolitisch enemiesFeinde, you mightMacht insteadstattdessen removeentfernen them,
159
506138
4810
08:42
eliminatebeseitigen them, disruptstören theirihr socialSozial groupGruppe,
160
510948
2760
sie zerstören, ihre soziale
Gruppe auseinanderreißen.
08:45
and those who remainbleiben übrig behindhinter loseverlieren socialSozial cohesionZusammenhalt
161
513708
3169
Und die Zurückgebliebenen verlieren
sozialen Zusammenhalt und Organisation.
08:48
and organizationOrganisation.
162
516877
2621
In einer Welt von günstigen,
wuchernden robotischen Waffen
08:51
Now in a worldWelt of cheapbillig, proliferatingproliferierenden roboticRoboter weaponsWaffen,
163
519498
3324
08:54
bordersGrenzen would offerAngebot very little protectionSchutz
164
522822
2635
würden Grenzen nur sehr wenig Schutz
gegenüber entfernten Regierungen
08:57
to criticsKritik of distantentfernt governmentsRegierungen
165
525457
1946
08:59
or trans-nationalTrans-national criminalKriminelle organizationsOrganisationen.
166
527403
3646
oder grenzüberschreitenden
kriminellen Organisationen bieten.
09:03
PopularBeliebt movementsBewegungen agitatingrührend for changeVeränderung
167
531049
3493
Große Bewegungen für einen Wandel
könnten sehr früh aufgespürt
09:06
could be detectederkannt earlyfrüh and theirihr leadersFührer eliminatedeliminiert
168
534542
3609
und ihre Anführer ausgeschaltet werden,
bevor ihre Ideen zu große Ausmaße annehmen.
09:10
before theirihr ideasIdeen achieveleisten criticalkritisch massMasse.
169
538151
2911
09:13
And ideasIdeen achievingerreichen criticalkritisch massMasse
170
541062
2591
Und Ideen mit kritischem Ausmaß
09:15
is what politicalpolitisch activismAktivismus in popularBeliebt governmentRegierung is all about.
171
543653
3936
machen politisches Engagement
in beliebten Regierungen aus.
Anonyme tödliche Waffen könnten
tödliche Auswirkungen haben.
09:19
AnonymousAnonym lethaltödlich weaponsWaffen could make lethaltödlich actionAktion
172
547589
3997
09:23
an easyeinfach choiceWahl for all sortssortiert of competingim Wettbewerb interestsInteressen.
173
551586
3782
Eine einfache Wahl bei allen Arten
von Interessenkonflikten.
09:27
And this would put a chillChill doch on freefrei speechRede
174
555368
3734
Das würde die
freie Meinungsäußerung und
gängiges politisches Handeln, die Kernelemente
der Demokratie, drastisch eindämmen.
09:31
and popularBeliebt politicalpolitisch actionAktion, the very heartHerz of democracyDemokratie.
175
559102
5308
Und das ist der Grund, weshalb wir
einen internationalen Vertrag
09:36
And this is why we need an internationalInternational treatyVertrag
176
564410
2914
09:39
on roboticRoboter weaponsWaffen, and in particularinsbesondere a globalglobal banVerbot
177
567324
3540
für robotische Waffen und
besonders ein globales Verbot
09:42
on the developmentEntwicklung and deploymentBereitstellung of killerMörder robotsRoboter.
178
570864
3908
für die Entwicklung und Benutzung
von Killer-Robotern brauchen.
09:46
Now we alreadybereits have internationalInternational treatiesVerträge
179
574772
3254
Wir haben beispielsweise internationale Verträge
09:50
on nuclearKern and biologicalbiologisch weaponsWaffen, and, while imperfectunvollkommen,
180
578026
3386
für nukleare und biologische Waffen
und, obwohl sie nicht perfekt sind,
09:53
these have largelyweitgehend workedhat funktioniert.
181
581412
2288
haben sie weitgehend funktioniert.
Roboterwaffen jedoch sind
vielleicht genauso gefährlich,
09:55
But roboticRoboter weaponsWaffen mightMacht be everyjeden bitBit as dangerousgefährlich,
182
583700
3768
09:59
because they will almostfast certainlybestimmt be used,
183
587468
3288
denn sie werden fast zweifellos genutzt,
10:02
and they would alsoebenfalls be corrosivekorrosiven to our democraticdemokratisch institutionsInstitutionen.
184
590756
5027
und wären genauso zerstörend
für unsere demokratischen Einrichtungen.
10:07
Now in NovemberNovember 2012 the U.S. DepartmentAbteilung of DefenseVerteidigung
185
595783
3468
Im November 2012 erließ das
amerikanische Verteidigungsministerium
10:11
issuedausgegeben a directiveRichtlinie requiringerfordern
186
599251
2458
eine Richtlinie, die veranlasst,
10:13
a humanMensch beingSein be presentGeschenk in all lethaltödlich decisionsEntscheidungen.
187
601709
4519
dass ein Mensch bei jeder tödlichen
Entscheidung dabei sein muss.
Sie verhinderte vorübergehend
autonome Waffen im amerikanischen Militär,
10:18
This temporarilyvorübergehend effectivelyeffektiv bannedverboten autonomousautonom weaponsWaffen in the U.S. militaryMilitär-,
188
606228
4776
sie muss aber dauerhaft gültig sein.
10:23
but that directiveRichtlinie needsBedürfnisse to be madegemacht permanentpermanent.
189
611004
3753
10:26
And it could setSet the stageStufe for globalglobal actionAktion.
190
614757
4376
Sie könnte die Voraussetzungen
für globales Handeln schaffen.
10:31
Because we need an internationalInternational legallegal frameworkRahmen
191
619133
3845
Denn wir brauchen einen internationalen
rechtlichen Rahmen für Roboterwaffen.
10:34
for roboticRoboter weaponsWaffen.
192
622978
2138
10:37
And we need it now, before there's a devastatingverheerend attackAttacke
193
625116
2928
Und wir brauchen ihn jetzt,
vor einem verheerenden Angriff
10:40
or a terroristTerrorist incidentVorfall that causesUrsachen nationsNationen of the worldWelt
194
628044
3152
oder einem Terroranschlag,
der die Nationen der Welt dazu veranlasst,
10:43
to rusheilen to adoptadoptieren these weaponsWaffen
195
631196
1924
nach diesen Waffen zu streben,
bevor sie die Konsequenzen durchdacht haben.
10:45
before thinkingDenken throughdurch the consequencesFolgen.
196
633120
3771
10:48
AutonomousAutonome roboticRoboter weaponsWaffen concentratekonzentrieren too much powerLeistung
197
636891
2981
Autonome robotische Waffen konzentrieren
zu viel Macht in zu wenigen Händen,
10:51
in too fewwenige handsHände, and they would imperilgefährden democracyDemokratie itselfselbst.
198
639872
6283
und würden die Demokratie selbst gefährden.
Verstehen Sie mich nicht falsch,
ich denke, es gibt Millionen
10:58
Now, don't get me wrongfalsch, I think there are tonsTonnen
199
646155
2686
11:00
of great usesVerwendungen for unarmedunbewaffnete civilianZivilist dronesDrohnen:
200
648841
2618
von großartigen Verwendungszwecken
für unbewaffnete Zivilisten-Drohnen:
11:03
environmentalUmwelt monitoringÜberwachung, searchSuche and rescueRettung, logisticsLogistik.
201
651459
3939
Umweltüberwachung,
Suchen und Bergen, Logistik.
11:07
If we have an internationalInternational treatyVertrag on roboticRoboter weaponsWaffen,
202
655398
2826
Wenn wir einen internationalen Vertrag
für Roboterwaffen haben,
11:10
how do we gaingewinnen the benefitsVorteile of autonomousautonom dronesDrohnen
203
658224
3587
wie können wir die Vorteile
der autonomen Drohnen und Fahrzeuge
11:13
and vehiclesFahrzeuge while still protectingSchützen ourselvesuns selbst
204
661811
2648
ausschöpfen und uns dennoch vor
illegalen Roboterwaffen schützen?
11:16
againstgegen illegalillegal roboticRoboter weaponsWaffen?
205
664459
3980
Ich denke, das Geheimnis
wird Transparenz sein.
11:20
I think the secretGeheimnis will be transparencyTransparenz.
206
668439
4741
Kein Roboter sollte Privatsphäre
auf einem öffentlichen Platz erwarten.
11:25
No robotRoboter should have an expectationErwartung of privacyDatenschutz
207
673180
3013
11:28
in a publicÖffentlichkeit placeOrt.
208
676193
3451
(Applaus)
11:31
(ApplauseApplaus)
209
679644
5048
Jeder Roboter sollte in der Fabrik
11:36
EachJedes robotRoboter and droneDrohne should have
210
684692
2045
11:38
a cryptographicallykryptografisch signedunterzeichnet I.D. burnedverbrannt in at the factoryFabrik
211
686737
2883
eine kryptographisch signierte
Identifikationsnummer eingraviert bekommen,
11:41
that can be used to trackSpur its movementBewegung throughdurch publicÖffentlichkeit spacesLeerzeichen.
212
689620
2923
mit der man seine Bewegung
durch öffentliche Orte nachverfolgen kann.
11:44
We have licenseLizenz platesPlatten on carsAutos, tailSchwanz numbersNummern on aircraftFlugzeug.
213
692543
3381
Wir haben Nummernschilder an Autos,
Luftfahrzeugkennzeichen an Flugzeugen.
11:47
This is no differentanders.
214
695924
1841
Hier ist es nicht anders.
11:49
And everyjeden citizenBürger should be ablefähig to downloadherunterladen an appApp
215
697765
2012
Und jeder Bürger sollte
eine App herunterladen können,
11:51
that showszeigt an the populationBevölkerung of dronesDrohnen and autonomousautonom vehiclesFahrzeuge
216
699777
3125
die die Population von Drohnen
und autonomen Fahrzeugen zeigt,
11:54
movingbewegend throughdurch publicÖffentlichkeit spacesLeerzeichen around them,
217
702902
2429
wie sie sich durch
den öffentlichen Raum bewegen.
11:57
bothbeide right now and historicallyhistorisch.
218
705331
2733
Aktuell und in der Vergangenheit.
12:00
And civicstaatsbürgerlich leadersFührer should deploybereitstellen sensorsSensoren and civicstaatsbürgerlich dronesDrohnen
219
708064
3548
Und zivile Führer sollten Sensoren
und zivile Drohnen bereitstellen,
um problematische Drohnen
ausfindig machen zu können.
12:03
to detecterkennen rogueSchurke dronesDrohnen,
220
711612
2344
12:05
and insteadstattdessen of sendingSenden killerMörder dronesDrohnen of theirihr ownbesitzen up to shootschießen them down,
221
713956
3176
Und anstatt sie
mit Killerdrohnen zu eliminieren,
sollten sie Menschen auf ihr Dasein hinweisen.
12:09
they should notifybenachrichtigen humansMenschen to theirihr presenceGegenwart.
222
717132
2992
In manchen Hochsicherheits-Bereichen
12:12
And in certainsicher very high-securityHochsicherheits- areasBereiche,
223
720124
2606
würden zivile Drohnen
sie vielleicht einfangen
12:14
perhapsvielleicht civicstaatsbürgerlich dronesDrohnen would snareSchlinge them
224
722730
1909
12:16
and dragziehen them off to a bombBombe disposalEntsorgung facilityEinrichtung.
225
724639
2841
und sie zu einem
Bombenentschärfungsteam ziehen.
12:19
But noticebeachten, this is more an immuneimmun systemSystem
226
727480
3027
Aber das ist eher ein Immunsystem
als ein Waffensystem.
12:22
than a weaponsWaffen systemSystem.
227
730507
1321
12:23
It would allowzulassen us to availverfügbar ourselvesuns selbst of the use
228
731828
2592
Es würde es uns ermöglichen, den Nutzen
von autonomen Fahrzeugen und
Drohnen in Anspruch zu nehmen,
12:26
of autonomousautonom vehiclesFahrzeuge and dronesDrohnen
229
734420
2032
12:28
while still preservingErhaltung our openöffnen, civilbürgerlich societyGesellschaft.
230
736452
4295
und trotzdem unsere offene,
zivile Gesellschaft bewahren.
12:32
We mustsollen banVerbot the deploymentBereitstellung and developmentEntwicklung
231
740747
2999
Wir müssen die Benutzung und Entwicklung
12:35
of killerMörder robotsRoboter.
232
743746
1862
von Killer-Robotern verbieten.
12:37
Let's not succumbzu erliegen to the temptationVersuchung to automatezu automatisieren warKrieg.
233
745608
4850
Erliegen wir nicht der Versuchung
eines autonomen Krieges.
12:42
AutocraticAutokratischen governmentsRegierungen and criminalKriminelle organizationsOrganisationen
234
750458
2718
Autokratische Regierungen
und kriminelle Organisationen
12:45
undoubtedlyohne Zweifel will, but let's not joinbeitreten them.
235
753176
2956
werden es ohne jeden Zweifel tun.
Aber wir sollten uns ihnen nicht anschließen.
Autonome robotische Waffen
würden zu viel Macht
12:48
AutonomousAutonome roboticRoboter weaponsWaffen
236
756132
1891
12:50
would concentratekonzentrieren too much powerLeistung
237
758023
2051
in zu wenige ungesehene Hände konzentrieren.
12:52
in too fewwenige unseenunsichtbare handsHände,
238
760074
2482
12:54
and that would be corrosivekorrosiven to representativeVertreter governmentRegierung.
239
762556
3255
Und das würde zerstörend für repräsentative Regierungen sein
Sorgen wir dafür, zumindest die Demokraten,
12:57
Let's make sure, for democraciesDemokratien at leastam wenigsten,
240
765811
2961
dass Killer-Roboter eine Fiktion bleiben
13:00
killerMörder robotsRoboter remainbleiben übrig fictionFiktion.
241
768772
2604
13:03
Thank you.
242
771376
1110
Vielen Dank.
13:04
(ApplauseApplaus)
243
772486
4565
(Applaus)
13:09
Thank you. (ApplauseApplaus)
244
777051
4616
Danke schön. (Applaus)
Translated by Calvin Oneeightytwo
Reviewed by Judith Matz

▲Back to top

ABOUT THE SPEAKER
Daniel Suarez - Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios.

Why you should listen

While working as a software developer, Daniel Suarez self-published Daemon, a cyber-thriller depicting a future where society is radically reshaped by disruptive technologies. It struck a chord -- and so did the sequel, Freedom (TM) -- rocketing Suarez into the pantheon of sci-fi prophets.

In his 2012 novel Kill Decision, Suarez digs into the consequences of technology that’s here to stay: autonomous bots and drones programmed to be lethal. Suarez argues that as we cede more control to software, we gamble with the very essence of democracy itself. How can we establish sane guidelines for technology that could easily outstrip our control?

More profile about the speaker
Daniel Suarez | Speaker | TED.com