ABOUT THE SPEAKER
Daniel Suarez - Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios.

Why you should listen

While working as a software developer, Daniel Suarez self-published Daemon, a cyber-thriller depicting a future where society is radically reshaped by disruptive technologies. It struck a chord -- and so did the sequel, Freedom (TM) -- rocketing Suarez into the pantheon of sci-fi prophets.

In his 2012 novel Kill Decision, Suarez digs into the consequences of technology that’s here to stay: autonomous bots and drones programmed to be lethal. Suarez argues that as we cede more control to software, we gamble with the very essence of democracy itself. How can we establish sane guidelines for technology that could easily outstrip our control?

More profile about the speaker
Daniel Suarez | Speaker | TED.com
TEDGlobal 2013

Daniel Suarez: The kill decision shouldn't belong to a robot

Дэниэл Суарес: Смертный приговор не должен выноситься роботами

Filmed:
1,946,706 views

Как писатель, Дэниэл Суарес любит сочинять мрачные истории о будущем. Но на сцену TEDGlobal он вышел, чтобы поговорить о том, что происходит в реальной жизни, и о чём всем нам не мешает больше знать: увеличение использования автономного роботизированного оружия. По его мнению, современные модели беспилотных боевых самолётов, автоматическое оружие и разведывательные системы, оснащённые элементами искусственного интеллекта, могут принимать решения о начале военных действий самостоятельно, без участия людей.
- Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios. Full bio

Double-click the English transcript below to play the video.

00:12
I writeзаписывать fictionфантастика sci-fiнаучно-фантастический thrillersтриллеры,
0
691
3158
Я пишу научно-фантастические триллеры,
00:15
so if I say "killerубийца robotsроботы,"
1
3849
2193
поэтому когда я говорю
о «роботах-убийцах»,
00:18
you'dвы бы probablyвероятно think something like this.
2
6042
2361
вам, вероятно, представляется
что-то вот в таком роде.
00:20
But I'm actuallyна самом деле not here to talk about fictionфантастика.
3
8403
2555
Но сегодня речь пойдёт не о фантастике.
00:22
I'm here to talk about very realреальный killerубийца robotsроботы,
4
10958
2948
Я хочу рассказать
о вполне реальных роботах-убийцах:
00:25
autonomousавтономный combatбой dronesбеспилотные летательные аппараты.
5
13906
3122
беспилотных боевых самолётах.
00:29
Now, I'm not referringссылаясь to Predatorхищник and Reaperжатка dronesбеспилотные летательные аппараты,
6
17028
3627
Не о дронах
типа «Predator» или «Reaper»,
00:32
whichкоторый have a humanчеловек makingизготовление targetingнацеливание decisionsрешения.
7
20655
3260
где наведение на цель
контролируется человеком,
00:35
I'm talkingговорящий about fullyв полной мере autonomousавтономный roboticроботизированный weaponsоружие
8
23915
3129
а о полностью автономном
роботизированном оружии,
00:39
that make lethalлетальный decisionsрешения about humanчеловек beingsсущества
9
27044
2654
самостоятельно принимающем
смертоносные решения
00:41
all on theirих ownсвоя.
10
29698
2417
в отношении людей.
00:44
There's actuallyна самом деле a technicalтехнический termсрок for this: lethalлетальный autonomyавтономия.
11
32115
4000
Для этого даже есть специальный термин:
смертельная автономия.
00:48
Now, lethallyлетально autonomousавтономный killerубийца robotsроботы
12
36115
2856
Смертельно автономные роботы-убийцы
00:50
would take manyмногие formsформы -- flyingлетающий, drivingвождение,
13
38971
3069
могут управлять самолётами,
водить автомобили
00:54
or just lyingлежащий in wait.
14
42040
2746
или просто сидеть в засаде.
00:56
And actuallyна самом деле, they're very quicklyбыстро becomingстановление a realityреальность.
15
44786
3109
Они стремительно входят
в нашу действительность.
00:59
These are two automaticавтоматический sniperснайпер stationsстанций
16
47895
2484
Перед вами две автоматические
снайперские установки,
01:02
currentlyВ данный момент deployedразвернутый in the DMZДМЗ betweenмежду Northсевер and Southюг KoreaКорея.
17
50379
4137
установленные в демилитаризованной зоне
между Северной и Южной Кореей.
01:06
BothИ то и другое of these machinesмашины are capableспособный of automaticallyавтоматически
18
54516
2171
Обе эти машины способны
автоматически определять
01:08
identifyingидентифицирующий a humanчеловек targetцель and firingобжиг on it,
19
56687
3524
человеческую цель
и открывать по ней огонь.
01:12
the one on the left at a distanceрасстояние of over a kilometerкилометр.
20
60211
4324
Радиус действия левой установки
составляет более километра.
01:16
Now, in bothи то и другое casesслучаи, there's still a humanчеловек in the loopпетля
21
64535
3589
Здесь в обоих случаях
всё ещё задействован человек,
01:20
to make that lethalлетальный firingобжиг decisionрешение,
22
68124
2372
принимающий решение
о стрельбе на поражение,
01:22
but it's not a technologicalтехнологический requirementтребование. It's a choiceвыбор.
23
70496
5413
но это не часть технической спецификации.
Это выбор.
01:27
And it's that choiceвыбор that I want to focusфокус on,
24
75909
3093
И я хочу сегодня
поговорить об этом выборе,
01:31
because as we migrateмигрировать lethalлетальный decision-makingпринимать решение
25
79002
2641
потому что чем чаще
мы передаём принятие
01:33
from humansлюди to softwareпрограммного обеспечения,
26
81643
3109
смертоносных решений
от человека к компьютерной программе,
01:36
we riskриск not only takingпринятие the humanityчеловечество out of warвойна,
27
84752
3476
тем больше мы рискуем не только
лишить войну человеческого лица,
01:40
but alsoтакже changingизменения our socialСоциальное landscapeпейзаж entirelyполностью,
28
88228
3526
но и полностью изменить
социальную картину мира.
01:43
farдалеко from the battlefieldполе битвы.
29
91754
2224
Того мира, что находится
вдали от поля боя.
01:45
That's because the way humansлюди resolveразрешить conflictконфликт
30
93978
4509
Потому что методы разрешения конфликтов
01:50
shapesформы our socialСоциальное landscapeпейзаж.
31
98487
1733
формируют социальную картину мира.
01:52
And this has always been the caseдело, throughoutна протяжении historyистория.
32
100220
2633
И так было в истории всегда.
01:54
For exampleпример, these were state-of-the-artуровень развития weaponsоружие systemsсистемы
33
102853
2661
Например, вот так выглядели
самые совершенные
01:57
in 1400 A.D.
34
105514
2079
виды оружия в 1400 году нашей эры.
01:59
Now they were bothи то и другое very expensiveдорогая to buildстроить and maintainподдерживать,
35
107593
3144
Они были очень дорогостоящи
в производстве и обслуживании,
02:02
but with these you could dominateдоминировать the populaceчернь,
36
110737
3240
но с их помощью
было легко управлять массами,
02:05
and the distributionраспределение of politicalполитическая powerмощность in feudalфеодальный societyобщество reflectedотраженный that.
37
113977
3889
и расклад политических сил в феодальном обществе —
лучшее тому доказательство.
02:09
PowerМощность was focusedсосредоточены at the very topВверх.
38
117866
2687
Власть была сосредоточена
у самой верхушки.
02:12
And what changedизменено? Technologicalтехнологический innovationинновация.
39
120553
3528
Что же изменилось?
Появились новые технологии.
02:16
GunpowderПорох, cannonпушка.
40
124081
1871
Порох, пушки.
02:17
And prettyСимпатичная soonскоро, armorброня and castlesзамки were obsoleteустарелый,
41
125952
3817
Доспехи и замки быстро устарели,
02:21
and it matteredимело значение lessМеньше who you broughtпривел to the battlefieldполе битвы
42
129769
2533
и стало уже не так важно, кто пришёл
сражаться на твоей стороне,
02:24
versusпротив how manyмногие people you broughtпривел to the battlefieldполе битвы.
43
132302
3779
а важно, сколько человек
вышло на поле сражения.
02:28
And as armiesармии grewвырос in sizeразмер, the nation-stateнациональное государство aroseвозникла
44
136081
3638
Численность армий росла,
и возникло понятие государства-нации,
02:31
as a politicalполитическая and logisticalтехническое requirementтребование of defenseзащита.
45
139719
3680
как необходимой политической
и тыловой оборонной составляющей.
02:35
And as leadersлидеры had to relyполагаться on more of theirих populaceчернь,
46
143399
2376
И поскольку главам государств
всё больше приходилось
02:37
they beganначал to shareдоля powerмощность.
47
145775
1833
полагаться на свой народ,
они стали делиться властью.
02:39
Representativeпредставитель governmentправительство beganначал to formформа.
48
147608
2599
Появилось понятие
представительного правления.
02:42
So again, the toolsинструменты we use to resolveразрешить conflictконфликт
49
150207
3288
Таким образом,
методы разрешения конфликтов
02:45
shapeформа our socialСоциальное landscapeпейзаж.
50
153495
3304
формируют социальную картину нашего мира.
02:48
Autonomousавтономный roboticроботизированный weaponsоружие are suchтакие a toolинструмент,
51
156799
4064
Автономное роботизированное оружие —
один из таких методов.
02:52
exceptКроме that, by requiringтребующий very fewмало people to go to warвойна,
52
160863
5168
Но есть одно «но». Для его использования
не нужно много военных,
02:58
they riskриск re-centralizingповторно централизации powerмощность into very fewмало handsРуки,
53
166031
4840
а значит есть риск снова сосредоточить
власть в руках немногих,
03:02
possiblyвозможно reversingреверсивный a five-centuryпять века trendтенденция towardк democracyдемократия.
54
170871
6515
повернув тем самым вспять
пять веков движения к демократии.
03:09
Now, I think, knowingзнание this,
55
177386
1757
Если мы отдадим себе в этом отчёт,
мы сможем предпринять
03:11
we can take decisiveрешающий stepsмеры to preserveсохранять our democraticдемократической institutionsучреждения,
56
179143
4352
решительные действия по защите
наших демократических ценностей
03:15
to do what humansлюди do bestЛучший, whichкоторый is adaptадаптироваться.
57
183495
3979
и адаптироваться, что у людей
всегда получалось очень хорошо.
03:19
But time is a factorфактор.
58
187474
2005
Но у нас не так много времени.
03:21
SeventyСемьдесят nationsнации are developingразвивающийся remotely-pilotedдистанционно-пилотируемые
59
189479
2851
Сегодня 70 государств
занимаются разработкой собственных
03:24
combatбой dronesбеспилотные летательные аппараты of theirих ownсвоя,
60
192330
2157
дистанционно-пилотируемых боевых дронов.
03:26
and as you'llВы будете see, remotely-pilotedдистанционно-пилотируемые combatбой dronesбеспилотные летательные аппараты
61
194487
2593
Такие дистанционно-пилотируемые
боевые дроны —
03:29
are the precursorsпредшественники to autonomousавтономный roboticроботизированный weaponsоружие.
62
197080
4472
предвестники автономного
роботизированного оружия.
03:33
That's because onceодин раз you've deployedразвернутый remotely-pilotedдистанционно-пилотируемые dronesбеспилотные летательные аппараты,
63
201552
2767
Как только эти дроны вступают в строй,
03:36
there are threeтри powerfulмощный factorsфакторы pushingтолкая decision-makingпринимать решение
64
204319
3384
появляется три серьёзных основания
передать принятие решений
03:39
away from humansлюди and on to the weaponоружие platformПлатформа itselfсам.
65
207703
4600
от человека непосредственно
на оружейную платформу.
03:44
The first of these is the delugeпотоп of videoвидео that dronesбеспилотные летательные аппараты produceпроизводить.
66
212303
5259
Во-первых, поток видеоинформации,
производимой дронами.
03:49
For exampleпример, in 2004, the U.S. droneтрутень fleetфлот producedпроизведенный
67
217562
3853
В 2004 году, например,
весь парк американских дронов собрал
03:53
a grandбольшой totalВсего of 71 hoursчасов of videoвидео surveillanceнаблюдение for analysisанализ.
68
221415
5312
в общей сложности
71 час видеонаблюдений для анализа.
03:58
By 2011, this had goneпрошло up to 300,000 hoursчасов,
69
226727
4499
К 2011 году это число
выросло до 300 000 часов.
04:03
outstrippingопережение humanчеловек abilityспособность to reviewобзор it all,
70
231226
3149
Обработать столько информации
людям не под силу.
04:06
but even that numberномер is about to go up drasticallyкардинально.
71
234375
3664
Но и это число кардинально вырастет
в ближайшее время.
04:10
The Pentagon'sПентагона GorgonГоргона StareГлазеть and ArgusАргус programsпрограммы
72
238039
2575
Такие программы Пентагона,
как «Взгляд Горгоны» и «Аргус»,
04:12
will put up to 65 independentlyнезависимо operatedуправляемый cameraкамера eyesглаза
73
240614
3164
нацелены на установку на каждом дроне
04:15
on eachкаждый droneтрутень platformПлатформа,
74
243778
2038
до 65 независимо работающих видеокамер.
04:17
and this would vastlyзначительно outstripопережать humanчеловек abilityспособность to reviewобзор it.
75
245816
3303
Людям не под силу будет
обработать столько видеоданных.
04:21
And that meansозначает visualвизуальный intelligenceинтеллект softwareпрограммного обеспечения will need
76
249119
2160
Понадобится
программное обеспечение видеоразведки
04:23
to scanсканирование it for itemsПредметы of interestинтерес.
77
251279
4048
для отслеживания интересующей информации.
04:27
And that meansозначает very soonскоро
78
255327
1348
А значит, что очень скоро дроны начнут
04:28
dronesбеспилотные летательные аппараты will tell humansлюди what to look at,
79
256675
2747
указывать людям,
на что обращать внимание,
04:31
not the other way around.
80
259422
2497
а не наоборот.
04:33
But there's a secondвторой powerfulмощный incentiveстимул pushingтолкая
81
261919
2473
Но есть и вторая серьёзная
причина для передачи
04:36
decision-makingпринимать решение away from humansлюди and ontoна machinesмашины,
82
264392
3383
принятия решений от человека к машине.
04:39
and that's electromagneticэлектромагнитный jammingзаклинивание,
83
267775
2872
Она связана
с электромагнитными помехами,
04:42
severingразрывающий the connectionсоединение betweenмежду the droneтрутень
84
270647
2236
которые обрывают связь между дроном
04:44
and its operatorоператор.
85
272883
2814
и его оператором.
04:47
Now we saw an exampleпример of this in 2011
86
275697
2618
Мы видели пример тому в 2011 году,
04:50
when an Americanамериканский RQ-RQ-170 Sentinelчасовой droneтрутень
87
278315
2956
когда американский дрон
«RQ-170 Sentinel» растерялся
04:53
got a bitнемного confusedсмущенный over IranИран dueв связи to a GPSGPS spoofingПодмена attackатака,
88
281271
4307
в иранском воздушном пространстве
из-за спуфинг-атаки на GPS.
04:57
but any remotely-pilotedдистанционно-пилотируемые droneтрутень is susceptibleвосприимчивый to this typeтип of attackатака,
89
285578
5114
Любой дистанционно-управляемый дрон
может быть подвержен
05:02
and that meansозначает dronesбеспилотные летательные аппараты
90
290692
2052
атакам подобного типа,
а значит дроны должны будут
05:04
will have to shoulderплечо more decision-makingпринимать решение.
91
292744
3620
брать на себя больше работы
по принятию решений.
05:08
They'llОни будут know theirих missionмиссия objectiveзадача,
92
296364
3043
Понимая стоящую перед ними задачу,
они должны будут
05:11
and they'llони будут reactреагировать to newновый circumstancesобстоятельства withoutбез humanчеловек guidanceруководство.
93
299407
4845
реагировать на изменившуюся ситуацию
без участия человека.
05:16
They'llОни будут ignoreигнорировать externalвнешний radioрадио signalsсигналы
94
304252
2581
Они должны будут игнорировать
внешние радиосигналы
05:18
and sendОтправить very fewмало of theirих ownсвоя.
95
306833
2330
и посылать минимальное количество
собственных сигналов.
05:21
WhichКоторый bringsприносит us to, really, the thirdв третьих
96
309163
2006
Что приводит нас к третьей,
самой серьёзной причине
05:23
and mostбольшинство powerfulмощный incentiveстимул pushingтолкая decision-makingпринимать решение
97
311169
3862
для передачи принятия решений
05:27
away from humansлюди and ontoна weaponsоружие:
98
315031
3342
от человека к оружию:
05:30
plausibleправдоподобный deniabilityотрицания.
99
318373
3293
убедительное отрицание.
05:33
Now we liveжить in a globalГлобальный economyэкономика.
100
321666
2887
Мы сегодня живём
в условиях мировой экономики.
05:36
High-techВысокие технологии manufacturingпроизводство is occurringпроисходящий on mostбольшинство continentsконтиненты.
101
324553
4334
Производства на основе высоких технологий
развиты на большинстве континентов.
05:40
CyberCyber espionageшпионаж is spiritingspiriting away advancedпередовой designsконструкции
102
328887
2914
При помощи кибершпионажа
самые новейшие разработки
05:43
to partsчасти unknownнеизвестный,
103
331801
1886
исчезают в никуда,
05:45
and in that environmentОкружающая среда, it is very likelyвероятно
104
333687
2014
и с таким положением дел
очень может оказаться,
05:47
that a successfulуспешный droneтрутень designдизайн will be knockedнокаутировал off in contractконтракт factoriesзаводы,
105
335701
4734
что украденный удачный дизайн дрона,
сделанного на подпольной фабрике,
05:52
proliferateпролиферировать in the grayсерый marketрынок.
106
340435
2170
заполонит серый рынок.
05:54
And in that situationситуация, siftingпросеивание throughчерез the wreckageобломки судна
107
342605
2460
И в таком случае, разбирая завалы,
05:57
of a suicideсамоубийство droneтрутень attackатака, it will be very difficultсложно to say
108
345065
2960
оставленные после атаки дрона-самоубийцы,
06:00
who sentпослал that weaponоружие.
109
348025
4400
трудно будет сказать, кем он был послан.
06:04
This raisesповышения the very realреальный possibilityвозможность
110
352425
2800
Тут возникает реальная угроза
06:07
of anonymousанонимный warвойна.
111
355225
2935
анонимной войны.
06:10
This could tiltнаклон the geopoliticalгеополитический balanceбаланс on its headглава,
112
358160
2614
Это может перевернуть
геополитический баланс с ног на голову,
06:12
make it very difficultсложно for a nationнация to turnочередь its firepowerогневая мощь
113
360774
3491
усложнить государствам открытие
ответного огня против агрессора,
06:16
againstпротив an attackerатакующий, and that could shiftсдвиг the balanceбаланс
114
364265
2848
и в 21-ом веке сместить баланс
06:19
in the 21stулица centuryвека away from defenseзащита and towardк offenseпреступление.
115
367113
3764
от обороны в сторону нападения.
06:22
It could make militaryвоенные actionдействие a viableжизнеспособный optionвариант
116
370877
3124
Таким образом,
война становится доступной
06:26
not just for smallмаленький nationsнации,
117
374001
2288
не только для небольших государств,
06:28
but criminalпреступник organizationsорганизации, privateчастный enterpriseпредприятие,
118
376289
2545
но и для криминальных структур,
частных предпринимателей,
06:30
even powerfulмощный individualsиндивидуумы.
119
378834
2479
или для просто очень влиятельных людей.
06:33
It could createСоздайте a landscapeпейзаж of rivalсоперник warlordsвоеначальники
120
381313
3328
Такая ситуация может
открыть дорогу воинствующим боевикам,
06:36
underminingподрыв ruleправило of lawзакон and civilгражданского societyобщество.
121
384641
3680
подрывающим устои закона
и гражданского общества.
06:40
Now if responsibilityобязанность and transparencyпрозрачность
122
388321
3616
Сознание ответственности и открытость —
06:43
are two of the cornerstonesкраеугольные of representativeпредставитель governmentправительство,
123
391937
2384
два краеугольных камня
представительного правления.
06:46
autonomousавтономный roboticроботизированный weaponsоружие could undermineподрывать bothи то и другое.
124
394321
4320
Но оба могут быть подорваны с появлением
автономного роботизированного оружия.
06:50
Now you mightмог бы be thinkingмышление that
125
398641
1546
Вам может показаться, что жители стран
06:52
citizensграждане of high-techвысокие технологии nationsнации
126
400187
2246
с хорошо развитой индустрией
высоких технологий
06:54
would have the advantageпреимущество in any roboticроботизированный warвойна,
127
402433
2703
будут иметь преимущество
в роботизированной войне,
06:57
that citizensграждане of those nationsнации would be lessМеньше vulnerableуязвимый,
128
405136
3633
что они будут менее уязвимы,
07:00
particularlyв частности againstпротив developingразвивающийся nationsнации.
129
408769
4288
особенно по сравнению
с развивающимися странами.
07:05
But I think the truthправда is the exactточный oppositeнапротив.
130
413057
3524
Но мне кажется, что справедливо
как раз обратное.
07:08
I think citizensграждане of high-techвысокие технологии societiesобщества
131
416581
2251
Общества с наиболее развитыми
высокими технологиями
07:10
are more vulnerableуязвимый to roboticроботизированный weaponsоружие,
132
418832
3729
и являются наиболее уязвимыми
для роботизированного оружия.
07:14
and the reasonпричина can be summedсуммируется up in one wordслово: dataданные.
133
422561
4465
Причину можно суммировать один словом:
информация.
07:19
DataДанные powersполномочия high-techвысокие технологии societiesобщества.
134
427026
3481
Информация — двигатель любого
высокотехнологичного общества.
07:22
Cellклетка phoneТелефон geolocationгеолокации, telecomтелеком metadataметаданные,
135
430507
3190
Мобильные службы геолокации,
метаданные операторов связи,
07:25
socialСоциальное mediaСМИ, emailЭл. адрес, textтекст, financialфинансовый transactionсделка dataданные,
136
433697
3472
социальные сети, электронная почта,
текстовые сообщения,
07:29
transportationтранспорт dataданные, it's a wealthбогатство of real-timeреальное время dataданные
137
437169
3532
данные о финансовых операциях
и перевозках — изобилие информации
07:32
on the movementsдвижения and socialСоциальное interactionsвзаимодействия of people.
138
440701
3373
о взаимодействии и перемещении людей
в реальном времени.
07:36
In shortкороткая, we are more visibleвидимый to machinesмашины
139
444074
3775
Сегодня машины знают про нас всё.
07:39
than any people in historyистория,
140
447849
2242
Значительно больше, чем когда-либо
в истории человечества.
07:42
and this perfectlyв совершенстве suitsкостюмы the targetingнацеливание needsпотребности of autonomousавтономный weaponsоружие.
141
450091
5616
И это идеально отвечает
прицельным нуждам автономного оружия.
07:47
What you're looking at here
142
455707
1738
Перед вами графический анализ связей
07:49
is a linkссылка analysisанализ mapкарта of a socialСоциальное groupгруппа.
143
457445
3246
некой социальной группы людей.
07:52
Linesлинии indicateуказывать socialСоциальное connectednessсвязанность betweenмежду individualsиндивидуумы.
144
460691
3634
Линии обозначают
социальные связи между людьми.
07:56
And these typesтипы of mapsкарты can be automaticallyавтоматически generatedгенерироваться
145
464325
2880
Такие графики можно
автоматически построить,
07:59
basedисходя из on the dataданные trailслед modernсовременное people leaveоставлять behindза.
146
467205
4715
используя информационный след,
оставляемый современными людьми.
08:03
Now it's typicallyтипично used to marketрынок goodsтовар and servicesСервисы
147
471920
2477
Обычно эти данные используются
для продажи товаров и услуг
08:06
to targetedцелевое demographicsдемографические, but it's a dual-useдвойное использование technologyтехнологии,
148
474397
4416
целевой аудитории, но это
технология двойного назначения,
08:10
because targetingнацеливание is used in anotherдругой contextконтекст.
149
478813
3360
потому что существует
и другое определение цели.
08:14
Noticeуведомление that certainопределенный individualsиндивидуумы are highlightedвыделены.
150
482173
2560
Обратите внимание, что некоторые точки
выделены на графике.
08:16
These are the hubsконцентраторы of socialСоциальное networksсети.
151
484733
3280
Эти люди —
центры своих социальных сетей.
08:20
These are organizersорганизаторы, opinion-makersобщественное мнение, leadersлидеры,
152
488013
3590
Эти люди — организаторы,
лидеры общественного мнения.
08:23
and these people alsoтакже can be automaticallyавтоматически identifiedидентифицированный
153
491603
2682
Их можно автоматически выделить
08:26
from theirих communicationсвязь patternsузоры.
154
494285
2382
по их манере общения.
08:28
Now, if you're a marketerпродавец, you mightмог бы then targetцель them
155
496667
2146
Если вы маркетолог, вы будете стараться
привлечь их внимание,
08:30
with productпродукт samplesобразцы, try to spreadраспространение your brandмарка
156
498813
2543
давая им образцы вашей продукции
и тем самым продвигая
08:33
throughчерез theirих socialСоциальное groupгруппа.
157
501356
2829
ваш бренд внутри их социальной группы.
08:36
But if you're a repressiveрепрессивный governmentправительство
158
504185
1953
Но если вы —
репрессивный режим, занятый поиском
08:38
searchingпоиск for politicalполитическая enemiesвраги, you mightмог бы insteadвместо removeУдалить them,
159
506138
4810
политических врагов,
вы будете заинтересованы в том,
08:42
eliminateУстранить them, disruptсрывать theirих socialСоциальное groupгруппа,
160
510948
2760
чтобы убрать их, избавиться от них,
нарушить их социальную группировку,
08:45
and those who remainоставаться behindза loseпотерять socialСоциальное cohesionсплоченность
161
513708
3169
таким образом,
что оставшиеся члены группы
08:48
and organizationорганизация.
162
516877
2621
потеряют единство и организацию.
08:51
Now in a worldМир of cheapдешево, proliferatingпролиферирующий roboticроботизированный weaponsоружие,
163
519498
3324
В мире, где дешёвое
роботизированное оружие
08:54
bordersграницы would offerпредлагает very little protectionзащита
164
522822
2635
будет широко распространено,
границы не смогут защитить
08:57
to criticsкритики of distantотдаленный governmentsправительства
165
525457
1946
критиков удалённых правительств
08:59
or trans-nationalтранснациональное criminalпреступник organizationsорганизации.
166
527403
3646
или транснациональных
преступных организаций.
09:03
PopularПопулярный movementsдвижения agitatingконвекционная for changeизменение
167
531049
3493
Народные движения, требующие перемен,
09:06
could be detectedобнаруженный earlyрано and theirих leadersлидеры eliminatedустранен
168
534542
3609
можно будет подавить на ранних стадиях,
избавиться от их лидеров,
09:10
before theirих ideasидеи achieveдостигать criticalкритический massмасса.
169
538151
2911
прежде чем их идеи
достигнут критической массы.
09:13
And ideasидеи achievingдостижения criticalкритический massмасса
170
541062
2591
Достижение идеями критической массы —
09:15
is what politicalполитическая activismактивность in popularпопулярный governmentправительство is all about.
171
543653
3936
основная цель любого политического
движения в демократическом обществе.
09:19
Anonymousанонимное lethalлетальный weaponsоружие could make lethalлетальный actionдействие
172
547589
3997
Анонимное смертоносное оружие может
облегчить выбор в пользу смертоносной силы
09:23
an easyлегко choiceвыбор for all sortsвиды of competingконкурирующий interestsинтересы.
173
551586
3782
самыми разными
соперничающими группировками.
09:27
And this would put a chillпростуда on freeсвободно speechречь
174
555368
3734
А это заморозит
свободу слова и гражданскую
09:31
and popularпопулярный politicalполитическая actionдействие, the very heartсердце of democracyдемократия.
175
559102
5308
политическую активность —
самое сердце демократии.
09:36
And this is why we need an internationalМеждународный treatyдоговор
176
564410
2914
Именно поэтому нам необходимо
международное законодательство
09:39
on roboticроботизированный weaponsоружие, and in particularконкретный a globalГлобальный banзапрет
177
567324
3540
о применении роботизированного оружия, а также
09:42
on the developmentразвитие and deploymentразвертывание of killerубийца robotsроботы.
178
570864
3908
повсеместный запрет на производство
и распространение роботов-убийц.
09:46
Now we alreadyуже have internationalМеждународный treatiesдоговоры
179
574772
3254
У нас уже есть
международные договоры об использовании
09:50
on nuclearядерной and biologicalбиологический weaponsоружие, and, while imperfectнесовершенный,
180
578026
3386
ядерного и биологического оружия.
Они могут быть несовершенны,
09:53
these have largelyво многом workedработал.
181
581412
2288
но они в большинстве своём работают.
09:55
But roboticроботизированный weaponsоружие mightмог бы be everyкаждый bitнемного as dangerousопасно,
182
583700
3768
Роботизированное оружие
настолько же опасно,
09:59
because they will almostпочти certainlyбезусловно be used,
183
587468
3288
потому что его будут использовать,
10:02
and they would alsoтакже be corrosiveкоррозионный to our democraticдемократической institutionsучреждения.
184
590756
5027
и последствия будут разрушительны
для наших демократических устоев.
10:07
Now in Novemberноябрь 2012 the U.S. Departmentотдел of DefenseЗащита
185
595783
3468
В ноябре 2012 года
министерство обороны США
10:11
issuedвыпущен a directiveдиректива requiringтребующий
186
599251
2458
выпустило распоряжение, требующее
10:13
a humanчеловек beingявляющийся be presentнастоящее время in all lethalлетальный decisionsрешения.
187
601709
4519
обязательного присутствия человека
при принятии любых смертоносных решений.
10:18
This temporarilyвременно effectivelyфактически bannedзапрещенный autonomousавтономный weaponsоружие in the U.S. militaryвоенные,
188
606228
4776
Этот указ ввёл временный запрет
на использование автономного оружия
вооружёнными силами США,
10:23
but that directiveдиректива needsпотребности to be madeсделал permanentпостоянный.
189
611004
3753
но запрет этот должен стать постоянным.
10:26
And it could setзадавать the stageсцена for globalГлобальный actionдействие.
190
614757
4376
И он должен послужить толчком
для действий на международной арене.
10:31
Because we need an internationalМеждународный legalправовой frameworkфреймворк
191
619133
3845
Потому что нам необходим
международный свод законов
10:34
for roboticроботизированный weaponsоружие.
192
622978
2138
об использовании
роботизированного оружия.
10:37
And we need it now, before there's a devastatingразрушительный attackатака
193
625116
2928
И эти законы нужны уже сейчас,
не дожидаясь пока на нас нападут
10:40
or a terroristтеррорист incidentинцидент that causesпричины nationsнации of the worldМир
194
628044
3152
или пока очередная угроза терроризма
не заставит государства во всём мире
10:43
to rushпорыв to adoptпринять these weaponsоружие
195
631196
1924
в спешном порядке внедрять это оружие,
10:45
before thinkingмышление throughчерез the consequencesпоследствия.
196
633120
3771
не задумываясь о последствиях.
10:48
Autonomousавтономный roboticроботизированный weaponsоружие concentrateконцентрат too much powerмощность
197
636891
2981
Автономное роботизированное оружие
сосредоточивает слишком большую власть
10:51
in too fewмало handsРуки, and they would imperilподвергать опасности democracyдемократия itselfсам.
198
639872
6283
в руках немногих и угрожает демократии.
10:58
Now, don't get me wrongнеправильно, I think there are tonsтонны
199
646155
2686
Не поймите меня неправильно:
я считаю, что есть много
11:00
of great usesиспользования for unarmedбезоружный civilianгражданский dronesбеспилотные летательные аппараты:
200
648841
2618
замечательных примеров использования
гражданских невооружённых дронов.
11:03
environmentalэкологическая monitoringмониторинг, searchпоиск and rescueспасение, logisticsлогистика.
201
651459
3939
Охрана окружающей среды, поисково-спасательные работы,
транспортировка и снабжение.
11:07
If we have an internationalМеждународный treatyдоговор on roboticроботизированный weaponsоружие,
202
655398
2826
При наличии международного
законодательства об использовании
11:10
how do we gainусиление the benefitsвыгоды of autonomousавтономный dronesбеспилотные летательные аппараты
203
658224
3587
роботизированного оружия, как мы можем
воспользоваться преимуществами
11:13
and vehiclesтранспортные средства while still protectingзащищающий ourselvesсами
204
661811
2648
беспилотных дронов и автомобилей,
и в то же время
11:16
againstпротив illegalнелегальный roboticроботизированный weaponsоружие?
205
664459
3980
защитить себя от нелегального
роботизированного оружия?
11:20
I think the secretсекрет will be transparencyпрозрачность.
206
668439
4741
Я считаю, что нам поможет
политика открытости.
11:25
No robotробот should have an expectationожидание of privacyКонфиденциальность
207
673180
3013
У робота не может быть права на секреты
11:28
in a publicобщественности placeместо.
208
676193
3451
в общественном месте.
11:31
(ApplauseАплодисменты)
209
679644
5048
(Аплодисменты)
11:36
Eachкаждый robotробот and droneтрутень should have
210
684692
2045
У каждого робота или дрона
должна быть шифрованная маркировка,
11:38
a cryptographicallyкриптографически signedподписанный I.D. burnedсожженный in at the factoryзавод
211
686737
2883
поставленная на заводе,
которую можно будет использовать
11:41
that can be used to trackтрек its movementдвижение throughчерез publicобщественности spacesпространства.
212
689620
2923
для отслеживания его передвижений
в общественных местах.
11:44
We have licenseлицензия platesтарелки on carsлегковые автомобили, tailхвост numbersчисел on aircraftсамолет.
213
692543
3381
У наших машин и самолётов
есть номерные знаки.
11:47
This is no differentдругой.
214
695924
1841
Здесь должно быть то же самое.
11:49
And everyкаждый citizenгражданин should be ableв состоянии to downloadскачать an appприложение
215
697765
2012
И любой человек должен иметь
доступ к приложению,
11:51
that showsшоу the populationНаселение of dronesбеспилотные летательные аппараты and autonomousавтономный vehiclesтранспортные средства
216
699777
3125
которое бы показывало ему
все дроны и беспилотные автомобили
11:54
movingперемещение throughчерез publicобщественности spacesпространства around them,
217
702902
2429
и их местоположение и траекторию
движения в общественных местах
11:57
bothи то и другое right now and historicallyисторически.
218
705331
2733
в реальном времени или в прошлом.
12:00
And civicгражданский leadersлидеры should deployразвертывание sensorsдатчиков and civicгражданский dronesбеспилотные летательные аппараты
219
708064
3548
Общественные деятели должны
установить сенсорные датчики
12:03
to detectобнаружить rogueИзгой dronesбеспилотные летательные аппараты,
220
711612
2344
и иметь в распоряжении гражданские дроны
для отслеживания неисправных машин,
12:05
and insteadвместо of sendingотправка killerубийца dronesбеспилотные летательные аппараты of theirих ownсвоя up to shootстрелять them down,
221
713956
3176
но не посылать при этом свои дроны,
чтобы их уничтожить,
12:09
they should notifyпоставить в известность humansлюди to theirих presenceприсутствие.
222
717132
2992
а вместо этого предупреждать людей
об их присутствии.
12:12
And in certainопределенный very high-securityвысокая безопасность areasрайоны,
223
720124
2606
И только в зонах повышенной безопасности
12:14
perhapsвозможно civicгражданский dronesбеспилотные летательные аппараты would snareзападня them
224
722730
1909
возможно гражданские дроны
будут ловить такие машины
12:16
and dragбремя them off to a bombбомбить disposalудаление facilityобъект.
225
724639
2841
и отвозить их на свалки оружия
для захоронения.
12:19
But noticeуведомление, this is more an immuneиммунный systemсистема
226
727480
3027
Обратите внимание, что это больше похоже
на иммунную систему,
12:22
than a weaponsоружие systemсистема.
227
730507
1321
чем на систему вооружений.
12:23
It would allowпозволять us to availпольза ourselvesсами of the use
228
731828
2592
Это позволит нам
извлекать выгоду из использования
12:26
of autonomousавтономный vehiclesтранспортные средства and dronesбеспилотные летательные аппараты
229
734420
2032
беспилотных машин и дронов,
12:28
while still preservingсохранение our openоткрытый, civilгражданского societyобщество.
230
736452
4295
при этом сохраняя
наше открытое гражданское общество.
12:32
We mustдолжен banзапрет the deploymentразвертывание and developmentразвитие
231
740747
2999
Мы должны запретить
производство и распространение
12:35
of killerубийца robotsроботы.
232
743746
1862
роботов-убийц.
12:37
Let's not succumbподдаваться to the temptationискушение to automateавтоматизировать warвойна.
233
745608
4850
Давайте не будем поддаваться соблазну
автоматизировать военные действия.
12:42
Autocraticсамодержавный governmentsправительства and criminalпреступник organizationsорганизации
234
750458
2718
Вне всякого сомнения,
что диктатуры и криминальные структуры
12:45
undoubtedlyнесомненно will, but let's not joinприсоединиться them.
235
753176
2956
этим воспользуются,
но давайте не будем им уподобляться.
12:48
Autonomousавтономный roboticроботизированный weaponsоружие
236
756132
1891
Автономное роботизированное оружие
12:50
would concentrateконцентрат too much powerмощность
237
758023
2051
сосредоточит слишком много власти
12:52
in too fewмало unseenневидимый handsРуки,
238
760074
2482
в невидимых руках немногих,
12:54
and that would be corrosiveкоррозионный to representativeпредставитель governmentправительство.
239
762556
3255
что будет разрушительно
для представительного правления.
12:57
Let's make sure, for democraciesдемократии at leastнаименее,
240
765811
2961
Давайте же постараемся, чтобы по крайней мере
в демократическом обществе
13:00
killerубийца robotsроботы remainоставаться fictionфантастика.
241
768772
2604
роботы-убийцы оставались
только на страницах книг.
13:03
Thank you.
242
771376
1110
Спасибо.
13:04
(ApplauseАплодисменты)
243
772486
4565
(Аплодисменты)
13:09
Thank you. (ApplauseАплодисменты)
244
777051
4616
Спасибо. (Аплодисменты)

▲Back to top

ABOUT THE SPEAKER
Daniel Suarez - Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios.

Why you should listen

While working as a software developer, Daniel Suarez self-published Daemon, a cyber-thriller depicting a future where society is radically reshaped by disruptive technologies. It struck a chord -- and so did the sequel, Freedom (TM) -- rocketing Suarez into the pantheon of sci-fi prophets.

In his 2012 novel Kill Decision, Suarez digs into the consequences of technology that’s here to stay: autonomous bots and drones programmed to be lethal. Suarez argues that as we cede more control to software, we gamble with the very essence of democracy itself. How can we establish sane guidelines for technology that could easily outstrip our control?

More profile about the speaker
Daniel Suarez | Speaker | TED.com