ABOUT THE SPEAKER
Daniel Suarez - Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios.

Why you should listen

While working as a software developer, Daniel Suarez self-published Daemon, a cyber-thriller depicting a future where society is radically reshaped by disruptive technologies. It struck a chord -- and so did the sequel, Freedom (TM) -- rocketing Suarez into the pantheon of sci-fi prophets.

In his 2012 novel Kill Decision, Suarez digs into the consequences of technology that’s here to stay: autonomous bots and drones programmed to be lethal. Suarez argues that as we cede more control to software, we gamble with the very essence of democracy itself. How can we establish sane guidelines for technology that could easily outstrip our control?

More profile about the speaker
Daniel Suarez | Speaker | TED.com
TEDGlobal 2013

Daniel Suarez: The kill decision shouldn't belong to a robot

דניאל סוארס: ההחלטה להרוג לא צריכה להיות בידי רובוט

Filmed:
1,946,706 views

כסופר, דניאל סוארס מחולל עלילות אימה על העתיד. אבל על במת TEDGlobal, הוא מדבר איתנו על תרחישים מהחיים האמיתיים שכולנו צריכים להכיר טוב יותר: עלייתם של כלי המלחמה הרובוטיים האוטונומיים. כטב"מים מתקדמים, כלי נשק אוטומטיים וכלי איסוף משולבי בינה מלאכותית, הוא טוען, עלולים להוציא את ההחלטה לפתוח במלחמה מידיהם של בני האדם.
- Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios. Full bio

Double-click the English transcript below to play the video.

00:12
I writeלִכתוֹב fictionספרות בדיונית sci-fiמדע בדיוני thrillersמותחנים,
0
691
3158
אני כותב מותחנים של מדע בדיוני,
00:15
so if I say "killerרוֹצֵחַ robotsרובוטים,"
1
3849
2193
אז אם אני אומר "רובוטים רצחניים",
00:18
you'dהיית רוצה probablyכנראה think something like this.
2
6042
2361
אתם בטח חושבים על משהו כמו זה.
00:20
But I'm actuallyלמעשה not here to talk about fictionספרות בדיונית.
3
8403
2555
אבל האמת היא שאני כאן לא בכדי לדבר על מדע בדיוני.
00:22
I'm here to talk about very realאמיתי killerרוֹצֵחַ robotsרובוטים,
4
10958
2948
אני כאן בכדי לדבר על רובוטים רצחניים מאוד אמיתיים,
00:25
autonomousאוטונומי combatלחימה dronesמזל"ט.
5
13906
3122
כטב"מים אוטונומיים קרביים.
00:29
Now, I'm not referringמתייחס to Predatorטוֹרֵף and Reaperקוֹצֵר dronesמזל"ט,
6
17028
3627
עכשיו, אני לא מדבר על הכטב"מים "פרדטור" ו"ריפר" ,
00:32
whichאיזה have a humanבן אנוש makingהֲכָנָה targetingמיקוד decisionsהחלטות.
7
20655
3260
שבהם האדם הוא שמחליט לגבי המטרות.
00:35
I'm talkingשִׂיחָה about fullyלְגַמרֵי autonomousאוטונומי roboticרובוטית weaponsכלי נשק
8
23915
3129
אני מדבר על כלי נשק רובוטיים לגמרי אוטונומיים
00:39
that make lethalקָטלָנִי decisionsהחלטות about humanבן אנוש beingsישויות
9
27044
2654
שמקבלים החלטות קטלניות על בני אדם
00:41
all on theirשֶׁלָהֶם ownשֶׁלוֹ.
10
29698
2417
לגמרי בעצמם.
00:44
There's actuallyלמעשה a technicalטֶכנִי termטווח for this: lethalקָטלָנִי autonomyאוטונומיה.
11
32115
4000
יש למעשה מונח טכני לזה: אוטונומיה קטלנית.
00:48
Now, lethallyקטלני autonomousאוטונומי killerרוֹצֵחַ robotsרובוטים
12
36115
2856
עכשיו, רובוטים קטלניים אוטונומיים
00:50
would take manyרב formsטפסים -- flyingעַף, drivingנְהִיגָה,
13
38971
3069
לובשים צורות רבות: טסים, נוהגים,
00:54
or just lyingשֶׁקֶר in wait.
14
42040
2746
או סתם נמצאים במארב.
00:56
And actuallyלמעשה, they're very quicklyבִּמְהִירוּת becomingהִתהַוּוּת a realityמְצִיאוּת.
15
44786
3109
ולמעשה, הם נהפכים למציאות מהר מאוד.
00:59
These are two automaticאוֹטוֹמָטִי sniperצַלָף stationsתחנות
16
47895
2484
אלו שתי תחנות צליפה אוטומטית
01:02
currentlyכַּיוֹם deployedלפרוס in the DMZDMZ betweenבֵּין Northצָפוֹן and Southדָרוֹם Koreaקוריאה.
17
50379
4137
שמוצבות כיום באזור המפורז שבין צפון קוריאה לדרום קוריאה.
01:06
Bothשניהם of these machinesמכונה are capableבעל יכולת of automaticallyבאופן אוטומטי
18
54516
2171
לשתי המערכות יכולות אוטונומיות
01:08
identifyingזיהוי a humanבן אנוש targetיַעַד and firingירי on it,
19
56687
3524
לזיהוי מטרה אנושית ויירוטה,
01:12
the one on the left at a distanceמֶרְחָק of over a kilometerקִילוֹמֶטֶר.
20
60211
4324
זו משמאל ממרחק של למעלה מקילומטר.
01:16
Now, in bothשניהם casesבמקרים, there's still a humanבן אנוש in the loopלוּלָאָה
21
64535
3589
עכשיו, בשני המקרים, יש עדיין בן אדם באמצע
01:20
to make that lethalקָטלָנִי firingירי decisionהַחְלָטָה,
22
68124
2372
שמקבל את ההחלטה הקטלנית לירות,
01:22
but it's not a technologicalטֶכנוֹלוֹגִי requirementדְרִישָׁה. It's a choiceבְּחִירָה.
23
70496
5413
אבל זו אינה דרישה טכנית. זו בחירה.
01:27
And it's that choiceבְּחִירָה that I want to focusמוֹקֵד on,
24
75909
3093
ובדיוק בבחירה הזו אני רוצה להתמקד,
01:31
because as we migrateלהגר lethalקָטלָנִי decision-makingקבלת החלטות
25
79002
2641
כי בזמן שאנחנו מעבירים את קבלת ההחלטות הקטלניות
01:33
from humansבני אנוש to softwareתוֹכנָה,
26
81643
3109
מבני האדם לתוכנה,
01:36
we riskלְהִסְתָכֵּן not only takingלְקִיחָה the humanityאֶנוֹשִׁיוּת out of warמִלחָמָה,
27
84752
3476
אנחנו מסתכנים לא רק בכך שנוציא את האנושיות מהמלחמה,
01:40
but alsoגַם changingמִשְׁתַנֶה our socialחֶברָתִי landscapeנוֹף entirelyלַחֲלוּטִין,
28
88228
3526
אלא גם בכך שאנחנו נשנה לחלוטין את הנוף החברתי שלנו,
01:43
farרָחוֹק from the battlefieldשדה קרב.
29
91754
2224
גם הרבה מעבר לשדה הקרב.
01:45
That's because the way humansבני אנוש resolveלִפְתוֹר conflictסְתִירָה
30
93978
4509
וזאת כי האופן שבו בני אדם פותרים סיכסוכים
01:50
shapesצורות our socialחֶברָתִי landscapeנוֹף.
31
98487
1733
מעצב את הנוף החברתי שלנו.
01:52
And this has always been the caseמקרה, throughoutבְּמֶשֶך historyהִיסטוֹרִיָה.
32
100220
2633
וכך זה היה תמיד, לאורך כל ההיסטוריה.
01:54
For exampleדוגמא, these were state-of-the-artמדינת האומנות weaponsכלי נשק systemsמערכות
33
102853
2661
למשל, אלו היו כלי הנשק הכי מתקדמים
01:57
in 1400 A.D.
34
105514
2079
ב-1400 לספירה.
01:59
Now they were bothשניהם very expensiveיָקָר to buildלִבנוֹת and maintainלְתַחְזֵק,
35
107593
3144
הם היו מאוד יקרים הן לבניה והן לתחזוקה,
02:02
but with these you could dominateלִשְׁלוֹט the populaceהֲמוֹן הָעָם,
36
110737
3240
אבל באמצעותם יכולת לשלוט בעם,
02:05
and the distributionהפצה of politicalפּוֹלִיטִי powerכּוֹחַ in feudalפיאודלי societyחֶברָה reflectedמשתקף that.
37
113977
3889
והפיזור של הכוח הפוליטי בחברה הפיאודלית שיקף זאת.
02:09
Powerכּוֹחַ was focusedמְרוּכָּז at the very topחלק עליון.
38
117866
2687
הכוח היה מרוכז ממש בקודקוד.
02:12
And what changedהשתנה? Technologicalטֶכנוֹלוֹגִי innovationחדשנות.
39
120553
3528
ומה השתנה? חדשנות טכנולוגית.
02:16
Gunpowderאבקת שריפה, cannonתוֹתָח.
40
124081
1871
אבק השריפה, תותחים.
02:17
And prettyיפה soonבקרוב, armorשִׁריוֹן and castlesטירות were obsoleteמְיוּשָׁן,
41
125952
3817
ומהר מאוד, השריון והטירות הפכו מיושנים,
02:21
and it matteredהיה חשוב lessפָּחוּת who you broughtהביא to the battlefieldשדה קרב
42
129769
2533
וכבר היה חשוב פחות את מי הבאת לשדה הקרב
02:24
versusנגד how manyרב people you broughtהביא to the battlefieldשדה קרב.
43
132302
3779
לעומת כמה אנשים הבאת לשדה הקרב.
02:28
And as armiesצבאות grewגדל in sizeגודל, the nation-stateמדינת לאום aroseהתעוררה
44
136081
3638
וככל שצבאות גדלו במספרים, קמו מדינות-הלאום
02:31
as a politicalפּוֹלִיטִי and logisticalלוגיסטי requirementדְרִישָׁה of defenseהֲגָנָה.
45
139719
3680
כצורך פוליטי ולוגיסטי של ההגנה.
02:35
And as leadersמנהיגים had to relyלִסְמוֹך on more of theirשֶׁלָהֶם populaceהֲמוֹן הָעָם,
46
143399
2376
וככל שמנהיגים נאלצו לסמוך על יותר מבני העם שלהם,
02:37
they beganהחל to shareלַחֲלוֹק powerכּוֹחַ.
47
145775
1833
כך הם החלו לחלוק בכוח.
02:39
Representativeנציג governmentמֶמְשָׁלָה beganהחל to formטופס.
48
147608
2599
ממשלים ייצוגיים החלו להיווצר.
02:42
So again, the toolsכלים we use to resolveלִפְתוֹר conflictסְתִירָה
49
150207
3288
אז שוב, הכלים בהם אנחנו משתמשים כדי לפתור סכסוכים
02:45
shapeצוּרָה our socialחֶברָתִי landscapeנוֹף.
50
153495
3304
מעצבים את הנוף החברתי שלנו.
02:48
Autonomousאוטונומי roboticרובוטית weaponsכלי נשק are suchכגון a toolכְּלִי,
51
156799
4064
כלי נשק רובוטיים אוטונומיים הם כלי כזה,
02:52
exceptמלבד that, by requiringהמחייב very fewמְעַטִים people to go to warמִלחָמָה,
52
160863
5168
אלא שבכך שהם מצריכים מעט מאוד אנשים שיצאו למלחמה,
02:58
they riskלְהִסְתָכֵּן re-centralizingמחדש ריכוז powerכּוֹחַ into very fewמְעַטִים handsידיים,
53
166031
4840
הם יוצרים את הסיכון שהכוח ישוב ויתרכז בקרב מעט מאוד ידיים,
03:02
possiblyיִתָכֵן reversingהיפוך a five-centuryחמש מאות trendמְגַמָה towardלקראת democracyדֵמוֹקרָטִיָה.
54
170871
6515
ואולי אף יחזירו אחורה מגמה בת 500 שנה של התקדמות לעבר דמוקרטיה.
03:09
Now, I think, knowingיוֹדֵעַ this,
55
177386
1757
עכשיו, לדעתי, כשיודעים את זה,
03:11
we can take decisiveמַכרִיעַ stepsצעדים to preserveלשמור our democraticדֵמוֹקרָטִי institutionsמוסדות,
56
179143
4352
אפשר לנקוט בצעדים החלטיים כדי לשמר את המוסדות הדמוקרטיים שלנו,
03:15
to do what humansבני אנוש do bestהטוב ביותר, whichאיזה is adaptלְהִסְתָגֵל.
57
183495
3979
ולעשות את מה שבני האדם עושים הכי טוב, וזה להסתגל.
03:19
But time is a factorגורם.
58
187474
2005
אבל הזמן הוא מרכיב חשוב.
03:21
Seventyשִׁבעִים nationsעמים are developingמתפתח remotely-pilotedמרחוק- piloted
59
189479
2851
שבעים אומות מפתחות בעצמן כטב"מים
03:24
combatלחימה dronesמזל"ט of theirשֶׁלָהֶם ownשֶׁלוֹ,
60
192330
2157
שנשלטים מרחוק,
03:26
and as you'llאתה see, remotely-pilotedמרחוק- piloted combatלחימה dronesמזל"ט
61
194487
2593
וכפי שתראו, כטב"מים קרביים שנשלטים מרחוק
03:29
are the precursorsמבשרי to autonomousאוטונומי roboticרובוטית weaponsכלי נשק.
62
197080
4472
הם נושאי הבשורה לכלי הנשק הרובוטיים האוטונומיים.
03:33
That's because onceפַּעַם you've deployedלפרוס remotely-pilotedמרחוק- piloted dronesמזל"ט,
63
201552
2767
וזה כי מרגע שפרסת כטב"מים בשליטה מרחוק,
03:36
there are threeשְׁלוֹשָׁה powerfulחָזָק factorsגורמים pushingדוחף decision-makingקבלת החלטות
64
204319
3384
ישנם שלושה גורמים מרכזיים שדוחקים את קבלת ההחלטות
03:39
away from humansבני אנוש and on to the weaponנֶשֶׁק platformפּלַטפוֹרמָה itselfעצמה.
65
207703
4600
מידי בני האדם ואל מערכת הנשק עצמה.
03:44
The first of these is the delugeמַבּוּל of videoוִידֵאוֹ that dronesמזל"ט produceליצר.
66
212303
5259
הראשון שבהם הוא מבול הווידיאו שהכטב"מים מייצרים.
03:49
For exampleדוגמא, in 2004, the U.S. droneמזל"ט fleetצי producedמיוצר
67
217562
3853
למשל, ב-2004, צי הכטב"מים של ארה"ב הפיק
03:53
a grandגָדוֹל totalסה"כ of 71 hoursשעות of videoוִידֵאוֹ surveillanceהַשׁגָחָה for analysisאָנָלִיזָה.
68
221415
5312
בסה"כ 71 שעות של צילומי מעקב לניתוח.
03:58
By 2011, this had goneנעלם up to 300,000 hoursשעות,
69
226727
4499
ב-2011, הנתון עלה ל 300,000 שעות,
04:03
outstrippingoutstripping humanבן אנוש abilityיְכוֹלֶת to reviewסקירה it all,
70
231226
3149
ובכך עקף את היכולת האנושית לצפייה בכל זה,
04:06
but even that numberמספר is about to go up drasticallyבאופן דרסטי.
71
234375
3664
אבל אפילו המספר הזה עוד יעלה משמעותית.
04:10
The Pentagon'sשל הפנטגון Gorgonגורגון Stareלבהות and Argusארגוס programsתוכניות
72
238039
2575
התוכניות של הפנטגון "גורגון סטר" וארגוס"
04:12
will put up to 65 independentlyבאופן עצמאי operatedמוּפעָל cameraמַצלֵמָה eyesעיניים
73
240614
3164
יציבו כ-65 עדשות מצלמה שמנוהלות כל אחת בנפרד
04:15
on eachכל אחד droneמזל"ט platformפּלַטפוֹרמָה,
74
243778
2038
על הפלטפורמה של כל כטב"ם,
04:17
and this would vastlyבְּמִדָה נִכֶּרֶת outstripלְהַצְלִיחַ יוֹתֵר humanבן אנוש abilityיְכוֹלֶת to reviewסקירה it.
75
245816
3303
וזה יעלה משמעותית על היכולת האנושית לצפות בתוצרים.
04:21
And that meansאומר visualחָזוּתִי intelligenceאינטליגנציה softwareתוֹכנָה will need
76
249119
2160
והמשמעות היא שידרשו תוכנות בינה ויזואלית
04:23
to scanלִסְרוֹק it for itemsפריטים of interestריבית.
77
251279
4048
על מנת לסרוק ולאתר מוקדי עניין.
04:27
And that meansאומר very soonבקרוב
78
255327
1348
וזה אומר שבקרוב מאוד
04:28
dronesמזל"ט will tell humansבני אנוש what to look at,
79
256675
2747
כטב"מים יגידו לבני האדם על מה להסתכל,
04:31
not the other way around.
80
259422
2497
ולא להיפך.
04:33
But there's a secondשְׁנִיָה powerfulחָזָק incentiveתַמרִיץ pushingדוחף
81
261919
2473
אבל יש תמריץ חזק שני שדוחף
04:36
decision-makingקבלת החלטות away from humansבני אנוש and ontoעַל גַבֵּי machinesמכונה,
82
264392
3383
את קבלת ההחלטות מידי בני האדם לעבר המכונות,
04:39
and that's electromagneticאלקטרומגנטית jammingחֲסִימָה,
83
267775
2872
וזה השיבוש האלקטרומגנטי,
04:42
severingניתוק the connectionחיבור betweenבֵּין the droneמזל"ט
84
270647
2236
שמנתק את הקשר שבין הכטב"ם
04:44
and its operatorמַפעִיל.
85
272883
2814
למפעיל שלו.
04:47
Now we saw an exampleדוגמא of this in 2011
86
275697
2618
ראינו דוגמה לזה ב- 2011
04:50
when an Americanאֲמֶרִיקָאִי RQ-RQ-170 Sentinelזָקִיף droneמזל"ט
87
278315
2956
כאשר הכטב"ם סנטינל RQ-170 האמריקאי
04:53
got a bitbit confusedמְבוּלבָּל over Iranאִירָן dueעקב to a GPSג'י.פי. אס spoofingזיופים attackלִתְקוֹף,
88
281271
4307
התבלבל קצת מעל איראן בשל מתקפת שיבוש GPS,
04:57
but any remotely-pilotedמרחוק- piloted droneמזל"ט is susceptibleרָגִישׁ to this typeסוּג of attackלִתְקוֹף,
89
285578
5114
אבל כל כטב"ם הנשלט מרחוק חשוף לסוג כזה של מתקפה,
05:02
and that meansאומר dronesמזל"ט
90
290692
2052
וזה אומר שכטב"מים
05:04
will have to shoulderכָּתֵף more decision-makingקבלת החלטות.
91
292744
3620
יצטרכו לקבל יותר אחריות על קבלת החלטות.
05:08
They'llהם יהיו know theirשֶׁלָהֶם missionמשימה objectiveמַטָרָה,
92
296364
3043
הם ידענו מה מטרת המשימה,
05:11
and they'llהם יהיו reactלְהָגִיב to newחָדָשׁ circumstancesנסיבות withoutלְלֹא humanבן אנוש guidanceהַדְרָכָה.
93
299407
4845
והם יגיבו לנסיבות חדשות ללא קבלת הנחיות מבן אנוש.
05:16
They'llהם יהיו ignoreלהתעלם externalחיצוני radioרָדִיוֹ signalsאותות
94
304252
2581
הם יתעלמו מאותות רדיו חיצוניים
05:18
and sendלִשְׁלוֹחַ very fewמְעַטִים of theirשֶׁלָהֶם ownשֶׁלוֹ.
95
306833
2330
וישלחו מעט מאוד אותות משלהם.
05:21
Whichאיזה bringsמביא us to, really, the thirdשְׁלִישִׁי
96
309163
2006
מה שמביא אותנו, למעשה, לתמריץ השלישי
05:23
and mostרוב powerfulחָזָק incentiveתַמרִיץ pushingדוחף decision-makingקבלת החלטות
97
311169
3862
והחזק ביותר שדוחק את קבלת ההחלטות
05:27
away from humansבני אנוש and ontoעַל גַבֵּי weaponsכלי נשק:
98
315031
3342
מידי בני האדם ולעבר כלי הנשק:
05:30
plausibleמִתקָבֵּל עַל הַדַעַת deniabilityהכחשה.
99
318373
3293
הכחשה סבירה.
05:33
Now we liveלחיות in a globalגלוֹבָּלִי economyכַּלְכָּלָה.
100
321666
2887
אנחנו חיים כיום בכלכלה גלובלית.
05:36
High-techהיי טק manufacturingייצור is occurringמתרחש on mostרוב continentsיבשות.
101
324553
4334
ברוב היבשות מתקיים ייצור של טכנולוגיה מתקדמת.
05:40
Cyberסייבר espionageבִּיוּן is spiritingרוחות away advancedמִתקַדֵם designsעיצובים
102
328887
2914
ריגול קיברנטי מוביל לתפוצה של תוכניות פיתוח
05:43
to partsחלקים unknownלא ידוע,
103
331801
1886
למקומות בלתי ידועים,
05:45
and in that environmentסביבה, it is very likelyסָבִיר
104
333687
2014
ובאווירה כזו, מאוד סביר
05:47
that a successfulמוּצלָח droneמזל"ט designלְעַצֵב will be knockedדפק off in contractחוֹזֶה factoriesבתי חרושת,
105
335701
4734
שתוכנית ייצור של כטב"ם מוצלח תועתק במפעלים השותפים,
05:52
proliferateלְהִתְרַבּוֹת in the grayאפור marketשׁוּק.
106
340435
2170
ותשגשג במהירות בשוק האפור.
05:54
And in that situationמַצָב, siftingסִנוּן throughדרך the wreckageהֶרֶס
107
342605
2460
ובמצב כזה, בחיפוש בין ההריסות
05:57
of a suicideהִתאַבְּדוּת droneמזל"ט attackלִתְקוֹף, it will be very difficultקָשֶׁה to say
108
345065
2960
של מתקפת כטב"ם מתאבד, יהיה מאוד קשה לומר
06:00
who sentנשלח that weaponנֶשֶׁק.
109
348025
4400
מי שלח את כלי הנשק הזה.
06:04
This raisesמעלה the very realאמיתי possibilityאפשרות
110
352425
2800
זה מעלה את האפשרות המאוד ממשית
06:07
of anonymousבעילום שם warמִלחָמָה.
111
355225
2935
של מלחמה אנונימית.
06:10
This could tiltלְהַטוֹת the geopoliticalגיאופוליטי balanceאיזון on its headרֹאשׁ,
112
358160
2614
זה יכול להטות לחלוטין את המאזן הגיאופולטי,
06:12
make it very difficultקָשֶׁה for a nationאוּמָה to turnלפנות its firepowerעָצמַת אֵשׁ
113
360774
3491
ולהקשות מאוד על מדינה להפנות את כוחה הצבאי
06:16
againstמול an attackerתוֹקֵף, and that could shiftמִשׁמֶרֶת the balanceאיזון
114
364265
2848
כנגד התוקף, וזה עשוי להטות את האיזון
06:19
in the 21stרחוב centuryמֵאָה away from defenseהֲגָנָה and towardלקראת offenseעבירה.
115
367113
3764
במאה ה-21 מהגנה להתקפה.
06:22
It could make militaryצבאי actionפעולה a viableבַּר חַיִים optionאוֹפְּצִיָה
116
370877
3124
זה עשוי להפוך את הפעולה הצבאית לאפשרות מעשית
06:26
not just for smallקָטָן nationsעמים,
117
374001
2288
לא רק עבור מדינות קטנות,
06:28
but criminalפְּלִילִי organizationsארגונים, privateפְּרָטִי enterpriseמִפְעָל,
118
376289
2545
אלא גם עבור ארגוני פשע, תאגידים פרטיים,
06:30
even powerfulחָזָק individualsיחידים.
119
378834
2479
ואפילו אזרחים פרטיים בעלי כוח.
06:33
It could createלִיצוֹר a landscapeנוֹף of rivalלְהִתְחַרוֹת warlordsמצביאים
120
381313
3328
זה עשוי ליצור נוף של אדוני מלחמה יריבים
06:36
underminingהִתעַרעֲרוּת ruleכְּלָל of lawחוֹק and civilאֶזרָחִי societyחֶברָה.
121
384641
3680
שמערערים את שלטון החוק ואת החברה האזרחית.
06:40
Now if responsibilityאַחֲרָיוּת and transparencyשְׁקִיפוּת
122
388321
3616
עכשיו אם אחריות ושקיפות
06:43
are two of the cornerstonesאבני דרך of representativeנציג governmentמֶמְשָׁלָה,
123
391937
2384
הן אבני הפינה של השלטון הייצוגי,
06:46
autonomousאוטונומי roboticרובוטית weaponsכלי נשק could undermineלַחתוֹר bothשניהם.
124
394321
4320
כלי נשק רובוטיים אוטונומיים עלולים לערער את שתי אלו.
06:50
Now you mightאולי be thinkingחושב that
125
398641
1546
עכשיו אתם אולי חושבים
06:52
citizensאזרחים of high-techהיי טק nationsעמים
126
400187
2246
שלאזרחים במדינות בעלות טכנולוגיה מתקדמת
06:54
would have the advantageיתרון in any roboticרובוטית warמִלחָמָה,
127
402433
2703
יהיה יתרון בכל מלחמה רובוטית,
06:57
that citizensאזרחים of those nationsעמים would be lessפָּחוּת vulnerableפָּגִיעַ,
128
405136
3633
שאזרחים במדינות כאלו יהיו פגיעים פחות,
07:00
particularlyבִּמְיוּחָד againstמול developingמתפתח nationsעמים.
129
408769
4288
בעיקר מול מדינות מתפתחות.
07:05
But I think the truthאֶמֶת is the exactמְדוּיָק oppositeמול.
130
413057
3524
אבל אני חושב שהאמת היא בדיוק הפוכה.
07:08
I think citizensאזרחים of high-techהיי טק societiesחברות
131
416581
2251
אני חושב שאזרחים במדינות בעלות טכנולוגיה מתקדמת
07:10
are more vulnerableפָּגִיעַ to roboticרובוטית weaponsכלי נשק,
132
418832
3729
חשופים יותר לפגיעה של כלי נשק רובוטיים,
07:14
and the reasonסיבה can be summedסיכם up in one wordמִלָה: dataנתונים.
133
422561
4465
והסיבה לכך היא במילה אחת: נתונים.
07:19
Dataנתונים powersכוחות high-techהיי טק societiesחברות.
134
427026
3481
נתונים הם המנוע של חברות טכנולוגיות.
07:22
Cellתָא phoneטלפון geolocationמיקום גיאוגרפי, telecomטלקום metadataמטה-נתונים,
135
430507
3190
מיקום גיאוגרפי בטלפונים ניידים, נתוני טלקומוניקציה,
07:25
socialחֶברָתִי mediaכְּלֵי תִקְשׁוֹרֶת, emailאֶלֶקטרוֹנִי, textטֶקסט, financialכַּספִּי transactionעִסקָה dataנתונים,
136
433697
3472
מדיה חברתית, דוא"ל, נתוני עסקות פיננסיות,
07:29
transportationהוֹבָלָה dataנתונים, it's a wealthעוֹשֶׁר of real-timeזמן אמת dataנתונים
137
437169
3532
נתוני שינוע, זהו עושר של נתונים בזמן אמת
07:32
on the movementsתנועות and socialחֶברָתִי interactionsאינטראקציות of people.
138
440701
3373
על תנועות ואינטראקציות חברתיות בין אנשים.
07:36
In shortקצר, we are more visibleנִרְאֶה to machinesמכונה
139
444074
3775
בקצרה, אנחנו יותר נראים למכונות
07:39
than any people in historyהִיסטוֹרִיָה,
140
447849
2242
בהשוואה לכל אדם בהיסטוריה,
07:42
and this perfectlyמושלם suitsחליפות the targetingמיקוד needsצרכי of autonomousאוטונומי weaponsכלי נשק.
141
450091
5616
וזה מתאים במדויק לצרכי איתור המטרה של כלי הנשק האוטונומיים.
07:47
What you're looking at here
142
455707
1738
מה שאתם רואים כאן
07:49
is a linkקישור analysisאָנָלִיזָה mapמַפָּה of a socialחֶברָתִי groupקְבוּצָה.
143
457445
3246
זה מפת ניתוח קשרים של קבוצה חברתית.
07:52
Linesקווים indicateמצביע socialחֶברָתִי connectednessקשר betweenבֵּין individualsיחידים.
144
460691
3634
הקווים מעידים על קישור חברתי בין פרטים.
07:56
And these typesסוגים of mapsמפות can be automaticallyבאופן אוטומטי generatedשנוצר
145
464325
2880
ומפות מסוג כזה אפשר לחולל אוטומטית
07:59
basedמבוסס on the dataנתונים trailשביל modernמוֹדֶרנִי people leaveלעזוב behindמֵאָחוֹר.
146
467205
4715
על בסיס עקבות המידע שהאדם המודרני משאיר אחריו.
08:03
Now it's typicallyבדרך כלל used to marketשׁוּק goodsסְחוֹרוֹת and servicesשירותים
147
471920
2477
עכשיו בדר"כ זה משמש לשיווק סחורות ושירותים
08:06
to targetedממוקד demographicsדמוגרפיה, but it's a dual-useשימוש כפול technologyטֶכנוֹלוֹגִיָה,
148
474397
4416
לקבוצת אוכלוסייה ייעודית, אבל זו טכנולוגיה דו-שימושית,
08:10
because targetingמיקוד is used in anotherאַחֵר contextהֶקשֵׁר.
149
478813
3360
כי איתור מטרה משמש גם בהקשר אחר.
08:14
Noticeהודעה that certainמסוים individualsיחידים are highlightedמודגשת.
150
482173
2560
שימו לב שחלק מהפרטים מודגשים.
08:16
These are the hubsרכזות of socialחֶברָתִי networksרשתות.
151
484733
3280
אלו הם מעין מוקדים של רשתות חברתיות.
08:20
These are organizersמארגנים, opinion-makersמקבלי דעה, leadersמנהיגים,
152
488013
3590
אלו הם מארגנים, קובעי דעת-קהל, מנהיגים,
08:23
and these people alsoגַם can be automaticallyבאופן אוטומטי identifiedמזוהה
153
491603
2682
וגם האנשים האלו יכולים להיות מזוהים אוטומטית
08:26
from theirשֶׁלָהֶם communicationתִקשׁוֹרֶת patternsדפוסי.
154
494285
2382
על פי דפוסי התקשורת שלהם.
08:28
Now, if you're a marketerמשווק, you mightאולי then targetיַעַד them
155
496667
2146
עכשיו, אם אתה משווק, אתה יכול להפוך אותם למטרה
08:30
with productמוצר samplesדגימות, try to spreadהתפשטות your brandמותג
156
498813
2543
לדוגמיות של מוצרים, לנסות להפיץ את המותג שלך
08:33
throughדרך theirשֶׁלָהֶם socialחֶברָתִי groupקְבוּצָה.
157
501356
2829
דרך הקבוצה החברתית שלהם.
08:36
But if you're a repressiveמְדַכֵּא governmentמֶמְשָׁלָה
158
504185
1953
אבל אם אתה משטר דיכוי
08:38
searchingמחפש for politicalפּוֹלִיטִי enemiesאויבים, you mightאולי insteadבמקום זאת removeלְהַסִיר them,
159
506138
4810
שמחפש אויבים פוליטיים, אתה עלול במקום זה להוריד אותם,
08:42
eliminateלְחַסֵל them, disruptלְשַׁבֵּשׁ theirשֶׁלָהֶם socialחֶברָתִי groupקְבוּצָה,
160
510948
2760
לחסל אותם, לזעזע את הקבוצה החברתית שלהם,
08:45
and those who remainלְהִשָׁאֵר behindמֵאָחוֹר loseלאבד socialחֶברָתִי cohesionהִתלַכְּדוּת
161
513708
3169
והנותרים מאבדים את הלכידות החברתית
08:48
and organizationאִרגוּן.
162
516877
2621
ואת הארגון.
08:51
Now in a worldעוֹלָם of cheapזוֹל, proliferatingמְשַׂגשֵׂג roboticרובוטית weaponsכלי נשק,
163
519498
3324
עכשיו בעולם של נשק רובוטי זול ונפוץ,
08:54
bordersגבולות would offerהַצָעָה very little protectionהֲגָנָה
164
522822
2635
גבולות יוכלו לספק מעט מאוד הגנה
08:57
to criticsמבקרים of distantרָחוֹק governmentsממשלות
165
525457
1946
למבקרים של ממשלות רחוקות
08:59
or trans-nationalטרנס-לאומיות criminalפְּלִילִי organizationsארגונים.
166
527403
3646
או ארגוני פשע חוצי-עולם.
09:03
Popularפופולרי movementsתנועות agitatingמרגיז for changeשינוי
167
531049
3493
קבוצות עממיות שפועלות למען שינוי
09:06
could be detectedזוהה earlyמוקדם and theirשֶׁלָהֶם leadersמנהיגים eliminatedבוטלו
168
534542
3609
יהיו ניתנות לזיהוי מוקדם והמנהיגים שלהם יחוסלו
09:10
before theirשֶׁלָהֶם ideasרעיונות achieveלְהַשִׂיג criticalקריטי massמסה.
169
538151
2911
לפני שהרעיונות שלהם יצברו מאסה קריטית.
09:13
And ideasרעיונות achievingהשגתי criticalקריטי massמסה
170
541062
2591
השגת מאסה קריטית לרעיונות
09:15
is what politicalפּוֹלִיטִי activismפְּעַלתָנוּת in popularפופולרי governmentמֶמְשָׁלָה is all about.
171
543653
3936
זו המהות של אקטיביזם פוליטי בשלטון עממי.
09:19
Anonymousבעילום שם lethalקָטלָנִי weaponsכלי נשק could make lethalקָטלָנִי actionפעולה
172
547589
3997
כלי נשק קטלניים אנונימיים עשויים להפוך פעולה קטלנית
09:23
an easyקַל choiceבְּחִירָה for all sortsמיני of competingמתחרים interestsאינטרסים.
173
551586
3782
לאפשרות קלה עבור כל מני אינטרסים מתחרים.
09:27
And this would put a chillלְצַנֵן on freeחופשי speechנְאוּם
174
555368
3734
וזה ייבש את חופש הביטוי
09:31
and popularפופולרי politicalפּוֹלִיטִי actionפעולה, the very heartלֵב of democracyדֵמוֹקרָטִיָה.
175
559102
5308
ופעילות פוליטית עממית, שהם לב ליבה של הדמוקרטיה.
09:36
And this is why we need an internationalבינלאומי treatyאֲמָנָה
176
564410
2914
וזו הסיבה לכך שאנחנו צריכים אמנה בינלאומית
09:39
on roboticרובוטית weaponsכלי נשק, and in particularמיוחד a globalגלוֹבָּלִי banלֶאֱסוֹר
177
567324
3540
בנושא נשק רובוטי, ובפרט איסור גלובלי
09:42
on the developmentהתפתחות and deploymentפְּרִיסָה of killerרוֹצֵחַ robotsרובוטים.
178
570864
3908
על פיתוח ופריסה של רובוטים קטלניים.
09:46
Now we alreadyכְּבָר have internationalבינלאומי treatiesאמנות
179
574772
3254
יש לנו כבר אמנות בינלאומיות
09:50
on nuclearגַרעִינִי and biologicalבִּיוֹלוֹגִי weaponsכלי נשק, and, while imperfectלֹא מוּשׁלָם,
180
578026
3386
בנושא נשק גרעיני וביולוגי, ולמרות שהן לא מושלמות,
09:53
these have largelyבמידה רבה workedעבד.
181
581412
2288
בגדול הן עובדות.
09:55
But roboticרובוטית weaponsכלי נשק mightאולי be everyכֹּל bitbit as dangerousמְסוּכָּן,
182
583700
3768
אבל כלי נשק רובוטיים עלולים להיות מסוכנים לא פחות,
09:59
because they will almostכִּמעַט certainlyבְּהֶחלֵט be used,
183
587468
3288
כי כמעט בוודאות ייעשה בהם שימוש,
10:02
and they would alsoגַם be corrosiveמְאַכֵּל to our democraticדֵמוֹקרָטִי institutionsמוסדות.
184
590756
5027
והם יהיו הרסניים גם למוסדות הדמוקרטיים שלנו.
10:07
Now in Novemberנוֹבֶמבֶּר 2012 the U.S. Departmentמַחלָקָה of Defenseהֲגָנָה
185
595783
3468
בנובמבר 2012 מחלקת ההגנה של ארה"ב
10:11
issuedהפיקו a directiveהוֹרָאָה requiringהמחייב
186
599251
2458
פירסמה הנחיה שדורשת
10:13
a humanבן אנוש beingלהיות be presentמתנה in all lethalקָטלָנִי decisionsהחלטות.
187
601709
4519
שבן אדם יהיה נוכח בכל ההחלטות הקטלניות.
10:18
This temporarilyזְמַנִית effectivelyביעילות bannedאָסוּר autonomousאוטונומי weaponsכלי נשק in the U.S. militaryצבאי,
188
606228
4776
למעשה זה אסר באופן זמני שימוש בכלי נשק אוטונומיים בצבא ארה"ב,
10:23
but that directiveהוֹרָאָה needsצרכי to be madeעָשׂוּי permanentקבוע.
189
611004
3753
אבל ההנחיה הזו צריכה להפוך לקבועה.
10:26
And it could setמַעֲרֶכֶת the stageשלב for globalגלוֹבָּלִי actionפעולה.
190
614757
4376
והיא יכולה לשמש כפתיח לפעולה גלובלית.
10:31
Because we need an internationalבינלאומי legalמשפטי frameworkמִסגֶרֶת
191
619133
3845
כי אנחנו זקוקים למסגרת חוקית בינלאומית
10:34
for roboticרובוטית weaponsכלי נשק.
192
622978
2138
לכלי נשק רובוטיים.
10:37
And we need it now, before there's a devastatingהרסנית attackלִתְקוֹף
193
625116
2928
ואנחנו זקוקים לה עכשיו, לפני שתהיה מתקפה הרסנית
10:40
or a terroristמְחַבֵּל incidentתַקרִית that causesגורם ל nationsעמים of the worldעוֹלָם
194
628044
3152
או אירוע טרור שיגרום לאומות העולם
10:43
to rushלְמַהֵר to adoptלְאַמֵץ these weaponsכלי נשק
195
631196
1924
למהר ולאמץ את כלי הנשק הללו
10:45
before thinkingחושב throughדרך the consequencesהשלכות.
196
633120
3771
לפני שהספיקו לחשוב לעומק על ההשלכות.
10:48
Autonomousאוטונומי roboticרובוטית weaponsכלי נשק concentrateלְהִתְרַכֵּז too much powerכּוֹחַ
197
636891
2981
כלי נשק רובוטיים אוטונומיים מרכזים יותר מדי כוח
10:51
in too fewמְעַטִים handsידיים, and they would imperilלְסַכֵּן democracyדֵמוֹקרָטִיָה itselfעצמה.
198
639872
6283
בקרב מעט מדי ידיים, והם מעמידים בסכנה את הדמוקרטיה עצמה.
10:58
Now, don't get me wrongלא בסדר, I think there are tonsטונות
199
646155
2686
עכשיו, אל תבינו אותי לא נכון, אני חושב שיש המון
11:00
of great usesשימו for unarmedללא נשק civilianאֶזרָחִי dronesמזל"ט:
200
648841
2618
שימושים נפלאים לכטב"מים אזרחיים לא חמושים:
11:03
environmentalסְבִיבָתִי monitoringניטור, searchחפש and rescueלְהַצִיל, logisticsלוֹגִיסטִיקָה.
201
651459
3939
ניטור סביבתי, חיפוש והצלה, לוגיסטיקה.
11:07
If we have an internationalבינלאומי treatyאֲמָנָה on roboticרובוטית weaponsכלי נשק,
202
655398
2826
אם תהיה לנו אמנה בינלאומית בנושא כלי נשק רובוטיים,
11:10
how do we gainלְהַשִׂיג the benefitsיתרונות of autonomousאוטונומי dronesמזל"ט
203
658224
3587
איך נשיג את התועלות שבכטב"מים אוטונומיים
11:13
and vehiclesכלי רכב while still protectingמה tra Home ourselvesבְּעָצמֵנוּ
204
661811
2648
וכלי רכב תוך הגנה על עצמנו
11:16
againstמול illegalבִּלתִי חוּקִי roboticרובוטית weaponsכלי נשק?
205
664459
3980
מפני נשק רובוטי בלתי חוקי?
11:20
I think the secretסוֹד will be transparencyשְׁקִיפוּת.
206
668439
4741
אני חושב שהסוד יהיה בשקיפות.
11:25
No robotרוֹבּוֹט should have an expectationתוֹחֶלֶת of privacyפְּרָטִיוּת
207
673180
3013
אסור שאף רובוט יצפה לפרטיות
11:28
in a publicפּוּמְבֵּי placeמקום.
208
676193
3451
במקום ציבורי.
11:31
(Applauseתְשׁוּאוֹת)
209
679644
5048
(מחיאות כפיים)
11:36
Eachכל אחד robotרוֹבּוֹט and droneמזל"ט should have
210
684692
2045
לכל רובוט וכטב"ם צריך להיות
11:38
a cryptographicallyקריפטוגרפית signedחתם I.D. burnedנשרף in at the factoryבית חרושת
211
686737
2883
זיהוי של חתימה מוצפנת שנצרב בו במפעל
11:41
that can be used to trackמַסלוּל its movementתְנוּעָה throughדרך publicפּוּמְבֵּי spacesרווחים.
212
689620
2923
ושיכול לשמש למעקב אחר תנועתו במרחב הציבורי.
11:44
We have licenseרישיון platesצלחות on carsמכוניות, tailזָנָב numbersמספרים on aircraftכְּלִי טַיִס.
213
692543
3381
יש לנו לוחות רישוי על רכבים, מספר זנב על כלי טיס.
11:47
This is no differentשונה.
214
695924
1841
זה לא שונה.
11:49
And everyכֹּל citizenאֶזרָח should be ableיכול to downloadהורד an appאפליקציה
215
697765
2012
ולכל אזרח צריכה להיות האפשרות להוריד אפליקציה
11:51
that showsמופעים the populationאוּכְלוֹסִיָה of dronesמזל"ט and autonomousאוטונומי vehiclesכלי רכב
216
699777
3125
שמציגה את אוכלוסיית הכטב"מים האוטונומיים
11:54
movingמעבר דירה throughדרך publicפּוּמְבֵּי spacesרווחים around them,
217
702902
2429
שנעים במרחב הציבורי שמסביבו,
11:57
bothשניהם right now and historicallyהיסטורית.
218
705331
2733
גם עכשיו וגם בעבר.
12:00
And civicאֶזרָחִי leadersמנהיגים should deployלפרוס sensorsחיישנים and civicאֶזרָחִי dronesמזל"ט
219
708064
3548
ומנהיגים אזרחיים צריכים לפרוס סנסורים וכטב"מים אזרחיים
12:03
to detectלזהות rogueרַמַאִי dronesמזל"ט,
220
711612
2344
שיזהו כטב"מים אסורים,
12:05
and insteadבמקום זאת of sendingשְׁלִיחָה killerרוֹצֵחַ dronesמזל"ט of theirשֶׁלָהֶם ownשֶׁלוֹ up to shootלירות them down,
221
713956
3176
ובמקום לשלוח כטב"ם קטלני משלהם כדי ליירט אותם,
12:09
they should notifyלְהוֹדִיעַ humansבני אנוש to theirשֶׁלָהֶם presenceנוכחות.
222
717132
2992
הם צריכים ליידע את בני האדם על נוכחותם.
12:12
And in certainמסוים very high-securityאבטחה גבוהה areasאזורי,
223
720124
2606
ובאזורים ביטחוניים מסוימים,
12:14
perhapsאוּלַי civicאֶזרָחִי dronesמזל"ט would snareמַלכּוֹדֶת them
224
722730
1909
כטבמים אזרחיים אולי יציבו להם מלכודת
12:16
and dragלִגרוֹר them off to a bombפְּצָצָה disposalרְשׁוּת facilityמִתקָן.
225
724639
2841
וימשכו אותם לעבר מתקן מיוחד לסילוק פצצות.
12:19
But noticeהודעה, this is more an immuneחֲסִין systemמערכת
226
727480
3027
אבל שימו לב, זה יותר מערכת חיסון
12:22
than a weaponsכלי נשק systemמערכת.
227
730507
1321
מאשר מערכת נשק.
12:23
It would allowלהתיר us to availלְהוֹעִיל ourselvesבְּעָצמֵנוּ of the use
228
731828
2592
היא תאפשר לנו להפיק תועלת מהשימוש
12:26
of autonomousאוטונומי vehiclesכלי רכב and dronesמזל"ט
229
734420
2032
בכלים אוטונומיים וכטב"מים
12:28
while still preservingמִשׁמֶרֶת our openלִפְתוֹחַ, civilאֶזרָחִי societyחֶברָה.
230
736452
4295
ובו בזמן לשמר את החברה האזרחית הפתוחה שלנו.
12:32
We mustצריך banלֶאֱסוֹר the deploymentפְּרִיסָה and developmentהתפתחות
231
740747
2999
אנחנו חייבים לאסור את הפריסה והפיתוח
12:35
of killerרוֹצֵחַ robotsרובוטים.
232
743746
1862
של רובוטים קטלניים.
12:37
Let's not succumbלְהִכָּנֵעַ to the temptationפיתוי to automateלְמַכֵּן warמִלחָמָה.
233
745608
4850
בואו לא ניכנע לפיתוי של מיכון המלחמות.
12:42
Autocraticאוטוקרטית governmentsממשלות and criminalפְּלִילִי organizationsארגונים
234
750458
2718
ממשלות אוטוקרטיות וארגוני פשיעה
12:45
undoubtedlyבְּלִי סָפֵק will, but let's not joinלְהִצְטַרֵף them.
235
753176
2956
ללא ספק יעשו זאת, אבל בואו לא נצטרף אליהם.
12:48
Autonomousאוטונומי roboticרובוטית weaponsכלי נשק
236
756132
1891
כלי נשק רובוטיים אוטונומיים
12:50
would concentrateלְהִתְרַכֵּז too much powerכּוֹחַ
237
758023
2051
ירכזו יותר מדי כוח
12:52
in too fewמְעַטִים unseenבלתי נראות handsידיים,
238
760074
2482
בקרב מספר מועט מדי של ידיים בלתי נראות,
12:54
and that would be corrosiveמְאַכֵּל to representativeנציג governmentמֶמְשָׁלָה.
239
762556
3255
וזה יהיה הרסני לשלטון הייצוגי.
12:57
Let's make sure, for democraciesדמוקרטיות at leastהכי פחות,
240
765811
2961
בואו נוודא, לפחות לגבי דמוקרטיות,
13:00
killerרוֹצֵחַ robotsרובוטים remainלְהִשָׁאֵר fictionספרות בדיונית.
241
768772
2604
שרובוטים קטלניים יישארו בגדר מדע בדיוני.
13:03
Thank you.
242
771376
1110
תודה לכם.
13:04
(Applauseתְשׁוּאוֹת)
243
772486
4565
(מחיאות כפיים)
13:09
Thank you. (Applauseתְשׁוּאוֹת)
244
777051
4616
תודה לכם. (מחיאות כפיים)
Translated by Yael BST
Reviewed by Ido Dekkers

▲Back to top

ABOUT THE SPEAKER
Daniel Suarez - Sci-fi author
Daniel Suarez concocts thrilling reads from terrifying (and not-so-farfetched) near-future scenarios.

Why you should listen

While working as a software developer, Daniel Suarez self-published Daemon, a cyber-thriller depicting a future where society is radically reshaped by disruptive technologies. It struck a chord -- and so did the sequel, Freedom (TM) -- rocketing Suarez into the pantheon of sci-fi prophets.

In his 2012 novel Kill Decision, Suarez digs into the consequences of technology that’s here to stay: autonomous bots and drones programmed to be lethal. Suarez argues that as we cede more control to software, we gamble with the very essence of democracy itself. How can we establish sane guidelines for technology that could easily outstrip our control?

More profile about the speaker
Daniel Suarez | Speaker | TED.com