ABOUT THE SPEAKER
Ralph Langner - Security consultant
Ralph Langner is a German control system security consultant. He has received worldwide recognition for his analysis of the Stuxnet malware.

Why you should listen

Ralph Langner heads Langner, an independent cyber-security firm that specializes in control systems -- electronic devices that monitor and regulate other devices, such as manufacturing equipment. These devices' deep connection to the infrastructure that runs our cities and countries has made them, increasingly, the targets of an emerging, highly sophisticated type of cyber-warfare. And since 2010, when the Stuxnet computer worm first reared its head, Langner has stood squarely in the middle of the battlefield.

As part of a global effort to decode the mysterious program, Langner and his team analyzed Stuxnet's data structures, and revealed what he believes to be its ultimate intent: the control system software known to run centrifuges in nuclear facilities -- specifically, facilities in Iran. Further analysis by Langner uncovered what seem to be Stuxnet's shocking origins, which he revealed in his TED2011 talk. (PS: He was right.)

More profile about the speaker
Ralph Langner | Speaker | TED.com
TED2011

Ralph Langner: Cracking Stuxnet, a 21st-century cyber weapon

Ralph Langer: Łamanie Stuxnet'u -- cyberbroni 21 wieku

Filmed:
1,567,512 views

Stuxnet -- robak komputerowy odkryty po raz pierwszy w 2010 roku, sprawiał wrażenia trudnej układanki. Oprócz niespotykanie skomplikowanej budowy, pojawił się o wiele większy kłopot: cel jego istnienia. Ralph Langer wraz ze swoim zespołem pomagał łamać kod źródłowy, który pokazywał końcowy cel tej cyfrowej bomby -- i swoje ukryte pochodzenie. Tłumaczy nam przebieg tego fascynującego cyber - dochodzenia.
- Security consultant
Ralph Langner is a German control system security consultant. He has received worldwide recognition for his analysis of the Stuxnet malware. Full bio

Double-click the English transcript below to play the video.

00:15
The ideapomysł behindza the StuxnetStuxnet computerkomputer wormrobak
0
0
3000
Idea kryjąca się za robakiem komputerowym Stuxnet
00:18
is actuallytak właściwie quitecałkiem simpleprosty.
1
3000
2000
jest w zasadzie bardzo prosta.
00:20
We don't want IranIran to get the bombbomba.
2
5000
3000
Nie chcemy, aby Iran wyprodukował bombę atomową.
00:23
TheirIch majorpoważny assetkapitał for developingrozwijanie nuclearjądrowy weaponsBronie
3
8000
3000
Ich centralnym ośrodkiem prowadzącym badania
00:26
is the NatanzNatanz uraniumuranu enrichmentwzbogacania facilityobiekt.
4
11000
4000
jest Natanz, gdzie wzbogaca się uran.
00:30
The grayszary boxespudła that you see,
5
15000
2000
Te szare skrzynki, które widzicie,
00:32
these are real-timeczas rzeczywisty controlkontrola systemssystemy.
6
17000
3000
to systemy kontrolujące w czasie rzeczywistym.
00:35
Now if we managezarządzanie to compromisekompromis these systemssystemy
7
20000
3000
Kiedy przejmiemy kontrolę nad systemami,
00:38
that controlkontrola drivenapęd speedsprędkości and valveszawory,
8
23000
3000
które monitorują szybkości i zawory,
00:41
we can actuallytak właściwie causeprzyczyna a lot of problemsproblemy
9
26000
3000
możemy spowodować wiele problemów
00:44
with the centrifugeWirówki.
10
29000
2000
z wirówkami.
00:46
The grayszary boxespudła don't runbiegać WindowsSystemu Windows softwareoprogramowanie;
11
31000
2000
Szare skrzynki, nie działają w środowisku Windows;
00:48
they are a completelycałkowicie differentróżne technologytechnologia.
12
33000
3000
używają całkowicie innej technologii.
00:51
But if we managezarządzanie
13
36000
2000
Ale jeśli zdołamy,
00:53
to placemiejsce a good WindowsSystemu Windows viruswirus
14
38000
3000
umieścić dobrego Windowsowskiego wirusa
00:56
on a notebookNotatnik
15
41000
2000
na laptopie
00:58
that is used by a maintenancekonserwacja engineerinżynier
16
43000
2000
którego używa inżynier obsługujący te maszyny
01:00
to configureskonfigurować this grayszary boxpudełko,
17
45000
3000
aby skonfigurować tą szarą skrzynkę
01:03
then we are in businessbiznes.
18
48000
2000
wtedy, jesteśmy w domu.
01:05
And this is the plotwątek behindza StuxnetStuxnet.
19
50000
3000
I taki spisek kryje się za Stuxnet'em.
01:08
So we startpoczątek with a WindowsSystemu Windows dropperzakraplacz.
20
53000
5000
Zaczynamy z "zarażaczem" na Windowsie.
01:13
The payloadładunek goesidzie ontona the grayszary boxpudełko,
21
58000
3000
Blok danych idzie do szarego pudła,
01:16
damagesszkody the centrifugeWirówki,
22
61000
2000
uszkadzaja wirówki,
01:18
and the IranianIrański nuclearjądrowy programprogram is delayedopóźniony --
23
63000
2000
irański program atomowy jest opóźniony --
01:20
missionmisja accomplishedznakomity.
24
65000
2000
misja wykonana.
01:22
That's easyłatwo, huh?
25
67000
2000
Proste, nie?
01:24
I want to tell you how we founduznany that out.
26
69000
3000
I chciałbym wam opowiedzieć, jak do tego doszliśmy.
01:27
When we startedRozpoczęty our researchBadania on StuxnetStuxnet sixsześć monthsmiesiące agotemu,
27
72000
3000
Kiedy rozpoczęliśmy nasze badania nad Stuxnet sześć miesięcy temu,
01:30
it was completelycałkowicie unknownnieznany what the purposecel, powód of this thing was.
28
75000
3000
nie mieliśmy zielonego pojęcia jaki był cel tego wirusa.
01:33
The only thing that was knownznany
29
78000
2000
Jedyna rzecz, o która była wiadoma,
01:35
is it's very, very complexzłożony on the WindowsSystemu Windows partczęść, the dropperzakraplacz partczęść,
30
80000
3000
to bardzo, bardzo złożona część Windows'owska, część zarażająca,
01:38
used multiplewielokrotność zero-dayzero dzień vulnerabilitiesluk w zabezpieczeniach.
31
83000
3000
która używała wielokrotnych zero-day'owych słabości . [ataki na luki w systemie już po ich ujawnieniu]
01:41
And it seemedwydawało się to want to do something
32
86000
3000
Wyglądało na to, że robak, chce coś zrobić
01:44
with these grayszary boxespudła, these real-timeczas rzeczywisty controlkontrola systemssystemy.
33
89000
2000
ze tymi szarymi skrzynkami, tymi systemami kontroli czasu rzeczywistego.
01:46
So that got our attentionUwaga,
34
91000
2000
To przyciągnęło naszą uwagę,
01:48
and we startedRozpoczęty a lablaboratorium projectprojekt
35
93000
2000
i zaczęliśmy projekt w laboratorium,
01:50
where we infectedzarażony our environmentśrodowisko with StuxnetStuxnet
36
95000
4000
gdzie zainfekowaliśmy nasze środowisko Stuxnet'em,
01:54
and checkedsprawdzone this thing out.
37
99000
2000
i sprawdzaliśmy, co się dzieje.
01:56
And then some very funnyzabawny things happenedstało się.
38
101000
3000
Wydarzyła się bardzo zabawna rzecz.
01:59
StuxnetStuxnet behavedzachowywał się like a lablaboratorium ratszczur
39
104000
3000
Stuxnet zachowywał się jak mysz laboratoryjna,
02:02
that didn't like our cheeseser --
40
107000
3000
która nie lubiła naszego sera --
02:05
sniffedpowąchał, but didn't want to eatjeść.
41
110000
2000
obwąchiwała go, ale nie chciała go zjeść.
02:07
Didn't make sensesens to me.
42
112000
2000
To nie miało dla mnie sensu.
02:09
And after we experimentedeksperymentował with differentróżne flavorssmaki of cheeseser,
43
114000
3000
Kiedy już wypróbowaliśmy, różne rodzaje sera,
02:12
I realizedrealizowany, well, this is a directedskierowany attackatak.
44
117000
4000
zrozumiałem, że atak jest dokładnie sprecyzowany.
02:16
It's completelycałkowicie directedskierowany.
45
121000
2000
Jest on zupełnie przemyślany.
02:18
The dropperzakraplacz is prowlinggrasuje activelyaktywnie
46
123000
2000
Roznosiciel staje się aktywny
02:20
on the grayszary boxpudełko
47
125000
2000
w szarej skrzynce,
02:22
if a specifickonkretny configurationKonfiguracja is founduznany,
48
127000
3000
jeśli znajdzie specyficzną konfigurację,
02:25
and even if the actualrzeczywisty programprogram codekod that it's tryingpróbować to infectzainfekować
49
130000
4000
nawet jeśli rzeczywiście program, który ma być zainfekowany,
02:29
is actuallytak właściwie runningbieganie on that targetcel.
50
134000
2000
w danym momencie pracuje nad tym celem.
02:31
And if not, StuxnetStuxnet does nothing.
51
136000
3000
Jeśli jej nie ma, Stuxnet nic nie robi.
02:34
So that really got my attentionUwaga,
52
139000
2000
To naprawdę przyciągnęło moją uwagę,
02:36
and we startedRozpoczęty to work on this
53
141000
2000
i zaczęliśmy pracować nad tym,
02:38
nearlyprawie around the clockzegar,
54
143000
2000
niemal 24 godziny na dobę,
02:40
because I thought, "Well, we don't know what the targetcel is.
55
145000
3000
ponieważ nie wiedzieliśmy, jaki jest cel.
02:43
It could be, let's say for exampleprzykład,
56
148000
2000
Mogłyby to być, powiedzmy,
02:45
a U.S. powermoc plantroślina,
57
150000
2000
elektrownia w Stanach Zjednoczonych,
02:47
or a chemicalchemiczny plantroślina in GermanyNiemcy.
58
152000
2000
lub fabryka chemiczna w Niemczech.
02:49
So we better find out what the targetcel is soonwkrótce."
59
154000
3000
Więc lepiej byłoby, gdybyśmy szybko dowiedzieli się jaki jest cel.
02:52
So we extractedwyodrębnione and decompileddekompilowana
60
157000
2000
Wyodrębniliśmy i zdekompilowaliśmy,
02:54
the attackatak codekod,
61
159000
2000
kod źródłowy odpowiedzialny za atak,
02:56
and we discoveredodkryty that it's structuredzbudowany in two digitalcyfrowy bombsbomby --
62
161000
3000
i odkryliśmy, że jego budowa składa się z dwóch cyfrowych bomb --
02:59
a smallermniejszy one and a biggerwiększy one.
63
164000
3000
mniejszej i większej.
03:02
And we alsorównież saw that they are very professionallyprofesjonalnie engineeredzaprojektowane
64
167000
4000
Widzieliśmy też, że są niezwykle profesjonalnie zaprojektowane
03:06
by people who obviouslyoczywiście had all insiderInsider informationInformacja.
65
171000
4000
z pewnością przez ludzi, którzy mieli wszystkie poufne informacje.
03:10
They knewwiedziałem all the bitsbity and bitesjedzenie
66
175000
2000
Znali precyzyjnie wszystkie słabe punkty,
03:12
that they had to attackatak.
67
177000
2000
w które musieli zaatakować.
03:14
They probablyprawdopodobnie even know the shoebut sizerozmiar of the operatoroperatora.
68
179000
3000
Prawdopodobnie znali nawet numer buta operatora.
03:17
So they know everything.
69
182000
2000
Wiedzieli dosłownie wszystko.
03:19
And if you have heardsłyszał that the dropperzakraplacz of StuxnetStuxnet
70
184000
3000
Jeśli słyszeliście, że program instalujący Stuxnet
03:22
is complexzłożony and high-techwysoka technologia,
71
187000
2000
jest skomplikowany i zaawansowany;
03:24
let me tell you this:
72
189000
2000
powiem to w ten sposób:
03:26
the payloadładunek is rocketrakieta sciencenauka.
73
191000
2000
jego blok danych to technologia rakietowa.
03:28
It's way abovepowyżej everything
74
193000
2000
To było ponad wszystkim,
03:30
that we have ever seenwidziany before.
75
195000
3000
co do tej pory widzieliśmy.
03:33
Here you see a samplepróba of this actualrzeczywisty attackatak codekod.
76
198000
3000
Widzicie tutaj przykład tego kodu.
03:36
We are talkingmówić about --
77
201000
2000
Mówimy tu o --
03:38
around about 15,000 lineskwestia of codekod.
78
203000
3000
około 15 000 wersów kodu.
03:41
LooksWygląda prettyładny much like old-stylestarym stylu assemblymontaż languagejęzyk.
79
206000
3000
Wygląda jak starodawny język symboliczny.
03:44
And I want to tell you how we were ablezdolny
80
209000
2000
Chcę opowiedzieć wam, w jaki sposób byliśmy w stanie
03:46
to make sensesens out of this codekod.
81
211000
2000
wyciągnąć sens z tego kodu.
03:48
So what we were looking for is, first of all, systemsystem functionfunkcjonować callspołączenia,
82
213000
3000
Więc przede wszystkim czego szukaliśmy to wywołania funkcji systemu,
03:51
because we know what they do.
83
216000
2000
ponieważ wiemy, co one robią.
03:53
And then we were looking for timersPrzekaźniki czasowe and datadane structuresStruktury
84
218000
4000
Następnie skupiamy się na strukturach czasu i danych
03:57
and tryingpróbować to relateodnosić się them to the realreal worldświat --
85
222000
2000
i próbujemy odnieść je do rzeczywistego świata --
03:59
to potentialpotencjał realreal worldświat targetscele.
86
224000
2000
do potencjalnych celów na ziemi.
04:01
So we do need targetcel theoriesteorie
87
226000
3000
Potrzebujemy teorii na temat celów,
04:04
that we can proveokazać się or disproveobalić.
88
229000
3000
które możemy potwierdzić, lub odrzucić.
04:07
In orderzamówienie to get targetcel theoriesteorie,
89
232000
2000
Aby otrzymać teorie na temat celów,
04:09
we rememberZapamiętaj
90
234000
2000
pamiętaliśmy,
04:11
that it's definitelyZdecydowanie hardcoreHardcore sabotagesabotaż,
91
236000
2000
że jest to niewątpliwie poważny sabotaż
04:13
it mustmusi be a high-valuewysokiej wartości targetcel
92
238000
2000
i musi być bardzo wartościowym celem,
04:15
and it is mostwiększość likelyprawdopodobne locatedusytuowany in IranIran,
93
240000
3000
najprawdopodobniej położony w Iranie,
04:18
because that's where mostwiększość of the infectionsinfekcje had been reportedzgłaszane.
94
243000
4000
ponieważ tam została zgłoszona większość infekcji.
04:22
Now you don't find severalkilka thousandtysiąc targetscele in that areapowierzchnia.
95
247000
3000
Teraz, nie znajdziesz w tamtej okolicy kilku tysięcy takich miejsc.
04:25
It basicallygruntownie boilswrze down
96
250000
2000
Praktycznie wszystko ogranicza się
04:27
to the BushehrBushehr nuclearjądrowy powermoc plantroślina
97
252000
2000
do elektrowni atomowej w Buszehr
04:29
and to the NatanzNatanz fuelpaliwo enrichmentwzbogacania plantroślina.
98
254000
2000
i ośrodka wzbogacania paliwa w Natanz.
04:31
So I told my assistantAsystent,
99
256000
2000
Powiedziałem mojemu asystentowi:
04:33
"Get me a listlista of all centrifugeWirówki and powermoc plantroślina expertseksperci from our clientklient basebaza."
100
258000
3000
"Znajdź dla mnie listę wszystkich specjalistów ds. wirówek i elektrowni z bazy naszego klienta."
04:36
And I phonedzadzwonił do them up and pickeddoborowy theirich brainmózg
101
261000
2000
Zadzwoniłem do nich i skorzystałem z ich wiedzy
04:38
in an effortwysiłek to matchmecz theirich expertiseekspertyza
102
263000
2000
w celu połączenia ich ekspertyzy
04:40
with what we founduznany in codekod and datadane.
103
265000
3000
z tym, co znaleźliśmy w kodzie źródłowym i danych.
04:43
And that workedpracował prettyładny well.
104
268000
2000
I to zadziałało całkiem nieźle.
04:45
So we were ablezdolny to associateskojarzyć
105
270000
2000
Byliśmy w stanie połączyć
04:47
the smallmały digitalcyfrowy warheadWarhead
106
272000
2000
tę małą cyfrową głowicę
04:49
with the rotorwirnik controlkontrola.
107
274000
2000
z kontrolerem wirników.
04:51
The rotorwirnik is that movingw ruchu partczęść withinw ciągu the centrifugeWirówki,
108
276000
3000
Wirnik jest poruszającą się częścią wewnątrz wirówki,
04:54
that blackczarny objectobiekt that you see.
109
279000
2000
jest to ten czarny przedmiot.
04:56
And if you manipulatemanipulować the speedprędkość of this rotorwirnik,
110
281000
3000
Jeżeli pogrzebie się prędkością tego wirnika
04:59
you are actuallytak właściwie ablezdolny to crackpęknięcie the rotorwirnik
111
284000
2000
w zasadzie można go zniszczyć
05:01
and eventuallyostatecznie even have the centrifugeWirówki explodeeksplodować.
112
286000
4000
i w końcu nawet sprawić, że wirówka wybuchnie.
05:05
What we alsorównież saw
113
290000
2000
Co również dostrzegliśmy
05:07
is that the goalcel of the attackatak
114
292000
2000
to, że celem ataku,
05:09
was really to do it slowlypowoli and creepyCreepy --
115
294000
3000
jest przeprowadzenie go powoli i przerażająco --
05:12
obviouslyoczywiście in an effortwysiłek
116
297000
2000
oczywiście w celu,
05:14
to drivenapęd maintenancekonserwacja engineersinżynierowie crazyzwariowany,
117
299000
3000
doprowadzenia do szaleństwa serwisantów,
05:17
that they would not be ablezdolny to figurepostać this out quicklyszybko.
118
302000
3000
aby nie mogli szybko tego rozgryźć.
05:20
The bigduży digitalcyfrowy warheadWarhead -- we had a shotstrzał at this
119
305000
3000
Duża cyfrowa bomba-- próbowaliśmy
05:23
by looking very closelydokładnie
120
308000
2000
patrzyć bardzo starannie
05:25
at datadane and datadane structuresStruktury.
121
310000
2000
na dane i struktury danych.
05:27
So for exampleprzykład, the numbernumer 164
122
312000
2000
I na przykład, numer 164
05:29
really standsstojaki out in that codekod;
123
314000
2000
bardzo wyróżnia się od reszty kodu;
05:31
you can't overlookwychodzą na it.
124
316000
2000
nie możesz go przegapić.
05:33
I startedRozpoczęty to researchBadania scientificnaukowy literatureliteratura
125
318000
2000
Zacząłem przeszukiwać literaturę naukową
05:35
on how these centrifugeswirówek
126
320000
2000
w jaki sposób wirówki,
05:37
are actuallytak właściwie builtwybudowany in NatanzNatanz
127
322000
2000
zostały wybudowane w Natanz,
05:39
and founduznany they are structuredzbudowany
128
324000
2000
i znalazłem, że są ułożone
05:41
in what is callednazywa a cascadeKaskada,
129
326000
2000
w tak zwaną kaskadę
05:43
and eachkażdy cascadeKaskada holdstrzyma 164 centrifugeswirówek.
130
328000
4000
i każda kaskada zawiera 164 wirówki.
05:47
So that madezrobiony sensesens, that was a matchmecz.
131
332000
2000
To miało sens, to był trop.
05:49
And it even got better.
132
334000
2000
Ale szło nam jeszcze lepiej.
05:51
These centrifugeswirówek in IranIran
133
336000
2000
Wirówki w Iranie
05:53
are subdividedpodzielone into 15, what is callednazywa, stagesgradacja.
134
338000
4000
są podzielone na 15 tzw. etapów.
05:57
And guessodgadnąć what we founduznany in the attackatak codekod?
135
342000
2000
I zgadnijcie, co znaleźliśmy w kodzie?
05:59
An almostprawie identicalidentyczny structureStruktura.
136
344000
2000
Prawie identyczną strukturę.
06:01
So again, that was a realreal good matchmecz.
137
346000
3000
Jeszcze raz, wpadliśmy na znakomity trop.
06:04
And this gavedał us very highwysoki confidencepewność siebie for what we were looking at.
138
349000
3000
Dało nam to bardzo dobry obraz tego, nad czym pracowaliśmy.
06:07
Now don't get me wrongźle here, it didn't go like this.
139
352000
3000
Nie zrozumcie mnie źle, to nie działo się tak łatwo.
06:10
These resultswyniki have been obtaineduzyskane
140
355000
3000
Wszystkie nasze wyniki otrzymaliśmy
06:13
over severalkilka weekstygodnie of really hardciężko laborpraca.
141
358000
3000
dzięki kilku tygodniowej, naprawdę ciężkiej pracy.
06:16
And we oftenczęsto wentposzedł into just a deadnie żyje endkoniec
142
361000
3000
Często dochodziliśmy do ślepego zaułku
06:19
and had to recoverwyzdrowieć.
143
364000
2000
u musieliśmy wracać.
06:21
AnywayW każdym razie, so we figuredwzorzysty out
144
366000
2000
W każdym razie, odkryliśmy,
06:23
that bothobie digitalcyfrowy warheadsgłowic
145
368000
2000
że obydwie cyfrowe bomby/głowice
06:25
were actuallytak właściwie aimingcelem at one and the samepodobnie targetcel,
146
370000
2000
są skierowane na jeden i ten sam cel,
06:27
but from differentróżne angleskąty.
147
372000
2000
ale pod różnymi kątami.
06:29
The smallmały warheadWarhead is takingnabierający one cascadeKaskada,
148
374000
3000
Mała głowica uderzała w kaskadę,
06:32
and spinningspinning up the rotorsWirniki and slowingspowolnienie them down,
149
377000
3000
przyspieszała i zwalniała wirniki,
06:35
and the bigduży warheadWarhead
150
380000
2000
zaś duża
06:37
is talkingmówić to sixsześć cascadesCascades
151
382000
2000
brała na cel sześć kaskad
06:39
and manipulatingmanipulowanie valveszawory.
152
384000
2000
i manipulowała ich zaworami.
06:41
So in all, we are very confidentpewni
153
386000
2000
Więc generalnie byliśmy bardzo pewni,
06:43
that we have actuallytak właściwie determinedustalona what the targetcel is.
154
388000
2000
że znaleźliśmy jaki był cel.
06:45
It is NatanzNatanz, and it is only NatanzNatanz.
155
390000
3000
To był Natanz, i tylko Natanz.
06:48
So we don't have to worrymartwić się
156
393000
2000
Nie musieliśmy się już martwić
06:50
that other targetscele
157
395000
2000
innymi prawdopodobnymi celami,
06:52
mightmoc be hittrafienie by StuxnetStuxnet.
158
397000
2000
w które mógłby uderzyć Stuxnet.
06:54
Here'sTutaj jest some very coolchłodny stuffrzeczy that we saw --
159
399000
3000
Tutaj natrafiliśmy na naprawdę niesamowite rzeczy --
06:57
really knockedzapukał my socksskarpety off.
160
402000
2000
dosłownie wyrwało mnie to z butów.
06:59
Down there is the grayszary boxpudełko,
161
404000
2000
Tam na dole jest szara skrzynka,
07:01
and on the topTop you see the centrifugeswirówek.
162
406000
3000
na górze widzicie wirówki.
07:04
Now what this thing does
163
409000
2000
Zadanie robaka opiera się na
07:06
is it interceptsprzechwytuje the inputwkład valueswartości from sensorsczujniki --
164
411000
3000
przejęciu wartości z czujników --
07:09
so for exampleprzykład, from pressurenacisk sensorsczujniki
165
414000
2000
na przykład z czujników ciśnienia,
07:11
and vibrationwibracja sensorsczujniki --
166
416000
2000
czy czujników drgań --
07:13
and it provideszapewnia legitimateprawowity programprogram codekod,
167
418000
3000
i dostarczeniu prawdziwemu systemowi,
07:16
whichktóry is still runningbieganie duringpodczas the attackatak,
168
421000
2000
który nadal działa podczas ataku,
07:18
with fakeimitacja inputwkład datadane.
169
423000
2000
oszukane dane z czujników.
07:20
And as a mattermateria of factfakt, this fakeimitacja inputwkład datadane
170
425000
2000
Najlepsze jest to, że te lipne dane,
07:22
is actuallytak właściwie prerecordedwstępnie zarejestrowanej zawartości by StuxnetStuxnet.
171
427000
3000
były wcześniej nagrane przez Stuxnet.
07:25
So it's just like from the HollywoodHollywood movieskino
172
430000
2000
Dokładnie jak z hollywoodzkich filmów,
07:27
where duringpodczas the heistHeist,
173
432000
2000
gdzie podczas wybuchu,
07:29
the observationobserwacja cameraaparat fotograficzny is fedkarmiony with prerecordedwstępnie zarejestrowanej zawartości videowideo.
174
434000
3000
ujęcie kamery jest zastąpione nagranym wcześniej wideo.
07:32
That's coolchłodny, huh?
175
437000
2000
Niezłe, nie?
07:35
The ideapomysł here is obviouslyoczywiście
176
440000
2000
Idea jest jasna,
07:37
not only to fooloszukać the operatorsOperatorzy in the controlkontrola roompokój.
177
442000
3000
nie tylko nabrać operatorów w dyspozytorni.
07:40
It actuallytak właściwie is much more dangerousniebezpieczny and aggressiveagresywny.
178
445000
4000
W rzeczywistości jest o wiele bardziej agresywna i niebezpieczna.
07:44
The ideapomysł
179
449000
2000
Ideą jest
07:46
is to circumventObejście a digitalcyfrowy safetybezpieczeństwo systemsystem.
180
451000
3000
ominięcie wewnętrznego systemu bezpieczeństwa.
07:50
We need digitalcyfrowy safetybezpieczeństwo systemssystemy
181
455000
2000
Potrzebujemy cyfrowych systemów bezpieczeństwa,
07:52
where a humanczłowiek operatoroperatora could not actdziałać quickszybki enoughdość.
182
457000
3000
kiedy reakcja operatora mogłaby być zbyt wolna.
07:55
So for exampleprzykład, in a powermoc plantroślina,
183
460000
2000
Na przykład w elektrowniach,
07:57
when your bigduży steamparowy turbineTurbina getsdostaje too over speedprędkość,
184
462000
3000
kiedy wielka turbina parowa zaczyna się kręcić za szybko,
08:00
you mustmusi openotwarty reliefulga valveszawory withinw ciągu a millisecondmilisekundy.
185
465000
3000
musisz otworzyć zawory w przeciągu milisekundy.
08:03
ObviouslyOczywiście, this cannotnie może be doneGotowe by a humanczłowiek operatoroperatora.
186
468000
3000
Oczywiście, człowiek nie jest w stanie tego zrobić.
08:06
So this is where we need digitalcyfrowy safetybezpieczeństwo systemssystemy.
187
471000
2000
Właśnie dlatego potrzebujemy komputerowych systemów bezpieczeństwa.
08:08
And when they are compromisedzagrożony,
188
473000
2000
Kiedy przestają działać,
08:10
then realreal badzły things can happenzdarzyć.
189
475000
3000
mogą się wydarzyć naprawdę złe rzeczy.
08:13
Your plantroślina can blowcios up.
190
478000
2000
Twoja elektrownia może wylecieć w powietrze.
08:15
And neitherani your operatorsOperatorzy norani your safetybezpieczeństwo systemsystem will noticeogłoszenie it.
191
480000
3000
Co więcej, ani twoi operatorzy, ani system bezpieczeństwa, nie zauważy tego.
08:18
That's scarystraszny.
192
483000
2000
To jest straszne.
08:20
But it getsdostaje worsegorzej.
193
485000
2000
Ale sprawy mogą mieć się o wiele gorzej.
08:22
And this is very importantważny, what I'm going to say.
194
487000
3000
To co powiem jest bardzo ważne.
08:25
Think about this:
195
490000
2000
Pomyślcie o tym.
08:27
this attackatak is genericrodzajowy.
196
492000
3000
Ten atak jest ogólny.
08:30
It doesn't have anything to do, in specificsCharakterystyka,
197
495000
4000
Nie musi być skierowany konkretnie
08:34
with centrifugeswirówek,
198
499000
2000
w wirówki,
08:36
with uraniumuranu enrichmentwzbogacania.
199
501000
3000
we wzbogacanie uranu.
08:39
So it would work as well, for exampleprzykład,
200
504000
3000
Równie dobrze może działać np.
08:42
in a powermoc plantroślina
201
507000
2000
w elektrowni,
08:44
or in an automobilesamochód factoryfabryka.
202
509000
3000
czy fabryce samochodów.
08:47
It is genericrodzajowy.
203
512000
2000
Bo jest ogólny.
08:49
And you don't have -- as an attackernapastnik --
204
514000
2000
Nie musisz -- jako atakujący --
08:51
you don't have to deliverdostarczyć this payloadładunek
205
516000
3000
nie musisz dostarczyć tych danych
08:54
by a USBUSB stickkij,
206
519000
2000
na pamięci USB.
08:56
as we saw it in the casewalizka of StuxnetStuxnet.
207
521000
2000
tak jak to było w przypadku Stuxnet'u.
08:58
You could alsorównież use conventionalstandardowy wormrobak technologytechnologia for spreadingrozpościerający się.
208
523000
3000
Możesz użyć konwencjonalnych technologii do rozpowszechnienia robaka.
09:01
Just spreadrozpiętość it as wideszeroki as possiblemożliwy.
209
526000
3000
I rozpowszechnić go tak szeroko, jak to możliwe.
09:04
And if you do that,
210
529000
2000
Jeśli to zrobisz,
09:06
what you endkoniec up with
211
531000
2000
to będziesz miał w rękach
09:08
is a cyberCyber weaponbroń of massmasa destructionzniszczenie.
212
533000
5000
cyberbroń masowego rażenia.
09:14
That's the consequencekonsekwencja
213
539000
2000
To są konsekwencje,
09:16
that we have to facetwarz.
214
541000
3000
z którymi musimy się zmierzyć.
09:19
So unfortunatelyNiestety,
215
544000
3000
Niestety,
09:22
the biggestnajwiększy numbernumer of targetscele for suchtaki attacksataki
216
547000
3000
największa część celów ataków tego typu
09:25
are not in the MiddleŚrodkowy EastWschód.
217
550000
2000
nie znajduje się na Bliskim Wschodzie.
09:27
They're in the UnitedStany Zjednoczone StatesPaństwa and EuropeEuropy and in JapanJaponia.
218
552000
3000
One są w Stanach Zjednoczonych, Europie czy Japonii.
09:30
So all of the greenZielony areasobszary,
219
555000
2000
Wszystkie te zielone obszary,
09:32
these are your target-richbogate w cel environmentsśrodowiska.
220
557000
3000
są miejscami podatnymi na takie ataki.
09:35
We have to facetwarz the consequenceskonsekwencje,
221
560000
3000
Musimy zmierzyć się skutkami,
09:38
and we better startpoczątek to prepareprzygotować right now.
222
563000
3000
i najlepiej przygotować się na to już teraz:
09:41
ThanksDzięki.
223
566000
2000
Dziękuję.
09:43
(ApplauseAplauz)
224
568000
6000
(Brawa)
09:49
ChrisChris AndersonAnderson: I've got a questionpytanie.
225
574000
2000
Chris Anderson: Mam pytanie.
09:53
RalphRalph, it's been quitecałkiem widelyszeroko reportedzgłaszane
226
578000
2000
Ralph, dosyć szeroko donoszono,
09:55
that people assumezałożyć that MossadMossad
227
580000
2000
kiedy ludzie przypuszczali, że Mossad
09:57
is the mainGłówny entityjednostki behindza this.
228
582000
2000
był główną jednostką stojącą za tym.
09:59
Is that your opinionopinia?
229
584000
3000
Jakie jest twoje zdanie?
10:02
RalphRalph LangnerLangner: Okay, you really want to hearsłyszeć that?
230
587000
2000
Ralph Langer: Okej, na prawdę chcesz to usłyszeć?
10:04
Yeah. Okay.
231
589000
2000
Dobra.
10:06
My opinionopinia is that the MossadMossad is involvedzaangażowany,
232
591000
3000
Moim zdaniem Mossad maczał w tym palce,
10:09
but that the leadingprowadzący forcesiła is not IsraelIzrael.
233
594000
3000
ale głównodowodzącym nie jest Izrael.
10:12
So the leadingprowadzący forcesiła behindza that
234
597000
2000
Dowodzącym jest tutaj
10:14
is the cyberCyber superpowersupermocarstwo.
235
599000
3000
prawdziwy gigant komputerowy.
10:17
There is only one,
236
602000
2000
Taki istnieje tylko jeden --
10:19
and that's the UnitedStany Zjednoczone StatesPaństwa --
237
604000
2000
są to Stany Zjednoczone --
10:21
fortunatelyna szczęście, fortunatelyna szczęście.
238
606000
2000
na szczęście, na szczęście.
10:23
Because otherwisew przeciwnym razie,
239
608000
2000
Bo w innym przypadku,
10:25
our problemsproblemy would even be biggerwiększy.
240
610000
3000
nasze kłopoty byłby o wiele większe.
10:28
CACA: Thank you for scaringstraszenia the livingżycie daylightsDaylights out of us. Thank you, RalphRalph.
241
613000
4000
CA: Dziękuję za wyciągnięcie tej przerażającej sprawy na światło dzienne. Dziękuję Ralph.
10:32
(ApplauseAplauz)
242
617000
2000
(Brawa)
Translated by Oskar Kocoł
Reviewed by Wojciech Borucki

▲Back to top

ABOUT THE SPEAKER
Ralph Langner - Security consultant
Ralph Langner is a German control system security consultant. He has received worldwide recognition for his analysis of the Stuxnet malware.

Why you should listen

Ralph Langner heads Langner, an independent cyber-security firm that specializes in control systems -- electronic devices that monitor and regulate other devices, such as manufacturing equipment. These devices' deep connection to the infrastructure that runs our cities and countries has made them, increasingly, the targets of an emerging, highly sophisticated type of cyber-warfare. And since 2010, when the Stuxnet computer worm first reared its head, Langner has stood squarely in the middle of the battlefield.

As part of a global effort to decode the mysterious program, Langner and his team analyzed Stuxnet's data structures, and revealed what he believes to be its ultimate intent: the control system software known to run centrifuges in nuclear facilities -- specifically, facilities in Iran. Further analysis by Langner uncovered what seem to be Stuxnet's shocking origins, which he revealed in his TED2011 talk. (PS: He was right.)

More profile about the speaker
Ralph Langner | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee