ABOUT THE SPEAKER
Ralph Langner - Security consultant
Ralph Langner is a German control system security consultant. He has received worldwide recognition for his analysis of the Stuxnet malware.

Why you should listen

Ralph Langner heads Langner, an independent cyber-security firm that specializes in control systems -- electronic devices that monitor and regulate other devices, such as manufacturing equipment. These devices' deep connection to the infrastructure that runs our cities and countries has made them, increasingly, the targets of an emerging, highly sophisticated type of cyber-warfare. And since 2010, when the Stuxnet computer worm first reared its head, Langner has stood squarely in the middle of the battlefield.

As part of a global effort to decode the mysterious program, Langner and his team analyzed Stuxnet's data structures, and revealed what he believes to be its ultimate intent: the control system software known to run centrifuges in nuclear facilities -- specifically, facilities in Iran. Further analysis by Langner uncovered what seem to be Stuxnet's shocking origins, which he revealed in his TED2011 talk. (PS: He was right.)

More profile about the speaker
Ralph Langner | Speaker | TED.com
TED2011

Ralph Langner: Cracking Stuxnet, a 21st-century cyber weapon

Ralph Langner : Craquer Stuxnet, une cyber-arme du 21ème siècle

Filmed:
1,567,512 views

Quand il a été découvert en 2010, le ver informatique Stuxnet a posé une énigme déroutante. Au delà de son niveau exceptionnellement élevé de sophistication se dessine un mystère plus troublant : son but. Ralph Langner et son équipe ont contribué à craquer le code qui a révélé la cible finale de cette ogive numérique -- et ses origines secrètes. Dans un aperçu fascinant de la cyberexertise légale, il explique comment.
- Security consultant
Ralph Langner is a German control system security consultant. He has received worldwide recognition for his analysis of the Stuxnet malware. Full bio

Double-click the English transcript below to play the video.

00:15
The ideaidée behindderrière the StuxnetStuxnet computerordinateur wormver
0
0
3000
L'idée derrière le ver informatique Stuxnet
00:18
is actuallyréellement quiteassez simplesimple.
1
3000
2000
est en fait très simple.
00:20
We don't want IranIran to get the bombbombe.
2
5000
3000
Nous ne voulons pas que l'Iran ait la Bombe.
00:23
TheirLeur majorMajeur assetatout for developingdéveloppement nuclearnucléaire weaponsarmes
3
8000
3000
Leur atout majeur pour développer des armes nucléaires
00:26
is the NatanzNatanz uraniumuranium enrichmentenrichissement facilityétablissement.
4
11000
4000
est l'usine d'enrichissement d'uranium Natanz.
00:30
The graygris boxesdes boites that you see,
5
15000
2000
Les boites grises que vous voyez,
00:32
these are real-timetemps réél controlcontrôle systemssystèmes.
6
17000
3000
ce sont des systèmes de contrôle en temps réel.
00:35
Now if we managegérer to compromisefaire des compromis these systemssystèmes
7
20000
3000
Et si on arrive à compromettre ces systèmes
00:38
that controlcontrôle driveconduire speedsdes vitesses and valvesvannes,
8
23000
3000
qui contrôlent la vitesse des disques et les valves
00:41
we can actuallyréellement causecause a lot of problemsproblèmes
9
26000
3000
nous pouvons en fait causer beaucoup de problèmes
00:44
with the centrifugecentrifugeuse.
10
29000
2000
à la centrifugeuse.
00:46
The graygris boxesdes boites don't runcourir WindowsWindows softwareLogiciel;
11
31000
2000
Les boites grises ne tournent pas sous Windows ;
00:48
they are a completelycomplètement differentdifférent technologyLa technologie.
12
33000
3000
c'est une technologie complètement différente.
00:51
But if we managegérer
13
36000
2000
Mais si nous parvenons
00:53
to placeendroit a good WindowsWindows virusvirus
14
38000
3000
à placer un bon virus Windows
00:56
on a notebookordinateur portable
15
41000
2000
dans un portable
00:58
that is used by a maintenanceentretien engineeringénieur
16
43000
2000
utilisé par un ingénieur
01:00
to configureconfigurer this graygris boxboîte,
17
45000
3000
pour configurer cette boite grise,
01:03
then we are in businessEntreprise.
18
48000
2000
alors on est bon.
01:05
And this is the plotterrain behindderrière StuxnetStuxnet.
19
50000
3000
Et c'est le scénario derrière Stuxnet.
01:08
So we startdébut with a WindowsWindows droppercompte-gouttes.
20
53000
5000
Donc nous commençons par un dropper Windows.
01:13
The payloadcharge utile goesva ontosur the graygris boxboîte,
21
58000
3000
La charge utile va dans la boite grise,
01:16
damagesdommages-intérêts the centrifugecentrifugeuse,
22
61000
2000
endommage la centrifugeuse,
01:18
and the IranianIranien nuclearnucléaire programprogramme is delayeddifféré --
23
63000
2000
et le programme nucléaire iranien est retardé --
01:20
missionmission accomplishedaccompli.
24
65000
2000
mission accomplie.
01:22
That's easyfacile, huh?
25
67000
2000
C'est facile, non?
01:24
I want to tell you how we founda trouvé that out.
26
69000
3000
Je veux vous dire comment nous avons découvert ça.
01:27
When we startedcommencé our researchrecherche on StuxnetStuxnet sixsix monthsmois agodepuis,
27
72000
3000
Quand nous avons commencé nos recherches sur Stuxnet il y a 6 mois,
01:30
it was completelycomplètement unknowninconnu what the purposeobjectif of this thing was.
28
75000
3000
on ignorait complètement le but de la chose.
01:33
The only thing that was knownconnu
29
78000
2000
La seule chose qu'on savait
01:35
is it's very, very complexcomplexe on the WindowsWindows partpartie, the droppercompte-gouttes partpartie,
30
80000
3000
est très très complexe dans la partie Windows, la partie du dropper,
01:38
used multipleplusieurs zero-dayzéro-jour vulnerabilitiesvulnérabilités.
31
83000
3000
elle utilisait de multiples vulnérabilités à jour zéro.
01:41
And it seemedsemblait to want to do something
32
86000
3000
Et ce dropper semblait vouloir faire quelque chose
01:44
with these graygris boxesdes boites, these real-timetemps réél controlcontrôle systemssystèmes.
33
89000
2000
avec ces boites grises, ces systèmes de contrôle en temps réel.
01:46
So that got our attentionattention,
34
91000
2000
Cela a donc attiré notre attention,
01:48
and we startedcommencé a lablaboratoire projectprojet
35
93000
2000
et nous avons entrepris un projet de laboratoire
01:50
where we infectedinfecté our environmentenvironnement with StuxnetStuxnet
36
95000
4000
dans lequel nous avons infecté notre environnement avec Stuxnet
01:54
and checkedvérifié this thing out.
37
99000
2000
et examiner ce truc.
01:56
And then some very funnydrôle things happenedarrivé.
38
101000
3000
Et puis il s'est passé de très drôles de choses.
01:59
StuxnetStuxnet behaveds’est comporté like a lablaboratoire ratrat
39
104000
3000
Stuxnet s'est comporté comme un rat de laboratoire
02:02
that didn't like our cheesefromage --
40
107000
3000
qui n'aimait pas notre fromage --
02:05
sniffedreniflé, but didn't want to eatmanger.
41
110000
2000
il le reniflait, mais il ne voulait pas le manger.
02:07
Didn't make sensesens to me.
42
112000
2000
Pour moi, ça n'avait pas de sens.
02:09
And after we experimentedexpérimenté with differentdifférent flavorssaveurs of cheesefromage,
43
114000
3000
Et après que nous ayons expérimenté avec différents parfums de fromage,
02:12
I realizedréalisé, well, this is a directeddirigé attackattaque.
44
117000
4000
je me suis rendu compte, et bien que c'est une attaque dirigée.
02:16
It's completelycomplètement directeddirigé.
45
121000
2000
Elle est complètement dirigée.
02:18
The droppercompte-gouttes is prowlingrôder activelyactivement
46
123000
2000
Le dropper rôde activement
02:20
on the graygris boxboîte
47
125000
2000
dans la boite grise
02:22
if a specificspécifique configurationConfiguration is founda trouvé,
48
127000
3000
si il trouve une configuration spécifique,
02:25
and even if the actualréel programprogramme codecode that it's tryingen essayant to infectinfecter
49
130000
4000
et même si le programme même qu'il essaye d'infecter
02:29
is actuallyréellement runningfonctionnement on that targetcible.
50
134000
2000
est ouvert sur cette cible.
02:31
And if not, StuxnetStuxnet does nothing.
51
136000
3000
Dans le cas contraire, Stuxnet ne fait rien.
02:34
So that really got my attentionattention,
52
139000
2000
Cela a donc vraiment retenu mon attention,
02:36
and we startedcommencé to work on this
53
141000
2000
et nous avons commencé à travailler là dessus
02:38
nearlypresque around the clockl'horloge,
54
143000
2000
presque en permanence,
02:40
because I thought, "Well, we don't know what the targetcible is.
55
145000
3000
parce que je pensais, nous ne savons pas quelle est la cible.
02:43
It could be, let's say for exampleExemple,
56
148000
2000
Elle pourrait être, disons par exemple,
02:45
a U.S. powerPuissance plantplante,
57
150000
2000
une centrale aux Etats-Unis,
02:47
or a chemicalchimique plantplante in GermanyAllemagne.
58
152000
2000
ou une usine chimique en Allemagne.
02:49
So we better find out what the targetcible is soonbientôt."
59
154000
3000
Il valait donc mieux que nous trouvions rapidement quelle était la cible .
02:52
So we extractedextrait and decompileddécompilé
60
157000
2000
Nous avons donc extrait et décompilé
02:54
the attackattaque codecode,
61
159000
2000
le code d'attaque,
02:56
and we discovereddécouvert that it's structuredstructuré in two digitalnumérique bombsdes bombes --
62
161000
3000
et nous avons découvert qu'il est structuré en deux bombes numériques --
02:59
a smallerplus petit one and a biggerplus gros one.
63
164000
3000
une plus petite et une plus grande.
03:02
And we alsoaussi saw that they are very professionallyprofessionnellement engineeredmachiné
64
167000
4000
Et nous avons vu aussi qu'elles sont conçues de façon très professionnelle
03:06
by people who obviouslyévidemment had all insideropérations d’initiés informationinformation.
65
171000
4000
par des gens qui avaient évidemment des informations de l'intérieur.
03:10
They knewa connu all the bitsmorceaux and bitespiqûres
66
175000
2000
Ils connaissaient tous les détails et les octets
03:12
that they had to attackattaque.
67
177000
2000
qu'ils devaient attaquer.
03:14
They probablyProbablement even know the shoechaussure sizeTaille of the operatoropérateur.
68
179000
3000
Ils connaissaient sans doute même la pointure de l'administrateur.
03:17
So they know everything.
69
182000
2000
Ils savent donc tout.
03:19
And if you have heardentendu that the droppercompte-gouttes of StuxnetStuxnet
70
184000
3000
Et si vous avez entendu dire que le dropper de Stuxnet
03:22
is complexcomplexe and high-techhaute technologie,
71
187000
2000
est complexe et high-tech,
03:24
let me tell you this:
72
189000
2000
permettez-moi de vous dire ceci ;
03:26
the payloadcharge utile is rocketfusée sciencescience.
73
191000
2000
la charge utile, c'est du très haut niveau.
03:28
It's way aboveau dessus everything
74
193000
2000
C'est bien au dessus de tout
03:30
that we have ever seenvu before.
75
195000
3000
ce que nous avons vu auparavant.
03:33
Here you see a sampleéchantillon of this actualréel attackattaque codecode.
76
198000
3000
Vous voyez ici un échantillon du code d'attaque même.
03:36
We are talkingparlant about --
77
201000
2000
Nous parlons de --
03:38
around about 15,000 lineslignes of codecode.
78
203000
3000
environ 15000 lignes de code.
03:41
LooksOn dirait prettyjoli much like old-styleOld-style assemblyAssemblée languagela langue.
79
206000
3000
Ca ressemble assez à du langage d'assembleur à l'ancienne.
03:44
And I want to tell you how we were ablecapable
80
209000
2000
Et je veux vous dire comment nous avons été en mesure
03:46
to make sensesens out of this codecode.
81
211000
2000
de comprendre ce code.
03:48
So what we were looking for is, first of all, systemsystème functionfonction callsappels,
82
213000
3000
Donc ce que nous cherchions c'est d'abord les appels de fonctions système,
03:51
because we know what they do.
83
216000
2000
parce que nous savons ce qu'ils font.
03:53
And then we were looking for timersminuteries and dataLes données structuresles structures
84
218000
4000
Et ensuite nous cherchions les minuteurs et les structures de données
03:57
and tryingen essayant to relaterapporter them to the realréal worldmonde --
85
222000
2000
et nous essayions de les mettre en relation avec le monde réel --
03:59
to potentialpotentiel realréal worldmonde targetscibles.
86
224000
2000
avec des cibles potentielles du monde réel.
04:01
So we do need targetcible theoriesthéories
87
226000
3000
Nous avons donc besoin de théories de cibles
04:04
that we can proveprouver or disproveréfuter.
88
229000
3000
que nous pouvons prouver ou réfuter.
04:07
In ordercommande to get targetcible theoriesthéories,
89
232000
2000
Pour obtenir ces théories de cibles,
04:09
we rememberrappelles toi
90
234000
2000
nous nous souvenons
04:11
that it's definitelyabsolument hardcoreHardcore sabotagesabotage,
91
236000
2000
que c'est vraiment du sabotage hardcore,
04:13
it mustdoit be a high-valuegrande valeur targetcible
92
238000
2000
ce doit être une cible de grande valeur,
04:15
and it is mostles plus likelyprobable locatedsitué in IranIran,
93
240000
3000
et c'est le plus vraisemblablement situé en Iran,
04:18
because that's where mostles plus of the infectionsinfections had been reportedsignalé.
94
243000
4000
parce que c'est là que la plupart des infections ont été signalées.
04:22
Now you don't find severalnombreuses thousandmille targetscibles in that arearégion.
95
247000
3000
On ne trouve pas plusieurs milliers de cibles dans cette zone.
04:25
It basicallyen gros boilsbout down
96
250000
2000
Ca se réduit en gros
04:27
to the BushehrBushehr nuclearnucléaire powerPuissance plantplante
97
252000
2000
à la centrale nucléaire de Bushehr
04:29
and to the NatanzNatanz fuelcarburant enrichmentenrichissement plantplante.
98
254000
2000
et à l'usine d'enrichissement d'uranium de Natanz.
04:31
So I told my assistantAssistant,
99
256000
2000
Alors j'ai dit à mon assistant,
04:33
"Get me a listliste of all centrifugecentrifugeuse and powerPuissance plantplante expertsexperts from our clientclient basebase."
100
258000
3000
" Trouve moi une liste de tous les experts en centrifugeuses et centrales électriques dans notre base de clients."
04:36
And I phonedtéléphoné them up and pickedchoisi theirleur braincerveau
101
261000
2000
Et je leur ai téléphoné et je les ai sollicités
04:38
in an efforteffort to matchrencontre theirleur expertisecompétence
102
263000
2000
dans un effort d'associer leur expertise
04:40
with what we founda trouvé in codecode and dataLes données.
103
265000
3000
à ce que nous avons trouvé dans le code et les données.
04:43
And that workedtravaillé prettyjoli well.
104
268000
2000
Et ça a plutôt bien marché.
04:45
So we were ablecapable to associateassocié
105
270000
2000
Nous avons donc été en mesure d'associer
04:47
the smallpetit digitalnumérique warheadogive
106
272000
2000
la petite ogive numérique
04:49
with the rotorrotor controlcontrôle.
107
274000
2000
au contrôle du rotor.
04:51
The rotorrotor is that movingen mouvement partpartie withindans the centrifugecentrifugeuse,
108
276000
3000
Le rotor est cette partie mobile dans la centrifugeuse,
04:54
that blacknoir objectobjet that you see.
109
279000
2000
cet objet noir que vous voyez.
04:56
And if you manipulatemanipuler the speedla vitesse of this rotorrotor,
110
281000
3000
Et si vous manipulez la vitesse de ce rotor,
04:59
you are actuallyréellement ablecapable to crackfissure the rotorrotor
111
284000
2000
vous êtes en fait capable de craquer votre rotor
05:01
and eventuallyfinalement even have the centrifugecentrifugeuse explodeexploser.
112
286000
4000
et finalement faire même exploser la centifugeuse.
05:05
What we alsoaussi saw
113
290000
2000
Ce que nous avons vu aussi
05:07
is that the goalobjectif of the attackattaque
114
292000
2000
c'est que le but de l'attaque
05:09
was really to do it slowlylentement and creepychair de poule --
115
294000
3000
était vraiment qu'elle soit lente et progressive --
05:12
obviouslyévidemment in an efforteffort
116
297000
2000
dans un effort évident
05:14
to driveconduire maintenanceentretien engineersingénieurs crazyfou,
117
299000
3000
de rendre les techniciens de maintenance fous,
05:17
that they would not be ablecapable to figurefigure this out quicklyrapidement.
118
302000
3000
et qu'ils ne soit pas en mesure de comprendre rapidement ce qui se passe.
05:20
The biggros digitalnumérique warheadogive -- we had a shotcoup at this
119
305000
3000
La grande ogive numérique -- nous avons essayé
05:23
by looking very closelyétroitement
120
308000
2000
en regardant de très près
05:25
at dataLes données and dataLes données structuresles structures.
121
310000
2000
les données et leurs structures.
05:27
So for exampleExemple, the numbernombre 164
122
312000
2000
Donc par exemple, le chiffre 164
05:29
really standspeuplements out in that codecode;
123
314000
2000
ressort vraiment dans ce code ;
05:31
you can't overlookOverlook it.
124
316000
2000
on ne peut pas ne pas le voir.
05:33
I startedcommencé to researchrecherche scientificscientifique literatureLittérature
125
318000
2000
J'ai entrepris des recherches dans la littérature scientifique
05:35
on how these centrifugescentrifugeuses
126
320000
2000
sur la façon dont ces centrifugeuses
05:37
are actuallyréellement builtconstruit in NatanzNatanz
127
322000
2000
sont en fait construites à Natanz
05:39
and founda trouvé they are structuredstructuré
128
324000
2000
et j'ai trouvé qu'elles sont structurées
05:41
in what is calledappelé a cascadecascade,
129
326000
2000
en ce qu'on appelle une cascade,
05:43
and eachchaque cascadecascade holdstient 164 centrifugescentrifugeuses.
130
328000
4000
et chaque cascade contient 164 centrifugeuses.
05:47
So that madefabriqué sensesens, that was a matchrencontre.
131
332000
2000
Cela prend donc tout son sens, ça colle.
05:49
And it even got better.
132
334000
2000
Et c'est encore mieux ensuite.
05:51
These centrifugescentrifugeuses in IranIran
133
336000
2000
Ces centrifugeuses en Iran
05:53
are subdividedsubdivisés into 15, what is calledappelé, stagesétapes.
134
338000
4000
sont subdivisées en 15 stades
05:57
And guessdeviner what we founda trouvé in the attackattaque codecode?
135
342000
2000
Et devinez ce qu'on a trouvé dans le code d'attaque?
05:59
An almostpresque identicalidentique structurestructure.
136
344000
2000
Une structure quasiment identique.
06:01
So again, that was a realréal good matchrencontre.
137
346000
3000
Donc là encore, ça colle vraiment bien.
06:04
And this gavea donné us very highhaute confidenceconfiance for what we were looking at.
138
349000
3000
Et ça nous a donné une très grande confiance dans ce que nous avions sous les yeux.
06:07
Now don't get me wrongfaux here, it didn't go like this.
139
352000
3000
Ne me faites pas dire ce que je n'ai pas dit, ça ne s'est pas fait si facilement.
06:10
These resultsrésultats have been obtainedobtenu
140
355000
3000
On a obtenu ces résultats
06:13
over severalnombreuses weekssemaines of really harddifficile laborla main d'oeuvre.
141
358000
3000
sur plusieurs semaines de travail très dur.
06:16
And we oftensouvent wentest allé into just a deadmort endfin
142
361000
3000
Et nous sommes souvent tombés sur des impasses
06:19
and had to recoverrécupérer.
143
364000
2000
et il a fallu nous en remettre.
06:21
AnywayEn tout cas, so we figuredfiguré out
144
366000
2000
Mais bon , nous avons donc compris
06:23
that bothtous les deux digitalnumérique warheadsogives
145
368000
2000
que les deux ogives numériques
06:25
were actuallyréellement aimingvisant at one and the sameMême targetcible,
146
370000
2000
visaient en fait une seule et même cible,
06:27
but from differentdifférent anglesangles.
147
372000
2000
mais sous des angles différents.
06:29
The smallpetit warheadogive is takingprise one cascadecascade,
148
374000
3000
La petite ogive s'attaque à une cascade,
06:32
and spinningfilage up the rotorsrotors and slowingralentir them down,
149
377000
3000
et elle accélère les rotors puis les ralentit,
06:35
and the biggros warheadogive
150
380000
2000
et la grande ogive
06:37
is talkingparlant to sixsix cascadesCascades
151
382000
2000
s'adresse à 6 cascades
06:39
and manipulatingmanipuler valvesvannes.
152
384000
2000
et elle manipule les valves.
06:41
So in all, we are very confidentsur de soi
153
386000
2000
Donc dans l'ensemble, nous sommes très confiants
06:43
that we have actuallyréellement determineddéterminé what the targetcible is.
154
388000
2000
d'avoir en fait déterminé quelle est la cible.
06:45
It is NatanzNatanz, and it is only NatanzNatanz.
155
390000
3000
C'est Natanz, et Natanz seulement.
06:48
So we don't have to worryinquiéter
156
393000
2000
Nous n'avons donc pas à nous inquiéter
06:50
that other targetscibles
157
395000
2000
que d'autres cibles
06:52
mightpourrait be hitfrappé by StuxnetStuxnet.
158
397000
2000
puissent être frappées par Stuxnet.
06:54
Here'sVoici some very coolcool stuffdes trucs that we saw --
159
399000
3000
Voici certains des trucs très chouettes que nous avons vu --
06:57
really knockedfrappé my sockschaussettes off.
160
402000
2000
ça m'a vraiment frappé.
06:59
Down there is the graygris boxboîte,
161
404000
2000
Là en bas il y a une boite grise,
07:01
and on the topHaut you see the centrifugescentrifugeuses.
162
406000
3000
et en haut vous voyez les centrifugeuses.
07:04
Now what this thing does
163
409000
2000
Et ce que ce truc fait
07:06
is it interceptsintercepte the inputcontribution valuesvaleurs from sensorscapteurs --
164
411000
3000
c'est qu'il intercepte les valeurs des input des capteurs --
07:09
so for exampleExemple, from pressurepression sensorscapteurs
165
414000
2000
donc par exemple, des capteurs de pression
07:11
and vibrationvibration sensorscapteurs --
166
416000
2000
et des capteurs de vibrations --
07:13
and it providesfournit legitimatelégitime programprogramme codecode,
167
418000
3000
et il fournit du code légitime,
07:16
whichlequel is still runningfonctionnement duringpendant the attackattaque,
168
421000
2000
qui tourne toujours pendant l'attaque,
07:18
with fakefaux inputcontribution dataLes données.
169
423000
2000
avec de fausses données d'input.
07:20
And as a mattermatière of factfait, this fakefaux inputcontribution dataLes données
170
425000
2000
Et en fait, ces fausses données d'input
07:22
is actuallyréellement prerecordedpréenregistrés by StuxnetStuxnet.
171
427000
3000
sont en fait préenregistrées dans Stuxnet.
07:25
So it's just like from the HollywoodHollywood moviesfilms
172
430000
2000
Donc c'est comme dans les films hollywoodiens
07:27
where duringpendant the heistZoute,
173
432000
2000
quand pendant le holp-up
07:29
the observationobservation cameracaméra is fednourris with prerecordedpréenregistrés videovidéo.
174
434000
3000
la caméra de surveillance reçoit des images vidéo préenregistrées.
07:32
That's coolcool, huh?
175
437000
2000
C'est chouette, non?
07:35
The ideaidée here is obviouslyévidemment
176
440000
2000
Il est évident que l'idée ici n'est pas seulement
07:37
not only to foolimbécile the operatorsopérateurs in the controlcontrôle roomchambre.
177
442000
3000
de tromper les opérateurs dans la salle de contrôle
07:40
It actuallyréellement is much more dangerousdangereux and aggressiveagressif.
178
445000
4000
Elle est en fait plus dangereuse et agressive.
07:44
The ideaidée
179
449000
2000
L'idée
07:46
is to circumventcontourner a digitalnumérique safetysécurité systemsystème.
180
451000
3000
est de contourner un système de sécurité numérique.
07:50
We need digitalnumérique safetysécurité systemssystèmes
181
455000
2000
Nous avons besoin de systèmes de sécurité numériques
07:52
where a humanHumain operatoropérateur could not actacte quickrapide enoughassez.
182
457000
3000
là où un opérateur humain ne pourrait pas agir assez rapidement.
07:55
So for exampleExemple, in a powerPuissance plantplante,
183
460000
2000
Donc, par exemple, dans une centrale,
07:57
when your biggros steamvapeur turbineturbine getsobtient too over speedla vitesse,
184
462000
3000
quand la grosse turbine à vapeur dépasse la vitesse limite,
08:00
you mustdoit openouvrir reliefle soulagement valvesvannes withindans a millisecondmilliseconde.
185
465000
3000
il vaut ouvrir les vannes de délestage en une milliseconde.
08:03
ObviouslyDe toute évidence, this cannotne peux pas be doneterminé by a humanHumain operatoropérateur.
186
468000
3000
Il est évident que ça ne peut pas être fait par un opérateur humain.
08:06
So this is where we need digitalnumérique safetysécurité systemssystèmes.
187
471000
2000
C'est donc là que nous avons besoin de systèmes de sécurité numériques.
08:08
And when they are compromisedcompromis,
188
473000
2000
Et quand ils sont compromis,
08:10
then realréal badmal things can happense produire.
189
475000
3000
alors ça peut vraiment mal tourné.
08:13
Your plantplante can blowcoup up.
190
478000
2000
Votre centrale peut exploser.
08:15
And neitherni your operatorsopérateurs norni your safetysécurité systemsystème will noticeremarquer it.
191
480000
3000
Et ni vos opérateurs ni votre système de sécurité ne s'en apercevront.
08:18
That's scaryeffrayant.
192
483000
2000
C'est effrayant.
08:20
But it getsobtient worsepire.
193
485000
2000
Mais il y a pire.
08:22
And this is very importantimportant, what I'm going to say.
194
487000
3000
Et c'est très important, ce que je vais dire,
08:25
Think about this:
195
490000
2000
Réfléchissez-y.
08:27
this attackattaque is genericgénérique.
196
492000
3000
Cette attaque est générique.
08:30
It doesn't have anything to do, in specificsSpécifications,
197
495000
4000
Elle n'a rien à voir, dans les détails,
08:34
with centrifugescentrifugeuses,
198
499000
2000
avec les centrifugeuses,
08:36
with uraniumuranium enrichmentenrichissement.
199
501000
3000
avec l'uranium enrichi.
08:39
So it would work as well, for exampleExemple,
200
504000
3000
Donc, elle marcherait aussi bien, par exemple,
08:42
in a powerPuissance plantplante
201
507000
2000
dans une centrale
08:44
or in an automobilevoiture factoryusine.
202
509000
3000
ou dans une usine de construction automobile.
08:47
It is genericgénérique.
203
512000
2000
Elle est générique.
08:49
And you don't have -- as an attackerattaquant --
204
514000
2000
Et vous n'avez pas -- en tant qu'attaquant --
08:51
you don't have to deliverlivrer this payloadcharge utile
205
516000
3000
vous n'avez pas besoin d'introduire la charge utile
08:54
by a USBUSB stickbâton,
206
519000
2000
à l'aide d'une clé USB,
08:56
as we saw it in the caseCas of StuxnetStuxnet.
207
521000
2000
comme nous l'avons vu dans le cas de Stuxnet.
08:58
You could alsoaussi use conventionalconventionnel wormver technologyLa technologie for spreadingdiffusion.
208
523000
3000
Vous pourriez aussi employer un ver conventionnel pour le répandre.
09:01
Just spreadpropager it as widelarge as possiblepossible.
209
526000
3000
Simplement le répandre aussi largement que possible.
09:04
And if you do that,
210
529000
2000
Et si vous le faites,
09:06
what you endfin up with
211
531000
2000
vous vous retrouvez avec
09:08
is a cyberCyber weaponarme of massMasse destructiondestruction.
212
533000
5000
une cyber arme de destruction massive.
09:14
That's the consequenceconséquence
213
539000
2000
C'est la conséquence
09:16
that we have to facevisage.
214
541000
3000
à laquelle nous devons faire face.
09:19
So unfortunatelymalheureusement,
215
544000
3000
Donc malheureusement,
09:22
the biggestplus grand numbernombre of targetscibles for suchtel attacksattaques
216
547000
3000
le plus grand nombre de cibles pour de telles attaques
09:25
are not in the MiddleMoyen EastEast.
217
550000
2000
n'est pas au Moyen-Orient.
09:27
They're in the UnitedUnie StatesÉtats and EuropeL’Europe and in JapanJapon.
218
552000
3000
C'est en Europe, au Etats-Unis et au Japon.
09:30
So all of the greenvert areaszones,
219
555000
2000
Donc toutes les zones en vert,
09:32
these are your target-richcible-rich environmentsenvironnements.
220
557000
3000
ce sont les environnements riches en cibles.
09:35
We have to facevisage the consequencesconséquences,
221
560000
3000
Nous devons faire face aux conséquences,
09:38
and we better startdébut to preparepréparer right now.
222
563000
3000
et nous ferions mieux de commencer à nous y préparer dès maintenant.
09:41
ThanksMerci.
223
566000
2000
Merci.
09:43
(ApplauseApplaudissements)
224
568000
6000
(Applaudissements)
09:49
ChrisChris AndersonAnderson: I've got a questionquestion.
225
574000
2000
Chris Anderson : J'ai une question.
09:53
RalphRalph, it's been quiteassez widelylargement reportedsignalé
226
578000
2000
Ralph, on a beaucoup dit
09:55
that people assumeassumer that MossadMossad
227
580000
2000
que les gens pensent que le Mossad
09:57
is the mainprincipale entityentité behindderrière this.
228
582000
2000
est la principale entité derrière ça.
09:59
Is that your opinionopinion?
229
584000
3000
Est-ce votre opinion?
10:02
RalphRalph LangnerLangner: Okay, you really want to hearentendre that?
230
587000
2000
Ralph Langner : Bon, vous voulez vraiment entendre ça?
10:04
Yeah. Okay.
231
589000
2000
Oui, Bon.
10:06
My opinionopinion is that the MossadMossad is involvedimpliqué,
232
591000
3000
Mon opinion, c'est que le Mossad est impliqué,
10:09
but that the leadingde premier plan forceObliger is not IsraelIsraël.
233
594000
3000
mais que la puissance principale n'est pas Israel.
10:12
So the leadingde premier plan forceObliger behindderrière that
234
597000
2000
La force principale derrière ça est donc
10:14
is the cyberCyber superpowersuperpuissance.
235
599000
3000
la cyber superpuissance.
10:17
There is only one,
236
602000
2000
Il n'y en a qu'une,
10:19
and that's the UnitedUnie StatesÉtats --
237
604000
2000
et ce sont les Etats-Unis --
10:21
fortunatelyHeureusement, fortunatelyHeureusement.
238
606000
2000
heureusement, heureusement.
10:23
Because otherwiseautrement,
239
608000
2000
PArce qu'autrement,
10:25
our problemsproblèmes would even be biggerplus gros.
240
610000
3000
nos problèmes seraient encore plus grands.
10:28
CACA: Thank you for scaringeffarouchement the livingvivant daylightsDaylights out of us. Thank you, RalphRalph.
241
613000
4000
CA : merci de nous avoir terrifiés. Merci Ralph.
10:32
(ApplauseApplaudissements)
242
617000
2000
(Applaudissements)
Translated by Elisabeth Buffard
Reviewed by Timothée Parrique

▲Back to top

ABOUT THE SPEAKER
Ralph Langner - Security consultant
Ralph Langner is a German control system security consultant. He has received worldwide recognition for his analysis of the Stuxnet malware.

Why you should listen

Ralph Langner heads Langner, an independent cyber-security firm that specializes in control systems -- electronic devices that monitor and regulate other devices, such as manufacturing equipment. These devices' deep connection to the infrastructure that runs our cities and countries has made them, increasingly, the targets of an emerging, highly sophisticated type of cyber-warfare. And since 2010, when the Stuxnet computer worm first reared its head, Langner has stood squarely in the middle of the battlefield.

As part of a global effort to decode the mysterious program, Langner and his team analyzed Stuxnet's data structures, and revealed what he believes to be its ultimate intent: the control system software known to run centrifuges in nuclear facilities -- specifically, facilities in Iran. Further analysis by Langner uncovered what seem to be Stuxnet's shocking origins, which he revealed in his TED2011 talk. (PS: He was right.)

More profile about the speaker
Ralph Langner | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee