ABOUT THE SPEAKER
Ralph Langner - Security consultant
Ralph Langner is a German control system security consultant. He has received worldwide recognition for his analysis of the Stuxnet malware.

Why you should listen

Ralph Langner heads Langner, an independent cyber-security firm that specializes in control systems -- electronic devices that monitor and regulate other devices, such as manufacturing equipment. These devices' deep connection to the infrastructure that runs our cities and countries has made them, increasingly, the targets of an emerging, highly sophisticated type of cyber-warfare. And since 2010, when the Stuxnet computer worm first reared its head, Langner has stood squarely in the middle of the battlefield.

As part of a global effort to decode the mysterious program, Langner and his team analyzed Stuxnet's data structures, and revealed what he believes to be its ultimate intent: the control system software known to run centrifuges in nuclear facilities -- specifically, facilities in Iran. Further analysis by Langner uncovered what seem to be Stuxnet's shocking origins, which he revealed in his TED2011 talk. (PS: He was right.)

More profile about the speaker
Ralph Langner | Speaker | TED.com
TED2011

Ralph Langner: Cracking Stuxnet, a 21st-century cyber weapon

Ralph Langner: Cracker Stuxnet, une cyber arme du 21ème siècle.

Filmed:
1,567,512 views

Quand il a été découvert en 2010, le ver informatique Stuxnet a posé une énigme déroutante. Au delà de son niveau exceptionnellement élevé de sophistication se dessine un mystère plus troublant : son but. Ralph Langner et son équipe ont contribué à craquer le code qui a révélé la cible finale de cette ogive numérique -- et ses origines secrètes. Dans un aperçu fascinant de la cyberexertise légale, il explique comment.
- Security consultant
Ralph Langner is a German control system security consultant. He has received worldwide recognition for his analysis of the Stuxnet malware. Full bio

Double-click the English transcript below to play the video.

00:15
The idea behind the Stuxnet computer worm
0
0
3000
L'idée derrière le ver informatique Stuxnet
00:18
is actually quite simple.
1
3000
2000
est vraiment simple.
00:20
We don't want Iran to get the bomb.
2
5000
3000
Nous ne voulons pas que l'Iran ait la bombe atomique.
00:23
Their major asset for developing nuclear weapons
3
8000
3000
Leur atout majeur pour développer des armes nucléaires
00:26
is the Natanz uranium enrichment facility.
4
11000
4000
est l'usine d'enrichissement de l'uranium de Natanz.
00:30
The gray boxes that you see,
5
15000
2000
Les boites grises que vous voyez,
00:32
these are real-time control systems.
6
17000
3000
ce sont des systèmes de contrôle en temps réel.
00:35
Now if we manage to compromise these systems
7
20000
3000
Et si on arrive à compromettre ces systèmes
00:38
that control drive speeds and valves,
8
23000
3000
qui contrôlent la vitesse des disques et les valves,
00:41
we can actually cause a lot of problems
9
26000
3000
on peut effectivement causer de nombreux problèmes
00:44
with the centrifuge.
10
29000
2000
dans la centrifugeuse.
00:46
The gray boxes don't run Windows software;
11
31000
2000
Les boites grises ne tournent pas sous Windows;
00:48
they are a completely different technology.
12
33000
3000
mais avec une technologie complètement différente.
00:51
But if we manage
13
36000
2000
Mais si on arrive
00:53
to place a good Windows virus
14
38000
3000
à placer un bon virus Windows
00:56
on a notebook
15
41000
2000
sur un ordinateur
00:58
that is used by a maintenance engineer
16
43000
2000
qui est utilisé par un ingénieur de la maintenance
01:00
to configure this gray box,
17
45000
3000
pour configurer cette boite grise,
01:03
then we are in business.
18
48000
2000
alors on est dans la course.
01:05
And this is the plot behind Stuxnet.
19
50000
3000
Et c'est le but du ver Stuxnet.
01:08
So we start with a Windows dropper.
20
53000
5000
Donc nous commençons avec un simple dropper Windows.
01:13
The payload goes onto the gray box,
21
58000
3000
La charge utile s'incruste dans la boite grise,
01:16
damages the centrifuge,
22
61000
2000
endommage la centrifugeuse,
01:18
and the Iranian nuclear program is delayed --
23
63000
2000
et le programme nucléaire iranien est retardé --
01:20
mission accomplished.
24
65000
2000
mission accomplie.
01:22
That's easy, huh?
25
67000
2000
C'est facile, n'est-ce pas?
01:24
I want to tell you how we found that out.
26
69000
3000
Je vais donc vous dire comment nous avons découvert tout cela.
01:27
When we started our research on Stuxnet six months ago,
27
72000
3000
Il y a 6 mois lorsque nous avons commencé nos recherches sur Stuxnet,
01:30
it was completely unknown what the purpose of this thing was.
28
75000
3000
nous ignorions complètement le but du développement de ce programme.
01:33
The only thing that was known
29
78000
2000
La seule chose que nous savions
01:35
is it's very, very complex on the Windows part, the dropper part,
30
80000
3000
concernait la partie Windows très très complexe, la partie du dropper,
01:38
used multiple zero-day vulnerabilities.
31
83000
3000
elle utilisait de nombreuses vulnérabilités à jour zéro.
01:41
And it seemed to want to do something
32
86000
3000
Et ce dropper semblait vraiment vouloir faire quelque chose
01:44
with these gray boxes, these real-time control systems.
33
89000
2000
avec ces boites grises, ces systèmes de contrôle en temps réel.
01:46
So that got our attention,
34
91000
2000
Cela a donc attiré notre attention,
01:48
and we started a lab project
35
93000
2000
et nous avons entrepris un projet de laboratoire
01:50
where we infected our environment with Stuxnet
36
95000
4000
dans lequel nous avons infecté notre environnement avec le ver Stuxnet
01:54
and checked this thing out.
37
99000
2000
et examiné ses faits et gestes.
01:56
And then some very funny things happened.
38
101000
3000
Et il s'est passé certaines choses très intéressantes.
01:59
Stuxnet behaved like a lab rat
39
104000
3000
Stuxnet s'est comporté comme un rat de laboratoire
02:02
that didn't like our cheese --
40
107000
3000
qui n'aimait pas notre fromage --
02:05
sniffed, but didn't want to eat.
41
110000
2000
qui l'a reniflé mais qui ne l'a pas mangé.
02:07
Didn't make sense to me.
42
112000
2000
Pour moi cela n'avait pas de sens.
02:09
And after we experimented with different flavors of cheese,
43
114000
3000
Et après que nous ayons expérimenté avec différentes saveurs de fromage,
02:12
I realized, well, this is a directed attack.
44
117000
4000
j'ai réalisé qu'il s'agissait d'une attaque ciblée.
02:16
It's completely directed.
45
121000
2000
C'était entièrement dirigée.
02:18
The dropper is prowling actively
46
123000
2000
Le dropper rôde activement
02:20
on the gray box
47
125000
2000
dans la boite grise
02:22
if a specific configuration is found,
48
127000
3000
si une configuration spécifique est identifiée,
02:25
and even if the actual program code that it's trying to infect
49
130000
4000
et même si le programme qu'il essaye d'infecter
02:29
is actually running on that target.
50
134000
2000
est en train de tourner sur cette cible.
02:31
And if not, Stuxnet does nothing.
51
136000
3000
Dans le cas contraire, Stuxnet ne fait rien.
02:34
So that really got my attention,
52
139000
2000
Cela a donc vraiment attiré mon attention,
02:36
and we started to work on this
53
141000
2000
et nous avons commencé à travailler la dessus
02:38
nearly around the clock,
54
143000
2000
presque continuellement,
02:40
because I thought, "Well, we don't know what the target is.
55
145000
3000
parce que je ne connaissais pas quelle était la cible.
02:43
It could be, let's say for example,
56
148000
2000
Cela aurait pu être par exemple,
02:45
a U.S. power plant,
57
150000
2000
une centrale électrique américaine,
02:47
or a chemical plant in Germany.
58
152000
2000
ou une usine chimique en Allemagne.
02:49
So we better find out what the target is soon."
59
154000
3000
Il valait donc mieux que nous trouvons rapidement quelle est la cible.
02:52
So we extracted and decompiled
60
157000
2000
Donc nous avons extrait et décompilé
02:54
the attack code,
61
159000
2000
le code d'attaque du virus,
02:56
and we discovered that it's structured in two digital bombs --
62
161000
3000
et nous avons découvert qu'il est structuré en deux bombes numériques --
02:59
a smaller one and a bigger one.
63
164000
3000
une plus petite et une plus grosse.
03:02
And we also saw that they are very professionally engineered
64
167000
4000
Nous nous sommes également aperçus qu'elles ont été conçues de façon très professionnelle
03:06
by people who obviously had all insider information.
65
171000
4000
par des gens qui avaient certainement des informations de l'intérieur.
03:10
They knew all the bits and bites
66
175000
2000
Ils connaissaient tous les détails et les octets
03:12
that they had to attack.
67
177000
2000
qu'ils devaient attaquer.
03:14
They probably even know the shoe size of the operator.
68
179000
3000
Ils connaissaient même probablement la pointure de l'opérateur.
03:17
So they know everything.
69
182000
2000
Au final ils connaissaient tout.
03:19
And if you have heard that the dropper of Stuxnet
70
184000
3000
Et si vous avez entendu dire que le dropper de Stuxnet
03:22
is complex and high-tech,
71
187000
2000
est complexe et sophistiqué,
03:24
let me tell you this:
72
189000
2000
laissez-moi vous dire:
03:26
the payload is rocket science.
73
191000
2000
la charge utile, c'est du très haut niveau.
03:28
It's way above everything
74
193000
2000
C'est bien au-dessus de tout
03:30
that we have ever seen before.
75
195000
3000
ce que nous avons pu voir auparavant.
03:33
Here you see a sample of this actual attack code.
76
198000
3000
Voici un échantillon de ce code d'attaque.
03:36
We are talking about --
77
201000
2000
Nous parlons de --
03:38
around about 15,000 lines of code.
78
203000
3000
environ 15.000 lignes de code.
03:41
Looks pretty much like old-style assembly language.
79
206000
3000
Cela ressemble assez à du langage d'assembleur à l'ancienne.
03:44
And I want to tell you how we were able
80
209000
2000
Je veux vous dire comment nous avons été capables
03:46
to make sense out of this code.
81
211000
2000
de comprendre et déchiffrer ce code.
03:48
So what we were looking for is, first of all, system function calls,
82
213000
3000
Premièrement, ce que nous cherchions au début sont les appels de fonctions système,
03:51
because we know what they do.
83
216000
2000
parce que nous savons ce qu'ils font.
03:53
And then we were looking for timers and data structures
84
218000
4000
Ensuite, nous cherchions les minuteurs et les structures de données
03:57
and trying to relate them to the real world --
85
222000
2000
et nous essayions de les mettre en relation avec le monde réel --
03:59
to potential real world targets.
86
224000
2000
avec des cibles potentielles.
04:01
So we do need target theories
87
226000
3000
Nous avons donc besoin de théories de cibles
04:04
that we can prove or disprove.
88
229000
3000
qui nous pouvons confirmer ou infirmer.
04:07
In order to get target theories,
89
232000
2000
Pour obtenir ces théories de cibles,
04:09
we remember
90
234000
2000
nous nous souvenons
04:11
that it's definitely hardcore sabotage,
91
236000
2000
que c'est vraiment du sabotage hardcore,
04:13
it must be a high-value target
92
238000
2000
cela doit être une cible de haute valeur,
04:15
and it is most likely located in Iran,
93
240000
3000
et c'est plus probablement situé en Iran,
04:18
because that's where most of the infections had been reported.
94
243000
4000
parce que c'est là que la plupart des infections ont été signalées.
04:22
Now you don't find several thousand targets in that area.
95
247000
3000
Il est plutôt difficile de trouver plusieurs milliers de cibles dans cette zone.
04:25
It basically boils down
96
250000
2000
Ça se réduit en gros
04:27
to the Bushehr nuclear power plant
97
252000
2000
à la centrale nucléaire de Bushehr
04:29
and to the Natanz fuel enrichment plant.
98
254000
2000
et l'usine d'enrichissement de Natanz.
04:31
So I told my assistant,
99
256000
2000
Donc j'ai dit à mon assistant,
04:33
"Get me a list of all centrifuge and power plant experts from our client base."
100
258000
3000
"Trouve moi une liste de tous les experts en centrifugeuses et en centrales électriques dans notre base de clients."
04:36
And I phoned them up and picked their brain
101
261000
2000
Je les ai appelés et les ai sollicités
04:38
in an effort to match their expertise
102
263000
2000
dans l'optique d'associer leur expertise
04:40
with what we found in code and data.
103
265000
3000
à ce que nous avions trouvé dans le code et les données.
04:43
And that worked pretty well.
104
268000
2000
Et cela a marché plutôt bien.
04:45
So we were able to associate
105
270000
2000
Nous avons donc été capables d'associer
04:47
the small digital warhead
106
272000
2000
la petite ogive numérique
04:49
with the rotor control.
107
274000
2000
avec le contrôle du rotor.
04:51
The rotor is that moving part within the centrifuge,
108
276000
3000
Le rotor est cette partie mobile dans la centrifugeuse,
04:54
that black object that you see.
109
279000
2000
cet objet noir que vous voyez ici.
04:56
And if you manipulate the speed of this rotor,
110
281000
3000
Et si vous contrôlez la vitesse de ce rotor,
04:59
you are actually able to crack the rotor
111
284000
2000
vous pouvez finalement craquer le rotor
05:01
and eventually even have the centrifuge explode.
112
286000
4000
et faire exploser la centrifugeuse.
05:05
What we also saw
113
290000
2000
Ce que nous avons aussi constaté
05:07
is that the goal of the attack
114
292000
2000
est que le but de l'attaque
05:09
was really to do it slowly and creepy --
115
294000
3000
était vraiment de le faire lentement et progressivement --
05:12
obviously in an effort
116
297000
2000
certainement dans le but
05:14
to drive maintenance engineers crazy,
117
299000
3000
de rendre fou les ingénieurs,
05:17
that they would not be able to figure this out quickly.
118
302000
3000
qui n'auraient pas été capables de résoudre cela rapidement.
05:20
The big digital warhead -- we had a shot at this
119
305000
3000
La grosse ogive numérique -- nous avons essayé
05:23
by looking very closely
120
308000
2000
en regardant de très près
05:25
at data and data structures.
121
310000
2000
les données et les structures des données.
05:27
So for example, the number 164
122
312000
2000
Par exemple, le numéro 164
05:29
really stands out in that code;
123
314000
2000
est très présent dans ce code;
05:31
you can't overlook it.
124
316000
2000
on ne peut pas ne pas le voir.
05:33
I started to research scientific literature
125
318000
2000
J'ai commencé à chercher dans la littérature scientifique
05:35
on how these centrifuges
126
320000
2000
sur la façon dont ces centrifugeuses
05:37
are actually built in Natanz
127
322000
2000
sont en fait construites à Natanz
05:39
and found they are structured
128
324000
2000
et j'ai trouvé qu'elles sont structurées
05:41
in what is called a cascade,
129
326000
2000
en ce que l'on appelle une cascade,
05:43
and each cascade holds 164 centrifuges.
130
328000
4000
et que chaque cascade contient 164 centrifugeuses.
05:47
So that made sense, that was a match.
131
332000
2000
Donc ça avait du sens, cela concordait.
05:49
And it even got better.
132
334000
2000
Et c'est encore mieux ensuite.
05:51
These centrifuges in Iran
133
336000
2000
Ces centrifugeuses en Iran
05:53
are subdivided into 15, what is called, stages.
134
338000
4000
sont divisées en 15 étages.
05:57
And guess what we found in the attack code?
135
342000
2000
Et devinez ce que nous avons trouvé dans le code d'attaque?
05:59
An almost identical structure.
136
344000
2000
Une structure presque identique.
06:01
So again, that was a real good match.
137
346000
3000
Encore une fois, cela concordait.
06:04
And this gave us very high confidence for what we were looking at.
138
349000
3000
Et cela nous a donné une très grande confiance dans ce que nous avions sous les yeux.
06:07
Now don't get me wrong here, it didn't go like this.
139
352000
3000
Attention ne me faites pas dire ce que je n'ai pas dit, cela ne s'est pas fait facilement.
06:10
These results have been obtained
140
355000
3000
Ces résultats ont été obtenus
06:13
over several weeks of really hard labor.
141
358000
3000
en plusieurs semaines de travail très intensif.
06:16
And we often went into just a dead end
142
361000
3000
Et nous avons souvent fini dans des impasses
06:19
and had to recover.
143
364000
2000
et il a fallu s'en remettre.
06:21
Anyway, so we figured out
144
366000
2000
En tout cas, nous avons réussi à comprendre
06:23
that both digital warheads
145
368000
2000
ce que les deux ogives numériques
06:25
were actually aiming at one and the same target,
146
370000
2000
visaient véritablement une seule et même cible,
06:27
but from different angles.
147
372000
2000
mais sous des angles différents.
06:29
The small warhead is taking one cascade,
148
374000
3000
La petite ogive s'attaque à une cascade,
06:32
and spinning up the rotors and slowing them down,
149
377000
3000
et elle accélère les rotors puis les ralentit
06:35
and the big warhead
150
380000
2000
et la grosse ogive
06:37
is talking to six cascades
151
382000
2000
s'attaque à 6 cascades
06:39
and manipulating valves.
152
384000
2000
et cherche à prendre le contrôle des valves.
06:41
So in all, we are very confident
153
386000
2000
Donc dans l'ensemble, nous sommes très confiants
06:43
that we have actually determined what the target is.
154
388000
2000
d'avoir déterminé la cible véritable de cette attaque.
06:45
It is Natanz, and it is only Natanz.
155
390000
3000
Il s'agit bien de Natanz, et uniquement Natanz.
06:48
So we don't have to worry
156
393000
2000
Nous n'avons pas à nous inquiéter
06:50
that other targets
157
395000
2000
que d'autres cibles
06:52
might be hit by Stuxnet.
158
397000
2000
soient visées par Stuxnet.
06:54
Here's some very cool stuff that we saw --
159
399000
3000
Voici certains des trucs très cools que nous avons vu --
06:57
really knocked my socks off.
160
402000
2000
ça m'a vraiment bluffé.
06:59
Down there is the gray box,
161
404000
2000
En bas il y a la boite grise,
07:01
and on the top you see the centrifuges.
162
406000
3000
et en haut vous voyez les centrifugeuses.
07:04
Now what this thing does
163
409000
2000
Ce que ce programme fait
07:06
is it intercepts the input values from sensors --
164
411000
3000
est qu'il intercepte les valeurs entrantes des capteurs --
07:09
so for example, from pressure sensors
165
414000
2000
donc par exemple, des capteurs de pression
07:11
and vibration sensors --
166
416000
2000
et des capteurs de vibration --
07:13
and it provides legitimate program code,
167
418000
3000
et il fournit un code légitime,
07:16
which is still running during the attack,
168
421000
2000
qui continue de tourner pendant l'attaque,
07:18
with fake input data.
169
423000
2000
avec des fausses données.
07:20
And as a matter of fact, this fake input data
170
425000
2000
Et en fait, ces fausses données d'input
07:22
is actually prerecorded by Stuxnet.
171
427000
3000
sont préenregistrées par Stuxnet.
07:25
So it's just like from the Hollywood movies
172
430000
2000
Donc c'est comme dans les films hollywoodiens
07:27
where during the heist,
173
432000
2000
quand pendant le hold-up,
07:29
the observation camera is fed with prerecorded video.
174
434000
3000
la caméra de surveillance est brouillée par des images préenregistrées.
07:32
That's cool, huh?
175
437000
2000
C'est cool, non?
07:35
The idea here is obviously
176
440000
2000
Il est évident que l'idée ici
07:37
not only to fool the operators in the control room.
177
442000
3000
n'est pas seulement de tromper les opérateurs de la salle de contrôle.
07:40
It actually is much more dangerous and aggressive.
178
445000
4000
C'est bien plus dangereux et agressif.
07:44
The idea
179
449000
2000
L'idée
07:46
is to circumvent a digital safety system.
180
451000
3000
est de contourner un système de sécurité numérique.
07:50
We need digital safety systems
181
455000
2000
Nous avons besoin de systèmes de sécurité numériques
07:52
where a human operator could not act quick enough.
182
457000
3000
là où un opérateur humain ne pourrait pas agir assez rapidement.
07:55
So for example, in a power plant,
183
460000
2000
Par exemple, dans une centrale électrique,
07:57
when your big steam turbine gets too over speed,
184
462000
3000
quand la grosse turbine à vapeur dépasse la vitesse limite,
08:00
you must open relief valves within a millisecond.
185
465000
3000
vous devez ouvrir les valves de délestage en moins d'une milliseconde.
08:03
Obviously, this cannot be done by a human operator.
186
468000
3000
Clairement, cela peut ne pas être fait par un opérateur humain.
08:06
So this is where we need digital safety systems.
187
471000
2000
C'est donc là que nous avons besoin de systèmes de sécurité numériques.
08:08
And when they are compromised,
188
473000
2000
Et quand ils sont compromis,
08:10
then real bad things can happen.
189
475000
3000
des choses très graves peuvent se produire.
08:13
Your plant can blow up.
190
478000
2000
Votre centrale peut exploser.
08:15
And neither your operators nor your safety system will notice it.
191
480000
3000
Et ni vos opérateurs ni votre système de sécurité ne s'en rendront compte.
08:18
That's scary.
192
483000
2000
Cela fait peur.
08:20
But it gets worse.
193
485000
2000
Mais il y a pire.
08:22
And this is very important, what I'm going to say.
194
487000
3000
Et ce que je vais dire est très important.
08:25
Think about this:
195
490000
2000
Pensez-y.
08:27
this attack is generic.
196
492000
3000
Cette attaque est générique.
08:30
It doesn't have anything to do, in specifics,
197
495000
4000
Elle n'a rien à voir, dans les détails,
08:34
with centrifuges,
198
499000
2000
avec des centrifugeuses,
08:36
with uranium enrichment.
199
501000
3000
avec l'enrichissement de l'uranium.
08:39
So it would work as well, for example,
200
504000
3000
Donc elle fonctionnerait tout aussi bien, par exemple,
08:42
in a power plant
201
507000
2000
dans une centrale électrique
08:44
or in an automobile factory.
202
509000
3000
ou dans une usine de construction automobile.
08:47
It is generic.
203
512000
2000
Elle est générique.
08:49
And you don't have -- as an attacker --
204
514000
2000
Et vous n'avez pas -- du point de vue de l'attaquant --
08:51
you don't have to deliver this payload
205
516000
3000
vous n'avez pas à livrer la charge utile
08:54
by a USB stick,
206
519000
2000
par une clé USB,
08:56
as we saw it in the case of Stuxnet.
207
521000
2000
comme nous l'avons vu dans le cas de Stuxnet.
08:58
You could also use conventional worm technology for spreading.
208
523000
3000
Vous pourriez aussi utiliser un ver conventionnel pour le répandre.
09:01
Just spread it as wide as possible.
209
526000
3000
Simplement le répandre le plus largement possible.
09:04
And if you do that,
210
529000
2000
Et si vous faites cela,
09:06
what you end up with
211
531000
2000
vous vous retrouvez avec
09:08
is a cyber weapon of mass destruction.
212
533000
5000
une cyber-arme de destruction massive.
09:14
That's the consequence
213
539000
2000
Voici la conséquence
09:16
that we have to face.
214
541000
3000
à laquelle nous devons faire face.
09:19
So unfortunately,
215
544000
3000
Ainsi malheureusement,
09:22
the biggest number of targets for such attacks
216
547000
3000
la majorité des cibles potentielles de ces attaques
09:25
are not in the Middle East.
217
550000
2000
ne se trouvent pas au Moyen-Orient.
09:27
They're in the United States and Europe and in Japan.
218
552000
3000
Elles sont aux États-Unis, en Europe et au Japon.
09:30
So all of the green areas,
219
555000
2000
Donc toutes les zones colorées en vert,
09:32
these are your target-rich environments.
220
557000
3000
ce sont les environnements riches en cibles potentielles.
09:35
We have to face the consequences,
221
560000
3000
Nous devons faire face à ces conséquences,
09:38
and we better start to prepare right now.
222
563000
3000
et nous ferions mieux à nous y préparer dès maintenant.
09:41
Thanks.
223
566000
2000
Merci.
09:43
(Applause)
224
568000
6000
(Applaudissements)
09:49
Chris Anderson: I've got a question.
225
574000
2000
Chris Anderson: "J'ai une question.
09:53
Ralph, it's been quite widely reported
226
578000
2000
Ralph, on a beaucoup dit
09:55
that people assume that Mossad
227
580000
2000
que les gens pensent que le Mossad
09:57
is the main entity behind this.
228
582000
2000
serait la principale organisation derrière tout cela.
09:59
Is that your opinion?
229
584000
3000
Qu'en pensez-vous?
10:02
Ralph Langner: Okay, you really want to hear that?
230
587000
2000
Ralph Langner: Okay, voulez-vous vraiment entendre cela?
10:04
Yeah. Okay.
231
589000
2000
Oui. Okay.
10:06
My opinion is that the Mossad is involved,
232
591000
3000
Je pense en effet que le Mossad est impliqué,
10:09
but that the leading force is not Israel.
233
594000
3000
mais que la force principale n'est pas Israël.
10:12
So the leading force behind that
234
597000
2000
La force principale derrière ça est donc
10:14
is the cyber superpower.
235
599000
3000
la cyber-superpuissance.
10:17
There is only one,
236
602000
2000
Et il n'y en a qu'une,
10:19
and that's the United States --
237
604000
2000
les États-Unis --
10:21
fortunately, fortunately.
238
606000
2000
heureusement, heureusement.
10:23
Because otherwise,
239
608000
2000
Parce que sinon,
10:25
our problems would even be bigger.
240
610000
3000
nos problèmes seraient encore plus importants.
10:28
CA: Thank you for scaring the living daylights out of us. Thank you, Ralph.
241
613000
4000
CA : Merci de nous avoir terrifiés. Merci Ralph.
10:32
(Applause)
242
617000
2000
(Applaudissements)
Translated by Guillaume Rouby
Reviewed by Laura Leotta

▲Back to top

ABOUT THE SPEAKER
Ralph Langner - Security consultant
Ralph Langner is a German control system security consultant. He has received worldwide recognition for his analysis of the Stuxnet malware.

Why you should listen

Ralph Langner heads Langner, an independent cyber-security firm that specializes in control systems -- electronic devices that monitor and regulate other devices, such as manufacturing equipment. These devices' deep connection to the infrastructure that runs our cities and countries has made them, increasingly, the targets of an emerging, highly sophisticated type of cyber-warfare. And since 2010, when the Stuxnet computer worm first reared its head, Langner has stood squarely in the middle of the battlefield.

As part of a global effort to decode the mysterious program, Langner and his team analyzed Stuxnet's data structures, and revealed what he believes to be its ultimate intent: the control system software known to run centrifuges in nuclear facilities -- specifically, facilities in Iran. Further analysis by Langner uncovered what seem to be Stuxnet's shocking origins, which he revealed in his TED2011 talk. (PS: He was right.)

More profile about the speaker
Ralph Langner | Speaker | TED.com