ABOUT THE SPEAKER
Christopher Soghoian - Privacy researcher and activist
Christopher Soghoian researches and exposes the high-tech surveillance tools that governments use to spy on their own citizens, and he is a champion of digital privacy rights.

Why you should listen

TED Fellow Christopher Soghoian is a champion of digital privacy rights, with a focus on the role that third-party service providers play in enabling governments to monitor citizens. As the principal technologist at the American Civil Liberties Union, he explores the intersection of federal surveillance and citizen's rights.

Before joining the ACLU, he was the first-ever technologist for the Federal Trade Commision's Division of Privacy and Identity Protection, where he worked on investigations of Facebook, Twitter, MySpace and Netflix. Soghoian is also the creator of Do Not Track, an anti-tracking device that all major web browsers now use, and his work has been cited in court.

More profile about the speaker
Christopher Soghoian | Speaker | TED.com
TED2015

Christopher Soghoian: How to avoid surveillance ... with the phone in your pocket

Christopher Soghoian: Wie vermeidet man Überwachung ... mit dem Handy in der Hosentasche

Filmed:
2,236,919 views

Wer lauscht Ihren Anrufen? Auf dem Festnetz könnte es jeder sein, sagt Datenschutz-Aktivist Christopher Soghoian, denn Hintertüren sind in diesen Telefonsystemen standardmäßig eingebaut, um Regierungen mithören zu lassen. Genauso könnte das nun aber auch ein ausländischer Geheimdienst sein ... oder ein Krimineller. Deshalb meint Soghoian, bauen einige Technologieunternehmen nicht wie von den Regierungen gewünscht Hintertüren in die Handys und Nachrichtensysteme ein. Erfahren Sie, wie Unternehmen daran arbeiten, Ihre Anrufe und Nachrichten sicher zu machen.
- Privacy researcher and activist
Christopher Soghoian researches and exposes the high-tech surveillance tools that governments use to spy on their own citizens, and he is a champion of digital privacy rights. Full bio

Double-click the English transcript below to play the video.

Seit über 100 Jahren
00:13
For more than 100 yearsJahre,
0
1343
1729
00:15
the telephoneTelefon companiesFirmen have providedunter der Voraussetzung
wiretappingAbhören assistanceHilfe to governmentsRegierungen.
1
3096
4026
leisteten Telefongesellschaften den
Regierungen mit Abhörung Unterstützung.
00:19
For much of this time,
this assistanceHilfe was manualHandbuch.
2
7146
3538
Die meiste Zeit davon war es
eine manuelle Unterstützung.
00:22
SurveillanceÜberwachung tookdauerte placeOrt manuallymanuell
and wiresDrähte were connectedin Verbindung gebracht by handHand.
3
10708
4118
Überwachung fand auf manuelle Weise statt
und Kabel wurden noch per Hand verbunden.
00:26
CallsAnrufe were recordedverzeichnet to tapeBand.
4
14850
1750
Anrufe wurden auf Band aufgezeichnet.
00:29
But as in so manyviele other industriesBranchen,
5
17334
2144
Aber so, wie in vielen anderen Bereichen,
00:31
computingComputer has changedgeändert everything.
6
19502
1766
änderten Computer alles.
00:33
The telephoneTelefon companiesFirmen
builtgebaut surveillanceÜberwachung featuresEigenschaften
7
21725
3023
Die Telefongesellschaften betteten
Überwachungsmechanismen
00:36
into the very coreAder of theirihr networksNetzwerke.
8
24772
2045
in den Kern ihrer Netzwerke ein.
00:39
I want that to sinksinken in for a secondzweite:
9
27494
1980
Das muss man erstmal verdauen.
00:41
Our telephonesTelefone and the networksNetzwerke
that carrytragen our callsAnrufe
10
29498
4260
Unsere Telefone und die Netzwerke,
die unsere Anrufe übertragen,
00:45
were wiredverdrahtet for surveillanceÜberwachung first.
11
33782
2373
wurden primär zur Überwachung verkabelt.
00:48
First and foremostin erster Linie.
12
36179
1403
Zuallererst bei uns.
00:50
So what that meansmeint is that
when you're talkingim Gespräch to your spouseEhepartner,
13
38763
3826
Das heißt, wenn Sie
mit Ihrem Ehepartner sprechen,
00:54
your childrenKinder, a colleagueKollege
or your doctorArzt on the telephoneTelefon,
14
42613
4322
Ihren Kindern, einem Kollegen
oder dem Arzt,
00:58
someonejemand could be listeningHören.
15
46959
1486
könnte man Ihnen zuhören.
01:00
Now, that someonejemand mightMacht
be your ownbesitzen governmentRegierung;
16
48901
2565
Es könnte Ihre eigene Regierung sein;
01:03
it could alsoebenfalls be anotherein anderer governmentRegierung,
a foreignausländisch intelligenceIntelligenz serviceBedienung,
17
51490
4163
es könnte auch eine andere Regierung sein,
oder ein ausländischer Geheimdienst,
01:07
or a hackerHacker, or a criminalKriminelle, or a stalkerStalker
18
55677
2827
ein Hacker, ein Krimineller
oder ein Stalker,
01:10
or any other partyParty that breaksgeht kaputt into
the surveillanceÜberwachung systemSystem,
19
58528
3570
oder jeder Dritte, der in das
Überwachungssystem einbricht,
01:14
that hacksHacks into the surveillanceÜberwachung systemSystem
of the telephoneTelefon companiesFirmen.
20
62122
4489
der sich "reinhackt" in dieses System
der Telefongesellschaften.
01:19
But while the telephoneTelefon companiesFirmen
have builtgebaut surveillanceÜberwachung as a priorityPriorität,
21
67834
4522
Während diese Unternehmen
Überwachung als Priorität einbauten,
01:24
SiliconSilizium ValleyTal companiesFirmen have not.
22
72380
1816
war das im Silicon Valley nicht so.
01:26
And increasinglyzunehmend,
over the last couplePaar yearsJahre,
23
74523
2519
Besonders in den letzten Jahren
01:29
SiliconSilizium ValleyTal companiesFirmen have builtgebaut
strongstark encryptionVerschlüsselung technologyTechnologie
24
77066
3662
bauten diese Firmen
starke Verschlüsselungs-Software
01:32
into theirihr communicationsKommunikation productsProdukte
25
80752
1938
in ihre Kommunikationsprodukte ein,
01:34
that makesmacht surveillanceÜberwachung
extremelyäußerst difficultschwer.
26
82714
2266
die Abhören extrem schwierig machten.
01:37
For exampleBeispiel, manyviele of you
mightMacht have an iPhoneiPhone,
27
85416
2174
Viele von Ihnen haben
vermutlich ein iPhone.
01:39
and if you use an iPhoneiPhone
to sendsenden a textText messageNachricht
28
87614
2690
Wenn Sie damit eine Nachricht
an andere senden,
01:42
to other people who have an iPhoneiPhone,
29
90328
2177
die ebenfalls ein iPhone haben,
01:44
those textText messagesNachrichten
cannotnicht können easilyleicht be wiretappedabgehört.
30
92529
3010
können diese Nachrichten nicht
einfach so angezapft werden.
01:47
And in factTatsache, accordingnach to AppleApple,
31
95563
1828
Und tatsächlich, laut Apple,
01:49
they're not ablefähig to even see
the textText messagesNachrichten themselvessich.
32
97415
2891
können Sie selbst
diese Nachrichten nicht lesen.
01:52
LikewiseEbenso, if you use FaceTimeFaceTime
to make an audioAudio- call
33
100662
3866
Genauso wenn Sie FaceTime benutzen,
um einen Sprach- oder Videoanruf
mit Familie oder Freunden führen,
01:56
or a videoVideo call with one of your
friendsFreunde or lovedliebte onesEinsen,
34
104552
2611
01:59
that, too, cannotnicht können be easilyleicht wiretappedabgehört.
35
107187
2129
können diese nicht einfach
angezapft werden.
02:01
And it's not just AppleApple.
36
109340
1545
Und nicht nur Apple.
02:03
WhatsAppWhatsApp, whichwelche is now ownedim Besitz by FacebookFacebook
37
111315
2352
WhatsApp, das nun zu Facebook gehört
02:05
and used by hundredsHunderte of millionsMillionen
of people around the worldWelt,
38
113691
2858
und von Millionen Menschen
in aller Welt genutzt wird,
02:08
alsoebenfalls has builtgebaut strongstark
encryptionVerschlüsselung technologyTechnologie into its productProdukt,
39
116573
3507
hat auch starke
Verschlüsselungs-Software eingebaut,
02:12
whichwelche meansmeint that people
in the GlobalGlobale SouthSüden can easilyleicht communicatekommunizieren
40
120104
3507
was bedeutet, dass Menschen
der Südhalbkugel ohne das Abhören
02:15
withoutohne theirihr governmentsRegierungen,
oftenhäufig authoritarianautoritären,
41
123635
2810
der Regierungen, oftmals obrigkeitlich,
02:18
wiretappingAbhören theirihr textText messagesNachrichten.
42
126469
1734
ungehindert kommunizieren können.
02:21
So, after 100 yearsJahre of beingSein ablefähig
to listen to any telephoneTelefon call --
43
129599
4945
Also nach 100 Jahren, in denen man
jeden Anruf mithören konnte,
02:26
anytimeJederzeit, anywhereirgendwo --
44
134568
2554
immer und überall,
02:29
you mightMacht imaginevorstellen that governmentRegierung
officialsBeamte are not very happyglücklich.
45
137146
3131
können Sie sich vorstellen, dass
Regierungen nicht sehr glücklich sind.
02:32
And in factTatsache, that's what's happeningHappening.
46
140301
1786
Das passiert tatsächlich,
02:34
GovernmentRegierung officialsBeamte are extremelyäußerst madwütend.
47
142111
2219
und Regierungsbeamte sind extrem sauer.
02:36
And they're not madwütend because
these encryptionVerschlüsselung toolsWerkzeuge are now availableverfügbar.
48
144354
3875
Sie sind nicht sauer, weil es diese
Verschlüsselungsmöglichkeiten gibt.
02:40
What upsetsVerstimmungen them the mostdie meisten
49
148253
1818
Am meisten regt es sie auf,
02:42
is that the techTech companiesFirmen have builtgebaut
encryptionVerschlüsselung featuresEigenschaften into theirihr productsProdukte
50
150095
4167
dass die Technologieunternehmen
sie in ihre Produkte einbauen
02:46
and turnedgedreht them on by defaultStandard.
51
154286
1873
und standardmäßig angeschaltet lassen.
02:48
It's the defaultStandard pieceStück that mattersAngelegenheiten.
52
156547
1970
Das "standardmäßig" ist das, was zählt.
02:50
In shortkurz, the techTech companiesFirmen
have democratizeddemokratisiert encryptionVerschlüsselung.
53
158541
3775
Kurzum, die Technologiefirmen
haben Verschlüsselung demokratisiert.
02:55
And so, governmentRegierung officialsBeamte
like BritishBritische PrimePrime MinisterMinister DavidDavid CameronCameron,
54
163165
3797
Regierungsbeamte wie der britische
Premierminister David Cameron glauben,
02:58
they believe that all communicationsKommunikation --
emailsE-Mails, textsTexte, voiceStimme callsAnrufe --
55
166986
4847
dass jegliche Art von Kommunikation
-- E-Mails, SMS, Anrufe --
03:03
all of these should be
availableverfügbar to governmentsRegierungen,
56
171857
2588
den Regierungen zur Verfügung
gestellt werden sollten.
03:06
and encryptionVerschlüsselung is makingHerstellung that difficultschwer.
57
174469
2102
Verschlüsselung mache das nur kompliziert.
03:09
Now, look -- I'm extremelyäußerst sympatheticsympathisch
to theirihr pointPunkt of viewAussicht.
58
177478
3384
Sehen Sie, ich sympathisiere
durchaus mit der Ansicht.
03:12
We liveLeben in a dangerousgefährlich time
in a dangerousgefährlich worldWelt,
59
180886
2532
Wir leben in einer
gefährlichen Zeit und Welt,
03:15
and there really are badschlecht people out there.
60
183442
2000
und es gibt üble Typen da draußen.
03:17
There are terroristsTerroristen and other
seriousernst nationalNational securitySicherheit threatsBedrohungen
61
185466
3115
Es gibt Terroristen und andere
ernstzunehmende Gefahren,
03:20
that I suspectvermuten we all want
the FBIFBI and the NSANSA to monitorMonitor.
62
188605
3977
die wir alle, so vermute ich, von dem
FBI und der NSA überwachen lassen wollen.
03:25
But those surveillanceÜberwachung
featuresEigenschaften come at a costKosten.
63
193345
2703
Doch diese Überwachung hat ihren Preis.
03:29
The reasonGrund for that is
64
197357
1155
Der Grund dafür ist,
03:30
that there is no sucheine solche thing
as a terroristTerrorist laptopLaptop,
65
198536
2486
dass es nicht so etwas wie
einen Terroristen-Laptop
03:33
or a drugDroge dealer'sdes Händlers cellZelle phoneTelefon.
66
201046
1507
oder ein Drogenhändler-Handy gibt.
03:34
We all use the samegleich
communicationsKommunikation devicesGeräte.
67
202902
2963
Wir benutzen alle die gleichen
Geräte zur Kommunikation.
03:38
What that meansmeint is that
if the drugDroge dealers'Vertragshändler telephoneTelefon callsAnrufe
68
206577
3675
Das bedeutet, wenn die Anrufe
des Drogendealers
03:42
or the terrorists'Terroristen telephoneTelefon callsAnrufe
can be interceptedabgefangen,
69
210276
2545
oder die des Terroristen
abgefangen werden können,
03:44
then so can the restsich ausruhen of oursunsere, too.
70
212845
1996
dann gilt das natürlich
auch für unsere Anrufe.
03:46
And I think we really need to askFragen:
71
214865
1627
Ich denke wir müssen uns fragen:
03:48
Should a billionMilliarde people
around the worldWelt be usingmit devicesGeräte
72
216516
3127
Sollten deshalb 1 Mrd. Menschen weltweit
03:51
that are wiretapWiretap friendlyfreundlich?
73
219667
1419
abhörfreundliche Geräte benutzen?
03:55
So the scenarioSzenario of hackingHacking of surveillanceÜberwachung
systemsSysteme that I've describedbeschrieben --
74
223407
3748
Dieses beschriebene Szenario
gehackter Überwachungssysteme
03:59
this is not imaginaryimaginäre.
75
227179
2111
ist nicht fiktiv.
04:01
In 2009,
76
229622
1152
Im Jahr 2009
04:02
the surveillanceÜberwachung systemsSysteme that GoogleGoogle
and MicrosoftMicrosoft builtgebaut into theirihr networksNetzwerke --
77
230798
4047
wurden die Überwachungssyteme, die Google
und Microsoft in ihre Netzwerke bauten --
04:06
the systemsSysteme that they use to respondreagieren
to lawfulrechtmäßige surveillanceÜberwachung requestsAnfragen
78
234869
3491
die Systeme, die sie benutzten, um
rechtmäßige Überwachungsanfragen
04:10
from the policePolizei --
79
238384
1166
der Polizei zu speisen –
04:11
those systemsSysteme were compromisedkompromittiert
by the ChineseChinesisch governmentRegierung,
80
239574
2668
diese Systeme wurden von den
Chinesen bloßgestellt,
04:14
because the ChineseChinesisch governmentRegierung
wanted to figureZahl out
81
242266
2397
denn die chinesische Regierung
wollte herausfinden,
04:16
whichwelche of theirihr ownbesitzen agentsAgenten
the US governmentRegierung was monitoringÜberwachung.
82
244687
2892
welche der eigenen Agenten
von den USA überwacht wurden.
04:20
By the samegleich tokenToken,
83
248269
1271
Ebenso im Jahr 2004
04:21
in 2004, the surveillanceÜberwachung systemSystem
builtgebaut into the networkNetzwerk
84
249564
3419
ist in das Überwachungssystem
im Netzwerk von Vodafone Griechenland --
04:25
of VodafoneVodafone GreeceGriechenland --
Greece'sGriechenlands largestgrößten telephoneTelefon companyUnternehmen --
85
253007
3174
das größte Mobilfunkunternehmen
des Landes --
04:28
was compromisedkompromittiert by an unknownunbekannt entityEntität,
86
256205
2579
eine unbekannte Instanz eingedrungen
04:30
and that featureFeature,
the surveillanceÜberwachung featureFeature,
87
258808
2040
und diese Überwachungsstruktur
wurde benutzt,
04:32
was used to wiretapWiretap
the GreekGriechisch PrimePrime MinisterMinister
88
260872
2278
um den griechischen Premier
und Kabinettsmitglieder abzuhören.
04:35
and membersMitglieder of the GreekGriechisch cabinetKabinett.
89
263174
1719
04:37
The foreignausländisch governmentRegierung or hackersHacker
who did that were never caughterwischt.
90
265313
3064
Die verantwortliche Regierung
oder Hacker wurden nie gefasst.
04:41
And really, this getsbekommt to the very problemProblem
with these surveillanceÜberwachung featuresEigenschaften,
91
269955
3697
Tatsächlich führt das zum wirklichen
Problem dieser Überwachungssysteme,
04:45
or backdoorsBackdoors.
92
273676
1260
oder deren Hintertüren.
04:46
When you buildbauen a backdoorHintertür
into a communicationsKommunikation networkNetzwerk
93
274960
3202
Wenn man eine Hintertür in ein
Kommunikationsnetzwerk einbaut
04:50
or pieceStück of technologyTechnologie,
94
278186
1301
oder in einen Teil davon,
04:51
you have no way of controllingControlling
who'swer ist going to go throughdurch it.
95
279511
3048
gibt es keine Möglichkeit
zu kontrollieren, wer hindurch geht.
04:55
You have no way of controllingControlling
96
283243
1445
Sie können nicht kontrollieren,
04:56
whetherob it'lles wird be used by your sideSeite
or the other sideSeite,
97
284712
2770
ob es von den Leuten Ihrer Seite,
oder denen der anderen,
04:59
by good guys, or by badschlecht guys.
98
287506
1911
von guten oder bösen benutzt wird.
05:01
And so for that reasonGrund,
I think that it's better
99
289980
2519
Aus diesem Grund,
denke ich, ist es besser,
05:04
to buildbauen networksNetzwerke
to be as securesichern as possiblemöglich.
100
292523
2652
Netzwerke so sicher wie möglich zu bauen.
05:08
Yes, this meansmeint that in the futureZukunft,
101
296271
2409
Das bedeutet, dass in Zukunft
05:10
encryptionVerschlüsselung is going to make
wiretappingAbhören more difficultschwer.
102
298704
2566
das Abhören durch
Verschlüsselung erschwert wird.
05:13
It meansmeint that the policePolizei
are going to have a tougherhärter time
103
301280
2669
Es bedeutet, für die Polizei
wird es schwieriger,
05:15
catchingfangend badschlecht guys.
104
303949
1336
böse Leute zu schnappen.
05:17
But the alternativeAlternative would mean
to liveLeben in a worldWelt
105
305309
2556
Doch die Alternative wäre
in einer Welt zu leben,
05:19
where anyone'sniemandes callsAnrufe or anyone'sniemandes
textText messagesNachrichten could be surveilledüberwacht
106
307889
3631
in der jedermanns Anrufe und
Textnachrichten abgehört werden können,
05:23
by criminalsVerbrecher, by stalkersStalker
and by foreignausländisch intelligenceIntelligenz agenciesAgenturen.
107
311544
3726
von Kriminellen, von Stalkern
und von Auslandsgeheimdiensten.
05:27
And I don't want to liveLeben
in that kindArt of worldWelt.
108
315294
2312
Ich will nicht in
dieser Art von Welt leben.
05:30
And so right now,
you probablywahrscheinlich have the toolsWerkzeuge
109
318102
2715
Gerade jetzt haben Sie
vermutlich die Werkzeuge,
05:32
to thwartvereiteln manyviele kindsArten
of governmentRegierung surveillanceÜberwachung
110
320841
2318
viele Arten behördlicher
Überwachung zu behindern,
05:35
alreadybereits on your phonesTelefone
and alreadybereits in your pocketsTaschen,
111
323183
2983
bereits auf den Handys
in Ihrer Hosentasche.
05:38
you just mightMacht not realizerealisieren how strongstark
and how securesichern those toolsWerkzeuge are,
112
326190
3779
Sie haben vermutlich nur noch nicht
gemerkt, wie stark und sicher diese,
05:41
or how weakschwach the other waysWege
you've used to communicatekommunizieren really are.
113
329993
3529
oder wie schwach die üblichen Methoden
der Kommunikation sind.
05:46
And so, my messageNachricht to you is this:
114
334737
2127
Also meine Botschaft an Sie ist:
05:50
We need to use these toolsWerkzeuge.
115
338110
1653
Wir müssen diese Werkzeuge nutzen.
05:52
We need to securesichern our telephoneTelefon callsAnrufe.
116
340239
2304
Wir müssen unsere Anrufe verschlüsseln.
05:54
We need to securesichern our textText messagesNachrichten.
117
342567
1849
Wir müssen unsere SMS verschlüsseln.
05:56
I want you to use these toolsWerkzeuge.
118
344950
1652
Sie sollten die Werkzeuge nutzen.
05:58
I want you to tell your lovedliebte onesEinsen,
I want you to tell your colleaguesKollegen:
119
346626
3356
Sie sollten es Ihren Liebsten
und Ihren Kollegen sagen:
06:02
Use these encryptedverschlüsselt communicationsKommunikation toolsWerkzeuge.
120
350006
2424
Nutzen Sie die verschlüsselten
Kommunikationsmedien.
06:04
Don't just use them
because they're cheapbillig and easyeinfach,
121
352454
2676
Benutzen Sie sie nicht,
weil sie einfach und billig sind,
06:07
but use them because they're securesichern.
122
355154
2004
benutzten Sie sie, weil sie sicher sind.
06:09
Thank you.
123
357182
1255
Danke.
06:10
(ApplauseApplaus)
124
358461
3586
(Applaus)
Translated by Niklas Kulemeier
Reviewed by Angelika Lueckert Leon

▲Back to top

ABOUT THE SPEAKER
Christopher Soghoian - Privacy researcher and activist
Christopher Soghoian researches and exposes the high-tech surveillance tools that governments use to spy on their own citizens, and he is a champion of digital privacy rights.

Why you should listen

TED Fellow Christopher Soghoian is a champion of digital privacy rights, with a focus on the role that third-party service providers play in enabling governments to monitor citizens. As the principal technologist at the American Civil Liberties Union, he explores the intersection of federal surveillance and citizen's rights.

Before joining the ACLU, he was the first-ever technologist for the Federal Trade Commision's Division of Privacy and Identity Protection, where he worked on investigations of Facebook, Twitter, MySpace and Netflix. Soghoian is also the creator of Do Not Track, an anti-tracking device that all major web browsers now use, and his work has been cited in court.

More profile about the speaker
Christopher Soghoian | Speaker | TED.com