ABOUT THE SPEAKER
Christopher Soghoian - Privacy researcher and activist
Christopher Soghoian researches and exposes the high-tech surveillance tools that governments use to spy on their own citizens, and he is a champion of digital privacy rights.

Why you should listen

TED Fellow Christopher Soghoian is a champion of digital privacy rights, with a focus on the role that third-party service providers play in enabling governments to monitor citizens. As the principal technologist at the American Civil Liberties Union, he explores the intersection of federal surveillance and citizen's rights.

Before joining the ACLU, he was the first-ever technologist for the Federal Trade Commision's Division of Privacy and Identity Protection, where he worked on investigations of Facebook, Twitter, MySpace and Netflix. Soghoian is also the creator of Do Not Track, an anti-tracking device that all major web browsers now use, and his work has been cited in court.

More profile about the speaker
Christopher Soghoian | Speaker | TED.com
TEDSummit

Christopher Soghoian: Your smartphone is a civil rights issue

Christopher Soghoian: Seu smartphone é uma questão de direitos civis

Filmed:
1,581,538 views

O smartphone que você usa reflete mais do que apenas um gosto pessoal. Ele pode também determinar o quanto você pode ser rastreado. O especialista em privacidade e Bolsista TED Christopher Soghoian, detalha a deslumbrante diferença entre a criptografia usada pelos aparelhos Apple e a usada pelos Android, e nos encoraja a prestar atenção ao crescimento da divisão da segurança digital. "Se apenas as pessoas que podem se proteger da vigilância do governo são os ricos e poderosos, isso é um problema", ele diz. Não é apenas um problema de cibersegurança, é um problema de direitos civis.
- Privacy researcher and activist
Christopher Soghoian researches and exposes the high-tech surveillance tools that governments use to spy on their own citizens, and he is a champion of digital privacy rights. Full bio

Double-click the English transcript below to play the video.

00:12
In the spring of 2016,
0
499
2523
No início de 2016,
00:15
a legal battle between Apple
and the Federal Bureau of Investigation
1
3046
4404
uma batalha legal entre Apple e o FBI
00:19
captured the world's attention.
2
7474
1678
chamou a atenção do mundo.
00:21
Apple has built security features
into its mobile products
3
9633
3339
A Apple inseriu funções de segurança
em seus aparelhos móveis,
00:24
which protect data on its devices
from everyone but the owner.
4
12996
3833
para proteger os dados do aparelho
de qualquer um, que não do próprio dono.
00:28
That means that criminals, hackers
and yes, even governments
5
16853
4645
Quer dizer que criminosos, hackers
e sim, mesmo os governos,
00:33
are all locked out.
6
21522
1320
não teriam como acessar os dados.
00:35
For Apple's customers,
this is a great thing.
7
23580
2199
Para os clientes da Apple,
uma ótima notícia.
00:38
But governments are not so happy.
8
26581
2039
Mas os governos não estavam tão contentes.
00:41
You see, Apple has made
a conscious decision
9
29152
2317
A Apple tomou uma decisão consciente
00:43
to get out of the surveillance business.
10
31493
2560
de colocar a vigilância fora do negócio.
00:46
Apple has tried to make surveillance
as difficult as possible
11
34077
3211
A Apple tentou tornar a vigilância
tão difícil quanto possível
00:49
for governments and any other actors.
12
37312
2366
para governos e outros interessados.
00:53
There are really two
smartphone operating systems
13
41676
2330
Há dois sistemas operacionais
nos smartphones
00:56
in the global smartphone market:
14
44030
1628
no mercado mundial: iOS e Android.
00:57
iOS and Android.
15
45682
1714
00:59
iOS is made by Apple.
Android is made by Google.
16
47749
3068
O iOS feito pela Apple
e o Android, pelo Google.
01:03
Apple has spent a lot of time and money
17
51446
3124
A Apple gastou bastante tempo e dinheiro
01:06
to make sure that its products
are as secure as possible.
18
54594
3271
para garantir que seus produtos
fossem o mais seguros possível.
01:10
Apple encrypts all data
stored on iPhones by default,
19
58458
3434
A Apple criptografa todos os dados
armazenados nos iPhones por padrão
01:13
and text messages sent from one
Apple customer to another Apple customer
20
61916
4006
e as mensagens de texto enviadas
de um cliente Apple para outro
01:17
are encrypted by default
21
65946
1702
são criptografadas por padrão,
01:19
without the user having
to take any actions.
22
67672
2517
sem necessidade de qualquer
ação do usuário.
01:22
What this means is that,
23
70769
1611
Isso significa que,
01:24
if the police seize an iPhone
and it has a password,
24
72404
3780
se a polícia apreende um iPhone
e o aparelho tem uma senha,
01:28
they'll have a difficult time
getting any data off of it,
25
76724
3642
será difícil extrair qualquer dado dele,
01:32
if they can do it at all.
26
80390
1412
caso isso seja possível.
01:34
In contrast, the security of Android
just really isn't as good.
27
82374
4138
Em contraste, a segurança do Android
simplesmente não é tão boa.
01:38
Android phones, or at least
most of the Android phones
28
86536
3046
Os telefones Android,
ou ao menos, a maioria deles
01:41
that have been sold to consumers,
29
89606
1606
vendidos aos clientes,
01:43
do not encrypt data stored
on the device by default,
30
91236
2855
não têm os dados armazenados
criptografadas por padrão
01:46
and the built-in text messaging app
in Android does not use encryption.
31
94115
4986
e o aplicativo de mensagem de texto
do Android não usa criptografia.
01:51
So if the police seize an Android phone,
32
99555
2694
Assim, se a polícia apreende
um telefone Android,
01:54
chances are, they'll be able to get
all the data they want
33
102273
3357
pode acessar todos os dados armazenados
que queiram, de todo o aparelho.
01:57
off of that device.
34
105654
1292
01:59
Two smartphones
35
107858
1686
Dois smartphones das duas maiores
empresas do mundo;
02:01
from two of the biggest
companies in the world;
36
109568
2333
02:04
one that protects data by default,
37
112497
1785
uma que protege os dados de forma
nativa e outra que não o faz.
02:06
and one that doesn't.
38
114948
1274
02:08
Apple is a seller of luxury goods.
39
116840
3142
A Apple é uma vendedora
de produtos de luxo.
02:12
It dominates the high end of the market.
40
120006
2249
Ela domina a parte nobre do mercado.
02:14
And we would expect a manufacturer
of luxury goods to have products
41
122710
4354
E se espera que uma empresa
de produtos de luxo tenha produtos
02:19
that include more features.
42
127088
1957
que incluam mais vantagens.
02:21
But not everyone can afford an iPhone.
43
129567
2407
Porém, nem todos podem comprar um iPhone.
02:23
That's where Android
really, really dominates:
44
131998
2587
Aí é onde o Android prevalece:
02:26
at the middle and low end of the market,
45
134609
2751
entre a parte baixa e o meio do mercado,
02:29
smartphones for the billion
and a half people
46
137384
2626
smartphones para 1,5 bilhão de pessoas
02:32
who cannot or will not spend
47
140034
2870
que não podem ou não gastarão
US$ 600 num telefone.
02:34
600 dollars on a phone.
48
142928
2461
02:41
But the dominance of Android
has led to what I call
49
149275
5830
Mas a dominância do Android
levou ao que chamo
02:47
the "digital security divide."
50
155129
2212
de "divisor de segurança digital".
02:49
That is, there is now increasingly a gap
51
157365
2985
Há uma distância cada vez maior
02:52
between the privacy
and security of the rich,
52
160374
4125
entre a privacidade e segurança dos ricos,
02:56
who can afford devices
that secure their data by default,
53
164523
2770
que podem pagar por aparelhos
que protegem os dados por padrão,
03:00
and of the poor,
54
168036
1252
e a dos pobres, para os quais os aparelhos
fazem pouco para proteger os dados.
03:01
whose devices do very little
to protect them by default.
55
169851
4674
03:07
So, think of the average Apple customer:
56
175667
3115
Pensando em um cliente comum da Apple,
03:12
a banker, a lawyer,
a doctor, a politician.
57
180013
4862
um banqueiro, um advogado,
um médico, um político
03:17
These individuals now increasingly have
smartphones in their pockets
58
185387
5254
cada vez mais tem
smartphones em seus bolsos
03:22
that encrypt their calls,
their text messages,
59
190665
3473
que têm criptografadas as chamadas
e as mensagens de texto,
03:26
all the data on the device,
60
194162
1535
todos os dados do aparelho,
03:27
without them doing really anything
to secure their information.
61
195721
4008
sem que seja necessária qualquer
ação para proteger os dados.
03:32
In contrast, the poor
and the most vulnerable in our societies
62
200904
4045
Do outro lado, os pobres e os mais
vulneráveis da nossa sociedade
03:36
are using devices that leave them
completely vulnerable to surveillance.
63
204973
5187
estão usando aparelhos que os deixam
completamente expostos à vigilância.
03:43
In the United States, where I live,
64
211065
1989
Nos Estados Unidos, onde vivo,
03:45
African-Americans are more likely
to be seen as suspicious
65
213078
3949
os afro-americanos são os que têm mais
chances de serem vistos como suspeitos
03:49
or more likely to be profiled,
66
217051
1851
ou passíveis de serem enquadrados,
03:51
and are more likely to be targeted
by the state with surveillance.
67
219640
3665
e têm mais probabilidade de serem
alvos de vigilância do Estado.
Os afro-americanos têm
desproporcionalmente mais chances
03:56
But African-Americans
are also disproportionately likely
68
224008
2789
03:58
to use Android devices
that do nothing at all
69
226821
3096
de usarem aparelhos Android que nada
fazem para protegê-los da vigilância
04:01
to protect them from that surveillance.
70
229941
2070
04:04
This is a problem.
71
232974
1324
Isso é um problema.
04:07
We must remember
that surveillance is a tool.
72
235536
2509
Devemos lembrar que a vigilância
é uma ferramenta
04:10
It's a tool used by those in power
73
238810
2648
utilizada pelos que detêm o poder
04:13
against those who have no power.
74
241934
2258
contra aqueles que não têm poder.
04:17
And while I think it's absolutely great
75
245173
4750
E acho que é absolutamente fantástico
04:21
that companies like Apple
are making it easy for people to encrypt,
76
249947
3448
que empresas como a Apple estejam
facilitando a criptografia.
04:26
if the only people
who can protect themselves
77
254355
3815
Se somente as pessoas
que podem se proteger
04:30
from the gaze of the government
78
258194
1491
da vigilância do governo
04:31
are the rich and powerful,
79
259709
1560
são os ricos e poderosos,
04:33
that's a problem.
80
261741
1187
então temos um problema.
04:35
And it's not just a privacy
or a cybersecurity problem.
81
263549
3562
E isso não é apenas uma questão
de privacidade ou cibersegurança.
04:39
It's a civil rights problem.
82
267739
1544
É um problema de direitos civis.
04:42
So the lack of default security in Android
83
270806
2867
Então a falta de segurança
por padrão do Android
04:45
is not just a problem
for the poor and vulnerable users
84
273697
5379
não é apenas um problema
para os usuários pobres e vulneráveis
04:51
who are depending on these devices.
85
279100
2218
que dependem desses aparelhos.
04:53
This is actually a problem
for our democracy.
86
281342
2260
É de fato um problema para a democracia.
04:56
I'll explain what I mean.
87
284237
1468
Vou explicar o que quero dizer.
04:58
Modern social movements
rely on technology --
88
286514
2875
Os modernos movimentos sociais
dependem da tecnologia,
05:01
from Black Lives Matter to the Arab Spring
to Occupy Wall Street.
89
289413
5423
dos Black Lives Matter à Primavera Árabe,
ao Occupy Wall Street.
05:07
The organizers of these movements
and the members of these movements
90
295238
3975
Os organizadores desses movimentos
e os seus membros
05:11
increasingly communicate
and coordinate with smartphones.
91
299237
3940
cada vez mais se comunicam
e se coordenam usando smartphones.
05:16
And so, naturally governments
that feel threatened by these movements
92
304446
3851
Naturalmente, os governos que se sentem
ameaçados por esses movimentos
05:20
will also target the organizers
and their smartphones.
93
308321
3656
se voltarão para os organizadores
e seus smartphones.
05:25
Now, it's quite possible
94
313462
2074
É possível que um novo
Martin Luther King, Mandela ou Gandhi
05:27
that a future Martin Luther King
or a Mandela or a Gandhi
95
315560
4064
05:31
will have an iPhone and be protected
from government surveillance.
96
319648
3857
tenham um iPhone para se protegerem
da vigilância governamental.
05:36
But chances are,
97
324283
1547
Mas é bem provável
05:37
they'll probably have a cheap,
$20 Android phone in their pocket.
98
325854
3714
que tenham, na verdade, um Android
de US$ 20 em seus bolsos.
05:42
And so if we do nothing
to address the digital security divide,
99
330676
3821
Então se nada for feito para encaminhar
a divisão da segurança digital,
05:46
if we do nothing to ensure
that everyone in our society
100
334521
3868
se nada for feito para garantir
que todos em nossa sociedade
05:51
gets the same benefits of encryption
101
339167
2285
tenham os mesmos
benefícios de criptografia
05:53
and is equally able to protect themselves
from surveillance by the state,
102
341476
3657
e sejam igualmente capazes
de se protegerem da vigilância do governo,
05:57
not only will the poor and vulnerable
be exposed to surveillance,
103
345157
4782
não apenas os pobres e vulneráveis
serão expostos à vigilância,
06:02
but future civil rights
movements may be crushed
104
350404
2941
mas os futuros movimentos
de direitos civis podem ser esmagados
06:05
before they ever reach
their full potential.
105
353369
2420
antes mesmo que atinjam
seu pleno potencial.
06:07
Thank you.
106
355813
1167
Obrigado.
06:09
(Applause)
107
357004
3107
(Aplausos)
06:15
Helen Walters: Chris, thank you so much.
108
363940
1926
Helen Walters: Chris, muito obrigada.
06:17
I have a question for you.
109
365890
1872
Tenho uma pergunta para você.
06:19
We saw recently in the press
110
367786
1853
Vimos recentemente na imprensa
06:21
that Mark Zuckerberg from Facebook
covers over his camera
111
369663
5504
que Mark Zuckerberg do Facebook,
cobriu a câmera de seu notebook
06:27
and does something
with his headphone mic jack.
112
375191
2974
e faz o mesmo com a saída
do seu fone de ouvido.
06:30
So I wanted to ask you
a personal question, which is:
113
378189
2545
Então queria fazer
uma pergunta pessoal que é:
06:32
Do you do that?
114
380758
1152
Você faz isso?
06:33
And, on behalf of everyone
here, particularly myself,
115
381934
2579
E em nome dos aqui presentes,
particularmente eu mesma,
06:36
Should we be doing that?
116
384537
1325
deveríamos fazer isso?
06:37
Should we be covering these things?
117
385886
1768
Deveríamos cobrir essas saídas?
06:39
Christopher Soghoian: Putting a sticker --
actually, I like Band-Aids,
118
387678
4161
Christopher Soghoiam: colocar
um adesivo, eu gosto de Band-Aids,
06:43
because you can remove them
and put them back on
119
391863
2265
porque você pode removê-los
e colocá-los de novo
06:46
whenever you want to make
a call or a Skype call.
120
394152
2312
para fazer uma ligação
ou uma chamada Skype.
06:48
Putting a sticker over your web cam
121
396488
1702
Colocar um adesivo sobre sua câmera
06:50
is probably the best thing
you can do for your privacy
122
398214
2676
talvez seja a melhor coisa
a fazer para sua privacidade,
06:52
in terms of bang for buck.
123
400914
1506
em relação ao custo-benefício.
06:54
There really is malware,
malicious software out there
124
402444
3897
Há realmente malwares,
programas maliciosos por aí
06:58
that can take over your web cam,
125
406365
1857
que podem assumir sua câmera,
07:00
even without the light turning on.
126
408246
1870
mesmo sem a luz estar ligada.
07:02
This is used by criminals.
This is used by stalkers.
127
410140
3169
Isso é usado por criminosos,
é usado por espiões.
07:05
You can buy $19.99 "spy
on your ex-girlfriend" software online.
128
413333
4938
Você pode comprar online um "espião
de US$ 19,99 para sua ex-namorada".
07:10
It's really terrifying.
129
418295
1151
É realmente assustador.
07:11
And then, of course,
it's used by governments.
130
419470
2524
Então, claro, isso é usado pelo governo.
07:14
And there's obviously
a sexual violence component to this,
131
422018
3221
E existem, obviamente, componentes
de violência sexual nisso,
07:17
which is that this kind of surveillance
can be used most effectively
132
425263
3701
que é o tipo de vigilância que pode
ser usada mais efetivamente
07:20
against women and other people
who can be shamed in our society.
133
428988
6803
contra mulheres ou outras pessoas
que podem ser humilhadas na sociedade.
Mesmo que você ache
que não tem o que esconder,
07:28
Even if you think
you have nothing to hide,
134
436417
2108
07:30
at the very least, if you have
children, teenagers in your lives,
135
438549
4558
no final, se você tem filhos,
adolescentes nas suas vidas,
07:35
make sure you put a sticker
on their camera and protect them.
136
443131
3010
garanta que você coloque um adesivo
na sua câmera e proteja-os.
07:38
HW: Wow. Thank you so much.
CS: Thank you.
137
446165
1994
HW: Uau. Muito obrigada.
CS: Obrigado.
07:40
HW: Thanks, Chris.
138
448183
1151
HW: Obrigada, Chris.
07:41
(Applause)
139
449358
2472
(Aplausos)
Translated by Valmir Campos Araujo
Reviewed by Gustavo Rocha

▲Back to top

ABOUT THE SPEAKER
Christopher Soghoian - Privacy researcher and activist
Christopher Soghoian researches and exposes the high-tech surveillance tools that governments use to spy on their own citizens, and he is a champion of digital privacy rights.

Why you should listen

TED Fellow Christopher Soghoian is a champion of digital privacy rights, with a focus on the role that third-party service providers play in enabling governments to monitor citizens. As the principal technologist at the American Civil Liberties Union, he explores the intersection of federal surveillance and citizen's rights.

Before joining the ACLU, he was the first-ever technologist for the Federal Trade Commision's Division of Privacy and Identity Protection, where he worked on investigations of Facebook, Twitter, MySpace and Netflix. Soghoian is also the creator of Do Not Track, an anti-tracking device that all major web browsers now use, and his work has been cited in court.

More profile about the speaker
Christopher Soghoian | Speaker | TED.com