ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com
TEDGlobal 2013

Alessandro Acquisti: What will a future without secrets look like?

Alessandro Acquisti: Por que a privacidade é importante

Filmed:
1,423,103 views

A distinção entre o público e o privado tem ficado cada vez mais obscura na última década, tanto on-line quanto na vida real e Alessandro Acquisti está aqui para explicar o que isso significa e por que é importante. Nesta palestra instigante e levemente arrepiadora, ele exibe detalhes de pesquisas recentes e em andamento -- incluindo um projeto que mostra a facilidade em fazer a correspondência entre uma fotografia de um estranho com suas informações pessoais confidenciais.
- Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks. Full bio

Double-click the English transcript below to play the video.

00:12
I would like to tell you a story
0
641
2354
Eu gostaria de contar-lhes uma história
00:14
connecting the notorious privacy incident
1
2995
3176
que conecta o famoso
incidente de privacidade
00:18
involving Adam and Eve,
2
6171
2769
envolvendo Adão e Eva,
00:20
and the remarkable shift in the boundaries
3
8940
3446
e a notável mudança no limite
00:24
between public and private which has occurred
4
12386
2686
entre o público e o privado
que vem acontecendo
00:27
in the past 10 years.
5
15072
1770
nos últimos 10 anos.
00:28
You know the incident.
6
16842
1298
Vocês conhecem o incidente.
00:30
Adam and Eve one day in the Garden of Eden
7
18140
3330
Adão e Eva, um dia, no Jardim do Éden,
00:33
realize they are naked.
8
21470
1843
se dão conta de que estão nus.
00:35
They freak out.
9
23313
1500
Eles se apavoram.
00:36
And the rest is history.
10
24813
2757
E o resto vocês já conhecem.
00:39
Nowadays, Adam and Eve
11
27570
2188
Hoje em dia, Adão e Eva
00:41
would probably act differently.
12
29758
2361
provavelmente reagiriam diferente.
00:44
[@Adam Last nite was a blast! loved dat apple LOL]
13
32119
2268
[@Adão Ontem à noite foi show!
Curti akela maçã LOL]
00:46
[@Eve yep.. babe, know what happened to my pants tho?]
14
34387
1873
[@Eva pois é... gata,
cê viu minha calça por aí?]
00:48
We do reveal so much more information
15
36260
2636
Nós publicamos muito mais informações
00:50
about ourselves online than ever before,
16
38896
3334
sobre nós mesmos on-line
do que jamais antes,
00:54
and so much information about us
17
42230
1704
e tanta informação sobre nós
00:55
is being collected by organizations.
18
43934
2224
está sendo coletada por organizações.
00:58
Now there is much to gain and benefit
19
46158
3282
Bem, essa análise massiva
de informações pessoais,
01:01
from this massive analysis of personal information,
20
49440
2446
ou big data, traz muitos ganhos e benefícios,
01:03
or big data,
21
51886
1946
01:05
but there are also complex tradeoffs that come
22
53832
2638
mas há também desvantagens complexas
01:08
from giving away our privacy.
23
56470
3098
ao abrir mão da privacidade.
01:11
And my story is about these tradeoffs.
24
59568
4023
E minha história é sobre essas desvantagens.
01:15
We start with an observation which, in my mind,
25
63591
2584
Começamos com uma observação
que, na minha mente,
01:18
has become clearer and clearer in the past few years,
26
66175
3327
se tornou cada vez mais clara
nos últimos anos,
01:21
that any personal information
27
69502
2097
de que qualquer informação pessoal
01:23
can become sensitive information.
28
71599
2285
pode se tornar delicada.
01:25
Back in the year 2000, about 100 billion photos
29
73884
4125
No ano de 2000, cerca de
100 bilhões de fotos
01:30
were shot worldwide,
30
78009
1912
foram tiradas em todo o mundo,
01:31
but only a minuscule proportion of them
31
79921
3065
mas somente uma porção minúscula delas
01:34
were actually uploaded online.
32
82986
1883
acabou sendo carregada na Internet.
01:36
In 2010, only on Facebook, in a single month,
33
84869
3361
Em 2010, somente no Facebook,
em um único mês,
01:40
2.5 billion photos were uploaded,
34
88230
3270
2,5 bilhões de fotos foram carregadas,
01:43
most of them identified.
35
91500
1882
a maioria identificada.
01:45
In the same span of time,
36
93382
1880
No mesmo período de tempo,
01:47
computers' ability to recognize people in photos
37
95262
4870
a capacidade dos computadores
de reconhecerem pessoas em fotos
01:52
improved by three orders of magnitude.
38
100132
3608
melhorou em três ordens de grandeza.
01:55
What happens when you combine
39
103740
1882
O que acontece quando colocamos
01:57
these technologies together:
40
105622
1501
essas tecnologias juntas:
01:59
increasing availability of facial data;
41
107123
2658
crescente disponibilidade
de informações faciais;
02:01
improving facial recognizing ability by computers;
42
109781
3648
crescente capacidade de reconhecimento
facial por computadores;
02:05
but also cloud computing,
43
113429
2182
mas também computação em nuvem,
02:07
which gives anyone in this theater
44
115611
1888
que oferece a qualquer um neste salão
02:09
the kind of computational power
45
117499
1560
o tipo de poder computacional
02:11
which a few years ago was only the domain
46
119059
1886
que há alguns anos era somente o domínio
02:12
of three-letter agencies;
47
120945
1782
de agências de três letras;
02:14
and ubiquitous computing,
48
122727
1378
e computação ubíqua,
02:16
which allows my phone, which is not a supercomputer,
49
124105
2892
que permite que meu celular,
que não é um supercomputador,
02:18
to connect to the Internet
50
126997
1671
conecte-se à Internet
02:20
and do there hundreds of thousands
51
128668
2334
e faça lá centenas de milhares
02:23
of face metrics in a few seconds?
52
131002
2639
de correspondências faciais
em alguns segundos?
02:25
Well, we conjecture that the result
53
133641
2628
Bem, nós conjecturamos que o resultado
02:28
of this combination of technologies
54
136269
2064
dessa combinação de tecnologias
02:30
will be a radical change in our very notions
55
138333
2888
será uma mudança radical em nossas noções
02:33
of privacy and anonymity.
56
141221
2257
de privacidade e anonimato.
02:35
To test that, we did an experiment
57
143478
1993
Para testar isso, fizemos um experimento
02:37
on Carnegie Mellon University campus.
58
145471
2121
no campus da universidade
de Carnegie Mellon.
02:39
We asked students who were walking by
59
147592
2099
Nós pedimos a estudantes
que estavam passando
02:41
to participate in a study,
60
149691
1779
para participarem em um estudo,
02:43
and we took a shot with a webcam,
61
151470
2562
e tiramos uma foto com uma webcam,
02:46
and we asked them to fill out a survey on a laptop.
62
154032
2782
e pedimos que eles preenchessem
uma pesquisa em um laptop.
02:48
While they were filling out the survey,
63
156814
1979
Enquanto estavam preenchendo a pesquisa,
02:50
we uploaded their shot to a cloud-computing cluster,
64
158793
2797
nós enviamos a foto para um
cluster de computação em nuvem,
02:53
and we started using a facial recognizer
65
161590
1727
e começamos a usar um reconhecedor facial
02:55
to match that shot to a database
66
163317
2405
para equiparar aquela foto
com um banco de dados
02:57
of some hundreds of thousands of images
67
165722
2393
de algumas centenas de milhares de fotos
03:00
which we had downloaded from Facebook profiles.
68
168115
3596
que tínhamos baixado de perfis do Facebook.
03:03
By the time the subject reached the last page
69
171711
3259
No momento que o participante
atingia a última página
03:06
on the survey, the page had been dynamically updated
70
174970
3347
na pesquisa, a página tinha sido
atualizada dinamicamente
03:10
with the 10 best matching photos
71
178317
2313
com as 10 fotos que melhor se ajustavam
03:12
which the recognizer had found,
72
180630
2285
e que o reconhecedor tinha encontrado,
03:14
and we asked the subjects to indicate
73
182915
1738
e pedimos que os participantes indicassem
03:16
whether he or she found themselves in the photo.
74
184653
4120
se eles estavam ou não na foto.
03:20
Do you see the subject?
75
188773
3699
Você vê o participante?
03:24
Well, the computer did, and in fact did so
76
192472
2845
Bem, o computador viu e, de fato, viu
03:27
for one out of three subjects.
77
195317
2149
para um em cada três participantes.
03:29
So essentially, we can start from an anonymous face,
78
197466
3184
Então essencialmente, podemos
partir de um rosto anônimo,
03:32
offline or online, and we can use facial recognition
79
200650
3484
off-line ou on-line, e podemos
usar reconhecimento facial
03:36
to give a name to that anonymous face
80
204134
2360
para dar um nome a um rosto anônimo,
03:38
thanks to social media data.
81
206494
2108
graças a dados de mídia social.
03:40
But a few years back, we did something else.
82
208602
1872
Mas há alguns anos,
nós fizemos algo diferente.
03:42
We started from social media data,
83
210474
1823
Nós partimos de dados de mídia social,
03:44
we combined it statistically with data
84
212297
3051
combinamos estatisticamente com dados
03:47
from U.S. government social security,
85
215348
2102
da seguridade social do governo americano,
03:49
and we ended up predicting social security numbers,
86
217450
3324
e acabamos prevendo
números de seguridade social,
03:52
which in the United States
87
220774
1512
que nos Estados Unidos
03:54
are extremely sensitive information.
88
222286
2040
são informações extremamente delicadas.
03:56
Do you see where I'm going with this?
89
224326
2093
Vocês veem onde estou indo com isso?
03:58
So if you combine the two studies together,
90
226419
2922
Então, se combinarmos os dois estudos,
04:01
then the question becomes,
91
229341
1512
a questão se torna:
04:02
can you start from a face and,
92
230853
2720
dá para partir de um rosto e,
04:05
using facial recognition, find a name
93
233573
2311
usando reconhecimento facial,
encontrar um nome
04:07
and publicly available information
94
235884
2669
e informação disponível publicamente
04:10
about that name and that person,
95
238553
1932
sobre esse nome e essa pessoa,
04:12
and from that publicly available information
96
240485
2248
e dessa informação publicamente disponível
04:14
infer non-publicly available information,
97
242733
2042
inferir informação
indisponível publicamente,
04:16
much more sensitive ones
98
244775
1606
muito mais delicada,
que podemos conectar de volta com o rosto?
04:18
which you link back to the face?
99
246381
1492
04:19
And the answer is, yes, we can, and we did.
100
247873
1916
E a resposta é, sim,
dá para fazer, e nós fizemos.
04:21
Of course, the accuracy keeps getting worse.
101
249789
2568
Claro, a precisão continua caindo.
04:24
[27% of subjects' first 5 SSN digits identified (with 4 attempts)]
102
252357
944
[27% dos cinco primeiros dígitos do SSN
do indivíduo identificados (em 4 tentativas)]
04:25
But in fact, we even decided to develop an iPhone app
103
253301
3827
Mas na verdade, nós até decidimos
desenvolver um aplicativo para iPhone
04:29
which uses the phone's internal camera
104
257128
2715
que usa a câmera interna do celular
04:31
to take a shot of a subject
105
259843
1600
para tirar a foto de um indivíduo
04:33
and then upload it to a cloud
106
261443
1487
e então envia para a nuvem
04:34
and then do what I just described to you in real time:
107
262930
2662
e faz em tempo real
o que acabei de descrever:
04:37
looking for a match, finding public information,
108
265592
2088
faz a correspondência,
encontra informação pública,
04:39
trying to infer sensitive information,
109
267680
1730
tenta inferir informação delicada,
04:41
and then sending back to the phone
110
269410
2591
e então envia de volta ao iPhone
04:44
so that it is overlaid on the face of the subject,
111
272001
3609
para que seja sobreposta
ao rosto do indivíduo,
04:47
an example of augmented reality,
112
275610
1901
um exemplo de realidade aumentada,
04:49
probably a creepy example of augmented reality.
113
277511
2451
provavelmente um exemplo
assustador de realidade aumentada.
04:51
In fact, we didn't develop the app to make it available,
114
279962
3339
Na verdade, não desenvolvemos
o aplicativo para disponibilizar,
04:55
just as a proof of concept.
115
283301
1922
somente como prova de conceito.
04:57
In fact, take these technologies
116
285223
2313
De fato, pegue essas tecnologias
04:59
and push them to their logical extreme.
117
287536
1837
e coloque-as até seu extremo lógico.
05:01
Imagine a future in which strangers around you
118
289373
2719
Imagine um futuro onde estranhos à sua volta
05:04
will look at you through their Google Glasses
119
292092
2311
olharão para você por seus Google Glasses
05:06
or, one day, their contact lenses,
120
294403
2307
ou, um dia, suas lentes de contato,
05:08
and use seven or eight data points about you
121
296710
4020
e usar sete ou oito
pontos de dados sobre você
05:12
to infer anything else
122
300730
2582
para inferir qualquer outra coisa
05:15
which may be known about you.
123
303312
2603
que se possa saber sobre você.
05:17
What will this future without secrets look like?
124
305915
4794
Como será esse futuro sem segredos?
05:22
And should we care?
125
310709
1964
E deveríamos nos preocupar?
05:24
We may like to believe
126
312673
1891
Nós talvez queiramos acreditar
05:26
that the future with so much wealth of data
127
314564
3040
que o futuro com tanta riqueza de dados
05:29
would be a future with no more biases,
128
317604
2514
será um futuro sem preconceitos,
05:32
but in fact, having so much information
129
320118
3583
mas na verdade, ter tanta informação
05:35
doesn't mean that we will make decisions
130
323701
2191
não quer dizer que tomaremos decisões
05:37
which are more objective.
131
325892
1706
que sejam mais objetivas.
05:39
In another experiment, we presented to our subjects
132
327598
2560
Em outro experimento,
nós apresentamos aos participantes
05:42
information about a potential job candidate.
133
330158
2246
informações sobre um potencial
candidato de emprego.
05:44
We included in this information some references
134
332404
3178
Incluímos nessas informações
algumas referências
05:47
to some funny, absolutely legal,
135
335582
2646
a informações engraçadas, totalmente legais,
05:50
but perhaps slightly embarrassing information
136
338228
2465
mas talvez levemente constrangedoras
05:52
that the subject had posted online.
137
340693
2020
que o participante tinha postado on-line.
05:54
Now interestingly, among our subjects,
138
342713
2366
Agora, curiosamente, entre os participantes,
05:57
some had posted comparable information,
139
345079
3083
alguns tinham postado
informações comparáveis,
06:00
and some had not.
140
348162
2362
e outros não.
06:02
Which group do you think
141
350524
1949
Que grupo vocês acham
06:04
was more likely to judge harshly our subject?
142
352473
4552
que estava mais suscetível a julgar
severamente nosso participante?
06:09
Paradoxically, it was the group
143
357025
1957
Paradoxalmente, foi o grupo
06:10
who had posted similar information,
144
358982
1733
que tinha postado informação similar,
06:12
an example of moral dissonance.
145
360715
2942
um exemplo de dissonância moral.
06:15
Now you may be thinking,
146
363657
1750
Você podem estar pensando.
06:17
this does not apply to me,
147
365407
1702
isso não se aplica a mim,
06:19
because I have nothing to hide.
148
367109
2162
porque não tenho nada a esconder.
06:21
But in fact, privacy is not about
149
369271
2482
Mas na verdade, privacidade não se trata
06:23
having something negative to hide.
150
371753
3676
de ter algo negativo a esconder.
06:27
Imagine that you are the H.R. director
151
375429
2354
Imagine que você é o diretor de RH
06:29
of a certain organization, and you receive résumés,
152
377783
2947
de uma certa organização,
e você recebe currículos,
06:32
and you decide to find more information about the candidates.
153
380730
2473
e decide procurar mais informações
sobre os candidatos.
06:35
Therefore, you Google their names
154
383203
2460
Portanto, você pesquisa seus nomes
06:37
and in a certain universe,
155
385663
2240
e em um certo universo,
06:39
you find this information.
156
387903
2008
você encontra esta informação.
06:41
Or in a parallel universe, you find this information.
157
389911
4437
Ou em um universo paralelo,
você encontra esta informação.
06:46
Do you think that you would be equally likely
158
394348
2717
Você acha que estaria igualmente disposto
06:49
to call either candidate for an interview?
159
397065
2803
a chamar o candidato para uma entrevista?
06:51
If you think so, then you are not
160
399868
2282
Se você pensa que sim, então você não é
06:54
like the U.S. employers who are, in fact,
161
402150
2582
como os empregadores
americanos que, na verdade,
06:56
part of our experiment, meaning we did exactly that.
162
404732
3307
são parte de nosso experimento,
ou seja, fizemos exatamente isso.
07:00
We created Facebook profiles, manipulating traits,
163
408039
3182
Criamos perfis no Facebook,
manipulando características,
07:03
then we started sending out résumés to companies in the U.S.,
164
411221
2851
e começamos a enviar currículos
para empresas nos EUA,
07:06
and we detected, we monitored,
165
414072
1908
e detectamos, monitoramos,
07:07
whether they were searching for our candidates,
166
415980
2393
se estavam procurando
pelos nossos candidatos,
07:10
and whether they were acting on the information
167
418373
1832
e se estavam reagindo às informações
07:12
they found on social media. And they were.
168
420205
1938
que encontravam na mídia social. E estavam.
07:14
Discrimination was happening through social media
169
422143
2101
Discriminação estava
acontecendo pela mídia social
07:16
for equally skilled candidates.
170
424244
3073
para candidatos igualmente capazes.
07:19
Now marketers like us to believe
171
427317
4575
Marqueteiros gostam que acreditemos
07:23
that all information about us will always
172
431892
2269
que toda informação sobre nós sempre será
07:26
be used in a manner which is in our favor.
173
434161
3273
usada de uma maneira a nosso favor.
07:29
But think again. Why should that be always the case?
174
437434
3715
Mas pensem novamente. Por que
esse deve ser sempre o caso?
07:33
In a movie which came out a few years ago,
175
441149
2664
Em um filme que saiu há alguns anos,
07:35
"Minority Report," a famous scene
176
443813
2553
"Minority Report", uma cena famosa
07:38
had Tom Cruise walk in a mall
177
446366
2576
tinha Tom Cruise entrando em um shopping
07:40
and holographic personalized advertising
178
448942
3776
e anúncios holográficos personalizados
07:44
would appear around him.
179
452718
1835
apareciam a sua volta.
07:46
Now, that movie is set in 2054,
180
454553
3227
Agora, esse filme acontece em 2054,
07:49
about 40 years from now,
181
457780
1642
cerca de daqui a 40 anos,
07:51
and as exciting as that technology looks,
182
459422
2908
e por mais interessante
que pareça essa tecnologia,
07:54
it already vastly underestimates
183
462330
2646
ela já subestima enormemente
07:56
the amount of information that organizations
184
464976
2140
a quantidade de informação
que as organizações
07:59
can gather about you, and how they can use it
185
467116
2483
podem juntar sobre você,
e como podem usá-la
08:01
to influence you in a way that you will not even detect.
186
469599
3398
para influenciá-lo de uma maneira
que você nem perceba.
08:04
So as an example, this is another experiment
187
472997
2103
E como exemplo, este é um outro experimento
08:07
actually we are running, not yet completed.
188
475100
2273
que estamos fazendo,
ainda não terminamos.
08:09
Imagine that an organization has access
189
477373
2319
Imagine que uma organização tem acesso
08:11
to your list of Facebook friends,
190
479692
2056
à sua lista de amigos no Facebook,
08:13
and through some kind of algorithm
191
481748
1772
e através de algum tipo de algoritmo
08:15
they can detect the two friends that you like the most.
192
483520
3734
eles conseguem detectar
seus dois amigos preferidos.
08:19
And then they create, in real time,
193
487254
2280
E eles criam, em tempo real,
08:21
a facial composite of these two friends.
194
489534
2842
uma composição facial desses dois amigos.
08:24
Now studies prior to ours have shown that people
195
492376
3069
E estudos anteriores ao nosso
mostraram que as pessoas
08:27
don't recognize any longer even themselves
196
495445
2885
não reconhecem mais, mesmo
se forem elas mesmas
08:30
in facial composites, but they react
197
498330
2462
em composições faciais, mas elas reagem
08:32
to those composites in a positive manner.
198
500792
2117
a essas composições de maneira positiva.
08:34
So next time you are looking for a certain product,
199
502909
3415
Então, da próxima vez que você estiver
procurando por um certo produto,
08:38
and there is an ad suggesting you to buy it,
200
506324
2559
e houver um anúncio sugerindo
que você o compre,
08:40
it will not be just a standard spokesperson.
201
508883
2907
não será somente um porta-voz em geral.
08:43
It will be one of your friends,
202
511790
2313
Será um de seus amigos,
08:46
and you will not even know that this is happening.
203
514103
3303
e você nem vai saber
que isso está acontecendo.
08:49
Now the problem is that
204
517406
2413
E o problema é que
08:51
the current policy mechanisms we have
205
519819
2519
os mecanismos de políticas
que temos atualmente
08:54
to protect ourselves from the abuses of personal information
206
522338
3438
para nos proteger dos abusos
de informações pessoais
08:57
are like bringing a knife to a gunfight.
207
525776
2984
são como levar uma faca para um tiroteio.
09:00
One of these mechanisms is transparency,
208
528760
2913
Um desses mecanismos é a transparência,
09:03
telling people what you are going to do with their data.
209
531673
3200
dizer às pessoas o que se vai
fazer com os dados delas.
09:06
And in principle, that's a very good thing.
210
534873
2106
E, em princípio, isso é uma coisa muito boa.
09:08
It's necessary, but it is not sufficient.
211
536979
3667
É necessário, mas não é suficiente.
09:12
Transparency can be misdirected.
212
540646
3698
A transparência pode ser mal direcionada.
09:16
You can tell people what you are going to do,
213
544344
2104
Você pode dizer às pessoas o que vai fazer,
09:18
and then you still nudge them to disclose
214
546448
2232
e você ainda avisa para revelar
09:20
arbitrary amounts of personal information.
215
548680
2623
quantidades arbitrárias
de informações pessoais.
09:23
So in yet another experiment, this one with students,
216
551303
2886
E ainda em outro experimento,
este com estudantes,
09:26
we asked them to provide information
217
554189
3058
nós pedimos que eles
fornecessem informações
09:29
about their campus behavior,
218
557247
1813
a respeito de seu comportamento no campus,
09:31
including pretty sensitive questions, such as this one.
219
559060
2940
incluindo questões delicadas, como esta.
09:34
[Have you ever cheated in an exam?]
220
562000
621
[Você já colou em uma prova?]
09:34
Now to one group of subjects, we told them,
221
562621
2300
Agora para um grupo
de participantes nós dissemos:
09:36
"Only other students will see your answers."
222
564921
2841
"Somente outros estudantes
verão suas respostas."
09:39
To another group of subjects, we told them,
223
567762
1579
Para outro grupo de
participantes, nós dissemos:
09:41
"Students and faculty will see your answers."
224
569341
3561
"Estudantes e professores
verão suas respostas."
09:44
Transparency. Notification. And sure enough, this worked,
225
572902
2591
Transparência. Notificação.
E com certeza, funcionou,
09:47
in the sense that the first group of subjects
226
575493
1407
no sentido de que o primeiro
grupo de participantes
09:48
were much more likely to disclose than the second.
227
576900
2568
estava muito mais disposto
a se expor do que o segundo.
09:51
It makes sense, right?
228
579468
1520
Faz sentido, certo?
09:52
But then we added the misdirection.
229
580988
1490
Mas aí adicionamos um despiste.
09:54
We repeated the experiment with the same two groups,
230
582478
2760
Nós repetimos o experimento
com os mesmos dois grupos,
09:57
this time adding a delay
231
585238
2427
desta vez adicionando uma demora
09:59
between the time we told subjects
232
587665
2935
entre o momento quando
dizíamos aos participantes
10:02
how we would use their data
233
590600
2080
como usaríamos seus dados
10:04
and the time we actually started answering the questions.
234
592680
4388
e o momento em que eles realmente
começaram a responder as perguntas.
10:09
How long a delay do you think we had to add
235
597068
2561
Quanto tempo vocês acham
que tivemos que adicionar
10:11
in order to nullify the inhibitory effect
236
599629
4613
para anular o efeito inibitório
10:16
of knowing that faculty would see your answers?
237
604242
3411
de saber que os professores
veriam suas respostas?
10:19
Ten minutes?
238
607653
1780
Dez minutos?
10:21
Five minutes?
239
609433
1791
Cinco minutos?
10:23
One minute?
240
611224
1776
Um minuto?
10:25
How about 15 seconds?
241
613000
2049
Que tal 15 segundos?
10:27
Fifteen seconds were sufficient to have the two groups
242
615049
2668
15 segundos foram suficientes
para que os dois grupos
10:29
disclose the same amount of information,
243
617717
1568
expusessem a mesma
quantidade de informação,
10:31
as if the second group now no longer cares
244
619285
2746
como se o segundo grupo
não se importasse mais
10:34
for faculty reading their answers.
245
622031
2656
com os professores lendo suas respostas.
10:36
Now I have to admit that this talk so far
246
624687
3336
Bem, eu tenho que admitir
que, até agora, essa palestra
10:40
may sound exceedingly gloomy,
247
628023
2480
pode parecer excessivamente sombria,
10:42
but that is not my point.
248
630503
1721
mas não é esse meu argumento.
10:44
In fact, I want to share with you the fact that
249
632224
2699
Na verdade, quero compartilhar
com vocês o fato de que
10:46
there are alternatives.
250
634923
1772
há alternativas.
10:48
The way we are doing things now is not the only way
251
636695
2499
O jeito pelo qual estamos fazendo
as coisas agora não é o único
10:51
they can done, and certainly not the best way
252
639194
3037
pelo qual elas podem ser feitas,
e certamente não é o melhor
10:54
they can be done.
253
642231
2027
pelo qual podem ser feitas.
10:56
When someone tells you, "People don't care about privacy,"
254
644258
4171
Quando alguém lhe diz: "As pessoas
não se importam com privacidade",
11:00
consider whether the game has been designed
255
648429
2642
pense que o jogo foi projetado
11:03
and rigged so that they cannot care about privacy,
256
651071
2724
e manipulado para que elas não possam
se importar com privacidade,
11:05
and coming to the realization that these manipulations occur
257
653795
3262
e chegar à percepção de que
essas manipulações ocorrem
11:09
is already halfway through the process
258
657057
1607
já é metade do caminho
11:10
of being able to protect yourself.
259
658664
2258
para ser capaz de se proteger.
11:12
When someone tells you that privacy is incompatible
260
660922
3710
Quando alguém lhe diz que
a privacidade é incompatível
11:16
with the benefits of big data,
261
664632
1849
com os benefícios da big data,
11:18
consider that in the last 20 years,
262
666481
2473
considere que nos últimos 20 anos,
11:20
researchers have created technologies
263
668954
1917
pesquisadores criaram tecnologias
11:22
to allow virtually any electronic transactions
264
670871
3318
para permitir que praticamente
qualquer transação eletrônica
11:26
to take place in a more privacy-preserving manner.
265
674189
3749
aconteça protegendo mais a privacidade.
11:29
We can browse the Internet anonymously.
266
677938
2555
Podemos navegar pela internet anonimamente.
11:32
We can send emails that can only be read
267
680493
2678
Podemos enviar e-mails que só podem ser lidos
11:35
by the intended recipient, not even the NSA.
268
683171
3709
pelo destinatário desejado,
nem mesmo a NSA.
11:38
We can have even privacy-preserving data mining.
269
686880
2997
Podemos até ter mineração de dados
preservando a privacidade.
11:41
In other words, we can have the benefits of big data
270
689877
3894
Em outras palavras, podemos
ter os benefícios da big data
11:45
while protecting privacy.
271
693771
2132
e proteger a privacidade ao mesmo tempo.
11:47
Of course, these technologies imply a shifting
272
695903
3791
Claro, essas tecnologias
implicam numa mudança
11:51
of cost and revenues
273
699694
1546
de custos e receitas
11:53
between data holders and data subjects,
274
701240
2107
entre os detentores dos dados
e as pessoas referidas,
11:55
which is why, perhaps, you don't hear more about them.
275
703347
3453
que é o motivo, talvez,
por que não se fala mais disso.
11:58
Which brings me back to the Garden of Eden.
276
706800
3706
O que me leva de volta ao Jardim do Éden.
12:02
There is a second privacy interpretation
277
710506
2780
Há uma segunda
interpretação de privacidade
12:05
of the story of the Garden of Eden
278
713286
1809
da história do Jardim do Éden
12:07
which doesn't have to do with the issue
279
715095
2096
que não tem a ver com a questão
12:09
of Adam and Eve feeling naked
280
717191
2225
de Adão e Eva se sentirem nus
12:11
and feeling ashamed.
281
719416
2381
e envergonhados.
12:13
You can find echoes of this interpretation
282
721797
2781
Dá para encontrar ecos desta interpretação
12:16
in John Milton's "Paradise Lost."
283
724578
2782
no poema de John Milton, "Paraíso Perdido".
12:19
In the garden, Adam and Eve are materially content.
284
727360
4197
No jardim, Adão e Eva estão
satisfeitos materialmente
12:23
They're happy. They are satisfied.
285
731557
2104
Estão felizes. Estão satisfeitos.
12:25
However, they also lack knowledge
286
733661
2293
Entretanto, eles também
não têm conhecimento
12:27
and self-awareness.
287
735954
1640
e autoconsciência.
12:29
The moment they eat the aptly named
288
737594
3319
No momento em que eles comem o que é
chamado apropriadamente
de fruta do conhecimento,
12:32
fruit of knowledge,
289
740913
1293
12:34
that's when they discover themselves.
290
742206
2605
é aí que eles se descobrem.
12:36
They become aware. They achieve autonomy.
291
744811
4031
Eles se tornam cientes.
Eles atingem autonomia.
12:40
The price to pay, however, is leaving the garden.
292
748842
3126
O preço a se pagar, entretanto,
é abandonar o jardim.
12:43
So privacy, in a way, is both the means
293
751968
3881
Então, privacidade,
de certa maneira, é tanto o meio
12:47
and the price to pay for freedom.
294
755849
2962
quanto o preço a se pagar pela liberdade.
12:50
Again, marketers tell us
295
758811
2770
Novamente, marqueteiros nos dizem
12:53
that big data and social media
296
761581
3019
que big data e mídia social
12:56
are not just a paradise of profit for them,
297
764600
2979
não são somente um paraíso
de lucros para eles,
12:59
but a Garden of Eden for the rest of us.
298
767579
2457
mas um Jardim do Éden para o resto de nós.
13:02
We get free content.
299
770036
1238
Nós temos conteúdo gratuito.
13:03
We get to play Angry Birds. We get targeted apps.
300
771274
3123
Podemos jogar Angry Birds.
Temos aplicativos direcionados.
13:06
But in fact, in a few years, organizations
301
774397
2897
Mas na verdade, em alguns anos, organizações
13:09
will know so much about us,
302
777294
1609
saberão tanto sobre nós,
13:10
they will be able to infer our desires
303
778903
2710
que conseguirão inferir nossos desejos
13:13
before we even form them, and perhaps
304
781613
2204
antes mesmo que os tenhamos e, talvez,
13:15
buy products on our behalf
305
783817
2447
comprar produtos em nosso nome
13:18
before we even know we need them.
306
786264
2274
antes mesmo de sabermos
que precisamos deles.
13:20
Now there was one English author
307
788538
3237
Bom, havia um escritor inglês
13:23
who anticipated this kind of future
308
791775
3045
que antecipou esse tipo de futuro
13:26
where we would trade away
309
794820
1405
onde ofereceríamos
13:28
our autonomy and freedom for comfort.
310
796225
3548
nossa autonomia e liberdade
em troca de conforto.
13:31
Even more so than George Orwell,
311
799773
2161
Mais ainda do que George Orwell,
13:33
the author is, of course, Aldous Huxley.
312
801934
2761
o escritor é, obviamente, Aldous Huxley.
13:36
In "Brave New World," he imagines a society
313
804695
2854
Em "Admirável Mundo Novo",
ele imagina uma sociedade
13:39
where technologies that we created
314
807549
2171
onde as tecnologias que criamos
13:41
originally for freedom
315
809720
1859
originalmente por liberdade
13:43
end up coercing us.
316
811579
2567
acabam nos reprimindo.
13:46
However, in the book, he also offers us a way out
317
814146
4791
Entretanto, no livro, ele também
nos oferece uma saída
13:50
of that society, similar to the path
318
818937
3438
dessa sociedade, parecida com o caminho
13:54
that Adam and Eve had to follow to leave the garden.
319
822375
3955
que Adão e Eva tiveram
que seguir para sair do jardim.
13:58
In the words of the Savage,
320
826330
2147
No mundo dos Selvagens,
14:00
regaining autonomy and freedom is possible,
321
828477
3069
recuperar a autonomia
e a liberdade é possível,
14:03
although the price to pay is steep.
322
831546
2679
porém o preço a se pagar é alto.
14:06
So I do believe that one of the defining fights
323
834225
5715
Então eu acredito que
uma das lutas que definirão
14:11
of our times will be the fight
324
839940
2563
nossa época será a luta
14:14
for the control over personal information,
325
842503
2387
pelo controle de informações pessoais,
14:16
the fight over whether big data will become a force
326
844890
3507
a luta por se big data
vai se tornar um força
14:20
for freedom,
327
848397
1289
pela liberdade,
14:21
rather than a force which will hiddenly manipulate us.
328
849686
4746
em vez de uma força que vai
nos manipular ocultamente.
14:26
Right now, many of us
329
854432
2593
Agora mesmo, muitos de nós
14:29
do not even know that the fight is going on,
330
857025
2753
nem mesmo sabem
que a luta está acontecendo,
14:31
but it is, whether you like it or not.
331
859778
2672
mas ela está, quer vocês gostem ou não.
14:34
And at the risk of playing the serpent,
332
862450
2804
E com o risco de fazer o papel da serpente,
14:37
I will tell you that the tools for the fight
333
865254
2897
vou lhes dizer que
as ferramentas para a luta
14:40
are here, the awareness of what is going on,
334
868151
3009
estão aqui, a consciência
do que está acontecendo,
14:43
and in your hands,
335
871160
1355
e em suas mãos,
14:44
just a few clicks away.
336
872515
3740
só a alguns cliques de distância.
14:48
Thank you.
337
876255
1482
Obrigado.
14:49
(Applause)
338
877737
4477
(Aplausos)
Translated by Gustavo Rocha
Reviewed by Leonardo Silva

▲Back to top

ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com