ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com
TEDGlobal 2013

Alessandro Acquisti: What will a future without secrets look like?

Alessandro Acquisti: La importancia de la privacidad

Filmed:
1,423,103 views

La línea entre lo público y lo privado se ha ido difuminando en la última década, tanto en línea como en la vida real, y Alessandro Acquisti está aquí para explicar qué significa esto y por qué es importante. En esta charla sugerente y un poco escalofriante, comparte detalles de las investigaciones recientes y en curso; presenta un proyecto que muestra lo fácil que es cotejar la foto de un extraño con su información personal.
- Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks. Full bio

Double-click the English transcript below to play the video.

Quiero contarles una historia
00:12
I would like to tell you a storyhistoria
0
641
2354
00:14
connectingconectando the notoriousnotorio privacyintimidad incidentincidente
1
2995
3176
que conecta el célebre
incidente de privacidad
00:18
involvinginvolucrando AdamAdán and EveVíspera,
2
6171
2769
que involucró a Adán y Eva,
00:20
and the remarkablenotable shiftcambio in the boundarieslímites
3
8940
3446
y el cambio notorio de los límites
00:24
betweenEntre publicpúblico and privateprivado whichcual has occurredocurrió
4
12386
2686
entre lo público y lo privado
00:27
in the pastpasado 10 yearsaños.
5
15072
1770
ocurrido en los últimos 10 años.
00:28
You know the incidentincidente.
6
16842
1298
Ya conocen el incidente.
00:30
AdamAdán and EveVíspera one day in the GardenJardín of EdenEdén
7
18140
3330
Adán y Eva, un día
en el Jardín del Edén,
00:33
realizedarse cuenta de they are nakeddesnudo.
8
21470
1843
se dan cuenta de
que están desnudos.
00:35
They freakmonstruo out.
9
23313
1500
Se asustan.
00:36
And the restdescanso is historyhistoria.
10
24813
2757
Y el resto es historia.
00:39
NowadaysHoy en día, AdamAdán and EveVíspera
11
27570
2188
Hoy en día, Adán y Eva
00:41
would probablyprobablemente actacto differentlydiferentemente.
12
29758
2361
probablemente actuarían diferente.
00:44
[@AdamAdán Last nitenoche was a blastexplosión! lovedamado datDat applemanzana LOLLOL]
13
32119
2268
[@Adan ¡Lo de anoche fue genial!
Me encantó la manzana LOL] (Risas)
00:46
[@EveVíspera yep.. babebebé, know what happenedsucedió to my pantspantalones thoaunque?]
14
34387
1873
(Risas) [@Eva Sip... bebé, ¿sabes
qué le pasó a mis pantalones?]
00:48
We do revealrevelar so much more informationinformación
15
36260
2636
Revelamos mucha más información
00:50
about ourselvesNosotros mismos onlineen línea than ever before,
16
38896
3334
personal en línea que nunca antes,
00:54
and so much informationinformación about us
17
42230
1704
y las empresas recolectan mucha más
00:55
is beingsiendo collectedrecogido by organizationsorganizaciones.
18
43934
2224
información sobre nosotros.
00:58
Now there is much to gainganancia and benefitbeneficio
19
46158
3282
Podemos ganar mucho
y beneficiarnos
01:01
from this massivemasivo analysisanálisis of personalpersonal informationinformación,
20
49440
2446
del análisis masivo
de esta información personal,
01:03
or biggrande datadatos,
21
51886
1946
o "big data",
01:05
but there are alsoademás complexcomplejo tradeoffscompensaciones that come
22
53832
2638
pero también hay un precio grande
que pagar en términos de privacidad,
[Salí por una pizza]
[Mis amigos y la NSA]
01:08
from givingdando away our privacyintimidad.
23
56470
3098
en contraprestación.
01:11
And my storyhistoria is about these tradeoffscompensaciones.
24
59568
4023
Mi historia trata de esas
contraprestaciones.
01:15
We startcomienzo with an observationobservación whichcual, in my mindmente,
25
63591
2584
Empecemos con un verdad
que, en mi opinión,
01:18
has becomevolverse clearermás claro and clearermás claro in the pastpasado fewpocos yearsaños,
26
66175
3327
se ha hecho cada vez más evidente
en los últimos años:
01:21
that any personalpersonal informationinformación
27
69502
2097
toda información personal
01:23
can becomevolverse sensitivesensible informationinformación.
28
71599
2285
puede volverse sensible.
01:25
Back in the yearaño 2000, about 100 billionmil millones photosfotos
29
73884
4125
En el 2000, se tomaron
unos 100 000 millones
01:30
were shotDisparo worldwideen todo el mundo,
30
78009
1912
de fotos en el mundo,
01:31
but only a minusculeminúscula proportionproporción of them
31
79921
3065
pero solo una ínfima parte de ellas
01:34
were actuallyactualmente uploadedcargado onlineen línea.
32
82986
1883
se subíeron a la Web.
01:36
In 2010, only on FacebookFacebook, in a singlesoltero monthmes,
33
84869
3361
En el 2010, solo en Facebook,
en un solo mes,
01:40
2.5 billionmil millones photosfotos were uploadedcargado,
34
88230
3270
se subieron 2500 millones de fotos,
01:43
mostmás of them identifiedidentificado.
35
91500
1882
la mayoría identificadas.
01:45
In the samemismo spanlapso of time,
36
93382
1880
En el mismo lapso de tiempo,
01:47
computers'ordenadores' abilitycapacidad to recognizereconocer people in photosfotos
37
95262
4870
la capacidad de las computadoras
para reconocer personas en las fotos
01:52
improvedmejorado by threeTres orderspedidos of magnitudemagnitud.
38
100132
3608
mejoró en tres órdenes de magnitud.
01:55
What happenssucede when you combinecombinar
39
103740
1882
¿Qué ocurre cuando uno combina
01:57
these technologiestecnologías togetherjuntos:
40
105622
1501
estas tecnologías:
01:59
increasingcreciente availabilitydisponibilidad of facialfacial datadatos;
41
107123
2658
aumento de la disponibilidad
de datos faciales;
02:01
improvingmejorando facialfacial recognizingreconociendo abilitycapacidad by computersordenadores;
42
109781
3648
mejora en el reconocimiento
facial informático;
02:05
but alsoademás cloudnube computinginformática,
43
113429
2182
y también la computación en la nube,
02:07
whichcual givesda anyonenadie in this theaterteatro
44
115611
1888
que nos da a todos
los presentes en la sala
02:09
the kindtipo of computationalcomputacional powerpoder
45
117499
1560
el poder computacional
02:11
whichcual a fewpocos yearsaños agohace was only the domaindominio
46
119059
1886
que hace unos años
estaba disponible
02:12
of three-lettertres letras agenciesagencias;
47
120945
1782
solo para agencias gubernamentales;
02:14
and ubiquitousubicuo computinginformática,
48
122727
1378
y la computación ubicua,
02:16
whichcual allowspermite my phoneteléfono, whichcual is not a supercomputersupercomputadora,
49
124105
2892
que le permite a mi móvil,
que no es una supercomputadora,
02:18
to connectconectar to the InternetInternet
50
126997
1671
conectarse a Internet
02:20
and do there hundredscientos of thousandsmiles
51
128668
2334
y tomar allí cientos de miles
02:23
of facecara metricsmétrica in a fewpocos secondssegundos?
52
131002
2639
de medidas faciales
en unos pocos segundos?
02:25
Well, we conjectureconjetura that the resultresultado
53
133641
2628
Bueno, pensamos que el resultado
02:28
of this combinationcombinación of technologiestecnologías
54
136269
2064
de esta combinación de tecnologías
02:30
will be a radicalradical changecambio in our very notionsnociones
55
138333
2888
será un cambio radical
en nuestras nociones
02:33
of privacyintimidad and anonymityanonimato.
56
141221
2257
de privacidad y anonimato.
02:35
To testprueba that, we did an experimentexperimentar
57
143478
1993
Para comprobalo
hicimos un experimento
02:37
on CarnegieCarnegie MellonMellon UniversityUniversidad campuscampus.
58
145471
2121
en el campus del Carnegie Mellon.
02:39
We askedpreguntó studentsestudiantes who were walkingpara caminar by
59
147592
2099
Le pedimos a los estudiantes
que pasaban por allí
02:41
to participateparticipar in a studyestudiar,
60
149691
1779
que participaran en un estudio,
02:43
and we tooktomó a shotDisparo with a webcamcámara web,
61
151470
2562
les tomamos una foto
con una cámara web
02:46
and we askedpreguntó them to fillllenar out a surveyencuesta on a laptopordenador portátil.
62
154032
2782
y les pedimos que completaran
una encuesta en el portátil.
02:48
While they were fillingrelleno out the surveyencuesta,
63
156814
1979
Mientras completaban la encuesta,
02:50
we uploadedcargado theirsu shotDisparo to a cloud-computingcomputación en la nube clusterracimo,
64
158793
2797
subimos la foto a un clúster
de computación en la nube,
02:53
and we startedempezado usingutilizando a facialfacial recognizerreconocedor
65
161590
1727
y usamos
un reconocedor facial
02:55
to matchpartido that shotDisparo to a databasebase de datos
66
163317
2405
para cotejar esa foto
con una base de datos
02:57
of some hundredscientos of thousandsmiles of imagesimágenes
67
165722
2393
de cientos de miles
de imágenes
03:00
whichcual we had downloadeddescargado from FacebookFacebook profilesperfiles.
68
168115
3596
que habíamos bajado
de perfiles de Facebook.
03:03
By the time the subjecttema reachedalcanzado the last pagepágina
69
171711
3259
Para cuando el sujeto
llegaba al final
03:06
on the surveyencuesta, the pagepágina had been dynamicallydinamicamente updatedactualizado
70
174970
3347
de la encuesta, la página se había
actualizado en forma dinámica
03:10
with the 10 bestmejor matchingpareo photosfotos
71
178317
2313
con las 10 fotos
encontradas por el reconocedor
03:12
whichcual the recognizerreconocedor had foundencontró,
72
180630
2285
que mejor concordaban,
03:14
and we askedpreguntó the subjectsasignaturas to indicateindicar
73
182915
1738
y le pedímos al sujeto que indicara
03:16
whethersi he or she foundencontró themselvessí mismos in the photofoto.
74
184653
4120
si se encontraba en la foto.
03:20
Do you see the subjecttema?
75
188773
3699
¿Ven al sujeto?
03:24
Well, the computercomputadora did, and in facthecho did so
76
192472
2845
Bueno, la computadora sí,
y de hecho,
03:27
for one out of threeTres subjectsasignaturas.
77
195317
2149
reconoció
1 de cada 3 sujetos.
03:29
So essentiallyesencialmente, we can startcomienzo from an anonymousanónimo facecara,
78
197466
3184
En esencia, podemos partir
de un rostro anónimo,
03:32
offlinedesconectado or onlineen línea, and we can use facialfacial recognitionreconocimiento
79
200650
3484
en disco o en la web, y usar
el reconocimiento facial
03:36
to give a namenombre to that anonymousanónimo facecara
80
204134
2360
para ponerle nombre
a ese rostro anónimo
03:38
thanksGracias to socialsocial mediamedios de comunicación datadatos.
81
206494
2108
gracias a las redes sociales.
03:40
But a fewpocos yearsaños back, we did something elsemás.
82
208602
1872
Pero hace unos años hicimos algo más.
03:42
We startedempezado from socialsocial mediamedios de comunicación datadatos,
83
210474
1823
Partimos de datos de redes sociales,
03:44
we combinedconjunto it statisticallyestadísticamente with datadatos
84
212297
3051
los combinamos estadísticamente
con datos
03:47
from U.S. governmentgobierno socialsocial securityseguridad,
85
215348
2102
de la seguridad social
del gobierno de EE.UU.
03:49
and we endedterminado up predictingprediciendo socialsocial securityseguridad numbersnúmeros,
86
217450
3324
y terminamos prediciendo los
números de la seguridad social,
03:52
whichcual in the UnitedUnido StatesEstados
87
220774
1512
que en Estados Unidos
03:54
are extremelyextremadamente sensitivesensible informationinformación.
88
222286
2040
son una información
extremadamente sensible.
03:56
Do you see where I'm going with this?
89
224326
2093
¿Ven a dónde quiero llegar con esto?
03:58
So if you combinecombinar the two studiesestudios togetherjuntos,
90
226419
2922
Si combinan los dos estudios,
04:01
then the questionpregunta becomesse convierte,
91
229341
1512
entonces la pregunta pasa a ser:
04:02
can you startcomienzo from a facecara and,
92
230853
2720
¿Podemos partir de un rostro
04:05
usingutilizando facialfacial recognitionreconocimiento, find a namenombre
93
233573
2311
y mediante reconocimiento
facial, hallar un nombre
04:07
and publiclyen público availabledisponible informationinformación
94
235884
2669
e información pública
04:10
about that namenombre and that personpersona,
95
238553
1932
sobre ese nombre y esa persona,
04:12
and from that publiclyen público availabledisponible informationinformación
96
240485
2248
y a partir de esa información pública
04:14
inferinferir non-publiclyno públicamente availabledisponible informationinformación,
97
242733
2042
inferir información no pública,
04:16
much more sensitivesensible onesunos
98
244775
1606
mucho más sensible,
04:18
whichcual you linkenlazar back to the facecara?
99
246381
1492
para luego asociarla
a aquel rostro?
04:19
And the answerresponder is, yes, we can, and we did.
100
247873
1916
La respuesta es sí se puede,
y lo hicimos.
04:21
Of coursecurso, the accuracyexactitud keepsmantiene gettingconsiguiendo worsepeor.
101
249789
2568
Por supuesto, la precisión
va desmejorando a cada paso.
04:24
[27% of subjects'asignaturas' first 5 SSNSSN digitsdígitos identifiedidentificado (with 4 attemptsintentos)]
102
252357
944
[Se identificó el 27% de los 5 primeros dígitos
del SSN de los sujetos (con 4 intentos)]
04:25
But in facthecho, we even decideddecidido to developdesarrollar an iPhoneiPhone appaplicación
103
253301
3827
Decidimos incluso,
desarrollar una app para iPhone,
04:29
whichcual usesusos the phone'steléfono internalinterno cameracámara
104
257128
2715
que usa la cámara interna del móvil
04:31
to take a shotDisparo of a subjecttema
105
259843
1600
para tomar una foto del sujeto
04:33
and then uploadsubir it to a cloudnube
106
261443
1487
y subirla a la nube,
04:34
and then do what I just describeddescrito to you in realreal time:
107
262930
2662
y luego hacer lo que les describí
en tiempo real:
04:37
looking for a matchpartido, findinghallazgo publicpúblico informationinformación,
108
265592
2088
cotejarla, encontrar
información pública,
04:39
tryingmolesto to inferinferir sensitivesensible informationinformación,
109
267680
1730
tratar de inferir
información sensible,
04:41
and then sendingenviando back to the phoneteléfono
110
269410
2591
y luego enviarla
nuevamente al móvil
04:44
so that it is overlaidsuperpuesto on the facecara of the subjecttema,
111
272001
3609
para ser superpuesta en
el rostro del sujeto,
04:47
an exampleejemplo of augmentedaumentado realityrealidad,
112
275610
1901
un ejemplo de realidad aumentada,
04:49
probablyprobablemente a creepyhorripilante exampleejemplo of augmentedaumentado realityrealidad.
113
277511
2451
quizá un ejemplo escalofriante
de realidad aumentada.
04:51
In facthecho, we didn't developdesarrollar the appaplicación to make it availabledisponible,
114
279962
3339
De hecho, no desarrollamos la app
para que estuviera disponible,
04:55
just as a proofprueba of conceptconcepto.
115
283301
1922
sino como una prueba de concepto.
04:57
In facthecho, take these technologiestecnologías
116
285223
2313
Incluso tomamos estas tecnologías
04:59
and pushempujar them to theirsu logicallógico extremeextremo.
117
287536
1837
y las llevamos al extremo lógico.
05:01
ImagineImagina a futurefuturo in whichcual strangersextraños around you
118
289373
2719
Imaginen un futuro en el que
los extraños que los rodeen
05:04
will look at you throughmediante theirsu GoogleGoogle GlassesGafas
119
292092
2311
los miren con sus gafas Google
05:06
or, one day, theirsu contactcontacto lenseslentes,
120
294403
2307
o, algún día, con sus lentes de contacto,
05:08
and use sevensiete or eightocho datadatos pointspuntos about you
121
296710
4020
y usen 7 o 8 datos de ustedes
05:12
to inferinferir anything elsemás
122
300730
2582
para inferir todo lo demás
05:15
whichcual maymayo be knownconocido about you.
123
303312
2603
que pueda saberse.
05:17
What will this futurefuturo withoutsin secretsmisterios look like?
124
305915
4794
¿Cómo será
ese futuro sin secretos?
05:22
And should we carecuidado?
125
310709
1964
¿Debería importarnos?
05:24
We maymayo like to believe
126
312673
1891
Nos gustaría creer
05:26
that the futurefuturo with so much wealthriqueza of datadatos
127
314564
3040
que un futuro con tanta
riqueza de datos
05:29
would be a futurefuturo with no more biasessesgos,
128
317604
2514
sería un futuro sin más prejuicios,
05:32
but in facthecho, havingteniendo so much informationinformación
129
320118
3583
pero, de hecho, contar
con tanta información
05:35
doesn't mean that we will make decisionsdecisiones
130
323701
2191
no significa que
tomaremos decisiones
05:37
whichcual are more objectiveobjetivo.
131
325892
1706
más objetivas.
05:39
In anotherotro experimentexperimentar, we presentedpresentado to our subjectsasignaturas
132
327598
2560
En otro experimento,
presentamos a nuestros sujetos
05:42
informationinformación about a potentialpotencial jobtrabajo candidatecandidato.
133
330158
2246
información sobre un
potencial candidato laboral.
05:44
We includedincluido in this informationinformación some referencesreferencias
134
332404
3178
incluimos algunas referencias
05:47
to some funnygracioso, absolutelyabsolutamente legallegal,
135
335582
2646
a cierta información
totalmente legal,
05:50
but perhapsquizás slightlyligeramente embarrassingembarazoso informationinformación
136
338228
2465
divertida pero
un poco embarazosa,
05:52
that the subjecttema had postedal corriente onlineen línea.
137
340693
2020
que el candidato había
publicado en línea.
05:54
Now interestinglycuriosamente, amongentre our subjectsasignaturas,
138
342713
2366
Curiosamente,
entre nuestros sujetos
05:57
some had postedal corriente comparablecomparable informationinformación,
139
345079
3083
algunos habían publicado
información similar
06:00
and some had not.
140
348162
2362
y otros no.
06:02
WhichCual groupgrupo do you think
141
350524
1949
¿Qué grupo ceeen
06:04
was more likelyprobable to judgejuez harshlyduramente our subjecttema?
142
352473
4552
que mostró propensión a juzgar
con más severidad a nuestro sujeto?
06:09
ParadoxicallyParadójicamente, it was the groupgrupo
143
357025
1957
Paradójicamente, fue el grupo
06:10
who had postedal corriente similarsimilar informationinformación,
144
358982
1733
que había publicado
información similar,
06:12
an exampleejemplo of moralmoral dissonancedisonancia.
145
360715
2942
un ejemplo de disonancia moral.
06:15
Now you maymayo be thinkingpensando,
146
363657
1750
Quizá estén pensando
06:17
this does not applyaplicar to me,
147
365407
1702
que eso no los afecta a Uds.
06:19
because I have nothing to hideesconder.
148
367109
2162
porque no tienen nada que ocultar.
06:21
But in facthecho, privacyintimidad is not about
149
369271
2482
Pero, de hecho,
la privacidad no tiene que ver
06:23
havingteniendo something negativenegativo to hideesconder.
150
371753
3676
con tener algo
negativo que ocultar.
06:27
ImagineImagina that you are the H.R. directordirector
151
375429
2354
Imaginen que son
el director de RR.HH.
06:29
of a certaincierto organizationorganización, and you receiverecibirsumsumaés,
152
377783
2947
de cierta empresa,
que reciben unas hojas de vida
06:32
and you decidedecidir to find more informationinformación about the candidatescandidatos.
153
380730
2473
y deciden buscar más información
sobre los candidatos.
06:35
ThereforePor lo tanto, you GoogleGoogle theirsu namesnombres
154
383203
2460
Entonces, googlean sus nombres
06:37
and in a certaincierto universeuniverso,
155
385663
2240
y en determinado universo
06:39
you find this informationinformación.
156
387903
2008
encuentran esta información--
06:41
Or in a parallelparalela universeuniverso, you find this informationinformación.
157
389911
4437
O en un universo paralelo,
encuentran esta información.
06:46
Do you think that you would be equallyIgualmente likelyprobable
158
394348
2717
¿Creen que todos los candidatos
tendrían con Uds.
06:49
to call eitherya sea candidatecandidato for an interviewentrevista?
159
397065
2803
la misma oportunidad de ser
llamados para una entrevista?
06:51
If you think so, then you are not
160
399868
2282
Si piensan que sí,
entonces no son
06:54
like the U.S. employersempleadores who are, in facthecho,
161
402150
2582
como los empleadores de
EE.UU. ya que, de hecho,
06:56
partparte of our experimentexperimentar, meaningsentido we did exactlyexactamente that.
162
404732
3307
en algún punto de nuestro experimento
hicimos exactamente eso.
07:00
We createdcreado FacebookFacebook profilesperfiles, manipulatingmanipulando traitsrasgos,
163
408039
3182
Creamos perfiles de Facebook,
manipulamos los rasgos,
07:03
then we startedempezado sendingenviando out résumsumaés to companiescompañías in the U.S.,
164
411221
2851
y luego empezamos a enviar
hojas de vida a empresas en EE.UU.,
07:06
and we detecteddetectado, we monitoredmonitoreado,
165
414072
1908
y detectamos, monitoreamos,
07:07
whethersi they were searchingbuscando for our candidatescandidatos,
166
415980
2393
si estaban buscando información
de nuestros candidatos,
07:10
and whethersi they were actinginterino on the informationinformación
167
418373
1832
y si actuaban con base
en la información
07:12
they foundencontró on socialsocial mediamedios de comunicación. And they were.
168
420205
1938
que encontraban en los
medios sociales. Y lo hicieron.
07:14
DiscriminationDiscriminación was happeningsucediendo throughmediante socialsocial mediamedios de comunicación
169
422143
2101
Se discriminó con base
en los medios sociales
07:16
for equallyIgualmente skilledexperto candidatescandidatos.
170
424244
3073
a candidatos
con iguales habilidades.
07:19
Now marketersvendedores like us to believe
171
427317
4575
Los vendedores quieren
que creamos
07:23
that all informationinformación about us will always
172
431892
2269
que toda la información
sobre nosotros siempre
07:26
be used in a mannermanera whichcual is in our favorfavor.
173
434161
3273
será usada a nuestro favor.
07:29
But think again. Why should that be always the casecaso?
174
437434
3715
Pero piensen de nuevo. ¿Por qué
habría de ser siempre así?
07:33
In a moviepelícula whichcual camevino out a fewpocos yearsaños agohace,
175
441149
2664
En una película
de hace unos años,
07:35
"MinorityMinoría ReportInforme," a famousfamoso sceneescena
176
443813
2553
"Minority Report",
en una escena famosa
07:38
had TomTom CruiseCrucero walkcaminar in a mallcentro comercial
177
446366
2576
Tom Cruise camina
por un centro comercial
07:40
and holographicholográfico personalizedpersonalizado advertisingpublicidad
178
448942
3776
rodeado de publicidad
07:44
would appearAparecer around him.
179
452718
1835
holográfica personalizada.
07:46
Now, that moviepelícula is setconjunto in 2054,
180
454553
3227
La película transcurre en el 2054,
07:49
about 40 yearsaños from now,
181
457780
1642
dentro de unos 40 años,
07:51
and as excitingemocionante as that technologytecnología looksmiradas,
182
459422
2908
y aunque la tecnología
luce emocionante,
07:54
it alreadyya vastlyvastamente underestimatessubestima
183
462330
2646
subestima en mucho
07:56
the amountcantidad of informationinformación that organizationsorganizaciones
184
464976
2140
la cantidad de información
que las organizaciones
07:59
can gatherreunir about you, and how they can use it
185
467116
2483
pueden recolectar sobre nosotros,
y la forma de usarla
08:01
to influenceinfluencia you in a way that you will not even detectdetectar.
186
469599
3398
para influir en nosotros
de maneras imperceptibles.
08:04
So as an exampleejemplo, this is anotherotro experimentexperimentar
187
472997
2103
Como ejemplo,
está este otro experimento
08:07
actuallyactualmente we are runningcorriendo, not yettodavía completedterminado.
188
475100
2273
que estamos haciendo
y que todavía no terminamos.
08:09
ImagineImagina that an organizationorganización has accessacceso
189
477373
2319
Imaginemos que una
organización tiene acceso
08:11
to your listlista of FacebookFacebook friendsamigos,
190
479692
2056
a tu lista de amigos de Facebook,
08:13
and throughmediante some kindtipo of algorithmalgoritmo
191
481748
1772
y mediante algún tipo de algoritmo
08:15
they can detectdetectar the two friendsamigos that you like the mostmás.
192
483520
3734
puede identificar
sus dos mejores amigos.
08:19
And then they createcrear, in realreal time,
193
487254
2280
Que luego crean, en tiempo real,
08:21
a facialfacial compositecompuesto of these two friendsamigos.
194
489534
2842
un rostro compuesto
de estos dos amigos.
08:24
Now studiesestudios prioranterior to oursla nuestra have shownmostrado that people
195
492376
3069
Estudios previos al nuestro
han demostrado que las personas
08:27
don't recognizereconocer any longermás even themselvessí mismos
196
495445
2885
no se reconocen ni a sí mismas
08:30
in facialfacial compositescompuestos, but they reactreaccionar
197
498330
2462
en rostros compuestos,
pero reaccionan
08:32
to those compositescompuestos in a positivepositivo mannermanera.
198
500792
2117
a esas composiciones
de manera positiva.
08:34
So nextsiguiente time you are looking for a certaincierto productproducto,
199
502909
3415
Y entonces, la próxima vez
que busquen algún producto
08:38
and there is an adanuncio suggestingsugerencia you to buycomprar it,
200
506324
2559
y que haya una publicidad
sugiriéndoles que lo compren,
08:40
it will not be just a standardestándar spokespersonportavoz.
201
508883
2907
no será un vendedor común.
08:43
It will be one of your friendsamigos,
202
511790
2313
Será uno de sus amigos,
08:46
and you will not even know that this is happeningsucediendo.
203
514103
3303
y ni siquiera sabrán
lo que está pasando.
08:49
Now the problemproblema is that
204
517406
2413
El problema es que
08:51
the currentcorriente policypolítica mechanismsmecanismos we have
205
519819
2519
los mecanismos que tenemos
en la política acutal
08:54
to protectproteger ourselvesNosotros mismos from the abusesabusos of personalpersonal informationinformación
206
522338
3438
para la protección contra los abusos
de la información personal
08:57
are like bringingtrayendo a knifecuchillo to a gunfighttiroteo.
207
525776
2984
son como llevar un cuchillo
a un tiroteo.
09:00
One of these mechanismsmecanismos is transparencytransparencia,
208
528760
2913
Uno de estos mecanismos
es la transparencia,
09:03
tellingnarración people what you are going to do with theirsu datadatos.
209
531673
3200
decirle a las personas
lo que uno va a hacer con sus datos.
09:06
And in principleprincipio, that's a very good thing.
210
534873
2106
En principio,
eso es algo muy bueno.
09:08
It's necessarynecesario, but it is not sufficientsuficiente.
211
536979
3667
Es necesario,
pero no es suficiente.
09:12
TransparencyTransparencia can be misdirectedmal dirigido.
212
540646
3698
La transparencia
puede estar mal dirigida.
09:16
You can tell people what you are going to do,
213
544344
2104
Uno puede contarle
a la gente lo que hará,
09:18
and then you still nudgeempujar them to discloserevelar
214
546448
2232
y luego empujarlos a revelar
09:20
arbitraryarbitrario amountscantidades of personalpersonal informationinformación.
215
548680
2623
cantidades arbitrarias
de información personal.
09:23
So in yettodavía anotherotro experimentexperimentar, this one with studentsestudiantes,
216
551303
2886
Por eso en un experimento más,
este con estudiantes,
09:26
we askedpreguntó them to provideproporcionar informationinformación
217
554189
3058
les pedimos que
nos dieran información
09:29
about theirsu campuscampus behaviorcomportamiento,
218
557247
1813
sobre su comportamiento
en el campus,
09:31
includingincluso prettybonita sensitivesensible questionspreguntas, suchtal as this one.
219
559060
2940
formulándoles preguntas
tan sensibles como estas.
09:34
[Have you ever cheatedengañado in an examexamen?]
220
562000
621
[¿Alguna vez te copiaste en un examen?]
09:34
Now to one groupgrupo of subjectsasignaturas, we told them,
221
562621
2300
A un grupo de sujetos les dijimos:
09:36
"Only other studentsestudiantes will see your answersrespuestas."
222
564921
2841
"Solo otro grupo de estudiantes
verá sus respuestas".
09:39
To anotherotro groupgrupo of subjectsasignaturas, we told them,
223
567762
1579
A otro grupo de sujetos
les dijimos:
09:41
"StudentsEstudiantes and facultyfacultad will see your answersrespuestas."
224
569341
3561
"Sus respuestas serán vistas
por estudiantes y profesores".
09:44
TransparencyTransparencia. NotificationNotificación. And sure enoughsuficiente, this workedtrabajó,
225
572902
2591
Transparencia. Notificación.
Y por supuesto, esto funcionó,
09:47
in the sensesentido that the first groupgrupo of subjectsasignaturas
226
575493
1407
en el sentido de que el
primer grupo de sujetos
09:48
were much more likelyprobable to discloserevelar than the secondsegundo.
227
576900
2568
fue mucho más propenso a revelar
información que el segundo.
09:51
It makeshace sensesentido, right?
228
579468
1520
Tiene sentido, ¿no?
09:52
But then we addedadicional the misdirectionmala dirección.
229
580988
1490
Pero luego añadimos
un distractor.
09:54
We repeatedrepetido the experimentexperimentar with the samemismo two groupsgrupos,
230
582478
2760
Repetimos el experimento
con los mismos dos grupos,
09:57
this time addingagregando a delayretrasar
231
585238
2427
esta vez añadiendo una demora
09:59
betweenEntre the time we told subjectsasignaturas
232
587665
2935
entre el tiempo en que
le dijimos a los sujetos
10:02
how we would use theirsu datadatos
233
590600
2080
cómo usaríamos sus datos
10:04
and the time we actuallyactualmente startedempezado answeringrespondiendo the questionspreguntas.
234
592680
4388
y el tiempo en que empezamos
a [formular] las preguntas.
10:09
How long a delayretrasar do you think we had to addañadir
235
597068
2561
¿Cuánta demora creen
que tuvimos que añadir
10:11
in orderorden to nullifyanular the inhibitoryinhibitorio effectefecto
236
599629
4613
para anular el efecto inhibidor
10:16
of knowingconocimiento that facultyfacultad would see your answersrespuestas?
237
604242
3411
de saber que los profesores
verían sus respuestas?
10:19
TenDiez minutesminutos?
238
607653
1780
¿10 minutos?
10:21
FiveCinco minutesminutos?
239
609433
1791
¿5 minutos?
10:23
One minuteminuto?
240
611224
1776
¿1 minuto?
10:25
How about 15 secondssegundos?
241
613000
2049
¿Qué tal 15 segundos?
10:27
FifteenQuince secondssegundos were sufficientsuficiente to have the two groupsgrupos
242
615049
2668
Quince segundos fueron suficientes
para que ambos grupos
10:29
discloserevelar the samemismo amountcantidad of informationinformación,
243
617717
1568
revelaran la misma cantidad
de información,
10:31
as if the secondsegundo groupgrupo now no longermás carescuidados
244
619285
2746
como si al segundo grupo
no le importara más
10:34
for facultyfacultad readingleyendo theirsu answersrespuestas.
245
622031
2656
que los profesores
leyeran sus respuestas.
10:36
Now I have to admitadmitir that this talk so farlejos
246
624687
3336
Tengo que admitir que
esta charla hasta ahora
10:40
maymayo soundsonar exceedinglyextremadamente gloomymelancólico,
247
628023
2480
puede sonar en extremo negativa,
10:42
but that is not my pointpunto.
248
630503
1721
pero esa no es mi intención.
10:44
In facthecho, I want to sharecompartir with you the facthecho that
249
632224
2699
De hecho, quiero compartir con Uds.
10:46
there are alternativesalternativas.
250
634923
1772
las alternativas que hay.
10:48
The way we are doing things now is not the only way
251
636695
2499
La forma en que hacemos
las cosas ahora no es la única
10:51
they can donehecho, and certainlyciertamente not the bestmejor way
252
639194
3037
forma de hacerlas,
y ciertamente no es la mejor
10:54
they can be donehecho.
253
642231
2027
forma en que pueden ser hechas.
10:56
When someonealguien tellsdice you, "People don't carecuidado about privacyintimidad,"
254
644258
4171
Cuando alguien les diga: "La gente no se
preocupa por la privacidad",
11:00
considerconsiderar whethersi the gamejuego has been designeddiseñado
255
648429
2642
piensen si el juego
no ha sido diseñado
11:03
and riggedamañado so that they cannotno poder carecuidado about privacyintimidad,
256
651071
2724
y manipulado para que no se
preocupen por la privacidad,
11:05
and comingviniendo to the realizationrealización that these manipulationsmanipulaciones occurocurrir
257
653795
3262
y cuando concluyamos que
que estas manipulaciones ocurren,
11:09
is alreadyya halfwayMedio camino throughmediante the processproceso
258
657057
1607
ya estaremos a mitad de camino
11:10
of beingsiendo ablepoder to protectproteger yourselftú mismo.
259
658664
2258
de poder autoprotegernos.
11:12
When someonealguien tellsdice you that privacyintimidad is incompatibleincompatible
260
660922
3710
Si alguien les dice que
la privacidad es incompatible
11:16
with the benefitsbeneficios of biggrande datadatos,
261
664632
1849
con los beneficios del "big data",
11:18
considerconsiderar that in the last 20 yearsaños,
262
666481
2473
piensen que en los últimos 20 años,
11:20
researchersinvestigadores have createdcreado technologiestecnologías
263
668954
1917
los investigadores
han creado tecnologías
11:22
to allowpermitir virtuallyvirtualmente any electronicelectrónico transactionsactas
264
670871
3318
que permiten que virtualmente
cualquier transacción electrónica
11:26
to take placelugar in a more privacy-preservingpreservación de la privacidad mannermanera.
265
674189
3749
se realice en formas más
preservadoras de la privacidad.
11:29
We can browsevistazo the InternetInternet anonymouslyanónimamente.
266
677938
2555
Podemos navegar Internet
en forma anónima.
11:32
We can sendenviar emailscorreos electrónicos that can only be readleer
267
680493
2678
Podemos enviar correos electrónicos
que solo pueda leer
11:35
by the intendeddestinado a recipientrecipiente, not even the NSANSA.
268
683171
3709
el destinatario,
y no la NSA [agencia de seguridad].
11:38
We can have even privacy-preservingpreservación de la privacidad datadatos miningminería.
269
686880
2997
Podemos proteger incluso la privacidad
de la minería de datos.
11:41
In other wordspalabras, we can have the benefitsbeneficios of biggrande datadatos
270
689877
3894
En otras palabras, podemos tener
los beneficios del "big data"
11:45
while protectingprotector privacyintimidad.
271
693771
2132
y proteger la privacidad.
11:47
Of coursecurso, these technologiestecnologías implyimplicar a shiftingcambiando
272
695903
3791
Estas tecnologías, claro está,
implican una inversión
11:51
of costcosto and revenuesingresos
273
699694
1546
de la relacón costo- beneficio
11:53
betweenEntre datadatos holderstitulares and datadatos subjectsasignaturas,
274
701240
2107
para los tenedores de los datos,
11:55
whichcual is why, perhapsquizás, you don't hearoír more about them.
275
703347
3453
razón por la cual, quizá,
no escuchamos mucho de ellas.
11:58
WhichCual bringstrae me back to the GardenJardín of EdenEdén.
276
706800
3706
Eso me lleva de vuelta
al Jardín del Edén.
12:02
There is a secondsegundo privacyintimidad interpretationinterpretación
277
710506
2780
Hay una segunda interpretación
de la privacidad
12:05
of the storyhistoria of the GardenJardín of EdenEdén
278
713286
1809
en la historia del Jardín del Edén
12:07
whichcual doesn't have to do with the issueproblema
279
715095
2096
que no tiene que ver con el tema
12:09
of AdamAdán and EveVíspera feelingsensación nakeddesnudo
280
717191
2225
del desnudo de Adán y Eva
12:11
and feelingsensación ashamedavergonzado.
281
719416
2381
ni con sentir vergüenza.
12:13
You can find echoesecos of this interpretationinterpretación
282
721797
2781
Pueden encontrar ecos
de esta interpretación
12:16
in JohnJohn Milton'sMilton "ParadiseParaíso LostPerdido."
283
724578
2782
en "El paraíso perdido"
de John Milton.
12:19
In the gardenjardín, AdamAdán and EveVíspera are materiallymaterialmente contentcontenido.
284
727360
4197
En el jardín, Adán y Eva están
materialmente contentos.
12:23
They're happycontento. They are satisfiedsatisfecho.
285
731557
2104
Están felices. Están satisfechos.
12:25
Howeversin embargo, they alsoademás lackausencia knowledgeconocimiento
286
733661
2293
No obstante, carecen de conocimiento
12:27
and self-awarenessconciencia de sí mismo.
287
735954
1640
y de autoconciencia.
12:29
The momentmomento they eatcomer the aptlyacertadamente namedllamado
288
737594
3319
En el momento en que
comen el bien llamado
12:32
fruitFruta of knowledgeconocimiento,
289
740913
1293
fruto del conocimiento,
12:34
that's when they discoverdescubrir themselvessí mismos.
290
742206
2605
es cuando se descubren a sí mismos.
12:36
They becomevolverse awareconsciente. They achievelograr autonomyautonomía.
291
744811
4031
Se hacen conscientes.
Logran autonomía.
12:40
The priceprecio to paypaga, howeversin embargo, is leavingdejando the gardenjardín.
292
748842
3126
El precio a pagar, sin embargo,
es abandonar el jardín.
12:43
So privacyintimidad, in a way, is bothambos the meansmedio
293
751968
3881
La privacidad, en cierto modo,
es tanto el medio
12:47
and the priceprecio to paypaga for freedomlibertad.
294
755849
2962
como el precio a pagar
por la libertad.
12:50
Again, marketersvendedores tell us
295
758811
2770
Y los vendedores
otra vez nos dicen
12:53
that biggrande datadatos and socialsocial mediamedios de comunicación
296
761581
3019
que el "big data"
y los medios sociales
12:56
are not just a paradiseparaíso of profitlucro for them,
297
764600
2979
no son solo un paraíso
de ganancias para ellos,
12:59
but a GardenJardín of EdenEdén for the restdescanso of us.
298
767579
2457
sino el Jardín del Edén
para el resto de nosotros.
13:02
We get freegratis contentcontenido.
299
770036
1238
Recibimos contenido gratis.
13:03
We get to playjugar AngryEnojado BirdsAves. We get targetedapuntado appsaplicaciones.
300
771274
3123
Podemos jugar a Angry Birds.
Tenemos aplicaciones específicas.
13:06
But in facthecho, in a fewpocos yearsaños, organizationsorganizaciones
301
774397
2897
Pero, de hecho, en unos años,
las organizaciones
13:09
will know so much about us,
302
777294
1609
sabrán tanto de nosotros
13:10
they will be ablepoder to inferinferir our desiresdeseos
303
778903
2710
que podrán inferir
nuestros deseos
13:13
before we even formformar them, and perhapsquizás
304
781613
2204
incluso antes de formularlos
y quizá hasta
13:15
buycomprar productsproductos on our behalffavor
305
783817
2447
compren productos en nuestro nombre
13:18
before we even know we need them.
306
786264
2274
antes de que sepamos
que los necesitamos.
13:20
Now there was one EnglishInglés authorautor
307
788538
3237
Hay un escritor inglés
13:23
who anticipatedanticipado this kindtipo of futurefuturo
308
791775
3045
que anticipó esta especie de futuro
13:26
where we would tradecomercio away
309
794820
1405
en el que cambiaríamos
13:28
our autonomyautonomía and freedomlibertad for comfortcomodidad.
310
796225
3548
nuestra autonomía y libertad
por comodidad--
13:31
Even more so than GeorgeJorge OrwellOrwell,
311
799773
2161
Incluso más que George Orwell.
13:33
the authorautor is, of coursecurso, AldousAldous HuxleyHuxley.
312
801934
2761
El autor es,
por supuesto, Aldous Huxley.
13:36
In "BraveValiente NewNuevo WorldMundo," he imaginesimagina a societysociedad
313
804695
2854
En "Un mundo feliz",
él imagina una sociedad
13:39
where technologiestecnologías that we createdcreado
314
807549
2171
en la que las tecnologías que creamos
13:41
originallyoriginalmente for freedomlibertad
315
809720
1859
en principio para la libertad
13:43
endfin up coercingcoaccionar us.
316
811579
2567
terminan coaccionándonos.
13:46
Howeversin embargo, in the booklibro, he alsoademás offersofertas us a way out
317
814146
4791
Sin embargo, en el libro, él también
nos ofrece una salida
13:50
of that societysociedad, similarsimilar to the pathcamino
318
818937
3438
de esa sociedad, similar al sendero
13:54
that AdamAdán and EveVíspera had to followseguir to leavesalir the gardenjardín.
319
822375
3955
que Adán y Eva tuvieron que
seguir para salir del jardín.
13:58
In the wordspalabras of the SavageSalvaje,
320
826330
2147
En palabras de Savage,
14:00
regainingrecuperando autonomyautonomía and freedomlibertad is possibleposible,
321
828477
3069
recuperar la autonomía
y la libertad es posible,
14:03
althougha pesar de que the priceprecio to paypaga is steepescarpado.
322
831546
2679
aunque el precio
a pagar es elevado.
14:06
So I do believe that one of the definingdefiniendo fightspeleas
323
834225
5715
Por eso creo que una
de las peleas decisivas
14:11
of our timesveces will be the fightlucha
324
839940
2563
de nuestros tiempos
será la pelea
14:14
for the controlcontrolar over personalpersonal informationinformación,
325
842503
2387
por el control de la
información personal,
14:16
the fightlucha over whethersi biggrande datadatos will becomevolverse a forcefuerza
326
844890
3507
la pelea porque el "big data"
se vuelva una fuerza
14:20
for freedomlibertad,
327
848397
1289
de libertad,
14:21
rathermás bien than a forcefuerza whichcual will hiddenlyocultamente manipulatemanipular us.
328
849686
4746
en lugar de una fuerza que nos
manipule desde las sombras.
14:26
Right now, manymuchos of us
329
854432
2593
Muchos de nosotros
14:29
do not even know that the fightlucha is going on,
330
857025
2753
ni siquiera sabemos que
se está dando esta pelea,
14:31
but it is, whethersi you like it or not.
331
859778
2672
pero es así, nos guste o no.
14:34
And at the riskriesgo of playingjugando the serpentserpiente,
332
862450
2804
Y a riesgo de interpretar
a la serpiente,
14:37
I will tell you that the toolsherramientas for the fightlucha
333
865254
2897
les diré que las
herramientas para pelear
14:40
are here, the awarenessconciencia of what is going on,
334
868151
3009
están aquí, la conciencia
de lo que ocurre,
14:43
and in your handsmanos,
335
871160
1355
y en sus manos,
14:44
just a fewpocos clicksclics away.
336
872515
3740
a unos pocos clics de distancia.
14:48
Thank you.
337
876255
1482
Gracias.
14:49
(ApplauseAplausos)
338
877737
4477
(Aplausos)
Translated by Sebastian Betti
Reviewed by Carlos Arturo Morales

▲Back to top

ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com