ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com
TEDGlobal 2013

Alessandro Acquisti: What will a future without secrets look like?

Alessandro Acquisti: Pourquoi le respect de la vie privée est important.

Filmed:
1,423,103 views

La distinction entre public et privé s'est estompée dans la dernière décennie, à la fois en ligne et dans la vraie vie. Alessandro Acquisti est là pour nous expliquer ce que cela signifie, et pourquoi c'est important. Dans cet exposé qui donne à réfléchir et donne parfois le frisson, il nous fait partager les détails de recherches récentes et en cours - y compris un projet qui montre combien il est facile de faire correspondre la photographie d'un étranger avec ses informations personnelles sensibles.
- Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks. Full bio

Double-click the English transcript below to play the video.

00:12
I would like to tell you a storyrécit
0
641
2354
Je voudrais vous raconter une histoire
00:14
connectingde liaison the notoriouscélèbre privacyvie privée incidentincident
1
2995
3176
qui fait le lien
entre le célèbre incident qui s'est produit
00:18
involvingimpliquant AdamAdam and EveEve,
2
6171
2769
dans la vie privée d'Adam et Eve,
00:20
and the remarkableremarquable shiftdécalage in the boundarieslimites
3
8940
3446
et le remarquable
déplacement de la frontière
00:24
betweenentre publicpublic and privateprivé whichlequel has occurredeu lieu
4
12386
2686
entre vie publique et vie privée
qui s'est produit
00:27
in the pastpassé 10 yearsannées.
5
15072
1770
dans les 10 dernières années.
00:28
You know the incidentincident.
6
16842
1298
Vous connaissez l'incident.
00:30
AdamAdam and EveEve one day in the GardenJardin of EdenEden
7
18140
3330
Adam et Eve, un jour,
au Jardin d'Eden,
00:33
realizeprendre conscience de they are nakednu.
8
21470
1843
réalisent qu'ils sont nus.
00:35
They freakFreak out.
9
23313
1500
Ils paniquent.
00:36
And the restdu repos is historyhistoire.
10
24813
2757
On connait la suite.
00:39
NowadaysDe nos jours, AdamAdam and EveEve
11
27570
2188
De nos jours, Adam et Eve
00:41
would probablyProbablement actacte differentlydifféremment.
12
29758
2361
se comporteraient sans doute
différemment.
00:44
[@AdamAdam Last niteNite was a blastexplosion! lovedaimé datDAT applePomme LOLLOL]
13
32119
2268
[@Adam Cette nuit était trop top ! Adoré 7 pom LOL]
00:46
[@EveEve yepYep.. babeBabe, know what happenedarrivé to my pantsJeans/Pantalons thoTho?]
14
34387
1873
[@Eve Ok...Baby, T sais ce ki est arrivé à mon pantalon ?
00:48
We do revealrévéler so much more informationinformation
15
36260
2636
Nous révélons tellement plus d'informations
00:50
about ourselvesnous-mêmes onlineen ligne than ever before,
16
38896
3334
sur nous-mêmes, en ligne,
que jamais auparavant,
00:54
and so much informationinformation about us
17
42230
1704
et tant d'informations
qui nous concernent
00:55
is beingétant collectedrecueilli by organizationsorganisations.
18
43934
2224
sont collectées
par des organisations.
00:58
Now there is much to gainGain and benefitavantage
19
46158
3282
Nous avons certes
beaucoup à gagner et à bénéficier
01:01
from this massivemassif analysisune analyse of personalpersonnel informationinformation,
20
49440
2446
de cette analyse géante
d'informations personnelles,
01:03
or biggros dataLes données,
21
51886
1946
ou Big Data,
01:05
but there are alsoaussi complexcomplexe tradeoffsinconvénients des choix conceptuels that come
22
53832
2638
mais il y a aussi
des contreparties complexes
01:08
from givingdonnant away our privacyvie privée.
23
56470
3098
à abandonner notre vie privée.
01:11
And my storyrécit is about these tradeoffsinconvénients des choix conceptuels.
24
59568
4023
Mon histoire
parle de ces contreparties.
01:15
We startdébut with an observationobservation whichlequel, in my mindesprit,
25
63591
2584
Commençons par une observation qui,
dans mon esprit,
01:18
has becomedevenir clearerplus claire and clearerplus claire in the pastpassé fewpeu yearsannées,
26
66175
3327
est devenue de plus en plus claire
ces dernières années :
01:21
that any personalpersonnel informationinformation
27
69502
2097
toute information personnelle
01:23
can becomedevenir sensitivesensible informationinformation.
28
71599
2285
peut devenir une information sensible.
01:25
Back in the yearan 2000, about 100 billionmilliard photosPhotos
29
73884
4125
En 2000,
environ 100 milliards de photos
01:30
were shotcoup worldwideà l'échelle mondiale,
30
78009
1912
ont été prises dans le monde,
01:31
but only a minusculeminuscule proportionproportion of them
31
79921
3065
mais seule une infime proportion
de celles-ci
01:34
were actuallyréellement uploadedtéléchargé onlineen ligne.
32
82986
1883
ont été mises en ligne.
01:36
In 2010, only on FacebookFacebook, in a singleunique monthmois,
33
84869
3361
En 2010, rien que sur Facebook,
en un seul mois,
01:40
2.5 billionmilliard photosPhotos were uploadedtéléchargé,
34
88230
3270
2,5 milliards de photos
ont été mises en ligne,
01:43
mostles plus of them identifiedidentifié.
35
91500
1882
la plupart identifiées.
01:45
In the sameMême spanenvergure of time,
36
93382
1880
Pendant ce temps,
01:47
computers'des ordinateurs abilitycapacité to recognizereconnaître people in photosPhotos
37
95262
4870
la capacité des ordinateurs
à reconnaître des personnes sur photo
01:52
improvedamélioré by threeTrois ordersordres of magnitudeordre de grandeur.
38
100132
3608
s'est améliorée de trois ordres de grandeur.
01:55
What happensarrive when you combinecombiner
39
103740
1882
Que se passe-t-il quand on combine
01:57
these technologiesles technologies togetherensemble:
40
105622
1501
ces technologies ?
01:59
increasingen augmentant availabilitydisponibilité of facialsoin du visage dataLes données;
41
107123
2658
Disponibilité croissante
des données faciales ;
02:01
improvingaméliorer facialsoin du visage recognizingreconnaissant abilitycapacité by computersdes ordinateurs;
42
109781
3648
capacité améliorée de reconnaissance faciale
par les ordinateurs ;
02:05
but alsoaussi cloudnuage computingl'informatique,
43
113429
2182
mais aussi le cloud computing,
02:07
whichlequel givesdonne anyonen'importe qui in this theaterthéâtre
44
115611
1888
qui donne à chacun de nous
dans cette salle
02:09
the kindgentil of computationalcalcul powerPuissance
45
117499
1560
la puissance de calcul
02:11
whichlequel a fewpeu yearsannées agodepuis was only the domaindomaine
46
119059
1886
qui, il y a quelques années à peine,
était du registre
02:12
of three-lettertrois lettres agenciesagences;
47
120945
1782
des services spéciaux ;
02:14
and ubiquitousomniprésent computingl'informatique,
48
122727
1378
et l'informatique omniprésente,
02:16
whichlequel allowspermet my phonetéléphone, whichlequel is not a supercomputersupercalculateur,
49
124105
2892
qui permet à mon téléphone,
pourtant pas un super-ordinateur,
02:18
to connectrelier to the InternetInternet
50
126997
1671
de se connecter à Internet
02:20
and do there hundredsdes centaines of thousandsmilliers
51
128668
2334
et d'y réaliser des centaines de milliers
02:23
of facevisage metricsmétrique in a fewpeu secondssecondes?
52
131002
2639
de mesures faciales
en quelques secondes.
02:25
Well, we conjectureconjecture that the resultrésultat
53
133641
2628
Et bien, nous émettons l'hypothèse
02:28
of this combinationcombinaison of technologiesles technologies
54
136269
2064
que le résultat
de cette combinaison de technologies
02:30
will be a radicalradical changechangement in our very notionsnotions
55
138333
2888
sera un changement radical
de nos conceptions mêmes
02:33
of privacyvie privée and anonymityanonymat.
56
141221
2257
de la vie privée et de l'anonymat.
02:35
To testtester that, we did an experimentexpérience
57
143478
1993
Pour tester cela,
on a réalisé une expérience
02:37
on CarnegieCarnegie MellonMellon UniversityUniversité campusCampus.
58
145471
2121
sur le campus
de l'Université Carnegie Mellon.
02:39
We askeda demandé studentsélèves who were walkingen marchant by
59
147592
2099
On a demandé
à des étudiants qui passaient
02:41
to participateparticiper in a studyétude,
60
149691
1779
de participer à une étude,
02:43
and we tooka pris a shotcoup with a webcamWebcam,
61
151470
2562
on a pris une photo d'eux
avec une webcam,
02:46
and we askeda demandé them to fillremplir out a surveyenquête on a laptopportable.
62
154032
2782
et on leur a demandé de répondre à un sondage
sur un PC portable.
02:48
While they were fillingremplissage out the surveyenquête,
63
156814
1979
Pendant qu'ils répondaient au sondage,
02:50
we uploadedtéléchargé theirleur shotcoup to a cloud-computingCloud computing clustergrappe,
64
158793
2797
on a téléchargé leur photo
sur un groupe de cloud-computing,
02:53
and we startedcommencé usingen utilisant a facialsoin du visage recognizersystème de reconnaissance
65
161590
1727
et on a utilisé
un outil de reconnaissance faciale
02:55
to matchrencontre that shotcoup to a databasebase de données
66
163317
2405
pour faire correspondre cette photo
à une base de données
02:57
of some hundredsdes centaines of thousandsmilliers of imagesimages
67
165722
2393
de centaines de milliers d'images,
03:00
whichlequel we had downloadedtéléchargé from FacebookFacebook profilesprofils des conseils scolaires.
68
168115
3596
qu'on avait téléchargée
depuis des profils Facebook.
03:03
By the time the subjectassujettir reachedatteint the last pagepage
69
171711
3259
Avant que le sujet
n'ait atteint la dernière page du sondage,
03:06
on the surveyenquête, the pagepage had been dynamicallydynamiquement updatedactualisé
70
174970
3347
celle-ci avait été mise à jour
de façon dynamique
03:10
with the 10 bestmeilleur matchingcorrespondant photosPhotos
71
178317
2313
avec les 10 meilleures photos correspondantes
03:12
whichlequel the recognizersystème de reconnaissance had founda trouvé,
72
180630
2285
que l'outil de reconnaissance avait trouvées,
03:14
and we askeda demandé the subjectssujets to indicateindiquer
73
182915
1738
et on a demandé aux sujets d'indiquer
03:16
whetherqu'il s'agisse he or she founda trouvé themselvesse in the photophoto.
74
184653
4120
si ils ou elles s'étaient reconnus sur la photo.
03:20
Do you see the subjectassujettir?
75
188773
3699
Vous voyez le sujet ?
03:24
Well, the computerordinateur did, and in factfait did so
76
192472
2845
Et bien, l'ordinateur l'avait vu,
et en fait, il l'a vu
03:27
for one out of threeTrois subjectssujets.
77
195317
2149
chez un sujet sur trois.
03:29
So essentiallyessentiellement, we can startdébut from an anonymousanonyme facevisage,
78
197466
3184
On peut donc partir d'un visage anonyme,
03:32
offlinehors ligne or onlineen ligne, and we can use facialsoin du visage recognitionreconnaissance
79
200650
3484
en ligne ou hors ligne,
et on peut utiliser la reconnaissance faciale
03:36
to give a nameprénom to that anonymousanonyme facevisage
80
204134
2360
pour donner un nom à ce visage anonyme
03:38
thanksMerci to socialsocial mediamédias dataLes données.
81
206494
2108
grâce aux données des réseaux sociaux.
03:40
But a fewpeu yearsannées back, we did something elseautre.
82
208602
1872
Mais quelques années auparavant,
on a fait quelque chose d'autre.
03:42
We startedcommencé from socialsocial mediamédias dataLes données,
83
210474
1823
A partir des données des réseaux sociaux,
03:44
we combinedcombiné it statisticallystatistiquement with dataLes données
84
212297
3051
combinées statistiquement avec les données
03:47
from U.S. governmentgouvernement socialsocial securitySécurité,
85
215348
2102
de la Sécurité Sociale
du gouvernement américain,
03:49
and we endedterminé up predictingprédire socialsocial securitySécurité numbersNombres,
86
217450
3324
on a réussi à déduire
les numéros de sécurité sociale,
03:52
whichlequel in the UnitedUnie StatesÉtats
87
220774
1512
ce qui est, aux Etats-Unis,
03:54
are extremelyextrêmement sensitivesensible informationinformation.
88
222286
2040
une information extrêmement sensible.
03:56
Do you see where I'm going with this?
89
224326
2093
Vous voyez où je veux en venir ?
03:58
So if you combinecombiner the two studiesétudes togetherensemble,
90
226419
2922
Si vous combinez les deux études,
04:01
then the questionquestion becomesdevient,
91
229341
1512
la question devient :
04:02
can you startdébut from a facevisage and,
92
230853
2720
peut-on partir d'un visage et,
04:05
usingen utilisant facialsoin du visage recognitionreconnaissance, find a nameprénom
93
233573
2311
en utilisant la reconnaissance faciale,
trouver le nom
04:07
and publiclyau public availabledisponible informationinformation
94
235884
2669
et les informations disponibles
de façon publique
04:10
about that nameprénom and that personla personne,
95
238553
1932
sur ce nom et sur cette personne,
04:12
and from that publiclyau public availabledisponible informationinformation
96
240485
2248
puis, à partir de ces informations publiques,
04:14
inferinférer non-publiclynon publique availabledisponible informationinformation,
97
242733
2042
en déduire des informations
non publiques,
04:16
much more sensitivesensible onesceux
98
244775
1606
beaucoup plus sensibles,
04:18
whichlequel you linklien back to the facevisage?
99
246381
1492
que l'on peut relier au visage ?
04:19
And the answerrépondre is, yes, we can, and we did.
100
247873
1916
Et la réponse est, oui,
on peut, et on l'a fait.
04:21
Of coursecours, the accuracyprécision keepsgarde gettingobtenir worsepire.
101
249789
2568
Bien sûr,
la précision est de pire en pire.
04:24
[27% of subjects'des sujets first 5 SSNSSN digitschiffres identifiedidentifié (with 4 attemptstentatives)]
102
252357
944
[27% des 5 premiers chiffres
du numéro de SS identifiés (après 4 essais)]
04:25
But in factfait, we even decideddécidé to developdévelopper an iPhoneiPhone appapplication
103
253301
3827
En fait, nous avons même décidé
de développer une application iPhone
04:29
whichlequel usesles usages the phone'sTéléphones internalinterne cameracaméra
104
257128
2715
qui utilise la caméra interne du téléphone
04:31
to take a shotcoup of a subjectassujettir
105
259843
1600
pour prendre un sujet en photo
04:33
and then uploadtélécharger it to a cloudnuage
106
261443
1487
et la télécharger sur le cloud
04:34
and then do what I just describeddécrit to you in realréal time:
107
262930
2662
et puis faire ce que je vous ai décrit
en temps réel :
04:37
looking for a matchrencontre, findingdécouverte publicpublic informationinformation,
108
265592
2088
chercher une correspondance,
trouver des informations publiques,
04:39
tryingen essayant to inferinférer sensitivesensible informationinformation,
109
267680
1730
essayer d'en déduire
des informations sensibles,
04:41
and then sendingenvoi back to the phonetéléphone
110
269410
2591
et la renvoyer sur le téléphone
04:44
so that it is overlaidsuperposées on the facevisage of the subjectassujettir,
111
272001
3609
pour qu'elle s'affiche
sur le visage du sujet,
04:47
an exampleExemple of augmentedaugmenté realityréalité,
112
275610
1901
un exemple de réalité augmentée,
04:49
probablyProbablement a creepychair de poule exampleExemple of augmentedaugmenté realityréalité.
113
277511
2451
probablement un exemple effrayant
de réalité augmentée.
04:51
In factfait, we didn't developdévelopper the appapplication to make it availabledisponible,
114
279962
3339
En fait, nous n'avons pas développé l'appli
pour la rendre publique,
04:55
just as a proofpreuve of conceptconcept.
115
283301
1922
mais seulement
comme une preuve du concept.
04:57
In factfait, take these technologiesles technologies
116
285223
2313
En fait, prenez ces technologies,
04:59
and pushpousser them to theirleur logicallogique extremeextrême.
117
287536
1837
et poussez-les
jusqu'à leur extrémité logique.
05:01
ImagineImaginez a futureavenir in whichlequel strangersétrangers around you
118
289373
2719
Imaginez un futur
où des inconnus autour de vous
05:04
will look at you throughpar theirleur GoogleGoogle GlassesLunettes
119
292092
2311
vous regarderont
à travers leurs Google Glasses
05:06
or, one day, theirleur contactcontact lenseslentilles,
120
294403
2307
ou bien, un jour, leurs lentilles de contact,
05:08
and use sevenSept or eighthuit dataLes données pointspoints about you
121
296710
4020
et utiliseront 7 ou 8 données sur vous
05:12
to inferinférer anything elseautre
122
300730
2582
pour en déduire n'importe quoi d'autre
05:15
whichlequel maymai be knownconnu about you.
123
303312
2603
qui pourrait être connu à votre sujet.
05:17
What will this futureavenir withoutsans pour autant secretssecrets look like?
124
305915
4794
A quoi ressemblera ce futur
sans secrets ?
05:22
And should we carese soucier?
125
310709
1964
Et devons-nous
nous en préoccuper ?
05:24
We maymai like to believe
126
312673
1891
On pourrait aimer croire
05:26
that the futureavenir with so much wealthrichesse of dataLes données
127
314564
3040
qu'un futur avec une telle richesse de données
05:29
would be a futureavenir with no more biasesbiais,
128
317604
2514
serait un futur sans plus de parti-pris,
05:32
but in factfait, havingayant so much informationinformation
129
320118
3583
mais en fait, avoir autant d'informations
05:35
doesn't mean that we will make decisionsles décisions
130
323701
2191
ne veut pas dire
que nous prendrons des décisions
05:37
whichlequel are more objectiveobjectif.
131
325892
1706
plus objectives.
05:39
In anotherun autre experimentexpérience, we presentedprésenté to our subjectssujets
132
327598
2560
Dans une autre expérience,
nous avons présenté à nos sujets
05:42
informationinformation about a potentialpotentiel jobemploi candidatecandidat.
133
330158
2246
des informations à propos
d'un candidat potentiel à un emploi.
05:44
We includedinclus in this informationinformation some referencesles références
134
332404
3178
Nous avons inclus dans ces informations
des références à des choses
05:47
to some funnydrôle, absolutelyabsolument legallégal,
135
335582
2646
plutôt drôles, absolument légales,
05:50
but perhapspeut être slightlylégèrement embarrassingembarrassant informationinformation
136
338228
2465
mais peut-être un peu embarrassantes
05:52
that the subjectassujettir had postedposté onlineen ligne.
137
340693
2020
que le sujet avait postées en ligne.
05:54
Now interestinglyintéressant, amongparmi our subjectssujets,
138
342713
2366
De façon intéressante,
parmi nos sujets,
05:57
some had postedposté comparablecomparable informationinformation,
139
345079
3083
certains avaient posté
des choses de même nature,
06:00
and some had not.
140
348162
2362
et d'autres non.
06:02
WhichQui groupgroupe do you think
141
350524
1949
Quel groupe, d'après vous,
06:04
was more likelyprobable to judgejuge harshlydurement our subjectassujettir?
142
352473
4552
a été le plus enclin
à juger durement notre sujet ?
06:09
ParadoxicallyParadoxalement, it was the groupgroupe
143
357025
1957
De façon paradoxale,
c'est le groupe
06:10
who had postedposté similarsimilaire informationinformation,
144
358982
1733
qui avait posté des choses similaires,
06:12
an exampleExemple of moralmoral dissonancedissonance.
145
360715
2942
un exemple de dissonance morale.
06:15
Now you maymai be thinkingen pensant,
146
363657
1750
Vous pourriez vous dire,
06:17
this does not applyappliquer to me,
147
365407
1702
ceci ne s'applique pas à moi,
06:19
because I have nothing to hidecacher.
148
367109
2162
parce que je n'ai rien à cacher.
06:21
But in factfait, privacyvie privée is not about
149
369271
2482
Mais en réalité,
la vie privée n'a rien à voir
06:23
havingayant something negativenégatif to hidecacher.
150
371753
3676
avec le fait d'avoir quelque chose
de négatif à cacher.
06:27
ImagineImaginez that you are the H.R. directorréalisateur
151
375429
2354
Imaginez que vous êtes le directeur des R.H.
06:29
of a certaincertain organizationorganisation, and you receiverecevoirsumsommeés,
152
377783
2947
d'une certaine organisation,
et que vous receviez des CV,
06:32
and you decidedécider to find more informationinformation about the candidatescandidats.
153
380730
2473
et que vous décidiez de trouver plus d'informations
au sujet de vos candidats.
06:35
ThereforeC’est pourquoi, you GoogleGoogle theirleur namesdes noms
154
383203
2460
Pour cela, vous Googlez leur noms
06:37
and in a certaincertain universeunivers,
155
385663
2240
et dans un certain univers,
06:39
you find this informationinformation.
156
387903
2008
vous trouvez ces informations.
06:41
Or in a parallelparallèle universeunivers, you find this informationinformation.
157
389911
4437
Ou, dans un univers parallèle,
vous trouvez celles-ci.
06:46
Do you think that you would be equallyégalement likelyprobable
158
394348
2717
Pensez-vous que chaque candidat
aurait autant de chance
06:49
to call eithernon plus candidatecandidat for an interviewentretien?
159
397065
2803
que vous l'appeliez
pour un entretien ?
06:51
If you think so, then you are not
160
399868
2282
SI vous pensez ça,
alors vous n'êtes pas
06:54
like the U.S. employersemployeurs who are, in factfait,
161
402150
2582
comme les employeurs américains
qui, en fait, font
06:56
partpartie of our experimentexpérience, meaningsens we did exactlyexactement that.
162
404732
3307
partie de notre expérience,
je veux dire que c'est exactement ce qu'on a fait.
07:00
We createdcréé FacebookFacebook profilesprofils des conseils scolaires, manipulatingmanipuler traitstraits,
163
408039
3182
On a créé des profils Facebook,
déformé certains faits,
07:03
then we startedcommencé sendingenvoi out résumsommeés to companiesentreprises in the U.S.,
164
411221
2851
et on a commencé à envoyer nos CV
à des sociétés aux Etats-Unis,
07:06
and we detecteddétecté, we monitoredsurveillés,
165
414072
1908
puis nous avons détecté et suivi
07:07
whetherqu'il s'agisse they were searchingrecherche for our candidatescandidats,
166
415980
2393
s'ils faisaient des recherches
sur nos candidats,
07:10
and whetherqu'il s'agisse they were actingagissant on the informationinformation
167
418373
1832
et s'ils agissaient
en fonction des informations
07:12
they founda trouvé on socialsocial mediamédias. And they were.
168
420205
1938
qu'ils avaient trouvées sur les réseaux sociaux.
Et ils le faisaient.
07:14
DiscriminationDiscrimination was happeningévénement throughpar socialsocial mediamédias
169
422143
2101
La discrimination se faisait à travers
les réseaux sociaux
07:16
for equallyégalement skilledqualifié candidatescandidats.
170
424244
3073
pour des candidats
de même niveau de qualification.
07:19
Now marketersspécialistes du marketing like us to believe
171
427317
4575
Les spécialistes du marketing
voudraient nous faire croire
07:23
that all informationinformation about us will always
172
431892
2269
que toutes les informations nous concernant
seront toujours
07:26
be used in a mannermanière whichlequel is in our favorfavoriser.
173
434161
3273
utilisées pour notre bénéfice.
07:29
But think again. Why should that be always the caseCas?
174
437434
3715
Mais pensez-y.
Pourquoi devrait-ce toujours être le cas ?
07:33
In a moviefilm whichlequel camevenu out a fewpeu yearsannées agodepuis,
175
441149
2664
Dans un film sorti
il y a quelques années,
07:35
"MinorityMinorité ReportRapport," a famouscélèbre scenescène
176
443813
2553
« Minority Report »,
une scène célèbre
07:38
had TomTom CruiseCroisière walkmarche in a mallcentre commercial
177
446366
2576
montre Tom Cruise
marchant dans un centre commercial
07:40
and holographicholographique personalizedpersonnalisé advertisingLa publicité
178
448942
3776
alors qu'une une publicité holographique
personnalisée
07:44
would appearapparaître around him.
179
452718
1835
apparaît autour de lui.
07:46
Now, that moviefilm is setensemble in 2054,
180
454553
3227
Ce film était censé se passer en 2054,
07:49
about 40 yearsannées from now,
181
457780
1642
dans environ 40 ans,
07:51
and as excitingpassionnant as that technologyLa technologie looksregards,
182
459422
2908
et aussi excitante que semble cette technologie,
07:54
it alreadydéjà vastlyénormément underestimatessous-estime
183
462330
2646
elle sous-estime déjà largement
07:56
the amountmontant of informationinformation that organizationsorganisations
184
464976
2140
la quantité d'informations
que les organisations
07:59
can gatherrecueillir about you, and how they can use it
185
467116
2483
peuvent recueillir à votre sujet,
et comment elles peuvent les utiliser
08:01
to influenceinfluence you in a way that you will not even detectdétecter.
186
469599
3398
pour vous influencer d'une manière
que vous ne détecterez même pas.
08:04
So as an exampleExemple, this is anotherun autre experimentexpérience
187
472997
2103
A titre d'exemple,
voici une autre expérience
08:07
actuallyréellement we are runningfonctionnement, not yetencore completedterminé.
188
475100
2273
qui est encore en cours,
pas encore terminée.
08:09
ImagineImaginez that an organizationorganisation has accessaccès
189
477373
2319
Imaginez qu'une organisation ait accès
08:11
to your listliste of FacebookFacebook friendscopains,
190
479692
2056
à votre liste d'amis sur Facebook,
08:13
and throughpar some kindgentil of algorithmalgorithme de
191
481748
1772
et grâce à une sorte d'algorithme
08:15
they can detectdétecter the two friendscopains that you like the mostles plus.
192
483520
3734
elle peut détecter les deux amis
que vous aimez le plus.
08:19
And then they createcréer, in realréal time,
193
487254
2280
Puis elle crée, en temps réel,
08:21
a facialsoin du visage compositecomposite of these two friendscopains.
194
489534
2842
un composé du visage de ces deux amis.
08:24
Now studiesétudes prioravant to oursles notres have shownmontré that people
195
492376
3069
Des études avant les nôtres
ont démontré que les gens
08:27
don't recognizereconnaître any longerplus long even themselvesse
196
495445
2885
ne se reconnaissent même plus eux-mêmes
08:30
in facialsoin du visage compositesmatériaux composites, but they reactréagir
197
498330
2462
dans des visages composés,
mais ils réagissent
08:32
to those compositesmatériaux composites in a positivepositif mannermanière.
198
500792
2117
envers ces composés d'une manière favorable.
08:34
So nextprochain time you are looking for a certaincertain productproduit,
199
502909
3415
Ainsi, la prochaine fois
que vous chercherez un produit donné,
08:38
and there is an adun d suggestingsuggérant you to buyacheter it,
200
506324
2559
et qu'il y aura une pub
vous proposant de l'acheter,
08:40
it will not be just a standardla norme spokespersonporte-parole.
201
508883
2907
ce ne sera pas juste un acteur standard.
08:43
It will be one of your friendscopains,
202
511790
2313
Ce sera l'un de vos amis,
08:46
and you will not even know that this is happeningévénement.
203
514103
3303
et vous ne remarquerez même pas
que cela se passe comme ça.
08:49
Now the problemproblème is that
204
517406
2413
Aujourd'hui, le problème est que
08:51
the currentactuel policypolitique mechanismsmécanismes we have
205
519819
2519
les mécanismes de régulations actuels
08:54
to protectprotéger ourselvesnous-mêmes from the abusesabus of personalpersonnel informationinformation
206
522338
3438
pour nous protéger contre les abus
liés à l'utilisation des informations personnelles
08:57
are like bringingapportant a knifecouteau to a gunfightfusillade.
207
525776
2984
sont comme affronter une mitraillette
armé seulement d'un couteau.
09:00
One of these mechanismsmécanismes is transparencytransparence,
208
528760
2913
L'un de ces mécanismes
est la transparence,
09:03
tellingrécit people what you are going to do with theirleur dataLes données.
209
531673
3200
on doit informer les personnes
de ce que l'on va faire avec leurs données.
09:06
And in principleprincipe, that's a very good thing.
210
534873
2106
Et, en principe,
c'est une très bonne chose.
09:08
It's necessarynécessaire, but it is not sufficientsuffisante.
211
536979
3667
C'est nécessaire,
mais pas suffisant.
09:12
TransparencyTransparence can be misdirecteddonné des directives erronées.
212
540646
3698
La transparence peut être détournée.
09:16
You can tell people what you are going to do,
213
544344
2104
Vous pouvez dire aux gens
ce que vous allez faire,
09:18
and then you still nudgecoup de pouce them to discloseDivulguer
214
546448
2232
et les pousser encore à divulguer
09:20
arbitraryarbitraire amountsles montants of personalpersonnel informationinformation.
215
548680
2623
des quantités arbitraires
d'informations personnelles.
09:23
So in yetencore anotherun autre experimentexpérience, this one with studentsélèves,
216
551303
2886
Ainsi, dans une autre expérience,
menée avec des étudiants,
09:26
we askeda demandé them to providefournir informationinformation
217
554189
3058
nous leur avons demandé
de fournir des informations
09:29
about theirleur campusCampus behaviorcomportement,
218
557247
1813
sur leur comportement
sur le campus,
09:31
includingcomprenant prettyjoli sensitivesensible questionsdes questions, suchtel as this one.
219
559060
2940
y compris des questions très sensibles,
comme celle-ci :
09:34
[Have you ever cheatedtriché in an examExam?]
220
562000
621
[Avez-vous déjà triché à un examen ? ]
09:34
Now to one groupgroupe of subjectssujets, we told them,
221
562621
2300
Nous avons dit à un groupe de sujets :
09:36
"Only other studentsélèves will see your answersréponses."
222
564921
2841
«Seuls d'autres étudiants
vont voir vos réponses.»
09:39
To anotherun autre groupgroupe of subjectssujets, we told them,
223
567762
1579
Nous avons dit à un autre groupe :
09:41
"StudentsÉtudiants and facultyla faculté will see your answersréponses."
224
569341
3561
«Les étudiants et les professeurs
vont voir vos réponses.»
09:44
TransparencyTransparence. NotificationNotification. And sure enoughassez, this workedtravaillé,
225
572902
2591
Transparence. Notification.
Et, bien sûr, ça a marché,
09:47
in the sensesens that the first groupgroupe of subjectssujets
226
575493
1407
dans le sens où
le premier groupe de sujets
09:48
were much more likelyprobable to discloseDivulguer than the secondseconde.
227
576900
2568
était beaucoup plus enclin à donner des informations
que le second.
09:51
It makesfait du sensesens, right?
228
579468
1520
C'est logique, n'est-ce pas ?
09:52
But then we addedajoutée the misdirectiondirective erronée.
229
580988
1490
Mais nous avons ensuite
ajouté le détournement.
09:54
We repeatedrépété the experimentexpérience with the sameMême two groupsgroupes,
230
582478
2760
Nous avons répété l'expérience
avec les deux mêmes groupes,
09:57
this time addingajouter a delayretard
231
585238
2427
cette fois-ci, en ajoutant un délai
09:59
betweenentre the time we told subjectssujets
232
587665
2935
entre le moment où on a dit aux sujets
10:02
how we would use theirleur dataLes données
233
590600
2080
comment nous utiliserions leurs données
10:04
and the time we actuallyréellement startedcommencé answeringrépondant the questionsdes questions.
234
592680
4388
et le moment où on a commencé
à leur poser des questions.
10:09
How long a delayretard do you think we had to addajouter
235
597068
2561
Combien de temps pensez-vous
que nous ayonsdû ajouter
10:11
in ordercommande to nullifyréduire à néant the inhibitoryinhibitrice effecteffet
236
599629
4613
pour neutraliser l'effet inhibiteur
10:16
of knowingconnaissance that facultyla faculté would see your answersréponses?
237
604242
3411
de savoir que les professeurs
verraient vos réponses ?
10:19
TenDix minutesminutes?
238
607653
1780
Dix minutes ?
10:21
FiveCinq minutesminutes?
239
609433
1791
Cinq minutes ?
10:23
One minuteminute?
240
611224
1776
Une minute ?
10:25
How about 15 secondssecondes?
241
613000
2049
Que diriez-vous de 15 secondes ?
10:27
FifteenQuinze ans secondssecondes were sufficientsuffisante to have the two groupsgroupes
242
615049
2668
Quinze secondes ont suffit
pour que les deux groupes
10:29
discloseDivulguer the sameMême amountmontant of informationinformation,
243
617717
1568
divulguent la même quantité d'informations,
10:31
as if the secondseconde groupgroupe now no longerplus long caresse soucie
244
619285
2746
comme si le deuxième groupe
ne se souciait plus
10:34
for facultyla faculté readingen train de lire theirleur answersréponses.
245
622031
2656
que les professeurs
puissent lire ses réponses.
10:36
Now I have to admitadmettre that this talk so farloin
246
624687
3336
Je dois reconnaître que cette conférence,
jusqu'ici,
10:40
maymai sounddu son exceedinglyextrêmement gloomysombre,
247
628023
2480
peut sembler excessivement sombre,
10:42
but that is not my pointpoint.
248
630503
1721
mais ce n'est pas l'essentiel
de mon message.
10:44
In factfait, I want to sharepartager with you the factfait that
249
632224
2699
En fait, je veux vous montrer
10:46
there are alternativessolutions de rechange.
250
634923
1772
qu'il existe des alternatives.
10:48
The way we are doing things now is not the only way
251
636695
2499
La façon dont on fait les choses aujourd'hui
10:51
they can doneterminé, and certainlycertainement not the bestmeilleur way
252
639194
3037
n'est pas la seule manière de faire,
10:54
they can be doneterminé.
253
642231
2027
ni certainement la meilleure.
10:56
When someoneQuelqu'un tellsraconte you, "People don't carese soucier about privacyvie privée,"
254
644258
4171
Si quelqu'un vous dit,
« Les gens se fichent de préserver leur vie privée »,
11:00
considerconsidérer whetherqu'il s'agisse the gameJeu has been designedconçu
255
648429
2642
demandez-vous si le jeu n'a pas été conçu
11:03
and riggedgréé so that they cannotne peux pas carese soucier about privacyvie privée,
256
651071
2724
et truqué dans le but
qu'ils ne puissent pas s'en soucier.
11:05
and comingvenir to the realizationréalisation that these manipulationsmanipulations occurse produire
257
653795
3262
Réaliser que ces manipulations
se produisent,
11:09
is alreadydéjà halfwayà mi-chemin throughpar the processprocessus
258
657057
1607
c'est déjà être à mi-chemin
du processus
11:10
of beingétant ablecapable to protectprotéger yourselftoi même.
259
658664
2258
qui nous rend capables
de nous protéger nous-mêmes.
11:12
When someoneQuelqu'un tellsraconte you that privacyvie privée is incompatibleincompatible
260
660922
3710
Si quelqu'un vous dit que la protection
de la vie privée est incompatible
11:16
with the benefitsavantages of biggros dataLes données,
261
664632
1849
avec les avantages du Big Data,
11:18
considerconsidérer that in the last 20 yearsannées,
262
666481
2473
considérez qu'au cours
des 20 dernières années,
11:20
researchersdes chercheurs have createdcréé technologiesles technologies
263
668954
1917
les chercheurs ont créé des technologies
11:22
to allowpermettre virtuallyvirtuellement any electronicélectronique transactionstransactions
264
670871
3318
qui permettent à virtuellement
toutes les transactions électroniques
11:26
to take placeendroit in a more privacy-preservingpréservation de la vie privée mannermanière.
265
674189
3749
de se dérouler d'une manière
plus respectueuse de la vie privée.
11:29
We can browseParcourir the InternetInternet anonymouslyanonymement.
266
677938
2555
On peut naviguer sur Internet
de façon anonyme.
11:32
We can sendenvoyer emailsemails that can only be readlis
267
680493
2678
On peut envoyer des mails
qui ne pourront être lus
11:35
by the intendedprévu recipientdestinataire, not even the NSANSA.
268
683171
3709
que par le destinataire,
pas même par la NSA.
11:38
We can have even privacy-preservingpréservation de la vie privée dataLes données miningexploitation minière.
269
686880
2997
Il peut même y avoir une exploitation des bases de données respectueuse de la vie privée.
11:41
In other wordsmots, we can have the benefitsavantages of biggros dataLes données
270
689877
3894
En d'autres termes, nous pouvons avoir
les avantages du Big Data
11:45
while protectingprotéger privacyvie privée.
271
693771
2132
tout en protégeant la vie privée.
11:47
Of coursecours, these technologiesles technologies implyimplique a shiftingdéplacement
272
695903
3791
Bien sûr, ces technologies
impliquent un changement
11:51
of costCoût and revenueschiffre d’affaires
273
699694
1546
de la répartition des coûts
et des revenus
11:53
betweenentre dataLes données holdersdétenteurs and dataLes données subjectssujets,
274
701240
2107
entre les détenteurs de données
et les personnes concernées,
11:55
whichlequel is why, perhapspeut être, you don't hearentendre more about them.
275
703347
3453
ce qui explique peut-être pourquoi
vous n'en entendez pas beaucoup parler.
11:58
WhichQui bringsapporte me back to the GardenJardin of EdenEden.
276
706800
3706
Ce qui me ramène au Jardin d'Eden.
12:02
There is a secondseconde privacyvie privée interpretationinterprétation
277
710506
2780
Il y a une seconde interprétation
à propos de la vie privée
12:05
of the storyrécit of the GardenJardin of EdenEden
278
713286
1809
dans l'histoire du Jardin d'Eden
12:07
whichlequel doesn't have to do with the issueproblème
279
715095
2096
qui n'a rien à voir avec le fait
12:09
of AdamAdam and EveEve feelingsentiment nakednu
280
717191
2225
qu'Adam et Eve se sentent nus
12:11
and feelingsentiment ashamedhonteux.
281
719416
2381
et honteux.
12:13
You can find echoeséchos of this interpretationinterprétation
282
721797
2781
Vous pouvez trouver les échos
de cette interprétation
12:16
in JohnJohn Milton'sMilton "ParadiseParadis LostPerdu."
283
724578
2782
dans "Le Paradis perdu"
de John Milton.
12:19
In the gardenjardin, AdamAdam and EveEve are materiallymatériellement contentcontenu.
284
727360
4197
Dans le jardin, Adam et Eve
sont contentés sur le plan matériel.
12:23
They're happycontent. They are satisfiedsatisfait.
285
731557
2104
Ils sont heureux.
Ils sont satisfaits.
12:25
HoweverCependant, they alsoaussi lackmanquer de knowledgeconnaissance
286
733661
2293
Cependant, ils n'ont ni la connaissance,
12:27
and self-awarenessconscience de soi.
287
735954
1640
ni la conscience d'eux-mêmes.
12:29
The momentmoment they eatmanger the aptlyavec justesse namednommé
288
737594
3319
Au moment où ils mangent
le bien nommé
12:32
fruitfruit of knowledgeconnaissance,
289
740913
1293
fruit de la connaissance,
12:34
that's when they discoverdécouvrir themselvesse.
290
742206
2605
c'est là qu'ils se découvrent eux-mêmes.
12:36
They becomedevenir awareconscient. They achieveatteindre autonomyautonomie.
291
744811
4031
Ils prennent conscience.
Ils parviennent à l'autonomie.
12:40
The priceprix to payPayer, howevertoutefois, is leavingen quittant the gardenjardin.
292
748842
3126
Cependant, le prix à payer,
c'est de quitter le jardin.
12:43
So privacyvie privée, in a way, is bothtous les deux the meansveux dire
293
751968
3881
La vie privée, d'une certaine manière,
c'est à la fois le moyen
12:47
and the priceprix to payPayer for freedomliberté.
294
755849
2962
et le prix à payer pour la liberté.
12:50
Again, marketersspécialistes du marketing tell us
295
758811
2770
Encore une fois,
les spécialistes du marketing nous disent
12:53
that biggros dataLes données and socialsocial mediamédias
296
761581
3019
que le Big Data
et les réseaux sociaux
12:56
are not just a paradiseparadis of profitprofit for them,
297
764600
2979
ne sont pas seulement pour eux
un paradis du profit,
12:59
but a GardenJardin of EdenEden for the restdu repos of us.
298
767579
2457
mais aussi un Jardin d'Eden
pour nous autres.
13:02
We get freegratuit contentcontenu.
299
770036
1238
Nous bénéficions de contenus gratuits.
13:03
We get to playjouer AngryEn colère BirdsOiseaux. We get targetedciblé appsapplications.
300
771274
3123
Nous avons la chance de jouer à Angry Birds.
Nous avons des applications ciblées.
13:06
But in factfait, in a fewpeu yearsannées, organizationsorganisations
301
774397
2897
Mais en fait, dans quelques années,
ces organisations
13:09
will know so much about us,
302
777294
1609
sauront tant de choses sur nous,
13:10
they will be ablecapable to inferinférer our desiresdésirs
303
778903
2710
qu'ils seront en mesure
de déduire nos désirs
13:13
before we even formforme them, and perhapspeut être
304
781613
2204
avant que nous les ayons formés,
et peut-être
13:15
buyacheter productsdes produits on our behalfnom
305
783817
2447
d'acheter des produits en notre nom
13:18
before we even know we need them.
306
786264
2274
avant qu'on ne réalise
qu'on en a besoin.
13:20
Now there was one EnglishAnglais authorauteur
307
788538
3237
Il y a un auteur anglais
13:23
who anticipatedanticipé this kindgentil of futureavenir
308
791775
3045
qui a anticipé ce genre de futur
13:26
where we would tradeCommerce away
309
794820
1405
dans lequel nous abandonnerions
13:28
our autonomyautonomie and freedomliberté for comfortconfort.
310
796225
3548
notre autonomie et notre liberté
pour du confort.
13:31
Even more so than GeorgeGeorge OrwellOrwell,
311
799773
2161
Plus encore que George Orwell,
13:33
the authorauteur is, of coursecours, AldousAldous HuxleyHuxley.
312
801934
2761
cet auteur est, bien sûr,
Aldous Huxley.
13:36
In "BraveBrave NewNouveau WorldMonde," he imaginesimagine a societysociété
313
804695
2854
Dans « Le Meilleur des Mondes »,
il imagine une société
13:39
where technologiesles technologies that we createdcréé
314
807549
2171
dans laquelle les technologies
que nous avons créées
13:41
originallyinitialement for freedomliberté
315
809720
1859
à l'origine pour la liberté
13:43
endfin up coercingle fait de contraindre us.
316
811579
2567
finissent par nous contraindre.
13:46
HoweverCependant, in the booklivre, he alsoaussi offersdes offres us a way out
317
814146
4791
Toutefois, dans ce livre,
il nous offre aussi une porte de sortie
13:50
of that societysociété, similarsimilaire to the pathchemin
318
818937
3438
de cette société,
semblable au chemin
13:54
that AdamAdam and EveEve had to followsuivre to leavelaisser the gardenjardin.
319
822375
3955
qu'Adam et Ève ont eu à suivre
pour quitter le jardin.
13:58
In the wordsmots of the SavageSavage,
320
826330
2147
Selon les termes du Sauvage,
14:00
regainingregagnant autonomyautonomie and freedomliberté is possiblepossible,
321
828477
3069
retrouver l'autonomie et la liberté
est possible,
14:03
althoughbien que the priceprix to payPayer is steepraide.
322
831546
2679
bien que le prix à payer soit élevé.
14:06
So I do believe that one of the definingdéfinir fightscombats
323
834225
5715
Je crois fermement
que l'un des combats décisifs
14:11
of our timesfois will be the fightbats toi
324
839940
2563
de notre époque sera le combat
14:14
for the controlcontrôle over personalpersonnel informationinformation,
325
842503
2387
pour le contrôle des informations personnelles,
14:16
the fightbats toi over whetherqu'il s'agisse biggros dataLes données will becomedevenir a forceObliger
326
844890
3507
le combat pour savoir si les Big Data
peuvent devenir un vecteur
14:20
for freedomliberté,
327
848397
1289
de liberté,
14:21
ratherplutôt than a forceObliger whichlequel will hiddenlyun manipulatemanipuler us.
328
849686
4746
plutôt qu'un moyen
de nous manipuler à notre insu.
14:26
Right now, manybeaucoup of us
329
854432
2593
À l'heure actuelle,
bon nombre d'entre nous
14:29
do not even know that the fightbats toi is going on,
330
857025
2753
ne savent même pas
que le combat a commencé,
14:31
but it is, whetherqu'il s'agisse you like it or not.
331
859778
2672
mais c'est le cas,
que ça vous plaise ou non.
14:34
And at the riskrisque of playingen jouant the serpentserpent,
332
862450
2804
Et au risque de jouer les serpents,
14:37
I will tell you that the toolsoutils for the fightbats toi
333
865254
2897
je vous dirais
que les outils pour ce combat
14:40
are here, the awarenessconscience of what is going on,
334
868151
3009
sont là,
la conscience de ce qui est en train de se passer,
14:43
and in your handsmains,
335
871160
1355
et dans vos mains,
14:44
just a fewpeu clicksclics away.
336
872515
3740
à quelques clics seulement.
14:48
Thank you.
337
876255
1482
Merci.
14:49
(ApplauseApplaudissements)
338
877737
4477
(Applaudissements)
Translated by Pierre Granchamp
Reviewed by Nhu PHAM

▲Back to top

ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com