ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com
TEDxMidAtlantic 2013

Jennifer Golbeck: Your social media "likes" expose more than you think

Jennifer Golbeck: L'énigme de la frite bouclée : pourquoi les mentions « J'aime » des médias sociaux en disent plus qu'on ne pense.

Filmed:
2,366,837 views

On peut faire beaucoup de choses avec les données internet. Mais savez-vous que les informaticiens ont déterminé qu'aimer une page Facebook sur les frites bouclées veut aussi dire que vous êtes intelligent ? Vraiment. L'informaticienne Jennifer Golbeck explique comment c'est arrivé, comment certaines applications de la technologie ne sont pas aussi bénignes - et pourquoi elle pense que nous devrions rendre une partie de ce contrôle des informations à leurs propriétaires.
- Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions. Full bio

Double-click the English transcript below to play the video.

00:12
If you rememberrappelles toi that first decadedécennie of the webweb,
0
738
1997
Si vous vous souvenez
des débuts de l'internet,
00:14
it was really a staticpublic static placeendroit.
1
2735
2255
c'était vraiment très statique.
00:16
You could go onlineen ligne, you could look at pagespages,
2
4990
2245
Vous pouviez aller en ligne,
regarder des pages internet,
00:19
and they were put up eithernon plus by organizationsorganisations
3
7235
2513
mises en ligne par des organisations
00:21
who had teamséquipes to do it
4
9748
1521
qui avaient des équipes pour le faire
00:23
or by individualspersonnes who were really tech-savvyTech-savvy
5
11269
2229
ou par des individus
qui s'y connaissaient
00:25
for the time.
6
13498
1737
vraiment en nouvelles technologies.
00:27
And with the riseaugmenter of socialsocial mediamédias
7
15235
1575
Et avec la montée des médias sociaux
00:28
and socialsocial networksréseaux in the earlyde bonne heure 2000s,
8
16810
2399
et des réseaux sociaux
au début des années 2000,
00:31
the webweb was completelycomplètement changedmodifié
9
19209
2149
la toile est devenue
00:33
to a placeendroit where now the vastvaste majoritymajorité of contentcontenu
10
21358
3608
un endroit où maintenant
la majorité du contenu
00:36
we interactinteragir with is put up by averagemoyenne usersutilisateurs,
11
24966
3312
que nous pouvons voir est mis en ligne
par des utilisateurs moyens,
00:40
eithernon plus in YouTubeYouTube videosvidéos or blogBlog postsmessages
12
28278
2697
que ce soit des vidéos sur YouTube
ou des articles de blogs
00:42
or productproduit reviewsCommentaires or socialsocial mediamédias postingsaffichages.
13
30975
3315
ou des critiques de produits
ou des messages de médias sociaux.
00:46
And it's alsoaussi becomedevenir a much more interactiveinteractif placeendroit,
14
34290
2347
C'est devenu
cet endroit bien plus interactif,
00:48
where people are interactinginteragir with othersautres,
15
36637
2637
où les gens interagissent
les uns avec les autres,
00:51
they're commentingCommentant, they're sharingpartage,
16
39274
1696
ils commentent, ils partagent,
00:52
they're not just readingen train de lire.
17
40970
1614
ils ne font pas que lire.
00:54
So FacebookFacebook is not the only placeendroit you can do this,
18
42584
1866
Il n'y a pas que Facebook évidemment,
00:56
but it's the biggestplus grand,
19
44450
1098
mais c'est le plus important,
00:57
and it servessert to illustrateillustrer the numbersNombres.
20
45548
1784
et il sert à illustrer le propos.
00:59
FacebookFacebook has 1.2 billionmilliard usersutilisateurs perpar monthmois.
21
47332
3477
Facebook a 1,2 milliards
d'utilisateurs par mois.
01:02
So halfmoitié the Earth'sDe la terre InternetInternet populationpopulation
22
50809
1930
La moitié de la population internet
de la Terre
01:04
is usingen utilisant FacebookFacebook.
23
52739
1653
utilise Facebook.
01:06
They are a sitesite, alongle long de with othersautres,
24
54392
1932
C'est un site, comme d'autres,
01:08
that has allowedpermis people to createcréer an onlineen ligne personapersonnage
25
56324
3219
qui permet aux gens
de se créer un personnage internet
01:11
with very little technicaltechnique skillcompétence,
26
59543
1782
sans grandes connaissances techniques,
01:13
and people respondeda répondu by puttingen mettant hugeénorme amountsles montants
27
61325
2476
et les gens y mettent
une quantité énorme
01:15
of personalpersonnel dataLes données onlineen ligne.
28
63801
1983
de données personnelles.
01:17
So the resultrésultat is that we have behavioralcomportementale,
29
65784
2543
On se retrouve donc
avec des données comportementales,
01:20
preferencepréférence, demographicdémographique dataLes données
30
68327
1986
préférentielles, démographiques
01:22
for hundredsdes centaines of millionsdes millions of people,
31
70313
2101
pour des centaines
de millions de personnes,
01:24
whichlequel is unprecedentedsans précédent in historyhistoire.
32
72414
2026
pour la première fois dans l'histoire.
01:26
And as a computerordinateur scientistscientifique,
what this meansveux dire is that
33
74440
2560
En tant qu'informaticienne,
ça signifie que
01:29
I've been ablecapable to buildconstruire modelsdes modèles
34
77000
1664
j'ai pu construire des modèles
01:30
that can predictprédire all sortssortes of hiddencaché attributesattributs
35
78664
2322
qui peuvent prédire
toutes sortes d'attributs cachés
01:32
for all of you that you don't even know
36
80986
2284
sur vous sans savoir que
01:35
you're sharingpartage informationinformation about.
37
83270
2202
vous partagez ce genre d'informations.
01:37
As scientistsscientifiques, we use that to help
38
85472
2382
En tant que scientifiques,
on utilise ça pour aider
01:39
the way people interactinteragir onlineen ligne,
39
87854
2114
les gens à mieux interagir en ligne,
01:41
but there's lessMoins altruisticaltruiste applicationsapplications,
40
89968
2499
mais il y a aussi des utilisations
bien moins altruistes,
01:44
and there's a problemproblème in that usersutilisateurs don't really
41
92467
2381
et le problème est que
les utilisateurs ne comprennent pas
01:46
understandcomprendre these techniquestechniques and how they work,
42
94848
2470
vraiment ces techniques
ni comment elles fonctionnent,
01:49
and even if they did, they don't
have a lot of controlcontrôle over it.
43
97318
3128
et même s'ils les comprenaient,
ils ne peuvent pas les contrôler.
01:52
So what I want to talk to you about todayaujourd'hui
44
100446
1490
Donc, j'aimerais
vous parler aujourd'hui
01:53
is some of these things that we're ablecapable to do,
45
101936
2702
de certaines de ces choses
que l'on peut faire,
01:56
and then give us some ideasidées
of how we mightpourrait go forwardvers l'avant
46
104638
2763
et donner une petite idée
sur comment
01:59
to movebouge toi some controlcontrôle back into the handsmains of usersutilisateurs.
47
107401
2769
redonner un peu
de ce contrôle aux utilisateurs.
02:02
So this is TargetObjectif, the companycompagnie.
48
110170
1586
Voici Target, l'entreprise.
02:03
I didn't just put that logologo
49
111756
1324
Je n'ai pas mis ce logo
02:05
on this poorpauvre, pregnantEnceinte woman'sfemme bellyventre.
50
113080
2170
sur le ventre
de cette femme enceinte.
02:07
You maymai have seenvu this anecdoteanecdote that was printedimprimé
51
115250
1840
Vous avez peut-être
entendu parler de cette histoire:
02:09
in ForbesForbes magazinemagazine where TargetObjectif
52
117090
2061
Target a envoyé
02:11
sentenvoyé a flyerFlyer to this 15-year-old-Age girlfille
53
119151
2361
un prospectus
à cette jeune fille de 15 ans
02:13
with advertisementsannonces and couponscoupons
54
121512
1710
avec de la publicité
et des ristournes
02:15
for babybébé bottlesbouteilles and diaperscouches and cribslits d’enfant
55
123222
2554
pour des biberons,
des langes et des berceaux
02:17
two weekssemaines before she told her parentsParents
56
125776
1684
deux semaines avant
qu'elle ne dise à ces parents
02:19
that she was pregnantEnceinte.
57
127460
1864
qu'elle était enceinte.
02:21
Yeah, the dadpapa was really upsetdérangé.
58
129324
2704
Oui, le père n'était pas content.
02:24
He said, "How did TargetObjectif figurefigure out
59
132028
1716
Il a dit :
« Comment Target a-t-il compris
02:25
that this highhaute schoolécole girlfille was pregnantEnceinte
60
133744
1824
que cette ado était enceinte
02:27
before she told her parentsParents?"
61
135568
1960
avant même qu'elle le dise
à ces parents ? »
02:29
It turnsse tourne out that they have the purchaseachat historyhistoire
62
137528
2621
En fait, Target garde
un historique d'achat
02:32
for hundredsdes centaines of thousandsmilliers of customersles clients
63
140149
2301
pour des centaines de milliers de clients
02:34
and they computecalculer what they
call a pregnancygrossesse scoreBut,
64
142450
2730
et ils calculent ce qu'ils appellent
un score de grossesse,
02:37
whichlequel is not just whetherqu'il s'agisse or
not a woman'sfemme pregnantEnceinte,
65
145180
2332
qui ne dit pas simplement
si une femme est enceinte ou pas,
02:39
but what her due daterendez-vous amoureux is.
66
147512
1730
mais aussi sa date d'accouchement.
02:41
And they computecalculer that
67
149242
1304
Et ils calculent cela
02:42
not by looking at the obviousévident things,
68
150546
1768
pas en regardant ce qui est flagrant,
02:44
like, she's buyingachat a criblit de bébé or babybébé clothesvêtements,
69
152314
2512
comme le fait qu'elle achète un berceau
ou des vêtements pour bébés,
02:46
but things like, she boughtacheté more vitaminsvitamines
70
154826
2943
mais comme le fait
qu'elle achète plus de vitamines
02:49
than she normallynormalement had,
71
157769
1717
que d'habitude,
02:51
or she boughtacheté a handbagsac à main
72
159486
1464
ou elle a acheté un sac
02:52
that's biggros enoughassez to holdtenir diaperscouches.
73
160950
1711
assez grand pour y mettre des langes.
02:54
And by themselvesse, those purchasesachats don't seemsembler
74
162661
1910
Seuls, ces achats ne semblent pas
02:56
like they mightpourrait revealrévéler a lot,
75
164571
2469
révéler grand chose,
02:59
but it's a patternmodèle of behaviorcomportement that,
76
167040
1978
mais c'est une suite
de comportements qui,
03:01
when you take it in the contextle contexte
of thousandsmilliers of other people,
77
169018
3117
quand vous le prenez dans un contexte
de milliers d'autres personnes,
03:04
startsdéparts to actuallyréellement revealrévéler some insightsdes idées.
78
172135
2757
commence à donner
une certaine idée.
03:06
So that's the kindgentil of thing that we do
79
174892
1793
C'est ce genre de choses-là
que l'on fait
03:08
when we're predictingprédire stuffdes trucs
about you on socialsocial mediamédias.
80
176685
2567
quand on prédit des choses
sur vous sur les médias sociaux.
03:11
We're looking for little
patternsmodèles of behaviorcomportement that,
81
179252
2796
On va chercher
des suites de comportements qui,
03:14
when you detectdétecter them amongparmi millionsdes millions of people,
82
182048
2682
quand vous les détectez
parmi des millions de gens,
03:16
letspermet us find out all kindssortes of things.
83
184730
2706
nous permet de trouver
des tas de choses.
03:19
So in my lablaboratoire and with colleaguescollègues,
84
187436
1747
Dans mon laboratoire,
avec mes collègues,
03:21
we'venous avons developeddéveloppé mechanismsmécanismes where we can
85
189183
1777
nous avons développé
des mécanismes qui nous permettent
03:22
quiteassez accuratelyavec précision predictprédire things
86
190960
1560
de prédire certaines choses
très précisément,
03:24
like your politicalpolitique preferencepréférence,
87
192520
1725
comme votre penchant politique,
03:26
your personalitypersonnalité scoreBut, genderle genre, sexualsexuel orientationorientation,
88
194245
3752
votre score de personnalité,
votre sexe, orientation sexuelle,
03:29
religionreligion, ageâge, intelligenceintelligence,
89
197997
2873
religion, âge, intelligence,
03:32
alongle long de with things like
90
200870
1394
comme aussi
03:34
how much you trustconfiance the people you know
91
202264
1937
si vous faites confiance
aux gens que vous connaissez
03:36
and how strongfort those relationshipsdes relations are.
92
204201
1804
et si ces liens sont forts ou pas.
03:38
We can do all of this really well.
93
206005
1785
On peut savoir tout ça très facilement.
03:39
And again, it doesn't come from what you mightpourrait
94
207790
2197
Et de nouveau,
ça ne vient pas forcément
03:41
think of as obviousévident informationinformation.
95
209987
2102
d'informations flagrantes.
03:44
So my favoritepréféré exampleExemple is from this studyétude
96
212089
2281
Mon exemple préféré
vient de cette étude
03:46
that was publishedpublié this yearan
97
214370
1240
publiée il y a un an
03:47
in the ProceedingsProcédure of the NationalNational AcademiesAcadémies.
98
215610
1795
dans les « Proceedings
of the National Academies ».
03:49
If you GoogleGoogle this, you'lltu vas find it.
99
217405
1285
Vous pouvez la trouver sur Google.
03:50
It's fourquatre pagespages, easyfacile to readlis.
100
218690
1872
Quatre pages,
très faciles à lire.
03:52
And they lookedregardé at just people'sles gens FacebookFacebook likesaime,
101
220562
3003
Ils n'ont regardé que
les mentions « J'aime » de Facebook,
03:55
so just the things you like on FacebookFacebook,
102
223565
1920
ce que vous pouvez aimer sur Facebook,
03:57
and used that to predictprédire all these attributesattributs,
103
225485
2138
et utilisé ça pour prédire
toutes ces caractéristiques,
03:59
alongle long de with some other onesceux.
104
227623
1645
et d'autres encore.
04:01
And in theirleur paperpapier they listedlisté the fivecinq likesaime
105
229268
2961
Et dans leur article,
ils ont listé ces 5 mentions « J'aime »
04:04
that were mostles plus indicativeIndicatif of highhaute intelligenceintelligence.
106
232229
2787
les plus indicatives
d'une grande intelligence.
04:07
And amongparmi those was likingaimer a pagepage
107
235016
2324
Et parmi celles-là,
il y avait un mention « J'aime »
04:09
for curlybouclés friesfrites. (LaughterRires)
108
237340
1905
pour les frites bouclées.
(Rires)
04:11
CurlyBouclés friesfrites are deliciousdélicieux,
109
239245
2093
C'est délicieux les frites bouclées,
04:13
but likingaimer them does not necessarilynécessairement mean
110
241338
2530
mais les aimer ne veut pas
nécessairement dire
04:15
that you're smarterplus intelligent than the averagemoyenne personla personne.
111
243868
2080
que vous êtes plus
intelligent que la moyenne.
04:17
So how is it that one of the strongestle plus fort indicatorsindicateurs
112
245948
3207
Donc, comment cela se fait-il
qu'un des indicateurs les plus importants
04:21
of your intelligenceintelligence
113
249155
1570
de votre intelligence
04:22
is likingaimer this pagepage
114
250725
1447
est le fait d'aimer cette page
04:24
when the contentcontenu is totallytotalement irrelevantsans importance
115
252172
2252
alors que le contenu est sans rapport
04:26
to the attributeattribut that's beingétant predictedprédit?
116
254424
2527
avec l'attribut qu'il prédit ?
04:28
And it turnsse tourne out that we have to look at
117
256951
1584
Nous avons dû étudier
04:30
a wholeentier bunchbouquet of underlyingsous-jacent theoriesthéories
118
258535
1618
toute une série de théories
04:32
to see why we're ablecapable to do this.
119
260153
2569
pour comprendre
comment on peut y arriver.
04:34
One of them is a sociologicalsociologique
theorythéorie calledappelé homophilyhomophilie,
120
262722
2913
L'une d'elle est
une théorie sociale appelée homophilie,
04:37
whichlequel basicallyen gros saysdit people are
friendscopains with people like them.
121
265635
3092
qui dit que les gens sont en général amis
avec des gens comme eux.
04:40
So if you're smartintelligent, you tendtendre to
be friendscopains with smartintelligent people,
122
268727
2014
Si vous êtes intelligents, vous allez
être amis avec des gens intelligents,
04:42
and if you're youngJeune, you tendtendre
to be friendscopains with youngJeune people,
123
270741
2630
et si vous êtes jeunes, vous allez
être amis avec des jeunes,
04:45
and this is well establishedétabli
124
273371
1627
C'est un fait averé
04:46
for hundredsdes centaines of yearsannées.
125
274998
1745
depuis des centaines d'années.
04:48
We alsoaussi know a lot
126
276743
1232
On sait aussi
04:49
about how informationinformation spreadsse propage throughpar networksréseaux.
127
277975
2550
comment les informations
se répandent sur les réseaux.
04:52
It turnsse tourne out things like viralvirale videosvidéos
128
280525
1754
En fait, les vidéos virales
04:54
or FacebookFacebook likesaime or other informationinformation
129
282279
2406
ou les mentions « J'aime » sur Facebook
ou d'autres informations
04:56
spreadsse propage in exactlyexactement the sameMême way
130
284685
1888
se répandent de la même façon
04:58
that diseasesmaladies spreadpropager throughpar socialsocial networksréseaux.
131
286573
2454
que les maladies.
05:01
So this is something we'venous avons studiedétudié for a long time.
132
289027
1791
C'est quelque chose
qu'on étudie depuis longtemps.
05:02
We have good modelsdes modèles of it.
133
290818
1576
On en a fait de bon modèles.
05:04
And so you can put those things togetherensemble
134
292394
2157
On peut donc mettre
toutes ces choses ensemble
05:06
and startdébut seeingvoyant why things like this happense produire.
135
294551
3088
et voir pourquoi ce genre de choses arrive.
05:09
So if I were to give you a hypothesishypothèse,
136
297639
1814
Donc, si je devais faire une hypothèse :
05:11
it would be that a smartintelligent guy startedcommencé this pagepage,
137
299453
3227
c'est quelqu'un d'intelligent
qui a commencé cette page,
05:14
or maybe one of the first people who likedaimé it
138
302680
1939
ou qu'une des premières personnes
qui l'a aimée
05:16
would have scoreda marqué highhaute on that testtester.
139
304619
1736
avait un haut score d'intelligence.
05:18
And they likedaimé it, and theirleur friendscopains saw it,
140
306355
2288
Et il l'a aimé, et ses amis l'ont vu,
05:20
and by homophilyhomophilie, we know that
he probablyProbablement had smartintelligent friendscopains,
141
308643
3122
et par homophilie,
on sait qu'il a des amis intelligents,
05:23
and so it spreadpropager to them,
and some of them likedaimé it,
142
311765
3056
et ça s'est répandu chez eux,
et ils l'ont aimé,
05:26
and they had smartintelligent friendscopains,
143
314821
1189
et ils avaient des amis intelligents,
05:28
and so it spreadpropager to them,
144
316010
807
et ça s'est répandu chez eux,
05:28
and so it propagatedpropagé throughpar the networkréseau
145
316817
1973
et comme ça à travers le réseau,
05:30
to a hosthôte of smartintelligent people,
146
318790
2569
chez plein de gens intelligents,
05:33
so that by the endfin, the actionaction
147
321359
2056
et donc à la fin, l'action
05:35
of likingaimer the curlybouclés friesfrites pagepage
148
323415
2544
d'aimer la page des frites bouclées
05:37
is indicativeIndicatif of highhaute intelligenceintelligence,
149
325959
1615
est indicative d'une grande intelligence,
05:39
not because of the contentcontenu,
150
327574
1803
pas à cause du contenu,
05:41
but because the actualréel actionaction of likingaimer
151
329377
2522
mais à cause de l'action même d'aimer
05:43
reflectsreflète back the commoncommun attributesattributs
152
331899
1900
qui reflète les attributs communs
05:45
of other people who have doneterminé it.
153
333799
2468
à tous ces autres qui l'ont aimé aussi.
05:48
So this is prettyjoli complicatedcompliqué stuffdes trucs, right?
154
336267
2897
Ça à l'air très compliqué, non ?
05:51
It's a harddifficile thing to sitasseoir down and explainExplique
155
339164
2199
Ce n'est pas facile à expliquer
05:53
to an averagemoyenne userutilisateur, and even if you do,
156
341363
2848
à un utilisateur moyen,
et même en le faisant,
05:56
what can the averagemoyenne userutilisateur do about it?
157
344211
2188
que peut-il y faire ?
05:58
How do you know that
you've likedaimé something
158
346399
2048
Comment pouvez-vous savoir
que vous avez aimé quelque chose
06:00
that indicatesindique a traitcaractéristique for you
159
348447
1492
qui indique un trait qui pour vous
06:01
that's totallytotalement irrelevantsans importance to the
contentcontenu of what you've likedaimé?
160
349939
3545
n'a rien à voir avec le contenu
de ce que vous avez aimé ?
06:05
There's a lot of powerPuissance that usersutilisateurs don't have
161
353484
2546
Et les utilisateurs
n'ont aucun pouvoir
06:08
to controlcontrôle how this dataLes données is used.
162
356030
2230
à contrôler
comment ces données sont utilisées.
06:10
And I see that as a realréal
problemproblème going forwardvers l'avant.
163
358260
3112
Et pour moi,
c'est un vrai problème pour le futur.
06:13
So I think there's a couplecouple pathssentiers
164
361372
1977
Il y a, je pense, plusieurs chemins
06:15
that we want to look at
165
363349
1001
que nous pouvons regarder
06:16
if we want to give usersutilisateurs some controlcontrôle
166
364350
1910
si nous voulons donner
un peu de contrôle aux utilisateurs
06:18
over how this dataLes données is used,
167
366260
1740
sur l'utilisation de ces données,
06:20
because it's not always going to be used
168
368000
1940
parce qu'elles ne vont pas
toujours être utilisées
06:21
for theirleur benefitavantage.
169
369940
1381
à leur avantage.
06:23
An exampleExemple I oftensouvent give is that,
170
371321
1422
Un exemple
que je donne souvent est que
06:24
if I ever get boredennuyé beingétant a professorprofesseur,
171
372743
1646
si un jour ça m'ennuie
d'être professeur,
06:26
I'm going to go startdébut a companycompagnie
172
374389
1653
je lancerai une entreprise
06:28
that predictsprédit all of these attributesattributs
173
376042
1454
qui prédit tous ces attributs
06:29
and things like how well you work in teamséquipes
174
377496
1602
et des choses comme le fait
de bien travailler en équipe
06:31
and if you're a drugdrogue userutilisateur, if you're an alcoholicalcoolique.
175
379098
2671
et si vous prenez des drogues
et êtes alcoolique.
06:33
We know how to predictprédire all that.
176
381769
1440
Nous savons comment prédire tout ça.
06:35
And I'm going to sellvendre reportsrapports
177
383209
1761
Et je vais vendre ces rapports
06:36
to H.R. companiesentreprises and biggros businessesentreprises
178
384970
2100
à de grandes entreprises
et des compagnies R.H.
06:39
that want to hirelouer you.
179
387070
2273
qui voudraient vous engager.
06:41
We totallytotalement can do that now.
180
389343
1177
On peut faire ça maintenant.
06:42
I could startdébut that businessEntreprise tomorrowdemain,
181
390520
1788
Je pourrais commencer ça demain,
06:44
and you would have
absolutelyabsolument no controlcontrôle
182
392308
2052
et vous n'auriez
absolument aucun contrôle
06:46
over me usingen utilisant your dataLes données like that.
183
394360
2138
sur le fait que j'utiliserais
vos données comme ça.
06:48
That seemssemble to me to be a problemproblème.
184
396498
2292
Pour moi, ça c'est un problème.
06:50
So one of the pathssentiers we can go down
185
398790
1910
Donc, un des chemins
que l'on pourrait prendre
06:52
is the policypolitique and lawloi pathchemin.
186
400700
2032
est celui de la politique et de la loi.
06:54
And in some respectsrespects, I think
that that would be mostles plus effectiveefficace,
187
402732
3046
Et ça serait sans doute
le chemin le plus efficace,
06:57
but the problemproblème is we'dmer
actuallyréellement have to do it.
188
405778
2756
mais le problème est
qu'il faudrait le faire vraiment.
07:00
ObservingD’observation our politicalpolitique processprocessus in actionaction
189
408534
2780
Connaissant les procédures politiques
07:03
makesfait du me think it's highlytrès unlikelyimprobable
190
411314
2379
ça m'étonnerait vraiment
07:05
that we're going to get a bunchbouquet of representativesreprésentants
191
413693
1597
qu'on arrive à ce
que des représentants
07:07
to sitasseoir down, learnapprendre about this,
192
415290
1986
s'asseyent,
prennent connaissance de ceci,
07:09
and then enactadopter une sweepingbalayage changeschangements
193
417276
2106
et promulguent des changements
de grande envergure
07:11
to intellectualintellectuel propertypropriété lawloi in the U.S.
194
419382
2157
sur les lois
sur la propriété intellectuelle aux USA
07:13
so usersutilisateurs controlcontrôle theirleur dataLes données.
195
421539
2461
pour que les utilisateurs
contrôlent leurs données.
07:16
We could go the policypolitique routeroute,
196
424000
1304
On pourrait prendre
le chemin politique,
07:17
where socialsocial mediamédias companiesentreprises say,
197
425304
1479
où les compagnies
de médias sociaux diraient :
07:18
you know what? You ownposséder your dataLes données.
198
426783
1402
« Vous savez quoi ?
Vos données sont à vous.
07:20
You have totaltotal controlcontrôle over how it's used.
199
428185
2489
C'est vous qui contrôlez
comment elles sont utilisées. »
07:22
The problemproblème is that the revenuerevenu modelsdes modèles
200
430674
1848
Le problème est que
les modèles de revenus
07:24
for mostles plus socialsocial mediamédias companiesentreprises
201
432522
1724
de la plupart de ces entreprises
07:26
relycompter on sharingpartage or exploitingexploitant
users'des utilisateurs dataLes données in some way.
202
434246
4031
dépendent du partage et de l'exploitation
des données des utilisateurs.
07:30
It's sometimesparfois said of FacebookFacebook that the usersutilisateurs
203
438277
1833
On dit de Facebook,
que les utilisateurs
07:32
aren'tne sont pas the customerclient, they're the productproduit.
204
440110
2528
ne sont pas les clients,
ils sont le produit.
07:34
And so how do you get a companycompagnie
205
442638
2714
Comment demander à une entreprise
07:37
to cedecéder controlcontrôle of theirleur mainprincipale assetatout
206
445352
2558
de redonner le contrôle de son capital
07:39
back to the usersutilisateurs?
207
447910
1249
aux usagers ?
07:41
It's possiblepossible, but I don't think it's something
208
449159
1701
C'est possible, mais je ne pense pas
07:42
that we're going to see changechangement quicklyrapidement.
209
450860
2320
que ça se réalise rapidement.
07:45
So I think the other pathchemin
210
453180
1500
L'autre chemin
07:46
that we can go down that's
going to be more effectiveefficace
211
454680
2288
que l'on pourrait prendre et
qui serait aussi efficace
07:48
is one of more sciencescience.
212
456968
1508
est plus scientifique.
07:50
It's doing sciencescience that allowedpermis us to developdévelopper
213
458476
2510
C'est la science qui
nous a permis de développer
07:52
all these mechanismsmécanismes for computingl'informatique
214
460986
1750
ces mécanismes calculant
07:54
this personalpersonnel dataLes données in the first placeendroit.
215
462736
2052
ces données personnelles.
07:56
And it's actuallyréellement very similarsimilaire researchrecherche
216
464788
2106
Et ce sont des recherches similaires
07:58
that we'dmer have to do
217
466894
1438
qu'il va falloir faire
08:00
if we want to developdévelopper mechanismsmécanismes
218
468332
2386
si nous voulons développer
des mécanismes
08:02
that can say to a userutilisateur,
219
470718
1421
qui peuvent dire aux usagers :
08:04
"Here'sVoici the riskrisque of that actionaction you just tooka pris."
220
472139
2229
« Tu as fais ça, voici le risque encouru. »
08:06
By likingaimer that FacebookFacebook pagepage,
221
474368
2080
En aimant cette page Facebook,
08:08
or by sharingpartage this piecepièce of personalpersonnel informationinformation,
222
476448
2535
ou en partageant
cette information personnelle,
08:10
you've now improvedamélioré my abilitycapacité
223
478983
1502
tu viens de m'aider
08:12
to predictprédire whetherqu'il s'agisse or not you're usingen utilisant drugsdrogues
224
480485
2086
à pouvoir prédire le fait
que tu te drogues ou pas
08:14
or whetherqu'il s'agisse or not you get
alongle long de well in the workplacelieu de travail.
225
482571
2862
ou que tu t'entendes bien
avec tes collègues de travail.
08:17
And that, I think, can affectaffecter whetherqu'il s'agisse or not
226
485433
1848
Et ça peux affecter le fait que
08:19
people want to sharepartager something,
227
487281
1510
les gens veulent partager
quelque chose,
08:20
keep it privateprivé, or just keep it offlinehors ligne altogetherau total.
228
488791
3239
le garder privé,
ou ne pas le mettre en ligne du tout.
08:24
We can alsoaussi look at things like
229
492030
1563
On peut aussi décider de
08:25
allowingen permettant people to encryptcrypter dataLes données that they uploadtélécharger,
230
493593
2728
laisser les gens encoder
les données qu'ils mettent en ligne,
08:28
so it's kindgentil of invisibleinvisible and worthlesssans valeur
231
496321
1855
pour qu'elles soient
invisibles et inutiles
08:30
to sitesdes sites like FacebookFacebook
232
498176
1431
pour des sites comme Facebook
08:31
or thirdtroisième partyfête servicesprestations de service that accessaccès it,
233
499607
2629
ou des tiers qui y ont accès,
08:34
but that selectsélectionner usersutilisateurs who the personla personne who postedposté it
234
502236
3247
mais que seuls des utilisateurs choisis
08:37
want to see it have accessaccès to see it.
235
505483
2670
peuvent y accéder.
08:40
This is all supersuper excitingpassionnant researchrecherche
236
508153
2166
Ce sont des recherches
très intéressantes
08:42
from an intellectualintellectuel perspectivela perspective,
237
510319
1620
d'un point de vue intellectuel,
08:43
and so scientistsscientifiques are going to be willingprêt to do it.
238
511939
1859
et donc les scientifiques vont les faire.
08:45
So that givesdonne us an advantageavantage over the lawloi sidecôté.
239
513798
3610
Ça nous donne aussi
un avantage sur le côté légal.
08:49
One of the problemsproblèmes that people bringapporter up
240
517408
1725
Un des problèmes
dont parlent les gens
08:51
when I talk about this is, they say,
241
519133
1595
quand je lance ce sujet est, ils disent,
08:52
you know, if people startdébut
keepingen gardant all this dataLes données privateprivé,
242
520728
2646
que si les gens gardent
toutes ces données privées,
08:55
all those methodsméthodes that you've been developingdéveloppement
243
523374
2113
toutes ces méthodes
qu'on a développées
08:57
to predictprédire theirleur traitstraits are going to failéchouer.
244
525487
2653
pour prédire leurs traits
ne vont plus fonctionner.
09:00
And I say, absolutelyabsolument, and for me, that's successSuccès,
245
528140
3520
Et je réponds : « Absolument,
et pour moi, ça serait un succès,
09:03
because as a scientistscientifique,
246
531660
1786
parce qu'en tant que scientifique,
09:05
my goalobjectif is not to inferinférer informationinformation about usersutilisateurs,
247
533446
3688
mon objectif n'est pas de déduire
des informations sur les utilisateurs,
09:09
it's to improveaméliorer the way people interactinteragir onlineen ligne.
248
537134
2767
mais d'améliorer la façon
dont les gens interagissent en ligne.
09:11
And sometimesparfois that involvesimplique
inferringla déduction things about them,
249
539901
3218
Et parfois ça implique
de déduire des choses sur eux,
09:15
but if usersutilisateurs don't want me to use that dataLes données,
250
543119
3022
mais s'ils ne veulent pas
que j'utilise ces données,
09:18
I think they should have the right to do that.
251
546141
2038
ils devraient avoir le droit de le faire.
09:20
I want usersutilisateurs to be informedinformé and consentingconsentante
252
548179
2651
Je veux que les utilisateurs
soient informés et consentants
09:22
usersutilisateurs of the toolsoutils that we developdévelopper.
253
550830
2112
sur les outils que nous développons.
09:24
And so I think encouragingencourageant this kindgentil of sciencescience
254
552942
2952
Donc, encourager cette science
09:27
and supportingsoutenir les researchersdes chercheurs
255
555894
1346
et ses chercheurs
09:29
who want to cedecéder some of that controlcontrôle back to usersutilisateurs
256
557240
3023
qui veulent rendre un peu
de ce contrôle aux utilisateurs
09:32
and away from the socialsocial mediamédias companiesentreprises
257
560263
2311
et le prendre à ces compagnies
de médias sociaux
09:34
meansveux dire that going forwardvers l'avant, as these toolsoutils evolveévoluer
258
562574
2671
veux dire qu'aller de l'avant,
alors que ces outils se développent
09:37
and advanceavance,
259
565245
1476
et s'améliorent,
09:38
meansveux dire that we're going to have an educatedéduqué
260
566721
1414
veux dire que l'on va avoir
des utilisateurs
09:40
and empoweredhabilité userutilisateur basebase,
261
568135
1694
éduqués et responsabilisés,
09:41
and I think all of us can agreese mettre d'accord
262
569829
1100
et je crois qu'on est tous d'accord
09:42
that that's a prettyjoli idealidéal way to go forwardvers l'avant.
263
570929
2564
que c'est de cette façon-là
que l'on doit avancer.
09:45
Thank you.
264
573493
2184
Merci.
09:47
(ApplauseApplaudissements)
265
575677
3080
(Applaudissements)
Translated by Jehanne Almerigogna
Reviewed by Nhu PHAM

▲Back to top

ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com