ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com
TEDxMidAtlantic 2013

Jennifer Golbeck: Your social media "likes" expose more than you think

Jennifer Golbeck: Het krulfriet-raadsel: waarom een 'like' in de sociale media meer zegt dan je denkt

Filmed:
2,366,837 views

Er kan veel worden gedaan met online gegevens. Maar wist je dat computerexperts wel eens hebben vastgesteld dat je intelligent bent als je een Facebook-pagina over krulfriet een "like" geeft? Echt waar. Informaticawetenschapper Jennifer Golbeck legt uit hoe dat kan, hoe sommige toepassingen van de technologie niet zo goedaardig zijn - en waarom ze denkt dat we de controle over de informatie terug moeten geven aan de rechtmatige eigenaren.
- Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions. Full bio

Double-click the English transcript below to play the video.

00:12
If you rememberonthouden that first decadedecennium of the webweb,
0
738
1997
De eerste tien jaar was internet
00:14
it was really a staticstatische placeplaats.
1
2735
2255
een nogal statische plek.
00:16
You could go onlineonline, you could look at pagespagina's,
2
4990
2245
Je kon online gaan
en pagina's bekijken
00:19
and they were put up eithereen van beide by organizationsorganisaties
3
7235
2513
die erop gezet waren
door organisaties,
waar teams dat deden,
00:21
who had teamsteams to do it
4
9748
1521
00:23
or by individualsindividuen who were really tech-savvytech-savvy
5
11269
2229
of door mensen die voor die tijd
00:25
for the time.
6
13498
1737
technisch onderlegd waren.
00:27
And with the risestijgen of socialsociaal mediamedia
7
15235
1575
Met de groei van sociale media
00:28
and socialsociaal networksnetwerken in the earlyvroeg 2000s,
8
16810
2399
en sociale netwerken
in de beginjaren 2000,
00:31
the webweb was completelyhelemaal changedveranderd
9
19209
2149
veranderde het internet volkomen
00:33
to a placeplaats where now the vastgroot majoritymeerderheid of contentinhoud
10
21358
3608
tot een plek waar nu
de meeste inhoud van het internet
00:36
we interactop elkaar inwerken with is put up by averagegemiddelde usersgebruikers,
11
24966
3312
door gemiddelde gebruikers
wordt geleverd.
00:40
eithereen van beide in YouTubeYouTube videosvideos or blogblog postsberichten
12
28278
2697
Zij het in YouTube-video's of weblogs
00:42
or productartikel reviewsBeoordelingen or socialsociaal mediamedia postingsboekingen.
13
30975
3315
of productbesprekingen
of in sociale media.
00:46
And it's alsoook becomeworden a much more interactiveinteractieve placeplaats,
14
34290
2347
Het wordt ook
een steeds interactievere plek,
00:48
where people are interactinginteractie with othersanderen,
15
36637
2637
waar mensen interactief zijn met elkaar.
00:51
they're commentingcommentaar, they're sharingdelen,
16
39274
1696
Ze geven commentaar en delen,
00:52
they're not just readinglezing.
17
40970
1614
ze lezen niet alleen maar.
00:54
So FacebookFacebook is not the only placeplaats you can do this,
18
42584
1866
Facebook is er niet de enige plek voor,
00:56
but it's the biggestgrootste,
19
44450
1098
maar wel de grootste.
00:57
and it servesbedient to illustrateillustreren the numbersgetallen.
20
45548
1784
De cijfers spreken boekdelen.
00:59
FacebookFacebook has 1.2 billionmiljard usersgebruikers perper monthmaand.
21
47332
3477
Facebook heeft 1,2 miljard
gebruikers per maand.
01:02
So halfvoor de helft the Earth'sAarde InternetInternet populationbevolking
22
50809
1930
Dus de helft van alle internetgebruikers
gebruikt Facebook.
01:04
is usinggebruik makend van FacebookFacebook.
23
52739
1653
01:06
They are a siteplaats, alonglangs with othersanderen,
24
54392
1932
Op deze website, net als op andere,
01:08
that has allowedtoegestaan people to createcreëren an onlineonline personapersona
25
56324
3219
kunnen mensen
zonder veel technische kennis
een online persona creëren.
01:11
with very little technicaltechnisch skillbekwaamheid,
26
59543
1782
01:13
and people respondedreageerden by puttingzetten hugereusachtig amountshoeveelheden
27
61325
2476
Men reageerde daarop
door enorm veel persoonlijke gegevens
online te zetten.
01:15
of personalpersoonlijk datagegevens onlineonline.
28
63801
1983
01:17
So the resultresultaat is that we have behavioralgedrags,
29
65784
2543
Het gevolg is dat we gedrag, voorkeuren
01:20
preferencevoorkeur, demographicdemografisch datagegevens
30
68327
1986
en demografische gegevens
01:22
for hundredshonderden of millionsmiljoenen of people,
31
70313
2101
van honderden miljoenen mensen kennen,
01:24
whichwelke is unprecedentedzonder precedent in historygeschiedenis.
32
72414
2026
wat ongeëvenaard is in de geschiedenis.
01:26
And as a computercomputer scientistwetenschapper,
what this meansmiddelen is that
33
74440
2560
Als computerwetenschapper
kan ik daardoor modellen maken
01:29
I've been ablein staat to buildbouwen modelsmodellen
34
77000
1664
die allerlei verborgen kenmerken
over je kunnen voorspellen
01:30
that can predictvoorspellen all sortssoorten of hiddenverborgen attributeskenmerken
35
78664
2322
01:32
for all of you that you don't even know
36
80986
2284
waarvan jullie zelf niet eens weten
01:35
you're sharingdelen informationinformatie about.
37
83270
2202
dat je er informatie over deelt.
01:37
As scientistswetenschappers, we use that to help
38
85472
2382
Als wetenschappers
gebruiken we dat
om mensen te helpen
bij hun online gedrag.
01:39
the way people interactop elkaar inwerken onlineonline,
39
87854
2114
01:41
but there's lessminder altruisticaltruïstisch applicationstoepassingen,
40
89968
2499
Maar er zijn ook minder
menslievende toepassingen.
01:44
and there's a problemprobleem in that usersgebruikers don't really
41
92467
2381
Het probleem is dat gebruikers
01:46
understandbegrijpen these techniquestechnieken and how they work,
42
94848
2470
de werking van deze technieken
niet goed snappen.
01:49
and even if they did, they don't
have a lot of controlcontrole over it.
43
97318
3128
Zelfs dan nog hebben ze er
niet veel controle over.
01:52
So what I want to talk to you about todayvandaag
44
100446
1490
Ik heb het vandaag over dingen
01:53
is some of these things that we're ablein staat to do,
45
101936
2702
die we kunnen doen
01:56
and then give us some ideasideeën
of how we mightmacht go forwardvooruit
46
104638
2763
om te begrijpen hoe we
vooruit kunnen gaan
01:59
to moveverhuizing some controlcontrole back into the handshanden of usersgebruikers.
47
107401
2769
en die controle kunnen
teruggeven aan de gebruiker.
Dit is Target, het bedrijf.
02:02
So this is TargetDoel, the companybedrijf.
48
110170
1586
Ik heb dat logo niet zomaar
op de buik gedaan
02:03
I didn't just put that logologo
49
111756
1324
02:05
on this poorarm, pregnantzwanger woman'svrouw's bellybuik.
50
113080
2170
van deze arme zwangere vrouw.
02:07
You maymei have seengezien this anecdoteanekdote that was printedgedrukt
51
115250
1840
Misschien heb je het verhaal gelezen
02:09
in ForbesForbes magazinetijdschrift where TargetDoel
52
117090
2061
in het tijdschrift Forbes
over Target, die
02:11
sentverzonden a flyerFlyer to this 15-year-old-jaar oud girlmeisje
53
119151
2361
een folder stuurde
naar een 15-jarig meisje
02:13
with advertisementsadvertenties and couponscoupons
54
121512
1710
met advertenties en tegoedbonnen
02:15
for babybaby bottlesflessen and diapersluiers and cribskribben
55
123222
2554
voor babyflesjes en luiers en bedjes,
02:17
two weeksweken before she told her parentsouders
56
125776
1684
twee weken voor ze
haar ouders vertelde
02:19
that she was pregnantzwanger.
57
127460
1864
dat ze zwanger was.
02:21
Yeah, the dadpa was really upsetboos.
58
129324
2704
Tja, de vader was nogal overstuur.
02:24
He said, "How did TargetDoel figurefiguur out
59
132028
1716
Hij zei: "Hoe weet Target
dat dit schoolkind zwanger was
02:25
that this highhoog schoolschool- girlmeisje was pregnantzwanger
60
133744
1824
02:27
before she told her parentsouders?"
61
135568
1960
voordat ze het haar ouders vertelde?"
02:29
It turnsbochten out that they have the purchaseaankoop historygeschiedenis
62
137528
2621
Het bleek dat ze koopgegevens hebben
02:32
for hundredshonderden of thousandsduizenden of customersklanten
63
140149
2301
van honderdduizenden klanten.
02:34
and they computeberekenen what they
call a pregnancyzwangerschap scorepartituur,
64
142450
2730
Ze berekenen wat ze noemen
een zwangerschaps-score.
02:37
whichwelke is not just whetherof or
not a woman'svrouw's pregnantzwanger,
65
145180
2332
Niet óf een vrouw zwanger is
maar wanneer ze uitgeteld is.
02:39
but what her dueten gevolge datedatum is.
66
147512
1730
02:41
And they computeberekenen that
67
149242
1304
Ze berekenden dat niet
02:42
not by looking at the obviousduidelijk things,
68
150546
1768
aan de hand van bekende dingen
02:44
like, she's buyingbuying a cribledikant or babybaby clotheskleren,
69
152314
2512
zoals het kopen van
een bedje of kleertjes,
02:46
but things like, she boughtkocht more vitaminsvitaminen
70
154826
2943
maar omdat ze bijvoorbeeld
meer vitaminen kocht dan normaal,
02:49
than she normallynormaal had,
71
157769
1717
02:51
or she boughtkocht a handbaghandtas
72
159486
1464
of ze kocht een handtas
02:52
that's biggroot enoughgenoeg to holdhouden diapersluiers.
73
160950
1711
die groot genoeg is voor luiers.
02:54
And by themselveszich, those purchasesaankopen don't seemlijken
74
162661
1910
En elk op zichzelf
onthult dat niet veel
02:56
like they mightmacht revealonthullen a lot,
75
164571
2469
maar als je deze gedragspatronen
02:59
but it's a patternpatroon of behaviorgedrag that,
76
167040
1978
03:01
when you take it in the contextcontext
of thousandsduizenden of other people,
77
169018
3117
bij duizenden mensen bekijkt,
geeft dit daadwerkelijk
bepaalde inzichten.
03:04
startsstarts to actuallywerkelijk revealonthullen some insightsinzichten.
78
172135
2757
03:06
So that's the kindsoort of thing that we do
79
174892
1793
Dat zijn we aan het doen
03:08
when we're predictingvoorspellen stuffspul
about you on socialsociaal mediamedia.
80
176685
2567
als we dingen voorspellen
over jou en sociale media.
03:11
We're looking for little
patternspatronen of behaviorgedrag that,
81
179252
2796
We kijken naar subtiele
gedragspatronen die,
03:14
when you detectopsporen them amongtussen millionsmiljoenen of people,
82
182048
2682
als je dat ziet bij miljoenen mensen,
03:16
letslaten we us find out all kindssoorten of things.
83
184730
2706
allerlei dingen onthullen.
03:19
So in my lablaboratorium and with colleaguescollega's,
84
187436
1747
In mijn lab met mijn collega's,
03:21
we'vewij hebben developedontwikkelde mechanismsmechanismen where we can
85
189183
1777
hebben we bedacht hoe we dingen
aardig kunnen voorspellen
03:22
quiteheel accuratelynauwkeurig predictvoorspellen things
86
190960
1560
03:24
like your politicalpolitiek preferencevoorkeur,
87
192520
1725
zoals je politieke voorkeur,
03:26
your personalitypersoonlijkheid scorepartituur, gendergeslacht, sexualseksueel orientationafdrukstand,
88
194245
3752
je persoonlijkheid, aard,
seksuele voorkeur,
03:29
religiongodsdienst, ageleeftijd, intelligenceintelligentie-,
89
197997
2873
geloof, leeftijd, intelligentie,
03:32
alonglangs with things like
90
200870
1394
en nog veel meer:
03:34
how much you trustvertrouwen the people you know
91
202264
1937
in hoeverre je je kennissen vertrouwt
03:36
and how strongsterk those relationshipsrelaties are.
92
204201
1804
en hoe sterk je relatie met hen is.
03:38
We can do all of this really well.
93
206005
1785
We kunnen dat behoorlijk goed.
03:39
And again, it doesn't come from what you mightmacht
94
207790
2197
Het komt niet van wat je zou denken,
03:41
think of as obviousduidelijk informationinformatie.
95
209987
2102
uit voor de hand liggende informatie.
03:44
So my favoritefavoriete examplevoorbeeld is from this studystudie
96
212089
2281
Mijn favoriete voorbeeld
is van een onderzoek
03:46
that was publishedgepubliceerd this yearjaar
97
214370
1240
dat dit jaar stond
03:47
in the ProceedingsProcedure of the NationalNationale AcademiesAcademies.
98
215610
1795
in het tijdschrift PNAS.
03:49
If you GoogleGoogle this, you'llje zult find it.
99
217405
1285
Googel maar eens.
03:50
It's fourvier pagespagina's, easygemakkelijk to readlezen.
100
218690
1872
Vier pagina's, goed leesbaar.
03:52
And they lookedkeek at just people'sPeople's FacebookFacebook likessympathieën,
101
220562
3003
Ze keken alleen
naar de 'likes' op Facebook.
03:55
so just the things you like on FacebookFacebook,
102
223565
1920
Dus: dingen die je
leuk vindt op Facebook.
03:57
and used that to predictvoorspellen all these attributeskenmerken,
103
225485
2138
Ze gebruikten dat
om die kenmerken te voorspellen
03:59
alonglangs with some other onesdegenen.
104
227623
1645
en nog wat andere dingen.
04:01
And in theirhun paperpapier they listedopgesomd the fivevijf likessympathieën
105
229268
2961
In hun scriptie noemden ze de vijf 'likes'
04:04
that were mostmeest indicativeindicatieve of highhoog intelligenceintelligentie-.
106
232229
2787
die het sterkst wezen
op een hoge intelligentie.
04:07
And amongtussen those was likingsmaak a pagepagina
107
235016
2324
Daartussen stond ook het 'liken'
04:09
for curlykrullend friesfrietjes. (LaughterGelach)
108
237340
1905
van krulfriet.
(Gelach)
04:11
CurlyKrullend friesfrietjes are deliciousheerlijke,
109
239245
2093
Krulfriet is heerlijk,
04:13
but likingsmaak them does not necessarilynodig mean
110
241338
2530
maar ervan houden
betekent niet per se
04:15
that you're smarterslimmer than the averagegemiddelde personpersoon.
111
243868
2080
dat je slimmer bent dan gemiddeld.
04:17
So how is it that one of the strongeststerkste indicatorsindicatoren
112
245948
3207
Hoe kan het dan dat
een van de sterkste aanwijzingen
04:21
of your intelligenceintelligentie-
113
249155
1570
over je intelligentie
04:22
is likingsmaak this pagepagina
114
250725
1447
het 'liken' van deze pagina is
04:24
when the contentinhoud is totallyhelemaal irrelevantirrelevant
115
252172
2252
als de inhoud totaal los staat
04:26
to the attributeattribuut that's beingwezen predictedvoorspelde?
116
254424
2527
van het kenmerk dat voorspeld wordt?
04:28
And it turnsbochten out that we have to look at
117
256951
1584
Het blijkt dat we moeten kijken
04:30
a wholegeheel bunchbos of underlyingonderliggende theoriestheorieën
118
258535
1618
naar onderliggende theorieën
04:32
to see why we're ablein staat to do this.
119
260153
2569
om te zien hoe we dat kunnen doen.
04:34
One of them is a sociologicalsociologische
theorytheorie calledriep homophilyhomophily,
120
262722
2913
Een ervan is een sociologische theorie
die homofilie heet.
04:37
whichwelke basicallyeigenlijk sayszegt people are
friendsvrienden with people like them.
121
265635
3092
Je bent bevriend
met mensen zoals jezelf.
04:40
So if you're smartslim, you tendde neiging hebben to
be friendsvrienden with smartslim people,
122
268727
2014
Slimme mensen
hebben slimme vrienden.
04:42
and if you're youngjong, you tendde neiging hebben
to be friendsvrienden with youngjong people,
123
270741
2630
Als je jong bent
heb je jonge vrienden.
04:45
and this is well establishedgevestigd
124
273371
1627
Dat is al eeuwen ingeburgerd.
04:46
for hundredshonderden of yearsjaar.
125
274998
1745
We weten ook veel over
04:48
We alsoook know a lot
126
276743
1232
04:49
about how informationinformatie spreadsspreads throughdoor networksnetwerken.
127
277975
2550
hoe informatie wordt verspreid
in netwerken.
04:52
It turnsbochten out things like viralvirale videosvideos
128
280525
1754
Het blijkt dat virale video's
of likes op Facebook en andere informatie
04:54
or FacebookFacebook likessympathieën or other informationinformatie
129
282279
2406
zich op precies dezelfde
manier verspreiden
04:56
spreadsspreads in exactlyprecies the samedezelfde way
130
284685
1888
04:58
that diseasesziekten spreadverspreiding throughdoor socialsociaal networksnetwerken.
131
286573
2454
als ziektes in een sociaal netwerk.
Dat hebben we lang bestudeerd.
05:01
So this is something we'vewij hebben studiedbestudeerd for a long time.
132
289027
1791
We hebben er goede modellen voor.
05:02
We have good modelsmodellen of it.
133
290818
1576
05:04
And so you can put those things togethersamen
134
292394
2157
Je kan die dingen dus naast elkaar zetten
05:06
and startbegin seeingziend why things like this happengebeuren.
135
294551
3088
en zien waarom zulke dingen gebeuren.
Mijn hypothese is
dat een slim iemand
05:09
So if I were to give you a hypothesishypothese,
136
297639
1814
05:11
it would be that a smartslim guy startedbegonnen this pagepagina,
137
299453
3227
deze pagina is begonnen,
of dat één van de eersten
die het 'liketen'
05:14
or maybe one of the first people who likedvond it
138
302680
1939
05:16
would have scoredscoorde highhoog on that testtest.
139
304619
1736
hoog scoorde in die test.
05:18
And they likedvond it, and theirhun friendsvrienden saw it,
140
306355
2288
Zij 'liketen' het
en hun vrienden zagen dat,
05:20
and by homophilyhomophily, we know that
he probablywaarschijnlijk had smartslim friendsvrienden,
141
308643
3122
en door homofilie weten we
dat hij slimme vrienden zal hebben.
05:23
and so it spreadverspreiding to them,
and some of them likedvond it,
142
311765
3056
Zo kregen zij het te zien
en sommigen 'liketen' het
05:26
and they had smartslim friendsvrienden,
143
314821
1189
en zo kwam het bij hún slimme vrienden,
05:28
and so it spreadverspreiding to them,
144
316010
807
05:28
and so it propagateddoorgegeven throughdoor the networknetwerk
145
316817
1973
en verspreidde zich
via dit netwerk
05:30
to a hostgastheer of smartslim people,
146
318790
2569
naar heel veel slimme mensen
05:33
so that by the endeinde, the actionactie
147
321359
2056
zodat aan het einde
05:35
of likingsmaak the curlykrullend friesfrietjes pagepagina
148
323415
2544
het 'liken' van de krulfriet-pagina
05:37
is indicativeindicatieve of highhoog intelligenceintelligentie-,
149
325959
1615
intelligentie impliceert.
05:39
not because of the contentinhoud,
150
327574
1803
Niet vanwege de inhoud
05:41
but because the actualwerkelijk actionactie of likingsmaak
151
329377
2522
maar omdat de handeling van het 'liken'
05:43
reflectsweerspiegelt back the commongemeenschappelijk attributeskenmerken
152
331899
1900
de bekende eigenschappen teruggeeft
05:45
of other people who have donegedaan it.
153
333799
2468
van anderen die dat hebben gedaan.
05:48
So this is prettymooi complicatedingewikkeld stuffspul, right?
154
336267
2897
Dat is nogal ingewikkeld hè?
05:51
It's a hardhard thing to sitzitten down and explainuitleg geven
155
339164
2199
Het is moeilijk uit te leggen
05:53
to an averagegemiddelde usergebruiker, and even if you do,
156
341363
2848
aan de gemiddelde gebruiker,
en al leg je het uit,
05:56
what can the averagegemiddelde usergebruiker do about it?
157
344211
2188
wat kan die gemiddelde gebruiker
eraan doen?
05:58
How do you know that
you've likedvond something
158
346399
2048
Hoe weet je dat een 'like'
06:00
that indicatesduidt op a traitTrait for you
159
348447
1492
iets impliceert over jou,
06:01
that's totallyhelemaal irrelevantirrelevant to the
contentinhoud of what you've likedvond?
160
349939
3545
dat helemaal los staat
van de inhoud die je 'liket'?
06:05
There's a lot of powermacht that usersgebruikers don't have
161
353484
2546
Er is veel macht
die gebruikers niet hebben
06:08
to controlcontrole how this datagegevens is used.
162
356030
2230
om te bepalen
hoe de gegevens worden gebruikt.
06:10
And I see that as a realecht
problemprobleem going forwardvooruit.
163
358260
3112
Ik zie dat als een probleem
dat steeds groter wordt.
06:13
So I think there's a couplepaar pathspaden
164
361372
1977
Ik denk dat we een aantal
richtingen op kunnen
06:15
that we want to look at
165
363349
1001
06:16
if we want to give usersgebruikers some controlcontrole
166
364350
1910
als we de gebruikers
willen laten bepalen
06:18
over how this datagegevens is used,
167
366260
1740
hoe die gegevens worden gebruikt,
06:20
because it's not always going to be used
168
368000
1940
want het wordt niet altijd
in hun voordeel gebruikt.
06:21
for theirhun benefitvoordeel.
169
369940
1381
06:23
An examplevoorbeeld I oftenvaak give is that,
170
371321
1422
Ik zeg vaak:
als professor zijn me gaat vervelen,
06:24
if I ever get boredverveeld beingwezen a professorprofessor,
171
372743
1646
06:26
I'm going to go startbegin a companybedrijf
172
374389
1653
ga ik een bedrijf beginnen
06:28
that predictsvoorspelt all of these attributeskenmerken
173
376042
1454
dat eigenschappen voorspelt.
06:29
and things like how well you work in teamsteams
174
377496
1602
Dingen als teamwork
06:31
and if you're a drugdrug usergebruiker, if you're an alcoholicalcoholisch.
175
379098
2671
en of drugs gebruikt,
of je alcoholist bent.
06:33
We know how to predictvoorspellen all that.
176
381769
1440
We weten hoe je dat voorspelt.
06:35
And I'm going to sellverkopen reportsrapporten
177
383209
1761
Ik ga verslagen verkopen
06:36
to H.R. companiesbedrijven and biggroot businessesondernemingen
178
384970
2100
aan HR-firma's en grote ondernemingen
06:39
that want to hirehuren you.
179
387070
2273
die je willen inhuren.
We kunnen dat allemaal al.
06:41
We totallyhelemaal can do that now.
180
389343
1177
06:42
I could startbegin that businessbedrijf tomorrowmorgen,
181
390520
1788
Ik kan dat bedrijf morgen beginnen
06:44
and you would have
absolutelyAbsoluut no controlcontrole
182
392308
2052
en jij zou niet kunnen voorkomen
06:46
over me usinggebruik makend van your datagegevens like that.
183
394360
2138
dat ik jouw gegevens zo gebruik.
06:48
That seemslijkt to me to be a problemprobleem.
184
396498
2292
Dat lijkt me wel een probleem.
Eén mogelijkheid is
06:50
So one of the pathspaden we can go down
185
398790
1910
dat we ons richten
op beleid en wetgeving.
06:52
is the policyhet beleid and lawwet pathpad.
186
400700
2032
06:54
And in some respectsopzichten, I think
that that would be mostmeest effectiveeffectief,
187
402732
3046
In sommige opzichten zou dat
het effectiefst zijn
maar het probleem is
om het daadwerkelijk te doen.
06:57
but the problemprobleem is we'dwij hadden
actuallywerkelijk have to do it.
188
405778
2756
07:00
ObservingObserveren our politicalpolitiek processwerkwijze in actionactie
189
408534
2780
Als ik kijk naar de politiek
07:03
makesmerken me think it's highlyzeer unlikelyonwaarschijnlijk
190
411314
2379
dan lijkt me het niet waarschijnlijk
07:05
that we're going to get a bunchbos of representativesvertegenwoordigers
191
413693
1597
dat we vertegenwoordigers krijgen
07:07
to sitzitten down, learnleren about this,
192
415290
1986
die zich hier
grondig over informeren
07:09
and then enactvaardigen sweepingvegen changesveranderingen
193
417276
2106
en dan het intellectueel eigendomsrecht
ingrijpend gaan veranderen,
07:11
to intellectualintellectueel propertyeigendom lawwet in the U.S.
194
419382
2157
zodat gebruikers controle krijgen
over hun gegevens.
07:13
so usersgebruikers controlcontrole theirhun datagegevens.
195
421539
2461
Je kan het beleidsmatig doen,
07:16
We could go the policyhet beleid routeroute,
196
424000
1304
07:17
where socialsociaal mediamedia companiesbedrijven say,
197
425304
1479
als sociale mediabedrijven
07:18
you know what? You owneigen your datagegevens.
198
426783
1402
jou volledige controle geven
over je gegevens.
07:20
You have totaltotaal controlcontrole over how it's used.
199
428185
2489
Maar de verdienmodellen
van de meeste sociale mediabedrijven
07:22
The problemprobleem is that the revenueomzet modelsmodellen
200
430674
1848
07:24
for mostmeest socialsociaal mediamedia companiesbedrijven
201
432522
1724
07:26
relyvertrouwen on sharingdelen or exploitingexploitatie van
users'gebruikers datagegevens in some way.
202
434246
4031
berusten op het delen of uitbaten
van de gebruikersgegevens.
07:30
It's sometimessoms said of FacebookFacebook that the usersgebruikers
203
438277
1833
Ze zeggen van Facebook dat de gebruikers
niet de klant zijn, maar het product.
07:32
aren'tzijn niet the customerklant, they're the productartikel.
204
440110
2528
07:34
And so how do you get a companybedrijf
205
442638
2714
Hoe krijg je dan een bedrijf zover
07:37
to cedeafstaan controlcontrole of theirhun mainhoofd assetaanwinst
206
445352
2558
dat ze de macht
over hun belangrijkste troef
07:39
back to the usersgebruikers?
207
447910
1249
teruggeven aan de klant?
07:41
It's possiblemogelijk, but I don't think it's something
208
449159
1701
Het is mogelijk, maar ik denk niet
07:42
that we're going to see changeverandering quicklysnel.
209
450860
2320
dat we dat snel
zullen zien veranderen.
07:45
So I think the other pathpad
210
453180
1500
Ik denk dat het op
een effectievere manier kan
07:46
that we can go down that's
going to be more effectiveeffectief
211
454680
2288
door middel van
meer wetenschap.
07:48
is one of more sciencewetenschap.
212
456968
1508
07:50
It's doing sciencewetenschap that allowedtoegestaan us to developontwikkelen
213
458476
2510
Door wetenschap te bedrijven
konden we de
mechanismes ontwikkelen
07:52
all these mechanismsmechanismen for computinggegevensverwerking
214
460986
1750
07:54
this personalpersoonlijk datagegevens in the first placeplaats.
215
462736
2052
om persoonlijke gegevens te berekenen.
07:56
And it's actuallywerkelijk very similarsoortgelijk researchOnderzoek
216
464788
2106
Dat is bijna hetzelfde onderzoek
07:58
that we'dwij hadden have to do
217
466894
1438
dat we zouden moeten doen
08:00
if we want to developontwikkelen mechanismsmechanismen
218
468332
2386
als we mechanismes willen ontwikkelen
08:02
that can say to a usergebruiker,
219
470718
1421
die een gebruiker zeggen:
08:04
"Here'sHier is the riskrisico of that actionactie you just tooknam."
220
472139
2229
"Dit is het risico
van wat je zojuist deed."
08:06
By likingsmaak that FacebookFacebook pagepagina,
221
474368
2080
Doordat jij deze Facebook-pagina 'liket',
08:08
or by sharingdelen this piecestuk of personalpersoonlijk informationinformatie,
222
476448
2535
of deze persoonlijke informatie deelt,
08:10
you've now improvedverbeterd my abilityvermogen
223
478983
1502
kan ik nu beter voorspellen
08:12
to predictvoorspellen whetherof or not you're usinggebruik makend van drugsdrugs
224
480485
2086
of je drugs gebruikt
08:14
or whetherof or not you get
alonglangs well in the workplacewerkplaats.
225
482571
2862
en of je populair bent op je werk.
08:17
And that, I think, can affectaantasten whetherof or not
226
485433
1848
Dat kan volgens mij
beïnvloeden of mensen
08:19
people want to sharedelen something,
227
487281
1510
wel of niet iets willen delen,
08:20
keep it privateprivaat, or just keep it offlineoffline altogetherover het geheel genomen.
228
488791
3239
het afgeschermd houden
of het offline houden.
08:24
We can alsoook look at things like
229
492030
1563
Ook zouden we mensen
08:25
allowingtoestaan people to encryptcoderen datagegevens that they uploaduploaden,
230
493593
2728
in staat kunnen stellen
hun geüploade data te versleutelen
08:28
so it's kindsoort of invisibleonzichtbaar and worthlesswaardeloos
231
496321
1855
zodat die onzichtbaar
en waardeloos wordt
08:30
to sitesplaatsen like FacebookFacebook
232
498176
1431
voor sites als Facebook
08:31
or thirdderde partyfeest servicesdiensten that accesstoegang it,
233
499607
2629
of derde partijen die erbij kunnen.
08:34
but that selectkiezen usersgebruikers who the personpersoon who postedGeplaatst it
234
502236
3247
Dan bepaalt degene
die het gepost heeft
08:37
want to see it have accesstoegang to see it.
235
505483
2670
welke gebruikers toegang hebben.
08:40
This is all supersuper excitingopwindend researchOnderzoek
236
508153
2166
Dat is allemaal erg spannend onderzoek
08:42
from an intellectualintellectueel perspectiveperspectief,
237
510319
1620
vanuit intellectueel oogpunt,
08:43
and so scientistswetenschappers are going to be willinggewillig to do it.
238
511939
1859
dus doen wetenschappers het graag.
08:45
So that givesgeeft us an advantagevoordeel over the lawwet sidekant.
239
513798
3610
Dat geeft ons een voordeel
ten opzichte van de juridische optie.
Een probleem dat mensen aandragen
08:49
One of the problemsproblemen that people bringbrengen up
240
517408
1725
08:51
when I talk about this is, they say,
241
519133
1595
als ik hierover praat is:
08:52
you know, if people startbegin
keepingbewaring all this datagegevens privateprivaat,
242
520728
2646
"Als mensen die gegevens
voor zichzelf houden,
08:55
all those methodsmethoden that you've been developingontwikkelen
243
523374
2113
werken al jouw methodes
om hun eigenschappen
te voorspellen niet meer."
08:57
to predictvoorspellen theirhun traitseigenschappen are going to failmislukken.
244
525487
2653
09:00
And I say, absolutelyAbsoluut, and for me, that's successsucces,
245
528140
3520
Ik zeg dan: "Jazeker,
en dat noem ik succes,
09:03
because as a scientistwetenschapper,
246
531660
1786
want als wetenschapper
09:05
my goaldoel is not to inferafleiden informationinformatie about usersgebruikers,
247
533446
3688
is mijn doel niet om informatie
over gebruikers te krijgen,
09:09
it's to improveverbeteren the way people interactop elkaar inwerken onlineonline.
248
537134
2767
maar om de interactie
online te verbeteren.
09:11
And sometimessoms that involvesimpliceert
inferringafgeleid van things about them,
249
539901
3218
Soms houdt dat in dat
je gegevens van hen achterhaalt,
09:15
but if usersgebruikers don't want me to use that datagegevens,
250
543119
3022
maar als gebruikers
niet willen dat ik die gebruik,
09:18
I think they should have the right to do that.
251
546141
2038
moeten ze dat recht hebben.
09:20
I want usersgebruikers to be informedop de hoogte and consentingtoestemming
252
548179
2651
Ik wil dat gebruikers geïnformeerd zijn
en instemmen met de tools
die we maken.
09:22
usersgebruikers of the toolsgereedschap that we developontwikkelen.
253
550830
2112
09:24
And so I think encouragingbemoedigend this kindsoort of sciencewetenschap
254
552942
2952
Deze manier van wetenschap aanmoedigen
en onderzoekers ondersteunen
09:27
and supportingondersteuning van researchersonderzoekers
255
555894
1346
09:29
who want to cedeafstaan some of that controlcontrole back to usersgebruikers
256
557240
3023
die wat zeggenschap
teruggeven aan de gebruikers
09:32
and away from the socialsociaal mediamedia companiesbedrijven
257
560263
2311
ten koste van de
sociale mediabedrijven,
09:34
meansmiddelen that going forwardvooruit, as these toolsgereedschap evolveevolueren
258
562574
2671
betekent dat we met de
verbeteringen van deze tools
09:37
and advancevan te voren,
259
565245
1476
ook beter onderlegde gebruikers
met betere middelen krijgen.
09:38
meansmiddelen that we're going to have an educatedgeleerd
260
566721
1414
09:40
and empoweredgemachtigd usergebruiker basebaseren,
261
568135
1694
09:41
and I think all of us can agreemee eens
262
569829
1100
Ik denk dat we dat allemaal
09:42
that that's a prettymooi idealideaal way to go forwardvooruit.
263
570929
2564
een vrij ideale weg
voorwaarts vinden.
09:45
Thank you.
264
573493
2184
Dank je wel.
09:47
(ApplauseApplaus)
265
575677
3080
(Applaus)
Translated by Dick Stada
Reviewed by Kevin Deamandel

▲Back to top

ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com