ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com
TEDxMidAtlantic 2013

Jennifer Golbeck: Your social media "likes" expose more than you think

Jennifer Golbeck: Curly fries gåta: Varför "gillningar" på sociala medier säger mer än vad du tror

Filmed:
2,366,837 views

Tycker du om curly fries? Har du gillat dem på Facebook? Se detta tal för att få reda på de överraskande sakerna som Facebook (och andra) kan gissa sig till om dig från dina slumpmässiga gillningar och delningar. Datorforskaren Jennifer Golbeck förklarar hur detta kommer sig, på vilket sätt vissa applikationer inte är så snälla, och varför hon tycker att vi ska ge tillbaka kontrollen över informationen till de rättmätiga ägarna.
- Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions. Full bio

Double-click the English transcript below to play the video.

00:12
If you rememberkom ihåg that first decadeårtionde of the webwebb,
0
738
1997
Om du minns internets första decennium,
00:14
it was really a staticstatiska placeplats.
1
2735
2255
så var det ett väldigt stelt ställe.
00:16
You could go onlineuppkopplad, you could look at pagessidor,
2
4990
2245
Man kunde koppla upp sig,
besöka webbsidor,
00:19
and they were put up eitherantingen by organizationsorganisationer
3
7235
2513
och dessa sattes upp
av antingen organisationer
00:21
who had teamslag to do it
4
9748
1521
som hade folk som gjorde det
00:23
or by individualsindivider who were really tech-savvyteknisk-savvy
5
11269
2229
eller av teknikkunniga individer
00:25
for the time.
6
13498
1737
vid den tiden.
00:27
And with the risestiga of socialsocial mediamedia
7
15235
1575
Och med sociala mediers ökning
00:28
and socialsocial networksnät in the earlytidigt 2000s,
8
16810
2399
och sociala nätverk under tidigt 2000-tal,
00:31
the webwebb was completelyfullständigt changedändrats
9
19209
2149
förändrades internet
helt och hållet till en plats
00:33
to a placeplats where now the vastomfattande majoritymajoritet of contentinnehåll
10
21358
3608
där majoriteten av innehållet
som vi använder
00:36
we interactpåverka varandra with is put up by averagegenomsnitt usersanvändare,
11
24966
3312
läggs upp av vanliga användare,
00:40
eitherantingen in YouTubeYouTube videosvideoklipp or blogblog postsInlägg
12
28278
2697
antingen med Youtube-videor
eller blogginlägg
00:42
or productprodukt reviewsrecensioner or socialsocial mediamedia postingsbokföringar.
13
30975
3315
eller produktrecensioner
eller inlägg på sociala medier.
00:46
And it's alsoockså becomebli a much more interactiveinteraktiv placeplats,
14
34290
2347
Det har också blivit
en mycket mer interaktiv plats,
00:48
where people are interactinginteragera with othersandra,
15
36637
2637
där folk interagerar med varandra,
00:51
they're commentingkommentera, they're sharingdelning,
16
39274
1696
de kommenterar, de delar,
00:52
they're not just readingläsning.
17
40970
1614
de läser inte bara.
00:54
So FacebookFacebook is not the only placeplats you can do this,
18
42584
1866
Facebook är inte den enda plats
där man gör detta
00:56
but it's the biggeststörsta,
19
44450
1098
men den är störst
00:57
and it servesserverar to illustrateillustrera the numberstal.
20
45548
1784
och kan illustrera siffrorna.
00:59
FacebookFacebook has 1.2 billionmiljard usersanvändare perper monthmånad.
21
47332
3477
Facebook har 1,2 miljarder
användare per månad.
01:02
So halfhalv the Earth'sJordens InternetInternet populationbefolkning
22
50809
1930
Så halva jordens internetbefolkning
01:04
is usinganvänder sig av FacebookFacebook.
23
52739
1653
använder Facebook.
De är en webbplats
som tillsammans med andra
01:06
They are a sitewebbplats, alonglängs with othersandra,
24
54392
1932
01:08
that has allowedtillåten people to createskapa an onlineuppkopplad personapersona
25
56324
3219
har möjliggjort för folk
att skapa sig en onlineidentitet
01:11
with very little technicalteknisk skillskicklighet,
26
59543
1782
med väldigt begränsade teknikkunskaper,
01:13
and people respondedsvarade by puttingsätta hugeenorm amountsmängder
27
61325
2476
och folk svarade med att lägga upp enormt
01:15
of personalpersonlig datadata onlineuppkopplad.
28
63801
1983
mycket personlig information online.
01:17
So the resultresultat is that we have behavioralbeteendemässiga,
29
65784
2543
Så resultatet är att vi har behovsmässig,
01:20
preferencepreferens, demographicdemografisk datadata
30
68327
1986
preferensmässig och demografisk data
01:22
for hundredshundratals of millionsmiljoner of people,
31
70313
2101
för hundratals miljoner människor,
01:24
whichsom is unprecedentedutan motstycke in historyhistoria.
32
72414
2026
vilket inte tidigare funnits i historien.
01:26
And as a computerdator scientistforskare,
what this meansbetyder is that
33
74440
2560
För en datorforskare som mig
betyder detta att
01:29
I've been ablestånd to buildbygga modelsmodeller
34
77000
1664
jag har kunnat bygga modeller
01:30
that can predictförutspå all sortssorterar of hiddendold attributesattribut
35
78664
2322
som kan förutse många gömda attribut
01:32
for all of you that you don't even know
36
80986
2284
om alla er som ni inte ens visste
01:35
you're sharingdelning informationinformation about.
37
83270
2202
att ni delar mer er information om.
01:37
As scientistsvetenskapsmän, we use that to help
38
85472
2382
Som forskare använder vi det för
att förbättra sättet
01:39
the way people interactpåverka varandra onlineuppkopplad,
39
87854
2114
som folk interagerar på nätet,
01:41
but there's lessmindre altruisticaltruistiska applicationstillämpningar,
40
89968
2499
men det finns applikationer
som är mindre osjälviska
01:44
and there's a problemproblem in that usersanvändare don't really
41
92467
2381
och det är ett problem
att användarna inte riktigt
01:46
understandförstå these techniquestekniker and how they work,
42
94848
2470
förstår dessa tekniker
och hur de fungerar,
01:49
and even if they did, they don't
have a lot of controlkontrollera over it.
43
97318
3128
och även om de gjorde det,
har de inte så stor kontroll över det.
01:52
So what I want to talk to you about todayi dag
44
100446
1490
Det jag vill prata med er om idag
01:53
is some of these things that we're ablestånd to do,
45
101936
2702
handlar om de saker
vi har en möjlighet att göra,
01:56
and then give us some ideasidéer
of how we mightmakt go forwardfram-
46
104638
2763
och sen ge oss några idéer
om hur vi kan röra oss mot
01:59
to moveflytta some controlkontrollera back into the handshänder of usersanvändare.
47
107401
2769
att ge tillbaka kontrollen
till användarna.
02:02
So this is TargetMål, the companyföretag.
48
110170
1586
Detta är Target, ett företag.
02:03
I didn't just put that logologotyp
49
111756
1324
Jag satte inte det emblemet
på denna stackars gravida kvinnans mage.
02:05
on this poorfattig, pregnantgravid woman'skvinnas bellymage.
50
113080
2170
02:07
You mayMaj have seensett this anecdoteanekdot that was printedtryckt
51
115250
1840
Du kanske har sett anekdoten
som publicerades i Forbes
02:09
in ForbesForbes magazinetidskrift where TargetMål
52
117090
2061
där Target skickade ett flygblad
02:11
sentskickat a flyerFlyer to this 15-year-old-år gammal girlflicka
53
119151
2361
till en 15-årig flicka
02:13
with advertisementsannonser and couponskuponger
54
121512
1710
med reklam och kuponger
02:15
for babybebis bottlesflaskor and diapersblöjor and cribsspjälsängar
55
123222
2554
för nappflaskor, blöjor och spjälsängar
två veckor innan hon berättat
för sina föräldrar
02:17
two weeksveckor before she told her parentsföräldrar
56
125776
1684
02:19
that she was pregnantgravid.
57
127460
1864
att hon var gravid.
02:21
Yeah, the dadpappa was really upsetupprörd.
58
129324
2704
Ja, pappan var väldigt upprörd.
02:24
He said, "How did TargetMål figurefigur out
59
132028
1716
Han sa, "Hur listade Target ut
02:25
that this highhög schoolskola girlflicka was pregnantgravid
60
133744
1824
att denna gymnasietjejen var gravid
02:27
before she told her parentsföräldrar?"
61
135568
1960
innan hon berättade för sina föräldrar?".
02:29
It turnsvarv out that they have the purchaseinköp historyhistoria
62
137528
2621
Det visade sig att de hade köphistoriken
02:32
for hundredshundratals of thousandstusentals of customerskunder
63
140149
2301
för tiotusentals kvinnor
02:34
and they computeberäkna what they
call a pregnancygraviditet scoregöra,
64
142450
2730
och beräknat, som de kallar det,
en graviditetspoäng,
02:37
whichsom is not just whetherhuruvida or
not a woman'skvinnas pregnantgravid,
65
145180
2332
vilket inte bara räknar ut
om kvinnan är gravid,
02:39
but what her duepå grund av datedatum is.
66
147512
1730
utan också när barnet kommer.
02:41
And they computeberäkna that
67
149242
1304
De räknar inte ut det
02:42
not by looking at the obviousuppenbar things,
68
150546
1768
bara genom att se på det uppenbara,
02:44
like, she's buyinguppköp a cribspjälsäng or babybebis clotheskläder,
69
152314
2512
som att hon köper en spjälsäng
eller barnkläder,
02:46
but things like, she boughtköpt more vitaminsvitaminer
70
154826
2943
utan saker som att hon köpt mer vitaminer
02:49
than she normallyi vanliga fall had,
71
157769
1717
än vanligt
02:51
or she boughtköpt a handbaghandväska
72
159486
1464
eller att hon en handväska
02:52
that's bigstor enoughtillräckligt to holdhåll diapersblöjor.
73
160950
1711
som är stor nog att rymma blöjor.
02:54
And by themselvessig själva, those purchasesinköp don't seemverka
74
162661
1910
Och för sig själva verkar inte dessa inköp
02:56
like they mightmakt revealavslöja a lot,
75
164571
2469
avslöja särskilt mycket
02:59
but it's a patternmönster of behaviorbeteende that,
76
167040
1978
men det är ett beteendemönster, så när
03:01
when you take it in the contextsammanhang
of thousandstusentals of other people,
77
169018
3117
man sätter det i samma kontext
som tusentals andra,
03:04
startsbörjar to actuallyfaktiskt revealavslöja some insightsinsikter.
78
172135
2757
börjar det visa ett antal insikter.
03:06
So that's the kindsnäll of thing that we do
79
174892
1793
Det är den sortens saker vi gör
03:08
when we're predictingförutsäga stuffgrejer
about you on socialsocial mediamedia.
80
176685
2567
när vi förutser saker om dig
på sociala medier.
03:11
We're looking for little
patternsmönster of behaviorbeteende that,
81
179252
2796
Vi letar efter små beteendemönster,
03:14
when you detectupptäcka, detektera them amongbland millionsmiljoner of people,
82
182048
2682
som visar sig bland miljontals människor,
03:16
letslåter us find out all kindsslag of things.
83
184730
2706
som låter oss få reda på
alla möjliga saker.
03:19
So in my lablabb and with colleagueskollegor,
84
187436
1747
I mitt labb och med kollegor,
03:21
we'vevi har developedtagit fram mechanismsmekanismer where we can
85
189183
1777
har vi utvecklat mekanismer som låter oss
03:22
quiteganska accuratelyexakt predictförutspå things
86
190960
1560
förutsäga saker rätt precist
03:24
like your politicalpolitisk preferencepreferens,
87
192520
1725
som dina politiska preferenser
03:26
your personalitypersonlighet scoregöra, genderkön, sexualsexuell orientationorientering,
88
194245
3752
din personlighetstyp, kön,
sexuell läggning,
03:29
religionreligion, ageålder, intelligenceintelligens,
89
197997
2873
religion, ålder, intelligens,
03:32
alonglängs with things like
90
200870
1394
tillsammans med saker som
03:34
how much you trustförtroende the people you know
91
202264
1937
hur mycket du litar på dina medmänniskor
03:36
and how strongstark those relationshipsrelationer are.
92
204201
1804
och hur starka dessa relationer är.
03:38
We can do all of this really well.
93
206005
1785
Vi kan göra allt detta väldigt väl.
03:39
And again, it doesn't come from what you mightmakt
94
207790
2197
Återigen, det kommer inte från vad ni tror
03:41
think of as obviousuppenbar informationinformation.
95
209987
2102
är uppenbara saker.
03:44
So my favoritefavorit- exampleexempel is from this studystudie
96
212089
2281
Mitt favoritexempel från en studie
03:46
that was publishedpublicerat this yearår
97
214370
1240
som publicerades i år
i Proceedings of the National Academies.
03:47
in the ProceedingsMålet of the NationalNationella AcademiesAkademier.
98
215610
1795
03:49
If you GoogleGoogle this, you'lldu kommer find it.
99
217405
1285
Om du googlar så hittar du den.
03:50
It's fourfyra pagessidor, easylätt to readläsa.
100
218690
1872
Den är på fyra sidor och lättläst.
03:52
And they lookedtittade at just people'smänniskors FacebookFacebook likesgillar,
101
220562
3003
De såg bara
på folks gillningar på Facebook,
03:55
so just the things you like on FacebookFacebook,
102
223565
1920
så bara de saker man gillar på Facebook,
03:57
and used that to predictförutspå all these attributesattribut,
103
225485
2138
och använde det
för att förutse alla attribut
03:59
alonglängs with some other onesettor.
104
227623
1645
tillsammans med andra saker.
04:01
And in theirderas paperpapper they listedlistade the fivefem likesgillar
105
229268
2961
Och i deras text listade de
de fem gillningarna
04:04
that were mostmest indicativevägledande of highhög intelligenceintelligens.
106
232229
2787
som bäst indikerade hög intelligens.
04:07
And amongbland those was likingtycke a pagesida
107
235016
2324
Bland dessa fanns en sida
04:09
for curlylockigt friesfrites. (LaughterSkratt)
108
237340
1905
om curly fries. (Skratt)
04:11
CurlyLockigt friesfrites are deliciousläckra,
109
239245
2093
Curly fries är jättegoda,
04:13
but likingtycke them does not necessarilynödvändigtvis mean
110
241338
2530
men att gilla dem
betyder inte nödvändigtvis
att du är smartare än en
genomsnittlig person.
04:15
that you're smartersmartare than the averagegenomsnitt personperson.
111
243868
2080
04:17
So how is it that one of the strongeststarkaste indicatorsindikatorer
112
245948
3207
Hur kommer det sig
att en av de starkaste indikationerna
04:21
of your intelligenceintelligens
113
249155
1570
på ens intelligens
04:22
is likingtycke this pagesida
114
250725
1447
är att gilla denna sida
04:24
when the contentinnehåll is totallytotalt irrelevantirrelevant
115
252172
2252
med innehåll som är totalt irrelevant
04:26
to the attributeattribut that's beingvarelse predictedförutsagd?
116
254424
2527
för attributet som förutses?
04:28
And it turnsvarv out that we have to look at
117
256951
1584
Och det visar sig att vi måste se
04:30
a wholehela bunchknippa of underlyingunderliggande theoriesteorier
118
258535
1618
till en massa bakomliggande teorier
04:32
to see why we're ablestånd to do this.
119
260153
2569
för att se hur vi kan göra detta.
04:34
One of them is a sociologicalsociologisk
theoryteori calledkallad homophilyhomophily,
120
262722
2913
En av dem är en sociologisk teori
som kallas homofili,
04:37
whichsom basicallyi grund och botten sayssäger people are
friendsvänner with people like them.
121
265635
3092
vilket betyder att folk är vänner
med folk som liknar dem själva.
04:40
So if you're smartsmart, you tendtendera to
be friendsvänner with smartsmart people,
122
268727
2014
Så om du är smart känner du ofta
andra smarta människor
04:42
and if you're youngung, you tendtendera
to be friendsvänner with youngung people,
123
270741
2630
och om du är ung
känner du ofta unga människor
04:45
and this is well establishedEtablerade
124
273371
1627
och detta är etablerat sen
04:46
for hundredshundratals of yearsår.
125
274998
1745
hundratals år tillbaka.
04:48
We alsoockså know a lot
126
276743
1232
Vi vet också mycket om
04:49
about how informationinformation spreadssprider sig throughgenom networksnät.
127
277975
2550
hur information sprids genom nätverk.
04:52
It turnsvarv out things like viralviral videosvideoklipp
128
280525
1754
Det visar sig att virala videos
04:54
or FacebookFacebook likesgillar or other informationinformation
129
282279
2406
eller Facebookgillningar
eller annan information
04:56
spreadssprider sig in exactlyexakt the samesamma way
130
284685
1888
sprider som på exakt samma sätt
04:58
that diseasessjukdomar spreadspridning throughgenom socialsocial networksnät.
131
286573
2454
som sjukdomar sprider sig
genom sociala nätverk.
05:01
So this is something we'vevi har studiedstuderade for a long time.
132
289027
1791
Detta har vi studerat länge.
05:02
We have good modelsmodeller of it.
133
290818
1576
Vi har bra modeller för det.
05:04
And so you can put those things togethertillsammans
134
292394
2157
Och man kan sätta ihop saker
05:06
and startStart seeingseende why things like this happenhända.
135
294551
3088
och börja se varför såna här saker händer.
05:09
So if I were to give you a hypothesishypotes,
136
297639
1814
Om jag ger er en hypotes,
05:11
it would be that a smartsmart guy startedsatte igång this pagesida,
137
299453
3227
skulle det vara att en smart kille
startade den här sidan,
eller kanske att en av de första
som gillade sidan
05:14
or maybe one of the first people who likedtyckte om it
138
302680
1939
05:16
would have scoredgjorde highhög on that testtesta.
139
304619
1736
hade fått bra resultat på testet.
05:18
And they likedtyckte om it, and theirderas friendsvänner saw it,
140
306355
2288
Och de gillade det,
deras vänner såg det,
05:20
and by homophilyhomophily, we know that
he probablyförmodligen had smartsmart friendsvänner,
141
308643
3122
och genom homofili vet vi
att han förmodligen hade smarta vänner,
05:23
and so it spreadspridning to them,
and some of them likedtyckte om it,
142
311765
3056
och så spreds det till dem,
vissa av dem gillade det,
och de hade smarta vänner
och det spreds vidare,
05:26
and they had smartsmart friendsvänner,
143
314821
1189
05:28
and so it spreadspridning to them,
144
316010
807
och så fortplanade det sig
genom nätverket
05:28
and so it propagatedförökade throughgenom the networknätverk
145
316817
1973
05:30
to a hostvärd of smartsmart people,
146
318790
2569
till en samling smarta människor
05:33
so that by the endslutet, the actionhandling
147
321359
2056
så till slut blev
05:35
of likingtycke the curlylockigt friesfrites pagesida
148
323415
2544
gillandet av curly fries-sidan
05:37
is indicativevägledande of highhög intelligenceintelligens,
149
325959
1615
en indikation på hög intelligens,
05:39
not because of the contentinnehåll,
150
327574
1803
inte på grund av innehållet,
05:41
but because the actualfaktisk actionhandling of likingtycke
151
329377
2522
utan för att själva gillningen
05:43
reflectsåterspeglar back the commonallmänning attributesattribut
152
331899
1900
reflekterar vanliga attribut
05:45
of other people who have doneGjort it.
153
333799
2468
hos andra som har gjort det.
05:48
So this is prettySöt complicatedkomplicerad stuffgrejer, right?
154
336267
2897
Det är rätt komplicerade saker, eller hur?
05:51
It's a hardhård thing to sitsitta down and explainförklara
155
339164
2199
Det är svårt att sätta sig och förklara
05:53
to an averagegenomsnitt useranvändare, and even if you do,
156
341363
2848
för en typisk användare,
och även om man gör det,
vad kan den medelanvändaren
05:56
what can the averagegenomsnitt useranvändare do about it?
157
344211
2188
göra åt det?
05:58
How do you know that
you've likedtyckte om something
158
346399
2048
Hur vet du att du gillat något
06:00
that indicatespekar på a traitdrag for you
159
348447
1492
som indikerar ett av dina drag
06:01
that's totallytotalt irrelevantirrelevant to the
contentinnehåll of what you've likedtyckte om?
160
349939
3545
som är helt irrelevant
för innehållet du gillar?
06:05
There's a lot of powerkraft that usersanvändare don't have
161
353484
2546
Det finns mycket makt
som användaren inte har
06:08
to controlkontrollera how this datadata is used.
162
356030
2230
för att kontrollera hur datan används.
06:10
And I see that as a realverklig
problemproblem going forwardfram-.
163
358260
3112
Och jag ser det som
ett stort problem i framtiden.
06:13
So I think there's a couplepar pathsbanor
164
361372
1977
Jag tror det finns ett par vägar
06:15
that we want to look at
165
363349
1001
som borde kolla på
06:16
if we want to give usersanvändare some controlkontrollera
166
364350
1910
om vi vill ge användarna kontroll
06:18
over how this datadata is used,
167
366260
1740
över hur datan används,
06:20
because it's not always going to be used
168
368000
1940
för det kommer inte alltid att användas
06:21
for theirderas benefitdra nytta.
169
369940
1381
till deras fördel.
06:23
An exampleexempel I oftenofta give is that,
170
371321
1422
Ett exempel jag ofta ger
är att om jag någonsin tröttnar på
att vara professor
06:24
if I ever get boreduttråkad beingvarelse a professorprofessor,
171
372743
1646
06:26
I'm going to go startStart a companyföretag
172
374389
1653
kommer jag starta ett företag
06:28
that predictsförutspår all of these attributesattribut
173
376042
1454
som förutser alla attribut
06:29
and things like how well you work in teamslag
174
377496
1602
och saker som hur du jobbar i grupp
06:31
and if you're a drugläkemedel useranvändare, if you're an alcoholicalkoholhaltig.
175
379098
2671
och om du är drogmissbrukare
eller alkoholist.
06:33
We know how to predictförutspå all that.
176
381769
1440
Vi vet hur vi ska förutse allt det.
06:35
And I'm going to sellsälja reportsrapporter
177
383209
1761
Och jag ska sälja rapporter
06:36
to H.R. companiesföretag and bigstor businessesföretag
178
384970
2100
till försäkringsbolag och storföretag
06:39
that want to hirehyra you.
179
387070
2273
som vill anställa dig.
06:41
We totallytotalt can do that now.
180
389343
1177
Vi kan göra det nu.
06:42
I could startStart that businessföretag tomorrowi morgon,
181
390520
1788
Jag kan starta företaget imorgon,
06:44
and you would have
absolutelyabsolut no controlkontrollera
182
392308
2052
och du skulle inte ha någon kontroll
06:46
over me usinganvänder sig av your datadata like that.
183
394360
2138
över hur jag använder datan.
06:48
That seemsverkar to me to be a problemproblem.
184
396498
2292
Det verkar för mig vara ett stort problem.
06:50
So one of the pathsbanor we can go down
185
398790
1910
En av vägarna vi kan gå
06:52
is the policypolitik and lawlag pathväg.
186
400700
2032
är politikens och lagens väg.
06:54
And in some respectsavseenden, I think
that that would be mostmest effectiveeffektiv,
187
402732
3046
I vissa avseenden tror jag
att det skulle vara det mest effektiva,
06:57
but the problemproblem is we'dvI hADE
actuallyfaktiskt have to do it.
188
405778
2756
men problemet är att vi faktiskt
skulle behöva göra det.
07:00
ObservingAtt Observera our politicalpolitisk processbearbeta in actionhandling
189
408534
2780
Att se hur vår politiska process fungerar
07:03
makesgör me think it's highlyi hög grad unlikelyosannolik
190
411314
2379
får mig att tro
att det är högst osannolikt
07:05
that we're going to get a bunchknippa of representativesföreträdare
191
413693
1597
att vi kommer få en massa folkvalda
07:07
to sitsitta down, learnlära sig about this,
192
415290
1986
att sätta sig ner och lära sig om detta,
07:09
and then enactEnact sweepingsotning changesförändringar
193
417276
2106
och sedan få igenom avgörande förändringar
07:11
to intellectualintellektuell propertyfast egendom lawlag in the U.S.
194
419382
2157
på immaterialrättens lag i USA
07:13
so usersanvändare controlkontrollera theirderas datadata.
195
421539
2461
så att användarna får kontroll
över sin data.
07:16
We could go the policypolitik routerutt,
196
424000
1304
Vi kan gå politikens väg,
07:17
where socialsocial mediamedia companiesföretag say,
197
425304
1479
där företag inom sociala medier säger
07:18
you know what? You ownegen your datadata.
198
426783
1402
"Vet du vad? Du äger din data.
07:20
You have totaltotal controlkontrollera over how it's used.
199
428185
2489
Du har kontroll över hur den används".
07:22
The problemproblem is that the revenueinkomst modelsmodeller
200
430674
1848
Problemet är att intäktsmodellerna
07:24
for mostmest socialsocial mediamedia companiesföretag
201
432522
1724
för flertalet företag inom sociala medier
07:26
relylita on sharingdelning or exploitingatt utnyttja
users'användarnas datadata in some way.
202
434246
4031
baserar sig på att dela eller utnyttja
användarnas data på något sätt.
07:30
It's sometimesibland said of FacebookFacebook that the usersanvändare
203
438277
1833
Det påstås ibland
om Facebook att användaren
07:32
aren'tinte the customerkund, they're the productprodukt.
204
440110
2528
inte är kunden, utan de är varan.
07:34
And so how do you get a companyföretag
205
442638
2714
Hur får man ett företag
att ge tillbaka kontrollen
över sin främsta tillgång
07:37
to cedeavträda controlkontrollera of theirderas mainhuvud assettillgång
206
445352
2558
07:39
back to the usersanvändare?
207
447910
1249
till användarna?
07:41
It's possiblemöjlig, but I don't think it's something
208
449159
1701
Det är möjligt, men jag tror inte att
07:42
that we're going to see changeByta quicklysnabbt.
209
450860
2320
det kommer ändras särskilt snabbt.
07:45
So I think the other pathväg
210
453180
1500
Jag tror att den andra vägen
07:46
that we can go down that's
going to be more effectiveeffektiv
211
454680
2288
vi kan gå som är mer effektiv
07:48
is one of more sciencevetenskap.
212
456968
1508
är en väg med mer vetenskap.
07:50
It's doing sciencevetenskap that allowedtillåten us to developutveckla
213
458476
2510
Det är genom vetenskapen
som vi kan utveckla
07:52
all these mechanismsmekanismer for computingdatoranvändning
214
460986
1750
alla dessa mekanismer för beräkningar
07:54
this personalpersonlig datadata in the first placeplats.
215
462736
2052
av personliga data från första början.
07:56
And it's actuallyfaktiskt very similarliknande researchforskning
216
464788
2106
Undersökningarna är faktiskt
väldigt lika de som vi måste göra
07:58
that we'dvI hADE have to do
217
466894
1438
08:00
if we want to developutveckla mechanismsmekanismer
218
468332
2386
om vi vill utveckla mekanismer
08:02
that can say to a useranvändare,
219
470718
1421
som kan säga till användaren,
08:04
"Here'sHär är the riskrisk of that actionhandling you just tooktog."
220
472139
2229
"Det här är risken
med den handling du nyss begick".
08:06
By likingtycke that FacebookFacebook pagesida,
221
474368
2080
Genom att gilla den där Facebooksidan
08:08
or by sharingdelning this piecebit of personalpersonlig informationinformation,
222
476448
2535
eller genom att dela en del
personlig information,
08:10
you've now improvedförbättrad my abilityförmåga
223
478983
1502
har du förbättrat
min möjlighet att förutse
08:12
to predictförutspå whetherhuruvida or not you're usinganvänder sig av drugsnarkotika
224
480485
2086
om du använder droger eller inte
08:14
or whetherhuruvida or not you get
alonglängs well in the workplacearbetsplats.
225
482571
2862
eller om du kommer bra överens
med folk på jobbet eller inte.
08:17
And that, I think, can affectpåverka whetherhuruvida or not
226
485433
1848
Det tror jag kan påverka
om folk vill dela något,
08:19
people want to sharedela med sig something,
227
487281
1510
08:20
keep it privateprivat, or just keep it offlineoff-line altogetheralldeles.
228
488791
3239
hålla det för sig själv, eller bara
vara offline helt och hållet.
Vi kan också kika på saker som
08:24
We can alsoockså look at things like
229
492030
1563
08:25
allowingtillåta people to encryptkryptera datadata that they uploadladda upp,
230
493593
2728
att låta folk kryptera uppladdade data,
så det är osynligt och värdelöst
08:28
so it's kindsnäll of invisibleosynlig and worthlessvärdelös
231
496321
1855
08:30
to siteswebbplatser like FacebookFacebook
232
498176
1431
för webbplatser som Facebook
08:31
or thirdtredje partyfest servicestjänster that accesstillgång it,
233
499607
2629
eller tredjepartstjänster
som använder det,
08:34
but that selectVälj usersanvändare who the personperson who postedPostad it
234
502236
3247
men den utvalda personen
som valts av uppladdaren
08:37
want to see it have accesstillgång to see it.
235
505483
2670
kommer att ha möjlighet att se det.
08:40
This is all supersuper excitingspännande researchforskning
236
508153
2166
Detta är superspännande forskning
08:42
from an intellectualintellektuell perspectiveperspektiv,
237
510319
1620
från ett intellektuellt perspektiv,
08:43
and so scientistsvetenskapsmän are going to be willingvillig to do it.
238
511939
1859
och forskare kommer vilja göra det.
08:45
So that givesger us an advantageFördelen over the lawlag sidesida.
239
513798
3610
Det ger oss ett övertag över lagsidan.
08:49
One of the problemsproblem that people bringföra up
240
517408
1725
Ett av problemen som folk tar upp
08:51
when I talk about this is, they say,
241
519133
1595
när jag pratar om detta är,
08:52
you know, if people startStart
keepingförvaring all this datadata privateprivat,
242
520728
2646
"Du vet, om folk börjar hålla
all data privat, så kommer
08:55
all those methodsmetoder that you've been developingutvecklande
243
523374
2113
alla metoder som du utvecklat
08:57
to predictförutspå theirderas traitsdrag are going to failmisslyckas.
244
525487
2653
som förutser deras karaktärsdrag
att misslyckas."
09:00
And I say, absolutelyabsolut, and for me, that's successframgång,
245
528140
3520
Då säger jag "Absolut,
och för mig är det en succé",
09:03
because as a scientistforskare,
246
531660
1786
för som forskare
09:05
my goalmål is not to inferhärleda informationinformation about usersanvändare,
247
533446
3688
är mitt mål inte att få tag på
information om användarna,
09:09
it's to improveförbättra the way people interactpåverka varandra onlineuppkopplad.
248
537134
2767
utan att förbättra interaktionen
mellan folk online.
09:11
And sometimesibland that involvesinvolverar
inferringdra slutsatsen things about them,
249
539901
3218
Och ibland innebär det
att dra slutsatser om dem,
09:15
but if usersanvändare don't want me to use that datadata,
250
543119
3022
men om användare inte vill ge mig
tillgång till den informationen,
09:18
I think they should have the right to do that.
251
546141
2038
tycker jag att de har rätt att göra det.
09:20
I want usersanvändare to be informedinformerad and consentingsamtyckande
252
548179
2651
Jag vill att användare ska vara
informerade och samtyckande
09:22
usersanvändare of the toolsverktyg that we developutveckla.
253
550830
2112
användare av verktygen som vi utvecklar.
09:24
And so I think encouraginguppmuntrande this kindsnäll of sciencevetenskap
254
552942
2952
Och jag tycker att vi
genom att uppmuntra denna sorts vetenskap
09:27
and supportingstödja researchersforskare
255
555894
1346
och att stötta forskare
09:29
who want to cedeavträda some of that controlkontrollera back to usersanvändare
256
557240
3023
som vill ge tillbaka kontrollen
till användarna
09:32
and away from the socialsocial mediamedia companiesföretag
257
560263
2311
från företagen inom sociala medier
09:34
meansbetyder that going forwardfram-, as these toolsverktyg evolveutveckla
258
562574
2671
betyder att vi går framåt
när dessa verktyg utvecklas
09:37
and advanceförskott,
259
565245
1476
och går framåt,
09:38
meansbetyder that we're going to have an educatedutbildad
260
566721
1414
och vi kommer få en utbildad
09:40
and empoweredbefogenhet useranvändare basebas,
261
568135
1694
och kraftfull användarbas,
och jag tror vi är överens om
att det är rätt väg att gå framåt.
09:41
and I think all of us can agreehålla med
262
569829
1100
09:42
that that's a prettySöt idealidealisk way to go forwardfram-.
263
570929
2564
09:45
Thank you.
264
573493
2184
Tack.
(Applåder)
09:47
(ApplauseApplåder)
265
575677
3080
Translated by Karl Månsson
Reviewed by Annika Bidner

▲Back to top

ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com