ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com
TEDxMidAtlantic 2013

Jennifer Golbeck: Your social media "likes" expose more than you think

Jennifer Golbeck: Záhada kučeravých hranoliek: Prečo „like“ znamená viac, ako si myslíte

Filmed:
2,366,837 views

Máte radi kučeravé hranolky? Dali ste im like na Facebooku? Pozrite si túto prednášku a nechajte sa prekvapiť tým, čo môže Facebook (a iné stránky) odhadnúť z náhodného klikania na Like (Páči sa mi to) a Share (zdieľať). Počítačová vedkyňa Jennifer Goldbeck vysvetľuje, ako sa to deje, že nie všetky aplikácie a technológie sú milé a príjemné a prečo si myslí, že by sme mali vrátiť kontrolu nad informáciami ich zákonitým vlastníkom.
- Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions. Full bio

Double-click the English transcript below to play the video.

00:12
If you rememberpamätať that first decadedesaťročia of the webweb,
0
738
1997
Ak si spomeniete na
prvé desaťročie webu,
00:14
it was really a staticstatické placemiesto.
1
2735
2255
bolo to skutočne statické miesto.
00:16
You could go onlineon-line, you could look at pagesstránky,
2
4990
2245
Mohli ste sa pripojiť, prehliadať stránky,
00:19
and they were put up eitherbuď by organizationsorganizácie
3
7235
2513
ktoré boli vkladané buď organizáciami,
00:21
who had teamstímy to do it
4
9748
1521
ktoré na to mali tímy ľudí,
00:23
or by individualsjednotlivci who were really tech-savvytech-pútavé
5
11269
2229
alebo jednotlivcami, ktorí boli v tom čase
00:25
for the time.
6
13498
1737
počítačovými špičkami.
00:27
And with the risestúpať of socialsociálny mediamédiá
7
15235
1575
S nástupom sociálnych médií
00:28
and socialsociálny networkssiete in the earlyzavčas 2000s,
8
16810
2399
a sociálnych sietí
na začiatku tisícrocia
00:31
the webweb was completelyúplne changedzmenený
9
19209
2149
sa internet razantne zmenil
00:33
to a placemiesto where now the vastnesmierny majorityväčšina of contentobsah
10
21358
3608
na miesto, kde veľká väčšina obsahu,
00:36
we interactvzájomné pôsobenie with is put up by averagepriemerný usersužívatelia,
11
24966
3312
s ktorým prídeme do styku, je
pridávaná priemernými používateľmi,
00:40
eitherbuď in YouTubeYouTube videosvideá or blogblog postspríspevky
12
28278
2697
či už ide o YouTube videá, blogy,
00:42
or productvýrobok reviewsRecenzie or socialsociálny mediamédiá postingspríspevky.
13
30975
3315
recenzie na výrobky alebo príspevky
na sociálnych médiach.
00:46
And it's alsotaktiež becomestať sa a much more interactiveinteraktívne placemiesto,
14
34290
2347
Web sa tiež stal oveľa
interaktívnejším miestom,
00:48
where people are interactinginteragujúce with othersostatné,
15
36637
2637
kde sa ľudia stretávajú s inými,
00:51
they're commentingkomentovanie, they're sharingzdieľať,
16
39274
1696
komentujú, zdieľajú,
00:52
they're not just readingčítanie.
17
40970
1614
nie sú len pasívnymi čitateľmi.
00:54
So FacebookFacebook is not the only placemiesto you can do this,
18
42584
1866
Facebook nie je jediným takým miestom,
00:56
but it's the biggestnajväčším,
19
44450
1098
ale je najväčším
00:57
and it servesslúžia to illustrateilustrovať the numbersčísla.
20
45548
1784
a dobre sa na ňom ilustrujú štatistiky.
00:59
FacebookFacebook has 1.2 billionmiliardy usersužívatelia perza monthmesiac.
21
47332
3477
Facebook má mesačne
1,2 miliardy používateľov.
01:02
So halfpolovičná the Earth'sZeme InternetInternet populationpopulácia
22
50809
1930
Takže polovica internetovej populácie
01:04
is usingpoužitím FacebookFacebook.
23
52739
1653
používa Facebook.
01:06
They are a sitesite, alongpozdĺž with othersostatné,
24
54392
1932
Takýto druh stránok
01:08
that has allowedpovolený people to createvytvoriť an onlineon-line personaosoba
25
56324
3219
dovoľuje ľudom vytvárať virtuálne identity
01:11
with very little technicaltechnický skillzručnosť,
26
59543
1782
s minimom technických zručností
01:13
and people respondedreagovala by puttinguvedenie hugeobrovský amountsmnožstvo
27
61325
2476
a ľudia v obrovskom množstve
01:15
of personalosobné datadáta onlineon-line.
28
63801
1983
dávajú na web osobné údaje.
01:17
So the resultvýsledok is that we have behavioralbehaviorálne,
29
65784
2543
V dôsledku toho máme k dispozícii dáta
01:20
preferencepreferencie, demographicdemografický datadáta
30
68327
1986
o správaní sa, preferenciách a demografii
01:22
for hundredsstovky of millionsmilióny of people,
31
70313
2101
stoviek miliónov ľudí,
01:24
whichktorý is unprecedentedbezprecedentné in historyhistórie.
32
72414
2026
čo nemá v histórii ľudstva obdoby.
01:26
And as a computerpočítačový scientistvedec,
what this meansprostriedky is that
33
74440
2560
Pre mňa ako počítačovú
vedkyňu to znamená to,
01:29
I've been ableschopný to buildvybudovať modelsmodely
34
77000
1664
že môžem tvoriť modely, ktoré vám
01:30
that can predictpredpovedať all sortsdruhy of hiddenskrytý attributesatribúty
35
78664
2322
dokážu predpovedať
množstvo skrytých vlastností,
01:32
for all of you that you don't even know
36
80986
2284
pri ktorých ani netušíte,
01:35
you're sharingzdieľať informationinformácie about.
37
83270
2202
že o nich zdieľate informácie.
01:37
As scientistsvedci, we use that to help
38
85472
2382
My vedci môžeme použiť
tieto informácie ako pomoc
01:39
the way people interactvzájomné pôsobenie onlineon-line,
39
87854
2114
pri spôsobe, akým ľudia interagujú online,
01:41
but there's lessmenej altruisticaltruistické applicationsaplikácie,
40
89968
2499
ale existuje aj menej
vznešený spôsob použitia
01:44
and there's a problemproblém in that usersužívatelia don't really
41
92467
2381
a problémom je, že používatelia
vskutku nerozumejú
01:46
understandrozumieť these techniquestechniky and how they work,
42
94848
2470
takýmto metódam a ich fungovaniu
01:49
and even if they did, they don't
have a lot of controlovládanie over it.
43
97318
3128
a aj keby rozumeli, tak to
nemajú ako kontrolovať.
01:52
So what I want to talk to you about todaydnes
44
100446
1490
Dnes chcem hovoriť
01:53
is some of these things that we're ableschopný to do,
45
101936
2702
o niektorých veciach, ktoré môžeme urobiť,
01:56
and then give us some ideasnápady
of how we mightsila go forwardvpred
46
104638
2763
a dať vám nejaké nápady, ako sa posunúť
01:59
to movesťahovať some controlovládanie back into the handsruky of usersužívatelia.
47
107401
2769
a vrátiť kontrolu späť
do rúk používateľom.
02:02
So this is TargetCieľ, the companyspoločnosť.
48
110170
1586
Toto je firma Target („Cieľ“).
02:03
I didn't just put that logologo
49
111756
1324
Nedala som to logo len tak
02:05
on this poorchudobný, pregnanttehotná woman'sženy bellybrucho.
50
113080
2170
na bruško tej úbohej tehotnej ženy.
02:07
You maysmieť have seenvidieť this anecdoteanekdota that was printedtlačený
51
115250
1840
Možno ste videli anekdotu, ktorá vyšla
02:09
in ForbesForbes magazinečasopis where TargetCieľ
52
117090
2061
vo Forbese, kde firma Target
02:11
sentodoslané a flyerleták to this 15-year-old-rok stará girldievča
53
119151
2361
poslala 15-ročnej dievčine leták
02:13
with advertisementsinzeráty and couponskupóny
54
121512
1710
s reklamou a kupónmi
02:15
for babydieťa bottlesfľaše and diapersplienky and cribsDetské postieľky
55
123222
2554
na dojčenské fľaše, plienky a postieľky
02:17
two weekstýždne before she told her parentsrodičia
56
125776
1684
dva týždne pred tým,
02:19
that she was pregnanttehotná.
57
127460
1864
čo oznámila rodičom, že je tehotná.
02:21
Yeah, the dadocko was really upsetrozčúlený.
58
129324
2704
Áno, jej otec bol z toho dosť nešťastný.
02:24
He said, "How did TargetCieľ figurefigúra out
59
132028
1716
Pýtal sa: „Ako vedela firma Target,
02:25
that this highvysoký schoolškolské girldievča was pregnanttehotná
60
133744
1824
že jeho dcéra stredoškoláčka je tehotná,
02:27
before she told her parentsrodičia?"
61
135568
1960
pred tým, ako to povedala rodičom?“
02:29
It turnszákruty out that they have the purchasenákup historyhistórie
62
137528
2621
Ukázalo sa, že firma Target
mala obchodnú históriu
02:32
for hundredsstovky of thousandstisíce of customerszákazníci
63
140149
2301
stotisícov zákazníkov
02:34
and they computevypočítať what they
call a pregnancyTehotenstvo scoreskóre,
64
142450
2730
a vypočítali niečo, čomu hovoria
tehotenské skóre,
02:37
whichktorý is not just whetherči or
not a woman'sženy pregnanttehotná,
65
145180
2332
čo nie je len fakt, či je
žena tehotná alebo nie,
02:39
but what her duespôsobený datedátum is.
66
147512
1730
ale aj dátum očakávaného pôrodu.
02:41
And they computevypočítať that
67
149242
1304
Nevypočítali to tak,
02:42
not by looking at the obviouszrejmý things,
68
150546
1768
že by sa pozerali na obvyklé veci,
02:44
like, she's buyingnákupy a cribbetlehem or babydieťa clothesoblečenie,
69
152314
2512
ako to, že kupovala postieľku
alebo detské oblečenie,
02:46
but things like, she boughtkúpil more vitaminsvitamíny
70
154826
2943
ale podľa toho, že kúpila viac vitamínov,
02:49
than she normallynormálne had,
71
157769
1717
ako kupovala normálne,
02:51
or she boughtkúpil a handbagkabelka
72
159486
1464
alebo kúpila tašku
02:52
that's bigveľký enoughdosť to holdvydržať diapersplienky.
73
160950
1711
dosť veľkú na detské plienky.
02:54
And by themselvessami, those purchasesnákupy don't seempripadať
74
162661
1910
Zdá sa, že samy od seba tieto nákupy
02:56
like they mightsila revealodhaliť a lot,
75
164571
2469
neprezrádzajú veľa,
02:59
but it's a patternvzor of behaviorsprávanie that,
76
167040
1978
ale je v tom vzor správania sa,
03:01
when you take it in the contextkontext
of thousandstisíce of other people,
77
169018
3117
ktorý keď vložíte do kontextu
správania sa tisícov ľudí,
03:04
startszačína to actuallyvlastne revealodhaliť some insightspostrehy.
78
172135
2757
začne o vás prezrádzať oveľa viac.
03:06
So that's the kinddruh of thing that we do
79
174892
1793
Toto je druh vecí, ktoré robíme,
03:08
when we're predictingpredpovedanie stuffvec
about you on socialsociálny mediamédiá.
80
176685
2567
keď o vás predpovedáme
veci na sociálnych médiách.
03:11
We're looking for little
patternsvzory of behaviorsprávanie that,
81
179252
2796
Hľadáme vzorčeky v chovaní,
03:14
when you detectodhaliť them amongmedzi millionsmilióny of people,
82
182048
2682
ktoré keď zistíme medzi miliónmi ľudí,
03:16
letslets us find out all kindsdruhy of things.
83
184730
2706
umožnia nám zistiť množstvo vecí.
03:19
So in my lablaboratórium and with colleaguesspolupracovníci,
84
187436
1747
S kolegami sme v laboratóriu
03:21
we'vemy máme developedrozvinutý mechanismsmechanizmy where we can
85
189183
1777
vyvinuli mechanizmus, ktorým môžeme
03:22
quitecelkom accuratelypresne predictpredpovedať things
86
190960
1560
celkom presne predpovedať veci,
03:24
like your politicalpolitický preferencepreferencie,
87
192520
1725
ako sú vaše politické preferencie,
03:26
your personalityosobnosť scoreskóre, genderrod, sexualsexuálnej orientationOrientácia,
88
194245
3752
osobnostné hodnotenie,
pohlavie, sexuálna orientácia,
03:29
religionnáboženstvo, ageVek, intelligenceinteligencia,
89
197997
2873
viera, vek, inteligencia,
03:32
alongpozdĺž with things like
90
200870
1394
spolu s vecami ako
03:34
how much you trustdôvera the people you know
91
202264
1937
ako dôverujete ľudom, ktorých poznáte,
03:36
and how strongsilný those relationshipsvzťahy are.
92
204201
1804
a aké pevné sú tieto vzťahy.
03:38
We can do all of this really well.
93
206005
1785
Toto všetko vieme robiť veľmi dobre.
03:39
And again, it doesn't come from what you mightsila
94
207790
2197
A to všetko zisťujeme
z informácii, ktoré by ste
03:41
think of as obviouszrejmý informationinformácie.
95
209987
2102
nepovažovali za zrejmé.
03:44
So my favoritenajobľúbenejšie examplepríklad is from this studyštudovať
96
212089
2281
Môj najobľúbenejší príklad je zo štúdie,
publikovanej tento rok
03:46
that was publishedpublikovaný this yearrok
97
214370
1240
v Proceedings of the National Academies.
03:47
in the ProceedingsKonanie of the NationalNárodné AcademiesAkadémií.
98
215610
1795
Ľahko to nájdete na Google.
03:49
If you GoogleGoogle this, you'llbudete find it.
99
217405
1285
03:50
It's fourštyri pagesstránky, easyjednoduchý to readprečítať.
100
218690
1872
Má to len 4 stránky, jednoduché čítanie.
03:52
And they lookedpozrel at just people'sľudia sa FacebookFacebook likeszáľuby,
101
220562
3003
Pozorovali iba to, čo ľudia
na Facebooku označujú „likeom“,
03:55
so just the things you like on FacebookFacebook,
102
223565
1920
len to, čo sa vám páči na Facebooku,
03:57
and used that to predictpredpovedať all these attributesatribúty,
103
225485
2138
a tým predpovedali všetky tie atribúty,
03:59
alongpozdĺž with some other onesones.
104
227623
1645
ako aj ďalšie.
04:01
And in theirich paperpapier they listeduvedené the fivepäť likeszáľuby
105
229268
2961
V štúdii urobili zoznam piatich „likeov“,
04:04
that were mostväčšina indicativeorientačný of highvysoký intelligenceinteligencia.
106
232229
2787
ktoré najviac indikovali
vysokú inteligenciu.
04:07
And amongmedzi those was likingpodľa predstáv a pagestrana
107
235016
2324
V tomto zozname bolo
aj „likeovanie“ stránky
04:09
for curlykučeravá frieshranolky. (LaughterSmiech)
108
237340
1905
s kučeravými hranolkami. (smiech)
04:11
CurlyKučeravá frieshranolky are deliciouschutné,
109
239245
2093
Kučeravé hranolky chutia úžasne,
04:13
but likingpodľa predstáv them does not necessarilynutne mean
110
241338
2530
ale to, že ich máte radi, nemusí znamenať,
04:15
that you're smartermúdrejší than the averagepriemerný persončlovek.
111
243868
2080
že ste inteligentnejší
ako priemerný človek.
04:17
So how is it that one of the strongestnajsilnejší indicatorsukazovatele
112
245948
3207
Ako môže potom byť jeden
z najsilnejších indikátorov
04:21
of your intelligenceinteligencia
113
249155
1570
vašej inteligencie to,
že označíte, že sa vám páči táto stránka,
04:22
is likingpodľa predstáv this pagestrana
114
250725
1447
04:24
when the contentobsah is totallynaprosto irrelevantirelevantné
115
252172
2252
keď obsah je absolútne irelevantný
04:26
to the attributeatribút that's beingbytia predictedpredpovedal?
116
254424
2527
k vlastnosti, ktorú chceme predpovedať?
04:28
And it turnszákruty out that we have to look at
117
256951
1584
Ukazuje sa, že sa musíme pozrieť
04:30
a wholecelý bunchchumáč of underlyingzákladné theoriesteória
118
258535
1618
na celú skupinu základných teórií,
04:32
to see why we're ableschopný to do this.
119
260153
2569
aby sme pochopili, ako sa to dá urobiť.
04:34
One of them is a sociologicalsociologické
theoryteória calledvolal homophilyhomophily,
120
262722
2913
Jedna z nich je sociologická
teória zvaná homofília,
04:37
whichktorý basicallyv podstate sayshovorí people are
friendspriatelia with people like them.
121
265635
3092
ktorá v princípe hovorí, že ľudia
sa priatelia s podobnými ľuďmi.
04:40
So if you're smartšikovný, you tendsklon to
be friendspriatelia with smartšikovný people,
122
268727
2014
Ako múdry sa skôr spriatelíte s múdrymi,
04:42
and if you're youngmladý, you tendsklon
to be friendspriatelia with youngmladý people,
123
270741
2630
ako mladý skôr s mladými ľuďmi,
04:45
and this is well establishedstanovený
124
273371
1627
to je stará známa vec
04:46
for hundredsstovky of yearsleta.
125
274998
1745
už po stovky rokov.
04:48
We alsotaktiež know a lot
126
276743
1232
Vieme tiež dosť
04:49
about how informationinformácie spreadsnátierky throughskrz networkssiete.
127
277975
2550
o tom, ako sa informácia šíri cez siete.
04:52
It turnszákruty out things like viralvírusové videosvideá
128
280525
1754
Ukazuje sa, že veci
ako virálne videá alebo
04:54
or FacebookFacebook likeszáľuby or other informationinformácie
129
282279
2406
„likey“ na Facebooku alebo iné informácie
04:56
spreadsnátierky in exactlypresne the samerovnaký way
130
284685
1888
sa šíria presne takým istým spôsobom,
04:58
that diseaseschoroby spreadnátierka throughskrz socialsociálny networkssiete.
131
286573
2454
ako sa šíria choroby, cez sociálne siete.
05:01
So this is something we'vemy máme studiedštudoval for a long time.
132
289027
1791
Takže toto študujeme už celkom dlho.
05:02
We have good modelsmodely of it.
133
290818
1576
Máme na to dobré modely.
05:04
And so you can put those things togetherspolu
134
292394
2157
Môžete zložiť tieto časti dohromady
05:06
and startštart seeingvidenie why things like this happenstať sa.
135
294551
3088
a začnete vidieť, prečo
sa veci ako toto sa stávajú.
05:09
So if I were to give you a hypothesishypotéza,
136
297639
1814
Ak by som chcela postaviť hypotézu,
05:11
it would be that a smartšikovný guy startedzahájená this pagestrana,
137
299453
3227
bola by asi taká, že túto stránku
vytvoril chytrý chlapík,
05:14
or maybe one of the first people who likedpáčilo it
138
302680
1939
alebo medzi prvými, ktorí dali „like“,
05:16
would have scoredskóroval highvysoký on that testtest.
139
304619
1736
bol niekto inteligentný.
05:18
And they likedpáčilo it, and theirich friendspriatelia saw it,
140
306355
2288
Dal „like“, jeho priatelia to videli
05:20
and by homophilyhomophily, we know that
he probablypravdepodobne had smartšikovný friendspriatelia,
141
308643
3122
a podľa homofílie vieme, že
pravdepodobne má chytrých priateľov,
05:23
and so it spreadnátierka to them,
and some of them likedpáčilo it,
142
311765
3056
takže sa to rozšírilo na nich,
niektorí tiež dali „like“.
05:26
and they had smartšikovný friendspriatelia,
143
314821
1189
Mali ďalších priateľov,
05:28
and so it spreadnátierka to them,
144
316010
807
rozšírilo sa to k nim
05:28
and so it propagatedvypestované throughskrz the networksieť
145
316817
1973
a šíri sa to sieťou
05:30
to a hosthostiteľ of smartšikovný people,
146
318790
2569
davom chytrých ľudí,
05:33
so that by the endkoniec, the actionakčné
147
321359
2056
takže v konečnom dôsledku
05:35
of likingpodľa predstáv the curlykučeravá frieshranolky pagestrana
148
323415
2544
je označenie stránky
s kučeravými hranolkami
05:37
is indicativeorientačný of highvysoký intelligenceinteligencia,
149
325959
1615
indikátorom vysokej inteligencie,
05:39
not because of the contentobsah,
150
327574
1803
nie pre obsah stránky,
05:41
but because the actualskutočný actionakčné of likingpodľa predstáv
151
329377
2522
ale pretože samotný akt označenia stránky
05:43
reflectsodráža back the commonobyčajný attributesatribúty
152
331899
1900
nás vracia späť k spoločným atribútom
05:45
of other people who have donehotový it.
153
333799
2468
iných ľudí, ktorí urobili to isté.
05:48
So this is prettypekný complicatedkomplikovaný stuffvec, right?
154
336267
2897
Asi sa vám to javí ako
pekne komplikovaná vec, že ?
05:51
It's a hardusilovne thing to sitsadnúť down and explainvysvetliť
155
339164
2199
Je to dosť ťažké, sadnúť si a vysvetliť to
05:53
to an averagepriemerný useružívateľ, and even if you do,
156
341363
2848
priemerným používateľom,
a ak to aj dokážete,
05:56
what can the averagepriemerný useružívateľ do about it?
157
344211
2188
čo s tým môže obyčajný človek urobiť ?
05:58
How do you know that
you've likedpáčilo something
158
346399
2048
Ako môžete vedieť, keď dáte like na niečo,
06:00
that indicatesindikuje a traitVlastnosť for you
159
348447
1492
čo indikuje vašu povahovú črtu,
06:01
that's totallynaprosto irrelevantirelevantné to the
contentobsah of what you've likedpáčilo?
160
349939
3545
ktorá je úplne irelevantná k obsahu,
ktorý ste označili, že sa vám páči?
06:05
There's a lot of powermoc that usersužívatelia don't have
161
353484
2546
Užívatelia nemajú veľkú moc
06:08
to controlovládanie how this datadáta is used.
162
356030
2230
kontrolovať používanie týchto údajov.
06:10
And I see that as a realskutočný
problemproblém going forwardvpred.
163
358260
3112
Ja to vnímam ako narastajúci problém.
06:13
So I think there's a couplepár pathscesty
164
361372
1977
Myslím, že je niekoľko ciest,
06:15
that we want to look at
165
363349
1001
ktoré treba zvážiť,
06:16
if we want to give usersužívatelia some controlovládanie
166
364350
1910
ak chceme dať používateľom istú kontrolu
06:18
over how this datadáta is used,
167
366260
1740
nad tým, ako sú použité tieto dáta,
06:20
because it's not always going to be used
168
368000
1940
pretože nie vždy budú použité
06:21
for theirich benefitvýhoda.
169
369940
1381
k ich prospechu.
06:23
An examplepríklad I oftenčasto give is that,
170
371321
1422
Často uvádzam tento príklad:
06:24
if I ever get boredznudený beingbytia a professorprofesor,
171
372743
1646
ak ma učiteľstvo začne nudiť,
06:26
I'm going to go startštart a companyspoločnosť
172
374389
1653
otvorím si spoločnosť,
06:28
that predictspredpovedá all of these attributesatribúty
173
376042
1454
ktorá by predpovedala tie veci:
06:29
and things like how well you work in teamstímy
174
377496
1602
ako dobre pracujete v tíme,
06:31
and if you're a drugliek useružívateľ, if you're an alcoholicalkoholik.
175
379098
2671
či beriete drogy, či ste alkoholik.
06:33
We know how to predictpredpovedať all that.
176
381769
1440
Toto všetko vieme predpovedať.
06:35
And I'm going to sellpredať reportssprávy
177
383209
1761
Predala by som tieto informácie
06:36
to H.R. companiesspoločnosti and bigveľký businessesbiznis
178
384970
2100
personálnym firmám a veľkým spoločnostiam,
06:39
that want to hirenajať you.
179
387070
2273
ktoré vás chcú zamestnať.
06:41
We totallynaprosto can do that now.
180
389343
1177
Áno, to sa už dnes dá.
06:42
I could startštart that businessobchodné tomorrowzajtra,
181
390520
1788
Hneď zajtra by som mohla založiť firmu
06:44
and you would have
absolutelyabsolútne no controlovládanie
182
392308
2052
a vy by ste nemali
žiadnu kontrolu nad tým,
06:46
over me usingpoužitím your datadáta like that.
183
394360
2138
ako tieto dáta použijem.
06:48
That seemszdá to me to be a problemproblém.
184
396498
2292
To sa mi zdá ako dosť veľký problém.
06:50
So one of the pathscesty we can go down
185
398790
1910
Jedna cesta, po ktorej sa môžeme vydať,
06:52
is the policypolitika and lawzákon pathcesta.
186
400700
2032
je cesta právneho prístupu.
06:54
And in some respectspozdravy, I think
that that would be mostväčšina effectiveefektívna,
187
402732
3046
A myslím, že v istých ohľadoch
by to mohlo byť najúčinnejšie,
06:57
but the problemproblém is we'dmy by sme
actuallyvlastne have to do it.
188
405778
2756
ale problémom je, že by
sme to museli naozaj urobiť.
07:00
ObservingPozorovanie our politicalpolitický processproces in actionakčné
189
408534
2780
Keď sledujem náš politický proces v akcii,
07:03
makesznačky me think it's highlyvysoko unlikelynepravdepodobný
190
411314
2379
zdá sa mi vysoko nepravdepodobné,
07:05
that we're going to get a bunchchumáč of representativeszástupcovia
191
413693
1597
že prinútime skupinu politikov,
07:07
to sitsadnúť down, learnučiť sa about this,
192
415290
1986
aby si k tomu sadli, osvojili si to
07:09
and then enactprijať sweepingzametanie changeszmeny
193
417276
2106
a potom presadili závažné zmeny
07:11
to intellectualintelektuálne propertyvlastnosť lawzákon in the U.S.
194
419382
2157
v zákonoch USA
o intelektuálnom vlastníctve,
07:13
so usersužívatelia controlovládanie theirich datadáta.
195
421539
2461
aby užívatelia mohli
kontrolovať svoje dáta.
Mohli by sme ísť tou cestou,
07:16
We could go the policypolitika routetrasa,
196
424000
1304
kde by vlastníci sietí povedali:
07:17
where socialsociálny mediamédiá companiesspoločnosti say,
197
425304
1479
07:18
you know what? You ownvlastný your datadáta.
198
426783
1402
viete čo? Vaše dáta sú vaše.
07:20
You have totaltotálnej controlovládanie over how it's used.
199
428185
2489
Máte úplnú kontrolu
nad tým, ako sú použité.
Problém je,
že modely finančnej návratnosti
07:22
The problemproblém is that the revenuepríjem modelsmodely
200
430674
1848
07:24
for mostväčšina socialsociálny mediamédiá companiesspoločnosti
201
432522
1724
väčšiny vlastníkov sociálnych sietí
07:26
relyspoliehať on sharingzdieľať or exploitingvyužívanie
users'užívateľov datadáta in some way.
202
434246
4031
sú nejakým spôsobom závislé od zdieľania
alebo zneužívania užívateľských dát.
07:30
It's sometimesniekedy said of FacebookFacebook that the usersužívatelia
203
438277
1833
O Facebooku sa vravieva, že užívatelia
07:32
aren'tnie sú the customerzákazník, they're the productvýrobok.
204
440110
2528
nie sú zákazníci, ale produkt.
07:34
And so how do you get a companyspoločnosť
205
442638
2714
Tak ako potom prinútiť spoločnosti,
07:37
to cedepostúpiť controlovládanie of theirich mainHlavná assetaktívum
206
445352
2558
aby vrátili kontrolu
svojho hlavného majetku
07:39
back to the usersužívatelia?
207
447910
1249
späť užívateľom?
07:41
It's possiblemožný, but I don't think it's something
208
449159
1701
Možné to je, ale nemyslím si,
07:42
that we're going to see changezmena quicklyrýchlo.
209
450860
2320
že sa to v dohľadnom čase zmení.
Preto si myslím, že ďalšia cesta,
07:45
So I think the other pathcesta
210
453180
1500
07:46
that we can go down that's
going to be more effectiveefektívna
211
454680
2288
ktorú môžeme skúsiť
a ktorá bude účinnejšia,
07:48
is one of more scienceveda.
212
456968
1508
je nasadiť viac vedy.
07:50
It's doing scienceveda that allowedpovolený us to developvypracovať
213
458476
2510
Veda nás priviedla k tomu, že sme vyvinuli
07:52
all these mechanismsmechanizmy for computingvýpočtovej
214
460986
1750
všetky tie mechanizmy
07:54
this personalosobné datadáta in the first placemiesto.
215
462736
2052
na spracovávanie osobných dát.
07:56
And it's actuallyvlastne very similarpodobný researchvýskum
216
464788
2106
A je to vlastne veľmi podobný výskum,
07:58
that we'dmy by sme have to do
217
466894
1438
ktorý musíme urobiť,
08:00
if we want to developvypracovať mechanismsmechanizmy
218
468332
2386
ak chceme vyvinúť mechanizmy,
08:02
that can say to a useružívateľ,
219
470718
1421
ktoré používateľovi povedia:
08:04
"Here'sTu je the riskriskovať of that actionakčné you just tookzobral."
220
472139
2229
„To, čo chceš práve urobiť, je riskantné.“
08:06
By likingpodľa predstáv that FacebookFacebook pagestrana,
221
474368
2080
Likeovaním tejto Facebookovej stránky
08:08
or by sharingzdieľať this piecekus of personalosobné informationinformácie,
222
476448
2535
alebo zdieľaním tejto osobnej informácie
08:10
you've now improvedzlepšil my abilityschopnosť
223
478983
1502
zväčšuješ našu schopnosť
08:12
to predictpredpovedať whetherči or not you're usingpoužitím drugslieky
224
480485
2086
predpovedať, či berieš
alebo neberieš drogy
08:14
or whetherči or not you get
alongpozdĺž well in the workplacepracovisko.
225
482571
2862
alebo či máš dobré vzťahy na pracovisku.
08:17
And that, I think, can affectovplyvniť whetherči or not
226
485433
1848
Myslím, že to môže ovplyvniť,
08:19
people want to sharezdieľam something,
227
487281
1510
či ľudia chcú niečo zdielať,
08:20
keep it privatesúkromné, or just keep it offlinev režime offline altogetherúplne.
228
488791
3239
držať to v súkromí
alebo to nezdieľať vôbec.
08:24
We can alsotaktiež look at things like
229
492030
1563
Môžeme to skúsiť ešte inak:
08:25
allowingdovoľovať people to encryptšifrovanie datadáta that they uploadnahrať,
230
493593
2728
dovoliť ľudom šifrovať
dáta, ktoré pridávajú,
08:28
so it's kinddruh of invisibleneviditeľný and worthlessbezcenný
231
496321
1855
aby sa tak neviditeľnými a bezcennými
08:30
to sitesweby like FacebookFacebook
232
498176
1431
pre stránky ako Facebook
08:31
or thirdtretina partyvečierok servicesslužby that accessprístup it,
233
499607
2629
či služby tretích strán,
ktoré naň pristupujú,
08:34
but that selectvybrať usersužívatelia who the persončlovek who postedvyslaný it
234
502236
3247
ale aby ich vybraní užívatelia,
ktorým autor obsah sprístupní,
08:37
want to see it have accessprístup to see it.
235
505483
2670
mohli daný obsah vidieť.
08:40
This is all superSuper excitingvzrušujúce researchvýskum
236
508153
2166
Z intelektuálneho hľadiska je tento výskum
08:42
from an intellectualintelektuálne perspectiveperspektíva,
237
510319
1620
mimoriadne vzrušujúci
08:43
and so scientistsvedci are going to be willingochotný to do it.
238
511939
1859
a preto do toho vedci pôjdu radi.
08:45
So that givesposkytuje us an advantageVýhodou over the lawzákon sidebočné.
239
513798
3610
To nám dáva výhodu pred právnym prístupom.
08:49
One of the problemsproblémy that people bringpriniesť up
240
517408
1725
Jeden z problémov, ktorý ľudia
08:51
when I talk about this is, they say,
241
519133
1595
spomínajú, keď o tom hovorím, je,
08:52
you know, if people startštart
keepingvedenie all this datadáta privatesúkromné,
242
520728
2646
že ak ľudia začnú uchovávať
všetky tieto dáta v súkromí,
08:55
all those methodsmetódy that you've been developingrozvíjanie
243
523374
2113
všetky tie metódy, ktoré vyvíjame
08:57
to predictpredpovedať theirich traitsrysy are going to failzlyhať.
244
525487
2653
na predpovedanie ich
charakterových čŕt, nakoniec zlyhajú.
09:00
And I say, absolutelyabsolútne, and for me, that's successúspech,
245
528140
3520
A ja hovorím, že určite
a že je to pre mňa úspech,
09:03
because as a scientistvedec,
246
531660
1786
pretože ako pre vedkyňu
09:05
my goalcieľ is not to inferodvodiť informationinformácie about usersužívatelia,
247
533446
3688
nie je pre mňa cieľom získavať
informácie o užívateľoch,
09:09
it's to improvezdokonaliť the way people interactvzájomné pôsobenie onlineon-line.
248
537134
2767
ale zlepšiť spôsob, ako
ľudia interagujú online.
Áno, niekedy to zahŕňa aj vyhodnocovanie
informácii o nich samotných,
09:11
And sometimesniekedy that involveszahŕňa
inferringodvodzovať things about them,
249
539901
3218
09:15
but if usersužívatelia don't want me to use that datadáta,
250
543119
3022
ale ak užívatelia nechcú,
aby sa tieto informácie použili,
09:18
I think they should have the right to do that.
251
546141
2038
myslím, že na to majú mať právo.
09:20
I want usersužívatelia to be informedinformovaný and consentingsúhlas
252
548179
2651
Chcem, aby ľudia boli
informovanými a poučenými
09:22
usersužívatelia of the toolsnáradie that we developvypracovať.
253
550830
2112
používateľmi nástrojov,
ktoré sme vyvinuli.
09:24
And so I think encouragingpovzbudivý this kinddruh of scienceveda
254
552942
2952
Myslím, že podporovanie tohto druhu vedy
09:27
and supportingpodpora researchersvedci
255
555894
1346
a podpora výskumníkov,
09:29
who want to cedepostúpiť some of that controlovládanie back to usersužívatelia
256
557240
3023
ktorí chcú postúpiť časť
kontroly späť používateľom
09:32
and away from the socialsociálny mediamédiá companiesspoločnosti
257
560263
2311
a vziať ju vlastníkom sociálnych médií,
09:34
meansprostriedky that going forwardvpred, as these toolsnáradie evolvevyvinúť
258
562574
2671
znamená, že posúvať sa dopredu s vývojom
09:37
and advancezáloha,
259
565245
1476
a postupom týchto nástrojov
09:38
meansprostriedky that we're going to have an educatedvzdelaný
260
566721
1414
znamená, že treba vzdelanú
09:40
and empoweredzmocniť useružívateľ basezákladňa,
261
568135
1694
a posilnenú základňu používateľov,
09:41
and I think all of us can agreesúhlasiť
262
569829
1100
a myslím, že súhlasíte,
09:42
that that's a prettypekný idealideálne way to go forwardvpred.
263
570929
2564
že to je presne ten ideál,
ku ktorému chceme smerovať.
09:45
Thank you.
264
573493
2184
Ďakujem.
09:47
(ApplausePotlesk)
265
575677
3080
(potlesk)
Translated by Robert Staffen
Reviewed by Kristián Leško

▲Back to top

ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee