ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com
TEDxMidAtlantic 2013

Jennifer Golbeck: Your social media "likes" expose more than you think

Jennifer Golbeck: Záhada kurnatých hranolek: "lajkovat" znamená prozradit o sobě více, než by vás možná napadlo

Filmed:
2,366,837 views

Máte rádi hranolky "curly fries"? Olajkovali jste je na Facebooku? To, co nahodile lajkujete a sdílíte, si Facebook (ale i další média) dokáží dávat do překvapivých souvislostí. Počítačová specialistka Jennifer Goldbeck vám ve své přednášce ukáže, že techniku je možné využívat i nepříliš sympatickým způsobem. Vysvětlí, jak je něco takového možné – a proč si myslí, že bychom měli kontrolu nad informacemi vrátit lidem, kterým tyto informace po právu náleží.
- Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions. Full bio

Double-click the English transcript below to play the video.

00:12
If you rememberpamatovat that first decadedesetiletí of the webweb,
0
738
1997
Během první dekády své existence
00:14
it was really a staticstatické placemísto.
1
2735
2255
byl internet dost statický.
00:16
You could go onlineonline, you could look at pagesstránek,
2
4990
2245
Mohli jste brouzdat jen po stránkách,
00:19
and they were put up eitherbuď by organizationsorganizací
3
7235
2513
které vytvořily velké společnosti,
00:21
who had teamstýmů to do it
4
9748
1521
co na to měly týmy,
00:23
or by individualsJednotlivci who were really tech-savvytech důvtipný
5
11269
2229
nebo nadšenci, kteří se výtečně
vyznali v technice.
00:25
for the time.
6
13498
1737
00:27
And with the risevzestup of socialsociální mediamédia
7
15235
1575
Po roce 2000 se však začaly
rozvíjet sociální sítě a média.
00:28
and socialsociální networkssítě in the earlybrzy 2000s,
8
16810
2399
00:31
the webweb was completelyzcela changedzměněna
9
19209
2149
Internet se úplně změnil.
00:33
to a placemísto where now the vastobrovský majorityvětšina of contentobsah
10
21358
3608
Většina obsahu, s nímž teď
přicházíme do styku,
00:36
we interactinteragovat with is put up by averageprůměrný usersuživatelů,
11
24966
3312
pochází od běžných uživatelů.
Spadají sem videa na YouTube,
00:40
eitherbuď in YouTubeYouTube videosvidea or blogblog postspříspěvky
12
28278
2697
blogy, uživatelské recenze
nebo příspěvky na sociálních sítích.
00:42
or productprodukt reviewshodnocení or socialsociální mediamédia postingsúčtování.
13
30975
3315
00:46
And it's alsotaké becomestát a much more interactiveinteraktivní placemísto,
14
34290
2347
Internet je také mnohem interaktivnější.
00:48
where people are interactinginterakce with othersostatní,
15
36637
2637
Lidé na sebe reagují.
00:51
they're commentingpřidávání poznámek, they're sharingsdílení,
16
39274
1696
Komentují, sdílejí;
neomezují se jen na čtení.
00:52
they're not just readingčtení.
17
40970
1614
00:54
So FacebookFacebook is not the only placemísto you can do this,
18
42584
1866
V největší míře takové možnosti
nabízí Facebook.
00:56
but it's the biggestnejvětší,
19
44450
1098
00:57
and it servesslouží to illustrateilustrovat the numbersčísla.
20
45548
1784
Proto o něm teď uvedu pár čísel.
00:59
FacebookFacebook has 1.2 billionmiliarda usersuživatelů perza monthMěsíc.
21
47332
3477
Facebook každý měsíc používá
1,2 miliardy uživatelů.
01:02
So halfpolovina the Earth'sZemě InternetInternetu populationpopulace
22
50809
1930
To je polovina všech lidí
používajících internet.
01:04
is usingpoužitím FacebookFacebook.
23
52739
1653
01:06
They are a sitestránky, alongpodél with othersostatní,
24
54392
1932
Na Facebooku (ale i jinde)
si můžete i s nepatrnými
01:08
that has allowedpovoleno people to createvytvořit an onlineonline personapersona
25
56324
3219
technickými znalostmi vytvořit
vlastní síťovou identitu.
01:11
with very little technicaltechnický skilldovednost,
26
59543
1782
01:13
and people respondedodpověděl by puttinguvedení hugeobrovský amountsmnožství
27
61325
2476
Lidé díky tomu začali internet
zaplavovat osobními daty.
01:15
of personalosobní datadata onlineonline.
28
63801
1983
01:17
So the resultvýsledek is that we have behavioralbehaviorální,
29
65784
2543
Máme data o chování,
preferencích a demografii
01:20
preferencepředvolba, demographicdemografický datadata
30
68327
1986
stovek milionů lidí.
01:22
for hundredsstovky of millionsmiliony of people,
31
70313
2101
01:24
whichkterý is unprecedentedbezprecedentní in historydějiny.
32
72414
2026
To tu nikdy nebylo.
01:26
And as a computerpočítač scientistvědec,
what this meansprostředek is that
33
74440
2560
Zabývám se počítačovou vědou
a díky těmto datům
01:29
I've been ableschopný to buildstavět modelsmodely
34
77000
1664
jsem dokázala vytvořit modely,
01:30
that can predictpředpovědět all sortstřídění of hiddenskrytý attributesatributy
35
78664
2322
které jsou schopny odhadnout
různé druhy skrytých vlastností,
01:32
for all of you that you don't even know
36
80986
2284
o kterých sdílíte informace
a ani o tom nevíte.
01:35
you're sharingsdílení informationinformace about.
37
83270
2202
01:37
As scientistsvědců, we use that to help
38
85472
2382
To může pomoci k tomu, aby byl
internet interaktivnější,
01:39
the way people interactinteragovat onlineonline,
39
87854
2114
01:41
but there's lessméně altruisticaltruistické applicationsaplikací,
40
89968
2499
ale dá se to i zneužít.
01:44
and there's a problemproblém in that usersuživatelů don't really
41
92467
2381
Potíž je, že uživatelé těmto postupům
a principům moc nerozumějí.
01:46
understandrozumět these techniquestechniky and how they work,
42
94848
2470
01:49
and even if they did, they don't
have a lot of controlřízení over it.
43
97318
3128
A i kdyby ano, nemají nad nimi
velkou kontrolu.
01:52
So what I want to talk to you about todaydnes
44
100446
1490
Proto vám teď chci ukázat,
co s daty umíme,
01:53
is some of these things that we're ableschopný to do,
45
101936
2702
01:56
and then give us some ideasnápady
of how we mightmohl go forwardvpřed
46
104638
2763
a potom nadhodit pár nápadů,
jak vrátit kontrolu nad daty uživatelům.
01:59
to movehýbat se some controlřízení back into the handsruce of usersuživatelů.
47
107401
2769
02:02
So this is TargetCíl, the companyspolečnost.
48
110170
1586
Tohle logo jsem tam té nebohé
těhotné ženě nenamalovala já.
02:03
I didn't just put that logologo
49
111756
1324
02:05
on this poorchudý, pregnanttěhotná woman'sženy bellybřicho.
50
113080
2170
02:07
You maysmět have seenviděno this anecdoteanekdota that was printedvytištěno
51
115250
1840
Je to logo firmy "Target",
která údajně poslala
02:09
in ForbesForbes magazinečasopis where TargetCíl
52
117090
2061
své 15 leté zákaznici leták s reklamou
02:11
sentodesláno a flyerLeták to this 15-year-old-let starý girldívka
53
119151
2361
02:13
with advertisementsreklamy and couponskupóny
54
121512
1710
na kojenecké láhve, plenky a kolébky
02:15
for babydítě bottlesláhve and diapersplenky and cribsdětské postýlky
55
123222
2554
dva týdny předtím, než vůbec
řekla rodičům, že je těhotná.
02:17
two weekstýdny before she told her parentsrodiče
56
125776
1684
02:19
that she was pregnanttěhotná.
57
127460
1864
02:21
Yeah, the dadTáto was really upsetsmutný.
58
129324
2704
A ano, tatínek zuřil.
02:24
He said, "How did TargetCíl figurepostava out
59
132028
1716
Jak mohl "Target" na něco takového
přijít dřív než její rodiče?
02:25
that this highvysoký schoolškola girldívka was pregnanttěhotná
60
133744
1824
02:27
before she told her parentsrodiče?"
61
135568
1960
02:29
It turnsotočí out that they have the purchasenákup historydějiny
62
137528
2621
Protože sledoval historii nákupů
stovek tisíc zákazníků
02:32
for hundredsstovky of thousandstisíce of customerszákazníkům
63
140149
2301
02:34
and they computevypočítat what they
call a pregnancytěhotenství scoreskóre,
64
142450
2730
a vypočítával podle ní
"těhotenské skóre".
02:37
whichkterý is not just whetherzda or
not a woman'sženy pregnanttěhotná,
65
145180
2332
Uměl dokonce odhadnout,
v kolikátém je žena měsíci.
02:39
but what her duez důvodu datedatum is.
66
147512
1730
02:41
And they computevypočítat that
67
149242
1304
A nepotřeboval k tomu očividné indicie,
02:42
not by looking at the obviouszřejmé things,
68
150546
1768
02:44
like, she's buyingnákup a cribbetlém or babydítě clothesoblečení,
69
152314
2512
jako že zákaznice kupuje dětské šatičky.
02:46
but things like, she boughtkoupil more vitaminsvitamíny
70
154826
2943
Stačilo mu vědět, že si zákaznice
začala kupovat víc vitamínů
02:49
than she normallynormálně had,
71
157769
1717
02:51
or she boughtkoupil a handbagKabelka
72
159486
1464
nebo si pořídila tašku
dost velkou na plínky.
02:52
that's bigvelký enoughdost to holddržet diapersplenky.
73
160950
1711
02:54
And by themselvesoni sami, those purchasesnákupy don't seemzdát se
74
162661
1910
Na první pohled vypadají takové
informace nevinně,
02:56
like they mightmohl revealodhalit a lot,
75
164571
2469
ale pokud je získáte a srovnáte
s tisíci dalšími lidmi,
02:59
but it's a patternvzor of behaviorchování that,
76
167040
1978
03:01
when you take it in the contextkontext
of thousandstisíce of other people,
77
169018
3117
03:04
startszačíná to actuallyvlastně revealodhalit some insightspoznatky.
78
172135
2757
začnou prozrazovat
skryté vzorce chování.
03:06
So that's the kinddruh of thing that we do
79
174892
1793
A právě takové věci děláme
na základě dat ze sociálních sítí.
03:08
when we're predictingpředpovídání stuffvěci
about you on socialsociální mediamédia.
80
176685
2567
03:11
We're looking for little
patternsvzory of behaviorchování that,
81
179252
2796
Hledáme nenápadné vzorce chování,
03:14
when you detectdetekovat them amongmezi millionsmiliony of people,
82
182048
2682
a když je najdeme u milionů lidí,
03:16
letsPojďme us find out all kindsdruhy of things.
83
184730
2706
vyčteme z nich, na co si vzpomenete.
03:19
So in my lablaboratoř and with colleagueskolegy,
84
187436
1747
Se svými kolegy jsem například
vyvinula systém,
03:21
we'vejsme developedrozvinutý mechanismsmechanismy where we can
85
189183
1777
jak vcelku přesně odhadovat
03:22
quitedocela accuratelypřesně predictpředpovědět things
86
190960
1560
03:24
like your politicalpolitický preferencepředvolba,
87
192520
1725
vaše politické preference,
osobnostní rysy,
03:26
your personalityosobnost scoreskóre, genderpohlaví, sexualsexuální orientationorientace,
88
194245
3752
pohlaví, sexuální orientaci,
03:29
religionnáboženství, agestáří, intelligenceinteligence,
89
197997
2873
vyznání, věk a inteligenci,
03:32
alongpodél with things like
90
200870
1394
ale také, jak moc důvěřujete
svým známým
03:34
how much you trustdůvěra the people you know
91
202264
1937
03:36
and how strongsilný those relationshipsvztahy are.
92
204201
1804
a jak pevný s nimi máte vztah.
03:38
We can do all of this really well.
93
206005
1785
Jsme v tom fakt dobří
a stačí nám k tomu
03:39
And again, it doesn't come from what you mightmohl
94
207790
2197
jen nepřímé indicie.
03:41
think of as obviouszřejmé informationinformace.
95
209987
2102
03:44
So my favoriteoblíbený examplepříklad is from this studystudie
96
212089
2281
Mým oblíbeným příkladem je studie,
03:46
that was publishedpublikováno this yearrok
97
214370
1240
která letos vyšla v časopise "PNAS".
03:47
in the ProceedingsŘízení of the NationalNárodní AcademiesAkademií.
98
215610
1795
03:49
If you GoogleGoogle this, you'llBudete find it.
99
217405
1285
Můžete si ji vygooglit;
má jen 4 stránky.
03:50
It's fourčtyři pagesstránek, easysnadný to readčíst.
100
218690
1872
03:52
And they lookedpodíval se at just people'slidí FacebookFacebook likesrád,
101
220562
3003
Autoři zkoumali, co lidé
lajkují na Facebooku.
03:55
so just the things you like on FacebookFacebook,
102
223565
1920
Čemu dáváte "lajky".
03:57
and used that to predictpředpovědět all these attributesatributy,
103
225485
2138
Takové údaje o vás mohou hodně prozradit.
03:59
alongpodél with some other onesty.
104
227623
1645
04:01
And in theirjejich paperpapír they listedv seznamu the fivePět likesrád
105
229268
2961
Vytipovali například pět stránek,
04:04
that were mostvětšina indicativeorientační of highvysoký intelligenceinteligence.
106
232229
2787
které lajkují převážně lidé
s vysokou inteligencí.
04:07
And amongmezi those was likingPodle představ a pagestrana
107
235016
2324
Byla mezi nimi i stránka
o hranolkách "curly fries".
04:09
for curlykudrnatá frieshranolky. (LaughterSmích)
108
237340
1905
04:11
CurlyKudrnatá frieshranolky are deliciousvynikající,
109
239245
2093
"Curly fries" jsou moc dobré,
04:13
but likingPodle představ them does not necessarilynezbytně mean
110
241338
2530
ale to, že vám chutnají,
z vás přece ještě nedělá Einsteina.
04:15
that you're smarterchytřejší than the averageprůměrný personosoba.
111
243868
2080
04:17
So how is it that one of the strongestnejsilnější indicatorsindikátory
112
245948
3207
Jak to, že je lajkování těchto stránek
výrazným indikátorem inteligence,
04:21
of your intelligenceinteligence
113
249155
1570
04:22
is likingPodle představ this pagestrana
114
250725
1447
04:24
when the contentobsah is totallynaprosto irrelevantirelevantní
115
252172
2252
když jejich obsah s indikovanou
vlastností ani trochu nesouvisí?
04:26
to the attributeatribut that's beingbytost predictedpředpokládané?
116
254424
2527
04:28
And it turnsotočí out that we have to look at
117
256951
1584
Souvisí to s řadou dalších teorií,
které si nejprve musíme ozřejmit.
04:30
a wholeCelý bunchchomáč of underlyingzákladní theoriesteorie
118
258535
1618
04:32
to see why we're ableschopný to do this.
119
260153
2569
04:34
One of them is a sociologicalsociologické
theoryteorie calledvolal homophilyhomophily,
120
262722
2913
Sociologická teorie "homofilie"
například tvrdí,
04:37
whichkterý basicallyv podstatě saysříká people are
friendspřátelé with people like them.
121
265635
3092
že se kamarádíme hlavně
s lidmi, kteří jsou jako my.
04:40
So if you're smartchytrý, you tendtendenci to
be friendspřátelé with smartchytrý people,
122
268727
2014
Chytří lidé častěji kamarádí
s chytrými lidmi,
04:42
and if you're youngmladý, you tendtendenci
to be friendspřátelé with youngmladý people,
123
270741
2630
mladí lidé s mladými
04:45
and this is well establishedzaloženo
124
273371
1627
a tak to chodí už stovky let.
04:46
for hundredsstovky of yearsroky.
125
274998
1745
04:48
We alsotaké know a lot
126
276743
1232
Víme také dost o tom,
jak se po sítích šíří informace.
04:49
about how informationinformace spreadsspready throughpřes networkssítě.
127
277975
2550
04:52
It turnsotočí out things like viralvirová videosvidea
128
280525
1754
Virální videa nebo třeba "lajky"
na Facebooku se šíří
04:54
or FacebookFacebook likesrád or other informationinformace
129
282279
2406
04:56
spreadsspready in exactlypřesně the samestejný way
130
284685
1888
sociálními sítěmi úplně stejně
jako nějaká infekce.
04:58
that diseasesnemoci spreadrozpětí throughpřes socialsociální networkssítě.
131
286573
2454
05:01
So this is something we'vejsme studiedstudoval for a long time.
132
289027
1791
Studujeme to už dlouho
a máme na to dobré modely.
05:02
We have good modelsmodely of it.
133
290818
1576
05:04
And so you can put those things togetherspolu
134
292394
2157
Proto si teď umíme takové věci spojit
a chápeme, proč k nim dochází.
05:06
and startStart seeingvidění why things like this happenpřihodit se.
135
294551
3088
05:09
So if I were to give you a hypothesishypotéza,
136
297639
1814
Moje hypotéza tedy zní,
05:11
it would be that a smartchytrý guy startedzačal this pagestrana,
137
299453
3227
že člověk, který stránku o "curly fries" spustil
05:14
or maybe one of the first people who likedLíbí se mi it
138
302680
1939
nebo ji jako první olajkoval,
05:16
would have scoredskóroval highvysoký on that testtest.
139
304619
1736
měl vysokou inteligenci.
05:18
And they likedLíbí se mi it, and theirjejich friendspřátelé saw it,
140
306355
2288
A pak to viděli jeho přátelé,
05:20
and by homophilyhomophily, we know that
he probablypravděpodobně had smartchytrý friendspřátelé,
141
308643
3122
mezi nimiž bylo podle principu
homofile hodně chytrých lidí,
05:23
and so it spreadrozpětí to them,
and some of them likedLíbí se mi it,
142
311765
3056
a tak to lajkovali hlavně chytří lidé,
05:26
and they had smartchytrý friendspřátelé,
143
314821
1189
kteří měli další chytré přátele,
05:28
and so it spreadrozpětí to them,
144
316010
807
05:28
and so it propagatedšířeny throughpřes the networksíť
145
316817
1973
a tak se to celou sítí šířilo
05:30
to a hosthostitel of smartchytrý people,
146
318790
2569
hlavně mezi chytrými lidmi.
05:33
so that by the endkonec, the actionakce
147
321359
2056
Lajkování stránky s "curly fries"
05:35
of likingPodle představ the curlykudrnatá frieshranolky pagestrana
148
323415
2544
se tudíž nestalo ukazatelem
vysoké inteligence
05:37
is indicativeorientační of highvysoký intelligenceinteligence,
149
325959
1615
05:39
not because of the contentobsah,
150
327574
1803
kvůli obsahu stránky,
05:41
but because the actualaktuální actionakce of likingPodle představ
151
329377
2522
ale protože lidé, kteří něco lajkují,
mají stejné vlastnosti jako ti,
05:43
reflectsodráží back the commonběžný attributesatributy
152
331899
1900
05:45
of other people who have doneHotovo it.
153
333799
2468
kdo to lajkovali před nimi.
05:48
So this is prettydosti complicatedsložitý stuffvěci, right?
154
336267
2897
Celkem zapeklitá záležitost, že?
05:51
It's a hardtvrdý thing to sitsedět down and explainvysvětlit
155
339164
2199
Průměrnému uživateli to
vysvětlíte dost těžko,
05:53
to an averageprůměrný useruživatel, and even if you do,
156
341363
2848
a i kdyby ano, co proti tomu zmůže?
05:56
what can the averageprůměrný useruživatel do about it?
157
344211
2188
05:58
How do you know that
you've likedLíbí se mi something
158
346399
2048
Jak pozná, že o sobě
lajkováním cosi prozrazuje,
06:00
that indicatesindikuje a traitrys for you
159
348447
1492
06:01
that's totallynaprosto irrelevantirelevantní to the
contentobsah of what you've likedLíbí se mi?
160
349939
3545
když to vůbec nesouvisí
s obsahem toho, co lajkuje?
06:05
There's a lot of powerNapájení that usersuživatelů don't have
161
353484
2546
K tomu by potřeboval
mnohem větší kompetence.
06:08
to controlřízení how this datadata is used.
162
356030
2230
06:10
And I see that as a realnemovitý
problemproblém going forwardvpřed.
163
358260
3112
Je to čím dál závážnější problém.
06:13
So I think there's a couplepár pathscesty
164
361372
1977
Zamysleme se tedy nad tím,
jak dát uživatelům určitou kontrolu
06:15
that we want to look at
165
363349
1001
06:16
if we want to give usersuživatelů some controlřízení
166
364350
1910
nad využíváním osobních údajů.
06:18
over how this datadata is used,
167
366260
1740
06:20
because it's not always going to be used
168
368000
1940
Protože ne vždy budou užívány
pro jejich dobro.
06:21
for theirjejich benefitvýhoda.
169
369940
1381
06:23
An examplepříklad I oftenčasto give is that,
170
371321
1422
Kdyby mě například omrzelo
učit na univerzitě,
06:24
if I ever get boredznuděný beingbytost a professorprofesor,
171
372743
1646
06:26
I'm going to go startStart a companyspolečnost
172
374389
1653
založím si společnost,
která bude například odhadovat,
06:28
that predictspředpovídá all of these attributesatributy
173
376042
1454
06:29
and things like how well you work in teamstýmů
174
377496
1602
jestli jste týmový hráč
nebo zda nejste alkoholik.
06:31
and if you're a druglék useruživatel, if you're an alcoholicalkoholik.
175
379098
2671
06:33
We know how to predictpředpovědět all that.
176
381769
1440
To opravdu umíme.
06:35
And I'm going to sellprodat reportszpráv
177
383209
1761
A pak bych výsledky prodávala
personálním agenturám
06:36
to H.R. companiesspolečnosti and bigvelký businessespodniků
178
384970
2100
a vašim potencionálním zaměstnavatelům.
06:39
that want to hirepronájem you.
179
387070
2273
06:41
We totallynaprosto can do that now.
180
389343
1177
Tohle fakt umíme.
Zítra se do toho můžu pustit,
06:42
I could startStart that businesspodnikání tomorrowzítra,
181
390520
1788
06:44
and you would have
absolutelyabsolutně no controlřízení
182
392308
2052
a vy mi nijak nezabráníte,
abych vaše data takhle použila.
06:46
over me usingpoužitím your datadata like that.
183
394360
2138
06:48
That seemszdá se to me to be a problemproblém.
184
396498
2292
A to je přeci problém.
06:50
So one of the pathscesty we can go down
185
398790
1910
Můžeme mu čelit tím,
že pozměníme legislativu.
06:52
is the policypolitika and lawzákon pathcesta.
186
400700
2032
06:54
And in some respectsrespektuje, I think
that that would be mostvětšina effectiveefektivní,
187
402732
3046
To by bylo nejúčinnější,
ale muselo by se to nejprve provést.
06:57
but the problemproblém is we'dmy jsme
actuallyvlastně have to do it.
188
405778
2756
07:00
ObservingPozorování our politicalpolitický processproces in actionakce
189
408534
2780
A podle toho,
jak u nás funguje zákonodárství,
07:03
makesdělá me think it's highlyvysoce unlikelynepravděpodobné
190
411314
2379
se mi mi moc nezdá,
07:05
that we're going to get a bunchchomáč of representativeszástupci
191
413693
1597
že najdeme dost zastupitelů,
07:07
to sitsedět down, learnUčit se about this,
192
415290
1986
kteří budou ochotni
si tu problematiku nastudovat
07:09
and then enactuzákonit sweepingzametání changesZměny
193
417276
2106
07:11
to intellectualintelektuální propertyvlastnictví lawzákon in the U.S.
194
419382
2157
a změnit žádoucím způsobem
07:13
so usersuživatelů controlřízení theirjejich datadata.
195
421539
2461
zákon o duševním vlastnictví.
07:16
We could go the policypolitika routetrasa,
196
424000
1304
Můžeme apelovat na samotné
mediální společnosti,
07:17
where socialsociální mediamédia companiesspolečnosti say,
197
425304
1479
07:18
you know what? You ownvlastní your datadata.
198
426783
1402
aby uznaly, že uživatelé mají
mít kontrolu nad svými daty.
07:20
You have totalcelkový controlřízení over how it's used.
199
428185
2489
07:22
The problemproblém is that the revenuepříjmy modelsmodely
200
430674
1848
Jenomže příjem takových společností
vesměs plyne právě z toho,
07:24
for mostvětšina socialsociální mediamédia companiesspolečnosti
201
432522
1724
07:26
relyspolehnout se on sharingsdílení or exploitingvyužívání
users'uživatelů datadata in some way.
202
434246
4031
že data svých uživatelů
nějak sdílejí a využívají.
07:30
It's sometimesněkdy said of FacebookFacebook that the usersuživatelů
203
438277
1833
O Facebooku se říkává,
že jeho uživatelé jsou jeho zboží.
07:32
aren'tnejsou the customerzákazník, they're the productprodukt.
204
440110
2528
07:34
And so how do you get a companyspolečnost
205
442638
2714
Jak přimět společnost,
aby se vzdala kontroly nad zdrojem příjmů
07:37
to cedepostoupit controlřízení of theirjejich mainhlavní assetaktivum
206
445352
2558
ve prospěch uživatelů?
07:39
back to the usersuživatelů?
207
447910
1249
07:41
It's possiblemožný, but I don't think it's something
208
449159
1701
Asi by se to dalo zařídit,
ale rozhodně ne hned.
07:42
that we're going to see changezměna quicklyrychle.
209
450860
2320
07:45
So I think the other pathcesta
210
453180
1500
Proto je podle mě nejlepší jiná cesta:
znovu do toho zapojit vědu.
07:46
that we can go down that's
going to be more effectiveefektivní
211
454680
2288
07:48
is one of more scienceVěda.
212
456968
1508
07:50
It's doing scienceVěda that allowedpovoleno us to developrozvíjet
213
458476
2510
Postupy, jak vyhodnocovat osobní data,
bychom neměli, kdyby nebylo vědy.
07:52
all these mechanismsmechanismy for computingvýpočetní
214
460986
1750
07:54
this personalosobní datadata in the first placemísto.
215
462736
2052
07:56
And it's actuallyvlastně very similarpodobný researchvýzkum
216
464788
2106
A tytéž vědecké postupy nám
mohou pomoct,
07:58
that we'dmy jsme have to do
217
466894
1438
08:00
if we want to developrozvíjet mechanismsmechanismy
218
468332
2386
abychom vytvořili mechanismy,
které vás upozorní
08:02
that can say to a useruživatel,
219
470718
1421
08:04
"Here'sTady je the riskriziko of that actionakce you just tookvzal."
220
472139
2229
na konkrétní rizika.
08:06
By likingPodle představ that FacebookFacebook pagestrana,
221
474368
2080
Jako například, že když lajkujete
nebo sdílíte to a to,
08:08
or by sharingsdílení this piecekus of personalosobní informationinformace,
222
476448
2535
08:10
you've now improvedzlepšení my abilityschopnost
223
478983
1502
tak mi tím pomáháte odhadnout,
08:12
to predictpředpovědět whetherzda or not you're usingpoužitím drugsdrogy
224
480485
2086
zda neberete drogy
či jak vycházíte s lidmi v práci.
08:14
or whetherzda or not you get
alongpodél well in the workplacepracoviště.
225
482571
2862
08:17
And that, I think, can affectpostihnout whetherzda or not
226
485433
1848
Kdybyste to věděli,
asi byste si lépe rozmysleli,
08:19
people want to sharepodíl something,
227
487281
1510
08:20
keep it privatesoukromé, or just keep it offlineoffline altogethercelkem.
228
488791
3239
zda něco sdílet,
nebo si to nechat pro sebe.
08:24
We can alsotaké look at things like
229
492030
1563
Mohli bychom se také zaměřit
na šifrování nahrávaných dat.
08:25
allowingpovolit people to encryptšifrovat datadata that they uploadnahrát,
230
493593
2728
08:28
so it's kinddruh of invisibleneviditelný and worthlessbezcenný
231
496321
1855
Facebook či na něj navázaní
poskytovalé služeb
08:30
to sitesstránek like FacebookFacebook
232
498176
1431
08:31
or thirdTřetí partyoslava servicesslužeb that accesspřístup it,
233
499607
2629
by tudíž data neviděli
a nemohli je použít.
08:34
but that selectvybrat usersuživatelů who the personosoba who postedvyslán it
234
502236
3247
Data by se zobrazovala jen uživatelům,
08:37
want to see it have accesspřístup to see it.
235
505483
2670
kterým to povolil ten, kdo data nahrál.
08:40
This is all supersuper excitingvzrušující researchvýzkum
236
508153
2166
Pro vědce jsou to podnětné intelektuální
výzvy a rádi se jich zhostí.
08:42
from an intellectualintelektuální perspectiveperspektivní,
237
510319
1620
08:43
and so scientistsvědců are going to be willingochotný to do it.
238
511939
1859
08:45
So that givesdává us an advantagevýhoda over the lawzákon sideboční.
239
513798
3610
V tom je výhoda tohoto řešení
oproti zavádění legislativy.
08:49
One of the problemsproblémy that people bringpřinést up
240
517408
1725
Lidé, s nimiž o tom mluvím,
však vidí problém v tom,
08:51
when I talk about this is, they say,
241
519133
1595
08:52
you know, if people startStart
keepingudržování all this datadata privatesoukromé,
242
520728
2646
že když si budeme
nechávat údaje pro sebe,
08:55
all those methodsmetody that you've been developingrozvíjející se
243
523374
2113
přijdou námi vytvořené predikční
metody vniveč.
08:57
to predictpředpovědět theirjejich traitsznaků are going to failselhat.
244
525487
2653
09:00
And I say, absolutelyabsolutně, and for me, that's successúspěch,
245
528140
3520
Já to však beru jako úspěch!
09:03
because as a scientistvědec,
246
531660
1786
Jsem vědec a mým úkolem není
domýšlet si o uživatelích informace,
09:05
my goalfotbalová branka is not to inferodvodit informationinformace about usersuživatelů,
247
533446
3688
09:09
it's to improvezlepšit the way people interactinteragovat onlineonline.
248
537134
2767
ale přispívat k jejich lepší
interakci online.
09:11
And sometimesněkdy that involveszahrnuje
inferringodvozování things about them,
249
539901
3218
Někdy k tomu pomáhá,
když si o uživatelích něco domyslíme,
09:15
but if usersuživatelů don't want me to use that datadata,
250
543119
3022
ale pokud si to nepřejí,
mají na to podle mě právo.
09:18
I think they should have the right to do that.
251
546141
2038
09:20
I want usersuživatelů to be informedinformovaný and consentingsouhlas
252
548179
2651
Chci, aby využívali námi
vytvořené nástroje
09:22
usersuživatelů of the toolsnástroje that we developrozvíjet.
253
550830
2112
poučeně a zodpovědně.
09:24
And so I think encouragingpovzbudivý this kinddruh of scienceVěda
254
552942
2952
Proto je třeba podporovat
takový typ vědy
09:27
and supportingPodpora researchersvýzkumných pracovníků
255
555894
1346
a takový typ výzkumníků,
09:29
who want to cedepostoupit some of that controlřízení back to usersuživatelů
256
557240
3023
kteří chtějí vrátit kontrolu
nad informacemi uživatelům
09:32
and away from the socialsociální mediamédia companiesspolečnosti
257
560263
2311
a vzít je sociálním médiím.
09:34
meansprostředek that going forwardvpřed, as these toolsnástroje evolverozvíjet se
258
562574
2671
Pak totiž nebudeme mít jen
čím dál lepší techniku,
09:37
and advancezáloha,
259
565245
1476
ale také informované
a zodpovědné uživatele.
09:38
meansprostředek that we're going to have an educatedvzdělaný
260
566721
1414
09:40
and empoweredposílení useruživatel basebáze,
261
568135
1694
09:41
and I think all of us can agreesouhlasit
262
569829
1100
A asi se shodneme,
že takový vývoj by byl ideální.
09:42
that that's a prettydosti idealideál way to go forwardvpřed.
263
570929
2564
09:45
Thank you.
264
573493
2184
Děkuji.
09:47
(ApplausePotlesk)
265
575677
3080
(Potlesk.)
Translated by Honza Prokes
Reviewed by Samuel Titera

▲Back to top

ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com