ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com
TEDxMidAtlantic 2013

Jennifer Golbeck: Your social media "likes" expose more than you think

Jennifer Golbeck: Zagonetka kovrčavog krumpirića: Zašto „lajkovi“ društvenih medija govore više no što ste možda mislili

Filmed:
2,366,837 views

Volite li kovrčave krumpiriće? Jeste li ih „lajkali“ na Facebooku? Pogledajte ovaj razgovor kako biste otkrili koje iznenađujuće stvari Facebook (i drugi) mogu pogoditi samo na temelju vaših nasumičnih „lajkova“ i podjela. Računalna znanstvenica Jennifer Golbeck objašnjava kako je došlo do toga, kako neke primjene tehnologije nisu toliko ljupke – te zašto misli da bismo trebali vratiti kontrolu nad informacijama njihovim zakonitim vlasnicima.
- Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions. Full bio

Double-click the English transcript below to play the video.

00:12
If you rememberzapamtiti that first decadedesetljeće of the webmreža,
0
738
1997
Ako se sjećate tog prvog
desetljeća na Internetu,
00:14
it was really a staticstatički placemjesto.
1
2735
2255
bilo je to vrlo statično mjesto.
00:16
You could go onlinena liniji, you could look at pagesstranica,
2
4990
2245
Mogli ste otići online,
mogli ste gledati stranice,
00:19
and they were put up eitherili by organizationsorganizacija
3
7235
2513
a one su bile postavljene
od strane organizacija
00:21
who had teamstimovi to do it
4
9748
1521
koje su imale timove za to
00:23
or by individualspojedinci who were really tech-savvytehnologija-pamet
5
11269
2229
ili vrlo tehnološki stručni pojedinci
00:25
for the time.
6
13498
1737
za to doba.
00:27
And with the riseustati of socialsocijalni mediamedia
7
15235
1575
S porastom društvenih medija
00:28
and socialsocijalni networksmreže in the earlyrano 2000s,
8
16810
2399
i društvenih mreža ranih 2000 - tih,
00:31
the webmreža was completelypotpuno changedpromijenjen
9
19209
2149
Internet se u potpunosti promijenio
00:33
to a placemjesto where now the vastogroman majorityvećina of contentsadržaj
10
21358
3608
u mjesto gdje velika većina sadržaja
00:36
we interactinterakcija with is put up by averageprosječan usersKorisnici,
11
24966
3312
s kojim dolazimo u kontakt je
postavljena od strane prosječnih korisnika,
00:40
eitherili in YouTubeMladost videosvideo or blogblog postspostova
12
28278
2697
u YouTube videima ili objavama na blogu
00:42
or productproizvod reviewsRecenzije or socialsocijalni mediamedia postingsČlanci.
13
30975
3315
ili recenzijama proizvoda
ili objavama društvenih medija.
00:46
And it's alsotakođer becomepostati a much more interactiveinteraktivni placemjesto,
14
34290
2347
Također je postao puno
više interaktivno mjesto,
00:48
where people are interactingu interakciji with othersdrugi,
15
36637
2637
gdje ljudi uzajamno djeluju,
00:51
they're commentingkomentiranje, they're sharingdijeljenje,
16
39274
1696
komentiraju, dijele,
00:52
they're not just readingčitanje.
17
40970
1614
nije da samo čitaju.
00:54
So FacebookFacebook is not the only placemjesto you can do this,
18
42584
1866
Facebook nije jedino mjesto
gdje to možete činiti,
00:56
but it's the biggestnajveći,
19
44450
1098
ali je najveće,
00:57
and it servessluži to illustrateilustrirati the numbersbrojevi.
20
45548
1784
i služi za ilustriranje podataka.
00:59
FacebookFacebook has 1.2 billionmilijardi usersKorisnici perpo monthmjesec.
21
47332
3477
Facebook ima 1.2 milijardu
korisnika na mjesec.
01:02
So halfpola the Earth'sZemlja je InternetInternet populationpopulacija
22
50809
1930
Stoga pola Zemljine internetske populacije
01:04
is usingkoristeći FacebookFacebook.
23
52739
1653
koristi Facebook.
01:06
They are a sitemjesto, alonguz with othersdrugi,
24
54392
1932
Oni su stranica, zajedno s drugima,
01:08
that has alloweddopušteno people to createstvoriti an onlinena liniji personapersona
25
56324
3219
koja je dozvolila ljudima
da stvore online personu
01:11
with very little technicaltehnička skillvještina,
26
59543
1782
s vrlo malo tehničkih vještina,
01:13
and people respondedodgovorila by puttingstavljanje hugeogroman amountsiznosi
27
61325
2476
a ljudi su na to odgovorili postavljanjem
01:15
of personalosobni datapodaci onlinena liniji.
28
63801
1983
gomile osobnih podataka na mrežu.
01:17
So the resultproizlaziti is that we have behavioralponašanja,
29
65784
2543
Rezultat je da imamo podatke o ponašanju,
01:20
preferencesklonost, demographicdemografski datapodaci
30
68327
1986
podatke o sklonostima, demografske podatke,
01:22
for hundredsstotine of millionsmilijuni of people,
31
70313
2101
za stotine milijuna ljudi,
01:24
whichkoji is unprecedentedbez presedana in historypovijest.
32
72414
2026
što je jedinstven slučaj u povijesti.
01:26
And as a computerračunalo scientistnaučnik,
what this meanssredstva is that
33
74440
2560
Kao računalnome znanstveniku, to znači da
01:29
I've been ableu stanju to buildizgraditi modelsmodeli
34
77000
1664
sam mogla napraviti modele
01:30
that can predictpredvidjeti all sortsvrste of hiddenskriven attributesatributi
35
78664
2322
koji mogu predvidjeti
razne skrivene osobine
01:32
for all of you that you don't even know
36
80986
2284
za sve vas, a da ni ne znate
01:35
you're sharingdijeljenje informationinformacija about.
37
83270
2202
da dijelite informacije o tome.
01:37
As scientistsznanstvenici, we use that to help
38
85472
2382
Kao znanstvenici, koristimo to kao pomoć
01:39
the way people interactinterakcija onlinena liniji,
39
87854
2114
u načinu kako ljudi komuniciraju online,
01:41
but there's lessmanje altruisticAltruist applicationsaplikacije,
40
89968
2499
ali ima i manje altruističnih primjena,
01:44
and there's a problemproblem in that usersKorisnici don't really
41
92467
2381
a problem je u tome što korisnici
01:46
understandrazumjeti these techniquesTehnike and how they work,
42
94848
2470
ne razumiju baš te tehnike i kako one rade,
01:49
and even if they did, they don't
have a lot of controlkontrolirati over it.
43
97318
3128
a čak i kada bi razumjeli,
nemaju puno kontrole nad time.
01:52
So what I want to talk to you about todaydanas
44
100446
1490
Ono o čemu želim pričati danas
01:53
is some of these things that we're ableu stanju to do,
45
101936
2702
su neke stvari koje možemo napraviti,
01:56
and then give us some ideasideje
of how we mightmoć go forwardnaprijed
46
104638
2763
i onda dati neke ideje
kako bismo mogli napredovati
01:59
to movepotez some controlkontrolirati back into the handsruke of usersKorisnici.
47
107401
2769
da vratimo dio kontrole natrag korisnicima.
02:02
So this is TargetCilj, the companydruštvo.
48
110170
1586
Ovo je tvrtka Target.
02:03
I didn't just put that logologo
49
111756
1324
Nisam ja stavila taj logo
02:05
on this poorsiromašan, pregnanttrudna woman'sženski bellytrbuh.
50
113080
2170
na trbuh ove jadne, trudne žene.
02:07
You maysvibanj have seenvidio this anecdoteanegdota that was printedtiskan
51
115250
1840
Možda ste čuli ovu anegdotu
02:09
in ForbesForbes magazinečasopis where TargetCilj
52
117090
2061
objavljenu u časopisu Forbes;
02:11
sentposlao a flyerletak to this 15-year-old-godinu star girldjevojka
53
119151
2361
Target je poslao letak 15 godišnjoj djevojci
02:13
with advertisementsOglasi and couponskuponi
54
121512
1710
s reklamama i kuponima
02:15
for babydijete bottlesboce and diaperspelene and cribsdječji krevet
55
123222
2554
za dječje bočice, pelene i kolijevke
02:17
two weeksTjedni before she told her parentsroditelji
56
125776
1684
dva tjedna prije no što je rekla
02:19
that she was pregnanttrudna.
57
127460
1864
roditeljima da je trudna.
02:21
Yeah, the dadtata was really upsetuzrujan.
58
129324
2704
Da, otac je bio zbilja uzrujan.
02:24
He said, "How did TargetCilj figurelik out
59
132028
1716
Rekao je, “Kako je Target saznao
02:25
that this highvisok schoolškola girldjevojka was pregnanttrudna
60
133744
1824
da je ova srednjoškolka trudna
02:27
before she told her parentsroditelji?"
61
135568
1960
prije nego što je ona rekla roditeljima?”
02:29
It turnsokreti out that they have the purchasekupiti historypovijest
62
137528
2621
Ispostavilo se da imaju prošlost kupovine
02:32
for hundredsstotine of thousandstisuća of customersklijenti
63
140149
2301
za stotine tisuća kupaca
02:34
and they computeprebrojavati what they
call a pregnancyTrudnoća scorepostići,
64
142450
2730
te izračunavaju ono što oni
nazivaju domet trudnoće,
02:37
whichkoji is not just whetherda li or
not a woman'sženski pregnanttrudna,
65
145180
2332
koji govori ne samo je li žena trudna,
02:39
but what her dueuslijed datedatum is.
66
147512
1730
već i koji joj je termin porođaja.
02:41
And they computeprebrojavati that
67
149242
1304
Oni to računaju
02:42
not by looking at the obviousočigledan things,
68
150546
1768
ne gledajući samo očite stvari
02:44
like, she's buyingkupovina a cribjasle or babydijete clothesodjeća,
69
152314
2512
poput: kupuje li kolijevku ili odjeću za bebe,
02:46
but things like, she boughtkupio more vitaminsvitamini
70
154826
2943
nego i stvari kao što su: kupila je
02:49
than she normallynormalno had,
71
157769
1717
više vitamina no obično,
02:51
or she boughtkupio a handbagtorbu
72
159486
1464
ili kupila je ručnu torbu
02:52
that's bigvelika enoughdovoljno to holddržati diaperspelene.
73
160950
1711
u koju stanu pelene.
02:54
And by themselvesse, those purchaseskupi don't seemčiniti se
74
162661
1910
Same po sebi, te se kupovine
02:56
like they mightmoć revealotkriti a lot,
75
164571
2469
ne čine kao da otkrivaju mnogo,
02:59
but it's a patternuzorak of behaviorponašanje that,
76
167040
1978
ali uzorak takvog ponašanja,
03:01
when you take it in the contextkontekst
of thousandstisuća of other people,
77
169018
3117
kada ga se stavi u kontekst tisuća drugih ljudi,
03:04
startspočinje to actuallyzapravo revealotkriti some insightsuvidi.
78
172135
2757
zapravo otkriva neka shvaćanja.
03:06
So that's the kindljubazan of thing that we do
79
174892
1793
To je način na koji predviđamo
03:08
when we're predictingpredviđanje stuffstvari
about you on socialsocijalni mediamedia.
80
176685
2567
stvari o vama u društvenim medijima.
03:11
We're looking for little
patternsobrasci of behaviorponašanje that,
81
179252
2796
Tražimo male obrasce ponašanja koji,
03:14
when you detectotkriti them amongmeđu millionsmilijuni of people,
82
182048
2682
kada ih otkrijete među milijunima ljudi,
03:16
letsomogućuje us find out all kindsvrste of things.
83
184730
2706
otkrivaju nam razne stvari.
03:19
So in my lablaboratorija and with colleagueskolege,
84
187436
1747
U laboratoriju s mojim kolegama,
03:21
we'veimamo developedrazvijen mechanismsmehanizmi where we can
85
189183
1777
razvili smo mehanizme pomoću kojih možemo
03:22
quitedosta accuratelytočno predictpredvidjeti things
86
190960
1560
prilično precizno predvidjeti stvari
03:24
like your politicalpolitički preferencesklonost,
87
192520
1725
poput vaše političke preferencije,
03:26
your personalityosoba scorepostići, genderrod, sexualseksualan orientationorijentacija,
88
194245
3752
tipa osobnosti, spol, seksualnu orijentaciju,
03:29
religionreligija, agedob, intelligenceinteligencija,
89
197997
2873
vjeru, dob, inteligenciju,
03:32
alonguz with things like
90
200870
1394
zajedno sa stvarima poput
03:34
how much you trustpovjerenje the people you know
91
202264
1937
koliko vjerujete ljudima koje poznajete
03:36
and how strongjak those relationshipsodnosa are.
92
204201
1804
i koliko su jake te veze.
03:38
We can do all of this really well.
93
206005
1785
Sve to jako dobro radimo.
03:39
And again, it doesn't come from what you mightmoć
94
207790
2197
I opet, to ne dolazi od onoga
03:41
think of as obviousočigledan informationinformacija.
95
209987
2102
što vam se čini kao očiti izvor informacija.
03:44
So my favoriteljubimac exampleprimjer is from this studystudija
96
212089
2281
Moj najdraži primjer iz ovog je istraživanja
03:46
that was publishedObjavljeno this yeargodina
97
214370
1240
koje je objavljeno ove godine
03:47
in the ProceedingsPostupak of the NationalNacionalne AcademiesAkademija.
98
215610
1795
u broju časopisa Postupci Nacionalne
Akademije S.A.D.
03:49
If you GoogleGoogle this, you'llvi ćete find it.
99
217405
1285
Ako ga guglate, pronaći ćete ga.
03:50
It's fourčetiri pagesstranica, easylako to readčitati.
100
218690
1872
Ima četiri stranice, lak je za čitanje.
03:52
And they lookedgledao at just people'snarodno FacebookFacebook likessviđa,
101
220562
3003
Gledali su samo “lajkove” na Facebooku,
03:55
so just the things you like on FacebookFacebook,
102
223565
1920
samo one stvari koje vam se sviđaju,
03:57
and used that to predictpredvidjeti all these attributesatributi,
103
225485
2138
te su ih koristili za
predviđanje ovih obilježja,
03:59
alonguz with some other onesone.
104
227623
1645
zajedno s još nekim drugima.
04:01
And in theirnjihov paperpapir they listedpopisu the fivepet likessviđa
105
229268
2961
U svojem radu nabrojali su pet “lajkova“
04:04
that were mostnajviše indicativeindikativno of highvisok intelligenceinteligencija.
106
232229
2787
koji su najviše ukazivali
na visok stupanj inteligencije.
04:07
And amongmeđu those was likingželjama a pagestranica
107
235016
2324
A među njima bila je stranica
04:09
for curlykovrčava frieskrumpir. (LaughterSmijeh)
108
237340
1905
za kovrčave krumpiriće. (Smijeh)
04:11
CurlyKovrčava frieskrumpir are deliciousukusna,
109
239245
2093
Kovrčavi krumpirići zbilja su ukusni,
04:13
but likingželjama them does not necessarilyobavezno mean
110
241338
2530
no ako ste ih označili da vam se sviđaju,
04:15
that you're smarterpametnije than the averageprosječan personosoba.
111
243868
2080
ne znači da ste pametniji od prosječne osobe.
04:17
So how is it that one of the strongestnajjači indicatorspokazatelji
112
245948
3207
Stoga, kako da je jedan
od snažnijih indikatora
04:21
of your intelligenceinteligencija
113
249155
1570
vaše inteligencije
04:22
is likingželjama this pagestranica
114
250725
1447
“lajkanje” stranice
04:24
when the contentsadržaj is totallypotpuno irrelevantbeznačajan
115
252172
2252
čiji je sadržaj u potpunosti ireleventan
04:26
to the attributeatribut that's beingbiće predictedpredvidjeti?
116
254424
2527
za atribut koji predviđa?
04:28
And it turnsokreti out that we have to look at
117
256951
1584
Ispostavlja se da moramo sagledati
04:30
a wholečitav bunchmnogo of underlyingtemeljne theoriesteorije
118
258535
1618
golemi broj temeljnih teorija
04:32
to see why we're ableu stanju to do this.
119
260153
2569
da bismo mogli vidjeti zašto
možemo to predvidjeti.
04:34
One of them is a sociologicalsociološke
theoryteorija calledzvao homophilyhomophily,
120
262722
2913
Jedna od njih je sociološka
teorija imena homofilija,
04:37
whichkoji basicallyu osnovi sayskaže people are
friendsprijatelji with people like them.
121
265635
3092
koja u biti govori da su ljudi
prijatelji s onima koji su im slični.
04:40
So if you're smartpametan, you tendskloni to
be friendsprijatelji with smartpametan people,
122
268727
2014
Stoga, ako ste pametni,
težite biti prijatelj s takvima
04:42
and if you're youngmladi, you tendskloni
to be friendsprijatelji with youngmladi people,
123
270741
2630
ako ste mladi, težite biti
prijatelj s mladim ljudima,
04:45
and this is well establishedosnovan
124
273371
1627
i to je uzorak koji je utvrđen
04:46
for hundredsstotine of yearsgodina.
125
274998
1745
već stotinama godina.
04:48
We alsotakođer know a lot
126
276743
1232
Također znamo mnogo o tome
04:49
about how informationinformacija spreadsnamazi throughkroz networksmreže.
127
277975
2550
kako se informacije šire mrežama.
04:52
It turnsokreti out things like viralvirusni videosvideo
128
280525
1754
Ispostavlja se da se stvari poput viralnih videa,
04:54
or FacebookFacebook likessviđa or other informationinformacija
129
282279
2406
“lajkova” na Facebooku ili drugih informacija
04:56
spreadsnamazi in exactlytočno the sameisti way
130
284685
1888
šire na potpuno jednak način
04:58
that diseasesoboljenja spreadširenje throughkroz socialsocijalni networksmreže.
131
286573
2454
kako se zarazne bolesti šire,
ali kroz društvene mreže.
05:01
So this is something we'veimamo studiedstudirao for a long time.
132
289027
1791
To je nešto što smo proučavali dugo vremena.
05:02
We have good modelsmodeli of it.
133
290818
1576
Imamo dobre modele tog obrasca.
05:04
And so you can put those things togetherzajedno
134
292394
2157
Možete posložiti pojave poput te
05:06
and startpočetak seeingvidim why things like this happendogoditi se.
135
294551
3088
i uvidjeti zašto se takve stvari događaju.
05:09
So if I were to give you a hypothesishipoteza,
136
297639
1814
Pa, ako bi vam dala hipotezu,
05:11
it would be that a smartpametan guy startedpočeo this pagestranica,
137
299453
3227
ona bi glasila da je pametan
tip pokrenuo tu stranicu,
05:14
or maybe one of the first people who likedvolio it
138
302680
1939
ili nekoliko prvih ljudi koji su ju “lajkali”
05:16
would have scoredpostigao highvisok on that testtest.
139
304619
1736
su postigli visoke rezultate
na ispitu inteligencije.
05:18
And they likedvolio it, and theirnjihov friendsprijatelji saw it,
140
306355
2288
Svidjela im se, njihovi su je prijatelji vidjeli,
05:20
and by homophilyhomophily, we know that
he probablyvjerojatno had smartpametan friendsprijatelji,
141
308643
3122
i prema načelu homofilije znamo
da su vjerojatno imali pametne prijatelje
05:23
and so it spreadširenje to them,
and some of them likedvolio it,
142
311765
3056
pa se to proširilo do njih,
neki od njih su ju “lajkali”,
05:26
and they had smartpametan friendsprijatelji,
143
314821
1189
a i oni su imali pametne prijatelje,
05:28
and so it spreadširenje to them,
144
316010
807
pa se proširilo do njih,
05:28
and so it propagatedRazmnožava se throughkroz the networkmreža
145
316817
1973
tako se propagira kroz mrežu
05:30
to a hostdomaćin of smartpametan people,
146
318790
2569
koristeći pametne ljude kao domaćine,
05:33
so that by the endkraj, the actionakcijski
147
321359
2056
stoga je na kraju čin sviđanja
05:35
of likingželjama the curlykovrčava frieskrumpir pagestranica
148
323415
2544
stranice kovrčavih krumpirića
05:37
is indicativeindikativno of highvisok intelligenceinteligencija,
149
325959
1615
postao indikacija visoke inteligencije,
05:39
not because of the contentsadržaj,
150
327574
1803
ne zbog njezina sadržaja,
05:41
but because the actualstvaran actionakcijski of likingželjama
151
329377
2522
već zato što sam pritisak na gumb sviđanja
05:43
reflectsodražava back the commonzajednička attributesatributi
152
331899
1900
zrcali učestale atribute
05:45
of other people who have doneučinio it.
153
333799
2468
ljudi koji su ga pritisnuli.
05:48
So this is prettyprilično complicatedsložen stuffstvari, right?
154
336267
2897
Ovo su poprilično komplicirane stvari, jelda?
05:51
It's a hardteško thing to sitsjediti down and explainobjasniti
155
339164
2199
Teško je sjesti i objasniti
to
05:53
to an averageprosječan userkorisnik, and even if you do,
156
341363
2848
prosječnom korisniku,
no čak i ako to učinite,
05:56
what can the averageprosječan userkorisnik do about it?
157
344211
2188
što može prosječan korisnik
u vezi toga napraviti?
05:58
How do you know that
you've likedvolio something
158
346399
2048
Kako znate da nešto što ste “lajkali”
06:00
that indicatesukazuje a traitosobina for you
159
348447
1492
indicira vašu osobinu
06:01
that's totallypotpuno irrelevantbeznačajan to the
contentsadržaj of what you've likedvolio?
160
349939
3545
koja je u potpunosti nepovezana
sa sadržajem onoga što ste “lajkali”?
06:05
There's a lot of powervlast that usersKorisnici don't have
161
353484
2546
Postoji puno snage koju korisnici nemaju
06:08
to controlkontrolirati how this datapodaci is used.
162
356030
2230
za kontrolu kako se koriste ti podatci.
06:10
And I see that as a realstvaran
problemproblem going forwardnaprijed.
163
358260
3112
i vidim to kao velik problem gledajući unaprijed.
06:13
So I think there's a couplepar pathsstaze
164
361372
1977
Mislim da postoji nekoliko načina
06:15
that we want to look at
165
363349
1001
koje želimo sagledati
06:16
if we want to give usersKorisnici some controlkontrolirati
166
364350
1910
ako bismo korisnicima donekle dali kontrolu
06:18
over how this datapodaci is used,
167
366260
1740
nad time kako se koriste ti podatci,
06:20
because it's not always going to be used
168
368000
1940
jer neće uvijek biti iskorišteni
06:21
for theirnjihov benefitkorist.
169
369940
1381
u njihovu korist.
06:23
An exampleprimjer I oftenčesto give is that,
170
371321
1422
Primjer koji često dajem jest,
06:24
if I ever get boreddosadno beingbiće a professorprofesor,
171
372743
1646
ako mi ikad dosadi biti profesor,
06:26
I'm going to go startpočetak a companydruštvo
172
374389
1653
pokrenut ću kompaniju
06:28
that predictspredviđa all of these attributesatributi
173
376042
1454
koja predviđa sve te atribute
06:29
and things like how well you work in teamstimovi
174
377496
1602
i stvari kao što su, radite li dobro u timu,
06:31
and if you're a drugdroga userkorisnik, if you're an alcoholicalkoholičar.
175
379098
2671
koristite li droge, jeste li alkoholičar.
06:33
We know how to predictpredvidjeti all that.
176
381769
1440
Sve to znamo predvidjeti.
06:35
And I'm going to sellprodavati reportsizvještaji
177
383209
1761
I prodavat ću izvješća
06:36
to H.R. companiestvrtke and bigvelika businessespoduzeća
178
384970
2100
kompanijama ljudskih resursa i velikim tvrtkama
06:39
that want to hirenajam you.
179
387070
2273
koje vas žele zaposliti.
06:41
We totallypotpuno can do that now.
180
389343
1177
Mi to možemo napraviti.
06:42
I could startpočetak that businessPoslovni tomorrowsutra,
181
390520
1788
Mogla bih pokrenuti taj posao sutra,
06:44
and you would have
absolutelyapsolutno no controlkontrolirati
182
392308
2052
a vi ne biste imali apsolutno nikakvu kontrolu
06:46
over me usingkoristeći your datapodaci like that.
183
394360
2138
nada mnom koja koristim
vaše podatke na taj način.
06:48
That seemsčini se to me to be a problemproblem.
184
396498
2292
To mi se čini kao problem.
06:50
So one of the pathsstaze we can go down
185
398790
1910
Jedan put kojim možemo poći
06:52
is the policypolitika and lawzakon pathstaza.
186
400700
2032
je put politike i prava.
06:54
And in some respectspoštovanje, I think
that that would be mostnajviše effectivedjelotvoran,
187
402732
3046
I u nekim pogledima, mislim
da bi to bilo najučinkovitije,
06:57
but the problemproblem is we'dmi bismo
actuallyzapravo have to do it.
188
405778
2756
no problem je da bismo
to zbilja morali napraviti.
07:00
ObservingPromatranje our politicalpolitički processpostupak in actionakcijski
189
408534
2780
Promatrajući naše političke procese u akciji
07:03
makesmarke me think it's highlyvisoko unlikelynevjerojatno
190
411314
2379
čini mi se da je malo vjerojatno
07:05
that we're going to get a bunchmnogo of representativespredstavnici
191
413693
1597
da ćemo dobiti gomilu predstavnika
07:07
to sitsjediti down, learnnaučiti about this,
192
415290
1986
koji će sjesti, naučiti o tome
07:09
and then enactdonijeti sweepingbrišući changespromjene
193
417276
2106
i onda donijeti dalekosežne promjene
07:11
to intellectualintelektualac propertysvojstvo lawzakon in the U.S.
194
419382
2157
u američke zakone o intelektualnom vlasništvu
07:13
so usersKorisnici controlkontrolirati theirnjihov datapodaci.
195
421539
2461
da bi korisnici mogli kontrolirati svoje podatke.
07:16
We could go the policypolitika routeput,
196
424000
1304
Možemo krenuti putem politike,
07:17
where socialsocijalni mediamedia companiestvrtke say,
197
425304
1479
gdje kompanije društvenih medija kažu:
07:18
you know what? You ownvlastiti your datapodaci.
198
426783
1402
znate što? Vi posjedujete podatke.
07:20
You have totalukupno controlkontrolirati over how it's used.
199
428185
2489
Imate potpunu kontrolu nad time kako se koriste.
07:22
The problemproblem is that the revenueprihod modelsmodeli
200
430674
1848
Problem je u tome što se modeli prihoda
07:24
for mostnajviše socialsocijalni mediamedia companiestvrtke
201
432522
1724
za većinu kompanija društvenih medija
07:26
relyosloniti on sharingdijeljenje or exploitingiskorištavanje
users'korisnika datapodaci in some way.
202
434246
4031
oslanjaju na dijeljenje ili, na neki način,
iskorištavanje podataka korisnika.
07:30
It's sometimesponekad said of FacebookFacebook that the usersKorisnici
203
438277
1833
Ponekad se kaže za Facebook da korisnici
07:32
aren'tnisu the customerkupac, they're the productproizvod.
204
440110
2528
nisu mušterije, već proizvod.
07:34
And so how do you get a companydruštvo
205
442638
2714
Stoga kako natjerati kompaniju
07:37
to cedeustupiti controlkontrolirati of theirnjihov mainglavni assetimovina
206
445352
2558
da korisnicima vrati kontrolu
07:39
back to the usersKorisnici?
207
447910
1249
nad njihovom glavnom imovinom?
07:41
It's possiblemoguće, but I don't think it's something
208
449159
1701
Moguće je, ali ne mislim da je to promjena
07:42
that we're going to see changepromijeniti quicklybrzo.
209
450860
2320
koju ćemo ubrzo vidjeti.
07:45
So I think the other pathstaza
210
453180
1500
Stoga mislim da će drugi put
07:46
that we can go down that's
going to be more effectivedjelotvoran
211
454680
2288
kojim možemo poći biti djelotvorniji
07:48
is one of more scienceznanost.
212
456968
1508
i to je onaj sa više znanosti.
07:50
It's doing scienceznanost that alloweddopušteno us to developrazviti
213
458476
2510
Prije svega, znanost nam dopušta razvijanje
07:52
all these mechanismsmehanizmi for computingračunanje
214
460986
1750
svih ovih mehanizama za računanje
07:54
this personalosobni datapodaci in the first placemjesto.
215
462736
2052
osobnih podataka.
07:56
And it's actuallyzapravo very similarsličan researchistraživanje
216
464788
2106
I zapravo bismo morali provesti
07:58
that we'dmi bismo have to do
217
466894
1438
vrlo slično istraživanje
08:00
if we want to developrazviti mechanismsmehanizmi
218
468332
2386
ako bismo htjeli razviti mehanizme
08:02
that can say to a userkorisnik,
219
470718
1421
koji bi korisniku rekli:
08:04
"Here'sOvdje je the riskrizik of that actionakcijski you just tookuzeo."
220
472139
2229
“Ovo je rizik radnje koju ste upravo napravili.”
08:06
By likingželjama that FacebookFacebook pagestranica,
221
474368
2080
Lajkanjem te Facebook stranice
08:08
or by sharingdijeljenje this piecekomad of personalosobni informationinformacija,
222
476448
2535
ili dijeljenjem ove osobne informacije,
08:10
you've now improvedpoboljšan my abilitysposobnost
223
478983
1502
upravo ste poboljšali moju sposobnost
08:12
to predictpredvidjeti whetherda li or not you're usingkoristeći drugslijekovi
224
480485
2086
predviđanja koristite li droge,
08:14
or whetherda li or not you get
alonguz well in the workplaceradnom mjestu.
225
482571
2862
ili slažete li se na radnom mjestu.
08:17
And that, I think, can affectutjecati whetherda li or not
226
485433
1848
A to mislim da bi moglo
08:19
people want to sharePodjeli something,
227
487281
1510
utjecati na želju ljudi da nešto podijele,
08:20
keep it privateprivatna, or just keep it offlineoffline altogethersve u svemu.
228
488791
3239
zadrže to privatnim, ili uopće ne stave online.
08:24
We can alsotakođer look at things like
229
492030
1563
Možemo se također osvrnuti na stvari
08:25
allowingomogućujući people to encryptšifriranje datapodaci that they uploadUčitaj,
230
493593
2728
poput dopuštanja ljudima da kodiraju
podatke koje su objavili,
08:28
so it's kindljubazan of invisiblenevidljiv and worthlessbezvrijedan
231
496321
1855
pa oni postaju nevidljivi i beskorisni
08:30
to sitesstranice like FacebookFacebook
232
498176
1431
stranicama poput Facebooka
08:31
or thirdtreći partystranka servicesusluge that accesspristup it,
233
499607
2629
ili uslugama trećih stranaka
koje im imaju pristup,
08:34
but that selectIzaberi usersKorisnici who the personosoba who postedobjavljeno it
234
502236
3247
ali da odabrani korisnici
08:37
want to see it have accesspristup to see it.
235
505483
2670
za koje vlasnici žele da vide
informacije ih mogu i vidjeti.
08:40
This is all supersuper excitinguzbudljiv researchistraživanje
236
508153
2166
Ovo je vrlo uzbudljivo istraživanje
08:42
from an intellectualintelektualac perspectiveperspektiva,
237
510319
1620
iz intelektualne perspektive,
08:43
and so scientistsznanstvenici are going to be willingspreman to do it.
238
511939
1859
stoga će ga znanstvenici biti voljni napraviti.
08:45
So that givesdaje us an advantageprednost over the lawzakon sidestrana.
239
513798
3610
To nam daje prednost pred zakonskom stranom.
08:49
One of the problemsproblemi that people bringdonijeti up
240
517408
1725
Jedan od problema koji ljudi spomenu
08:51
when I talk about this is, they say,
241
519133
1595
kada pričam o ovome jest, kažu,
08:52
you know, if people startpočetak
keepingčuvanje all this datapodaci privateprivatna,
242
520728
2646
znate, ako ljudi počnu zadržavati
sve svoje podatke privatnima,
08:55
all those methodsmetode that you've been developingrazvoju
243
523374
2113
sve ove metode koje ste razvijali
08:57
to predictpredvidjeti theirnjihov traitsosobine are going to failiznevjeriti.
244
525487
2653
za predviđanje njihovih osobina će propasti.
09:00
And I say, absolutelyapsolutno, and for me, that's successuspjeh,
245
528140
3520
A ja kažem, apsolutno, i za mene je to uspjeh,
09:03
because as a scientistnaučnik,
246
531660
1786
jer kao znanstveniku,
09:05
my goalcilj is not to inferzaključiti informationinformacija about usersKorisnici,
247
533446
3688
moj cilj nije dolaziti do
informacija o korisnicima,
09:09
it's to improvepoboljšati the way people interactinterakcija onlinena liniji.
248
537134
2767
već poboljšati način kako ljudi
međusobno komuniciraju online.
09:11
And sometimesponekad that involvesuključuje
inferringinferring things about them,
249
539901
3218
Ponekad to uključuje
saznavanje njihovih informacija,
09:15
but if usersKorisnici don't want me to use that datapodaci,
250
543119
3022
ali ako korisnici ne žele da koristim te podatke,
09:18
I think they should have the right to do that.
251
546141
2038
mislim da bi trebali imati to pravo i učiniti.
09:20
I want usersKorisnici to be informedinformiran and consentingpristanak
252
548179
2651
Želim da korisnici budu informirani
09:22
usersKorisnici of the toolsalat that we developrazviti.
253
550830
2112
i da prihvaćaju alate koje razvijamo.
09:24
And so I think encouragingohrabrujući this kindljubazan of scienceznanost
254
552942
2952
Mislim da ohrabrivanje ove vrste znanosti
09:27
and supportingPodrška researchersistraživači
255
555894
1346
i podupiranje istraživača
09:29
who want to cedeustupiti some of that controlkontrolirati back to usersKorisnici
256
557240
3023
koji žele povratiti dio kontrole korisnicima
09:32
and away from the socialsocijalni mediamedia companiestvrtke
257
560263
2311
od kompanija društvenih medija
09:34
meanssredstva that going forwardnaprijed, as these toolsalat evolverazviti
258
562574
2671
znači da idući naprijed,
kako se ova oruđa razvijaju
09:37
and advancenapredovati,
259
565245
1476
i napreduju,
09:38
meanssredstva that we're going to have an educatedobrazovan
260
566721
1414
imat ćemo obrazovanu
09:40
and empoweredovlašten userkorisnik basebaza,
261
568135
1694
i osposobljenu bazu korisnika,
09:41
and I think all of us can agreesložiti
262
569829
1100
te mislim da se svi možemo složiti
09:42
that that's a prettyprilično idealidealan way to go forwardnaprijed.
263
570929
2564
da je to prilično idealan način za napredovanje.
09:45
Thank you.
264
573493
2184
Hvala.
09:47
(ApplausePljesak)
265
575677
3080
(Pljesak)
Translated by Senzos Osijek
Reviewed by Stjepan Mateljan

▲Back to top

ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee