ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com
TEDxMidAtlantic 2013

Jennifer Golbeck: Your social media "likes" expose more than you think

Jennifer Golbeck: Ghicitoarea cartofilor prăjiţi: "like"-urile sociale spun mai mult decât crezi

Filmed:
2,366,837 views

Îţi plac cartofii prăjiţi? Le-ai dat "like" pe Facebook? Vizionează acest discurs pentru a descoperi lucruri surprinzătoare pe care Facebook şi alţii le pot ghici despre tine din like-urile şi share-urile tale la întâmplare. Cercetătoarea în calculatoare Jennifer Golbeck explică modul în care a apărut acest fenomen, de ce unele aplicaţii ale tehnologiei nu sunt atât de binevoitoare -- şi de ce crede că ar trebui să redăm controlul informaţiei proprietarilor de drept.
- Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions. Full bio

Double-click the English transcript below to play the video.

00:12
If you remembertine minte that first decadedeceniu of the webweb,
0
738
1997
Vă amintiţi primul deceniu al internetului,
00:14
it was really a staticstatice placeloc.
1
2735
2255
când era un loc static.
00:16
You could go onlinepe net, you could look at pagespagini,
2
4990
2245
Puteai să te conectezi, să cauţi pagini
00:19
and they were put up eitherfie by organizationsorganizații
3
7235
2513
realizate fie de organizaţii
00:21
who had teamsechipe to do it
4
9748
1521
care aveau echipe pentru asta,
00:23
or by individualspersoane fizice who were really tech-savvytech-savvy
5
11269
2229
fie de persoane pasionate de tehnologie
00:25
for the time.
6
13498
1737
la acel moment.
00:27
And with the risecreştere of socialsocial mediamass-media
7
15235
1575
Odată cu popularizarea mediului social
00:28
and socialsocial networksrețele in the earlydin timp 2000s,
8
16810
2399
şi a reţelelor sociale la începutul anilor 2000,
00:31
the webweb was completelycomplet changedschimbat
9
19209
2149
internetul s-a schimbat complet
00:33
to a placeloc where now the vastvast majoritymajoritate of contentconţinut
10
21358
3608
în ceva în care majoritatea conţinutului
00:36
we interactinteracționa with is put up by averagein medie usersutilizatori,
11
24966
3312
cu care interacţionăm este realizat
de utilizatori obişnuiţi
00:40
eitherfie in YouTubeYouTube videosVideoclipuri or blogblogul postsmesaje
12
28278
2697
prin videoclipuri pe YouTube
postări pe bloguri,
00:42
or productprodus reviewsclienţi or socialsocial mediamass-media postingspostări.
13
30975
3315
recenzii de produs sau postări obişnuite.
00:46
And it's alsode asemenea becomedeveni a much more interactiveinteractiv placeloc,
14
34290
2347
A devenit de asemenea un loc mai interactiv
00:48
where people are interactinginteracționând with othersalții,
15
36637
2637
unde oamenii interacţionează unii cu alţii
00:51
they're commentingcomentând, they're sharingpartajare,
16
39274
1696
comentează, împărtăşesc,
00:52
they're not just readingcitind.
17
40970
1614
nu doar citesc.
00:54
So FacebookFacebook is not the only placeloc you can do this,
18
42584
1866
Facebook nu e singurul loc
unde poţi face asta,
00:56
but it's the biggestCea mai mare,
19
44450
1098
dar este cel mai mare,
00:57
and it servesservește to illustrateilustra the numbersnumerele.
20
45548
1784
iar numerele vorbesc de la sine.
00:59
FacebookFacebook has 1.2 billionmiliard usersutilizatori perpe monthlună.
21
47332
3477
Facebook are 1,2 miliarde de utilizatori lunar.
01:02
So halfjumătate the Earth'sPământului InternetInternet populationpopulație
22
50809
1930
Deci jumătate din populaţia conectată
la internet
01:04
is usingutilizând FacebookFacebook.
23
52739
1653
foloseşte Facebook.
01:06
They are a siteteren, alongde-a lungul with othersalții,
24
54392
1932
E un site care, alături de altele,
01:08
that has allowedpermis people to createcrea an onlinepe net personapersona
25
56324
3219
permite oamenilor
să îşi creeze o identitate online
01:11
with very little technicaltehnic skillabilitate,
26
59543
1782
necesitând puţine cunoştiinţe tehnice,
01:13
and people respondeda răspuns by puttingpunând hugeimens amountssume
27
61325
2476
iar oamenii răspund punând foarte multe
01:15
of personalpersonal datadate onlinepe net.
28
63801
1983
date personale online.
01:17
So the resultrezultat is that we have behavioralcomportamentale,
29
65784
2543
Așa că avem indicatori comportamentali,
de preferinţe, demografici,
01:20
preferencepreferinţă, demographicdemografic datadate
30
68327
1986
01:22
for hundredssute of millionsmilioane of people,
31
70313
2101
pentru sute de milioane de oameni,
01:24
whichcare is unprecedentedfără precedent in historyistorie.
32
72414
2026
ceva unic în istorie.
01:26
And as a computercomputer scientistom de stiinta,
what this meansmijloace is that
33
74440
2560
Ca specialist în calculatoare,
asta înseamnă
01:29
I've been ablecapabil to buildconstrui modelsmodele
34
77000
1664
că am putut crea modele
01:30
that can predictprezice all sortsfelul of hiddenascuns attributesatribute
35
78664
2322
care pot anticipa
tot felul de atribute ascunse
01:32
for all of you that you don't even know
36
80986
2284
de care nici măcar nu ştiţi
01:35
you're sharingpartajare informationinformație about.
37
83270
2202
că oferiţi această informaţie.
01:37
As scientistsoamenii de știință, we use that to help
38
85472
2382
Ca oameni de ştiinţă,
noi folosim asta pentru a ajuta
01:39
the way people interactinteracționa onlinepe net,
39
87854
2114
modul în care oamenii interacţionează online
01:41
but there's lessMai puțin altruisticaltruiste applicationsaplicații,
40
89968
2499
dar există aplicaţii mai puţin altruiste
01:44
and there's a problemproblemă in that usersutilizatori don't really
41
92467
2381
şi există o problemă că utilizatorii
01:46
understanda intelege these techniquestehnici and how they work,
42
94848
2470
nu înţeleg exact aceste tehnici
şi cum funcţionează
01:49
and even if they did, they don't
have a lot of controlControl over it.
43
97318
3128
şi chiar dacă ar înţelege
nu le-ar putea controla.
01:52
So what I want to talk to you about todayastăzi
44
100446
1490
Astăzi vreau să vă vorbesc
01:53
is some of these things that we're ablecapabil to do,
45
101936
2702
despre câteva lucruri pe care le putem face
01:56
and then give us some ideasidei
of how we mightar putea go forwardredirecţiona
46
104638
2763
şi apoi să avem idei
despre cum putem merge înainte
01:59
to movemișcare some controlControl back into the handsmâini of usersutilizatori.
47
107401
2769
să redăm controlul utilizatorilor.
02:02
So this is TargetŢintă, the companycompanie.
48
110170
1586
Aceasta e compania Target.
02:03
I didn't just put that logosiglă
49
111756
1324
Acel logo nu e pus degeaba
02:05
on this poorsărac, pregnantgravidă woman'sfemei bellyburtă.
50
113080
2170
pe pântecele acelei femei însărcinate.
02:07
You mayMai have seenvăzut this anecdoteanecdotă that was printedimprimate
51
115250
1840
Poate aţi văzut anecdota printată
02:09
in ForbesForbes magazinerevistă where TargetŢintă
52
117090
2061
în revista Forbes, unde Target
02:11
senttrimis a flyerafisul to this 15-year-old-de ani girlfată
53
119151
2361
a trimis un fluturaş acestei fetiţe de 15 ani
02:13
with advertisementsanunțuri and couponscupoane
54
121512
1710
cu reclame şi cupoane
02:15
for babybebelus bottlessticle and diapersscutece and cribsPatuturi
55
123222
2554
de biberoane, scutece şi pătuţuri de copii
02:17
two weekssăptămâni before she told her parentspărinţi
56
125776
1684
cu două săptămâni înainte
să le spună părinţilor
02:19
that she was pregnantgravidă.
57
127460
1864
că este însărcinată.
02:21
Yeah, the dadtata was really upsetderanjat.
58
129324
2704
Tatăl a fost foarte supărat.
02:24
He said, "How did TargetŢintă figurefigura out
59
132028
1716
A spus: "Cum şi-au dat seama cei de la Target
02:25
that this highînalt schoolşcoală girlfată was pregnantgravidă
60
133744
1824
că această liceană este însărcinată
02:27
before she told her parentspărinţi?"
61
135568
1960
înainte ca ea să le spună părinţilor?"
02:29
It turnstransformă out that they have the purchasecumpărare historyistorie
62
137528
2621
A reieşit că ei au istoricul cumpărăturilor
02:32
for hundredssute of thousandsmii of customersclienții
63
140149
2301
pentru sute de mii de clienţi
02:34
and they computecalcula what they
call a pregnancysarcina scorescor,
64
142450
2730
şi calculează un scor ce estimează sarcina,
02:37
whichcare is not just whetherdacă or
not a woman'sfemei pregnantgravidă,
65
145180
2332
arătând nu doar dacă o femeie
e însărcinată sau nu,
02:39
but what her duedatorat dateData is.
66
147512
1730
ci şi care e data la care va naşte.
02:41
And they computecalcula that
67
149242
1304
Iar ei au estimat asta
02:42
not by looking at the obviousevident things,
68
150546
1768
fără a accesa lucrurile evidente:
02:44
like, she's buyingcumpărare a cribpat de copil or babybebelus clotheshaine,
69
152314
2512
dacă a cumparat un pătuţ
sau haine de copil,
02:46
but things like, she boughtcumparat more vitaminsvitamine
70
154826
2943
ci dacă a cumpărat mai multe vitamine
02:49
than she normallyîn mod normal had,
71
157769
1717
decât în mod obişnuit
02:51
or she boughtcumparat a handbaggeantă de mână
72
159486
1464
sau dacă a cumparat o geantă
02:52
that's bigmare enoughdestul to holddeține diapersscutece.
73
160950
1711
suficient de mare pentru scutece.
02:54
And by themselvesînșiși, those purchasesachiziții don't seempărea
74
162661
1910
Aceste cumparături nu par să dezvăluie
02:56
like they mightar putea revealdezvălui a lot,
75
164571
2469
prea mult,
02:59
but it's a patternmodel of behaviorcomportament that,
76
167040
1978
dar este un tipar comportamental care,
03:01
when you take it in the contextcontext
of thousandsmii of other people,
77
169018
3117
raportat la mii de oameni,
03:04
startsîncepe to actuallyde fapt revealdezvălui some insightsInsights.
78
172135
2757
începe să însemne ceva anume.
03:06
So that's the kinddrăguț of thing that we do
79
174892
1793
Asta facem noi
03:08
when we're predictingprezicerea stuffchestie
about you on socialsocial mediamass-media.
80
176685
2567
când estimăm lucruri despre voi
în mediul social.
03:11
We're looking for little
patternsmodele of behaviorcomportament that,
81
179252
2796
Căutăm modele de comportament care,
03:14
when you detectdetecta them amongprintre millionsmilioane of people,
82
182048
2682
fiind comune la milioane de oameni,
03:16
letspermite us find out all kindstipuri of things.
83
184730
2706
ne ajută să aflăm tot felul de lucruri.
03:19
So in my lablaborator and with colleaguescolegii,
84
187436
1747
În laborator cu colegii mei
03:21
we'vene-am developeddezvoltat mechanismsmecanisme where we can
85
189183
1777
am dezvoltat mecanisme prin care putem
03:22
quitedestul de accuratelyprecis predictprezice things
86
190960
1560
să estimăm lucruri cu acurateţe
03:24
like your politicalpolitic preferencepreferinţă,
87
192520
1725
precum preferinţele politice
03:26
your personalitypersonalitate scorescor, gendergen, sexualsexual orientationorientarea,
88
194245
3752
personalitatea voastră, genul,
orientarea sexuală
03:29
religionreligie, agevârstă, intelligenceinteligență,
89
197997
2873
religia, vârsta, inteligenţa,
03:32
alongde-a lungul with things like
90
200870
1394
împreună cu lucruri precum
03:34
how much you trustîncredere the people you know
91
202264
1937
cât de mult aveţi încredere în oamenii cunoscuţi
03:36
and how strongputernic those relationshipsrelaţii are.
92
204201
1804
şi cât de puternice sunt acele relaţii.
03:38
We can do all of this really well.
93
206005
1785
Putem face foarte bine acest lucru.
03:39
And again, it doesn't come from what you mightar putea
94
207790
2197
Şi, din nou, asta nu datorită
03:41
think of as obviousevident informationinformație.
95
209987
2102
informaţiei considerate evidente.
03:44
So my favoritefavorit exampleexemplu is from this studystudiu
96
212089
2281
Exemplul meu favorit e în acest studiu
03:46
that was publishedpublicat this yearan
97
214370
1240
publicat anul ăsta
03:47
in the ProceedingsProceduri of the NationalNaţionale AcademiesAcademii.
98
215610
1795
în Procedurile Academiilor Naţionale.
03:49
If you GoogleGoogle this, you'llveți find it.
99
217405
1285
Îl puteţi găsi pe Google.
03:50
It's fourpatru pagespagini, easyuşor to readcitit.
100
218690
1872
Are patru pagini - uşor de citit.
03:52
And they lookedprivit at just people'soamenii lui FacebookFacebook likesîi place,
101
220562
3003
Au luat în calcul
doar la ce dau oamenii like,
03:55
so just the things you like on FacebookFacebook,
102
223565
1920
adică lucrurile care vă plac pe Facebook
03:57
and used that to predictprezice all these attributesatribute,
103
225485
2138
şi le-au folosit pentru a estima aceste atribute
03:59
alongde-a lungul with some other onescele.
104
227623
1645
pe lângă altele.
04:01
And in theiral lor paperhârtie they listedenumerate the fivecinci likesîi place
105
229268
2961
În lucrare ei au listat cele 5 like-uri
04:04
that were mostcel mai indicativeindicativă of highînalt intelligenceinteligență.
106
232229
2787
care indică un grad înalt de inteligentă.
04:07
And amongprintre those was likingplacă a pagepagină
107
235016
2324
Şi printre ele se afla like-ul la o pagină
04:09
for curlycret friescartofi prajiti. (LaughterRâs)
108
237340
1905
pentru cartofi prăjiţi. (Râsete)
04:11
CurlyCret friescartofi prajiti are deliciousdelicioase,
109
239245
2093
Cartofii prăjiţi sunt delicioşi,
04:13
but likingplacă them does not necessarilyîn mod necesar mean
110
241338
2530
dar dacă vă plac, nu înseamnă neapărat
04:15
that you're smartermai inteligent than the averagein medie personpersoană.
111
243868
2080
că sunteţi mai deştept decât persoana medie.
04:17
So how is it that one of the strongestmai puternic indicatorsIndicatorii
112
245948
3207
Cum se face că unul dintre cei mai puternici indicatori
04:21
of your intelligenceinteligență
113
249155
1570
ai inteligenţei voastre
04:22
is likingplacă this pagepagină
114
250725
1447
este că daţi like la această pagină
04:24
when the contentconţinut is totallyintru totul irrelevantirelevant
115
252172
2252
cu un conţinut total irelevant
04:26
to the attributeatribut that's beingfiind predicteda prezis?
116
254424
2527
pentru atributul care urmează a fi estimat?
04:28
And it turnstransformă out that we have to look at
117
256951
1584
Rezultă că trebuie să luăm în calcul
04:30
a wholeîntreg bunchbuchet of underlyingcare stau la baza theoriesteorii
118
258535
1618
o întreagă serie de teorii
04:32
to see why we're ablecapabil to do this.
119
260153
2569
pentru a vedea de ce putem face asta.
04:34
One of them is a sociologicalsociologice
theoryteorie calleddenumit homophilyhomophily,
120
262722
2913
Una dintre ele e o teorie sociologică
numită homofilie
04:37
whichcare basicallype scurt saysspune people are
friendsprieteni with people like them.
121
265635
3092
care spune că oamenii
sunt prieteni cu oameni ca ei.
04:40
So if you're smartinteligent, you tendtind to
be friendsprieteni with smartinteligent people,
122
268727
2014
Dacă eşti deştept, tinzi să fii prieten
cu oameni deştepţi
04:42
and if you're youngtineri, you tendtind
to be friendsprieteni with youngtineri people,
123
270741
2630
şi dacă eşti tânăr - cu oameni tineri
04:45
and this is well establishedstabilit
124
273371
1627
şi ştim asta
04:46
for hundredssute of yearsani.
125
274998
1745
de sute de ani.
04:48
We alsode asemenea know a lot
126
276743
1232
Mai ştim multe
04:49
about how informationinformație spreadstartinabile throughprin networksrețele.
127
277975
2550
despre cum se împrăştie informaţia prin reţele.
04:52
It turnstransformă out things like viralvirale videosVideoclipuri
128
280525
1754
Se pare că videoclipurile virale
04:54
or FacebookFacebook likesîi place or other informationinformație
129
282279
2406
sau like-urile de pe Facebook
sau alte informaţii
04:56
spreadstartinabile in exactlyexact the samela fel way
130
284685
1888
sunt transmise exact în acelaşi fel
04:58
that diseasesboli spreadrăspândire throughprin socialsocial networksrețele.
131
286573
2454
în care se transmit bolile prin reţele sociale.
05:01
So this is something we'vene-am studiedstudiat for a long time.
132
289027
1791
Asta e ceva ce studiem de ceva timp.
05:02
We have good modelsmodele of it.
133
290818
1576
Avem modele bune pentru asta.
05:04
And so you can put those things togetherîmpreună
134
292394
2157
Punem lucrurile astea la un loc
05:06
and startstart seeingvedere why things like this happenîntâmpla.
135
294551
3088
şi vedem de ce se întâmplă astfel de lucruri.
05:09
So if I were to give you a hypothesisipoteză,
136
297639
1814
Dacă ar fi să vă dau o ipoteză,
05:11
it would be that a smartinteligent guy starteda început this pagepagină,
137
299453
3227
ar fi că un om deştept a creat această pagină
05:14
or maybe one of the first people who likedplăcut it
138
302680
1939
sau poate că unul dintre primii care au dat like
05:16
would have scoreda marcat highînalt on that testTest.
139
304619
1736
ar fi avut un punctaj mare la acel test.
05:18
And they likedplăcut it, and theiral lor friendsprieteni saw it,
140
306355
2288
Iar acestuia i-a plăcut pagina
şi prietenii săi au văzut
05:20
and by homophilyhomophily, we know that
he probablyprobabil had smartinteligent friendsprieteni,
141
308643
3122
şi datorită homofiliei
ştim că are prieteni deştepţi,
05:23
and so it spreadrăspândire to them,
and some of them likedplăcut it,
142
311765
3056
astfel s-a transmis şi lor,
iar câtorva le-a plăcut,
05:26
and they had smartinteligent friendsprieteni,
143
314821
1189
iar ei la rândul lor au prieteni deştepţi,
05:28
and so it spreadrăspândire to them,
144
316010
807
astfel că s-a transmis şi lor
05:28
and so it propagatedpropagate throughprin the networkreţea
145
316817
1973
şi aşa s-a propagat prin reţea
05:30
to a hostgazdă of smartinteligent people,
146
318790
2569
către oamenii deştepţi,
05:33
so that by the endSfârşit, the actionacțiune
147
321359
2056
iar în final acţiunea
05:35
of likingplacă the curlycret friescartofi prajiti pagepagină
148
323415
2544
de a da like la cartofi prăjiţi
05:37
is indicativeindicativă of highînalt intelligenceinteligență,
149
325959
1615
e un indicator de inteligenţă,
05:39
not because of the contentconţinut,
150
327574
1803
nu datorită conţinutului
05:41
but because the actualreal actionacțiune of likingplacă
151
329377
2522
ci pentru că acţiunea de a da like
05:43
reflectsreflectă back the commoncomun attributesatribute
152
331899
1900
reflectă atribute comune
05:45
of other people who have doneTerminat it.
153
333799
2468
ale altor oameni care au făcut asta.
05:48
So this is prettyfrumos complicatedcomplicat stuffchestie, right?
154
336267
2897
Destul de complicat, nu?
05:51
It's a hardgreu thing to sitsta down and explainexplica
155
339164
2199
Este greu de explicat
05:53
to an averagein medie userutilizator, and even if you do,
156
341363
2848
utilizatorului mediu şi chiar dacă ar fi posibil,
05:56
what can the averagein medie userutilizator do about it?
157
344211
2188
ce ar putea face el în privinţa aceasta?
05:58
How do you know that
you've likedplăcut something
158
346399
2048
Cum poţi şti că ai dat like la ceva
06:00
that indicatesindică a traittrăsătură for you
159
348447
1492
care indică o trăsătură a ta
06:01
that's totallyintru totul irrelevantirelevant to the
contentconţinut of what you've likedplăcut?
160
349939
3545
care e irelevantă prin conţinutul care ţi-a plăcut?
06:05
There's a lot of powerputere that usersutilizatori don't have
161
353484
2546
Utilizatorii nu au puterea
06:08
to controlControl how this datadate is used.
162
356030
2230
de a controla modul
cum sunt folosite aceste date.
06:10
And I see that as a realreal
problemproblemă going forwardredirecţiona.
163
358260
3112
Văd asta ca o problemă reală ce avansează.
06:13
So I think there's a couplecuplu pathscăi
164
361372
1977
Cred că există anumite soluţii
06:15
that we want to look at
165
363349
1001
pe care să le analizăm
06:16
if we want to give usersutilizatori some controlControl
166
364350
1910
dacă vrem să dăm control utilizatorilor
06:18
over how this datadate is used,
167
366260
1740
cu privire la utilizarea datelor,
06:20
because it's not always going to be used
168
368000
1940
pentru că nu vor fi întotdeauna folosite
06:21
for theiral lor benefitbeneficiu.
169
369940
1381
în beneficiul lor.
06:23
An exampleexemplu I oftende multe ori give is that,
170
371321
1422
Dau adesea un exemplu:
06:24
if I ever get boredplictisit beingfiind a professorProfesor,
171
372743
1646
dacă o să mă plictisesc vreodată
de a fi profesor,
06:26
I'm going to go startstart a companycompanie
172
374389
1653
voi crea o companie
06:28
that predictsprezice all of these attributesatribute
173
376042
1454
care estimează toate aceste atribute,
06:29
and things like how well you work in teamsechipe
174
377496
1602
lucruri despre cât de bine lucraţi în echipă,
06:31
and if you're a drugmedicament userutilizator, if you're an alcoholicalcoolic.
175
379098
2671
dacă sunteţi dependent de drog sau alcoolic.
06:33
We know how to predictprezice all that.
176
381769
1440
Ştim cum să estimăm toate astea.
06:35
And I'm going to sellvinde reportsrapoarte
177
383209
1761
Intenţionez să vând rapoarte
06:36
to H.R. companiescompanii and bigmare businessesîntreprinderi
178
384970
2100
companiilor de HR şi marilor afaceri
06:39
that want to hireînchiriere you.
179
387070
2273
care vă angajează.
06:41
We totallyintru totul can do that now.
180
389343
1177
Putem face asta acum.
06:42
I could startstart that businessAfaceri tomorrowMâine,
181
390520
1788
Pot începe această afacere chiar mâine
06:44
and you would have
absolutelyabsolut no controlControl
182
392308
2052
şi nu aţi avea absolut niciun control
06:46
over me usingutilizând your datadate like that.
183
394360
2138
asupra faptului că folosesc astfel datele.
06:48
That seemspare to me to be a problemproblemă.
184
396498
2292
Asta mi se pare o problemă.
06:50
So one of the pathscăi we can go down
185
398790
1910
O cale pe care o putem alege
06:52
is the policypolitică and lawlege pathcale.
186
400700
2032
e calea politicii şi a legii.
06:54
And in some respectsprivințe, I think
that that would be mostcel mai effectiveefectiv,
187
402732
3046
În anumite privinţe, cred că aceasta
ar fi cea mai eficientă,
06:57
but the problemproblemă is we'dne-am
actuallyde fapt have to do it.
188
405778
2756
dar problema e că ar trebui să o facem.
07:00
ObservingObservarea our politicalpolitic processproces in actionacțiune
189
408534
2780
Observarea procesului politic în acţiune
07:03
makesmărci me think it's highlyextrem de unlikelyimprobabil
190
411314
2379
mă face să mă gândesc că e puţin probabil
07:05
that we're going to get a bunchbuchet of representativesreprezentanţii
191
413693
1597
să avem câţiva reprezentanţi
07:07
to sitsta down, learnînvăța about this,
192
415290
1986
care să înveţe despre asta
07:09
and then enactadopte sweepingmăturat changesschimbări
193
417276
2106
şi apoi să adopte schimbări radicale
07:11
to intellectualintelectual propertyproprietate lawlege in the U.S.
194
419382
2157
în proprietatea intelectuală în SUA,
07:13
so usersutilizatori controlControl theiral lor datadate.
195
421539
2461
astfel încât utilizatorii să controleze datele.
07:16
We could go the policypolitică routetraseu,
196
424000
1304
Am putea alege calea politică
07:17
where socialsocial mediamass-media companiescompanii say,
197
425304
1479
unde companiile sociale mediatice spun
07:18
you know what? You ownpropriu your datadate.
198
426783
1402
"Ştiţi ceva?
Aveţi propriile voastre informaţii.
07:20
You have totaltotal controlControl over how it's used.
199
428185
2489
Aveţi control total
asupra modului în care sunt folosite."
07:22
The problemproblemă is that the revenuevenituri modelsmodele
200
430674
1848
Problema este că modelele de venit
07:24
for mostcel mai socialsocial mediamass-media companiescompanii
201
432522
1724
pentru majoritatea
companiilor sociale mediatice
07:26
relyse bazează on sharingpartajare or exploitingexploatarea
users'utilizatorilor datadate in some way.
202
434246
4031
se bazează într-un fel pe împărtăşirea
sau exploatarea datelor utilizatorilor.
07:30
It's sometimesuneori said of FacebookFacebook that the usersutilizatori
203
438277
1833
Uneori se spune despre Facebook
că utilizatorii
07:32
aren'tnu sunt the customerclient, they're the productprodus.
204
440110
2528
nu sunt clienţii, ei sunt produsul.
07:34
And so how do you get a companycompanie
205
442638
2714
Deci cum faci o companie
să redea controlul asupra
principalei sale proprietăţi utilizatorilor?
07:37
to cedecedeze controlControl of theiral lor mainprincipal assetactiv
206
445352
2558
07:39
back to the usersutilizatori?
207
447910
1249
07:41
It's possibleposibil, but I don't think it's something
208
449159
1701
E posibil, dar nu cred că e ceva
07:42
that we're going to see changeSchimbare quicklyrepede.
209
450860
2320
care o să se schimbe rapid.
07:45
So I think the other pathcale
210
453180
1500
Cred că cealaltă cale
07:46
that we can go down that's
going to be more effectiveefectiv
211
454680
2288
pe care o putem alege
şi care va fi mai eficientă
07:48
is one of more scienceştiinţă.
212
456968
1508
este cea a ştiinţei.
07:50
It's doing scienceştiinţă that allowedpermis us to developdezvolta
213
458476
2510
Practicarea ştiinţei
ne-a permis să dezvoltăm
07:52
all these mechanismsmecanisme for computingtehnica de calcul
214
460986
1750
aceste mecanisme de a calcula
07:54
this personalpersonal datadate in the first placeloc.
215
462736
2052
aceste date personale în primul rând.
07:56
And it's actuallyde fapt very similarasemănător researchcercetare
216
464788
2106
Ar trebui să facem o cercetare similară
07:58
that we'dne-am have to do
217
466894
1438
08:00
if we want to developdezvolta mechanismsmecanisme
218
468332
2386
dacă dorim să dezvoltăm mecanisme
08:02
that can say to a userutilizator,
219
470718
1421
care să-i poată spune unui utilizator
08:04
"Here'sAici este the riskrisc of that actionacțiune you just tooka luat."
220
472139
2229
"Acesta e riscul pe care ţi l-ai luat
cu această acţiune"
08:06
By likingplacă that FacebookFacebook pagepagină,
221
474368
2080
Dând like la acea pagină de Facebook,
08:08
or by sharingpartajare this piecebucată of personalpersonal informationinformație,
222
476448
2535
sau împărtăşind această informaţie personală,
08:10
you've now improvedîmbunătățit my abilityabilitate
223
478983
1502
mi-ai îmbunătăţit capacitatea
08:12
to predictprezice whetherdacă or not you're usingutilizând drugsdroguri
224
480485
2086
de a prezice dacă foloseşti droguri
08:14
or whetherdacă or not you get
alongde-a lungul well in the workplacela locul de muncă.
225
482571
2862
sau dacă te simţi bine la locul de muncă.
08:17
And that, I think, can affecta afecta whetherdacă or not
226
485433
1848
Iar acest lucru consider că poate afecta
08:19
people want to shareacțiune something,
227
487281
1510
dacă oamenii doresc sau nu
să împărtăşească ceva,
08:20
keep it privateprivat, or just keep it offlinedeconectat altogethercu totul.
228
488791
3239
să păstreze privat
sau pur și simplu să nu-l pună online.
08:24
We can alsode asemenea look at things like
229
492030
1563
Putem observa şi lucruri ca cel de permite
08:25
allowingpermițând people to encryptcripta datadate that they uploadîncărcați,
230
493593
2728
oamenilor să codifice informaţiile
pe care le încarcă
08:28
so it's kinddrăguț of invisibleinvizibil and worthlesslipsit de valoare
231
496321
1855
astfel încât să fie invizibile şi inutile
08:30
to sitessite-uri like FacebookFacebook
232
498176
1431
pentru site-uri precum Facebook
08:31
or thirdal treilea partyparte servicesServicii that accessacces it,
233
499607
2629
sau terțe servicii care le accesează,
08:34
but that selectSelectați usersutilizatori who the personpersoană who postedpostat it
234
502236
3247
dar să selecteze utilizatorii
care au acces la ele.
08:37
want to see it have accessacces to see it.
235
505483
2670
08:40
This is all supersuper excitingemoționant researchcercetare
236
508153
2166
Asta-i o cercetare foarte interesantă
08:42
from an intellectualintelectual perspectiveperspectivă,
237
510319
1620
dintr-o perspectivă intelectuală,
astfel că cercetătorii vor fi dispuşi
s-o intreprindă.
08:43
and so scientistsoamenii de știință are going to be willingdispus to do it.
238
511939
1859
Asta ne dă un avantaj în faţa căii legale.
08:45
So that gives us an advantageavantaj over the lawlege sidelatură.
239
513798
3610
08:49
One of the problemsProbleme that people bringaduce up
240
517408
1725
Una dintre problemele
menționate este:
08:51
when I talk about this is, they say,
241
519133
1595
"dacă oamenii încep să îşi păstreze
08:52
you know, if people startstart
keepingpăstrare all this datadate privateprivat,
242
520728
2646
toate datele personale private,
08:55
all those methodsmetode that you've been developingîn curs de dezvoltare
243
523374
2113
aceste metode pe care le dezvoltaţi
08:57
to predictprezice theiral lor traitstrăsături are going to faileșua.
244
525487
2653
ca să le deduceţi caracteristicile
vor eşua."
09:00
And I say, absolutelyabsolut, and for me, that's successsucces,
245
528140
3520
Iar eu răspund: "Absolut, iar pentru mine,
acesta e un succes,
09:03
because as a scientistom de stiinta,
246
531660
1786
deoarece, ca om de ştiinţă,
09:05
my goalpoartă is not to inferdeduce informationinformație about usersutilizatori,
247
533446
3688
scopul meu nu e să deduc informaţii
despre utilizatori,
ci să îmbunătăţesc modul în care
oamenii interacţionează online.
09:09
it's to improveîmbunătăţi the way people interactinteracționa onlinepe net.
248
537134
2767
Uneori asta implică deducţia
unor lucruri despre ei,
09:11
And sometimesuneori that involvesimplică
inferringdeducere things about them,
249
539901
3218
dar dacă utilizatorii nu vor
ca eu să folosesc acele date,
09:15
but if usersutilizatori don't want me to use that datadate,
250
543119
3022
09:18
I think they should have the right to do that.
251
546141
2038
cred că ar trebui să aibă dreptul
să facă asta.
09:20
I want usersutilizatori to be informedinformat and consentingconsimţi
252
548179
2651
Vreau ca utilizatorii
să fie informaţi şi de acord
09:22
usersutilizatori of the toolsunelte that we developdezvolta.
253
550830
2112
cu instrumentele pe care le realizăm.
09:24
And so I think encouragingîncurajator this kinddrăguț of scienceştiinţă
254
552942
2952
Cred că a încuraja acest tip de ştiinţă
09:27
and supportingsprijinirea researcherscercetători
255
555894
1346
şi a sprijini cercetătorii
09:29
who want to cedecedeze some of that controlControl back to usersutilizatori
256
557240
3023
care vor să redea
o parte din acel control utilizatorilor
09:32
and away from the socialsocial mediamass-media companiescompanii
257
560263
2311
şi să îl ia de la companiile sociale mediatice,
09:34
meansmijloace that going forwardredirecţiona, as these toolsunelte evolveevolua
258
562574
2671
înseamnă a înainta, odată cu evoluția
şi progresul acestor mijloace,
09:37
and advanceavans,
259
565245
1476
09:38
meansmijloace that we're going to have an educatededucat
260
566721
1414
înseamnă că vom avea o bază de utilizatori
09:40
and empoweredîmputernicit userutilizator basebaza,
261
568135
1694
educată şi în control
09:41
and I think all of us can agreede acord
262
569829
1100
şi toți suntem de acord
09:42
that that's a prettyfrumos idealideal way to go forwardredirecţiona.
263
570929
2564
că asta-i modalitatea ideală
de a merge înainte.
09:45
Thank you.
264
573493
2184
Vă mulţumesc.
(Aplauze)
09:47
(ApplauseAplauze)
265
575677
3080
Translated by Nitu Corina
Reviewed by Ariana Bleau Lugo

▲Back to top

ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee