ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com
TEDxMidAtlantic 2013

Jennifer Golbeck: Your social media "likes" expose more than you think

Jennifer Golbeck: Kıvrık patates kızartması muamması: Sosyal medya "beğenileri" neden sandığınızdan daha fazlasını söyler

Filmed:
2,366,837 views

Kızarmış patates kızartması sever misiniz? Onları hiç Facebook'da beğendiniz mi? Facebook (ve diğerlerinin) sizin sıradan beğenilerinize ve paylaşımlarınıza bakarak tahmin edebildikleri şaşırtıcı şeyleri görmek için bu konuşmayı izleyin. Bilgisayar bilimcisi Jennifer Golbeck, bunun nasıl olduğunu, bazı teknolojik uygulamaların neden çok da sevimli olmadığını ve neden verilerin kontrolünü asıl hak sahiplerine geri vermek gerektiğini anlatıyor.
- Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions. Full bio

Double-click the English transcript below to play the video.

00:12
If you rememberhatırlamak that first decadeonyıl of the web,
0
738
1997
Çevrimiçi ağın ilk on yılını düşündüğünüzde,
00:14
it was really a staticstatik placeyer.
1
2735
2255
çok durağan bir yer olduğunu görürsünüz.
00:16
You could go onlineinternet üzerinden, you could look at pagessayfalar,
2
4990
2245
Çevrimiçi olurdunuz, ve sayfalara bakardınız,
00:19
and they were put up eitherya by organizationsorganizasyonlar
3
7235
2513
bu sayfalar
00:21
who had teamstakımlar to do it
4
9748
1521
ya bunu yaptıracak ekipleri olan kuruluşlar
00:23
or by individualsbireyler who were really tech-savvyteknik okul-savvy
5
11269
2229
ya da o zamana göre
00:25
for the time.
6
13498
1737
gerçekten teknoloji meraklısı bireyler tarafından yapılırdı.
00:27
And with the riseyükselmek of socialsosyal mediamedya
7
15235
1575
2000li yılların başlarında
00:28
and socialsosyal networksağlar in the earlyerken 2000s,
8
16810
2399
sosyal medyanın ve sosyal ağın gelişmesi ile birlikte,
00:31
the web was completelytamamen changeddeğişmiş
9
19209
2149
çevrimiçi ağ tamamen değişti
00:33
to a placeyer where now the vastgeniş majorityçoğunluk of contentiçerik
10
21358
3608
ve etkileşimde olduğumuz içeriğin büyük çoğunluğu
00:36
we interactetkileşim with is put up by averageortalama userskullanıcılar,
11
24966
3312
ortalama kullanıcılar tarafından
00:40
eitherya in YouTubeYouTube videosvideolar or blogBlog postsMesaj
12
28278
2697
Youtube videoları ya da blog yazıları
00:42
or productürün reviewsdeğerlendirmeden edinildi or socialsosyal mediamedya postingsilanları.
13
30975
3315
ürün eleştirileri ya da sosyal medya mesajları şeklinde hazırlanır oldu.
00:46
And it's alsoAyrıca becomeolmak a much more interactiveinteraktif placeyer,
14
34290
2347
Ayrıca, insanların yalnızca okumadığı,
00:48
where people are interactingetkileşim with othersdiğerleri,
15
36637
2637
birbirleriyle etkileştiği,
00:51
they're commentingyorum, they're sharingpaylaşım,
16
39274
1696
paylaştığı ve yorum yazdığı
00:52
they're not just readingokuma.
17
40970
1614
çok daha etkileşimli bir ortam haline geldi.
00:54
So FacebookFacebook is not the only placeyer you can do this,
18
42584
1866
Facebook bunu yapabileceğiniz tek platform değil
00:56
but it's the biggesten büyük,
19
44450
1098
ancak hem en büyüğü,
00:57
and it servesvermektedir to illustrateörneklemek the numberssayılar.
20
45548
1784
hem de rakamlarla konuşmamıza olanak tanıyor.
00:59
FacebookFacebook has 1.2 billionmilyar userskullanıcılar perbaşına monthay.
21
47332
3477
Facebook'un ayda 1.2 milyar kullanıcısı var.
01:02
So halfyarım the Earth'sDünya'nın InternetInternet populationnüfus
22
50809
1930
yani dünyanın internet kullanıcı nüfusunun yarısı
01:04
is usingkullanma FacebookFacebook.
23
52739
1653
Facebook kullanıyor.
01:06
They are a siteyer, alonguzun bir with othersdiğerleri,
24
54392
1932
Diğerleri gibi bu site de
01:08
that has allowedizin people to createyaratmak an onlineinternet üzerinden personakişi
25
56324
3219
çok az teknik bilgi gereksinimi ile
01:11
with very little technicalteknik skillbeceri,
26
59543
1782
online bir kişilik oluşturmalarına olanak sağladı
01:13
and people respondedcevap by puttingkoyarak hugeKocaman amountsmiktarlar
27
61325
2476
ve insanlar da çok miktarda
01:15
of personalkişisel dataveri onlineinternet üzerinden.
28
63801
1983
kişisel bilgiyi online olarak yayınladılar.
01:17
So the resultsonuç is that we have behavioraldavranışsal,
29
65784
2543
Sonuç olarak tarihte daha önce görülmemiş bir şekilde
01:20
preferencetercih, demographicdemografik dataveri
30
68327
1986
yüzlerce milyon insanın
01:22
for hundredsyüzlerce of millionsmilyonlarca of people,
31
70313
2101
davranışsal, tercihsel ve demografik
01:24
whichhangi is unprecedentedeşi görülmemiş in historytarih.
32
72414
2026
bilgilerine ulaştık.
01:26
And as a computerbilgisayar scientistBilim insanı,
what this meansanlamına geliyor is that
33
74440
2560
Bir bilgisayar bilimcisi olarak bu benim,
01:29
I've been ableyapabilmek to buildinşa etmek modelsmodeller
34
77000
1664
siz paylaştığınızın
01:30
that can predicttahmin all sortssıralar of hiddengizli attributesöznitelikleri
35
78664
2322
farkına bile varmadan
01:32
for all of you that you don't even know
36
80986
2284
sizin her türlü saklı özelliğinizi tahmin eden
01:35
you're sharingpaylaşım informationbilgi about.
37
83270
2202
modeller tasarlamam anlamına gelmektedir.
01:37
As scientistsBilim adamları, we use that to help
38
85472
2382
Bilim insanları olarak bizler bu bilgileri
01:39
the way people interactetkileşim onlineinternet üzerinden,
39
87854
2114
insanların online iletişimine destek amaçlı kullanırız
01:41
but there's lessaz altruisticfedakar applicationsuygulamaları,
40
89968
2499
ancak böyle fedakar olmayan uygulamalar da var
01:44
and there's a problemsorun in that userskullanıcılar don't really
41
92467
2381
ve problem, kullanıcıların bu tekniklerin
01:46
understandanlama these techniquesteknikleri and how they work,
42
94848
2470
nasıl işlediğini çok iyi anlamamaları,
01:49
and even if they did, they don't
have a lot of controlkontrol over it.
43
97318
3128
anlasalar dahi bunları kontrol edememeleridir.
01:52
So what I want to talk to you about todaybugün
44
100446
1490
Bu nedenle bugün sizlerle
01:53
is some of these things that we're ableyapabilmek to do,
45
101936
2702
yapabildiğimiz şeylerden bazılarını paylaşmak
01:56
and then give us some ideasfikirler
of how we mightbelki go forwardileri
46
104638
2763
ve kullanıcıların eline biraz daha fazla kontrol vermek için
01:59
to movehareket some controlkontrol back into the handseller of userskullanıcılar.
47
107401
2769
neler yapılabileceği hakkında fikirler vermek istiyorum.
02:02
So this is TargetHedef, the companyşirket.
48
110170
1586
Bu Target, bir şirket.
02:03
I didn't just put that logologo
49
111756
1324
Bu zavallı hamile kadının karnına bu logoyu
02:05
on this poorfakir, pregnanthamile woman'skadının bellygöbek.
50
113080
2170
öylesine koymadım.
02:07
You mayMayıs ayı have seengörüldü this anecdoteanekdot that was printedbasılı
51
115250
1840
Daha önce Forbes dergisinde
02:09
in ForbesForbes magazinedergi where TargetHedef
52
117090
2061
bu anekdotu görmüşsünüzdür.
02:11
sentgönderilen a flyerel ilanı to this 15-year-old-yaşında girlkız
53
119151
2361
Target, 15 yaşındaki bu kıza
02:13
with advertisementsreklamlar and couponskuponlar
54
121512
1710
kendisi daha anne ve babasına hamile
02:15
for babybebek bottlesşişeler and diapersçocuk bezi and cribsCribs
55
123222
2554
olduğunu söylemeden iki hafta önce
02:17
two weekshaftalar before she told her parentsebeveyn
56
125776
1684
içinde biberon, bebek bezi ve bebek yatağı reklam ve kuponlarının olduğu
02:19
that she was pregnanthamile.
57
127460
1864
bir broşür göndermişti.
02:21
Yeah, the dadbaba was really upsetüzgün.
58
129324
2704
Evet haliyle baba sinirlenmişti.
02:24
He said, "How did TargetHedef figureşekil out
59
132028
1716
"Nasıl olur da Target liseli bir kızın hamile olduğunu
02:25
that this highyüksek schoolokul girlkız was pregnanthamile
60
133744
1824
o anne ve babasına
02:27
before she told her parentsebeveyn?"
61
135568
1960
söylemeden önce bilebilir!"di.
02:29
It turnsdönüşler out that they have the purchasesatın alma historytarih
62
137528
2621
Belli oldu ki, yüzlerce, binlerce müşterinin
02:32
for hundredsyüzlerce of thousandsbinlerce of customersmüşteriler
63
140149
2301
alışveriş geçmişi hakkında bilgileri vardı ve
02:34
and they computehesaplamak what they
call a pregnancygebelik scoreGol,
64
142450
2730
hamilelik puanı adı verilen bir değeri hesaplayarak,
02:37
whichhangi is not just whetherolup olmadığını or
not a woman'skadının pregnanthamile,
65
145180
2332
bir kadının sadece hamile olup olmadığını değil,
02:39
but what her duenedeniyle datetarih is.
66
147512
1730
ne zaman doğum yapacağını da biliyorlardı.
02:41
And they computehesaplamak that
67
149242
1304
Ve bu hesaplamaları,
02:42
not by looking at the obviousaçık things,
68
150546
1768
kızın bebek yatağı ya da bebek kıyafetleri alması gibi
02:44
like, she's buyingalış a cribbeşik or babybebek clothesçamaşırlar,
69
152314
2512
zaten bariz olan şeylere bakarak değil,
02:46
but things like, she boughtsatın more vitaminsVitaminler
70
154826
2943
normalden daha fazla
02:49
than she normallynormalde had,
71
157769
1717
vitamin satın alması
02:51
or she boughtsatın a handbagel çantası
72
159486
1464
ya da bebek bezi konulabilecek kadar büyük
02:52
that's bigbüyük enoughyeterli to holdambar diapersçocuk bezi.
73
160950
1711
bir el çantası alması gibi şeyere bakarak yapıyorlar.
02:54
And by themselveskendilerini, those purchasesalımları don't seemgörünmek
74
162661
1910
Bu satın almalar kendi başlarına
02:56
like they mightbelki revealortaya çıkartmak a lot,
75
164571
2469
çok da bir şey ifade eder gibi değiller
02:59
but it's a patternmodel of behaviordavranış that,
76
167040
1978
ancak bu davranış kalıpları
03:01
when you take it in the contextbağlam
of thousandsbinlerce of other people,
77
169018
3117
binlerce diğer insan bağlamında düşünüldüğünde
03:04
startsbaşlar to actuallyaslında revealortaya çıkartmak some insightsanlayışlar.
78
172135
2757
gerçekten bazı öngörüler sunmaya başlıyor.
03:06
So that's the kindtür of thing that we do
79
174892
1793
İşte sosyal medyada sizler hakkında tahminler yürütürken
03:08
when we're predictingtahmin stuffşey
about you on socialsosyal mediamedya.
80
176685
2567
bizim de yaptığımız bu.
03:11
We're looking for little
patternsdesenler of behaviordavranış that,
81
179252
2796
Milyonlarca insanla kıyaslanıp bulunduğunda
03:14
when you detectbelirlemek them amongarasında millionsmilyonlarca of people,
82
182048
2682
her tür bilgiyi bize sunan
03:16
letsHaydi us find out all kindsçeşit of things.
83
184730
2706
küçük davranış kalıpları ararız.
03:19
So in my lablaboratuvar and with colleaguesmeslektaşlar,
84
187436
1747
Laboratuarımızda ben ve iş arkadaşlarım
03:21
we'vebiz ettik developedgelişmiş mechanismsmekanizmalar where we can
85
189183
1777
sizin siyasi tercihinizi, kişilik puanınızı
03:22
quiteoldukça accuratelytam olarak predicttahmin things
86
190960
1560
cinsiyetinizi, cinsel tercihinizi
03:24
like your politicalsiyasi preferencetercih,
87
192520
1725
dininizi, yaşınızı, zekanızı
03:26
your personalitykişilik scoreGol, genderCinsiyet, sexualcinsel orientationYönlendirme,
88
194245
3752
ve bunlara ek olarak
03:29
religiondin, ageyaş, intelligencezeka,
89
197997
2873
tanıdığınız insanlara ne kadar güvendiğinizi
03:32
alonguzun bir with things like
90
200870
1394
ve bu ilişkilerinizin ne kadar güçlü olduğunu
03:34
how much you trustgüven the people you know
91
202264
1937
gayet doğru şekilde tahmin eden
03:36
and how stronggüçlü those relationshipsilişkiler are.
92
204201
1804
bir mekanizma geliştirdik.
03:38
We can do all of this really well.
93
206005
1785
Bütün bunları çok iyi şekilde yapabiliyoruz.
03:39
And again, it doesn't come from what you mightbelki
94
207790
2197
Ve bütün bunlar, sizlerin de bariz olarak adlandıramayacağı
03:41
think of as obviousaçık informationbilgi.
95
209987
2102
şeylerden derleniyor.
03:44
So my favoritesevdiğim exampleörnek is from this studyders çalışma
96
212089
2281
Benim en sevdiğim örnek
03:46
that was publishedyayınlanan this yearyıl
97
214370
1240
Ulusal Akademi Konferansında geçen yıl yayımlanan
03:47
in the Proceedingsİşlemleri of the NationalUlusal AcademiesAkademiler.
98
215610
1795
bir araştırmadan.
03:49
If you GoogleGoogle this, you'llEğer olacak find it.
99
217405
1285
Google'da ararsanız bulursunuz.
03:50
It's fourdört pagessayfalar, easykolay to readokumak.
100
218690
1872
Dört sayfalık kolay okunan bir metin.
03:52
And they lookedbaktı at just people'sinsanların FacebookFacebook likesseviyor,
101
220562
3003
İnsanların Facebook'ta neleri beğendiklerine bakıp
03:55
so just the things you like on FacebookFacebook,
102
223565
1920
sadece beğendikleri şeylere bakarak bu bilgiyle
03:57
and used that to predicttahmin all these attributesöznitelikleri,
103
225485
2138
bütün bu özellikleri
03:59
alonguzun bir with some other onesolanlar.
104
227623
1645
ve başka özellikleri tahmin etmişler.
04:01
And in theironların paperkâğıt they listedlistelenmiş the fivebeş likesseviyor
105
229268
2961
Makalelerinde yüksek zekanın en iyi göstergesi olan
04:04
that were mostçoğu indicativegösterge of highyüksek intelligencezeka.
106
232229
2787
beş beğeniyi listelemişler.
04:07
And amongarasında those was likingsevme a pagesayfa
107
235016
2324
ve bunların arasında
04:09
for curlykıvırcık friespatates. (LaughterKahkaha)
108
237340
1905
kıvrık patates kızartmasının beğenildiği bir sayfa da bulunuyor (gülüşmeler)
04:11
CurlyKıvırcık friespatates are deliciouslezzetli,
109
239245
2093
Kıvrık patates kızartması nefistir
04:13
but likingsevme them does not necessarilyzorunlu olarak mean
110
241338
2530
ama onları seviyor olmanız
04:15
that you're smarterdaha akıllı than the averageortalama personkişi.
111
243868
2080
ortalama bir insandan daha zeki olduğunuz anlamına gelmez.
04:17
So how is it that one of the strongestEn güçlü indicatorsgöstergeler
112
245948
3207
Peki nasıl oluyor da
04:21
of your intelligencezeka
113
249155
1570
zekanızın en iyi göstergesi
04:22
is likingsevme this pagesayfa
114
250725
1447
içeriği ölçülen özellikle
04:24
when the contentiçerik is totallybütünüyle irrelevantilgisiz
115
252172
2252
hiç bir ilgisi olmayan
04:26
to the attributenitelik that's beingolmak predictedtahmin?
116
254424
2527
bir sayfayı beğenmek oluyor?
04:28
And it turnsdönüşler out that we have to look at
117
256951
1584
Görülüyor ki bunun nasıl yapıldığını anlamak için
04:30
a wholebütün bunchDemet of underlyingtemel theoriesteoriler
118
258535
1618
altta yatan
04:32
to see why we're ableyapabilmek to do this.
119
260153
2569
pek çok teoriye bakmak gerekecek.
04:34
One of them is a sociologicalsosyolojik
theoryteori calleddenilen homophilyhomophily,
120
262722
2913
Bunlardan bir tanesi homofili adı verilen sosyolojik bir teoridir
04:37
whichhangi basicallytemel olarak saysdiyor people are
friendsarkadaşlar with people like them.
121
265635
3092
ve temelde insanların kendileri gibi olan kişilerle dost olduklarını söyler.
04:40
So if you're smartakıllı, you tendeğiliminde to
be friendsarkadaşlar with smartakıllı people,
122
268727
2014
Yani eğer zekiyseniz zeki insanlarla dost olma eğilimindesinizdir,
04:42
and if you're younggenç, you tendeğiliminde
to be friendsarkadaşlar with younggenç people,
123
270741
2630
gençseniz genç insanlarla dost olma eğiliminiz vardır
04:45
and this is well establishedkurulmuş
124
273371
1627
ve bu yüzyıllardır
04:46
for hundredsyüzlerce of yearsyıl.
125
274998
1745
yerleşik olan bir bilgidir.
04:48
We alsoAyrıca know a lot
126
276743
1232
Biz bilginin de
04:49
about how informationbilgi spreadsyayılır throughvasitasiyla networksağlar.
127
277975
2550
ağlarda nasıl yayıldığını biliyoruz.
04:52
It turnsdönüşler out things like viralviral videosvideolar
128
280525
1754
Gördük ki viral videolar,
04:54
or FacebookFacebook likesseviyor or other informationbilgi
129
282279
2406
Facebook beğenileri ya da diğer bilgiler
04:56
spreadsyayılır in exactlykesinlikle the sameaynı way
130
284685
1888
sosyal ağlarda hastalıkların yayılması ile
04:58
that diseaseshastalıklar spreadYAYILMIŞ throughvasitasiyla socialsosyal networksağlar.
131
286573
2454
aynı şekilde yayılıyor.
05:01
So this is something we'vebiz ettik studiedokudu for a long time.
132
289027
1791
Bu uzun zamandır üzerinde çalıştığımız bir konu.
05:02
We have good modelsmodeller of it.
133
290818
1576
Bunun için iyi modellerimiz var.
05:04
And so you can put those things togetherbirlikte
134
292394
2157
Bütün bu bilgileri bir araya getirerek
05:06
and startbaşlama seeinggörme why things like this happenolmak.
135
294551
3088
böyle şeylerin neden olduğunu görmeye başlayabilirsiniz.
05:09
So if I were to give you a hypothesishipotez,
136
297639
1814
Size bir hipotez verecek olsam
05:11
it would be that a smartakıllı guy startedbaşladı this pagesayfa,
137
299453
3227
bu sayfayı zeki bir insanın başlattığını ve
05:14
or maybe one of the first people who likedsevilen it
138
302680
1939
bunu ilk beğenen kişilerden birinin de
05:16
would have scoredattı highyüksek on that testÖlçek.
139
304619
1736
bu testte iyi puan aldığını söylerdim.
05:18
And they likedsevilen it, and theironların friendsarkadaşlar saw it,
140
306355
2288
Onlar beğendiler, arkadaşları bunu gördü,
05:20
and by homophilyhomophily, we know that
he probablymuhtemelen had smartakıllı friendsarkadaşlar,
141
308643
3122
ve homofili sayesinde onun da zeki arkadaşlarının olduğunu biliyoruz
05:23
and so it spreadYAYILMIŞ to them,
and some of them likedsevilen it,
142
311765
3056
böylece bu onlara da yayıldı ve onların da bazıları beğendi
05:26
and they had smartakıllı friendsarkadaşlar,
143
314821
1189
ve onların da zeki arkadaşları vardı
05:28
and so it spreadYAYILMIŞ to them,
144
316010
807
ve bu onlara da yayıldı
05:28
and so it propagatedyayılır throughvasitasiyla the network
145
316817
1973
böylece bu ağ boyunca
05:30
to a hostevsahibi of smartakıllı people,
146
318790
2569
zeki insanlar arasında yayılmış oldu
05:33
so that by the endson, the actionaksiyon
147
321359
2056
sonunda
05:35
of likingsevme the curlykıvırcık friespatates pagesayfa
148
323415
2544
kıvrık patatesi beğenme sayfası
05:37
is indicativegösterge of highyüksek intelligencezeka,
149
325959
1615
yüksek zekanın göstergesi haline geldi
05:39
not because of the contentiçerik,
150
327574
1803
içeriği için değil ama,
05:41
but because the actualgerçek actionaksiyon of likingsevme
151
329377
2522
beğenme eylemini
05:43
reflectsyansıtır back the commonortak attributesöznitelikleri
152
331899
1900
gerçekleştiren kişilerin
05:45
of other people who have donetamam it.
153
333799
2468
ortak özelliklerinden dolayı.
05:48
So this is prettygüzel complicatedkarmaşık stuffşey, right?
154
336267
2897
Epeyce karmaşık bir şey değil mi?
05:51
It's a hardzor thing to sitoturmak down and explainaçıklamak
155
339164
2199
Ortalama bir kullanıcıyla oturup
05:53
to an averageortalama userkullanıcı, and even if you do,
156
341363
2848
bunu onlara anlatmak zor olacaktır,
05:56
what can the averageortalama userkullanıcı do about it?
157
344211
2188
zaten anlatılsa bile ortalama kullanıcının yapabileceği ne var ki?
05:58
How do you know that
you've likedsevilen something
158
346399
2048
Beğendiğiniz bir şeyin
06:00
that indicatesgösterir a traitözellik for you
159
348447
1492
o beğndiğiniz şeyin içeriğiyle hiç alakası olmayan
06:01
that's totallybütünüyle irrelevantilgisiz to the
contentiçerik of what you've likedsevilen?
160
349939
3545
bir özelliğinize işaret ettiğini nasıl bilebilirsiniz?
06:05
There's a lot of powergüç that userskullanıcılar don't have
161
353484
2546
Kullanıcıların bilgilerin nasıl kullanılacağına dair
06:08
to controlkontrol how this dataveri is used.
162
356030
2230
üzerinde hiç bir kontrolü olmayan pek çok veri var.
06:10
And I see that as a realgerçek
problemsorun going forwardileri.
163
358260
3112
Ve ben bunu devam eden çok büyük bir sorun olarak görüyorum.
06:13
So I think there's a coupleçift pathsyolları
164
361372
1977
Eğer kullanıcılara bu verilerin
06:15
that we want to look at
165
363349
1001
nasıl kullanılacağına dair biraz
06:16
if we want to give userskullanıcılar some controlkontrol
166
364350
1910
kontrol vermek istiyorsak
06:18
over how this dataveri is used,
167
366260
1740
bakılması gereken bazı seçenekler var,
06:20
because it's not always going to be used
168
368000
1940
çünkü bu veriler her zaman
06:21
for theironların benefityarar.
169
369940
1381
onların yararına kullanılmayacaktır.
06:23
An exampleörnek I oftensık sık give is that,
170
371321
1422
Sık verdiğim bir örnek,
06:24
if I ever get boredcanı sıkkın beingolmak a professorprofesör,
171
372743
1646
eğer bir gün profesörlükten bıkarsam,
06:26
I'm going to go startbaşlama a companyşirket
172
374389
1653
takım içinde nasıl çalıştığınız
06:28
that predictstahmin eder all of these attributesöznitelikleri
173
376042
1454
uyuşturucu kullanıp kullanmadığınız, alkolik olup olmadığınız
06:29
and things like how well you work in teamstakımlar
174
377496
1602
gibi özelliklere bakacağım
06:31
and if you're a drugilaç userkullanıcı, if you're an alcoholicalkollü.
175
379098
2671
bir şirket kurma isteğimdir.
06:33
We know how to predicttahmin all that.
176
381769
1440
Bunların hepsini nasıl tahmin edeceğimizi biliyoruz.
06:35
And I'm going to sellsatmak reportsraporlar
177
383209
1761
Bu bilgileri, sizi işe almak isteyen
06:36
to H.R. companiesşirketler and bigbüyük businessesişletmeler
178
384970
2100
insan kaynakları şirketlerine ve büyük firmalara
06:39
that want to hirekiralama you.
179
387070
2273
satacağım.
06:41
We totallybütünüyle can do that now.
180
389343
1177
Bunların hepsini yapabiliyoruz.
06:42
I could startbaşlama that business tomorrowyarın,
181
390520
1788
Yarın bir şirket açabilirim
06:44
and you would have
absolutelykesinlikle no controlkontrol
182
392308
2052
ve sizin, size ait bu bilgileri nasıl kullanacağım üzerinde
06:46
over me usingkullanma your dataveri like that.
183
394360
2138
hiç bir kontrolünüz olmaz.
06:48
That seemsgörünüyor to me to be a problemsorun.
184
396498
2292
Bu bana bir sorun gibi görünüyor.
06:50
So one of the pathsyolları we can go down
185
398790
1910
Bakacağımız seçeneklerden biri
06:52
is the policypolitika and lawhukuk pathyol.
186
400700
2032
politika ve hukuk seçeneğidir.
06:54
And in some respectssaygılar, I think
that that would be mostçoğu effectiveetkili,
187
402732
3046
Bence bazı açılardan bu en etkilisidir
06:57
but the problemsorun is we'devlenmek
actuallyaslında have to do it.
188
405778
2756
ancak sorun bununla gerçekten uğraşmanız gerektiğidir.
07:00
ObservingGözlem our politicalsiyasi processsüreç in actionaksiyon
189
408534
2780
Şu andaki politik süreçlerimize baktığımda
07:03
makesmarkaları me think it's highlybüyük ölçüde unlikelyolası olmayan
190
411314
2379
bir kaç vekilin oturup, bunları öğrenip
07:05
that we're going to get a bunchDemet of representativestemsilcileri
191
413693
1597
ve sonra da Amerikan hukukunun
07:07
to sitoturmak down, learnöğrenmek about this,
192
415290
1986
fikir mülkiyeti alanında geniş içerikli
07:09
and then enactkararnameler sweepingNefes kesici changesdeğişiklikler
193
417276
2106
değişiklikler yaparak
07:11
to intellectualentellektüel propertyözellik lawhukuk in the U.S.
194
419382
2157
kullanıcıların verilerini kontrol etmelerini sağlama
07:13
so userskullanıcılar controlkontrol theironların dataveri.
195
421539
2461
ihtimalleri bana düşük görünüyor.
07:16
We could go the policypolitika routerota,
196
424000
1304
Politika seçeneğine bakabiliriz,
07:17
where socialsosyal mediamedya companiesşirketler say,
197
425304
1479
burada da sosyal medya şirketleri size
07:18
you know what? You ownkendi your dataveri.
198
426783
1402
elbette verileriniz size aittir
07:20
You have totalGenel Toplam controlkontrol over how it's used.
199
428185
2489
nasıl kullanıldığının kontrolü tamamen sizdedir diyeceklerdir ancak
07:22
The problemsorun is that the revenuegelir modelsmodeller
200
430674
1848
sorun şu ki
07:24
for mostçoğu socialsosyal mediamedya companiesşirketler
201
432522
1724
çoğu sosyal medya şirketinin gelir modeli
07:26
relygüvenmek on sharingpaylaşım or exploitingistismar
users'Kullanıcıların dataveri in some way.
202
434246
4031
kullanıcı verilerinin bir şekilde paylaşılması ya da kullanılmasına dayanıyor.
07:30
It's sometimesara sıra said of FacebookFacebook that the userskullanıcılar
203
438277
1833
Bazen Facebook kullanıcıların müşteri değil
07:32
aren'tdeğil the customermüşteri, they're the productürün.
204
440110
2528
ürünün kendisi olduğunu söylüyor.
07:34
And so how do you get a companyşirket
205
442638
2714
O zaman bir firmanın
07:37
to cedevazgeçmek controlkontrol of theironların mainana assetvarlık
206
445352
2558
en temel kazancından feragat ederek
07:39
back to the userskullanıcılar?
207
447910
1249
bunu kullanıcılara geri vermesini nasıl beklersiniz?
07:41
It's possiblemümkün, but I don't think it's something
208
449159
1701
Bu mümkündür tabii ancak
07:42
that we're going to see changedeğişiklik quicklyhızlı bir şekilde.
209
450860
2320
yakın zamanda değişecek bir şey olduğunu düşünmüyorum.
07:45
So I think the other pathyol
210
453180
1500
O nedenle daha etkili olan
07:46
that we can go down that's
going to be more effectiveetkili
211
454680
2288
diğer seçeneği
07:48
is one of more scienceBilim.
212
456968
1508
bilim seçeneğine bakmayı öneriyorum.
07:50
It's doing scienceBilim that allowedizin us to developgeliştirmek
213
458476
2510
Bütün bu kişisel verilerin bu mekanizmalarla
07:52
all these mechanismsmekanizmalar for computingbilgi işlem
214
460986
1750
hesaplananabilmesine en başta olanak tanıyan şey
07:54
this personalkişisel dataveri in the first placeyer.
215
462736
2052
bilim oldu.
07:56
And it's actuallyaslında very similarbenzer researchAraştırma
216
464788
2106
Kullanıcıya "Az önce gerçekleştirdiğin eylemin riski şudur"
07:58
that we'devlenmek have to do
217
466894
1438
diyebilecek bir mekanizma
08:00
if we want to developgeliştirmek mechanismsmekanizmalar
218
468332
2386
yaratmak istiyorsak
08:02
that can say to a userkullanıcı,
219
470718
1421
ilk baştakine çok benzer
08:04
"Here'sİşte the riskrisk of that actionaksiyon you just tookaldı."
220
472139
2229
araştırmalar yapmak gerekir.
08:06
By likingsevme that FacebookFacebook pagesayfa,
221
474368
2080
O Facebook sayfasını beğenerek
08:08
or by sharingpaylaşım this pieceparça of personalkişisel informationbilgi,
222
476448
2535
ya da diğer insanlarla şu bilgiyi paylaşarak
08:10
you've now improvedgelişmiş my abilitykabiliyet
223
478983
1502
uyuşturucu kullanıp kullanmadığını
08:12
to predicttahmin whetherolup olmadığını or not you're usingkullanma drugsilaçlar
224
480485
2086
ya da iş yerinde insanlar iyi geçinip geçinmediğini
08:14
or whetherolup olmadığını or not you get
alonguzun bir well in the workplaceiş yeri.
225
482571
2862
tahmin etmemi kolaylaştırdın.
08:17
And that, I think, can affectetkilemek whetherolup olmadığını or not
226
485433
1848
Bu durum, insanların bir şeyi paylaşıp paylaşmamalarını
08:19
people want to sharepay something,
227
487281
1510
kendilerine saklamalarını, ya da tamamen çevrimdışı tutmalarını
08:20
keep it privateözel, or just keep it offlineçevrimdışı altogethertamamen.
228
488791
3239
bence etkileyecektir.
08:24
We can alsoAyrıca look at things like
229
492030
1563
İnsanların yükledikleri verileri
08:25
allowingizin people to encryptşifrelemek dataveri that they uploadyüklemek,
230
493593
2728
şifrelemelerine izin vermek de bir seçenektir
08:28
so it's kindtür of invisiblegörünmez and worthlessdeğersiz
231
496321
1855
böylece Facebook gibi siteler
08:30
to sitesSiteler like FacebookFacebook
232
498176
1431
ya da üçüncü şahıslar için
08:31
or thirdüçüncü partyParti servicesHizmetler that accesserişim it,
233
499607
2629
bu veriler görünmez ya da yararsız olacak ve
08:34
but that selectseçmek userskullanıcılar who the personkişi who postedgönderildi it
234
502236
3247
yükleyen kişi
08:37
want to see it have accesserişim to see it.
235
505483
2670
kimlerin bu verileri göreceğini ve erişimi olacağını seçebilecektir.
08:40
This is all superSüper excitingheyecan verici researchAraştırma
236
508153
2166
Entellektüel açıdan bu
08:42
from an intellectualentellektüel perspectiveperspektif,
237
510319
1620
süper heyecan verici bir araştırmadır
08:43
and so scientistsBilim adamları are going to be willingistekli to do it.
238
511939
1859
ve bilim insanları bunu yapmak isteyecektir.
08:45
So that givesverir us an advantageavantaj over the lawhukuk sideyan.
239
513798
3610
Bu hukuk seçeneğine göre bize daha fazla avantaj sağlar.
08:49
One of the problemssorunlar that people bringgetirmek up
240
517408
1725
Bundan bahsettiğimde
08:51
when I talk about this is, they say,
241
519133
1595
insanların öne sürdükleri bir sorun,
08:52
you know, if people startbaşlama
keepingkoruma all this dataveri privateözel,
242
520728
2646
eğer herkes verilerini gizli tutarsa
08:55
all those methodsyöntemleri that you've been developinggelişen
243
523374
2113
sizin geliştirdiğiniz tüm tahminle ilgili tüm metodların
08:57
to predicttahmin theironların traitsözellikleri are going to failbaşarısız.
244
525487
2653
başarısız olacağıdır.
09:00
And I say, absolutelykesinlikle, and for me, that's successbaşarı,
245
528140
3520
Ben de evet kesinlikle diyorum ve bence bu bir başarıdır
09:03
because as a scientistBilim insanı,
246
531660
1786
çünkü bir bilim insanı olarak,
09:05
my goalhedef is not to infersonucuna informationbilgi about userskullanıcılar,
247
533446
3688
benim amacım kullanıcılar hakkında çıkarımarda bulunmak değil,
09:09
it's to improveiyileştirmek the way people interactetkileşim onlineinternet üzerinden.
248
537134
2767
insanların online olarak etkileşimlerini geliştirmek.
09:11
And sometimesara sıra that involvesgerektirir
inferringçıkarım things about them,
249
539901
3218
Bazen bu onlar hakkında çıkarımlar yapılmasını da gerektiriyor
09:15
but if userskullanıcılar don't want me to use that dataveri,
250
543119
3022
ancak eğer kullanıcılar bu verileri kullanmama izin vermezlerse
09:18
I think they should have the right to do that.
251
546141
2038
buna hakları olması gerektiğini düşünüyorum.
09:20
I want userskullanıcılar to be informedbilgili and consentingaçıklanması kabul etmiş
252
548179
2651
Ben kullanıcıların geliştirdiğimiz araçları
09:22
userskullanıcılar of the toolsaraçlar that we developgeliştirmek.
253
550830
2112
hakkında bilgisi olan ve buna izin veren kullanıcılar olmasını istiyorum.
09:24
And so I think encouragingteşvik edici this kindtür of scienceBilim
254
552942
2952
Bence bu bilimin gelişmesini desteklemek
09:27
and supportingDestek researchersaraştırmacılar
255
555894
1346
kontrolün bir kısmından feragat ederek
09:29
who want to cedevazgeçmek some of that controlkontrol back to userskullanıcılar
256
557240
3023
ve sosyal medya şirketlerinden geri alarak
09:32
and away from the socialsosyal mediamedya companiesşirketler
257
560263
2311
kullanıcıya iade etmek isteyen
09:34
meansanlamına geliyor that going forwardileri, as these toolsaraçlar evolvegelişmek
258
562574
2671
araştırmacıları desteklemek
09:37
and advanceilerlemek,
259
565245
1476
ilerlemek anlamına gelecektir
09:38
meansanlamına geliyor that we're going to have an educatedeğitimli
260
566721
1414
ve bu araçlar gelişip evrim geçirdikçe eğitimli,
09:40
and empoweredgüçlenmiş userkullanıcı basebaz,
261
568135
1694
ve güç sahibi bir kullanıcı tabanımız olacak
09:41
and I think all of us can agreeanlaşmak
262
569829
1100
ve sanırım hepimiz bunun ilerleme yolunda bir ideal
09:42
that that's a prettygüzel idealideal way to go forwardileri.
263
570929
2564
olduğu konusunda hemfikirizdir.
09:45
Thank you.
264
573493
2184
Teşekkürler.
09:47
(ApplauseAlkış)
265
575677
3080
(Alkış)
Translated by Yasemin Yelbay
Reviewed by Dadlez Sabak

▲Back to top

ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com