ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com
TEDxMidAtlantic 2013

Jennifer Golbeck: Your social media "likes" expose more than you think

ג'ניפר גולבק: תעלומת הצ'יפס המקורזל: למה ה"לייקים" של המדיה החברתית אומרים יותר ממה שאתם חושבים.

Filmed:
2,366,837 views

האם אתם אוהבים צ'יפסים מקורזלים? האם אהבתם אותם בפייסבוק? צפו בהרצאה הזו כדי לראות דברים מפתיעים שפייסבוק (ואחרים) יכולים לנחש עליכם מהלייקים הרנדומליים והשיתופים. מדענית המהחשב ג'ניפר גולבק מסבירה איך זה קורה, איך כמה ישומים של הטכנולוגיה הם לא כל כך חמודים -- ולמה היא חושבת שאנחנו צריכים להחזיר שליטה על המידע לבעליו האמיתיים.
- Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions. Full bio

Double-click the English transcript below to play the video.

00:12
If you rememberלִזכּוֹר that first decadeעָשׂוֹר of the webאינטרנט,
0
738
1997
אם אתם זוכרים את העשור הראשון של האינטרנט,
00:14
it was really a staticסטָטִי placeמקום.
1
2735
2255
זה היה באמת מקום סטטי.
00:16
You could go onlineבאינטרנט, you could look at pagesדפים,
2
4990
2245
יכולתם להיכנס לרשת, להסתכל על דפים,
00:19
and they were put up eitherאוֹ by organizationsארגונים
3
7235
2513
והם הועלו או על ידי ארגונים
00:21
who had teamsצוותים to do it
4
9748
1521
שהיו להם צוותים שעשו את זה
00:23
or by individualsיחידים who were really tech-savvyטק
5
11269
2229
או על ידי אנשים פרטיים שהיו ממש טכנולגיים
00:25
for the time.
6
13498
1737
באותו הזמן.
00:27
And with the riseלעלות of socialחֶברָתִי mediaכְּלֵי תִקְשׁוֹרֶת
7
15235
1575
ועם העליה של המדיה החברתית
00:28
and socialחֶברָתִי networksרשתות in the earlyמוקדם 2000s,
8
16810
2399
והרשתות החברתיות בתחילת שנות ה 2000,
00:31
the webאינטרנט was completelyלַחֲלוּטִין changedהשתנה
9
19209
2149
הרשת השתנתה לגמרי
00:33
to a placeמקום where now the vastעָצוּם majorityרוֹב of contentתוֹכֶן
10
21358
3608
למקום שבו עכשיו רוב התוכן
00:36
we interactאינטראקציה with is put up by averageמְמוּצָע usersמשתמשים,
11
24966
3312
אותו אנו צורכים
מועלה על ידי המשתמש הממוצע,
00:40
eitherאוֹ in YouTubeYouTube videosסרטונים or blogבלוג postsהודעות
12
28278
2697
בין אם בסרטוני יוטיוב או פוסטים בבלוג
00:42
or productמוצר reviewsביקורות or socialחֶברָתִי mediaכְּלֵי תִקְשׁוֹרֶת postingsפרסומים.
13
30975
3315
או ביקורות מוצרים או פוסטים במדיה החברתית.
00:46
And it's alsoגַם becomeהפכו a much more interactiveאינטראקטיבי placeמקום,
14
34290
2347
וזה גם הפך למקום הרבה יותר אינטראקטיבי,
00:48
where people are interactingאינטראקציה with othersאחרים,
15
36637
2637
שם אנשים מתקשרים עם אחרים,
00:51
they're commentingלהגיב, they're sharingשיתוף,
16
39274
1696
הם מגיבים, הם חולקים,
00:52
they're not just readingקריאה.
17
40970
1614
הם לא רק קוראים.
00:54
So Facebookפייסבוק is not the only placeמקום you can do this,
18
42584
1866
אז פייסבוק הוא לא המקום היחיד לעשות זאת.
00:56
but it's the biggestהגדול ביותר,
19
44450
1098
אבל הוא הגדול ביותר,
00:57
and it servesמשמש to illustrateלהמחיש the numbersמספרים.
20
45548
1784
והוא משמש כדי להדגים את המספרים.
00:59
Facebookפייסבוק has 1.2 billionמיליארד usersמשתמשים perלְכָל monthחוֹדֶשׁ.
21
47332
3477
לפייסבוק יש 1.2 מיליארד משתמשים לחודש.
01:02
So halfחֲצִי the Earth'sכדור הארץ Internetאינטרנט populationאוּכְלוֹסִיָה
22
50809
1930
אז חצי מאוכלוסית האינטרנט העולמית
01:04
is usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני Facebookפייסבוק.
23
52739
1653
משתמשת בפייסבוק.
01:06
They are a siteאֲתַר, alongלְאוֹרֶך with othersאחרים,
24
54392
1932
הם אתר, יחד עם אחרים,
01:08
that has allowedמוּתָר people to createלִיצוֹר an onlineבאינטרנט personaאִישִׁיוּת
25
56324
3219
שאיפשר לאנשים ליצור ישות אינטרנטית
01:11
with very little technicalטֶכנִי skillמְיוּמָנוּת,
26
59543
1782
עם מעט מאוד כישורים טכניים,
01:13
and people respondedהשיב by puttingלשים hugeעָצוּם amountsסכומים
27
61325
2476
ואנשים הגיבו בלהעלות כמויות עצומות
01:15
of personalאישי dataנתונים onlineבאינטרנט.
28
63801
1983
של מידע אישי לרשת.
01:17
So the resultתוֹצָאָה is that we have behavioralהתנהגותי,
29
65784
2543
אז התוצאה היא שיש לנו מידע
01:20
preferenceהַעֲדָפָה, demographicדמוגרפי dataנתונים
30
68327
1986
התנהגותי, דמוגרפי והעדפות
01:22
for hundredsמאות of millionsמיליונים of people,
31
70313
2101
של מאות מליוני אנשים,
01:24
whichאיזה is unprecedentedחֲסַר תַקְדִים in historyהִיסטוֹרִיָה.
32
72414
2026
שזה מעולם לא קרה בהסטוריה.
01:26
And as a computerמַחשֵׁב scientistמַדְעָן,
what this meansאומר is that
33
74440
2560
וכמדענית מחשב, מה שזה אומר
01:29
I've been ableיכול to buildלִבנוֹת modelsמודלים
34
77000
1664
זה שהייתי מסוגלת לבנות מודלים
01:30
that can predictלַחֲזוֹת all sortsמיני of hiddenמוּסתָר attributesתכונות
35
78664
2322
שיכולים לצפות כל מיני תכונות חבויות
01:32
for all of you that you don't even know
36
80986
2284
עבור כולכם שאתם אפילו לא ידעתם
01:35
you're sharingשיתוף informationמֵידָע about.
37
83270
2202
שאתם חולקים מידע עליהן.
01:37
As scientistsמדענים, we use that to help
38
85472
2382
כמדענים, אנחנו משתמשים בזה כדי לעזור
01:39
the way people interactאינטראקציה onlineבאינטרנט,
39
87854
2114
לאנשים בדרך שבה הם מתקשרים ברשת.
01:41
but there's lessפָּחוּת altruisticשֶׁל אַהֲבַת הַזוּלַת applicationsיישומים,
40
89968
2499
אבל יש ישומים פחות אלטרואיסטים,
01:44
and there's a problemבְּעָיָה in that usersמשתמשים don't really
41
92467
2381
ויש בעיה בזה שמתשמשים לא באמת
01:46
understandמבין these techniquesטכניקות and how they work,
42
94848
2470
מבינים את הטכניקות ואיך הן עובדות,
01:49
and even if they did, they don't
have a lot of controlלִשְׁלוֹט over it.
43
97318
3128
ואפילו אם הם הבינו,
אין להם הרבה שליטה על זה.
01:52
So what I want to talk to you about todayהיום
44
100446
1490
אז מה שאני רוצה לספר לכם היום
01:53
is some of these things that we're ableיכול to do,
45
101936
2702
זה חלק מהדברים שאנחנו יכולים לעשות,
01:56
and then give us some ideasרעיונות
of how we mightאולי go forwardקָדִימָה
46
104638
2763
ואז לתת לכם כמה רעיונות על איך נמשיך מפה
01:59
to moveמהלך \ לזוז \ לעבור some controlלִשְׁלוֹט back into the handsידיים of usersמשתמשים.
47
107401
2769
להזיז קצת שליטה חזרה לידיים של המשתמשים.
02:02
So this is Targetיַעַד, the companyחֶברָה.
48
110170
1586
אז זו טארגט, החברה.
02:03
I didn't just put that logoסֵמֶל
49
111756
1324
לא סתם שמתי את הלוגו
02:05
on this poorעני, pregnantבְּהֵרָיוֹן woman'sשל אישה bellyבֶּטֶן.
50
113080
2170
על הבטן של האישה ההריונית המסכנה הזו.
02:07
You mayמאי have seenלראות this anecdoteאֲנֶקדוֹטָה that was printedמודפס
51
115250
1840
אתם אולי ראיתם את האנקדוטה הזו מודפסת
02:09
in Forbesפורבס magazineמגזין where Targetיַעַד
52
117090
2061
במגזין פורבס כשטארגט
02:11
sentנשלח a flyerטַיָס to this 15-year-old-גיל girlילדה
53
119151
2361
שלחה עלון לבת ה15 הזו
02:13
with advertisementsפרסומות and couponsקופונים
54
121512
1710
עם פרסומות וקופונים
02:15
for babyתִינוֹק bottlesבקבוקים and diapersחִתוּלִים and cribsעריסות
55
123222
2554
לבקבוקי תינוקות וחיתולים ועריסות
02:17
two weeksשבועות before she told her parentsהורים
56
125776
1684
שבועיים לפני שאמרה להוריה
02:19
that she was pregnantבְּהֵרָיוֹן.
57
127460
1864
שהיא בהריון,
02:21
Yeah, the dadאַבָּא was really upsetלהרגיז.
58
129324
2704
כן, האבא היה ממש עצבני.
02:24
He said, "How did Targetיַעַד figureדמות out
59
132028
1716
הוא אמר, "איך טארגט הבינו
02:25
that this highגָבוֹהַ schoolבית ספר girlילדה was pregnantבְּהֵרָיוֹן
60
133744
1824
שנערה בתיכון בהריון
02:27
before she told her parentsהורים?"
61
135568
1960
לפני שהיא אמרה להוריה?"
02:29
It turnsפונה out that they have the purchaseלִרְכּוֹשׁ historyהִיסטוֹרִיָה
62
137528
2621
מסתבר שיש להם את הסטורית הרכישות
02:32
for hundredsמאות of thousandsאלפים of customersלקוחות
63
140149
2301
למאות אלפי לקוחות
02:34
and they computeלְחַשֵׁב what they
call a pregnancyהֵרָיוֹן scoreציון,
64
142450
2730
והם מחשבים את מה שהם קוראים לו ציון הריון,
02:37
whichאיזה is not just whetherהאם or
not a woman'sשל אישה pregnantבְּהֵרָיוֹן,
65
145180
2332
שזה לא רק אם אישה בהריון,
02:39
but what her dueעקב dateתַאֲרִיך is.
66
147512
1730
אלא מתי התאריך המיועד.
02:41
And they computeלְחַשֵׁב that
67
149242
1304
והם מחשבים את זה
02:42
not by looking at the obviousברור things,
68
150546
1768
לא על ידי הסתכלות על דברים ברורים,
02:44
like, she's buyingקְנִיָה a cribעריסה or babyתִינוֹק clothesבגדים,
69
152314
2512
כמו, היא קונה עריסה או בגדי תינוק,
02:46
but things like, she boughtקנה more vitaminsויטמינים
70
154826
2943
אלא דברים כמו, היא קנתה יותר ויטמינים
02:49
than she normallyבדרך כלל had,
71
157769
1717
משהיא בדרך כלל קונה,
02:51
or she boughtקנה a handbagתיק יד
72
159486
1464
או שהיא קנתה תיק
02:52
that's bigגָדוֹל enoughמספיק to holdלְהַחזִיק diapersחִתוּלִים.
73
160950
1711
שמספיק גדול להחזיק חיתולים.
02:54
And by themselvesעצמם, those purchasesרכישות don't seemנראה
74
162661
1910
ובעצמן, למרות שהקניות האלה לא נראות
02:56
like they mightאולי revealלְגַלוֹת a lot,
75
164571
2469
כאילו הן מגלות הרבה,
02:59
but it's a patternתַבְנִית of behaviorהִתְנַהֲגוּת that,
76
167040
1978
אבל זו תבנית התנהגות,
03:01
when you take it in the contextהֶקשֵׁר
of thousandsאלפים of other people,
77
169018
3117
שכשאתם מכניסים את זה
להקשר של אלפי אנשים אחרים,
03:04
startsמתחיל to actuallyלמעשה revealלְגַלוֹת some insightsתובנות.
78
172135
2757
מתחילה למעשה לגלות תובנות.
03:06
So that's the kindסוג of thing that we do
79
174892
1793
אז זה סוג הדברים שאנחנו עושים
03:08
when we're predictingניבוי stuffדברים
about you on socialחֶברָתִי mediaכְּלֵי תִקְשׁוֹרֶת.
80
176685
2567
כשאנחנו חוזים דברים עליכם במדיה החברתית.
03:11
We're looking for little
patternsדפוסי of behaviorהִתְנַהֲגוּת that,
81
179252
2796
אנחנו מחפשים תבניות זעירות של התנהגות,
03:14
when you detectלזהות them amongבין millionsמיליונים of people,
82
182048
2682
שכשמזהים אותן בין מליוני אנשים,
03:16
letsמאפשר us find out all kindsמיני of things.
83
184730
2706
נותנות לנו למצוא כל מיני דברים.
03:19
So in my labמַעבָּדָה and with colleaguesעמיתים,
84
187436
1747
אז במעבדה שלי ועם שותפים,
03:21
we'veיש לנו developedמפותח mechanismsמנגנונים where we can
85
189183
1777
אנחנו פיתחנו מכאניזמים
איתם אנחנו יכולים
03:22
quiteדַי accuratelyבמדויק predictלַחֲזוֹת things
86
190960
1560
לחזות די במדוייק דברים
03:24
like your politicalפּוֹלִיטִי preferenceהַעֲדָפָה,
87
192520
1725
כמו העדפות פוליטיות,
03:26
your personalityאִישִׁיוּת scoreציון, genderמִין, sexualמִינִי orientationנטייה,
88
194245
3752
ציון האישיות שלכם, מין, העדפות מיניות,
03:29
religionדָת, ageגיל, intelligenceאינטליגנציה,
89
197997
2873
דת, גיל, רמת אינטיליגנציה,
03:32
alongלְאוֹרֶך with things like
90
200870
1394
יחד עם דברים כמו
03:34
how much you trustאמון the people you know
91
202264
1937
כמה אתם בוטחים באנשים אותם אתם מכירים
03:36
and how strongחָזָק those relationshipsיחסים are.
92
204201
1804
וכמה חזקים הקשרים האלה.
03:38
We can do all of this really well.
93
206005
1785
אנחנו יכולים לעשות את זה ממש טוב.
03:39
And again, it doesn't come from what you mightאולי
94
207790
2197
ושוב, זה לא מגיע ממה שאתם אולי
03:41
think of as obviousברור informationמֵידָע.
95
209987
2102
חושבים כמידע ברור.
03:44
So my favoriteהכי אהוב exampleדוגמא is from this studyלימוד
96
212089
2281
אז הדוגמה האהובה עלי היא ממחקר
03:46
that was publishedיצא לאור this yearשָׁנָה
97
214370
1240
שפורסם השנה
03:47
in the Proceedingsהליכים of the Nationalלאומי Academiesאקדמיות.
98
215610
1795
בפרסומים של האקדמיה הלאומית.
03:49
If you GoogleGoogle this, you'llאתה find it.
99
217405
1285
אם תגגלו את זה, אתם תמצאו אותו.
03:50
It's fourארבעה pagesדפים, easyקַל to readלקרוא.
100
218690
1872
זה ארבעה דפים, קלים לקריאה.
03:52
And they lookedהביט at just people'sשל אנשים Facebookפייסבוק likesאוהב,
101
220562
3003
והם הסתכלו רק על לייקים של אנשים בפייסבוק,
03:55
so just the things you like on Facebookפייסבוק,
102
223565
1920
אז רק הדברים שאתם אוהבים בפייסבוק,
03:57
and used that to predictלַחֲזוֹת all these attributesתכונות,
103
225485
2138
והשתמשו בזה כדי לחזות את כל התכונות האלה,
03:59
alongלְאוֹרֶך with some other onesיחידות.
104
227623
1645
יחד עם כמה אחרות.
04:01
And in theirשֶׁלָהֶם paperעיתון they listedרשום the fiveחָמֵשׁ likesאוהב
105
229268
2961
ובמאמר שלהם הם ציינו את חמשת הלייקים
04:04
that were mostרוב indicativeמְעִיד עַל of highגָבוֹהַ intelligenceאינטליגנציה.
106
232229
2787
שהכי הראו אינטיליגנציה גבוהה.
04:07
And amongבין those was likingטַעַם a pageעמוד
107
235016
2324
ובינהם היה לייק לדף
04:09
for curlyמְתוּלתָל friesצ'יפס. (Laughterצחוק)
108
237340
1905
לצ'יפסים מקורזלים. (צחוק)
04:11
Curlyמְתוּלתָל friesצ'יפס are deliciousטָעִים מְאוֹד,
109
239245
2093
צ'יפסים מקורזלים הם ממש טעימים,
04:13
but likingטַעַם them does not necessarilyבהכרח mean
110
241338
2530
אבל אהבה שלהם לא בהכרח אומרת
04:15
that you're smarterחכם יותר than the averageמְמוּצָע personאדם.
111
243868
2080
שאתם אדם חכם מהממוצע.
04:17
So how is it that one of the strongestהחזק ביותר indicatorsאינדיקטורים
112
245948
3207
אז איך אחד המדדים החזקים ביותר
04:21
of your intelligenceאינטליגנציה
113
249155
1570
לאינטליגנציה שלכם
04:22
is likingטַעַם this pageעמוד
114
250725
1447
הוא אהבת הדף הזה
04:24
when the contentתוֹכֶן is totallyלְגַמרֵי irrelevantלא רלוונטי
115
252172
2252
כשהתוכן לחלוטין לא רלוונטי
04:26
to the attributeתְכוּנָה that's beingלהיות predictedניבא?
116
254424
2527
לתכונות שנצפות?
04:28
And it turnsפונה out that we have to look at
117
256951
1584
ומסתבר שאנחנו צריכים להביט
04:30
a wholeכֹּל bunchצְרוֹר of underlyingבְּסִיסִי theoriesתיאוריות
118
258535
1618
בקבוצה שלמה של תאוריות
04:32
to see why we're ableיכול to do this.
119
260153
2569
כדי לראות למה אנחנו מסוגלים לעשות את זה.
04:34
One of them is a sociologicalסוציולוגי
theoryתֵאוֹרִיָה calledשקוראים לו homophilyהומופילי,
120
262722
2913
אחת מהן היא תאוריה סוציולוגית
שנקראת הומופיליה,
04:37
whichאיזה basicallyבעיקרון saysאומר people are
friendsחברים with people like them.
121
265635
3092
שאומרת בעיקרון שאנשים
חברים עם אנשים שדומים להם.
04:40
So if you're smartלִכאוֹב, you tendנוטה to
be friendsחברים with smartלִכאוֹב people,
122
268727
2014
אז אם אתה חכם, אתה נוטה
להיות חבר של אנשים חכמים,
04:42
and if you're youngצָעִיר, you tendנוטה
to be friendsחברים with youngצָעִיר people,
123
270741
2630
ואם אתה הצעיר, אתה נוטה
להיות חבר של אנשים צעירים,
04:45
and this is well establishedמְבוּסָס
124
273371
1627
וזה מוכח היטב
04:46
for hundredsמאות of yearsשנים.
125
274998
1745
מאות שנים.
04:48
We alsoגַם know a lot
126
276743
1232
אנחנו גם יודעים הרבה
04:49
about how informationמֵידָע spreadsממרחים throughדרך networksרשתות.
127
277975
2550
על איך מידע מתפשט ברשתות.
04:52
It turnsפונה out things like viralנְגִיפִי videosסרטונים
128
280525
1754
מסתבר שדברים כמו סרטונים ויראליים
04:54
or Facebookפייסבוק likesאוהב or other informationמֵידָע
129
282279
2406
או לייקים של פייסבוק או מידע אחר
04:56
spreadsממרחים in exactlyבְּדִיוּק the sameאותו way
130
284685
1888
מתפשטים בדיוק באותה דרך
04:58
that diseasesמחלות spreadהתפשטות throughדרך socialחֶברָתִי networksרשתות.
131
286573
2454
שמחלות מתפשטות ברשתות חברתיות.
05:01
So this is something we'veיש לנו studiedמְחוֹשָׁב for a long time.
132
289027
1791
אז זה משהו שחקרנו הרבה זמן.
05:02
We have good modelsמודלים of it.
133
290818
1576
יש לנו מודלים טובים של זה.
05:04
And so you can put those things togetherיַחַד
134
292394
2157
וכך אתם יכולים לחבר את הדברים האלה
05:06
and startהַתחָלָה seeingרְאִיָה why things like this happenלִקְרוֹת.
135
294551
3088
ולהתחיל לראות למה דברים כאלה קורים.
05:09
So if I were to give you a hypothesisהַשׁעָרָה,
136
297639
1814
אז אם הייתי נותנת לכם השערה,
05:11
it would be that a smartלִכאוֹב guy startedהתחיל this pageעמוד,
137
299453
3227
היא תהיה שאדם חכם התחיל את הדף הזה,
05:14
or maybe one of the first people who likedאהב it
138
302680
1939
או אולי אחד האנשים הראשונים שאהבו אותו
05:16
would have scoredהבקיע highגָבוֹהַ on that testמִבְחָן.
139
304619
1736
היה מקבל ציון גבוה במבחן הזה.
05:18
And they likedאהב it, and theirשֶׁלָהֶם friendsחברים saw it,
140
306355
2288
והם אהבו אותו, וחברים שלהם ראו אותו,
05:20
and by homophilyהומופילי, we know that
he probablyכנראה had smartלִכאוֹב friendsחברים,
141
308643
3122
ודרך ההומופיליה, אנחנו יודעים
שכנראה היו לו חברים חכמים,
05:23
and so it spreadהתפשטות to them,
and some of them likedאהב it,
142
311765
3056
אז זה התפשט אליהם, וכמה מהם אהבו את זה,
05:26
and they had smartלִכאוֹב friendsחברים,
143
314821
1189
ולהם היו חברים חכמים,
05:28
and so it spreadהתפשטות to them,
144
316010
807
וכך זה התפשט אליהם,
05:28
and so it propagatedמופץ throughדרך the networkרֶשֶׁת
145
316817
1973
ואז זה חלחל דרך הרשת
05:30
to a hostמארח of smartלִכאוֹב people,
146
318790
2569
להרבה אנשים חכמים,
05:33
so that by the endסוֹף, the actionפעולה
147
321359
2056
אז בסוף, הפעולה
05:35
of likingטַעַם the curlyמְתוּלתָל friesצ'יפס pageעמוד
148
323415
2544
של אהבת דף הצ'יפסים המקורזלים
05:37
is indicativeמְעִיד עַל of highגָבוֹהַ intelligenceאינטליגנציה,
149
325959
1615
מעידה של אינטליגנציה גבוהה,
05:39
not because of the contentתוֹכֶן,
150
327574
1803
לא בגלל התוכן,
05:41
but because the actualמַמָשִׁי actionפעולה of likingטַעַם
151
329377
2522
אלא בגלל הפעולה עצמה של אהבה
05:43
reflectsמשקפת back the commonמשותף attributesתכונות
152
331899
1900
משקפת את התכונות המשותפות
05:45
of other people who have doneבוצע it.
153
333799
2468
של אנשים אחרים שעשו את זה.
05:48
So this is prettyיפה complicatedמסובך stuffדברים, right?
154
336267
2897
אז אלה דברים די מסובכים, נכון?
05:51
It's a hardקָשֶׁה thing to sitלָשֶׁבֶת down and explainלהסביר
155
339164
2199
זה קשה לשבת להסביר
05:53
to an averageמְמוּצָע userמִשׁתַמֵשׁ, and even if you do,
156
341363
2848
למשתמש ממוצע, ואפילו אם אתם עושים זאת,
05:56
what can the averageמְמוּצָע userמִשׁתַמֵשׁ do about it?
157
344211
2188
מה המשתמש הממוצע יכול לעשות בנוגע לזה?
05:58
How do you know that
you've likedאהב something
158
346399
2048
איך אתם יודעים שאהבתם משהו
06:00
that indicatesמציין a traitתְכוּנָה for you
159
348447
1492
שמשקף תכונה שלכם
06:01
that's totallyלְגַמרֵי irrelevantלא רלוונטי to the
contentתוֹכֶן of what you've likedאהב?
160
349939
3545
שלגמרי לא רלוונטית לתוכן של מה שאהבתם?
06:05
There's a lot of powerכּוֹחַ that usersמשתמשים don't have
161
353484
2546
יש הרבה כוח שאין למשתמשים
06:08
to controlלִשְׁלוֹט how this dataנתונים is used.
162
356030
2230
כדי לשלוט באיך משתמשים במידע הזה.
06:10
And I see that as a realאמיתי
problemבְּעָיָה going forwardקָדִימָה.
163
358260
3112
ואני רואה בזה בעיה אמיתית בעתיד.
06:13
So I think there's a coupleזוּג pathsנתיבים
164
361372
1977
אז אני חושבת שיש כמה כיוונים
06:15
that we want to look at
165
363349
1001
שנרצה לבחון
06:16
if we want to give usersמשתמשים some controlלִשְׁלוֹט
166
364350
1910
אם אנחנו רוצים לתת למשתמשים מעט שליטה
06:18
over how this dataנתונים is used,
167
366260
1740
על איך משתמשים במידע הזה,
06:20
because it's not always going to be used
168
368000
1940
מפני שלא תמיד הוא יהיה בשימוש
06:21
for theirשֶׁלָהֶם benefitתועלת.
169
369940
1381
לתועלתם.
06:23
An exampleדוגמא I oftenלעתים קרובות give is that,
170
371321
1422
דוגמה שאני נותנת לזה הרבה היא,
06:24
if I ever get boredמְשׁוּעֲמָם beingלהיות a professorפּרוֹפֶסוֹר,
171
372743
1646
שאם אי פעם אשתעמם להיות פרופסורית,
06:26
I'm going to go startהַתחָלָה a companyחֶברָה
172
374389
1653
אני אקים חברה
06:28
that predictsצופה all of these attributesתכונות
173
376042
1454
שחוזה את כל התכונות האלה
06:29
and things like how well you work in teamsצוותים
174
377496
1602
ודברים כמו כמה טוב אתם עובדים בצוות
06:31
and if you're a drugתְרוּפָה userמִשׁתַמֵשׁ, if you're an alcoholicכּוֹהָלִי.
175
379098
2671
ואם אתם משתמשים בסמים,
אם אתם אלכוהוליסטים.
06:33
We know how to predictלַחֲזוֹת all that.
176
381769
1440
אנחנו יודעים איך לחזות את כל זה.
06:35
And I'm going to sellמכירה reportsדיווחים
177
383209
1761
ואני אמכור דוחות
06:36
to H.R. companiesחברות and bigגָדוֹל businessesעסקים
178
384970
2100
לחברות כוח אדם ועסקים גדולים
06:39
that want to hireלִשְׂכּוֹר you.
179
387070
2273
שרוצים להעסיק אתכם.
06:41
We totallyלְגַמרֵי can do that now.
180
389343
1177
אנחנו לגמרי יכולים לעשות את זה עכשיו.
06:42
I could startהַתחָלָה that businessעֵסֶק tomorrowמָחָר,
181
390520
1788
הייתי יכולה להתחיל את העסק הזה מחר,
06:44
and you would have
absolutelyבהחלט no controlלִשְׁלוֹט
182
392308
2052
ולא היתה לכם שליטה בכלל
06:46
over me usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני your dataנתונים like that.
183
394360
2138
על השימוש שלי במידע שלכם כך.
06:48
That seemsנראה to me to be a problemבְּעָיָה.
184
396498
2292
זו נראית לי בעיה גדולה.
06:50
So one of the pathsנתיבים we can go down
185
398790
1910
אז אחת הדרכים שאננחו יכולים לבחור בה
06:52
is the policyמְדִינִיוּת and lawחוֹק pathנָתִיב.
186
400700
2032
היא המדיניות והחוק.
06:54
And in some respectsכבוד, I think
that that would be mostרוב effectiveיָעִיל,
187
402732
3046
ובכמה הבטים, אני חושב
שזה יהיה הכי אפקטיבי,
06:57
but the problemבְּעָיָה is we'dלהתחתן
actuallyלמעשה have to do it.
188
405778
2756
אבל הבעיה היא שלמעשה נצטרך לעשות את זה.
07:00
Observingמתבונן our politicalפּוֹלִיטִי processתהליך in actionפעולה
189
408534
2780
בהסתכלות על התהליך הפוליטי שלנו בפעולה
07:03
makesעושה me think it's highlyמְאוֹד unlikelyלא סביר
190
411314
2379
גורם לי לחשוב שזה מאוד לא סביר
07:05
that we're going to get a bunchצְרוֹר of representativesנציגים
191
413693
1597
שנשיג כמה נבחרים
07:07
to sitלָשֶׁבֶת down, learnלִלמוֹד about this,
192
415290
1986
לשבת, ללמוד את הנושא,
07:09
and then enactלְחוֹקֵק sweepingסוֹחֵף changesשינויים
193
417276
2106
ואז להחיל שינויים מקיפים
07:11
to intellectualאִינטֶלֶקְטוּאַלִי propertyנכס lawחוֹק in the U.S.
194
419382
2157
על חוקי רכוש רעיוני בארה"ב.
07:13
so usersמשתמשים controlלִשְׁלוֹט theirשֶׁלָהֶם dataנתונים.
195
421539
2461
כך שמשתמשים ישלטו במידע שלהם.
07:16
We could go the policyמְדִינִיוּת routeמַסלוּל,
196
424000
1304
נוכל ללכת בדרך המדיניות,
07:17
where socialחֶברָתִי mediaכְּלֵי תִקְשׁוֹרֶת companiesחברות say,
197
425304
1479
שם חברות מדיה חברתית אומרות,
07:18
you know what? You ownשֶׁלוֹ your dataנתונים.
198
426783
1402
אתם יודעים מה? המידע בבעלותכם.
07:20
You have totalסה"כ controlלִשְׁלוֹט over how it's used.
199
428185
2489
יש לכם שליטה מלאה בשימוש בו.
07:22
The problemבְּעָיָה is that the revenueהַכנָסָה modelsמודלים
200
430674
1848
הבעיה היא שמודלי הרווחיות
07:24
for mostרוב socialחֶברָתִי mediaכְּלֵי תִקְשׁוֹרֶת companiesחברות
201
432522
1724
לרוב חברות המדיה החברתית
07:26
relyלִסְמוֹך on sharingשיתוף or exploitingמנצל
users'משתמשים dataנתונים in some way.
202
434246
4031
נסמכים על ניצול המידע
של המשתמש בדרך כלשהי.
07:30
It's sometimesלִפְעָמִים said of Facebookפייסבוק that the usersמשתמשים
203
438277
1833
לפעמים נאמר על פייסבוק שהמשתמשים
07:32
aren'tלא the customerצרכן, they're the productמוצר.
204
440110
2528
הם לא לקוחות, הם המוצר.
07:34
And so how do you get a companyחֶברָה
205
442638
2714
וכך איך אתם גורמים לחברה
07:37
to cedeלְוַתֵר controlלִשְׁלוֹט of theirשֶׁלָהֶם mainרָאשִׁי assetנכס
206
445352
2558
לוותר על שליטה בנכס העיקרי שלהם
07:39
back to the usersמשתמשים?
207
447910
1249
בחזרה למשתמשים?
07:41
It's possibleאפשרי, but I don't think it's something
208
449159
1701
זה אפשרי, אבל אני לא חושב שזה משהו
07:42
that we're going to see changeשינוי quicklyבִּמְהִירוּת.
209
450860
2320
שאנחנו נראה משתנה במהירות.
07:45
So I think the other pathנָתִיב
210
453180
1500
אז אני חושבת שהדרך הנוספת
07:46
that we can go down that's
going to be more effectiveיָעִיל
211
454680
2288
שאנחנו יכולים ללכת בה שתהיה יותר יעילה
07:48
is one of more scienceמַדָע.
212
456968
1508
היא זו של יותר מדע.
07:50
It's doing scienceמַדָע that allowedמוּתָר us to developלְפַתֵחַ
213
458476
2510
לעשות מדע זה מה שאפשר לנו לפתח
07:52
all these mechanismsמנגנונים for computingמחשוב
214
460986
1750
את כל המנגנונים למחשוב
07:54
this personalאישי dataנתונים in the first placeמקום.
215
462736
2052
המידע האישי מראש.
07:56
And it's actuallyלמעשה very similarדוֹמֶה researchמחקר
216
464788
2106
וזה למעשה מחקר מאוד דומה
07:58
that we'dלהתחתן have to do
217
466894
1438
שאנחנו צריכים לעשות
08:00
if we want to developלְפַתֵחַ mechanismsמנגנונים
218
468332
2386
אם נרצה לפתח מנגנונים
08:02
that can say to a userמִשׁתַמֵשׁ,
219
470718
1421
שיכולים להגיד למשתמש,
08:04
"Here'sהנה the riskלְהִסְתָכֵּן of that actionפעולה you just tookלקח."
220
472139
2229
"הנה הסיכונים של הפעולה הזו שעשית."
08:06
By likingטַעַם that Facebookפייסבוק pageעמוד,
221
474368
2080
על ידי לחיצת לייק על דף פייסבוק מסויים,
08:08
or by sharingשיתוף this pieceלְחַבֵּר of personalאישי informationמֵידָע,
222
476448
2535
או עלי ידי שיתוף פיסה זו של מידע אישי,
08:10
you've now improvedמְשׁוּפָּר my abilityיְכוֹלֶת
223
478983
1502
שיפרתם עכשיו את היכולת שלי
08:12
to predictלַחֲזוֹת whetherהאם or not you're usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני drugsסמים
224
480485
2086
לחזות אם אתם משתמשים בסמים
08:14
or whetherהאם or not you get
alongלְאוֹרֶך well in the workplaceבמקום העבודה.
225
482571
2862
או אם אתם מסתדרים במקום העבודה.
08:17
And that, I think, can affectלהשפיע whetherהאם or not
226
485433
1848
וזה, אני חושבת, יכול להשפיע על אם
08:19
people want to shareלַחֲלוֹק something,
227
487281
1510
אנשים ירצו לחלוק משהו,
08:20
keep it privateפְּרָטִי, or just keep it offlineלא מקוון altogetherלְגַמרֵי.
228
488791
3239
לשמור על זה פרטי, או פשוט
לשמור על זה מחוץ לרשת.
08:24
We can alsoגַם look at things like
229
492030
1563
אנחנו יכולים להביט גם בדברים
08:25
allowingמְאַפשֶׁר people to encryptלהצפין dataנתונים that they uploadלהעלות,
230
493593
2728
כמו לאפשר לאנשים להצפין
את המידע שהם מעלים,
08:28
so it's kindסוג of invisibleבלתי נראה and worthlessחסר ערך
231
496321
1855
אז הוא סוג של בלתי נראה וחסר תועלת
08:30
to sitesאתרים like Facebookפייסבוק
232
498176
1431
לאתרים כמו פייסבוק
08:31
or thirdשְׁלִישִׁי partyמפלגה servicesשירותים that accessגִישָׁה it,
233
499607
2629
או שרותי צד שלישי שניגשים אליו,
08:34
but that selectבחר usersמשתמשים who the personאדם who postedפורסם it
234
502236
3247
אבל למשתמשים הנבחרים שהאדם שהעלה את זה
08:37
want to see it have accessגִישָׁה to see it.
235
505483
2670
רוצה שיראו את זה, תהיה גישה אליו.
08:40
This is all superסוּפֶּר excitingמְרַגֵשׁ researchמחקר
236
508153
2166
כל זה מחקר סופר מרגש
08:42
from an intellectualאִינטֶלֶקְטוּאַלִי perspectiveפֶּרספֶּקטִיבָה,
237
510319
1620
מנקודת מבט אינטלקטואלית,
08:43
and so scientistsמדענים are going to be willingמוּכָן to do it.
238
511939
1859
וכך מדענים יהיו מוכנים לעשות את זה.
08:45
So that givesנותן us an advantageיתרון over the lawחוֹק sideצַד.
239
513798
3610
אז זה נותן לנו יתרון על אפשרות החוק.
08:49
One of the problemsבעיות that people bringלְהָבִיא up
240
517408
1725
אחת הבעיות שאנשים מעלים
08:51
when I talk about this is, they say,
241
519133
1595
כשאני מדברת על זה, הם אומרים,
08:52
you know, if people startהַתחָלָה
keepingשְׁמִירָה all this dataנתונים privateפְּרָטִי,
242
520728
2646
את יודעת, אם אנשים מתחילים
לשמור על כל המידע פרטי,
08:55
all those methodsשיטות that you've been developingמתפתח
243
523374
2113
כל השיטות האלה שפיתחתם
08:57
to predictלַחֲזוֹת theirשֶׁלָהֶם traitsתכונות are going to failלְהִכָּשֵׁל.
244
525487
2653
לחזות את התכונות שלהם יכשלו.
09:00
And I say, absolutelyבהחלט, and for me, that's successהַצלָחָה,
245
528140
3520
ואני אומרת, בהחלט, ובשבילי, זו הצלחה,
09:03
because as a scientistמַדְעָן,
246
531660
1786
מפני שכמדענית,
09:05
my goalמטרה is not to inferלְהַסִיק informationמֵידָע about usersמשתמשים,
247
533446
3688
המטרה שלי היא לא להסיק מידע על משתמשים,
09:09
it's to improveלְשַׁפֵּר the way people interactאינטראקציה onlineבאינטרנט.
248
537134
2767
זה כדי לשפר את הדרך בה אנשים מתקשרים ברשת.
09:11
And sometimesלִפְעָמִים that involvesכרוך
inferringהסקה things about them,
249
539901
3218
ולפעמים זה דורש להסיק דברים עליהם,
09:15
but if usersמשתמשים don't want me to use that dataנתונים,
250
543119
3022
אבל אם משתמשים לא רוצים
שאני אשתמש במידע הזה,
09:18
I think they should have the right to do that.
251
546141
2038
אני חושבת שצריכה להיות להם
הזכות לעשות את זה.
09:20
I want usersמשתמשים to be informedמעודכן and consentingהסכמה
252
548179
2651
אני רוצה שמשתמשים
יהיו מיודעים ומסכימים
09:22
usersמשתמשים of the toolsכלים that we developלְפַתֵחַ.
253
550830
2112
לכלים שאנחנו מפתחים.
09:24
And so I think encouragingמְעוֹדֵד this kindסוג of scienceמַדָע
254
552942
2952
אז אני חושבת שלעודד סוג זה של מדע
09:27
and supportingתומך researchersחוקרים
255
555894
1346
ולתמוך בחוקרים
09:29
who want to cedeלְוַתֵר some of that controlלִשְׁלוֹט back to usersמשתמשים
256
557240
3023
שרוצים להחזיר חלק מהשליטה למשתמשים
09:32
and away from the socialחֶברָתִי mediaכְּלֵי תִקְשׁוֹרֶת companiesחברות
257
560263
2311
ולקחת אותו מחברות המדיה החברתית
09:34
meansאומר that going forwardקָדִימָה, as these toolsכלים evolveלְהִתְפַּתֵחַ
258
562574
2671
אומר שכשנמשיך הלאה, כשהכלים האלה יתפתחו
09:37
and advanceלְקַדֵם,
259
565245
1476
ויתקדמו,
09:38
meansאומר that we're going to have an educatedמְחוּנָך
260
566721
1414
אומר שיהיה לנו בסיס משתמשים
09:40
and empoweredרַשַׁאִי userמִשׁתַמֵשׁ baseבסיס,
261
568135
1694
מיודע ובעל כוח,
09:41
and I think all of us can agreeלְהַסכִּים
262
569829
1100
ואני חושבת שכולנו יכולים להסכים
09:42
that that's a prettyיפה idealאִידֵאָלִי way to go forwardקָדִימָה.
263
570929
2564
שזה דרך מאוד אידיאלית להתקדם.
09:45
Thank you.
264
573493
2184
תודה לכם.
09:47
(Applauseתְשׁוּאוֹת)
265
575677
3080
(מחיאות כפיים)
Translated by Ido Dekkers
Reviewed by Tal Dekkers

▲Back to top

ABOUT THE SPEAKER
Jennifer Golbeck - Computer scientist
As the director of the Human-Computer Interaction Lab at the University of Maryland, Jennifer Golbeck studies how people use social media -- and thinks about ways to improve their interactions.

Why you should listen

Jennifer Golbeck is an associate professor in the College of Information Studies at the University of Maryland, where she also moonlights in the department of computer science. Her work invariably focuses on how to enhance and improve the way that people interact with their own information online. "I approach this from a computer science perspective and my general research hits social networks, trust, web science, artificial intelligence, and human-computer interaction," she writes.

Author of the 2013 book, Analyzing the Social Web, Golbeck likes nothing more than to immerse herself in the inner workings of the Internet tools so many millions of people use daily, to understand the implications of our choices and actions. Recently, she has also been working to bring human-computer interaction ideas to the world of security and privacy systems.

More profile about the speaker
Jennifer Golbeck | Speaker | TED.com