ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com
TEDGlobal 2013

Alessandro Acquisti: What will a future without secrets look like?

אלסנדרו אקוויזיטי: מדוע הפרטיות חשובה?

Filmed:
1,423,103 views

הגבול בין הציבורי והפרטי היטשטש במאה האחרונה, הן במקוון והן במציאות, ואלסנדרו אקוויזיטי בא להסביר מהי המשמעות ומדוע זה חשוב. בהרצאה מעוררת-מחשבה ומצמררת במקצת זו, הוא חושף פרטים ממחקרים אחרונים ומחקרים שמצויים בעיצומם, כולל מיזם שמוכיח כמה קל להתאים בין תצלום של אדם זר למידע האישי הרגיש שלו.
- Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks. Full bio

Double-click the English transcript below to play the video.

00:12
I would like to tell you a storyכַּתָבָה
0
641
2354
ברצוני לספר לכם סיפור
00:14
connectingמְקַשֵׁר the notoriousיָדוּעַ לְשִׁמצָה privacyפְּרָטִיוּת incidentתַקרִית
1
2995
3176
המקשר את תקרית הפרטיות
הידועה לשמצה
00:18
involvingמעורבים Adamאדם and Eveעֶרֶב,
2
6171
2769
בין אדם לחווה,
00:20
and the remarkableראוי לציון shiftמִשׁמֶרֶת in the boundariesגבולות
3
8940
3446
עם התזוזה הבולטת בגבולות
00:24
betweenבֵּין publicפּוּמְבֵּי and privateפְּרָטִי whichאיזה has occurredהתרחש
4
12386
2686
שבין הפרטי לציבורי, שהתרחשה
00:27
in the pastעבר 10 yearsשנים.
5
15072
1770
ב-10 השנים האחרונות.
00:28
You know the incidentתַקרִית.
6
16842
1298
התקרית ההיא מוכרת לכם.
00:30
Adamאדם and Eveעֶרֶב one day in the Gardenגן of Edenעֵדֶן
7
18140
3330
אדם וחווה,
יום אחד בגן-עדן,
00:33
realizeלִהַבִין they are nakedעֵירוֹם.
8
21470
1843
תופשים שהם עירומים.
00:35
They freakמְשׁוּנֶה out.
9
23313
1500
הם מתחרפנים.
00:36
And the restמנוחה is historyהִיסטוֹרִיָה.
10
24813
2757
והשאר כתוב בדברי הימים.
00:39
Nowadaysכַּיוֹם, Adamאדם and Eveעֶרֶב
11
27570
2188
היום, אדם וחווה
00:41
would probablyכנראה actפעולה differentlyבאופן שונה.
12
29758
2361
היו ודאי נוהגים אחרת.
00:44
[@Adamאדם Last niteנייט was a blastפיצוץ! lovedאהוב datדאט appleתפוח עץ LOLחחח]
13
32119
2268
[@אדם אתמול בלילה היה פיצוץ!
היה אחלה תפוח:)))]
00:46
[@Eveעֶרֶב yepכֵּן.. babeתִינוֹק, know what happenedקרה to my pantsמִכְנָסַיִים thotho?]
14
34387
1873
[@חווה כן... מותק, יודעת איפה
המכנסיים שלי?]
00:48
We do revealלְגַלוֹת so much more informationמֵידָע
15
36260
2636
אנו חושפים מידע רב
00:50
about ourselvesבְּעָצמֵנוּ onlineבאינטרנט than ever before,
16
38896
3334
על עצמנו ברשת,
יותר מאי-פעם,
00:54
and so much informationמֵידָע about us
17
42230
1704
והמון מידע אודותינו
00:55
is beingלהיות collectedשנאספו by organizationsארגונים.
18
43934
2224
נאסף ע"י ארגונים.
00:58
Now there is much to gainלְהַשִׂיג and benefitתועלת
19
46158
3282
יש הרבה יתרונות ותועלת
01:01
from this massiveמַסִיבִי analysisאָנָלִיזָה of personalאישי informationמֵידָע,
20
49440
2446
בניתוח המסיבי הזה
של מידע אישי,
01:03
or bigגָדוֹל dataנתונים,
21
51886
1946
או צבירת הנתונים,
01:05
but there are alsoגַם complexמורכב tradeoffs- that come
22
53832
2638
אבל יש גם חסרונות מורכבים
01:08
from givingמַתָן away our privacyפְּרָטִיוּת.
23
56470
3098
שנלווים לוויתור על פרטיותנו.
[הסוכנות לבטחון לאומי בין החברים ב"פייסבוק"]
01:11
And my storyכַּתָבָה is about these tradeoffs-.
24
59568
4023
והסיפור שלי עוסק בחסרונות האלה.
01:15
We startהַתחָלָה with an observationתַצְפִּית whichאיזה, in my mindאכפת,
25
63591
2584
נפתח בהבחנה, שלדעתי,
01:18
has becomeהפכו clearerיותר ברור and clearerיותר ברור in the pastעבר fewמְעַטִים yearsשנים,
26
66175
3327
הפכה ברורה יותר ויותר
בשנים האחרונות,
01:21
that any personalאישי informationמֵידָע
27
69502
2097
והיא שכל מידע אישי
01:23
can becomeהפכו sensitiveרָגִישׁ informationמֵידָע.
28
71599
2285
עלול להפוך למידע רגיש.
01:25
Back in the yearשָׁנָה 2000, about 100 billionמיליארד photosתמונות
29
73884
4125
בשנת 2000, כ-100 מיליארד תמונות
01:30
were shotבְּעִיטָה worldwideעוֹלָמִי,
30
78009
1912
צולמו בכל העולם,
01:31
but only a minusculeזָעִיר proportionפּרוֹפּוֹרצִיָה of them
31
79921
3065
אבל רק חלקיק זעיר מהן
01:34
were actuallyלמעשה uploadedהועלה onlineבאינטרנט.
32
82986
1883
הועלו לרשת.
01:36
In 2010, only on Facebookפייסבוק, in a singleיחיד monthחוֹדֶשׁ,
33
84869
3361
ב-2010, רק ב"פייסבוק"
ורק בחודש אחד,
01:40
2.5 billionמיליארד photosתמונות were uploadedהועלה,
34
88230
3270
הועלו 2.5 מיליארד צילומים,
01:43
mostרוב of them identifiedמזוהה.
35
91500
1882
רובם מזוהים.
01:45
In the sameאותו spanלְהַקִיף of time,
36
93382
1880
באותה תקופה,
01:47
computers'מחשבים abilityיְכוֹלֶת to recognizeלזהות people in photosתמונות
37
95262
4870
יכולת המחשבים לזהות אנשים בצילומים
01:52
improvedמְשׁוּפָּר by threeשְׁלוֹשָׁה ordersהזמנות of magnitudeגוֹדֶל.
38
100132
3608
השתפרה בשלושה סדרי-גודל.
01:55
What happensקורה when you combineלְשַׁלֵב
39
103740
1882
מה קורה כשמשלבים
01:57
these technologiesטכנולוגיות togetherיַחַד:
40
105622
1501
בין שתי הטכנולוגיות האלה:
01:59
increasingגָדֵל availabilityזמינות of facialפַּרצוּפִי dataנתונים;
41
107123
2658
עליה בזמינות נתוני הפנים
02:01
improvingשיפור facialפַּרצוּפִי recognizingזיהוי abilityיְכוֹלֶת by computersמחשבים;
42
109781
3648
ושיפור יכולת זיהוי הפנים
ע"י מחשבים,
02:05
but alsoגַם cloudענן computingמחשוב,
43
113429
2182
אבל גם מיחשוב הענן
02:07
whichאיזה givesנותן anyoneכֹּל אֶחָד in this theaterתיאטרון
44
115611
1888
שמעניק לכל אדם בזירה הזו
02:09
the kindסוג of computationalחישובית powerכּוֹחַ
45
117499
1560
כוח מיחשוב מהסוג
02:11
whichאיזה a fewמְעַטִים yearsשנים agoלִפנֵי was only the domainתְחוּם
46
119059
1886
שלפני שנים ספורות היה
שייך בלעדית
02:12
of three-letterשלוש אותיות agenciesסוכנויות;
47
120945
1782
לסוכנויות ששמן מורכב מ-3 אותיות,
02:14
and ubiquitousנִמצָא בְּכָל מָקוֹם computingמחשוב,
48
122727
1378
והמיחשוב שנמצא בכל,
02:16
whichאיזה allowsמאפשרים my phoneטלפון, whichאיזה is not a supercomputerמחשב,
49
124105
2892
שמאפשר לטלפון שלי,
שאיננו מחשב-על,
02:18
to connectלְחַבֵּר to the Internetאינטרנט
50
126997
1671
להתחבר לאינטרנט
02:20
and do there hundredsמאות of thousandsאלפים
51
128668
2334
ולבצע שם מאות אלפי
02:23
of faceפָּנִים metricsמדדים in a fewמְעַטִים secondsשניות?
52
131002
2639
מדידות פנים בכמה שניות?
02:25
Well, we conjectureלְשַׁעֵר that the resultתוֹצָאָה
53
133641
2628
ובכן, אנו משערים שהתוצאה
02:28
of this combinationקוֹמבִּינַצִיָה of technologiesטכנולוגיות
54
136269
2064
של שילוב הטכנולוגיות הזה
02:30
will be a radicalקיצוני changeשינוי in our very notionsמושגים
55
138333
2888
תהיה שינוי קיצוני
במושגים שלנו עצמם
02:33
of privacyפְּרָטִיוּת and anonymityאַלמוֹנִיוּת.
56
141221
2257
בקשר לפרטיות ואלמוניות.
02:35
To testמִבְחָן that, we did an experimentלְנַסוֹת
57
143478
1993
כדי לבחון זאת, ערכנו ניסוי
02:37
on Carnegieקרנגי Mellonמלון Universityאוּנִיבֶרְסִיטָה campusקַמפּוּס.
58
145471
2121
בקמפוס של אוניברסיטת
קרנגי מלון.
02:39
We askedשאל studentsסטודנטים who were walkingהליכה by
59
147592
2099
ביקשנו מסטודנטים עוברים ושבים
02:41
to participateלְהִשְׂתַתֵף in a studyלימוד,
60
149691
1779
להשתתף במחקר מסוים,
02:43
and we tookלקח a shotבְּעִיטָה with a webcamמצלמת אינטרנט,
61
151470
2562
צילמנו אותם במצלמת רשת,
02:46
and we askedשאל them to fillלמלא out a surveyסֶקֶר on a laptopמחשב נייד.
62
154032
2782
וביקשנו מהם למלא טופס
של סקר במחשב אישי.
02:48
While they were fillingמילוי out the surveyסֶקֶר,
63
156814
1979
ובזמן שהם מילאו את הטופס,
02:50
we uploadedהועלה theirשֶׁלָהֶם shotבְּעִיטָה to a cloud-computingמחשוב ענן clusterאֶשׁכּוֹל,
64
158793
2797
העלינו את תמונתם למיחשוב הענן,
02:53
and we startedהתחיל usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני a facialפַּרצוּפִי recognizerמזהה
65
161590
1727
והתחלנו להשתמש בתוכנת זיהוי פנים
02:55
to matchהתאמה that shotבְּעִיטָה to a databaseמאגר מידע
66
163317
2405
כדי להתאים את התצלום
לבסיס נתונים
02:57
of some hundredsמאות of thousandsאלפים of imagesתמונות
67
165722
2393
של כמה מאות אלפי תמונות
03:00
whichאיזה we had downloadedהורד from Facebookפייסבוק profilesפרופילים.
68
168115
3596
שהורדנו מפרופילים ב"פייסבוק".
03:03
By the time the subjectנושא reachedהשיג the last pageעמוד
69
171711
3259
עד שהנבדק סיים למלא
את העמוד האחרון בטופס הסקר,
03:06
on the surveyסֶקֶר, the pageעמוד had been dynamicallyבאופן דינמי updatedמְעוּדכָּן
70
174970
3347
הדף התעדכן באופן דינמי
03:10
with the 10 bestהטוב ביותר matchingתוֹאֵם photosתמונות
71
178317
2313
עם 10 התמונות התואמות ביותר
03:12
whichאיזה the recognizerמזהה had foundמצאתי,
72
180630
2285
שתוכנת הזיהוי מצאה,
03:14
and we askedשאל the subjectsנושאים to indicateמצביע
73
182915
1738
ואז ביקשנו מהנבדקים לציין
03:16
whetherהאם he or she foundמצאתי themselvesעצמם in the photoתמונה.
74
184653
4120
אם הוא או היא
מצאו את עצמם ביניהם.
03:20
Do you see the subjectנושא?
75
188773
3699
אתם מזהים את הנבדק?
03:24
Well, the computerמַחשֵׁב did, and in factעוּבדָה did so
76
192472
2845
המחשב בהחלט זיהה,
ולמעשה הצליח בכך
03:27
for one out of threeשְׁלוֹשָׁה subjectsנושאים.
77
195317
2149
עם אחד מכל שלושה נבדקים.
03:29
So essentiallyלמעשה, we can startהַתחָלָה from an anonymousבעילום שם faceפָּנִים,
78
197466
3184
כך שבעצם, אנו יכולים להתחיל
מפרצוף אלמוני,
03:32
offlineלא מקוון or onlineבאינטרנט, and we can use facialפַּרצוּפִי recognitionהַכָּרָה
79
200650
3484
מקוון או לא מקוון,
ולהשתמש בזיהוי פנים
03:36
to give a nameשֵׁם to that anonymousבעילום שם faceפָּנִים
80
204134
2360
כדי להצמיד שם
לאותו פרצוף אלמוני
03:38
thanksתודה to socialחֶברָתִי mediaכְּלֵי תִקְשׁוֹרֶת dataנתונים.
81
206494
2108
הודות לנתוני המדיה החברתית.
03:40
But a fewמְעַטִים yearsשנים back, we did something elseאַחֵר.
82
208602
1872
אך לפני כמה שנים
עשינו משהו אחר.
03:42
We startedהתחיל from socialחֶברָתִי mediaכְּלֵי תִקְשׁוֹרֶת dataנתונים,
83
210474
1823
התחלנו מנתוני המדיה החברתית,
03:44
we combinedמְשׁוּלָב it statisticallyסטטיסטית with dataנתונים
84
212297
3051
שילבנו אותם באופן סטטיסטי
עם נתונים
03:47
from U.S. governmentמֶמְשָׁלָה socialחֶברָתִי securityבִּטָחוֹן,
85
215348
2102
מהביטוח הלאומי של ממשלת ארה"ב,
03:49
and we endedהסתיים up predictingניבוי socialחֶברָתִי securityבִּטָחוֹן numbersמספרים,
86
217450
3324
והצלחנו לגלות מראש
מספרי ביטוח לאומי,
03:52
whichאיזה in the Unitedמאוחד Statesמדינות
87
220774
1512
ובארה"ב,
03:54
are extremelyמְאוֹד sensitiveרָגִישׁ informationמֵידָע.
88
222286
2040
זהו מידע רגיש ביותר.
03:56
Do you see where I'm going with this?
89
224326
2093
אתם מבינים מה אני אומר כאן?
03:58
So if you combineלְשַׁלֵב the two studiesלימודים togetherיַחַד,
90
226419
2922
אם משלבים בין שני המחקרים,
04:01
then the questionשְׁאֵלָה becomesהופך,
91
229341
1512
אז השאלה היא,
04:02
can you startהַתחָלָה from a faceפָּנִים and,
92
230853
2720
האם אפשר להתחיל מפרצוף,
04:05
usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני facialפַּרצוּפִי recognitionהַכָּרָה, find a nameשֵׁם
93
233573
2311
ובעזרת זיהוי פנים, למצוא שם
04:07
and publiclyבְּפוּמבֵּי availableזמין informationמֵידָע
94
235884
2669
ומידע זמין לציבור
04:10
about that nameשֵׁם and that personאדם,
95
238553
1932
על השם והאדם האלה,
04:12
and from that publiclyבְּפוּמבֵּי availableזמין informationמֵידָע
96
240485
2248
ומתוך אותו מידע זמין לציבור,
04:14
inferלְהַסִיק non-publiclyלא בפומבי availableזמין informationמֵידָע,
97
242733
2042
להפיק מידע שאיננו זמין לציבור,
04:16
much more sensitiveרָגִישׁ onesיחידות
98
244775
1606
מידע הרבה יותר רגיש
04:18
whichאיזה you linkקישור back to the faceפָּנִים?
99
246381
1492
שניתן לקשרו עם אותו פרצוף?
04:19
And the answerתשובה is, yes, we can, and we did.
100
247873
1916
והתשובה היא כן, אנו יכולים,
ואנו עשינו זאת.
04:21
Of courseקוּרס, the accuracyדיוק keepsשומר gettingמקבל worseרע יותר.
101
249789
2568
כמובן, שהדיוק הולך ויורד.
04:24
[27% of subjects'post first 5 SSNSSN digitsספרות identifiedמזוהה (with 4 attemptsניסיונות)]
102
252357
944
[זוהו 27% ממספרי הביטוח הלאומי
של הנבדקים (ב-4 נסיונות)]
04:25
But in factעוּבדָה, we even decidedהחליט to developלְפַתֵחַ an iPhoneiPhone appאפליקציה
103
253301
3827
אך למעשה החלטנו אפילו
לפתח יישומון ל"אייפון"
04:29
whichאיזה usesשימו the phone'sשל הטלפון internalפְּנִימִי cameraמַצלֵמָה
104
257128
2715
שמנצל את המצלמה
הפנימית של הטלפון
04:31
to take a shotבְּעִיטָה of a subjectנושא
105
259843
1600
כדי לצלם את הנבדק,
04:33
and then uploadלהעלות it to a cloudענן
106
261443
1487
להעלות את זה לענן
04:34
and then do what I just describedמְתוּאָר to you in realאמיתי time:
107
262930
2662
ואז לעשות את מה
שזה עתה תיארתי, בזמן אמת:
04:37
looking for a matchהתאמה, findingמִמצָא publicפּוּמְבֵּי informationמֵידָע,
108
265592
2088
לחפש התאמה, לאתר מידע גלוי,
04:39
tryingמנסה to inferלְהַסִיק sensitiveרָגִישׁ informationמֵידָע,
109
267680
1730
לנסות להסיק ממנו מידע רגיש,
04:41
and then sendingשְׁלִיחָה back to the phoneטלפון
110
269410
2591
ולשלוח את זה בחזרה
אל הטלפון
04:44
so that it is overlaidמְעוּלָף on the faceפָּנִים of the subjectנושא,
111
272001
3609
כדי לרבד את זה
על פרצופו של הנבדק,
04:47
an exampleדוגמא of augmentedמוּגבָּר realityמְצִיאוּת,
112
275610
1901
כדוגמה של מציאות מורחבת,
04:49
probablyכנראה a creepyמְצַמרֵר exampleדוגמא of augmentedמוּגבָּר realityמְצִיאוּת.
113
277511
2451
אולי דוגמה חולנית
של מציאות מורחבת.
04:51
In factעוּבדָה, we didn't developלְפַתֵחַ the appאפליקציה to make it availableזמין,
114
279962
3339
לא פיתחנו את היישומון
כדי שיהיה זמין לציבור,
04:55
just as a proofהוכחה of conceptמוּשָׂג.
115
283301
1922
אלא רק כדי להוכיח רעיון.
04:57
In factעוּבדָה, take these technologiesטכנולוגיות
116
285223
2313
בעצם, כדי לקחת את
הטכנולוגיות האלה
04:59
and pushלִדחוֹף them to theirשֶׁלָהֶם logicalהגיוני extremeקיצוני.
117
287536
1837
עד לקיצוניות הלוגית שלהן.
05:01
Imagineלדמיין a futureעתיד in whichאיזה strangersזרים around you
118
289373
2719
תארו לעצמכן עתיד
שבו אנשים זרים סביבכם
05:04
will look at you throughדרך theirשֶׁלָהֶם GoogleGoogle Glassesמשקפיים
119
292092
2311
יביטו בכם דרך
משקפי ה"גוגל" שלהם
05:06
or, one day, theirשֶׁלָהֶם contactאיש קשר lensesעדשות,
120
294403
2307
או, יום אחד,
דרך עדשות המגע שלהם,
05:08
and use sevenשֶׁבַע or eightשמונה dataנתונים pointsנקודות about you
121
296710
4020
וישתמשו ב-7 או 8
נקודות מידע אודותיכם
05:12
to inferלְהַסִיק anything elseאַחֵר
122
300730
2582
כדי להסיק את כל יתר המידע
05:15
whichאיזה mayמאי be knownידוע about you.
123
303312
2603
שאפשר למצוא אודותיכם.
05:17
What will this futureעתיד withoutלְלֹא secretsסודות look like?
124
305915
4794
איך ייראה עתיד ללא סודות?
05:22
And should we careלְטַפֵּל?
125
310709
1964
והאם זה צריך להיות
חשוב לנו?
05:24
We mayמאי like to believe
126
312673
1891
אולי אנו אוהבים להאמין
05:26
that the futureעתיד with so much wealthעוֹשֶׁר of dataנתונים
127
314564
3040
שעתיד שיש בו
עושר כזה של נתונים
05:29
would be a futureעתיד with no more biasesהטיות,
128
317604
2514
יהיה עתיד שבו כבר
לא יהיו דעות מוטות,
05:32
but in factעוּבדָה, havingשיש so much informationמֵידָע
129
320118
3583
אך למעשה,
זמינותו של מידע כה רב
05:35
doesn't mean that we will make decisionsהחלטות
130
323701
2191
אינה אומרת שאנו נקבל החלטות
05:37
whichאיזה are more objectiveמַטָרָה.
131
325892
1706
אובייקטיביות יותר.
05:39
In anotherאַחֵר experimentלְנַסוֹת, we presentedמוצג to our subjectsנושאים
132
327598
2560
בניסוי אחר הצגנו לנבדקים שלנו
05:42
informationמֵידָע about a potentialפוטנציאל jobעבודה candidateמוּעֲמָד.
133
330158
2246
מידע אודות מועמד פוטנציאלי
למשרה כלשהי.
05:44
We includedכלול in this informationמֵידָע some referencesהפניות
134
332404
3178
כללנו במידע זה כמה התייחסויות
05:47
to some funnyמצחיק, absolutelyבהחלט legalמשפטי,
135
335582
2646
למידע קצת משעשע,
חוקי לגמרי,
05:50
but perhapsאוּלַי slightlyמְעַט embarrassingמֵבִיך informationמֵידָע
136
338228
2465
אך אולי מעט מביך
05:52
that the subjectנושא had postedפורסם onlineבאינטרנט.
137
340693
2020
שהנבדק העלה לרשת.
05:54
Now interestinglyמעניין, amongבין our subjectsנושאים,
138
342713
2366
המעניין הוא
שבין הנבדקים שלנו,
05:57
some had postedפורסם comparableניתן להשוות informationמֵידָע,
139
345079
3083
אחדים העלו מידע דומה,
06:00
and some had not.
140
348162
2362
ואחרים לא.
06:02
Whichאיזה groupקְבוּצָה do you think
141
350524
1949
איזו קבוצה לדעתכם
06:04
was more likelyסָבִיר to judgeלִשְׁפּוֹט harshlyבחריפות our subjectנושא?
142
352473
4552
נטתה לשפוט בחומרה
את הנבדק שלנו?
06:09
Paradoxicallyבאופן פרדוקסלי, it was the groupקְבוּצָה
143
357025
1957
באופן פרדוקסלי, היתה זו הקבוצה
06:10
who had postedפורסם similarדוֹמֶה informationמֵידָע,
144
358982
1733
שהעלתה לרשת מידע דומה,
06:12
an exampleדוגמא of moralמוסר השכל dissonanceדִיסוֹנַנס.
145
360715
2942
דוגמה לעיוות מוסרי.
06:15
Now you mayמאי be thinkingחושב,
146
363657
1750
אולי תחשבו:
06:17
this does not applyלהגיש מועמדות to me,
147
365407
1702
"זה לא נוגע לי,
06:19
because I have nothing to hideלהתחבא.
148
367109
2162
"כי אין לי דבר להסתיר."
06:21
But in factעוּבדָה, privacyפְּרָטִיוּת is not about
149
369271
2482
אך האמת היא שפרטיות איננה
06:23
havingשיש something negativeשלילי to hideלהתחבא.
150
371753
3676
הסתרה של משהו שלילי.
06:27
Imagineלדמיין that you are the H.R. directorמְנַהֵל
151
375429
2354
תארו לעצמכם שאתם
מנהלי משאבי-אנוש
06:29
of a certainמסוים organizationאִרגוּן, and you receiveלְקַבֵּלsumסְכוּםés,
152
377783
2947
בארגון כלשהו,
ואתם מקבלים קורות חיים
06:32
and you decideלְהַחלִיט to find more informationמֵידָע about the candidatesמועמדים.
153
380730
2473
ומחליטים לחפש מידע נוסף
אודות המועמדים שלכם.
06:35
Thereforeלָכֵן, you GoogleGoogle theirשֶׁלָהֶם namesשמות
154
383203
2460
אז אתם "מגגלים" את שמותיהם
06:37
and in a certainמסוים universeעוֹלָם,
155
385663
2240
ובמציאות מסוימת,
06:39
you find this informationמֵידָע.
156
387903
2008
אתם מגלים את המידע הזה.
06:41
Or in a parallelמַקְבִּיל universeעוֹלָם, you find this informationמֵידָע.
157
389911
4437
או במציאות מקבילה אחרת,
את המידע הזה.
06:46
Do you think that you would be equallyבאופן שווה likelyסָבִיר
158
394348
2717
האם נראה לכם סביר
שתזמינו באופן שוויוני
06:49
to call eitherאוֹ candidateמוּעֲמָד for an interviewרֵאָיוֹן?
159
397065
2803
את המועמדות האלה לראיון?
06:51
If you think so, then you are not
160
399868
2282
אם אתם חושבים שכן,
הרי שאינכם
06:54
like the U.S. employersמעסיקים who are, in factעוּבדָה,
161
402150
2582
כמו המעסיקים בארה"ב, שלמעשה,
06:56
partחֵלֶק of our experimentלְנַסוֹת, meaningמַשְׁמָעוּת we did exactlyבְּדִיוּק that.
162
404732
3307
משתתפים בניסוי שלנו, כלומר:
זה בדיוק מה שעשינו.
07:00
We createdשנוצר Facebookפייסבוק profilesפרופילים, manipulatingמניפולציה traitsתכונות,
163
408039
3182
יצרנו פרופילי "פייסבוק",
המצאנו תכונות אופי,
07:03
then we startedהתחיל sendingשְׁלִיחָה out résumסְכוּםés to companiesחברות in the U.S.,
164
411221
2851
ואז התחלנו לשלוח קורות חיים
לחברות בארה"ב,
07:06
and we detectedזוהה, we monitoredפיקוח,
165
414072
1908
וגילינו, עקבנו,
07:07
whetherהאם they were searchingמחפש for our candidatesמועמדים,
166
415980
2393
אם הם חיפשו מידע
אודות מועמדינו,
07:10
and whetherהאם they were actingמשחק on the informationמֵידָע
167
418373
1832
ואם הם פעלו על סמך המידע
07:12
they foundמצאתי on socialחֶברָתִי mediaכְּלֵי תִקְשׁוֹרֶת. And they were.
168
420205
1938
שמצאו במדיה החברתית.
והם בהחלט כן.
07:14
Discriminationאַפלָיָה was happeningמתרחש throughדרך socialחֶברָתִי mediaכְּלֵי תִקְשׁוֹרֶת
169
422143
2101
התרחשה אפליה בכל המדיה החברתית
07:16
for equallyבאופן שווה skilledמְיוּמָן candidatesמועמדים.
170
424244
3073
לגבי מועמדים זהים מבחינת כישורים.
07:19
Now marketersמשווקים like us to believe
171
427317
4575
המשווקים רוצים שנאמין
07:23
that all informationמֵידָע about us will always
172
431892
2269
שכל המידע עלינו ישמש תמיד
07:26
be used in a mannerדֶרֶך whichאיזה is in our favorטוֹבָה.
173
434161
3273
לתועלתנו.
07:29
But think again. Why should that be always the caseמקרה?
174
437434
3715
אבל אם תחשבו על זה,
למה שזה תמיד יהיה כך?
07:33
In a movieסרט whichאיזה cameבא out a fewמְעַטִים yearsשנים agoלִפנֵי,
175
441149
2664
בסרט שיצא לפני כמה שנים,
07:35
"Minorityמיעוט Reportלהגיש תלונה," a famousמפורסם sceneסְצֵינָה
176
443813
2553
"דוח מיוחד", בסצנה מפורסמת
07:38
had Tomטום Cruiseלְשַׁיֵט walkלָלֶכֶת in a mallקֶנִיוֹן
177
446366
2576
רואים את טום קרוז עובר בקניון
07:40
and holographicהולוגרפית personalizedאישית advertisingפִּרסוּם
178
448942
3776
ופרסום הולוגרפי מותאם-אישית
07:44
would appearלְהוֹפִיעַ around him.
179
452718
1835
מופיע סביבו.
07:46
Now, that movieסרט is setמַעֲרֶכֶת in 2054,
180
454553
3227
הסרט מתרחש ב-2054,
07:49
about 40 yearsשנים from now,
181
457780
1642
כ-40 שנה מהיום,
07:51
and as excitingמְרַגֵשׁ as that technologyטֶכנוֹלוֹגִיָה looksנראה,
182
459422
2908
וככל שהטכנולוגיה הזו
נראית מלהיבה,
07:54
it alreadyכְּבָר vastlyבְּמִדָה נִכֶּרֶת underestimatesלזלזל
183
462330
2646
היא כבר ממעיטה מאד באומדן
07:56
the amountכמות of informationמֵידָע that organizationsארגונים
184
464976
2140
כמות המידע שארגונים
07:59
can gatherלאסוף about you, and how they can use it
185
467116
2483
יכולים לאסוף אודותיכם,
וכיצד הם יכולים להשתמש בו
08:01
to influenceלְהַשְׁפִּיעַ you in a way that you will not even detectלזהות.
186
469599
3398
כדי להשפיע עליכם בדרך
שאפילו לא תגלו.
08:04
So as an exampleדוגמא, this is anotherאַחֵר experimentלְנַסוֹת
187
472997
2103
בתור דוגמה, זהו ניסוי נוסף
08:07
actuallyלמעשה we are runningרץ, not yetעדיין completedהושלמה.
188
475100
2273
שאנו עורכים בימים אלה,
הוא טרם הושלם.
08:09
Imagineלדמיין that an organizationאִרגוּן has accessגִישָׁה
189
477373
2319
תארו לעצמכם שלארגון כלשהו
יש גישה
08:11
to your listרשימה of Facebookפייסבוק friendsחברים,
190
479692
2056
לרשימת חבריכם ב"פייסבוק",
08:13
and throughדרך some kindסוג of algorithmאַלגוֹרִיתְם
191
481748
1772
ובאמצעות אלגוריתם מסוים
08:15
they can detectלזהות the two friendsחברים that you like the mostרוב.
192
483520
3734
הוא יכול לזהות את שני החברים
הכי אהובים שלכם.
08:19
And then they createלִיצוֹר, in realאמיתי time,
193
487254
2280
ואז הוא יוצר, בזמן אמת,
08:21
a facialפַּרצוּפִי compositeמרוכבים of these two friendsחברים.
194
489534
2842
קלסתרון משולב של
שני החברים האלה.
08:24
Now studiesלימודים priorקוֹדֵם to oursשֶׁלָנוּ have shownמוצג that people
195
492376
3069
מחקרים שנערכו לפנינו הראו שאנשים
08:27
don't recognizeלזהות any longerארוך יותר even themselvesעצמם
196
495445
2885
כבר לא מזהים אפילו את עצמם
08:30
in facialפַּרצוּפִי compositesמרוכבים, but they reactלְהָגִיב
197
498330
2462
בקלסתרונים, אבל הם מגיבים
08:32
to those compositesמרוכבים in a positiveחִיוּבִי mannerדֶרֶך.
198
500792
2117
לקלסתרונים אלה באופן חיובי.
08:34
So nextהַבָּא time you are looking for a certainמסוים productמוצר,
199
502909
3415
כך שבפעם הבאה
שתחפשו מוצר כלשהו,
08:38
and there is an adמוֹדָעָה suggestingמציע you to buyלִקְנוֹת it,
200
506324
2559
ותהיה איזו פרסומת שתציע לכם
לקנות אותו,
08:40
it will not be just a standardתֶקֶן spokespersonדובר.
201
508883
2907
המציג לא יהיה דובר רגיל,
08:43
It will be one of your friendsחברים,
202
511790
2313
אלא אחד מחבריכם,
08:46
and you will not even know that this is happeningמתרחש.
203
514103
3303
ואתם אפילו לא תדעו
שזה מה שקורה.
08:49
Now the problemבְּעָיָה is that
204
517406
2413
הבעיה היא,
08:51
the currentנוֹכְחִי policyמְדִינִיוּת mechanismsמנגנונים we have
205
519819
2519
שמנגנוני המדיניות הנוכחיים שלנו
08:54
to protectלְהַגֵן ourselvesבְּעָצמֵנוּ from the abusesהתעללות of personalאישי informationמֵידָע
206
522338
3438
שמטרתם להגן על עצמנו
מניצול לרעה של מידע אישי
08:57
are like bringingמביא a knifeסַכִּין to a gunfightיריות.
207
525776
2984
הם כמו להשתמש בסכין
בקרב אקדחים.
09:00
One of these mechanismsמנגנונים is transparencyשְׁקִיפוּת,
208
528760
2913
אחד המנגנונים האלה הוא שקיפות,
09:03
tellingאומר people what you are going to do with theirשֶׁלָהֶם dataנתונים.
209
531673
3200
לומר לאנשים מה תעשה
עם המידע אודותיהם,
09:06
And in principleעִקָרוֹן, that's a very good thing.
210
534873
2106
ועקרונית, זה טוב מאד.
09:08
It's necessaryנחוץ, but it is not sufficientמַסְפִּיק.
211
536979
3667
זה הכרחי,
אבל זה לא מספיק.
09:12
Transparencyשְׁקִיפוּת can be misdirectedלא נכון.
212
540646
3698
אפשר להשתמש בשקיפות באופן מטעה.
09:16
You can tell people what you are going to do,
213
544344
2104
אפשר לומר לאנשים
מה עומדים לעשות,
09:18
and then you still nudgeדְחִיפָה them to discloseלחשוף
214
546448
2232
ולהמשיך להציק להם בדרישות למסור
09:20
arbitraryשרירותי amountsסכומים of personalאישי informationמֵידָע.
215
548680
2623
כמויות שרירותיות של מידע אישי.
09:23
So in yetעדיין anotherאַחֵר experimentלְנַסוֹת, this one with studentsסטודנטים,
216
551303
2886
אז בניסוי נוסף,
הפעם בהשתתפות סטודנטים,
09:26
we askedשאל them to provideלְסַפֵּק informationמֵידָע
217
554189
3058
ביקשנו מהם לספק מידע
09:29
about theirשֶׁלָהֶם campusקַמפּוּס behaviorהִתְנַהֲגוּת,
218
557247
1813
לגבי התנהלותם בקמפוס,
09:31
includingלְרַבּוֹת prettyיפה sensitiveרָגִישׁ questionsשאלות, suchכגון as this one.
219
559060
2940
כולל שאלות רגישות למדי,
כמו זאת.
09:34
[Have you ever cheatedמְרוּמֶה in an examבְּחִינָה?]
220
562000
621
[האם אי-פעם רימית במבחן?]
לקבוצה אחת של נבדקים אמרנו:
09:34
Now to one groupקְבוּצָה of subjectsנושאים, we told them,
221
562621
2300
[האם אי-פעם רימית במבחן?]
לקבוצה אחת של נבדקים אמרנו:
09:36
"Only other studentsסטודנטים will see your answersתשובות."
222
564921
2841
"רק סטודנטים אחרים
יראו את תשובותיכם."
09:39
To anotherאַחֵר groupקְבוּצָה of subjectsנושאים, we told them,
223
567762
1579
לקבוצת נבדקים שניה אמרנו:
09:41
"Studentsסטודנטים and facultyסגל will see your answersתשובות."
224
569341
3561
"הסטודנטים והסגל יראו
את תשובותיכם."
09:44
Transparencyשְׁקִיפוּת. Notificationהוֹדָעָה. And sure enoughמספיק, this workedעבד,
225
572902
2591
שקיפות. הודעה מראש.
וזה בהחלט עבד,
09:47
in the senseלָחוּשׁ that the first groupקְבוּצָה of subjectsנושאים
226
575493
1407
במובן זה שקבוצת הנבדקים הראשונה
09:48
were much more likelyסָבִיר to discloseלחשוף than the secondשְׁנִיָה.
227
576900
2568
נטתה הרבה יותר למסור מידע
מאשר השניה.
09:51
It makesעושה senseלָחוּשׁ, right?
228
579468
1520
הגיוני, נכון?
09:52
But then we addedהוסיף the misdirectionכיוון שגוי.
229
580988
1490
אבל הוספנו הטעיה.
09:54
We repeatedחוזר על עצמו the experimentלְנַסוֹת with the sameאותו two groupsקבוצות,
230
582478
2760
חזרנו על הניסוי
עם אותן שתי קבוצות,
09:57
this time addingמוֹסִיף a delayלְעַכֵּב
231
585238
2427
והפעם הוספנו השהיה
09:59
betweenבֵּין the time we told subjectsנושאים
232
587665
2935
בין הזמן בו הודענו לנבדקים
10:02
how we would use theirשֶׁלָהֶם dataנתונים
233
590600
2080
איך בדעתנו להשתמש בנתונים
10:04
and the time we actuallyלמעשה startedהתחיל answeringעונה the questionsשאלות.
234
592680
4388
ובין הזמן שבו הם החלו בפועל
לענות על השאלות.
10:09
How long a delayלְעַכֵּב do you think we had to addלְהוֹסִיף
235
597068
2561
מה אורך ההשהייה, לדעתכם,
היה עלינו להכניס
10:11
in orderלהזמין to nullifyלְבַטֵל the inhibitoryמעכב effectהשפעה
236
599629
4613
כדי לבטל את האפקט המעכב
10:16
of knowingיוֹדֵעַ that facultyסגל would see your answersתשובות?
237
604242
3411
שבידיעה שהסגל
עתיד לראות את התשובות?
10:19
Tenעשר minutesדקות?
238
607653
1780
10 דקות?
10:21
Fiveחָמֵשׁ minutesדקות?
239
609433
1791
5 דקות?
10:23
One minuteדַקָה?
240
611224
1776
דקה אחת?
10:25
How about 15 secondsשניות?
241
613000
2049
מה תאמרו על 15 שניות?
10:27
Fifteenחֲמֵשׁ עֶשׂרֵה secondsשניות were sufficientמַסְפִּיק to have the two groupsקבוצות
242
615049
2668
די היה ב-15 שניות
כדי ששתי הקבוצות
10:29
discloseלחשוף the sameאותו amountכמות of informationמֵידָע,
243
617717
1568
תמסורנה את אותה כמות מידע,
10:31
as if the secondשְׁנִיָה groupקְבוּצָה now no longerארוך יותר caresאכפת
244
619285
2746
כאילו שלחברי הקבוצה השניה
כבר לא היה איכפת
10:34
for facultyסגל readingקריאה theirשֶׁלָהֶם answersתשובות.
245
622031
2656
אם הסגל יראה את תשובותיהם.
10:36
Now I have to admitלְהוֹדוֹת that this talk so farרָחוֹק
246
624687
3336
עלי להודות שההרצאה הזו
נראית עד עתה
10:40
mayמאי soundנשמע exceedinglyבְּיוֹתֵר gloomyקודר,
247
628023
2480
קודרת ביותר,
10:42
but that is not my pointנְקוּדָה.
248
630503
1721
אבל לא זה המסר שלי.
10:44
In factעוּבדָה, I want to shareלַחֲלוֹק with you the factעוּבדָה that
249
632224
2699
למעשה, אני רוצה לגלות לכם
את העובדה
10:46
there are alternativesחלופות.
250
634923
1772
שיש חלופות.
10:48
The way we are doing things now is not the only way
251
636695
2499
הדרך בה אנו עושים דברים כיום
אינה הדרך היחידה
10:51
they can doneבוצע, and certainlyבְּהֶחלֵט not the bestהטוב ביותר way
252
639194
3037
בה ניתן לעשותם, ואין ספק
שהיא לא הדרך הכי טובה
10:54
they can be doneבוצע.
253
642231
2027
בה ניתן לעשותם.
10:56
When someoneמִישֶׁהוּ tellsאומר you, "People don't careלְטַפֵּל about privacyפְּרָטִיוּת,"
254
644258
4171
כשמישהו אומר לכם:
"לאנשים לא איכפת מפרטיות",
11:00
considerלשקול whetherהאם the gameמִשְׂחָק has been designedמְעוּצָב
255
648429
2642
שאלו את עצמכם
האם המשחק לא תוכנן וטופל מראש
11:03
and riggedמְבוּיָם so that they cannotלא יכול careלְטַפֵּל about privacyפְּרָטִיוּת,
256
651071
2724
כך שלא יהיה להם איכפת
לגבי הפרטיות,
11:05
and comingמגיע to the realizationהִתמַמְשׁוּת that these manipulationsמניפולציות occurמתרחש
257
653795
3262
וההבנה שנעשות מניפולציות כאלה
11:09
is alreadyכְּבָר halfwayבְּחַצִי הַדֶרֶך throughדרך the processתהליך
258
657057
1607
היא כבר חצי מהפתרון
11:10
of beingלהיות ableיכול to protectלְהַגֵן yourselfעַצמְךָ.
259
658664
2258
של היכולת להגן על עצמכם.
11:12
When someoneמִישֶׁהוּ tellsאומר you that privacyפְּרָטִיוּת is incompatibleשאינו עולה בקנה אחד
260
660922
3710
כשמישהו אומר לכם
שהפרטיות אינה עולה בקנה אחד
11:16
with the benefitsיתרונות of bigגָדוֹל dataנתונים,
261
664632
1849
עם התועלת שבצבירת נתונים,
11:18
considerלשקול that in the last 20 yearsשנים,
262
666481
2473
חישבו על כך
שב-20 השנה האחרונות,
11:20
researchersחוקרים have createdשנוצר technologiesטכנולוגיות
263
668954
1917
חוקרים יצרו טכנולוגיות
11:22
to allowלהתיר virtuallyכִּמעַט any electronicאֶלֶקטרוֹנִי transactionsעסקאות
264
670871
3318
שתאפשרנה לבצע למעשה
כל עיסקה אלקטרונית
11:26
to take placeמקום in a more privacy-preservingשמירה על פרטיות mannerדֶרֶך.
265
674189
3749
באופן שמגן יותר על הפרטיות.
11:29
We can browseלְדַפדֵף the Internetאינטרנט anonymouslyבעילום שם.
266
677938
2555
אנו יכולים לגלוש באינטרנט באלמוניות.
11:32
We can sendלִשְׁלוֹחַ emailsמיילים that can only be readלקרוא
267
680493
2678
אנו יכולים לשלוח דוא"ל
שיכול להיקרא
11:35
by the intendedהתכוון recipientמקבל, not even the NSANSA.
268
683171
3709
רק ע"י הנמען, אפילו לא
ע"י הסוכנות לבטחון לאומי.
11:38
We can have even privacy-preservingשמירה על פרטיות dataנתונים miningכְּרִיָה.
269
686880
2997
אנו יכולים לבצע אפילו
כריית-נתונים מכבדת פרטיות.
11:41
In other wordsמילים, we can have the benefitsיתרונות of bigגָדוֹל dataנתונים
270
689877
3894
במלים אחרות, אנו יכולים לקבל
את יתרונות צבירת הנתונים
11:45
while protectingמה tra Home privacyפְּרָטִיוּת.
271
693771
2132
תוך שמירה על הפרטיות.
11:47
Of courseקוּרס, these technologiesטכנולוגיות implyלִרְמוֹז a shiftingהסטה
272
695903
3791
מובן שמהטכנולוגיות האלה
משתמע שינוי
11:51
of costעֲלוּת and revenuesההכנסות
273
699694
1546
מבחינת עלות והכנסות
11:53
betweenבֵּין dataנתונים holdersמחזיק and dataנתונים subjectsנושאים,
274
701240
2107
בין בעלי הנתונים
לבין נושאי המידע,
11:55
whichאיזה is why, perhapsאוּלַי, you don't hearלִשְׁמוֹעַ more about them.
275
703347
3453
ואולי בגלל זה
לא מרבים לשמוע עליהן.
11:58
Whichאיזה bringsמביא me back to the Gardenגן of Edenעֵדֶן.
276
706800
3706
וזה מחזיר אותי לגן-עדן.
12:02
There is a secondשְׁנִיָה privacyפְּרָטִיוּת interpretationפרשנות
277
710506
2780
יש פרשנות נוספת, שקשורה בפרטיות,
12:05
of the storyכַּתָבָה of the Gardenגן of Edenעֵדֶן
278
713286
1809
לסיפור גן העדן
12:07
whichאיזה doesn't have to do with the issueנושא
279
715095
2096
שלא בהכרח מתעסק עם הסוגיה
12:09
of Adamאדם and Eveעֶרֶב feelingמַרגִישׁ nakedעֵירוֹם
280
717191
2225
של עירומם של אדם וחווה
12:11
and feelingמַרגִישׁ ashamedמְבוּיָשׁ.
281
719416
2381
ותחושת הבושה שלהם.
12:13
You can find echoesהדים of this interpretationפרשנות
282
721797
2781
אפשר למצוא הדים לפרשנות זו
12:16
in Johnג'ון Milton'sשל מילטון "Paradiseגַן עֶדֶן Lostאָבֵד."
283
724578
2782
ב"גן העדן האבוד"
של ג'ון מילטון.
12:19
In the gardenגן, Adamאדם and Eveעֶרֶב are materiallyבאופן מהותי contentתוֹכֶן.
284
727360
4197
בגן העדן, אדם וחווה מסופקים
מבחינה חומרית.
12:23
They're happyשַׂמֵחַ. They are satisfiedמרוצה.
285
731557
2104
הם מאושרים. הם שבעי-רצון.
12:25
Howeverלמרות זאת, they alsoגַם lackחוֹסֶר knowledgeיֶדַע
286
733661
2293
אבל גם אין להם ידע
12:27
and self-awarenessמודעות עצמית.
287
735954
1640
ומודעות עצמית.
12:29
The momentרֶגַע they eatלאכול the aptlyיפה namedבשם
288
737594
3319
ברגע שהם אוכלים מהפרי
בעל השם ההולם,
12:32
fruitפרי of knowledgeיֶדַע,
289
740913
1293
פרי עץ הדעת,
12:34
that's when they discoverלְגַלוֹת themselvesעצמם.
290
742206
2605
הם מגלים את עצמם.
12:36
They becomeהפכו awareמוּדָע. They achieveלְהַשִׂיג autonomyאוטונומיה.
291
744811
4031
הם נעשים מודעים.
הם רוכשים עצמאות.
12:40
The priceמחיר to payלְשַׁלֵם, howeverלמרות זאת, is leavingעֲזִיבָה the gardenגן.
292
748842
3126
אבל המחיר שעליהם לשלם
הוא עזיבת גן העדן.
12:43
So privacyפְּרָטִיוּת, in a way, is bothשניהם the meansאומר
293
751968
3881
כך שהפרטיות, במובן מסוים,
היא גם האמצעי
12:47
and the priceמחיר to payלְשַׁלֵם for freedomחוֹפֶשׁ.
294
755849
2962
וגם המחיר של החופש.
12:50
Again, marketersמשווקים tell us
295
758811
2770
שוב, המשווקים מספרים לנו
12:53
that bigגָדוֹל dataנתונים and socialחֶברָתִי mediaכְּלֵי תִקְשׁוֹרֶת
296
761581
3019
שצבירת נתונים והמידה החברתית
12:56
are not just a paradiseגַן עֶדֶן of profitרווח for them,
297
764600
2979
הם לא רק
גן-עדן של רווחים עבורם,
12:59
but a Gardenגן of Edenעֵדֶן for the restמנוחה of us.
298
767579
2457
אלא גן-עדן עבור כולנו.
13:02
We get freeחופשי contentתוֹכֶן.
299
770036
1238
אנו מקבלים תוכן בחינם.
13:03
We get to playלְשַׂחֵק Angryכּוֹעֵס Birdsציפורים. We get targetedממוקד appsאפליקציות.
300
771274
3123
אנו זוכים לשחק "אנגרי בירדס",
אנו מקבלים יישומונים ייעודיים.
13:06
But in factעוּבדָה, in a fewמְעַטִים yearsשנים, organizationsארגונים
301
774397
2897
אך האמת היא
שתוך שנים ספורות, הארגונים
13:09
will know so much about us,
302
777294
1609
ידעו כל-כך הרבה עלינו,
13:10
they will be ableיכול to inferלְהַסִיק our desiresהרצונות
303
778903
2710
שהם יוכלו להסיק מהם רצונותינו
13:13
before we even formטופס them, and perhapsאוּלַי
304
781613
2204
עוד לפני שאנו נדע מהם, ואולי
13:15
buyלִקְנוֹת productsמוצרים on our behalfמטעם
305
783817
2447
לרכוש מוצרים בשמנו
13:18
before we even know we need them.
306
786264
2274
עוד לפני שנדע
שאנו זקוקים להם.
13:20
Now there was one Englishאנגלית authorמְחַבֵּר
307
788538
3237
היה סופר אנגלי,
13:23
who anticipatedצָפוּי this kindסוג of futureעתיד
308
791775
3045
שצפה עתיד מעין זה,
13:26
where we would tradeסַחַר away
309
794820
1405
שבו נוכל לסחור
13:28
our autonomyאוטונומיה and freedomחוֹפֶשׁ for comfortנוחות.
310
796225
3548
בעצמאותנו ובחירותנו תמורת נוחות.
13:31
Even more so than Georgeג 'ורג' Orwellאורוול,
311
799773
2161
יותר מכפי שחזה ג'ורג' אורוול,
13:33
the authorמְחַבֵּר is, of courseקוּרס, Aldousאלדוס Huxleyהאקסלי.
312
801934
2761
הסופר הוא כמובן אלדוס הקסלי.
13:36
In "Braveאַמִיץ Newחָדָשׁ Worldעוֹלָם," he imaginesמדמיין a societyחֶברָה
313
804695
2854
ב"עולם חדש מופלא"
הוא תיאר חברה
13:39
where technologiesטכנולוגיות that we createdשנוצר
314
807549
2171
שבה הטכנולוגיות שיצרנו
13:41
originallyבְּמָקוֹר for freedomחוֹפֶשׁ
315
809720
1859
במקור למען החופש,
13:43
endסוֹף up coercingכפיה us.
316
811579
2567
בסופו של דבר מדכאות אותנו.
13:46
Howeverלמרות זאת, in the bookסֵפֶר, he alsoגַם offersהצעות us a way out
317
814146
4791
אבל באותו ספר הוא גם
הציע דרך מוצא
13:50
of that societyחֶברָה, similarדוֹמֶה to the pathנָתִיב
318
818937
3438
מאותה חברה, בדומה לדרך
13:54
that Adamאדם and Eveעֶרֶב had to followלעקוב אחר to leaveלעזוב the gardenגן.
319
822375
3955
שאדם וחווה נאלצו ללכת בה
כדי לעזוב את הגן.
13:58
In the wordsמילים of the Savageפרא אדם,
320
826330
2147
כפי שאומר הפרא, מתוך הספר,
14:00
regainingחוזר autonomyאוטונומיה and freedomחוֹפֶשׁ is possibleאפשרי,
321
828477
3069
השבת העצמאות והחירות היא אפשרית,
14:03
althoughלמרות ש the priceמחיר to payלְשַׁלֵם is steepתָלוּל.
322
831546
2679
אם כי המחיר שיש לשלם
הוא גבוה.
14:06
So I do believe that one of the definingהגדרה fightsקרבות
323
834225
5715
כך שאני אכן מאמין
שאחד הקרבות
14:11
of our timesפִּי will be the fightמַאֲבָק
324
839940
2563
שיגדירו את תקופתנו יהיה הקרב
14:14
for the controlלִשְׁלוֹט over personalאישי informationמֵידָע,
325
842503
2387
על השליטה במידע האישי שלנו,
14:16
the fightמַאֲבָק over whetherהאם bigגָדוֹל dataנתונים will becomeהפכו a forceכּוֹחַ
326
844890
3507
הקרב שיקבע אם צבירת הנתונים
תהפוך לכוח
14:20
for freedomחוֹפֶשׁ,
327
848397
1289
למען החירות,
14:21
ratherבמקום than a forceכּוֹחַ whichאיזה will hiddenlyבחשאי manipulateלְתַפְעֵל us.
328
849686
4746
ולא לכוח שיפעיל עלינו
מניפולציות סמויות.
14:26
Right now, manyרב of us
329
854432
2593
לעת עתה, רבים מאיתנו
14:29
do not even know that the fightמַאֲבָק is going on,
330
857025
2753
אפילו לא יודעים
שהקרב הזה בכלל מתחולל,
14:31
but it is, whetherהאם you like it or not.
331
859778
2672
אך הוא בהחלט ניטש,
אם זה מוצא חן בעיניכם ואם לא.
14:34
And at the riskלְהִסְתָכֵּן of playingמשחק the serpentנָחָשׁ,
332
862450
2804
ומתוך הסתכנות בגילום דמות הנחש,
14:37
I will tell you that the toolsכלים for the fightמַאֲבָק
333
865254
2897
אגלה לכם שהכלים לניהול הקרב
14:40
are here, the awarenessמוּדָעוּת of what is going on,
334
868151
3009
הם כאן - המודעות למה שקורה,
14:43
and in your handsידיים,
335
871160
1355
וכאן, בקצות אצבעותיכם.
14:44
just a fewמְעַטִים clicksקליקים away.
336
872515
3740
נחוצות רק כמה הקשות מקש.
14:48
Thank you.
337
876255
1482
תודה לכם.
14:49
(Applauseתְשׁוּאוֹת)
338
877737
4477
[מחיאות כפיים]
Translated by Shlomo Adam
Reviewed by Ido Dekkers

▲Back to top

ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com