ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com
TEDGlobal 2013

Alessandro Acquisti: What will a future without secrets look like?

Алесандро Акуисти: Защо поверителността е важна

Filmed:
1,423,103 views

Линията между общественото и личното се размива все повече през последното десетилетие, както онлайн, така и в реалния живот, и Алесандро Акуисти е тук, за да обясни какво означава това и защо е от значение. В тази провокираща мисълта, леко смразяваща лекция той споделя данни от скорошни и провеждащи се в момента изследвания, включително и проект, който показва колко е лесно от снимката на непознат да стигнем до тяхната поверителна информация.
- Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks. Full bio

Double-click the English transcript below to play the video.

00:12
I would like to tell you a storyистория
0
641
2354
Бих искал да ви разкажа история
00:14
connectingсвързване the notoriousпрословут privacyповерителност incidentинцидент
1
2995
3176
за всеизвестния инцидент за поверителността
00:18
involvingс участието на AdamАдам and EveЕва,
2
6171
2769
при Адам и Ева
00:20
and the remarkableзабележителен shiftизместване in the boundariesграници
3
8940
3446
и невероятната промяна на границата
00:24
betweenмежду publicобществен and privateчастен whichкойто has occurredнастъпили
4
12386
2686
между публичното и личното, настъпила
00:27
in the pastминало 10 yearsгодини.
5
15072
1770
през последните 10 години.
00:28
You know the incidentинцидент.
6
16842
1298
Случката ви е позната.
00:30
AdamАдам and EveЕва one day in the GardenГрадина of EdenEden
7
18140
3330
Един ден в Райската градина
00:33
realizeосъзнавам they are nakedгол.
8
21470
1843
Адам и Ева осъзнали, че са голи.
00:35
They freakкаприз out.
9
23313
1500
И откачили.
00:36
And the restПочивка is historyистория.
10
24813
2757
Останалото е история.
00:39
NowadaysВ днешно време, AdamАдам and EveЕва
11
27570
2188
В днешно време
00:41
would probablyвероятно actакт differentlyразлично.
12
29758
2361
Адам и Ева сигурно ще реагират различно.
00:44
[@AdamАдам Last niteNite was a blastвзрив! lovedобичал datDAT appleябълка LOLСмях]
13
32119
2268
[@Адам, снощи беше невероятно! Влюбих се в тази ябълка LOL]
00:46
[@EveЕва yepYep.. babeБейб, know what happenedсе случи to my pantsпанталони thoТхо?]
14
34387
1873
[@Ева, да.. скъпа, да знаеш какво е станало с гащите ми?]
00:48
We do revealразкрие so much more informationинформация
15
36260
2636
Разкриваме много повече информация
00:50
about ourselvesсебе си onlineна линия than ever before,
16
38896
3334
за себе си онлайн от когато и да било
00:54
and so much informationинформация about us
17
42230
1704
и много повече информация за нас самите
00:55
is beingсъщество collectedсъбран by organizationsорганизации.
18
43934
2224
се събира от различни организации.
00:58
Now there is much to gainпечалба and benefitоблага
19
46158
3282
В днешно време могат да се извлекат много ползи
01:01
from this massiveмасов analysisанализ of personalперсонален informationинформация,
20
49440
2446
от непрестанния анализ на лична информация,
01:03
or bigголям dataданни,
21
51886
1946
значима информация,
01:05
but there are alsoсъщо complexкомплекс tradeoffsкомпромиси that come
22
53832
2638
но има и големи компромиси, които правим
01:08
from givingдавайки away our privacyповерителност.
23
56470
3098
когато се отказваме от своето лично пространство.
01:11
And my storyистория is about these tradeoffsкомпромиси.
24
59568
4023
Моята история е за тези компромиси.
01:15
We startначало with an observationнаблюдение whichкойто, in my mindум,
25
63591
2584
Започваме с наблюдението, което, според мен,
01:18
has becomeда стане clearerпо-ясни and clearerпо-ясни in the pastминало fewмалцина yearsгодини,
26
66175
3327
става все по-ясно и по-ясно през последните няколко години,
01:21
that any personalперсонален informationинформация
27
69502
2097
а именно че личната информация
01:23
can becomeда стане sensitiveчувствителен informationинформация.
28
71599
2285
можа да е важна информация.
01:25
Back in the yearгодина 2000, about 100 billionмилиард photosснимки
29
73884
4125
През 2000 година за били направени около 100 милиарда снимки
01:30
were shotизстрел worldwideв световен мащаб,
30
78009
1912
по целия свят,
01:31
but only a minusculeMinuscule proportionпропорция of them
31
79921
3065
но много малка част от тях
01:34
were actuallyвсъщност uploadedкачен onlineна линия.
32
82986
1883
са били качени онлайн.
01:36
In 2010, only on FacebookFacebook, in a singleединичен monthмесец,
33
84869
3361
През 2010г., само във Facebook, само за един месец,
01:40
2.5 billionмилиард photosснимки were uploadedкачен,
34
88230
3270
са били качени повече от 2,5 милиарда снимки,
01:43
mostнай-много of them identifiedидентифициран.
35
91500
1882
повечето от тях с ясна идентификация.
01:45
In the sameедин и същ spanпедя of time,
36
93382
1880
За същия период от време
01:47
computers'компютри abilityспособност to recognizeпризнавам people in photosснимки
37
95262
4870
възможностите на компютрите да разпознават хора на снимки
01:52
improvedподобрен by threeтри ordersпоръчки of magnitudeвеличина.
38
100132
3608
се е подобрила цели три пъти.
01:55
What happensслучва се when you combineкомбайн
39
103740
1882
Какво се случва
01:57
these technologiesтехнологии togetherзаедно:
40
105622
1501
когато комбинирате следните технологии:
01:59
increasingповишаване на availabilityналичност of facialлицето dataданни;
41
107123
2658
по-лесен достъп до идентифициращи данни;
02:01
improvingподобряване facialлицето recognizingпризнаването abilityспособност by computersкомпютри;
42
109781
3648
подобрена способност на компютрите за разпознаване на лица;
02:05
but alsoсъщо cloudоблак computingизчислителен,
43
113429
2182
също това клауд компютинг,
02:07
whichкойто givesдава anyoneнякой in this theaterтеатър
44
115611
1888
който дава на всеки в тази зала
02:09
the kindмил of computationalизчислителната powerмощност
45
117499
1560
такива изчислителни способности,
02:11
whichкойто a fewмалцина yearsгодини agoпреди was only the domainдомейн
46
119059
1886
каквито преди няколко години са били достъпни
02:12
of three-letterтри символни agenciesагенции;
47
120945
1782
само на трибуквени агенции;
02:14
and ubiquitousповсеместен computingизчислителен,
48
122727
1378
както и повсеместен компютинг,
02:16
whichкойто allowsпозволява my phoneтелефон, whichкойто is not a supercomputerсуперкомпютър,
49
124105
2892
който позволява на телефона ми, който не е суперкомпютър,
02:18
to connectсвържете to the InternetИнтернет
50
126997
1671
да се свърже с Интернет
02:20
and do there hundredsстотици of thousandsхиляди
51
128668
2334
и да извърши стотици хиляди
02:23
of faceлице metricsпоказатели in a fewмалцина secondsсекунди?
52
131002
2639
лицеви анализи за секунди?
02:25
Well, we conjectureпредположения that the resultрезултат
53
133641
2628
Според нас резултатът
02:28
of this combinationсъчетание of technologiesтехнологии
54
136269
2064
от това комбиниране на технологии
02:30
will be a radicalрадикален changeпромяна in our very notionsпонятия
55
138333
2888
ще доведе до радикална промяна
02:33
of privacyповерителност and anonymityанонимност.
56
141221
2257
в разбиранията ни за лично пространство и анонимност.
02:35
To testтест that, we did an experimentексперимент
57
143478
1993
За да тестваме хипотезата си проведохме експеримент
02:37
on CarnegieКарнеги MellonМелън UniversityУниверситет campusкампус.
58
145471
2121
в университета „Карнеги Мелън“.
02:39
We askedпопитах studentsстуденти who were walkingходене by
59
147592
2099
Поканихме преминаващи покрай нас студенти
02:41
to participateучастие in a studyуча,
60
149691
1779
да вземат участие в изследване,
02:43
and we tookвзеха a shotизстрел with a webcamуеб камера,
61
151470
2562
след което ги снимахме с уебкамера
02:46
and we askedпопитах them to fillзапълни out a surveyизследване on a laptopлаптоп.
62
154032
2782
и ги помолихме да попълнят анкета на лаптоп.
02:48
While they were fillingпълнеж out the surveyизследване,
63
156814
1979
Докато попълваха анкетата
02:50
we uploadedкачен theirтехен shotизстрел to a cloud-computingизчислителни clusterструпване,
64
158793
2797
ние качихме снимката им в клауд компютинг клъстър
02:53
and we startedзапочна usingизползвайки a facialлицето recognizerсистемата за разпознаване
65
161590
1727
и използвайки програма за лицево разпознаване
02:55
to matchмач that shotизстрел to a databaseбаза данни
66
163317
2405
започнахме да сравняваме снимката с база данни,
02:57
of some hundredsстотици of thousandsхиляди of imagesснимки
67
165722
2393
включваща няколко стотин хиляди образа
03:00
whichкойто we had downloadedизтеглили from FacebookFacebook profilesпрофили.
68
168115
3596
свалени предварително от Facebook.
03:03
By the time the subjectпредмет reachedдостигнал the last pageстраница
69
171711
3259
За времето, за което субектите стигаха до последната страница на анкетата,
03:06
on the surveyизследване, the pageстраница had been dynamicallyдинамично updatedактуализиран
70
174970
3347
тя вече беше обновена
03:10
with the 10 bestнай-доброто matchingсъвпадение photosснимки
71
178317
2313
с десетте най-близки съвпадения на снимки,
03:12
whichкойто the recognizerсистемата за разпознаване had foundнамерено,
72
180630
2285
които програмата за разпознаване бе открила
03:14
and we askedпопитах the subjectsучебни предмети to indicateпосочат
73
182915
1738
и помолихме субектите да споделят
03:16
whetherдали he or she foundнамерено themselvesсебе си in the photoснимка.
74
184653
4120
дали виждат себе си на снимките.
03:20
Do you see the subjectпредмет?
75
188773
3699
Виждате ли субекта?
03:24
Well, the computerкомпютър did, and in factфакт did so
76
192472
2845
Компютърът го разпознаваше и то правилно
03:27
for one out of threeтри subjectsучебни предмети.
77
195317
2149
за един от трима участници.
03:29
So essentiallyпо същество, we can startначало from an anonymousанонимен faceлице,
78
197466
3184
На кратко, можем да започнем със снимка на анонимно лице,
03:32
offlineизвън линия or onlineна линия, and we can use facialлицето recognitionпризнаване
79
200650
3484
онлайн или не, и да използваме лицево разпознаване,
03:36
to give a nameиме to that anonymousанонимен faceлице
80
204134
2360
за да сложим име на лицето,
03:38
thanksБлагодаря to socialсоциален mediaсредства dataданни.
81
206494
2108
благодарение на данни от социалните медии.
03:40
But a fewмалцина yearsгодини back, we did something elseоще.
82
208602
1872
Няколко години по-рано обаче направихме нещо различно.
03:42
We startedзапочна from socialсоциален mediaсредства dataданни,
83
210474
1823
Започнахме с данни от социалните медии,
03:44
we combinedкомбиниран it statisticallyстатистически with dataданни
84
212297
3051
свързахме ги статистически с данни
03:47
from U.S. governmentправителство socialсоциален securityсигурност,
85
215348
2102
от Управлението за социално осигуряване на САЩ
03:49
and we endedприключила up predictingпредсказване socialсоциален securityсигурност numbersчисленост,
86
217450
3324
и успяхме да предвидим Номера за социално осигуряване,
03:52
whichкойто in the UnitedЮнайтед StatesДържавите
87
220774
1512
коeто в САЩ
03:54
are extremelyизвънредно sensitiveчувствителен informationинформация.
88
222286
2040
e изключително поверителна информация.
03:56
Do you see where I'm going with this?
89
224326
2093
Разбирате ли накъде отивам с това?
03:58
So if you combineкомбайн the two studiesпроучвания togetherзаедно,
90
226419
2922
Ако комбинирате двете изследвания
04:01
then the questionвъпрос becomesстава,
91
229341
1512
въпросът, който се питаме, е
04:02
can you startначало from a faceлице and,
92
230853
2720
дали може да се започне с лицето,
04:05
usingизползвайки facialлицето recognitionпризнаване, find a nameиме
93
233573
2311
използвайки лицево разпознаване да се намери име
04:07
and publiclyпублично availableна разположение informationинформация
94
235884
2669
и публично достъпна информация
04:10
about that nameиме and that personчовек,
95
238553
1932
за името и самия човек
04:12
and from that publiclyпублично availableна разположение informationинформация
96
240485
2248
и от тази публично достъпна информация
04:14
inferподразбирам non-publiclyпублично availableна разположение informationинформация,
97
242733
2042
да се направи извод за информация, която не е със свободен достъп,
04:16
much more sensitiveчувствителен onesтакива
98
244775
1606
много по-значима информация,
04:18
whichкойто you linkвръзка back to the faceлице?
99
246381
1492
която да се свърже обратно с лицето?
04:19
And the answerотговор is, yes, we can, and we did.
100
247873
1916
И отговорът е да, можем да го направим.
04:21
Of courseкурс, the accuracyточност keepsпродължава gettingполучаване на worseпо-лошо.
101
249789
2568
Разбира се точността става все по-лоша.
04:24
[27% of subjects'субектите на first 5 SSNSSN digitsцифри identifiedидентифициран (with 4 attemptsопити)]
102
252357
944
[В 27% от случаите първите 5 цифри на Номера за социално осигуряване са разпознати (от 4 опита)]
04:25
But in factфакт, we even decidedреши to developразвият an iPhoneiPhone appап
103
253301
3827
Всъщност, дори разработихме и апликация за iPhone,
04:29
whichкойто usesупотреби the phone'sтелефон internalвътрешен cameraкамера
104
257128
2715
която използва вградената камера на телефона,
04:31
to take a shotизстрел of a subjectпредмет
105
259843
1600
за да направи снимка на субекта,
04:33
and then uploadкачване it to a cloudоблак
106
261443
1487
да я качи в информационен облак
04:34
and then do what I just describedописан to you in realреален time:
107
262930
2662
и да извърши това, което току-що обясних:
04:37
looking for a matchмач, findingнамиране publicобществен informationинформация,
108
265592
2088
търси съвпадение, намира публично достъпна информация,
04:39
tryingопитвайки to inferподразбирам sensitiveчувствителен informationинформация,
109
267680
1730
прави опит за извеждане на поверителна информация,
04:41
and then sendingизпращане back to the phoneтелефон
110
269410
2591
след което я изпраща обратно до телефона,
04:44
so that it is overlaidобкова on the faceлице of the subjectпредмет,
111
272001
3609
който я налага върху лицето на субекта,
04:47
an exampleпример of augmentedподсилена realityреалност,
112
275610
1901
пример за добавена реалност,
04:49
probablyвероятно a creepyстраховито exampleпример of augmentedподсилена realityреалност.
113
277511
2451
вероятно зловещ пример за такава.
04:51
In factфакт, we didn't developразвият the appап to make it availableна разположение,
114
279962
3339
Реално не създадохме апликацията, за да я предоставим на потребители,
04:55
just as a proofдоказателство of conceptпонятие.
115
283301
1922
а само като доказване на концепция.
04:57
In factфакт, take these technologiesтехнологии
116
285223
2313
Замислете се, вземете тези технологии
04:59
and pushтласък them to theirтехен logicalлогичен extremeекстремни.
117
287536
1837
и ги доведете до екстремност.
05:01
ImagineПредставете си a futureбъдеще in whichкойто strangersнепознати around you
118
289373
2719
Представете си бъдеще, в което непознати
05:04
will look at you throughпрез theirтехен GoogleGoogle GlassesОчила
119
292092
2311
ви гледат през Гугъл очила
05:06
or, one day, theirтехен contactконтакт lensesлещи,
120
294403
2307
или, някой ден, контактните си лещи
05:08
and use sevenседем or eightосем dataданни pointsточки about you
121
296710
4020
и използват седем или осем факта за вас
05:12
to inferподразбирам anything elseоще
122
300730
2582
и правят извод за всичко останало,
05:15
whichкойто mayможе be knownизвестен about you.
123
303312
2603
което може да се знае за вас.
05:17
What will this futureбъдеще withoutбез secretsтайни look like?
124
305915
4794
Как ще изглежда такова бъдеще без тайни?
05:22
And should we careгрижа?
125
310709
1964
И трябва ли да ни интересува?
05:24
We mayможе like to believe
126
312673
1891
Бихме искали да вярваме,
05:26
that the futureбъдеще with so much wealthблагосъстояние of dataданни
127
314564
3040
че бъдеще с такова изобилие от данни
05:29
would be a futureбъдеще with no more biasesпристрастия,
128
317604
2514
ще е бъдеще без предразсъдъци,
05:32
but in factфакт, havingкато so much informationинформация
129
320118
3583
но всъщност достъпът до толкова много информация
05:35
doesn't mean that we will make decisionsрешения
130
323701
2191
не означава, че ще взимаме
05:37
whichкойто are more objectiveобективен.
131
325892
1706
по-обективни решения.
05:39
In anotherоще experimentексперимент, we presentedпредставено to our subjectsучебни предмети
132
327598
2560
В друг експеримент представихме на субектите си информация
05:42
informationинформация about a potentialпотенциал jobработа candidateкандидат.
133
330158
2246
за потенциален кандидат за работа.
05:44
We includedвключен in this informationинформация some referencesпрепратки
134
332404
3178
В предоставената информация имаше и препратки
05:47
to some funnyзабавен, absolutelyабсолютно legalправен,
135
335582
2646
към забавна, напълно законна,
05:50
but perhapsможе би slightlyмалко embarrassingнеудобно informationинформация
136
338228
2465
но може би малко засрамваща информация,
05:52
that the subjectпредмет had postedе публикувал onlineна линия.
137
340693
2020
която кандидатите бяха публикували онлайн.
05:54
Now interestinglyинтересното, amongсред our subjectsучебни предмети,
138
342713
2366
Интересното е, че сред нашите субекти имаше такива,
05:57
some had postedе публикувал comparableподобен informationинформация,
139
345079
3083
които бяха публикували сходна информация,
06:00
and some had not.
140
348162
2362
и такива, които не бяха.
06:02
WhichКоито groupгрупа do you think
141
350524
1949
Коя група според вас
06:04
was more likelyвероятно to judgeсъдия harshlyостро our subjectпредмет?
142
352473
4552
бе по-критична към кандидата за работа?
06:09
ParadoxicallyПарадоксално, it was the groupгрупа
143
357025
1957
Парадоксално, това бе групата,
06:10
who had postedе публикувал similarподобен informationинформация,
144
358982
1733
в която хората бяха публикували сходна информация,
06:12
an exampleпример of moralморален dissonanceдисонанс.
145
360715
2942
пример за морално несъответствие.
06:15
Now you mayможе be thinkingмислене,
146
363657
1750
Може би си мислите
06:17
this does not applyПриложи to me,
147
365407
1702
"Това не се отнася до мен,
06:19
because I have nothing to hideКрия.
148
367109
2162
защото нямам какво да крия".
06:21
But in factфакт, privacyповерителност is not about
149
369271
2482
Фактите са, че при поверителността
06:23
havingкато something negativeотрицателен to hideКрия.
150
371753
3676
не е задължително да криете нещо лошо.
06:27
ImagineПредставете си that you are the H.R. directorдиректор
151
375429
2354
Представете си, че сте на чело на отдел човешки ресурси
06:29
of a certainопределен organizationорганизация, and you receiveполучавамsumсумаés,
152
377783
2947
в дадена организация и получавате резюмета,
06:32
and you decideреши to find more informationинформация about the candidatesкандидати.
153
380730
2473
и решавате да потърсите по-подробна информация за кандидатите.
06:35
ThereforeСледователно, you GoogleGoogle theirтехен namesимена
154
383203
2460
Следователно търсите имената им в Гугъл
06:37
and in a certainопределен universeвселена,
155
385663
2240
и в една реалност
06:39
you find this informationинформация.
156
387903
2008
откривате тази информация.
06:41
Or in a parallelпаралелен universeвселена, you find this informationинформация.
157
389911
4437
А в друга реалност откривате тази информация.
06:46
Do you think that you would be equallyпо равно likelyвероятно
158
394348
2717
Мислите ли, че ще бъдете еднакво склонен
06:49
to call eitherедин candidateкандидат for an interviewинтервю?
159
397065
2803
да се обадите на някоя от кандидатките за интервю?
06:51
If you think so, then you are not
160
399868
2282
Ако мислите така, значи сте различни
06:54
like the U.S. employersработодателите who are, in factфакт,
161
402150
2582
от американските работодатели, които са, всъщност,
06:56
partчаст of our experimentексперимент, meaningзначение we did exactlyточно that.
162
404732
3307
част от нашия експеримент, т.е. направихме точно това.
07:00
We createdсъздаден FacebookFacebook profilesпрофили, manipulatingманипулиране traitsчерти,
163
408039
3182
Създадохме профили във Facebook, изменяйки дадени характеристики,
07:03
then we startedзапочна sendingизпращане out résumсумаés to companiesкомпании in the U.S.,
164
411221
2851
след което започнахме да изпращаме резюмета до работодатели в САЩ
07:06
and we detectedоткрити, we monitoredнаблюдавани,
165
414072
1908
и следяхме
07:07
whetherдали they were searchingтърсене for our candidatesкандидати,
166
415980
2393
дали търсят кандидатите ни
07:10
and whetherдали they were actingактьорско майсторство on the informationинформация
167
418373
1832
и дали взимаха под внимание информацията,
07:12
they foundнамерено on socialсоциален mediaсредства. And they were.
168
420205
1938
намерена в социалните медии. Правеха точно това.
07:14
DiscriminationДискриминация was happeningслучва throughпрез socialсоциален mediaсредства
169
422143
2101
Кандидати с еднакви способности бяха дискриминирани
07:16
for equallyпо равно skilledопитен candidatesкандидати.
170
424244
3073
на база социални медии.
07:19
Now marketersмаркетинг like us to believe
171
427317
4575
Маркетолозите искат да вярваме,
07:23
that all informationинформация about us will always
172
431892
2269
че всяка информация за нас
07:26
be used in a mannerначин whichкойто is in our favorуслуга.
173
434161
3273
винаги ще се използва в наша полза.
07:29
But think again. Why should that be always the caseслучай?
174
437434
3715
Помислете отново. Защо мислите, че винаги ще е така?
07:33
In a movieфилм whichкойто cameдойде out a fewмалцина yearsгодини agoпреди,
175
441149
2664
Във филм отпреди няколко години,
07:35
"MinorityМалцинство ReportДоклад," a famousизвестен sceneсцена
176
443813
2553
"Специален доклад", в известна сцена
07:38
had TomТом CruiseКруиз walkразходка in a mallтърговски център
177
446366
2576
Том Круз влиза в мол
07:40
and holographicхолографски personalizedперсонализирани advertisingреклама
178
448942
3776
и персонализирани холограмни реклами
07:44
would appearсе появи around him.
179
452718
1835
се появяват около него.
07:46
Now, that movieфилм is setкомплект in 2054,
180
454553
3227
Действието се случва през 2054г.,
07:49
about 40 yearsгодини from now,
181
457780
1642
след около 40 години,
07:51
and as excitingвълнуващ as that technologyтехнология looksвъншност,
182
459422
2908
и колкото и вълнуваща да изглежда тази технология
07:54
it alreadyвече vastlyмного underestimatesподценява
183
462330
2646
тя вече подценява
07:56
the amountколичество of informationинформация that organizationsорганизации
184
464976
2140
количеството информация, което организациите
07:59
can gatherсъбирам about you, and how they can use it
185
467116
2483
могат да съберат за вас, и как могат да я използват,
08:01
to influenceвлияние you in a way that you will not even detectоткриване.
186
469599
3398
за да ви повлияят по начин, който дори няма да осъзнаете.
08:04
So as an exampleпример, this is anotherоще experimentексперимент
187
472997
2103
Като пример ще ви дам друг експеримент,
08:07
actuallyвсъщност we are runningбягане, not yetоще completedзавършен.
188
475100
2273
който провеждаме, все още незавършен.
08:09
ImagineПредставете си that an organizationорганизация has accessдостъп
189
477373
2319
Представете си, че някоя организация има достъп
08:11
to your listсписък of FacebookFacebook friendsприятели,
190
479692
2056
до списъка ви с приятели във Facebook
08:13
and throughпрез some kindмил of algorithmалгоритъм
191
481748
1772
и използвайки някакъв алгоритъм
08:15
they can detectоткриване the two friendsприятели that you like the mostнай-много.
192
483520
3734
може да открие двамата приятели, които харесвате най-много.
08:19
And then they createсъздавам, in realреален time,
193
487254
2280
Също така може, в реално време, да направят
08:21
a facialлицето compositeкомбиниран of these two friendsприятели.
194
489534
2842
нереално съчетание от тези двама приятели.
08:24
Now studiesпроучвания priorпреди to oursнаш have shownпосочен that people
195
492376
3069
Проведени изследвания преди нашето са показали,
08:27
don't recognizeпризнавам any longerповече време even themselvesсебе си
196
495445
2885
че хората не разпознават дори себе си
08:30
in facialлицето compositesкомпозити, but they reactреагирам
197
498330
2462
в лицеви компилации, но реагират
08:32
to those compositesкомпозити in a positiveположителен mannerначин.
198
500792
2117
на компилациите по положителен начин.
08:34
So nextследващия time you are looking for a certainопределен productпродукт,
199
502909
3415
И следващият път когато търсите определен продукт
08:38
and there is an adреклама suggestingкоето предполага, you to buyКупувам it,
200
506324
2559
и има реклама, която ви предлага да го купите,
08:40
it will not be just a standardстандарт spokespersonговорител.
201
508883
2907
няма да е просто обикновеният говорител.
08:43
It will be one of your friendsприятели,
202
511790
2313
Ще бъде един от приятелите ви,
08:46
and you will not even know that this is happeningслучва.
203
514103
3303
а вие дори няма да осъзнавате, че се случва нещо подобно.
08:49
Now the problemпроблем is that
204
517406
2413
Проблемът идва от това,
08:51
the currentтекущ policyполитика mechanismsмеханизми we have
205
519819
2519
че механизмите, които имаме
08:54
to protectзащитавам ourselvesсебе си from the abusesзлоупотреби of personalперсонален informationинформация
206
522338
3438
за защита от експлоатация на личните ни данни
08:57
are like bringingпривеждане a knifeнож to a gunfightпрестрелка.
207
525776
2984
са като нож по средата на престрелка.
09:00
One of these mechanismsмеханизми is transparencyпрозрачност,
208
528760
2913
Един от тези механизми е прозрачност,
09:03
tellingказвам people what you are going to do with theirтехен dataданни.
209
531673
3200
да се казва на хората за какво ще се използват данните им.
09:06
And in principleпринцип, that's a very good thing.
210
534873
2106
По принцип това е нещо много хубаво.
09:08
It's necessaryнеобходимо, but it is not sufficientдостатъчно.
211
536979
3667
Нужно е, но не е достатъчно.
09:12
TransparencyПрозрачност can be misdirectedдруга инстанция.
212
540646
3698
Прозрачността може да е подвеждаща.
09:16
You can tell people what you are going to do,
213
544344
2104
Можеш да кажеш на човек какво ще направиш,
09:18
and then you still nudgeПобутни them to discloseоповести
214
546448
2232
след което да го подканваш да сподели
09:20
arbitraryсвоеволен amountsсуми of personalперсонален informationинформация.
215
548680
2623
произволен набор лична информация.
09:23
So in yetоще anotherоще experimentексперимент, this one with studentsстуденти,
216
551303
2886
В един друг експеримент, проведен със студенти,
09:26
we askedпопитах them to provideпредоставяне informationинформация
217
554189
3058
ги помолихме да споделят информация
09:29
about theirтехен campusкампус behaviorповедение,
218
557247
1813
за поведението си в университета,
09:31
includingвключително prettyкрасива sensitiveчувствителен questionsвъпроси, suchтакъв as this one.
219
559060
2940
включително доста чувствителни въпроси като този.
09:34
[Have you ever cheatedизлъган in an examизпит?]
220
562000
621
[Преписвали ли сте на изпит?]
09:34
Now to one groupгрупа of subjectsучебни предмети, we told them,
221
562621
2300
На една от групите студенти казахме:
09:36
"Only other studentsстуденти will see your answersотговори."
222
564921
2841
"Само други студенти ще видят отговорите ви."
09:39
To anotherоще groupгрупа of subjectsучебни предмети, we told them,
223
567762
1579
На друга група студенти казахме:
09:41
"StudentsСтуденти and facultyфакултет will see your answersотговори."
224
569341
3561
"Студенти и преподаватели ще видят отговорите ви."
09:44
TransparencyПрозрачност. NotificationУведомяване. And sure enoughдостатъчно, this workedработил,
225
572902
2591
Прозрачност. Информиране. И естествено, проработи
09:47
in the senseсмисъл that the first groupгрупа of subjectsучебни предмети
226
575493
1407
в смисъла, че студентите в първата група
09:48
were much more likelyвероятно to discloseоповести than the secondвтори.
227
576900
2568
бяха много по-склонни да си признаят от тези във втората.
09:51
It makesправи senseсмисъл, right?
228
579468
1520
Има смисъл, нали?
09:52
But then we addedдобавен the misdirectionгрешна посока.
229
580988
1490
После обаче добавихме и заблуда.
09:54
We repeatedповторен the experimentексперимент with the sameедин и същ two groupsгрупи,
230
582478
2760
Повторихме експеримента със същите две групи,
09:57
this time addingдобавяне a delayзакъснение
231
585238
2427
но прибавихме забавяне
09:59
betweenмежду the time we told subjectsучебни предмети
232
587665
2935
между момента, в който казахме на участниците
10:02
how we would use theirтехен dataданни
233
590600
2080
как ще използваме данните им, и момента,
10:04
and the time we actuallyвсъщност startedзапочна answeringтелефонен the questionsвъпроси.
234
592680
4388
в който реално започнахме да им задаваме въпроси.
10:09
How long a delayзакъснение do you think we had to addдобави
235
597068
2561
Колко време трябваше да добавим, според вас,
10:11
in orderпоръчка to nullifyобезсилва the inhibitoryинхибиторен effectефект
236
599629
4613
за да премахнем задръжките
10:16
of knowingпознаване that facultyфакултет would see your answersотговори?
237
604242
3411
от факта, че преподаватели ще видят отговорите?
10:19
TenДесет minutesминути?
238
607653
1780
Десет минути?
10:21
FiveПет minutesминути?
239
609433
1791
Пет минути?
10:23
One minuteминута?
240
611224
1776
Една минута?
10:25
How about 15 secondsсекунди?
241
613000
2049
Какво ще кажете за 15 секунди?
10:27
FifteenПетнадесет secondsсекунди were sufficientдостатъчно to have the two groupsгрупи
242
615049
2668
Петнадесет секунди бяха достатъчни, за да се изравни
10:29
discloseоповести the sameедин и същ amountколичество of informationинформация,
243
617717
1568
количеството информация, споделено от двете групи,
10:31
as if the secondвтори groupгрупа now no longerповече време caresгрижи
244
619285
2746
сякаш втората група вече не се интересуваше,
10:34
for facultyфакултет readingчетене theirтехен answersотговори.
245
622031
2656
че преподаватели ще прочетат отговорите им.
10:36
Now I have to admitпризнавам that this talk so farдалече
246
624687
3336
Трябва да си призная, че до момента тази лекция
10:40
mayможе soundзвук exceedinglyизключително gloomyмрачен,
247
628023
2480
звучи изключително мрачно,
10:42
but that is not my pointточка.
248
630503
1721
но не това е идеята ми.
10:44
In factфакт, I want to shareдял with you the factфакт that
249
632224
2699
Всъщност бих искал да споделя с вас,
10:46
there are alternativesалтернативи.
250
634923
1772
че има и алтернативи.
10:48
The way we are doing things now is not the only way
251
636695
2499
Начинът, по който вършим нещата сега, не е единственият начин,
10:51
they can doneСвършен, and certainlyразбира се not the bestнай-доброто way
252
639194
3037
по който могат да се свършат, и със сигурност
10:54
they can be doneСвършен.
253
642231
2027
не е най-добрият.
10:56
When someoneнякой tellsразказва you, "People don't careгрижа about privacyповерителност,"
254
644258
4171
Когато някой ви каже, че "хората не ги е грижа поверителността им"
11:00
considerобмислям whetherдали the gameигра has been designedпроектиран
255
648429
2642
замислете се дали играта не е проектирана
11:03
and riggedтакелаж so that they cannotне мога careгрижа about privacyповерителност,
256
651071
2724
и изкривена по такъв начин, че хората да не могат да са загрижени
11:05
and comingидващ to the realizationреализация that these manipulationsманипулации occurвъзникне
257
653795
3262
и осъзнавайки, че тези манипулации вече са на лице
11:09
is alreadyвече halfwayна половината път throughпрез the processпроцес
258
657057
1607
е половината от това
11:10
of beingсъщество ableспособен to protectзащитавам yourselfсебе си.
259
658664
2258
да защитите личната си информация.
11:12
When someoneнякой tellsразказва you that privacyповерителност is incompatibleнесъвместима
260
660922
3710
Когато някой ви каже, че поверителност и ползата от големи бази данни
11:16
with the benefitsПолзи of bigголям dataданни,
261
664632
1849
не вървят ръка за ръка,
11:18
considerобмислям that in the last 20 yearsгодини,
262
666481
2473
обмислете факта, че през последните 20 години
11:20
researchersизследователи have createdсъздаден technologiesтехнологии
263
668954
1917
изследователите са създали технологии,
11:22
to allowпозволява virtuallyна практика any electronicелектронен transactionsтранзакции
264
670871
3318
които позволяват практически всеки вид електронна транзакция
11:26
to take placeмясто in a more privacy-preservingзапазване на поверителност mannerначин.
265
674189
3749
да бъде извършена по начин, запазващ поверителността ѝ.
11:29
We can browseПреглед the InternetИнтернет anonymouslyанонимно.
266
677938
2555
Можем да сърфираме в Интернет анонимно.
11:32
We can sendизпращам emailsимейли that can only be readПрочети
267
680493
2678
Можем да изпращаме е-писма, които да бъдат прочетени
11:35
by the intendedпредназначено recipientполучател, not even the NSAНСА.
268
683171
3709
само от избрания получател, защитени дори от Агенцията по национална сигурност.
11:38
We can have even privacy-preservingзапазване на поверителност dataданни miningминен.
269
686880
2997
Можем дори да търсим данни без да нарушаваме нечие лично пространство.
11:41
In other wordsдуми, we can have the benefitsПолзи of bigголям dataданни
270
689877
3894
С други думи можем да съчетаем
11:45
while protectingзащита privacyповерителност.
271
693771
2132
голямото количество данни и поверителността.
11:47
Of courseкурс, these technologiesтехнологии implyпредполагат a shiftingизместване
272
695903
3791
Разбира се, тези технологии биха предизвикали промяна
11:51
of costцена and revenuesприходи
273
699694
1546
в цената и прихода
11:53
betweenмежду dataданни holdersпритежателите and dataданни subjectsучебни предмети,
274
701240
2107
за собствениците на данни и субектите на тези данни,
11:55
whichкойто is why, perhapsможе би, you don't hearчувам more about them.
275
703347
3453
което е причината, вероятно, да не се говори за тези технологии.
11:58
WhichКоито bringsноси me back to the GardenГрадина of EdenEden.
276
706800
3706
Което ме връща отново към Райската градина.
12:02
There is a secondвтори privacyповерителност interpretationустен превод
277
710506
2780
Има и друга интерпретация на поверителността
12:05
of the storyистория of the GardenГрадина of EdenEden
278
713286
1809
в историята за Райската градина,
12:07
whichкойто doesn't have to do with the issueпроблем
279
715095
2096
която не разглежда проблема
12:09
of AdamАдам and EveЕва feelingчувство nakedгол
280
717191
2225
за голотата и срама
12:11
and feelingчувство ashamedзасрамен.
281
719416
2381
на Адам и Ева.
12:13
You can find echoesехо of this interpretationустен превод
282
721797
2781
Отзвук от тази интерпретация може да се открие
12:16
in JohnДжон Milton'sМилтън "ParadiseРай LostИзгубени."
283
724578
2782
в поемата на Джон Милтън "Изгубеният рай".
12:19
In the gardenградина, AdamАдам and EveЕва are materiallyсъществено contentсъдържание.
284
727360
4197
В градината Адам и Ева са материално удовлетворени.
12:23
They're happyщастлив. They are satisfiedудовлетворен.
285
731557
2104
Щастливи са. Задоволени са.
12:25
HoweverВъпреки това, they alsoсъщо lackлипса knowledgeзнание
286
733661
2293
От друга страна им липсва знание
12:27
and self-awarenessсамосъзнание.
287
735954
1640
и себе-осъзнатост.
12:29
The momentмомент they eatЯжте the aptlyловко namedна име
288
737594
3319
Моментът, в който изяждат, уместно наречения,
12:32
fruitплодове of knowledgeзнание,
289
740913
1293
плод на знанието,
12:34
that's when they discoverоткривам themselvesсебе си.
290
742206
2605
е моментът, в който откриват себе си.
12:36
They becomeда стане awareосведомен. They achieveпостигане autonomyавтономия.
291
744811
4031
Осъзнават. Постигат автономност.
12:40
The priceцена to payплащам, howeverвъпреки това, is leavingоставяйки the gardenградина.
292
748842
3126
Цената, която плащат обаче, е напускането на градината.
12:43
So privacyповерителност, in a way, is bothи двете the meansсредства
293
751968
3881
Следва, че поверителността е както средството,
12:47
and the priceцена to payплащам for freedomсвобода.
294
755849
2962
така и цената на свободата.
12:50
Again, marketersмаркетинг tell us
295
758811
2770
И отново, маркетолозите ни казват,
12:53
that bigголям dataданни and socialсоциален mediaсредства
296
761581
3019
че изобилието от данни и социалните медии
12:56
are not just a paradiseрай of profitпечалба for them,
297
764600
2979
са не просто рай за тях,
12:59
but a GardenГрадина of EdenEden for the restПочивка of us.
298
767579
2457
но и Райска градина за всички нас.
13:02
We get freeБезплатно contentсъдържание.
299
770036
1238
Получаваме безплатни неща.
13:03
We get to playиграя AngryЯдосан BirdsПтици. We get targetedцеленасочена appsприложения.
300
771274
3123
Можем да играем Angry Birds. Рекламите са насочени точно към нас.
13:06
But in factфакт, in a fewмалцина yearsгодини, organizationsорганизации
301
774397
2897
Всъщност, след няколко години
13:09
will know so much about us,
302
777294
1609
организациите ще знаят толкова много за нас,
13:10
they will be ableспособен to inferподразбирам our desiresжеланията
303
778903
2710
че ще предвиждат желанията ни
13:13
before we even formформа them, and perhapsможе би
304
781613
2204
преди дори да ги имаме и вероятно
13:15
buyКупувам productsпродукти on our behalfимето
305
783817
2447
ще купуват продукти от наше име
13:18
before we even know we need them.
306
786264
2274
преди дори да осъзнаем, че ни трябват.
13:20
Now there was one EnglishАнглийски authorавтор
307
788538
3237
Имаше един английски автор,
13:23
who anticipatedочакван this kindмил of futureбъдеще
308
791775
3045
който очакваше такова бъдеще,
13:26
where we would tradeтърговия away
309
794820
1405
в което ще се отказваме
13:28
our autonomyавтономия and freedomсвобода for comfortкомфорт.
310
796225
3548
от автономност и свобода в замяна на удобство.
13:31
Even more so than GeorgeДжордж OrwellОруел,
311
799773
2161
Повече дори от Джордж Оруел,
13:33
the authorавтор is, of courseкурс, AldousОлдъс HuxleyХъксли.
312
801934
2761
този автор е, разбира се, Олдъс Хъксли.
13:36
In "BraveСмел NewНов WorldСветът," he imaginesси въобразява a societyобщество
313
804695
2854
В „Прекрасният нов свят“ той си представя общество,
13:39
where technologiesтехнологии that we createdсъздаден
314
807549
2171
в което технологиите, разработени от нас
13:41
originallyпървоначално for freedomсвобода
315
809720
1859
по начало за по-голяма свобода,
13:43
endкрай up coercingпринуждаване us.
316
811579
2567
в крайна сметка ни управляват.
13:46
HoweverВъпреки това, in the bookКнига, he alsoсъщо offersоферти us a way out
317
814146
4791
В книгата обаче авторът ни показва и пътя
13:50
of that societyобщество, similarподобен to the pathпът
318
818937
3438
водещ извън това общество, подобен на пътя,
13:54
that AdamАдам and EveЕва had to followпоследвам to leaveоставям the gardenградина.
319
822375
3955
който Адам и Ева поемат, за да излязат от градината.
13:58
In the wordsдуми of the SavageСавидж,
320
826330
2147
По думите на Дивака,
14:00
regainingвъзвръщане autonomyавтономия and freedomсвобода is possibleвъзможен,
321
828477
3069
възвръщането на автономност и свобода е възможно,
14:03
althoughмакар че the priceцена to payплащам is steepстръмен.
322
831546
2679
дори цената да е висока.
14:06
So I do believe that one of the definingдефиниране fightsбоеве
323
834225
5715
Така че аз вярвам, че една от определящите битки на нашето време
14:11
of our timesпъти will be the fightбитка
324
839940
2563
ще бъде битката за контрол
14:14
for the controlконтрол over personalперсонален informationинформация,
325
842503
2387
върху личната информация,
14:16
the fightбитка over whetherдали bigголям dataданни will becomeда стане a forceсила
326
844890
3507
битката за определяне на голямото количество информация
14:20
for freedomсвобода,
327
848397
1289
като сила за освобождаване
14:21
ratherпо-скоро than a forceсила whichкойто will hiddenlyp.p. от hide manipulateманипулирам us.
328
849686
4746
или инструмент за манипулиране.
14:26
Right now, manyмного of us
329
854432
2593
В момента много от нас
14:29
do not even know that the fightбитка is going on,
330
857025
2753
дори не знаят, че битката е започнала,
14:31
but it is, whetherдали you like it or not.
331
859778
2672
но тя започна, дори това да не ни харесва.
14:34
And at the riskриск of playingиграете the serpentзмия,
332
862450
2804
И с риск да вляза в ролята на змията
14:37
I will tell you that the toolsинструменти for the fightбитка
333
865254
2897
ще ви кажа, че оръжията за битката са тук,
14:40
are here, the awarenessосъзнаване of what is going on,
334
868151
3009
осъзнаване на случващото се,
14:43
and in your handsръце,
335
871160
1355
и във вашите ръце,
14:44
just a fewмалцина clicksкликвания away.
336
872515
3740
само на няколко клика разстояние.
14:48
Thank you.
337
876255
1482
Благодаря ви.
14:49
(ApplauseАплодисменти)
338
877737
4477
(Аплодисменти)
Translated by Preslav Nikolov
Reviewed by Yavor Ivanov

▲Back to top

ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com