ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com
TEDGlobal 2013

Alessandro Acquisti: What will a future without secrets look like?

Алессандро Аквисти: О значимости конфиденциальности

Filmed:
1,423,103 views

За последние 10 лет граница между публичной и частной жизнью оказалась размыта, и Алессандро Аквисти рассказывает, что это означает и почему это важно. В этой дающей пищу для размышлений и слегка пугающей речи он делится результатами проделанных и текущих исследований, в том числе и экспериментом, который показывает, как легко по фотографии незнакомца найти сугубо личную информацию.
- Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks. Full bio

Double-click the English transcript below to play the video.

00:12
I would like to tell you a storyистория
0
641
2354
Я хотел бы рассказать вам историю,
00:14
connectingсоединительный the notoriousпечально известный privacyКонфиденциальность incidentинцидент
1
2995
3176
которая объединяет пресловутый случай
00:18
involvingс привлечением AdamАдам and EveЕва,
2
6171
2769
с участием Адама и Евы
00:20
and the remarkableзамечательный shiftсдвиг in the boundariesграницы
3
8940
3446
и ту поразительную перемену границы
00:24
betweenмежду publicобщественности and privateчастный whichкоторый has occurredпроизошло
4
12386
2686
между публичным и личным,
которая произошла
00:27
in the pastмимо 10 yearsлет.
5
15072
1770
за последние 10 лет.
00:28
You know the incidentинцидент.
6
16842
1298
Случай вам известен.
00:30
AdamАдам and EveЕва one day in the GardenСад of EdenЭдем
7
18140
3330
Как-то раз в Эдемском саду Адам и Ева
00:33
realizeпонимать they are nakedобнаженный.
8
21470
1843
поняли, что они голые.
00:35
They freakурод out.
9
23313
1500
Они пришли в ужас.
00:36
And the restотдых is historyистория.
10
24813
2757
А остальное — уже история.
00:39
NowadaysВ наше время, AdamАдам and EveЕва
11
27570
2188
Сегодня Адам и Ева
00:41
would probablyвероятно actакт differentlyиначе.
12
29758
2361
вели бы себя по-другому.
00:44
[@AdamАдам Last niteконечны was a blastвзрыв! lovedлюбимый datДат appleяблоко LOLлол]
13
32119
2268
@Адам: Прошлая ночь удалась!
Прикольное яблочко LOL
00:46
[@EveЕва yepАга.. babeмладенец, know what happenedполучилось to my pantsбрюки thoТхо?]
14
34387
1873
@Ева: да...детка, знаешь,
что случилось с моими штанами?
00:48
We do revealвыявить so much more informationИнформация
15
36260
2636
Мы действительно раскрываем
значительно больше информации
00:50
about ourselvesсами onlineонлайн than ever before,
16
38896
3334
о самих себе,
чем когда-либо раньше,
00:54
and so much informationИнформация about us
17
42230
1704
и гораздо больше информации о нас
00:55
is beingявляющийся collectedсобранный by organizationsорганизации.
18
43934
2224
собирается организациями.
00:58
Now there is much to gainусиление and benefitвыгода
19
46158
3282
Сегодня можно получить
много полезного
01:01
from this massiveмассивный analysisанализ of personalличный informationИнформация,
20
49440
2446
из анализа персональных данных
01:03
or bigбольшой dataданные,
21
51886
1946
или большого объёма информации,
01:05
but there are alsoтакже complexсложный tradeoffsкомпромиссные that come
22
53832
2638
но так же приходится идти
на ряд непростых компромиссов
01:08
from givingдающий away our privacyКонфиденциальность.
23
56470
3098
из-за потери нашей конфиденциальности.
01:11
And my storyистория is about these tradeoffsкомпромиссные.
24
59568
4023
Мой рассказ об этих компромиссах.
01:15
We startНачало with an observationнаблюдение whichкоторый, in my mindразум,
25
63591
2584
Начнём мы с наблюдения,
результат которого, по моему мнению,
01:18
has becomeстали clearerпонятнее and clearerпонятнее in the pastмимо fewмало yearsлет,
26
66175
3327
становится всё более ясным
за последние несколько лет,
01:21
that any personalличный informationИнформация
27
69502
2097
а именно то, что любая
персональная информация
01:23
can becomeстали sensitiveчувствительный informationИнформация.
28
71599
2285
может стать деликатной.
01:25
Back in the yearгод 2000, about 100 billionмиллиард photosфото
29
73884
4125
Ещё в 2000 году в мире было сделано
01:30
were shotвыстрел worldwideМировой,
30
78009
1912
около 100 миллиардов фото,
01:31
but only a minusculeминускул proportionдоля of them
31
79921
3065
но лишь мизерная их часть
01:34
were actuallyна самом деле uploadedзакачанный onlineонлайн.
32
82986
1883
была действительно загружена онлайн.
01:36
In 2010, only on Facebookfacebook, in a singleОдин monthмесяц,
33
84869
3361
В 2010 году только
на Facebook ежемесячно
01:40
2.5 billionмиллиард photosфото were uploadedзакачанный,
34
88230
3270
загружалось 2,5 миллиарда фотографий,
01:43
mostбольшинство of them identifiedидентифицированный.
35
91500
1882
и большинство из них идентифицированы.
01:45
In the sameодна и та же spanпролет of time,
36
93382
1880
В то же самое время,
01:47
computers'компьютеры abilityспособность to recognizeпризнать people in photosфото
37
95262
4870
способность компьютеров
распознавать людей на фото
01:52
improvedулучшен by threeтри ordersзаказы of magnitudeвеличина.
38
100132
3608
улучшилась на три порядка.
01:55
What happensпроисходит when you combineскомбинировать
39
103740
1882
Что же происходит, когда вы соединяете
01:57
these technologiesтехнологии togetherвместе:
40
105622
1501
эти технологии вместе:
01:59
increasingповышение availabilityдоступность of facialлицевой dataданные;
41
107123
2658
увеличение доступности
персональных данных;
02:01
improvingулучшение facialлицевой recognizingпризнавая abilityспособность by computersкомпьютеры;
42
109781
3648
улучшение компьютерного распознания лиц;
02:05
but alsoтакже cloudоблако computingвычисления,
43
113429
2182
а так же облачные вычисления,
02:07
whichкоторый givesдает anyoneкто угодно in this theaterтеатр
44
115611
1888
которые дают любому в этом зале
02:09
the kindсвоего рода of computationalвычислительный powerмощность
45
117499
1560
такую вычислительную мощность,
02:11
whichкоторый a fewмало yearsлет agoтому назад was only the domainдомен
46
119059
1886
которая ещё несколько лет назад была
02:12
of three-letterтри буквы agenciesагентства;
47
120945
1782
только у спецслужб;
02:14
and ubiquitousвездесущий computingвычисления,
48
122727
1378
и распределённые вычисления,
02:16
whichкоторый allowsпозволяет my phoneТелефон, whichкоторый is not a supercomputerсуперкомпьютер,
49
124105
2892
которые позволяют моему телефону,
не будучи суперкомпьютером,
02:18
to connectсоединять to the Internetинтернет
50
126997
1671
подключаться к интернету
02:20
and do there hundredsсотни of thousandsтысячи
51
128668
2334
и просматривать там сотни тысяч
02:23
of faceлицо metricsметрика in a fewмало secondsсекунд?
52
131002
2639
метрик лица за несколько секунд?
02:25
Well, we conjectureдогадка that the resultрезультат
53
133641
2628
Ну, мы предполагаем, что результат
02:28
of this combinationсочетание of technologiesтехнологии
54
136269
2064
такой комбинации технологий
02:30
will be a radicalрадикал changeизменение in our very notionsпонятия
55
138333
2888
радикально изменит наши понятия
02:33
of privacyКонфиденциальность and anonymityанонимность.
56
141221
2257
о конфиденциальности и анонимности.
02:35
To testконтрольная работа that, we did an experimentэксперимент
57
143478
1993
Чтобы проверить это,
мы провели эксперимент
02:37
on CarnegieКарнеги MellonMellon UniversityУниверситет campusкампус.
58
145471
2121
на кампусе университета Карнеги-Меллон.
02:39
We askedспросил studentsстуденты who were walkingгулять пешком by
59
147592
2099
Мы попросили проходящих мимо студентов
02:41
to participateпринимать участие in a studyизучение,
60
149691
1779
участвовать в исследовании,
02:43
and we tookвзял a shotвыстрел with a webcamВеб-камера,
61
151470
2562
потом мы сфотографировали
их на вебкамеру
02:46
and we askedспросил them to fillзаполнить out a surveyопрос on a laptopпортативный компьютер.
62
154032
2782
и попросили заполнить
опросник на компьютере.
02:48
While they were fillingзаполнение out the surveyопрос,
63
156814
1979
Пока они отвечали на вопросы,
02:50
we uploadedзакачанный theirих shotвыстрел to a cloud-computingоблачные вычисления clusterкластер,
64
158793
2797
мы загрузили их фото
в облачный вычислительный кластер
02:53
and we startedначал usingс помощью a facialлицевой recognizerраспознаватель
65
161590
1727
и запустили процесс распознавания лица,
02:55
to matchсовпадение that shotвыстрел to a databaseбаза данных
66
163317
2405
чтобы сравнить сделанные
снимки с базой данных
02:57
of some hundredsсотни of thousandsтысячи of imagesизображений
67
165722
2393
из нескольких сот тысяч изображений,
03:00
whichкоторый we had downloadedзагруженный from Facebookfacebook profilesпрофили.
68
168115
3596
которые мы загрузили
из анкет на Facebook.
03:03
By the time the subjectпредмет reachedдостиг the last pageстраница
69
171711
3259
К тому времени как субъект доходил
до последней страницы опросника,
03:06
on the surveyопрос, the pageстраница had been dynamicallyдинамично updatedобновленный
70
174970
3347
страница была динамически обновлена
03:10
with the 10 bestЛучший matchingсогласование photosфото
71
178317
2313
10-ю самыми похожими фото,
03:12
whichкоторый the recognizerраспознаватель had foundнайденный,
72
180630
2285
обнаруженными программой;
03:14
and we askedспросил the subjectsпредметы to indicateуказывать
73
182915
1738
и мы просили опрашиваемого указать,
03:16
whetherбудь то he or she foundнайденный themselvesсамих себя in the photoФото.
74
184653
4120
находит ли он или она себя на этих фото.
03:20
Do you see the subjectпредмет?
75
188773
3699
Вы видите субъекта?
03:24
Well, the computerкомпьютер did, and in factфакт did so
76
192472
2845
Компьютер видел,
и по факту идентифицировал
03:27
for one out of threeтри subjectsпредметы.
77
195317
2149
одного из трёх опрошенных.
03:29
So essentiallyпо существу, we can startНачало from an anonymousанонимный faceлицо,
78
197466
3184
Соответственно, мы можем
начать с неизвестного лица,
03:32
offlineне в сети or onlineонлайн, and we can use facialлицевой recognitionпризнание
79
200650
3484
оффлайн или онлайн, мы можем
использовать систему распознавания лиц,
03:36
to give a nameимя to that anonymousанонимный faceлицо
80
204134
2360
чтобы определить имя неизвестного
03:38
thanksблагодаря to socialСоциальное mediaСМИ dataданные.
81
206494
2108
благодаря данным из социальных сетей.
03:40
But a fewмало yearsлет back, we did something elseеще.
82
208602
1872
А несколько лет назад
мы делали кое-что другое.
03:42
We startedначал from socialСоциальное mediaСМИ dataданные,
83
210474
1823
Мы начинали с данных
из социальных сетей,
03:44
we combinedкомбинированный it statisticallyстатистически with dataданные
84
212297
3051
статистически комбинировали
их с данными
03:47
from U.S. governmentправительство socialСоциальное securityбезопасность,
85
215348
2102
социальных служб правительства США,
03:49
and we endedзакончился up predictingпрогнозирования socialСоциальное securityбезопасность numbersчисел,
86
217450
3324
и мы доходили до предсказания
номеров карточек социального страхования,
03:52
whichкоторый in the Unitedобъединенный Statesсостояния
87
220774
1512
которые в Соединённых Штатах
03:54
are extremelyочень sensitiveчувствительный informationИнформация.
88
222286
2040
являются чрезвычайно
конфиденциальной информацией.
03:56
Do you see where I'm going with this?
89
224326
2093
Понимаете, к чему я клоню?
03:58
So if you combineскомбинировать the two studiesисследования togetherвместе,
90
226419
2922
Итак, если вы объедините
эти два исследования вместе,
04:01
then the questionвопрос becomesстановится,
91
229341
1512
то возникает вопрос,
04:02
can you startНачало from a faceлицо and,
92
230853
2720
можно ли начать с лица,
04:05
usingс помощью facialлицевой recognitionпризнание, find a nameимя
93
233573
2311
используя систему распознавания,
определить имя
04:07
and publiclyпублично availableдоступный informationИнформация
94
235884
2669
и общедоступную информацию
04:10
about that nameимя and that personчеловек,
95
238553
1932
о лице и этом человеке,
04:12
and from that publiclyпублично availableдоступный informationИнформация
96
240485
2248
и через эту общедоступную информацию
04:14
inferделать вывод non-publiclyнепублично availableдоступный informationИнформация,
97
242733
2042
сделать предположение
о личной информации,
04:16
much more sensitiveчувствительный onesте,
98
244775
1606
гораздо более конфиденциальной
04:18
whichкоторый you linkссылка back to the faceлицо?
99
246381
1492
и связать её с этим лицом?
04:19
And the answerответ is, yes, we can, and we did.
100
247873
1916
И ответ — да, мы можем
и уже сделали это.
04:21
Of courseкурс, the accuracyточность keepsдержит gettingполучение worseхуже.
101
249789
2568
Конечно, точность снижается.
04:24
[27% of subjects'предметы' first 5 SSNПЛА digitsцифры identifiedидентифицированный (with 4 attemptsпопытки)]
102
252357
944
[определяются 27% первых 5 цифр номера карточки
социального страхования (с 4 попыток)]
04:25
But in factфакт, we even decidedприняли решение to developразвивать an iPhoneiPhone appприложение
103
253301
3827
Но на самом деле, мы даже решили
разработать приложение для iPhone,
04:29
whichкоторый usesиспользования the phone'sтелефона, так internalвнутренний cameraкамера
104
257128
2715
которое использует
встроенную камеру телефона,
04:31
to take a shotвыстрел of a subjectпредмет
105
259843
1600
чтобы сделать фото человека,
04:33
and then uploadзагружать it to a cloudоблако
106
261443
1487
потом загрузить его в облако
04:34
and then do what I just describedописано to you in realреальный time:
107
262930
2662
и после сделать то,
что я описал в реальном времени:
04:37
looking for a matchсовпадение, findingобнаружение publicобщественности informationИнформация,
108
265592
2088
найти совпадения,
используя публичную информацию,
04:39
tryingпытаясь to inferделать вывод sensitiveчувствительный informationИнформация,
109
267680
1730
попытаться связать
с конфиденциальной информацией
04:41
and then sendingотправка back to the phoneТелефон
110
269410
2591
и потом послать обратно на телефон
04:44
so that it is overlaidнакладным on the faceлицо of the subjectпредмет,
111
272001
3609
полученную таким образом
информацию об этом человеке,
04:47
an exampleпример of augmentedдополненная realityреальность,
112
275610
1901
как пример дополненной реальности,
04:49
probablyвероятно a creepyжутко exampleпример of augmentedдополненная realityреальность.
113
277511
2451
возможно, ужасный пример
дополненной реальности.
04:51
In factфакт, we didn't developразвивать the appприложение to make it availableдоступный,
114
279962
3339
Мы не разработали это приложение,
чтобы сделать его доступным,
04:55
just as a proofдоказательство of conceptконцепция.
115
283301
1922
а лишь в качестве доказательства идеи.
04:57
In factфакт, take these technologiesтехнологии
116
285223
2313
Просто возьмите эти технологии
04:59
and pushОт себя them to theirих logicalлогический extremeэкстремальный.
117
287536
1837
и преувеличьте их возможности.
05:01
ImagineПредставить a futureбудущее in whichкоторый strangersнезнакомцы around you
118
289373
2719
Вообразите будущее, в котором
незнакомые люди вокруг вас
05:04
will look at you throughчерез theirих GoogleGoogle GlassesОчки
119
292092
2311
будут смотреть на вас
через Google Glass
05:06
or, one day, theirих contactконтакт lensesлинзы,
120
294403
2307
или, однажды, через контактные линзы
05:08
and use sevenсемь or eight8 dataданные pointsточки about you
121
296710
4020
и использовать 7 или 8
источников информации о вас,
05:12
to inferделать вывод anything elseеще
122
300730
2582
чтобы узнать, что ещё
05:15
whichкоторый mayмай be knownизвестен about you.
123
303312
2603
может быть известно о вас.
05:17
What will this futureбудущее withoutбез secretsсекреты look like?
124
305915
4794
Как вам такое будущее без секретов?
05:22
And should we careзабота?
125
310709
1964
И должны ли мы беспокоиться?
05:24
We mayмай like to believe
126
312673
1891
Возможно нам хотелось бы верить,
05:26
that the futureбудущее with so much wealthбогатство of dataданные
127
314564
3040
что будущее с таким огромным
количеством данных,
05:29
would be a futureбудущее with no more biasesуклоны,
128
317604
2514
будет лишено предвзятости,
05:32
but in factфакт, havingимеющий so much informationИнформация
129
320118
3583
но на самом деле, обладание
таким количеством информации
05:35
doesn't mean that we will make decisionsрешения
130
323701
2191
совершенно не означает,
что мы будем принимать
05:37
whichкоторый are more objectiveзадача.
131
325892
1706
более объективные решения.
05:39
In anotherдругой experimentэксперимент, we presentedпредставленный to our subjectsпредметы
132
327598
2560
В другом эксперименте,
мы представляли нашим испытуемым
05:42
informationИнформация about a potentialпотенциал jobработа candidateкандидат.
133
330158
2246
информацию о потенциальном
соискателе работы.
05:44
We includedвключены in this informationИнформация some referencesРекомендации
134
332404
3178
Мы включали в эту информацию
некоторые ссылки
05:47
to some funnyвеселая, absolutelyабсолютно legalправовой,
135
335582
2646
на кое-какую забавную,
абсолютно легальную,
05:50
but perhapsвозможно slightlyнемного embarrassingзатруднительный informationИнформация
136
338228
2465
но, пожалуй, слегка неловкую информацию,
05:52
that the subjectпредмет had postedотправил onlineонлайн.
137
340693
2020
которую этот человек
разместил о себе в сети.
05:54
Now interestinglyинтересно, amongсреди our subjectsпредметы,
138
342713
2366
Интересно то, что среди наших испытуемых
05:57
some had postedотправил comparableсравнимый informationИнформация,
139
345079
3083
кто-то разместил о себе
сопоставимую информацию,
06:00
and some had not.
140
348162
2362
а кто-то нет.
06:02
WhichКоторый groupгруппа do you think
141
350524
1949
Как вы думаете, какая из групп
06:04
was more likelyвероятно to judgeсудья harshlyрезко our subjectпредмет?
142
352473
4552
получила более строгое осуждение?
06:09
ParadoxicallyПарадоксально, it was the groupгруппа
143
357025
1957
Парадоксально, но это была группа,
06:10
who had postedотправил similarаналогичный informationИнформация,
144
358982
1733
которая предоставляла
сходную информацию, —
06:12
an exampleпример of moralморальный dissonanceдиссонанс.
145
360715
2942
пример морального диссонанса.
06:15
Now you mayмай be thinkingмышление,
146
363657
1750
Теперь вы, может быть, думаете,
06:17
this does not applyподать заявление to me,
147
365407
1702
что к вам это не применимо,
06:19
because I have nothing to hideскрывать.
148
367109
2162
потому что вам нечего скрывать.
06:21
But in factфакт, privacyКонфиденциальность is not about
149
369271
2482
Но ведь на самом деле, частная жизнь —
06:23
havingимеющий something negativeотрицательный to hideскрывать.
150
371753
3676
это не наличие чего-либо негативного,
что нужно скрывать.
06:27
ImagineПредставить that you are the H.R. directorдиректор
151
375429
2354
Представим, что вы директор по кадрам
06:29
of a certainопределенный organizationорганизация, and you receiveПолучатьsumсуммаés,
152
377783
2947
некой организации, и вы получаете резюме
06:32
and you decideпринимать решение to find more informationИнформация about the candidatesкандидаты.
153
380730
2473
и хотите узнать больше
об этих кандидатах.
06:35
ThereforeСледовательно, you GoogleGoogle theirих namesимена
154
383203
2460
Поэтому вы ищете их имена через Google
06:37
and in a certainопределенный universeвселенная,
155
385663
2240
и в каком-то месте
06:39
you find this informationИнформация.
156
387903
2008
вы найдёте эту информацию.
06:41
Or in a parallelпараллельно universeвселенная, you find this informationИнформация.
157
389911
4437
Или в другом месте вы
обнаружите другую информацию.
06:46
Do you think that you would be equallyв равной степени likelyвероятно
158
394348
2717
Вы думаете, что вы равно вероятно
06:49
to call eitherили candidateкандидат for an interviewинтервью?
159
397065
2803
вызовете каждого из кандидатов
на собеседование?
06:51
If you think so, then you are not
160
399868
2282
Если вы так думаете, то вы не похожи
06:54
like the U.S. employersработодатели who are, in factфакт,
161
402150
2582
на тех работодателей США,
которые фактически
06:56
partчасть of our experimentэксперимент, meaningимея в виду we did exactlyв точку that.
162
404732
3307
стали частью нашего эксперимента,
а именно мы сделали вот что.
07:00
We createdсозданный Facebookfacebook profilesпрофили, manipulatingманипуляционная traitsчерты,
163
408039
3182
Мы создали страницы на Facebook,
изменив характерные черты,
07:03
then we startedначал sendingотправка out résumсуммаés to companiesкомпании in the U.S.,
164
411221
2851
и начали рассылать резюме
в компании США,
07:06
and we detectedобнаруженный, we monitoredконтролируемый,
165
414072
1908
и мы следили, наблюдали,
07:07
whetherбудь то they were searchingпоиск for our candidatesкандидаты,
166
415980
2393
будут ли они искать наших кандидатов,
07:10
and whetherбудь то they were actingдействующий on the informationИнформация
167
418373
1832
и воспользуются ли они информацией
07:12
they foundнайденный on socialСоциальное mediaСМИ. And they were.
168
420205
1938
найденной в соцсетях.
И они делали это.
07:14
Discriminationдискриминация was happeningпроисходит throughчерез socialСоциальное mediaСМИ
169
422143
2101
Через социальные сети
произошла дискриминация
07:16
for equallyв равной степени skilledискусный candidatesкандидаты.
170
424244
3073
кандидатов с одинаковыми навыками.
07:19
Now marketersмаркетологи like us to believe
171
427317
4575
Маркетологи убеждают нас в том,
07:23
that all informationИнформация about us will always
172
431892
2269
что вся информация о нас всегда
07:26
be used in a mannerманера whichкоторый is in our favorблагоприятствовать.
173
434161
3273
используется
только в наших интересах.
07:29
But think again. Why should that be always the caseдело?
174
437434
3715
Но задумаемся вновь.
Почему это всегда должно быть так?
07:33
In a movieкино whichкоторый cameпришел out a fewмало yearsлет agoтому назад,
175
441149
2664
В фильме «Особое мнение»,
который вышел в прокат
07:35
"Minorityменьшинство Reportотчет," a famousизвестный sceneместо действия
176
443813
2553
несколько лет назад,
была знаменитая сцена,
07:38
had TomТом CruiseКруиз walkходить in a mallторговый центр
177
446366
2576
в которой Том Круз
идёт по торговому центру
07:40
and holographicголографический personalizedперсонализированные advertisingреклама
178
448942
3776
и голографическая
персонализированная реклама
07:44
would appearпоявиться around him.
179
452718
1835
возникает вокруг него.
07:46
Now, that movieкино is setзадавать in 2054,
180
454553
3227
Действия фильма
происходят в 2054 году,
07:49
about 40 yearsлет from now,
181
457780
1642
спустя 40 лет,
07:51
and as excitingзахватывающе as that technologyтехнологии looksвыглядит,
182
459422
2908
но как бы захватывающе
не выглядела та технология,
07:54
it alreadyуже vastlyзначительно underestimatesзанижены
183
462330
2646
она уже существенно недооценивает
07:56
the amountколичество of informationИнформация that organizationsорганизации
184
464976
2140
то количество информации,
которую организации
07:59
can gatherсобирать about you, and how they can use it
185
467116
2483
могут собирать о нас,
и как они могут её использовать,
08:01
to influenceвлияние you in a way that you will not even detectобнаружить.
186
469599
3398
чтобы влиять на нас способом,
который мы даже не замечаем.
08:04
So as an exampleпример, this is anotherдругой experimentэксперимент
187
472997
2103
Как пример — ещё один эксперимент,
08:07
actuallyна самом деле we are runningБег, not yetвсе же completedзавершено.
188
475100
2273
который мы уже запустили,
но ещё не завершили.
08:09
ImagineПредставить that an organizationорганизация has accessдоступ
189
477373
2319
Представим, что организация
имеет доступ
08:11
to your listсписок of Facebookfacebook friendsдрузья,
190
479692
2056
к списку ваших друзей на Facebook,
08:13
and throughчерез some kindсвоего рода of algorithmалгоритм
191
481748
1772
и, через особого рода алгоритм,
08:15
they can detectобнаружить the two friendsдрузья that you like the mostбольшинство.
192
483520
3734
они могут выделить двух друзей,
наиболее вам симпатичных.
08:19
And then they createСоздайте, in realреальный time,
193
487254
2280
И потом они создают
в реальном времени,
08:21
a facialлицевой compositeкомпозитный of these two friendsдрузья.
194
489534
2842
фоторобот из лиц этих двух друзей.
08:24
Now studiesисследования priorпредшествующий to oursнаш have shownпоказанный that people
195
492376
3069
Исследования, проведённые до нас,
показали, что люди уже
08:27
don't recognizeпризнать any longerдольше even themselvesсамих себя
196
495445
2885
не узнают даже самих себя
08:30
in facialлицевой compositesкомпозиты, but they reactреагировать
197
498330
2462
по фотороботу, но они реагируют
08:32
to those compositesкомпозиты in a positiveположительный mannerманера.
198
500792
2117
на такие составные
изображения позитивно.
08:34
So nextследующий time you are looking for a certainопределенный productпродукт,
199
502909
3415
В следующий раз, когда вы
будете искать определённый товар,
08:38
and there is an adобъявление suggestingпредлагая you to buyкупить it,
200
506324
2559
появится объявление
с предложением купить его,
08:40
it will not be just a standardстандарт spokespersonдокладчик.
201
508883
2907
и это будет не просто
персонаж рекламы.
08:43
It will be one of your friendsдрузья,
202
511790
2313
Это будет один из ваших друзей,
08:46
and you will not even know that this is happeningпроисходит.
203
514103
3303
а вы даже не узнаете,
что это случилось.
08:49
Now the problemпроблема is that
204
517406
2413
Проблема сейчас в том,
08:51
the currentтекущий policyполитика mechanismsмеханизмы we have
205
519819
2519
что существующие правила,
которыми мы располагаем
08:54
to protectзащищать ourselvesсами from the abusesнарушения of personalличный informationИнформация
206
522338
3438
для защиты себя от злоупотреблений
личными данными,
08:57
are like bringingприведение a knifeнож to a gunfightдрака с применением огнестрельного оружия.
207
525776
2984
напоминают то, когда
для перестрелки приносят нож.
09:00
One of these mechanismsмеханизмы is transparencyпрозрачность,
208
528760
2913
Один из таких механизмов —
это прозрачность,
09:03
tellingговоря people what you are going to do with theirих dataданные.
209
531673
3200
объяснение людям того,
что собираются делать с их данными.
09:06
And in principleпринцип, that's a very good thing.
210
534873
2106
И в принципе, это очень хорошая вещь.
09:08
It's necessaryнеобходимо, but it is not sufficientдостаточно.
211
536979
3667
Это необходимо, но не достаточно.
09:12
Transparencyпрозрачность can be misdirectedзасланный.
212
540646
3698
Прозрачность может быть притворной.
09:16
You can tell people what you are going to do,
213
544344
2104
Вы можете рассказывать людям,
что вы собираетесь делать,
09:18
and then you still nudgeслегка подталкивать локтем them to discloseраскрывать
214
546448
2232
а после всё равно вынудить их раскрыть
09:20
arbitraryпроизвольный amountsсуммы of personalличный informationИнформация.
215
548680
2623
какое-то количество
их персональных данных
09:23
So in yetвсе же anotherдругой experimentэксперимент, this one with studentsстуденты,
216
551303
2886
Так в ещё одном эксперименте
с участием студентов
09:26
we askedспросил them to provideпредоставлять informationИнформация
217
554189
3058
мы просили их предоставить информацию
09:29
about theirих campusкампус behaviorповедение,
218
557247
1813
о их поведении в учебном заведении,
09:31
includingв том числе prettyСимпатичная sensitiveчувствительный questionsвопросов, suchтакие as this one.
219
559060
2940
включая довольно деликатные вопросы,
такие как:
09:34
[Have you ever cheatedобманутый in an examэкзамен?]
220
562000
621
[Вы когда-нибудь
списывали на экзаменах?]
09:34
Now to one groupгруппа of subjectsпредметы, we told them,
221
562621
2300
Одной группе испытуемых было сказано:
09:36
"Only other studentsстуденты will see your answersответы."
222
564921
2841
«Только остальные студенты
будут видеть ваши ответы».
09:39
To anotherдругой groupгруппа of subjectsпредметы, we told them,
223
567762
1579
Другой группе студентов мы сказали:
09:41
"StudentsСтуденты and facultyфакультет will see your answersответы."
224
569341
3561
«Студенты и преподаватели
будут видеть ваши ответы».
09:44
Transparencyпрозрачность. Notificationуведомление. And sure enoughдостаточно, this workedработал,
225
572902
2591
Прозрачность. Уведомление.
И, конечно, это сработало,
09:47
in the senseсмысл that the first groupгруппа of subjectsпредметы
226
575493
1407
в том смысле,
что первая группа студентов
09:48
were much more likelyвероятно to discloseраскрывать than the secondвторой.
227
576900
2568
гораздо более охотно
признавалась, чем вторая.
09:51
It makesмарки senseсмысл, right?
228
579468
1520
Это логично, верно?
09:52
But then we addedдобавленной the misdirectionнеправильное указание.
229
580988
1490
А потом мы добавили уловку.
09:54
We repeatedповторный the experimentэксперимент with the sameодна и та же two groupsгруппы,
230
582478
2760
Мы повторили эксперимент
с теми же двумя группами,
09:57
this time addingдобавление a delayзадержка
231
585238
2427
добавив в этот раз задержку
09:59
betweenмежду the time we told subjectsпредметы
232
587665
2935
между тем моментом,
когда мы сказали ребятам,
10:02
how we would use theirих dataданные
233
590600
2080
как мы будем использовать их данные,
10:04
and the time we actuallyна самом деле startedначал answeringавтоответчик the questionsвопросов.
234
592680
4388
и моментом времени, когда они начали
действительно отвечать на вопросы.
10:09
How long a delayзадержка do you think we had to addДобавить
235
597068
2561
Как вы думаете, насколько
продолжительную задержку мы добавили,
10:11
in orderзаказ to nullifyсводить на нет the inhibitoryтормозящий effectэффект
236
599629
4613
чтобы свести на нет тормозящее действие
10:16
of knowingзнание that facultyфакультет would see your answersответы?
237
604242
3411
того факта, что преподаватели
будут видеть их ответы?
10:19
Ten10 minutesминут?
238
607653
1780
10 минут?
10:21
Five5 minutesминут?
239
609433
1791
5 минут?
10:23
One minuteминут?
240
611224
1776
Одна минута?
10:25
How about 15 secondsсекунд?
241
613000
2049
Как насчёт 15 секунд?
10:27
Fifteen15 secondsсекунд were sufficientдостаточно to have the two groupsгруппы
242
615049
2668
Пятнадцать секунд
было достаточно для того,
10:29
discloseраскрывать the sameодна и та же amountколичество of informationИнформация,
243
617717
1568
чтобы две группы раскрыли
одинаковое количество информации,
10:31
as if the secondвторой groupгруппа now no longerдольше caresзаботы
244
619285
2746
и вторая группа больше
не беспокоилась о том,
10:34
for facultyфакультет readingчтение theirих answersответы.
245
622031
2656
что преподаватели читают их ответы.
10:36
Now I have to admitпризнавать that this talk so farдалеко
246
624687
3336
Сейчас я могу допустить,
что этот разговор до сих пор
10:40
mayмай soundзвук exceedinglyчрезвычайно gloomyмрачный,
247
628023
2480
может показаться излишне мрачным,
10:42
but that is not my pointточка.
248
630503
1721
но я не это хочу сказать.
10:44
In factфакт, I want to shareдоля with you the factфакт that
249
632224
2699
В действительности, я хочу
поделиться с вами тем фактом,
10:46
there are alternativesальтернативы.
250
634923
1772
что альтернативы существуют.
10:48
The way we are doing things now is not the only way
251
636695
2499
То, как мы ведём дела сейчас —
не единственный путь
10:51
they can doneсделанный, and certainlyбезусловно not the bestЛучший way
252
639194
3037
и совершенно точно не самый лучший
10:54
they can be doneсделанный.
253
642231
2027
из возможных.
10:56
When someoneкто то tellsговорит you, "People don't careзабота about privacyКонфиденциальность,"
254
644258
4171
Когда кто-либо говорит вам: «Люди
не заботятся о тайне частной жизни», —
11:00
considerрассматривать whetherбудь то the gameигра has been designedпредназначенный
255
648429
2642
примите во внимание,
что игра разработана
11:03
and riggedподстроенный so that they cannotне могу careзабота about privacyКонфиденциальность,
256
651071
2724
и инсценирована так, что они не могут
заботиться о тайне частной жизни;
11:05
and comingприход to the realizationреализация that these manipulationsманипуляции occurпроисходить
257
653795
3262
и приходя к осознанию того,
что эти манипуляции происходят,
11:09
is alreadyуже halfwayнаполовину throughчерез the processобработать
258
657057
1607
вы уже на полпути к тому,
11:10
of beingявляющийся ableв состоянии to protectзащищать yourselfсам.
259
658664
2258
чтобы суметь защитить себя самим.
11:12
When someoneкто то tellsговорит you that privacyКонфиденциальность is incompatibleнесовместимый
260
660922
3710
Когда кто-то говорит вам,
что тайна частной жизни несовместима
11:16
with the benefitsвыгоды of bigбольшой dataданные,
261
664632
1849
с преимуществами «больших данных»,
11:18
considerрассматривать that in the last 20 yearsлет,
262
666481
2473
примите во внимание,
что за последние 20 лет,
11:20
researchersисследователи have createdсозданный technologiesтехнологии
263
668954
1917
исследователи создали технологии,
11:22
to allowпозволять virtuallyфактически any electronicэлектронный transactionsоперации
264
670871
3318
позволяющие практически
любую электронную покупку
11:26
to take placeместо in a more privacy-preservingконфиденциальность, сохраняющих mannerманера.
265
674189
3749
производить более безопасным образом.
11:29
We can browseпросматривать the Internetинтернет anonymouslyанонимно.
266
677938
2555
Мы можем анонимно
искать информацию в интернете.
11:32
We can sendОтправить emailsэлектронная почта that can only be readчитать
267
680493
2678
Мы можем посылать электронные письма,
которые могут быть прочитаны
11:35
by the intendedпредназначена recipientполучатель, not even the NSANSA.
268
683171
3709
только получателем, а не Управлением
национальной безопасности.
11:38
We can have even privacy-preservingконфиденциальность, сохраняющих dataданные miningдобыча.
269
686880
2997
Можно даже вести интеллектуальный анализ
данных сохраняя конфиденциальность.
11:41
In other wordsслова, we can have the benefitsвыгоды of bigбольшой dataданные
270
689877
3894
Другими словами, мы можем пользоваться
преимуществом «больших данных»
11:45
while protectingзащищающий privacyКонфиденциальность.
271
693771
2132
сохраняя конфиденциальность
частной жизни.
11:47
Of courseкурс, these technologiesтехнологии implyподразумевать a shiftingпереключение
272
695903
3791
Конечно, эти технологии
подразумевают перераспределение
11:51
of costСтоимость and revenuesпоступления
273
699694
1546
стоимости и доходов
11:53
betweenмежду dataданные holdersдержатели and dataданные subjectsпредметы,
274
701240
2107
между владельцами и субъектами данных,
11:55
whichкоторый is why, perhapsвозможно, you don't hearзаслушивать more about them.
275
703347
3453
именно поэтому, возможно,
вы мало знаете о них.
11:58
WhichКоторый bringsприносит me back to the GardenСад of EdenЭдем.
276
706800
3706
Это возвращает меня к саду Эдема.
12:02
There is a secondвторой privacyКонфиденциальность interpretationинтерпретация
277
710506
2780
Существует второе
толкование частной жизни
12:05
of the storyистория of the GardenСад of EdenЭдем
278
713286
1809
в истории Эдемского сада,
12:07
whichкоторый doesn't have to do with the issueвопрос
279
715095
2096
которая не имеет отношения
к вопросу о том,
12:09
of AdamАдам and EveЕва feelingчувство nakedобнаженный
280
717191
2225
как Адам и Ева ощутили себя голыми
12:11
and feelingчувство ashamedсовестно.
281
719416
2381
и испытали стыд за это.
12:13
You can find echoesотголоски of this interpretationинтерпретация
282
721797
2781
Вы можете найти отголоски этой трактовки
12:16
in JohnДжон Milton'sМильтона "ParadiseРай LostПотерял."
283
724578
2782
в книге Джона Милтона «Потерянный рай».
12:19
In the gardenсад, AdamАдам and EveЕва are materiallyматериально contentсодержание.
284
727360
4197
В этом саду Адам и Ева
удовлетворены материально.
12:23
They're happyсчастливый. They are satisfiedдоволен.
285
731557
2104
Они счастливы. Они довольны.
12:25
HoweverОднако, they alsoтакже lackотсутствие knowledgeзнание
286
733661
2293
Однако, им также не хватает знаний
12:27
and self-awarenessсамоосознание.
287
735954
1640
и самосознания.
12:29
The momentмомент they eatесть the aptlyметко namedназванный
288
737594
3319
Момент, когда они вкусили яблоко, —
называемое, кстати,
12:32
fruitфрукты of knowledgeзнание,
289
740913
1293
плодом познания, —
12:34
that's when they discoverобнаружить themselvesсамих себя.
290
742206
2605
это момент, когда они
открывают сами себя.
12:36
They becomeстали awareзнать. They achieveдостигать autonomyавтономия.
291
744811
4031
Они начинают осознавать.
Они получают независимость.
12:40
The priceцена to payплатить, howeverОднако, is leavingуход the gardenсад.
292
748842
3126
Однако приходится платить
уходом из сада.
12:43
So privacyКонфиденциальность, in a way, is bothи то и другое the meansозначает
293
751968
3881
Так и тайна частной жизни,
в некотором роде и возможность
12:47
and the priceцена to payплатить for freedomсвобода.
294
755849
2962
и цена, которую нужно
платить за свободу.
12:50
Again, marketersмаркетологи tell us
295
758811
2770
И вновь маркетологи говорят нам,
12:53
that bigбольшой dataданные and socialСоциальное mediaСМИ
296
761581
3019
что «большие данные»
и социальные сети —
12:56
are not just a paradiseрай of profitприбыль for them,
297
764600
2979
это не только их райская прибыль,
12:59
but a GardenСад of EdenЭдем for the restотдых of us.
298
767579
2457
но и Эдемский сад для всех остальных.
13:02
We get freeсвободно contentсодержание.
299
770036
1238
Мы получаем бесплатный контент.
13:03
We get to playиграть AngryСердитый Birdsптицы. We get targetedцелевое appsПрограммы.
300
771274
3123
Мы получаем игру в Angry Birds.
Мы получаем целевые приложения.
13:06
But in factфакт, in a fewмало yearsлет, organizationsорганизации
301
774397
2897
Но через несколько лет организации
13:09
will know so much about us,
302
777294
1609
будут знать о нас так много,
13:10
they will be ableв состоянии to inferделать вывод our desiresжелания
303
778903
2710
что они будут в состоянии
делать выводы о наших желаниях
13:13
before we even formформа them, and perhapsвозможно
304
781613
2204
ещё до того, как мы
их сформировали и, возможно,
13:15
buyкупить productsпродукты on our behalfот имени
305
783817
2447
покупать продукты от нашего имени
13:18
before we even know we need them.
306
786264
2274
ещё до того, как мы узнаем,
что нуждаемся в них.
13:20
Now there was one Englishанглийский authorавтор
307
788538
3237
Был один английский писатель,
13:23
who anticipatedожидаемый this kindсвоего рода of futureбудущее
308
791775
3045
который предвидел такое будущее,
13:26
where we would tradeсделка away
309
794820
1405
где мы будем разменивать
13:28
our autonomyавтономия and freedomсвобода for comfortкомфорт.
310
796225
3548
нашу независимость и свободу на комфорт.
13:31
Even more so than GeorgeДжордж OrwellОруэлл,
311
799773
2161
В большей мере, чем Джордж Оруэлл,
13:33
the authorавтор is, of courseкурс, AldousОлдос HuxleyHuxley.
312
801934
2761
таким автором был,
конечно, Олдос Хаксли.
13:36
In "BraveХрабрый Newновый WorldМир," he imaginesвоображает a societyобщество
313
804695
2854
В своём романе «О дивный новый мир»
он придумал мир,
13:39
where technologiesтехнологии that we createdсозданный
314
807549
2171
в котором технологии, созданные нами
13:41
originallyпервоначально for freedomсвобода
315
809720
1859
первоначально для свободы,
13:43
endконец up coercingпринуждающее us.
316
811579
2567
в конечном итоге поработили нас.
13:46
HoweverОднако, in the bookкнига, he alsoтакже offersпредложения us a way out
317
814146
4791
Однако в своей книге,
он также предлагает и выход
13:50
of that societyобщество, similarаналогичный to the pathдорожка
318
818937
3438
для того общества, схожий с путём,
13:54
that AdamАдам and EveЕва had to followследовать to leaveоставлять the gardenсад.
319
822375
3955
которым последовали
Адам и Ева покинув сад.
13:58
In the wordsслова of the Savageдикарь,
320
826330
2147
Словами Дикаря [Джона],
14:00
regainingвосстановления autonomyавтономия and freedomсвобода is possibleвозможное,
321
828477
3069
вернуть независимость
и свободу возможно,
14:03
althoughнесмотря на то что the priceцена to payплатить is steepкрутой.
322
831546
2679
хотя и цена этого непомерно высока.
14:06
So I do believe that one of the definingопределяющий fightsбои
323
834225
5715
Я действительно верю,
что одной из предстоящих битв
14:11
of our timesраз will be the fightборьба
324
839940
2563
нашего времени станет битва
14:14
for the controlконтроль over personalличный informationИнформация,
325
842503
2387
за контроль над персональными данными,
14:16
the fightборьба over whetherбудь то bigбольшой dataданные will becomeстали a forceсила
326
844890
3507
битва за то, станут ли «большие данные»
14:20
for freedomсвобода,
327
848397
1289
силами свободы,
14:21
ratherскорее than a forceсила whichкоторый will hiddenlyскрыто manipulateманипулировать us.
328
849686
4746
или же силами, которые будут
скрыто нами манипулировать.
14:26
Right now, manyмногие of us
329
854432
2593
Прямо сейчас многие из нас
14:29
do not even know that the fightборьба is going on,
330
857025
2753
даже не подозревают,
что эта битва уже идёт,
14:31
but it is, whetherбудь то you like it or not.
331
859778
2672
и это так,
нравится ли вам это или нет.
14:34
And at the riskриск of playingиграть the serpentзмей,
332
862450
2804
И, рискуя показаться змеем,
14:37
I will tell you that the toolsинструменты for the fightборьба
333
865254
2897
я скажу вам, что средства
для этой битвы здесь,
14:40
are here, the awarenessосознание of what is going on,
334
868151
3009
в понимании того, что происходит,
14:43
and in your handsРуки,
335
871160
1355
и [это средство] в ваших руках,
14:44
just a fewмало clicksщелчки away.
336
872515
3740
всего лишь в нескольких кликах.
14:48
Thank you.
337
876255
1482
Спасибо!
14:49
(ApplauseАплодисменты)
338
877737
4477
(Аплодисменты)
Translated by Max Siz
Reviewed by Maria Mikhalchenko

▲Back to top

ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com