ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com
TEDGlobal 2013

Alessandro Acquisti: What will a future without secrets look like?

Alessandro Acquisti: Zašto je privatnost važna

Filmed:
1,423,103 views

Granica između javnog i privatnog se zamaglila u posljednjem desetljeću, kako na internetu, tako i u stvarnom životu, a Alessandro Acquisti nam objašnjava što to znači i zašto. U govoru koji potiče na razmišljanje, pomalo zastrašujućem, iznosi detalje o nedavnim i tekućim istraživanjima - uključujući i o projektu koji pokazuje kako je lako fotografiju stranca povezati s njihovim osjetljivim osobnim informacijama.
- Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks. Full bio

Double-click the English transcript below to play the video.

00:12
I would like to tell you a storypriča
0
641
2354
Želim vam ispričati priču
00:14
connectingspojni the notoriousozloglašen privacyprivatnost incidentincident
1
2995
3176
koja povezuje slavan incident s privatnošću
00:18
involvinguključuje AdamAdam and EveEve,
2
6171
2769
Adama i Eve,
00:20
and the remarkableizvanredan shiftsmjena in the boundariesgranice
3
8940
3446
te izuzetno pomicanje granica
00:24
betweenizmeđu publicjavnost and privateprivatna whichkoji has occurreddogodio
4
12386
2686
između javnog i privatnog koje se dogodilo
00:27
in the pastprošlost 10 yearsgodina.
5
15072
1770
u zadnjih 10 godina.
00:28
You know the incidentincident.
6
16842
1298
Znate za taj incident.
00:30
AdamAdam and EveEve one day in the GardenVrt of EdenEden
7
18140
3330
Jednoga dana u Edenskom vrtu, Adam i Eva
00:33
realizeostvariti they are nakedgo.
8
21470
1843
shvate da su goli.
00:35
They freaknakaza out.
9
23313
1500
Izbezume se.
00:36
And the restodmor is historypovijest.
10
24813
2757
I ostalo je povijest.
00:39
NowadaysDanas, AdamAdam and EveEve
11
27570
2188
Danas, Adam i Eva
00:41
would probablyvjerojatno actčin differentlyrazličito.
12
29758
2361
bi vjerojatno postupili drukčije.
00:44
[@AdamAdam Last niteNite was a blasteksplozija! lovedvoljen datDat applejabuka LOLLOL]
13
32119
2268
[@Adam Sinoć ludilo! jabuka bila njam LOL]
00:46
[@EveEve yepda.. babemala, know what happeneddogodilo to my pantshlače thoTho?]
14
34387
1873
[@Eva tako je.. dušo, imaš ideju gdje su mi nestale hlače?]
00:48
We do revealotkriti so much more informationinformacija
15
36260
2636
Otkrivamo puno više informacija
00:50
about ourselvessebe onlinena liniji than ever before,
16
38896
3334
o sebi online nego ikada ranije,
00:54
and so much informationinformacija about us
17
42230
1704
i mnoge informacije o nama
00:55
is beingbiće collectedprikupljeni by organizationsorganizacija.
18
43934
2224
prikupljaju razne organizacije.
00:58
Now there is much to gaindobit and benefitkorist
19
46158
3282
Koristi od ovakve masovne analize
osobnih informacija,
01:01
from this massivemasivan analysisanaliza of personalosobni informationinformacija,
20
49440
2446
velike količine podataka,
01:03
or bigvelika datapodaci,
21
51886
1946
su značajne
01:05
but there are alsotakođer complexkompleks tradeoffskompromise that come
22
53832
2638
ali puno toga i gubimo
01:08
from givingdavanje away our privacyprivatnost.
23
56470
3098
time što se odričemo svoje privatnosti.
01:11
And my storypriča is about these tradeoffskompromise.
24
59568
4023
Moja priča je o toj transakciji.
01:15
We startpočetak with an observationzapažanje whichkoji, in my mindum,
25
63591
2584
Počinjemo s opažanjem koje je, po meni,
01:18
has becomepostati clearerjasnije and clearerjasnije in the pastprošlost fewnekoliko yearsgodina,
26
66175
3327
sve očiglednije u posljednjih
nekoliko godina,
01:21
that any personalosobni informationinformacija
27
69502
2097
a to je da svaka osobna informacija
01:23
can becomepostati sensitiveosjetljiv informationinformacija.
28
71599
2285
može postati osjetljiva informacija.
01:25
Back in the yeargodina 2000, about 100 billionmilijardi photosfotografije
29
73884
4125
U 2000. godini, nekih
100 milijardi fotografija
01:30
were shotšut worldwideširom svijeta,
30
78009
1912
je uslikano širom svijeta,
01:31
but only a minusculejako malo proportionrazmjer of them
31
79921
3065
ali je samo maleni dio njih
01:34
were actuallyzapravo uploadedupload onlinena liniji.
32
82986
1883
postavljen na internet.
01:36
In 2010, only on FacebookFacebook, in a singlesingl monthmjesec,
33
84869
3361
U 2010-toj, samo na Facebooku,
u jednom mjesecu,
01:40
2.5 billionmilijardi photosfotografije were uploadedupload,
34
88230
3270
postavljeno je 2,5 milijardi slika,
01:43
mostnajviše of them identifiedidentificirati.
35
91500
1882
većina s identifikacijskim podatcima.
01:45
In the sameisti spanpedalj of time,
36
93382
1880
U istom razdoblju,
01:47
computers'računala abilitysposobnost to recognizeprepoznati people in photosfotografije
37
95262
4870
mogućnost računala da prepozna
ljude na fotografijama
01:52
improvedpoboljšan by threetri ordersnarudžbe of magnitudeveličina.
38
100132
3608
poboljšala se za tri reda veličine.
01:55
What happensdogađa se when you combinekombinirati
39
103740
1882
Što se dogodi kad kombiniramo
01:57
these technologiestehnologije togetherzajedno:
40
105622
1501
te tehnologije:
01:59
increasingpovećavajući availabilityRaspoloživost of faciallica datapodaci;
41
107123
2658
povećana dostupnost podataka o licima;
02:01
improvingpoboljšanje faciallica recognizingprepoznavanje abilitysposobnost by computersračunala;
42
109781
3648
poboljšanje prepoznavanja lica od strane računala;
02:05
but alsotakođer cloudoblak computingračunanje,
43
113429
2182
ali također i računalnih oblaka,
02:07
whichkoji givesdaje anyonebilo tko in this theaterkazalište
44
115611
1888
koji svakome u ovoj dvorani
02:09
the kindljubazan of computationalračunalna powervlast
45
117499
1560
daju računalnu snagu
02:11
whichkoji a fewnekoliko yearsgodina agoprije was only the domaindomena
46
119059
1886
kakva je prije nekoliko godina bila dostupna samo
02:12
of three-lettertri slova agenciesagencije;
47
120945
1782
agencijama s 3 slova;
02:14
and ubiquitoussveprisutan computingračunanje,
48
122727
1378
zatim sveprisutno računalstvo,
02:16
whichkoji allowsomogućuje my phonetelefon, whichkoji is not a supercomputersuperračunalo,
49
124105
2892
koje omogućava mom telefonu
koji nije superračunalo,
02:18
to connectSpojiti to the InternetInternet
50
126997
1671
da se spoji na internet
02:20
and do there hundredsstotine of thousandstisuća
51
128668
2334
i ondje obavi analizu
02:23
of facelice metricsMetrika in a fewnekoliko secondssekundi?
52
131002
2639
stotine tisuća lica u nekoliko sekundi?
02:25
Well, we conjecturepretpostavke that the resultproizlaziti
53
133641
2628
Zaključujemo da će rezultat
02:28
of this combinationkombinacija of technologiestehnologije
54
136269
2064
kombiniranja ovih tehnologija
02:30
will be a radicalradikal changepromijeniti in our very notionspojmovi
55
138333
2888
predstavljati radikalnu promjenu naših shvaćanja
02:33
of privacyprivatnost and anonymityanonimnost.
56
141221
2257
privatnosti i anonimnosti.
02:35
To testtest that, we did an experimenteksperiment
57
143478
1993
Da to provjerimo, provelii smo eksperiment
02:37
on CarnegieCarnegie MellonMellon UniversitySveučilište campuskampus.
58
145471
2121
u kampusu sveučilišta Carnegie Mellon.
02:39
We askedpitao studentsstudenti who were walkinghodanje by
59
147592
2099
Zamolili smo studente u prolazu
02:41
to participatesudjelovati in a studystudija,
60
149691
1779
za sudjelovanje u studiji,
02:43
and we tookuzeo a shotšut with a webcamweb kamere,
61
151470
2562
slikali ih web kamerom,
02:46
and we askedpitao them to fillispuniti out a surveypregled on a laptoplaptop.
62
154032
2782
i tražili da ispune anketu na laptopu.
02:48
While they were fillingpunjenje out the surveypregled,
63
156814
1979
Dok su oni ispunjavali anketu,
02:50
we uploadedupload theirnjihov shotšut to a cloud-computingoblak računarstvo clusterKlastera,
64
158793
2797
podigli smo njihovu sliku na klaster
mrežnog oblaka,
02:53
and we startedpočeo usingkoristeći a faciallica recognizeralat za prepoznavanje
65
161590
1727
i aktivirali prepoznavanje lica
02:55
to matchutakmica that shotšut to a databasebaza podataka
66
163317
2405
kako bismo spojili tu sliku
02:57
of some hundredsstotine of thousandstisuća of imagesslika
67
165722
2393
s nekom od stotina tisuća drugih
03:00
whichkoji we had downloadedpreuzeto from FacebookFacebook profilesprofili.
68
168115
3596
koje smo preuzeli s Facebook profila.
03:03
By the time the subjectpredmet reachedpostignut the last pagestranica
69
171711
3259
Dok bi ispitanik došao do zadnje
stranice ankete
03:06
on the surveypregled, the pagestranica had been dynamicallydinamički updatedažurirana
70
174970
3347
stranica bi se dinamički ažurirala
03:10
with the 10 bestnajbolje matchingodgovarajući photosfotografije
71
178317
2313
s 10 najsličnijih slika
03:12
whichkoji the recognizeralat za prepoznavanje had foundpronađeno,
72
180630
2285
koje je program za prepoznavanje
lica pronašao,
03:14
and we askedpitao the subjectsteme to indicatenaznačiti
73
182915
1738
i tražili smo da nam ispitanici pokažu
03:16
whetherda li he or she foundpronađeno themselvesse in the photofoto.
74
184653
4120
nalaze li sebe na nekoj od slika.
03:20
Do you see the subjectpredmet?
75
188773
3699
Vidite li ispitanika?
03:24
Well, the computerračunalo did, and in factčinjenica did so
76
192472
2845
Pa, računalo ga je našlo i to je uspjelo
03:27
for one out of threetri subjectsteme.
77
195317
2149
za trećinu ispitanika.
03:29
So essentiallyu srži, we can startpočetak from an anonymousanoniman facelice,
78
197466
3184
U biti, možemo početi od anonimnog lica,
03:32
offlineoffline or onlinena liniji, and we can use faciallica recognitionpriznanje
79
200650
3484
na mreži ili ne, i možemo upotrijebiti
prepoznavanje lica
03:36
to give a nameime to that anonymousanoniman facelice
80
204134
2360
kako bismo otkrili ime toga lica,
03:38
thanksHvala to socialsocijalni mediamedia datapodaci.
81
206494
2108
zahvaljujući podacima s društvenih medija.
03:40
But a fewnekoliko yearsgodina back, we did something elsedrugo.
82
208602
1872
Ali prije nekoliko godina, učinili smo nešto drugo.
03:42
We startedpočeo from socialsocijalni mediamedia datapodaci,
83
210474
1823
Uzeli smo podatke s društvenih medija,
03:44
we combinedkombinirana it statisticallystatistički with datapodaci
84
212297
3051
kombinirali ih statistički s podatcima
03:47
from U.S. governmentvlada socialsocijalni securitysigurnosti,
85
215348
2102
socijalnog osiguranja američke vlade,
03:49
and we endedzavršeno up predictingpredviđanje socialsocijalni securitysigurnosti numbersbrojevi,
86
217450
3324
i mogli smo predvidjeti brojeve socijalnog osiguranja,
03:52
whichkoji in the UnitedUjedinjeni StatesDržava
87
220774
1512
koji su u Sjedinjenim Državama
03:54
are extremelykrajnje sensitiveosjetljiv informationinformacija.
88
222286
2040
izuzetno osjetljiva informacija.
03:56
Do you see where I'm going with this?
89
224326
2093
Vidite li kamo vas vodim?
03:58
So if you combinekombinirati the two studiesstudije togetherzajedno,
90
226419
2922
Ako kombiniramo te dvije studije,
04:01
then the questionpitanje becomespostaje,
91
229341
1512
postavljamo pitanje
04:02
can you startpočetak from a facelice and,
92
230853
2720
možemo li početi od lica,
04:05
usingkoristeći faciallica recognitionpriznanje, find a nameime
93
233573
2311
i, pomoću prepoznavanja lica, otkriti ime
04:07
and publiclyjavno availabledostupno informationinformacija
94
235884
2669
i javno dostupne informacije
04:10
about that nameime and that personosoba,
95
238553
1932
o tom imenu i toj osobi,
04:12
and from that publiclyjavno availabledostupno informationinformacija
96
240485
2248
i od tih javno dostupnih informacija
04:14
inferzaključiti non-publiclysobe-javno availabledostupno informationinformacija,
97
242733
2042
zaključiti informacije koje nisu
javno dostupne,
04:16
much more sensitiveosjetljiv onesone
98
244775
1606
one osjetljivije,
04:18
whichkoji you linkveza back to the facelice?
99
246381
1492
koje ćemo povezati s licem?
04:19
And the answerodgovor is, yes, we can, and we did.
100
247873
1916
Odgovor je da, možemo, i uspjeli smo.
04:21
Of coursenaravno, the accuracytočnost keepsčuva gettinguzimajući worsegore.
101
249789
2568
Naravno, točnost se pogoršava.
04:24
[27% of subjects'osoba na first 5 SSNSSN digitsznamenke identifiedidentificirati (with 4 attemptspokušaji)]
102
252357
944
[otkriveno 27% prvih 5 znamenki
socijalnog osiguranja (iz 4 pokušaja)]
04:25
But in factčinjenica, we even decidedodlučio to developrazviti an iPhoneiPhone appapp
103
253301
3827
Čak smo odlučili razviti aplikaciju za iPhone
04:29
whichkoji usesnamjene the phone'stelefonu internalinterni camerafotoaparat
104
257128
2715
koja koristi ugrađenu kameru telefona
04:31
to take a shotšut of a subjectpredmet
105
259843
1600
kako bi slikala osobu
04:33
and then uploadUčitaj it to a cloudoblak
106
261443
1487
i zatim poslala sliku u oblak
04:34
and then do what I just describedopisan to you in realstvaran time:
107
262930
2662
i odradila ono što sam vam opisao,
u stvarnom vremenu:
04:37
looking for a matchutakmica, findingnalaz publicjavnost informationinformacija,
108
265592
2088
izvršila prepoznavanje, otkrila javne informacije,
04:39
tryingtežak to inferzaključiti sensitiveosjetljiv informationinformacija,
109
267680
1730
probala pogoditi osjetljive informacije,
04:41
and then sendingslanje back to the phonetelefon
110
269410
2591
i poslala ih natrag na mobitel
04:44
so that it is overlaidobložio on the facelice of the subjectpredmet,
111
272001
3609
gdje su ispisane preko lica osobe.
04:47
an exampleprimjer of augmentedprošireni realitystvarnost,
112
275610
1901
To je primjer poboljšane stvarnosti,
04:49
probablyvjerojatno a creepyjezivo exampleprimjer of augmentedprošireni realitystvarnost.
113
277511
2451
vjerojatno ljigav primjer poboljšane stvarnosti.
04:51
In factčinjenica, we didn't developrazviti the appapp to make it availabledostupno,
114
279962
3339
Nismo izradili aplikaciju kako
bismo je učinili javno dostupnom,
04:55
just as a proofdokaz of conceptkoncept.
115
283301
1922
već da bismo dokazali koncept.
04:57
In factčinjenica, take these technologiestehnologije
116
285223
2313
Uzmite te tehnologije
04:59
and pushgurnuti them to theirnjihov logicallogičan extremekrajnost.
117
287536
1837
i razvijte ih do njihovog logičnog ekstrema.
05:01
ImagineZamislite a futurebudućnost in whichkoji strangersstranci around you
118
289373
2719
Zamislite budućnost u kojoj će vas stranci uokolo
05:04
will look at you throughkroz theirnjihov GoogleGoogle GlassesNaočale
119
292092
2311
gledati kroz svoje Google naočale
05:06
or, one day, theirnjihov contactkontakt lensesleće,
120
294403
2307
ili, jednoga dana, kroz leće,
05:08
and use sevensedam or eightosam datapodaci pointsbodova about you
121
296710
4020
i koristiti sedam ili osam podataka o vama
05:12
to inferzaključiti anything elsedrugo
122
300730
2582
kako bi otkrili sve drugo
05:15
whichkoji maysvibanj be knownznan about you.
123
303312
2603
što se o vama može doznati.
05:17
What will this futurebudućnost withoutbez secretstajne look like?
124
305915
4794
Kako će izgledati ta budućnost bez tajni?
05:22
And should we carebriga?
125
310709
1964
Trebamo li brinuti?
05:24
We maysvibanj like to believe
126
312673
1891
Možda bismo rado povjerovali
05:26
that the futurebudućnost with so much wealthbogatstvo of datapodaci
127
314564
3040
da će budućnost s toliko podataka
05:29
would be a futurebudućnost with no more biasespredrasude,
128
317604
2514
biti budućnost bez predrasuda,
05:32
but in factčinjenica, havingima so much informationinformacija
129
320118
3583
no, zapravo, količina informacija
05:35
doesn't mean that we will make decisionsodluke
130
323701
2191
ne znači da ćemo donositi
05:37
whichkoji are more objectivecilj.
131
325892
1706
objektivnije odluke.
05:39
In anotherjoš experimenteksperiment, we presentedpredstavili to our subjectsteme
132
327598
2560
U drugom eksperimentu, ispitanicima smo predočili
05:42
informationinformacija about a potentialpotencijal jobposao candidatekandidat.
133
330158
2246
informacije o potencijalnom kandidatu za posao.
05:44
We includeduključen in this informationinformacija some referencesreference
134
332404
3178
Te informacije su sadržavale
05:47
to some funnysmiješno, absolutelyapsolutno legalpravni,
135
335582
2646
neke duhovite, savršeno zakonite,
05:50
but perhapsmožda slightlymalo embarrassingneugodno informationinformacija
136
338228
2465
ali možda malo neugodne informacije
05:52
that the subjectpredmet had postedobjavljeno onlinena liniji.
137
340693
2020
koje je osoba objavila na internetu.
05:54
Now interestinglyzanimljivo, amongmeđu our subjectsteme,
138
342713
2366
Neki naši ispitanici
05:57
some had postedobjavljeno comparableusporedivo informationinformacija,
139
345079
3083
su objavili usporedive informacije,
06:00
and some had not.
140
348162
2362
a neki nisu.
06:02
WhichKoji groupskupina do you think
141
350524
1949
Što mislite, koja je skupina
06:04
was more likelyVjerojatno to judgesuditi harshlyoštro our subjectpredmet?
142
352473
4552
oštrije sudila našem kandidatu?
06:09
ParadoxicallyParadoksalno, it was the groupskupina
143
357025
1957
Paradoksalno, bila je to skupina
06:10
who had postedobjavljeno similarsličan informationinformacija,
144
358982
1733
koja je o sebi objavila slične informacije,
06:12
an exampleprimjer of moralmoralan dissonancedisonanca.
145
360715
2942
što je primjer moralnog odstupanja.
06:15
Now you maysvibanj be thinkingmišljenje,
146
363657
1750
Možda mislite,
06:17
this does not applyprimijeniti to me,
147
365407
1702
to se ne odnosi na mene,
06:19
because I have nothing to hidesakriti.
148
367109
2162
jer ja nemam što skrivati.
06:21
But in factčinjenica, privacyprivatnost is not about
149
369271
2482
Ali kod privatnosti nije riječ
06:23
havingima something negativenegativan to hidesakriti.
150
371753
3676
o nečemu negativnom što želimo sakriti.
06:27
ImagineZamislite that you are the H.R. directordirektor
151
375429
2354
Zamislite da ste direktor ljudskih resursa
06:29
of a certainsiguran organizationorganizacija, and you receivedobitisumiznosés,
152
377783
2947
u tvrtki, zaprimate životopise
06:32
and you decideodlučiti to find more informationinformacija about the candidateskandidata.
153
380730
2473
i odlučujete pronaći više informacija
o kandidatima.
06:35
ThereforeStoga, you GoogleGoogle theirnjihov namesimena
154
383203
2460
Upišete im imena u Google
06:37
and in a certainsiguran universesvemir,
155
385663
2240
i u određenom svemiru,
06:39
you find this informationinformacija.
156
387903
2008
pronađete te informacije.
06:41
Or in a parallelparalelno universesvemir, you find this informationinformacija.
157
389911
4437
Ili u paralelnom svemiru pronađete ove.
06:46
Do you think that you would be equallyjednako likelyVjerojatno
158
394348
2717
Mislite li da je vjerojatnost jednaka
06:49
to call eitherili candidatekandidat for an interviewintervju?
159
397065
2803
kojeg kandidata ćete pozvati?
06:51
If you think so, then you are not
160
399868
2282
Ako tako mislite, onda niste
06:54
like the U.S. employersposlodavci who are, in factčinjenica,
161
402150
2582
kao američki poslodavci koji su
06:56
partdio of our experimenteksperiment, meaningznačenje we did exactlytočno that.
162
404732
3307
sudionici eksperimenta, odnosno, baš smo to uradili.
07:00
We createdstvorio FacebookFacebook profilesprofili, manipulatingza rukovanje traitsosobine,
163
408039
3182
Napravili smo Facebook profile, oblikovali karakteristike
07:03
then we startedpočeo sendingslanje out résumiznosés to companiestvrtke in the U.S.,
164
411221
2851
i počeli slati životopise tvrtkama u SAD-u;
07:06
and we detectedotkriven, we monitoredpratiti,
165
414072
1908
otkrivali smo, pratili,
07:07
whetherda li they were searchingu potrazi for our candidateskandidata,
166
415980
2393
da li pretražuju naše kandidate
07:10
and whetherda li they were actinggluma on the informationinformacija
167
418373
1832
i da li postupaju prema informacijama
07:12
they foundpronađeno on socialsocijalni mediamedia. And they were.
168
420205
1938
koje su našli na društvenim mrežama.
Činili su to.
07:14
DiscriminationDiskriminacije was happeningdogađa throughkroz socialsocijalni mediamedia
169
422143
2101
Društveni mediji su omogućili diskriminaciju
07:16
for equallyjednako skilledvješt candidateskandidata.
170
424244
3073
između jednako stručnih kandidata.
07:19
Now marketersmarketingu like us to believe
171
427317
4575
Marketeri žele da vjerujemo
07:23
that all informationinformacija about us will always
172
431892
2269
da će se naše informacije uvijek
07:26
be used in a mannerdržanje whichkoji is in our favormilost.
173
434161
3273
koristiti u našu korist.
07:29
But think again. Why should that be always the casespis?
174
437434
3715
Razmislite malo. Zašto bi to uvijek bilo tako?
07:33
In a moviefilm whichkoji camedošao out a fewnekoliko yearsgodina agoprije,
175
441149
2664
U filmu otprije nekoliko godina,
07:35
"MinorityManjina ReportIzvješće," a famouspoznat scenescena
176
443813
2553
"Manjinsko izvješće", u slavnom prizoru
07:38
had TomTom CruiseKrstarenje walkhodati in a malltrgovački centar
177
446366
2576
Tom Cruise hoda trgovačkim centrom
07:40
and holographicholografski personalizedpersonalizirane advertisingoglašavanje
178
448942
3776
i holografska reklama prilagođena njemu
07:44
would appearpojaviti around him.
179
452718
1835
pojavljuje se oko njega.
07:46
Now, that moviefilm is setset in 2054,
180
454553
3227
Radnja filma je u 2054.,
07:49
about 40 yearsgodina from now,
181
457780
1642
oko 40 godina od danas,
07:51
and as excitinguzbudljiv as that technologytehnologija looksizgled,
182
459422
2908
i koliko god uzbudljivo ta tehnologija izgledala,
07:54
it alreadyveć vastlymnogo underestimatespodcjenjuje
183
462330
2646
već danas drastično podcjenjuje
07:56
the amountiznos of informationinformacija that organizationsorganizacija
184
464976
2140
količinu informacija koje organizacije
07:59
can gatherokupiti about you, and how they can use it
185
467116
2483
mogu prikupiti o vama i koristiti
08:01
to influenceutjecaj you in a way that you will not even detectotkriti.
186
469599
3398
da utječu na vas na način koji nikada nećete otkriti.
08:04
So as an exampleprimjer, this is anotherjoš experimenteksperiment
187
472997
2103
Na primjer, evo eksperimenta
08:07
actuallyzapravo we are runningtrčanje, not yetjoš completeddovršen.
188
475100
2273
koji je u tijeku, nije još završen.
08:09
ImagineZamislite that an organizationorganizacija has accesspristup
189
477373
2319
Zamislite da organizacija ima pristup
08:11
to your listpopis of FacebookFacebook friendsprijatelji,
190
479692
2056
popisu vaših Facebook prijatelja,
08:13
and throughkroz some kindljubazan of algorithmalgoritam
191
481748
1772
i da nekakvim algoritmom
08:15
they can detectotkriti the two friendsprijatelji that you like the mostnajviše.
192
483520
3734
može otkriti vaša dva najdraža prijatelja.
08:19
And then they createstvoriti, in realstvaran time,
193
487254
2280
Zatim izrade, u stvarnom vremenu,
08:21
a faciallica compositemješavina of these two friendsprijatelji.
194
489534
2842
kompozit lica to dvoje prijatelja.
08:24
Now studiesstudije priorprije to oursnaša have shownprikazan that people
195
492376
3069
Ranije studije su pokazale
08:27
don't recognizeprepoznati any longerviše even themselvesse
196
495445
2885
da ljudi ne prepoznaju ni sebe
08:30
in faciallica compositeskompoziti, but they reactreagirati
197
498330
2462
u kompozitima lica, ali na njih
08:32
to those compositeskompoziti in a positivepozitivan mannerdržanje.
198
500792
2117
reagiraju s naklonošću.
08:34
So nextSljedeći time you are looking for a certainsiguran productproizvod,
199
502909
3415
I tako vi tražite neki proizvod,
08:38
and there is an adoglas suggestingsugerirajući you to buykupiti it,
200
506324
2559
a u oglasu koji ga reklamira,
08:40
it will not be just a standardstandard spokespersonGlasnogovornik.
201
508883
2907
nije bilo koji prezenter.
08:43
It will be one of your friendsprijatelji,
202
511790
2313
To je jedan od vaših prijatelja,
08:46
and you will not even know that this is happeningdogađa.
203
514103
3303
a vi nećete ni znati što se događa.
08:49
Now the problemproblem is that
204
517406
2413
Problem je u tome
08:51
the currentstruja policypolitika mechanismsmehanizmi we have
205
519819
2519
što su postojeći pravni mehanizmi
08:54
to protectzaštititi ourselvessebe from the abuseszloupotrebe of personalosobni informationinformacija
206
522338
3438
za zaštitu od zloporabe osobnih informacija
08:57
are like bringingdonošenje a knifenož to a gunfightobračun.
207
525776
2984
efikasni kao nož u dvoboju pištoljima.
09:00
One of these mechanismsmehanizmi is transparencyprozirnost,
208
528760
2913
Jedan od tih mehanizama je transparentnost,
09:03
tellingreći people what you are going to do with theirnjihov datapodaci.
209
531673
3200
da obavijestite ljude što ćete
činiti s njihovim podatcima.
09:06
And in principlenačelo, that's a very good thing.
210
534873
2106
U načelu, to je vrlo dobra stvar.
09:08
It's necessarypotreban, but it is not sufficientdovoljno.
211
536979
3667
To je potrebno, ali ne i dovoljno.
09:12
TransparencyTransparentnost can be misdirectedpogrešno.
212
540646
3698
Transparentnost može biti prikrivena.
09:16
You can tell people what you are going to do,
213
544344
2104
Kažete ljudima što ćete činiti s podatcima,
09:18
and then you still nudgegurkanje them to discloseotkriti
214
546448
2232
a onda ih ipak navedete da otkriju
09:20
arbitraryproizvoljan amountsiznosi of personalosobni informationinformacija.
215
548680
2623
arbitrarne količine osobnih informacija.
09:23
So in yetjoš anotherjoš experimenteksperiment, this one with studentsstudenti,
216
551303
2886
U još jednom eksperimentu, ovoga
puta sa studentima,
09:26
we askedpitao them to providepružiti informationinformacija
217
554189
3058
pitali smo ih za informacije
09:29
about theirnjihov campuskampus behaviorponašanje,
218
557247
1813
o njihovom ponašanju na fakultetu,
09:31
includinguključujući prettyprilično sensitiveosjetljiv questionspitanja, suchtakav as this one.
219
559060
2940
uključujući osjetljiva pitanja, poput ovog.
09:34
[Have you ever cheatedprevaren in an examispit?]
220
562000
621
[Jeste li ikada varali na ispitu?]
09:34
Now to one groupskupina of subjectsteme, we told them,
221
562621
2300
Jednoj skupini smo rekli,
09:36
"Only other studentsstudenti will see your answersodgovori."
222
564921
2841
"Samo će drugi studenti vidjeti vaše odgovore."
09:39
To anotherjoš groupskupina of subjectsteme, we told them,
223
567762
1579
Drugoj skupini smo rekli,
09:41
"StudentsStudenti and facultyfakultet will see your answersodgovori."
224
569341
3561
"Studenti i profesori će
vidjeti vaše odgovore."
09:44
TransparencyTransparentnost. NotificationObavijest. And sure enoughdovoljno, this workedradio,
225
572902
2591
Transparentnost. Obavijest.
Rezultat je bio taj
09:47
in the senseosjećaj that the first groupskupina of subjectsteme
226
575493
1407
da je prva skupina ispitanika
09:48
were much more likelyVjerojatno to discloseotkriti than the seconddrugi.
227
576900
2568
priznala puno više od druge.
09:51
It makesmarke senseosjećaj, right?
228
579468
1520
Ima smisla, zar ne?
09:52
But then we addeddodano the misdirectionodvraćanje pažnje.
229
580988
1490
Ali tada smo uveli prikrivanje.
09:54
We repeatedponovljen the experimenteksperiment with the sameisti two groupsgrupe,
230
582478
2760
Ponovili smo eksperiment
s iste dvije skupine,
09:57
this time addingdodajući a delayodgoditi
231
585238
2427
samo smo dodali vremenski pomak
09:59
betweenizmeđu the time we told subjectsteme
232
587665
2935
između vremena u kojem smo im rekli
10:02
how we would use theirnjihov datapodaci
233
590600
2080
kako ćemo koristiti njihove podatke
10:04
and the time we actuallyzapravo startedpočeo answeringodgovaranje the questionspitanja.
234
592680
4388
i vremena početka odgovaranja na pitanja.
10:09
How long a delayodgoditi do you think we had to adddodati
235
597068
2561
Što mislite, koliki je pomak trebao
10:11
in ordernarudžba to nullifyPoništi the inhibitoryinhibitorni effectposljedica
236
599629
4613
da se poništi efekt inhibicije
10:16
of knowingpoznavanje that facultyfakultet would see your answersodgovori?
237
604242
3411
uslijed znanja da će profesori
vidjeti odgovore?
10:19
TenDeset minutesminuta?
238
607653
1780
10 minuta?
10:21
FivePet minutesminuta?
239
609433
1791
5 minuta?
10:23
One minuteminuta?
240
611224
1776
Jednu minutu?
10:25
How about 15 secondssekundi?
241
613000
2049
Ili 15 sekundi?
10:27
Fifteen15 godina secondssekundi were sufficientdovoljno to have the two groupsgrupe
242
615049
2668
Bilo je dovoljno 15 sekundi da dvije skupine
10:29
discloseotkriti the sameisti amountiznos of informationinformacija,
243
617717
1568
otkriju istu količinu informacija,
10:31
as if the seconddrugi groupskupina now no longerviše caresbrige
244
619285
2746
kao da drugoj skupini više nije bilo važno
10:34
for facultyfakultet readingčitanje theirnjihov answersodgovori.
245
622031
2656
što će profesori pročitati odgovore.
10:36
Now I have to admitpriznati that this talk so fardaleko
246
624687
3336
Priznajem da do sada moj govor
10:40
maysvibanj soundzvuk exceedinglyiznimno gloomytmurno,
247
628023
2480
možda zvuči izrazito sumorno,
10:42
but that is not my pointtočka.
248
630503
1721
ali nije mi to cilj.
10:44
In factčinjenica, I want to sharePodjeli with you the factčinjenica that
249
632224
2699
Želim s vama podijeliti činjenicu
10:46
there are alternativesalternative.
250
634923
1772
da postoje alternative.
10:48
The way we are doing things now is not the only way
251
636695
2499
Način na koji sada obavljamo stvari nije jedini
10:51
they can doneučinio, and certainlysigurno not the bestnajbolje way
252
639194
3037
mogući način, a svakako nije najbolji
10:54
they can be doneučinio.
253
642231
2027
mogući način.
10:56
When someonenetko tellsgovori you, "People don't carebriga about privacyprivatnost,"
254
644258
4171
Kad vam kažu, "Ljudi ne mare za privatnost,"
11:00
considerrazmotriti whetherda li the gameigra has been designedkonstruiran
255
648429
2642
razmislite nije li sve možda osmišljeno
11:03
and riggednamještena so that they cannotNe možete carebriga about privacyprivatnost,
256
651071
2724
tako da ne mogu voditi
računa o privatnosti,
11:05
and comingdolazak to the realizationRealizacija that these manipulationsmanipulacije occurdoći
257
653795
3262
a shvaćanjem da se manipulacije događaju
11:09
is alreadyveć halfwayna pola puta throughkroz the processpostupak
258
657057
1607
već smo na pola puta
11:10
of beingbiće ableu stanju to protectzaštititi yourselfsami.
259
658664
2258
do mogućnosti da se zaštitimo.
11:12
When someonenetko tellsgovori you that privacyprivatnost is incompatiblekompatibilna
260
660922
3710
Kad vam kažu da je privatnost u suprotnosti
11:16
with the benefitsprednosti of bigvelika datapodaci,
261
664632
1849
s koristima od masovnih podataka,
11:18
considerrazmotriti that in the last 20 yearsgodina,
262
666481
2473
vodite računa da su u posljednjih 20 godina,
11:20
researchersistraživači have createdstvorio technologiestehnologije
263
668954
1917
otkrivene tehnologije
11:22
to allowdopustiti virtuallypraktično any electronicelektronička transactionstransakcije
264
670871
3318
koje omogućavaju praktički svim elektronskim transakcijama
11:26
to take placemjesto in a more privacy-preservingočuvanje privatnosti mannerdržanje.
265
674189
3749
odvijanje u uvjetima zaštite privatnosti.
11:29
We can browsePregledaj the InternetInternet anonymouslyanonimno.
266
677938
2555
Možemo se anonimno kretati po internetu.
11:32
We can sendposlati emailse-mail that can only be readčitati
267
680493
2678
Možemo slati e-poštu koju može čitati
11:35
by the intendednamijenjen recipientprimatelj, not even the NSANSA.
268
683171
3709
samo onaj kome šaljemo,
a ne može ni NSA.
11:38
We can have even privacy-preservingočuvanje privatnosti datapodaci miningrudarstvo.
269
686880
2997
Možemo imati čak i prikupljanje podataka
koje čuva privatnost.
11:41
In other wordsriječi, we can have the benefitsprednosti of bigvelika datapodaci
270
689877
3894
Drugim riječima, možemo imati
sve koristi od masovnih podataka,
11:45
while protectingzaštitu privacyprivatnost.
271
693771
2132
a ipak zaštititi privatnost.
11:47
Of coursenaravno, these technologiestehnologije implypodrazumijeva a shiftingpremještanje
272
695903
3791
Naravno, te tehnologije traže seljenje
11:51
of costcijena and revenuesPrihodi
273
699694
1546
troškova i prihoda
11:53
betweenizmeđu datapodaci holdersdržači and datapodaci subjectsteme,
274
701240
2107
između vlasnika podataka i
onih na koje se podaci odnose,
11:55
whichkoji is why, perhapsmožda, you don't hearčuti more about them.
275
703347
3453
i zato ne čujete puno o tome.
11:58
WhichKoji bringsdonosi me back to the GardenVrt of EdenEden.
276
706800
3706
Što me vraća u Edenski vrt.
12:02
There is a seconddrugi privacyprivatnost interpretationtumačenje
277
710506
2780
Ima još jedna interpretacija privatnosti
12:05
of the storypriča of the GardenVrt of EdenEden
278
713286
1809
u priči o rajskom vrtu
12:07
whichkoji doesn't have to do with the issueizdanje
279
715095
2096
koja se ne mora odnositi na pitanje
12:09
of AdamAdam and EveEve feelingosjećaj nakedgo
280
717191
2225
osjećaja golotinje Adama i Eve
12:11
and feelingosjećaj ashamedposramljen.
281
719416
2381
i njihovog osjećaja stida.
12:13
You can find echoesodjeci of this interpretationtumačenje
282
721797
2781
Odjek te interpretacije može se naći
12:16
in JohnJohn Milton'sMiltonov "ParadiseRaj LostIzgubio."
283
724578
2782
u "Izgubljenom raju" Johna Miltona.
12:19
In the gardenvrt, AdamAdam and EveEve are materiallymaterijalno contentsadržaj.
284
727360
4197
U vrtu, Adam i Eva su
materijalno zadovoljni.
12:23
They're happysretan. They are satisfiedzadovoljan.
285
731557
2104
Sretni su. Zadovoljni su.
12:25
HoweverMeđutim, they alsotakođer lacknedostatak knowledgeznanje
286
733661
2293
Ali nedostaju im znanje
12:27
and self-awarenesssamosvijest.
287
735954
1640
i svjesnost o sebi.
12:29
The momenttrenutak they eatjesti the aptlypodesno namedpod nazivom
288
737594
3319
Kada pojedu odgovarajuće nazvanu
12:32
fruitvoće of knowledgeznanje,
289
740913
1293
voćku znanja,
12:34
that's when they discoverotkriti themselvesse.
290
742206
2605
oni otkriju sebe.
12:36
They becomepostati awaresvjestan. They achievepostići autonomyautonomija.
291
744811
4031
Spoznaju se. Ostvare autonomiju.
12:40
The pricecijena to payplatiti, howevermeđutim, is leavingnapuštanje the gardenvrt.
292
748842
3126
Cijena, međutim, napuštanje je vrta.
12:43
So privacyprivatnost, in a way, is bothoba the meanssredstva
293
751968
3881
Privatnost je tako i sredstvo
12:47
and the pricecijena to payplatiti for freedomsloboda.
294
755849
2962
i cijena koju moramo platiti za slobodu.
12:50
Again, marketersmarketingu tell us
295
758811
2770
Marketeri nam kažu
12:53
that bigvelika datapodaci and socialsocijalni mediamedia
296
761581
3019
da masovni podaci i društveni mediji
12:56
are not just a paradiseraj of profitdobit for them,
297
764600
2979
nisu samo rajski profit za njih,
12:59
but a GardenVrt of EdenEden for the restodmor of us.
298
767579
2457
već i Edenski vrt za sve nas.
13:02
We get freebesplatno contentsadržaj.
299
770036
1238
Dobivamo besplatne sadržaje.
13:03
We get to playigrati AngryLjuta BirdsPtice. We get targetedciljano appsaplikacije.
300
771274
3123
Možemo igrati Angry Birds.
Dobivamo ciljane aplikacije.
13:06
But in factčinjenica, in a fewnekoliko yearsgodina, organizationsorganizacija
301
774397
2897
Međutim, za nekoliko godina će organizacije
13:09
will know so much about us,
302
777294
1609
znati toliko mnogo o nama,
13:10
they will be ableu stanju to inferzaključiti our desiresželje
303
778903
2710
da će moći predvidjeti naše želje
13:13
before we even formoblik them, and perhapsmožda
304
781613
2204
i prije nego ih oblikujemo, a možda
13:15
buykupiti productsproizvodi on our behalfkorist
305
783817
2447
i naručiti proizvode u naše ime
13:18
before we even know we need them.
306
786264
2274
prije nego i shvatimo da ih trebamo.
13:20
Now there was one Englishengleski authorAutor
307
788538
3237
Jedan engleski pisac
13:23
who anticipatedpredviđa this kindljubazan of futurebudućnost
308
791775
3045
je predvidio ovakvu budućnost
13:26
where we would tradetrgovina away
309
794820
1405
gdje ćemo se odreći
13:28
our autonomyautonomija and freedomsloboda for comfortudobnost.
310
796225
3548
neovisnosti i slobode za komfor.
13:31
Even more so than GeorgeGeorge OrwellOrwell,
311
799773
2161
Još i više od Georgea Orwella,
13:33
the authorAutor is, of coursenaravno, AldousAldous HuxleyHuxley.
312
801934
2761
taj autor je, naravno, Aldous Huxley.
13:36
In "BraveHrabar NewNovi WorldSvijet," he imagineszamišlja a societydruštvo
313
804695
2854
U "Vrlom novom svijetu," zamišlja društvo
13:39
where technologiestehnologije that we createdstvorio
314
807549
2171
u kojem tehnologije koje smo stvorili
13:41
originallyizvorno for freedomsloboda
315
809720
1859
da nam donesu slobodu
13:43
endkraj up coercingne prisiljava us.
316
811579
2567
naposlijetku nas sputaju.
13:46
HoweverMeđutim, in the bookrezervirati, he alsotakođer offersponude us a way out
317
814146
4791
Međutim, u knjizi nam on nudi i izlaz
13:50
of that societydruštvo, similarsličan to the pathstaza
318
818937
3438
iz takvog društva, sličan onom
13:54
that AdamAdam and EveEve had to followslijediti to leavenapustiti the gardenvrt.
319
822375
3955
Adama i Eve koji su napustili vrt.
13:58
In the wordsriječi of the SavageDivlji,
320
826330
2147
Kako je Savage rekao,
14:00
regainingvraćanju autonomyautonomija and freedomsloboda is possiblemoguće,
321
828477
3069
moguće je povratiti neovisnost i slobodu,
14:03
althoughiako the pricecijena to payplatiti is steepstrm.
322
831546
2679
ali treba platiti visoku cijenu.
14:06
So I do believe that one of the definingdefiniranje fightsborbe
323
834225
5715
Vjerujem da će jedna od ključnih bitaka
14:11
of our timesputa will be the fightborba
324
839940
2563
našeg doba biti bitka
14:14
for the controlkontrolirati over personalosobni informationinformacija,
325
842503
2387
za kontrolu nad osobnim informacijama,
14:16
the fightborba over whetherda li bigvelika datapodaci will becomepostati a forcesila
326
844890
3507
bitka oko toga hoće li masovni podaci
14:20
for freedomsloboda,
327
848397
1289
biti sila oslobođenja,
14:21
ratherradije than a forcesila whichkoji will hiddenlyhiddenly manipulatemanipulirati us.
328
849686
4746
ili sila koja će potajno manipulirati nama.
14:26
Right now, manymnogi of us
329
854432
2593
Danas mnogi od nas
14:29
do not even know that the fightborba is going on,
330
857025
2753
ni ne znaju da se ta bitka vodi,
14:31
but it is, whetherda li you like it or not.
331
859778
2672
ali odvija se, sviđalo vam se to ili ne.
14:34
And at the riskrizik of playingigranje the serpentzmija,
332
862450
2804
I riskirajući da glumim zmiju,
14:37
I will tell you that the toolsalat for the fightborba
333
865254
2897
reći ću vam da su alati za tu bitku tu,
14:40
are here, the awarenesssvijest of what is going on,
334
868151
3009
svjesnost o onome što se događa,
14:43
and in your handsruke,
335
871160
1355
u vašim su rukama,
14:44
just a fewnekoliko clicksklikova away.
336
872515
3740
samo nekoliko klikova od vas.
14:48
Thank you.
337
876255
1482
Hvala vam.
14:49
(ApplausePljesak)
338
877737
4477
(Pljesak)
Translated by Davorin Jelačić
Reviewed by Tilen Pigac - EFZG

▲Back to top

ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com