ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com
TEDGlobal 2013

Alessandro Acquisti: What will a future without secrets look like?

Alessandro Acquisti: A magántitok jelentősége

Filmed:
1,423,103 views

Az elmúlt tíz évben elmosódott a határvonal a nyilvános és személyes adatok között. Alessandro Acquisti ennek jelentéséről és jelentőségéről beszél. Gondolatébresztő, kicsit kijózanító előadásában kutatások eredményeit mutatja be -- többek közt azt, hogy milyen egyszerű egy fotó alapján személyes információkat lenyomozni.
- Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks. Full bio

Double-click the English transcript below to play the video.

00:12
I would like to tell you a storysztori
0
641
2354
Szeretnék elmesélni egy történetet,
00:14
connectingösszekötő the notorioushirhedt privacyAdatvédelem incidentincidens
1
2995
3176
amely összekapcsolja a közismert
00:18
involvingérintő AdamAdam and EveÉva,
2
6171
2769
Ádám és Éva magánjogi esetet
00:20
and the remarkablefigyelemre méltó shiftváltás in the boundarieshatárok
3
8940
3446
és az elmúlt tíz évben megfigyelhető
00:24
betweenközött publicnyilvános and privatemagán whichmelyik has occurredtörtént
4
12386
2686
nyilvánosság és magánügy közötti
00:27
in the pastmúlt 10 yearsévek.
5
15072
1770
határeltolódást.
00:28
You know the incidentincidens.
6
16842
1298
Ismerik a történetet.
00:30
AdamAdam and EveÉva one day in the GardenKert of EdenEden
7
18140
3330
Ádám és Éva az Édenkertben egy nap rájöttek,
00:33
realizemegvalósítani they are nakedmeztelen.
8
21470
1843
hogy meztelenek.
00:35
They freakszörnyszülött out.
9
23313
1500
Kiborultak.
00:36
And the restpihenés is historytörténelem.
10
24813
2757
A többi már történelem.
00:39
NowadaysManapság, AdamAdam and EveÉva
11
27570
2188
Manapság Ádám és Éva
00:41
would probablyvalószínűleg acttörvény differentlyeltérően.
12
29758
2361
valószínűleg máshogy reagálna.
00:44
[@AdamAdam Last niteNite was a blastrobbanás! lovedszeretett datdat applealma LOLlol]
13
32119
2268
@Adam: Király volt az este! Kösz az almát LOL
00:46
[@EveÉva yepJa.. babeBabe, know what happenedtörtént to my pantsnadrág thotho?]
14
34387
1873
@Eve: Jaja! Nem tudod hol a gatyám?
00:48
We do revealfelfed so much more informationinformáció
15
36260
2636
Sokkal több információt osztunk meg
00:50
about ourselvesminket onlineonline than ever before,
16
38896
3334
magunkról online, mint valaha,
00:54
and so much informationinformáció about us
17
42230
1704
és sokkal több információt
00:55
is beinglény collectedösszegyűjtött by organizationsszervezetek.
18
43934
2224
gyűjtenek rólunk különböző szervezetek.
00:58
Now there is much to gainnyereség and benefithaszon
19
46158
3282
Namármost, rengeteget lehet nyerni
01:01
from this massivetömeges analysiselemzés of personalszemélyes informationinformáció,
20
49440
2446
egy ilyen hatalmas személyi adathalmaz
01:03
or bignagy dataadat,
21
51886
1946
elemzéséből,
01:05
but there are alsois complexösszetett tradeoffserőforrásigény that come
22
53832
2638
de bonyolult kompromisszumokat is kötünk ám azzal,
01:08
from givingígy away our privacyAdatvédelem.
23
56470
3098
hogy lemondunk a magánjogainkról.
01:11
And my storysztori is about these tradeoffserőforrásigény.
24
59568
4023
Az én történetem ezekről a kompromisszumokról szól.
01:15
We startRajt with an observationmegfigyelés whichmelyik, in my mindelme,
25
63591
2584
Azzal a megállapítással kezdeném, ami számomra
01:18
has becomeválik clearervilágosabb and clearervilágosabb in the pastmúlt fewkevés yearsévek,
26
66175
3327
egyre és egyre világosabbá vált az elmúlt pár évben,
01:21
that any personalszemélyes informationinformáció
27
69502
2097
mégpedig hogy a személyi adatok
01:23
can becomeválik sensitiveérzékeny informationinformáció.
28
71599
2285
érzékeny adatokká válhatnak.
01:25
Back in the yearév 2000, about 100 billionmilliárd, ezermillió photosfotók
29
73884
4125
2000-ben 100 milliárd fotó készült
01:30
were shotlövés worldwidevilágszerte,
30
78009
1912
szerte a világon,
01:31
but only a minusculeminuscule proportionarány of them
31
79921
3065
de csak elenyésző részük
01:34
were actuallytulajdonképpen uploadedfeltöltve onlineonline.
32
82986
1883
került fel a netre.
01:36
In 2010, only on FacebookFacebook, in a singleegyetlen monthhónap,
33
84869
3361
2010-ben, csak a Facebookon, egyetlen hónap alatt
01:40
2.5 billionmilliárd, ezermillió photosfotók were uploadedfeltöltve,
34
88230
3270
2,5 milliárd fotót töltenek fel,
01:43
mosta legtöbb of them identifiedazonosított.
35
91500
1882
melyek nagy része beazonosított.
01:45
In the sameazonos spanarasz of time,
36
93382
1880
Ez idő alatt
01:47
computers'számítógépek abilityképesség to recognizeelismerik people in photosfotók
37
95262
4870
a számítógépek arcfelismerési képessége
01:52
improvedjavított by threehárom ordersrendelés of magnitudenagyság.
38
100132
3608
három nagyságrenddel megugrott.
01:55
What happensmegtörténik when you combinekombájn
39
103740
1882
Mi történik, ha összeadjuk
01:57
these technologiestechnológiák togetheregyütt:
40
105622
1501
e két technológiát:
01:59
increasingnövekvő availabilityElérhetőség of facialarc dataadat;
41
107123
2658
az egyre több rendelkezésre álló adatot,
02:01
improvingjavuló facialarc recognizingfelismerés abilityképesség by computersszámítógépek;
42
109781
3648
az egyre jobb arcfelismerő képességet,
02:05
but alsois cloudfelhő computingszámítástechnika,
43
113429
2182
illetve a felhő alapú számítástechnikát,
02:07
whichmelyik givesad anyonebárki in this theaterszínház
44
115611
1888
ami ezen a színtéren mindenkinek
02:09
the kindkedves of computationalszámítási powererő
45
117499
1560
olyan számítási erőt biztosít,
02:11
whichmelyik a fewkevés yearsévek agoezelőtt was only the domaindomain
46
119059
1886
ami pár éve csak a hárombetűs intézmények
02:12
of three-letterhárom betűs agenciesügynökségek;
47
120945
1782
kiváltsága volt;
02:14
and ubiquitousmindenütt jelenlevő computingszámítástechnika,
48
122727
1378
és a mindent elárasztó technológiát,
02:16
whichmelyik allowslehetővé tesz my phonetelefon, whichmelyik is not a supercomputerszuperszámítógép,
49
124105
2892
amely által még a telefonom is,
ami nem egy szuperszámítógép,
02:18
to connectkapcsolódni to the InternetInternet
50
126997
1671
csatlakozni tud az internethez
02:20
and do there hundredsszáz of thousandsTöbb ezer
51
128668
2334
és ott többezer arcbemérést
02:23
of facearc metricsmetrikák in a fewkevés secondsmásodperc?
52
131002
2639
tud elvégezni másodpercek alatt?
02:25
Well, we conjecturesejtés that the resulteredmény
53
133641
2628
Nos, kitalálhatjuk, hogy ennek
02:28
of this combinationkombináció of technologiestechnológiák
54
136269
2064
a kombinációnak az eredménye
02:30
will be a radicalradikális changeváltozás in our very notionsfogalmak
55
138333
2888
radikálisan meg fogja változtatni,
hogy hogyan gondolkodunk
02:33
of privacyAdatvédelem and anonymitynévtelenség.
56
141221
2257
a magánjogokról és a névtelenségről.
02:35
To testteszt that, we did an experimentkísérlet
57
143478
1993
Elvégeztünk egy kísérletet ennek igazolására
02:37
on CarnegieCarnegie MellonMellon UniversityEgyetem campusegyetem.
58
145471
2121
a Carnegie Mellon egyetemen.
02:39
We askedkérdezte studentsdiákok who were walkinggyalogló by
59
147592
2099
Arra járó hallgatókat megkértünk,
02:41
to participaterészt venni in a studytanulmány,
60
149691
1779
hogy vegyenek részt egy felmérésben,
02:43
and we tookvett a shotlövés with a webcamwebkamera,
61
151470
2562
lefotóztuk őket egy webkamerával,
02:46
and we askedkérdezte them to filltölt out a surveyfelmérés on a laptophordozható számítógép.
62
154032
2782
majd egy laptopon kitöltettünk velük egy kérdőívet.
02:48
While they were fillingtöltő out the surveyfelmérés,
63
156814
1979
Miközben adták a válaszokat,
02:50
we uploadedfeltöltve theirazok shotlövés to a cloud-computingfelhő-számítástechnika clusterfürt,
64
158793
2797
feltöltöttük a fotóikat a felhőbe,
02:53
and we startedindult usinghasználva a facialarc recognizerfelismerő
65
161590
1727
majd lefuttattunk egy arcfelismerőt,
02:55
to matchmérkőzés that shotlövés to a databaseadatbázis
66
163317
2405
hogy megkeresse az adott fotót
02:57
of some hundredsszáz of thousandsTöbb ezer of imagesképek
67
165722
2393
többszázezer kép között,
03:00
whichmelyik we had downloadedletöltve from FacebookFacebook profilesprofilok.
68
168115
3596
amelyeket Facebook adatlapokról töltöttünk le.
03:03
By the time the subjecttantárgy reachedelért the last pageoldal
69
171711
3259
Mire a válaszadó az utolsó oldalra ért
03:06
on the surveyfelmérés, the pageoldal had been dynamicallydinamikusan updatedkorszerűsített
70
174970
3347
a kérdőíven, az oldal dinamikusan frissítődött,
03:10
with the 10 bestlegjobb matchingmegfelelő photosfotók
71
178317
2313
feldobva a 10 legjobb találatot
03:12
whichmelyik the recognizerfelismerő had foundtalál,
72
180630
2285
amire az arcfelismerő rábukkant,
03:14
and we askedkérdezte the subjectstárgyak to indicatejelez
73
182915
1738
majd megkérdeztük a tesztalanyokat,
03:16
whetherakár he or she foundtalál themselvesmaguk in the photofénykép.
74
184653
4120
hogy megtalálják-e magukat a fotón.
03:20
Do you see the subjecttantárgy?
75
188773
3699
Látják a tesztalanyt?
03:24
Well, the computerszámítógép did, and in facttény did so
76
192472
2845
Hát a számítógép látta, tulajdonképpen
03:27
for one out of threehárom subjectstárgyak.
77
195317
2149
három esetből egyben.
03:29
So essentiallylényegében, we can startRajt from an anonymousnévtelen facearc,
78
197466
3184
Alapvetően tehát kiindulhatunk egy névtelen arcból,
03:32
offlinenem elérhető or onlineonline, and we can use facialarc recognitionelismerés
79
200650
3484
offline vagy online, és arcfelismeréssel
03:36
to give a namenév to that anonymousnévtelen facearc
80
204134
2360
nevet tudunk rendelni ahhoz a képhez
03:38
thanksKösz to socialtársadalmi mediamédia dataadat.
81
206494
2108
a közösségi oldalaknak köszönhetően.
03:40
But a fewkevés yearsévek back, we did something elsemás.
82
208602
1872
Pár évvel ezelőtt azonban mással próbálkoztunk.
03:42
We startedindult from socialtársadalmi mediamédia dataadat,
83
210474
1823
A közösségi oldalak adatait
03:44
we combinedkombinált it statisticallystatisztikusan with dataadat
84
212297
3051
statisztikailag összekapcsoltuk
03:47
from U.S. governmentkormány socialtársadalmi securityBiztonság,
85
215348
2102
az amerikai társadalombiztosítási rendszerrel,
03:49
and we endedvége lett up predictingelőrejelzésére socialtársadalmi securityBiztonság numbersszám,
86
217450
3324
és így eljutottunk a TB-számokig,
03:52
whichmelyik in the UnitedEgyesült StatesÁllamok
87
220774
1512
amik Amerikában
03:54
are extremelyrendkívüli módon sensitiveérzékeny informationinformáció.
88
222286
2040
különlegesen érzékeny információk.
03:56
Do you see where I'm going with this?
89
224326
2093
Látjátok, hova akarok kilyukadni ezzel?
03:58
So if you combinekombájn the two studiestanulmányok togetheregyütt,
90
226419
2922
Tehát ha összefésülsz két kutatást,
04:01
then the questionkérdés becomesválik,
91
229341
1512
akkor a kérdés így hangzik:
04:02
can you startRajt from a facearc and,
92
230853
2720
lehet-e egy arcképből kiindulva
04:05
usinghasználva facialarc recognitionelismerés, find a namenév
93
233573
2311
arcfelismeréssel megtalálni a nevet
04:07
and publiclynyilvánosan availableelérhető informationinformáció
94
235884
2669
és egyéb nyilvános adatokat
04:10
about that namenév and that personszemély,
95
238553
1932
arról a névről és személyről,
04:12
and from that publiclynyilvánosan availableelérhető informationinformáció
96
240485
2248
és a nyilvános adatokból
04:14
inferkövetkeztetni non-publiclyNon-nyilvánosan availableelérhető informationinformáció,
97
242733
2042
kikövetkeztethetünk-e személyes adatokat,
04:16
much more sensitiveérzékeny onesazok
98
244775
1606
-- sokkal titkosabbakat --
04:18
whichmelyik you linklink back to the facearc?
99
246381
1492
amik az archoz kapcsolódnak?
04:19
And the answerválasz is, yes, we can, and we did.
100
247873
1916
A válasz igen, lehet, meg is tettük.
04:21
Of coursetanfolyam, the accuracypontosság keepstartja gettingszerzés worserosszabb.
101
249789
2568
A pontosság természetesen romlik.
04:24
[27% of subjects'tárgyak first 5 SSNTAJ-SZÁM digitsszámjegy identifiedazonosított (with 4 attemptspróbálkozás)]
102
252357
944
[4 próbálkozásból 27%-os találati
arány a TB-szám első 5 jegyére]
04:25
But in facttény, we even decidedhatározott to developfejleszt an iPhoneiPhone appapp
103
253301
3827
Egy iPhone appot is fejlesztettünk,
04:29
whichmelyik usesfelhasználások the phone'stelefon internalbelső camerakamera
104
257128
2715
amely a telefon belső kamerájával
04:31
to take a shotlövés of a subjecttantárgy
105
259843
1600
fotót készít az egyénről,
04:33
and then uploadfeltölt it to a cloudfelhő
106
261443
1487
majd feltölti a felhőbe
04:34
and then do what I just describedleírt to you in realigazi time:
107
262930
2662
és pontosan azt csinálja valós időben,
amit most elmeséltem:
04:37
looking for a matchmérkőzés, findinglelet publicnyilvános informationinformáció,
108
265592
2088
képet egyeztet, nyilvános adatot keres,
04:39
tryingmegpróbálja to inferkövetkeztetni sensitiveérzékeny informationinformáció,
109
267680
1730
próbál személyes adatot kideríteni,
04:41
and then sendingelküldés back to the phonetelefon
110
269410
2591
majd visszaküldi a telefonnak,
04:44
so that it is overlaideltakarja on the facearc of the subjecttantárgy,
111
272001
3609
ahol a célszemély arcképe felett megjelenik mindez,
04:47
an examplepélda of augmentedkiegészített realityvalóság,
112
275610
1901
jó példaként,
04:49
probablyvalószínűleg a creepyhátborzongató examplepélda of augmentedkiegészített realityvalóság.
113
277511
2451
ijesztő példaként, a kiterjesztett valóságra.
04:51
In facttény, we didn't developfejleszt the appapp to make it availableelérhető,
114
279962
3339
Igazából nem azért csináltuk az appot,
hogy terjesszük,
04:55
just as a proofbizonyíték of conceptkoncepció.
115
283301
1922
csupán hogy igazoljuk vele a koncepciót.
04:57
In facttény, take these technologiestechnológiák
116
285223
2313
Vegyük ezeket a technológiákat,
04:59
and pushnyom them to theirazok logicallogikus extremeszélső.
117
287536
1837
és képzeljük el ezeknek a végleteit.
05:01
ImagineKépzeld el a futurejövő in whichmelyik strangersidegenek around you
118
289373
2719
Képzeld el a jövőt, ahol körülötted az idegenek
05:04
will look at you throughkeresztül theirazok GoogleGoogle GlassesSzemüveg
119
292092
2311
rádnéznek a Google szemüvegen keresztül,
05:06
or, one day, theirazok contactkapcsolatba lépni lenseslencsék,
120
294403
2307
vagy egy nap kontaktlencsén keresztül,
05:08
and use sevenhét or eightnyolc dataadat pointspont about you
121
296710
4020
és hét vagy nyolc adatpontból
05:12
to inferkövetkeztetni anything elsemás
122
300730
2582
bármi mást kitalálnak rólad,
05:15
whichmelyik maylehet be knownismert about you.
123
303312
2603
amit csak tudni lehet.
05:17
What will this futurejövő withoutnélkül secretstitkok look like?
124
305915
4794
Milyen lesz ez a titkok nélküli jövő?
05:22
And should we caregondoskodás?
125
310709
1964
Érdekel ez minket?
05:24
We maylehet like to believe
126
312673
1891
Lehet, hogy szeretjük azt hinni,
05:26
that the futurejövő with so much wealthjólét of dataadat
127
314564
3040
hogy az adatbőség jövőjében
05:29
would be a futurejövő with no more biasestorzítások,
128
317604
2514
nem lesznek előítéletek,
05:32
but in facttény, havingamelynek so much informationinformáció
129
320118
3583
de ilyen mennyiségű információ
05:35
doesn't mean that we will make decisionsdöntések
130
323701
2191
még nem jelenti azt, hogy a döntéseink
05:37
whichmelyik are more objectivecélkitűzés.
131
325892
1706
tárgyilagosabbak lesznek.
05:39
In anotheregy másik experimentkísérlet, we presentedbemutatva to our subjectstárgyak
132
327598
2560
Egy másik kísérletben a tesztalanyok
05:42
informationinformáció about a potentiallehetséges jobmunka candidatejelölt.
133
330158
2246
álláskeresőkről kaptak információkat.
05:44
We includedbeleértve in this informationinformáció some referencesreferenciák
134
332404
3178
Ennek részeként belekerültek
05:47
to some funnyvicces, absolutelyteljesen legaljogi,
135
335582
2646
vicces, teljesen törvényes,
05:50
but perhapstalán slightlynémileg embarrassingkínos informationinformáció
136
338228
2465
de lehet, hogy kicsit ciki dolgok,
05:52
that the subjecttantárgy had postedhozzászóló onlineonline.
137
340693
2020
amiket az alany online megosztott.
05:54
Now interestinglyérdekes módon, amongközött our subjectstárgyak,
138
342713
2366
Érdekes módon a tesztalanyok között is volt olyan,
05:57
some had postedhozzászóló comparablehasonló informationinformáció,
139
345079
3083
aki hasonló információkat osztott meg,
06:00
and some had not.
140
348162
2362
és olyan is, aki nem.
06:02
WhichAmely groupcsoport do you think
141
350524
1949
Mit gondoltok, melyik csoport
06:04
was more likelyvalószínűleg to judgebíró harshlyélesen our subjecttantárgy?
142
352473
4552
ítélte el jobban az alanyokat?
06:09
ParadoxicallyParadox módon, it was the groupcsoport
143
357025
1957
Ellentmondásosan hangozhat, de pont az,
06:10
who had postedhozzászóló similarhasonló informationinformáció,
144
358982
1733
amelyik hasonló információkat osztott meg --
06:12
an examplepélda of moralerkölcsi dissonancedisszonancia.
145
360715
2942
jó példa a morális disszonanciára.
06:15
Now you maylehet be thinkinggondolkodás,
146
363657
1750
Most talán azt gondoljátok,
06:17
this does not applyalkalmaz to me,
147
365407
1702
hogy ez rám nem vonatkozik,
06:19
because I have nothing to hideelrejt.
148
367109
2162
mert nincs mit takargatnom.
06:21
But in facttény, privacyAdatvédelem is not about
149
369271
2482
De a magántitok nem arról szól,
06:23
havingamelynek something negativenegatív to hideelrejt.
150
371753
3676
hogy valami negatív dolgot elrejtsünk.
06:27
ImagineKépzeld el that you are the H.R. directorrendező
151
375429
2354
Tegyük fel, hogy HR igazgató vagy
06:29
of a certainbizonyos organizationszervezet, and you receivekapsumösszegés,
152
377783
2947
egy bizonyos cégnél, önéletrajzokat fogadsz,
06:32
and you decidedöntsd el to find more informationinformáció about the candidatesjelöltek.
153
380730
2473
és elhatározod, hogy többet akarsz
tudni a jelentkezőkről.
06:35
ThereforeEzért, you GoogleGoogle theirazok namesnevek
154
383203
2460
Rákeresel a nevükre,
06:37
and in a certainbizonyos universevilágegyetem,
155
385663
2240
és egy bizonyos világban
06:39
you find this informationinformáció.
156
387903
2008
rábukkansz erre az információra.
06:41
Or in a parallelpárhuzamos universevilágegyetem, you find this informationinformáció.
157
389911
4437
Egy párhuzamos világban pedig ezt találod.
06:46
Do you think that you would be equallyegyaránt likelyvalószínűleg
158
394348
2717
Gondolod, hogy ugyanolyan eséllyel
06:49
to call eitherbármelyik candidatejelölt for an interviewinterjú?
159
397065
2803
hívod be mindkét jelentkezőt interjúra?
06:51
If you think so, then you are not
160
399868
2282
Ha igen, akkor nem olyan vagy,
06:54
like the U.S. employersa munkáltatók who are, in facttény,
161
402150
2582
mint az amerikai munkáltatók, akiket
06:56
partrész of our experimentkísérlet, meaningjelentés we did exactlypontosan that.
162
404732
3307
kísérletünk részeként pontosan így teszteltünk.
07:00
We createdkészítette FacebookFacebook profilesprofilok, manipulatingmanipuláló traitsvonások,
163
408039
3182
Facebook profilokat csináltunk
a jellemzők manipulálásával,
07:03
then we startedindult sendingelküldés out résumösszegés to companiesvállalatok in the U.S.,
164
411221
2851
majd szétküldtük az önéletrajzokat
amerikai cégeknek,
07:06
and we detectedészlelt, we monitoredellenőrzött,
165
414072
1908
figyeltük, követtük
07:07
whetherakár they were searchingkutató for our candidatesjelöltek,
166
415980
2393
hogy rákeresnek-e a jelentkezőkre,
07:10
and whetherakár they were actingható on the informationinformáció
167
418373
1832
és hogy befolyásolja-e a döntéseiket az információ,
07:12
they foundtalál on socialtársadalmi mediamédia. And they were.
168
420205
1938
amit a közösségi oldalakon találtak. És igen.
07:14
DiscriminationHátrányos megkülönböztetés was happeningesemény throughkeresztül socialtársadalmi mediamédia
169
422143
2101
A közösségi oldalakon keresztül diszkriminálták
07:16
for equallyegyaránt skilledszakképzett candidatesjelöltek.
170
424244
3073
a hasonló képességű jelentkezőket.
07:19
Now marketersmarketingesek like us to believe
171
427317
4575
A marketingesek szeretnék elhitetni velünk,
07:23
that all informationinformáció about us will always
172
431892
2269
hogy ez a sok rólunk szóló adat mindig
07:26
be used in a mannermód whichmelyik is in our favorkedveznek.
173
434161
3273
ránk nézve kedvezően lesz felhasználva.
07:29
But think again. Why should that be always the caseügy?
174
437434
3715
De gondoljunk bele. Miért lenne ez mindig igaz?
07:33
In a moviefilm whichmelyik camejött out a fewkevés yearsévek agoezelőtt,
175
441149
2664
Pár évvel ezelőtt játszották
07:35
"MinorityKisebbségi ReportJelentés," a famoushíres sceneszínhely
176
443813
2553
a Különvéleményt, ahol az egyik híres jelenetben
07:38
had TomTom CruiseCruise walkséta in a mallpláza
177
446366
2576
Tom Cruise egy plázában sétál,
07:40
and holographicholografikus personalizedszemélyre szabott advertisinghirdető
178
448942
3776
és személyreszabott hologram hirdetések
07:44
would appearmegjelenik around him.
179
452718
1835
jelennek meg körülötte.
07:46
Now, that moviefilm is setkészlet in 2054,
180
454553
3227
Ez a film 2054-ben játszódik,
07:49
about 40 yearsévek from now,
181
457780
1642
nagyjából 40 év múlva,
07:51
and as excitingizgalmas as that technologytechnológia looksúgy néz ki,,
182
459422
2908
s bár izgalmasnak tűnik ez a technológia,
07:54
it alreadymár vastlymérhetetlenül underestimatesalábecsüli
183
462330
2646
máris jóval alulbecsüli
07:56
the amountösszeg of informationinformáció that organizationsszervezetek
184
464976
2140
azt az adatmennyiséget, amit a szervezetek
07:59
can gathergyűjt about you, and how they can use it
185
467116
2483
gyűjtenek rólunk, és hogy azt hogyan használhatják
08:01
to influencebefolyás you in a way that you will not even detectfelismerni.
186
469599
3398
észrevehetetlen befolyásolásra.
08:04
So as an examplepélda, this is anotheregy másik experimentkísérlet
187
472997
2103
Ismét álljon itt egy példa, egy másik kísérlet,
08:07
actuallytulajdonképpen we are runningfutás, not yetmég completedbefejezték.
188
475100
2273
ez még most is folyik, nincs még befejezve.
08:09
ImagineKépzeld el that an organizationszervezet has accesshozzáférés
189
477373
2319
Tegyük fel, hogy egy szervezet hozzáfér
08:11
to your listlista of FacebookFacebook friendsbarátok,
190
479692
2056
a Facebook ismerőseink listájához
08:13
and throughkeresztül some kindkedves of algorithmalgoritmus
191
481748
1772
és valamilyen módszerrel
08:15
they can detectfelismerni the two friendsbarátok that you like the mosta legtöbb.
192
483520
3734
kitalálják, hogy melyik két barátodat
kedveled a legjobban.
08:19
And then they createteremt, in realigazi time,
193
487254
2280
Valós időben generálnak
08:21
a facialarc compositeösszetett of these two friendsbarátok.
194
489534
2842
egy arcot a két ismerősödből.
08:24
Now studiestanulmányok priorelőzetes to oursa miénk have shownLátható that people
195
492376
3069
Korábbi kutatások igazolják, hogy az emberek
08:27
don't recognizeelismerik any longerhosszabb even themselvesmaguk
196
495445
2885
nem ismerik fel saját magukat sem
08:30
in facialarc compositeskompozitok, but they reactreagál
197
498330
2462
összetett arcokon,
08:32
to those compositeskompozitok in a positivepozitív mannermód.
198
500792
2117
de pozitívan reagálnak az összemosott képekre.
08:34
So nextkövetkező time you are looking for a certainbizonyos producttermék,
199
502909
3415
Úgyhogy legközelebb, ha keresel egy terméket,
08:38
and there is an adhirdetés suggestingami arra utal, you to buyVásárol it,
200
506324
2559
és belefutsz egy reklámba,
08:40
it will not be just a standardalapértelmezett spokespersonszóvivő.
201
508883
2907
nem csak egy tipikus eladót látsz majd.
08:43
It will be one of your friendsbarátok,
202
511790
2313
Hanem az egyik ismerősödet --
08:46
and you will not even know that this is happeningesemény.
203
514103
3303
és nem is fogod tudni, hogy mi folyik.
08:49
Now the problemprobléma is that
204
517406
2413
Az a gond,
08:51
the currentjelenlegi policyirányelv mechanismsmechanizmusok we have
205
519819
2519
hogy a jelenlegi szabályozás mellett
08:54
to protectvéd ourselvesminket from the abusesvisszaélések of personalszemélyes informationinformáció
206
522338
3438
a személyes adatokkal való
visszaélés ellen harcolni olyan,
08:57
are like bringingfűződő a knifekés to a gunfightgunfight.
207
525776
2984
mint bicskával szállni be egy háborúba.
09:00
One of these mechanismsmechanizmusok is transparencyátláthatóság,
208
528760
2913
Az egyik ilyen módszer az átláthatóság,
09:03
tellingsokatmondó people what you are going to do with theirazok dataadat.
209
531673
3200
tájékoztatni az embereket arról,
hogy mi történik az adataikkal.
09:06
And in principleelv, that's a very good thing.
210
534873
2106
Elvileg ez nagyon jó dolog.
09:08
It's necessaryszükséges, but it is not sufficientelegendő.
211
536979
3667
Szükséges, de nem elégséges.
09:12
TransparencyÁtláthatóság can be misdirectedrosszul irányított.
212
540646
3698
Az átláthatóság félrevezető lehet.
09:16
You can tell people what you are going to do,
213
544344
2104
Megmondod az embereknek, hogy mit fogsz csinálni,
09:18
and then you still nudgeGallytörő them to disclosenyilvánosságra
214
546448
2232
de még egy kicsit ösztönzöd őket arra,
09:20
arbitraryönkényes amountsösszegek of personalszemélyes informationinformáció.
215
548680
2623
hogy további személyes adatokat adjanak ki.
09:23
So in yetmég anotheregy másik experimentkísérlet, this one with studentsdiákok,
216
551303
2886
Egy újabb kísérletet hallgatókkal végeztünk,
09:26
we askedkérdezte them to providebiztosítani informationinformáció
217
554189
3058
megkérdeztük őket
09:29
about theirazok campusegyetem behaviorviselkedés,
218
557247
1813
a viselkedésükről az egyetemen,
09:31
includingbeleértve prettyszép sensitiveérzékeny questionskérdések, suchilyen as this one.
219
559060
2940
személyes kérdéseket feltéve, mint például ezt:
Puskáztál már valaha?
09:34
[Have you ever cheatedbecsapott in an examvizsga?]
220
562000
621
személyes kérdéseket feltéve, mint például ezt:
Puskáztál már valaha?
09:34
Now to one groupcsoport of subjectstárgyak, we told them,
221
562621
2300
Az egyik csoportnak azt mondtuk,
09:36
"Only other studentsdiákok will see your answersválaszokat."
222
564921
2841
hogy csak a többi hallgató fogja látni a válaszaikat.
09:39
To anotheregy másik groupcsoport of subjectstárgyak, we told them,
223
567762
1579
A másik csoportnak azt mondtuk,
09:41
"StudentsA diákok and facultykari will see your answersválaszokat."
224
569341
3561
hogy a többi hallgató és a tanszék is
látni fogja a válaszokat.
09:44
TransparencyÁtláthatóság. NotificationÉrtesítés. And sure enoughelég, this workeddolgozott,
225
572902
2591
Átláthatóság. Tájékoztatás. És ez bizony működött is,
09:47
in the senseérzék that the first groupcsoport of subjectstárgyak
226
575493
1407
abban az értelemben, hogy az első csoport
09:48
were much more likelyvalószínűleg to disclosenyilvánosságra than the secondmásodik.
227
576900
2568
sokkal hajlandóbb volt kiadni
az információt, mint a második.
09:51
It makesgyártmányú senseérzék, right?
228
579468
1520
Logikus, nem?
09:52
But then we addedhozzáadott the misdirectionfélrevezetés.
229
580988
1490
De ekkor egy kis megtévesztést csempésztünk bele.
09:54
We repeatedmegismételt the experimentkísérlet with the sameazonos two groupscsoportok,
230
582478
2760
Ugyanazzal a két csoporttal folytattuk a kísérletet,
09:57
this time addinghozzátéve a delaykésleltetés
231
585238
2427
immár egy kis késést iktatva aközé,
09:59
betweenközött the time we told subjectstárgyak
232
587665
2935
amikor elmondtuk nekik,
10:02
how we would use theirazok dataadat
233
590600
2080
hogyan lesznek felhasználva az adataik,
10:04
and the time we actuallytulajdonképpen startedindult answeringüzenetrögzítő the questionskérdések.
234
592680
4388
és amikor elkezdtük megválaszolni a kérdéseket.
10:09
How long a delaykésleltetés do you think we had to addhozzáad
235
597068
2561
Mit gondoltok, mekkora késleltetés kellett ahhoz,
10:11
in ordersorrend to nullifysemmissé the inhibitorygátló effecthatás
236
599629
4613
hogy teljesen elvesszen az a gátló hatás,
10:16
of knowingtudva that facultykari would see your answersválaszokat?
237
604242
3411
amelyet a tanszék bevonásának tudata okozott?
10:19
TenTíz minutespercek?
238
607653
1780
Tíz perc?
10:21
FiveÖt minutespercek?
239
609433
1791
Öt perc?
10:23
One minuteperc?
240
611224
1776
Egy perc?
10:25
How about 15 secondsmásodperc?
241
613000
2049
Esetleg tizenöt másodperc?
10:27
FifteenTizenöt secondsmásodperc were sufficientelegendő to have the two groupscsoportok
242
615049
2668
Tizenöt másodperc elég volt ahhoz,
10:29
disclosenyilvánosságra the sameazonos amountösszeg of informationinformáció,
243
617717
1568
hogy mindkét csoport hasonló
mennyiségű adatot osszon meg,
10:31
as if the secondmásodik groupcsoport now no longerhosszabb caresgondok
244
619285
2746
mintha a másodiknak nem számítana,
10:34
for facultykari readingolvasás theirazok answersválaszokat.
245
622031
2656
hogy a tanszék látja-e a válaszaikat.
10:36
Now I have to admitbeismerni that this talk so farmessze
246
624687
3336
Belátom, ez az előadás eddig
10:40
maylehet soundhang exceedinglyrendkívül gloomyBorús,
247
628023
2480
egy kicsit lehangoló lehet,
10:42
but that is not my pointpont.
248
630503
1721
de nem ez a lényeg.
10:44
In facttény, I want to shareOssza meg with you the facttény that
249
632224
2699
Sőt, azt szeretném elmondani nektek,
10:46
there are alternativesalternatívák.
250
634923
1772
hogy vannak atlernatívák.
10:48
The way we are doing things now is not the only way
251
636695
2499
Ahogy most mennek a dolgok,
az nem az egyetlen megoldás,
10:51
they can doneKész, and certainlybiztosan not the bestlegjobb way
252
639194
3037
és egész biztosan nem a legjobb
10:54
they can be doneKész.
253
642231
2027
megoldás.
10:56
When someonevalaki tellsmegmondja you, "People don't caregondoskodás about privacyAdatvédelem,"
254
644258
4171
Ha valaki azt mondja, "Senkit nem
érdekelnek a magánjogok",
11:00
considerfontolgat whetherakár the gamejátszma, meccs has been designedtervezett
255
648429
2642
gondolj arra, hogy a játékszabályok
vannak úgy megírva,
11:03
and riggedmanipulált so that they cannotnem tud caregondoskodás about privacyAdatvédelem,
256
651071
2724
hogy ne tudjanak foglalkozni a személyiségi jogokkal,
11:05
and comingeljövetel to the realizationmegvalósítása that these manipulationsmanipulációk occurelőfordul
257
653795
3262
és ennek a befolyásolásnak a felismerése
11:09
is alreadymár halfwayfélúton throughkeresztül the processfolyamat
258
657057
1607
már önmagában fél siker afelé,
11:10
of beinglény ableképes to protectvéd yourselfsaját magad.
259
658664
2258
hogy megvédd magad.
11:12
When someonevalaki tellsmegmondja you that privacyAdatvédelem is incompatiblenem kompatibilis
260
660922
3710
Ha valaki azt mondja, hogy a magánjogok
11:16
with the benefitselőnyök of bignagy dataadat,
261
664632
1849
és a nagy mennyiségű adat nem egyeztethető össze,
11:18
considerfontolgat that in the last 20 yearsévek,
262
666481
2473
gondolj arra, hogy az elmúlt 20 évben
11:20
researcherskutatók have createdkészítette technologiestechnológiák
263
668954
1917
a fejlesztők megteremtették a lehetőséget arra,
11:22
to allowlehetővé teszi virtuallygyakorlatilag any electronicelektronikus transactionstranzakciók
264
670871
3318
hogy szinte minden elektronikus tranzakció
11:26
to take placehely in a more privacy-preservingAdatvédelem-konzerváló mannermód.
265
674189
3749
a személyiségi jogok megóvásával történhessen.
11:29
We can browseTallózás the InternetInternet anonymouslynévtelenül.
266
677938
2555
Lehet névtelenül internetezni.
11:32
We can sendelküld emailse-mailek that can only be readolvas
267
680493
2678
Tudunk olyan emaileket küldeni,
11:35
by the intendedszándékolt recipientcímzett, not even the NSANSA.
268
683171
3709
amit csak a címzett tud
elolvasni, és még az NSA sem.
11:38
We can have even privacy-preservingAdatvédelem-konzerváló dataadat miningbányászati.
269
686880
2997
Még az adatbányászat is történhet
magánjogok megsértése nélkül.
11:41
In other wordsszavak, we can have the benefitselőnyök of bignagy dataadat
270
689877
3894
Másszóval kihasználhatjuk a tömeges adatokat úgy,
11:45
while protectingvédelme privacyAdatvédelem.
271
693771
2132
hogy közben megóvjuk a személyiségi jogokat.
11:47
Of coursetanfolyam, these technologiestechnológiák implyazt jelenti a shiftingelmozduló
272
695903
3791
Természetesen ezek a technológiák
11:51
of costköltség and revenuesbevételek
273
699694
1546
költség és bevétel eltolódást jelentenek
11:53
betweenközött dataadat holderstartók and dataadat subjectstárgyak,
274
701240
2107
az adattulajdonosok és alanyok között,
11:55
whichmelyik is why, perhapstalán, you don't hearhall more about them.
275
703347
3453
valószínűleg ezért nem hallunk róluk.
11:58
WhichAmely bringshoz me back to the GardenKert of EdenEden.
276
706800
3706
Ezzel vissza is térnék az Édenkerthez.
12:02
There is a secondmásodik privacyAdatvédelem interpretationértelmezése
277
710506
2780
Van egy másik magánjogi értelmezése
12:05
of the storysztori of the GardenKert of EdenEden
278
713286
1809
az Édenkert-történetnek,
12:07
whichmelyik doesn't have to do with the issueprobléma
279
715095
2096
amelynek nincs köze
12:09
of AdamAdam and EveÉva feelingérzés nakedmeztelen
280
717191
2225
Ádám és Éva meztelenségéhez
12:11
and feelingérzés ashamedmegszégyenülve.
281
719416
2381
és szégyenérzetéhez.
12:13
You can find echoesvisszhangok of this interpretationértelmezése
282
721797
2781
Ennek az értelmezésnek
a visszhangjai találhatóak meg
12:16
in JohnJohn Milton'sMilton "ParadiseParadicsom LostElveszett."
283
724578
2782
John Milton Elveszett Paradicsomában.
12:19
In the gardenkert, AdamAdam and EveÉva are materiallylényegesen contenttartalom.
284
727360
4197
Az Édenkertben Ádám és Éva
anyagi szempontból elégedett.
12:23
They're happyboldog. They are satisfiedelégedett.
285
731557
2104
Boldogak. Elégedettek.
12:25
HoweverAzonban, they alsois lackhiány knowledgetudás
286
733661
2293
Viszont nincs tudásuk
12:27
and self-awarenessönismeret.
287
735954
1640
és öntudatuk.
12:29
The momentpillanat they eateszik the aptlytalálóan namednevezett
288
737594
3319
Amint megeszik a találóan elnevezett
12:32
fruitgyümölcs of knowledgetudás,
289
740913
1293
tudás gyümölcsét,
12:34
that's when they discoverfelfedez themselvesmaguk.
290
742206
2605
rögtön magukra eszmélnek.
12:36
They becomeválik awaretudatában van. They achieveelér autonomyautonómia.
291
744811
4031
Tudatra ébrednek. Önállóak lesznek.
12:40
The priceár to payfizetés, howeverazonban, is leavingkilépő the gardenkert.
292
748842
3126
Mindennek az ára azonban a kiűzetés.
12:43
So privacyAdatvédelem, in a way, is bothmindkét the meanseszközök
293
751968
3881
A magánjogok bizonyos értelemben tehát
12:47
and the priceár to payfizetés for freedomszabadság.
294
755849
2962
a szabadság módját és árát jelentik.
12:50
Again, marketersmarketingesek tell us
295
758811
2770
Ismétlem, a marketingesek meg akarnak győzni,
12:53
that bignagy dataadat and socialtársadalmi mediamédia
296
761581
3019
hogy a tömegadat és a közösségi média
12:56
are not just a paradiseparadicsom of profitnyereség for them,
297
764600
2979
nem csak számukra profitparadicsom,
12:59
but a GardenKert of EdenEden for the restpihenés of us.
298
767579
2457
hanem számunkra is Édenkert.
13:02
We get freeingyenes contenttartalom.
299
770036
1238
Ingyen tartalmakat kapunk.
13:03
We get to playjáték AngryDühös BirdsMadarak. We get targetedcélzott appsalkalmazások.
300
771274
3123
Játszhatunk az Angry Birds-zel.
Személyreszabott appokhoz jutunk.
13:06
But in facttény, in a fewkevés yearsévek, organizationsszervezetek
301
774397
2897
De éveken belül a szervezetek
13:09
will know so much about us,
302
777294
1609
annyi mindent fognak tudni rólunk,
13:10
they will be ableképes to inferkövetkeztetni our desiresvágyak
303
778903
2710
hogy kitalálják a vágyainkat
13:13
before we even formforma them, and perhapstalán
304
781613
2204
még mielőtt azok bennünk megszületnének,
13:15
buyVásárol productsTermékek on our behalfnevében
305
783817
2447
és talán még vásárolnak is a nevünkben,
13:18
before we even know we need them.
306
786264
2274
még mielőtt nekünk bármire szükségünk lenne.
13:20
Now there was one Englishangol authorszerző
307
788538
3237
Volt egy angol író,
13:23
who anticipatedvárható this kindkedves of futurejövő
308
791775
3045
aki előre látta ezt a fajta jövőt,
13:26
where we would tradekereskedelmi away
309
794820
1405
ahol eladjuk
13:28
our autonomyautonómia and freedomszabadság for comfortkényelem.
310
796225
3548
a függetlenségünket és
szabadságunkat a kényelemért.
13:31
Even more so than GeorgeGeorge OrwellOrwell,
311
799773
2161
Még George Orwellen is túlmutatva --
13:33
the authorszerző is, of coursetanfolyam, AldousAldous HuxleyHuxley.
312
801934
2761
az író, természetesen, Aldous Huxley.
13:36
In "BraveBátor NewÚj WorldVilág," he imagineselképzeli a societytársadalom
313
804695
2854
A Szép Új Világban egy olyan társadalmat ír le,
13:39
where technologiestechnológiák that we createdkészítette
314
807549
2171
amelyben a technológiák,
13:41
originallyeredetileg for freedomszabadság
315
809720
1859
melyek eredetileg a szabadságot szolgálták,
13:43
endvég up coercingkényszerítése us.
316
811579
2567
végül kényszerré válnak.
13:46
HoweverAzonban, in the bookkönyv, he alsois offersajánlatok us a way out
317
814146
4791
Könyvében azonban egy kiutat is kínál
13:50
of that societytársadalom, similarhasonló to the pathpálya
318
818937
3438
ebből a társadalomból, hasonlóan ahhoz,
13:54
that AdamAdam and EveÉva had to followkövesse to leaveszabadság the gardenkert.
319
822375
3955
ahogy Ádám és Éva elhagyta a Kertet.
13:58
In the wordsszavak of the SavageSavage,
320
826330
2147
A Vadember szavaival élve,
14:00
regainingvisszanyerte autonomyautonómia and freedomszabadság is possiblelehetséges,
321
828477
3069
az önállóság és szabadság visszaszerzése lehetséges,
14:03
althoughhabár the priceár to payfizetés is steepmeredek.
322
831546
2679
de hatalmas ára van.
14:06
So I do believe that one of the definingmeghatározó fightsharcol
323
834225
5715
Azt hiszem, korunk egyik meghatározó harca
14:11
of our timesalkalommal will be the fightharc
324
839940
2563
az a csata lesz,
14:14
for the controlellenőrzés over personalszemélyes informationinformáció,
325
842503
2387
amelyet a személyiségi jogok
feletti hatalomért vívunk,
14:16
the fightharc over whetherakár bignagy dataadat will becomeválik a forceerő
326
844890
3507
amely eldönti, hogy a tömeges adatok
14:20
for freedomszabadság,
327
848397
1289
a szabadság
14:21
ratherInkább than a forceerő whichmelyik will hiddenlyhiddenly manipulatemanipulál us.
328
849686
4746
vagy a rejtett manipuláció eszközei lesznek.
14:26
Right now, manysok of us
329
854432
2593
Jelenleg sokan
14:29
do not even know that the fightharc is going on,
330
857025
2753
nem is tudják, hogy folyik ez a harc,
14:31
but it is, whetherakár you like it or not.
331
859778
2672
de folyik, ha tetszik, ha nem.
14:34
And at the riskkockázat of playingjátszik the serpentkígyó,
332
862450
2804
Lehet, hogy én leszek a kígyó,
14:37
I will tell you that the toolsszerszámok for the fightharc
333
865254
2897
de elmondom, hogy a harc eszközei
14:40
are here, the awarenesstudatosság of what is going on,
334
868151
3009
itt vannak: annak felismerése,
hogy mi megy a háttérben,
14:43
and in your handskezek,
335
871160
1355
a ti kezetekben van,
14:44
just a fewkevés clickskattintások away.
336
872515
3740
csupán pár kattintásra.
14:48
Thank you.
337
876255
1482
Köszönöm.
14:49
(ApplauseTaps)
338
877737
4477
(Taps)
Translated by Judit Szabo
Reviewed by Anna Patai

▲Back to top

ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com