ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com
TEDGlobal 2013

Alessandro Acquisti: What will a future without secrets look like?

Alessandro Acquisti: Därför är integritet viktigt

Filmed:
1,423,103 views

Beskrivning: Gränsen mellan det offentliga och det privata livet har suddats ut under de senaste tio åren, både på nätet och i det verkliga livet. Alessandro Acquisti är här för att berätta vad detta innebär och varför det har betydelse. I detta provocerande och aningen obehagliga tal berättar han om pågående forskning -- inklusive ett projekt som visar hur enkelt det är att matcha ett foto av en främling med känslig information om personen.
- Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks. Full bio

Double-click the English transcript below to play the video.

00:12
I would like to tell you a storyberättelse
0
641
2354
Jag vill berätta en historia för er,
00:14
connectingansluta the notoriousökänd privacysekretess incidentincident
1
2995
3176
genom att länka samman
det berömda integritetsmissödet
00:18
involvinginvolverar AdamAdam and EveEve,
2
6171
2769
som involverade Adam och Eva,
00:20
and the remarkableanmärkningsvärd shiftflytta in the boundariesgränser
3
8940
3446
med ett anmärkningsvärt skifte
som skett i gränsen
00:24
betweenmellan publicoffentlig and privateprivat whichsom has occurredinträffade
4
12386
2686
mellan det offentliga
och det privata livet
00:27
in the pastdåtid 10 yearsår.
5
15072
1770
under de senaste tio åren.
00:28
You know the incidentincident.
6
16842
1298
Ni känner till missödet.
00:30
AdamAdam and EveEve one day in the GardenTrädgård of EdenEden
7
18140
3330
Adam och Eva är i Edens lustgård
00:33
realizeinse they are nakednaken.
8
21470
1843
och inser att de är nakna.
00:35
They freakfreak out.
9
23313
1500
De blir utom sig.
00:36
And the restresten is historyhistoria.
10
24813
2757
Och resten är historia.
00:39
NowadaysNuförtiden, AdamAdam and EveEve
11
27570
2188
I dagens värld skulle Adam och Eva
00:41
would probablyförmodligen actspela teater differentlyannorlunda.
12
29758
2361
troligen agera på ett annat sätt.
00:44
[@AdamAdam Last niteNite was a blastkul! lovedälskade datdat appleäpple LOLLol]
13
32119
2268
[@Adam Igår kväll var helskoj!
Älskade äpplet LOL]
00:46
[@EveEve yepJapp.. babebabe, know what happenedhände to my pantsbyxor thoTho?]
14
34387
1873
[@Eva japp..älskling,
vad hände med mina byxor??]
00:48
We do revealavslöja so much more informationinformation
15
36260
2636
Vi avslöjar mer information
00:50
about ourselvesoss själva onlineuppkopplad than ever before,
16
38896
3334
om oss själva på nätet än någonsin förut
00:54
and so much informationinformation about us
17
42230
1704
och så mycket information om oss
00:55
is beingvarelse collectedsamlade in by organizationsorganisationer.
18
43934
2224
samlas in av olika organisationer.
00:58
Now there is much to gain and benefitdra nytta
19
46158
3282
Det finns mycket att vinna
från denna massiva analys
av personlig information,
01:01
from this massivemassiv analysisanalys of personalpersonlig informationinformation,
20
49440
2446
01:03
or bigstor datadata,
21
51886
1946
eller stora datamängd,
01:05
but there are alsoockså complexkomplex tradeoffskompromisser that come
22
53832
2638
men det för också med sig
komplexa kostnader
01:08
from givingger away our privacysekretess.
23
56470
3098
när man ger bort sitt privatliv. (Skratt)
01:11
And my storyberättelse is about these tradeoffskompromisser.
24
59568
4023
Min historia handlar om dessa kostnader.
01:15
We startStart with an observationobservation whichsom, in my mindsinne,
25
63591
2584
Vi börjar med en observation
som enligt mig
01:18
has becomebli clearertydligare and clearertydligare in the pastdåtid few yearsår,
26
66175
3327
har klarnat alltmer under de senaste åren;
01:21
that any personalpersonlig informationinformation
27
69502
2097
all personlig information
01:23
can becomebli sensitivekänslig informationinformation.
28
71599
2285
kan bli känslig information.
01:25
Back in the yearår 2000, about 100 billionmiljard photosfoton
29
73884
4125
År 2000 togs det omkring
100 miljarder foton
01:30
were shotskott worldwideöver hela världen,
30
78009
1912
i hela världen
01:31
but only a minusculegemenform proportionandel of them
31
79921
3065
men enbart en minimal del av dem
01:34
were actuallyfaktiskt uploadeduppladdad onlineuppkopplad.
32
82986
1883
lades ut på nätet.
01:36
In 2010, only on FacebookFacebook, in a singleenda monthmånad,
33
84869
3361
År 2010 lades det bara på Facebook ut
01:40
2.5 billionmiljard photosfoton were uploadeduppladdad,
34
88230
3270
2,5 miljarder foton under en månad,
01:43
mostmest of them identifiedidentifierade.
35
91500
1882
varav de flesta var identifierade.
01:45
In the samesamma spanspänna of time,
36
93382
1880
Inom samma tidsram
01:47
computers'datorernas abilityförmåga to recognizeerkänna people in photosfoton
37
95262
4870
blev datorernas förmåga
att känna igen människor på foton
01:52
improvedförbättrad by threetre ordersorder of magnitudemagnitud.
38
100132
3608
ungefär 1000 gånger bättre.
01:55
What happenshänder when you combinekombinera
39
103740
1882
Vad händer när du kombinerar
01:57
these technologiesteknik togethertillsammans:
40
105622
1501
dessa två teknologier:
01:59
increasingökande availabilitytillgänglighet of facialansiktsbehandling datadata;
41
107123
2658
en ökad tillgång av ansiktsdata;
02:01
improvingförbättra facialansiktsbehandling recognizingkänna igen abilityförmåga by computersdatorer;
42
109781
3648
en förbättrad förmåga hos datorer
att känna igen ansikten;
02:05
but alsoockså cloudmoln computingdatoranvändning,
43
113429
2182
men också hos molntjänster
02:07
whichsom givesger anyonenågon in this theaterteater
44
115611
1888
som ger vem som helst inom denna arena
02:09
the kindsnäll of computationalberäknings powerkraft
45
117499
1560
den typen av datormakt
02:11
whichsom a few yearsår agosedan was only the domaindomän
46
119059
1886
som för några år sedan enbart förbehölls
02:12
of three-lettertre bokstäver agenciesbyråer;
47
120945
1782
trebokstaviga regeringsorgan;
02:14
and ubiquitousallestädes närvarande computingdatoranvändning,
48
122727
1378
och heltäckande datornät
02:16
whichsom allowstillåter my phonetelefon, whichsom is not a supercomputersuperdator,
49
124105
2892
som tillåter min mobil, som
inte är någon superdator,
02:18
to connectansluta to the InternetInternet
50
126997
1671
att kopplas till Internet
02:20
and do there hundredshundratals of thousandstusentals
51
128668
2334
och där göra hundratusentals
02:23
of faceansikte metricsmått in a few secondssekunder?
52
131002
2639
ansiktskontroller på några sekunder?
02:25
Well, we conjecturegissningar that the resultresultat
53
133641
2628
Vi kan förmoda att resultatet
02:28
of this combinationkombination of technologiesteknik
54
136269
2064
av att kombinera dessa teknologier
02:30
will be a radicalradikal changeByta in our very notionsföreställningar
55
138333
2888
kommer att vara en radikalt ändrad syn på
02:33
of privacysekretess and anonymityanonymitet.
56
141221
2257
privatliv och anonymitet.
02:35
To testtesta that, we did an experimentexperimentera
57
143478
1993
För att testa detta
gjorde vi ett experiment
02:37
on CarnegieCarnegie MellonMellon UniversityUniversitet campuscampus.
58
145471
2121
på Carnegie Mellons universitetsområde.
02:39
We askedfrågade studentsstudenter who were walkinggående by
59
147592
2099
Vi tillfrågade studenter som gick förbi
02:41
to participatedelta in a studystudie,
60
149691
1779
om att delta i en studie.
02:43
and we tooktog a shotskott with a webcamWebbkamera,
61
151470
2562
Vi tog ett foto av dem med en webbkamera
02:46
and we askedfrågade them to fillfylla out a surveyundersökning on a laptopbärbar dator.
62
154032
2782
och bad dem fylla i en enkät på en laptop.
02:48
While they were fillingfyllning out the surveyundersökning,
63
156814
1979
Medan de fyllde i enkäten
02:50
we uploadeduppladdad theirderas shotskott to a cloud-computingCloud-computing clusterklunga,
64
158793
2797
laddade vi upp fotona av
dem i ett datormoln,
02:53
and we startedsatte igång usinganvänder sig av a facialansiktsbehandling recognizerRecognizer
65
161590
1727
och vi använde
ett igenkänningsprogram
02:55
to matchmatch that shotskott to a databasedatabas
66
163317
2405
för att matcha bilderna med en databas
02:57
of some hundredshundratals of thousandstusentals of imagesbilder
67
165722
2393
bestående av hundratusentals bilder
03:00
whichsom we had downloadedhämtat from FacebookFacebook profilesprofiler.
68
168115
3596
som vi hade laddat ner
från Facebook-profiler.
03:03
By the time the subjectämne reachednådde the last pagesida
69
171711
3259
När den tillfrågade personen
kommit till sista sidan
03:06
on the surveyundersökning, the pagesida had been dynamicallydynamiskt updateduppdaterad
70
174970
3347
av enkäten, så hade sidan
dynamiskt uppdaterats
03:10
with the 10 bestbäst matchingmatchande photosfoton
71
178317
2313
med de tio bäst matchande bilderna
03:12
whichsom the recognizerRecognizer had foundhittades,
72
180630
2285
som programmet hade hittat
03:14
and we askedfrågade the subjectsämnen to indicateange
73
182915
1738
och vi bad personen att ange om
03:16
whetherhuruvida he or she foundhittades themselvessig själva in the photoFoto.
74
184653
4120
han eller hon var med på bilderna.
03:20
Do you see the subjectämne?
75
188773
3699
Ser du personen?
03:24
Well, the computerdator did, and in factfaktum did so
76
192472
2845
Datorn gjorde det - och det samma gällde
03:27
for one out of threetre subjectsämnen.
77
195317
2149
en av tre personer i studien.
03:29
So essentiallyväsentligen, we can startStart from an anonymousanonym faceansikte,
78
197466
3184
Så i princip kan vi börja med
ett helt anonymt ansikte,
03:32
offlineoff-line or onlineuppkopplad, and we can use facialansiktsbehandling recognitionerkännande
79
200650
3484
off-line eller på nätet, och
sedan kan ansiktsigenkänning
03:36
to give a namenamn to that anonymousanonym faceansikte
80
204134
2360
ge ett namn till det anonyma ansiktet
03:38
thankstack to socialsocial mediamedia datadata.
81
206494
2108
med hjälp av sociala medier.
Men för några år sedan
gjorde vi något annat.
03:40
But a few yearsår back, we did something elseannan.
82
208602
1872
03:42
We startedsatte igång from socialsocial mediamedia datadata,
83
210474
1823
Vi utgick från sociala medier
03:44
we combinedkombinerad it statisticallystatistiskt with datadata
84
212297
3051
och kombinerade datan
statistiskt med information
03:47
from U.S. governmentregering socialsocial securitysäkerhet,
85
215348
2102
från amerikanska
socialförsäkringsmyndigheten
03:49
and we endedslutade up predictingförutsäga socialsocial securitysäkerhet numberstal,
86
217450
3324
och det slutade med att vi kunde förutse
socialförsäkringsnummer, som i USA är
03:52
whichsom in the UnitedUnited StatesStaterna
87
220774
1512
03:54
are extremelyytterst sensitivekänslig informationinformation.
88
222286
2040
extremt känslig information.
03:56
Do you see where I'm going with this?
89
224326
2093
Ser ni vart jag är på väg med detta?
03:58
So if you combinekombinera the two studiesstudier togethertillsammans,
90
226419
2922
Om man kombinerar dessa två studier
04:01
then the questionfråga becomesblir,
91
229341
1512
så uppkommer frågan;
04:02
can you startStart from a faceansikte and,
92
230853
2720
kan du utgå från ett
ansikte och genom att
04:05
usinganvänder sig av facialansiktsbehandling recognitionerkännande, find a namenamn
93
233573
2311
använda ansiktsigenkänning, hitta namn
04:07
and publiclyoffentligt availabletillgängliga informationinformation
94
235884
2669
och offentligt tillgänglig information
04:10
about that namenamn and that personperson,
95
238553
1932
om det namnet och den personen
04:12
and from that publiclyoffentligt availabletillgängliga informationinformation
96
240485
2248
och utifrån den offentliga informationen
04:14
inferhärleda non-publiclyicke-offentligt availabletillgängliga informationinformation,
97
242733
2042
få fram icke offentlig information,
04:16
much more sensitivekänslig onesettor
98
244775
1606
mycket känsligare sådan
04:18
whichsom you linklänk back to the faceansikte?
99
246381
1492
som sammanlänkas till ansiktet?
04:19
And the answersvar is, yes, we can, and we did.
100
247873
1916
Och svaret är ja, vi kan,
och vi gjorde det.
04:21
Of coursekurs, the accuracynoggrannhet keepshåller getting worsevärre.
101
249789
2568
Självklart blir precisionen bara värre.
[27 % av personernas
5 första siffror identifierade]
04:24
[27% of subjects'försökspersonernas first 5 SSNSSN digitssiffror identifiedidentifierade (with 4 attemptsFörsök)]
102
252357
944
04:25
But in factfaktum, we even decidedbestämt to developutveckla an iPhoneiPhone appapp
103
253301
3827
Vi beslöt oss att utveckla en iPhone-app
04:29
whichsom usesanvändningar the phone'stelefonens internalinre camerakamera
104
257128
2715
som använder mobilens inbyggda kamera
04:31
to take a shotskott of a subjectämne
105
259843
1600
för att ta en bild av en person
och ladda upp den i ett datormoln
04:33
and then uploadladda upp it to a cloudmoln
106
261443
1487
04:34
and then do what I just describedbeskriven to you in realverklig time:
107
262930
2662
och göra exakt det jag
beskrivit för er i realtid:
04:37
looking for a matchmatch, findingfynd publicoffentlig informationinformation,
108
265592
2088
matcha bilden, söka
offentlig information,
04:39
tryingpåfrestande to inferhärleda sensitivekänslig informationinformation,
109
267680
1730
försöka få fram känslig information,
04:41
and then sendingsändning back to the phonetelefon
110
269410
2591
och sedan skicka den tillbaks till mobilen
04:44
so that it is overlaidöverlagrat on the faceansikte of the subjectämne,
111
272001
3609
så att den ligger ovanpå
bilden av personen -
04:47
an exampleexempel of augmentedaugmented realityverklighet,
112
275610
1901
ett exempel på en utvidgad verklighet,
04:49
probablyförmodligen a creepyläskiga exampleexempel of augmentedaugmented realityverklighet.
113
277511
2451
förmodligen ett skräckexempel
på utvidgad verklighet.
04:51
In factfaktum, we didn't developutveckla the appapp to make it availabletillgängliga,
114
279962
3339
Vi utvecklade inte appen för att
göra den tillgänglig,
04:55
just as a proofbevis of conceptbegrepp.
115
283301
1922
utan enbart för att bevisa något.
04:57
In factfaktum, take these technologiesteknik
116
285223
2313
Faktum är att om man tar dessa teknologier
04:59
and pushskjuta på them to theirderas logicallogisk extremeextrem.
117
287536
1837
och drar dem till sin spets,
05:01
ImagineFöreställ dig a futureframtida in whichsom strangersfrämlingar around you
118
289373
2719
tänk dig en framtid där
främlingar omkring dig
05:04
will look at you throughgenom theirderas GoogleGoogle GlassesGlasögon
119
292092
2311
tittar på dig genom sina Google-glasögon
05:06
or, one day, theirderas contactkontakta lenseslinser,
120
294403
2307
eller kanske en dag genom
sina kontaktlinser,
05:08
and use sevensju or eightåtta datadata pointspoäng about you
121
296710
4020
som tar fram sju eller åtta
tillgängliga uppgifter om dig
05:12
to inferhärleda anything elseannan
122
300730
2582
som sedan antyder allt möjligt annat
05:15
whichsom mayMaj be knownkänd about you.
123
303312
2603
som kan tas reda på om dig.
05:17
What will this futureframtida withoututan secretshemligheter look like?
124
305915
4794
Hur kommer denna framtid
utan hemligheter att se ut?
05:22
And should we carevård?
125
310709
1964
Borde vi bry oss?
05:24
We mayMaj like to believe
126
312673
1891
Vi vill gärna tro
05:26
that the futureframtida with so much wealthrikedom of datadata
127
314564
3040
att en framtid som är så
rik på information
05:29
would be a futureframtida with no more biasesförspänner,
128
317604
2514
skulle vara en framtid utan fördomar,
05:32
but in factfaktum, havinghar so much informationinformation
129
320118
3583
men att ha tillgång till så
mycket information
05:35
doesn't mean that we will make decisionsbeslut
130
323701
2191
innebär inte att vi kommer ta beslut
05:37
whichsom are more objectivemål.
131
325892
1706
som är mer objektiva.
05:39
In anotherannan experimentexperimentera, we presentedpresenteras to our subjectsämnen
132
327598
2560
I ett annat experiment presenterade vi
information om en arbetssökande
för testpersonerna.
05:42
informationinformation about a potentialpotential jobjobb candidatekandidat.
133
330158
2246
05:44
We includedinkluderad in this informationinformation some referencesreferenser
134
332404
3178
Vi inkluderade hänvisningar till
05:47
to some funnyrolig, absolutelyabsolut legalrättslig,
135
335582
2646
skojig, absolut laglig
05:50
but perhapskanske slightlylite embarrassingpinsamt informationinformation
136
338228
2465
men kanske rätt pinsam information
05:52
that the subjectämne had postedPostad onlineuppkopplad.
137
340693
2020
som kandidaten lagt upp på nätet.
Det intressanta var att en del
av våra försökspersoner
05:54
Now interestinglyintressant, amongbland our subjectsämnen,
138
342713
2366
05:57
some had postedPostad comparablejämförbar informationinformation,
139
345079
3083
hade lagt upp liknande information,
06:00
and some had not.
140
348162
2362
och andra hade inte gjort det.
06:02
WhichSom groupgrupp do you think
141
350524
1949
Vilken grupp tror du var mest benägen
06:04
was more likelytroligt to judgebedöma harshlyhårt our subjectämne?
142
352473
4552
att döma vår kandidat hårdare?
06:09
ParadoxicallyParadoxalt nog, it was the groupgrupp
143
357025
1957
Paradoxalt nog var det gruppen
06:10
who had postedPostad similarliknande informationinformation,
144
358982
1733
som hade lagt upp liknande information,
06:12
an exampleexempel of moralmoralisk dissonancedissonans.
145
360715
2942
ett exempel på moralisk dissonans.
06:15
Now you mayMaj be thinkingtänkande,
146
363657
1750
Nu kanske du tänker
06:17
this does not applytillämpa to me,
147
365407
1702
att detta inte gäller dig
06:19
because I have nothing to hideDölj.
148
367109
2162
eftersom du inte har något att gömma.
06:21
But in factfaktum, privacysekretess is not about
149
369271
2482
Men faktum är att ditt privatliv
06:23
havinghar something negativenegativ to hideDölj.
150
371753
3676
inte handlar om att gömma något negativt.
06:27
ImagineFöreställ dig that you are the H.R. directordirektör
151
375429
2354
Tänk dig att du är rekryteringschef
06:29
of a certainvissa organizationorganisation, and you receivemottasumbeloppés,
152
377783
2947
på en organisation, du får CV:n,
och du bestämmer dig för
att ta reda på mer om kandidaterna.
06:32
and you decidebesluta to find more informationinformation about the candidateskandidater.
153
380730
2473
06:35
ThereforeDärför, you GoogleGoogle theirderas namesnamn
154
383203
2460
Du googlar därför deras namn
06:37
and in a certainvissa universeuniversum,
155
385663
2240
och i ett visst universum
06:39
you find this informationinformation.
156
387903
2008
hittar du denna information.
06:41
Or in a parallelparallell universeuniversum, you find this informationinformation.
157
389911
4437
I ett annat universum,
hittar du denna information.
06:46
Do you think that you would be equallylika likelytroligt
158
394348
2717
Tror du att du skulle vara lika benägen
06:49
to call eitherantingen candidatekandidat for an interviewintervju?
159
397065
2803
att kalla båda kandidaterna
till en intervju?
06:51
If you think so, then you are not
160
399868
2282
Om du tror det, så är du inte
06:54
like the U.S. employersarbetsgivare who are, in factfaktum,
161
402150
2582
som de amerikanska arbetsgivarna som var
06:56
partdel of our experimentexperimentera, meaningmenande we did exactlyexakt that.
162
404732
3307
delaktiga i vårt experiment.
Vi gjorde exakt detta.
07:00
We createdskapad FacebookFacebook profilesprofiler, manipulatingmanipulerings traitsdrag,
163
408039
3182
Vi skapade Facebookprofiler,
manipulerade grunddragen,
07:03
then we startedsatte igång sendingsändning out résumbeloppés to companiesföretag in the U.S.,
164
411221
2851
och började skicka ut
CV:n till olika företag i USA,
07:06
and we detectedupptäckt, we monitoredövervakas,
165
414072
1908
och sedan bevakade vi
07:07
whetherhuruvida they were searchingsökande for our candidateskandidater,
166
415980
2393
om de sökte efter våra kandidater
och om de agerade utifrån informationen
07:10
and whetherhuruvida they were actingverkande on the informationinformation
167
418373
1832
som de fann på sociala medier.
Och det gjorde de.
07:12
they foundhittades on socialsocial mediamedia. And they were.
168
420205
1938
07:14
DiscriminationDiskriminering was happeninghappening throughgenom socialsocial mediamedia
169
422143
2101
Diskriminering skedde
genom sociala medier
07:16
for equallylika skilledskicklig candidateskandidater.
170
424244
3073
bland kandidater med likvärdiga meriter.
07:19
Now marketersmarknadsförare like us to believe
171
427317
4575
Marknadsförare vill få oss att tro
07:23
that all informationinformation about us will always
172
431892
2269
att all information om oss
alltid kommer att användas
07:26
be used in a mannersätt whichsom is in our favorförmån.
173
434161
3273
på ett sätt som gynnar oss.
07:29
But think again. Why should that be always the casefall?
174
437434
3715
Men tänk om. Varför
skulle det alltid vara så?
07:33
In a moviefilm whichsom camekom out a few yearsår agosedan,
175
441149
2664
I en film som kom ut för några år sedan -
07:35
"MinorityMinoriteten ReportRapport," a famouskänd scenescen
176
443813
2553
"Minority Report" - i en berömd scen
07:38
had TomTom CruiseKryssning walk in a mallköpcenter
177
446366
2576
gick Tom Cruise omkring i
ett shoppingcenter
07:40
and holographicholografisk personalizedpersonlig advertisingreklam-
178
448942
3776
och holografisk, personlig reklam
07:44
would appeardyka upp around him.
179
452718
1835
uppkom omkring honom.
07:46
Now, that moviefilm is setuppsättning in 2054,
180
454553
3227
Den filmen utspelar sig år 2054,
07:49
about 40 yearsår from now,
181
457780
1642
omkring 40 år framåt,
07:51
and as excitingspännande as that technologyteknologi looksutseende,
182
459422
2908
och hur spännande den
teknologin än ser ut,
07:54
it alreadyredan vastlyväldigt underestimatesunderskattar
183
462330
2646
så underskattar den avsevärt
07:56
the amountmängd of informationinformation that organizationsorganisationer
184
464976
2140
den mängd information som organisationer
07:59
can gathersamla about you, and how they can use it
185
467116
2483
kan samla in om dig och
hur de kan använda den
08:01
to influenceinflytande you in a way that you will not even detectupptäcka, detektera.
186
469599
3398
för att influera dig på
sätt du inte märker.
08:04
So as an exampleexempel, this is anotherannan experimentexperimentera
187
472997
2103
Här är ett exempel på ett annat experiment
08:07
actuallyfaktiskt we are runninglöpning, not yetän completedavslutad.
188
475100
2273
som vi håller på med just nu.
08:09
ImagineFöreställ dig that an organizationorganisation has accesstillgång
189
477373
2319
Tänk dig att en organisation
har tillgång till
08:11
to your listlista of FacebookFacebook friendsvänner,
190
479692
2056
din lista av Facebookvänner
08:13
and throughgenom some kindsnäll of algorithmalgoritm
191
481748
1772
och genom någon algoritm
08:15
they can detectupptäcka, detektera the two friendsvänner that you like the mostmest.
192
483520
3734
kan de upptäcka de två
vänner du gillar mest.
08:19
And then they createskapa, in realverklig time,
193
487254
2280
Sedan kan de, i realtid, skapa
08:21
a facialansiktsbehandling compositesammansatt of these two friendsvänner.
194
489534
2842
ett sammansatt ansikte av
dessa två vänner.
08:24
Now studiesstudier priortidigare to oursvår have shownvisad that people
195
492376
3069
Studier gjorda innan dem vi gjort,
har visat att folk
08:27
don't recognizeerkänna any longerlängre even themselvessig själva
196
495445
2885
inte ens känner igen sig själva i
08:30
in facialansiktsbehandling compositeskompositer, but they reactreagera
197
498330
2462
ett sammansatt ansikte
men de reagerar
08:32
to those compositeskompositer in a positivepositiv mannersätt.
198
500792
2117
på bilden på ett positivt sätt.
08:34
So nextNästa time you are looking for a certainvissa productprodukt,
199
502909
3415
Så nästa gång du söker
efter en specifik produkt
08:38
and there is an ada.d suggestingvilket tyder på you to buyköpa it,
200
506324
2559
och du ser en reklamannons för produkten,
08:40
it will not be just a standardstandard- spokespersontalesperson.
201
508883
2907
så kommer det inte vara vilket
ansikte som helst i reklamen.
08:43
It will be one of your friendsvänner,
202
511790
2313
Det kommer vara en av dina vänner
08:46
and you will not even know that this is happeninghappening.
203
514103
3303
och du kommer inte veta att det är så.
08:49
Now the problemproblem is that
204
517406
2413
Problemet just nu är
08:51
the currentnuvarande policypolitik mechanismsmekanismer we have
205
519819
2519
att de aktuella mekanismer vi har
08:54
to protectskydda ourselvesoss själva from the abusesmissbruk of personalpersonlig informationinformation
206
522338
3438
för att skydda oss från att personlig
information om oss missbrukas,
08:57
are like bringingföra a knifekniv to a gunfighteldstrid.
207
525776
2984
är som att ta med sig en kniv
till en skottlossning.
09:00
One of these mechanismsmekanismer is transparencygenomskinlighet,
208
528760
2913
En av dessa mekanismer är öppenhet;
09:03
tellingtalande people what you are going to do with theirderas datadata.
209
531673
3200
låta folk veta hur informationen
om dem kommer att användas.
09:06
And in principleprincip, that's a very good thing.
210
534873
2106
Och i princip är det en bra sak.
09:08
It's necessarynödvändig, but it is not sufficienttillräcklig.
211
536979
3667
Det är nödvändigt, men inte tillräckligt.
09:12
TransparencyÖppenhet can be misdirectedfelriktad.
212
540646
3698
Öppenhet kan vara vilseledande.
09:16
You can tell people what you are going to do,
213
544344
2104
Man kan säga till folk
vad man tänker göra
09:18
and then you still nudgeknuff them to discloselämna ut
214
546448
2232
och sedan ändå påverka dem att avslöja
09:20
arbitrarygodtycklig amountsmängder of personalpersonlig informationinformation.
215
548680
2623
godtyckliga mängder av
personlig information.
09:23
So in yetän anotherannan experimentexperimentera, this one with studentsstudenter,
216
551303
2886
Så i ett annat experiment -
denna gång bland studenter -
09:26
we askedfrågade them to provideförse informationinformation
217
554189
3058
bad vi dem att förse oss med information
09:29
about theirderas campuscampus behaviorbeteende,
218
557247
1813
om deras vanor på universitetet,
09:31
includingInklusive prettySöt sensitivekänslig questionsfrågor, suchsådan as this one.
219
559060
2940
bland annat rätt känsliga
frågor som de här:
[Har du fuskat på ett prov?]
09:34
[Have you ever cheatedfuskat in an examtentamen?]
220
562000
621
09:34
Now to one groupgrupp of subjectsämnen, we told them,
221
562621
2300
Till en grupp av studenter sade vi att
09:36
"Only other studentsstudenter will see your answerssvar."
222
564921
2841
"Enbart andra studenter
kommer se dina svar".
09:39
To anotherannan groupgrupp of subjectsämnen, we told them,
223
567762
1579
Till en annan grupp sade vi att
09:41
"StudentsStudenter and facultyfakultet will see your answerssvar."
224
569341
3561
"Studenter och lärare
kommer se dina svar".
09:44
TransparencyÖppenhet. NotificationAnmälan. And sure enoughtillräckligt, this workedarbetade,
225
572902
2591
Öppenhet. Och helt klart så fungerade det
09:47
in the sensekänsla that the first groupgrupp of subjectsämnen
226
575493
1407
genom att den första gruppen
09:48
were much more likelytroligt to discloselämna ut than the secondandra.
227
576900
2568
var mycket mer benägen
att avslöja sig än den andra.
09:51
It makesgör sensekänsla, right?
228
579468
1520
Verkar vettigt, eller hur?
Men sedan lade vi till vilseledning.
09:52
But then we addedLagt till the misdirectionvilseledning.
229
580988
1490
09:54
We repeatedupprepad the experimentexperimentera with the samesamma two groupsgrupper,
230
582478
2760
Vi upprepade experimentet
med samma två grupper,
09:57
this time addingtillsats a delaydröjsmål
231
585238
2427
denna gång med en fördröjning
09:59
betweenmellan the time we told subjectsämnen
232
587665
2935
mellan tidpunkten då vi berättade
10:02
how we would use theirderas datadata
233
590600
2080
hur vi skulle använda informationen
10:04
and the time we actuallyfaktiskt startedsatte igång answeringsvar the questionsfrågor.
234
592680
4388
och tidpunkten då de faktiskt
började besvara frågorna.
10:09
How long a delaydröjsmål do you think we had to addLägg till
235
597068
2561
Hur lång fördröjning tror ni
vi behövde lägga till
10:11
in orderbeställa to nullifyupphäva the inhibitoryhämmande effecteffekt
236
599629
4613
för att omintetgöra den hämmande effekten
10:16
of knowingmenande that facultyfakultet would see your answerssvar?
237
604242
3411
av att veta att lärare
skulle se dina svar?
10:19
TenTio minutesminuter?
238
607653
1780
Tio minuter?
10:21
FiveFem minutesminuter?
239
609433
1791
Fem minuter?
10:23
One minuteminut?
240
611224
1776
En minut?
10:25
How about 15 secondssekunder?
241
613000
2049
Vad sägs om 15 sekunder?
Femton sekunder var tillräckligt
för att de två grupperna
10:27
FifteenFemton secondssekunder were sufficienttillräcklig to have the two groupsgrupper
242
615049
2668
skulle avslöja samma mängd information,
10:29
discloselämna ut the samesamma amountmängd of informationinformation,
243
617717
1568
10:31
as if the secondandra groupgrupp now no longerlängre caresbekymmer
244
619285
2746
som om den andra gruppen
inte längre brydde sig om
10:34
for facultyfakultet readingläsning theirderas answerssvar.
245
622031
2656
att lärarna skulle läsa svaren.
10:36
Now I have to admiterkänna that this talk so farlångt
246
624687
3336
Jag måste erkänna att detta tal hittills
10:40
mayMaj soundljud exceedinglystorligen gloomydystra,
247
628023
2480
låter överdrivet dystert,
10:42
but that is not my pointpunkt.
248
630503
1721
men det är inte min avsikt.
10:44
In factfaktum, I want to sharedela med sig with you the factfaktum that
249
632224
2699
Jag vill dela med mig av vetskapen
10:46
there are alternativesalternativ.
250
634923
1772
att det finns alternativ.
10:48
The way we are doing things now is not the only way
251
636695
2499
Det sätt vi gör saker på nu
är inte det enda sättet
10:51
they can doneGjort, and certainlysäkert not the bestbäst way
252
639194
3037
och definitivt inte
det bästa sättet
10:54
they can be doneGjort.
253
642231
2027
att göra dem på.
10:56
When someonenågon tellsberättar you, "People don't carevård about privacysekretess,"
254
644258
4171
Om någon säger till dig,
"Folk bryr sig inte om sitt privatliv",
11:00
consideröverväga whetherhuruvida the gamespel has been designeddesignat
255
648429
2642
begrunda då om spelets regler
har designats
och manipulerats så att de inte
kan bry sig om sina privatliv
11:03
and riggedriggade so that they cannotkan inte carevård about privacysekretess,
256
651071
2724
11:05
and comingkommande to the realizationinsikten that these manipulationsmanipulationer occurinträffa
257
653795
3262
och att när de kommer underfund med
att denna manipulering sker
är de redan halvvägs genom processen
11:09
is alreadyredan halfwayhalvvägs throughgenom the processbearbeta
258
657057
1607
11:10
of beingvarelse ablestånd to protectskydda yourselfsjälv.
259
658664
2258
av att kunna skydda sig själva.
11:12
When someonenågon tellsberättar you that privacysekretess is incompatibleoförenliga
260
660922
3710
Om någon säger till dig att ett
privatliv inte är kompatibelt
11:16
with the benefitsfördelar of bigstor datadata,
261
664632
1849
med förmånerna av big data,
11:18
consideröverväga that in the last 20 yearsår,
262
666481
2473
ta då i beaktande att
under de senaste 20 åren
11:20
researchersforskare have createdskapad technologiesteknik
263
668954
1917
har forskare skapat teknologier
11:22
to allowtillåta virtuallypraktiskt taget any electronicelektronisk transactionstransaktioner
264
670871
3318
som möjliggör vilken elektronisk
transaktion som helst
11:26
to take placeplats in a more privacy-preservingSekretess-bevara mannersätt.
265
674189
3749
att äga rum på ett sätt
som skyddar individen.
11:29
We can browseBläddra the InternetInternet anonymouslyAnonymt.
266
677938
2555
Vi kan surfa på nätet anonymt.
11:32
We can sendskicka emailse-postmeddelanden that can only be readläsa
267
680493
2678
Vi kan skicka mejl som enbart kan läsas
11:35
by the intendedavsedd recipientmottagare, not even the NSANSA.
268
683171
3709
av den avsedda mottagaren,
inte ens av NSA.
11:38
We can have even privacy-preservingSekretess-bevara datadata miningbrytning.
269
686880
2997
Vi kan till och med skydda
individen inom datautvinning.
11:41
In other wordsord, we can have the benefitsfördelar of bigstor datadata
270
689877
3894
Med andra ord kan vi ha förmånerna
av stora mängder data
11:45
while protectingskyddande privacysekretess.
271
693771
2132
på samma gång som vi skyddar individen.
11:47
Of coursekurs, these technologiesteknik implyantyda a shiftingskiftande
272
695903
3791
Dessa teknologier innebär
förstås ett skifte
11:51
of costkosta and revenuesintäkter
273
699694
1546
i kostnader och intäkter
11:53
betweenmellan datadata holdershållare and datadata subjectsämnen,
274
701240
2107
mellan informationsinnehavare
och privatpersoner
11:55
whichsom is why, perhapskanske, you don't hearhöra more about them.
275
703347
3453
vilket kanske är orsaken till
att vi inte hör mer om dem.
11:58
WhichSom bringsger me back to the GardenTrädgård of EdenEden.
276
706800
3706
Detta för mig tillbaka
till Edens lustgård.
12:02
There is a secondandra privacysekretess interpretationtolkning
277
710506
2780
Det finns en annan tolkning
12:05
of the storyberättelse of the GardenTrädgård of EdenEden
278
713286
1809
av historien om Edens lustgård
12:07
whichsom doesn't have to do with the issueproblem
279
715095
2096
som inte har något att göra med att
12:09
of AdamAdam and EveEve feelingkänsla nakednaken
280
717191
2225
Adam och Eva känner sig nakna
12:11
and feelingkänsla ashamedskamsen.
281
719416
2381
och skamfyllda.
12:13
You can find echoesekon of this interpretationtolkning
282
721797
2781
Du kan höra ekon av denna tolkning
12:16
in JohnJohn Milton'sMiltons "ParadiseParadis LostFörlorade."
283
724578
2782
i John Miltons "Det förlorade paradiset".
12:19
In the gardenträdgård, AdamAdam and EveEve are materiallymateriellt contentinnehåll.
284
727360
4197
I lustgården så är Adam
och Eva materiellt nöjda.
12:23
They're happylycklig. They are satisfiednöjd.
285
731557
2104
De är lyckliga. De är nöjda.
12:25
HoweverEmellertid, they alsoockså lackbrist knowledgekunskap
286
733661
2293
Men, de saknar också kunskap
12:27
and self-awarenesssjälvkännedom.
287
735954
1640
och självmedvetenhet.
12:29
The momentögonblick they eatäta the aptlyträffande namedsom heter
288
737594
3319
I samma stund som de äter av
12:32
fruitfrukt of knowledgekunskap,
289
740913
1293
kunskapens frukt,
12:34
that's when they discoverUpptäck themselvessig själva.
290
742206
2605
upptäcker de sig själva.
12:36
They becomebli awaremedveten. They achieveuppnå autonomyautonomi.
291
744811
4031
De blir medvetna. De blir självständiga.
12:40
The pricepris to paybetala, howeverdock, is leavinglämnar the gardenträdgård.
292
748842
3126
Priset de får betala är att
de måste lämna lustgården.
12:43
So privacysekretess, in a way, is bothbåde the meansbetyder
293
751968
3881
Så ett privatliv innebär både tillgången
12:47
and the pricepris to paybetala for freedomfrihet.
294
755849
2962
och priset att betala för friheten.
12:50
Again, marketersmarknadsförare tell us
295
758811
2770
Återigen säger marknadsförare
12:53
that bigstor datadata and socialsocial mediamedia
296
761581
3019
att big data och sociala medier
12:56
are not just a paradiseparadis of profitvinst for them,
297
764600
2979
inte bara är ett paradis
av vinster för dem
12:59
but a GardenTrädgård of EdenEden for the restresten of us.
298
767579
2457
men också en Edens lustgård för oss andra.
13:02
We get freefri contentinnehåll.
299
770036
1238
Vi får ett fritt innehåll.
13:03
We get to playspela AngryArg BirdsFåglar. We get targetedmålinriktad appsappar.
300
771274
3123
Vi får spela Angry Birds.
Vi får målinriktade appar.
13:06
But in factfaktum, in a few yearsår, organizationsorganisationer
301
774397
2897
Men inom några år så vet organisationer
13:09
will know so much about us,
302
777294
1609
så mycket om oss
13:10
they will be ablestånd to inferhärleda our desiresönskningar
303
778903
2710
att de kan dra slutsatsen om våra önskemål
13:13
before we even formform them, and perhapskanske
304
781613
2204
innan vi ens hunnit forma dem och kanske
13:15
buyköpa productsProdukter on our behalfvägnar
305
783817
2447
köpa produkter på våra vägnar
13:18
before we even know we need them.
306
786264
2274
innan vi ens visste att vi behövde dem.
13:20
Now there was one EnglishEngelska authorförfattare
307
788538
3237
Det fanns en engelsk författare
13:23
who anticipatedförväntad this kindsnäll of futureframtida
308
791775
3045
som anade en sådan framtid
13:26
where we would tradehandel away
309
794820
1405
där vi skulle byta ut vår
13:28
our autonomyautonomi and freedomfrihet for comfortbekvämlighet.
310
796225
3548
självständighet och frihet
för bekvämlighet.
13:31
Even more so than GeorgeGeorge OrwellOrwell,
311
799773
2161
Ännu mer än författaren George Orwell,
13:33
the authorförfattare is, of coursekurs, AldousAldous HuxleyHuxley.
312
801934
2761
jag talar förstås om Aldous Huxley.
13:36
In "BraveModig NewNya WorldVärlden," he imaginesföreställer a societysamhälle
313
804695
2854
I "Du sköna nya värld" föreställer
han sig ett samhälle
13:39
where technologiesteknik that we createdskapad
314
807549
2171
där de teknologier som vi skapat,
13:41
originallyursprungligen for freedomfrihet
315
809720
1859
ursprungligen för frihet,
13:43
endslutet up coercingtvinga us.
316
811579
2567
till slut förtrycker oss.
13:46
HoweverEmellertid, in the bookbok, he alsoockså offerserbjudanden us a way out
317
814146
4791
I boken erbjuder han
emellertid en väg ut ur
13:50
of that societysamhälle, similarliknande to the pathväg
318
818937
3438
det samhället, som liknar den väg
13:54
that AdamAdam and EveEve had to followFölj to leavelämna the gardenträdgård.
319
822375
3955
som Adam och Eva måste följa
för att lämna lustgården.
13:58
In the wordsord of the SavageSavage,
320
826330
2147
Enligt Vildens ord
14:00
regainingatt återfå autonomyautonomi and freedomfrihet is possiblemöjlig,
321
828477
3069
är det möjligt att återfå
självstyre och frihet,
14:03
althoughfastän the pricepris to paybetala is steepbrant.
322
831546
2679
men priset att betala är svindlande.
14:06
So I do believe that one of the definingdefinierande fightsslagsmål
323
834225
5715
Så jag tror att en av vår tids
viktigaste kamper kommer att vara kampen
14:11
of our timesgånger will be the fightbekämpa
324
839940
2563
14:14
for the controlkontrollera over personalpersonlig informationinformation,
325
842503
2387
om kontroll över personlig information,
14:16
the fightbekämpa over whetherhuruvida bigstor datadata will becomebli a forcetvinga
326
844890
3507
kampen om huruvida big data
kommer bli en kraft
14:20
for freedomfrihet,
327
848397
1289
för frihet, istället för en kraft
14:21
rathersnarare than a forcetvinga whichsom will hiddenlyhiddenly manipulatemanipulera us.
328
849686
4746
som manipulerar oss i det fördolda.
14:26
Right now, manymånga of us
329
854432
2593
Just nu är det många av oss
14:29
do not even know that the fightbekämpa is going on,
330
857025
2753
som inte ens vet om att kampen pågår,
14:31
but it is, whetherhuruvida you like it or not.
331
859778
2672
men det gör den, vare sig
du vill det eller inte.
14:34
And at the riskrisk of playingspelar the serpentormen,
332
862450
2804
Och med risken att ta ormens roll,
14:37
I will tell you that the toolsverktyg for the fightbekämpa
333
865254
2897
vill jag säga till er att
redskapen för kampen är,
14:40
are here, the awarenessmedvetenhet of what is going on,
334
868151
3009
vetskapen om vad som pågår,
14:43
and in your handshänder,
335
871160
1355
och att det ligger i era händer,
14:44
just a few clicksklick away.
336
872515
3740
bara några klick bort.
14:48
Thank you.
337
876255
1482
Tack.
14:49
(ApplauseApplåder)
338
877737
4477
(Applåder)
Translated by Jenny Lillie
Reviewed by Stephanie Green

▲Back to top

ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com