ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com
TEDGlobal 2013

Alessandro Acquisti: What will a future without secrets look like?

Alessandro Acquisti: Was Datenschutz ausmacht

Filmed:
1,423,103 views

Die Grenze zwischen öffentlich und privat ist in den letzten zehn Jahren verschwommen, sowohl online als auch im wirklichen Leben, und Alessandro Acquisti ist hier, um zu erklären, was das bedeutet und warum es eine Rolle spielt. In dieser Rede, die zum Nachdenken und manchmal zum Schaudern anregt, teilt er Einzelheiten neuer und laufender Forschung – darunter ein Projekt, das zeigt, wie leicht man von einem Foto eines Fremden zu sensiblen privaten Informationen kommt.
- Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks. Full bio

Double-click the English transcript below to play the video.

00:12
I would like to tell you a storyGeschichte
0
641
2354
Ich möchte eine Geschichte erzählen,
00:14
connectingVerbindung the notoriousberüchtigt privacyDatenschutz incidentVorfall
1
2995
3176
die den berüchtigten Datenschutz-Zwischenfall
00:18
involvingmit AdamAdam and EveEve,
2
6171
2769
von Adam und Eva
00:20
and the remarkablebemerkenswert shiftVerschiebung in the boundariesGrenzen
3
8940
3446
und die bemerkenswerte
Verschiebung der Grenzen
00:24
betweenzwischen publicÖffentlichkeit and privatePrivatgelände whichwelche has occurredaufgetreten
4
12386
2686
zwischen „öffentlich“ und „privat“ in den
00:27
in the pastVergangenheit 10 yearsJahre.
5
15072
1770
letzten 10 Jahren vereint.
00:28
You know the incidentVorfall.
6
16842
1298
Sie kennen den Fall.
00:30
AdamAdam and EveEve one day in the GardenGarten of EdenEden
7
18140
3330
Eines Tages bemerken
Adam und Eva im Garten Eden,
00:33
realizerealisieren they are nakednackt.
8
21470
1843
dass sie nackt sind.
00:35
They freakFreak out.
9
23313
1500
Sie drehen durch.
00:36
And the restsich ausruhen is historyGeschichte.
10
24813
2757
Und der Rest ist Geschichte.
00:39
NowadaysHeute, AdamAdam and EveEve
11
27570
2188
Heute würden sich Adam und Eva
00:41
would probablywahrscheinlich actHandlung differentlyanders.
12
29758
2361
wahrscheinlich anders verhalten.
00:44
[@AdamAdam Last niteNite was a blastsprengen! lovedliebte datDAT appleApfel LOLLOL]
13
32119
2268
[@Adam Letzte Nacht war wahnsinn!
leckerer Apfel LOL]
00:46
[@EveEve yepYep.. babeBabe, know what happenedpassiert to my pantsHose thotho?]
14
34387
1873
[@Eva ja.. schatz, was ist denn
mit meiner Hose passiert?]
00:48
We do revealverraten so much more informationInformation
15
36260
2636
Im Internet geben wir wirklich so viel mehr
00:50
about ourselvesuns selbst onlineonline than ever before,
16
38896
3334
Informationen über uns preis als je zuvor,
00:54
and so much informationInformation about us
17
42230
1704
und so viel mehr davon
00:55
is beingSein collectedgesammelt by organizationsOrganisationen.
18
43934
2224
wird von Organisationen gesammelt.
00:58
Now there is much to gaingewinnen and benefitVorteil
19
46158
3282
Diese massive Auswertung persönlicher Daten
01:01
from this massivemassiv analysisAnalyse of personalpersönlich informationInformation,
20
49440
2446
– oder „Big Data“ – kann eine große
01:03
or biggroß dataDaten,
21
51886
1946
Bereicherung sein,
01:05
but there are alsoebenfalls complexKomplex tradeoffsNachteile that come
22
53832
2638
aber wir lassen uns
auf komplexe Kompromisse ein,
01:08
from givinggeben away our privacyDatenschutz.
23
56470
3098
wenn wir unsere Privatsphäre aufgeben.
01:11
And my storyGeschichte is about these tradeoffsNachteile.
24
59568
4023
Und davon handelt meine Geschichte.
01:15
We startAnfang with an observationÜberwachung whichwelche, in my mindVerstand,
25
63591
2584
Wir beginnen mit einer Beobachtung,
die für mich
01:18
has becomewerden clearerklarer and clearerklarer in the pastVergangenheit fewwenige yearsJahre,
26
66175
3327
in den letzten Jahren
immer eindeutiger geworden ist,
01:21
that any personalpersönlich informationInformation
27
69502
2097
dass jede persönliche Information
01:23
can becomewerden sensitiveempfindlich informationInformation.
28
71599
2285
zu sensibler Information werden kann.
01:25
Back in the yearJahr 2000, about 100 billionMilliarde photosFotos
29
73884
4125
Im Jahr 2000 wurden
weltweit etwa 100 Milliarden
01:30
were shotSchuss worldwideweltweit,
30
78009
1912
Fotos geschossen,
01:31
but only a minusculeMinuskel proportionAnteil of them
31
79921
3065
aber nur ein winziger Teil davon
01:34
were actuallytatsächlich uploadedhochgeladen onlineonline.
32
82986
1883
wurde ins Netz geladen.
01:36
In 2010, only on FacebookFacebook, in a singleSingle monthMonat,
33
84869
3361
2010 wurden allein auf Facebook in einem Monat
01:40
2.5 billionMilliarde photosFotos were uploadedhochgeladen,
34
88230
3270
2,5 Milliarden Fotos hochgeladen,
01:43
mostdie meisten of them identifiedidentifiziert.
35
91500
1882
die meisten mit Namen beschriftet.
01:45
In the samegleich spanSpanne of time,
36
93382
1880
In derselben Zeit
01:47
computers'Computer abilityFähigkeit to recognizeerkenne people in photosFotos
37
95262
4870
hat sich die Gesichtserkennung
von Computern
01:52
improvedverbessert by threedrei ordersBestellungen of magnitudeGröße.
38
100132
3608
um drei Größenordnungen verbessert.
01:55
What happensdas passiert when you combinekombinieren
39
103740
1882
Was passiert, wenn man diese beiden
01:57
these technologiesTechnologien togetherzusammen:
40
105622
1501
Technologien kombiniert:
01:59
increasingsteigend availabilityVerfügbarkeit of facialGesichtsbehandlung dataDaten;
41
107123
2658
Erhöhte Verfügbarkeit von Gesichtsdaten;
02:01
improvingVerbesserung facialGesichtsbehandlung recognizingerkennen abilityFähigkeit by computersComputer;
42
109781
3648
verbesserte Gesichtserkennung
durch Computer;
02:05
but alsoebenfalls cloudWolke computingComputer,
43
113429
2182
aber auch Cloud-Computing,
02:07
whichwelche givesgibt anyonejemand in this theaterTheater
44
115611
1888
das jedem in diesem Saal
02:09
the kindArt of computationalrechnerisch powerLeistung
45
117499
1560
Rechenkapazitäten in die Hände legt,
02:11
whichwelche a fewwenige yearsJahre agovor was only the domainDomain
46
119059
1886
die vor ein paar Jahren nur Behörden
02:12
of three-letterdrei Buchstaben agenciesAgenturen;
47
120945
1782
mit drei Buchstaben hatten;
02:14
and ubiquitousallgegenwärtig computingComputer,
48
122727
1378
und allgegenwärtige Computer,
02:16
whichwelche allowserlaubt my phoneTelefon, whichwelche is not a supercomputerSupercomputer,
49
124105
2892
die es meinem Telefon,
das nun kein Supercomputer ist,
02:18
to connectverbinden to the InternetInternet
50
126997
1671
ermöglichen, ins Internet zu gehen
02:20
and do there hundredsHunderte of thousandsTausende
51
128668
2334
und dort hunderttausende Gesichter
02:23
of faceGesicht metricsMetriken in a fewwenige secondsSekunden?
52
131002
2639
in ein paar Sekunden zu vergleichen?
02:25
Well, we conjectureVermutung that the resultErgebnis
53
133641
2628
Wir mutmaßen, dass das Ergebnis
02:28
of this combinationKombination of technologiesTechnologien
54
136269
2064
dieser Kombination von Technologien
02:30
will be a radicalRadikale changeVeränderung in our very notionsVorstellungen
55
138333
2888
eine radikaler Wandel in unserer Auffassung
02:33
of privacyDatenschutz and anonymityAnonymität.
56
141221
2257
von Privatsphäre und Anonymität sein wird.
02:35
To testTest that, we did an experimentExperiment
57
143478
1993
Mit einem Experiment auf dem Campus
02:37
on CarnegieCarnegie MellonMellon UniversityUniversität campusCampus.
58
145471
2121
unserer Universität haben wir das getestet.
02:39
We askedaufgefordert studentsStudenten who were walkingGehen by
59
147592
2099
Wir baten vorbeilaufende Studenten,
02:41
to participatesich beteiligen in a studyStudie,
60
149691
1779
an einer Studie teilzunehmen,
02:43
and we tookdauerte a shotSchuss with a webcamWebcam,
61
151470
2562
machten ein Foto mit einer Webcam,
02:46
and we askedaufgefordert them to fillfüllen out a surveyUmfrage on a laptopLaptop.
62
154032
2782
und baten sie, auf einem Laptop
einen Fragebogen auszufüllen.
02:48
While they were fillingFüllung out the surveyUmfrage,
63
156814
1979
Während sie das taten,
02:50
we uploadedhochgeladen theirihr shotSchuss to a cloud-computingCloud-computing clusterCluster,
64
158793
2797
schickten wir ihr Foto an einen Großrechner
02:53
and we startedhat angefangen usingmit a facialGesichtsbehandlung recognizerErkennungsmodul
65
161590
1727
und fingen an, dieses Foto
02:55
to matchSpiel that shotSchuss to a databaseDatenbank
66
163317
2405
per Gesichtserkennung mit einer Datenbank
02:57
of some hundredsHunderte of thousandsTausende of imagesBilder
67
165722
2393
von ein paar hunderttausend Fotos
abzugleichen,
03:00
whichwelche we had downloadedheruntergeladen from FacebookFacebook profilesProfile.
68
168115
3596
die wir von Facebook-Profilen
gesammelt hatten.
03:03
By the time the subjectFach reachederreicht the last pageSeite
69
171711
3259
Bevor die Testperson die letzte Seite erreichte,
03:06
on the surveyUmfrage, the pageSeite had been dynamicallydynamisch updatedaktualisiert
70
174970
3347
wurde sie automatisch
mit den zehn Fotos aktualisiert,
03:10
with the 10 bestBeste matchingpassende photosFotos
71
178317
2313
die laut Gesichtserkennung
03:12
whichwelche the recognizerErkennungsmodul had foundgefunden,
72
180630
2285
die größte Übereinstimmung hatten,
03:14
and we askedaufgefordert the subjectsFächer to indicatezeigen
73
182915
1738
und wir fragten die Teilnehmer,
03:16
whetherob he or she foundgefunden themselvessich in the photoFoto.
74
184653
4120
ob sie sich selbst auf einem Foto erkannten.
03:20
Do you see the subjectFach?
75
188773
3699
Erkennen Sie die Testperson?
03:24
Well, the computerComputer did, and in factTatsache did so
76
192472
2845
Der Computer schon, und zwar
03:27
for one out of threedrei subjectsFächer.
77
195317
2149
bei einem von drei Teilnehmern.
03:29
So essentiallyim Wesentlichen, we can startAnfang from an anonymousanonym faceGesicht,
78
197466
3184
Im Grunde können wir also
ein unbekanntes Gesicht nehmen,
03:32
offlineoffline or onlineonline, and we can use facialGesichtsbehandlung recognitionAnerkennung
79
200650
3484
offline oder online,
und ihm durch Gesichtserkennung
03:36
to give a nameName to that anonymousanonym faceGesicht
80
204134
2360
dank Daten aus den sozialen Medien
03:38
thanksVielen Dank to socialSozial mediaMedien dataDaten.
81
206494
2108
einen Namen geben.
03:40
But a fewwenige yearsJahre back, we did something elsesonst.
82
208602
1872
Aber vor ein paar Jahren
taten wir etwas anderes.
03:42
We startedhat angefangen from socialSozial mediaMedien dataDaten,
83
210474
1823
Wir nahmen Daten aus sozialen Medien,
03:44
we combinedkombiniert it statisticallystatistisch with dataDaten
84
212297
3051
kombinierten sie statistisch mit Daten
03:47
from U.S. governmentRegierung socialSozial securitySicherheit,
85
215348
2102
der US-amerikanischen Sozialversicherung,
03:49
and we endedendete up predictingvorhersagen socialSozial securitySicherheit numbersNummern,
86
217450
3324
und konnten damit
Sozialversicherungsnummern vorhersagen –
03:52
whichwelche in the UnitedVereinigte StatesStaaten
87
220774
1512
in den USA sind das
03:54
are extremelyäußerst sensitiveempfindlich informationInformation.
88
222286
2040
extrem sensible Daten.
03:56
Do you see where I'm going with this?
89
224326
2093
Sehen Sie, worauf ich hinauswill?
03:58
So if you combinekombinieren the two studiesStudien togetherzusammen,
90
226419
2922
Wenn man diese beiden Studien kombiniert,
04:01
then the questionFrage becomeswird,
91
229341
1512
ist die Frage, ob man
04:02
can you startAnfang from a faceGesicht and,
92
230853
2720
von einem Gesicht ausgehen kann,
04:05
usingmit facialGesichtsbehandlung recognitionAnerkennung, find a nameName
93
233573
2311
dazu per Gesichtserkennung einen Namen
04:07
and publiclyöffentlich availableverfügbar informationInformation
94
235884
2669
und anhand des Namens
04:10
about that nameName and that personPerson,
95
238553
1932
öffentliche Informationen finden kann,
04:12
and from that publiclyöffentlich availableverfügbar informationInformation
96
240485
2248
und aus diesen öffentlichen Informationen
04:14
inferSchließen non-publiclynicht öffentlich availableverfügbar informationInformation,
97
242733
2042
auf nicht-öffentliche schließen kann,
04:16
much more sensitiveempfindlich onesEinsen
98
244775
1606
die viel sensibler sind,
04:18
whichwelche you linkVerknüpfung back to the faceGesicht?
99
246381
1492
die man dann zum Gesicht zurückführt?
04:19
And the answerAntworten is, yes, we can, and we did.
100
247873
1916
Die Antwort ist: Ja, können und haben wir.
04:21
Of courseKurs, the accuracyGenauigkeit keepshält gettingbekommen worseschlechter.
101
249789
2568
Natürlich leidet darunter die Genauigkeit.
04:24
[27% of subjects'Themen first 5 SSNSSN digitsZiffern identifiedidentifiziert (with 4 attemptsVersuche)]
102
252357
944
[27 % der ersten 5 Ziffern
der SV-Nummern gefunden (bei 4 Versuchen)]
04:25
But in factTatsache, we even decidedbeschlossen to developentwickeln an iPhoneiPhone appApp
103
253301
3827
Aber wir haben sogar eine App
fürs iPhone entwickelt,
04:29
whichwelche usesVerwendungen the phone'sTelefone internalintern cameraKamera
104
257128
2715
die mit der Kamera des Geräts ein Foto
04:31
to take a shotSchuss of a subjectFach
105
259843
1600
von einer Person macht,
04:33
and then uploadhochladen it to a cloudWolke
106
261443
1487
es an die Cloud schickt,
04:34
and then do what I just describedbeschrieben to you in realecht time:
107
262930
2662
und dann in Echtzeit tut,
was ich gerade beschrieben habe:
04:37
looking for a matchSpiel, findingErgebnis publicÖffentlichkeit informationInformation,
108
265592
2088
Sie vergleicht Gesichter,
findet öffentliche Informationen,
04:39
tryingversuchen to inferSchließen sensitiveempfindlich informationInformation,
109
267680
1730
versucht, auf sensible Informationen zu schließen,
04:41
and then sendingSenden back to the phoneTelefon
110
269410
2591
sendet sie an das Telefon zurück,
04:44
so that it is overlaidüberlagert on the faceGesicht of the subjectFach,
111
272001
3609
und zeigt sie über dem Gesicht der Person an;
04:47
an exampleBeispiel of augmentederweitert realityWirklichkeit,
112
275610
1901
Ein Beispiel für erweiterte Realität,
04:49
probablywahrscheinlich a creepygruselig exampleBeispiel of augmentederweitert realityWirklichkeit.
113
277511
2451
und wohl eher ein unheimliches Beispiel.
04:51
In factTatsache, we didn't developentwickeln the appApp to make it availableverfügbar,
114
279962
3339
Wir haben diese App nicht entwickelt,
um sie zu veröffentlichen,
04:55
just as a proofBeweis of conceptKonzept.
115
283301
1922
sondern um die Machbarkeit zu beweisen.
04:57
In factTatsache, take these technologiesTechnologien
116
285223
2313
Aber nehmen wir diese Technologien
04:59
and pushdrücken them to theirihr logicallogisch extremeextrem.
117
287536
1837
und treiben wir sie auf die logische Spitze.
05:01
ImagineStellen Sie sich vor a futureZukunft in whichwelche strangersFremde around you
118
289373
2719
Stellen Sie sich eine Zukunft vor, in der Fremde
05:04
will look at you throughdurch theirihr GoogleGoogle GlassesBrille
119
292092
2311
Sie durch ihre Google-Brille sehen,
05:06
or, one day, theirihr contactKontakt lensesLinsen,
120
294403
2307
oder irgendwann durch ihre Kontaktlinsen,
05:08
and use sevenSieben or eightacht dataDaten pointsPunkte about you
121
296710
4020
und mit sieben, acht Datenpunkten über Sie
05:12
to inferSchließen anything elsesonst
122
300730
2582
auf alles andere schließen,
05:15
whichwelche maykann be knownbekannt about you.
123
303312
2603
das man über Sie wissen kann.
05:17
What will this futureZukunft withoutohne secretsGeheimnisse look like?
124
305915
4794
Wie sieht diese Zukunft
ohne Geheimnisse aus?
05:22
And should we carePflege?
125
310709
1964
Und spielt das für uns eine Rolle?
05:24
We maykann like to believe
126
312673
1891
Vielleicht glauben wir gerne,
05:26
that the futureZukunft with so much wealthReichtum of dataDaten
127
314564
3040
dass eine Zukunft mit solchen Datenreichtümern
05:29
would be a futureZukunft with no more biasesVorurteile,
128
317604
2514
eine Zukunft ohne Vorurteile ist,
05:32
but in factTatsache, havingmit so much informationInformation
129
320118
3583
aber tatsächlich bedeutet diese Fülle
05:35
doesn't mean that we will make decisionsEntscheidungen
130
323701
2191
an Information nicht, dass wir objektivere
05:37
whichwelche are more objectiveZielsetzung.
131
325892
1706
Entscheidungen treffen.
05:39
In anotherein anderer experimentExperiment, we presentedvorgeführt to our subjectsFächer
132
327598
2560
In einem anderen Experiment
gaben wir den Teilnehmern
05:42
informationInformation about a potentialPotenzial jobJob candidateKandidat.
133
330158
2246
Informationen über einen Bewerber
auf einen Job.
05:44
We includedinbegriffen in this informationInformation some referencesVerweise
134
332404
3178
Ein Teil dieser Informationen
betraf Situationen,
05:47
to some funnykomisch, absolutelyunbedingt legallegal,
135
335582
2646
die zwar lustig und völlig legal,
05:50
but perhapsvielleicht slightlyleicht embarrassingpeinlich informationInformation
136
338228
2465
aber vielleicht etwas peinlich waren,
05:52
that the subjectFach had postedGesendet onlineonline.
137
340693
2020
die die „Bewerber“ ins Netz gestellt hatten.
05:54
Now interestinglyinteressant, amongunter our subjectsFächer,
138
342713
2366
Interessant war, dass manche Teilnehmer
05:57
some had postedGesendet comparablevergleichbar informationInformation,
139
345079
3083
so etwas auch schon einmal gepostet hatten
06:00
and some had not.
140
348162
2362
und andere nicht.
06:02
WhichDie groupGruppe do you think
141
350524
1949
Welche Gruppe, glauben Sie,
06:04
was more likelywahrscheinlich to judgeRichter harshlyhart our subjectFach?
142
352473
4552
hat die Bewerber strenger beurteilt?
06:09
ParadoxicallyParadoxerweise, it was the groupGruppe
143
357025
1957
Paradoxerweise war es die Gruppe,
06:10
who had postedGesendet similarähnlich informationInformation,
144
358982
1733
die selbst ähnliche Posts geschrieben hatte –
06:12
an exampleBeispiel of moralMoral- dissonanceDissonanz.
145
360715
2942
ein Beispiel für moralische Dissonanz.
06:15
Now you maykann be thinkingDenken,
146
363657
1750
Vielleicht denken Sie jetzt:
06:17
this does not applysich bewerben to me,
147
365407
1702
„Das betrifft mich nicht,
06:19
because I have nothing to hideverbergen.
148
367109
2162
weil ich nichts zu verbergen habe.“
06:21
But in factTatsache, privacyDatenschutz is not about
149
369271
2482
Aber Privatsphäre bedeutet nicht,
06:23
havingmit something negativeNegativ to hideverbergen.
150
371753
3676
etwas Negatives verbergen zu wollen.
06:27
ImagineStellen Sie sich vor that you are the H.R. directorDirektor
151
375429
2354
Stellen Sie sich vor,
Sie seien Personalchef
06:29
of a certainsicher organizationOrganisation, and you receiveerhaltensumSummeés,
152
377783
2947
einer Organisation.
Man schickt Ihnen Lebensläufe
06:32
and you decideentscheiden to find more informationInformation about the candidatesKandidaten.
153
380730
2473
und Sie wollen mehr Informationen
über die Bewerber finden.
06:35
ThereforeDaher, you GoogleGoogle theirihr namesNamen
154
383203
2460
Also googlen Sie ihre Namen
06:37
and in a certainsicher universeUniversum,
155
385663
2240
und in einem gewissen Universum
06:39
you find this informationInformation.
156
387903
2008
finden Sie diese Information.
06:41
Or in a parallelparallel universeUniversum, you find this informationInformation.
157
389911
4437
Oder in einem Paralleluniversum
finden Sie diese.
06:46
Do you think that you would be equallygleichermaßen likelywahrscheinlich
158
394348
2717
Glauben Sie, Sie würden beide Bewerberinnen
06:49
to call eitherentweder candidateKandidat for an interviewInterview?
159
397065
2803
mit derselben Wahrscheinlichkeit
zum Gespräch einladen?
06:51
If you think so, then you are not
160
399868
2282
Wenn ja, dann denken Sie anders
06:54
like the U.S. employersArbeitgeber who are, in factTatsache,
161
402150
2582
als die Arbeitgeber der USA, die tatsächlich
06:56
partTeil of our experimentExperiment, meaningBedeutung we did exactlygenau that.
162
404732
3307
Teil unseres Experimentes waren,
denn genau das taten wir:
07:00
We createderstellt FacebookFacebook profilesProfile, manipulatingmanipulierend traitsZüge,
163
408039
3182
Wir erstellten Facebook-Profile
mit verschiedenen Eigenschaften
07:03
then we startedhat angefangen sendingSenden out résumSummeés to companiesFirmen in the U.S.,
164
411221
2851
und schickten Bewerbungen
an Firmen in den USA,
07:06
and we detectederkannt, we monitoredüberwacht,
165
414072
1908
wir zeichneten auf,
07:07
whetherob they were searchingSuche for our candidatesKandidaten,
166
415980
2393
ob sie nach unseren Bewerbern suchten,
07:10
and whetherob they were actingSchauspielkunst on the informationInformation
167
418373
1832
und ob sie anhand der Informationen
07:12
they foundgefunden on socialSozial mediaMedien. And they were.
168
420205
1938
aus sozialen Medien handelten.
Und das taten sie.
07:14
DiscriminationDiskriminierung was happeningHappening throughdurch socialSozial mediaMedien
169
422143
2101
Durch soziale Medien wurden Bewerber
07:16
for equallygleichermaßen skilledqualifiziert candidatesKandidaten.
170
424244
3073
trotz gleicher Fähigkeiten diskriminiert.
07:19
Now marketersVermarkter like us to believe
171
427317
4575
Vermarkter hätten gerne, dass wir glauben,
07:23
that all informationInformation about us will always
172
431892
2269
dass Informationen über uns immer
07:26
be used in a mannerWeise whichwelche is in our favorGefallen.
173
434161
3273
zu unseren Gunsten genutzt werden.
07:29
But think again. Why should that be always the caseFall?
174
437434
3715
Aber denken Sie noch mal nach.
Warum sollten sie?
07:33
In a movieFilm whichwelche camekam out a fewwenige yearsJahre agovor,
175
441149
2664
In einem Film, der vor ein paar Jahren lief,
07:35
"MinorityMinderheit ReportBericht," a famousberühmt sceneSzene
176
443813
2553
„Minority Report“, läuft Tom Cruise
07:38
had TomTom CruiseKreuzfahrt walkgehen in a mallEinkaufszentrum
177
446366
2576
durch ein Einkaufszentrum
07:40
and holographicholographische personalizedpersonalisiert advertisingWerbung
178
448942
3776
und um ihn herum taucht personalisierte
07:44
would appearerscheinen around him.
179
452718
1835
holografische Werbung auf.
07:46
Now, that movieFilm is setSet in 2054,
180
454553
3227
Dieser Film spielt im Jahr 2054,
07:49
about 40 yearsJahre from now,
181
457780
1642
also in ungefähr 40 Jahren,
07:51
and as excitingaufregend as that technologyTechnologie lookssieht aus,
182
459422
2908
und so spannnend diese Technologie aussieht,
07:54
it alreadybereits vastlyerheblich underestimatesunterschätzt
183
462330
2646
unterschätzt sie schon jetzt zutiefst,
07:56
the amountMenge of informationInformation that organizationsOrganisationen
184
464976
2140
wie viele Informationen Organisationen
07:59
can gatherversammeln about you, and how they can use it
185
467116
2483
über Sie sammeln können,
und wie sie diese nutzen können,
08:01
to influenceEinfluss you in a way that you will not even detecterkennen.
186
469599
3398
um Sie so zu beeinflussen,
dass Sie es nicht einmal merken.
08:04
So as an exampleBeispiel, this is anotherein anderer experimentExperiment
187
472997
2103
Als Beispiel ist hier noch ein Experiment,
08:07
actuallytatsächlich we are runningLaufen, not yetnoch completedabgeschlossen.
188
475100
2273
das wir gerade durchführen, es läuft noch.
08:09
ImagineStellen Sie sich vor that an organizationOrganisation has accessZugriff
189
477373
2319
Stellen Sie sich vor, eine Organisation
08:11
to your listListe of FacebookFacebook friendsFreunde,
190
479692
2056
hat eine Liste Ihrer Facebook-Freunde,
08:13
and throughdurch some kindArt of algorithmAlgorithmus
191
481748
1772
und mit irgendeinem Algorithmus
08:15
they can detecterkennen the two friendsFreunde that you like the mostdie meisten.
192
483520
3734
können sie Ihre zwei besten Freunde herausfinden.
08:19
And then they createerstellen, in realecht time,
193
487254
2280
Und dann vermischen sie in Echtzeit
08:21
a facialGesichtsbehandlung compositezusammengesetzt of these two friendsFreunde.
194
489534
2842
die Gesichter dieser beiden Freunde.
08:24
Now studiesStudien priorvorher to oursunsere have showngezeigt that people
195
492376
3069
Frühere Studien haben gezeigt,
dass Menschen
08:27
don't recognizeerkenne any longerlänger even themselvessich
196
495445
2885
sich in diesen digital vermischten Gesichtern
08:30
in facialGesichtsbehandlung compositesVerbundwerkstoffe, but they reactreagieren
197
498330
2462
nicht einmal selbst erkennen, dass sie aber
08:32
to those compositesVerbundwerkstoffe in a positivepositiv mannerWeise.
198
500792
2117
auf diese Bilder positiv reagieren.
08:34
So nextNächster time you are looking for a certainsicher productProdukt,
199
502909
3415
Wenn Sie also das nächste Mal
ein Produkt suchen
08:38
and there is an adAnzeige suggestingschlägt vor you to buykaufen it,
200
506324
2559
und Sie Werbung dafür sehen,
08:40
it will not be just a standardStandard spokespersonSprecher.
201
508883
2907
dann wird darin nicht irgendein Model sein.
08:43
It will be one of your friendsFreunde,
202
511790
2313
Es wird einer Ihrer Freunde sein,
08:46
and you will not even know that this is happeningHappening.
203
514103
3303
und Sie werden es nicht einmal merken.
08:49
Now the problemProblem is that
204
517406
2413
Das Problem ist,
08:51
the currentStrom policyPolitik mechanismsMechanismen we have
205
519819
2519
dass die aktuellen Datenschutzmechanismen
08:54
to protectschützen ourselvesuns selbst from the abusesMissbrauch of personalpersönlich informationInformation
206
522338
3438
gegen den Missbrauch persönlicher Informationen
08:57
are like bringingbringt a knifeMesser to a gunfightSchießerei.
207
525776
2984
so nützlich sind wie ein Messer
bei einer Schießerei.
09:00
One of these mechanismsMechanismen is transparencyTransparenz,
208
528760
2913
Ein solcher Mechanismus ist Transparenz,
09:03
tellingErzählen people what you are going to do with theirihr dataDaten.
209
531673
3200
man sagt Menschen,
was man mit ihren Daten vorhat.
09:06
And in principlePrinzip, that's a very good thing.
210
534873
2106
Und im Prinzip ist das etwas sehr Gutes.
09:08
It's necessarynotwendig, but it is not sufficientausreichende.
211
536979
3667
Es ist notwendig, aber nicht hinreichend.
09:12
TransparencyTransparenz can be misdirectedfehlgeleitet.
212
540646
3698
Transparenz kann in die Irre führen.
09:16
You can tell people what you are going to do,
213
544344
2104
Sie können Menschen sagen,
was Sie vorhaben,
09:18
and then you still nudgeSchubs them to discloseoffen zu legen
214
546448
2232
und ihnen dann doch beliebige Mengen
09:20
arbitrarywillkürlich amountsBeträge of personalpersönlich informationInformation.
215
548680
2623
persönlicher Informationen herauslocken.
09:23
So in yetnoch anotherein anderer experimentExperiment, this one with studentsStudenten,
216
551303
2886
In noch einem anderen Experiment
baten wir Studierende,
09:26
we askedaufgefordert them to providezu Verfügung stellen informationInformation
217
554189
3058
uns Informationen über ihr Verhalten
09:29
about theirihr campusCampus behaviorVerhalten,
218
557247
1813
an der Uni zu geben,
09:31
includingeinschließlich prettyziemlich sensitiveempfindlich questionsFragen, sucheine solche as this one.
219
559060
2940
darunter ziemlich sensible Fragen,
so wie diese hier.
09:34
[Have you ever cheatedbetrogen in an examPrüfung?]
220
562000
621
[Haben Sie je in einer Prüfung betrogen?]
09:34
Now to one groupGruppe of subjectsFächer, we told them,
221
562621
2300
Einer Gruppe der Teilnehmer sagten wir:
09:36
"Only other studentsStudenten will see your answersAntworten."
222
564921
2841
„Nur Kommilitonen lesen Ihre Antworten.“
09:39
To anotherein anderer groupGruppe of subjectsFächer, we told them,
223
567762
1579
Einer zweiten Gruppe sagten wir:
09:41
"StudentsStudenten and facultyFakultät will see your answersAntworten."
224
569341
3561
„Studierende und Lehrende
lesen Ihre Antworten.“
09:44
TransparencyTransparenz. NotificationBenachrichtigung. And sure enoughgenug, this workedhat funktioniert,
225
572902
2591
Transparenz. Aufklärung.
Und natürlich funktionierte das,
09:47
in the senseSinn that the first groupGruppe of subjectsFächer
226
575493
1407
nämlich so, dass die erste Gruppe
09:48
were much more likelywahrscheinlich to discloseoffen zu legen than the secondzweite.
227
576900
2568
viel eher „Ja“ antwortete als die zweite.
09:51
It makesmacht senseSinn, right?
228
579468
1520
Das ist logisch, oder?
09:52
But then we addedhinzugefügt the misdirectionIrreführung.
229
580988
1490
Aber dann führten wir sie in die Irre.
09:54
We repeatedwiederholt the experimentExperiment with the samegleich two groupsGruppen,
230
582478
2760
Wir wiederholten das Experiment
mit den gleichen Gruppen,
09:57
this time addingHinzufügen a delayverzögern
231
585238
2427
fügten aber eine Verzögerung ein
09:59
betweenzwischen the time we told subjectsFächer
232
587665
2935
zwischen der Aufklärung darüber,
10:02
how we would use theirihr dataDaten
233
590600
2080
wie wir mit den Daten umgehen,
10:04
and the time we actuallytatsächlich startedhat angefangen answeringantwortend the questionsFragen.
234
592680
4388
und dem eigentlichen Beginn des Fragebogens.
10:09
How long a delayverzögern do you think we had to addhinzufügen
235
597068
2561
Wie lange musste die Verzögerung sein,
10:11
in orderAuftrag to nullifyzunichte machen the inhibitoryhemmende effectbewirken
236
599629
4613
um die Hemmungen
der Teilnehmer aufzuheben,
10:16
of knowingzu wissen that facultyFakultät would see your answersAntworten?
237
604242
3411
deren Antworten
auch Dozenten lesen würden?
10:19
TenZehn minutesProtokoll?
238
607653
1780
Zehn Minuten?
10:21
FiveFünf minutesProtokoll?
239
609433
1791
Fünf Minuten?
10:23
One minuteMinute?
240
611224
1776
Eine Minute?
10:25
How about 15 secondsSekunden?
241
613000
2049
Wie wär’s mit 15 Sekunden?
10:27
FifteenFünfzehn secondsSekunden were sufficientausreichende to have the two groupsGruppen
242
615049
2668
15 Sekunden waren genug,
damit die beiden Gruppen
10:29
discloseoffen zu legen the samegleich amountMenge of informationInformation,
243
617717
1568
dieselbe Menge an Informationen preisgaben,
10:31
as if the secondzweite groupGruppe now no longerlänger careskümmert sich
244
619285
2746
als wäre es der zweiten Gruppe plötzlich egal,
10:34
for facultyFakultät readingLesen theirihr answersAntworten.
245
622031
2656
dass Dozenten ihre Antworten lesen.
10:36
Now I have to admiteingestehen that this talk so farweit
246
624687
3336
Ich muss zugeben,
dass meine Rede bis hierhin
10:40
maykann soundklingen exceedinglyüberaus gloomydüstere,
247
628023
2480
vielleicht äußerst finster klang,
10:42
but that is not my pointPunkt.
248
630503
1721
aber darum geht es mir nicht.
10:44
In factTatsache, I want to shareAktie with you the factTatsache that
249
632224
2699
Ich will mit Ihnen über die Tatsache reden,
10:46
there are alternativesAlternativen.
250
634923
1772
dass es Alternativen gibt.
10:48
The way we are doing things now is not the only way
251
636695
2499
Unsere jetzige Vorgehensweise
ist nicht die einzige
10:51
they can doneerledigt, and certainlybestimmt not the bestBeste way
252
639194
3037
und bestimmt nicht die beste Weise,
10:54
they can be doneerledigt.
253
642231
2027
die Dinge anzugehen.
10:56
When someonejemand tellserzählt you, "People don't carePflege about privacyDatenschutz,"
254
644258
4171
Wenn Ihnen jemand sagt:
„Den Leuten ist Datenschutz egal,“
11:00
considerErwägen whetherob the gameSpiel has been designedentworfen
255
648429
2642
dann überlegen Sie, ob die Würfel
11:03
and riggedmanipulierten so that they cannotnicht können carePflege about privacyDatenschutz,
256
651071
2724
so gezinkt sind, dass ihnen
Datenschutz egal sein muss,
11:05
and comingKommen to the realizationRealisierung that these manipulationsManipulationen occurauftreten
257
653795
3262
und mit der Einsicht, dass
diese Manipulationen geschehen,
11:09
is alreadybereits halfwayauf halber Strecke throughdurch the processverarbeiten
258
657057
1607
haben Sie die halbe Strecke
11:10
of beingSein ablefähig to protectschützen yourselfdich selber.
259
658664
2258
zum Schutz Ihrer Daten schon geschafft.
11:12
When someonejemand tellserzählt you that privacyDatenschutz is incompatiblenicht kompatibel
260
660922
3710
Wenn Ihnen jemand sagt,
Datenschutz sei unvereinbar
11:16
with the benefitsVorteile of biggroß dataDaten,
261
664632
1849
mit den Vorteilen von Big Data,
11:18
considerErwägen that in the last 20 yearsJahre,
262
666481
2473
überlegen Sie, dass Wissenschaftler
11:20
researchersForscher have createderstellt technologiesTechnologien
263
668954
1917
seit 20 Jahren Technologien geschaffen haben,
11:22
to allowzulassen virtuallyvirtuell any electronicelektronisch transactionsTransaktionen
264
670871
3318
mit sich denen nahezu
jeder elektronische Vorgang
11:26
to take placeOrt in a more privacy-preservingErhaltung der Privatsphäre mannerWeise.
265
674189
3749
datenschutzfreundlicher abwickeln lässt.
11:29
We can browseDurchsuchen the InternetInternet anonymouslyAnonym.
266
677938
2555
Wir können anonym im Internet surfen.
11:32
We can sendsenden emailsE-Mails that can only be readlesen
267
680493
2678
Wir können E-Mails verschicken, die nur
11:35
by the intendedbeabsichtigt recipientEmpfänger, not even the NSANSA.
268
683171
3709
der Empfänger lesen kann, nicht einmal die NSA.
11:38
We can have even privacy-preservingErhaltung der Privatsphäre dataDaten miningBergbau.
269
686880
2997
Und sogar datenschutzfreundlich
nach Daten schürfen.
11:41
In other wordsWörter, we can have the benefitsVorteile of biggroß dataDaten
270
689877
3894
Mit anderen Worten, wir können
die Vorteile von Big Data genießen
11:45
while protectingSchützen privacyDatenschutz.
271
693771
2132
und dabei die Privatsphäre schützen.
11:47
Of courseKurs, these technologiesTechnologien implyimplizieren a shiftingVerschiebung
272
695903
3791
Voraussetzung für diese Technologien
ist eine Verschiebung
11:51
of costKosten and revenuesEinnahmen
273
699694
1546
von Kosten und Nutzen
11:53
betweenzwischen dataDaten holdersHalter and dataDaten subjectsFächer,
274
701240
2107
zwischen Inhaber und Gegenstand von Daten,
11:55
whichwelche is why, perhapsvielleicht, you don't hearhören more about them.
275
703347
3453
was erklären mag, warum Sie
nicht viel davon hören.
11:58
WhichDie bringsbringt me back to the GardenGarten of EdenEden.
276
706800
3706
Und das bringt mich zurück
zum Garten Eden.
12:02
There is a secondzweite privacyDatenschutz interpretationAuslegung
277
710506
2780
Es gibt eine zweite Datenschutz-Interpretation
12:05
of the storyGeschichte of the GardenGarten of EdenEden
278
713286
1809
der Geschichte aus dem Garten Eden,
12:07
whichwelche doesn't have to do with the issueProblem
279
715095
2096
die nichts damit zu tun hat,
12:09
of AdamAdam and EveEve feelingGefühl nakednackt
280
717191
2225
dass Adam und Eva sich nackt fühlen
12:11
and feelingGefühl ashamedbeschämt.
281
719416
2381
und schämen.
12:13
You can find echoesEchos of this interpretationAuslegung
282
721797
2781
Ein Echo dieser Interpretation finden Sie
12:16
in JohnJohn Milton'sMiltons "ParadiseParadies LostVerloren."
283
724578
2782
in John Miltons „Paradise Lost“.
12:19
In the gardenGarten, AdamAdam and EveEve are materiallymateriell contentInhalt.
284
727360
4197
Im Paradies sind Adam und Eva materiell zufrieden.
12:23
They're happyglücklich. They are satisfiedzufrieden.
285
731557
2104
Sie sind glücklich. Sie sind zufrieden.
12:25
HoweverJedoch, they alsoebenfalls lackMangel knowledgeWissen
286
733661
2293
Gleichzeitig fehlt ihnen aber Wissen
12:27
and self-awarenessSelbst-Bewusstsein.
287
735954
1640
und Selbstwahrnehmung.
12:29
The momentMoment they eatEssen the aptlytreffend namedgenannt
288
737594
3319
In dem Moment, in dem sie
die treffend benannte
12:32
fruitFrucht of knowledgeWissen,
289
740913
1293
„Frucht der Erkenntnis“ essen,
12:34
that's when they discoverentdecken themselvessich.
290
742206
2605
genau dann erkennen sie sich selbst.
12:36
They becomewerden awarebewusst. They achieveleisten autonomyAutonomie.
291
744811
4031
Sie erreichen Bewusstsein und Selbständigkeit.
12:40
The pricePreis to payZahlen, howeveraber, is leavingVerlassen the gardenGarten.
292
748842
3126
Der Preis dafür ist die Vertreibung
aus dem Paradies.
12:43
So privacyDatenschutz, in a way, is bothbeide the meansmeint
293
751968
3881
Privatsphäre ist also gewissermaßen
12:47
and the pricePreis to payZahlen for freedomFreiheit.
294
755849
2962
zugleich Mittel und Preis der Freiheit.
12:50
Again, marketersVermarkter tell us
295
758811
2770
Vermarkter erzählen uns,
12:53
that biggroß dataDaten and socialSozial mediaMedien
296
761581
3019
Big Data und Soziale Medien
12:56
are not just a paradiseParadies of profitprofitieren for them,
297
764600
2979
seien nicht nur ein Profit-Paradies für sie,
12:59
but a GardenGarten of EdenEden for the restsich ausruhen of us.
298
767579
2457
sondern auch ein Garten Eden für alle.
13:02
We get freefrei contentInhalt.
299
770036
1238
Wir bekommen kostenlose Inhalte,
13:03
We get to playspielen AngryWütend BirdsVögel. We get targetedgezielt appsApps.
300
771274
3123
dürfen Angry Birds spielen,
bekommen bessere Werbung.
13:06
But in factTatsache, in a fewwenige yearsJahre, organizationsOrganisationen
301
774397
2897
Aber in ein paar Jahren
werden Organisationen
13:09
will know so much about us,
302
777294
1609
so viel über uns wissen,
13:10
they will be ablefähig to inferSchließen our desiresWünsche
303
778903
2710
dass sie unsere Wünsche ablesen können,
13:13
before we even formbilden them, and perhapsvielleicht
304
781613
2204
bevor wir sie überhaupt geformt haben,
13:15
buykaufen productsProdukte on our behalfNamen
305
783817
2447
und vielleicht Produkte für uns kaufen,
13:18
before we even know we need them.
306
786264
2274
bevor wir wissen, dass wir sie brauchen.
13:20
Now there was one EnglishEnglisch authorAutor
307
788538
3237
Es gibt einen englischen Schriftsteller,
13:23
who anticipatederwartet this kindArt of futureZukunft
308
791775
3045
der diese Zukunft vorhergesehen hat,
13:26
where we would tradeHandel away
309
794820
1405
in der wir Freiheit und
13:28
our autonomyAutonomie and freedomFreiheit for comfortKomfort.
310
796225
3548
Selbständigkeit gegen Bequemlichkeit tauschen.
13:31
Even more so than GeorgeGeorge OrwellOrwell,
311
799773
2161
Viel mehr noch als George Orwell,
13:33
the authorAutor is, of courseKurs, AldousAldous HuxleyHuxley.
312
801934
2761
ich meine natürlich Aldous Huxley.
13:36
In "BraveMutige NewNeu WorldWelt," he imaginesstellt sich vor a societyGesellschaft
313
804695
2854
In „Schöne neue Welt“
beschreibt er eine Gesellschaft,
13:39
where technologiesTechnologien that we createderstellt
314
807549
2171
in der Technologien, die ursprünglich
13:41
originallyursprünglich for freedomFreiheit
315
809720
1859
unserer Freiheit dienten,
13:43
endEnde up coercingNötigung us.
316
811579
2567
uns schließlich unterdrücken.
13:46
HoweverJedoch, in the bookBuch, he alsoebenfalls offersbietet an us a way out
317
814146
4791
Aber im Buch schlägt er auch einen Ausweg
13:50
of that societyGesellschaft, similarähnlich to the pathPfad
318
818937
3438
aus dieser Gesellschaft vor, ähnlich dem Weg
13:54
that AdamAdam and EveEve had to followFolgen to leaveverlassen the gardenGarten.
319
822375
3955
dem Adam und Eva
aus dem Paradies folgen mussten.
13:58
In the wordsWörter of the SavageSavage,
320
826330
2147
In den Worten des Wilden,
14:00
regainingWiedererlangung der autonomyAutonomie and freedomFreiheit is possiblemöglich,
321
828477
3069
man kann Autonomie
und Freiheit zurück erobern,
14:03
althoughobwohl the pricePreis to payZahlen is steepsteil.
322
831546
2679
aber der Preis dafür ist hoch.
14:06
So I do believe that one of the definingDefinieren fightsKämpfe
323
834225
5715
Ich glaube, einer der entscheidenden Kämpfe
14:11
of our timesmal will be the fightKampf
324
839940
2563
unserer Zeit wird der Kampf
14:14
for the controlsteuern over personalpersönlich informationInformation,
325
842503
2387
um die Kontrolle
über persönliche Informationen sein,
14:16
the fightKampf over whetherob biggroß dataDaten will becomewerden a forceKraft
326
844890
3507
der Kampf darüber, ob Big Data eine Macht
14:20
for freedomFreiheit,
327
848397
1289
der Freiheit wird,
14:21
ratherlieber than a forceKraft whichwelche will hiddenlyinsgeheim manipulatemanipulieren us.
328
849686
4746
und nicht eine Macht,
die uns heimlich manipuliert.
14:26
Right now, manyviele of us
329
854432
2593
Noch wissen viele von uns nicht,
14:29
do not even know that the fightKampf is going on,
330
857025
2753
dass dieser Kampf gerade geführt wird,
14:31
but it is, whetherob you like it or not.
331
859778
2672
aber das wird er, ob Sie wollen oder nicht.
14:34
And at the riskRisiko of playingspielen the serpentSchlange,
332
862450
2804
Und auf die Gefahr hin, die Schlange zu sein,
14:37
I will tell you that the toolsWerkzeuge for the fightKampf
333
865254
2897
sage ich Ihnen, dass die Waffen für den Kampf
14:40
are here, the awarenessdas Bewusstsein of what is going on,
334
868151
3009
hier drin sind –
die Erkenntnis darüber, was geschieht –,
14:43
and in your handsHände,
335
871160
1355
und in Ihren Händen –
14:44
just a fewwenige clicksKlicks away.
336
872515
3740
nur ein paar Klicks entfernt.
14:48
Thank you.
337
876255
1482
Vielen Dank.
14:49
(ApplauseApplaus)
338
877737
4477
(Applaus)
Translated by Philipp Bock
Reviewed by Judith Matz

▲Back to top

ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com