ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com
TEDGlobal 2013

Alessandro Acquisti: What will a future without secrets look like?

Alessandro Acquisti: Mahremiyet neden önemlidir

Filmed:
1,423,103 views

Kamusal ve kişisel arasındaki çizgiler son on yılda gerek sanal gerekse gerçek hayatta bulanıklaşmaya başladı ve Alessandro Acquisti bunun ne anlama geldiğini ve neden önemli olduğu anlatmak için burada. Bu düşünmeye zorlayan, hafif iç soğutan konuşmada, yabancı bir kişinin fotoğrafını son derece hassas bilgilerle eşleştirmenin ne kadar kolay olduğunu gösteren bir projeyi de içeren mevcut ve devam eden araştırmaların detaylarını paylaşıyor.
- Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks. Full bio

Double-click the English transcript below to play the video.

00:12
I would like to tell you a storyÖykü
0
641
2354
Size; son on yılda
00:14
connectingbağlantı the notoriousadı çıkmış privacyGizlilik incidentolay
1
2995
3176
kamusal ve kişisel gizlilik arasındaki sınırlarda oluşan, dikkate değer kayma ile
00:18
involvingiçeren AdamAdam and EveHavva,
2
6171
2769
Adem ve Havva'nın da dahil olduğu
00:20
and the remarkabledikkat çekici shiftvardiya in the boundariessınırları
3
8940
3446
iki meşhur mahremiyet olayını
00:24
betweenarasında publichalka açık and privateözel whichhangi has occurredoluştu
4
12386
2686
birbirine bağlayarak
00:27
in the pastgeçmiş 10 yearsyıl.
5
15072
1770
bir hikaye anlatmak istiyorum.
00:28
You know the incidentolay.
6
16842
1298
Hikayeyi biliyorsunuz.
00:30
AdamAdam and EveHavva one day in the GardenBahçe of EdenEden
7
18140
3330
Adem ve Havva bir gün Cennet bahçesinde iken,
00:33
realizegerçekleştirmek they are nakedçıplak.
8
21470
1843
çıplak olduklarını fark etmişler.
00:35
They freakanormal out.
9
23313
1500
Ödleri kopmuş
00:36
And the restdinlenme is historytarih.
10
24813
2757
ve gerisi malum..
00:39
NowadaysGünümüzde, AdamAdam and EveHavva
11
27570
2188
Bugünlerde, Adem ve Havva
00:41
would probablymuhtemelen actdavranmak differentlyfarklı olarak.
12
29758
2361
muhtemelen daha farklı davranırlardı.
00:44
[@AdamAdam Last niteNite was a blastüfleme! lovedsevilen datdat appleelma LOLLOL]
13
32119
2268
(@Adem: Geçen gece süperdir! Elmaya byldm LOL)
00:46
[@EveHavva yepEvet.. babeBebeğim, know what happenedolmuş to my pantspantolon thotho?]
14
34387
1873
(@Havva: Ewt...Aşkm, pantoluma ne oldğn blymsn ?)
00:48
We do revealortaya çıkartmak so much more informationbilgi
15
36260
2636
Online olarak kendimizle ilgili
00:50
about ourselveskendimizi onlineinternet üzerinden than ever before,
16
38896
3334
eskiye göre çok daha fazla bilgi paylaşıyoruz
00:54
and so much informationbilgi about us
17
42230
1704
ve hakkımızda çok daha fazla bilgi
00:55
is beingolmak collectedtoplanmış by organizationsorganizasyonlar.
18
43934
2224
firmalar tarafından toplanıyor.
00:58
Now there is much to gainkazanç and benefityarar
19
46158
3282
Böyle büyük çapta bir kişisel bilgi analizinden
01:01
from this massivemasif analysisanaliz of personalkişisel informationbilgi,
20
49440
2446
ya da büyük veriden
01:03
or bigbüyük dataveri,
21
51886
1946
kazanılacak ve faydalanılacak çok şey var,
01:05
but there are alsoAyrıca complexkarmaşık tradeoffskarşılaştırılması that come
22
53832
2638
ama aynı zamanda mahremiyetimizden vazgeçme karşılığında
01:08
from givingvererek away our privacyGizlilik.
23
56470
3098
oluşan karmaşık takaslar var.
01:11
And my storyÖykü is about these tradeoffskarşılaştırılması.
24
59568
4023
Ve benim hikayemde bu takaslar ile ilgili.
01:15
We startbaşlama with an observationgözlem whichhangi, in my mindus,
25
63591
2584
Son birkaç yıldır gittikçe aklımda netleşen
01:18
has becomeolmak clearerdaha net and clearerdaha net in the pastgeçmiş fewaz yearsyıl,
26
66175
3327
bir gözlem ile başlayalım,
01:21
that any personalkişisel informationbilgi
27
69502
2097
herhangi bir kişisel bilgi
01:23
can becomeolmak sensitivehassas informationbilgi.
28
71599
2285
hassas bir bilgi haline gelebilir.
01:25
Back in the yearyıl 2000, about 100 billionmilyar photosfotoğraflar
29
73884
4125
2000'lerde dünya çapında
01:30
were shotatış worldwideDünya çapında,
30
78009
1912
100 milyar fotoğraf çekildi
01:31
but only a minusculeminuscule proportionoran of them
31
79921
3065
ancak, sadece bunların çok küçük bir kısmı
01:34
were actuallyaslında uploadedyüklenen onlineinternet üzerinden.
32
82986
1883
online olarak yüklendi.
01:36
In 2010, only on FacebookFacebook, in a singletek monthay,
33
84869
3361
2010 yılında, sadece Facebook'ta , tek bir ayda
01:40
2.5 billionmilyar photosfotoğraflar were uploadedyüklenen,
34
88230
3270
2.5 milyar fotoğraf yüklendi,
01:43
mostçoğu of them identifiedtespit.
35
91500
1882
pek çoğu tanımlandı.
01:45
In the sameaynı spankarış of time,
36
93382
1880
Aynı zaman aralığında,
01:47
computers'bilgisayar abilitykabiliyet to recognizetanımak people in photosfotoğraflar
37
95262
4870
bilgisayarların fotoğraflardaki insanları tanıma kabiliyeti
01:52
improvedgelişmiş by threeüç ordersemirler of magnitudebüyüklük.
38
100132
3608
1000 kat geliştirildi.
01:55
What happensolur when you combinebirleştirmek
39
103740
1882
Bu teknolojileri birleştirince
01:57
these technologiesteknolojiler togetherbirlikte:
40
105622
1501
ne oluyor:
01:59
increasingartan availabilitykullanılabilirlik of facialYüz Bakımı dataveri;
41
107123
2658
Yüzsel verinin bulunabilirliğinde artış;
02:01
improvinggeliştirme facialYüz Bakımı recognizingtanıyan abilitykabiliyet by computersbilgisayarlar;
42
109781
3648
Bilgisayarların yüzsel tanıma yeteneklerinde gelişme;
02:05
but alsoAyrıca cloudbulut computingbilgi işlem,
43
113429
2182
ama aynı zamanda bir kaç yıl önce
02:07
whichhangi givesverir anyonekimse in this theatertiyatro
44
115611
1888
sadece 3 harfli kurumların domainlerinde olan tarzda
02:09
the kindtür of computationalbilişimsel powergüç
45
117499
1560
bir hesaplama gücünü
02:11
whichhangi a fewaz yearsyıl agoönce was only the domaindomain
46
119059
1886
bu salondaki herkese veren
02:12
of three-letterüç harfli agenciesajanslar;
47
120945
1782
bulut hesaplama;
02:14
and ubiquitousher yerde birden bulunan computingbilgi işlem,
48
122727
1378
ve bir süper-bilgisayar olmayan telefonumun
02:16
whichhangi allowsverir my phonetelefon, whichhangi is not a supercomputerSüper bilgisayar,
49
124105
2892
internete bağlanmasını ve
02:18
to connectbağlamak to the InternetInternet
50
126997
1671
orada yüzbinlerce yüzsel hesaplamayı
02:20
and do there hundredsyüzlerce of thousandsbinlerce
51
128668
2334
bir kaç saniye içinde yapmamızı
02:23
of faceyüz metricsölçümleri in a fewaz secondssaniye?
52
131002
2639
sağlayan ulaşılabilir bilgisayar teknolojileri?
02:25
Well, we conjecturevarsayım that the resultsonuç
53
133641
2628
Pekala; bu teknolojilerin kombinasyonun
02:28
of this combinationkombinasyon of technologiesteknolojiler
54
136269
2064
sonucunun; kişisellik ve anonimlik
02:30
will be a radicalradikal changedeğişiklik in our very notionskavramlar
55
138333
2888
ile ilgili algılarımızda radikal bir değişiklik
02:33
of privacyGizlilik and anonymityanonimlik.
56
141221
2257
yapacağını kestirebiliriz.
02:35
To testÖlçek that, we did an experimentdeney
57
143478
1993
Bunu sınamak için; Carnegie Mellon Üniversitesi kampüsünde
02:37
on CarnegieCarnegie MellonMellon UniversityÜniversitesi campuskampus.
58
145471
2121
bir deney yaptık.
02:39
We askeddiye sordu studentsöğrencilerin who were walkingyürüme by
59
147592
2099
Gelip geçen öğrencilere; bir çalışmaya
02:41
to participatekatılmak in a studyders çalışma,
60
149691
1779
katılabileceklerini sorduk,
02:43
and we tookaldı a shotatış with a webcamWeb kamerası,
61
151470
2562
ve bir webcam ile fotoğraflarını çektik,
02:46
and we askeddiye sordu them to filldoldurmak out a surveyanket on a laptopdizüstü.
62
154032
2782
ve laptopta bir anket doldurmalarını istedik.
02:48
While they were fillingdolgu out the surveyanket,
63
156814
1979
Onlar anketi doldururken,
02:50
we uploadedyüklenen theironların shotatış to a cloud-computingbulut bilgi işlem clusterküme,
64
158793
2797
fotoğraflarını bir bulut hesaplama ünitesine yükledik,
02:53
and we startedbaşladı usingkullanma a facialYüz Bakımı recognizertanıyıcı
65
161590
1727
ve yüz tanıma programı kullanarak
02:55
to matchmaç that shotatış to a databaseveritabanı
66
163317
2405
Facebook profillerinden indirdiğimiz
02:57
of some hundredsyüzlerce of thousandsbinlerce of imagesGörüntüler
67
165722
2393
yüzbinlerce resimden bazılarına
03:00
whichhangi we had downloadedİndirildi from FacebookFacebook profilesprofilleri.
68
168115
3596
eşleştirmeye çalıştık.
03:03
By the time the subjectkonu reachedulaştı the last pagesayfa
69
171711
3259
Denek anketteki son sayfaya ulaştığında;
03:06
on the surveyanket, the pagesayfa had been dynamicallydinamik olarak updatedgüncellenmiş
70
174970
3347
sayfa dinamik olarak
03:10
with the 10 besten iyi matchingeşleştirme photosfotoğraflar
71
178317
2313
yüz tanıma programının bulduğu
03:12
whichhangi the recognizertanıyıcı had foundbulunan,
72
180630
2285
en iyi eşleşen 10 fotoğrafla güncellendi,
03:14
and we askeddiye sordu the subjectskonular to indicatebelirtmek
73
182915
1738
ve deneklere bu fotoğraflarda kendilerinin
03:16
whetherolup olmadığını he or she foundbulunan themselveskendilerini in the photoFotoğraf.
74
184653
4120
olup olmadıklarını sorduk.
03:20
Do you see the subjectkonu?
75
188773
3699
Deneği görüyor musunuz?
03:24
Well, the computerbilgisayar did, and in factgerçek did so
76
192472
2845
Eh bilgisayar gördü ve
03:27
for one out of threeüç subjectskonular.
77
195317
2149
3 denekten 1'i si de gördü.
03:29
So essentiallyesasen, we can startbaşlama from an anonymousanonim faceyüz,
78
197466
3184
Bu yüzden, aslında, tamamen anonim bir yüzden başlayıp,
03:32
offlineçevrimdışı or onlineinternet üzerinden, and we can use facialYüz Bakımı recognitiontanıma
79
200650
3484
offline yada online, ve bu anonim yüze bir isim vermek için
03:36
to give a nameisim to that anonymousanonim faceyüz
80
204134
2360
sosyal medya sağolsun,
03:38
thanksTeşekkürler to socialsosyal mediamedya dataveri.
81
206494
2108
bir yüz tanıma programı kullanabiliriz
03:40
But a fewaz yearsyıl back, we did something elsebaşka.
82
208602
1872
Ama bir kaç yıl önce, başka birşey yaptık.
03:42
We startedbaşladı from socialsosyal mediamedya dataveri,
83
210474
1823
Sosyal medya verisinden başladık,
03:44
we combinedkombine it statisticallyistatistiksel with dataveri
84
212297
3051
bu veriyi ABD sosyal güvenlik bilgilerindeki
03:47
from U.S. governmenthükümet socialsosyal securitygüvenlik,
85
215348
2102
istatistiksel verilerle birleştirdik,
03:49
and we endedbitti up predictingtahmin socialsosyal securitygüvenlik numberssayılar,
86
217450
3324
ve Amerika'da son derece hassas bir bilgi olan
03:52
whichhangi in the UnitedAmerika StatesBirleşik
87
220774
1512
sosyal güvenlik numaralarını
03:54
are extremelyson derece sensitivehassas informationbilgi.
88
222286
2040
tahmin etmeye başladık.
03:56
Do you see where I'm going with this?
89
224326
2093
Bununla nereye varmaya çalıştığımı görüyor musunuz?
03:58
So if you combinebirleştirmek the two studiesçalışmalar togetherbirlikte,
90
226419
2922
Yani; bu iki çalışmayı birleştirirseniz,
04:01
then the questionsoru becomesolur,
91
229341
1512
şu soru geliyor akla,
04:02
can you startbaşlama from a faceyüz and,
92
230853
2720
bir yüzden başlayarak ve
04:05
usingkullanma facialYüz Bakımı recognitiontanıma, find a nameisim
93
233573
2311
yüz tanıma kullanarak bir isim ve
04:07
and publiclyGenel olarak availablemevcut informationbilgi
94
235884
2669
o isimle ve o kişiyle ilgili
04:10
about that nameisim and that personkişi,
95
238553
1932
kamusal olarak açık bilgilere erişip,
04:12
and from that publiclyGenel olarak availablemevcut informationbilgi
96
240485
2248
ve bu kamusal bilgilerden
04:14
infersonucuna non-publiclyGenel olarak Sigara availablemevcut informationbilgi,
97
242733
2042
kamusal olmayan bilgileri çıkarıp,
04:16
much more sensitivehassas onesolanlar
98
244775
1606
daha hassas olanlar
04:18
whichhangi you linkbağlantı back to the faceyüz?
99
246381
1492
o yüzle bağlantı kurabilir miyiz?
04:19
And the answerCevap is, yes, we can, and we did.
100
247873
1916
ve cevap, evet yapabiliriz ve yaptık.
04:21
Of coursekurs, the accuracydoğruluk keepstutar gettingalma worsedaha da kötüsü.
101
249789
2568
Tabi ki, doğruluk gittikçe kötüleşiyor.
04:24
[27% of subjects'konularda first 5 SSNSSN digitsbasamak identifiedtespit (with 4 attemptsdenemeler)]
102
252357
944
(Deneklerin %27 sinin ilk 5 Sosyal güvenlik numarası rakamı 4 denemede tanımlandı)
04:25
But in factgerçek, we even decidedkarar to developgeliştirmek an iPhoneiPhone appUygulamanın
103
253301
3827
Ama hatta, bir Iphone uygulaması geliştirmeye karar verdik,
04:29
whichhangi useskullanımları the phone'stelefonun internal camerakamera
104
257128
2715
telefonun kamerasını kullanarak
04:31
to take a shotatış of a subjectkonu
105
259843
1600
deneğin fotoğrafının çekecek
04:33
and then uploadyüklemek it to a cloudbulut
106
261443
1487
ve bir buluta yükleyecek
04:34
and then do what I just describedtarif edilen to you in realgerçek time:
107
262930
2662
ve daha sonra size anlattıklarımı eş zamanlı olarak yapacak:
04:37
looking for a matchmaç, findingbulgu publichalka açık informationbilgi,
108
265592
2088
eşleştirme bulmak, kamusal bilgilere erişme,
04:39
tryingçalışıyor to infersonucuna sensitivehassas informationbilgi,
109
267680
1730
hassas bilgiler bulmaya çalışma,
04:41
and then sendinggönderme back to the phonetelefon
110
269410
2591
ve daha sonra bunları telefona geri gönderecek
04:44
so that it is overlaidoverlaid on the faceyüz of the subjectkonu,
111
272001
3609
ve böylece deneğin yüzünde yazılı,
04:47
an exampleörnek of augmentedartar realitygerçeklik,
112
275610
1901
arttırılmış gerçekliğin bir kopyası,
04:49
probablymuhtemelen a creepyürpertici exampleörnek of augmentedartar realitygerçeklik.
113
277511
2451
belkide ürpertici bir arttırılmış gerçeklik kopyası.
04:51
In factgerçek, we didn't developgeliştirmek the appUygulamanın to make it availablemevcut,
114
279962
3339
Aslında, bu uygulamayı kullanılabilmesi için yapmadık,
04:55
just as a proofkanıt of conceptkavram.
115
283301
1922
sadece içeriğin bir kanıtı olarak yaptık.
04:57
In factgerçek, take these technologiesteknolojiler
116
285223
2313
Hatta, bu teknolojileri alın
04:59
and pushit them to theironların logicalmantıksal extremeaşırı.
117
287536
1837
ve mantıksal en uç sınırlarına itin.
05:01
ImagineHayal a futuregelecek in whichhangi strangersyabancı insanlar around you
118
289373
2719
Çevrenizdeki yabancıların
05:04
will look at you throughvasitasiyla theironların GoogleGoogle GlassesGözlük
119
292092
2311
size Google Gözlükleriyle baktıkları
05:06
or, one day, theironların contacttemas lenseslensler,
120
294403
2307
veya bir gün lenslerinden,
05:08
and use sevenYedi or eightsekiz dataveri pointsmakas about you
121
296710
4020
ve sizin hakkınızda yedi yada sekiz veri noktası kullanarak,
05:12
to infersonucuna anything elsebaşka
122
300730
2582
hakkınızda bilinebilecek herhangi bir bilgiye
05:15
whichhangi mayMayıs ayı be knownbilinen about you.
123
303312
2603
ulaşabildikleri bir gelecek hayal edin.
05:17
What will this futuregelecek withoutolmadan secretssırlar look like?
124
305915
4794
Hiç bir sırrın olmadığı bir gelecek nasıl olurdu?
05:22
And should we carebakım?
125
310709
1964
Ve umursamalı mıyız?
05:24
We mayMayıs ayı like to believe
126
312673
1891
Bu kadar zengin bir veri ile dolu bir geleceğin
05:26
that the futuregelecek with so much wealthservet of dataveri
127
314564
3040
önyargıların olmadığı bir gelecek olacağına
05:29
would be a futuregelecek with no more biasesönyargıların,
128
317604
2514
inanmak isteyebiliriz,
05:32
but in factgerçek, havingsahip olan so much informationbilgi
129
320118
3583
ancak, aslında, bu kadar fazla bilgi
05:35
doesn't mean that we will make decisionskararlar
130
323701
2191
daha objektif seçimler yapacağımız
05:37
whichhangi are more objectiveamaç.
131
325892
1706
anlamına gelmiyor.
05:39
In anotherbir diğeri experimentdeney, we presentedsunulan to our subjectskonular
132
327598
2560
Başka bir deneyde, deneklerimize
05:42
informationbilgi about a potentialpotansiyel job candidateaday.
133
330158
2246
muhtemel bir iş adayının bilgilerini sunduk.
05:44
We includeddahil in this informationbilgi some referencesReferanslar
134
332404
3178
Bu bilgiye bazıları komik,
05:47
to some funnykomik, absolutelykesinlikle legalyasal,
135
335582
2646
tamamı yasal ama belki biraz utanç verici
05:50
but perhapsbelki slightlyhafifçe embarrassingutanç verici informationbilgi
136
338228
2465
deneğin online olarak paylaştığı
05:52
that the subjectkonu had postedgönderildi onlineinternet üzerinden.
137
340693
2020
bazı referans bilgileri de koyduk.
05:54
Now interestinglyilginç biçimde, amongarasında our subjectskonular,
138
342713
2366
Şimdi, ilginçtir ki, deneklerimiz arasında,
05:57
some had postedgönderildi comparablekarşılaştırılabilir informationbilgi,
139
345079
3083
bazıları benzer bilgiler paylaşmıştı
06:00
and some had not.
140
348162
2362
ve bazıları paylaşmamıştı.
06:02
WhichHangi groupgrup do you think
141
350524
1949
Sizce hangi grup deneğimizi
06:04
was more likelymuhtemelen to judgehakim harshlysert our subjectkonu?
142
352473
4552
daha acımasızca eleştirmiştir?
06:09
ParadoxicallyParadoksal olarak, it was the groupgrup
143
357025
1957
Paradoksal olarak, ahlaki uyumsuzluğun
06:10
who had postedgönderildi similarbenzer informationbilgi,
144
358982
1733
bir örneği olarak,
06:12
an exampleörnek of moralmanevi dissonanceuyumsuzluk.
145
360715
2942
benzer bilgileri paylaşan gruptu.
06:15
Now you mayMayıs ayı be thinkingdüşünme,
146
363657
1750
Şimdi şunu düşünebilirsiniz,
06:17
this does not applyuygulamak to me,
147
365407
1702
bu bende geçerli olmaz,
06:19
because I have nothing to hidesaklamak.
148
367109
2162
çünkü saklayacak bir şeyim yok.
06:21
But in factgerçek, privacyGizlilik is not about
149
369271
2482
Ama aslında mahremiyet saklayacak
06:23
havingsahip olan something negativenegatif to hidesaklamak.
150
371753
3676
negatif bir şeyleriniz olması ile ilgili değildir.
06:27
ImagineHayal that you are the H.R. directoryönetmen
151
375429
2354
Belli bir firma da İ.K müdürü
06:29
of a certainbelli organizationorganizasyon, and you receiveteslim almaksumtoplamés,
152
377783
2947
olduğunuzu hayal edin ve özgeçmişleri alıyorsunuz,
06:32
and you decidekarar ver to find more informationbilgi about the candidatesadaylar.
153
380730
2473
ve adaylarla ilgili daha fazla bilgi almak istiyorsunuz.
06:35
ThereforeBu nedenle, you GoogleGoogle theironların namesisimler
154
383203
2460
Bu yüzden, isimlerini Google'da aratıyorsunuz
06:37
and in a certainbelli universeEvren,
155
385663
2240
ve belli bir evrende,
06:39
you find this informationbilgi.
156
387903
2008
bu bilgiyi buluyorsunuz,
06:41
Or in a parallelparalel universeEvren, you find this informationbilgi.
157
389911
4437
veya paralel bir evrende, bu bilgiyi buluyorsunuz.
06:46
Do you think that you would be equallyaynı derecede likelymuhtemelen
158
394348
2717
Bir görüşme için her iki adayı da
06:49
to call eitherya candidateaday for an interviewröportaj?
159
397065
2803
eşit olarak çağırabileceğinizi düşünüyor musunuz?
06:51
If you think so, then you are not
160
399868
2282
Eğer öyleyse; o zaman sizler,
06:54
like the U.S. employersİşverenler who are, in factgerçek,
161
402150
2582
gerçekten de deneyimizin bir parçası olan ve tam olarak
06:56
partBölüm of our experimentdeney, meaninganlam we did exactlykesinlikle that.
162
404732
3307
bunu yaptığımız, ABD işverenleri gibi değilsiniz.
07:00
We createdoluşturulan FacebookFacebook profilesprofilleri, manipulatingmanipulasyon traitsözellikleri,
163
408039
3182
Özellikleri değiştirerek ,Facebook profilleri oluşturduk
07:03
then we startedbaşladı sendinggönderme out résumtoplamés to companiesşirketler in the U.S.,
164
411221
2851
daha sonra özgeçmişleri ABD' de ki firmalara göndermeye başladık
07:06
and we detectedtespit, we monitoredizlenen,
165
414072
1908
ve adayları araştırıp araştırmadıklarını
07:07
whetherolup olmadığını they were searchingArama for our candidatesadaylar,
166
415980
2393
ve sosyal medyada buldukları bilgilere göre
07:10
and whetherolup olmadığını they were actingoyunculuk on the informationbilgi
167
418373
1832
hareket edip etmediklerini
07:12
they foundbulunan on socialsosyal mediamedya. And they were.
168
420205
1938
tespit edip gözlemledik. Ve öyle davranıyorlarç
07:14
DiscriminationAyrımcılık was happeningolay throughvasitasiyla socialsosyal mediamedya
169
422143
2101
Ayrımcılık,eşit yetkinlikte ki adaylar için
07:16
for equallyaynı derecede skilledyetenekli candidatesadaylar.
170
424244
3073
sosyal medya aracılığı ile olmaktadır.
07:19
Now marketerspazarlamacıların like us to believe
171
427317
4575
Pazarlamacılar bizim,
07:23
that all informationbilgi about us will always
172
431892
2269
hakkımızdaki tüm bilginin
07:26
be used in a mannertavır whichhangi is in our favoriyilik.
173
434161
3273
yararımıza olacak bir şekilde kullanılacağına inanmamızı istiyorlar.
07:29
But think again. Why should that be always the casedurum?
174
437434
3715
Ama tekrar düşünün. Neden hep bu şekilde olmak zorunda?
07:33
In a moviefilm whichhangi camegeldi out a fewaz yearsyıl agoönce,
175
441149
2664
Bir süre önce çıkmış bir filimde,
07:35
"MinorityAzınlık ReportRapor," a famousünlü scenefaliyet alani, sahne
176
443813
2553
"Azınlık Raporu", ünlü bir sahnede
07:38
had TomTom CruiseCruise walkyürümek in a mallalışveriş Merkezi
177
446366
2576
Tom Cruise bir alışveriş merkezinde yürümektedir
07:40
and holographicHolografik personalizedkişiselleştirilmiş advertisingreklâm
178
448942
3776
ve holografik kişiselleştirilmiş reklamlar
07:44
would appeargörünmek around him.
179
452718
1835
çevresinde belirmektedir.
07:46
Now, that moviefilm is setset in 2054,
180
454553
3227
Şimdi, film 2054 yılında geçmektedir,
07:49
about 40 yearsyıl from now,
181
457780
1642
bugünden 40 yıl sonra,
07:51
and as excitingheyecan verici as that technologyteknoloji looksgörünüyor,
182
459422
2908
ve teknoloji ne kadar heyecan verici gözükürse gözüksün,
07:54
it alreadyzaten vastlyçok underestimateshafife
183
462330
2646
sizin hakkınızda bu firmaların toplayabileceği bilgi miktarını
07:56
the amounttutar of informationbilgi that organizationsorganizasyonlar
184
464976
2140
ve bunları sizi tespit dahi edemeyeceğiniz bir biçimde
07:59
can gathertoplamak about you, and how they can use it
185
467116
2483
sizi etkilemek için nasıl kullanabileceğini
08:01
to influenceetki you in a way that you will not even detectbelirlemek.
186
469599
3398
ciddi anlamda hafife almaktadır
08:04
So as an exampleörnek, this is anotherbir diğeri experimentdeney
187
472997
2103
Mesela, bu, şu an yapmakta olduğumuz
08:07
actuallyaslında we are runningkoşu, not yethenüz completedtamamlanan.
188
475100
2273
ve henüz bitmemiş bir deneyimiz.
08:09
ImagineHayal that an organizationorganizasyon has accesserişim
189
477373
2319
Hayal edin, bir firma sizin
08:11
to your listliste of FacebookFacebook friendsarkadaşlar,
190
479692
2056
tüm Facebook arkadaş listenize ulaşabiliyor
08:13
and throughvasitasiyla some kindtür of algorithmalgoritma
191
481748
1772
ve bir algoritma vasıtası ile
08:15
they can detectbelirlemek the two friendsarkadaşlar that you like the mostçoğu.
192
483520
3734
en yakın arkadaşlarınız tespit ediyor.
08:19
And then they createyaratmak, in realgerçek time,
193
487254
2280
Ve eş zamanlı olarak,
08:21
a facialYüz Bakımı compositekarma of these two friendsarkadaşlar.
194
489534
2842
bu iki arkadaşınızın yüzsel birleşimini oluşturuyor.
08:24
Now studiesçalışmalar priorönceki to oursbizim have showngösterilen that people
195
492376
3069
Şimdi, önceki çalışmalar bize gösteriyor ki,
08:27
don't recognizetanımak any longeruzun even themselveskendilerini
196
495445
2885
insanlar, kendilerine ait olan yüzsel birleşimlerini dahi
08:30
in facialYüz Bakımı compositeskompozitler, but they reacttepki
197
498330
2462
tanımamaktadır ama bu tarz birleşimlere
08:32
to those compositeskompozitler in a positivepozitif mannertavır.
198
500792
2117
olumlu bir yönde tepki vermektedir.
08:34
So nextSonraki time you are looking for a certainbelli productürün,
199
502909
3415
Bu yüzden, bir daha ki sefere belli bir ürüne bakarken,
08:38
and there is an adilan suggestingdüşündüren you to buysatın almak it,
200
506324
2559
ve size bunu almanızı öneren bir reklam varsa,
08:40
it will not be just a standardstandart spokespersonsözcüsü.
201
508883
2907
bu sadece tipik bir sözcü olmayacaktır,
08:43
It will be one of your friendsarkadaşlar,
202
511790
2313
bu sizin arkadaşlarınızdan birisi olacaktır
08:46
and you will not even know that this is happeningolay.
203
514103
3303
ve sizi bunun olduğunu anlamayacaksınız bile.
08:49
Now the problemsorun is that
204
517406
2413
Şimdi problem ;şu anda
08:51
the currentşimdiki policypolitika mechanismsmekanizmalar we have
205
519819
2519
kişisel bilgilerin suistimalinden korumak için sahip
08:54
to protectkorumak ourselveskendimizi from the abusesihlalleri of personalkişisel informationbilgi
206
522338
3438
olduğumuz kural mekanizmaları
08:57
are like bringinggetiren a knifebıçak to a gunfightSilahlı çatışma.
207
525776
2984
bir silahlı çatışmaya bıçak getirmek gibi olması.
09:00
One of these mechanismsmekanizmalar is transparencyşeffaflık,
208
528760
2913
Bu mekanizmalardan bir tanesi şeffaflık,
09:03
tellingsöylüyorum people what you are going to do with theironların dataveri.
209
531673
3200
insanlara onların bilgileri ile ne yapacağınız söylemek.
09:06
And in principleprensip, that's a very good thing.
210
534873
2106
Ve prensipte, bu çok güzel bir şey.
09:08
It's necessarygerekli, but it is not sufficientyeterli.
211
536979
3667
Bu gereklidir ancak yeterli değildir.
09:12
TransparencyŞeffaflık can be misdirectedyanlış adrese.
212
540646
3698
Şeffaflık yanlış yönlendirilebilir.
09:16
You can tell people what you are going to do,
213
544344
2104
İnsanlara ne yapacağınızı söyleyebilirsiniz,
09:18
and then you still nudgedirsekle dürtmek them to discloseifşa
214
546448
2232
ve daha sonra onları keyfi miktarlarda
09:20
arbitrarykeyfi amountsmiktarlar of personalkişisel informationbilgi.
215
548680
2623
kişisel bilgi paylaşmaya sürükleyebilir.
09:23
So in yethenüz anotherbir diğeri experimentdeney, this one with studentsöğrencilerin,
216
551303
2886
Bu yüzden, başka bir deneyde, bu sefer öğrencilerle
09:26
we askeddiye sordu them to providesağlamak informationbilgi
217
554189
3058
kampüs davranışları hakkında
09:29
about theironların campuskampus behaviordavranış,
218
557247
1813
bilgi sağlamalarını istedik,
09:31
includingdahil olmak üzere prettygüzel sensitivehassas questionssorular, suchböyle as this one.
219
559060
2940
bunların bazıları şunun gibi son derece hassas soruları da içermekteydi.
09:34
[Have you ever cheatedhile in an examsınav?]
220
562000
621
(Hiç bir sınavda kopya çektiniz mi?)
09:34
Now to one groupgrup of subjectskonular, we told them,
221
562621
2300
Deneklerin bir grubuna, şöyle söyledik,
09:36
"Only other studentsöğrencilerin will see your answerscevaplar."
222
564921
2841
"Cevaplarınızı sadece diğer öğrenciler görecek."
09:39
To anotherbir diğeri groupgrup of subjectskonular, we told them,
223
567762
1579
Diğer bir grup deneğe, şöyle söyledik,
09:41
"StudentsÖğrenciler and facultyFakülte will see your answerscevaplar."
224
569341
3561
"Öğrenciler ve yönetim cevaplarınızı görecek."
09:44
TransparencyŞeffaflık. NotificationBildirim. And sure enoughyeterli, this workedişlenmiş,
225
572902
2591
Şeffaflık. Bildirim. Ve kesin olarak bu işe yaradı,
09:47
in the senseduyu that the first groupgrup of subjectskonular
226
575493
1407
ilk grup denekler ikinciden daha
09:48
were much more likelymuhtemelen to discloseifşa than the secondikinci.
227
576900
2568
çok açık olmaya yatkındılar.
09:51
It makesmarkaları senseduyu, right?
228
579468
1520
Mantıklı değil mi?
09:52
But then we addedkatma the misdirectionYanlış yönlendirme.
229
580988
1490
Ama daha sonra bir yanlış yönlendirme ekledik.
09:54
We repeatedtekrarlanan the experimentdeney with the sameaynı two groupsgruplar,
230
582478
2760
Deneyi aynı iki grupla tekrarladık,
09:57
this time addingekleme a delaygecikme
231
585238
2427
bu sefer deneklere bilgilerini
09:59
betweenarasında the time we told subjectskonular
232
587665
2935
nasıl kullanacağımızı bildirmek
10:02
how we would use theironların dataveri
233
590600
2080
ile soruları cevaplamaya başlamaları arasına
10:04
and the time we actuallyaslında startedbaşladı answeringcevap veren the questionssorular.
234
592680
4388
biraz gecikme ekledik.
10:09
How long a delaygecikme do you think we had to addeklemek
235
597068
2561
Fakültenin sizin cevaplarınızı göreceği
10:11
in ordersipariş to nullifyiptali the inhibitoryinhibitör effectEfekt
236
599629
4613
bilgisini etkisizleştirme etkisini yok etmek için
10:16
of knowingbilme that facultyFakülte would see your answerscevaplar?
237
604242
3411
sizce ne kadar süre eklemişizdir?
10:19
TenOn minutesdakika?
238
607653
1780
10 dakika?
10:21
FiveBeş minutesdakika?
239
609433
1791
5 dakika?
10:23
One minutedakika?
240
611224
1776
1 dakika?
10:25
How about 15 secondssaniye?
241
613000
2049
15 saniye nasıl?
10:27
FifteenOn beş secondssaniye were sufficientyeterli to have the two groupsgruplar
242
615049
2668
15 saniye 2 grubun aynı miktarda
10:29
discloseifşa the sameaynı amounttutar of informationbilgi,
243
617717
1568
bilgi paylaşmasını sağlamak için yeterliydi,
10:31
as if the secondikinci groupgrup now no longeruzun caresbakımları
244
619285
2746
adeta, ikinci grup, yönetimin cevaplarını
10:34
for facultyFakülte readingokuma theironların answerscevaplar.
245
622031
2656
görmesini artık umursamıyordu.
10:36
Now I have to admititiraf etmek that this talk so faruzak
246
624687
3336
Kabul etmeliyimki, bu konuşma
10:40
mayMayıs ayı soundses exceedinglyson derece gloomykasvetli,
247
628023
2480
şu ana kadar fazlasıyla kasvetli gelebilir,
10:42
but that is not my pointpuan.
248
630503
1721
ama demek istediğim bu değil.
10:44
In factgerçek, I want to sharepay with you the factgerçek that
249
632224
2699
Aslında, sizinle alternatifler olduğunu
10:46
there are alternativesalternatifleri.
250
634923
1772
paylaşmak istiyorum.
10:48
The way we are doing things now is not the only way
251
636695
2499
Bazı şeyleri şu anda ki yapma şeklimiz
10:51
they can donetamam, and certainlykesinlikle not the besten iyi way
252
639194
3037
tek yapma şekli değil ve kesinlikle en iyi
10:54
they can be donetamam.
253
642231
2027
yolda değil.
10:56
When someonebirisi tellsanlatır you, "People don't carebakım about privacyGizlilik,"
254
644258
4171
Birisi size, "insanlar mahremiyeti önemsemiyorlar", dediği zaman,
11:00
considerdüşünmek whetherolup olmadığını the gameoyun has been designedtasarlanmış
255
648429
2642
oyunun insanların mahremiyeti önemseyemeyecek şekilde
11:03
and riggedhileli so that they cannotyapamam carebakım about privacyGizlilik,
256
651071
2724
tasarlanıp , donatıldığını göz önünde bulundurun,
11:05
and cominggelecek to the realizationgerçekleşme that these manipulationsmanipülasyonlar occurmeydana
257
653795
3262
ve oluşan bu manipülasyonları
11:09
is alreadyzaten halfwayyarım throughvasitasiyla the processsüreç
258
657057
1607
anlamak kendinizi koruyabilme sürecinin
11:10
of beingolmak ableyapabilmek to protectkorumak yourselfkendin.
259
658664
2258
zaten yarısıdır.
11:12
When someonebirisi tellsanlatır you that privacyGizlilik is incompatibleuyumsuz
260
660922
3710
Size birisi mahremiyetin büyük verinin
11:16
with the benefitsfaydaları of bigbüyük dataveri,
261
664632
1849
faydalarıyla uyumsuz olduğunu söylediğinde,
11:18
considerdüşünmek that in the last 20 yearsyıl,
262
666481
2473
son 20 yılda araştırmacıların
11:20
researchersaraştırmacılar have createdoluşturulan technologiesteknolojiler
263
668954
1917
sanal olarak herhangi bir elektronik hareketin
11:22
to allowizin vermek virtuallyfiilen any electronicelektronik transactionshareketleri
264
670871
3318
daha mahremiyet-koruyucu bir şekilde gerçekleştirebilecek
11:26
to take placeyer in a more privacy-preservingGizlilik koruma mannertavır.
265
674189
3749
teknolojileri oluşturduğunu göz önünde bulundurun.
11:29
We can browseGözat the InternetInternet anonymouslyAnonim.
266
677938
2555
İnternette anonim olarak gezebiliriz.
11:32
We can sendgöndermek emailse-postalar that can only be readokumak
267
680493
2678
NSA tarafından dahi okunamayacak sadece
11:35
by the intendedistenilen recipientalıcı, not even the NSANSA.
268
683171
3709
gönderilen alıcının okuyabileceği mailler gönderebiliriz.
11:38
We can have even privacy-preservingGizlilik koruma dataveri miningmadencilik.
269
686880
2997
Hatta, mahremiyet-koruyucu veri madenciliği yapabiliriz.
11:41
In other wordskelimeler, we can have the benefitsfaydaları of bigbüyük dataveri
270
689877
3894
Başka bir deyişle, büyük verilerin faydalarına mahremiyeti
11:45
while protectingkoruyucu privacyGizlilik.
271
693771
2132
korurken sahip olabiliriz.
11:47
Of coursekurs, these technologiesteknolojiler implyima a shiftingdeğişken
272
695903
3791
Tabiki de , bu teknolojiler
11:51
of costmaliyet and revenuesgelirleri
273
699694
1546
veri sahipleri ve veri konuları arasında
11:53
betweenarasında dataveri holderstutucular and dataveri subjectskonular,
274
701240
2107
maliyetlerin ve gelirlerin değişmesini beraberinde getirmektedir
11:55
whichhangi is why, perhapsbelki, you don't hearduymak more about them.
275
703347
3453
bu yüzden, belki de bunlar hakkında fazla bir şey duymuyoruz.
11:58
WhichHangi bringsgetiriyor me back to the GardenBahçe of EdenEden.
276
706800
3706
Bu da beni tekrar Cennet Bahçesine getirmekte.
12:02
There is a secondikinci privacyGizlilik interpretationyorumu
277
710506
2780
Cennet Bahçesi hikayesinin
12:05
of the storyÖykü of the GardenBahçe of EdenEden
278
713286
1809
Adem ve Havva'nın çıplak hissetmesi ve utanmaları
12:07
whichhangi doesn't have to do with the issuekonu
279
715095
2096
ile ilgli olmayacak şekilde
12:09
of AdamAdam and EveHavva feelingduygu nakedçıplak
280
717191
2225
ikinci bir mahremiyet yorumu
12:11
and feelingduygu ashamedutanmış.
281
719416
2381
bulunmaktadır.
12:13
You can find echoesyankıları of this interpretationyorumu
282
721797
2781
Bu yorumun yansımalarını
12:16
in JohnJohn Milton'sMilton'ın "ParadiseCennet LostKayıp."
283
724578
2782
John Milton'nun "Kayıp Cennet"inde bulabilirsiniz.
12:19
In the gardenBahçe, AdamAdam and EveHavva are materiallymaddi contentiçerik.
284
727360
4197
Bahçede,Adem ve Havva bariz şekilde memnunlar.
12:23
They're happymutlu. They are satisfiedmemnun.
285
731557
2104
Mutlular,Tatminler.
12:25
HoweverAncak, they alsoAyrıca lackeksiklik knowledgebilgi
286
733661
2293
Ancak, aynı zamanda
12:27
and self-awarenessöz-bilinç.
287
735954
1640
özfarkındalık ve bilgiye sahip değilller.
12:29
The momentan they eatyemek the aptlyaptly namedadlı
288
737594
3319
Makul bir şekilde adlandırılmış olan
12:32
fruitmeyve of knowledgebilgi,
289
740913
1293
bilgi meyvesini yedikleri anda,
12:34
that's when they discoverkeşfetmek themselveskendilerini.
290
742206
2605
kendilerini keşfetmeye başladılar.
12:36
They becomeolmak awarefarkında. They achievebaşarmak autonomyözerklik.
291
744811
4031
Farkında oldular. Bağımsızlık kazandılar.
12:40
The pricefiyat to payödeme, howeverancak, is leavingayrılma the gardenBahçe.
292
748842
3126
Ancak, ödenecek bedel, bahçeyi terk etmek oldu.
12:43
So privacyGizlilik, in a way, is bothher ikisi de the meansanlamına geliyor
293
751968
3881
Bu yüzden mahremiyet,özgürlük için
12:47
and the pricefiyat to payödeme for freedomözgürlük.
294
755849
2962
hem bir araç hem de ödenecek bedeldir.
12:50
Again, marketerspazarlamacıların tell us
295
758811
2770
Tekrardan, pazarlamacılar bize
12:53
that bigbüyük dataveri and socialsosyal mediamedya
296
761581
3019
büyük verinin ve sosyal medyanın
12:56
are not just a paradisecennet of profitkâr for them,
297
764600
2979
sadece onlar için bir kar cenneti değil,
12:59
but a GardenBahçe of EdenEden for the restdinlenme of us.
298
767579
2457
aynı zamanda geri kalanlarımız için Cennet Bahçesi olduğunu söylemekteler.
13:02
We get freeücretsiz contentiçerik.
299
770036
1238
Bedava içerik alıyoruz.
13:03
We get to playoyun AngryKızgın BirdsKuşlar. We get targetedHedeflenen appsuygulamaların.
300
771274
3123
Angry Birds oynayabiliyoruz. Belli uygulamalara sahip oluyoruz.
13:06
But in factgerçek, in a fewaz yearsyıl, organizationsorganizasyonlar
301
774397
2897
Ancak aslında, bir kaç yıl içinde, şirketler
13:09
will know so much about us,
302
777294
1609
hakkımızda o kadar çok şey bilecekki
13:10
they will be ableyapabilmek to infersonucuna our desiresarzuları
303
778903
2710
isteklerimize daha biz dahi o arzuyu oluşturmadan
13:13
before we even formform them, and perhapsbelki
304
781613
2204
müdahale edebilecekler ve belki
13:15
buysatın almak productsÜrünler on our behalfadına
305
783817
2447
daha biz onlara ihtiyacımız olduğunu bilmeden
13:18
before we even know we need them.
306
786264
2274
bizim yerimize ürünleri alacaklar.
13:20
Now there was one Englishİngilizce authoryazar
307
788538
3237
Rahatlık için bağımsızlığımızı ve özgürlüğümüzü
13:23
who anticipatedbeklenen this kindtür of futuregelecek
308
791775
3045
takas edeceğimiz bu tarz bir geleceği
13:26
where we would tradeTicaret away
309
794820
1405
tahmin eden
13:28
our autonomyözerklik and freedomözgürlük for comfortkonfor.
310
796225
3548
İngiliz bir yazar vardı.
13:31
Even more so than GeorgeGeorge OrwellOrwell,
311
799773
2161
Hatta George Orwell'den daha fazla,
13:33
the authoryazar is, of coursekurs, AldousAldous HuxleyHuxley.
312
801934
2761
Yazar tabiki de Aldous Huxley'di.
13:36
In "BraveCesur NewYeni WorldDünya," he imagineshayal a societytoplum
313
804695
2854
"Cesur Yeni Dünya"'da özgürlük için oluşturduğumuz
13:39
where technologiesteknolojiler that we createdoluşturulan
314
807549
2171
teknolojilerin sonunda geri dönüp
13:41
originallyaslında for freedomözgürlük
315
809720
1859
bizi baskı altında tuttuğu
13:43
endson up coercingbaskının us.
316
811579
2567
bir toplum hayal ediyor.
13:46
HoweverAncak, in the bookkitap, he alsoAyrıca offersteklifler us a way out
317
814146
4791
Bununla birlikte, kitapta, aynı zamanda bize bu tarz bir toplumdan,
13:50
of that societytoplum, similarbenzer to the pathyol
318
818937
3438
Adem ve Havva'nın cenneti terk etmek için izlediği yola benzer olan
13:54
that AdamAdam and EveHavva had to followtakip et to leaveayrılmak the gardenBahçe.
319
822375
3955
çıkış yolunu dagösteriyor
13:58
In the wordskelimeler of the SavageSavage,
320
826330
2147
Savage'ın deyimiyle,
14:00
regainingyeniden kazanmak autonomyözerklik and freedomözgürlük is possiblemümkün,
321
828477
3069
ödenecek bedelin aşırı olmasına rağmen
14:03
althougholmasına rağmen the pricefiyat to payödeme is steepdik.
322
831546
2679
bağımsızlık ve özgürlük mümkündür,
14:06
So I do believe that one of the definingtanımlarken fightskavgalar
323
834225
5715
Bu yüzden,günümüzün belirleyici kavgalardan birinin
14:11
of our timeszamanlar will be the fightkavga
324
839940
2563
kişisel bilgiler üzerindeki kontrol için,
14:14
for the controlkontrol over personalkişisel informationbilgi,
325
842503
2387
büyük verinin
14:16
the fightkavga over whetherolup olmadığını bigbüyük dataveri will becomeolmak a forcekuvvet
326
844890
3507
gizlice bizi manipüle edecek bir güçtense
14:20
for freedomözgürlük,
327
848397
1289
özgürlük için bir güç olup olmayacağı için
14:21
ratherdaha doğrusu than a forcekuvvet whichhangi will hiddenlydemirlerine manipulateidare us.
328
849686
4746
yapılacağına inanıyorum.
14:26
Right now, manyçok of us
329
854432
2593
Şu anda pek çoğumuz,
14:29
do not even know that the fightkavga is going on,
330
857025
2753
kavganın devam ettiğini dahi bilmiyoruz
14:31
but it is, whetherolup olmadığını you like it or not.
331
859778
2672
ama ister beğenin ister beğenmeyin devam ediyor.
14:34
And at the riskrisk of playingoynama the serpentYılan,
332
862450
2804
Ve yılanı oynama pahasına,
14:37
I will tell you that the toolsaraçlar for the fightkavga
333
865254
2897
Size bu kavga için burada olan gerekli aletleri söyleyeceğim
14:40
are here, the awarenessfarkında olma of what is going on,
334
868151
3009
neler olup bittiğinin farkındalığı
14:43
and in your handseller,
335
871160
1355
ve ellerinizde,
14:44
just a fewaz clickstıklama away.
336
872515
3740
sadece bir kaç tık ötede.
14:48
Thank you.
337
876255
1482
Teşekkürler.
14:49
(ApplauseAlkış)
338
877737
4477
(Alkışlar)
Translated by Ramazan Şen
Reviewed by Umut Kursun

▲Back to top

ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee