ABOUT THE SPEAKERS
Kashmir Hill - Technology journalist
Kashmir Hill writes about privacy and technology.

Why you should listen

Kashmir Hill is a senior reporter for the Gizmodo Media Group. As she writes: "I started out in journalism blogging at what was essentially an online tabloid for lawyers. Then I got interested in privacy, and that forced me to write about Facebook and eventually about other technologies; along the way people started describing me as a technology journalist instead of a legal blogger.

"I've always wanted my writing to be approachable for a lay audience, so I usually use humor, a first-person approach or, ideally, both. So I've hacked a smart home, lived in a monitored one, created a fake business and bought it a fake reputation, worked as a crowdsourced girlfriend, lived on Bitcoin and spent a whole week WRITING IN CAPS LOCK. The best way to prepare people for future possible tech dystopias is for me to live in them and report back."

More profile about the speaker
Kashmir Hill | Speaker | TED.com
Surya Mattu - Artist, investigative journalist, engineer
Think of Surya Mattu as a data detective. As he writes: "I am interested in figuring out the ways in which algorithmic systems harm people."

Why you should listen

Surya Mattu is a data reporter on Gizmodo's Special Projects Desk and an R&D journalism resident at Eyebeam NYC. As he writes: "My practice combines art, investigative journalism, engineering and creative technology. The aim is to reverse-engineer the specific ways in which the tools or technology we create are imbued with the ethics of the culture in which they're created. Currently, I am a data reporter. Previously, I was a contributing researcher at ProPublica, where I worked on "Machine Bias," a series that aims to highlight how algorithmic systems can be biased and discriminate against people."

More profile about the speaker
Surya Mattu | Speaker | TED.com
TED2018

Kashmir Hill and Surya Mattu: What your smart devices know (and share) about you

Kashmir Hill ve Surya Mattu: Akıllı cihazlarınızın hakkınızda bildikleri ve paylaştıkları

Filmed:
2,030,169 views

''Akıllı'' cihazlarınız sizinle konuşmaya başladığında başka kiminle konuşuyorlar? Kashmir Hill ve Surya Mattu bunu bulmaya çalıştı. Hill'in evini 18 internete bağlı 18 farklı cihazla donatarak özel bir modem yardımıyla cihazların sunucularla ne sıklıkta iletişime geçtiklerini ve ne bildirdiklerini izlediler. Sonuçlar şaşırtıcıydı; hatta tüyler ürpertici. Akıllı cihazlarınızın uyku programınız, izlediğiniz TV programları ve hatta diş fırçalama alışkanlıkları hakkında şirketlere neler aktardıklarını ve teknoloji şirketlerinin bu bilgiyi sizi hedeflemek ve profilinizi çıkartmak için nasıl kullanabileceklerini öğrenin. (Konuşmada yetişkinlere yönelik bir dil kullanılmaktadır.)
- Technology journalist
Kashmir Hill writes about privacy and technology. Full bio - Artist, investigative journalist, engineer
Think of Surya Mattu as a data detective. As he writes: "I am interested in figuring out the ways in which algorithmic systems harm people." Full bio

Double-click the English transcript below to play the video.

00:12
KashmirKaşmir HillHill: So for my
birthdaydoğum günü last yearyıl,
0
912
2135
Kashmir Hill: Geçen yıl doğum günümde
00:15
my husbandkoca got me an AmazonAmazon EchoEcho.
1
3071
1993
eşim bana bir Amazon Echo aldı.
00:17
I was kindtür of shockedşok, actuallyaslında,
2
5595
1540
Aslında bayağı şaşırdım,
00:19
because we bothher ikisi de work
in privacyGizlilik and securitygüvenlik.
3
7159
3234
çünkü ikimiz de gizlilk
ve güvenlik sektöründe çalışıyoruz.
00:22
(LaughterKahkaha)
4
10417
1336
(Kahkahalar)
00:24
And this was a devicecihaz that would sitoturmak
in the middleorta of our home
5
12688
3389
Evimizin orta yerinde mikrofonu olan
00:28
with a microphonemikrofon on,
6
16101
1436
ve sürekli dinleme yapan
00:29
constantlysürekli listeningdinleme.
7
17561
1649
bir cihaz olacaktı.
00:31
We're not aloneyalnız, thoughgerçi.
8
19696
1254
Ama yalnız değiliz.
00:32
AccordingAccording to a surveyanket by NPRNPR
and EdisonEdison ResearchAraştırma,
9
20974
2881
NPR ve Edison Research anketine göre
00:35
one in sixaltı AmericanAmerikan adultsyetişkinler
now has a smartakıllı speakerkonuşmacı,
10
23879
4079
her altı Amerikalıdan birinde
akıllı hoparlör var,
00:39
whichhangi meansanlamına geliyor that they have
a virtualsanal assistantYardımcısı at home.
11
27982
2881
bu da evlerinde bir sanal asistan
olduğu anlamına geliyor.
00:42
Like, that's wildvahşi.
12
30887
1198
Oldukça ciddi.
00:44
The futuregelecek, or the futuregelecek dystopiadistopya,
is gettingalma here fasthızlı.
13
32109
4116
Gelecekteki distopyaya
çok hızlı yaklaşıyoruz.
00:48
BeyondÖtesinde that, companiesşirketler are offeringteklif us
all kindsçeşit of internet-connectedInternet'e bağlı devicescihazlar.
14
36778
4507
Bunun da ötesi, şirketler bize
her türden internete bağlı cihaz sunuyor.
00:53
There are smartakıllı lightsışıklar, smartakıllı lockskilitler,
smartakıllı toiletstuvaletler, smartakıllı toysoyuncaklar,
15
41309
4968
Akıllı lambalar, akıllı kilitler,
akıllı tuvaletler, akıllı oyuncaklar,
00:58
smartakıllı sexseks toysoyuncaklar.
16
46301
1311
akıllı seks oyuncakları.
01:00
BeingVarlık smartakıllı meansanlamına geliyor the devicecihaz
can connectbağlamak to the internetInternet,
17
48323
2691
Akıllı demek, cihaz internete
bağlanabiliyor demek,
01:03
it can gathertoplamak dataveri,
18
51038
1176
yani veri toplayabilir
01:04
and it can talk to its ownersahip.
19
52238
1902
ve sahibiyle konuşabilir.
01:06
But oncebir Zamanlar your appliancesaletleri can talk to you,
20
54966
2714
Fakat cihazlarınız
sizinle konuşabiliyorsa
01:09
who elsebaşka are they going to be talkingkonuşma to?
21
57704
2145
başka kiminle konuşabiliyor olabilirler?
01:12
I wanted to find out,
22
60331
1365
Bunu çözmek istedim,
01:13
so I wentgitti all-inRest and turneddönük my
one-bedroomTek Yatak Odalı apartmentapartman in SanSan FranciscoFrancisco
23
61720
3388
bu yüzden her şeyi göze alarak
San Fransisco'daki stüdyo dairemi
01:17
into a smartakıllı home.
24
65132
1349
akıllı eve çevirdim.
01:18
I even connectedbağlı our bedyatak to the internetInternet.
25
66800
3091
Yatağımızı bile internete bağladım.
01:22
As faruzak as I know, it was just
measuringölçme our sleepinguyuyor habitsalışkanlıkları.
26
70505
3302
Sadece uyku alışkanlıklarımızı
ölçtüğümü sanıyordum.
01:26
I can now tell you
that the only thing worsedaha da kötüsü
27
74490
2081
Şunu söyleyebilirim ki
kötü bir gece geçirmekten
daha kötü olan tek şey
01:28
than gettingalma a terriblekorkunç night'sgece sleepuyku
28
76595
1787
01:30
is to have your smartakıllı bedyatak
tell you the nextSonraki day
29
78406
2417
ertesi gün akıllı yatağınızın
size şöyle söylemesi:
01:32
that you "missedcevapsız your goalhedef
and got a lowdüşük sleepuyku scoreGol."
30
80847
3056
''Amacınıza ulaşamadınız
ve düşük bir uyku skoru aldınız.''
01:35
(LaughterKahkaha)
31
83927
1380
(Kahkahalar)
01:37
It's like, "Thanksteşekkürler, smartakıllı bedyatak.
32
85331
1437
''Teşekkürler, akıllı yatak.
01:38
As if I didn't alreadyzaten
feel like shitbok todaybugün."
33
86792
2516
Sanki kendimi yeterince
berbat hissetmiyordum.''
01:41
(LaughterKahkaha)
34
89332
1153
(Kahkahalar)
01:42
All togetherbirlikte, I installedKurulmuş 18
internet-connectedInternet'e bağlı devicescihazlar in my home.
35
90509
4536
Toplamda evime 18 tane
internete bağlı cihaz kurdum.
01:47
I alsoAyrıca installedKurulmuş a SuryaSurya.
36
95069
2238
Ayrıca bir de Surya kurdum.
01:49
SuryaSurya MattuMattu: HiMerhaba, I'm SuryaSurya.
37
97331
1381
Surya Mattu: Selam, ben Surya.
01:50
(LaughterKahkaha)
38
98736
1198
(Kahkahalar)
01:51
I monitoredizlenen everything the smartakıllı home did.
39
99958
2944
Akllı evin yaptığı her şeyi gözlemledim.
01:54
I builtinşa edilmiş a specialözel routeryönlendirici that let me look
at all the network activityaktivite.
40
102926
3929
Tüm ağ aktivitesini görmemi sağlayan
özel bir modem geliştirdim.
01:58
You can think of my routeryönlendirici
sortçeşit of like a securitygüvenlik guardbekçi,
41
106879
2930
Bu modemi bir güvenlik görevlisi
gibi düşünebilirsiniz,
02:01
compulsivelyzorlayıcı logginggünlüğü
all the network packetspaketleri
42
109833
2133
eve giren ve çıkan tüm ağ paketlerini
02:03
as they enteredgirdi and left the smartakıllı home.
43
111990
2047
dürtüsel bir şekilde kaydediyor.
02:06
KHKH: SuryaSurya and I are bothher ikisi de journalistsgazeteciler,
he's not my husbandkoca,
44
114061
2754
KH: Surya da ben de gazeteciyiz.
Kendisi eşim değil,
02:08
we just work togetherbirlikte at GizmodoGizmodo.
45
116839
1676
Gizmodo'da birlikte çalışıyoruz.
02:10
SMSM: Thank you for clarifyingaçıklığa kavuşturulması.
46
118539
1389
SM: Açıklama için teşekkürler.
02:11
The devicescihazlar KashmirKaşmir boughtsatın --
47
119952
1402
Kashmir'in aldığı cihazların -
02:13
we were interestedilgili in understandinganlayış
48
121378
1692
üreticilerine ne söylediklerini
02:15
what they were sayingsöz
to theironların manufacturersüreticileri.
49
123094
2111
anlamak istiyorduk.
02:17
But we were alsoAyrıca interestedilgili
in understandinganlayış
50
125229
2062
Ayrıca evin dijital emisyonlarının
02:19
what the home'sev kullanıcısı digitaldijital
emissionsemisyonları look like
51
127315
2370
internet servis sağlayıcısı için
02:21
to the internetInternet servicehizmet providersağlayıcı.
52
129709
2265
nasıl göründüğünü de merak ediyorduk.
02:23
We were seeinggörme what the ISPISS could see,
but more importantlyönemlisi,
53
131998
2842
Sağlayıcının gördüğünü görüyorduk
ama daha da önemlisi,
02:26
what they could sellsatmak.
54
134864
1181
ne satabileceğini.
02:28
KHKH: We ranran the experimentdeney for two monthsay.
55
136069
2143
KH: İki ay boyunca deney yaptık.
02:30
In that two monthsay,
56
138236
1167
Bu iki ay içinde,
02:31
there wasn'tdeğildi a singletek hoursaat
of digitaldijital silenceSessizlik in the houseev --
57
139427
2877
evin içinde bir saat bile
dijital sessizlik olmadı,
bir hafta şehir dışına çıktığımızda bile.
02:34
not even when we wentgitti away for a weekhafta.
58
142328
1932
02:36
SMSM: Yeah, it's so truedoğru.
59
144284
1174
SM: Evet, çok doğru.
02:37
BasedDayalı on the dataveri, I knewbiliyordum when
you guys wokeuyandı up and wentgitti to bedyatak.
60
145482
3016
Verilere bakarak ne zaman uyandığınızı
ve uyuduğunuzu biliyordum.
02:40
I even knewbiliyordum when KashmirKaşmir
brushedfırça her teethdiş.
61
148522
2039
Kashmir'in diş fırçalama saatini bile.
02:42
I'm not going to out your brushingfırçalama habitsalışkanlıkları,
62
150585
2024
Diş fırçalama huylarınızı anlatmayacağım,
02:44
but let's just say it was very clearaçık to me
when you were workingçalışma from home.
63
152633
3629
ama evden çalıştığınız zaman
bunu açıkça görebiliyordum.
02:48
KHKH: Uh, I think you just outedouted them
to, like, a lot of people here.
64
156286
3212
KH: Sanırım buradaki
pek çok insana ifşa ettin bile.
02:51
SMSM: Don't be embarrassedmahçup,
it's just metadatameta veriler.
65
159522
2346
SM: Utanmana gerek yok,
bu sadece metaveri.
02:54
I knewbiliyordum when you turneddönük on your TVTV
and how long you watchedizledi it for.
66
162472
3143
TV'yi ne zaman açtığınızı
ve ne kadar izlediğinizi biliyordum.
02:57
FunEğlenceli factgerçek about the HillHill householdev halkı:
67
165639
1629
Hill evi hakkında ilginç bir şey:
02:59
they don't watch a lot of televisiontelevizyon,
68
167292
1794
pek televizyon izlemiyorlar,
03:01
but when they do,
it's usuallygenellikle in bingealem modekip.
69
169110
2268
ama izlediklerinde
tüm sezonu birden izliyorlar.
03:03
FavoriteFavori showsgösterileri includeDahil etmek
"DifficultZor People" and "PartyParti Down."
70
171402
2779
En sevdikleri diziler
''Difficult People'' ve ''Party Down.''
03:06
KHKH: OK, you're right,
I lovedsevilen "PartyParti Down."
71
174205
2039
KH: Haklısın,
''Party Down'' favorimdi.
03:08
It's a great showgöstermek,
and you should definitelykesinlikle watch it.
72
176268
2547
Harika bir dizi, mutlaka izlemen lazım.
03:10
But "DifficultZor People"
was all my husbandkoca, TrevorTrevor.
73
178839
2444
Ama ''Difficult People''
eşim Trevor'ın dizisiydi.
03:13
And TrevorTrevor was actuallyaslında a little upsetüzgün
that you knewbiliyordum about his bingesbinges,
74
181307
3603
Ayrıca Trevor izlediği dizileri
bildiğin için rahatsız olmadı değil,
03:16
because even thoughgerçi he'diçin ona been the one
to connectbağlamak the TVTV to the routeryönlendirici,
75
184934
3334
çünkü TV'yi modeme bağlayan o olsa da
03:20
he forgotUnuttun that the TVTV was watchingseyretme us.
76
188292
2447
TV'nin de bizi izlediğini unutmuştu.
03:23
It's actuallyaslında not the first time
that our TVTV has spiedcasusluk on us.
77
191109
3293
Aslında bu, televizyonumuzun
bizi ilk izlemesi değil.
03:26
The companyşirket that madeyapılmış it, VIZIOVEZİR,
78
194426
1699
Bunu yapan şirket VIZIO
03:28
paidödenmiş a 2.2 million-dollarmilyon dolar settlementyerleşme
to the governmenthükümet just last yearyıl,
79
196149
4333
daha geçen yıl hükûmete
2,2 milyar dolar ödeme yaptı
03:32
because it had been collectingtoplama
second-by-secondsaniye saniye informationbilgi
80
200506
3357
çünkü biz dâhil olmak üzere
milyonlarca insanın ne izlediği hakkında
03:35
about what millionsmilyonlarca of people
were watchingseyretme on TVTV, includingdahil olmak üzere us,
81
203887
3468
saniye saniye bilgi topluyordu
03:39
and then it was sellingsatış that informationbilgi
to dataveri brokersBrokerları and advertisersreklamverenler.
82
207379
3705
ve bu bilgileri reklam şirketlerine
ve komisyonculara satıyordu.
03:43
SMSM: AhAh, classicklasik surveillancegözetim economyekonomi movehareket.
83
211108
3222
SM: Klasik ekonomik izleme hareketi.
03:46
The devicescihazlar KashmirKaşmir boughtsatın
almostneredeyse all pingedping işlemi theironların serverssunucular dailygünlük.
84
214775
3866
Kashmir'in aldığı cihazların neredeyse
hepsi her gün sunucularına ping attılar.
03:50
But do you know whichhangi devicecihaz
was especiallyözellikle chattygeveze?
85
218665
2396
Peki hangi cihaz
bilhassa konuşkandı dersiniz?
03:53
The AmazonAmazon EchoEcho.
86
221085
1294
Amazon Echo.
03:54
It contactedtemas its serverssunucular
everyher threeüç minutesdakika,
87
222403
2428
Sunucularıyla her üç
dakikada bir iletişime geçti,
03:56
regardlessne olursa olsun of whetherolup olmadığını
you were usingkullanma it or not.
88
224855
2198
cihazı kullansanız da kullanmasanız da.
03:59
KHKH: In generalgenel, it was disconcertingKaygılı
89
227077
2183
KH: Genel olarak tüm bu cihazların
04:01
that all these devicescihazlar were havingsahip olan
ongoingdevam eden conversationskonuşmaları
90
229284
2984
benim göremediğim
konuşmalar yapıyor olması
04:04
that were invisiblegörünmez to me.
91
232292
1626
endişe vericiydi.
04:05
I mean, I would have had
no ideaFikir, withoutolmadan your routeryönlendirici.
92
233942
2587
Senin modemin olmadan
bundan hiçbir fikrim olmazdı.
04:08
If you buysatın almak a smartakıllı devicecihaz,
you should probablymuhtemelen know --
93
236553
3468
Akıllı bir cihaz alırsanız
şunu da bilmeniz gerek,
04:12
you're going to ownkendi the devicecihaz,
94
240045
2111
cihazın sahibi siz olacaksınız
04:14
but in generalgenel, the companyşirket
is going to ownkendi your dataveri.
95
242180
3420
ama genel olarak üretici şirket
verilerinize sahip olacak.
04:17
And you know, I mean,
maybe that's to be expectedbeklenen --
96
245624
2572
Belki de buna çok şaşmamak gerekiyor,
04:20
you buysatın almak an internet-connectedInternet'e bağlı devicecihaz,
it's going to use the internetInternet.
97
248220
3507
internete bağlanan bir cihaz alıyorsunuz,
interneti kullanması normal.
04:24
But it's strangegarip to have these devicescihazlar
98
252189
1842
Ancak bu cihazları en özel mekânımıza,
04:26
movinghareketli into the intimatesamimi spaceuzay
that is the home
99
254055
2658
evlerimizin içine yerleştirmek
04:28
and allowingizin companiesşirketler to trackiz
our really basictemel behaviordavranış there.
100
256737
3443
ve en temel davranışlarımızı
izlemelerine izin vermek gerçekten tuhaf.
04:32
SMSM: So truedoğru.
101
260204
1159
SM: Çok doğru.
04:33
Even the mostçoğu banal-seemingsıradan görünen dataveri
can be minedmayınlı by the surveillancegözetim economyekonomi.
102
261387
3539
En sıradan görünen veriler bile
gözlemci şirketlerin eline geçebilir.
04:36
For exampleörnek, who caresbakımları
how oftensık sık you brushfırça your teethdiş?
103
264950
2575
Mesela dişlerinizi kaç kez
fırçaladığınızdan kime ne?
04:39
Well, as it turnsdönüşler out, there's a dentaldiş
insurancesigorta companyşirket calleddenilen BeamIşın.
104
267549
3526
Görünen o ki Beam adında
bir diş sigorta şirketi varmış.
04:43
They'veOnlar ettik been monitoringizleme theironların customers'müşterilerin
smartakıllı toothbrushesDiş fırçaları sincedan beri 2015 --
105
271099
3835
2015 yılından beri müşterilerinin
akıllı diş fırçalarını izliyorlarmış,
04:46
for discountsindirimler on theironların
premiumsprim, of coursekurs.
106
274958
2579
onlara indirim sunabilmek için, tabii.
04:49
KHKH: We know what
some of you are thinkingdüşünme:
107
277561
2259
KH: Bir kısmınızın
ne düşündüğünü biliyorum,
04:51
this is the contractsözleşme of the modernmodern worldDünya.
108
279844
2654
modern dünyanın böyle
olduğunu düşünüyorsunuz.
04:54
You give up a little privacyGizlilik,
109
282522
1427
Gizlilikten biraz ödün vereceksiniz
04:55
and you get some conveniencekolaylık
or some pricefiyat breakssonları in returndönüş.
110
283973
3218
ve karşılığında çok uygun
fiyat teklifleri önünüze çıkacak.
04:59
But that wasn'tdeğildi my experiencedeneyim
in my smartakıllı home.
111
287514
2341
Ancak akıllı evimde
edindiğim tecrübe bu değildi.
05:01
It wasn'tdeğildi convenientuygun, it was infuriatingsinir bozucu.
112
289879
3674
Uygun değil, çileden çıkaran cinstendi.
05:05
I'll admititiraf etmek, I love my smartakıllı vacuumvakum,
113
293577
2492
Akıllı elektrik süpürgemi çok seviyorum
05:08
but manyçok other things in the houseev
drovesürdü me insanedeli:
114
296093
2405
ama diğer her şey beni çileden çıkardı:
05:10
we ranran out of electricalelektrik outletsçıkışları,
115
298522
2396
boşta hiç priz kalmadı
05:12
and I had to downloadindir
over a dozendüzine appsuygulamaların to my phonetelefon
116
300942
3379
ve tüm bu şeyleri kontrol etmek için
telefonuma onlarca uygulama
indirmek zorunda kaldım.
05:16
to controlkontrol everything.
117
304345
1327
05:17
And then everyher devicecihaz had its ownkendi log-inoturum açma,
118
305696
2089
Her cihazın kendi giriş sayfası vardı,
05:19
my toothbrushdiş fırçası had a passwordşifre ...
119
307809
2363
diş fırçamın da bir parolası...
05:22
(LaughterKahkaha)
120
310196
1737
(Kahkahalar)
05:23
And smartakıllı coffeeKahve, especiallyözellikle,
was just a worldDünya of hellcehennem.
121
311957
4128
Akıllı kahve ise bana
cehenem azabı çektirdi.
05:28
SMSM: Wait, really? Cloud-poweredBulut-yeti
coffeeKahve wasn'tdeğildi really workingçalışma for you?
122
316109
3928
SM: Gerçekten mi? Bulut bazlı
kahve hoşuna gitmedi demek?
05:32
KHKH: I mean, maybe I'm naivesaf,
but I thought it was going to be great.
123
320061
3238
KH: Belki de ben safım
ama bunun harika olacağını sanmıştım.
05:35
I thought we'devlenmek just wakeuyanmak up in the morningsabah
and we'devlenmek say, "AlexaAlexa, make us coffeeKahve."
124
323323
4019
Sabah kalkıp ''Alexa, bize kahve yap.''
diyebileceğimi sanmıştım.
05:39
But that's not how it wentgitti down.
125
327366
1873
Böyle olmadı.
05:41
We had to use this really particularbelirli,
brand-specificmarka özel phraseifade to make it work.
126
329263
4651
Çalışması için tamamen marka adı
ve çeşidini telaffuz etmemiz gerekiyordu.
05:45
It was, "AlexaAlexa, asksormak the BehmorBehmor
to runkoş quickhızlı startbaşlama."
127
333938
4608
''Alexa, Behmor'dan
hızlı kullanım kılavuzu lazım.''
05:51
And this was just, like,
really hardzor to rememberhatırlamak
128
339222
3342
Sabahın kalkar kalmaz hatırlamak için
05:54
first thing in the morningsabah,
129
342588
1334
oldukça zor bir şeydi,
05:55
before you have had your caffeinekafein.
130
343946
1703
daha kafeininizi bile alamadan.
05:57
(LaughterKahkaha)
131
345673
1103
(Kahkahalar)
05:58
And apparentlygörünüşe göre, it was hardzor to say,
132
346800
1690
Görünüşe göre söylemesi de zordu,
06:00
because the EchoEcho DotNokta
that was right nextSonraki to our bedyatak
133
348514
3063
çünkü yatağımızın
yanı başındaki Echo Dot
06:03
just couldn'tcould understandanlama us.
134
351601
1611
bizi anlamıyordu.
06:05
So we would basicallytemel olarak startbaşlama everyher day
by screamingbağıran this phraseifade at the EchoEcho DotNokta.
135
353704
4621
O yüzden her sabah bu cümleyi
Echo Dot'a bağırarak buluyorduk kendimizi.
06:10
(LaughterKahkaha)
136
358349
1173
(Kahkahalar)
06:11
And TrevorTrevor hatednefret edilen this.
137
359546
1466
Trevor bundan nefret ediyordu.
06:13
He'dO istiyorsunuz be like, "Please, KashmirKaşmir,
138
361339
1748
''Lütfen, Kashmir,'' diyordu,
06:15
just let me go to the kitchenmutfak and pushit
the buttondüğme to make the coffeeKahve runkoş."
139
363111
3669
''izin ver de mutfağa gidip
şu düğmeye ben basayım.''
06:19
And I'd be like, "No, you can't!
140
367379
2087
Ama ben ''hayır, olmaz,'' diyordum,
06:21
We have to do it the smartakıllı way!"
141
369490
2409
''Akıllı yoldan yapmamız lazım!''
06:23
(LaughterKahkaha)
142
371923
1916
(Kahkahalar)
06:25
I'm happymutlu to reportrapor that our marriageevlilik
survivedhayatta the experimentdeney,
143
373863
3043
Neyse ki evliliğimiz
bu deneye rağmen yıkılmadı,
06:28
but just barelyzar zor.
144
376930
1560
ama ucu ucuna.
06:30
SMSM: If you decidekarar ver to make your home smartakıllı,
145
378514
2047
SM: Evinizi akıllı eve
çevirmek istiyorsanız
06:32
hopefullyinşallah, you’llll find it
lessaz infuriatingsinir bozucu than KashmirKaşmir did.
146
380585
2849
Kashmir'e göre daha az stresli
bulacağınızı umut ediyorum.
06:35
But regardlessne olursa olsun, the smartakıllı things you buysatın almak
147
383458
2087
Ne olursa olsun, aldığınız akıllı cihazlar
06:37
can and probablymuhtemelen are used
to targethedef and profileprofil you.
148
385569
3095
sizi hedeflemede ve profillemede
kullanılabilir ve kullanılıyor da.
06:41
Just the numbernumara of devicescihazlar you have
can be used to predicttahmin
149
389141
3040
Maddi durumunuzu tahmin etmek için
ne kadar cihazınız
olduğunu bilmeleri yeter.
06:44
how richzengin or poorfakir you are.
150
392205
1422
06:45
Facebook'sFacebook'un madeyapılmış this techteknoloji,
and they'veonlar ettik alsoAyrıca patentedpatentli it.
151
393651
2767
Bu teknolojiyi Facebook yarattı
ve üstüne patent de aldılar.
06:48
KHKH: All the anxietyanksiyete you currentlyşu anda feel
everyher time you go onlineinternet üzerinden,
152
396442
3686
KH: İnternete her girdiğinizde
takip edildiğinize dair
06:52
about beingolmak trackedizlenen,
153
400152
1306
hissettiğiniz o gerginlik,
06:53
is about to movehareket into your livingyaşam roomoda.
154
401482
2301
oturma odanıza taşınmak üzere.
06:55
Or into your bedroomyatak odası.
155
403807
1579
Belki de yatak odanıza.
06:57
There's this sexseks toyoyuncak calleddenilen the We-VibeBiz-Vibe.
156
405950
2222
We-Vibe adında bir seks oyuncağı var.
07:00
You mightbelki wondermerak etmek why
a sexseks toyoyuncak connectsbağlandığı to the internetInternet,
157
408577
2667
Bir seks oyuncağı ne diye internete
bağlanır diye merak ediyorsanız
07:03
but it's for two people
who are in a long-distanceuzun mesafe relationshipilişki,
158
411268
3436
mesafeli ilişki yürüten
iki kişi için tasarlanmış,
07:06
so they can sharepay theironların love from afaruzaktan.
159
414728
2920
uzaktan sevgilerini paylaşmak için.
07:10
Some hackershacker tookaldı a closekapat look at this toyoyuncak
160
418259
2116
Bazı hacker'ler bu oyuncağı inceledi
07:12
and saw it was sendinggönderme
a lot of informationbilgi
161
420399
2075
ve üretici firmaya
07:14
back to the companyşirket that madeyapılmış it --
162
422498
2462
çok fazla bilgi gönderdiğini gördü -
07:16
when it was used,
how long it was used for,
163
424984
2966
ne zaman kullanıldığı,
ne kadar süre kullanıldığı,
07:19
what the vibrationtitreşim settingsAyarlar were,
how hotSıcak the toyoyuncak got.
164
427974
3706
titreşim ayarları, oyuncağın ısısı...
07:23
It was all going into a databaseveritabanı.
165
431704
2189
Hepsi veri tabanına gidiyordu.
07:25
So I reachedulaştı out to the companyşirket,
166
433917
2749
Ben de üretici firmaya ulaştım.
07:28
and I said, "Why are you collectingtoplama
this really sensitivehassas dataveri?"
167
436690
3302
Bu kadar hassas verileri niçin
topladıklarını sordum.
07:32
And they said, "Well, it's great
for marketpazar researchAraştırma."
168
440369
3386
Şöyle dediler:
''Pazar araştırması için harika çünkü.''
07:36
But they were data-miningveri madenciliği
theironların customers'müşterilerin orgasmsorgazm.
169
444592
2929
Ama aslında müşterilerin orgazmları
üzerinden veri topluyorlardı.
07:39
And they weren'tdeğildi tellingsöylüyorum them about it.
170
447545
1921
Ayrıca bunu onlara söylüyorlardı da.
07:41
I mean, even if
you're cavalierCavalier about privacyGizlilik,
171
449490
2222
Gizlilik konusunda çekincesiz olsanız dahi
07:43
I hopeumut that you would admititiraf etmek
that's a stepadım too faruzak.
172
451736
2595
bunun çok ileriye
gitmek olduğunu kabul edersiniz.
07:46
SMSM: This is why I want
to keep my sexseks toysoyuncaklar dumbdilsiz.
173
454680
2508
SM: Bu yüzden seks oyuncaklarımı
işlevsiz bırakıyorum.
07:49
KHKH: That's great.
174
457212
1166
KH: Harika.
07:50
We're all very gladmemnun to know that.
175
458402
1666
Bunu duyduğumuza hepimiz sevindik.
07:52
(LaughterKahkaha)
176
460092
1448
(Kahkahalar)
07:53
SMSM: A dataveri pointpuan I'm willingistekli to sharepay.
177
461564
2034
SM: Paylaşmak istediğim bir veri.
07:55
(LaughterKahkaha)
178
463622
1723
(Kahkahalar)
07:57
The devicescihazlar KashmirKaşmir boughtsatın
rangemenzil from usefulişe yarar to annoyingCan sıkıcı.
179
465369
2970
Kashmir'in aldığı cihazların bir kısmı
faydalı bir kısmı da sinir bozucu
08:00
But the thing they all had in commonortak
180
468363
1793
ama hepsinin ortak noktası
08:02
was sharingpaylaşım dataveri with
the companiesşirketler that madeyapılmış them.
181
470180
2699
üretici firmalarıyla
veri paylaşıyor olmaları.
08:04
With emailE-posta servicehizmet providerssağlayıcıları
and socialsosyal mediamedya,
182
472903
2308
Eposta sağlayıcıları ve sosyal medya için
08:07
we'vebiz ettik long been told that if it's freeücretsiz,
you're the productürün.
183
475235
2958
bize her zaman söylenen şey,
eğer ücretsizse ürün sizsiniz.
08:10
But with the internetInternet of things, it seemsgörünüyor,
184
478217
2007
Nesnelerin interneti konusunda
08:12
even if you payödeme, you're still the productürün.
185
480248
2008
ödeme yapsanız dahi ürün sizsiniz.
08:14
So you really have to asksormak:
186
482280
1245
O yüzden şunu sorun:
08:15
Who'sKim'ın the truedoğru beneficiaryhak sahibi
of your smartakıllı home,
187
483549
2185
Akıllı evinizden asıl fayda gören kim?
08:17
you or the companyşirket miningmadencilik you?
188
485758
1629
Siz mi yoksa sizi inceleyen firma mı?
08:19
KHKH: Look, we're a techteknoloji savvyanlayışlı crowdkalabalık here.
189
487411
1952
KH: Burada herkes teknoloji uzmanı.
08:21
I think mostçoğu of us know
that these things connectbağlamak to the internetInternet
190
489387
3112
Sanırım çoğumuz bu cihazların
internete bağlanarak
veri gönderdiğini biliyor.
08:24
and sendgöndermek dataveri out.
191
492523
1163
08:25
And fine, maybe you're OK with livingyaşam
in that commercialticari panopticonpanopticon,
192
493710
4018
Belki de böyle bir ticari ortamda
yaşamaktan memnunsunuzdur
08:29
but othersdiğerleri aren'tdeğil.
193
497752
1397
ama memnun olmayanlar var.
08:31
We need the companiesşirketler to rethinkyeniden düşünmek
the designdizayn of these devicescihazlar
194
499173
2841
Şirketlerin, gizliliğimizi gözeterek
bu cihazların tasarımını yeniden
değerlendirmesi lazım
08:34
with our privacyGizlilik in mindus,
195
502038
1515
08:35
because we're not all willingistekli
to participatekatılmak in "marketpazar researchAraştırma,"
196
503577
3111
çünkü sırf internete bağlanan
bir cihaz aldığımız için
08:38
just because a devicecihaz we boughtsatın
has a Wi-FiWi-Fi connectionbağ.
197
506712
2893
''pazar araştırması''na
katılım göstermek istemiyoruz.
08:42
And I have to tell you,
198
510014
1198
Şunu da eklemeliyim,
08:43
even when you're awarefarkında,
generallygenellikle, this is happeningolay,
199
511236
2582
farkında olsanız bile
bu sürekli yaşanıyor,
08:45
it's really easykolay to forgetunutmak that normalnormal
householdev halkı itemsürün are spyingcasusluk on you.
200
513842
4394
normal ev cihazlarınızın
sizi gözetlediğini
08:50
It's easykolay to forgetunutmak
these things are watchingseyretme you,
201
518664
2350
sizi izlediğini
kolaylıkla unutabilirsiniz
08:53
because they don't look like cameraskameralar.
202
521038
2047
çünkü kameraya benzemiyorlar.
08:55
They could look like ...
203
523109
1429
Her şeye benzeyebilirler,
08:56
well, they could look like a dildoyapay penis.
204
524562
2544
bir dildoya bile.
08:59
Thank you.
205
527780
1152
Teşekkürler.
09:00
(ApplauseAlkış)
206
528956
3686
(Alkışlar)
Translated by Cihan Ekmekçi
Reviewed by Figen Ergürbüz

▲Back to top

ABOUT THE SPEAKERS
Kashmir Hill - Technology journalist
Kashmir Hill writes about privacy and technology.

Why you should listen

Kashmir Hill is a senior reporter for the Gizmodo Media Group. As she writes: "I started out in journalism blogging at what was essentially an online tabloid for lawyers. Then I got interested in privacy, and that forced me to write about Facebook and eventually about other technologies; along the way people started describing me as a technology journalist instead of a legal blogger.

"I've always wanted my writing to be approachable for a lay audience, so I usually use humor, a first-person approach or, ideally, both. So I've hacked a smart home, lived in a monitored one, created a fake business and bought it a fake reputation, worked as a crowdsourced girlfriend, lived on Bitcoin and spent a whole week WRITING IN CAPS LOCK. The best way to prepare people for future possible tech dystopias is for me to live in them and report back."

More profile about the speaker
Kashmir Hill | Speaker | TED.com
Surya Mattu - Artist, investigative journalist, engineer
Think of Surya Mattu as a data detective. As he writes: "I am interested in figuring out the ways in which algorithmic systems harm people."

Why you should listen

Surya Mattu is a data reporter on Gizmodo's Special Projects Desk and an R&D journalism resident at Eyebeam NYC. As he writes: "My practice combines art, investigative journalism, engineering and creative technology. The aim is to reverse-engineer the specific ways in which the tools or technology we create are imbued with the ethics of the culture in which they're created. Currently, I am a data reporter. Previously, I was a contributing researcher at ProPublica, where I worked on "Machine Bias," a series that aims to highlight how algorithmic systems can be biased and discriminate against people."

More profile about the speaker
Surya Mattu | Speaker | TED.com