ABOUT THE SPEAKERS
Kashmir Hill - Technology journalist
Kashmir Hill writes about privacy and technology.

Why you should listen

Kashmir Hill is a senior reporter for the Gizmodo Media Group. As she writes: "I started out in journalism blogging at what was essentially an online tabloid for lawyers. Then I got interested in privacy, and that forced me to write about Facebook and eventually about other technologies; along the way people started describing me as a technology journalist instead of a legal blogger.

"I've always wanted my writing to be approachable for a lay audience, so I usually use humor, a first-person approach or, ideally, both. So I've hacked a smart home, lived in a monitored one, created a fake business and bought it a fake reputation, worked as a crowdsourced girlfriend, lived on Bitcoin and spent a whole week WRITING IN CAPS LOCK. The best way to prepare people for future possible tech dystopias is for me to live in them and report back."

More profile about the speaker
Kashmir Hill | Speaker | TED.com
Surya Mattu - Artist, investigative journalist, engineer
Think of Surya Mattu as a data detective. As he writes: "I am interested in figuring out the ways in which algorithmic systems harm people."

Why you should listen

Surya Mattu is a data reporter on Gizmodo's Special Projects Desk and an R&D journalism resident at Eyebeam NYC. As he writes: "My practice combines art, investigative journalism, engineering and creative technology. The aim is to reverse-engineer the specific ways in which the tools or technology we create are imbued with the ethics of the culture in which they're created. Currently, I am a data reporter. Previously, I was a contributing researcher at ProPublica, where I worked on "Machine Bias," a series that aims to highlight how algorithmic systems can be biased and discriminate against people."

More profile about the speaker
Surya Mattu | Speaker | TED.com
TED2018

Kashmir Hill and Surya Mattu: What your smart devices know (and share) about you

കാശ്മീർ ഹിൽ & സൂര്യ മട്ടു: നിങ്ങളുടെ സ്മാർട്ട് ഉപകരണങ്ങൾക്ക് നിങ്ങളെപ്പറ്റി എന്തെല്ലാ അറിയാം അല്ലെങ്കിൽ ഷെയർ ചെയ്യാൻ കഴിയും?

Filmed:
2,030,169 views

നിങ്ങളുടെ സ്മാർട്ട് ഉപകരണങ്ങൾക്കു നിങ്ങളോടു സംസാരിക്കാൻ കഴിയുമെങ്കിൽ മറ്റാരോടെല്ലാം സംസാരിക്കാനാവും? കാശ്മീർ ഹില്ലും സൂര്യ മട്ടുവും ഇത് കണ്ടെത്താൻ ആഗ്രഹിച്ചു. ഇതിനായി അവർ കശ്മീരിന്റെ അപ്പാർട്മെന്റിൽ 18 ഓളം സ്മാർട്ട് ഉപകരണങ്ങൾ ഘടിപ്പിച്ചു. ഒരു പ്രത്യേക റൗട്ടറിൻറെ സഹായത്തോടെ അവയെല്ലാം എത്ര വട്ടം അവയുടെ സെർവറുകളുമായി ബന്ധം പുലർത്തുന്നു എന്ന് കണ്ടെത്താൻ ശ്രമിച്ചു. ഫലങ്ങൾ അതിശയകരമായിരുന്നു; ആശങ്കാജനകവും!നിങ്ങളുടെ ഉറക്കത്തെക്കുറിച്ചുള്ള വിവരങ്ങൾ, ടീവി കാണലുകൾ മുതൽ ബ്രഷിങ് ശീലങ്ങൾ വരെ നിങ്ങളുടെ സ്മാർട്ട് ഉപകരണങ്ങൾ അവയുടെ കമ്പനികളുമായി പങ്കുവക്കുന്നു എന്നറിയുക. കമ്പനികൾ ഇവയെല്ലാം ഉപയോഗിച്ച് നിങ്ങളെ എങ്ങനെ പ്രൊഫൈൽ ചെയ്യുന്നു എന്നും അറിയുക. (മുതിർന്നവർക്ക് യോജിക്കുന്ന പ്രഭാഷണശൈലി)
- Technology journalist
Kashmir Hill writes about privacy and technology. Full bio - Artist, investigative journalist, engineer
Think of Surya Mattu as a data detective. As he writes: "I am interested in figuring out the ways in which algorithmic systems harm people." Full bio

Double-click the English transcript below to play the video.

00:12
Kashmir Hill: So for my
birthday last year,
0
912
2135
കാശ്മീർ ഹിൽ : എൻ്റെ കഴിഞ്ഞ പിറന്നാളിന്
00:15
my husband got me an Amazon Echo.
1
3071
1993
എൻ്റെ ഭർത്താവ്
ആമസോൺ എക്കോ വാങ്ങിത്തന്നു
00:17
I was kind of shocked, actually,
2
5595
1540
ഞാൻ സത്യത്തിൽ ഞെട്ടിപ്പോയി
00:19
because we both work
in privacy and security.
3
7159
3234
കാരണം ഞങ്ങൾ രണ്ടുപേരും സെക്യൂരിറ്റി/പ്രൈവസി
മേഖലയിൽ ജോലി ചെയുന്നവരാണ്!!
00:22
(Laughter)
4
10417
1336
(ചിരി)
00:24
And this was a device that would sit
in the middle of our home
5
12688
3389
ഇത് ഞങ്ങളുടെ വീടിൻ്റെ മധ്യത്തിലാണ് വയ്‌ക്കേണ്ടിയിരുന്നത്
00:28
with a microphone on,
6
16101
1436
മൈക്രോഫോൺ ഓണാക്കി
00:29
constantly listening.
7
17561
1649
തുടർച്ചയായി ഞങ്ങളെ കേട്ടുകൊണ്ട്
00:31
We're not alone, though.
8
19696
1254
ഞങ്ങൾ ഒറ്റയ്ക്കല്ല എന്നർത്ഥം
00:32
According to a survey by NPR
and Edison Research,
9
20974
2881
NPR ഉം Edison Research ഉം കൂടി നടത്തിയ സർവ്വേപ്രകാരം
00:35
one in six American adults
now has a smart speaker,
10
23879
4079
ആറിൽ ഒരു അമേരിക്കകാരന്‌ സ്മാർട്ട് സ്പീക്കർ ഉണ്ട്
00:39
which means that they have
a virtual assistant at home.
11
27982
2881
അവർക്ക് വീട്ടിൽ ഒരു അദൃശ്യസഹായി ഉണ്ടെന്നുസാരം
00:42
Like, that's wild.
12
30887
1198
അതല്പം ഭീകരമല്ലേ
00:44
The future, or the future dystopia,
is getting here fast.
13
32109
4116
വരാനിരിക്കുന്ന ശിഥിലതകൾ
വേഗം അടുത്തുകൊണ്ടിരിക്കുന്നു
00:48
Beyond that, companies are offering us
all kinds of internet-connected devices.
14
36778
4507
കമ്പനികളാണെങ്കിൽ എല്ലാത്തരം
ഇന്റർനെറ്റ് ബന്ധിത വസ്‌തുക്കളും തന്നുകൊണ്ടിരിക്കുന്നു
00:53
There are smart lights, smart locks,
smart toilets, smart toys,
15
41309
4968
സ്മാർട്ട് ലൈറ്റുകൾ , സ്മാർട്ട് ലോക്കുകൾ,
സ്മാർട്ട് ടോയ്ലറ്റുകൾ സ്മാർട്ട് ടോയ്‌സ് ..
00:58
smart sex toys.
16
46301
1311
സ്മാർട്ട് സെക്സ് ടോയ്‌സ് !
01:00
Being smart means the device
can connect to the internet,
17
48323
2691
സ്മാർട്ട് എന്നാൽ ഉപകരണത്തിന്
ഇന്റർനെറ്റുമായി ബന്ധിക്കാനാകുമെന്നർത്ഥം.
01:03
it can gather data,
18
51038
1176
അതിന്‌ വിവരങ്ങൾ ശേഖരിക്കാനാകും
01:04
and it can talk to its owner.
19
52238
1902
ഉടമയോട്‌ സംസാരിക്കാനാകും
01:06
But once your appliances can talk to you,
20
54966
2714
നിങ്ങളുടെ അപ്പ്ലിക്കേഷനുകൾക്
നിങ്ങളോട് സംസാരിക്കാനാകുമെങ്കിൽ
01:09
who else are they going to be talking to?
21
57704
2145
അവ മറ്റാരോടെല്ലാമാണ്
സംസാരിക്കാൻ പോകുന്നത്?
01:12
I wanted to find out,
22
60331
1365
എനിക്കത് അറിയണമായിരുന്നു.
01:13
so I went all-in and turned my
one-bedroom apartment in San Francisco
23
61720
3388
അതുകൊണ്ട് ഞാൻ എൻ്റെ
സാൻഫ്രാസ്‌സിസ്കോയിലുള്ള
01:17
into a smart home.
24
65132
1349
ഒറ്റമുറി ഫ്ലാറ്റ് ഒരു സ്മാർട്ട് ഹോമാക്കി
01:18
I even connected our bed to the internet.
25
66800
3091
എൻ്റെ കിടക്കവരെ ഇന്റർനെറ്റുമായി ബന്ധിപ്പിച്ചു
01:22
As far as I know, it was just
measuring our sleeping habits.
26
70505
3302
എനിക്കറിയാവുന്നേടത്തോളം
അത് ഞങ്ങളുടെ ഉറക്കരീതികളേ
അളക്കുന്നുണ്ടായിരുന്നുള്ളു
01:26
I can now tell you
that the only thing worse
27
74490
2081
എനിക്കു നിങ്ങളോട് പറയാൻ കഴിയും
01:28
than getting a terrible night's sleep
28
76595
1787
ഒരു മോശം ഉറക്കത്തെക്കാളും മോശം
01:30
is to have your smart bed
tell you the next day
29
78406
2417
പിറ്റേന്ന് കാലത്ത് നിങ്ങളുടെ സ്മാർട്ട് ബെഡ്
01:32
that you "missed your goal
and got a low sleep score."
30
80847
3056
നിങ്ങൾ ഉദ്ദേശിച്ചത്രയും ഉറക്കം
നിങ്ങൾക്കു കിട്ടിയില്ല എന്ന് പറയുന്നതാണെന്ന്
01:35
(Laughter)
31
83927
1380
(ചിരി)
01:37
It's like, "Thanks, smart bed.
32
85331
1437
നന്ദി സ്മാർട്ട് ബെഡ്!
01:38
As if I didn't already
feel like shit today."
33
86792
2516
ഇന്നത്തെ ദിവസം ഇതിൽ
കൂടുതൽ മോശമാവാൻ പാറ്റുകയേ ഇല്ല|
01:41
(Laughter)
34
89332
1153
(ചിരി)
01:42
All together, I installed 18
internet-connected devices in my home.
35
90509
4536
ആകെ ഞാൻ 18 ഇന്റർനെറ്റ് കണെക്ടഡ്
ഉപകരണങ്ങൾ എൻറെ വീട്ടിൽ സ്ഥാപിച്ചു
01:47
I also installed a Surya.
36
95069
2238
ഞാൻ സുര്യയെയും സ്ഥാപിച്ചു
01:49
Surya Mattu: Hi, I'm Surya.
37
97331
1381
സൂര്യ മട്ടു : ഹായ്‌ ഞാൻ സൂര്യ
01:50
(Laughter)
38
98736
1198
ചിരി
01:51
I monitored everything the smart home did.
39
99958
2944
ഞാനാണ് ആ വീട്ടിലെ എല്ലാം
നിരീക്ഷിച്ചുകൊണ്ടിരുന്നത്
01:54
I built a special router that let me look
at all the network activity.
40
102926
3929
ഞാൻ അതിനായി നെറ്റ്വർക്കിലെ പ്രവർത്തികൾ
കാണാനാകുന്ന ഒരു സ്പെഷ്യൽ റൗട്ടർ ഉണ്ടാക്കി
01:58
You can think of my router
sort of like a security guard,
41
106879
2930
അതിനെ വേണെമെങ്കിൽ സെക്യൂരിറ്റി ഗാർഡിനോട് ഉപമിക്കാം
02:01
compulsively logging
all the network packets
42
109833
2133
എല്ലാ നെറ്റ്‌വർക്ക് പാക്കറ്റുകളും
കണിശമായി പരിശോധിക്കുന്ന
02:03
as they entered and left the smart home.
43
111990
2047
അവ സ്മാർട്ട് ഹോമിൽ
വരുമ്പോളും പോകുമ്പോളും.
02:06
KH: Surya and I are both journalists,
he's not my husband,
44
114061
2754
സൂര്യയും ഞാനും പത്രപ്രവർത്തകരാണു കേട്ടോ.
സൂര്യ എൻ്റെ ഭർത്താവല്ല
02:08
we just work together at Gizmodo.
45
116839
1676
ഞങ്ങൾ ജിസ്മോൻഡോയിൽ
ഒന്നിച്ചു ജോലിചെയ്യുന്നു
02:10
SM: Thank you for clarifying.
46
118539
1389
വ്യക്തമാക്കിയതിന് നന്ദി
02:11
The devices Kashmir bought --
47
119952
1402
കാശ്മീർ വാങ്ങിയ വസ്തുക്കൾ
02:13
we were interested in understanding
48
121378
1692
ഞങ്ങൾക്കറിയാൻ താല്പര്യമുണ്ടായിരുന്നു
02:15
what they were saying
to their manufacturers.
49
123094
2111
അവ നിർമാതാക്കളോട്
എന്തെല്ലാമാണ് പറയുന്നതെന്ന്
02:17
But we were also interested
in understanding
50
125229
2062
ഞങ്ങൾക്കു മറ്റൊന്നു കൂടി
അറിയാൻ ആഗ്രഹമുണ്ടായിരുന്നു
02:19
what the home's digital
emissions look like
51
127315
2370
വീടിൻ്റെ ഡിജിറ്റൽ എമിഷൻസ്
02:21
to the internet service provider.
52
129709
2265
ഇന്റർനെറ്റ് ദാതാക്കൾക്ക് എങ്ങനെ
കാണുന്നു എന്ന്
02:23
We were seeing what the ISP could see,
but more importantly,
53
131998
2842
ഐപിക്ക് എന്തുകാണാൻ പറ്റുന്നു എന്ന്
ഞങ്ങൾ വീക്ഷിക്കുന്നുണ്ടായിരുന്നു
02:26
what they could sell.
54
134864
1181
പ്രധാനമായി അവർക്കെന്തു
വിൽക്കാൻ കഴിയും എന്ന്
02:28
KH: We ran the experiment for two months.
55
136069
2143
ഞങ്ങളീ പരീക്ഷണം രണ്ടുമാസം തുടർന്നു
02:30
In that two months,
56
138236
1167
ആ രണ്ടുമാസവും
02:31
there wasn't a single hour
of digital silence in the house --
57
139427
2877
വീട്ടിൽ ഒരു മണിക്കൂർ പോലും
ഡിജിറ്റൽ നിശബ്ദത ഉണ്ടായിട്ടില്ല
02:34
not even when we went away for a week.
58
142328
1932
ഞങ്ങൾ ഒരാഴ്ച
പുറത്തുപോയിരുന്നപ്പോൾ പോലും.
02:36
SM: Yeah, it's so true.
59
144284
1174
അതെ തീർച്ചയായും
02:37
Based on the data, I knew when
you guys woke up and went to bed.
60
145482
3016
ഡാറ്റ വച്ചു നിങ്ങൾ ഉറങ്ങുന്നതും
ഉണരുന്നതും പോലും എന്നറിഞ്ഞിരുന്നു
02:40
I even knew when Kashmir
brushed her teeth.
61
148522
2039
KH ബ്രഷ് ചെയുന്നതെപ്പോൾ എന്നുപോലും
ഞാൻ അറിഞ്ഞിരുന്നു
02:42
I'm not going to out your brushing habits,
62
150585
2024
ബ്രഷിങ്‌ ശീലം ഞാൻ വെളിപ്പെടുത്തുന്നില്ല
02:44
but let's just say it was very clear to me
when you were working from home.
63
152633
3629
വീട്ടിൽ നിങ്ങൾ എന്തുചെയ്താലും
എനിക്കറിയാൻ പറ്റുമായിരുന്നു
02:48
KH: Uh, I think you just outed them
to, like, a lot of people here.
64
156286
3212
നീ അതൊക്കെ പുറത്താക്കികാണും
02:51
SM: Don't be embarrassed,
it's just metadata.
65
159522
2346
വിഷമിക്കണ്ട അതൊരു മെറ്റാ ഡാറ്റ അല്ലെ
02:54
I knew when you turned on your TV
and how long you watched it for.
66
162472
3143
നീ എപ്പോൾ ടീവി ഓണാക്കി എന്നും
ഏതു ചാനൽ എത്ര നേരം കണ്ടുവെന്നും
02:57
Fun fact about the Hill household:
67
165639
1629
ഇവളുടെ വീട്ടിലെ ഒരു രസമുള്ള കാര്യം ഇതാണ്.
02:59
they don't watch a lot of television,
68
167292
1794
ഇവർ ഒത്തിരി ടീവി കാണാറില്ല കേട്ടോ
03:01
but when they do,
it's usually in binge mode.
69
169110
2268
പക്ഷെ കാണുമ്പോൾ ബിൻജ് മോഡിലാണ് കാണാറ്
03:03
Favorite shows include
"Difficult People" and "Party Down."
70
171402
2779
ഇഷ്ടപെട്ട പരമ്പരകൾ difficult people ഉം
party down ഉം
03:06
KH: OK, you're right,
I loved "Party Down."
71
174205
2039
ശരിയാണ് എനിക്ക് party down ഇഷ്ടമാണ്
03:08
It's a great show,
and you should definitely watch it.
72
176268
2547
നല്ല ഷോ ആണ്. കാണണം കേട്ടോ
03:10
But "Difficult People"
was all my husband, Trevor.
73
178839
2444
difficult people ന്റെ ആള് എൻ്റെ ഭർത്താവ് ആണ്
03:13
And Trevor was actually a little upset
that you knew about his binges,
74
181307
3603
അങ്ങേരുടെ ബിൻജ് പ്രിയം നീ കണ്ടുപിടിച്ചതിൽ അയാൾ
അസ്വസ്ഥൻ ആയിരുന്നു.
03:16
because even though he'd been the one
to connect the TV to the router,
75
184934
3334
റൗട്ടർ ഫിറ്റ് ചെയ്തത് പുള്ളിയാണെങ്കിലും
03:20
he forgot that the TV was watching us.
76
188292
2447
ടിവിക്കു ഞങ്ങളെ കാണാൻ പറ്റുമെന്ന്
അയാൾ ഓർത്തില്ല
03:23
It's actually not the first time
that our TV has spied on us.
77
191109
3293
ടീവി ഞങ്ങളെ വീക്ഷിക്കുന്നത് ആദ്യമല്ല
03:26
The company that made it, VIZIO,
78
194426
1699
ടിവിയുടെ കമ്പനി, വിസിഒ
03:28
paid a 2.2 million-dollar settlement
to the government just last year,
79
196149
4333
കഴിഞ്ഞവർഷം 2.2 കോടി പിഴ
സർക്കാരിന് കൊടുത്തതേയുള്ളു
03:32
because it had been collecting
second-by-second information
80
200506
3357
സെക്കൻഡ്‌ തോറുമുള്ള വിവരങ്ങൾ ചോർത്തിയതിന്
03:35
about what millions of people
were watching on TV, including us,
81
203887
3468
നമ്മളുൾപ്പെടെ ലക്ഷകണക്കിന് ടീവി പ്രേഷകരുടേത്.
03:39
and then it was selling that information
to data brokers and advertisers.
82
207379
3705
എന്നിട്ടവർ ഡാറ്റ ബ്രോക്കർമാർക്കും
പരസ്യക്കാർക്കും വിൽക്കുകയാരുന്നു
03:43
SM: Ah, classic surveillance economy move.
83
211108
3222
ആഹ്‌ ക്ലാസിക് സർവില്ലൻസ്
ഇക്കോണമി സംവിധാനം
03:46
The devices Kashmir bought
almost all pinged their servers daily.
84
214775
3866
ഇവർ വാങ്ങിയ എല്ലാം സെർവറുമായി
ദിവസേന ബന്ധപ്പെട്ടിരുന്നു
03:50
But do you know which device
was especially chatty?
85
218665
2396
അതിൽ ഏതാണ് കൂടുതൽ ബന്ധപെട്ടിരുന്നത്
03:53
The Amazon Echo.
86
221085
1294
ആമസോൺ എക്കോ
03:54
It contacted its servers
every three minutes,
87
222403
2428
3 മിനിറ്റിലൊരിക്കൽ അത്
സെർവറുമായി ബന്ധപ്പെട്ടിരുന്നു
03:56
regardless of whether
you were using it or not.
88
224855
2198
ഉപയോഗിച്ചാലും ഇല്ലെങ്കിലും
03:59
KH: In general, it was disconcerting
89
227077
2183
വളരെ അലോസരമുണ്ടാക്കുന്നു
04:01
that all these devices were having
ongoing conversations
90
229284
2984
ഈ വസ്തുക്കളെല്ലാം
സംഭഷണങ്ങൾ നടത്തുന്നുവെന്നത്
04:04
that were invisible to me.
91
232292
1626
അതും എനിക്കുകാണാൻ പറ്റാത്തവിധം
04:05
I mean, I would have had
no idea, without your router.
92
233942
2587
നിൻറെ റൗട്ടർ ഇല്ലാരുന്നെങ്കിൽ എനിക്കൊന്നും
അറിയാൻ പറ്റില്ലാരുന്നു
ഒരു സ്മാർട്ട് ഉപകരണം വാങ്ങുമ്പൾ
04:08
If you buy a smart device,
you should probably know --
93
236553
3468
04:12
you're going to own the device,
94
240045
2111
ആ ഉപകരണം നിങ്ങൾ സ്വന്തമാക്കുന്നു
04:14
but in general, the company
is going to own your data.
95
242180
3420
പക്ഷെ അവയുണ്ടാക്കിയ കമ്പനി
നിങ്ങളുടെ ഡാറ്റയും സ്വന്തമാക്കുന്നു
04:17
And you know, I mean,
maybe that's to be expected --
96
245624
2572
അതു പ്രതീക്ഷിക്കേണ്ടത് തന്നെയാണ്.
04:20
you buy an internet-connected device,
it's going to use the internet.
97
248220
3507
ഒരു ഇന്റർനെറ്റ് ബന്ധിത വസ്തു വാങ്ങുമ്പോൾ
അത് ഇന്റർനെറ്റ് ഉപയോഗിക്കുന്നു
04:24
But it's strange to have these devices
98
252189
1842
ഇതൊക്കെ ഉപയോഗിക്കുന്നത് വല്ലാത്ത
അവസ്ഥ തന്നെ
04:26
moving into the intimate space
that is the home
99
254055
2658
വീടുപോലത്തെ പ്രിയപ്പെട്ട സ്ഥലത്തേക്ക്
ഇവ കയറുമ്പോൾ
04:28
and allowing companies to track
our really basic behavior there.
100
256737
3443
കമ്പനികൾക്ക് നമ്മുടെ
സ്വകാര്യശീലങ്ങൾ പോലും കൈമാറുമ്പോൾ
04:32
SM: So true.
101
260204
1159
സത്യം
04:33
Even the most banal-seeming data
can be mined by the surveillance economy.
102
261387
3539
അപ്രധാനവിവരങ്ങൾ പോലും
സർവില്ലൻസ് ഇക്കോണമി തിരയുന്നു
04:36
For example, who cares
how often you brush your teeth?
103
264950
2575
ഉദാഹരണത്തിന് എത്രവട്ടം പല്ലുതേക്കുന്നു
എന്നറിഞ്ഞിട്ട് ആർക്ക് കാര്യം
04:39
Well, as it turns out, there's a dental
insurance company called Beam.
104
267549
3526
ബീം എന്ന ഡെന്റൽ ഇൻഷുറൻസ് കമ്പനിയുണ്ട്
പറഞ്ഞുവരുമ്പോൾ
04:43
They've been monitoring their customers'
smart toothbrushes since 2015 --
105
271099
3835
2015 മുതൽ അവർ സ്മാർട്ട് ബ്രഷ് ഉപയോഗിച്ച്
കസ്റ്റമേഴ്സിനെ നിരീക്ഷിക്കുന്നു
04:46
for discounts on their
premiums, of course.
106
274958
2579
പ്രീമിയത്തിൽ ഇളവുകൊടുക്കാനാണ് കേട്ടോ
04:49
KH: We know what
some of you are thinking:
107
277561
2259
നിങ്ങളിൽ ചിലരൊക്കെ ചിന്തിക്കുന്നുണ്ടാവും
04:51
this is the contract of the modern world.
108
279844
2654
ഇതാണ് പുതുയുഗത്തിൻറെ കോൺട്രാക്ട്
04:54
You give up a little privacy,
109
282522
1427
അല്പം സ്വകാര്യത ഉപേക്ഷിച്ചാൽ
04:55
and you get some convenience
or some price breaks in return.
110
283973
3218
കുറച്ചു സൗജന്യമോ സൗകര്യമോ
തിരിച്ചു കിട്ടുന്നു
04:59
But that wasn't my experience
in my smart home.
111
287514
2341
എന്റെ അനുഭവം അതായിരുന്നില്ല
05:01
It wasn't convenient, it was infuriating.
112
289879
3674
അതൊട്ടും സൗകര്യപ്രദമല്ലാരുന്നു.
ശ്വാസം മുട്ടിക്കുന്നതാരുന്നു.
05:05
I'll admit, I love my smart vacuum,
113
293577
2492
ഞാൻ സമ്മതിക്കുന്നു സ്മാർട്ട്
ശൂന്യതയാണ് ഇഷ്ടമെന്ന്
05:08
but many other things in the house
drove me insane:
114
296093
2405
വീട്ടിലെ പലകാര്യങ്ങളും
എന്നെ വട്ടുപിടിപ്പിച്ചു
05:10
we ran out of electrical outlets,
115
298522
2396
ഒരു പ്ളഗ് പോയിന്റ് പോലും കാലിയില്ലാ,
05:12
and I had to download
over a dozen apps to my phone
116
300942
3379
ഫോണിൽ ഒരുഡസനിൽ അധികം
ആപ്പുകൾ ഡൌൺലോഡ് ചെയേണ്ടിവന്നു
05:16
to control everything.
117
304345
1327
എല്ലാം നിയന്ത്രിക്കാൻ
05:17
And then every device had its own log-in,
118
305696
2089
ഓരോന്നിനും വെവ്വേറെ ലോഗിനുകൾ
05:19
my toothbrush had a password ...
119
307809
2363
പല്ലു തേക്കുന്ന ബ്രിഷിന് വരെ പാസ്സ്‌വേർഡ്!
05:22
(Laughter)
120
310196
1737
(ചിരി)
05:23
And smart coffee, especially,
was just a world of hell.
121
311957
4128
നശിച്ചൊരു സ്മാർട്ട് കോഫിയും
05:28
SM: Wait, really? Cloud-powered
coffee wasn't really working for you?
122
316109
3928
നിങ്ങൾക്കത് പറ്റിയില്ല?
05:32
KH: I mean, maybe I'm naive,
but I thought it was going to be great.
123
320061
3238
ഞാനൊരു ലാളിത്യക്കാരി ആയതുകൊണ്ടാവും.
പറ്റുമെന്ന് ഞാനോർത്തു
05:35
I thought we'd just wake up in the morning
and we'd say, "Alexa, make us coffee."
124
323323
4019
ഞാനോർത്തു കാലത്തേ എണീറ്റു
"അലക്സാ, ഒരു കാപ്പി എന്ന്
പറഞ്ഞാൽ മതി" എന്ന്
05:39
But that's not how it went down.
125
327366
1873
അതങ്ങെനെയൊന്നും നടക്കില്ല
05:41
We had to use this really particular,
brand-specific phrase to make it work.
126
329263
4651
കാര്യം കൃത്യമായി പറയണം.
എന്തുചെയ്യണം എന്നും പറയണം
05:45
It was, "Alexa, ask the Behmor
to run quick start."
127
333938
4608
"അലക്സാ, ആ ബീമോർ
ക്വിക്ക് സ്റ്റാർട്ട് ആക്കൂ" എന്നൊക്കെ
05:51
And this was just, like,
really hard to remember
128
339222
3342
ഇത്രയൊക്കെ ഓർത്തിരിക്കാൻ എത്ര പ്രയാസമാ
05:54
first thing in the morning,
129
342588
1334
അതും എണീറ്റു വരുന്നവഴിയെ
05:55
before you have had your caffeine.
130
343946
1703
വേണ്ട കാഫീൻ ചെല്ലാതെ
എന്തെങ്കിലും നടക്കുമോ?
05:57
(Laughter)
131
345673
1103
(ചിരി)
05:58
And apparently, it was hard to say,
132
346800
1690
പറയാനും പ്രയാസം
06:00
because the Echo Dot
that was right next to our bed
133
348514
3063
ബെഡിന്റെ അടുത്ത് തന്നെയിരിക്കുന്ന
എക്കോ ഡോട്ടിനാണെങ്കിൽ
06:03
just couldn't understand us.
134
351601
1611

ഞങ്ങൾ പറയുന്നത് മനസിലാവുന്നുമില്ല
06:05
So we would basically start every day
by screaming this phrase at the Echo Dot.
135
353704
4621
എന്നും എക്കോ ഡോട്ടിനോട് അലറികൊണ്ടുവേണം
എണീക്കാൻ
06:10
(Laughter)
136
358349
1173
(ചിരി)
06:11
And Trevor hated this.
137
359546
1466
ട്രെവറിനു ഇതു വെറുപ്പാണ്
06:13
He'd be like, "Please, Kashmir,
138
361339
1748
അദ്ദേഹം പറയും
06:15
just let me go to the kitchen and push
the button to make the coffee run."
139
363111
3669
"കാശ്മീർ, ദയവായി ഞാൻ അടുക്കളയിൽ
പോയി ഒരു കാപ്പി ഉണ്ടാക്കിക്കോട്ടെ" എന്ന്
06:19
And I'd be like, "No, you can't!
140
367379
2087
ഞാൻ പറയും വേണ്ടാന്ന്
06:21
We have to do it the smart way!"
141
369490
2409
നമ്മക്ക് സ്മാർട്ട് രീതിയിൽ
കാപ്പി ഉണ്ടാക്കിയെ പറ്റു.
06:23
(Laughter)
142
371923
1916
(ചിരി)
06:25
I'm happy to report that our marriage
survived the experiment,
143
373863
3043
എൻ്റെ വിവാഹജീവിതം കഷ്ടിച്ചു
തകരാതെ പിടിച്ചുനിന്നു എന്ന് പറയാം
06:28
but just barely.
144
376930
1560
കഷ്ടിച്ചുമാത്രം
06:30
SM: If you decide to make your home smart,
145
378514
2047
നിങ്ങളുടെ വീട് സ്മാർട്ട് അക്കണെമെങ്കിൽ
06:32
hopefully, you’ll find it
less infuriating than Kashmir did.
146
380585
2849
കാശ്മീരിന് ഉണ്ടായ അത്രേയും
കഷ്ടപ്പാടുണ്ടാവില്ല
എന്നു തോന്നുന്നു
06:35
But regardless, the smart things you buy
147
383458
2087
പക്ഷെ എന്ത് സ്മാർട്ട് സാധനം വാങ്ങിച്ചാലും
06:37
can and probably are used
to target and profile you.
148
385569
3095
അവ നിങ്ങളെ വിവരശേഖരണം നടത്താൻ
സാധ്യത കൂടുതലാണ്
06:41
Just the number of devices you have
can be used to predict
149
389141
3040
നിങ്ങൾക്കുള്ള വസ്തുക്കളുടെ എണ്ണം
06:44
how rich or poor you are.
150
392205
1422
നിങ്ങൾ എത്ര പണക്കാരൻ/പാവപ്പെട്ടവന്
ആണെന്നറിയാൻ ഉപയോഗിച്ചേക്കാം
06:45
Facebook's made this tech,
and they've also patented it.
151
393651
2767
ഇതുണ്ടാക്കിയതും പേറ്റന്റ് എടുത്തതും
ഫേസ്ബുക് ആണ്
06:48
KH: All the anxiety you currently feel
every time you go online,
152
396442
3686
ഇപ്പോൾ നിങ്ങൾക്കുതോന്നുന്ന ജിജ്ഞാസ
ഓരോ തവണയും
06:52
about being tracked,
153
400152
1306
നെറ്റ് ഉപയോഗിക്കുമ്പോൾ ട്രാക്ക്
ചെയ്യപ്പെടുന്നുണ്ടോ എന്നറിയാനും വേണം
06:53
is about to move into your living room.
154
401482
2301
ഈ ജിജ്ഞാസ ലിവിങ് റൂമിലേക്കും
06:55
Or into your bedroom.
155
403807
1579
ബെഡ്‌റൂമിലേക്കും വന്നുവെന്നു മാത്രം.
06:57
There's this sex toy called the We-Vibe.
156
405950
2222
വെബ് വൈബ് എന്ന ഒരു സെക്സ് ടോയ് ഉണ്ട്
07:00
You might wonder why
a sex toy connects to the internet,
157
408577
2667
ഒരു സെക്സ് ടോയ് ഇന്റർനെറ്റുമായി ബന്ധിപ്പിക്കുന്നത്
എന്തിനാ എന്ന് നിങ്ങൾ അദ്‌ഭുതപ്പെട്ടേക്കാം
07:03
but it's for two people
who are in a long-distance relationship,
158
411268
3436
അത് വളരെ ദൂരുത്തുള്ള രണ്ടുപേർക്കുവേണ്ടിയാണ്
07:06
so they can share their love from afar.
159
414728
2920
ദൂരത്തുനിന്നു വികാരങ്ങൾ പങ്കുവെക്കാൻ
07:10
Some hackers took a close look at this toy
160
418259
2116
ഇതു ചില ഹാക്കർമാർ പരിശോധിച്ചു
07:12
and saw it was sending
a lot of information
161
420399
2075
ഇതു വളരെ അധികം വിവരങ്ങൾ
ശേഖരിക്കുന്നതായി കണ്ടെത്തി
07:14
back to the company that made it --
162
422498
2462
അതുണ്ടാക്കിയ കമ്പനിക്ക് വേണ്ടി
07:16
when it was used,
how long it was used for,
163
424984
2966
എപ്പോൾ ആണ് ഇതുപയോഗിക്കുന്നത്, എത്ര നേരം
07:19
what the vibration settings were,
how hot the toy got.
164
427974
3706
വൈബ്രേഷൻ സെറ്റിങ് എന്തായിരുന്നു,
ഉപകരണം എത്രമാത്രം ചൂടായി
07:23
It was all going into a database.
165
431704
2189
ഒരു ഡാറ്റാബേസിലേക്കാണ്
ഇതു പൊയ്ക്കൊണ്ടിരുന്നത്
07:25
So I reached out to the company,
166
433917
2749
ഞാൻ ആ കമ്പനിയെ സമീപിച്ചു
07:28
and I said, "Why are you collecting
this really sensitive data?"
167
436690
3302
എന്തിനാണ് ഈ വിവരമെല്ലാം
ശേഖരിക്കുന്നതെന്നു ചോദിച്ചു
07:32
And they said, "Well, it's great
for market research."
168
440369
3386
അവർ പറഞ്ഞത് മാർക്കറ്റ്
റിസേർച്ചിനു നല്ലതാണെന്ന് ആണ്
07:36
But they were data-mining
their customers' orgasms.
169
444592
2929
അവർ ഉപഭോക്താവിന്റെ
രതിമൂർച്ചയെപ്പറ്റിയുള്ള
വിവരങ്ങൾ ആണ് ശേഖരിച്ചിരുന്നത്
07:39
And they weren't telling them about it.
170
447545
1921
അവരോടു പറയാതെ
07:41
I mean, even if
you're cavalier about privacy,
171
449490
2222
നിങ്ങൾക്കു സ്വകാര്യത പ്രധാനമാണെങ്കിൽ
07:43
I hope that you would admit
that's a step too far.
172
451736
2595
ഇതല്പം കടന്ന കയ്യാണെന്ന് നിങ്ങൾ സമ്മതിക്കും
07:46
SM: This is why I want
to keep my sex toys dumb.
173
454680
2508
ഇതുകൊണ്ടാണ് എന്റെ സെക്സ് ടോയ്സിന്
കേൾവി ഇല്ലാതാക്കിയത്.
07:49
KH: That's great.
174
457212
1166
അതുകൊള്ളാല്ലൊ
07:50
We're all very glad to know that.
175
458402
1666
നല്ല കാര്യം
07:52
(Laughter)
176
460092
1448
(ചിരി)
07:53
SM: A data point I'm willing to share.
177
461564
2034
ഞാൻ വെളിപ്പെടുത്താൻ ആഗ്രഹിക്കുന്ന മാത്രം
07:55
(Laughter)
178
463622
1723
(ചിരി)
07:57
The devices Kashmir bought
range from useful to annoying.
179
465369
2970
കാശ്മീരി വാങ്ങിയ സാധനങ്ങൾ
ഉപയോഗമുള്ളവ മുതൽ
ശല്യങ്ങൾ വരെ ഉണ്ട്
08:00
But the thing they all had in common
180
468363
1793
അവക്കെല്ലാം പൊതുവായുണ്ടാരുന്ന കാര്യം
08:02
was sharing data with
the companies that made them.
181
470180
2699
ഉണ്ടാക്കിയ കമ്പനിയിലേക്കു
വിവരം പങ്കുവയ്ക്കുന്നതായിരുന്നു
08:04
With email service providers
and social media,
182
472903
2308
ഇമെയിൽ സംവിധാനങ്ങളോടും
സോഷ്യൽ മീഡിയയോടും
08:07
we've long been told that if it's free,
you're the product.
183
475235
2958
സൗജന്യമാണെന്ന പേരിൽ വളെരെ
സാധനങ്ങൾ നമുക്ക് കിട്ടുന്നുണ്ട്
സത്യത്തിൽ ആ ഉല്പന്നം
നിങ്ങളാണെന്നു മാത്രം
08:10
But with the internet of things, it seems,
184
478217
2007
ഇന്റർനെറ്റിന്റെ ഗതി വച്ചുനോക്കുമ്പോൾ തോന്നുന്നത്
08:12
even if you pay, you're still the product.
185
480248
2008
കാശുകൊടുത്താലും നിങ്ങൾ ഉല്പന്നമാവും എന്നാണ്
08:14
So you really have to ask:
186
482280
1245
ശരിക്കും നിങ്ങൾ ചോദിക്കേണ്ടത്
08:15
Who's the true beneficiary
of your smart home,
187
483549
2185
ആരാണ് സ്മാർട്ട് ഹോമിന്റെ ശരിയായ ഗുണഭോക്താവ് എന്നാണ്
08:17
you or the company mining you?
188
485758
1629
നിങ്ങളോ അതോ നിങ്ങളുടെ
വിവരങ്ങൾ ശേഖരിക്കുന്ന കമ്പനിയോ?
08:19
KH: Look, we're a tech savvy crowd here.
189
487411
1952
നമുക്കിവിടെ ഒരു techee ശ്രോതാക്കൾ ആണല്ലോ ഉള്ളത്
08:21
I think most of us know
that these things connect to the internet
190
489387
3112
ഭൂരിഭാഗം പേർക്കും ഏതൊക്കെ
ഇന്റർനെറ്റുമായി ചേർന്നുകിടക്കുന്ന വിവരം
അറിയാമായിരിക്കും എന്നുകരുതുന്നു
വിവരങ്ങൾ പുറത്തുപോകുന്നുണ്ടെന്നും
08:24
and send data out.
191
492523
1163
08:25
And fine, maybe you're OK with living
in that commercial panopticon,
192
493710
4018
ചിലപ്പോൾ നിങ്ങൾക്കീ കച്ചവടസമൂഹത്തിൽ
ജീവിച്ചു ശീലമായികാണും
മറ്റുള്ളവർ അങ്ങെനെ അല്ല
08:29
but others aren't.
193
497752
1397
08:31
We need the companies to rethink
the design of these devices
194
499173
2841
ഈ കമ്പനികൾ അവരുടെ ഉത്പന്നങ്ങളുടെ
ഡിസൈൻ അഴിച്ചുപണിയേണ്ടിയിരിക്കുന്നു
08:34
with our privacy in mind,
195
502038
1515
നമ്മുടെ സ്വകാര്യതയ്ക്ക്
പ്രാധാന്യമുള്ള രീതിയിൽ
08:35
because we're not all willing
to participate in "market research,"
196
503577
3111
കാരണം ഞങ്ങൾ മാർക്കറ്റ്
റിസേർച്ചിൽ പങ്കെടുക്കാൻ തയ്യാറല്ല
08:38
just because a device we bought
has a Wi-Fi connection.
197
506712
2893
ഞങ്ങൾ വാങ്ങിയ സാധനത്തിനു ഒരു വൈഫൈ
കണക്ഷൻ ഉണ്ടെന്ന കാരണത്താൽ
08:42
And I have to tell you,
198
510014
1198
നാം ബോധവാന്മാരായിരിക്കുമ്പോളും
ഏതൊക്കെ സംഭവിക്കുന്നു
08:43
even when you're aware,
generally, this is happening,
199
511236
2582
08:45
it's really easy to forget that normal
household items are spying on you.
200
513842
4394
ഗൃഹോപകരണങ്ങൾ ചാരപ്പണി നടത്തുന്നു
എന്നത് മറക്കാൻ എളുപ്പമായിരിക്കും
അവ നിങ്ങളെ കാണുന്നു
എന്നതും എളുപ്പം മറന്നേക്കാം
08:50
It's easy to forget
these things are watching you,
201
518664
2350
08:53
because they don't look like cameras.
202
521038
2047
കാരണം അവ ക്യാമറ
പോലെയുള്ള രൂപത്തിലല്ല
പക്ഷെ അവ.......
08:55
They could look like ...
203
523109
1429
ഒരു ഡിൽഡോ പോലെ ഇരുന്നേക്കാം..
08:56
well, they could look like a dildo.
204
524562
2544
08:59
Thank you.
205
527780
1152
നന്ദി
09:00
(Applause)
206
528956
3686
Translated by Balagopal Asokan
Reviewed by Ayyappadas Vijayakumar

▲Back to top

ABOUT THE SPEAKERS
Kashmir Hill - Technology journalist
Kashmir Hill writes about privacy and technology.

Why you should listen

Kashmir Hill is a senior reporter for the Gizmodo Media Group. As she writes: "I started out in journalism blogging at what was essentially an online tabloid for lawyers. Then I got interested in privacy, and that forced me to write about Facebook and eventually about other technologies; along the way people started describing me as a technology journalist instead of a legal blogger.

"I've always wanted my writing to be approachable for a lay audience, so I usually use humor, a first-person approach or, ideally, both. So I've hacked a smart home, lived in a monitored one, created a fake business and bought it a fake reputation, worked as a crowdsourced girlfriend, lived on Bitcoin and spent a whole week WRITING IN CAPS LOCK. The best way to prepare people for future possible tech dystopias is for me to live in them and report back."

More profile about the speaker
Kashmir Hill | Speaker | TED.com
Surya Mattu - Artist, investigative journalist, engineer
Think of Surya Mattu as a data detective. As he writes: "I am interested in figuring out the ways in which algorithmic systems harm people."

Why you should listen

Surya Mattu is a data reporter on Gizmodo's Special Projects Desk and an R&D journalism resident at Eyebeam NYC. As he writes: "My practice combines art, investigative journalism, engineering and creative technology. The aim is to reverse-engineer the specific ways in which the tools or technology we create are imbued with the ethics of the culture in which they're created. Currently, I am a data reporter. Previously, I was a contributing researcher at ProPublica, where I worked on "Machine Bias," a series that aims to highlight how algorithmic systems can be biased and discriminate against people."

More profile about the speaker
Surya Mattu | Speaker | TED.com