ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com
TEDGlobal 2013

Alessandro Acquisti: What will a future without secrets look like?

Alessandro Acquisti: Vì sao quyền riêng tư quan trọng?

Filmed:
1,423,103 views

Ranh giới giữa công cộng và cá nhân đã mờ đi trong 1 thập kỉ qua, trên thế giới mạng lẫn trong cuộc sống thực, và Alessandro Acquisti sẽ giải thích ý nghĩa của điều này và vì sao nó lại quan trọng với chúng ta. Trong bài phát biểu sâu sắc và có chút lạnh gáy này, ông chia sẻ về những nghiên cứu đã và đang thực hiện - trong đó có thí nghiệm cho thấy rất dễ dàng tìm thông tin cá nhân nhạy cảm từ 1 bức ảnh vô danh.
- Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks. Full bio

Double-click the English transcript below to play the video.

00:12
I would like to tell you a storycâu chuyện
0
641
2354
Tôi muốn kể 1 câu chuyện
00:14
connectingkết nối the notoriouskhét tiếng privacysự riêng tư incidentbiến cố
1
2995
3176
kết nối 1 sự việc riêng tư rất nổi tiếng
00:18
involvingliên quan AdamAdam and EveĐêm giao thừa,
2
6171
2769
giữa Adam và Eve
00:20
and the remarkableđáng chú ý shiftsự thay đổi in the boundariesranh giới
3
8940
3446
với sự thay đổi to lớn về giới hạn
00:24
betweengiữa publiccông cộng and privateriêng tư which has occurredxảy ra
4
12386
2686
giữa đời sống công cộng và riêng tư
00:27
in the pastquá khứ 10 yearsnăm.
5
15072
1770
trong 10 năm vừa qua.
00:28
You know the incidentbiến cố.
6
16842
1298
Các bạn đều biết sự việc này.
00:30
AdamAdam and EveĐêm giao thừa one day in the GardenSân vườn of EdenEden
7
18140
3330
Một ngày trong Vườn Địa Đàng,
00:33
realizenhận ra they are nakedtrần truồng.
8
21470
1843
Adam và Eve nhận ra họ đang trần truồng.
00:35
They freakquái vật out.
9
23313
1500
Cả hai đều bối rối lo sợ.
00:36
And the restnghỉ ngơi is historylịch sử.
10
24813
2757
Và phần còn lại là lịch sử.
00:39
NowadaysNgày nay, AdamAdam and EveĐêm giao thừa
11
27570
2188
Thời nay, có lẽ Adam và Eve
00:41
would probablycó lẽ acthành động differentlykhác.
12
29758
2361
sẽ hành động rất khác.
00:44
[@AdamAdam Last niteNite was a blastvụ nổ! lovedyêu datdat appletáo LOLCười to]
13
32119
2268
[@Adam: Đêm qua thật tuyệt vời!
Em thích quả táo của anh lol]
00:46
[@EveĐêm giao thừa yepYep.. babeBabe, know what happenedđã xảy ra to my pantsQuần lót thocần thơ?]
14
34387
1873
[@Eve: uhm... em yêu,
em có biết quần anh đâu rồi ko?
00:48
We do revealtiết lộ so much more informationthông tin
15
36260
2636
Chúng ta tiết lộ nhiều thông tin
00:50
about ourselveschúng ta onlineTrực tuyến than ever before,
16
38896
3334
về bản thân mình online hơn bao giờ hết
00:54
and so much informationthông tin about us
17
42230
1704
và rất nhiều thông tin đó
00:55
is beingđang collectedthu thập by organizationstổ chức.
18
43934
2224
đang được các tổ chức thu thập.
00:58
Now there is much to gainthu được and benefitlợi ích
19
46158
3282
Có rất nhiều lợi ích
01:01
from this massiveto lớn analysisphân tích of personalcá nhân informationthông tin,
20
49440
2446
từ việc phân tích thông tin cá nhân ở quy mô lớn
01:03
or biglớn datadữ liệu,
21
51886
1946
hay còn gọi là "dữ liệu khổng lồ"
01:05
but there are alsocũng thế complexphức tạp tradeoffscân bằng that come
22
53832
2638
nhưng cũng có những tổn hại phức tạp
01:08
from givingtặng away our privacysự riêng tư.
23
56470
3098
do việc từ bỏ riêng tư cá nhân.
01:11
And my storycâu chuyện is about these tradeoffscân bằng.
24
59568
4023
Và câu chuyện của tôi là về những tổn hại đó.
01:15
We startkhởi đầu with an observationquan sát which, in my mindlí trí,
25
63591
2584
Chúng ta bắt đầu với một quan sát mà theo tôi
01:18
has becometrở nên clearerrõ ràng hơn and clearerrõ ràng hơn in the pastquá khứ fewvài yearsnăm,
26
66175
3327
càng ngày càng trở nên rõ ràng trong vài năm qua
01:21
that any personalcá nhân informationthông tin
27
69502
2097
đó là: bất kì thông tin cá nhân nào
01:23
can becometrở nên sensitivenhạy cảm informationthông tin.
28
71599
2285
cũng có thể trở thành thông tin nhạy cảm.
01:25
Back in the yearnăm 2000, about 100 billiontỷ photosảnh
29
73884
4125
Năm 2000, toàn thế giới
01:30
were shotbắn worldwidetrên toàn thế giới,
30
78009
1912
chụp khoảng 100 tỷ bức ảnh
01:31
but only a minusculeminuscule proportiontỉ lệ of them
31
79921
3065
nhưng chỉ có 1 phần rất nhỏ trong đó
01:34
were actuallythực ra uploadedđã tải lên onlineTrực tuyến.
32
82986
1883
được chia sẻ online.
01:36
In 2010, only on FacebookFacebook, in a singleĐộc thân monththáng,
33
84869
3361
Năm 2010, tính riêng trên Facebook, trong 1 tháng
01:40
2.5 billiontỷ photosảnh were uploadedđã tải lên,
34
88230
3270
có 2.5 tỷ bức ảnh được chia sẻ online
01:43
mostphần lớn of them identifiedxác định.
35
91500
1882
và hầu hết đều có tên.
01:45
In the sametương tự spannhịp of time,
36
93382
1880
Trong cùng thời gian đó,
01:47
computers'máy tính' abilitycó khả năng to recognizenhìn nhận people in photosảnh
37
95262
4870
khả năng nhận dạng người qua ảnh của máy tính
01:52
improvedcải tiến by threesố ba ordersđơn đặt hàng of magnitudeđộ lớn.
38
100132
3608
được cải thiện hơn 1000 lần.
01:55
What happensxảy ra when you combinephối hợp
39
103740
1882
Chuyện gì sẽ xảy ra
01:57
these technologiescông nghệ togethercùng với nhau:
40
105622
1501
khi những công nghệ này kết hợp lại?
01:59
increasingtăng availabilitytính khả dụng of facialda mặt datadữ liệu;
41
107123
2658
dữ liệu khuôn mặt nhiều lên và sẵn có,
02:01
improvingnâng cao facialda mặt recognizingcông nhận abilitycó khả năng by computersmáy vi tính;
42
109781
3648
công nghệ nhận dạng ngày càng phát triển,
02:05
but alsocũng thế cloudđám mây computingtính toán,
43
113429
2182
và cả điện toán đám mây -
02:07
which givesđưa ra anyonebất kỳ ai in this theaterrạp hát
44
115611
1888
1 mô hình sẽ mang đến cho
bất kì ai trong khán phòng này
02:09
the kindloại of computationaltính toán powerquyền lực
45
117499
1560
năng lực máy tính vượt trội
02:11
which a fewvài yearsnăm agotrước was only the domainmiền
46
119059
1886
mà mới chỉ vài năm trước
02:12
of three-letterba ký agenciescơ quan;
47
120945
1782
chỉ các cơ quan chính phủ mới có,
02:14
and ubiquitousphổ biến computingtính toán,
48
122727
1378
và công nghệ tin học rộng khắp
02:16
which allowscho phép my phoneđiện thoại, which is not a supercomputersiêu máy tính,
49
124105
2892
làm cho điện thoại di động,
cho dù không phải siêu máy tính
02:18
to connectkết nối to the InternetInternet
50
126997
1671
vẫn có thể kết nối Internet
02:20
and do there hundredshàng trăm of thousandshàng nghìn
51
128668
2334
và làm hàng trăm nghìn
02:23
of faceđối mặt metricssố liệu in a fewvài secondsgiây?
52
131002
2639
phép nhận dạng trong vòng vài giây?
02:25
Well, we conjecturephỏng đoán that the resultkết quả
53
133641
2628
Chúng tôi dự đoán rằng
02:28
of this combinationsự phối hợp of technologiescông nghệ
54
136269
2064
hậu quả của sự kết hợp các công nghê này
02:30
will be a radicalcăn bản changethay đổi in our very notionsquan niệm
55
138333
2888
là một thay đổi triệt để trong nhận thức chúng ta
02:33
of privacysự riêng tư and anonymityẩn danh.
56
141221
2257
về riêng tư cá nhân và sự ẩn danh.
02:35
To testthử nghiệm that, we did an experimentthí nghiệm
57
143478
1993
Để kiểm tra, chúng tôi làm 1 thí nghiệm
02:37
on CarnegieCarnegie MellonMellon UniversityTrường đại học campuskhuôn viên.
58
145471
2121
tại trường Đại Học Carnegie Mellon.
02:39
We askedyêu cầu studentssinh viên who were walkingđi dạo by
59
147592
2099
Sinh viên của trường được chọn ngẫu nhiên
02:41
to participatetham dự in a studyhọc,
60
149691
1779
để tham gia một nghiên cứu.
02:43
and we tooklấy a shotbắn with a webcamwebcam,
61
151470
2562
Chúng tôi chụp ảnh họ bằng webcam
02:46
and we askedyêu cầu them to filllấp đầy out a surveykhảo sát on a laptopmáy tính xách tay.
62
154032
2782
và yêu cầu họ điền vào bảng câu hỏi trên laptop.
02:48
While they were fillingđổ đầy out the surveykhảo sát,
63
156814
1979
Trong khi họ trả lời câu hỏi,
02:50
we uploadedđã tải lên theirhọ shotbắn to a cloud-computingđiện toán đám mây clustercụm,
64
158793
2797
chúng tôi tải những bức ảnh vừa chụp
lên 1 đám mây điện toán
02:53
and we startedbắt đầu usingsử dụng a facialda mặt recognizerbộ nhận dạng
65
161590
1727
và dùng 1 phần mềm nhận dạng khuôn mặt
02:55
to matchtrận đấu that shotbắn to a databasecơ sở dữ liệu
66
163317
2405
để kết nối bức ảnh đó với cơ sở dữ liệu
02:57
of some hundredshàng trăm of thousandshàng nghìn of imageshình ảnh
67
165722
2393
của hàng trăm ngàn bức ảnh
03:00
which we had downloadedđã tải xuống from FacebookFacebook profilesHồ sơ.
68
168115
3596
chúng tôi tải về từ vô vàn Facebook cá nhân.
03:03
By the time the subjectmôn học reachedđạt được the last pagetrang
69
171711
3259
Cho đến lúc các sinh viên trả lời đến trang cuối,
03:06
on the surveykhảo sát, the pagetrang had been dynamicallytự động updatedcập nhật
70
174970
3347
trang web đã được update liên tục
03:10
with the 10 besttốt matchingphù hợp với photosảnh
71
178317
2313
và cho ra 10 bức ảnh gần giống nhất
03:12
which the recognizerbộ nhận dạng had foundtìm,
72
180630
2285
mà phần mềm nhận dạng tìm được
03:14
and we askedyêu cầu the subjectsđối tượng to indicatebiểu thị
73
182915
1738
rồi chúng tôi hỏi các sinh viên
03:16
whetherliệu he or she foundtìm themselvesbản thân họ in the photohình chụp.
74
184653
4120
họ có thấy mình trong các bức ảnh đó không.
03:20
Do you see the subjectmôn học?
75
188773
3699
Các bạn có nhận ra người trong bức ảnh không?
03:24
Well, the computermáy vi tính did, and in factthực tế did so
76
192472
2845
Máy tính thì có,
03:27
for one out of threesố ba subjectsđối tượng.
77
195317
2149
và nhận dạng thành công 1 trong 3 sinh viên.
03:29
So essentiallybản chất, we can startkhởi đầu from an anonymousvô danh faceđối mặt,
78
197466
3184
Tức là, có thể bắt đầu với 1 khuôn mặt vô danh
03:32
offlineoffline or onlineTrực tuyến, and we can use facialda mặt recognitionsự công nhận
79
200650
3484
offline hoặc online, rồi dùng công nghê nhận dạng
03:36
to give a nameTên to that anonymousvô danh faceđối mặt
80
204134
2360
để tìm ra tên cho khuôn mặt ấy
03:38
thankscảm ơn to socialxã hội mediaphương tiện truyền thông datadữ liệu.
81
206494
2108
nhờ vào dữ liệu từ mạng xã hội.
03:40
But a fewvài yearsnăm back, we did something elsekhác.
82
208602
1872
Vài năm trước, chúng tôi làm 1 thí nghiệm khác.
03:42
We startedbắt đầu from socialxã hội mediaphương tiện truyền thông datadữ liệu,
83
210474
1823
Chúng tôi bắt đầu từ dữ liệu trên mạng xã hội.
03:44
we combinedkết hợp it statisticallythống kê with datadữ liệu
84
212297
3051
rồi kết hợp thống kê với dữ liệu
03:47
from U.S. governmentchính quyền socialxã hội securityBảo vệ,
85
215348
2102
từ bảo hiểm xã hội của chính phủ Mỹ
03:49
and we endedđã kết thúc up predictingdự báo socialxã hội securityBảo vệ numberssố,
86
217450
3324
để phỏng đoán số bảo hiểm xã hội của mỗi người -
03:52
which in the UnitedVương StatesTiểu bang
87
220774
1512
đó là thông tin hết sức nhạy cảm
03:54
are extremelyvô cùng sensitivenhạy cảm informationthông tin.
88
222286
2040
ở Mỹ.
03:56
Do you see where I'm going with this?
89
224326
2093
Bạn có đoán được tôi muốn dẫn đến cái gì không?
03:58
So if you combinephối hợp the two studieshọc togethercùng với nhau,
90
226419
2922
Kết hợp 2 nghiên cứu trên,
04:01
then the questioncâu hỏi becomestrở thành,
91
229341
1512
và câu hỏi trở thành
04:02
can you startkhởi đầu from a faceđối mặt and,
92
230853
2720
liệu chúng ta có thể bắt đầu từ 1 khuôn mặt
04:05
usingsử dụng facialda mặt recognitionsự công nhận, find a nameTên
93
233573
2311
dùng công nghê nhận dạng, tìm ra tên
04:07
and publiclycông khai availablecó sẵn informationthông tin
94
235884
2669
và các thông tin công khai khác
04:10
about that nameTên and that personngười,
95
238553
1932
về cái tên đó và con người đó
04:12
and from that publiclycông khai availablecó sẵn informationthông tin
96
240485
2248
rồi từ các thông tin công khai đó
04:14
infersuy ra non-publiclykhông khai availablecó sẵn informationthông tin,
97
242733
2042
suy luận ra các thông tin cá nhân
04:16
much more sensitivenhạy cảm onesnhững người
98
244775
1606
cực kì nhạy cảm
04:18
which you linkliên kết back to the faceđối mặt?
99
246381
1492
rồi kết nối chúng với khuôn mặt đó?
04:19
And the answercâu trả lời is, yes, we can, and we did.
100
247873
1916
Câu trả lời là: chúng ta làm được, và đã làm thế.
04:21
Of coursekhóa học, the accuracytính chính xác keepsgiữ gettingnhận được worsetệ hơn.
101
249789
2568
Đương nhiên, độ chính xác giảm dần.
04:24
[27% of subjects'đối tượng first 5 SSNSSN digitschữ số identifiedxác định (with 4 attemptscố gắng)]
102
252357
944
[Tìm ra 27% trong 5 chữ số đầu tiên trong số bảo hiểm xã hội của chủ thể sau 4 lần]
04:25
But in factthực tế, we even decidedquyết định to developphát triển, xây dựng an iPhoneiPhone appứng dụng
103
253301
3827
Thật ra, chúng tôi còn viết 1 ứng dụng iPhone
04:29
which usessử dụng the phone'sđiện thoại internalbên trong cameraMáy ảnh
104
257128
2715
dùng camera của máy
04:31
to take a shotbắn of a subjectmôn học
105
259843
1600
để chụp ảnh chủ thể
04:33
and then uploadtải lên it to a cloudđám mây
106
261443
1487
rồi tải lên 1 đám mây
04:34
and then do what I just describedmô tả to you in realthực time:
107
262930
2662
và làm như những gì tôi đã miêu tả:
04:37
looking for a matchtrận đấu, findingPhát hiện publiccông cộng informationthông tin,
108
265592
2088
tìm kết nối, tìm thông tin công khai,
04:39
tryingcố gắng to infersuy ra sensitivenhạy cảm informationthông tin,
109
267680
1730
suy luận các thông tin nhạy cảm
04:41
and then sendinggửi back to the phoneđiện thoại
110
269410
2591
và gửi lại về máy di động
04:44
so that it is overlaidbị che khuất on the faceđối mặt of the subjectmôn học,
111
272001
3609
thế là trên ảnh của chủ thể
04:47
an examplethí dụ of augmentedtăng cường realitythực tế,
112
275610
1901
sẽ là 1 ví dụ của thực tại tăng cường,
04:49
probablycó lẽ a creepyrùng rợn examplethí dụ of augmentedtăng cường realitythực tế.
113
277511
2451
có lẽ là 1 ví dụ lạnh gáy của
thực tiễn đã được phóng đại lên.
04:51
In factthực tế, we didn't developphát triển, xây dựng the appứng dụng to make it availablecó sẵn,
114
279962
3339
Thực ra, chúng tôi không viết ứng dụng này để bán,
04:55
just as a proofbằng chứng of conceptkhái niệm.
115
283301
1922
mà chỉ để chứng minh quan điểm của mình.
04:57
In factthực tế, take these technologiescông nghệ
116
285223
2313
Hơn nữa, thử đẩy những công nghệ này
04:59
and pushđẩy them to theirhọ logicalhợp lý extremecực.
117
287536
1837
đến mức cực đoan.
05:01
ImagineHãy tưởng tượng a futureTương lai in which strangersngười lạ around you
118
289373
2719
Tưởng tượng rằng trong tương lai,
những người lạ quanh bạn
05:04
will look at you throughxuyên qua theirhọ GoogleGoogle GlassesMắt kính
119
292092
2311
sẽ nhìn bạn qua Kính Google
05:06
or, one day, theirhọ contacttiếp xúc lensesthấu kính,
120
294403
2307
hoặc 1 ngày nào đó, kính áp tròng,
05:08
and use sevenbảy or eighttám datadữ liệu pointsđiểm about you
121
296710
4020
và dùng 7-8 điểm dữ liệu về bạn
05:12
to infersuy ra anything elsekhác
122
300730
2582
để suy luận bất kì thông tin gì khác
05:15
which mayTháng Năm be knownnổi tiếng about you.
123
303312
2603
về bạn.
05:17
What will this futureTương lai withoutkhông có secretsbí mật look like?
124
305915
4794
Tương lai không bí mật này sẽ như thế nào?
05:22
And should we carequan tâm?
125
310709
1964
Và liệu chúng ta có cần quan tâm?
05:24
We mayTháng Năm like to believe
126
312673
1891
Chúng ta muốn tin rằng
05:26
that the futureTương lai with so much wealthsự giàu có of datadữ liệu
127
314564
3040
tương lai với dữ liệu sẵn có như vậy
05:29
would be a futureTương lai with no more biasessự thiên vị,
128
317604
2514
sẽ là một tương lai không có thành kiến.
05:32
but in factthực tế, havingđang có so much informationthông tin
129
320118
3583
Tuy nhiên, sự thật là, có nhiều thông tin hơn
05:35
doesn't mean that we will make decisionsquyết định
130
323701
2191
không giúp chúng ta quyết định
05:37
which are more objectivemục tiêu.
131
325892
1706
một cách khách quan hơn.
05:39
In anotherkhác experimentthí nghiệm, we presentedtrình bày to our subjectsđối tượng
132
327598
2560
Trong một thí nghiệm khác, chúng tôi
cung cấp cho chủ thể thông tin
05:42
informationthông tin about a potentialtiềm năng jobviệc làm candidateứng cử viên.
133
330158
2246
về 1 ứng viên tiềm năng cho 1 công việc.
05:44
We includedbao gồm in this informationthông tin some referencestài liệu tham khảo
134
332404
3178
Chúng tôi thêm vào 1 vài liên kết
05:47
to some funnybuồn cười, absolutelychắc chắn rồi legalhợp pháp,
135
335582
2646
đến những thông tin khôi hài, hoàn toàn hợp pháp
05:50
but perhapscó lẽ slightlykhinh bỉ embarrassinglúng túng informationthông tin
136
338228
2465
nhưng có thể hơi đáng xấu hổ
05:52
that the subjectmôn học had postedđã đăng onlineTrực tuyến.
137
340693
2020
mà ứng viên này đã chia sẻ online.
05:54
Now interestinglythú vị, amongtrong số our subjectsđối tượng,
138
342713
2366
Điều thú vị là, trong các chủ thể của thí nghiệm này
05:57
some had postedđã đăng comparableso sánh informationthông tin,
139
345079
3083
có người đã từng chia sẻ thông tin tương tự
06:00
and some had not.
140
348162
2362
và có người chưa từng.
06:02
Which groupnhóm do you think
141
350524
1949
Các bạn đoán nhóm nào sẽ
06:04
was more likelycó khả năng to judgethẩm phán harshlycách gay gắt our subjectmôn học?
142
352473
4552
đánh giá ứng viên này nghiêm khắc hơn?
06:09
ParadoxicallyNghịch lý, it was the groupnhóm
143
357025
1957
Nghịch lí xảy ra: đó là nhóm đã
06:10
who had postedđã đăng similargiống informationthông tin,
144
358982
1733
chia sẻ thông tin tương tự -
06:12
an examplethí dụ of moralđạo đức dissonancedissonance.
145
360715
2942
1 ví dụ về mâu thuẫn đạo đức.
06:15
Now you mayTháng Năm be thinkingSuy nghĩ,
146
363657
1750
Bạn có thể nghĩ là
06:17
this does not applyứng dụng to me,
147
365407
1702
tôi không như vậy,
06:19
because I have nothing to hideẩn giấu.
148
367109
2162
vì tôi chẳng có gì phải giấu giiếm.
06:21
But in factthực tế, privacysự riêng tư is not about
149
369271
2482
Tuy nhiên, riêng tư cá nhân không phải là
06:23
havingđang có something negativetiêu cực to hideẩn giấu.
150
371753
3676
có những tiêu cực cần che giấu.
06:27
ImagineHãy tưởng tượng that you are the H.R. directorgiám đốc
151
375429
2354
Tưởng tượng bạn là giám đốc nhân sự
06:29
of a certainchắc chắn organizationcơ quan, and you receivenhận đượcsumtổng hợpés,
152
377783
2947
của 1 tổ chức, bạn nhận hồ sơ và
06:32
and you decidequyết định to find more informationthông tin about the candidatesứng cử viên.
153
380730
2473
muốn tìm hiểu thêm thông tin về các ứng viên.
06:35
ThereforeDo đó, you GoogleGoogle theirhọ namestên
154
383203
2460
Vì thế, bạn Google tên của họ
06:37
and in a certainchắc chắn universevũ trụ,
155
385663
2240
và trong 1 trường hợp,
06:39
you find this informationthông tin.
156
387903
2008
bạn tìm thấy thông tin này.
06:41
Or in a parallelsong song, tương đông universevũ trụ, you find this informationthông tin.
157
389911
4437
Hoặc trong trường hợp khác,
bạn thấy thông tin này.
06:46
Do you think that you would be equallybằng nhau likelycó khả năng
158
394348
2717
Bạn có nghĩ rằng bạn sẽ gọi 2 ứng viên này
06:49
to call eitherhoặc candidateứng cử viên for an interviewphỏng vấn?
159
397065
2803
vào vòng phỏng vấn với xác suất như nhau không?
06:51
If you think so, then you are not
160
399868
2282
Nếu bạn nghĩ vậy, thì bạn không giống
06:54
like the U.S. employerssử dụng lao động who are, in factthực tế,
161
402150
2582
các nhà tuyển dụng Mỹ, những người
06:56
partphần of our experimentthí nghiệm, meaningÝ nghĩa we did exactlychính xác that.
162
404732
3307
đã tham gia thí nghiệm của chúng tôi.
07:00
We createdtạo FacebookFacebook profilesHồ sơ, manipulatingthao túng traitstính trạng,
163
408039
3182
Chúng tôi lập nhiều trang Facebook cá nhân,
tạo dựng đặc điểm tính cách
07:03
then we startedbắt đầu sendinggửi out résumtổng hợpés to companiescác công ty in the U.S.,
164
411221
2851
và bắt đầu gửi hồ sơ đến các công ty ở Mỹ.
07:06
and we detectedphát hiện, we monitoredtheo dõi,
165
414072
1908
Chúng tôi phát hiện, và giám sát xem
07:07
whetherliệu they were searchingđang tìm kiếm for our candidatesứng cử viên,
166
415980
2393
họ có tìm và đánh giá ứng viên
07:10
and whetherliệu they were actingdiễn xuất on the informationthông tin
167
418373
1832
dựa vào thông tin trên mạng xã hội
07:12
they foundtìm on socialxã hội mediaphương tiện truyền thông. And they were.
168
420205
1938
và họ đã làm như thế.
07:14
DiscriminationPhân biệt đối xử was happeningxảy ra throughxuyên qua socialxã hội mediaphương tiện truyền thông
169
422143
2101
Phân biệt đối xử xảy ra qua mạng xã hội
07:16
for equallybằng nhau skilledcó kỹ năng candidatesứng cử viên.
170
424244
3073
đối với các ứng viên có khả năng tương đương.
07:19
Now marketersnhà tiếp thị like us to believe
171
427317
4575
Nhà quảng cáo muốn chúng ta tin rằng
07:23
that all informationthông tin about us will always
172
431892
2269
thông tin cá nhân sẽ luôn được sử dụng
07:26
be used in a mannercách thức which is in our favorủng hộ.
173
434161
3273
để mang lại lợi ích cho chúng ta.
07:29
But think again. Why should that be always the casetrường hợp?
174
437434
3715
Hãy nghĩ lại. Tại sao luôn luôn như vậy?
07:33
In a moviebộ phim which cameđã đến out a fewvài yearsnăm agotrước,
175
441149
2664
Trong một bộ phim vài năm trước,
07:35
"MinorityDân tộc thiểu số ReportBáo cáo," a famousnổi danh scenebối cảnh
176
443813
2553
"Minority Report", 1 cảnh nổi tiếng
07:38
had TomTom CruiseHành trình walkđi bộ in a malltrung tâm mua sắm
177
446366
2576
có Tom Cruise đi trong siêu thị
07:40
and holographicHolographic personalizedcá nhân hoá advertisingquảng cáo
178
448942
3776
và biển quảng cáo 3D cá nhân hóa
07:44
would appearxuất hiện around him.
179
452718
1835
hiện ra xung quanh anh ấy.
07:46
Now, that moviebộ phim is setbộ in 2054,
180
454553
3227
Bộ phim đó được đặt trong bối cảnh năm 2054,
07:49
about 40 yearsnăm from now,
181
457780
1642
40 năm nữa tính từ bây giờ,
07:51
and as excitingthú vị as that technologyCông nghệ looksnhìn,
182
459422
2908
và cho dù công nghệ đó
xem ra đã gây chấn động vô cùng,
07:54
it alreadyđã vastlybao la underestimatesxuẩn
183
462330
2646
nó vẫn đánh giá quá thấp
07:56
the amountsố lượng of informationthông tin that organizationstổ chức
184
464976
2140
số lượng thông tin về bạn mà các tổ chức
07:59
can gathertụ họp about you, and how they can use it
185
467116
2483
thu thập được, và cách họ có thể sử dụng nó
08:01
to influenceảnh hưởng you in a way that you will not even detectphát hiện.
186
469599
3398
để chi phối bạn mà bạn cũng không phát hiện ra.
08:04
So as an examplethí dụ, this is anotherkhác experimentthí nghiệm
187
472997
2103
Một ví dụ nữa, đây là một thí nghiệm vẫn đang
08:07
actuallythực ra we are runningđang chạy, not yetchưa completedhoàn thành.
188
475100
2273
trong quá trình, chưa hoàn thành.
08:09
ImagineHãy tưởng tượng that an organizationcơ quan has accesstruy cập
189
477373
2319
Tưởng tượng rằng 1 tổ chức có thể truy cập
08:11
to your listdanh sách of FacebookFacebook friendsbạn bè,
190
479692
2056
vào danh sách bạn bè Facebook của bạn,
08:13
and throughxuyên qua some kindloại of algorithmthuật toán
191
481748
1772
và bằng thuật toán nào đó
08:15
they can detectphát hiện the two friendsbạn bè that you like the mostphần lớn.
192
483520
3734
có thể tìm ra 2 người bạn mà bạn quý nhất.
08:19
And then they createtạo nên, in realthực time,
193
487254
2280
Và họ tạo ra, trong thực tế,
08:21
a facialda mặt compositecomposite of these two friendsbạn bè.
194
489534
2842
1 khuôn mặt kết hợp 2 người bạn này.
08:24
Now studieshọc priortrước to ourscủa chúng tôi have shownđược hiển thị that people
195
492376
3069
Nhiều nghiên cứu trước chúng tôi đã chỉ ra
08:27
don't recognizenhìn nhận any longerlâu hơn even themselvesbản thân họ
196
495445
2885
con người không thể nhận ra chính họ
08:30
in facialda mặt compositesvật liệu composit, but they reactphản ứng
197
498330
2462
trong các khuôn mặt tổng hợp này,
08:32
to those compositesvật liệu composit in a positivetích cực mannercách thức.
198
500792
2117
nhưng vẫn phản ứng tích cực với chúng.
08:34
So nextkế tiếp time you are looking for a certainchắc chắn productsản phẩm,
199
502909
3415
Vậy nên lần tới khi bạn đang tìm mua 1 sản phẩm
08:38
and there is an adquảng cáo suggestinggợi ý you to buymua it,
200
506324
2559
và có 1 quảng cáo mời bạn mua
08:40
it will not be just a standardTiêu chuẩn spokespersonngười phát ngôn.
201
508883
2907
đó sẽ không chỉ là một phát ngôn viên bất kì.
08:43
It will be one of your friendsbạn bè,
202
511790
2313
Đó sẽ là 1 người trong số bạn bè của bạn,
08:46
and you will not even know that this is happeningxảy ra.
203
514103
3303
và bạn thậm chí sẽ không biết điều này đang xảy ra.
08:49
Now the problemvấn đề is that
204
517406
2413
Vấn đề bây giờ là
08:51
the currenthiện hành policychính sách mechanismscơ chế we have
205
519819
2519
cơ chế chính sách hiện có
08:54
to protectbảo vệ ourselveschúng ta from the abuseslạm dụng of personalcá nhân informationthông tin
206
522338
3438
để bảo vệ chúng ta khỏi lạm dụng thông tin cá nhân
08:57
are like bringingđưa a knifedao to a gunfightgunfight.
207
525776
2984
chỉ giống như là dao đấu với súng.
09:00
One of these mechanismscơ chế is transparencyminh bạch,
208
528760
2913
Một trong những cơ chế đó là sự minh bạch
09:03
tellingnói people what you are going to do with theirhọ datadữ liệu.
209
531673
3200
nói rõ bạn sẽ làm gì với
thông tin cá nhân của người khác.
09:06
And in principlenguyên tắc, that's a very good thing.
210
534873
2106
Trên lý thuyết, đó là điều rất tốt.
09:08
It's necessarycần thiết, but it is not sufficientđầy đủ.
211
536979
3667
Nó là cần thiết, nhưng chưa đủ.
09:12
TransparencyMinh bạch can be misdirectedmisdirected.
212
540646
3698
Sự minh bạch có thể lạc lối.
09:16
You can tell people what you are going to do,
213
544344
2104
Bạn có thể nói với mọi người bạn sẽ làm gì
09:18
and then you still nudgedi chuyển them to disclosetiết lộ
214
546448
2232
và vẫn tiếp tục dụ họ nói ra
09:20
arbitrarytùy tiện amountslượng of personalcá nhân informationthông tin.
215
548680
2623
thông tin cá nhân một cách ngẫu nhiên.
09:23
So in yetchưa anotherkhác experimentthí nghiệm, this one with studentssinh viên,
216
551303
2886
Trong một thí nghiệm nữa, lần này với sinh viên
09:26
we askedyêu cầu them to providecung cấp informationthông tin
217
554189
3058
chúng tôi đề nghị họ cung cấp thông tin
09:29
about theirhọ campuskhuôn viên behaviorhành vi,
218
557247
1813
về hoạt động trong trường của họ
09:31
includingkể cả prettyđẹp sensitivenhạy cảm questionscâu hỏi, suchnhư là as this one.
219
559060
2940
bao gồm cả những câu hỏi nhạy cảm, ví dụ:
09:34
[Have you ever cheatedbị lừa in an examkỳ thi?]
220
562000
621
[Bạn đã bao giờ gian lận trong thi cử chưa?]
09:34
Now to one groupnhóm of subjectsđối tượng, we told them,
221
562621
2300
Với 1 nhóm sinh viên, chúng tôi nói với họ
09:36
"Only other studentssinh viên will see your answerscâu trả lời."
222
564921
2841
"Chỉ có các sinh viên khác
được xem câu trả lời của bạn."
09:39
To anotherkhác groupnhóm of subjectsđối tượng, we told them,
223
567762
1579
Với 1 nhóm khác, chúng tôi nói là
09:41
"StudentsSinh viên and facultygiảng viên will see your answerscâu trả lời."
224
569341
3561
"Sinh viên cũng như giáo viên
sẽ xem câu trả lời của bạn."
09:44
TransparencyMinh bạch. NotificationThông báo. And sure enoughđủ, this workedđã làm việc,
225
572902
2591
Minh bạch. Thông báo.
Chắc chắn là nó phải hiệu quả,
09:47
in the sensegiác quan that the first groupnhóm of subjectsđối tượng
226
575493
1407
vì nhóm đầu tiên tiết lộ thông tin với tỉ lệ
09:48
were much more likelycó khả năng to disclosetiết lộ than the secondthứ hai.
227
576900
2568
cao hơn nhiều so với nhóm thứ hai.
09:51
It makeslàm cho sensegiác quan, right?
228
579468
1520
Có lý, phải không?
09:52
But then we addedthêm the misdirectionmisdirection.
229
580988
1490
Nhưng chúng tôi thêm vào một chỉ dẫn gây rối
09:54
We repeatedlặp đi lặp lại the experimentthí nghiệm with the sametương tự two groupscác nhóm,
230
582478
2760
Chúng tôi thực hiện lại thí nghiệm với 2 nhóm đó
09:57
this time addingthêm a delaysự chậm trễ
231
585238
2427
lần này thêm vào một khoảng chờ đợi
09:59
betweengiữa the time we told subjectsđối tượng
232
587665
2935
giữa lúc chúng tôi nói với chủ thể
10:02
how we would use theirhọ datadữ liệu
233
590600
2080
cách chúng tôi sử dụng dữ liệu
10:04
and the time we actuallythực ra startedbắt đầu answeringtrả lời the questionscâu hỏi.
234
592680
4388
và lúc họ bắt đầu trả lời câu hỏi.
10:09
How long a delaysự chậm trễ do you think we had to addthêm vào
235
597068
2561
Bạn nghĩ rằng phải chậm bao lâu
10:11
in ordergọi món to nullifyvô hiệu hóa the inhibitoryức chế effecthiệu ứng
236
599629
4613
để vô hiệu hóa tác dụng ngăn cản
10:16
of knowingbiết that facultygiảng viên would see your answerscâu trả lời?
237
604242
3411
khi chủ thể biết là giáo viên sẽ
xem câu trả lời của họ?
10:19
TenMười minutesphút?
238
607653
1780
10 phút?
10:21
FiveNăm minutesphút?
239
609433
1791
5 phút?
10:23
One minutephút?
240
611224
1776
1 phút?
10:25
How about 15 secondsgiây?
241
613000
2049
15 giây thì sao?
10:27
FifteenMười lăm secondsgiây were sufficientđầy đủ to have the two groupscác nhóm
242
615049
2668
15 giây là đủ để cả 2 nhóm
10:29
disclosetiết lộ the sametương tự amountsố lượng of informationthông tin,
243
617717
1568
tiết lộ lượng thông tin như nhau
10:31
as if the secondthứ hai groupnhóm now no longerlâu hơn caresquan tâm
244
619285
2746
như thể là nhóm thứ 2 không quan tâm
10:34
for facultygiảng viên readingđọc hiểu theirhọ answerscâu trả lời.
245
622031
2656
giáo viên có đọc câu trả lời của họ hay không.
10:36
Now I have to admitthừa nhận that this talk so farxa
246
624687
3336
Bây giờ tôi phải thừa nhận là cuộc nói chuyện này
10:40
mayTháng Năm soundâm thanh exceedinglyvượt gloomyảm đạm,
247
628023
2480
có vẻ cực kì u ám,
10:42
but that is not my pointđiểm.
248
630503
1721
nhưng đó không phải là tôi muốn nói.
10:44
In factthực tế, I want to sharechia sẻ with you the factthực tế that
249
632224
2699
Thực ra, tôi muốn chia sẻ với các bạn
10:46
there are alternativeslựa chọn thay thế.
250
634923
1772
những khả năng khác.
10:48
The way we are doing things now is not the only way
251
636695
2499
Cách chúng ta làm việc hiện giờ không phải
10:51
they can donelàm xong, and certainlychắc chắn not the besttốt way
252
639194
3037
cách duy nhất, và chắc chắn
không phải là cách tốt nhất
10:54
they can be donelàm xong.
253
642231
2027
để làm điều đó.
10:56
When someonengười nào tellsnói you, "People don't carequan tâm about privacysự riêng tư,"
254
644258
4171
Khi ai đó nói với bạn:
"Con người không quan tâm đến riêng tư,"
11:00
considerxem xét whetherliệu the gametrò chơi has been designedthiết kế
255
648429
2642
hãy nghĩ xem có phải cuộc chơi đã được thiết kế
11:03
and riggedlều so that they cannotkhông thể carequan tâm about privacysự riêng tư,
256
651071
2724
và sắp đặt để họ không thể quan tâm đến riêng tư
11:05
and comingđang đến to the realizationthực hiện that these manipulationsthao tác occurxảy ra
257
653795
3262
và nhận ra những mánh khóe này
11:09
is alreadyđã halfwaynửa chừng throughxuyên qua the processquá trình
258
657057
1607
đã là nửa đường trên quá trình
11:10
of beingđang ablecó thể to protectbảo vệ yourselfbản thân bạn.
259
658664
2258
bảo vệ bản thân bạn.
11:12
When someonengười nào tellsnói you that privacysự riêng tư is incompatiblekhông tương thích
260
660922
3710
Khi ai đó nói rằng sự riêng tư là đối nghịch với
11:16
with the benefitslợi ích of biglớn datadữ liệu,
261
664632
1849
ích lợi của dữ liệu khổng lồ,
11:18
considerxem xét that in the last 20 yearsnăm,
262
666481
2473
hãy nghĩ xem trong 20 năm qua
11:20
researchersCác nhà nghiên cứu have createdtạo technologiescông nghệ
263
668954
1917
nhà nghiên cứu đã tạo ra công nghệ
11:22
to allowcho phép virtuallyhầu như any electronicđiện tử transactionsgiao dịch
264
670871
3318
để đảm bảo thanh toán điện tử
11:26
to take placeđịa điểm in a more privacy-preservingbảo vệ quyền riêng tư mannercách thức.
265
674189
3749
giữ được quyền riêng tư cá nhân hơn.
11:29
We can browsetrình duyệt the InternetInternet anonymouslynặc danh.
266
677938
2555
Chúng ta có thể lướt web ẩn danh
11:32
We can sendgửi emailsemail that can only be readđọc
267
680493
2678
gửi emails mà chỉ có người nhận mới đọc được
11:35
by the intendeddự định recipientngười nhận, not even the NSANSA.
268
683171
3709
còn cả Cục An ninh Quốc gia cũng không đọc được
11:38
We can have even privacy-preservingbảo vệ quyền riêng tư datadữ liệu miningkhai thác mỏ.
269
686880
2997
Chúng ta thậm chí có thể khai thác dữ liệu
mà vẫn bảo đảm riêng tư
11:41
In other wordstừ ngữ, we can have the benefitslợi ích of biglớn datadữ liệu
270
689877
3894
Nói cách khác, chúng ta có thể hưởng ích lợi của
11:45
while protectingbảo vệ privacysự riêng tư.
271
693771
2132
dữ liệu khổng lồ mà vẫn bảo đảm riêng tư.
11:47
Of coursekhóa học, these technologiescông nghệ implybao hàm a shiftingchuyển
272
695903
3791
Tất nhiên, những công nghệ này gợi ý
11:51
of costGiá cả and revenuesdoanh thu
273
699694
1546
một sự chuyển biến về chi phí và thu nhập
11:53
betweengiữa datadữ liệu holderschủ sở hữu and datadữ liệu subjectsđối tượng,
274
701240
2107
giữa người nắm giữ dữ liệu
và người cung cấp dữ liệu.
11:55
which is why, perhapscó lẽ, you don't hearNghe more about them.
275
703347
3453
Đó có lẽ là lí do bạn không biết nhiều về họ.
11:58
Which bringsmang lại me back to the GardenSân vườn of EdenEden.
276
706800
3706
Và điều này mang tôi quay lại Vườn Địa Đàng.
12:02
There is a secondthứ hai privacysự riêng tư interpretationgiải thích
277
710506
2780
Có một cách hiểu khác về sự riêng tư
12:05
of the storycâu chuyện of the GardenSân vườn of EdenEden
278
713286
1809
trong câu chuyện trong Vườn Địa Đàng
12:07
which doesn't have to do with the issuevấn đề
279
715095
2096
mà không liên quan đến việc
12:09
of AdamAdam and EveĐêm giao thừa feelingcảm giác nakedtrần truồng
280
717191
2225
Adam và Eve khỏa thân
12:11
and feelingcảm giác ashamedhổ thẹn.
281
719416
2381
và cảm thấy xấu hổ.
12:13
You can find echoesâm vang of this interpretationgiải thích
282
721797
2781
Bạn có thể tìm hiểu về cách hiểu này
12:16
in JohnJohn Milton'sMilton's "ParadiseThiên đường LostBị mất."
283
724578
2782
trong cuốn "Paradise Lost" của John Milton.
12:19
In the gardenvườn, AdamAdam and EveĐêm giao thừa are materiallyvật chất contentNội dung.
284
727360
4197
Trong Vườn Địa Đàng, Adam and Eve
thỏa mãn về vật chất.
12:23
They're happyvui mừng. They are satisfiedhài lòng.
285
731557
2104
Họ hạnh phúc và hài lòng.
12:25
HoweverTuy nhiên, they alsocũng thế lackthiếu sót knowledgehiểu biết
286
733661
2293
Tuy nhiên, họ thiếu hiểu biết
12:27
and self-awarenesstự nhận thức.
287
735954
1640
và nhận thức về bản thân.
12:29
The momentchốc lát they eatăn the aptlyaptly namedđặt tên
288
737594
3319
Khoảnh khắc họ ăn
12:32
fruittrái cây of knowledgehiểu biết,
289
740913
1293
"trái cây trí tuệ"
12:34
that's when they discoverkhám phá themselvesbản thân họ.
290
742206
2605
là lúc họ phát hiện bản thân.
12:36
They becometrở nên awareý thức. They achieveHoàn thành autonomyquyền tự trị.
291
744811
4031
Họ ý thức được bản thân.
Họ đạt được quyền tự quyết.
12:40
The pricegiá bán to paytrả, howeverTuy nhiên, is leavingđể lại the gardenvườn.
292
748842
3126
Cái giá phải trả, tuy nhiên, là rời khỏi khu vườn.
12:43
So privacysự riêng tư, in a way, is bothcả hai the meanscó nghĩa
293
751968
3881
Nên sự riêng tư, 1 cách nào đó, vừa là phương tiện
12:47
and the pricegiá bán to paytrả for freedomsự tự do.
294
755849
2962
vừa là cái giá của tự do.
12:50
Again, marketersnhà tiếp thị tell us
295
758811
2770
Một lần nữa, nhà quảng cáo nói với chúng ta
12:53
that biglớn datadữ liệu and socialxã hội mediaphương tiện truyền thông
296
761581
3019
dữ liệu khổng lồ và mạng xã hội
12:56
are not just a paradisethiên đường of profitlợi nhuận for them,
297
764600
2979
không chỉ là thiên đường lợi nhuận cho họ
12:59
but a GardenSân vườn of EdenEden for the restnghỉ ngơi of us.
298
767579
2457
mà còn là Vườn Địa Đàng cho tất cả chúng ta.
13:02
We get freemiễn phí contentNội dung.
299
770036
1238
Chúng ta được nội dung miễn phí
13:03
We get to playchơi AngryTức giận BirdsChim. We get targetednhắm mục tiêu appsứng dụng.
300
771274
3123
được chơi Angry Birds,
nhận ứng dụng nhắm đến chúng ta.
13:06
But in factthực tế, in a fewvài yearsnăm, organizationstổ chức
301
774397
2897
Nhưng thực ra, trong vài năm tới, các tổ chức
13:09
will know so much about us,
302
777294
1609
sẽ biết quá nhiều về chúng ta,
13:10
they will be ablecó thể to infersuy ra our desiresham muốn
303
778903
2710
đến mức có thể suy luận ham muốn của chúng ta
13:13
before we even formhình thức them, and perhapscó lẽ
304
781613
2204
trước cả khi chúng ta có mong muốn đó,
13:15
buymua productscác sản phẩm on our behalfthay mặt
305
783817
2447
và có lẽ mua sản phẩm hộ chúng ta
13:18
before we even know we need them.
306
786264
2274
trước cả khi chúng ta biết mình cần sản phẩm đó.
13:20
Now there was one EnglishTiếng Anh authortác giả
307
788538
3237
Có một nhà văn người Anh
13:23
who anticipateddự kiến this kindloại of futureTương lai
308
791775
3045
đã tiên đoán tương lai như thế này
13:26
where we would tradebuôn bán away
309
794820
1405
khi mà chúng ta đánh đổi
13:28
our autonomyquyền tự trị and freedomsự tự do for comfortthoải mái.
310
796225
3548
quyền tự do tự quyết để lấy sự thoải mái
13:31
Even more so than GeorgeGeorge OrwellOrwell,
311
799773
2161
Thậm chí hơn cả George Orwell,
13:33
the authortác giả is, of coursekhóa học, AldousAldous HuxleyHuxley.
312
801934
2761
nhà văn đó, đương nhiên, là Aldous Huxley.
13:36
In "BraveDũng cảm NewMới WorldTrên thế giới," he imaginestưởng tượng a societyxã hội
313
804695
2854
Trong cuốn "Brave New World",
ông tưởng tượng một xã hội
13:39
where technologiescông nghệ that we createdtạo
314
807549
2171
nơi những công nghệ chúng ta chế tạo
13:41
originallyban đầu for freedomsự tự do
315
809720
1859
vốn để hướng đến tự do
13:43
endkết thúc up coercingcoercing us.
316
811579
2567
cuối cùng lại kìm buộc chúng ta.
13:46
HoweverTuy nhiên, in the booksách, he alsocũng thế offerscung cấp us a way out
317
814146
4791
Tuy nhiên, trong cuốn sách đó, ông cũng đưa ra
13:50
of that societyxã hội, similargiống to the pathcon đường
318
818937
3438
lối thoát khỏi xã hội như thế, giống như con đường
13:54
that AdamAdam and EveĐêm giao thừa had to followtheo to leaverời khỏi the gardenvườn.
319
822375
3955
Adam và Eve phải đi để rời khỏi Vườn Địa Đàng.
13:58
In the wordstừ ngữ of the SavageSavage,
320
826330
2147
Như Savage đã nói,
14:00
regaininggiành lại autonomyquyền tự trị and freedomsự tự do is possiblekhả thi,
321
828477
3069
chúng ta có thể lấy lại quyền tự quyết và tự do
14:03
althoughmặc dù the pricegiá bán to paytrả is steepdốc.
322
831546
2679
mặc dù cái giá phải trả sẽ rất đắt.
14:06
So I do believe that one of the definingxác định fightschiến đấu
323
834225
5715
Tôi tin rằng, một trong những cuộc chiến điển hình
14:11
of our timeslần will be the fightchiến đấu
324
839940
2563
của thời nay sẽ là cuộc chiến
14:14
for the controlđiều khiển over personalcá nhân informationthông tin,
325
842503
2387
giành quyền điều khiển thông tin cá nhân
14:16
the fightchiến đấu over whetherliệu biglớn datadữ liệu will becometrở nên a forcelực lượng
326
844890
3507
để quyết định dữ liệu khổng lồ sẽ trở thành
14:20
for freedomsự tự do,
327
848397
1289
thế lực cho tự do
14:21
ratherhơn than a forcelực lượng which will hiddenlyhiddenly manipulatevận dụng us.
328
849686
4746
chứ không phải là thế lực
ngấm ngầm chi phối chúng ta .
14:26
Right now, manynhiều of us
329
854432
2593
Ngay bây giờ, rất nhiều trong số chúng ta
14:29
do not even know that the fightchiến đấu is going on,
330
857025
2753
thậm chí không biết cuộc chiến này đang diễn ra
14:31
but it is, whetherliệu you like it or not.
331
859778
2672
nhưng nó đang diễn ra, dù bạn muốn hay không.
14:34
And at the riskrủi ro of playingđang chơi the serpentcon rắn,
332
862450
2804
Và trước nguy cơ đùa với rắn hổ mang,
14:37
I will tell you that the toolscông cụ for the fightchiến đấu
333
865254
2897
tôi sẽ nói cho bạn biết rằng
công cụ cho cuộc chiến
14:40
are here, the awarenessnhận thức of what is going on,
334
868151
3009
là ở ngay đây, trong nhận thức
về những gì đang diễn ra
14:43
and in your handstay,
335
871160
1355
và ở trong tay bạn,
14:44
just a fewvài clicksnhấp chuột away.
336
872515
3740
chỉ cách bạn một vài clicks chuột.
14:48
Thank you.
337
876255
1482
Xin cảm ơn!
14:49
(ApplauseVỗ tay)
338
877737
4477
(Vỗ tay)
Translated by Hanh Lan Hoang Thi
Reviewed by Nam Nguyen Cong

▲Back to top

ABOUT THE SPEAKER
Alessandro Acquisti - Privacy economist
What motivates you to share your personal information online? Alessandro Acquisti studies the behavioral economics of privacy (and information security) in social networks.

Why you should listen

Online, we humans are paradoxical: We cherish privacy, but freely disclose our personal information in certain contexts. Privacy economics offers a powerful lens to understand this paradox, and the field has been spearheaded by Alessandro Acquisti and his colleagues' analyses of how we decide what to share online and what we get in return.

His team's surprising studies on facial recognition software showed that it can connect an anonymous human face to an online name -- and then to a Facebook account -- in about 3 seconds. Other work shows how easy it can be to find a US citizen's Social Security number using basic pattern matching on public data. Work like this earned him an invitation to testify before a US Senate committee on the impact technology has on civil liberties.

Read about his work in the New York Times »

More profile about the speaker
Alessandro Acquisti | Speaker | TED.com