ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDSummit

Zeynep Tufekci: Machine intelligence makes human morals more important

Zeynep Tufekci: Trí tuệ nhân tạo khiến đạo đức con người trở nên quan trọng hơn.

Filmed:
1,648,711 views

Trí tuệ nhân tạo đang ở đây, và chúng ta sử dụng nó để đưa ra những quyết định chủ quan. Nhưng cách thức phức tạp mà TTNT phát triển và hoàn thiện làm cho nó trở nên khó hiểu và thậm chí khó kiểm soát hơn. Trong bài nói chuyện thận trọng này, nhà kỹ thuật xã hội học Zeynep Tufekci giải thích việc các cỗ máy thông minh có thể trở nên như thế nào khi không phù hợp với các thiếu sót của con người - và theo những cách chúng ta không mong đợi hoặc không kịp chuẩn bị trước. "Chúng ta không thể giao phó trách nhiệm của mình vào máy móc", cô nói. "Chúng ta phải giữ chặt hơn các giá trị và đạo đức của con người."
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

Vì thế, tôi đã có công việc đầu tiên của mình
là một lập trình viên máy tính
00:12
So, I startedbắt đầu my first jobviệc làm
as a computermáy vi tính programmerlập trình viên
0
739
4122
ngay trong những năm học đại học đầu tiên
00:16
in my very first yearnăm of collegetrường đại học --
1
4885
1956
về cơ bản, khi vẫn là một thiếu niên
00:18
basicallyvề cơ bản, as a teenagerthiếu niên.
2
6865
1507
Không lâu sau khi tôi bắt đầu công việc,
00:20
SoonSớm after I startedbắt đầu workingđang làm việc,
3
8889
1732
00:22
writingviết softwarephần mềm in a companyCông ty,
4
10645
1610
trong lúc đang viết phần mềm cho công ty,
00:24
a managergiám đốc who workedđã làm việc at the companyCông ty
cameđã đến down to where I was,
5
12799
3635
thì người quản lý ở đó tiến đến chỗ tôi
00:28
and he whisperedthì thầm to me,
6
16458
1268
và thì thầm vào tai tôi
00:30
"Can he tell if I'm lyingnói dối?"
7
18229
2861
"Hắn có phát hiện nếu tôi nói dối không?"
00:33
There was nobodykhông ai elsekhác in the roomphòng.
8
21806
2077
Không có một ai khác trong phòng cả.
"Ai có thể nhận ra anh đang nói dối?"
"Và tại sao ta phải nói thầm?"
00:37
"Can who tell if you're lyingnói dối?
And why are we whisperingthì thầm?"
9
25032
4389
Ông quản lý chỉ tay vào chiếc máy tính
trong phòng.
00:42
The managergiám đốc pointednhọn
at the computermáy vi tính in the roomphòng.
10
30266
3107
00:45
"Can he tell if I'm lyingnói dối?"
11
33397
3096
"Hắn có phát hiện nếu tôi nói dối không?"
00:49
Well, that managergiám đốc was havingđang có
an affairngoại tình with the receptionistnhân viên Lễ tân.
12
37613
4362
Vâng, ông quản lý này đang ngoại tình
với cô tiếp tân.
00:53
(LaughterTiếng cười)
13
41999
1112
( Cười)
00:55
And I was still a teenagerthiếu niên.
14
43135
1766
Và tôi vẫn chỉ là một đứa oắt con.
00:57
So I whisper-shoutedhét lên tiếng thì thầm back to him,
15
45447
2019
nên tôi nói thầm lại với anh ta,
00:59
"Yes, the computermáy vi tính can tell
if you're lyingnói dối."
16
47490
3624
" Có chứ, nó biết khi nào
ông nói dối đấy."
01:03
(LaughterTiếng cười)
17
51138
1806
(Cười)
01:04
Well, I laughedcười, but actuallythực ra,
the laugh'scủa cười on me.
18
52968
2923
Vâng, tôi cười nhưng thực ra
là cười bản thân.
01:07
NowadaysNgày nay, there are computationaltính toán systemshệ thống
19
55915
3268
Ngày nay, có những hệ thống máy tính
01:11
that can susssuss out
emotionalđa cảm statestiểu bang and even lyingnói dối
20
59207
3548
có thể nhận diện trạng thái cảm xúc,
ngay cả việc nói dối
01:14
from processingChế biến humanNhân loại faceskhuôn mặt.
21
62779
2044
thông qua phân tích nhân diện.
01:17
AdvertisersNhà quảng cáo and even governmentscác chính phủ
are very interestedquan tâm.
22
65248
4153
Các nhà quảng cáo và thậm chí cả
chính quyền rất hứng thú với điều này.
01:22
I had becometrở nên a computermáy vi tính programmerlập trình viên
23
70319
1862
Tôi đã trở thành 1 lập trình viên
01:24
because I was one of those kidstrẻ em
crazykhùng about mathmôn Toán and sciencekhoa học.
24
72205
3113
vì tôi từng là đứa trẻ say mê Toán và
Khoa học.
01:27
But somewheremột vài nơi alongdọc theo the linehàng
I'd learnedđã học about nuclearNguyên tử weaponsvũ khí,
25
75942
3108
Nhưng khoảng thời gian đó, tôi cũng học
về vũ khí hạt nhân.
01:31
and I'd gottennhận really concernedliên quan
with the ethicsĐạo Đức of sciencekhoa học.
26
79074
2952
và tôi trở nên rất quan ngại về vấn đề
đạo đức của khoa học.
01:34
I was troubledgặp rắc rối.
27
82050
1204
Tôi đã rất bối rối.
01:35
HoweverTuy nhiên, because of familygia đình circumstanceshoàn cảnh,
28
83278
2641
Tuy nhiên, do hoàn cảnh gia đình,
01:37
I alsocũng thế neededcần to startkhởi đầu workingđang làm việc
as soonSớm as possiblekhả thi.
29
85943
3298
tôi cần phải bắt đầu làm việc
càng sớm càng tốt.
01:41
So I thought to myselfriêng tôi, hey,
let me pickchọn a technicalkỹ thuật fieldcánh đồng
30
89265
3299
Vì vậy nên tôi nói với bản thân,
này, hãy chọn một ngành kỹ thuật
01:44
where I can get a jobviệc làm easilydễ dàng
31
92588
1796
giúp tôi có thể dễ dàng kiếm việc
01:46
and where I don't have to dealthỏa thuận
with any troublesomerắc rối questionscâu hỏi of ethicsĐạo Đức.
32
94408
4018
mà lại không phải quan tâm đến những
câu hỏi đạo đức phiền phức.
01:51
So I pickedđã chọn computersmáy vi tính.
33
99022
1529
Vì vậy nên tôi chọn máy tính.
01:52
(LaughterTiếng cười)
34
100575
1104
(Cười lớn)
01:53
Well, haha, haha, haha!
All the laughscười are on me.
35
101703
3410
Vậy đấy! haha
Tôi cười vì chính mình!
01:57
NowadaysNgày nay, computermáy vi tính scientistscác nhà khoa học
are buildingTòa nhà platformsnền tảng
36
105137
2754
Ngày nay, các nhà khoa học máy tính
xây dựng hệ điều hành
01:59
that controlđiều khiển what a billiontỷ
people see everymỗi day.
37
107915
4209
có thể điều khiển thứ mà một tỉ người
xem hằng ngày.
02:05
They're developingphát triển carsxe hơi
that could decidequyết định who to runchạy over.
38
113052
3822
Họ đang phát triển những chiếc xe có thể
tự quyết định nó sẽ cán qua ai.
02:09
They're even buildingTòa nhà machinesmáy móc, weaponsvũ khí,
39
117707
3213
Họ thậm chí còn đang tạo ra nhiều
máy móc, vũ khí,
02:12
that mightcó thể killgiết chết humanNhân loại beingschúng sanh in warchiến tranh.
40
120944
2285
có thể tiêu diệt loài người
trong chiến tranh.
02:15
It's ethicsĐạo Đức all the way down.
41
123253
2771
Chung quy lại đều liên quan tới đạo đức
02:19
MachineMáy intelligenceSự thông minh is here.
42
127183
2058
Trí tuệ nhân tạo là đây.
02:21
We're now usingsử dụng computationtính toán
to make all sortsắp xếp of decisionsquyết định,
43
129823
3474
Ta không chỉ sử dụng những thuật toán để
đưa ra mọi quyết định
02:25
but alsocũng thế newMới kindscác loại of decisionsquyết định.
44
133321
1886
mà còn cả những chuyện chưa từng xảy ra
02:27
We're askinghỏi questionscâu hỏi to computationtính toán
that have no singleĐộc thân right answerscâu trả lời,
45
135231
5172
Ta đưa cho máy móc những câu hỏi không có
một đáp án đúng nào cả,
02:32
that are subjectivechủ quan
46
140427
1202
những câu hỏi chủ quan
02:33
and open-endedmở and value-ladengiá trị-laden..
47
141653
2325
những câu hỏi mở và mang tính giả định.
02:36
We're askinghỏi questionscâu hỏi like,
48
144002
1758
Chúng ta hỏi những câu hỏi như,
02:37
"Who should the companyCông ty hirethuê mướn?"
49
145784
1650
"Công ty nên thuê ai?"
02:40
"Which updatecập nhật from which friendngười bạn
should you be shownđược hiển thị?"
50
148096
2759
"Những gì bạn nên được biết từ bạn bè?"
02:42
"Which convicttù nhân is more
likelycó khả năng to reoffendreoffend?"
51
150879
2266
"Phạm nhân nào có khả năng tái phạm cao?"
02:45
"Which newsTin tức itemmục or moviebộ phim
should be recommendedkhuyến cáo to people?"
52
153514
3054
"Dòng tin hay bộ phim nào nên được
đề xuất cho mọi người?"
02:48
Look, yes, we'vechúng tôi đã been usingsử dụng
computersmáy vi tính for a while,
53
156592
3372
Nhìn xem, đúng, chúng ta đã sử dụng
máy tính một thời gian dài,
02:51
but this is differentkhác nhau.
54
159988
1517
nhưng lần này thì khác.
02:53
This is a historicallịch sử twisttwist,
55
161529
2067
Đây là một bước ngoặt lịch sử,
02:55
because we cannotkhông thể anchormỏ neo computationtính toán
for suchnhư là subjectivechủ quan decisionsquyết định
56
163620
5337
vì ta không thể trông cậy vào sự tính
toán cho các quyết định chủ quan thế này
03:00
the way we can anchormỏ neo computationtính toán
for flyingbay airplanesmáy bay, buildingTòa nhà bridgescầu,
57
168981
5420
như cái cách chúng ta dựa vào nó
để lái máy bay, xây cầu,
03:06
going to the moonmặt trăng.
58
174425
1259
để đi lên mặt trăng.
03:08
Are airplanesmáy bay saferan toàn hơn?
Did the bridgecầu swaylắc lư and fallngã?
59
176449
3259
Máy bay liệu có an toàn hơn?
Cây cầu có lắc lư và sập không?
03:11
There, we have agreed-uponthỏa thuận,
fairlycông bằng cleartrong sáng benchmarksđiểm chuẩn,
60
179732
4498
Thế đấy, chúng ta đều có một chuẩn mực
thống nhất và khá rõ ràng,
03:16
and we have lawspháp luật of naturethiên nhiên to guidehướng dẫn us.
61
184254
2239
và ta có những quy luật của tự nhiên
hướng dẫn.
03:18
We have no suchnhư là anchorsneo and benchmarksđiểm chuẩn
62
186517
3394
Chúng ta không hề có những điểm tựa hay
tiêu chuẩn như vậy
03:21
for decisionsquyết định in messylộn xộn humanNhân loại affairsvấn đề.
63
189935
3963
cho các quyết định về những vấn đề
phức tạp của con người.
03:25
To make things more complicatedphức tạp,
our softwarephần mềm is gettingnhận được more powerfulquyền lực,
64
193922
4237
Để làm vấn đề phức tạp hơn, phần mềm
của ta ngày càng trở nên hùng mạnh,
03:30
but it's alsocũng thế gettingnhận được lessít hơn
transparenttrong suốt and more complexphức tạp.
65
198183
3773
nhưng nó đồng thời trở nên khó hiểu
và phức tạp hơn.
03:34
RecentlyGần đây, in the pastquá khứ decadethập kỷ,
66
202542
2040
Gần đây, trong thập kỷ gần đây,
03:36
complexphức tạp algorithmsthuật toán
have madethực hiện great stridesbước tiến dài.
67
204606
2729
các thuật toán phức tạp đã đạt được
những bước tiến lớn.
03:39
They can recognizenhìn nhận humanNhân loại faceskhuôn mặt.
68
207359
1990
Chúng có thể nhận diện khuôn mặt người.
03:41
They can deciphergiải mã handwritingchữ viết tay.
69
209985
2055
Chúng có thể giải mã được chữ viết tay.
03:44
They can detectphát hiện credittín dụng cardThẻ fraudgian lận
70
212436
2066
Chúng có thể nhận biết thẻ tín dụng giả
03:46
and blockkhối spamRAC
71
214526
1189
và chặn tin rác
03:47
and they can translatedịch betweengiữa languagesngôn ngữ.
72
215739
2037
và chúng có thể phiên dịch ngôn ngữ.
03:49
They can detectphát hiện tumorskhối u in medicalY khoa imaginghình ảnh.
73
217800
2574
Chúng có thể phát hiện khối u trong
phim chụp y khoa.
03:52
They can beattiết tấu humanscon người in chesscờ vua and Go.
74
220398
2205
Chúng đánh bại con người
trong cờ vua và Go.
03:55
Much of this progresstiến độ comesđến
from a methodphương pháp calledgọi là "machinemáy móc learninghọc tập."
75
223264
4504
Đa phần những tiến bộ này đến từ
phương pháp "máy tính tự học"
04:00
MachineMáy learninghọc tập is differentkhác nhau
than traditionaltruyên thông programminglập trình,
76
228175
3187
Máy tính tự học khác với lập trình
truyền thống,
04:03
where you give the computermáy vi tính
detailedchi tiết, exactchính xác, painstakingpainstaking instructionshướng dẫn.
77
231386
3585
ở chỗ bạn đưa ra những hướng dẫn
cụ thể, chính xác, kỹ lưỡng cho máy tính.
04:07
It's more like you take the systemhệ thống
and you feednuôi it lots of datadữ liệu,
78
235378
4182
Đúng hơn là bạn cho một đống dữ liệu
vào hệ thống,
04:11
includingkể cả unstructuredkhông có cấu trúc datadữ liệu,
79
239584
1656
bao gồm dữ liệu chưa được
sắp xếp,
04:13
like the kindloại we generatetạo ra
in our digitalkỹ thuật số livescuộc sống.
80
241264
2278
như loại chúng ta tạo ra trong thế giới số
04:15
And the systemhệ thống learnshọc
by churningkhuấy throughxuyên qua this datadữ liệu.
81
243566
2730
Và hệ thống học bằng cách lướt qua
các dữ liệu này.
04:18
And alsocũng thế, cruciallyquan trọng trong,
82
246669
1526
Và quan trọng hơn,
04:20
these systemshệ thống don't operatevận hành
underDưới a single-answerSingle-trả lời logiclogic.
83
248219
4380
những hệ thống này không hoạt động dựa
trên logic một-câu-trả-lời-duy-nhất.
04:24
They don't producesản xuất a simpleđơn giản answercâu trả lời;
it's more probabilisticxác suất:
84
252623
2959
Chúng không cho ra câu trả lời đơn giản mà
có tính xác suất hơn
04:27
"This one is probablycó lẽ more like
what you're looking for."
85
255606
3483
"Cái này có nhiều khả năng là cái bạn
đang muốn tìm."
04:32
Now, the upsidelộn ngược is:
this methodphương pháp is really powerfulquyền lực.
86
260023
3070
Lợi thế ở đây là: biện pháp này
rất hiệu quả.
04:35
The headcái đầu of Google'sCủa Google AIAI systemshệ thống calledgọi là it,
87
263117
2076
Trưởng hệ thống Al của Google gọi nó là,
04:37
"the unreasonablebất hợp lý effectivenesshiệu quả of datadữ liệu."
88
265217
2197
"sự hiệu quả bất hợp lý của dữ liệu."
04:39
The downsidenhược điểm is,
89
267791
1353
Bất lợi ở đây là,
04:41
we don't really understandhiểu không
what the systemhệ thống learnedđã học.
90
269738
3071
ta không thật sự hiểu cái mà hệ thống
học được.
04:44
In factthực tế, that's its powerquyền lực.
91
272833
1587
Thực tế, đó là sức mạnh của nó.
04:46
This is lessít hơn like givingtặng
instructionshướng dẫn to a computermáy vi tính;
92
274946
3798
Cái này khác với việc đưa ra hướng dẫn
cho máy tính;
04:51
it's more like trainingđào tạo
a puppy-machine-creatureChó máy sinh vật
93
279200
4064
Nó giống hơn với việc huấn luyện một loại
chó cưng bằng máy
04:55
we don't really understandhiểu không or controlđiều khiển.
94
283288
2371
mà chúng ta không thật sự hiểu
hay kiểm soát.
04:58
So this is our problemvấn đề.
95
286362
1551
Vậy nên đó là vấn đề của ta.
05:00
It's a problemvấn đề when this artificialnhân tạo
intelligenceSự thông minh systemhệ thống getsđược things wrongsai rồi.
96
288427
4262
Nó là vấn đề khi mà hệ thống
trí tuệ nhân tạo hiểu sai sự việc.
05:04
It's alsocũng thế a problemvấn đề
when it getsđược things right,
97
292713
3540
Nó cũng là vấn đề khi nó hiểu đúng
sự việc,
05:08
because we don't even know which is which
when it's a subjectivechủ quan problemvấn đề.
98
296277
3628
bởi vì chúng ta không thể phân biệt được
khi nó là một vấn đề chủ quan.
05:11
We don't know what this thing is thinkingSuy nghĩ.
99
299929
2339
Chúng ta không biết được vật này
đang nghĩ gì.
05:15
So, considerxem xét a hiringthuê algorithmthuật toán --
100
303493
3683
Thử xem xét một thuật toán thuê --
05:20
a systemhệ thống used to hirethuê mướn people,
usingsử dụng machine-learningmáy tính học tập systemshệ thống.
101
308123
4311
một hệ thống dùng để thuê nhân viên,
dựa vào hệ thống máy móc tự học.
05:25
SuchNhư vậy a systemhệ thống would have been trainedđào tạo
on previousTrước employees'nhân viên datadữ liệu
102
313052
3579
Một hệ thống như vậy sẽ được đào tạo
dựa trên dự liệu của nhân viên cũ
05:28
and instructedhướng dẫn to find and hirethuê mướn
103
316655
2591
và được hướng dẫn để tìm và thuê
05:31
people like the existinghiện tại
highcao performersbiểu diễn in the companyCông ty.
104
319270
3038
những người tương tự với nhân viên
xuất sắc hiện có ở công ty.
05:34
SoundsÂm thanh good.
105
322814
1153
Nghe có vẻ tốt đấy.
05:35
I onceMột lần attendedtham dự a conferencehội nghị
106
323991
1999
Tôi từng tham dự một hội nghị
05:38
that broughtđưa togethercùng với nhau
humanNhân loại resourcestài nguyên managerscán bộ quản lý and executivesGiám đốc điều hành,
107
326014
3125
bao gồm quản lý nhân sự và các lãnh đạo,
05:41
high-levelcấp độ cao people,
108
329163
1206
những nhân vật cấp cao,
05:42
usingsử dụng suchnhư là systemshệ thống in hiringthuê.
109
330393
1559
dùng hệ thống như vậy khi thuê
05:43
They were supersiêu excitedbị kích thích.
110
331976
1646
Họ cực kỳ phấn khích về việc đó.
05:45
They thought that this would make hiringthuê
more objectivemục tiêu, lessít hơn biasedcó thành kiến,
111
333646
4653
Họ nghĩ rằng hệ thống này sẽ giúp việc
thuê người khách quan và ít thiên vị hơn,
05:50
and give womenđàn bà
and minoritiesdân tộc thiểu số a better shotbắn
112
338323
3000
và cho phụ nữ và người thiểu số
một cơ hội tốt hơn
05:53
againstchống lại biasedcó thành kiến humanNhân loại managerscán bộ quản lý.
113
341347
2188
chống lại những người quản lý thiên vị.
05:55
And look -- humanNhân loại hiringthuê is biasedcó thành kiến.
114
343559
2843
Đúng là người thuê người thường
có sự thiên vị.
05:59
I know.
115
347099
1185
Tôi biết vậy.
06:00
I mean, in one of my earlysớm jobscông việc
as a programmerlập trình viên,
116
348308
3005
Trong những việc đầu tiên của tôi với
vai trò lập trình viên,
06:03
my immediatengay lập tức managergiám đốc would sometimesđôi khi
come down to where I was
117
351337
3868
quản lý trực tiếp của tôi thỉnh thoảng
sẽ đến chỗ tôi
06:07
really earlysớm in the morningbuổi sáng
or really latemuộn in the afternoonbuổi chiều,
118
355229
3753
rất sớm vào buổi sáng hoặc rất muộn
vào buổi chiều,
06:11
and she'dcô ấy say, "ZeynepZeynep,
let's go to lunchBữa trưa!"
119
359006
3062
để nói, "Zeynep, cùng đi ăn trưa nào!"
06:14
I'd be puzzledbối rối by the weirdkỳ dị timingthời gian.
120
362724
2167
Tôi bị bối rối bởi giờ giấc
thất thường.
06:16
It's 4pmAM. LunchĂn trưa?
121
364915
2129
Bây giờ là 4g chiều mà ăn trưa ư?
06:19
I was brokeđã phá vỡ, so freemiễn phí lunchBữa trưa. I always wentđã đi.
122
367068
3094
Tôi thì thiếu tiền, mà bữa trưa miễn phí.
Cho nên tôi luôn đi
06:22
I latermột lát sau realizedthực hiện what was happeningxảy ra.
123
370618
2067
Sau đó tôi nhận ra chuyện gì
đang diễn ra.
06:24
My immediatengay lập tức managerscán bộ quản lý
had not confessedthú nhận to theirhọ higher-upsHigher-UPS
124
372709
4546
Những quản lý trực tiếp của tôi chưa hề
thông báo với cấp trên
06:29
that the programmerlập trình viên they hiredthuê
for a seriousnghiêm trọng jobviệc làm was a teenthiếu niên girlcon gái
125
377279
3113
rằng lập trình viên họ thuê cho việc
quan trọng là một thiếu nữ
06:32
who woređeo jeansQuần jean and sneakersgiày chơi quần vợt to work.
126
380416
3930
mặc quần jeans và đi giày thể thao đi làm.
06:37
I was doing a good jobviệc làm,
I just lookednhìn wrongsai rồi
127
385174
2202
Tôi làm tốt việc, chỉ ăn mặc không đúng
06:39
and was the wrongsai rồi agetuổi tác and gendergiới tính.
128
387400
1699
và sai độ tuổi và giới tính.
06:41
So hiringthuê in a gender-giới tính- and race-blindcuộc đua mù way
129
389123
3346
Cho nên việc tuyển chọn không dựa theo
giới tính và sắc tộc
06:44
certainlychắc chắn soundsâm thanh good to me.
130
392493
1865
rõ ràng tốt cho tôi.
06:47
But with these systemshệ thống,
it is more complicatedphức tạp, and here'sđây là why:
131
395031
3341
Nhưng với những hệ thống này, nó
phức tạp hơn, và đây là lý do:
06:50
CurrentlyHiện nay, computationaltính toán systemshệ thống
can infersuy ra all sortsloại of things about you
132
398968
5791
Bây giờ, hệ thống tính toán có thể đưa ra
đủ mọi loại kết luận vể bạn
06:56
from your digitalkỹ thuật số crumbsmẩu,
133
404783
1872
dựa trên những vết tích số của bạn,
06:58
even if you have not
disclosedtiết lộ those things.
134
406679
2333
ngay cả khi bạn không hề tiết lộ
những việc đó.
07:01
They can infersuy ra your sexualtình dục orientationđịnh hướng,
135
409506
2927
Chúng có thể đưa ra kết luận về xu hướng
tình dục của bạn,
07:04
your personalitynhân cách traitstính trạng,
136
412994
1306
tính cách bạn,
07:06
your politicalchính trị leaningsleanings.
137
414859
1373
quan điểm chính trị của bạn.
07:08
They have predictivetiên đoán powerquyền lực
with highcao levelscấp of accuracytính chính xác.
138
416830
3685
Chúng có sức mạnh dự đoán với
sự chuẩn xác cao.
07:13
RememberHãy nhớ -- for things
you haven'tđã không even disclosedtiết lộ.
139
421362
2578
Nhớ rằng - ngay cả những việc bạn
không hề tiết lộ.
07:15
This is inferencesuy luận.
140
423964
1591
Đây chỉ mới là việc suy luận
07:17
I have a friendngười bạn who developedđã phát triển
suchnhư là computationaltính toán systemshệ thống
141
425579
3261
Tôi có một người bạn thiết kế những
hệ thống tính toán như vậy
07:20
to predicttiên đoán the likelihoodkhả năng
of clinicallâm sàng or postpartumsau khi sinh depressionPhiền muộn
142
428864
3641
để dự đoán khả năng mắc bệnh trầm cảm
lâm sàng hoặc hậu thai sản
07:24
from socialxã hội mediaphương tiện truyền thông datadữ liệu.
143
432529
1416
từ những dự liệu truyền thông xã hội.
07:26
The resultscác kết quả are impressiveấn tượng.
144
434676
1427
Kết quả thật đáng ấn tượng.
07:28
Her systemhệ thống can predicttiên đoán
the likelihoodkhả năng of depressionPhiền muộn
145
436492
3357
Hệ thống của cô ấy có thể dự đoán được
khả năng mắc trầm cảm
07:31
monthstháng before the onsetkhởi đầu of any symptomstriệu chứng --
146
439873
3903
hàng tháng trước khi các triệu chứng
xuất hiện --
07:35
monthstháng before.
147
443800
1373
hàng tháng trước.
07:37
No symptomstriệu chứng, there's predictiondự đoán.
148
445197
2246
Không hề có triệu chứng, nhưng
lại có dự đoán.
07:39
She hopeshy vọng it will be used
for earlysớm interventioncan thiệp. Great!
149
447467
4812
Cô mong rằng nó được sử dụng cho việc
can thiệp sớm. Tuyệt vời!
07:44
But now put this in the contextbối cảnh of hiringthuê.
150
452911
2040
Nhưng giờ đặt nó vào viễn cảnh
tuyển chọn.
07:48
So at this humanNhân loại resourcestài nguyên
managerscán bộ quản lý conferencehội nghị,
151
456027
3046
Ở buổi họp quản lý nhân sự này,
07:51
I approachedtiếp cận a high-levelcấp độ cao managergiám đốc
in a very largelớn companyCông ty,
152
459097
4709
tôi tiếp cận một quản lý cấp cao của
một công ty lớn,
07:55
and I said to her, "Look,
what if, unbeknownstUnbeknownst to you,
153
463830
4578
và nói rằng, "Này, nếu như, ngoài sự
hiểu biết của bạn,
08:00
your systemhệ thống is weedingweeding out people
with highcao futureTương lai likelihoodkhả năng of depressionPhiền muộn?
154
468432
6549
hệ thống của bạn đang gạt bỏ người có thể
bị trầm cảm cao trong tương lai?
08:07
They're not depressedsuy sụp now,
just maybe in the futureTương lai, more likelycó khả năng.
155
475761
3376
Hiện tại họ không hề bị trầm cảm, chỉ là
trong tương lai có khả năng.
08:11
What if it's weedingweeding out womenđàn bà
more likelycó khả năng to be pregnantcó thai
156
479923
3406
Nếu như hệ thống loại bỏ những phụ nữ
có khả năng mang thai
08:15
in the nextkế tiếp yearnăm or two
but aren'tkhông phải pregnantcó thai now?
157
483353
2586
trong một vài năm tới nhưng hiện
không mang thai?
08:18
What if it's hiringthuê aggressivexâm lược people
because that's your workplacenơi làm việc culturenền văn hóa?"
158
486844
5636
Nếu nó chọn những người có tính hung hăng
vì đó là bản chất làm việc ở đây?"
08:25
You can't tell this by looking
at gendergiới tính breakdownssự cố.
159
493173
2691
Bạn không thể thấy điều này qua việc
xem tỉ lệ giới tính
08:27
Those mayTháng Năm be balancedcân bằng.
160
495888
1502
Điều đó có thể được
cân bằng.
08:29
And sincekể từ this is machinemáy móc learninghọc tập,
not traditionaltruyên thông codingmã hóa,
161
497414
3557
Và vì đây là máy móc tự học, chứ
không phải mã hóa truyền thống,
08:32
there is no variablebiến there
labeleddán nhãn "highercao hơn riskrủi ro of depressionPhiền muộn,"
162
500995
4907
không hề có một biến số nào có tên
"có khả năng trầm cảm cao",
08:37
"highercao hơn riskrủi ro of pregnancymang thai,"
163
505926
1833
"có khả năng mang thai cao",
08:39
"aggressivexâm lược guy scaletỉ lệ."
164
507783
1734
"tính cách hung hăng".
08:41
Not only do you not know
what your systemhệ thống is selectinglựa chọn on,
165
509995
3679
Bạn không chỉ không biết hệ thống của bạn
lựa chọn dựa trên tiêu chí gì,
08:45
you don't even know
where to beginbắt đầu to look.
166
513698
2323
bạn còn không biết phải bắt đầu
tìm từ đâu.
08:48
It's a blackđen boxcái hộp.
167
516045
1246
Nó là một hộp đen.
08:49
It has predictivetiên đoán powerquyền lực,
but you don't understandhiểu không it.
168
517315
2807
Nó có khả năng tiên đoán, nhưng bạn
không hiểu nó.
08:52
"What safeguardsbiện pháp bảo vệ," I askedyêu cầu, "do you have
169
520486
2369
Tôi hỏi cô, "Bạn có chốt an toàn nào
08:54
to make sure that your blackđen boxcái hộp
isn't doing something shadyShady?"
170
522879
3673
để đảm bảo rằng hộp đen của bạn
không làm gì mờ ám?"
09:00
She lookednhìn at me as if I had
just steppedbước lên on 10 puppycún yêu tailsđuôi.
171
528863
3878
Cô ấy nhìn tôi như thể tôi vừa đạp lên
10 cái đuôi chó.
09:04
(LaughterTiếng cười)
172
532765
1248
(Cười lớn)
09:06
She starednhìn chằm chằm at me and she said,
173
534037
2041
Cô nhìn tôi chằm chằm và nói,
09:08
"I don't want to hearNghe
anotherkhác wordtừ about this."
174
536556
4333
"Tôi không muốn nghe thêm một từ nào
về vấn đề này nữa."
09:13
And she turnedquay around and walkedđi bộ away.
175
541458
2034
Và cô ấy bỏ đi.
09:16
MindTâm trí you -- she wasn'tkhông phải là rudethô lỗ.
176
544064
1486
Cho bạn biết- cô ấy không thô lỗ
09:17
It was clearlythông suốt: what I don't know
isn't my problemvấn đề, go away, deathtử vong starenhìn chằm chằm.
177
545574
6308
Rõ ràng rằng: điều tôi không biết không phải
là vấn đề của tôi, đi đi, ánh nhìn chết người.
09:23
(LaughterTiếng cười)
178
551906
1246
(Cười lớn)
09:25
Look, suchnhư là a systemhệ thống
mayTháng Năm even be lessít hơn biasedcó thành kiến
179
553862
3839
Một hệ thống như vậy có thể ít thiên vị hơn
09:29
than humanNhân loại managerscán bộ quản lý in some wayscách.
180
557725
2103
những người quản lý theo cách nào đó.
09:31
And it could make monetarytiền tệ sensegiác quan.
181
559852
2146
Và nó có khả năng ra quyết định tài chính.
09:34
But it could alsocũng thế leadchì
182
562573
1650
Nhưng nó cũng có thể dẫn đến
09:36
to a steadyvững chắc but stealthytàng hình
shuttingđóng cửa out of the jobviệc làm marketthị trường
183
564247
4748
một thị trường việc làm ổn định nhưng lén lút cô lập
09:41
of people with highercao hơn riskrủi ro of depressionPhiền muộn.
184
569019
2293
những người có khả năng trầm cảm cao.
09:43
Is this the kindloại of societyxã hội
we want to buildxây dựng,
185
571753
2596
Liệu đây có phải là xã hội mà chúng ta muốn gầy dựng,
09:46
withoutkhông có even knowingbiết we'vechúng tôi đã donelàm xong this,
186
574373
2285
khi mà chúng ta còn thậm chí không biết chúng ta làm vậy,
09:48
because we turnedquay decision-makingquyết định
to machinesmáy móc we don't totallyhoàn toàn understandhiểu không?
187
576682
3964
bởi vì chúng ta phó thác việc ra quyết định cho những cỗ máy mà chính chúng ta cũng không hiểu rõ?
09:53
AnotherKhác problemvấn đề is this:
188
581265
1458
Một vấn đề khác là:
09:55
these systemshệ thống are oftenthường xuyên trainedđào tạo
on datadữ liệu generatedtạo ra by our actionshành động,
189
583314
4452
những hệ thống này được huấn luyện dựa trên những dữ liệu lấy từ các hành động của chúng ta,
09:59
humanNhân loại imprintsnhánh nhà xuất bản.
190
587790
1816
dấu ấn của con người.
10:02
Well, they could just be
reflectingphản ánh our biasessự thiên vị,
191
590188
3808
Chúng có thể phản ánh những thiên vị của chúng ta,
10:06
and these systemshệ thống
could be pickingnhặt up on our biasessự thiên vị
192
594020
3593
và những hệ thống này có thể bắt nhịp những thiên vị của chúng ta
10:09
and amplifyingkhuyếch đại them
193
597637
1313
và phóng đại chúng
10:10
and showinghiển thị them back to us,
194
598974
1418
và thể hiện chúng lại cho chúng ta,
10:12
while we're tellingnói ourselveschúng ta,
195
600416
1462
trong khi chúng ta lại tự bảo bản thân,
10:13
"We're just doing objectivemục tiêu,
neutralTrung tính computationtính toán."
196
601902
3117
"Chúng ta đang tính toán một cách trung lập, khách quan."
10:18
ResearchersCác nhà nghiên cứu foundtìm that on GoogleGoogle,
197
606314
2677
Các nhà nghiên cứu tìm ra rằng trên Google,
10:22
womenđàn bà are lessít hơn likelycó khả năng than menđàn ông
to be shownđược hiển thị jobviệc làm adsQuảng cáo for high-payingthu nhập cao jobscông việc.
198
610134
5313
phụ nữ ít được cho thấy những thông cáo việc làm lương cao hơn đàn ông.
10:28
And searchingđang tìm kiếm for African-AmericanNgười Mỹ gốc Phi namestên
199
616463
2530
Và các tìm kiếm tên của người Mỹ gốc Phi
10:31
is more likelycó khả năng to bringmang đến up adsQuảng cáo
suggestinggợi ý criminalphạm tội historylịch sử,
200
619017
4706
sẽ dễ dẫn đến những cảnh báo tiền án tội phạm hơn,
10:35
even when there is nonekhông ai.
201
623747
1567
ngay cả khi người đó không hề phạm tội.
10:38
SuchNhư vậy hiddenẩn biasessự thiên vị
and black-boxhộp đen algorithmsthuật toán
202
626693
3549
Những thiên vị tiềm ẩn và những thuật toán hộp-đen như vậy
10:42
that researchersCác nhà nghiên cứu uncoverkhám phá sometimesđôi khi
but sometimesđôi khi we don't know,
203
630266
3973
được các nhà nghiên cứu thỉnh thoảng tìm ra nhưng thỉnh thoảng chúng ta không hề biết,
10:46
can have life-alteringthay đổi cuộc sống consequenceshậu quả.
204
634263
2661
có thể có các hậu quả nặng nề.
10:49
In WisconsinWisconsin, a defendantbị đơn
was sentencedkết án to sixsáu yearsnăm in prisonnhà tù
205
637958
4159
Ở Wisconsin, một bị cáo bị kết án sáu năm tù
10:54
for evadingtrốn tránh the policecảnh sát.
206
642141
1355
vì trốn tránh cảnh sát.
10:56
You mayTháng Năm not know this,
207
644824
1186
Bạn có thể không biết rằng,
10:58
but algorithmsthuật toán are increasinglyngày càng used
in paroletạm tha and sentencingquyết định hình phạt decisionsquyết định.
208
646034
3998
các thuật toán ngày càng được sử dụng trong việc ân xá và kết án nhiều hơn.
11:02
He wanted to know:
How is this scoreghi bàn calculatedtính toán?
209
650056
2955
Ông ta muốn biết: Kết quả này được tính toán như thế nào?
11:05
It's a commercialthương mại blackđen boxcái hộp.
210
653795
1665
Nó là một hộp đen thương hiệu.
11:07
The companyCông ty refusedtừ chối to have its algorithmthuật toán
be challengedthách thức in openmở courttòa án.
211
655484
4205
Công ty từ chối để cho thuật toán của mình bị chất vấn ở các phiên tòa mở.
11:12
But ProPublicaProPublica, an investigativeđiều tra
nonprofitphi lợi nhuận, auditedkiểm toán that very algorithmthuật toán
212
660396
5532
Nhưng ProPublica, một tổ chức điều tra phi lợi nhuận, đã kiểm tra chính thuật toán
11:17
with what publiccông cộng datadữ liệu they could find,
213
665952
2016
họ dùng để tra cứu các dữ liệu công cộng,
11:19
and foundtìm that its outcomeskết quả were biasedcó thành kiến
214
667992
2316
và nhận ra rằng các kết quả của chúng rất thiên vị
11:22
and its predictivetiên đoán powerquyền lực
was dismalảm đạm, barelyvừa đủ better than chancecơ hội,
215
670332
3629
và khả năng dự đoán của nó rất ảm đạm, chẳng hơn đoán mò bao nhiêu,
11:25
and it was wronglysai labelingnhãn mác
blackđen defendantsbị cáo as futureTương lai criminalstội phạm
216
673985
4416
và nó kết luận sai các bị cáo da đen có thể thành phạm nhân tương lai
11:30
at twicehai lần the ratetỷ lệ of whitetrắng defendantsbị cáo.
217
678425
3895
nhiều gấp đôi bị cáo da trắng.
11:35
So, considerxem xét this casetrường hợp:
218
683891
1564
Thử nhìn vào vụ án này:
11:38
This womanđàn bà was latemuộn
pickingnhặt up her godsistergodsister
219
686103
3852
Người phụ nữ này đón chị đỡ đầu của bà trễ
11:41
from a schooltrường học in BrowardBroward CountyQuận, FloridaFlorida,
220
689979
2075
từ một trường ở quận Broward, Florida,
11:44
runningđang chạy down the streetđường phố
with a friendngười bạn of herscủa cô ấy.
221
692757
2356
chạy xuống phố với một người bạn của bà.
11:47
They spottedphát hiện an unlockedmở khóa kid'strẻ em bikexe đạp
and a scooterxe tay ga on a porchhiên nhà
222
695137
4099
Họ nhìn thấy một chiếc xe đạp trẻ em không khóa và một chiếc xe máy trên hiên nhà
11:51
and foolishlyfoolishly jumpednhảy lên on it.
223
699260
1632
và họ nghịch ngợm nhảy lên nó.
11:52
As they were speedingđẩy nhanh tiến độ off,
a womanđàn bà cameđã đến out and said,
224
700916
2599
Trong khi họ đang tăng tốc, một người phụ nữ chạy ra và la lên rằng,
11:55
"Hey! That's my kid'strẻ em bikexe đạp!"
225
703539
2205
"Hey, đó là xe đạp của con tôi!"
11:57
They droppedgiảm it, they walkedđi bộ away,
but they were arrestedbị bắt.
226
705768
3294
Họ quăng chiếc xe lại, chạy đi, nhưng họ bị bắt.
12:01
She was wrongsai rồi, she was foolishngu si,
but she was alsocũng thế just 18.
227
709086
3637
Cô sai, cô ngu ngốc, nhưng cô vẫn chỉ mới 18 tuổi.
12:04
She had a couplevợ chồng of juvenilevị thành niên misdemeanorstội nhẹ.
228
712747
2544
Cô đã phạm một vài tội vị thành niên.
12:07
MeanwhileTrong khi đó, that man had been arrestedbị bắt
for shopliftingtrộm cắp in Home DepotDepot --
229
715808
5185
Trong khi đó, một người đàn ông bị bắt vì trộm đồ ở Home Depot --
12:13
85 dollars'USD' worthgiá trị of stuffđồ đạc,
a similargiống pettynhỏ crimetội ác.
230
721017
2924
một mớ đồ trị giá $85, một tội ăn cắp vặt.
12:16
But he had two priortrước
armedTrang bị vũ khí robberycướp tài sản convictionsán.
231
724766
4559
Nhưng ông có hai tiền án cướp có vũ khí.
12:21
But the algorithmthuật toán scoredghi bàn her
as highcao riskrủi ro, and not him.
232
729955
3482
Nhưng thuật toán lại chấm điểm cô ấy có khả năng phạm tội cao hơn ông ta.
12:26
Two yearsnăm latermột lát sau, ProPublicaProPublica foundtìm
that she had not reoffendedreoffended.
233
734746
3874
Hai năm sau, ProPublica nhận thấy rằng cô ấy không hề tái phạm.
12:30
It was just hardcứng to get a jobviệc làm
for her with her recordghi lại.
234
738644
2550
Nhưng cô ấy chỉ khó kiếm được việc làm với tiền án như v6a5y.
12:33
He, on the other handtay, did reoffendreoffend
235
741218
2076
Ngược lại, ông ta tái phậm
12:35
and is now servingphục vụ an eight-yeartám năm
prisonnhà tù termkỳ hạn for a latermột lát sau crimetội ác.
236
743318
3836
và hiện đang bị ở tù tám năm cho tội ác sau này.
12:40
ClearlyRõ ràng, we need to auditkiểm toán our blackđen boxeshộp
237
748088
3369
Rõ ràng, chúng ta cần kiểm tra các hộp đen của chúng ta
12:43
and not have them have
this kindloại of uncheckedđánh dấu powerquyền lực.
238
751481
2615
và không để chúng có những sức mạnh không kiểm soát này.
12:46
(ApplauseVỗ tay)
239
754120
2879
(Vỗ tay)
12:50
AuditsKiểm toán are great and importantquan trọng,
but they don't solvegiải quyết all our problemscác vấn đề.
240
758087
4242
Kiểm tra rất tuyệt vời và quan trọng, nhưng chúng không giải quyết hết các vấn đề của chúng ta.
12:54
Take Facebook'sCủa Facebook powerfulquyền lực
newsTin tức feednuôi algorithmthuật toán --
241
762353
2748
Ví dụ như thuật toán trang chủ hùng mạnh của Facebook --
12:57
you know, the one that rankscấp bậc everything
and decidesquyết định what to showchỉ you
242
765125
4843
bạn biết đấy, cái đánh giá mọi thứ và quyết định sẽ cho bạn xem cái gì
13:01
from all the friendsbạn bè and pagestrang you followtheo.
243
769992
2284
từ bạn bè và những trang bạn theo dõi.
13:04
Should you be shownđược hiển thị anotherkhác babyđứa bé picturehình ảnh?
244
772898
2275
Liệu bạn có nên được cho xem thêm một bức ảnh trẻ con nữa?
13:07
(LaughterTiếng cười)
245
775197
1196
(Cười lớn)
13:08
A sullen notechú thích from an acquaintancengười quen?
246
776417
2596
Một thông điệp u tối từ một người quen?
13:11
An importantquan trọng but difficultkhó khăn newsTin tức itemmục?
247
779449
1856
Một mẩu tin quan trọng nhưng phức tạp?
13:13
There's no right answercâu trả lời.
248
781329
1482
Không hề có câu trả lời đúng nào.
13:14
FacebookFacebook optimizestối ưu hóa
for engagementhôn ước on the siteđịa điểm:
249
782835
2659
Facebook tối đa hóa các tương tác trên trang chủ:
13:17
likesthích, sharescổ phiếu, commentsbình luận.
250
785518
1415
thích, chia sẻ, bình luận.
13:20
In AugustTháng tám of 2014,
251
788168
2696
Vào tháng 8/2014,
13:22
protestsphản đối brokeđã phá vỡ out in FergusonFerguson, MissouriMissouri,
252
790888
2662
biểu tình diễn ra ở Ferguson, Missouri,
13:25
after the killinggiết chết of an African-AmericanNgười Mỹ gốc Phi
teenagerthiếu niên by a whitetrắng policecảnh sát officernhân viên văn phòng,
253
793574
4417
sau vụ thảm sát một thiếu niên Mỹ Phi bởi một cảnh sát da trắng,
13:30
underDưới murkyâm u circumstanceshoàn cảnh.
254
798015
1570
dưới điều kiện mờ ám.
13:31
The newsTin tức of the protestsphản đối was all over
255
799974
2007
Tin tức về các buổi biểu tình tràn ngập
13:34
my algorithmicallyvideo
unfilteredunfiltered TwitterTwitter feednuôi,
256
802005
2685
trên trang chủ Twitter không được thanh lọc bởi thuật toán,
13:36
but nowherehư không on my FacebookFacebook.
257
804714
1950
nhưng không hề hiện ra trên Facebook của tôi.
13:39
Was it my FacebookFacebook friendsbạn bè?
258
807182
1734
Liệu đó có phải do các bạn trên Facebook của tôi?
13:40
I disabledtàn tật Facebook'sCủa Facebook algorithmthuật toán,
259
808940
2032
Tôi tắt thuật toán của Facebook,
13:43
which is hardcứng because FacebookFacebook
keepsgiữ wantingmong muốn to make you
260
811472
2848
và rất khó để làm vậy vì Facebook luôn muốn bạn
13:46
come underDưới the algorithm'scủa thuật toán controlđiều khiển,
261
814344
2036
ở dưới sự kiểm soát của thuật toán,
13:48
and saw that my friendsbạn bè
were talkingđang nói about it.
262
816404
2238
và thấy rằng bạn bè tôi đang nói về vấn đề đó.
13:50
It's just that the algorithmthuật toán
wasn'tkhông phải là showinghiển thị it to me.
263
818666
2509
Chỉ là do thuật toán không cho tôi thấy điều đó.
13:53
I researchednghiên cứu this and foundtìm
this was a widespreadphổ biến rộng rãi problemvấn đề.
264
821199
3042
Tôi đi tìm hiểu và phát hiện ra rằng đây là một vấn đề phổ biến.
13:56
The storycâu chuyện of FergusonFerguson
wasn'tkhông phải là algorithm-friendlythuật toán thân thiện.
265
824265
3813
Câu chuyện ở Ferguson không hề thân thiện với thuật toán.
14:00
It's not "likablesự."
266
828102
1171
Nó không được "yêu thích".
14:01
Who'sNhững người của going to clicknhấp chuột on "like?"
267
829297
1552
Ai sẽ bấm "thích"?
14:03
It's not even easydễ dàng to commentbình luận on.
268
831500
2206
Nó không hề đơn giản để bình luận.
14:05
WithoutNếu không có likesthích and commentsbình luận,
269
833730
1371
Thiếu các lượt yêu thích và bình luận,
14:07
the algorithmthuật toán was likelycó khả năng showinghiển thị it
to even fewerít hơn people,
270
835125
3292
thuật toán lại hiển thị nó cho càng ít người,
14:10
so we didn't get to see this.
271
838441
1542
cho nên chúng ta không hề thấy nó.
14:12
InsteadThay vào đó, that weektuần,
272
840946
1228
Thay vào đó, trong tuần đó,
14:14
Facebook'sCủa Facebook algorithmthuật toán highlightednhấn mạnh this,
273
842198
2298
Thuật toán của Facebook lại làm nổi bật mẩu tin
14:16
which is the ALSALS IceBăng BucketThùng ChallengeThách thức.
274
844520
2226
về ALS Thử Thách Chậu Đá.
14:18
WorthyXứng đáng causenguyên nhân; dumpđổ iceNước đá waterNước,
donatequyên góp to charitytừ thiện, fine.
275
846770
3742
Một động cơ cao cả; đổ chậu nước đá, quyên góp từ thiện, tốt thôi.
14:22
But it was supersiêu algorithm-friendlythuật toán thân thiện.
276
850536
1904
Nhưng nó rất được thuật toán yêu thích.
14:25
The machinemáy móc madethực hiện this decisionphán quyết for us.
277
853219
2613
Cỗ máy đưa ra quyết định này cho chúng ta.
14:27
A very importantquan trọng
but difficultkhó khăn conversationcuộc hội thoại
278
855856
3497
Một cuộc hội thoại quan trọng nhưng khó khăn
14:31
mightcó thể have been smotheredsmothered,
279
859377
1555
có thể vừa bị giết chết,
14:32
had FacebookFacebook been the only channelkênh.
280
860956
2696
nếu như Facebook là cổng thông tin duy nhất.
14:36
Now, finallycuối cùng, these systemshệ thống
can alsocũng thế be wrongsai rồi
281
864117
3797
Cuối cùng, các hệ thống này có thể phạm lỗi
14:39
in wayscách that don't resemblegiống như humanNhân loại systemshệ thống.
282
867938
2736
theo nhiều cách không giống gì hệ thống con người.
14:42
Do you guys remembernhớ lại WatsonWatson,
IBM'sCủa IBM machine-intelligenceMáy thông minh systemhệ thống
283
870698
2922
Quý vị còn nhớ Watson, hệ thống máy móc thông minh của IBM
14:45
that wipedxóa sổ the floorsàn nhà
with humanNhân loại contestantsthí sinh on JeopardyLâm nguy?
284
873644
3128
quét sạch các người thi con người trong trò Jeopardy?
14:49
It was a great playerngười chơi.
285
877131
1428
Nó là một người chơi tuyệt vời.
14:50
But then, for FinalCuối cùng JeopardyLâm nguy,
WatsonWatson was askedyêu cầu this questioncâu hỏi:
286
878583
3569
Nhưng ở màn cuối của Jeopardy, khi được hỏi:
14:54
"Its largestlớn nhất airportsân bay is namedđặt tên
for a WorldTrên thế giới WarChiến tranh IIII heroanh hùng,
287
882659
2932
"Sân bay lớn nhất của thành phố này được đặt tên theo một anh hùng Thế Chiến II,
14:57
its second-largestlớn thứ hai
for a WorldTrên thế giới WarChiến tranh IIII battlechiến đấu."
288
885615
2252
sân bay lớn nhì được đặt tên theo một trận đánh trong Thế Chiến II."
14:59
(HumsHums FinalCuối cùng JeopardyLâm nguy musicÂm nhạc)
289
887891
1378
(Nhạc nền Jeopardy)
15:01
ChicagoChicago.
290
889582
1182
Chicago.
15:02
The two humanscon người got it right.
291
890788
1370
Hai người chơi con người đoán đúng.
15:04
WatsonWatson, on the other handtay,
answeredđã trả lời "TorontoToronto" --
292
892697
4348
Ngược lại, Watson lại trả lời "Toronto" --
15:09
for a US citythành phố categorythể loại!
293
897069
1818
cho một phân mục thành phố Mỹ!
15:11
The impressiveấn tượng systemhệ thống alsocũng thế madethực hiện an errorlỗi
294
899596
2901
Một hệ thống ấn tượng phạm một lỗi
15:14
that a humanNhân loại would never make,
a second-graderhọc sinh lớp thứ hai wouldn'tsẽ không make.
295
902521
3651
mà không một con người nào sẽ mắc phải, ngay cả một học sinh cấp 2.
15:18
Our machinemáy móc intelligenceSự thông minh can failThất bại
296
906823
3109
Cỗ máy thông minh của chúng ta đã thất bại
15:21
in wayscách that don't fitPhù hợp
errorlỗi patternsmẫu of humanscon người,
297
909956
3100
theo nhiều cách không hề giống con người,
15:25
in wayscách we won'tsẽ không expectchờ đợi
and be preparedchuẩn bị for.
298
913080
2950
theo những cách chúng ta không ngờ tới và không chuẩn bị cho.
15:28
It'dNó sẽ be lousytồi tệ not to get a jobviệc làm
one is qualifiedđủ điều kiện for,
299
916054
3638
Sẽ thật tệ nếu như một người không được nhận vào một công việc mà họ đủ tiêu chuẩn,
15:31
but it would tripleba suckhút
if it was because of stackcây rơm overflowtràn
300
919716
3727
nhưng nó sẽ còn tệ gấp ba lần nếu như lý do là vì sự tắc nghẽn thông tin
15:35
in some subroutinechương trình con.
301
923467
1432
trong một thủ tục phụ nào đó.
15:36
(LaughterTiếng cười)
302
924923
1579
(Cười lớn)
15:38
In MayCó thể of 2010,
303
926526
2786
Vào tháng 5/2010,
15:41
a flashđèn flash crashtai nạn on WallBức tường StreetStreet
fueledđược thúc đẩy by a feedbackPhản hồi loopvòng lặp
304
929336
4044
một khủng hoảng nhỏ ở Wall Street xảy ra do hệ thống phản hồi
15:45
in WallBức tường Street'sStreet's "sellbán" algorithmthuật toán
305
933404
3028
trong thuật toán "bán" của Wall Street
15:48
wipedxóa sổ a trillionnghìn tỉ dollarsUSD
of valuegiá trị in 36 minutesphút.
306
936456
4184
làm bốc hơi một trị giá 1000 tỉ đô trong 36 phút.
15:53
I don't even want to think
what "errorlỗi" meanscó nghĩa
307
941722
2187
Tôi không hề muốn nghĩ đến "lỗi" đó là gì
15:55
in the contextbối cảnh of lethalgây chết người
autonomoustự trị weaponsvũ khí.
308
943933
3589
khi nói đến các vũ khí tự phát nguy hiểm.
16:01
So yes, humanscon người have always madethực hiện biasessự thiên vị.
309
949894
3790
Cho nên vâng, con người luôn thiên vị.
16:05
DecisionQuyết định makersnhà sản xuất and gatekeepersgatekeepers,
310
953708
2176
Các người đưa ra quyết định và những người gác cổng,
16:07
in courtstoà án, in newsTin tức, in warchiến tranh ...
311
955908
3493
trong tòa án, trên báo chí, trong chiến tranh,...
16:11
they make mistakessai lầm;
but that's exactlychính xác my pointđiểm.
312
959425
3038
họ phạm sai lầm; nhưng đó chính xác là điều tôi muốn nói.
16:14
We cannotkhông thể escapethoát khỏi
these difficultkhó khăn questionscâu hỏi.
313
962487
3521
Chúng ta không thể trốn tránh những câu hỏi khó.
16:18
We cannotkhông thể outsourcethuê ngoài
our responsibilitiestrách nhiệm to machinesmáy móc.
314
966596
3516
Chúng ta không thể phó thác trách nhiệm của chúng ta cho máy móc.
16:22
(ApplauseVỗ tay)
315
970676
4208
(Vỗ tay)
16:29
ArtificialNhân tạo intelligenceSự thông minh does not give us
a "Get out of ethicsĐạo Đức freemiễn phí" cardThẻ.
316
977089
4447
Trí tuệ nhân tạo không cho chúng ta một thẻ "Trốn tránh đạo đức miễn phí"
16:34
DataDữ liệu scientistnhà khoa học FredFred BenensonBenenson
callscuộc gọi this math-washingtoán học-rửa.
317
982742
3381
Nhà khoa học dữ liệu Fred Benenson gọi đây là tẩy rửa toán học.
16:38
We need the oppositeđối diện.
318
986147
1389
Chúng ta cần điều ngược lại.
16:39
We need to cultivatetrồng algorithmthuật toán suspicionnghi ngờ,
scrutinyGiám sát and investigationcuộc điều tra.
319
987560
5388
Chúng ta cần nuôi dưỡng các hoài nghi về các thuật toán, các khó khăn và điều tra.
16:45
We need to make sure we have
algorithmicthuật toán accountabilitytrách nhiệm giải trình,
320
993380
3198
Chúng ta cần đảm bảo tính trung thực của các thuật toán,
16:48
auditingkiểm toán and meaningfulcó ý nghĩa transparencyminh bạch.
321
996602
2445
sự rõ ràng ý nghĩa và qua kiểm tra.
16:51
We need to acceptChấp nhận
that bringingđưa mathmôn Toán and computationtính toán
322
999380
3234
Chúng ta cần chấp nhận rằng khi đem toán học và tính toán
16:54
to messylộn xộn, value-ladengiá trị-laden. humanNhân loại affairsvấn đề
323
1002638
2970
vào các vấn đề phức tạp, nhiều tầng giá trị của con người
16:57
does not bringmang đến objectivitykhách quan;
324
1005632
2384
không hề đem đến tính khách quan;
17:00
ratherhơn, the complexityphức tạp of humanNhân loại affairsvấn đề
invadesxâm nhập the algorithmsthuật toán.
325
1008040
3633
mà ngược lại, sự phức tạp của các vấn đề của con người xâm lấn các thuật toán.
17:04
Yes, we can and we should use computationtính toán
326
1012148
3487
Vâng, chúng ta có thể và nên sử dụng tính toán
17:07
to help us make better decisionsquyết định.
327
1015659
2014
để giúp chúng ta đưa ra các quyết định đúng đắn hơn.
17:09
But we have to ownsở hữu up
to our moralđạo đức responsibilitytrách nhiệm to judgmentphán đoán,
328
1017697
5332
Nhưng chúng ta cần chịu trách nhiệm cho các quyết định mang tính đạo đức của chúng ta,
17:15
and use algorithmsthuật toán withinbên trong that frameworkkhuôn khổ,
329
1023053
2818
và sử dụng thuật toán nội trong khuôn khổ đó,
17:17
not as a meanscó nghĩa to abdicatethoái vị
and outsourcethuê ngoài our responsibilitiestrách nhiệm
330
1025895
4935
chứ không phải như một phương tiện để từ bỏ và phó thác trách nhiệm của chúng ta
17:22
to one anotherkhác as humanNhân loại to humanNhân loại.
331
1030854
2454
cho người khác giữa người với người.
17:25
MachineMáy intelligenceSự thông minh is here.
332
1033807
2609
Máy móc thông minh tồn tại ở đây.
17:28
That meanscó nghĩa we mustphải holdgiữ on ever tighterchặt chẽ hơn
333
1036440
3421
Điều đó có nghĩa là chúng ta cần .... hơn
17:31
to humanNhân loại valuesgiá trị and humanNhân loại ethicsĐạo Đức.
334
1039885
2147
các giá trị nhân bản và đạo đức nhân văn.
17:34
Thank you.
335
1042056
1154
Xin cám ơn.
17:35
(ApplauseVỗ tay)
336
1043234
5020
(Vỗ tay)
Translated by Le Huong

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com